JP7156107B2 - In-vehicle device, learning system and data transmission method - Google Patents

In-vehicle device, learning system and data transmission method Download PDF

Info

Publication number
JP7156107B2
JP7156107B2 JP2019044967A JP2019044967A JP7156107B2 JP 7156107 B2 JP7156107 B2 JP 7156107B2 JP 2019044967 A JP2019044967 A JP 2019044967A JP 2019044967 A JP2019044967 A JP 2019044967A JP 7156107 B2 JP7156107 B2 JP 7156107B2
Authority
JP
Japan
Prior art keywords
data
unit
learning
accuracy
object recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019044967A
Other languages
Japanese (ja)
Other versions
JP2020149224A (en
Inventor
暁彦 守屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019044967A priority Critical patent/JP7156107B2/en
Publication of JP2020149224A publication Critical patent/JP2020149224A/en
Application granted granted Critical
Publication of JP7156107B2 publication Critical patent/JP7156107B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

車載装置、学習システムおよびデータ送信方法に関する。 The present invention relates to an in-vehicle device, a learning system, and a data transmission method.

人工知能により種々の情報処理が可能になっている。特許文献1には、車両で撮像された画像データをサーバに送信し、サーバが、その画像データを用いて学習するシステムが開示されている。 Artificial intelligence has made it possible to process various types of information. Patent Literature 1 discloses a system in which image data captured by a vehicle is transmitted to a server, and the server learns using the image data.

特許文献1に開示されたシステムでは、車両は、画像認識を行い、認識結果データを送信する。サーバは、認識結果データを受信し、認識結果データが妥当であるか否かを判断する。認識結果データが妥当でないと判断した場合に、車両に、画像データを要求する。サーバが、認識結果データは妥当であると判断した場合には、車両からサーバに画像データは送信されない。したがって、車からサーバに送信される通信量が削減される。 In the system disclosed in Patent Literature 1, a vehicle performs image recognition and transmits recognition result data. The server receives the recognition result data and determines whether the recognition result data is valid. When it is determined that the recognition result data is not valid, the vehicle is requested to send the image data. If the server determines that the recognition result data is valid, the image data is not transmitted from the vehicle to the server. Therefore, the amount of communication sent from the car to the server is reduced.

特開2018-206108号公報Japanese Patent Application Laid-Open No. 2018-206108

特許文献1に開示されたシステムは、通信量を削減することはできる。しかし、学習により処理精度を向上させるには、精度のよい多くのデータが学習用データとして供給されることが好ましい。 The system disclosed in Patent Literature 1 can reduce communication traffic. However, in order to improve processing accuracy by learning, it is preferable to supply a large amount of highly accurate data as learning data.

車両で取得されたデータが、全部、サーバに送信されるとすれば、通信量が多くなりすぎる。加えて、精度の悪いデータを用いると、学習精度が低下してしまう恐れもある。 If all the data acquired by the vehicle were to be sent to the server, the amount of communication would be too large. In addition, the use of data with poor accuracy may reduce the learning accuracy.

本開示は、この事情に基づいて成されたものであり、その目的とするところは、通信負荷を低減し、かつ、学習精度の低下を抑制できる車載装置、学習システムおよびデータ送信方法を提供することにある。 The present disclosure has been made based on this situation, and its object is to provide an in-vehicle device, a learning system, and a data transmission method that can reduce the communication load and suppress the deterioration of the learning accuracy. That's what it is.

上記目的は独立請求項に記載の特徴の組み合わせにより達成され、また、下位請求項は更なる有利な具体例を規定する。特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、開示した技術的範囲を限定するものではない。 The above objects are achieved by the combination of features stated in the independent claims, and the sub-claims define further advantageous embodiments. The symbols in parentheses described in the claims indicate the corresponding relationship with specific means described in the embodiments described later as one aspect, and do not limit the disclosed technical scope.

上記目的を達成するための車載装置に係る1つの開示は、
車両(2)に搭載され、サーバ(6)に学習用データを送信する車載装置(3)であって、
車両の走行中に走行状況データを取得するデータ取得部(S1)と、
走行状況データに基づいて物体認識処理を実行する物体認識部(S3)と、
物体認識部による物体認識処理の精度を決定する認識精度決定部(S6)と、
認識精度決定部が決定した精度に基づき、当該精度が閾値以上である場合に、走行状況データに基づいて定まる学習用データをサーバに送信することに決定するデータ送信決定部(S7)と、
データ送信決定部が送信すると決定した学習用データを、送信部(24)からサーバに送信させる送信処理部(S9)
学習用データを一時的に記憶するバッファ(34)と、とを備え
送信処理部は、連続した一定時間分の学習用データを送信部から送信させるが、連続した一定時間分の学習用データがバッファに記憶されないと判断した場合、連続した一定時間分のデータにならない学習用データをバッファから削除する。
One disclosure relating to an in-vehicle device for achieving the above object is
An in-vehicle device (3) mounted in a vehicle (2) for transmitting learning data to a server (6),
a data acquisition unit (S1) that acquires driving situation data while the vehicle is running;
an object recognition unit (S3) that executes object recognition processing based on the traveling situation data;
a recognition accuracy determination unit (S6) that determines the accuracy of object recognition processing by the object recognition unit;
a data transmission determination unit (S7) that determines to transmit learning data determined based on driving situation data to a server when the accuracy determined by the recognition accuracy determination unit is equal to or greater than a threshold ; ,
a transmission processing unit (S9) for transmitting the learning data determined to be transmitted by the data transmission determination unit from the transmission unit (24) to the server ;
A buffer (34) for temporarily storing learning data ,
The transmission processing unit causes the transmitting unit to transmit learning data for a continuous fixed period of time, but if it is determined that the continuous fixed time period of learning data is not stored in the buffer, the continuous fixed time period of data is not obtained. Remove the training data from the buffer .

この車載装置は、取得した走行状況データに基づいて定まる学習用データを、全部、サーバに送信するのではない。車載装置は、物体認識処理を行い、かつ、その物体認識処理の精度を決定する。そして、その精度に基づいて学習用データを送信するか否かを決定する。そのため、学習用データを、全部、車載装置から送信するよりも、車載装置が送信するデータ量を少なくすることができる。したがって、学習用データを送信するための通信負荷が低減する。 This in-vehicle device does not transmit all of the learning data determined based on the acquired driving situation data to the server. The in-vehicle device performs object recognition processing and determines the accuracy of the object recognition processing. Then, based on the accuracy, it is determined whether or not to transmit the learning data. Therefore, the amount of data transmitted by the in-vehicle device can be reduced compared to transmitting all the learning data from the in-vehicle device. Therefore, the communication load for transmitting learning data is reduced.

また、この車載装置は、物体認識処理の精度が低かった場合には、学習用データを送信しない。送信されなかった学習用データは学習に用いられない。よって、学習の精度が低下してしまうことを抑制できる。 Moreover, this in-vehicle device does not transmit the learning data when the accuracy of the object recognition processing is low. Learning data that has not been transmitted is not used for learning. Therefore, it is possible to prevent the accuracy of learning from deteriorating.

上記目的を達成するための学習システムに係る1つの開示は、
車両(2)に搭載され、サーバ(6)に学習用データを送信する車載装置(3)と、サーバとを備えた学習システムであって、
車載装置は、
車両の走行中に走行状況データを取得するデータ取得部(S1)と、
走行状況データに基づいて物体認識処理を実行する物体認識部(S3)と、
物体認識部による物体認識処理の精度を決定する認識精度決定部(S6)と、
認識精度決定部が決定した精度に基づき、当該精度が閾値以上である場合に、走行状況データに基づいて定まる学習用データをサーバに送信するか否かを決定するデータ送信決定部(S7)と、
データ送信決定部が送信すると決定した学習用データを、送信部(24)からサーバに送信させる送信処理部(S9)とを備え、
サーバは、
学習用データを受信する受信部(65)と、
受信部が受信した学習用データをもとに学習を実行する学習部(71)と、
物体認識部が実行する物体認識処理よりも高精度な処理を実行して、物体認識部による物体認識処理の精度を決定する精度再決定部(70)と、を備え
学習部は、精度再決定部が決定した精度が、学習に使うべき精度を満たしている場合に、学習用データを学習に用いることに決定する。
One disclosure related to a learning system for achieving the above object is
A learning system comprising an in-vehicle device (3) mounted on a vehicle (2) and transmitting learning data to a server (6), and a server,
In-vehicle equipment
a data acquisition unit (S1) that acquires driving situation data while the vehicle is running;
an object recognition unit (S3) that executes object recognition processing based on the traveling situation data;
a recognition accuracy determination unit (S6) that determines the accuracy of object recognition processing by the object recognition unit;
a data transmission determination unit (S7) that determines whether or not to transmit learning data determined based on driving situation data to a server based on the accuracy determined by the recognition accuracy determination unit when the accuracy is equal to or greater than a threshold; ,
a transmission processing unit (S9) for transmitting the learning data determined to be transmitted by the data transmission determination unit from the transmission unit (24) to the server;
The server
a receiving unit (65) for receiving learning data;
a learning unit (71) that performs learning based on the learning data received by the receiving unit;
an accuracy re-determining unit (70) that determines the accuracy of the object recognition processing by the object recognition unit by executing processing with higher accuracy than the object recognition processing executed by the object recognition unit ;
The learning unit determines to use the learning data for learning when the accuracy determined by the accuracy redetermining unit satisfies the accuracy to be used for learning .

上記目的を達成するためのデータ送信方法は、上記車載装置が実行するデータ送信方法である。 A data transmission method for achieving the above object is a data transmission method executed by the vehicle-mounted device.

すなわち、車両(2)に搭載された車載装置(3)が、サーバ(6)に学習用データを送信するデータ送信方法であって、
車両の走行中に走行状況データを取得し、
走行状況データに基づいて物体認識処理を実行し、
物体認識処理の精度を決定し、
物体認識処理の精度に基づき、当該精度が閾値以上である場合に、走行状況データに基づいて定まる学習用データをサーバに送信することに決定し、
決定した学習用データを、送信部(24)からサーバに送信させ
連続した一定時間分の学習用データを送信部から送信させるが、学習用データを一時的に記憶するバッファ(34)に連続した一定時間分の学習用データが記憶されないと判断した場合、連続した一定時間分のデータにならない学習用データをバッファから削除する。
That is, an in-vehicle device (3) mounted in a vehicle (2) is a data transmission method for transmitting learning data to a server (6),
Acquire driving situation data while the vehicle is running,
Execute object recognition processing based on driving situation data,
Determines the accuracy of object recognition processing,
Based on the accuracy of object recognition processing, when the accuracy is equal to or higher than a threshold, determining to transmit learning data determined based on driving situation data to a server,
causing the determined learning data to be transmitted from the transmission unit (24) to the server ;
The transmitting unit transmits learning data for a continuous fixed time period. Delete learning data that does not become data for a certain amount of time from the buffer .

実施形態の学習システム1の構成を示す図である。It is a figure which shows the structure of the learning system 1 of embodiment. 車載装置3および車載装置3とデータのやりとりを行う種々の機器を示す図である。3 is a diagram showing an in-vehicle device 3 and various devices that exchange data with the in-vehicle device 3. FIG. 車載装置3が実行する処理を示すフローチャートである。4 is a flowchart showing processing executed by the in-vehicle device 3; 図3のS9で実行するデータ送信処理の詳細処理を示すフローチャートである。FIG. 4 is a flowchart showing detailed processing of a data transmission process executed in S9 of FIG. 3; FIG. サーバ6の構成を示す図である。3 is a diagram showing the configuration of a server 6; FIG. 制御部66が実行する機能を示すブロック図である。3 is a block diagram showing functions executed by a control unit 66; FIG.

以下、実施形態を図面に基づいて説明する。図1は、本実施形態の学習システム1の構成を示す図である。学習システム1は、車両2に搭載された車載装置3と、サーバ6とを備えている。 Hereinafter, embodiments will be described based on the drawings. FIG. 1 is a diagram showing the configuration of a learning system 1 of this embodiment. The learning system 1 includes an in-vehicle device 3 mounted in a vehicle 2 and a server 6 .

車両2は、道路を走行する車両であれば特に限定はない。乗用車に限られずトラック、バスも車両2に含まれる。基地局4は、車載装置3との間で無線通信を行う。基地局4と車載装置3との間の通信には、LTE(Long Term Evolution)を用いることができる。LTEは4Gと呼ばれることもある。基地局4は車載装置3から受信したデータを、通信回線網5を介して、車外にあるサーバ6に送信する。また、サーバ6から車載装置3向けのデータが提供された場合には、そのデータを車載装置3へ送信する。 The vehicle 2 is not particularly limited as long as it is a vehicle that travels on roads. Vehicles 2 include not only passenger cars but also trucks and buses. The base station 4 performs wireless communication with the in-vehicle device 3 . LTE (Long Term Evolution) can be used for communication between the base station 4 and the in-vehicle device 3 . LTE is sometimes called 4G. The base station 4 transmits the data received from the in-vehicle device 3 to the server 6 outside the vehicle via the communication network 5 . Further, when data for the in-vehicle device 3 is provided from the server 6 , the data is transmitted to the in-vehicle device 3 .

車載装置3は、車両2の走行中に走行状況データを収集し、その走行状況データをもとに学習用データを生成する。車載装置3はその学習用データを、基地局4および通信回線網5を介してサーバ6に送信する。サーバ6は、学習用データを用いた機械学習を行い、行動予測アルゴリズムの生成および更新を行う。 The in-vehicle device 3 collects traveling situation data while the vehicle 2 is traveling, and generates learning data based on the traveling situation data. In-vehicle device 3 transmits the learning data to server 6 via base station 4 and communication network 5 . The server 6 performs machine learning using learning data to generate and update behavior prediction algorithms.

[車載装置3の構成]
図2には、車載装置3、および、車両2に搭載され、車載装置3とデータのやりとりを行う種々の機器を示している。図2に示すように、車両2には、車載装置3の他に、物体検出センサ21、カメラ22、無線機23が搭載されている。
[Configuration of in-vehicle device 3]
FIG. 2 shows the in-vehicle device 3 and various devices mounted on the vehicle 2 for exchanging data with the in-vehicle device 3 . As shown in FIG. 2 , the vehicle 2 is equipped with an object detection sensor 21 , a camera 22 , and a wireless device 23 in addition to the vehicle-mounted device 3 .

物体検出センサ21は、車両2の周辺にある物体を検出するセンサである。物体検出センサ21の具体例としては、ミリ波レーダ、Lidarがある。物体検出センサ21が検出する物体には、車両、人など、道路およびその周辺に存在している立体物が含まれる。もちろん、車両および人などの移動体に限らず、道路標識、ガードレールなどの静止物体も物体検出センサ21により検出される。また、路面に記された道路標示が物体検出センサ21により検出可能になっていてもよい。 The object detection sensor 21 is a sensor that detects objects around the vehicle 2 . A specific example of the object detection sensor 21 is a millimeter wave radar or Lidar. Objects detected by the object detection sensor 21 include three-dimensional objects such as vehicles and people existing on the road and its surroundings. Of course, the object detection sensor 21 detects not only moving objects such as vehicles and people, but also stationary objects such as road signs and guardrails. Also, road markings written on the road surface may be detectable by the object detection sensor 21 .

カメラ22は、車両2の周囲の画像を逐次撮像する。無線機23は、基地局4との間で無線通信が可能である。無線機23は送信部24と受信部25を備えている。送信部24は、車載装置3から提供されたデータを、変調および増幅等して電波として送信する。車載装置3から送信部24には供給されるデータとして学習用データがある。受信部25は、電波を受信して、その電波を復調および増幅等して電波により搬送されたデータを取り出す。受信部25は取り出したデータを車載装置3に供給する。 The camera 22 sequentially captures images of the surroundings of the vehicle 2 . The wireless device 23 is capable of wireless communication with the base station 4 . The radio 23 has a transmitter 24 and a receiver 25 . The transmission unit 24 modulates and amplifies the data provided from the in-vehicle device 3 and transmits the data as radio waves. Learning data is supplied from the in-vehicle device 3 to the transmission unit 24 . The receiving unit 25 receives radio waves, demodulates and amplifies the radio waves, and extracts data carried by the radio waves. The receiving unit 25 supplies the extracted data to the in-vehicle device 3 .

物体検出センサ21、カメラ22および車載装置3はLANバス26に接続されている。車載装置3は、LANバス26を介して、物体検出センサ21が検出した周辺物体を示すデータ(以下、周辺物体データ)を取得する。また、車載装置3は、LANバス26を介して、カメラ22が撮像した画像データも取得する。 Object detection sensor 21 , camera 22 and in-vehicle device 3 are connected to LAN bus 26 . The in-vehicle device 3 acquires data indicating peripheral objects detected by the object detection sensor 21 (hereinafter referred to as peripheral object data) via the LAN bus 26 . The in-vehicle device 3 also acquires image data captured by the camera 22 via the LAN bus 26 .

LANバス26には、車両挙動データを検出する種々のセンサも直接的あるいは間接的に接続されており、車載装置3は車両挙動データもLANバス26を介して取得することができる。車両挙動データは、車両2の挙動を示すデータあるいは車両2の挙動により変化するデータである。車両挙動データの例としては、車速、車両2の加速度、操舵角、ヨーレート、車両2の進行方位、車両2の位置などがある。周辺物体データは、車両2の外部の走行状況を示すデータであり、車両挙動データは、車両2自体の走行状況を示すデータである。これら周辺物体データおよび車両挙動データは、走行状況データである。 Various sensors for detecting vehicle behavior data are also directly or indirectly connected to the LAN bus 26 , and the in-vehicle device 3 can also acquire vehicle behavior data via the LAN bus 26 . The vehicle behavior data is data that indicates the behavior of the vehicle 2 or data that changes depending on the behavior of the vehicle 2 . Examples of vehicle behavior data include vehicle speed, acceleration of the vehicle 2, steering angle, yaw rate, direction of travel of the vehicle 2, position of the vehicle 2, and the like. The peripheral object data is data indicating the traveling conditions outside the vehicle 2, and the vehicle behavior data is data indicating the traveling conditions of the vehicle 2 itself. These peripheral object data and vehicle behavior data are driving situation data.

車載装置3は、プロセッサ31、ROM32、RAM33、バッファ34などを備えるコンピュータにより実現できる。ROM32には、汎用的なコンピュータを車載装置3として機能させるためのデータ送信プログラムが格納されている。プロセッサ31が、RAM33の一時記憶機能を利用しつつ、ROM32に記憶されたプログラムを実行することで、車載装置3は、図3に示す処理を実行する。図3に示す処理を実行することは、データ送信プログラムに対応するデータ送信方法が実行されることを意味する。 The in-vehicle device 3 can be implemented by a computer including a processor 31, a ROM 32, a RAM 33, a buffer 34, and the like. The ROM 32 stores a data transmission program for causing a general-purpose computer to function as the in-vehicle device 3 . The processor 31 executes the program stored in the ROM 32 while using the temporary storage function of the RAM 33, so that the in-vehicle device 3 executes the processing shown in FIG. Executing the process shown in FIG. 3 means executing the data transmission method corresponding to the data transmission program.

バッファ34には、走行状況データおよび走行状況データから決定される学習用データを一時的に保存される。なお、RAM33をバッファ34として用いることもできる。 The buffer 34 temporarily stores driving condition data and learning data determined from the driving condition data. Note that the RAM 33 can also be used as the buffer 34 .

[車載装置3が実行する処理]
次に、図3および図4を用いて車載装置3が実行する処理を説明する。車載装置3は図3に示す処理を、データ取得周期ごとに実行する。データ取得周期は、車両2の挙動制御の指示値を更新する周期に基づいて定まり、たとえば100msである。
[Processing executed by in-vehicle device 3]
Next, processing executed by the in-vehicle device 3 will be described with reference to FIGS. 3 and 4. FIG. The in-vehicle device 3 executes the processing shown in FIG. 3 for each data acquisition cycle. The data acquisition cycle is determined based on the cycle of updating the command value for the behavior control of the vehicle 2, and is 100 ms, for example.

ステップ(以下、ステップを省略)S1はデータ取得部に相当しており、走行状況データを取得する。前述したように、走行状況データには周辺物体データが含まれる。周辺物体データは、LANバス26を介して物体検出センサ21とカメラ22から取得する。また、走行状況データには、車両挙動データも含まれる。車両挙動データもLANバス26を介して取得する。 Step (hereinafter, step is omitted) S1 corresponds to a data acquisition section, and acquires driving situation data. As described above, the driving situation data includes peripheral object data. Surrounding object data is acquired from the object detection sensor 21 and the camera 22 via the LAN bus 26 . The driving situation data also includes vehicle behavior data. Vehicle behavior data is also obtained via the LAN bus 26 .

S2では、S1で取得した走行状況データをバッファ34に保存する。なお、図3に示す処理では、複数種類の走行状況データを全部、同一のデータ取得周期で取得することになる。しかし、これに限られず、一部の走行状況データをより短い周期で取得してもよい。たとえば、車両挙動データは、より短い周期で取得することとしてもよい。 In S2, the driving condition data acquired in S1 is stored in the buffer 34. FIG. Note that in the process shown in FIG. 3, all of the multiple types of driving situation data are acquired at the same data acquisition cycle. However, the present invention is not limited to this, and some driving situation data may be acquired in a shorter cycle. For example, vehicle behavior data may be obtained at shorter intervals.

S3は物体認識部に相当する。S3では、物体認識処理を行う。物体認識処理は、バッファ34に保存されている走行状況データを用いて行う。物体認識処理に用いる走行状況データは、ミリ波レーダが検出したデータ、Lidarが検出したデータ、カメラ22が撮像した画像データのいずれか1つ以上である。 S3 corresponds to an object recognition unit. In S3, an object recognition process is performed. The object recognition processing is performed using the traveling situation data stored in the buffer 34 . The traveling situation data used for object recognition processing is one or more of data detected by the millimeter wave radar, data detected by Lidar, and image data captured by the camera 22 .

物体認識処理では、物体が移動体であるか静止物体であるかを認識する。また、物体までの距離および物体が存在する相対方位も認識する。これら物体までの距離と相対方位、および、車両2の座標から、物体が存在する座標も決定できる。また、一部の物体については、物体の種類と大きさを決定する。物体の種類として車両と人を認識するようにすることができる。物体の種類を認識するための方法としては、たとえば、HOG(Histogram of Oriented Gradients)、R-CNN(conbolutional nural network)など、種々の方法を用いることができる。物体の大きさは、画像内での物体の大きさ(以下、物体画像の大きさ)と物体までの距離とに基づいて決定する。物体画像の大きさが同じであっても物体までの距離が遠いほど、決定される物体の大きさは大きくなる。物体認識処理を実行して認識した物体までの距離等はバッファ34に保存する。 In the object recognition processing, it is recognized whether the object is a moving object or a stationary object. It also knows the distance to the object and the relative orientation in which the object lies. From the distance and relative orientation to these objects and the coordinates of the vehicle 2, the coordinates at which the objects are located can also be determined. Also, for some objects, the type and size of the object are determined. Vehicles and people can be recognized as types of objects. Various methods such as HOG (Histogram of Oriented Gradients) and R-CNN (convolutional neural network) can be used as methods for recognizing the type of object. The size of the object is determined based on the size of the object in the image (hereinafter referred to as the size of the object image) and the distance to the object. Even if the size of the object image is the same, the larger the distance to the object, the larger the determined size of the object. The distance to the object recognized by executing the object recognition process is stored in the buffer 34 .

S4は挙動制御部に相当する。S4では、挙動制御の目標値を更新する。挙動制御においては、S3における物体認識結果を用いる。また、S1で取得した車両挙動データも用いる。挙動制御の具体的内容は、種々に設定可能である。たとえば、目的地まで車両2を自動運転させる制御とすることができる。また、走行中の車線を維持する車線維持制御、車間距離を維持しつつ直近前方車に追従する制御とすることもできる。本実施形態においては、この挙動制御に特に制限はない。 S4 corresponds to the behavior control unit. In S4, the target value of behavior control is updated. In behavior control, the object recognition result in S3 is used. Vehicle behavior data acquired in S1 is also used. The specific contents of the behavior control can be set variously. For example, the control may be such that the vehicle 2 is automatically driven to the destination. Also, lane keeping control for keeping the lane in which the vehicle is traveling, and control for following the vehicle in front while maintaining the inter-vehicle distance are also possible. In this embodiment, this behavior control is not particularly limited.

S5では、次の処理開始までに、一定時間以上の時間があるか否かを判断する。一定時間は、データ選別処理を行うのに要する時間であり、具体的な時間は予め設定されている。データ選別処理は、S6~S8と、図4に示すS91、S92を意味する。S5の判断結果がNOであれば図3に示す処理を終了する。図3に示す処理を終了した場合には、前回、図3に示す処理を開始した時点からデータ取得周期が経過したときに、再び図3に示す処理を開始する。S3の判断結果がYESであればS6へ進む。 In S5, it is determined whether or not there is a certain period of time or more before the start of the next process. The fixed time is the time required to perform the data selection process, and the specific time is set in advance. The data selection process means S6 to S8 and S91 and S92 shown in FIG. If the judgment result of S5 is NO, the process shown in FIG. 3 is terminated. When the processing shown in FIG. 3 is completed, the processing shown in FIG. 3 is started again when the data acquisition cycle has elapsed since the processing shown in FIG. 3 was started last time. If the determination result of S3 is YES, the process proceeds to S6.

S6は認識精度決定部に相当する処理である。S6では、認識精度を決定する。認識精度は、S3で実行した物体認識処理の精度を意味する。認識精度は、物体の位置と、前回以前に決定した物体の位置の変化から予測できる予測位置との比較に基づいて決定することができる。 S6 is processing corresponding to the recognition accuracy determination unit. In S6, recognition accuracy is determined. The recognition accuracy means the accuracy of the object recognition processing executed in S3. Recognition accuracy can be determined based on a comparison of the position of the object to a predicted position that can be predicted from changes in the position of the object previously determined.

前回以前に決定した物体の位置は、バッファ34に保存されている。前回以前に決定した物体の位置の変化から、物体の移動速度と移動方向を算出できる。前回のS3の処理において決定した物体の位置と、算出した移動速度および移動方向により、今回、物体が検出されると予測される予測位置を算出することができる。このようにして算出した今回の予測位置と、今回のS3で決定した物体の位置との差が大きいほど、認識精度を低い値に決定する。 Previously determined object positions are stored in buffer 34 . The moving speed and moving direction of the object can be calculated from the change in the position of the object determined before the previous time. Based on the position of the object determined in the previous process of S3 and the calculated moving speed and moving direction, it is possible to calculate the predicted position where the object is expected to be detected this time. The greater the difference between the predicted position calculated this time and the position of the object determined in S3 this time, the lower the recognition accuracy is set.

さらに、検出した物体の位置と、物体の予測位置との差を時系列的に用いて認識精度を決定することもできる。たとえば、予め設定した判断基準期間内における上記差の積分値に基づいて認識精度を決定することができる。上記積分値は、物体認識精度が悪いほど大きな値になる。そこで、上記積分値が大きいほど物体認識精度を悪い値に決定することができる。なお、物体認識精度は、連続的な値で示してもよいが、3段階など、多段の不連続な値で示すこともできる。また、「良い」、「普通」、「悪い」などの程度を示す複数の用語で認識精度を決定してもよい。 Further, the recognition accuracy can be determined by using the difference between the detected object position and the predicted object position in time series. For example, the recognition accuracy can be determined based on the integral value of the difference within a predetermined criterion period. The integral value increases as the object recognition accuracy decreases. Therefore, the larger the integrated value, the worse the object recognition accuracy can be determined. Note that the object recognition accuracy may be indicated by a continuous value, but it can also be indicated by a multi-step discontinuous value such as three steps. Also, the recognition accuracy may be determined using a plurality of terms such as "good", "average", and "bad".

また、物体の位置に加えて、あるいは、物体の位置に代えて、検出した物体の大きさと、物体の種類から決定できる標準的な大きさ範囲とを比較して、認識精度を決定してもよい。たとえば、物体が、実際には電柱であるのに、人であると認識したとする。この場合、認識した物体の大きさが、人である場合の標準的な大きさ範囲から外れる可能性が高い。標準的な大きさ範囲から外れているほど、認識精度を悪い値あるいはレベルに決定する。 In addition to the position of the object, or instead of the position of the object, the recognition accuracy may be determined by comparing the size of the detected object with a standard size range that can be determined from the type of object. good. For example, suppose an object is recognized as a person when it is actually a telephone pole. In this case, the size of the recognized object is likely to be out of the standard size range for humans. The more out of the standard size range, the worse value or level the recognition accuracy is determined.

S7はデータ送信決定部に相当する処理である。S7では、学習用データを送信するか否かを決定する。学習用データは、S1で取得した走行状況データあるいはその走行状況データから定まるデータである。学習用データの一例を示すと、S1で取得した走行状況データのうち、予め設定されている種類のデータを学習用データとすることができる。たとえば、車両2の座標、周辺物体データおよび画像データのいずれか一方または両方を学習用データに含ませることができる。S6で決定した認識精度が高いと判断できる場合、学習用データを送信することに決定する。認識精度が閾値以上である場合には、認識精度は高いとする。 S7 is processing corresponding to the data transmission determination unit. In S7, it is determined whether or not to transmit learning data. The data for learning is data determined from the driving condition data acquired in S1 or the driving condition data. As an example of the data for learning, data of a preset type among the driving situation data acquired in S1 can be used as the data for learning. For example, one or both of the coordinates of the vehicle 2, peripheral object data, and image data can be included in the learning data. If it can be determined that the recognition accuracy determined in S6 is high, it is determined to transmit the learning data. If the recognition accuracy is equal to or higher than the threshold, it is assumed that the recognition accuracy is high.

S8では、S7で送信すると決定した学習用データをバッファ34に保存する。S9は送信処理部に相当し、データ送信処理を実行する。データ送信処理では、図4に示す処理を実行する。 In S8, the learning data determined to be transmitted in S7 is stored in the buffer 34. FIG. S9 corresponds to a transmission processing unit, which executes data transmission processing. In the data transmission process, the process shown in FIG. 4 is executed.

図4において、S91では、バッファ34に記憶されている学習用データに、グループが不成立となったデータがあるか否かを判断する。グループとは、連続した一定時間分の学習用データである。一定時間は、サーバ6において、移動体が移動する位置を予測するために必要な時間である。一定時間は予め設定されている。一定時間は、物体の種類により異なる時間とすることができる。たとえは、人についての一定時間を車についての一定時間よりも短い時間に設定してもよい。したがって、グループは、物体の種類別とすることができる。具体的な時間は、実験等に基づいて設定することになる。具体的な時間を例示すると、車についての一定時間は30秒とし、人についての一定時間は10秒とすることができる。 In FIG. 4, in S91, it is determined whether or not the learning data stored in the buffer 34 includes data for which a group is not established. A group is continuous learning data for a certain period of time. The fixed time is the time required for the server 6 to predict the position to which the moving object will move. A certain period of time is set in advance. The fixed period of time can be a different period of time depending on the type of object. For example, the fixed time for people may be set to a shorter time than the fixed time for cars. Thus, groups can be by object type. A specific time is set based on experiments and the like. As a specific example of time, the fixed time for a car can be 30 seconds, and the fixed time for a person can be 10 seconds.

車についての一定時間が30秒に設定されている場合、S91では、バッファ34に記憶されている車についての学習用データに、連続時間が30秒未満の学習用データがあるか否かを判断することになる。連続時間が30秒未満の学習用データがある場合には、グループ不成立データありと判断する。グループ不成立データあり、すなわち、S91の判断結果がYESである場合にはS92へ進む。一方、S91の判断結果がNOである場合にはS92を実行することなく図4の処理を終了する。 When the fixed time for the car is set to 30 seconds, in S91, it is determined whether or not there is learning data for the continuous time of less than 30 seconds in the learning data for the car stored in the buffer 34. will do. If there is learning data with a continuous time of less than 30 seconds, it is determined that there is group failure data. If there is group failure data, that is, if the determination result of S91 is YES, the process proceeds to S92. On the other hand, if the determination result of S91 is NO, the process of FIG. 4 is terminated without executing S92.

S92では、グループが不成立となっていると判断した学習用データをバッファ34から削除する。S93では、次の処理開始までに、データ送信処理を行うために必要な最小時間以上の時間があるか否かを判断する。この最小時間は予め設定しておくことができる。また、最小時間は、現時点での通信環境に応じて都度、決定してもよい。ベストエフォート型の通信の場合には、通信環境に応じて通信速度が変化する。そのため、通信を確立し、ペイロードである学習用データを少なくとも最小単位、送信するために必要な時間が変動するからである。 At S<b>92 , the learning data for which it is determined that the group is not established is deleted from the buffer 34 . In S93, it is determined whether or not there is a time equal to or longer than the minimum time required to perform the data transmission process before the start of the next process. This minimum time can be preset. Also, the minimum time may be determined each time according to the current communication environment. In the case of best-effort communication, the communication speed changes according to the communication environment. Therefore, the time required to establish communication and transmit at least the minimum unit of learning data, which is a payload, fluctuates.

S93の判断結果がNOであれば図4に示す処理を終了する。一方、S93の判断結果がYESであればS94へ進む。S94では、次の処理開始までを実行時間に決定し、その実行時間の間、データ送信処理を実行する。データ送信処理は、基地局4と通信を確立し、ヘッダおよびフッダを付与し、ペイロードを学習用データとした送信データを生成し、その送信データを送信する処理である。また、送信したデータはバッファ34から削除する。 If the judgment result of S93 is NO, the process shown in FIG. 4 is terminated. On the other hand, if the judgment result of S93 is YES, it will progress to S94. In S94, the execution time until the start of the next process is determined, and the data transmission process is executed during the execution time. The data transmission process is a process of establishing communication with the base station 4, adding a header and footer, generating transmission data with the payload as learning data, and transmitting the transmission data. Also, the transmitted data is deleted from the buffer 34 .

一度のS94の実行で、未送信の学習用データを全部送信できるとは限らない。バッファ34に保存されている複数の学習用データを送信する順序としては、FIFO(First-In First-Out)を採用することができる。また、S94では、1つのグループ全部のデータを送信する必要はない。送信できなかった学習用データは、次回以降のS94の実行において送信する。ただし、保持上限時間を設定しておき、保持上限時間を超えてバッファ34に保持されている学習用データを、グループ単位で削除するようにしてもよい。また、バッファ34の記憶容量が不足した場合には、古い学習用データは削除する。 It is not always possible to transmit all of the learning data that has not been transmitted by executing S94 once. FIFO (First-In First-Out) can be adopted as the order of transmitting the plurality of learning data stored in the buffer 34 . In addition, in S94, it is not necessary to transmit all the data of one group. The learning data that could not be transmitted will be transmitted when S94 is executed from the next time onward. However, a retention upper limit time may be set, and learning data retained in the buffer 34 exceeding the retention upper limit time may be deleted in units of groups. Also, when the storage capacity of the buffer 34 is insufficient, old learning data is deleted.

[サーバ6の構成]
図5には、サーバ6の構成を示している。サーバ6は、学習用データ記憶部61、高精度地図記憶部62、通信部63、制御部66を備えている。学習用データ記憶部61は、書き込み可能な記憶部であり、車載装置3から送信される学習用データを逐次記憶する。高精度地図記憶部62には、高精度地図データが記憶されている。高精度地図は、三次元で表現された道路地図である。詳しくは、高精度地図は、道路の周辺にある道路標識、ガードレールなど、道路周辺にある物体の位置および形状の情報を備えている。加えて、高精度地図は、水平方向についても高精度に道路を表現している。高精度地図には、道路区画先の位置および種類も表現され、また、路面標示も表現されている。
[Configuration of Server 6]
FIG. 5 shows the configuration of the server 6. As shown in FIG. The server 6 includes a learning data storage unit 61 , a high-precision map storage unit 62 , a communication unit 63 and a control unit 66 . The learning data storage unit 61 is a writable storage unit, and sequentially stores learning data transmitted from the in-vehicle device 3 . The high-precision map storage unit 62 stores high-precision map data. A high-definition map is a road map represented in three dimensions. Specifically, the high-definition map includes information on the position and shape of objects around the road, such as road signs and guardrails around the road. In addition, the high-precision map expresses roads with high precision in the horizontal direction as well. The high-definition map also shows the locations and types of road segment destinations, as well as road markings.

通信部63は通信回線網5に接続されている。通信部63は、送信部64と受信部65を備えている。送信部64は、送信するデータを通信回線網5へ出力する。受信部65は、車載装置3から基地局4および通信回線網5を介して送信されたデータを受信する。受信するデータの一例としては学習用データがある。受信部65は受信したデータを制御部66に供給する。 The communication unit 63 is connected to the communication network 5 . The communication section 63 has a transmission section 64 and a reception section 65 . The transmission unit 64 outputs data to be transmitted to the communication network 5 . The receiving unit 65 receives data transmitted from the in-vehicle device 3 via the base station 4 and the communication network 5 . An example of the received data is learning data. The receiving section 65 supplies the received data to the control section 66 .

制御部66は、プロセッサ67、ROM68、RAM69等を備えたコンピュータにより実現できる。ROM68には、汎用的なコンピュータを制御部66として機能させるためのプログラムが格納されている。プロセッサ67が、RAM69の一時記憶機能を利用しつつ、ROM68に記憶されたプログラムを実行することで、制御部66は、図6に示すように、精度再決定部70および学習部71としての機能を実現する。また、これらの機能を実現することは、ROM68に記憶されているプログラムに対応する方法が実行されることを意味する。 The control unit 66 can be implemented by a computer including a processor 67, ROM 68, RAM 69, and the like. The ROM 68 stores a program for causing a general-purpose computer to function as the controller 66 . The processor 67 executes the program stored in the ROM 68 while using the temporary storage function of the RAM 69, so that the control unit 66 functions as an accuracy redetermining unit 70 and a learning unit 71 as shown in FIG. Realize Also, realizing these functions means that the method corresponding to the program stored in the ROM 68 is executed.

精度再決定部70は、車載装置3がS3で実行した物体認識処理よりも高精度な処理を実行して、S2で実行した物体認識処理の精度を決定する。高精度な処理の一例は、高精度地図記憶部62に記憶されている高精度地図を用いた処理である。高精度地図を用いれば、物体が位置する場所がどのような場所かを決定することができる。 The accuracy re-determining unit 70 executes processing with higher accuracy than the object recognition processing executed by the in-vehicle device 3 in S3, and determines the accuracy of the object recognition processing executed in S2. An example of high-precision processing is processing using the high-precision map stored in the high-precision map storage unit 62 . A high definition map can be used to determine where an object is located.

具体的に説明する。高精度地図には、区画線の位置、歩道の位置、路肩の幅などの情報が含まれている。したがって、高精度地図を用いれば、車両が位置する座標が、車両が位置できる場所であるかどうかも判断できる。車両は、道路、駐車場、路肩には位置できるが、歩道には位置していないことが通常である。また、道路上であっても、標識、ガードレールなどの立体物がある場所にも存在することはできない。車両の座標が、予め設定した車両が位置することができない場所である場合、車両の位置の決定精度が低いと判断することができる。 A specific description will be given. A high-definition map contains information such as the location of lane markings, the location of sidewalks, and the width of road shoulders. Therefore, with the high-definition map, it is also possible to determine whether the coordinates at which the vehicle is located are where the vehicle can be located. Vehicles can be located on roads, parking lots, and shoulders, but typically not on sidewalks. Moreover, even on a road, it cannot exist in a place where there are three-dimensional objects such as signs and guardrails. If the coordinates of the vehicle are at a location where the vehicle cannot be located in advance, it can be determined that the determination accuracy of the vehicle's location is low.

また、高精度地図を用いれば、人が位置する座標が、人が位置できる場所であるかどうかを判断することができる。人は、道路を横断する場合を除き、車道に位置することは通常ない。つまり、通常、人は、継続的に車道上を道路の延長方向に移動することはない。したがって、人の位置を示す座標が、継続的に車道上にあり、道路の延長方向に移動している場合には、人の位置の決定精度が低いと判断することができる。また、道路あるいは歩道であっても、標識やガードレール等の立体物がある場所には人が位置することはできない。人の座標が、予め設定した人が位置することができない場所にある場合にも、人の位置の決定精度が低いと判断することができる。 Also, if a high-definition map is used, it can be determined whether the coordinates at which a person is located are places where a person can be located. People are not normally located in the roadway, except when crossing the road. In other words, people usually do not continuously move on the roadway in the extension direction of the roadway. Therefore, when the coordinates indicating the position of the person are continuously on the roadway and moving in the extension direction of the road, it can be determined that the determination accuracy of the position of the person is low. Moreover, even if it is a road or sidewalk, a person cannot be positioned where there are three-dimensional objects such as signs and guardrails. Even when the coordinates of a person are in a preset place where the person cannot be located, it can be determined that the determination accuracy of the person's position is low.

また、高精度地図と車両の現在位置および進行方向を用いると、カメラ22により撮影された画像に含まれるべき地物を決定できるときがある。地物には、たとえば、道路標識、特定の建物などの立体物が含まれる。加えて、路面標示などの平面物も地物に含まれる。実際に撮像された画像に、画像に含まれるべき地物が含まれていないと判断できる場合には、物体認識処理の精度が低いと判断できる。精度再決定部70は、再決定した物体認識処理の精度が、学習に使うべき精度を満たしている学習用データのみを学習部71に提供する。 Also, using the high-definition map and the current position and direction of travel of the vehicle, it is sometimes possible to determine the features that should be included in the image captured by the camera 22 . Features include, for example, three-dimensional objects such as road signs and specific buildings. In addition, planar objects such as road markings are also included in the features. If it can be determined that the actually captured image does not include a feature that should be included in the image, it can be determined that the accuracy of the object recognition processing is low. The accuracy redetermination unit 70 provides the learning unit 71 with only learning data whose accuracy of the re-determined object recognition processing satisfies the accuracy to be used for learning.

また、高精度な処理はこれに限られない。たとえば、車載装置3における物体認識処理および精度再決定部70でともに、画像を切り出す窓を移動させつつ、窓により切り出した画像をパターンマッチングさせる処理を用いているとする。この場合、精度再決定部70で用いる窓の大きさを、車載装置3における物体認識処理で用いる窓よりも小さい大きさの窓に設定して物体認識をしてもよい。このようにすることで、車載装置3で実行する物体認識処理よりも高精度に物体を認識することができる。そして、高精度に物体を認識することができると、その認識結果を、車載装置3における認識結果と照らし合わせて物体認識精度を再決定することができる。 Further, high-precision processing is not limited to this. For example, it is assumed that both the object recognition processing and the accuracy redetermining unit 70 in the in-vehicle device 3 use pattern matching processing for the image cut out by the window while moving the window for cutting out the image. In this case, the size of the window used in the accuracy redetermining unit 70 may be set to be smaller than the window used in the object recognition processing in the in-vehicle device 3 for object recognition. By doing so, the object can be recognized with higher accuracy than the object recognition processing executed by the in-vehicle device 3 . Then, when the object can be recognized with high accuracy, the recognition result can be compared with the recognition result in the in-vehicle device 3 to re-determine the object recognition accuracy.

学習部71は、精度再決定部70から提供された学習用データを、学習用データ記憶部61に記憶する。そして、学習用データ記憶部61に蓄積された学習用データを用いて移動体の行動予測アルゴリズムの機械学習を行う。行動予測アルゴリズムは、移動体のこれまでの移動軌跡から、その移動体の今後の移動行動を予測するアルゴリズムである。行動予測アルゴリズムに入力される入力データは、移動体の過去の位置、速度等、移動体に関するデータが含まれる。それだけではなく、移動体の周辺の状況を示すデータ、たとえば、その移動体の周囲に存在する立体物に関するデータ、路面状況を示すデータなどが入力データとなっていてもよい。 The learning unit 71 stores the learning data provided from the accuracy redetermining unit 70 in the learning data storage unit 61 . Then, the learning data accumulated in the learning data storage unit 61 is used to perform machine learning of the behavior prediction algorithm of the moving object. The behavior prediction algorithm is an algorithm that predicts the future movement behavior of the mobile object from the past movement trajectory of the mobile object. Input data input to the behavior prediction algorithm includes data related to the moving object such as past positions and velocities of the moving object. In addition, the input data may be data indicating the surrounding conditions of the moving object, such as data relating to three-dimensional objects existing around the moving object, data indicating road surface conditions, and the like.

行動予測アルゴリズムに対する入力データは学習用データに含まれている。ただし、サーバ6が学習用データに基づいて取得するデータが、入力データに含まれていてもよい。たとえば、学習用データに車両2の位置が含まれている場合、サーバ6は、通信回線網5を用いて天候データベースにアクセスすることで、その位置の天候を知ることができる。天候は、サーバ6が学習用データに基づいて取得する入力データの一例である。 Input data for the behavior prediction algorithm is included in the learning data. However, data acquired by the server 6 based on the learning data may be included in the input data. For example, if the learning data includes the position of the vehicle 2, the server 6 accesses the weather database using the communication network 5 to know the weather at that position. Weather is an example of input data that the server 6 acquires based on learning data.

行動予測アルゴリズムに特に限定はなく、種々のアルゴリズムを採用することができる。たとえば、サポートベクターマシーンのような回帰手法を用いたアルゴリズム、決定木のような木構造をもつアルゴリズム、ニューラルネットワーク、状態空間モデルのような時系列アルゴリズム、k近傍法のようなクラスタリングアルゴリズムなどを採用することができる。また、教師あり学習および教師なし学習のいずれも採用することができる。教師あり学習の場合、学習のために用いる経時的に連続する学習用データのうち、最終時刻における移動対の位置を正解として用いた学習を行うことができる。 The behavior prediction algorithm is not particularly limited, and various algorithms can be adopted. For example, algorithms using regression methods such as support vector machines, algorithms with tree structures such as decision trees, neural networks, time-series algorithms such as state space models, and clustering algorithms such as the k-nearest neighbor method. can do. Also, both supervised and unsupervised learning can be employed. In the case of supervised learning, learning can be performed using, as a correct answer, the position of the moving pair at the final time out of the chronologically continuous learning data used for learning.

以上、説明した本実施形態では、車載装置3は、取得した走行状況データに基づいて定まる学習用データを、全部、サーバ6に送信するのではない。車載装置3は、物体認識処理を行い(S3)、かつ、その物体認識処理の精度を決定する(S6)。そして、物体認識精度に基づいて学習用データを送信するか否かを決定する(S7)。そのため、走行状況データから定まる学習用データを、全部、車載装置3から送信するよりも、車載装置3が送信するデータ量を少なくすることができる。したがって、学習用データを送信するための通信負荷が低減する。 In the present embodiment described above, the in-vehicle device 3 does not transmit all of the learning data determined based on the acquired driving situation data to the server 6 . The in-vehicle device 3 performs object recognition processing (S3) and determines the accuracy of the object recognition processing (S6). Then, it is determined whether or not to transmit the learning data based on the object recognition accuracy (S7). Therefore, the amount of data transmitted by the in-vehicle device 3 can be reduced compared to transmitting all the learning data determined from the driving situation data from the in-vehicle device 3 . Therefore, the communication load for transmitting learning data is reduced.

また、物体認識精度が低いデータを学習に用いてしまうと、学習の精度が低下する。しかし、本実施形態では、S6で決定した認識精度が低かった場合には、学習用データを送信しない。送信されなかった学習用データはサーバ6において行動予測アルゴリズムの学習に用いられない。よって、学習の精度が低下してしまうことを抑制できる。 In addition, if data with low object recognition accuracy is used for learning, the accuracy of learning is lowered. However, in this embodiment, if the recognition accuracy determined in S6 is low, the learning data is not transmitted. Learning data that has not been transmitted is not used in the learning of the action prediction algorithm in the server 6 . Therefore, it is possible to prevent the accuracy of learning from deteriorating.

また、本実施形態では、S7において、送信することに決定した学習用データであっても、グループ不成立となった学習用データは送信しない(S92)。グループが不成立となった学習用データは、学習精度の向上にはあまり寄与しない。よって、グループが不成立となった学習用データを送信しないようにすることで、学習精度の低下を抑制しつつ、通信負荷を低減することができる。 Further, in this embodiment, even if it is decided to transmit the learning data in S7, the learning data for which the group is not established is not transmitted (S92). The learning data for which the group is not established does not contribute much to the improvement of learning accuracy. Therefore, by not transmitting the learning data for which the group is not established, it is possible to reduce the communication load while suppressing the deterioration of the learning accuracy.

さらに、本実施形態では、サーバ6は、車載装置3が実行した物体認識処理よりも高精度な物体認識処理を実行して、物体認識処理の精度を再決定する。これにより、車載装置3では、認識精度が低いと判断することができなかった学習用データも、認識精度が低いと判断することができる。そして、精度再決定部70が決定した認識精度が低い学習用データは行動予測アルゴリズムの学習に用いない。これにより、学習の精度が低下してしまうことを、さらに抑制できる。 Furthermore, in the present embodiment, the server 6 executes object recognition processing with higher accuracy than the object recognition processing executed by the in-vehicle device 3, and redetermines the accuracy of the object recognition processing. As a result, the in-vehicle device 3 can determine that the recognition accuracy of the learning data, which could not be determined to be low, is low. Learning data with low recognition accuracy determined by the accuracy redetermining unit 70 is not used for learning of the action prediction algorithm. Thereby, it is possible to further suppress the deterioration of the learning accuracy.

また、車載装置3での物体認識処理の結果は、挙動制御の目標値の更新に使われるので、車載装置3における物体認識処理に時間がかかってしまうと、車両2の挙動制御性能が低下する。しかし、本実施形態では、精度再決定部70に相当する高精度な処理を車載装置3では行わない。これにより、車両2の挙動制御性能の低下も抑制できる。 In addition, since the result of the object recognition processing in the in-vehicle device 3 is used to update the target value of the behavior control, if the object recognition processing in the in-vehicle device 3 takes time, the behavior control performance of the vehicle 2 deteriorates. . However, in the present embodiment, the in-vehicle device 3 does not perform high-precision processing corresponding to the precision redetermination unit 70 . As a result, deterioration in the behavior control performance of the vehicle 2 can also be suppressed.

また、本実施形態では、車載装置3は、挙動制御の目標値を更新した後、次の処理開始までに一定時間以上の時間があるときに限り、データ送信決定部に相当するS7およびデータ送信処理部に相当するS9を実行する。つまり、車載装置3は、データ送信決定部(S7)および送信処理部(S9)の処理優先度を、車両2の挙動制御の優先度よりも低くしている。これによっても、車両2の挙動制御性能の低下が抑制できる。 Further, in the present embodiment, the in-vehicle device 3, after updating the target value of the behavior control, only when there is a certain time or more before the start of the next process, S7 corresponding to the data transmission determination unit and the data transmission S9 corresponding to the processing unit is executed. In other words, the in-vehicle device 3 sets the processing priority of the data transmission determination unit (S7) and the transmission processing unit (S9) lower than the priority of the behavior control of the vehicle 2. Also by this, the deterioration of the behavior control performance of the vehicle 2 can be suppressed.

以上、実施形態を説明したが、開示した技術は上述の実施形態に限定されるものではなく、次の変形例も開示した範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施できる。なお、以下の説明において、それまでに使用した符号と同一番号の符号を有する要素は、特に言及する場合を除き、それ以前の実施形態における同一符号の要素と同一である。また、構成の一部のみを説明している場合、構成の他の部分については先に説明した実施形態を適用できる。 Although the embodiments have been described above, the disclosed technology is not limited to the above-described embodiments, and the following modifications are also included in the disclosed scope. Various modifications can be made. In the following description, the elements having the same reference numerals as the reference numerals used so far are the same as the elements having the same reference numerals in the previous embodiments unless otherwise specified. Moreover, when only part of the configuration is described, the previously described embodiments can be applied to the other portions of the configuration.

<変形例1>
たとえば、サーバ6の精度再決定部70において物体認識精度が低く、学習に用いないことに決定した場合、そのことを、車載装置3における物体認識処理の認識アルゴリズムを開発する開発者にフィードバックするようにしてもよい。このようにすれば、開発者は、大量のデータから、上記認識アルゴリズムにおいて改良の余地があるシーンを抽出する工数を省略することができる。
<Modification 1>
For example, if the accuracy redetermining unit 70 of the server 6 decides not to use the object recognition accuracy for learning due to low object recognition accuracy, the fact is fed back to the developer who develops the recognition algorithm for the object recognition processing in the in-vehicle device 3. can be In this way, the developer can save man-hours for extracting scenes for which there is room for improvement in the recognition algorithm from a large amount of data.

<変形例2>
精度再決定部70において、機械学習した物体認識アルゴリズムを用いて物体認識を行ってもよい。
<Modification 2>
The accuracy redetermination unit 70 may perform object recognition using a machine-learned object recognition algorithm.

<変形例3>
本開示に記載の制御部およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部およびその手法は、専用ハードウエア論理回路により、実現されてもよい。もしくは、本開示に記載の制御部およびその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウエア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。ハードウエア論理回路は、たとえば、ASIC、FPGAである。
<Modification 3>
The controller and techniques described in this disclosure may be implemented by a special purpose computer comprising a processor programmed to perform one or more functions embodied by a computer program. Alternatively, the controller and techniques described in this disclosure may be implemented by dedicated hardware logic circuitry. Alternatively, the controller and techniques described in this disclosure may be implemented by one or more dedicated computers configured by a combination of a processor executing a computer program and one or more hardware logic circuits. Hardware logic circuits are, for example, ASICs and FPGAs.

また、コンピュータプログラムを記憶する記憶媒体はROMに限られず、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていればよい。たとえば、フラッシュメモリに上記プログラムが記憶されていてもよい。 Moreover, the storage medium for storing the computer program is not limited to the ROM, and may be stored in a computer-readable non-transition tangible storage medium as instructions executed by the computer. For example, the program may be stored in a flash memory.

1:学習システム 2:車両 3:車載装置 4:基地局 5:通信回線 6:サーバ 21:物体検出センサ 22:カメラ 23:無線機 24:送信部 25:受信部 26:LANバス 31:プロセッサ 32:ROM 33:RAM 34:バッファ 61:学習用データ記憶部 62:高精度地図記憶部 63:通信部 64:送信部 65:受信部 66:制御部 67:プロセッサ 68:ROM 69:RAM 70:精度再決定部 71:学習部 S1:データ取得部 S3:物体認識部 S4:挙動制御部 S6:認識精度決定部 S7:データ送信決定部 S9:送信処理部 1: learning system 2: vehicle 3: onboard device 4: base station 5: communication line 6: server 21: object detection sensor 22: camera 23: wireless device 24: transmitter 25: receiver 26: LAN bus 31: processor 32 : ROM 33: RAM 34: Buffer 61: Learning data storage unit 62: High precision map storage unit 63: Communication unit 64: Transmission unit 65: Reception unit 66: Control unit 67: Processor 68: ROM 69: RAM 70: Accuracy Redetermination unit 71: Learning unit S1: Data acquisition unit S3: Object recognition unit S4: Behavior control unit S6: Recognition accuracy determination unit S7: Data transmission determination unit S9: Transmission processing unit

Claims (9)

車両(2)に搭載され、サーバ(6)に学習用データを送信する車載装置(3)であって、
前記車両の走行中に走行状況データを取得するデータ取得部(S1)と、
前記走行状況データに基づいて物体認識処理を実行する物体認識部(S3)と、
前記物体認識部による前記物体認識処理の精度を決定する認識精度決定部(S6)と、
前記認識精度決定部が決定した精度に基づき、当該精度が閾値以上である場合に、前記走行状況データに基づいて定まる前記学習用データを前記サーバに送信することに決定するデータ送信決定部(S7)と、
前記データ送信決定部が送信すると決定した前記学習用データを、送信部(24)から前記サーバに送信させる送信処理部(S9)と
前記学習用データを一時的に記憶するバッファ(34)と、を備え
前記送信処理部は、連続した一定時間分の前記学習用データを前記送信部から送信させるが、連続した一定時間分の前記学習用データが前記バッファに記憶されないと判断した場合、連続した一定時間分のデータにならない前記学習用データを前記バッファから削除する、車載装置。
An in-vehicle device (3) mounted in a vehicle (2) for transmitting learning data to a server (6),
a data acquisition unit (S1) that acquires driving situation data while the vehicle is running;
an object recognition unit (S3) that executes an object recognition process based on the traveling situation data;
a recognition accuracy determination unit (S6) that determines the accuracy of the object recognition processing by the object recognition unit;
Based on the accuracy determined by the recognition accuracy determining unit, when the accuracy is equal to or greater than a threshold value, the data transmission determining unit determines to transmit the learning data determined based on the driving situation data to the server. (S7);
a transmission processing unit (S9) for transmitting the learning data determined to be transmitted by the data transmission determination unit from the transmission unit (24) to the server ;
A buffer (34) that temporarily stores the learning data ,
The transmission processing unit causes the transmission unit to transmit the learning data for a continuous fixed time period, but if it is determined that the learning data for the continuous fixed time period is not stored in the buffer, an in-vehicle device that deletes from the buffer the learning data that does not become minute data .
前記物体認識部は、物体の位置を逐次決定し、
前記認識精度決定部は、前記物体認識部が逐次決定した前記物体の位置と、前回以前に決定した前記物体の位置の変化に基づいて定まる予測位置との比較に基づいて、前記物体認識処理の精度を決定する、請求項1に記載の車載装置。
The object recognition unit sequentially determines the position of the object,
The recognition accuracy determination unit performs the object recognition processing based on a comparison between the position of the object sequentially determined by the object recognition unit and a predicted position determined based on a change in the position of the object determined before the previous time. 2. The in-vehicle device of claim 1, which determines accuracy.
前記物体認識部は、物体の種類および大きさを決定し、
前記認識精度決定部は、前記物体認識部が認識した物体の大きさを、前記物体認識部が認識した物体の種類に基づいて定まる標準的な物体の大きさと比較して、前記物体認識処理の精度を決定する、請求項1または2に記載の車載装置。
The object recognition unit determines the type and size of the object,
The recognition accuracy determination unit compares the size of the object recognized by the object recognition unit with a standard size of the object determined based on the type of the object recognized by the object recognition unit, and performs the object recognition processing. 3. An in-vehicle device according to claim 1 or 2, for determining accuracy.
前記車両の挙動を制御する挙動制御部(S4)を備え、
前記認識精度決定部、前記データ送信決定部および前記送信処理部の処理優先度が、前記挙動制御部よりも低くなっている、請求項1~のいずれか1項に記載の車載装置。
A behavior control unit (S4) that controls the behavior of the vehicle,
The in-vehicle device according to any one of claims 1 to 3 , wherein processing priority of said recognition accuracy determination unit, said data transmission determination unit, and said transmission processing unit is lower than that of said behavior control unit.
請求項1~のいずれか1項に記載の車載装置と、前記サーバとを備えた学習システムであって、
前記サーバは、
前記学習用データを受信する受信部(65)と、
前記受信部が受信した前記学習用データをもとに学習を実行する学習部(71)と、を備える、学習システム。
A learning system comprising the in-vehicle device according to any one of claims 1 to 4 and the server,
The server is
a receiving unit (65) that receives the learning data;
A learning system comprising a learning unit (71) that performs learning based on the learning data received by the receiving unit.
前記サーバは、前記物体認識部が実行する前記物体認識処理よりも高精度な処理を実行して、前記物体認識部による前記物体認識処理の精度を決定する精度再決定部(70)を備え、
前記学習部は、前記精度再決定部が決定した精度が、学習に使うべき精度を満たしている場合に、前記学習用データを前記学習に用いることに決定する、請求項に記載の学習システム。
The server includes an accuracy re-determining unit (70) that executes processing with higher accuracy than the object recognition processing executed by the object recognition unit and determines the accuracy of the object recognition processing by the object recognition unit,
6. The learning system according to claim 5 , wherein said learning unit decides to use said learning data for said learning when the accuracy determined by said accuracy redetermining unit satisfies the accuracy to be used for learning. .
車両(2)に搭載され、サーバ(6)に学習用データを送信する車載装置(3)と、前記サーバとを備えた学習システムであって、
前記車載装置は、
前記車両の走行中に走行状況データを取得するデータ取得部(S1)と、
前記走行状況データに基づいて物体認識処理を実行する物体認識部(S3)と、
前記物体認識部による前記物体認識処理の精度を決定する認識精度決定部(S6)と、
前記認識精度決定部が決定した精度に基づき、当該精度が閾値以上である場合に、前記走行状況データに基づいて定まる前記学習用データを前記サーバに送信することに決定するデータ送信決定部(S7)と、
前記データ送信決定部が送信すると決定した前記学習用データを、送信部(24)から前記サーバに送信させる送信処理部(S9)とを備え、
前記サーバは、
前記学習用データを受信する受信部(65)と、
前記受信部が受信した前記学習用データをもとに学習を実行する学習部(71)と、
前記物体認識部が実行する前記物体認識処理よりも高精度な処理を実行して、前記物体認識部による前記物体認識処理の精度を決定する精度再決定部(70)と、を備え
前記学習部は、前記精度再決定部が決定した精度が、学習に使うべき精度を満たしている場合に、前記学習用データを前記学習に用いることに決定する、学習システム。
A learning system comprising an in-vehicle device (3) mounted on a vehicle (2) for transmitting learning data to a server (6), and the server,
The in-vehicle device
a data acquisition unit (S1) that acquires driving situation data while the vehicle is running;
an object recognition unit (S3) that executes an object recognition process based on the traveling situation data;
a recognition accuracy determination unit (S6) that determines the accuracy of the object recognition processing by the object recognition unit;
A data transmission determination unit (S7 )When,
a transmission processing unit (S9) for transmitting the learning data determined to be transmitted by the data transmission determination unit from the transmission unit (24) to the server;
The server is
a receiving unit (65) that receives the learning data;
a learning unit (71) that performs learning based on the learning data received by the receiving unit;
an accuracy redetermining unit (70) that executes a process with higher accuracy than the object recognition processing executed by the object recognition unit and determines the accuracy of the object recognition processing by the object recognition unit ;
The learning system , wherein the learning unit decides to use the learning data for the learning when the accuracy determined by the accuracy redetermining unit satisfies the accuracy to be used for learning.
前記精度再決定部が実行する処理は、三次元で地図データを表現した高精度地図を用いる処理である、請求項6または7に記載の学習システム。 8. The learning system according to claim 6 , wherein the processing executed by said accuracy redetermination unit is processing using a high-precision map representing map data in three dimensions. 車両(2)に搭載された車載装置(3)が、サーバ(6)に学習用データを送信するデータ送信方法であって、
前記車両の走行中に走行状況データを取得し、
前記走行状況データに基づいて物体認識処理を実行し、
前記物体認識処理の精度を決定し、
前記物体認識処理の精度に基づき、当該精度が閾値以上である場合に、前記走行状況データに基づいて定まる前記学習用データを前記サーバに送信することに決定し、
決定した前記学習用データを、送信部(24)から前記サーバに送信させ
連続した一定時間分の前記学習用データを前記送信部から送信させるが、前記学習用データを一時的に記憶するバッファ(34)に連続した一定時間分の前記学習用データが記憶されないと判断した場合、連続した一定時間分のデータにならない前記学習用データを前記バッファから削除する、
ことを含む処理を前記車載装置が実行するデータ送信方法。
A data transmission method in which an in-vehicle device (3) mounted on a vehicle (2) transmits learning data to a server (6),
Acquiring driving situation data while the vehicle is running;
executing object recognition processing based on the traveling situation data;
determining the accuracy of the object recognition process;
Based on the accuracy of the object recognition process, when the accuracy is equal to or higher than a threshold, determining to transmit the learning data determined based on the driving situation data to the server;
causing the transmission unit (24) to transmit the determined learning data to the server ;
The learning data for a continuous predetermined time is transmitted from the transmission unit, but it is determined that the learning data for the continuous predetermined time is not stored in a buffer (34) for temporarily storing the learning data. In this case, deleting from the buffer the learning data that does not become continuous data for a certain period of time ;
A data transmission method in which the in-vehicle device executes a process including :
JP2019044967A 2019-03-12 2019-03-12 In-vehicle device, learning system and data transmission method Active JP7156107B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019044967A JP7156107B2 (en) 2019-03-12 2019-03-12 In-vehicle device, learning system and data transmission method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019044967A JP7156107B2 (en) 2019-03-12 2019-03-12 In-vehicle device, learning system and data transmission method

Publications (2)

Publication Number Publication Date
JP2020149224A JP2020149224A (en) 2020-09-17
JP7156107B2 true JP7156107B2 (en) 2022-10-19

Family

ID=72429661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019044967A Active JP7156107B2 (en) 2019-03-12 2019-03-12 In-vehicle device, learning system and data transmission method

Country Status (1)

Country Link
JP (1) JP7156107B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009264841A (en) 2008-04-23 2009-11-12 Honda Motor Co Ltd Object detector
JP2011059810A (en) 2009-09-07 2011-03-24 Nippon Soken Inc Image recognition system
JP2019021201A (en) 2017-07-20 2019-02-07 株式会社デンソー Learning server, and assist system
WO2019026119A1 (en) 2017-07-31 2019-02-07 三菱電機株式会社 Traffic flow estimation system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009264841A (en) 2008-04-23 2009-11-12 Honda Motor Co Ltd Object detector
JP2011059810A (en) 2009-09-07 2011-03-24 Nippon Soken Inc Image recognition system
JP2019021201A (en) 2017-07-20 2019-02-07 株式会社デンソー Learning server, and assist system
WO2019026119A1 (en) 2017-07-31 2019-02-07 三菱電機株式会社 Traffic flow estimation system

Also Published As

Publication number Publication date
JP2020149224A (en) 2020-09-17

Similar Documents

Publication Publication Date Title
CN108628206B (en) Road construction detection system and method
US10982961B2 (en) Vehicle control system and vehicle control device
CN106004860B (en) Controlling device for vehicle running
CN111357021B (en) System and method for matching an autonomous vehicle with a rider
JP7520016B2 (en) Adaptive Multi-Network Vehicle Architecture
US20190308621A1 (en) Traveling path generation apparatus and traveling path generation method
JP5288423B2 (en) Data distribution system and data distribution method
US20200307589A1 (en) Automatic lane merge with tunable merge behaviors
CN113044059A (en) Safety system for a vehicle
CN109552212B (en) System and method for radar localization in autonomous vehicles
US11631326B2 (en) Information providing system, server, onboard device, vehicle, storage medium, and information providing method
CN112469970B (en) Method for estimating the positioning quality in terms of self-positioning of a vehicle, device for carrying out the method steps of the method, and computer program
US11106219B2 (en) Vehicle control device, vehicle control method, and storage medium
US20210086797A1 (en) Vehicle control device, map information management system, vehicle control method, and storage medium
US10640128B2 (en) Vehicle control device, vehicle control method, and storage medium
US20200094825A1 (en) Vehicle control device, vehicle control method, and storage medium
US11685406B2 (en) Vehicle control device, vehicle control method, and storage medium
US10854083B2 (en) Vehicle control device, vehicle control method, and storage medium
US20210063192A1 (en) Own location estimation device
US20210003411A1 (en) Vehicle control system, vehicle control method, medium, and information processing device
JP7156107B2 (en) In-vehicle device, learning system and data transmission method
JP3639196B2 (en) Vehicle identification device
WO2023103459A1 (en) Vehicle control method, decision server, and storage medium
CN115050203B (en) Map generation device and vehicle position recognition device
US20220383646A1 (en) Mobile object control device, mobile object control method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220919

R151 Written notification of patent or utility model registration

Ref document number: 7156107

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151