JP7156107B2 - In-vehicle device, learning system and data transmission method - Google Patents
In-vehicle device, learning system and data transmission method Download PDFInfo
- Publication number
- JP7156107B2 JP7156107B2 JP2019044967A JP2019044967A JP7156107B2 JP 7156107 B2 JP7156107 B2 JP 7156107B2 JP 2019044967 A JP2019044967 A JP 2019044967A JP 2019044967 A JP2019044967 A JP 2019044967A JP 7156107 B2 JP7156107 B2 JP 7156107B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- unit
- learning
- accuracy
- object recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Description
車載装置、学習システムおよびデータ送信方法に関する。 The present invention relates to an in-vehicle device, a learning system, and a data transmission method.
人工知能により種々の情報処理が可能になっている。特許文献1には、車両で撮像された画像データをサーバに送信し、サーバが、その画像データを用いて学習するシステムが開示されている。 Artificial intelligence has made it possible to process various types of information. Patent Literature 1 discloses a system in which image data captured by a vehicle is transmitted to a server, and the server learns using the image data.
特許文献1に開示されたシステムでは、車両は、画像認識を行い、認識結果データを送信する。サーバは、認識結果データを受信し、認識結果データが妥当であるか否かを判断する。認識結果データが妥当でないと判断した場合に、車両に、画像データを要求する。サーバが、認識結果データは妥当であると判断した場合には、車両からサーバに画像データは送信されない。したがって、車からサーバに送信される通信量が削減される。 In the system disclosed in Patent Literature 1, a vehicle performs image recognition and transmits recognition result data. The server receives the recognition result data and determines whether the recognition result data is valid. When it is determined that the recognition result data is not valid, the vehicle is requested to send the image data. If the server determines that the recognition result data is valid, the image data is not transmitted from the vehicle to the server. Therefore, the amount of communication sent from the car to the server is reduced.
特許文献1に開示されたシステムは、通信量を削減することはできる。しかし、学習により処理精度を向上させるには、精度のよい多くのデータが学習用データとして供給されることが好ましい。 The system disclosed in Patent Literature 1 can reduce communication traffic. However, in order to improve processing accuracy by learning, it is preferable to supply a large amount of highly accurate data as learning data.
車両で取得されたデータが、全部、サーバに送信されるとすれば、通信量が多くなりすぎる。加えて、精度の悪いデータを用いると、学習精度が低下してしまう恐れもある。 If all the data acquired by the vehicle were to be sent to the server, the amount of communication would be too large. In addition, the use of data with poor accuracy may reduce the learning accuracy.
本開示は、この事情に基づいて成されたものであり、その目的とするところは、通信負荷を低減し、かつ、学習精度の低下を抑制できる車載装置、学習システムおよびデータ送信方法を提供することにある。 The present disclosure has been made based on this situation, and its object is to provide an in-vehicle device, a learning system, and a data transmission method that can reduce the communication load and suppress the deterioration of the learning accuracy. That's what it is.
上記目的は独立請求項に記載の特徴の組み合わせにより達成され、また、下位請求項は更なる有利な具体例を規定する。特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、開示した技術的範囲を限定するものではない。 The above objects are achieved by the combination of features stated in the independent claims, and the sub-claims define further advantageous embodiments. The symbols in parentheses described in the claims indicate the corresponding relationship with specific means described in the embodiments described later as one aspect, and do not limit the disclosed technical scope.
上記目的を達成するための車載装置に係る1つの開示は、
車両(2)に搭載され、サーバ(6)に学習用データを送信する車載装置(3)であって、
車両の走行中に走行状況データを取得するデータ取得部(S1)と、
走行状況データに基づいて物体認識処理を実行する物体認識部(S3)と、
物体認識部による物体認識処理の精度を決定する認識精度決定部(S6)と、
認識精度決定部が決定した精度に基づき、当該精度が閾値以上である場合に、走行状況データに基づいて定まる学習用データをサーバに送信することに決定するデータ送信決定部(S7)と、
データ送信決定部が送信すると決定した学習用データを、送信部(24)からサーバに送信させる送信処理部(S9)、
学習用データを一時的に記憶するバッファ(34)と、とを備え、
送信処理部は、連続した一定時間分の学習用データを送信部から送信させるが、連続した一定時間分の学習用データがバッファに記憶されないと判断した場合、連続した一定時間分のデータにならない学習用データをバッファから削除する。
One disclosure relating to an in-vehicle device for achieving the above object is
An in-vehicle device (3) mounted in a vehicle (2) for transmitting learning data to a server (6),
a data acquisition unit (S1) that acquires driving situation data while the vehicle is running;
an object recognition unit (S3) that executes object recognition processing based on the traveling situation data;
a recognition accuracy determination unit (S6) that determines the accuracy of object recognition processing by the object recognition unit;
a data transmission determination unit (S7) that determines to transmit learning data determined based on driving situation data to a server when the accuracy determined by the recognition accuracy determination unit is equal to or greater than a threshold ; ,
a transmission processing unit (S9) for transmitting the learning data determined to be transmitted by the data transmission determination unit from the transmission unit (24) to the server ;
A buffer (34) for temporarily storing learning data ,
The transmission processing unit causes the transmitting unit to transmit learning data for a continuous fixed period of time, but if it is determined that the continuous fixed time period of learning data is not stored in the buffer, the continuous fixed time period of data is not obtained. Remove the training data from the buffer .
この車載装置は、取得した走行状況データに基づいて定まる学習用データを、全部、サーバに送信するのではない。車載装置は、物体認識処理を行い、かつ、その物体認識処理の精度を決定する。そして、その精度に基づいて学習用データを送信するか否かを決定する。そのため、学習用データを、全部、車載装置から送信するよりも、車載装置が送信するデータ量を少なくすることができる。したがって、学習用データを送信するための通信負荷が低減する。 This in-vehicle device does not transmit all of the learning data determined based on the acquired driving situation data to the server. The in-vehicle device performs object recognition processing and determines the accuracy of the object recognition processing. Then, based on the accuracy, it is determined whether or not to transmit the learning data. Therefore, the amount of data transmitted by the in-vehicle device can be reduced compared to transmitting all the learning data from the in-vehicle device. Therefore, the communication load for transmitting learning data is reduced.
また、この車載装置は、物体認識処理の精度が低かった場合には、学習用データを送信しない。送信されなかった学習用データは学習に用いられない。よって、学習の精度が低下してしまうことを抑制できる。 Moreover, this in-vehicle device does not transmit the learning data when the accuracy of the object recognition processing is low. Learning data that has not been transmitted is not used for learning. Therefore, it is possible to prevent the accuracy of learning from deteriorating.
上記目的を達成するための学習システムに係る1つの開示は、
車両(2)に搭載され、サーバ(6)に学習用データを送信する車載装置(3)と、サーバとを備えた学習システムであって、
車載装置は、
車両の走行中に走行状況データを取得するデータ取得部(S1)と、
走行状況データに基づいて物体認識処理を実行する物体認識部(S3)と、
物体認識部による物体認識処理の精度を決定する認識精度決定部(S6)と、
認識精度決定部が決定した精度に基づき、当該精度が閾値以上である場合に、走行状況データに基づいて定まる学習用データをサーバに送信するか否かを決定するデータ送信決定部(S7)と、
データ送信決定部が送信すると決定した学習用データを、送信部(24)からサーバに送信させる送信処理部(S9)とを備え、
サーバは、
学習用データを受信する受信部(65)と、
受信部が受信した学習用データをもとに学習を実行する学習部(71)と、
物体認識部が実行する物体認識処理よりも高精度な処理を実行して、物体認識部による物体認識処理の精度を決定する精度再決定部(70)と、を備え、
学習部は、精度再決定部が決定した精度が、学習に使うべき精度を満たしている場合に、学習用データを学習に用いることに決定する。
One disclosure related to a learning system for achieving the above object is
A learning system comprising an in-vehicle device (3) mounted on a vehicle (2) and transmitting learning data to a server (6), and a server,
In-vehicle equipment
a data acquisition unit (S1) that acquires driving situation data while the vehicle is running;
an object recognition unit (S3) that executes object recognition processing based on the traveling situation data;
a recognition accuracy determination unit (S6) that determines the accuracy of object recognition processing by the object recognition unit;
a data transmission determination unit (S7) that determines whether or not to transmit learning data determined based on driving situation data to a server based on the accuracy determined by the recognition accuracy determination unit when the accuracy is equal to or greater than a threshold; ,
a transmission processing unit (S9) for transmitting the learning data determined to be transmitted by the data transmission determination unit from the transmission unit (24) to the server;
The server
a receiving unit (65) for receiving learning data;
a learning unit (71) that performs learning based on the learning data received by the receiving unit;
an accuracy re-determining unit (70) that determines the accuracy of the object recognition processing by the object recognition unit by executing processing with higher accuracy than the object recognition processing executed by the object recognition unit ;
The learning unit determines to use the learning data for learning when the accuracy determined by the accuracy redetermining unit satisfies the accuracy to be used for learning .
上記目的を達成するためのデータ送信方法は、上記車載装置が実行するデータ送信方法である。 A data transmission method for achieving the above object is a data transmission method executed by the vehicle-mounted device.
すなわち、車両(2)に搭載された車載装置(3)が、サーバ(6)に学習用データを送信するデータ送信方法であって、
車両の走行中に走行状況データを取得し、
走行状況データに基づいて物体認識処理を実行し、
物体認識処理の精度を決定し、
物体認識処理の精度に基づき、当該精度が閾値以上である場合に、走行状況データに基づいて定まる学習用データをサーバに送信することに決定し、
決定した学習用データを、送信部(24)からサーバに送信させ、
連続した一定時間分の学習用データを送信部から送信させるが、学習用データを一時的に記憶するバッファ(34)に連続した一定時間分の学習用データが記憶されないと判断した場合、連続した一定時間分のデータにならない学習用データをバッファから削除する。
That is, an in-vehicle device (3) mounted in a vehicle (2) is a data transmission method for transmitting learning data to a server (6),
Acquire driving situation data while the vehicle is running,
Execute object recognition processing based on driving situation data,
Determines the accuracy of object recognition processing,
Based on the accuracy of object recognition processing, when the accuracy is equal to or higher than a threshold, determining to transmit learning data determined based on driving situation data to a server,
causing the determined learning data to be transmitted from the transmission unit (24) to the server ;
The transmitting unit transmits learning data for a continuous fixed time period. Delete learning data that does not become data for a certain amount of time from the buffer .
以下、実施形態を図面に基づいて説明する。図1は、本実施形態の学習システム1の構成を示す図である。学習システム1は、車両2に搭載された車載装置3と、サーバ6とを備えている。
Hereinafter, embodiments will be described based on the drawings. FIG. 1 is a diagram showing the configuration of a learning system 1 of this embodiment. The learning system 1 includes an in-
車両2は、道路を走行する車両であれば特に限定はない。乗用車に限られずトラック、バスも車両2に含まれる。基地局4は、車載装置3との間で無線通信を行う。基地局4と車載装置3との間の通信には、LTE(Long Term Evolution)を用いることができる。LTEは4Gと呼ばれることもある。基地局4は車載装置3から受信したデータを、通信回線網5を介して、車外にあるサーバ6に送信する。また、サーバ6から車載装置3向けのデータが提供された場合には、そのデータを車載装置3へ送信する。
The
車載装置3は、車両2の走行中に走行状況データを収集し、その走行状況データをもとに学習用データを生成する。車載装置3はその学習用データを、基地局4および通信回線網5を介してサーバ6に送信する。サーバ6は、学習用データを用いた機械学習を行い、行動予測アルゴリズムの生成および更新を行う。
The in-
[車載装置3の構成]
図2には、車載装置3、および、車両2に搭載され、車載装置3とデータのやりとりを行う種々の機器を示している。図2に示すように、車両2には、車載装置3の他に、物体検出センサ21、カメラ22、無線機23が搭載されている。
[Configuration of in-vehicle device 3]
FIG. 2 shows the in-
物体検出センサ21は、車両2の周辺にある物体を検出するセンサである。物体検出センサ21の具体例としては、ミリ波レーダ、Lidarがある。物体検出センサ21が検出する物体には、車両、人など、道路およびその周辺に存在している立体物が含まれる。もちろん、車両および人などの移動体に限らず、道路標識、ガードレールなどの静止物体も物体検出センサ21により検出される。また、路面に記された道路標示が物体検出センサ21により検出可能になっていてもよい。
The
カメラ22は、車両2の周囲の画像を逐次撮像する。無線機23は、基地局4との間で無線通信が可能である。無線機23は送信部24と受信部25を備えている。送信部24は、車載装置3から提供されたデータを、変調および増幅等して電波として送信する。車載装置3から送信部24には供給されるデータとして学習用データがある。受信部25は、電波を受信して、その電波を復調および増幅等して電波により搬送されたデータを取り出す。受信部25は取り出したデータを車載装置3に供給する。
The
物体検出センサ21、カメラ22および車載装置3はLANバス26に接続されている。車載装置3は、LANバス26を介して、物体検出センサ21が検出した周辺物体を示すデータ(以下、周辺物体データ)を取得する。また、車載装置3は、LANバス26を介して、カメラ22が撮像した画像データも取得する。
LANバス26には、車両挙動データを検出する種々のセンサも直接的あるいは間接的に接続されており、車載装置3は車両挙動データもLANバス26を介して取得することができる。車両挙動データは、車両2の挙動を示すデータあるいは車両2の挙動により変化するデータである。車両挙動データの例としては、車速、車両2の加速度、操舵角、ヨーレート、車両2の進行方位、車両2の位置などがある。周辺物体データは、車両2の外部の走行状況を示すデータであり、車両挙動データは、車両2自体の走行状況を示すデータである。これら周辺物体データおよび車両挙動データは、走行状況データである。
Various sensors for detecting vehicle behavior data are also directly or indirectly connected to the
車載装置3は、プロセッサ31、ROM32、RAM33、バッファ34などを備えるコンピュータにより実現できる。ROM32には、汎用的なコンピュータを車載装置3として機能させるためのデータ送信プログラムが格納されている。プロセッサ31が、RAM33の一時記憶機能を利用しつつ、ROM32に記憶されたプログラムを実行することで、車載装置3は、図3に示す処理を実行する。図3に示す処理を実行することは、データ送信プログラムに対応するデータ送信方法が実行されることを意味する。
The in-
バッファ34には、走行状況データおよび走行状況データから決定される学習用データを一時的に保存される。なお、RAM33をバッファ34として用いることもできる。
The
[車載装置3が実行する処理]
次に、図3および図4を用いて車載装置3が実行する処理を説明する。車載装置3は図3に示す処理を、データ取得周期ごとに実行する。データ取得周期は、車両2の挙動制御の指示値を更新する周期に基づいて定まり、たとえば100msである。
[Processing executed by in-vehicle device 3]
Next, processing executed by the in-
ステップ(以下、ステップを省略)S1はデータ取得部に相当しており、走行状況データを取得する。前述したように、走行状況データには周辺物体データが含まれる。周辺物体データは、LANバス26を介して物体検出センサ21とカメラ22から取得する。また、走行状況データには、車両挙動データも含まれる。車両挙動データもLANバス26を介して取得する。
Step (hereinafter, step is omitted) S1 corresponds to a data acquisition section, and acquires driving situation data. As described above, the driving situation data includes peripheral object data. Surrounding object data is acquired from the
S2では、S1で取得した走行状況データをバッファ34に保存する。なお、図3に示す処理では、複数種類の走行状況データを全部、同一のデータ取得周期で取得することになる。しかし、これに限られず、一部の走行状況データをより短い周期で取得してもよい。たとえば、車両挙動データは、より短い周期で取得することとしてもよい。
In S2, the driving condition data acquired in S1 is stored in the
S3は物体認識部に相当する。S3では、物体認識処理を行う。物体認識処理は、バッファ34に保存されている走行状況データを用いて行う。物体認識処理に用いる走行状況データは、ミリ波レーダが検出したデータ、Lidarが検出したデータ、カメラ22が撮像した画像データのいずれか1つ以上である。
S3 corresponds to an object recognition unit. In S3, an object recognition process is performed. The object recognition processing is performed using the traveling situation data stored in the
物体認識処理では、物体が移動体であるか静止物体であるかを認識する。また、物体までの距離および物体が存在する相対方位も認識する。これら物体までの距離と相対方位、および、車両2の座標から、物体が存在する座標も決定できる。また、一部の物体については、物体の種類と大きさを決定する。物体の種類として車両と人を認識するようにすることができる。物体の種類を認識するための方法としては、たとえば、HOG(Histogram of Oriented Gradients)、R-CNN(conbolutional nural network)など、種々の方法を用いることができる。物体の大きさは、画像内での物体の大きさ(以下、物体画像の大きさ)と物体までの距離とに基づいて決定する。物体画像の大きさが同じであっても物体までの距離が遠いほど、決定される物体の大きさは大きくなる。物体認識処理を実行して認識した物体までの距離等はバッファ34に保存する。
In the object recognition processing, it is recognized whether the object is a moving object or a stationary object. It also knows the distance to the object and the relative orientation in which the object lies. From the distance and relative orientation to these objects and the coordinates of the
S4は挙動制御部に相当する。S4では、挙動制御の目標値を更新する。挙動制御においては、S3における物体認識結果を用いる。また、S1で取得した車両挙動データも用いる。挙動制御の具体的内容は、種々に設定可能である。たとえば、目的地まで車両2を自動運転させる制御とすることができる。また、走行中の車線を維持する車線維持制御、車間距離を維持しつつ直近前方車に追従する制御とすることもできる。本実施形態においては、この挙動制御に特に制限はない。
S4 corresponds to the behavior control unit. In S4, the target value of behavior control is updated. In behavior control, the object recognition result in S3 is used. Vehicle behavior data acquired in S1 is also used. The specific contents of the behavior control can be set variously. For example, the control may be such that the
S5では、次の処理開始までに、一定時間以上の時間があるか否かを判断する。一定時間は、データ選別処理を行うのに要する時間であり、具体的な時間は予め設定されている。データ選別処理は、S6~S8と、図4に示すS91、S92を意味する。S5の判断結果がNOであれば図3に示す処理を終了する。図3に示す処理を終了した場合には、前回、図3に示す処理を開始した時点からデータ取得周期が経過したときに、再び図3に示す処理を開始する。S3の判断結果がYESであればS6へ進む。 In S5, it is determined whether or not there is a certain period of time or more before the start of the next process. The fixed time is the time required to perform the data selection process, and the specific time is set in advance. The data selection process means S6 to S8 and S91 and S92 shown in FIG. If the judgment result of S5 is NO, the process shown in FIG. 3 is terminated. When the processing shown in FIG. 3 is completed, the processing shown in FIG. 3 is started again when the data acquisition cycle has elapsed since the processing shown in FIG. 3 was started last time. If the determination result of S3 is YES, the process proceeds to S6.
S6は認識精度決定部に相当する処理である。S6では、認識精度を決定する。認識精度は、S3で実行した物体認識処理の精度を意味する。認識精度は、物体の位置と、前回以前に決定した物体の位置の変化から予測できる予測位置との比較に基づいて決定することができる。 S6 is processing corresponding to the recognition accuracy determination unit. In S6, recognition accuracy is determined. The recognition accuracy means the accuracy of the object recognition processing executed in S3. Recognition accuracy can be determined based on a comparison of the position of the object to a predicted position that can be predicted from changes in the position of the object previously determined.
前回以前に決定した物体の位置は、バッファ34に保存されている。前回以前に決定した物体の位置の変化から、物体の移動速度と移動方向を算出できる。前回のS3の処理において決定した物体の位置と、算出した移動速度および移動方向により、今回、物体が検出されると予測される予測位置を算出することができる。このようにして算出した今回の予測位置と、今回のS3で決定した物体の位置との差が大きいほど、認識精度を低い値に決定する。
Previously determined object positions are stored in
さらに、検出した物体の位置と、物体の予測位置との差を時系列的に用いて認識精度を決定することもできる。たとえば、予め設定した判断基準期間内における上記差の積分値に基づいて認識精度を決定することができる。上記積分値は、物体認識精度が悪いほど大きな値になる。そこで、上記積分値が大きいほど物体認識精度を悪い値に決定することができる。なお、物体認識精度は、連続的な値で示してもよいが、3段階など、多段の不連続な値で示すこともできる。また、「良い」、「普通」、「悪い」などの程度を示す複数の用語で認識精度を決定してもよい。 Further, the recognition accuracy can be determined by using the difference between the detected object position and the predicted object position in time series. For example, the recognition accuracy can be determined based on the integral value of the difference within a predetermined criterion period. The integral value increases as the object recognition accuracy decreases. Therefore, the larger the integrated value, the worse the object recognition accuracy can be determined. Note that the object recognition accuracy may be indicated by a continuous value, but it can also be indicated by a multi-step discontinuous value such as three steps. Also, the recognition accuracy may be determined using a plurality of terms such as "good", "average", and "bad".
また、物体の位置に加えて、あるいは、物体の位置に代えて、検出した物体の大きさと、物体の種類から決定できる標準的な大きさ範囲とを比較して、認識精度を決定してもよい。たとえば、物体が、実際には電柱であるのに、人であると認識したとする。この場合、認識した物体の大きさが、人である場合の標準的な大きさ範囲から外れる可能性が高い。標準的な大きさ範囲から外れているほど、認識精度を悪い値あるいはレベルに決定する。 In addition to the position of the object, or instead of the position of the object, the recognition accuracy may be determined by comparing the size of the detected object with a standard size range that can be determined from the type of object. good. For example, suppose an object is recognized as a person when it is actually a telephone pole. In this case, the size of the recognized object is likely to be out of the standard size range for humans. The more out of the standard size range, the worse value or level the recognition accuracy is determined.
S7はデータ送信決定部に相当する処理である。S7では、学習用データを送信するか否かを決定する。学習用データは、S1で取得した走行状況データあるいはその走行状況データから定まるデータである。学習用データの一例を示すと、S1で取得した走行状況データのうち、予め設定されている種類のデータを学習用データとすることができる。たとえば、車両2の座標、周辺物体データおよび画像データのいずれか一方または両方を学習用データに含ませることができる。S6で決定した認識精度が高いと判断できる場合、学習用データを送信することに決定する。認識精度が閾値以上である場合には、認識精度は高いとする。
S7 is processing corresponding to the data transmission determination unit. In S7, it is determined whether or not to transmit learning data. The data for learning is data determined from the driving condition data acquired in S1 or the driving condition data. As an example of the data for learning, data of a preset type among the driving situation data acquired in S1 can be used as the data for learning. For example, one or both of the coordinates of the
S8では、S7で送信すると決定した学習用データをバッファ34に保存する。S9は送信処理部に相当し、データ送信処理を実行する。データ送信処理では、図4に示す処理を実行する。
In S8, the learning data determined to be transmitted in S7 is stored in the
図4において、S91では、バッファ34に記憶されている学習用データに、グループが不成立となったデータがあるか否かを判断する。グループとは、連続した一定時間分の学習用データである。一定時間は、サーバ6において、移動体が移動する位置を予測するために必要な時間である。一定時間は予め設定されている。一定時間は、物体の種類により異なる時間とすることができる。たとえは、人についての一定時間を車についての一定時間よりも短い時間に設定してもよい。したがって、グループは、物体の種類別とすることができる。具体的な時間は、実験等に基づいて設定することになる。具体的な時間を例示すると、車についての一定時間は30秒とし、人についての一定時間は10秒とすることができる。
In FIG. 4, in S91, it is determined whether or not the learning data stored in the
車についての一定時間が30秒に設定されている場合、S91では、バッファ34に記憶されている車についての学習用データに、連続時間が30秒未満の学習用データがあるか否かを判断することになる。連続時間が30秒未満の学習用データがある場合には、グループ不成立データありと判断する。グループ不成立データあり、すなわち、S91の判断結果がYESである場合にはS92へ進む。一方、S91の判断結果がNOである場合にはS92を実行することなく図4の処理を終了する。
When the fixed time for the car is set to 30 seconds, in S91, it is determined whether or not there is learning data for the continuous time of less than 30 seconds in the learning data for the car stored in the
S92では、グループが不成立となっていると判断した学習用データをバッファ34から削除する。S93では、次の処理開始までに、データ送信処理を行うために必要な最小時間以上の時間があるか否かを判断する。この最小時間は予め設定しておくことができる。また、最小時間は、現時点での通信環境に応じて都度、決定してもよい。ベストエフォート型の通信の場合には、通信環境に応じて通信速度が変化する。そのため、通信を確立し、ペイロードである学習用データを少なくとも最小単位、送信するために必要な時間が変動するからである。
At S<b>92 , the learning data for which it is determined that the group is not established is deleted from the
S93の判断結果がNOであれば図4に示す処理を終了する。一方、S93の判断結果がYESであればS94へ進む。S94では、次の処理開始までを実行時間に決定し、その実行時間の間、データ送信処理を実行する。データ送信処理は、基地局4と通信を確立し、ヘッダおよびフッダを付与し、ペイロードを学習用データとした送信データを生成し、その送信データを送信する処理である。また、送信したデータはバッファ34から削除する。
If the judgment result of S93 is NO, the process shown in FIG. 4 is terminated. On the other hand, if the judgment result of S93 is YES, it will progress to S94. In S94, the execution time until the start of the next process is determined, and the data transmission process is executed during the execution time. The data transmission process is a process of establishing communication with the
一度のS94の実行で、未送信の学習用データを全部送信できるとは限らない。バッファ34に保存されている複数の学習用データを送信する順序としては、FIFO(First-In First-Out)を採用することができる。また、S94では、1つのグループ全部のデータを送信する必要はない。送信できなかった学習用データは、次回以降のS94の実行において送信する。ただし、保持上限時間を設定しておき、保持上限時間を超えてバッファ34に保持されている学習用データを、グループ単位で削除するようにしてもよい。また、バッファ34の記憶容量が不足した場合には、古い学習用データは削除する。
It is not always possible to transmit all of the learning data that has not been transmitted by executing S94 once. FIFO (First-In First-Out) can be adopted as the order of transmitting the plurality of learning data stored in the
[サーバ6の構成]
図5には、サーバ6の構成を示している。サーバ6は、学習用データ記憶部61、高精度地図記憶部62、通信部63、制御部66を備えている。学習用データ記憶部61は、書き込み可能な記憶部であり、車載装置3から送信される学習用データを逐次記憶する。高精度地図記憶部62には、高精度地図データが記憶されている。高精度地図は、三次元で表現された道路地図である。詳しくは、高精度地図は、道路の周辺にある道路標識、ガードレールなど、道路周辺にある物体の位置および形状の情報を備えている。加えて、高精度地図は、水平方向についても高精度に道路を表現している。高精度地図には、道路区画先の位置および種類も表現され、また、路面標示も表現されている。
[Configuration of Server 6]
FIG. 5 shows the configuration of the
通信部63は通信回線網5に接続されている。通信部63は、送信部64と受信部65を備えている。送信部64は、送信するデータを通信回線網5へ出力する。受信部65は、車載装置3から基地局4および通信回線網5を介して送信されたデータを受信する。受信するデータの一例としては学習用データがある。受信部65は受信したデータを制御部66に供給する。
The
制御部66は、プロセッサ67、ROM68、RAM69等を備えたコンピュータにより実現できる。ROM68には、汎用的なコンピュータを制御部66として機能させるためのプログラムが格納されている。プロセッサ67が、RAM69の一時記憶機能を利用しつつ、ROM68に記憶されたプログラムを実行することで、制御部66は、図6に示すように、精度再決定部70および学習部71としての機能を実現する。また、これらの機能を実現することは、ROM68に記憶されているプログラムに対応する方法が実行されることを意味する。
The
精度再決定部70は、車載装置3がS3で実行した物体認識処理よりも高精度な処理を実行して、S2で実行した物体認識処理の精度を決定する。高精度な処理の一例は、高精度地図記憶部62に記憶されている高精度地図を用いた処理である。高精度地図を用いれば、物体が位置する場所がどのような場所かを決定することができる。
The
具体的に説明する。高精度地図には、区画線の位置、歩道の位置、路肩の幅などの情報が含まれている。したがって、高精度地図を用いれば、車両が位置する座標が、車両が位置できる場所であるかどうかも判断できる。車両は、道路、駐車場、路肩には位置できるが、歩道には位置していないことが通常である。また、道路上であっても、標識、ガードレールなどの立体物がある場所にも存在することはできない。車両の座標が、予め設定した車両が位置することができない場所である場合、車両の位置の決定精度が低いと判断することができる。 A specific description will be given. A high-definition map contains information such as the location of lane markings, the location of sidewalks, and the width of road shoulders. Therefore, with the high-definition map, it is also possible to determine whether the coordinates at which the vehicle is located are where the vehicle can be located. Vehicles can be located on roads, parking lots, and shoulders, but typically not on sidewalks. Moreover, even on a road, it cannot exist in a place where there are three-dimensional objects such as signs and guardrails. If the coordinates of the vehicle are at a location where the vehicle cannot be located in advance, it can be determined that the determination accuracy of the vehicle's location is low.
また、高精度地図を用いれば、人が位置する座標が、人が位置できる場所であるかどうかを判断することができる。人は、道路を横断する場合を除き、車道に位置することは通常ない。つまり、通常、人は、継続的に車道上を道路の延長方向に移動することはない。したがって、人の位置を示す座標が、継続的に車道上にあり、道路の延長方向に移動している場合には、人の位置の決定精度が低いと判断することができる。また、道路あるいは歩道であっても、標識やガードレール等の立体物がある場所には人が位置することはできない。人の座標が、予め設定した人が位置することができない場所にある場合にも、人の位置の決定精度が低いと判断することができる。 Also, if a high-definition map is used, it can be determined whether the coordinates at which a person is located are places where a person can be located. People are not normally located in the roadway, except when crossing the road. In other words, people usually do not continuously move on the roadway in the extension direction of the roadway. Therefore, when the coordinates indicating the position of the person are continuously on the roadway and moving in the extension direction of the road, it can be determined that the determination accuracy of the position of the person is low. Moreover, even if it is a road or sidewalk, a person cannot be positioned where there are three-dimensional objects such as signs and guardrails. Even when the coordinates of a person are in a preset place where the person cannot be located, it can be determined that the determination accuracy of the person's position is low.
また、高精度地図と車両の現在位置および進行方向を用いると、カメラ22により撮影された画像に含まれるべき地物を決定できるときがある。地物には、たとえば、道路標識、特定の建物などの立体物が含まれる。加えて、路面標示などの平面物も地物に含まれる。実際に撮像された画像に、画像に含まれるべき地物が含まれていないと判断できる場合には、物体認識処理の精度が低いと判断できる。精度再決定部70は、再決定した物体認識処理の精度が、学習に使うべき精度を満たしている学習用データのみを学習部71に提供する。
Also, using the high-definition map and the current position and direction of travel of the vehicle, it is sometimes possible to determine the features that should be included in the image captured by the
また、高精度な処理はこれに限られない。たとえば、車載装置3における物体認識処理および精度再決定部70でともに、画像を切り出す窓を移動させつつ、窓により切り出した画像をパターンマッチングさせる処理を用いているとする。この場合、精度再決定部70で用いる窓の大きさを、車載装置3における物体認識処理で用いる窓よりも小さい大きさの窓に設定して物体認識をしてもよい。このようにすることで、車載装置3で実行する物体認識処理よりも高精度に物体を認識することができる。そして、高精度に物体を認識することができると、その認識結果を、車載装置3における認識結果と照らし合わせて物体認識精度を再決定することができる。
Further, high-precision processing is not limited to this. For example, it is assumed that both the object recognition processing and the
学習部71は、精度再決定部70から提供された学習用データを、学習用データ記憶部61に記憶する。そして、学習用データ記憶部61に蓄積された学習用データを用いて移動体の行動予測アルゴリズムの機械学習を行う。行動予測アルゴリズムは、移動体のこれまでの移動軌跡から、その移動体の今後の移動行動を予測するアルゴリズムである。行動予測アルゴリズムに入力される入力データは、移動体の過去の位置、速度等、移動体に関するデータが含まれる。それだけではなく、移動体の周辺の状況を示すデータ、たとえば、その移動体の周囲に存在する立体物に関するデータ、路面状況を示すデータなどが入力データとなっていてもよい。
The
行動予測アルゴリズムに対する入力データは学習用データに含まれている。ただし、サーバ6が学習用データに基づいて取得するデータが、入力データに含まれていてもよい。たとえば、学習用データに車両2の位置が含まれている場合、サーバ6は、通信回線網5を用いて天候データベースにアクセスすることで、その位置の天候を知ることができる。天候は、サーバ6が学習用データに基づいて取得する入力データの一例である。
Input data for the behavior prediction algorithm is included in the learning data. However, data acquired by the
行動予測アルゴリズムに特に限定はなく、種々のアルゴリズムを採用することができる。たとえば、サポートベクターマシーンのような回帰手法を用いたアルゴリズム、決定木のような木構造をもつアルゴリズム、ニューラルネットワーク、状態空間モデルのような時系列アルゴリズム、k近傍法のようなクラスタリングアルゴリズムなどを採用することができる。また、教師あり学習および教師なし学習のいずれも採用することができる。教師あり学習の場合、学習のために用いる経時的に連続する学習用データのうち、最終時刻における移動対の位置を正解として用いた学習を行うことができる。 The behavior prediction algorithm is not particularly limited, and various algorithms can be adopted. For example, algorithms using regression methods such as support vector machines, algorithms with tree structures such as decision trees, neural networks, time-series algorithms such as state space models, and clustering algorithms such as the k-nearest neighbor method. can do. Also, both supervised and unsupervised learning can be employed. In the case of supervised learning, learning can be performed using, as a correct answer, the position of the moving pair at the final time out of the chronologically continuous learning data used for learning.
以上、説明した本実施形態では、車載装置3は、取得した走行状況データに基づいて定まる学習用データを、全部、サーバ6に送信するのではない。車載装置3は、物体認識処理を行い(S3)、かつ、その物体認識処理の精度を決定する(S6)。そして、物体認識精度に基づいて学習用データを送信するか否かを決定する(S7)。そのため、走行状況データから定まる学習用データを、全部、車載装置3から送信するよりも、車載装置3が送信するデータ量を少なくすることができる。したがって、学習用データを送信するための通信負荷が低減する。
In the present embodiment described above, the in-
また、物体認識精度が低いデータを学習に用いてしまうと、学習の精度が低下する。しかし、本実施形態では、S6で決定した認識精度が低かった場合には、学習用データを送信しない。送信されなかった学習用データはサーバ6において行動予測アルゴリズムの学習に用いられない。よって、学習の精度が低下してしまうことを抑制できる。
In addition, if data with low object recognition accuracy is used for learning, the accuracy of learning is lowered. However, in this embodiment, if the recognition accuracy determined in S6 is low, the learning data is not transmitted. Learning data that has not been transmitted is not used in the learning of the action prediction algorithm in the
また、本実施形態では、S7において、送信することに決定した学習用データであっても、グループ不成立となった学習用データは送信しない(S92)。グループが不成立となった学習用データは、学習精度の向上にはあまり寄与しない。よって、グループが不成立となった学習用データを送信しないようにすることで、学習精度の低下を抑制しつつ、通信負荷を低減することができる。 Further, in this embodiment, even if it is decided to transmit the learning data in S7, the learning data for which the group is not established is not transmitted (S92). The learning data for which the group is not established does not contribute much to the improvement of learning accuracy. Therefore, by not transmitting the learning data for which the group is not established, it is possible to reduce the communication load while suppressing the deterioration of the learning accuracy.
さらに、本実施形態では、サーバ6は、車載装置3が実行した物体認識処理よりも高精度な物体認識処理を実行して、物体認識処理の精度を再決定する。これにより、車載装置3では、認識精度が低いと判断することができなかった学習用データも、認識精度が低いと判断することができる。そして、精度再決定部70が決定した認識精度が低い学習用データは行動予測アルゴリズムの学習に用いない。これにより、学習の精度が低下してしまうことを、さらに抑制できる。
Furthermore, in the present embodiment, the
また、車載装置3での物体認識処理の結果は、挙動制御の目標値の更新に使われるので、車載装置3における物体認識処理に時間がかかってしまうと、車両2の挙動制御性能が低下する。しかし、本実施形態では、精度再決定部70に相当する高精度な処理を車載装置3では行わない。これにより、車両2の挙動制御性能の低下も抑制できる。
In addition, since the result of the object recognition processing in the in-
また、本実施形態では、車載装置3は、挙動制御の目標値を更新した後、次の処理開始までに一定時間以上の時間があるときに限り、データ送信決定部に相当するS7およびデータ送信処理部に相当するS9を実行する。つまり、車載装置3は、データ送信決定部(S7)および送信処理部(S9)の処理優先度を、車両2の挙動制御の優先度よりも低くしている。これによっても、車両2の挙動制御性能の低下が抑制できる。
Further, in the present embodiment, the in-
以上、実施形態を説明したが、開示した技術は上述の実施形態に限定されるものではなく、次の変形例も開示した範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施できる。なお、以下の説明において、それまでに使用した符号と同一番号の符号を有する要素は、特に言及する場合を除き、それ以前の実施形態における同一符号の要素と同一である。また、構成の一部のみを説明している場合、構成の他の部分については先に説明した実施形態を適用できる。 Although the embodiments have been described above, the disclosed technology is not limited to the above-described embodiments, and the following modifications are also included in the disclosed scope. Various modifications can be made. In the following description, the elements having the same reference numerals as the reference numerals used so far are the same as the elements having the same reference numerals in the previous embodiments unless otherwise specified. Moreover, when only part of the configuration is described, the previously described embodiments can be applied to the other portions of the configuration.
<変形例1>
たとえば、サーバ6の精度再決定部70において物体認識精度が低く、学習に用いないことに決定した場合、そのことを、車載装置3における物体認識処理の認識アルゴリズムを開発する開発者にフィードバックするようにしてもよい。このようにすれば、開発者は、大量のデータから、上記認識アルゴリズムにおいて改良の余地があるシーンを抽出する工数を省略することができる。
<Modification 1>
For example, if the
<変形例2>
精度再決定部70において、機械学習した物体認識アルゴリズムを用いて物体認識を行ってもよい。
<
The
<変形例3>
本開示に記載の制御部およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部およびその手法は、専用ハードウエア論理回路により、実現されてもよい。もしくは、本開示に記載の制御部およびその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウエア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。ハードウエア論理回路は、たとえば、ASIC、FPGAである。
<
The controller and techniques described in this disclosure may be implemented by a special purpose computer comprising a processor programmed to perform one or more functions embodied by a computer program. Alternatively, the controller and techniques described in this disclosure may be implemented by dedicated hardware logic circuitry. Alternatively, the controller and techniques described in this disclosure may be implemented by one or more dedicated computers configured by a combination of a processor executing a computer program and one or more hardware logic circuits. Hardware logic circuits are, for example, ASICs and FPGAs.
また、コンピュータプログラムを記憶する記憶媒体はROMに限られず、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていればよい。たとえば、フラッシュメモリに上記プログラムが記憶されていてもよい。 Moreover, the storage medium for storing the computer program is not limited to the ROM, and may be stored in a computer-readable non-transition tangible storage medium as instructions executed by the computer. For example, the program may be stored in a flash memory.
1:学習システム 2:車両 3:車載装置 4:基地局 5:通信回線 6:サーバ 21:物体検出センサ 22:カメラ 23:無線機 24:送信部 25:受信部 26:LANバス 31:プロセッサ 32:ROM 33:RAM 34:バッファ 61:学習用データ記憶部 62:高精度地図記憶部 63:通信部 64:送信部 65:受信部 66:制御部 67:プロセッサ 68:ROM 69:RAM 70:精度再決定部 71:学習部 S1:データ取得部 S3:物体認識部 S4:挙動制御部 S6:認識精度決定部 S7:データ送信決定部 S9:送信処理部 1: learning system 2: vehicle 3: onboard device 4: base station 5: communication line 6: server 21: object detection sensor 22: camera 23: wireless device 24: transmitter 25: receiver 26: LAN bus 31: processor 32 : ROM 33: RAM 34: Buffer 61: Learning data storage unit 62: High precision map storage unit 63: Communication unit 64: Transmission unit 65: Reception unit 66: Control unit 67: Processor 68: ROM 69: RAM 70: Accuracy Redetermination unit 71: Learning unit S1: Data acquisition unit S3: Object recognition unit S4: Behavior control unit S6: Recognition accuracy determination unit S7: Data transmission determination unit S9: Transmission processing unit
Claims (9)
前記車両の走行中に走行状況データを取得するデータ取得部(S1)と、
前記走行状況データに基づいて物体認識処理を実行する物体認識部(S3)と、
前記物体認識部による前記物体認識処理の精度を決定する認識精度決定部(S6)と、
前記認識精度決定部が決定した精度に基づき、当該精度が閾値以上である場合に、前記走行状況データに基づいて定まる前記学習用データを前記サーバに送信することに決定するデータ送信決定部(S7)と、
前記データ送信決定部が送信すると決定した前記学習用データを、送信部(24)から前記サーバに送信させる送信処理部(S9)と、
前記学習用データを一時的に記憶するバッファ(34)と、を備え、
前記送信処理部は、連続した一定時間分の前記学習用データを前記送信部から送信させるが、連続した一定時間分の前記学習用データが前記バッファに記憶されないと判断した場合、連続した一定時間分のデータにならない前記学習用データを前記バッファから削除する、車載装置。 An in-vehicle device (3) mounted in a vehicle (2) for transmitting learning data to a server (6),
a data acquisition unit (S1) that acquires driving situation data while the vehicle is running;
an object recognition unit (S3) that executes an object recognition process based on the traveling situation data;
a recognition accuracy determination unit (S6) that determines the accuracy of the object recognition processing by the object recognition unit;
Based on the accuracy determined by the recognition accuracy determining unit, when the accuracy is equal to or greater than a threshold value, the data transmission determining unit determines to transmit the learning data determined based on the driving situation data to the server. (S7);
a transmission processing unit (S9) for transmitting the learning data determined to be transmitted by the data transmission determination unit from the transmission unit (24) to the server ;
A buffer (34) that temporarily stores the learning data ,
The transmission processing unit causes the transmission unit to transmit the learning data for a continuous fixed time period, but if it is determined that the learning data for the continuous fixed time period is not stored in the buffer, an in-vehicle device that deletes from the buffer the learning data that does not become minute data .
前記認識精度決定部は、前記物体認識部が逐次決定した前記物体の位置と、前回以前に決定した前記物体の位置の変化に基づいて定まる予測位置との比較に基づいて、前記物体認識処理の精度を決定する、請求項1に記載の車載装置。 The object recognition unit sequentially determines the position of the object,
The recognition accuracy determination unit performs the object recognition processing based on a comparison between the position of the object sequentially determined by the object recognition unit and a predicted position determined based on a change in the position of the object determined before the previous time. 2. The in-vehicle device of claim 1, which determines accuracy.
前記認識精度決定部は、前記物体認識部が認識した物体の大きさを、前記物体認識部が認識した物体の種類に基づいて定まる標準的な物体の大きさと比較して、前記物体認識処理の精度を決定する、請求項1または2に記載の車載装置。 The object recognition unit determines the type and size of the object,
The recognition accuracy determination unit compares the size of the object recognized by the object recognition unit with a standard size of the object determined based on the type of the object recognized by the object recognition unit, and performs the object recognition processing. 3. An in-vehicle device according to claim 1 or 2, for determining accuracy.
前記認識精度決定部、前記データ送信決定部および前記送信処理部の処理優先度が、前記挙動制御部よりも低くなっている、請求項1~3のいずれか1項に記載の車載装置。 A behavior control unit (S4) that controls the behavior of the vehicle,
The in-vehicle device according to any one of claims 1 to 3 , wherein processing priority of said recognition accuracy determination unit, said data transmission determination unit, and said transmission processing unit is lower than that of said behavior control unit.
前記サーバは、
前記学習用データを受信する受信部(65)と、
前記受信部が受信した前記学習用データをもとに学習を実行する学習部(71)と、を備える、学習システム。 A learning system comprising the in-vehicle device according to any one of claims 1 to 4 and the server,
The server is
a receiving unit (65) that receives the learning data;
A learning system comprising a learning unit (71) that performs learning based on the learning data received by the receiving unit.
前記学習部は、前記精度再決定部が決定した精度が、学習に使うべき精度を満たしている場合に、前記学習用データを前記学習に用いることに決定する、請求項5に記載の学習システム。 The server includes an accuracy re-determining unit (70) that executes processing with higher accuracy than the object recognition processing executed by the object recognition unit and determines the accuracy of the object recognition processing by the object recognition unit,
6. The learning system according to claim 5 , wherein said learning unit decides to use said learning data for said learning when the accuracy determined by said accuracy redetermining unit satisfies the accuracy to be used for learning. .
前記車載装置は、
前記車両の走行中に走行状況データを取得するデータ取得部(S1)と、
前記走行状況データに基づいて物体認識処理を実行する物体認識部(S3)と、
前記物体認識部による前記物体認識処理の精度を決定する認識精度決定部(S6)と、
前記認識精度決定部が決定した精度に基づき、当該精度が閾値以上である場合に、前記走行状況データに基づいて定まる前記学習用データを前記サーバに送信することに決定するデータ送信決定部(S7)と、
前記データ送信決定部が送信すると決定した前記学習用データを、送信部(24)から前記サーバに送信させる送信処理部(S9)とを備え、
前記サーバは、
前記学習用データを受信する受信部(65)と、
前記受信部が受信した前記学習用データをもとに学習を実行する学習部(71)と、
前記物体認識部が実行する前記物体認識処理よりも高精度な処理を実行して、前記物体認識部による前記物体認識処理の精度を決定する精度再決定部(70)と、を備え、
前記学習部は、前記精度再決定部が決定した精度が、学習に使うべき精度を満たしている場合に、前記学習用データを前記学習に用いることに決定する、学習システム。 A learning system comprising an in-vehicle device (3) mounted on a vehicle (2) for transmitting learning data to a server (6), and the server,
The in-vehicle device
a data acquisition unit (S1) that acquires driving situation data while the vehicle is running;
an object recognition unit (S3) that executes an object recognition process based on the traveling situation data;
a recognition accuracy determination unit (S6) that determines the accuracy of the object recognition processing by the object recognition unit;
A data transmission determination unit (S7 )When,
a transmission processing unit (S9) for transmitting the learning data determined to be transmitted by the data transmission determination unit from the transmission unit (24) to the server;
The server is
a receiving unit (65) that receives the learning data;
a learning unit (71) that performs learning based on the learning data received by the receiving unit;
an accuracy redetermining unit (70) that executes a process with higher accuracy than the object recognition processing executed by the object recognition unit and determines the accuracy of the object recognition processing by the object recognition unit ;
The learning system , wherein the learning unit decides to use the learning data for the learning when the accuracy determined by the accuracy redetermining unit satisfies the accuracy to be used for learning.
前記車両の走行中に走行状況データを取得し、
前記走行状況データに基づいて物体認識処理を実行し、
前記物体認識処理の精度を決定し、
前記物体認識処理の精度に基づき、当該精度が閾値以上である場合に、前記走行状況データに基づいて定まる前記学習用データを前記サーバに送信することに決定し、
決定した前記学習用データを、送信部(24)から前記サーバに送信させ、
連続した一定時間分の前記学習用データを前記送信部から送信させるが、前記学習用データを一時的に記憶するバッファ(34)に連続した一定時間分の前記学習用データが記憶されないと判断した場合、連続した一定時間分のデータにならない前記学習用データを前記バッファから削除する、
ことを含む処理を前記車載装置が実行するデータ送信方法。 A data transmission method in which an in-vehicle device (3) mounted on a vehicle (2) transmits learning data to a server (6),
Acquiring driving situation data while the vehicle is running;
executing object recognition processing based on the traveling situation data;
determining the accuracy of the object recognition process;
Based on the accuracy of the object recognition process, when the accuracy is equal to or higher than a threshold, determining to transmit the learning data determined based on the driving situation data to the server;
causing the transmission unit (24) to transmit the determined learning data to the server ;
The learning data for a continuous predetermined time is transmitted from the transmission unit, but it is determined that the learning data for the continuous predetermined time is not stored in a buffer (34) for temporarily storing the learning data. In this case, deleting from the buffer the learning data that does not become continuous data for a certain period of time ;
A data transmission method in which the in-vehicle device executes a process including :
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019044967A JP7156107B2 (en) | 2019-03-12 | 2019-03-12 | In-vehicle device, learning system and data transmission method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019044967A JP7156107B2 (en) | 2019-03-12 | 2019-03-12 | In-vehicle device, learning system and data transmission method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020149224A JP2020149224A (en) | 2020-09-17 |
JP7156107B2 true JP7156107B2 (en) | 2022-10-19 |
Family
ID=72429661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019044967A Active JP7156107B2 (en) | 2019-03-12 | 2019-03-12 | In-vehicle device, learning system and data transmission method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7156107B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009264841A (en) | 2008-04-23 | 2009-11-12 | Honda Motor Co Ltd | Object detector |
JP2011059810A (en) | 2009-09-07 | 2011-03-24 | Nippon Soken Inc | Image recognition system |
JP2019021201A (en) | 2017-07-20 | 2019-02-07 | 株式会社デンソー | Learning server, and assist system |
WO2019026119A1 (en) | 2017-07-31 | 2019-02-07 | 三菱電機株式会社 | Traffic flow estimation system |
-
2019
- 2019-03-12 JP JP2019044967A patent/JP7156107B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009264841A (en) | 2008-04-23 | 2009-11-12 | Honda Motor Co Ltd | Object detector |
JP2011059810A (en) | 2009-09-07 | 2011-03-24 | Nippon Soken Inc | Image recognition system |
JP2019021201A (en) | 2017-07-20 | 2019-02-07 | 株式会社デンソー | Learning server, and assist system |
WO2019026119A1 (en) | 2017-07-31 | 2019-02-07 | 三菱電機株式会社 | Traffic flow estimation system |
Also Published As
Publication number | Publication date |
---|---|
JP2020149224A (en) | 2020-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108628206B (en) | Road construction detection system and method | |
US10982961B2 (en) | Vehicle control system and vehicle control device | |
CN106004860B (en) | Controlling device for vehicle running | |
CN111357021B (en) | System and method for matching an autonomous vehicle with a rider | |
JP7520016B2 (en) | Adaptive Multi-Network Vehicle Architecture | |
US20190308621A1 (en) | Traveling path generation apparatus and traveling path generation method | |
JP5288423B2 (en) | Data distribution system and data distribution method | |
US20200307589A1 (en) | Automatic lane merge with tunable merge behaviors | |
CN113044059A (en) | Safety system for a vehicle | |
CN109552212B (en) | System and method for radar localization in autonomous vehicles | |
US11631326B2 (en) | Information providing system, server, onboard device, vehicle, storage medium, and information providing method | |
CN112469970B (en) | Method for estimating the positioning quality in terms of self-positioning of a vehicle, device for carrying out the method steps of the method, and computer program | |
US11106219B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20210086797A1 (en) | Vehicle control device, map information management system, vehicle control method, and storage medium | |
US10640128B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20200094825A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11685406B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US10854083B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20210063192A1 (en) | Own location estimation device | |
US20210003411A1 (en) | Vehicle control system, vehicle control method, medium, and information processing device | |
JP7156107B2 (en) | In-vehicle device, learning system and data transmission method | |
JP3639196B2 (en) | Vehicle identification device | |
WO2023103459A1 (en) | Vehicle control method, decision server, and storage medium | |
CN115050203B (en) | Map generation device and vehicle position recognition device | |
US20220383646A1 (en) | Mobile object control device, mobile object control method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220617 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220919 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7156107 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |