WO2023119800A1 - In-vehicle computational processing device and computational processing method - Google Patents

In-vehicle computational processing device and computational processing method Download PDF

Info

Publication number
WO2023119800A1
WO2023119800A1 PCT/JP2022/037977 JP2022037977W WO2023119800A1 WO 2023119800 A1 WO2023119800 A1 WO 2023119800A1 JP 2022037977 W JP2022037977 W JP 2022037977W WO 2023119800 A1 WO2023119800 A1 WO 2023119800A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
unit
vehicle
trained model
calculation
Prior art date
Application number
PCT/JP2022/037977
Other languages
French (fr)
Japanese (ja)
Inventor
和香子 中野
理宇 平井
延之 村中
浩朗 伊藤
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Publication of WO2023119800A1 publication Critical patent/WO2023119800A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

When switching AI models, the present invention switches to an appropriate AI model by verifying whether the switch causes any degradation in accuracy compared to before the switch. Provided is an in-vehicle computational processing device that performs computations using a trained model, the in-vehicle computational processing device including a computational unit that performs computations using a first trained model, a state estimation unit that estimates a state by acquiring the position of the vehicle or information from inside and outside the vehicle, and a model selection unit that selects a second trained model on the basis of the state, and characterized by including a model switching verification unit that compares a computational result of the first trained model to a computational result obtained by performing computations using the second trained model in parallel with the first trained model, and determines, on the basis of a result of the comparison, whether to switch from the first trained model to the second trained model, and if the model switching verification unit has determined to switch to the second trained model, the computational unit switches from the first trained model to the second trained model to perform computations.

Description

車載演算処理装置、および、演算処理方法In-vehicle arithmetic processing device and arithmetic processing method
 本発明は、車両に搭載した外界センサの出力を機械学習済みのAIモデルで処理することで、車両の外部環境を認識する、車載演算処理装置、および、演算処理方法に関する。 The present invention relates to an in-vehicle arithmetic processing device and an arithmetic processing method that recognize the external environment of a vehicle by processing the output of an external sensor mounted on the vehicle with a machine-learned AI model.
 近年、自動運転(AD、Autonomous Driving)システムや、先進運転支援システム(ADAS、Advanced Driver-Assistance Systems)を搭載した車両が普及しつつある。これらのシステムの実現には、車両の外部環境(他車両、歩行者、自転車、路面、白線、道路標識、障害物、および、それらの位置など)を認識する必要がある。そのため、車両に搭載した外界センサの出力を機械学習済みのAIモデル(以下、単に「AIモデル」または「モデル」と称する)で処理することで、車両の外部環境を認識する手法を採用することが多い。 In recent years, vehicles equipped with autonomous driving (AD) systems and advanced driver-assistance systems (ADAS) have become widespread. To implement these systems, it is necessary to recognize the vehicle's external environment (other vehicles, pedestrians, bicycles, road surfaces, white lines, road signs, obstacles, their positions, etc.). Therefore, adopt a method of recognizing the vehicle's external environment by processing the output of an external sensor mounted on the vehicle with an AI model that has undergone machine learning (hereinafter simply referred to as "AI model" or "model"). There are many.
 ここで、車両走行中の全てのシーンに対して1つのAIモデルで外部環境を認識する場合は、網羅的なセンサ出力データを利用して機械学習したAIモデルを事前に用意する必要がある。しかしながら、そのようなAIモデルは、多様なシーンでの認識精度を担保するため、モデル規模が指数関数的に増大し、そのAIモデルを実行するECU(Electronic Control Unit)に対しても非常に高い演算性能が求められる。その結果、ECUのチップコストが大きくなり、自動運転中の演算負荷(消費電力)も大きくなるという問題がある。 Here, if one AI model recognizes the external environment for all scenes while the vehicle is running, it is necessary to prepare in advance an AI model that has undergone machine learning using exhaustive sensor output data. However, such an AI model guarantees recognition accuracy in various scenes, so the model scale increases exponentially, and the ECU (Electronic Control Unit) that executes the AI model is also very expensive. Arithmetic performance is required. As a result, there is a problem that the chip cost of the ECU increases and the calculation load (power consumption) during automatic operation also increases.
 一方で、ECUのチップコストや演算負荷(消費電力)を低減するため、限定的なデータで学習した小さなAIモデルを適用すると、そのAIモデルが対応しない環境下では、外部環境の認識精度が大きく劣化する可能性が高い。 On the other hand, in order to reduce the chip cost and calculation load (power consumption) of the ECU, if a small AI model trained with limited data is applied, the recognition accuracy of the external environment is high in environments that the AI model does not support. likely to deteriorate.
 これらの問題を鑑み、比較的小さなAIモデルを予め複数用意しておき、走行シーンや走行位置に応じたAIモデルに適宜切り替えることで、何れの走行シーン等においても、外部環境の認識精度の向上を図りつつ、ECUの演算負荷(消費電力)の軽減も実現する手法が検討されている。 In consideration of these problems, by preparing multiple relatively small AI models in advance and switching to the AI model according to the driving scene and driving position, the recognition accuracy of the external environment is improved in any driving scene. A method of reducing the calculation load (power consumption) of the ECU while achieving the above is being studied.
 例えば、特許文献1の要約書には、課題として「車両の制御のための学習済みモデルが所定領域ごとに設定されている場合に、車両の位置に応じて学習済みモデルを適切に切り替える。」と記載されており、解決手段として「機械学習による学習済みモデルを用いて車両の制御を支援する制御支援装置であって、車両から送信された車両の車両情報および位置情報に基づいて、車両において更新可能であるとともに、位置情報に含まれる車両の現在の位置に対応する学習済みモデルを選択する制御部と、選択した学習済みモデルを車両に送信する送信部と、を備える。」と記載されている。 For example, in the abstract of Patent Document 1, the problem is that "when a learned model for controlling a vehicle is set for each predetermined region, the learned model is appropriately switched according to the position of the vehicle." As a solution, "a control support device that supports vehicle control using a learned model by machine learning, based on the vehicle information and position information of the vehicle transmitted from the vehicle, in the vehicle a control unit that selects a learned model that is updatable and that corresponds to the current position of the vehicle included in the location information; and a transmission unit that transmits the selected learned model to the vehicle.” ing.
特開2020-93760号公報Japanese Unexamined Patent Application Publication No. 2020-93760
 特許文献1の制御支援装置は、要約書の「車両の現在の位置に対応する学習済みモデルを選択する制御部」の記載等から明らかなように、車両の位置の変化に応じて、適用するAIモデルを切り替えるものである。 The control support device of Patent Document 1 is applied according to changes in the position of the vehicle, as is clear from the description in the abstract, etc., "a control unit that selects a learned model corresponding to the current position of the vehicle." It switches the AI model.
 しかしながら、特許文献1では、AIモデルを切り替える際に認識精度が劣化するかを検証しておらず、不適切なAIモデルに切り替えられたた場合には、外部環境の認識精度が劣化し、結果的に、ADやADASによる車両制御の不安定化を招く可能性があった。 However, in Patent Document 1, it is not verified whether the recognition accuracy deteriorates when switching the AI model, and when switching to an inappropriate AI model, the recognition accuracy of the external environment deteriorates, resulting Basically, there is a possibility that the vehicle control becomes unstable due to AD or ADAS.
 本発明は、上記の問題に鑑みてなされたものであって、AIモデルを切り替える場合、外部環境の認識精度の劣化を招かないAIモデルを選択する、車載演算処理装置、および、演算処理方法を提供することを目的とする。 The present invention has been made in view of the above problems, and provides an in-vehicle arithmetic processing device and an arithmetic processing method that select an AI model that does not deteriorate the recognition accuracy of the external environment when switching between AI models. intended to provide
 上記課題を解決するため、本発明の車載演算処理装置は、車両に搭載され、学習済モデルを用いて演算を行うものであって、第1の学習済モデルを用いて演算を行う演算部と、前記車両の位置、または車両内外の取得し状態を推定する状態推定部と、前記状態に基づいて、第2の学習済モデルを選択するモデル選択部と、を有し、前記第2の学習済モデルを用いて、前記第1の学習済モデルと並列に前記演算を行ったときの演算結果を、第1の学習済モデルの演算結果と比較し、その比較結果に基づいて前記第1の学習済モデルから前記第2の学習済モデルに切り替えるか否かを決定するモデル切り替え検証部と、を有し、前記演算部は、前記モデル切り替え検証部で、前記第2の学習済モデルに切り替えると決定された場合、前記第1の学習済モデルから前記第2の学習済モデルに切り替えて前記演算を行う車載演算処理装置とした。 In order to solve the above-mentioned problems, an in-vehicle arithmetic processing device of the present invention is mounted on a vehicle and performs arithmetic operations using a learned model. , a state estimating unit that acquires and estimates the position of the vehicle or the state inside and outside the vehicle, and a model selection unit that selects a second trained model based on the state, wherein the second learning Using the trained model, the calculation result when the calculation is performed in parallel with the first trained model is compared with the calculation result of the first trained model, and based on the comparison result, the first a model switching verification unit that determines whether or not to switch from a trained model to the second trained model, wherein the computing unit switches to the second trained model in the model switching verification unit. is determined, the in-vehicle arithmetic processing device switches from the first learned model to the second learned model to perform the calculation.
 本発明の車載演算処理装置、および、演算処理方法によれば、AIモデルを切り替えた場合であっても、外部環境の認識精度が劣化しない。 According to the in-vehicle arithmetic processing device and arithmetic processing method of the present invention, even when the AI model is switched, the recognition accuracy of the external environment does not deteriorate.
実施例1に係る車載演算処理装置の機能ブロック図。FIG. 2 is a functional block diagram of an in-vehicle arithmetic processing device according to the first embodiment; 実施例1に係る車載演算処理装置の処理手順を示すフローチャート。4 is a flowchart showing a processing procedure of the in-vehicle arithmetic processing device according to the first embodiment; 状態テーブルの一種である、走行シーン状態テーブルの一例を示す図。The figure which shows an example of the driving|running|working scene state table which is a kind of state table. 状態テーブルの一種である、ユーザ状態テーブルの一例を示す図。FIG. 4 is a diagram showing an example of a user state table, which is a type of state table; 状態テーブルの一種である、装置負荷状態テーブルの一例を示す図。FIG. 4 is a diagram showing an example of a device load state table, which is a type of state table; モデルテーブルの一例を示す図。The figure which shows an example of a model table. Liderの出力を正解値とするモデル検証の機能ブロック図。The functional block diagram of model verification which makes the output of Lider a correct value. 異種センサの出力を正解値とするモデル検証の機能ブロック図。FIG. 10 is a functional block diagram of model verification using outputs of heterogeneous sensors as correct values. 現状モデルの出力を正解値とするモデル検証の機能ブロック図。Functional block diagram of model verification using the output of the current model as the correct value. 現状モデルの出力を正解値とするモデル検証の機能ブロック図。Functional block diagram of model verification using the output of the current model as the correct value. 実施例1に係る自動運転時の表示パネルを示す図。FIG. 4 is a diagram showing a display panel during automatic operation according to the first embodiment; 実施例1に係る自動運転時の設定画面を示す図。FIG. 5 is a diagram showing a setting screen during automatic operation according to the first embodiment; 実施例2に係る車載演算処理装置の機能ブロック図。FIG. 10 is a functional block diagram of an in-vehicle arithmetic processing device according to a second embodiment; 実施例2に係る車載演算処理装置の処理手順を示すフローチャート。8 is a flow chart showing a processing procedure of the in-vehicle arithmetic processing device according to the second embodiment; モデル差分テーブルの一例を示す図。The figure which shows an example of a model difference table. 実施例3に係る過去走行履歴の表示方法の一例を示す図。FIG. 11 is a diagram showing an example of a past travel history display method according to the third embodiment;
 まず、図1から図8を用いて、本発明の実施例1に係る車載演算処理装置1を説明する。なお、以下では、車載演算処理装置1がECUに内蔵されるものとして説明するが、車載演算処理装置1を外界センサに内蔵し、外界センサで認識した外部環境をECUに出力する構成としても良い。 First, the in-vehicle processing unit 1 according to the first embodiment of the present invention will be described using FIGS. 1 to 8. FIG. In the following description, the in-vehicle processing unit 1 is assumed to be built in an ECU, but the in-vehicle processing unit 1 may be built into an external sensor, and the external environment recognized by the external sensor may be output to the ECU. .
 図1は、実施例1に係る車載演算処理装置1の機能ブロック図である。ここに示すように、車載演算処理装置1は、主演算部11と、AI演算部12と、記憶部13を有している。なお、図1では、主演算部11とAI演算部12が分離した構造を例示しているが、両演算部を一体化しても良い。 FIG. 1 is a functional block diagram of the in-vehicle arithmetic processing device 1 according to the first embodiment. As shown here, the in-vehicle arithmetic processing unit 1 has a main arithmetic unit 11 , an AI arithmetic unit 12 and a storage unit 13 . Although FIG. 1 exemplifies the structure in which the main calculation unit 11 and the AI calculation unit 12 are separated, both calculation units may be integrated.
 図示するように、車載演算処理装置1は、外界センサからの外界センサ情報I1と、車両センサからの車両センサ情報I2を受信する装置である。ここで、外界センサは、例えば、ステレオカメラ、単眼カメラ、Lider、照度センサ、加速度センサ、レーダ等の、自車両周囲の情報を取得するセンサである。また、車両センサは、例えば、カーナビゲーションシステム、GNSS(Global Navigation Satellite System)受信機、速度センサ、舵角センサ、燃料残量計、バッテリー残量計等の自車両の位置や状態に関連する情報を取得するセンサである。なお、外界センサ情報I1と車両センサ情報I2は必ずしも1つずつの入力ではなく、複数の外界センサ情報I1、車両センサ情報I2を入力としてもよい。 As shown, the in-vehicle processing unit 1 is a device that receives external sensor information I1 from an external sensor and vehicle sensor information I2 from a vehicle sensor. Here, the external sensor is a sensor that acquires information around the vehicle, such as a stereo camera, monocular camera, lidar, illuminance sensor, acceleration sensor, and radar. In addition, vehicle sensors, for example, car navigation system, GNSS (Global Navigation Satellite System) receiver, speed sensor, steering angle sensor, fuel level gauge, battery level gauge, etc. Information related to the position and state of the own vehicle is a sensor that acquires The external sensor information I1 and the vehicle sensor information I2 are not necessarily input one by one, and a plurality of external sensor information I1 and vehicle sensor information I2 may be input.
 主演算部11は、CPU(Central Processing Unit)やFPGA(Field Programmable Gate Array)等の演算装置によって、所定のプログラムを実行するユニットである。所定のプログラムの実行により、主演算部11は、状態推定部11aと、候補モデル選択部11bと、現状モデル制御部11cと、候補モデル制御部11dと、結果受診部11eと、モデル検証部11fなどの機能部を実現する。また、AI演算部12は、AIモデルの処理に特化したAIアクセラレータ等であり、モデル演算部12aと、AI演算制御部12bを有する。記憶部13は、半導体メモリなどの記憶装置であり、状態テーブル13aと、モデルテーブル13bと、パラメタテーブル13cを有している。以下、車載演算処理装置1の各部詳細を、主に情報の流れに沿って説明する。 The main computation unit 11 is a unit that executes a predetermined program by means of a computation device such as a CPU (Central Processing Unit) or FPGA (Field Programmable Gate Array). By executing a predetermined program, the main computation unit 11 includes a state estimation unit 11a, a candidate model selection unit 11b, a current model control unit 11c, a candidate model control unit 11d, a result reception unit 11e, and a model verification unit 11f. and other functional units. The AI calculation unit 12 is an AI accelerator or the like specialized for AI model processing, and includes a model calculation unit 12a and an AI calculation control unit 12b. The storage unit 13 is a storage device such as a semiconductor memory, and has a state table 13a, a model table 13b, and a parameter table 13c. Details of each part of the in-vehicle arithmetic processing unit 1 will be described below mainly along the flow of information.
 <車載演算処理装置1の各部詳細>
 主演算部11の状態推定部11aは、入力された外界センサ情報I1と車両センサ情報I2に基づいて、自車両の現在状態を推定する。ここで推定される状態は、例えば、自車両の走行位置の種別(高速道理、一般道路、駐車場など)や、現在時刻の種別(朝・昼、夕方、夜)や、天候の種別(晴、曇、雨、雪など)を組み合わせた、自車両の外部環境の状態があげられる。また、状態推定部11aで推定する状態は、自車両内の消費電力の程度、バッテリー残量の程度、認識対象物の数などの、車載演算処理装置1のリソース状態や、誰が運転者であるか、であってもよい。また、状態推定部11aでの状態推定は、単体および複数の外界センサ情報I1からの環境情報を用いたルールベースでの推定、もしくはAIモデルを用いた推定などが想定される。また車両センサ情報I2としてのマップと位置情報から走行中の道路状況などの推定もあってよい。
<Details of each part of the in-vehicle arithmetic processing unit 1>
The state estimation unit 11a of the main computation unit 11 estimates the current state of the vehicle based on the input external sensor information I1 and vehicle sensor information I2. The state estimated here includes, for example, the type of the vehicle's running position (highway, general road, parking lot, etc.), the type of the current time (morning/noon, evening, night), and the type of weather (clear). , cloudiness, rain, snow, etc.). The state estimated by the state estimating unit 11a includes the resource state of the in-vehicle arithmetic processing unit 1, such as the degree of power consumption in the own vehicle, the degree of the remaining battery level, the number of objects to be recognized, who is the driver, may be Further, state estimation by the state estimation unit 11a is assumed to be rule-based estimation using environment information from a single or multiple external sensor information I1, estimation using an AI model, or the like. Also, the road conditions during travel may be estimated from the map as the vehicle sensor information I2 and the position information.
 主演算部11の候補モデル選択部11bは、状態推定部11aで推定した状態が変化したときに、記憶部13の状態テーブル13aを参照して、推定した状態に紐づくAIモデルのモデルIDを選択する。なお、状態テーブル13aの詳細は後述する。 When the state estimated by the state estimation unit 11a changes, the candidate model selection unit 11b of the main calculation unit 11 refers to the state table 13a of the storage unit 13, and selects the model ID of the AI model linked to the estimated state. select. Details of the state table 13a will be described later.
 主演算部11の候補モデル制御部11dは、記憶部13のモデルテーブル13bを参照して、候補モデル選択部11bで選択されたモデルIDに対応するモデル情報を取得するとともに、パラメタテーブル13cを参照して、選択されたモデルIDに対応するモデルパラメタを取得する。そして、取得したモデル情報とモデルパラメタを、AI演算部12に送信する。また、候補モデル制御部11dは、必要に応じて、AI演算部12での候補モデルM2を利用した環境認識処理を停止させる。なお、モデルテーブル13bの詳細は後述する。 The candidate model control unit 11d of the main computation unit 11 refers to the model table 13b of the storage unit 13 to acquire model information corresponding to the model ID selected by the candidate model selection unit 11b, and refers to the parameter table 13c. to acquire the model parameter corresponding to the selected model ID. Then, the acquired model information and model parameters are transmitted to the AI calculation unit 12 . Further, the candidate model control unit 11d stops the environment recognition processing using the candidate model M2 in the AI calculation unit 12 as necessary. Details of the model table 13b will be described later.
 AI演算部12のAI演算制御部12bは、候補モデル制御部11dから受信したモデル情報とモデルパラメタをモデル演算部12aに送信する。また、AI演算制御部12bは、主演算部11からの指令に基づいて、モデル演算部12aでの環境認識処理を開始させたり停止させたりする。 The AI calculation control unit 12b of the AI calculation unit 12 transmits the model information and model parameters received from the candidate model control unit 11d to the model calculation unit 12a. Also, the AI calculation control unit 12b starts or stops the environment recognition processing in the model calculation unit 12a based on a command from the main calculation unit 11. FIG.
 AI演算部12のモデル演算部12aは、AIモデルを利用した環境認識処理時に多用するベクトル演算やテンソル演算に特化した構造を持ち、現状モデルM1を用いた環境認識処理と、候補モデルM2を用いた環境認識処理を並列して実施することができる。なお、現状モデルM1(第1の学習済モデル)は、ADやADASのために現在利用している、前回の検証時に所定以上の精度であることが確認されたAIモデルである。また、候補モデルM2(第2の学習済モデル)は、現状モデルM1に代えて今後利用する可能性のある、候補モデル制御部11dから受信したモデル情報とモデルパラメタを用いて構築したAIモデルである。 The model calculation unit 12a of the AI calculation unit 12 has a structure specialized for vector calculations and tensor calculations that are frequently used during environment recognition processing using AI models, and performs environment recognition processing using the current model M1 and candidate model M2. The used environment recognition processing can be performed in parallel. The current model M1 (first trained model) is an AI model that is currently used for AD and ADAS and that has been confirmed to have a predetermined accuracy or more at the time of the previous verification. The candidate model M2 (second learned model) is an AI model constructed using model information and model parameters received from the candidate model control unit 11d, which may be used in the future in place of the current model M1. be.
 主演算部11の現状モデル制御部11cは、必要に応じて、AI演算部12での現状モデルM1を利用した環境認識処理を停止させる。また、現状モデル制御部11cは、必要に応じて、候補モデルM2を新たな現状モデルM1に設定する。 The current model control unit 11c of the main calculation unit 11 stops the environment recognition processing using the current model M1 in the AI calculation unit 12 as necessary. In addition, the current model control unit 11c sets the candidate model M2 as a new current model M1 as necessary.
 主演算部11の結果受診部11eは、AI演算部12から現状モデルM1と候補モデルM2の認識結果を受信し、モデル検証部11fに送信する。 The result reception unit 11e of the main calculation unit 11 receives the recognition results of the current model M1 and the candidate model M2 from the AI calculation unit 12, and transmits them to the model verification unit 11f.
 主演算部11のモデル検証部11fは、結果受診部11eから受信した双方の認識結果を比較することで、双方のモデル精度を検証し、ADやADASで利用するAIモデルを現状モデルM1から候補モデルM2に切り替えることの可否を判定する。また、モデル検証部11fは、候補モデルM2に切り替え可能と判定した場合は、現状モデル制御部11cに停止信号を送信し、モデルM2に切り替え不可と判定した場合は、候補モデル制御部11dに停止信号を送る。これにより、現状モデル制御部11cまたは候補モデル制御部11dは、モデル検証部11fでの判定結果に応じて、AI演算部12のモデル演算部12aで処理中の一方のAIモデルを停止させることができる。 The model verification unit 11f of the main calculation unit 11 compares both recognition results received from the result reception unit 11e to verify the accuracy of both models, and selects an AI model to be used in AD or ADAS as a candidate from the current model M1. It is determined whether or not it is possible to switch to the model M2. When the model verification unit 11f determines that switching to the candidate model M2 is possible, the model verification unit 11f transmits a stop signal to the current model control unit 11c. send a signal. As a result, the current model control unit 11c or the candidate model control unit 11d can stop one of the AI models being processed by the model calculation unit 12a of the AI calculation unit 12 according to the determination result of the model verification unit 11f. can.
 <車載演算処理装置1の処理手順>
 次に、図2のフローチャートを用いて、車載演算処理装置1の処理手順を説明する。なお、図2では、主演算部11の処理とAI演算部12の処理を分けて表しており、双方の処理フローを跨ぐ矢印はデータの送信を意味している。
<Processing procedure of in-vehicle arithmetic processing unit 1>
Next, the processing procedure of the in-vehicle arithmetic processing unit 1 will be described using the flowchart of FIG. In FIG. 2, the processing of the main computation unit 11 and the processing of the AI computation unit 12 are shown separately, and the arrows crossing both processing flows indicate data transmission.
 ステップS21の時点では、AI演算部12のモデル演算部12aは、ADやADASで利用するAIモデルとして、従前の現状モデルM1のみを実行している。 At the time of step S21, the model calculation unit 12a of the AI calculation unit 12 is executing only the previous current model M1 as an AI model used in AD and ADAS.
 ステップS11では、主演算部11の状態推定部11aは、外界センサ情報I1と車両センサ情報I2を取得し、環境情報から現在の車両の状態を推定する。なお、ここで推定される車両の状態は、上記したように、例えば、車両の走行位置の種別(高速道理、一般道路、駐車場など)や、現在時刻の種別(朝・昼、夕方、夜)や、天候の種別(晴、曇、雨、雪など)、車両内の消費電力の程度、バッテリー残量の程度、認識対象物の数などである。 In step S11, the state estimation unit 11a of the main computation unit 11 acquires the external sensor information I1 and the vehicle sensor information I2, and estimates the current vehicle state from the environmental information. As described above, the vehicle state estimated here includes, for example, the type of vehicle travel position (highway, general road, parking lot, etc.) and the type of current time (morning, noon, evening, night, etc.). ), type of weather (clear, cloudy, rainy, snowy, etc.), level of power consumption in the vehicle, level of remaining battery level, number of objects to be recognized, and the like.
 ステップS12では、主演算部11の候補モデル選択部11bは、記憶部13に格納された状態テーブル13aを参照し、状態推定部11aで推定した状態に対応する候補モデルM2を選択する。以下、図3Aから図3Cを用いて、状態テーブル13aを参照した候補モデルM2の選択方法を具体的に説明する。 In step S12, the candidate model selection unit 11b of the main calculation unit 11 refers to the state table 13a stored in the storage unit 13, and selects the candidate model M2 corresponding to the state estimated by the state estimation unit 11a. A method for selecting the candidate model M2 with reference to the state table 13a will be specifically described below with reference to FIGS. 3A to 3C.
 図3Aは、状態テーブル13aの一種である、走行シーン状態テーブル13a1の一例であり、走行シーンに応じた候補モデルM2を特定するためのテーブルである。例えば、状態推定部11aで推定した走行シーンが、走行位置種別「一般道」、天候「晴れ」、現在時刻「朝」の組み合わせの走行シーンであれば、候補モデル選択部11bは、モデルID「m01」を候補モデルM2として選択する。なお、走行シーン状態テーブル13a1に登録される走行シーンは、図3Aに例示するものに限らず、雪や山道、トンネルなどを走行審―として登録してもよい。またモデルを準備する際の分け方として、図3Aに記載した走行シーンのように複数の状態の組み合わせ毎にモデルを用意してもよく、また一般道、高速道路、駐車場のように朝・昼・夜の状態をまとめて1つのモデルを作成してもよい。 FIG. 3A is an example of a driving scene state table 13a1, which is a kind of state table 13a, and is a table for specifying candidate models M2 according to driving scenes. For example, if the driving scene estimated by the state estimating unit 11a is a driving scene that is a combination of the driving position type “general road”, the weather “sunny”, and the current time “morning”, the candidate model selecting unit 11b selects the model ID “ m01" as the candidate model M2. The driving scenes registered in the driving scene state table 13a1 are not limited to those illustrated in FIG. 3A, and snow, mountain roads, tunnels, etc. may be registered as driving conditions. In addition, as a method of dividing models when preparing them, models may be prepared for each combination of multiple states, as in the driving scene shown in FIG. 3A. A single model may be created by summarizing the daytime and nighttime conditions.
 図3Bは、状態テーブル13aの一種である、ユーザ状態テーブル13a2の一例であり、運転手(ユーザ)に応じた候補モデルM2を特定するためのテーブルである。このテーブルには、ユーザ毎にモデルIDが登録されており、ユーザ設定が変更された場合など状態推定部11aがユーザの交代を検知した場合に、候補モデル選択部11bは交代後のユーザに対応するモデルIDを候補モデルM2として選択する。 FIG. 3B is an example of a user state table 13a2, which is a type of state table 13a, and is a table for specifying candidate models M2 according to drivers (users). A model ID is registered for each user in this table, and when the state estimating unit 11a detects a change in the user, such as when user settings are changed, the candidate model selecting unit 11b selects the user after the change. model ID is selected as a candidate model M2.
 図3Cは、状態テーブル13aの一種である、装置負荷状態テーブル13a3の一例であり、車載演算処理装置1の負荷状態に応じた候補モデルM2を特定するためのテーブルである。このテーブルには、装置負荷の大きさ毎にAIモデルが登録されており、例えば、現在の装置負荷が「高負荷」であれば、相対的に演算負荷の小さなモデルに相当するモデルID「m15」を選択し、現在の装置負荷が「低負荷」であれば、相対的に演算負荷の大きなモデルに相当するモデルID「m16」を選択する。 FIG. 3C is an example of a device load state table 13a3, which is a type of state table 13a, and is a table for specifying candidate models M2 according to the load state of the in-vehicle processing device 1. FIG. In this table, an AI model is registered for each device load. For example, if the current device load is "high load", the model ID "m15" corresponds to a model with a relatively small computational load. ”, and if the current device load is “low load”, select the model ID “m16” corresponding to a model with a relatively large computational load.
 ステップS13では、主演算部11の候補モデル制御部11dは、記憶部13のモデルテーブル13bやパラメタテーブル13cを参照し、候補モデル選択部11bで選択したモデルIDに紐づくモデル情報とモデルパラメタを取得する。そして、候補モデル制御部11dは、モデル情報とモデルパラメタに加え、それらの情報に基づいて生成される候補モデルM2の処理開始信号をAI演算部12に送信する。 In step S13, the candidate model control unit 11d of the main calculation unit 11 refers to the model table 13b and the parameter table 13c of the storage unit 13, and selects model information and model parameters associated with the model ID selected by the candidate model selection unit 11b. get. Then, in addition to the model information and model parameters, the candidate model control unit 11d transmits to the AI calculation unit 12 a process start signal for the candidate model M2 generated based on the information.
 図4は、モデルテーブル13bの一例を示す図である。ここに例示するモデルテーブル13bは、「モデルID」、「コア数」、「入力サイズ」、「層数」、「各層重みサイズリスト」の各情報を保持している。「モデルID」には、図3Aから図3Cに例示した状態テーブル13aを参照して選択されうるモデルIDが登録されている。「コア数」には「モデルID」に紐づくAIモデルの実行に必要な、AI演算部12のコア数が登録されている。「入力サイズ」には「モデルID」に紐づくAIモデルへの認識対象データの入力サイズが登録されている。「層数」には「モデルID」に紐づくAIモデルの層数が登録されている。「各層重みサイズリスト」には「モデルID」に紐づくAIモデルの各層の重みサイズ登録されている。なお、モデルテーブル13bに格納され取得される情報はこれに限らず、AI演算部12の計算機アーキテクチャに依存して必要な情報を保持することができる。 FIG. 4 is a diagram showing an example of the model table 13b. The model table 13b exemplified here holds each information of "model ID", "number of cores", "input size", "number of layers", and "each layer weight size list". A model ID that can be selected with reference to the state table 13a illustrated in FIGS. 3A to 3C is registered in the "model ID". The number of cores of the AI calculation unit 12 required to execute the AI model associated with the "model ID" is registered in the "number of cores". The input size of the recognition target data to the AI model associated with the "model ID" is registered in the "input size". The number of layers of the AI model linked to the "model ID" is registered in the "number of layers". The weight size of each layer of the AI model linked to the "model ID" is registered in the "each layer weight size list". The information stored and acquired in the model table 13b is not limited to this, and necessary information can be held depending on the computer architecture of the AI calculation unit 12. FIG.
 ステップS22では、AI演算部12のモデル演算部12aは、モデル情報とモデルパラメタを用いて構築した候補モデルM2を追加実行する。なお、モデル演算部12aでは、ステップS21の時点で既に現在モデルM1を実行しているため、本ステップにより、現在モデルM1と候補モデルM2の双方が実行されることになる。両モデルの実行結果は、主演算部11の結果受信部11eに送信される。 In step S22, the model calculation unit 12a of the AI calculation unit 12 additionally executes the candidate model M2 constructed using the model information and model parameters. Since the model calculation unit 12a has already executed the current model M1 at the time of step S21, both the current model M1 and the candidate model M2 are executed in this step. The execution results of both models are transmitted to the result receiving section 11e of the main computing section 11. FIG.
 ステップS14では、主演算部11の結果受信部11eは、現状モデルM1と候補モデルM2の実行結果を取得する。 At step S14, the result receiving unit 11e of the main computing unit 11 acquires the execution results of the current model M1 and the candidate model M2.
 ステップS15では、主演算部11のモデル検証部11fは、外界センサ情報I1等の出力の現状モデルM1と候補モデルM2での処理結果を検証し、その検証結果に基づいて、候補モデルM2への切り替え可否を決定する。なお、ここでの検証方法の詳細については後述することとする。 In step S15, the model verification unit 11f of the main computation unit 11 verifies the processing result of the output of the external sensor information I1 and the like in the current model M1 and the candidate model M2, and based on the verification result, the candidate model M2 is verified. Determines whether switching is possible. The details of the verification method here will be described later.
 ステップS16は、ステップS15での決定に応じて分岐する。すなわち、候補モデルM2への切り替え可能と決定された場合は、ステップS23に進み、切り替え不可と決定された場合は、ステップS17に進む。 Step S16 branches according to the determination in step S15. That is, when it is determined that switching to the candidate model M2 is possible, the process proceeds to step S23, and when it is determined that the switching is not possible, the process proceeds to step S17.
 ステップS23では、AI演算部12のAI演算制御部12bは、主演算部11の現状モデル制御部11cから受信した指令に応じて、現状モデルM1の実行を止めるともに、候補モデルM2を以後の現状モデルM1に設定し、図2の処理を終了する。この結果、モデル演算部12aでは、新たな現状モデルM1を用いたADやADASが開始される。 In step S23, the AI calculation control unit 12b of the AI calculation unit 12 stops the execution of the current model M1 in accordance with the command received from the current model control unit 11c of the main calculation unit 11, and replaces the candidate model M2 with the current state. The model M1 is set, and the process of FIG. 2 is terminated. As a result, AD and ADAS using the new current model M1 are started in the model calculation unit 12a.
 ステップS17では、主演算部11のモデル検証部11fは、従前の現状モデルM1が現在の環境下でも有効であるかを判定する。そして、従前の現状モデルM1による認識精度が閾値以上であれば、ステップS24に進み、そうでなければ、ステップS25に進む。 In step S17, the model verification unit 11f of the main calculation unit 11 determines whether the previous current model M1 is valid even under the current environment. Then, if the recognition accuracy of the previous current model M1 is equal to or higher than the threshold value, the process proceeds to step S24; otherwise, the process proceeds to step S25.
 ステップS24では、AI演算部12のAI演算制御部12bは、主演算部11の候補モデル制御部11dから受信した指令に応じて、候補モデルM2の実行を止め、図2の処理を終了する。この結果、モデル演算部12aでは、従前の現状モデルM1のみが実行され、従前の現状モデルM1を用いたADやADASが継続される。 In step S24, the AI calculation control unit 12b of the AI calculation unit 12 stops executing the candidate model M2 according to the command received from the candidate model control unit 11d of the main calculation unit 11, and ends the processing of FIG. As a result, in the model calculation unit 12a, only the previous current model M1 is executed, and AD and ADAS using the previous current model M1 are continued.
 ステップS25では、AI演算部12のAI演算制御部12bは、主演算部11の現状モデル制御部11cと候補モデル制御部11dから受信した指令に応じて、現状モデルM1と候補モデルM2の双方の実行を止め、図2の処理を終了する。この結果、ADやADASが停止され、ユーザによる手動運転モードに移行するが、外部環境の誤認により不適切なADやADASの実行が防止される。 In step S25, the AI calculation control unit 12b of the AI calculation unit 12 controls both the current model M1 and the candidate model M2 according to the commands received from the current model control unit 11c and the candidate model control unit 11d of the main calculation unit 11. Execution is stopped and the process of FIG. 2 is terminated. As a result, the AD and ADAS are stopped and the manual operation mode is entered by the user, but inappropriate execution of AD and ADAS due to misidentification of the external environment is prevented.
 なお、上記のステップS12では、1つの候補モデルM2を選択するものとして説明したが、状態テーブル13aを参照することで複数の候補モデルM2を特定できる場合は、それら複数の候補モデルM2を全て選択しても良い。その場合は、ステップS22では選択した全ての候補モデルM2を実施すれば良く、また、ステップS23では最も精度の良い候補モデルM2を新たな現状モデルM1に設定すれば良い。 In the above step S12, it is assumed that one candidate model M2 is selected. You can In that case, all the selected candidate models M2 should be executed in step S22, and the most accurate candidate model M2 should be set as the new current model M1 in step S23.
 <ステップS15での検証方法>
 ここで、ステップS15でのAIモデルの精度検証方法の詳細を説明する。AIモデルの精度検証は、正解値とAIモデルの認識結果の比較により、誤差が大きいほど精度が低いとして算出可能である。しかし、AIモデルの完全な正解値を自車両内で得ることは困難であるため、本実施例では、正解値に近しいと考えられる値とAIモデルの出力値を比較し、両者の誤差から各AIモデルの精度を算出することとする。
<Verification Method in Step S15>
Here, the details of the AI model accuracy verification method in step S15 will be described. Accuracy verification of the AI model can be calculated by comparing the correct value and the recognition result of the AI model, assuming that the larger the error, the lower the accuracy. However, since it is difficult to obtain a completely correct value of the AI model within the own vehicle, in this embodiment, a value that is considered to be close to the correct value is compared with the output value of the AI model, and the error between the two is calculated. Suppose we want to calculate the accuracy of an AI model.
 以下では、現状モデルM1と候補モデルM2が、カメラで撮像した画像データを認識対象とするAIモデルである場合を例に、ステップS15での精度算出方法を説明する。また、正解値に近しい値との比較による精度算出方法について、2つの方針を例に挙げて説明する。 Below, the accuracy calculation method in step S15 will be described, taking as an example a case where the current model M1 and the candidate model M2 are AI models whose recognition target is image data captured by a camera. Also, the accuracy calculation method by comparison with a value close to the correct value will be described by taking two policies as examples.
 図3に例示した走行シーン状態テーブル13a1において、例えば、一般道用のAIモデルから高速道路用のAIモデルに切り替わる際に、切り替え前後で認識対象物が一部異なる場合がある。この場合のモデル精度算出には、カメラ以外の別センサで得られた値を正解値として各AIモデルの精度を算出する方法が考えられる。このような検証方法については、図5Aと図5Bを用いて説明する。 In the driving scene state table 13a1 illustrated in FIG. 3, for example, when switching from the AI model for general roads to the AI model for highways, there are cases where the recognition targets are partially different before and after switching. To calculate the model accuracy in this case, a method of calculating the accuracy of each AI model using a value obtained by a sensor other than the camera as a correct value can be considered. Such a verification method will be described with reference to FIGS. 5A and 5B.
 また、図3に例示した走行シーン状態テーブル13a1において、例えば、晴れ・曇り用のAIモデルから夜用のAIモデルに切り替わる際に、切り替え前後で認識対象物が同一である場合がある。この場合のモデル精度算出には、現状モデルM1の認識結果を正解値として候補モデルM2の精度を算出する方法が考えられる。このような検証方法については、図6Aと図6Bを用いて説明する。 Also, in the driving scene state table 13a1 illustrated in FIG. 3, for example, when the AI model for sunny/cloudy weather is switched to the AI model for nighttime, the recognition target object may be the same before and after switching. In order to calculate the model accuracy in this case, a method of calculating the accuracy of the candidate model M2 using the recognition result of the current model M1 as the correct value can be considered. Such a verification method will be described with reference to FIGS. 6A and 6B.
 <<カメラ以外の別センサの出力を正解値とする検証方法>>
 図5Aは、Lider3の出力を正解値として各AIモデルの精度を算出し、各AIモデル検証を行う方法を例示する機能ブロック図である。この場合、結果受診部11eは、カメラ2で撮像した画像を現状モデルM1と候補モデルM2で認識した結果を受信すると共に、Lider3の出力をLider用モデルで認識した結果を受信する。そして、モデル検証部11fでは、Lider3の出力に基づく認識結果を正解値として、現状モデルM1と候補モデルM2のモデル精度を検証する。
<<Method of verifying that the output of another sensor other than the camera is the correct value>>
FIG. 5A is a functional block diagram illustrating a method of calculating the accuracy of each AI model using the output of Lider 3 as a correct value and performing each AI model verification. In this case, the result receiving unit 11e receives the result of recognizing the image captured by the camera 2 with the current model M1 and the candidate model M2, and also receives the result of recognizing the output of the Lider 3 with the Lider model. Then, the model verification unit 11f verifies the model accuracy of the current model M1 and the candidate model M2 using the recognition result based on the output of the Lider 3 as the correct value.
 また、図5Bは、カメラ以外の複数の異種センサ4の出力を合成した値を正解値として各AIモデルの精度を算出し、AIモデル検証を行う方法を例示する機能ブロック図である。この場合、結果受診部11eは、カメラ2で撮像した画像を現状モデルM1と候補モデルM2で認識した結果を受信すると共に、複数の異種センサ4の出力をフュージョン部41で組み合わせることで得た周辺認識結果を受信する。そして、モデル検証部11fは、異種センサ4の出力に基づく認識結果を正解値として、現状モデルM1と候補モデルM2のモデル精度を検証する。 FIG. 5B is a functional block diagram illustrating a method of calculating the accuracy of each AI model and performing AI model verification using a value obtained by synthesizing the outputs of a plurality of heterogeneous sensors 4 other than cameras as a correct value. In this case, the result receiving unit 11e receives the result of recognizing the image captured by the camera 2 with the current model M1 and the candidate model M2, and also receives the peripheral image obtained by combining the outputs of the plurality of heterogeneous sensors 4 by the fusion unit 41. Receive recognition results. Then, the model verification unit 11f verifies the model accuracy of the current model M1 and the candidate model M2 using the recognition result based on the output of the heterogeneous sensor 4 as the correct value.
 ここで、図5Aと図5Bに示すように、本実施例のモデル検証部11fは、精度算出部11f1と、精度比較部11f2を有している。 Here, as shown in FIGS. 5A and 5B, the model verification unit 11f of this embodiment has an accuracy calculation unit 11f1 and an accuracy comparison unit 11f2.
 精度算出部11f1は、正解値(Lider3の出力に基づく認識結果、または、異種センサ4の出力に基づく認識結果)と現状モデルM1の認識結果の誤差の大きさから現状モデル精度を算出し、また、正解値と候補モデルM2の認識結果の誤差の大きさから候補モデル精度を算出する。 The accuracy calculation unit 11f1 calculates the current model accuracy from the magnitude of the error between the correct value (the recognition result based on the output of the Lider 3 or the recognition result based on the output of the heterogeneous sensor 4) and the recognition result of the current model M1, and , the accuracy of the candidate model is calculated from the magnitude of the error between the correct answer value and the recognition result of the candidate model M2.
 そして、精度比較部11f2は、現状モデル精度と候補モデル精度を比較し、候補モデル精度が現状モデル精度より高く、かつ、候補モデル精度が基準値に達している場合に、現状モデルM1から候補モデルM2への切り替えを可能と決定する。一方、現状モデル精度が候補モデル精度より高い場合は、精度比較部11f2は、現状モデルM1から候補モデルM2への切り替えを不可と決定する。なお、現状モデル精度より候補モデル精度が高いが、その精度が基準値に足りていない場合は、AIモデル自体の精度劣化が考えられるため両モデルを使用不可とし、ADやADASを停止することが考えられる。 Then, the accuracy comparison unit 11f2 compares the current model accuracy and the candidate model accuracy, and if the candidate model accuracy is higher than the current model accuracy and the candidate model accuracy reaches the reference value, the current model M1 to the candidate model It decides that switching to M2 is possible. On the other hand, when the current model accuracy is higher than the candidate model accuracy, the accuracy comparison unit 11f2 determines that the current model M1 cannot be switched to the candidate model M2. In addition, if the accuracy of the candidate model is higher than the accuracy of the current model, but the accuracy is not sufficient for the standard value, it is possible that the accuracy of the AI model itself will deteriorate, so both models can be disabled and AD and ADAS can be stopped. Conceivable.
 <<現状モデルM1の出力を正解値とする検証方法>>
 図6Aは、現状モデルM1の認識結果を正解値として候補モデルM2の精度を算出する方法の例を示す機能ブロック図である。同図において、結果受診部11eは、カメラ2からの画像を入力として現状モデルM1と候補モデルM2で認識した結果を受信する。そして、モデル検証部11fは、現状モデルM1の認識結果を正解値として、精度比較部11f2にて候補モデルM2の認識結果を比較する。
<<Method of verification using the output of the current model M1 as the correct value>>
FIG. 6A is a functional block diagram showing an example of a method of calculating the accuracy of the candidate model M2 using the recognition result of the current model M1 as the correct value. In the figure, a result reception unit 11e receives an image from the camera 2 as an input and receives the result of recognition by the current model M1 and the candidate model M2. Then, the model verification unit 11f uses the recognition result of the current model M1 as the correct value, and compares the recognition result of the candidate model M2 with the accuracy comparison unit 11f2.
 また、図6Bは、現状モデルM1の認識結果を正解値として候補モデルM2の精度を算出する別例を示す機能ブロック図である。同図の結果受信部11eには、現状モデルM1と候補モデルM2からの入力に加え、車両センサ情報I2の一種である車速情報I2aも入力される。また、図6Bの結果受信部11eには、状態推定部11aで検知された状態変化の前に動作させていた現状モデルM1の認識結果と車速情報I2aから状態変化後の現在の認識結果を予測する認識予測部11e1を設けており、精度比較部11f2では、認識予測部11e1で予測した値を正解値として、正解値と候補モデルM2の認識結果を比較する。 FIG. 6B is a functional block diagram showing another example of calculating the accuracy of the candidate model M2 using the recognition result of the current model M1 as the correct value. In addition to inputs from the current model M1 and the candidate model M2, vehicle speed information I2a, which is a type of vehicle sensor information I2, is also input to the result receiving unit 11e of FIG. Further, the result receiving unit 11e of FIG. 6B predicts the current recognition result after the state change from the recognition result of the current model M1 operated before the state change detected by the state estimation unit 11a and the vehicle speed information I2a. The accuracy comparison unit 11f2 compares the correct value with the recognition result of the candidate model M2, using the value predicted by the recognition prediction unit 11e1 as the correct value.
 <AIモデル切り替えの通知方法>
 図7は車載演算処理装置1におけるAIモデル切り替え後のカーナビなどへの表示パネル5の例を示す図である。表示パネル5には地図情報5aに加え、自動運転モード表示5b、夜間運転モード表示5cなどの走行シーンを表現したマーク表示が行われる。これによりモデル検証部11fにより正しくモデルの切り替えが達成されたかを確認することが可能となる。
<How to notify AI model switching>
FIG. 7 is a diagram showing an example of the display panel 5 for a car navigation system or the like after switching the AI model in the in-vehicle processing unit 1. In FIG. In addition to the map information 5a, the display panel 5 displays marks representing driving scenes such as an automatic driving mode display 5b and a night driving mode display 5c. As a result, it becomes possible for the model verification unit 11f to confirm whether or not the model has been correctly switched.
 図8は表示パネル5に表示可能な自動運転設定画面5dの一例を示す図である。この図では、走行シーンごとの自動運転の可否、及びシーン間の切り替え可否の設定を示している。本実施例のように一般道の自動運転が可能、および高速道路の自動運転が可能であり、一般道と高速道路間での切り替えを不可に設定している場合は、走行中のモデル切り替えは不可であり、一般道と高速道路間での切り替えを可能としている場合は、走行中のモデル検証が可能でありモデル切り替え可能であることが確認できる。 FIG. 8 is a diagram showing an example of an automatic operation setting screen 5d that can be displayed on the display panel 5. This figure shows settings for enabling/disabling automatic driving for each driving scene and for enabling/disabling switching between scenes. As in this embodiment, when automatic driving on general roads is possible and automatic driving on expressways is possible, and switching between general roads and expressways is disabled, model switching during driving is If it is not possible and it is possible to switch between general roads and expressways, it can be confirmed that model verification is possible while driving and model switching is possible.
 以上で説明した、本実施例の車載演算処理装置によれば、AIモデルを切り替えた場合であっても、外部環境の認識精度が劣化しない。そのため、小さなAIモデルを切り替えながら使用する場合であっても、モデル切り替えの前後で認識精度の劣化が発生しないため、大きなAIモデルで様々な状況に対応する場合に比べ、ECUのチップコストの低減や、消費電力の低減を図りつつ、外部環境の認識不良による車両の誤制御を防ぐことができる。 According to the in-vehicle arithmetic processing device of this embodiment described above, even when the AI model is switched, the recognition accuracy of the external environment does not deteriorate. Therefore, even when using small AI models while switching between them, there is no deterioration in recognition accuracy before and after model switching, so the cost of the ECU chip is reduced compared to using large AI models to handle various situations. In addition, it is possible to prevent erroneous control of the vehicle due to poor recognition of the external environment while reducing power consumption.
 また、本実施例の車載演算処理装置によるモデル検証は、車両内で実行されるため、通信回線を介して接続した車外サーバでモデル検証を行う場合と異なり、モデル検証処理の遅延や、僻地での通信不良によってモデル検証できない状況を回避することができる。 In addition, since the model verification by the in-vehicle arithmetic processing unit of the present embodiment is executed in the vehicle, unlike the case where the model verification is performed by an external server connected via a communication line, the model verification processing is delayed, and in a remote area. It is possible to avoid a situation where model verification cannot be performed due to communication failure.
 次に、図9から図12を用いて、本発明の実施例2に係る車載演算処理装置1を説明する。なお、以下では、実施例1との共通点については重複説明を省略する。 Next, the in-vehicle arithmetic processing device 1 according to Embodiment 2 of the present invention will be described with reference to FIGS. 9 to 12. FIG. In the following description, overlapping descriptions of the points in common with the first embodiment will be omitted.
 実施例1のモデル演算部12aでは、モデル切り替えの前後で、現状モデルM1を用いた認識処理と、候補モデルM2を用いた認識処理を並列して実施していたが、両モデルを構成するチャネルには共通するチャネルもあり、共通チャネルを重複して動作させることで、演算負荷(消費電力)が増加するという問題があった。 In the model calculation unit 12a of the first embodiment, the recognition processing using the current model M1 and the recognition processing using the candidate model M2 are performed in parallel before and after the model switching. There is also a common channel, and there is a problem that operating the common channel redundantly increases the computational load (power consumption).
 そこで、本実施例では、モデル演算部12aで現状モデルM1と候補モデルM2を並列動作させる際に、2モデル分の処理リソースを消費することなく、現状モデルM1による認識結果と候補モデルM2による認識結果の双方を取得し、それらを用いてAIモデルの切り替えの可否を判定できるようにした。 Therefore, in the present embodiment, when the current model M1 and the candidate model M2 are operated in parallel by the model calculation unit 12a, the recognition result of the current model M1 and the recognition result of the candidate model M2 are obtained without consuming processing resources for two models. Both results are acquired, and using them, it is possible to determine whether the AI model can be switched.
 そのため、本実施例では、AIモデルを走行シーンごとに作成する際に、1つの大きなモデルを使用し全ての学習データを用いて複数の走行シーンを網羅したモデルを作成し、作成後のモデルを各走行シーンに含まれる学習データを用い走行シーンごとにモデル圧縮を行う。このようにすることで、各走行シーンのモデルを一部が共有された形で作成することが可能である。また、走行シーンすべてを網羅した大きなモデルを作成し、それを異なる計算量になるようモデル圧縮を行うことでも、モデルの一部を共有された形で複数のモデルが生成可能である。このように走行シーンごとのAIモデルがそれぞれ一部を共有している場合には、候補モデルM2の動作時に、現状モデルM1と候補モデルM2の差分だけを追加で動作させることで検証に必要な認識結果を得ることが可能である。 Therefore, in this embodiment, when creating an AI model for each driving scene, one large model is used to create a model that covers multiple driving scenes using all the learning data, and the created model is Model compression is performed for each driving scene using learning data included in each driving scene. By doing so, it is possible to create a model of each driving scene in a partially shared manner. Also, by creating a large model that covers all driving scenes and then compressing the model so that it has different computational complexity, it is possible to generate multiple models with a part of the model shared. In this way, when the AI model for each driving scene shares a part, only the difference between the current model M1 and the candidate model M2 is additionally operated when the candidate model M2 is operated. Recognition results can be obtained.
 本実施例は、このように走行シーンごとのAIモデルがそれぞれ一部を共有している場合のモデル切り替えの例を想定している。 This embodiment assumes an example of model switching when the AI models for each driving scene share a part in this way.
 図9は、本実施例の車載演算処理装置1の機能ブロック図である。本実施例の車載演算処理装置1は、実施例1の車載演算処理装置1(図1参照)と同様に、主演算部11と、AI演算部12と、記憶部13を備えているが、本実施例の特有の構成として、主演算部11にはモデル差分抽出部11gを追加しており、記憶部13にはモデル差分テーブル13dを追加している。 FIG. 9 is a functional block diagram of the in-vehicle arithmetic processing device 1 of this embodiment. The vehicle-mounted processing unit 1 of the present embodiment includes a main processing unit 11, an AI processing unit 12, and a storage unit 13, like the vehicle-mounted processing unit 1 of the first embodiment (see FIG. 1). As a unique configuration of this embodiment, the main computation unit 11 is added with a model difference extraction unit 11g, and the storage unit 13 is added with a model difference table 13d.
 モデル差分抽出部11gは、候補モデル選択部11bで選択したモデルIDに基づいて、モデルテーブル13b(図4参照)とモデル差分テーブル13dを参照し、候補モデルM2で現状モデルM1との差分チャンネルを抽出する。 The model difference extraction unit 11g refers to the model table 13b (see FIG. 4) and the model difference table 13d based on the model ID selected by the candidate model selection unit 11b, and finds the difference channel between the candidate model M2 and the current model M1. Extract.
 候補モデル制御部11dは、抽出されたチャネル差分情報をAI演算部12のAI演算制御部12bに入力し、モデル演算部12aでは候補モデル差分D2の部分のみをモデルパラメタとしてロードし実行する。 The candidate model control unit 11d inputs the extracted channel difference information to the AI calculation control unit 12b of the AI calculation unit 12, and the model calculation unit 12a loads only the candidate model difference D2 as a model parameter and executes it.
 実行結果によるモデル検証部11fで、候補モデルM2への切り替えが可能な場合は共有モデルM3の部分の実行はそのままに、現状モデル差分D1を停止させる。これにより、現状モデルM1を停止させたと同等の効果を得ることができる。なお、本実施例ではモデルの差分としてチャネルを想定しているが、これに限らず差分はモデルの層単位やモデルのニューロン単位であってもよい。 In the model verification unit 11f based on the execution result, if it is possible to switch to the candidate model M2, the execution of the part of the shared model M3 is left as it is, and the current model difference D1 is stopped. As a result, an effect equivalent to that of stopping the current model M1 can be obtained. In this embodiment, channels are assumed as model differences, but the difference is not limited to this, and the differences may be model layer units or model neuron units.
 図10は、図9に示した車載演算処理装置1の処理フローを示す図であり、主演算部11とAI演算部12での処理タイミングを表している。矢印はデータの送信を意味している。なお、以下では、図2との共通点については重複説明を省略する。 FIG. 10 is a diagram showing the processing flow of the in-vehicle arithmetic processing device 1 shown in FIG. Arrows indicate data transmission. It should be noted that, in the following description, redundant description of the points in common with FIG. 2 will be omitted.
 ステップS21の時点では、AI演算部12のモデル演算部12aは、ADやADASで利用するAIモデルとして、従前の現状モデルM1のみを実行している。なお、本実施例のモデル演算部12aには、現状モデルM1や候補モデルM2そのものは登録されず、共有モデルM3と現状モデル差分D1と候補モデル差分D2の形式で登録されているため、本実施例での現状モデルM1の実行とは、共有モデルM3と現状モデル差分D1の双方を実行することを意味し、候補モデルM2の実行とは、共有モデルM3と候補モデル差分D2の双方を実行することを意味する。 At the time of step S21, the model calculation unit 12a of the AI calculation unit 12 is executing only the previous current model M1 as an AI model used in AD and ADAS. Note that the current model M1 and the candidate model M2 themselves are not registered in the model calculation unit 12a of this embodiment, but are registered in the form of the shared model M3, the current model difference D1, and the candidate model difference D2. Running the current model M1 in the example means running both the shared model M3 and the current model delta D1, and running the candidate model M2 means running both the shared model M3 and the candidate model delta D2. means that
 ステップS11とステップS12は、図2のものと同等である。 Steps S11 and S12 are equivalent to those in FIG.
 ステップS12aでは、主演算部11のモデル差分抽出部11gは、記憶部13のモデルテーブル13bとモデル差分テーブル13dを参照し、現状モデルM1と選択した候補モデルM2のモデル差分を抽出する。 In step S12a, the model difference extraction unit 11g of the main computation unit 11 refers to the model table 13b and the model difference table 13d of the storage unit 13, and extracts the model difference between the current model M1 and the selected candidate model M2.
 ステップS13aでは、主演算部11の候補モデル制御部11dは、候補モデルM2を利用した処理の開始信号と、モデル差分情報、モデル差分パラメタをAI演算部12に送信する。 In step S13a, the candidate model control section 11d of the main calculation section 11 transmits a start signal for processing using the candidate model M2, model difference information, and model difference parameters to the AI calculation section 12.
 ステップS22aでは、AI演算部12のモデル演算部12aは、候補モデル差分D2を追加実行する。なお、上記したように、モデル演算部12aは、ステップS21の時点で既に現在モデルM1に相当する共有モデルM3と現状モデル差分D1の両方を実行しているため、本ステップにより候補モデル差分D2を追加実行することで、現在モデルM1と候補モデルM2の双方を実行したと等価の出力を取得することができる。両モデルの実行結果は主演算部11に送信する。 In step S22a, the model calculation unit 12a of the AI calculation unit 12 additionally executes the candidate model difference D2. As described above, the model calculation unit 12a has already executed both the shared model M3 corresponding to the current model M1 and the current model difference D1 at the time of step S21. By additionally executing, an output equivalent to executing both the current model M1 and the candidate model M2 can be obtained. The execution results of both models are sent to the main computation unit 11 .
 ステップS14からステップS17、および、ステップ23からステップS25は、図2のものと基本的に同等である。ただし、本実施例において、ステップS23の現状モデルM1を止めるとは、現状モデル差分D1のみを止めることに相当し、ステップS24の候補モデルM2を止めるとは、候補モデル差分D2のみを止めることに相当する。 Steps S14 to S17 and steps S23 to S25 are basically the same as those in FIG. However, in this embodiment, stopping the current model M1 in step S23 corresponds to stopping only the current model difference D1, and stopping the candidate model M2 in step S24 means stopping only the candidate model difference D2. Equivalent to.
 図11は、図9に示した車載演算処理装置1の記憶部13に置けるモデル差分テーブル13dの一例を示した図の一例である。ここに示すように、モデル差分テーブル13dは、モデルIDと各層の不要チャネルリストを保持している。本実施例では、モデル差分テーブル13dの不要チャネルリストは、モデルm01と比較しその他のモデルの各層のチャンネル数がいくつ少ないかで差分を表現している。例えば、モデルm02は、モデルm01と比べ1層目L1は4、8,9、30番目のチャンネルが不必要であり、2層目L2は1、2チャンネル目が不必要であることを示している。反対にモデルm01よりチャネルが多い場所についてはマイナス表記で表現可能である。 FIG. 11 is an example of a diagram showing an example of a model difference table 13d stored in the storage unit 13 of the in-vehicle arithmetic processing device 1 shown in FIG. As shown here, the model difference table 13d holds model IDs and unnecessary channel lists for each layer. In this embodiment, the unnecessary channel list of the model difference table 13d expresses the difference by how many channels in each layer of the other models are smaller than the model m01. For example, the model m02 shows that the 4th, 8th, 9th, and 30th channels are unnecessary for the first layer L1 compared to the model m01, and the 1st and 2nd channels are unnecessary for the second layer L2. there is Conversely, a location with more channels than the model m01 can be expressed in minus notation.
 次に、図12を用いて、本発明の実施例3に係る車載演算処理装置1を説明する。なお、以下では、上記実施例との共通点については重複説明を省略する。 Next, using FIG. 12, the in-vehicle arithmetic processing device 1 according to the third embodiment of the present invention will be described. In the following description, overlapping descriptions of the points in common with the above embodiment will be omitted.
 本実施例では、実施例1,2に示した車載演算処理装置1におけるモデル検証部11fでの検証を過去の走行履歴に基づき省略する例を説明する。車載演算処理装置1でのモデル検証は頻度が多くなるほど処理負荷やチップへの実装サイズの増大に繋がるため、頻度の低減のためには過去の走行経路、走行環境などの過去走行履歴に基づき同様のタイミング、同様のシーンに紐づくモデルへの切り替えを行うことで検証回数を抑えることが可能となる。 In this embodiment, an example will be described in which the verification by the model verification unit 11f in the in-vehicle arithmetic processing device 1 shown in the first and second embodiments is omitted based on the past travel history. As the frequency of model verification in the in-vehicle processing unit 1 increases, the processing load and mounting size on the chip increase. At the timing of , it is possible to reduce the number of verifications by switching to a model that is linked to a similar scene.
 図12は、過去走行履歴の一例が車両の表示パネル5に表示されている例である。ここに示すように、過去走行履歴の表示としては、時刻、経路名、出発地、目的地、ユーザIDがそれぞれ表示されている。ユーザはこの表示から過去の走行履歴を選択することで、以前の走行と同様のタイミングに同様のモデルへの切り替えを行うことができる。なお、過去走行履歴は単体車両のものに限らず、サーバなどから入手した別車両の走行履歴も検索可能であってよい。 FIG. 12 shows an example of past travel history displayed on the display panel 5 of the vehicle. As shown here, the display of the past travel history includes the time, route name, departure point, destination, and user ID. By selecting the past travel history from this display, the user can switch to the same model at the same timing as the previous travel. Note that the past travel history is not limited to that of a single vehicle, and the travel history of another vehicle obtained from a server or the like may also be searchable.
1…車載演算処理装置、11…主演算部、11a…状態推定部、11b…候補モデル選択部、11c…現状モデル制御部、11d…候補モデル制御部、11e…結果受信部、11f…モデル検証部、11f1…精度算出部、11f2…精度比較部、11g…モデル差分抽出部、12…AI演算部、12a…モデル演算部、M1…現状モデル、M2…候補モデル、M3…共有モデル、D1…現状モデル差分、D2…候補モデル差分、12b…AI演算制御部、13…記憶部、13a…状態テーブル、13b…モデルテーブル、13c…パラメタテーブル、13d…モデル差分テーブル、2…カメラ、3…Lider、4…異種センサ、41…フュージョン部、5…表示パネル、I1…外界センサ情報、I2…車両センサ情報、I2a…車速情報 DESCRIPTION OF SYMBOLS 1... Vehicle-mounted arithmetic processing unit 11... Main calculation part 11a... State estimation part 11b... Candidate model selection part 11c... Current model control part 11d... Candidate model control part 11e... Result receiving part 11f... Model verification Part 11f1 Accuracy calculation unit 11f2 Accuracy comparison unit 11g Model difference extraction unit 12 AI calculation unit 12a Model calculation unit M1 Current model M2 Candidate model M3 Shared model D1 Current model difference D2 Candidate model difference 12b AI calculation control unit 13 Storage unit 13a State table 13b Model table 13c Parameter table 13d Model difference table 2 Camera 3 Lider 4... Heterogeneous sensors 41... Fusion unit 5... Display panel I1... External sensor information I2... Vehicle sensor information I2a... Vehicle speed information

Claims (8)

  1.  車両に搭載され、学習済モデルを用いて演算を行う車載演算処理装置であって、
     第1の学習済モデルを用いて演算を行う演算部と、
     前記車両の位置、または車両内外の取得し状態を推定する状態推定部と、
     前記状態に基づいて、第2の学習済モデルを選択するモデル選択部と、を有し、
     前記第2の学習済モデルを用いて、前記第1の学習済モデルと並列に前記演算を行ったときの演算結果を、第1の学習済モデルの演算結果と比較し、その比較結果に基づいて前記第1の学習済モデルから前記第2の学習済モデルに切り替えるか否かを決定するモデル切り替え検証部と、を有し、
     前記演算部は、前記モデル切り替え検証部で、前記第2の学習済モデルに切り替えると決定された場合、前記第1の学習済モデルから前記第2の学習済モデルに切り替えて前記演算を行うことを特徴とする車載演算処理装置。
    An in-vehicle arithmetic processing device that is mounted in a vehicle and performs arithmetic using a trained model,
    a calculation unit that performs calculations using the first trained model;
    a state estimating unit that acquires the position of the vehicle or the state inside and outside the vehicle and estimates the state;
    a model selection unit that selects a second trained model based on the state;
    Using the second trained model, the calculation result when the calculation is performed in parallel with the first trained model is compared with the calculation result of the first trained model, and based on the comparison result a model switching verification unit that determines whether to switch from the first trained model to the second trained model,
    When the model switching verification unit determines to switch to the second trained model, the computing unit performs the computation by switching from the first trained model to the second trained model. An in-vehicle processing unit characterized by:
  2.  請求項1に記載の車載演算処理装置において、
     前記モデル切り替え検証部は、異なるセンサ情報に基づいて得られる値を正しい認識結果として、前記第1の学習済モデルと前記第2の学習済モデルの精度を算出するモデル精度算出部を備えることを特徴とする車載演算処理装置。
    In the in-vehicle processing device according to claim 1,
    The model switching verification unit includes a model accuracy calculation unit that calculates the accuracy of the first trained model and the second trained model using values obtained based on different sensor information as correct recognition results. Characterized in-vehicle processing unit.
  3.  請求項1に記載の車載演算処理装置において、
     前記モデル切り替え検証部は、前記第1の学習済モデルを演算した結果を正しい認識結果として第2の学習済みモデルの認識結果の精度を算出するモデル精度算出部を備え、
     第2の学習済みモデルの精度が閾値以上であれば、精度の良いモデルへ切り替えを決定することを特徴とする車載演算処理装置。
    In the in-vehicle processing device according to claim 1,
    The model switching verification unit includes a model accuracy calculation unit that calculates the accuracy of the recognition result of the second trained model using the result of calculation of the first trained model as a correct recognition result,
    An in-vehicle arithmetic processing device, characterized in that if the accuracy of a second learned model is equal to or higher than a threshold, switching to a more accurate model is determined.
  4.  請求項3に記載の車載演算処理装置において、
     前記モデル精度算出部は、過去に前記第1の学習済モデルを演算した結果から現在の認識結果を予測する結果予測部を備え、
     前記結果予測部により予測された認識結果を正しい認識結果として第2のモデルの精度を算出すことを特徴とする車載演算処理装置。
    In the in-vehicle arithmetic processing device according to claim 3,
    The model accuracy calculation unit includes a result prediction unit that predicts a current recognition result from a result of calculating the first trained model in the past,
    An in-vehicle arithmetic processing unit, wherein the accuracy of the second model is calculated using the recognition result predicted by the result prediction unit as the correct recognition result.
  5.  請求項1に記載の車載演算処理装置において、
     前記第2の学習済モデルから、前記第1の学習済モデルと当該第2の学習済モデルの差分のチャネルを抽出する差分抽出部を有し、
     前記演算部は、当該差分のチャネルを用いて前記演算を行い、
     前記演算部は、前記モデル切り替え検証部で、前記第2の学習済モデルに切り替えると決定された場合、前記第1の学習済モデルのうち前記第2の学習済モデルと当該第1の学習済モデルとの差分のチャネルを除いたモデルを用いて前記演算を行うことを特徴とする車載演算処理装置。
    In the in-vehicle processing device according to claim 1,
    a difference extraction unit that extracts a difference channel between the first trained model and the second trained model from the second trained model;
    The calculation unit performs the calculation using the channel of the difference,
    When the model switching verification unit determines to switch to the second trained model, the computing unit selects the second trained model among the first trained models and the first trained model. An in-vehicle processing unit, wherein the calculation is performed using a model excluding a channel of difference from the model.
  6.  請求項1に記載の車載演算処理装置において、
     前記モデル切り替え検証部は、過去の経路情報や走行時刻などの走行履歴を参照する走行履歴参照部を有し、
     現在の走行が過去の走行と同じ環境であった場合に、前記過去の走行履歴に基づき同様にモデルの切り替えを決定することを特徴とする車載演算処理装置。
    In the in-vehicle processing device according to claim 1,
    The model switching verification unit has a travel history reference unit that refers to travel history such as past route information and travel time,
    An in-vehicle arithmetic processing unit, characterized in that, when current driving is in the same environment as past driving, model switching is similarly determined based on the past driving history.
  7.  請求項1に記載の車載演算処理装置において、
     前記モデル選択部では、第2の学習済モデルを複数選び、前記モデル切り替え検証部では比較結果に基づき複数の第2の学習済モデルから最も精度の良い第2の学習済モデルを決定することを特徴とする車載演算処理装置。
    In the in-vehicle processing device according to claim 1,
    The model selection unit selects a plurality of second trained models, and the model switching verification unit determines the most accurate second trained model from the plurality of second trained models based on the comparison result. Characterized in-vehicle processing unit.
  8.  車両に搭載され、学習済モデルを用いて演算を行う演算処理方法であって、
     第1の学習済モデルを用いて演算を行う演算ステップと、
     前記車両の位置、または車両内外の取得し状態を推定する状態推定ステップと、
     前記状態に基づいて、第2の学習済モデルを選択するモデル選択ステップと、
     前記第2の学習済モデルを用いて、前記第1の学習済モデルと並列に前記演算を行ったときの演算結果を、第1の学習済モデルの演算結果と比較し、その比較結果に基づいて前記第1の学習済モデルから前記第2の学習済モデルに切り替えるか否かを決定するモデル切り替え検証ステップと、
     前記モデル切り替え検証部で、前記第2の学習済モデルに切り替えると決定された場合、前記第1の学習済モデルから前記第2の学習済モデルに切り替えて前記演算を行う第2演算ステップを有することを特徴とする演算処理方法。
    An arithmetic processing method that is mounted on a vehicle and performs arithmetic using a trained model,
    an operation step of performing an operation using the first trained model;
    a state estimation step of estimating the position of the vehicle or the acquired state inside and outside the vehicle;
    a model selection step of selecting a second trained model based on the state;
    Using the second trained model, the calculation result when the calculation is performed in parallel with the first trained model is compared with the calculation result of the first trained model, and based on the comparison result a model switching verification step of determining whether to switch from the first learned model to the second learned model;
    a second calculation step of performing the calculation by switching from the first trained model to the second trained model when the model switching verification unit determines to switch to the second trained model; An arithmetic processing method characterized by:
PCT/JP2022/037977 2021-12-24 2022-10-12 In-vehicle computational processing device and computational processing method WO2023119800A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-210238 2021-12-24
JP2021210238A JP2023094745A (en) 2021-12-24 2021-12-24 In-vehicle computational processing device and computational processing method

Publications (1)

Publication Number Publication Date
WO2023119800A1 true WO2023119800A1 (en) 2023-06-29

Family

ID=86901942

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/037977 WO2023119800A1 (en) 2021-12-24 2022-10-12 In-vehicle computational processing device and computational processing method

Country Status (2)

Country Link
JP (1) JP2023094745A (en)
WO (1) WO2023119800A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011174771A (en) * 2010-02-24 2011-09-08 Clarion Co Ltd Position estimation device and position estimation method
JP2014167702A (en) * 2013-02-28 2014-09-11 Denso Corp Object recognition device and object recognition method
JP2020093760A (en) * 2018-12-14 2020-06-18 トヨタ自動車株式会社 Control support device
JP2020160814A (en) * 2019-03-27 2020-10-01 沖電気工業株式会社 Recognition device, recognition method and program
JP2020170319A (en) * 2019-04-02 2020-10-15 Kyb株式会社 Detection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011174771A (en) * 2010-02-24 2011-09-08 Clarion Co Ltd Position estimation device and position estimation method
JP2014167702A (en) * 2013-02-28 2014-09-11 Denso Corp Object recognition device and object recognition method
JP2020093760A (en) * 2018-12-14 2020-06-18 トヨタ自動車株式会社 Control support device
JP2020160814A (en) * 2019-03-27 2020-10-01 沖電気工業株式会社 Recognition device, recognition method and program
JP2020170319A (en) * 2019-04-02 2020-10-15 Kyb株式会社 Detection device

Also Published As

Publication number Publication date
JP2023094745A (en) 2023-07-06

Similar Documents

Publication Publication Date Title
CN110494868B (en) Electronic control device for vehicle
US11599123B2 (en) Systems and methods for controlling autonomous vehicles that provide a vehicle service to users
US10586458B2 (en) Hybrid trip planning for autonomous vehicles
US20190286151A1 (en) Automated driving systems and control logic for cloud-based scenario planning of autonomous vehicles
CN110356412B (en) Method and apparatus for automatic rule learning for autonomous driving
JP2019506647A (en) Driving method and system for autonomous vehicle based on motion plan
WO2017205822A1 (en) Facilitating rider pick-up for a self-driving vehicle
CN111098862A (en) System and method for predicting sensor information
CN111497853B (en) System and method for sensor diagnostics
CN112124327A (en) Method and apparatus for transitioning an autonomous vehicle from an autonomous to a manual driving mode
CN110779538A (en) Allocating processing resources across local and cloud-based systems with respect to autonomous navigation
US20220065644A1 (en) Vehicle routing using connected data analytics platform
CN113232676A (en) Vehicle operating modes
EP3936389A1 (en) Automobile arithmetic operation device
CN111216724A (en) System and method for controlling an autonomous vehicle
CN113734193A (en) System and method for estimating take over time
CN110789515B (en) System and method for hardware validation in a motor vehicle
CN113728370B (en) Vehicle device, vehicle program, and storage medium
WO2023119800A1 (en) In-vehicle computational processing device and computational processing method
CN112731912A (en) System and method for enhancing early detection of performance-induced risk in autonomously driven vehicles
US20230251846A1 (en) Information processing apparatus, information processing method, information processing system, and program
CN114684186A (en) Autonomous vehicle safety response method with serialized computing architecture and corresponding vehicle safety system
CN110550039A (en) System and method for controlling an autonomous vehicle
JP7228698B2 (en) vehicle controller
US20230271628A1 (en) Distributed processing of vehicle sensor data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22910526

Country of ref document: EP

Kind code of ref document: A1