JP7434714B2 - Vehicle computing system - Google Patents

Vehicle computing system Download PDF

Info

Publication number
JP7434714B2
JP7434714B2 JP2019042926A JP2019042926A JP7434714B2 JP 7434714 B2 JP7434714 B2 JP 7434714B2 JP 2019042926 A JP2019042926 A JP 2019042926A JP 2019042926 A JP2019042926 A JP 2019042926A JP 7434714 B2 JP7434714 B2 JP 7434714B2
Authority
JP
Japan
Prior art keywords
vehicle
route
driver
unit
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019042926A
Other languages
Japanese (ja)
Other versions
JP2020142759A (en
Inventor
大介 堀籠
真介 坂下
真人 石橋
永一 寳神
明弘 三谷
浄之 土山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2019042926A priority Critical patent/JP7434714B2/en
Priority to EP20770924.7A priority patent/EP3907115A4/en
Priority to CN202080011216.1A priority patent/CN113498392A/en
Priority to PCT/JP2020/008850 priority patent/WO2020184277A1/en
Publication of JP2020142759A publication Critical patent/JP2020142759A/en
Priority to US17/468,699 priority patent/US20210403039A1/en
Application granted granted Critical
Publication of JP7434714B2 publication Critical patent/JP7434714B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

ここに開示する技術は、例えば車両の自動運転のために用いられる車両用演算システムに関する。 The technology disclosed herein relates to a vehicle calculation system used for automatic driving of a vehicle, for example.

特許文献1には、車両に搭載されたエンジン、ステアリング等の複数の車載機器を制御するシステムが開示されている。この制御システムでは、複数の車載機器を制御するため、統合制御部、ドメイン制御部、および機器制御部に階層化された構成を備えている。 Patent Document 1 discloses a system that controls a plurality of on-vehicle devices such as an engine and a steering wheel mounted on a vehicle. This control system has a hierarchical configuration of an integrated control section, a domain control section, and a device control section in order to control a plurality of in-vehicle devices.

特開2017-061278号公報JP2017-061278A

高精度の自動運転を実現するためには、車両周囲の環境だけでなく、ドライバの状態や車両の状態等、様々な情報を基にして、総合的な判断により車両の運動を制御しなければならない。このためには、カメラやセンサ、あるいは車外ネットワーク等からの膨大な量のデータを高速に処理して、瞬間毎に車両の最適運動を決定し、各アクチュエータを操作する必要があり、そのための演算システムを構築する必要がある。 In order to achieve high-precision autonomous driving, vehicle motion must be controlled through comprehensive judgment based not only on the environment around the vehicle, but also on various information such as the driver's condition and the vehicle's condition. It won't happen. To do this, it is necessary to process enormous amounts of data from cameras, sensors, external networks, etc. at high speed, determine the optimal movement of the vehicle at each moment, and operate each actuator. It is necessary to build a system.

ここに開示する技術はかかる点に鑑みてなされたものであり、その目的とするところは、高精度の自動運転を実現するための車両用演算システムを提供することにある。 The technology disclosed herein has been developed in view of this point, and its purpose is to provide a vehicular calculation system for realizing highly accurate automatic driving.

具体的にここに開示する技術は、車両に搭載され、当該車両の走行を制御するための演算を実行する車両用演算システムであって、車外環境の情報を取得する手段の出力を受け、道路および障害物を含む車外環境を推定する車外環境推定部と、前記車外環境推定部の出力を基にして、推定された道路上において推定された障害物を回避する当該車両の走行経路を生成する経路生成部と、前記経路生成部の出力を基にして、前記経路生成部が生成した走行経路に沿って走行する際の当該車両の、平面的な運動と、車体の上下方向の姿勢変化とを含む、目標運動を決定する目標運動決定部と、前記目標運動決定部が決定した目標運動を実現するための駆動力、制動力および操舵角を算出するエネルギーマネジメント部と、ドライバの状態を計測する手段の出力を受け、健康状態を含むドライバの状態を推定するドライバ状態推定部とを備え、前記経路生成部は、前記ドライバ状態推定部が推定したドライバ状態に適合する走行経路を生成する。さらに、前記経路生成部は、前記ドライバ状態推定部から出力されたドライバの感情を表すデータを用いて、複数の経路候補から、各経路候補における車両の挙動の変化度合を参照して、走行経路を選択する。さらに、前記ドライバ状態推定部は、車体の動きを入力すると、予想される乗員の主観的な感覚を出力する人体モデルを備え、前記経路生成部は、前記人体モデルから乗員が不快と予想される車体挙動を伴う走行経路を、選択から外す。 Specifically, the technology disclosed herein is a vehicle calculation system that is installed in a vehicle and executes calculations to control the running of the vehicle, and which receives the output of a means for acquiring information about the environment outside the vehicle and performs calculations on the road. and an external environment estimating unit that estimates an external environment including obstacles, and a driving route for the vehicle that avoids the estimated obstacles on the estimated road based on the output of the external environment estimating unit. A route generation unit, and a planar movement of the vehicle when traveling along the travel route generated by the route generation unit based on the output of the route generation unit, and a vertical posture change of the vehicle body. a target motion determination unit that determines a target motion; an energy management unit that calculates driving force, braking force, and steering angle to realize the target motion determined by the target motion determination unit; and a measurement unit that measures the state of the driver. and a driver condition estimating section that receives the output of the means for estimating the driver's condition including the health condition, and the route generating section generates a driving route that matches the driver condition estimated by the driver condition estimating section. Furthermore, the route generation unit uses the data representing the driver's emotion outputted from the driver state estimation unit to determine the driving route from a plurality of route candidates, with reference to the degree of change in the behavior of the vehicle in each route candidate. Select. Further, the driver state estimating unit includes a human body model that outputs an expected subjective feeling of the occupant when the movement of the vehicle body is input, and the route generating unit includes a human body model that outputs an expected subjective feeling of the occupant based on the human body model. Remove driving routes that involve vehicle behavior from selection.

この構成によると、車両用演算システムにおいて、車外環境推定部は、車両に搭載されたカメラやレーダー等の、車外環境の情報を取得する手段の出力を受け、道路および障害物を含む車外環境を推定する。経路生成部は、推定された道路上において推定された障害物を回避する当該車両の走行経路を生成する。目標運動決定部は、経路生成部が生成した走行経路に沿って走行する際の当該車両の、平面的な運動と車体の上下方向の姿勢変化とを含む、目標運動を決定する。エネルギーマネジメント部は、目標運動を実現するための駆動力、制動力および操舵角を算出する。これにより、車両用演算システムは、車両周囲の環境に応じて、車両の運動を高精度に制御することができる。さらに、ドライバ状態推定部が推定したドライバ状態に適合する走行経路が、経路生成部により決定される。これにより、経路生成について、車両周囲の環境だけでなく、ドライバの状態を基にした総合的な判断を行うことができる。 According to this configuration, in the vehicle calculation system, the vehicle exterior environment estimating section receives the output of a means for acquiring information on the vehicle exterior environment, such as a camera or radar mounted on the vehicle, and estimates the vehicle exterior environment including the road and obstacles. presume. The route generation unit generates a travel route for the vehicle that avoids the estimated obstacles on the estimated road. The target motion determination unit determines a target motion of the vehicle, which includes a planar motion and a vertical posture change of the vehicle body, when traveling along the travel route generated by the route generation unit. The energy management section calculates the driving force, braking force, and steering angle to achieve the target motion. Thereby, the vehicle calculation system can control the movement of the vehicle with high precision according to the environment around the vehicle. Furthermore, the route generation section determines a travel route that matches the driver state estimated by the driver state estimation section. With this, it is possible to make a comprehensive judgment regarding route generation based not only on the environment around the vehicle but also on the driver's condition.

そして、上述の車両用演算システムにおいて、前記エネルギーマネジメント部は、当該駆動力、制動力および操舵角を生成するよう、各アクチュエータの操作信号を生成する、としてもよい。 In the above-described vehicle calculation system, the energy management section may generate operation signals for each actuator to generate the driving force, braking force, and steering angle.

この構成により、車両用演算システムは、エネルギーマネジメント部によって、目標運動決定部の出力に従って、各アクチュエータの操作信号を生成することができる。 With this configuration, the vehicle arithmetic system can use the energy management section to generate operation signals for each actuator according to the output of the target motion determination section.

本開示によると、車両用演算システムは、車両周囲の環境に応じて、車両の運動を高精度に制御することができる。 According to the present disclosure, the vehicle computing system can control the motion of the vehicle with high precision according to the environment around the vehicle.

実施形態に係る車両用演算システムの機能構成Functional configuration of vehicle calculation system according to embodiment 車両のアクチュエータおよびその制御装置の具体例Specific examples of vehicle actuators and their control devices

図1は実施形態に係る車両用演算システムの機能構成を示すブロック図である。図1に示すように、車両用演算システムは、車両に搭載された情報処理ユニット1を備えている。情報処理ユニット1は、車両に関する各種の信号やデータを入力とし、これらの信号やデータを基にして、例えば深層学習によって生成した学習済みモデルを利用して、演算処理を実行し、車両の目標運動を決定する。そして、決定した目標運動に基づいて、車両の各アクチュエータ200の操作信号を生成する。 FIG. 1 is a block diagram showing the functional configuration of a vehicle calculation system according to an embodiment. As shown in FIG. 1, the vehicle computing system includes an information processing unit 1 mounted on a vehicle. The information processing unit 1 receives various signals and data related to the vehicle, and based on these signals and data, performs arithmetic processing using, for example, a trained model generated by deep learning, and determines the target of the vehicle. Decide on exercise. Then, based on the determined target motion, operation signals for each actuator 200 of the vehicle are generated.

情報処理ユニット1の機能は、単一チップで実現される場合があり、また、複数のチップで実現される場合がある。複数のチップで実現される場合、その複数のチップは、共通の基板に搭載されていてもよいし、異なる基板に搭載されていてもよい。ただし、本実施形態では、情報処理ユニット1は、単一の筐体内に構成されている。 The functions of the information processing unit 1 may be realized by a single chip, or may be realized by a plurality of chips. When implemented using multiple chips, the multiple chips may be mounted on a common substrate or on different substrates. However, in this embodiment, the information processing unit 1 is configured within a single housing.

<情報処理ユニットの入力の例>
情報処理ユニット1は、車両に搭載されたカメラ、センサやスイッチ類の出力と、車両の外部からの信号やデータ等を入力とする。例えば、車外環境の情報を取得するための手段の例である、車両に搭載されたカメラ101やレーダー102等の出力、GPS等の測位システムの信号111、車外ネットワークから送信される例えばナビゲーション用のデータ112、ドライバの情報を取得するための手段の例である、車室内に設置されたカメラ120等の出力、車両の挙動を検出するセンサ類130の出力、ドライバの操作を検出するセンサ類140の出力を、入力とする。
<Example of input for information processing unit>
The information processing unit 1 receives outputs from cameras, sensors, and switches mounted on the vehicle, as well as signals and data from outside the vehicle. For example, the output of a camera 101, radar 102, etc. mounted on the vehicle, which are examples of means for acquiring information on the environment outside the vehicle, the signal 111 of a positioning system such as GPS, the signal 111 of a positioning system such as GPS, the signal 111 for navigation transmitted from a network outside the vehicle, etc. Data 112, the output of a camera 120 installed in the vehicle interior, which is an example of means for acquiring driver information, the output of sensors 130 that detect the behavior of the vehicle, and the sensors 140 that detect driver operations. Let the output of be the input.

車両に搭載されたカメラ101は、車両の周囲を撮像し、撮像した画像データを出力する。車両に搭載されたレーダー102は、車両の周囲へ向けて電波を送信し、対象物からの反射波を受信する。そして、レーダー102は、送信波と受信波に基づいて、車両から対象物までの距離や車両に対する対象物の相対速度を測定する。なお、車外環境の情報を取得するための手段としては、この他にも例えば、レーザレーダや超音波センサ等がある。 A camera 101 mounted on a vehicle captures images of the surroundings of the vehicle and outputs captured image data. A radar 102 mounted on a vehicle transmits radio waves toward the surroundings of the vehicle and receives reflected waves from objects. Then, the radar 102 measures the distance from the vehicle to the object and the relative speed of the object with respect to the vehicle based on the transmitted wave and the received wave. Note that other means for acquiring information about the environment outside the vehicle include, for example, a laser radar and an ultrasonic sensor.

ドライバの情報を取得するための手段は、車室内に設置されたカメラ120の他に、例えば、皮膚温センサ、心拍センサ、血流量センサ、発汗センサ等の生体情報センサがある。 In addition to the camera 120 installed in the vehicle interior, means for acquiring information about the driver include, for example, biological information sensors such as a skin temperature sensor, a heartbeat sensor, a blood flow sensor, and a sweat sensor.

車両の挙動を検出するセンサ類130としては、例えば、車速センサ、加速度センサ、ヨーレートセンサ等がある。ドライバの操作を検出するセンサ類140としては、例えば、操舵角センサ、アクセルセンサ、ブレーキセンサ等がある。 Examples of the sensors 130 that detect vehicle behavior include a vehicle speed sensor, an acceleration sensor, and a yaw rate sensor. Examples of the sensors 140 that detect the driver's operation include a steering angle sensor, an accelerator sensor, and a brake sensor.

<情報処理ユニットの出力の例>
情報処理ユニット1は、車両の各アクチュエータ200を制御する制御装置に、操作信号を出力する。制御装置は、例えば、エンジン制御装置、ブレーキ制御装置、ステアリング制御装置等がある。各制御装置は、例えばECU(Electronic Control Unit)として実現されており、情報処理ユニット1とECUとは、例えばCAN(Controller Area Network)等の車載ネットワークを介して接続されている。
<Example of output of information processing unit>
The information processing unit 1 outputs an operation signal to a control device that controls each actuator 200 of the vehicle. Examples of the control device include an engine control device, a brake control device, and a steering control device. Each control device is realized as, for example, an ECU (Electronic Control Unit), and the information processing unit 1 and the ECU are connected via an in-vehicle network such as a CAN (Controller Area Network).

図2はアクチュエータの具体例を示す図である。図2において、201はエンジン、202は変速機、203はブレーキ、204はステアリングである。パワートレインECU211、DSC(Dynamic Stability Control)マイコン212,ブレーキマイコン213、EPAS(Electric Power Assist Steering)マイコン214は、制御装置の例である。情報処理ユニット1は、決定した目標運動を実現するための当該車両の駆動力、制動力、および、操舵角を算出する。例えば、パワートレインECU211は、算出された駆動力に従って、エンジン201の点火時期や燃料噴射量を制御する。あるいは、EPASマイコン214は、算出された操舵角に従って、ステアリング204の操舵を制御する。 FIG. 2 is a diagram showing a specific example of the actuator. In FIG. 2, 201 is an engine, 202 is a transmission, 203 is a brake, and 204 is a steering wheel. A power train ECU 211, a DSC (Dynamic Stability Control) microcomputer 212, a brake microcomputer 213, and an EPAS (Electric Power Assist Steering) microcomputer 214 are examples of control devices. The information processing unit 1 calculates the driving force, braking force, and steering angle of the vehicle to realize the determined target motion. For example, the power train ECU 211 controls the ignition timing and fuel injection amount of the engine 201 according to the calculated driving force. Alternatively, the EPAS microcomputer 214 controls the steering of the steering wheel 204 according to the calculated steering angle.

なお、その他のアクチュエータを制御する制御装置としては、例えば、エアバッグやドア等のボデーに関する制御を行うボデー系マイコン221や、車室内ディスプレイ222を制御するドライバ支援HMI(Human Machine Interface)ユニット223等がある。 Note that examples of control devices that control other actuators include a body microcomputer 221 that controls bodies such as airbags and doors, and a driver support HMI (Human Machine Interface) unit 223 that controls a vehicle interior display 222. There is.

図1に示す情報処理ユニット1の機能構成について、詳細に説明する。情報処理ユニット1は、例えば経路生成等の処理において、いわゆるモデル予測制御(MPC:Model Predictive Control)を実行する。モデル予測制御とは、端的にいうと、多変量の入力で多変量の出力を行う評価関数を持っておき、これを凸関数で解いて(多変量解析:多変量問題を効率的に解く数学的手法)、よいバランスのものを抽出する、というものである。この多変量の入力から多変量の出力を得るための関係式(これをモデルという)は、まずは設計者が対象の物理現象を基にして作成する。続いて、ニューラル学習(いわゆる教師なし学習)によってこの関係式を進化させていく。または、入力と出力を統計的にみて関係式をチューニングしていく方式によって、関係式を進化させる。 The functional configuration of the information processing unit 1 shown in FIG. 1 will be described in detail. The information processing unit 1 executes so-called model predictive control (MPC) in processing such as route generation, for example. Simply put, model predictive control involves having an evaluation function that takes multivariate input and producing multivariate output, and solving this using a convex function (multivariate analysis: mathematics for efficiently solving multivariate problems). The method is to extract a good balance. The relational expression (called a model) for obtaining multivariate output from multivariate input is first created by the designer based on the physical phenomenon of interest. Next, this relational expression is evolved through neural learning (so-called unsupervised learning). Alternatively, the relational expression can be evolved by tuning the relational expression by statistically looking at the input and output.

車両の出荷時には、メーカーが開発したモデルが実装されている。そして、車両のユーザの運転に合わせて、実装されたモデルがユーザに適合したものに進化していくようにしてもよい。あるいは、ディーラー等におけるソフトウェア更新によって、モデルを更新するようにしてもよい。 When a vehicle is shipped, the model developed by the manufacturer is implemented. Then, the installed model may evolve to suit the user in accordance with the user's driving of the vehicle. Alternatively, the model may be updated by software update at a dealer or the like.

ここで、車両に搭載されたカメラ101、レーダー102の出力は、車外環境推定部10に送られる。GPS等の測位システムの信号111、車外ネットワークから送信される例えばナビゲーション用のデータ112は、経路探索部61に送られる。車室内に設置されたカメラ120の出力は、ドライバ状態推定部20に送られる。車両の挙動を検出するセンサ類130の出力は、車両状態計測部62に送られる。ドライバの操作を検出するセンサ類140の出力は、ドライバ操作認知部63に送られる。 Here, outputs from a camera 101 and a radar 102 mounted on the vehicle are sent to an external environment estimation section 10. Signals 111 of a positioning system such as GPS and navigation data 112, for example, transmitted from a network outside the vehicle are sent to a route search unit 61. The output of the camera 120 installed in the vehicle interior is sent to the driver state estimation section 20. The output of the sensors 130 that detect the behavior of the vehicle is sent to the vehicle condition measurement section 62. The output of the sensors 140 that detect the driver's operation is sent to the driver operation recognition section 63.

<車外環境推定部>
車外環境推定部10は、車両に搭載されたカメラ101やレーダー102等の出力を受け、車外環境を推定する。推定する車外環境は、少なくとも道路および障害物を含む。ここでは、車外環境推定部10は、カメラ101やレーダー102のデータを基にして、車両の周囲の3次元情報と車外環境モデル15とを対照することにより、道路および障害物を含む車両環境を推定するものとする。車外環境モデル15は、例えば深層学習によって生成された学習済みモデルであって、車両周囲の3次元情報に対して、道路や障害物等を認識することができる。
<Vehicle external environment estimation department>
The vehicle exterior environment estimation unit 10 receives outputs from a camera 101, a radar 102, etc. mounted on the vehicle, and estimates the vehicle exterior environment. The estimated external environment of the vehicle includes at least roads and obstacles. Here, the vehicle exterior environment estimation unit 10 estimates the vehicle environment including roads and obstacles by comparing three-dimensional information around the vehicle with the vehicle exterior environment model 15 based on data from the camera 101 and the radar 102. shall be estimated. The vehicle exterior environment model 15 is a trained model generated, for example, by deep learning, and can recognize roads, obstacles, etc. from three-dimensional information around the vehicle.

例えば、物体認識・マップ生成部11は、カメラ101が撮像した画像から、画像処理によって、フリースペースすなわち物体が存在しない領域を特定する。ここでの画像処理には、例えば深層学習によって生成された学習済みモデルが利用される。そしてフリースペースを表す2次元のマップを生成する。また、物体認識・マップ生成部11は、レーダー102の出力から、車両の周辺に存在する物標の情報を取得する。この情報は、物標の位置や速度等を含む。 For example, the object recognition/map generation unit 11 identifies a free space, that is, an area where no object exists, from the image captured by the camera 101 through image processing. For example, a trained model generated by deep learning is used for image processing here. A two-dimensional map representing the free space is then generated. Further, the object recognition/map generation unit 11 acquires information on targets existing around the vehicle from the output of the radar 102. This information includes the position and speed of the target.

推定部12は、物体認識・マップ生成部11から出力された2次元のマップ、および物標の情報を結合させて、車両の周囲を表す3次元マップを生成する。ここでは、カメラ101の設置位置および撮像方向の情報、レーダー102の設置位置および送信方向の情報が用いられる。推定部12は、生成した3次元マップと車外環境モデル15とを対照することによって、道路および障害物を含む車両環境を推定する。 The estimation unit 12 combines the two-dimensional map output from the object recognition/map generation unit 11 and the target object information to generate a three-dimensional map representing the surroundings of the vehicle. Here, information on the installation position and imaging direction of the camera 101 and information on the installation position and transmission direction of the radar 102 are used. The estimation unit 12 estimates the vehicle environment including roads and obstacles by comparing the generated three-dimensional map and the vehicle exterior environment model 15.

<ドライバ状態推定部>
ドライバ状態推定部20は、車室内に設置されたカメラ120によって撮像された画像から、ドライバの健康状態や感情、あるいは、身体挙動を推定する。健康状態としては、例えば、健康、軽い疲労、体調不良、意識低下等がある。感情としては、例えば、楽しい、普通、退屈、イライラ、不快等がある。
<Driver state estimation unit>
The driver condition estimating unit 20 estimates the driver's health condition, emotions, or physical behavior from an image captured by a camera 120 installed in the vehicle interior. Examples of the health condition include good health, mild fatigue, poor physical condition, and decreased consciousness. Emotions include, for example, fun, normal, boredom, irritation, and discomfort.

例えば、ドライバ状態計測部21は、車室内に設置されたカメラ120によって撮像された画像から、ドライバの顔画像を抽出し、ドライバを特定する。抽出した顔画像と特定したドライバの情報は、人間モデル25に入力として与えられる。人間モデル25は、例えば深層学習によって生成された学習済みモデルであり、当該車両のドライバであり得る各人について、その顔画像から、健康状態および感情を出力する。推定部22は、人間モデル25が出力したドライバの健康状態および感情を、出力する。 For example, the driver state measurement unit 21 extracts a facial image of the driver from an image captured by a camera 120 installed in the vehicle interior, and identifies the driver. The extracted face image and the identified driver information are given as input to the human model 25. The human model 25 is a trained model generated, for example, by deep learning, and outputs the health condition and emotion of each person who may be the driver of the vehicle from the facial image. The estimation unit 22 outputs the driver's health condition and emotions output by the human model 25.

また、ドライバの情報を取得するための手段として、皮膚温センサ、心拍センサ、血流量センサ、発汗センサ等の生体情報センサが用いられる場合は、ドライバ状態計測部21は、生体情報センサの出力から、ドライバの生体情報を計測する。この場合、人間モデル25は、当該車両のドライバであり得る各人について、その生体情報を入力とし、健康状態および感情を出力する。推定部22は、人間モデル25が出力したドライバの健康状態および感情を、出力する。 In addition, when a biological information sensor such as a skin temperature sensor, heart rate sensor, blood flow sensor, sweat sensor, etc. is used as a means for acquiring information about the driver, the driver condition measurement unit 21 uses the output of the biological information sensor. , measure the driver's biometric information. In this case, the human model 25 inputs the biometric information of each person who may be the driver of the vehicle, and outputs the health condition and emotion. The estimation unit 22 outputs the driver's health condition and emotions output by the human model 25.

また、人間モデル25として、当該車両のドライバであり得る各人について、車両の挙動に対して人間が持つ感情を推定するモデルを用いてもよい。この場合には、車両の挙動を検出するセンサ類130の出力、ドライバの操作を検出するセンサ類140の出力、ドライバの生体情報、推定した感情状態を時系列で管理して、モデルを構築すればよい。このモデルによって、例えば、ドライバの感情の高まり(覚醒度)と車両の挙動との関係を予測することが可能となる。 Further, as the human model 25, a model that estimates the emotions that humans have regarding the behavior of the vehicle may be used for each person who may be the driver of the vehicle. In this case, a model must be constructed by managing the outputs of the sensors 130 that detect the behavior of the vehicle, the outputs of the sensors 140 that detect the driver's operations, the driver's biological information, and the estimated emotional state in chronological order. Bye. This model makes it possible to predict, for example, the relationship between the driver's heightened emotion (arousal level) and the behavior of the vehicle.

また、ドライバ状態推定部20は、人間モデル25として、人体モデルを備えていてもよい。人体モデルは、例えば、頭部質量(例:5kg)と前後左右Gを支える首周り筋力等を特定している。人体モデルは、車体の動き(加速度Gや加加速度)を入力すると、予想される乗員のフィジカルと主観を出力する。乗員のフィジカルとしては例えば、心地よい/適度/不快、主観としては例えば、不意/予測可能、等である。人体モデルを参照することによって、例えば、頭部がわずかでも仰け反らせるような車体挙動は乗員にとって不快であるので、その走行経路を選択しないようにすることができる。一方、頭部がお辞儀するように前に移動する車体挙動は乗員がこれに抗する姿勢をとりやすく、直ちに不快につながらないようので、その走行経路を選択するようにすることができる。あるいは、人体モデルを参照することによって、例えば、乗員の頭部が揺れないように、あるいは、生き生きするようにダイナミックに、目標運動を決定することができる。 Further, the driver state estimation unit 20 may include a human body model as the human model 25. The human body model specifies, for example, the head mass (eg, 5 kg) and the muscular strength around the neck that supports front, back, left, and right G. When the human body model inputs the movement of the vehicle body (acceleration G and jerk), it outputs the expected physical and subjective state of the occupant. The occupant's physical condition may be, for example, comfortable/moderate/uncomfortable, and the subjective condition may be, for example, unexpected/predictable. By referring to the human body model, for example, it is possible to avoid selecting a vehicle body behavior that causes the head to tilt back even slightly, since this would be uncomfortable for the occupants. On the other hand, since the vehicle body behavior in which the head moves forward as if bowing makes it easier for the occupant to take a posture that resists this behavior and does not cause immediate discomfort, the vehicle can select that travel route. Alternatively, by referring to a human body model, it is possible to determine the target motion, for example, so that the occupant's head does not shake or dynamically so as to make the occupant's head appear lively.

<経路探索部>
経路探索部61は、GPS等の測位システムの信号111、車外ネットワークから送信される例えばナビゲーション用のデータ112を用いて、車両の広域経路を探索する。
<Route search section>
The route search unit 61 searches for a wide-area route for the vehicle using signals 111 from a positioning system such as GPS, and navigation data 112, for example, transmitted from a network outside the vehicle.

<車両状態計測部>
車両状態計測部62は、車速センサ、加速度センサ、ヨーレートセンサ等の車両の挙動を検出するセンサ類130の出力から、車両の状態を計測する。そして、車内環境を表す車内環境モデル65を生成する。この車内環境は、湿度や温度、揺れや振動、音響的な騒音といった、乗員の特にフィジカルに影響を与える物理量を含む。車内環境推定部64は、車内環境モデル65を基にして、車内環境を推定し、出力する。
<Vehicle condition measurement section>
The vehicle state measurement unit 62 measures the state of the vehicle from the outputs of sensors 130 that detect the behavior of the vehicle, such as a vehicle speed sensor, acceleration sensor, and yaw rate sensor. Then, an in-vehicle environment model 65 representing the in-vehicle environment is generated. This in-vehicle environment includes physical quantities such as humidity, temperature, shaking, vibration, and acoustic noise that particularly affect the physical condition of the occupants. The in-vehicle environment estimating unit 64 estimates the in-vehicle environment based on the in-vehicle environment model 65 and outputs it.

<ドライバ操作認知部>
ドライバ操作認知部63は、操舵角センサ、アクセルセンサ、ブレーキセンサ等のドライバの操作を検知するセンサ類140の出力から、ドライバの操作を認知する。
<Driver operation recognition unit>
The driver operation recognition unit 63 recognizes the driver's operation from the outputs of sensors 140 that detect the driver's operation, such as a steering angle sensor, an accelerator sensor, and a brake sensor.

<経路生成部>
経路生成部30は、車外環境推定部10の出力と、経路探索部61の出力とを基にして、車両の走行経路を生成する。例えば、経路生成部30は、車外環境推定部10によって推定された道路上において、車外環境推定部10によって推定された障害物を回避する走行経路を生成する。車外環境推定部10の出力は、例えば、車両が走行する走行路に関する走行路情報が含まれている。走行路情報には、走行路自体の形状に関する情報や、走行路上の対象物に関する情報が含まれる。走行路形状に関する情報には、走行路の形状(直線、カーブ、カーブ曲率)、走行路幅、車線数、各車線幅等が含まれる。対象物に関する情報には、車両に対する対象物の相対位置及び相対速度、対象物の属性(種類、移動方向)等が含まれる。対象物の種類としては、例えば、車両、歩行者、道路、区画線等がある。
<Route generation section>
The route generation unit 30 generates a travel route for the vehicle based on the output of the external environment estimation unit 10 and the output of the route search unit 61. For example, the route generation unit 30 generates a driving route that avoids obstacles estimated by the vehicle exterior environment estimation unit 10 on the road estimated by the vehicle exterior environment estimation unit 10 . The output of the vehicle external environment estimation unit 10 includes, for example, travel route information regarding the travel route on which the vehicle travels. The driving path information includes information regarding the shape of the driving path itself and information regarding objects on the driving path. The information regarding the driving road shape includes the driving road shape (straight line, curve, curve curvature), the driving road width, the number of lanes, the width of each lane, and the like. The information regarding the object includes the relative position and velocity of the object with respect to the vehicle, the attributes (type, direction of movement), etc. of the object. Examples of the types of objects include vehicles, pedestrians, roads, and lane markings.

ここでは、経路生成部30は、ステートラティス法を用いて複数の経路候補を計算し、これらの中からそれぞれの経路候補の経路コストに基づいて、1つまたは複数の経路候補を選択するものとする。ただし、他の手法を用いて経路生成を行ってもよい。 Here, the route generation unit 30 calculates a plurality of route candidates using the state lattice method, and selects one or more route candidates from among them based on the route cost of each route candidate. do. However, route generation may be performed using other methods.

経路生成部30は、走行路情報に基づいて走行路上に仮想のグリッド領域を設定する。このグリッド領域は、複数のグリッド点を有する。各グリッド点により、走行路上の位置が特定される。経路生成部30は、経路探索部61の出力を用いて、所定のグリッド点を目標到達位置に設定する。そして、グリッド領域内の複数のグリッド点を用いた経路探索により複数の経路候補を演算する。ステートラティス法では、あるグリッド点から車両の進行方向前方の任意のグリッド点へ経路が枝分かれしていく。したがって、各経路候補は、複数のグリッド点を順次に通過するように設定される。各経路候補は、各グリッド点を通過する時間を表す時間情報、各グリッド点での速度・加速度等に関する速度情報、その他車両運動に関する情報等も含む。 The route generation unit 30 sets a virtual grid area on the travel route based on the travel route information. This grid area has multiple grid points. Each grid point specifies a position on the road. The route generation unit 30 uses the output of the route search unit 61 to set a predetermined grid point as a target arrival position. Then, a plurality of route candidates are calculated by route searching using a plurality of grid points within the grid area. In the state lattice method, a route branches from a certain grid point to an arbitrary grid point in front of the vehicle in the direction of travel. Therefore, each route candidate is set to sequentially pass through a plurality of grid points. Each route candidate also includes time information representing the time it takes to pass through each grid point, speed information regarding speed, acceleration, etc. at each grid point, and other information regarding vehicle motion.

経路生成部30は、複数の経路候補から、経路コストに基づいて1つまたは複数の走行経路を選択する。ここでの経路コストは、例えば、レーンセンタリングの程度、車両の加速度、ステアリング角度、衝突の可能性等がある。なお、経路生成部30が複数の走行経路を選択する場合は、後述の目標運動決定部40やエネルギーマネジメント部50が、1つの走行経路を選択する。 The route generation unit 30 selects one or more travel routes from a plurality of route candidates based on the route cost. The route cost here includes, for example, the degree of lane centering, the acceleration of the vehicle, the steering angle, and the possibility of collision. Note that when the route generating section 30 selects a plurality of running routes, the target exercise determining section 40 and the energy management section 50, which will be described later, select one running route.

<目標運動決定部>
目標運動決定部40は、経路生成部30が選択した走行経路について、目標運動を決定する。目標運動とは、走行経路をトレースするような操舵および加減速のことをいう。また、目標運動決定部40は、車両6軸モデル45を参照して、経路生成部30が選択した走行経路について、車体の動きを演算する。
<Target exercise determination section>
The target motion determination unit 40 determines a target motion for the travel route selected by the route generation unit 30. The target motion refers to steering and acceleration/deceleration that trace the travel route. Further, the target motion determination unit 40 refers to the six-axis vehicle model 45 and calculates the movement of the vehicle body regarding the travel route selected by the route generation unit 30.

ここで、車両6軸モデル45とは、走行中の車両の「前後」「左右」「上下」の3軸方向の加速度と、「ピッチ」「ロール」「ヨー」の3軸方向の角速度を、モデル化したものである。すなわち、車両の動きを古典的な車両運動工学的な平面上のみ(車両の前後左右(X-Y移動)とヨー運動(Z軸)のみ)で捉えるのではなく、4つの車輪にサスペンションを介して乗っている車体のピッチング(Y軸)およびロール(X軸)運動とZ軸の移動(車体の上下動)の、計6軸を用いて車両の挙動を再現する数値モデルである。 Here, the 6-axis vehicle model 45 refers to the acceleration in the 3-axis directions of "front and back," "left and right," and "up and down" of a running vehicle, and the angular velocity in the three-axis directions of "pitch," "roll," and "yaw." It is modeled. In other words, instead of capturing the movement of the vehicle only on the classical plane of vehicle dynamics engineering (only the vehicle's front, back, left and right movements (X-Y movement) and yaw movement (Z-axis)), This is a numerical model that reproduces the behavior of a vehicle using a total of six axes: the pitching (Y-axis) and roll (X-axis) movements of the vehicle body you are riding on, and the Z-axis movement (vertical movement of the vehicle body).

目標運動決定部40は、車両6軸モデル45を参照して車体の動きを演算し、この演算結果を用いて目標運動を決定する。すなわち、目標運動決定部40は、経路生成部30が生成した走行経路に沿って走行する際に生起する、当該車両の平面的な動きと車体の上下方向の姿勢変化を、車両6軸モデル45を参照して推定し、推定した平面的な動きと車体の上下方向の姿勢変化を、当該車両の目標運動として決定する。これにより、例えば、コーナリングで、いわゆるダイアゴナルロールの状態を生成することができる。 The target motion determination unit 40 calculates the movement of the vehicle body with reference to the six-axis vehicle model 45, and determines the target motion using the calculation result. That is, the target motion determination unit 40 uses the vehicle six-axis model 45 to calculate the planar movement of the vehicle and the vertical posture change of the vehicle body that occurs when traveling along the travel route generated by the route generation unit 30. The estimated planar movement and vertical posture change of the vehicle body are determined as the target movement of the vehicle. Thereby, for example, a so-called diagonal roll state can be generated during cornering.

また例えば、目標運動決定部40は、車両6軸モデル45を参照して演算した車体の動き(加速度Gや加加速度)を、上述した人体モデルに入力して、予想される乗員のフィジカルと主観を取得してもよい。そして例えば、経路生成部30が複数の走行経路を選択している場合は、目標運動決定部40は、予想される乗員のフィジカルと主観に基づいて、1つの走行経路を選択するようにしてもよい。 For example, the target motion determining unit 40 inputs the vehicle body motion (acceleration G and jerk) calculated with reference to the six-axis vehicle model 45 into the human body model described above, and calculates the expected physical and subjective behavior of the occupant. may be obtained. For example, if the route generation unit 30 selects a plurality of travel routes, the target motion determination unit 40 may select one travel route based on the predicted physical condition and subjectivity of the occupant. good.

また、目標運動決定部40は、ドライバ操作認知部63によってドライバの操作が認知されたときは、経路生成部30が選択した走行経路に従わないで、ドライバの操作に応じた目標運動を決定する。 Furthermore, when the driver operation recognition unit 63 recognizes the driver's operation, the target movement determination unit 40 determines a target movement according to the driver's operation without following the travel route selected by the route generation unit 30. .

<エネルギーマネジメント部>
エネルギーマネジメント部50は、目標運動決定部40が決定した目標運動を実現するための、駆動力、制動力および操舵角を算出する。そして、算出した駆動力、制動力および操舵角を生成するよう、各アクチュエータ200の操作信号を生成する。
<Energy Management Department>
The energy management section 50 calculates the driving force, braking force, and steering angle for realizing the target motion determined by the target motion determining section 40. Then, operation signals for each actuator 200 are generated to generate the calculated driving force, braking force, and steering angle.

例えば、車両運動エネルギー操作部51は、目標運動決定部40が決定した目標運動に対して、駆動系(エンジン、モーター、トランスミッション)、操舵系(ステアリング)、制御系(ブレーキ)に要求するトルク等の物理量を算出する。制御量算出部52は、目標運動決定部40が決定した目標運動を達成する上で、最もエネルギー効率がよくなるように各アクチュエータの制御量を算出する。例えば、車両運動エネルギー操作部51で決定されたエンジントルクを達成する上で、最も燃費が向上するような、吸排気バルブの開閉タイミングやインジェクタの燃料噴射タイミング等を算出する。ここでのエネルギーマネジメントには、車両熱モデル55や車両エネルギーモデル56が用いられる。例えば、算出した各物理量を車両エネルギーモデル56と対照して、エネルギー消費がより小さくなるように、各アクチュエータの運動量を振り分ける。 For example, the vehicle kinetic energy operation unit 51 may request torque from the drive system (engine, motor, transmission), steering system (steering), control system (brake), etc. for the target motion determined by the target motion determining unit 40. Calculate the physical quantity of The control amount calculation unit 52 calculates the control amount of each actuator so that the energy efficiency is the highest in achieving the target movement determined by the target movement determination unit 40. For example, the opening/closing timing of the intake and exhaust valves, the fuel injection timing of the injector, etc. are calculated so as to achieve the engine torque determined by the vehicle kinetic energy operating section 51 and to improve fuel efficiency the most. A vehicle thermal model 55 and a vehicle energy model 56 are used for energy management here. For example, each calculated physical quantity is compared with the vehicle energy model 56, and the momentum of each actuator is distributed so that energy consumption becomes smaller.

具体的には例えば、エネルギーマネジメント部50は、経路生成部30が選択した走行経路について、目標運動決定部40が決定した目標運動を基にして、エネルギーロスが最小となる動作条件を演算する。例えば、エネルギーマネジメント部50は、経路生成部30が選択した走行経路について、車両の走行抵抗を演算し、その経路のロスを求める。走行抵抗は、タイヤ摩擦、駆動系ロス、空気抵抗を含む。そして、このロスに打ち克つために必要な駆動力を発生するための運転条件を求める。例えば、内燃機関で最も燃料消費が少なくなる噴射・点火時期や、変速機でのエネルギーロスが小さい変速パターン、トルクコントロールのロックアップコントロールの運転条件を求める。あるいは、減速が求められる場合は、減速プロフィールを実現する、車両モデルのフットブレーキ、エンジンブレーキ、駆動補助モータの回生モデルの組み合わせを演算し、エネルギーロスが最も小さくなる動作条件を求める。 Specifically, for example, the energy management unit 50 calculates operating conditions that minimize energy loss for the travel route selected by the route generation unit 30, based on the target motion determined by the target motion determination unit 40. For example, the energy management unit 50 calculates the running resistance of the vehicle with respect to the running route selected by the route generating unit 30, and calculates the loss of the route. Running resistance includes tire friction, drivetrain loss, and air resistance. Then, the operating conditions for generating the driving force necessary to overcome this loss are determined. For example, the injection/ignition timing that results in the lowest fuel consumption in an internal combustion engine, the shift pattern that minimizes energy loss in the transmission, and the operating conditions for lock-up control of torque control are determined. Alternatively, if deceleration is required, a combination of the vehicle model's foot brake, engine brake, and drive auxiliary motor regeneration model that realizes the deceleration profile is calculated to determine operating conditions that minimize energy loss.

そして、エネルギーマネジメント部50は、求めた動作条件に従って、各アクチュエータ200の操作信号を生成し、各アクチュエータ200の制御装置に出力する。 Then, the energy management unit 50 generates an operation signal for each actuator 200 according to the determined operating conditions, and outputs it to the control device of each actuator 200.

(他の制御の例)
経路生成部30は、ドライバ状態推定部20の出力を用いて、車両の走行経路の生成を行ってもよい。例えば、ドライバ状態推定部20が、ドライバの感情を表すデータを経路生成部30に出力し、経路生成部30は、その感情を表すデータを用いて走行経路を選択する。例えば、感情が「楽しい」であるときは、車両の挙動が滑らかな経路を選択し、感情が「退屈」であるときは、車両の挙動の変化が大きい経路を選択する。
(Examples of other controls)
The route generation unit 30 may generate a travel route for the vehicle using the output of the driver state estimation unit 20. For example, the driver state estimation unit 20 outputs data representing the driver's emotions to the route generation unit 30, and the route generation unit 30 selects a travel route using the data representing the emotions. For example, when the emotion is "fun", a route with smooth vehicle behavior is selected, and when the emotion is "boring", a route with large changes in vehicle behavior is selected.

あるいは、経路生成部30は、ドライバ状態推定部20が有する人間モデル25を参照して、複数の経路候補の中から、ドライバの感情が最も高まる(覚醒度の高い)経路を選択してもよい。 Alternatively, the route generating unit 30 may refer to the human model 25 included in the driver state estimating unit 20 and select a route that will most likely enhance the driver's emotions (highest level of arousal) from among the multiple route candidates. .

また、経路生成部30は、車外環境推定部10が推定した車外環境から、車両に危険が迫っていると判断したとき、ドライバ状態に関わらず、緊急回避のための経路を生成してもよい。また、経路生成部30は、ドライバ状態推定部20の出力から、ドライバが運転不能または困難であると判断したとき(例えばドライバが意識を失っている)、車両を安全な場所に退避するための経路を生成してもよい。 Further, when the route generation unit 30 determines that the vehicle is in danger from the vehicle exterior environment estimated by the vehicle exterior environment estimation unit 10, the route generation unit 30 may generate a route for emergency avoidance regardless of the driver state. . In addition, when the route generating unit 30 determines that the driver is unable or has difficulty driving based on the output of the driver state estimating unit 20 (for example, the driver is unconscious), the route generating unit 30 determines that the driver is unable to drive or that it is difficult to drive (for example, the driver has lost consciousness). A route may also be generated.

また、目標運動決定部40は、ドライバ状態推定部20の出力から、ドライバが運転不能または困難であると判断したとき(例えばドライバが意識を失っている)、車両を安全な場所に退避するように、目標運動を決定してもよい。この場合、経路生成部30は、車両を安全な場所に退避するための経路を含めた複数の走行経路を生成するものとし、目標運動決定部40は、ドライバが運転不能または困難であると判断したとき、車両を安全な場所に退避するための経路を選択するようにしてもよい(オーバーライド)。 Further, when the target motion determining unit 40 determines that the driver is unable or has difficulty driving based on the output of the driver state estimating unit 20 (for example, the driver is unconscious), the target motion determining unit 40 instructs the driver to evacuate the vehicle to a safe location. The target motion may be determined accordingly. In this case, the route generation unit 30 generates a plurality of travel routes including a route for evacuating the vehicle to a safe place, and the target movement determination unit 40 determines that the driver is unable or difficult to drive. When this occurs, a route for evacuating the vehicle to a safe location may be selected (override).

(他の実施形態)
上述の実施形態では、単一の情報処理ユニット1が、車両に関する各種の信号やデータを基にして車両の目標運動を決定し、決定した目標運動に基づいて、車両の各アクチュエータ200の操作信号を生成するものとした。ただし、例えば、情報処理ユニット1が目標運動の決定までを行い、別の情報処理ユニットが、車両の各アクチュエータ200の操作信号を生成するようにしてもよい。この場合、単一の情報処理ユニット1は、車両に関する各種の信号やデータを基にして車両の目標運動を決定し、決定した目標運動を示すデータを出力する。そして、別の情報処理ユニットが、情報処理ユニット1から出力されたデータを受けて、車両の各アクチュエータ200の操作信号を生成する。
(Other embodiments)
In the embodiment described above, the single information processing unit 1 determines the target motion of the vehicle based on various signals and data related to the vehicle, and based on the determined target motion, operates the operation signal for each actuator 200 of the vehicle. was assumed to be generated. However, for example, the information processing unit 1 may perform up to the determination of the target motion, and another information processing unit may generate the operation signals for each actuator 200 of the vehicle. In this case, the single information processing unit 1 determines the target motion of the vehicle based on various signals and data regarding the vehicle, and outputs data indicating the determined target motion. Then, another information processing unit receives the data output from the information processing unit 1 and generates operation signals for each actuator 200 of the vehicle.

1 情報処理ユニット
10 車外環境推定部
20 ドライバ状態推定部
30 経路生成部
40 目標運動決定部
50 エネルギーマネジメント部
1 Information processing unit 10 External environment estimation section 20 Driver state estimation section 30 Route generation section 40 Target motion determination section 50 Energy management section

Claims (2)

車両に搭載され、当該車両の走行を制御するための演算を実行する車両用演算システムであって、
車外環境の情報を取得する手段の出力を受け、道路および障害物を含む車外環境を推定する車外環境推定部と、
前記車外環境推定部の出力を基にして、推定された道路上において推定された障害物を回避する当該車両の走行経路を生成する経路生成部と、
前記経路生成部の出力を基にして、前記経路生成部が生成した走行経路に沿って走行する際の当該車両の、平面的な運動と、車体の上下方向の姿勢変化とを含む、目標運動を決定する目標運動決定部と、
前記目標運動決定部が決定した目標運動を実現するための駆動力、制動力および操舵角を算出するエネルギーマネジメント部と
ドライバの状態を計測する手段の出力を受け、健康状態を含むドライバの状態を推定するドライバ状態推定部とを備え、
前記経路生成部は、前記ドライバ状態推定部が推定したドライバ状態に適合する走行経路を生成するものであり、
前記経路生成部は、前記ドライバ状態推定部から出力されたドライバの感情を表すデータを用いて、複数の経路候補から、各経路候補における車両の挙動の変化度合を参照して、走行経路を選択するものであり、
前記ドライバ状態推定部は、車体の動きを入力すると、予想される乗員の主観的な感覚を出力する人体モデルを備え、前記経路生成部は、前記人体モデルから乗員が不快と予想される車体挙動を伴う走行経路を、選択から外す
ことを特徴とする車両用演算システム。
A vehicle calculation system that is installed in a vehicle and executes calculations to control the running of the vehicle,
an external environment estimation unit that receives an output from the means for acquiring information on the external environment and estimates the external environment including roads and obstacles;
a route generation unit that generates a travel route for the vehicle that avoids the estimated obstacles on the estimated road based on the output of the vehicle external environment estimation unit;
A target motion of the vehicle, which includes a planar motion and a vertical attitude change of the vehicle body, when the vehicle travels along the travel route generated by the route generator based on the output of the route generator. a target motion determining unit that determines the
an energy management unit that calculates a driving force, a braking force, and a steering angle to realize the target motion determined by the target motion determining unit ;
a driver state estimation unit that receives the output of the means for measuring the driver's state and estimates the driver's state including the health state;
The route generation unit generates a travel route that matches the driver state estimated by the driver state estimation unit,
The route generation unit selects a driving route from a plurality of route candidates by referring to the degree of change in vehicle behavior in each route candidate using the data representing the driver's emotion output from the driver state estimation unit. and
The driver state estimating unit includes a human body model that outputs an expected subjective feeling of the occupant when the movement of the vehicle body is input, and the route generating unit calculates the vehicle body behavior that is expected to be uncomfortable for the occupant based on the human body model. Remove the driving route that involves from the selection.
A vehicle computing system characterized by:
請求項1記載の車両用演算システムにおいて、
前記エネルギーマネジメント部は、当該駆動力、制動力および操舵角を生成するよう、各アクチュエータの操作信号を生成する
ことを特徴とする車両用演算システム。
The vehicle calculation system according to claim 1,
A computing system for a vehicle, wherein the energy management unit generates operation signals for each actuator to generate the driving force, braking force, and steering angle.
JP2019042926A 2019-03-08 2019-03-08 Vehicle computing system Active JP7434714B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019042926A JP7434714B2 (en) 2019-03-08 2019-03-08 Vehicle computing system
EP20770924.7A EP3907115A4 (en) 2019-03-08 2020-03-03 Arithmetic operation system for vehicle
CN202080011216.1A CN113498392A (en) 2019-03-08 2020-03-03 Vehicle computing system
PCT/JP2020/008850 WO2020184277A1 (en) 2019-03-08 2020-03-03 Arithmetic operation system for vehicle
US17/468,699 US20210403039A1 (en) 2019-03-08 2021-09-08 Arithmetic operation system for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019042926A JP7434714B2 (en) 2019-03-08 2019-03-08 Vehicle computing system

Publications (2)

Publication Number Publication Date
JP2020142759A JP2020142759A (en) 2020-09-10
JP7434714B2 true JP7434714B2 (en) 2024-02-21

Family

ID=72353068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019042926A Active JP7434714B2 (en) 2019-03-08 2019-03-08 Vehicle computing system

Country Status (1)

Country Link
JP (1) JP7434714B2 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001349808A (en) 2000-06-09 2001-12-21 Mazda Motor Corp Construction method for vehicle model, apparatus provided with the model constructed by the method and recording medium with the model recorded thereon
WO2007105694A1 (en) 2006-03-13 2007-09-20 Pioneer Corporation Awakening retainer and method for retaining awakening and computer program for retaining awakening
JP2009198268A (en) 2008-02-20 2009-09-03 Pioneer Electronic Corp Navigation device, display device, acting method, acting program, and recording medium
JP2010234914A (en) 2009-03-30 2010-10-21 Honda Motor Co Ltd Road surface friction coefficient estimating device
JP2011207314A (en) 2010-03-29 2011-10-20 Toyota Motor Corp Control device for vehicle
JP2014167438A (en) 2013-02-28 2014-09-11 Denso Corp Information notification device
JP2014202733A (en) 2013-04-10 2014-10-27 トヨタ自動車株式会社 Navigation device and navigation method
WO2018075325A1 (en) 2016-10-17 2018-04-26 Uber Technologies, Inc. Neural network system for autonomous vehicle control
WO2018102477A1 (en) 2016-11-30 2018-06-07 Nissan North America, Inc. Tele-operation of autonomous cars to negotiate problem situations
JP2018146498A (en) 2017-03-08 2018-09-20 株式会社ナビタイムジャパン Information processing system, information processing program, information processing device, and information processing method
JP2018169706A (en) 2017-03-29 2018-11-01 マツダ株式会社 Vehicle driving support system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6528690B2 (en) * 2015-02-10 2019-06-12 株式会社デンソー Save control device, save control method
JP6601437B2 (en) * 2017-02-16 2019-11-06 トヨタ自動車株式会社 Lane departure control device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001349808A (en) 2000-06-09 2001-12-21 Mazda Motor Corp Construction method for vehicle model, apparatus provided with the model constructed by the method and recording medium with the model recorded thereon
WO2007105694A1 (en) 2006-03-13 2007-09-20 Pioneer Corporation Awakening retainer and method for retaining awakening and computer program for retaining awakening
JP2009198268A (en) 2008-02-20 2009-09-03 Pioneer Electronic Corp Navigation device, display device, acting method, acting program, and recording medium
JP2010234914A (en) 2009-03-30 2010-10-21 Honda Motor Co Ltd Road surface friction coefficient estimating device
JP2011207314A (en) 2010-03-29 2011-10-20 Toyota Motor Corp Control device for vehicle
JP2014167438A (en) 2013-02-28 2014-09-11 Denso Corp Information notification device
JP2014202733A (en) 2013-04-10 2014-10-27 トヨタ自動車株式会社 Navigation device and navigation method
WO2018075325A1 (en) 2016-10-17 2018-04-26 Uber Technologies, Inc. Neural network system for autonomous vehicle control
WO2018102477A1 (en) 2016-11-30 2018-06-07 Nissan North America, Inc. Tele-operation of autonomous cars to negotiate problem situations
JP2018146498A (en) 2017-03-08 2018-09-20 株式会社ナビタイムジャパン Information processing system, information processing program, information processing device, and information processing method
JP2018169706A (en) 2017-03-29 2018-11-01 マツダ株式会社 Vehicle driving support system

Also Published As

Publication number Publication date
JP2020142759A (en) 2020-09-10

Similar Documents

Publication Publication Date Title
WO2020184277A1 (en) Arithmetic operation system for vehicle
JP7207098B2 (en) Automobile cruise control system
JP7243392B2 (en) Vehicle running control device
JP7434715B2 (en) Vehicle computing system
JP6647323B2 (en) Vehicle control device
WO2020203078A1 (en) Calculation device for vehicle travel control and travel control system using same
EP3900993A1 (en) Vehicle travel control device
JP7434714B2 (en) Vehicle computing system
WO2020203068A1 (en) Vehicle travel control apparatus
JP2020142760A (en) Vehicular calculation system
JP7243389B2 (en) Vehicle running control device
CN113597391B (en) Computing device for controlling automobile running and running control system using the same
WO2020246098A1 (en) In-vehicle network system
WO2020246102A1 (en) Vehicle failure diagnosis apparatus
JP7384051B2 (en) Vehicle travel control device and travel control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R150 Certificate of patent or registration of utility model

Ref document number: 7434714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150