JP2022074513A - Calculation device - Google Patents

Calculation device Download PDF

Info

Publication number
JP2022074513A
JP2022074513A JP2020184615A JP2020184615A JP2022074513A JP 2022074513 A JP2022074513 A JP 2022074513A JP 2020184615 A JP2020184615 A JP 2020184615A JP 2020184615 A JP2020184615 A JP 2020184615A JP 2022074513 A JP2022074513 A JP 2022074513A
Authority
JP
Japan
Prior art keywords
vehicle
detection result
unit
processing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020184615A
Other languages
Japanese (ja)
Inventor
高志良 橋本
Koshiro Hashimoto
真一 白石
Shinichi Shiraishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020184615A priority Critical patent/JP2022074513A/en
Publication of JP2022074513A publication Critical patent/JP2022074513A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a calculation device which can reduce delay in calculation.SOLUTION: A calculation device has: a processing part 33 which executes prescribed processing for at least two data respectively; and a storage part 22 which holds at least two data outputted from at least one other processing part (31, 32). When any one of at least two data is written in the storage part 22, the processing part 33 executes prescribed processing for the written data to calculate first processing result even if the other data of at least two data is not written in the storage part 22, and when the other data is written in the storage part 22, the processing part executes prescribed processing for the other data to calculate second processing result, and outputs either the first processing result or the second processing result.SELECTED DRAWING: Figure 4

Description

本発明は、複数の演算モジュール間でデータの受け渡しが行われる演算装置に関する。 The present invention relates to an arithmetic unit in which data is exchanged between a plurality of arithmetic modules.

複数の演算モジュール間でデータの受け渡しが行われる演算装置において、演算モジュールごとに独立した修正または拡張を可能とするために、演算モジュール間を疎結合化することが図られる。そのために、Publisher/Subscriberモデルが提案されている。Publisher/Subscriberモデルでは、パブリッシャーとなる演算モジュールのそれぞれは、予め定められたトピックの何れかに、サブスクライバーへ渡すデータをメッセージとして格納する。サブスクライバーとなる演算モジュールのそれぞれは、自身が必要なメッセージをトピックから読み出して、そのメッセージに対する処理を実行する(例えば、特許文献1を参照)。 In an arithmetic unit in which data is exchanged between a plurality of arithmetic modules, it is possible to loosely couple the arithmetic modules in order to enable independent modification or expansion for each arithmetic module. To that end, the Publisher / Subscriber model has been proposed. In the Publisher / Subscriber model, each of the arithmetic modules that become the publisher stores the data to be passed to the subscriber as a message in one of the predetermined topics. Each of the arithmetic modules to be a subscriber reads the message required by itself from the topic and executes the processing for the message (see, for example, Patent Document 1).

特開2019-28599号公報Japanese Unexamined Patent Publication No. 2019-28599

上記のような演算装置において、サブスクライバーが二つ以上のメッセージが揃ったことをトリガーとして処理を実行する場合、そのサブスクライバーは、個々のメッセージに対して別個に処理を実行するものであっても、全てのメッセージが揃うまで処理を開始しない。そのため、何れかのパブリッシャーからのメッセージの配信が遅れると、サブスクライバーは処理を開始できず、遅延が増大することとなる。 In the above arithmetic unit, when a subscriber executes a process triggered by having two or more messages, the subscriber executes the process separately for each message. However, the process is not started until all the messages are collected. Therefore, if the delivery of the message from any of the publishers is delayed, the subscriber cannot start processing and the delay will increase.

そこで、本発明は、演算の遅延を低減することが可能な演算装置を提供することを目的とする。 Therefore, an object of the present invention is to provide an arithmetic unit capable of reducing an arithmetic delay.

一つの実施形態によれば、演算装置が提供される。この演算装置は、少なくとも二つのデータのそれぞれに対して所定の処理を実行する処理部と、少なくとも一つの他の処理部から出力された少なくとも二つのデータを保持する記憶部とを有する。そして処理部は、記憶部に少なくとも二つのデータの何れかが書き込まれると、少なくとも二つのデータのうちの他のデータが記憶部に書き込まれていなくても、その書き込まれたデータに対して所定の処理を実行して第1の処理結果を算出し、他のデータが記憶部に書き込まれると他のデータに対して所定の処理を実行して第2の処理結果を算出し、第1の処理結果と第2の処理結果の何れかを出力する。 According to one embodiment, an arithmetic unit is provided. This arithmetic unit has a processing unit that executes predetermined processing for each of at least two data units, and a storage unit that holds at least two data output from at least one other processing unit. Then, when any one of at least two data is written to the storage unit, the processing unit determines the written data even if the other data of the at least two data is not written to the storage unit. Processing is executed to calculate the first processing result, and when other data is written to the storage unit, a predetermined processing is executed for the other data to calculate the second processing result, and the first processing result is calculated. Output either the processing result or the second processing result.

本発明に係る演算装置は、演算の遅延を低減できるという効果を奏する。 The arithmetic unit according to the present invention has an effect that the delay in arithmetic can be reduced.

本実施形態による演算装置が実装される車両制御システムの概略構成図である。It is a schematic block diagram of the vehicle control system in which the arithmetic unit according to this embodiment is mounted. 演算装置の一実施形態である電子制御装置のハードウェア構成図である。It is a hardware block diagram of the electronic control device which is one Embodiment of an arithmetic unit. 本実施形態による演算処理を含む車両制御処理に関する、電子制御装置のプロセッサの機能ブロック図である。It is a functional block diagram of the processor of the electronic control apparatus regarding the vehicle control processing including the arithmetic processing by this embodiment. (a)及び(b)は、それぞれ、処理部の一例である経路設定部による、各検出結果に対する走行予定経路設定処理の実行タイミングの概要を説明する図である。(A) and (b) are diagrams for explaining the outline of the execution timing of the planned travel route setting process for each detection result by the route setting unit which is an example of the processing unit, respectively. 本実施形態による演算処理の一例である走行予定経路設定処理の動作フローチャートである。It is an operation flowchart of the travel schedule route setting process which is an example of the calculation process by this embodiment. 走行予定経路設定処理を含む車両制御処理の動作フローチャートである。It is an operation flowchart of the vehicle control processing including the travel schedule route setting processing.

以下、図を参照しつつ、演算装置について説明する。この演算装置では、少なくとも二つのデータのそれぞれに対して所定の処理を実行する処理部が、それらのデータの何れかがメモリに書き込まれると、それらのデータのうちの他のデータがメモリに書き込まれていなくても、メモリに書き込まれたデータに対して処理を実行して第1の処理結果を算出する。そしてその処理部は、他のデータがメモリに書き込まれると、他のデータに対しても処理を実行して第2の処理結果を算出し、第1の処理結果と第2の処理結果の何れかを出力する。このように、この演算装置は、全てのデータが揃わなくても処理を開始することで演算の遅延を軽減する。 Hereinafter, the arithmetic unit will be described with reference to the drawings. In this arithmetic unit, when a processing unit that executes a predetermined process for each of at least two data writes any of the data to the memory, the other data of the data is written to the memory. Even if it is not, the process is executed for the data written in the memory and the first process result is calculated. Then, when other data is written to the memory, the processing unit executes processing on the other data to calculate the second processing result, and either the first processing result or the second processing result. Is output. As described above, this arithmetic unit reduces the delay of the arithmetic by starting the processing even if all the data are not prepared.

以下では、演算装置を、車両制御システムに適用した例について説明する。この例では、演算装置は、車両に搭載された、車両の周辺領域を撮影するためのカメラにより得られた画像、及び、車両に搭載された、車両の周囲の物体までの距離を検知するための距離センサにより得られた測距信号から、車両が走行する予定の経路(以下、単に走行予定経路と呼ぶ)を設定する。その際、この演算装置は、画像に基づく他の車両の検出結果、及び、測距信号に基づく、車両の周囲を走行する他の車両といった、車両の周囲の物体の検出結果の何れかが得られると、先に得られた検出結果に基づいて走行予定経路を設定する処理を実行するとともに、必要に応じて、他方の検出結果に基づいても走行予定経路を算出する。そしてこの演算装置は、それらの走行予定経路の何れかに沿って車両を走行させる。 In the following, an example in which the arithmetic unit is applied to the vehicle control system will be described. In this example, the arithmetic unit detects an image obtained by a camera mounted on the vehicle for photographing the peripheral area of the vehicle and a distance to an object mounted on the vehicle and surrounding the vehicle. From the distance measurement signal obtained by the distance sensor of, the route on which the vehicle is scheduled to travel (hereinafter, simply referred to as the planned travel route) is set. At that time, this arithmetic unit obtains either the detection result of another vehicle based on the image or the detection result of an object around the vehicle such as another vehicle traveling around the vehicle based on the distance measuring signal. Then, the process of setting the planned travel route is executed based on the previously obtained detection result, and if necessary, the planned travel route is calculated based on the other detection result. Then, this arithmetic unit drives the vehicle along one of those planned travel routes.

図1は、本実施形態による演算装置が実装される車両制御システムの概略構成図である。また図2は、演算装置の一つの実施形態である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、車両10の周囲の物体までの距離を測定するための距離センサ3と、演算装置の一例である電子制御装置(ECU)4とを有する。カメラ2及び距離センサ3とECU4とは、コントローラエリアネットワークといった規格に準拠した車内ネットワークを介して通信可能に接続される。なお、車両制御システム1は、車両10の自動運転制御に用いられる、車線区画線など、車両10の走行に関連する地物を表す高精度地図を記憶するストレージ装置(図示せず)をさらに有していてもよい。さらに、車両制御システム1は、GPS受信機といった、衛星測位システムに準拠して車両10の自己位置を測位するための受信機(図示せず)、他の機器と無線通信するための無線端末(図示せず)、及び、車両10の走行予定ルートを探索するためのナビゲーション装置(図示せず)などを有していてもよい。 FIG. 1 is a schematic configuration diagram of a vehicle control system in which an arithmetic unit according to the present embodiment is mounted. Further, FIG. 2 is a hardware configuration diagram of an electronic control device, which is one embodiment of the arithmetic unit. In the present embodiment, the vehicle control system 1 mounted on the vehicle 10 and controlling the vehicle 10 measures the distance between the camera 2 for photographing the surroundings of the vehicle 10 and the objects around the vehicle 10. It has a distance sensor 3 and an electronic control unit (ECU) 4 which is an example of an arithmetic unit. The camera 2, the distance sensor 3, and the ECU 4 are communicably connected to each other via an in-vehicle network conforming to a standard such as a controller area network. The vehicle control system 1 further has a storage device (not shown) that stores a high-precision map representing features related to the running of the vehicle 10, such as a lane marking line, which is used for automatic driving control of the vehicle 10. You may be doing it. Further, the vehicle control system 1 is a receiver (not shown) for positioning the self-position of the vehicle 10 in accordance with a satellite positioning system such as a GPS receiver, and a wireless terminal for wireless communication with other devices (not shown). (Not shown), and a navigation device (not shown) for searching the planned travel route of the vehicle 10 may be provided.

カメラ2は、撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2は、車両10の周囲を撮影するように車両10に取り付けられる。例えば、カメラ2は、車両10の前方の領域を撮影するよう、車両10の車室内に、車両10の前方へ向けて取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒~1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。なお、車両10には、撮影方向または焦点距離が異なる複数のカメラが設けられてもよい。 The camera 2 is an example of an imaging unit, and is a two-dimensional detector composed of an array of photoelectric conversion elements having sensitivity to visible light, such as a CCD or C-MOS, and a shooting target on the two-dimensional detector. It has an imaging optical system that forms an image of a region. Then, the camera 2 is attached to the vehicle 10 so as to photograph the surroundings of the vehicle 10. For example, the camera 2 is attached to the vehicle interior of the vehicle 10 toward the front of the vehicle 10 so as to capture an area in front of the vehicle 10. Then, the camera 2 photographs the front region of the vehicle 10 at predetermined imaging cycles (for example, 1/30 second to 1/10 second), and generates an image in which the front region is captured. The vehicle 10 may be provided with a plurality of cameras having different shooting directions or focal lengths.

カメラ2は、画像を生成する度に、その生成した画像を、車内ネットワークを介してECU4へ出力する。 Each time the camera 2 generates an image, the camera 2 outputs the generated image to the ECU 4 via the in-vehicle network.

距離センサ3は、例えば、LiDARあるいはレーダといった、方位ごとに、その方位に存在する物体までの距離を測定可能なセンサとすることができる。距離センサ3は、車両10の周囲に設定される測定範囲の各方位について、その方位に存在する物体までの距離を測距可能なように車両10に取り付けられる。そして距離センサ3は、カメラ2とは独立して、所定の測定周期(例えば1/5秒~1/20秒)ごとに、測定範囲内の各方位について、その方位に位置する物体までの距離を測距して、その測距結果を表す測距信号を生成する。なお、車両10には、測定範囲が互いに異なるように設置される複数の距離センサが設けられてもよい。 The distance sensor 3 can be a sensor that can measure the distance to an object existing in each direction, such as LiDAR or a radar. The distance sensor 3 is attached to the vehicle 10 so that the distance to an object existing in that direction can be measured for each direction of the measurement range set around the vehicle 10. Then, the distance sensor 3 is independent of the camera 2 and has a distance to an object located in that direction in each direction within the measurement range at predetermined measurement cycles (for example, 1/5 second to 1/20 second). To generate a distance measurement signal representing the distance measurement result. The vehicle 10 may be provided with a plurality of distance sensors installed so that the measurement ranges are different from each other.

距離センサ3は、測距信号を生成する度に、その生成した測距信号を、車内ネットワークを介してECU4へ出力する。 Each time the distance sensor 3 generates a distance measurement signal, the distance sensor 3 outputs the generated distance measurement signal to the ECU 4 via the in-vehicle network.

ECU4は、車両10の走行を制御する。本実施形態では、ECU4は、カメラ2により得られた時系列の一連の画像から検出された物体、及び、距離センサ3により得られた時系列の一連の測距信号から検出された物体と車両10とが衝突しないように、車両10の走行予定経路を設定し、その走行予定経路に沿って車両が10が走行するように、車両10を自動運転制御する。そのために、ECU4は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。なお、通信インターフェース21、メモリ22及びプロセッサ23は、互いに異なる回路として構成されてもよく、あるいは、一つの集積回路として一体的に構成されてもよい。 The ECU 4 controls the running of the vehicle 10. In the present embodiment, the ECU 4 is an object detected from a series of time-series images obtained by the camera 2 and an object and a vehicle detected from a series of time-series ranging signals obtained by the distance sensor 3. A planned travel route of the vehicle 10 is set so as not to collide with the 10, and the vehicle 10 is automatically controlled so that the vehicle travels along the planned travel route. Therefore, the ECU 4 has a communication interface 21, a memory 22, and a processor 23. The communication interface 21, the memory 22, and the processor 23 may be configured as circuits different from each other, or may be integrally configured as one integrated circuit.

通信インターフェース21は、ECU4を車内ネットワークに接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワークを介して、カメラ2及び距離センサ3と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。また、通信インターフェース21は、距離センサ3から測距信号を受信する度に、受信した測距信号をプロセッサ23へわたす。 The communication interface 21 has an interface circuit for connecting the ECU 4 to the in-vehicle network. That is, the communication interface 21 is connected to the camera 2 and the distance sensor 3 via the in-vehicle network. Then, each time the communication interface 21 receives an image from the camera 2, the received image is passed to the processor 23. Further, each time the communication interface 21 receives a distance measurement signal from the distance sensor 3, the communication interface 21 passes the received distance measurement signal to the processor 23.

メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU4のプロセッサ23により実行される車両制御処理のアルゴリズム、車両制御処理において使用される各種のデータ及びパラメータを記憶する。例えば、メモリ22は、地図情報、及び、車両制御処理で利用される識別器を特定するためのパラメータセットなどを記憶する。さらに、メモリ22は、カメラ2からECU4が受信した画像、及び、距離センサ3からECU4が受信した測距信号を一定期間記憶する。さらにまた、メモリ22は、画像から検出された物体に関する情報及び測距信号から検出された物体に関する情報といった、車両制御処理の途中で生成される各種のデータを一定期間記憶する。 The memory 22 is an example of a storage unit, and has, for example, a volatile semiconductor memory and a non-volatile semiconductor memory. The memory 22 stores an algorithm for vehicle control processing executed by the processor 23 of the ECU 4, various data and parameters used in the vehicle control processing. For example, the memory 22 stores map information, a parameter set for identifying a classifier used in vehicle control processing, and the like. Further, the memory 22 stores the image received by the ECU 4 from the camera 2 and the distance measurement signal received by the ECU 4 from the distance sensor 3 for a certain period of time. Furthermore, the memory 22 stores various data generated during the vehicle control process, such as information about the object detected from the image and information about the object detected from the ranging signal, for a certain period of time.

プロセッサ23は、例えば、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニット(Graphics Processing Unit, GPU)といった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10が走行している間、カメラ2から受信した画像及び距離センサ3から受信した測距信号に基づいて車両10を自動運転制御するよう、車両制御処理を実行する。 The processor 23 has, for example, one or a plurality of CPUs (Central Processing Units) and peripheral circuits thereof. The processor 23 may further include other arithmetic circuits such as a logical operation unit, a numerical operation unit, or a graphics processing unit (GPU). Then, the processor 23 executes the vehicle control process so as to automatically control the vehicle 10 based on the image received from the camera 2 and the distance measurement signal received from the distance sensor 3 while the vehicle 10 is traveling.

図3は、本実施形態による演算処理を含む車両制御処理に関する、ECU3のプロセッサ23の機能ブロック図である。プロセッサ23は、第1の物体検出部31と、第2の物体検出部32と、経路設定部33と、車両制御部34とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23の専用の演算回路として実装されてもよい。 FIG. 3 is a functional block diagram of the processor 23 of the ECU 3 regarding vehicle control processing including arithmetic processing according to the present embodiment. The processor 23 has a first object detection unit 31, a second object detection unit 32, a route setting unit 33, and a vehicle control unit 34. Each of these parts of the processor 23 is, for example, a functional module realized by a computer program running on the processor 23. Alternatively, each of these parts of the processor 23 may be implemented as a dedicated arithmetic circuit of the processor 23.

第1の物体検出部31は、他の処理部の一例であり、ECU4がカメラ2から画像を受信する度に、受信した画像に対する物体検出処理を実行することで、画像に表された、検出対象となる、車両10の周囲の物体(以下、単に検出対象物体と呼ぶ)を検出する。検出対象物体には、例えば、他の車両及び歩行者が含まれる。さらに、検出対象物体には、車線区画線といった道路標示、各種の道路標識あるいは信号機といった、車両10の走行制御に関連する地物が含まれてもよい。 The first object detection unit 31 is an example of another processing unit, and is a detection represented by an image by executing an object detection process for the received image each time the ECU 4 receives an image from the camera 2. The target object around the vehicle 10 (hereinafter, simply referred to as a detection target object) is detected. The object to be detected includes, for example, other vehicles and pedestrians. Further, the object to be detected may include features related to the traveling control of the vehicle 10, such as road markings such as lane marking lines, various road signs or traffic lights.

本実施形態では、第1の物体検出部31は、第1の識別器に画像を入力する。第1の識別器は、入力された画像上の様々な領域について、検出対象物体の種別ごとに、その種別の検出対象物体がその領域に含まれている確からしさを表す確信度を出力する。そして第1の物体検出部31は、何れかの種別の検出対象物体についての確信度が所定の閾値以上となる領域に、その種別の検出対象物体が含まれると判定する。なお、以下では、検出対象物体が含まれると判定された領域を、説明の便宜上、物体領域と呼ぶ。 In the present embodiment, the first object detection unit 31 inputs an image to the first classifier. The first classifier outputs the certainty indicating the certainty that the detection target object of the type is included in the region for each type of the detection target object for various regions on the input image. Then, the first object detection unit 31 determines that the detection target object of any type is included in the region where the certainty of the detection target object of any type is equal to or higher than a predetermined threshold value. In the following, the area determined to include the object to be detected is referred to as an object area for convenience of explanation.

第1の物体検出部31は、第1の識別器として、例えば、Single Shot MultiBox Detector(SSD)、または、Faster R-CNNといった、コンボリューショナルニューラルネットワーク(以下、単にCNNと呼ぶ)型のアーキテクチャを持つ、いわゆるディープニューラルネットワーク(以下、単にDNNと呼ぶ)を使用することができる。第1の識別器は、検出対象物体が表された画像(教師画像)を多数用いて、誤差逆伝搬法といった学習手法に従って予め学習される。 The first object detection unit 31 is a convolutional neural network (hereinafter, simply referred to as CNN) type architecture such as a Single Shot MultiBox Detector (SSD) or a Faster R-CNN as a first classifier. A so-called deep neural network (hereinafter, simply referred to as DNN) can be used. The first classifier is pre-learned according to a learning method such as an error back propagation method by using a large number of images (teacher images) showing an object to be detected.

第1の物体検出部31は、画像上での検出対象物体が表された物体領域の位置及び範囲と、その物体領域に含まれる物体の種別と、確信度とを表す第1の検出結果を、メモリ22の検出結果保持用に予め設定されたメモリ領域に書き込む。なお、第1の検出結果は、処理部により実行される所定の処理の対象となるデータの一例である。 The first object detection unit 31 determines the position and range of the object area in which the object to be detected is represented on the image, the type of the object included in the object area, and the first detection result indicating the certainty. , Write to the memory area preset for holding the detection result of the memory 22. The first detection result is an example of data to be subject to predetermined processing executed by the processing unit.

第2の物体検出部32は、他の処理部の他の一例であり、ECU4が距離センサ3から測距信号を受信する度に、受信した測距信号に対する物体検出処理を実行することで、測距信号に表された検出対象物体を検出する。 The second object detection unit 32 is another example of another processing unit, and each time the ECU 4 receives a distance measurement signal from the distance sensor 3, the second object detection unit 32 executes an object detection process for the received distance measurement signal. The detection target object represented by the ranging signal is detected.

本実施形態では、第2の物体検出部32は、第2の識別器に測距信号を入力する。第2の識別器は、入力された測距信号に含まれる様々な方位について、検出対象物体がその方位に位置する確からしさを表す確信度を出力する。そして第2の物体検出部32は、確信度が所定の閾値以上となる方位に、検出対象物体が位置すると判定する。なお、以下では、検出対象物体が位置すると判定された方位を、説明の便宜上、物体方位と呼ぶ。 In the present embodiment, the second object detection unit 32 inputs a ranging signal to the second classifier. The second classifier outputs the certainty indicating the certainty that the object to be detected is located in that direction for various directions included in the input distance measurement signal. Then, the second object detection unit 32 determines that the detection target object is located in the direction in which the certainty level is equal to or higher than a predetermined threshold value. In the following, the direction in which the object to be detected is determined to be located is referred to as an object direction for convenience of explanation.

第2の物体検出部32は、第2の識別器として、例えば、CNN型のアーキテクチャを持つ、DNNを使用することができる。第2の識別器も、第1の識別器と同様に、検出対象物体が表された測距信号(教師データ)を多数用いて、誤差逆伝搬法といった学習手法に従って予め学習されればよい。 The second object detection unit 32 can use, for example, a DNN having a CNN type architecture as the second classifier. Similar to the first classifier, the second classifier may be pre-learned according to a learning method such as an error back propagation method by using a large number of distance measurement signals (teacher data) representing the object to be detected.

第2の物体検出部32は、検出対象物体が表された物体方位と、確信度とを表す第2の検出結果を、メモリ22の検出結果保持用に予め設定されたメモリ領域に書き込む。なお、第2の検出結果は、処理部により実行される所定の処理の対象となるデータの他の一例である。 The second object detection unit 32 writes the second detection result, which represents the object orientation in which the object to be detected is represented and the certainty, into a memory area preset for holding the detection result in the memory 22. The second detection result is another example of the data to be the target of the predetermined processing executed by the processing unit.

経路設定部33は、画像から検出された検出対象物体または測距信号から検出された検出対象物体、特に、車両10の周囲を走行する他の車両あるいは人と衝突しないように、かつ、目的地までの走行予定ルートに沿って車両10が進むよう、直近の所定の区間(例えば、500m~1km)における走行予定経路を設定する。走行予定経路は、例えば、所定の区間を車両10が走行する際の各時刻における、車両10の目標位置の集合として表される。なお、経路設定部33は、所定の処理を実行する処理部の一例である。 The route setting unit 33 does not collide with the detection target object detected from the image or the detection target object detected from the ranging signal, particularly other vehicles or people traveling around the vehicle 10, and the destination. The planned travel route in the nearest predetermined section (for example, 500 m to 1 km) is set so that the vehicle 10 travels along the planned travel route up to. The planned travel route is represented, for example, as a set of target positions of the vehicle 10 at each time when the vehicle 10 travels in a predetermined section. The route setting unit 33 is an example of a processing unit that executes a predetermined process.

本実施形態では、経路設定部33は、走行予定経路を生成するために、第1の物体検出部31または第2の物体検出部32により検出された物体を追跡し、直近の所定の区間における、追跡された物体の軌跡を予測する。 In the present embodiment, the route setting unit 33 tracks an object detected by the first object detection unit 31 or the second object detection unit 32 in order to generate a planned travel route, and in the latest predetermined section. , Predict the trajectory of the tracked object.

そのために、経路設定部33は、カメラ2による画像の生成周期(すなわち、第1の物体検出部31の処理周期)及び距離センサ3による測距信号の生成周期(すなわち、第2の物体検出部32の処理周期)のそれぞれとは独立した所定の処理周期ごとに、メモリ22の検出結果保持用のメモリ領域を参照することで、第1の検出結果及び第2の検出結果がメモリ22に書き込まれているか否かを確認する。そして経路設定部33は、第1の検出結果及び第2の検出結果の何れかがメモリ22に書き込まれていると、その書込まれている検出結果をメモリ22から読み出すとともに、メモリ22から消去する。そして経路設定部33は、読み出した検出結果に基づいて、走行予定経路を設定する。 Therefore, the route setting unit 33 has an image generation cycle by the camera 2 (that is, a processing cycle of the first object detection unit 31) and a distance measurement signal generation cycle by the distance sensor 3 (that is, the second object detection unit 31). The first detection result and the second detection result are written to the memory 22 by referring to the memory area for holding the detection result of the memory 22 at each predetermined processing cycle independent of each of the processing cycles of 32). Check if it is. Then, when either the first detection result or the second detection result is written in the memory 22, the route setting unit 33 reads the written detection result from the memory 22 and erases the written detection result from the memory 22. do. Then, the route setting unit 33 sets the planned travel route based on the read detection result.

例えば、読み出した検出結果が、画像に基づく第1の検出結果である場合、経路設定部33は、Lucas-Kanade法といった、オプティカルフローに基づく追跡処理を、カメラ2により得られた最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された物体を追跡する。そのため、経路設定部33は、例えば、着目する物体領域に対してSIFTあるいはHarrisオペレータといった特徴点抽出用のフィルタを適用することで、その物体領域から複数の特徴点を抽出する。そして経路設定部33は、複数の特徴点のそれぞれについて、過去の画像における物体領域における対応する点を、適用される追跡手法に従って特定することで、オプティカルフローを算出すればよい。あるいは、経路設定部33は、画像から検出された移動物体の追跡に適用される他の追跡手法を、最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された物体を追跡してもよい。 For example, when the read detection result is the first detection result based on the image, the route setting unit 33 performs tracking processing based on the optical flow such as the Lucas-Kanade method in the latest image obtained by the camera 2. By applying to the object area of interest and the object area in the past image, the object represented in the object area is tracked. Therefore, the route setting unit 33 extracts a plurality of feature points from the object region of interest, for example, by applying a filter for feature point extraction such as SIFT or Harris operator to the object region of interest. Then, the route setting unit 33 may calculate the optical flow by specifying the corresponding points in the object region in the past image for each of the plurality of feature points according to the applied tracking method. Alternatively, the route setting unit 33 may apply another tracking method applied to tracking a moving object detected from the image to the object area of interest in the latest image and the object area in the past image. , The object represented in the object area may be tracked.

経路設定部33は、追跡中の各物体について、カメラ2についての車両10への取り付け位置などの情報を用いて視点変換処理を実行することで、その物体の画像内座標を鳥瞰画像上の座標(鳥瞰座標)に変換する。その際、経路設定部33は、各画像の取得時における、車両10の位置及び姿勢と、検出された物体までの推定距離と、車両10からその物体へ向かう方向とにより、各画像の取得時における、検出された物体の位置を推定できる。なお、各画像取得時における車両10の位置及び姿勢は、カメラ2により得られた画像と高精度地図とを照合することで推定されればよい。そして経路設定部33は、直近の所定期間における一連の鳥瞰座標に対してKalman FilterまたはParticle filterなどを用いた予測処理を実行することで、その物体の所定時間先までの予測軌跡を推定することができる。 The route setting unit 33 executes the viewpoint conversion process for each object being tracked by using information such as the mounting position of the camera 2 on the vehicle 10, so that the coordinates in the image of the object are the coordinates on the bird's-eye view image. Convert to (bird's eye coordinates). At that time, the route setting unit 33 obtains each image according to the position and posture of the vehicle 10 at the time of acquiring each image, the estimated distance to the detected object, and the direction from the vehicle 10 to the object. The position of the detected object can be estimated. The position and posture of the vehicle 10 at the time of acquiring each image may be estimated by collating the image obtained by the camera 2 with the high-precision map. Then, the route setting unit 33 estimates the predicted locus of the object up to a predetermined time by executing a prediction process using a Kalman Filter, a Particle filter, or the like for a series of bird's-eye view coordinates in the latest predetermined period. Can be done.

また、読み出した検出結果が、測距信号に基づく第2の検出結果である場合、経路設定部33は、最新の測距信号取得時の車両10の位置及び姿勢と、検出された物体への方位及び距離に基づいて、最新の測距信号の取得時における、検出された物体の位置を推定する。なお、最新の測距信号取得時の車両10の位置及び姿勢は、例えば、その直前における画像取得時から、最新の測距信号取得時までの期間における、車両10の加速度及びヨーレートなどに基づいて算出される、車両10の位置及び姿勢の変化量を、最新の画像取得時の車両10の位置及び姿勢に加算することで推定される。そして経路設定部33は、最新の測距信号において検出された物体を、その物体の位置に最も近い予測軌跡となる追跡中の物体であると判定し、その最新の測距信号取得時の位置を予測処理に適用することで、その追跡中の物体の予測軌跡を更新する。 When the read detection result is the second detection result based on the distance measurement signal, the route setting unit 33 determines the position and posture of the vehicle 10 at the time of acquiring the latest distance measurement signal and the detected object. Based on the orientation and distance, the position of the detected object at the time of acquisition of the latest ranging signal is estimated. The position and posture of the vehicle 10 at the time of acquiring the latest ranging signal is based on, for example, the acceleration and yaw rate of the vehicle 10 in the period from the time of image acquisition immediately before that to the time of acquiring the latest ranging signal. It is estimated by adding the calculated change amount of the position and posture of the vehicle 10 to the position and posture of the vehicle 10 at the time of the latest image acquisition. Then, the route setting unit 33 determines that the object detected by the latest ranging signal is the object being tracked, which is the predicted locus closest to the position of the object, and the position at the time of acquiring the latest ranging signal. Is applied to the prediction process to update the prediction trajectory of the object being tracked.

経路設定部33は、追跡中の各物体の予測軌跡に基づいて、何れの物体についても所定時間先までの追跡中の物体のそれぞれと車両10間の距離の予測値が所定距離以上となり、かつ、目的地までの走行予定ルートに沿うように、車両10の走行予定経路を設定する。その際、経路設定部33は、所定時間先までの各時刻における走行予定経路上の位置に最も近い追跡中の物体までの距離の和の逆数を評価関数として算出し、その評価関数が最小化されるように、動的計画法あるいは最急降下法といった所定の最適化手法に従って走行予定経路を設定すればよい。 Based on the predicted locus of each object being tracked, the route setting unit 33 sets the predicted value of the distance between each of the objects being tracked up to a predetermined time ahead and the vehicle 10 to be a predetermined distance or more. , Set the planned travel route of the vehicle 10 so as to follow the planned travel route to the destination. At that time, the route setting unit 33 calculates the reciprocal of the sum of the distances to the object being tracked closest to the position on the planned travel route at each time up to a predetermined time as an evaluation function, and the evaluation function is minimized. Therefore, the planned travel route may be set according to a predetermined optimization method such as a dynamic planning method or a steepest descent method.

さらに、経路設定部33は、生成した走行予定経路の評価値を算出する。例えば、経路設定部33は、第1または第2の検出結果に含まれる検出された物体の確信度と、車両10が走行中の車線の中心から、所定時間先までの各時刻における走行予定経路上の位置までのずれ量の和(以下、単に総和ずれ量と呼ぶ)の少なくとも一方に基づいて評価値を算出する。具体的に、経路設定部33は、第1の検出結果を用いて走行予定経路を設定した場合、第1の検出結果において検出された各物体の確信度の平均値に第1の重み係数を乗じた値と、総和ずれ量の逆数に第2の重み係数を乗じた値との和を評価値として算出する。同様に、経路設定部33は、第2の検出結果を用いて走行予定経路を設定した場合、第2の検出結果において検出された各物体の確信度の平均値に第1の重み係数を乗じた値と、総和ずれ量の逆数に第2の重み係数を乗じた値との和を評価値として算出する。なお、第1の重み係数と第2の重み係数の何れか一方はゼロに設定されてもよい。また、経路設定部33は、高精度地図を参照して、車両10の走行予定経路が通る車線を特定することで、総和ずれ量を算出すればよい。 Further, the route setting unit 33 calculates the evaluation value of the generated planned travel route. For example, the route setting unit 33 determines the certainty of the detected object included in the first or second detection result, and the planned travel route at each time from the center of the lane in which the vehicle 10 is traveling to a predetermined time ahead. The evaluation value is calculated based on at least one of the sum of the deviation amounts up to the upper position (hereinafter, simply referred to as the total deviation amount). Specifically, when the route setting unit 33 sets the planned travel route using the first detection result, the route setting unit 33 sets the first weighting coefficient to the average value of the certainty of each object detected in the first detection result. The sum of the multiplied value and the value obtained by multiplying the reciprocal of the total sum deviation amount by the second weighting coefficient is calculated as the evaluation value. Similarly, when the route setting unit 33 sets the planned travel route using the second detection result, the route setting unit 33 multiplies the average value of the certainty of each object detected in the second detection result by the first weighting coefficient. The sum of the above values and the value obtained by multiplying the reciprocal of the total sum deviation amount by the second weighting coefficient is calculated as the evaluation value. In addition, either one of the first weighting coefficient and the second weighting coefficient may be set to zero. Further, the route setting unit 33 may calculate the total deviation amount by referring to the high-precision map and specifying the lane through which the planned travel route of the vehicle 10 passes.

経路設定部33は、第1の検出結果及び第2の検出結果のうち、先に走行予定経路の設定に利用した方の検出結果をメモリ22から読み出してからの経過時間が許容最大遅延(例えば、100ms)に達する前に、メモリ22に他方の検出結果が書き込まれているか否か確認する。他方の検出結果が書き込まれていれば、経路設定部33は、その他方の検出結果をメモリ22から読み出して、他方の検出結果に基づいて走行予定経路を設定するとともにその走行予定経路の評価値を算出する。そして経路設定部33は、第1の検出結果に基づいて設定された走行予定経路と第2の検出結果に基づいて設定された走行予定経路のうち、評価値が高い方の走行予定経路を車両制御部34へ出力する。これにより、経路設定部33は、第1の検出結果及び第2の検出結果のうち、何れか一方でもメモリ22に書き込まれていれば、走行予定経路の設定処理を開始できるので、車両制御処理全体としての遅延を低減することができる。 The route setting unit 33 has a maximum allowable delay (for example, the elapsed time since the memory 22 reads the detection result of the first detection result and the second detection result that was used for setting the planned travel route first. , 100ms), it is confirmed whether or not the other detection result is written in the memory 22. If the other detection result is written, the route setting unit 33 reads the other detection result from the memory 22, sets the planned travel route based on the other detection result, and evaluates the travel schedule route. Is calculated. Then, the route setting unit 33 selects the planned travel route having the higher evaluation value among the planned travel route set based on the first detection result and the planned travel route set based on the second detection result. Output to the control unit 34. As a result, if either of the first detection result and the second detection result is written in the memory 22, the route setting unit 33 can start the setting process of the planned travel route, and thus the vehicle control process. The delay as a whole can be reduced.

なお、経路設定部33は、第1の検出結果及び第2の検出結果のうちの先に用いられた検出結果に基づいて設定された走行予定経路の評価値が、車両10を安全に走行させることが可能と想定される評価閾値以上となる場合には、その走行予定経路を車両制御部34へ出力してもよい。そして経路設定部33は、第1の検出結果及び第2の検出結果のうちの他方について走行予定経路の設定に関する処理を実行せず、単にメモリ22から消去してもよい。これにより、経路設定部33は、他方の検出結果に基づく走行予定経路の設定処理を省略できるので、走行予定経路をより早く出力できるとともに、演算量を削減することができる。 In the route setting unit 33, the evaluation value of the planned travel route set based on the detection result used earlier among the first detection result and the second detection result causes the vehicle 10 to travel safely. If the evaluation threshold value or more is assumed to be possible, the planned travel route may be output to the vehicle control unit 34. Then, the route setting unit 33 may simply erase from the memory 22 without executing the process related to the setting of the planned travel route for the other of the first detection result and the second detection result. As a result, the route setting unit 33 can omit the setting process of the planned travel route based on the other detection result, so that the planned travel route can be output faster and the calculation amount can be reduced.

また、経路設定部33は、経過時間が許容最大遅延に達しても、メモリ22に他方の検出結果が書き込まれていない場合には、第1の検出結果及び第2の検出結果のうちの先に用いられた検出結果に基づいて設定された走行予定経路を車両制御部34へ出力する。これにより、画像または測距信号の何れかに関して、車両10の周囲の物体の検出に時間が掛かり過ぎた場合でも、経路設定部33は、遅滞なく走行予定経路を車両制御部34へ出力することができる。 Further, when the other detection result is not written in the memory 22 even if the elapsed time reaches the allowable maximum delay, the route setting unit 33 is ahead of the first detection result and the second detection result. The planned travel route set based on the detection result used in is output to the vehicle control unit 34. As a result, even if it takes too much time to detect an object around the vehicle 10 with respect to either an image or a distance measurement signal, the route setting unit 33 outputs the planned travel route to the vehicle control unit 34 without delay. Can be done.

図4(a)及び図4(b)は、それぞれ、経路設定部33による、各検出結果に対する走行予定経路設定処理の実行タイミングの概要を説明する図である。図4(a)及び図4(b)において横軸は時間を表す。 4 (a) and 4 (b) are diagrams for explaining the outline of the execution timing of the planned travel route setting process for each detection result by the route setting unit 33, respectively. In FIGS. 4 (a) and 4 (b), the horizontal axis represents time.

図4(a)に示される例では、時刻t1の時点で、経路設定部33は、走行予定経路設定処理を開始する。この時点で、メモリ22には、第1の検出結果が書き込まれている。そのため、経路設定部33は、メモリ22から第1の検出結果を読み出して、第1の検出結果に基づいて走行予定経路設定処理を実行して、走行予定経路(第1の処理結果)を設定する。 In the example shown in FIG. 4A, the route setting unit 33 starts the planned travel route setting process at the time t1. At this point, the first detection result is written in the memory 22. Therefore, the route setting unit 33 reads the first detection result from the memory 22, executes the planned travel route setting process based on the first detection result, and sets the planned travel route (first processing result). do.

その後、時刻t1からの経過時間が許容最大遅延Dmaxに達するよりも前の時刻t2にて、第2の検出結果がメモリ22に書き込まれる。さらにその後、時刻t3にて、経路設定部33がメモリ22を参照して、第2の検出結果をメモリ22から読み出し、第2の検出結果に基づいて走行予定経路設定処理を実行して、走行予定経路(第2の処理結果)を設定する。そして経路設定部33は、第1の検出結果に基づいて設定された走行予定経路と第2の検出結果に基づいて設定された走行予定経路のうち、評価値が高い方の走行予定経路を出力する。ただし、上記のように、第1の検出結果に基づく走行予定経路の評価値が評価閾値以上である場合には、経路設定部33は、第2の検出結果に基づく走行予定経路設定処理を実行せずに、第1の検出結果に基づく走行予定経路を出力してもよい。 After that, the second detection result is written to the memory 22 at the time t2 before the elapsed time from the time t1 reaches the allowable maximum delay Dmax. After that, at time t3, the route setting unit 33 refers to the memory 22, reads the second detection result from the memory 22, executes the planned travel route setting process based on the second detection result, and travels. Set the scheduled route (second processing result). Then, the route setting unit 33 outputs the planned travel route having the higher evaluation value among the planned travel route set based on the first detection result and the planned travel route set based on the second detection result. do. However, as described above, when the evaluation value of the planned travel route based on the first detection result is equal to or higher than the evaluation threshold value, the route setting unit 33 executes the planned travel route setting process based on the second detection result. Instead, the planned travel route based on the first detection result may be output.

図4(b)に示される例でも、時刻t1の時点で、経路設定部33は、走行予定経路設定処理を開始する。この時点で、メモリ22には、第1の検出結果が書き込まれている。そのため、経路設定部33は、メモリ22から第1の検出結果を読み出して、第1の検出結果に基づいて走行予定経路設定処理を実行する。しかし、この例では、時刻t1からの経過時間が許容最大遅延Dmaxに達しても、メモリ22に第2の検出結果が書き込まれていない。そのため、その経過時間が許容最大遅延Dmaxに達した時点で、経路設定部33は、第1の検出結果に基づく走行予定経路を出力する。 Even in the example shown in FIG. 4B, the route setting unit 33 starts the planned travel route setting process at the time t1. At this point, the first detection result is written in the memory 22. Therefore, the route setting unit 33 reads the first detection result from the memory 22 and executes the planned travel route setting process based on the first detection result. However, in this example, the second detection result is not written in the memory 22 even if the elapsed time from the time t1 reaches the allowable maximum delay Dmax. Therefore, when the elapsed time reaches the allowable maximum delay Dmax, the route setting unit 33 outputs the planned travel route based on the first detection result.

図5は、本実施形態による演算処理の一例である、経路設定部33による走行予定経路設定処理の動作フローチャートである。 FIG. 5 is an operation flowchart of the planned travel route setting process by the route setting unit 33, which is an example of the calculation process according to the present embodiment.

経路設定部33は、メモリ22の検出結果保持用のメモリ領域を参照して、メモリ22に、第1の検出結果及び第2の検出結果の少なくとも一方が書き込まれているか否か確認する(ステップS101)。何れの検出結果もメモリ22に書き込まれていない場合(ステップS101-No)、経路設定部33は、所定時間経過後に、ステップS101の処理を再度実行する。 The route setting unit 33 refers to the memory area for holding the detection result of the memory 22 and confirms whether or not at least one of the first detection result and the second detection result is written in the memory 22 (step). S101). When none of the detection results is written in the memory 22 (step S101-No), the route setting unit 33 re-executes the process of step S101 after the elapse of a predetermined time.

一方、第1の検出結果及び第2の検出結果の少なくとも一方がメモリ22に書き込まれている場合(ステップS101-Yes)、経路設定部33は、メモリ22からその一方の検出結果を読み出し、読み出した検出結果に基づいて走行予定経路(第1の処理結果)を設定するとともに、その走行予定経路の評価値を算出する(ステップS102)。そして経路設定部33は、評価値が評価閾値以上か否か判定する(ステップS103)。評価値が評価閾値以上であれば(ステップS103-Yes)、経路設定部33は、設定した走行予定経路を車両制御部34へ出力して(ステップS104)、走行予定経路設定処理を終了する。 On the other hand, when at least one of the first detection result and the second detection result is written in the memory 22 (step S101-Yes), the route setting unit 33 reads the detection result of the other from the memory 22 and reads it out. The planned travel route (first processing result) is set based on the detection result, and the evaluation value of the planned travel route is calculated (step S102). Then, the route setting unit 33 determines whether or not the evaluation value is equal to or higher than the evaluation threshold value (step S103). If the evaluation value is equal to or greater than the evaluation threshold value (step S103-Yes), the route setting unit 33 outputs the set travel schedule route to the vehicle control unit 34 (step S104), and ends the travel schedule route setting process.

一方、評価値が評価閾値未満である場合(ステップS103-No)、経路設定部33は、メモリ22を再度参照して、第1の検出結果及び第2の検出結果の他方がメモリ22に書き込まれているか否か確認する(ステップS105)。他方の検出結果がメモリ22に書き込まれていない場合(ステップS105-No)、経路設定部33は、ステップS102にて一方の検出結果をメモリ22から読み出してからの経過時間が許容最大遅延に達したか否か判定する(ステップS106)。 On the other hand, when the evaluation value is less than the evaluation threshold value (step S103-No), the route setting unit 33 refers to the memory 22 again, and the other of the first detection result and the second detection result is written in the memory 22. It is confirmed whether or not it is satisfied (step S105). When the other detection result is not written in the memory 22 (step S105-No), the route setting unit 33 reaches the allowable maximum delay after reading one detection result from the memory 22 in step S102. It is determined whether or not it has been done (step S106).

経過時間が許容最大遅延に達している場合(ステップS106-Yes)、経路設定部33は、先にメモリ22から読み出された検出結果に基づいて設定された走行予定経路を車両制御部34へ出力して(ステップS104)、走行予定経路設定処理を終了する。 When the elapsed time has reached the allowable maximum delay (step S106-Yes), the route setting unit 33 transfers the planned travel route set based on the detection result previously read from the memory 22 to the vehicle control unit 34. It is output (step S104), and the planned travel route setting process is completed.

一方、経過時間が許容最大遅延に達していない場合(ステップS106-No)、経路設定部33は、所定時間経過後に、ステップS105以降の処理を再度実行する。 On the other hand, when the elapsed time has not reached the allowable maximum delay (step S106-No), the route setting unit 33 re-executes the processes after step S105 after the elapse of the predetermined time.

また、ステップS105において、他方の検出結果がメモリ22に書き込まれている場合(ステップS105-Yes)、メモリ22からその他方の検出結果を読み出し、読み出した検出結果に基づいて走行予定経路(第2の処理結果)を設定するとともに、その走行予定経路の評価値を算出する(ステップS107)。そして経路設定部33は、第1の検出結果に基づいて設定された走行予定経路と第2の検出結果に基づいて設定された走行予定経路のうち、評価値が高い方の走行予定経路を車両制御部34へ出力する(ステップS108)。そして経路設定部33は、走行経路設定処理を終了する。 Further, in step S105, when the other detection result is written in the memory 22 (step S105-Yes), the other detection result is read from the memory 22, and the planned travel route (second) is based on the read detection result. (Processing result of) is set, and the evaluation value of the planned travel route is calculated (step S107). Then, the route setting unit 33 selects the planned travel route having the higher evaluation value among the planned travel route set based on the first detection result and the planned travel route set based on the second detection result. Output to the control unit 34 (step S108). Then, the route setting unit 33 ends the travel route setting process.

車両制御部34は、走行予定経路を受け取ると、車両10がその走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部34は、走行予定経路、及び、車速センサ(図示せず)により測定された車両10の現在の車速に従って、車両10の目標加速度を求め、その目標加速度となるようにアクセル開度またはブレーキ量を設定する。そして車両制御部34は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置へ出力する。あるいは、車両制御部34は、設定されたブレーキ量に応じた制御信号を車両10のブレーキへ出力する。 Upon receiving the planned travel route, the vehicle control unit 34 controls each unit of the vehicle 10 so that the vehicle 10 travels along the planned travel route. For example, the vehicle control unit 34 obtains the target acceleration of the vehicle 10 according to the planned travel route and the current vehicle speed of the vehicle 10 measured by the vehicle speed sensor (not shown), and opens the accelerator so as to be the target acceleration. Set the degree or brake amount. Then, the vehicle control unit 34 obtains the fuel injection amount according to the set accelerator opening degree, and outputs a control signal corresponding to the fuel injection amount to the fuel injection device of the engine of the vehicle 10. Alternatively, the vehicle control unit 34 outputs a control signal according to the set brake amount to the brake of the vehicle 10.

さらに、車両制御部34は、車両10が走行予定経路に沿って走行するために車両10の進路を変更する場合には、その走行予定経路に従って車両10の操舵角を求め、その操舵角に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。 Further, when the vehicle 10 changes the course of the vehicle 10 in order to travel along the planned travel route, the vehicle control unit 34 obtains the steering angle of the vehicle 10 according to the planned travel route, and responds to the steering angle. The control signal is output to an actuator (not shown) that controls the steering wheel of the vehicle 10.

図6は、プロセッサ23により実行される、走行予定経路設定処理を含む車両制御処理の動作フローチャートである。 FIG. 6 is an operation flowchart of a vehicle control process including a planned travel route setting process executed by the processor 23.

プロセッサ23の第1の物体検出部31は、カメラ2により生成された画像に表された車両10の周囲の物体を検出し、その検出結果(第1の検出結果)をメモリ22に書き込む(ステップS201)。また、プロセッサ23の第2の物体検出部32は、距離センサ3により生成された測距信号に表された車両10の周囲の物体を検出し、その検出結果(第2の検出結果)をメモリ22に書き込む(ステップS202)。 The first object detection unit 31 of the processor 23 detects an object around the vehicle 10 represented by the image generated by the camera 2, and writes the detection result (first detection result) into the memory 22 (step). S201). Further, the second object detection unit 32 of the processor 23 detects an object around the vehicle 10 represented by the distance measurement signal generated by the distance sensor 3, and stores the detection result (second detection result) in the memory. Write to 22 (step S202).

プロセッサ23の経路設定部33は、メモリ22から読み出した、第1の検出結果及び第2の検出結果の少なくとも一方に基づいて走行予定経路を設定する(ステップS203)。そしてプロセッサ23の車両制御部34は、設定された走行予定経路に沿って車両10が走行するように車両10の各部を制御する(ステップS204)。そしてプロセッサ23は、車両制御処理を終了する。 The route setting unit 33 of the processor 23 sets the planned travel route based on at least one of the first detection result and the second detection result read from the memory 22 (step S203). Then, the vehicle control unit 34 of the processor 23 controls each unit of the vehicle 10 so that the vehicle 10 travels along the set planned travel route (step S204). Then, the processor 23 ends the vehicle control process.

以上に説明してきたように、この演算装置は、処理対象となる複数のデータのそれぞれに対して実行される所定の処理に関して、その複数のデータのうちの何れか一つでもメモリに書き込まれていると、その書込まれているデータに対してその所定の処理を実行する。そしてこの演算装置は、他方のデータがメモリに書き込まれると、他方のデータに対してもその所定の処理を実行する。そしてこの演算装置は、得られた演算結果の何れかを出力する。そのため、この演算装置は、複数のデータが揃わなくても所定の処理を開始できるので、処理全体としての遅延を低減することができる。 As described above, this arithmetic unit writes any one of the plurality of data to the memory with respect to the predetermined processing executed for each of the plurality of data to be processed. If so, the predetermined processing is executed for the written data. Then, when the other data is written to the memory, the arithmetic unit also executes the predetermined processing on the other data. Then, this arithmetic unit outputs any of the obtained arithmetic results. Therefore, since this arithmetic unit can start a predetermined process even if a plurality of data are not prepared, the delay of the entire process can be reduced.

上記の実施形態では、処理対象となるデータは2種類であったが、処理対象となるデータは3種類以上存在してもよい。例えば、車両10が、焦点距離または撮影方向の異なる3台以上のカメラを有している場合、経路設定部33は、カメラごとに得られた画像からの物体の検出結果に基づいて走行予定経路を設定してもよい。この場合も、上記の実施形態と同様に、経路設定部33は、何れかのカメラからの画像に対する物体の第1の検出結果がメモリ22に書き込まれると、その第1の検出結果に対して走行予定経路の設定を開始する。また、経路設定部33は、その後に他のカメラからの画像に対する物体の第2の検出結果がメモリ22に書き込まれると、第2の検出結果に対しても走行予定経路の設定を開始すればよい。そして経路設定部33は、各走行予定経路の評価値に基づいて、評価値が最も高い走行予定経路を出力すればよい。 In the above embodiment, there are two types of data to be processed, but there may be three or more types of data to be processed. For example, when the vehicle 10 has three or more cameras having different focal lengths or shooting directions, the route setting unit 33 determines the planned travel route based on the detection result of the object from the image obtained for each camera. May be set. Also in this case, as in the above embodiment, when the first detection result of the object for the image from any camera is written in the memory 22, the route setting unit 33 receives the first detection result. Start setting the planned travel route. Further, when the second detection result of the object for the image from another camera is subsequently written in the memory 22, the route setting unit 33 may start setting the planned travel route for the second detection result as well. good. Then, the route setting unit 33 may output the planned travel route having the highest evaluation value based on the evaluation value of each planned travel route.

この演算装置は、車両制御システム以外に適用されてもよい。この演算装置は、互いに非同期に実行される複数の他の処理部のそれぞれから得られるデータに対して、それらの前処理とは独立して所定の処理を実行する様々な装置またはシステムに適用することが可能である。その際、他の処理部が実装される装置と、この演算装置とは、有線または無線による通信ネットワークを介して通信可能に接続されていてもよい。そして他の処理部が実装される装置から、通信ネットワークを介して、この演算装置の記憶部に、データが書き込まれてもよい。 This arithmetic unit may be applied to other than the vehicle control system. This arithmetic unit is applied to various devices or systems that perform predetermined processing independently of their preprocessing for data obtained from each of a plurality of other processing units that are executed asynchronously with each other. It is possible. At that time, the device on which the other processing unit is mounted and the arithmetic unit may be communicably connected via a wired or wireless communication network. Then, data may be written from a device on which another processing unit is mounted to a storage unit of this arithmetic unit via a communication network.

以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various changes within the scope of the present invention according to the embodiment.

1 車両制御システム
2 カメラ
3 距離センサ
4 電子制御装置(演算装置)
21 通信インターフェース
22 メモリ
23 プロセッサ
31 第1の物体検出部
32 第2の物体検出部
33 経路設定部(処理部)
34 車両制御部
1 Vehicle control system 2 Camera 3 Distance sensor 4 Electronic control device (arithmetic device)
21 Communication interface 22 Memory 23 Processor 31 First object detection unit 32 Second object detection unit 33 Route setting unit (processing unit)
34 Vehicle control unit

Claims (1)

少なくとも二つのデータのそれぞれに対して所定の処理を実行する処理部と、
少なくとも一つの他の処理部から出力された前記少なくとも二つのデータを保持する記憶部とを有し、
前記処理部は、前記記憶部に前記少なくとも二つのデータの何れかが書き込まれると、前記少なくとも二つのデータのうちの他のデータが前記記憶部に書き込まれていなくても、当該書き込まれたデータに対して前記所定の処理を実行して第1の処理結果を算出し、前記他のデータが前記記憶部に書き込まれると当該他のデータに対して前記所定の処理を実行して第2の処理結果を算出し、前記第1の処理結果と前記第2の処理結果の何れかを出力する、
演算装置。
A processing unit that executes predetermined processing for each of at least two data,
It has a storage unit that holds at least the two data output from at least one other processing unit, and has a storage unit.
When any of the at least two data is written to the storage unit, the processing unit may write the written data even if the other data of the at least two data is not written to the storage unit. When the other data is written to the storage unit, the predetermined process is executed on the other data to calculate the first process result, and the second process is executed. The processing result is calculated, and either the first processing result or the second processing result is output.
Arithmetic logic unit.
JP2020184615A 2020-11-04 2020-11-04 Calculation device Pending JP2022074513A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020184615A JP2022074513A (en) 2020-11-04 2020-11-04 Calculation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020184615A JP2022074513A (en) 2020-11-04 2020-11-04 Calculation device

Publications (1)

Publication Number Publication Date
JP2022074513A true JP2022074513A (en) 2022-05-18

Family

ID=81606275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020184615A Pending JP2022074513A (en) 2020-11-04 2020-11-04 Calculation device

Country Status (1)

Country Link
JP (1) JP2022074513A (en)

Similar Documents

Publication Publication Date Title
US11308717B2 (en) Object detection device and object detection method
JP7388971B2 (en) Vehicle control device, vehicle control method, and vehicle control computer program
JP2020052694A (en) Object detection apparatus, object detection method, and computer program for object detection
CN113435237B (en) Object state recognition device, recognition method, and computer-readable recording medium, and control device
JP2020067698A (en) Partition line detector and partition line detection method
JP7276282B2 (en) OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND COMPUTER PROGRAM FOR OBJECT DETECTION
CN114103954B (en) Travel lane planning device, storage medium, and travel lane planning method
US20210406082A1 (en) Apparatus and method for managing resource
JP2021081272A (en) Position estimating device and computer program for position estimation
JP7435513B2 (en) Vehicle control device and vehicle control method
JP2021043047A (en) Scheduled travel route notifying device
JP7463997B2 (en) Vehicle control device, vehicle control method, and vehicle control computer program
JP2022074513A (en) Calculation device
JP2023152109A (en) Feature detection device, feature detection method and computer program for detecting feature
JP7095559B2 (en) Bound line detection device and lane marking method
JP2022154933A (en) Vehicle control device, computer program for vehicle control and vehicle control method
JP2021026683A (en) Distance estimation apparatus
JP7302615B2 (en) Driving support device, driving support method, and driving support computer program
US20240077320A1 (en) Vehicle controller, method, and computer program for vehicle control
US20230177843A1 (en) Object assessment device, storage medium storing computer program for object assessment, and object assessment method
EP4063218A1 (en) Vehicle controller, and method and computer program for controlling vehicle
US20240017748A1 (en) Device, method, and computer program for lane determination
US20240067227A1 (en) Vehicle control device, storage medium storing computer program for vehicle control, and method for controlling vehicle
JP2022079954A (en) Object detection apparatus
JP2022146384A (en) Object detection device