JP2020050047A - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP2020050047A
JP2020050047A JP2018179448A JP2018179448A JP2020050047A JP 2020050047 A JP2020050047 A JP 2020050047A JP 2018179448 A JP2018179448 A JP 2018179448A JP 2018179448 A JP2018179448 A JP 2018179448A JP 2020050047 A JP2020050047 A JP 2020050047A
Authority
JP
Japan
Prior art keywords
vehicle
network
partial
satisfied
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018179448A
Other languages
Japanese (ja)
Inventor
公太 平野
Kota Hirano
公太 平野
大輔 橋本
Daisuke Hashimoto
大輔 橋本
聡 武安
Satoshi Takeyasu
聡 武安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018179448A priority Critical patent/JP2020050047A/en
Publication of JP2020050047A publication Critical patent/JP2020050047A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

To provide an object detection device which can improve the detection accuracy of an object when a prescribed condition is satisfied while suppressing the lowering of the detection accuracy of the object when the prescribed condition is not satisfied.SOLUTION: An object detection device detects an object existing around a vehicle 10 by inputting a sensor signal from a sensor 2 into a neural network (NN), a first partial network out of a plurality of partial networks possessed by at least one layer of the NN is made to perform learning in advance so as to detect the object when a prescribed condition related to the vehicle 10 is satisfied, and the other partial network has a detection part 33 which is made to perform learning in advance so as to detect the object even if the prescribed condition is not satisfied, and a network control part 32 for controlling the NN so as to use the first partial network for the detection of the object when the prescribed condition is satisfied, and on the other hand, when the prescribed condition is not satisfied, not to use the first partial network for the detection of the object.SELECTED DRAWING: Figure 3

Description

本発明は、物体を検出する物体検出装置に関する。   The present invention relates to an object detection device that detects an object.

画像に表された物体を検出する技術が研究されている。近年では、物体を検出するために、いわゆるディープニューラルネットワーク(以下、単にDNNと呼ぶ)を用いることで、検出精度を向上する技術が提案されている(例えば、非特許文献1及び2を参照)。   Techniques for detecting an object represented in an image have been studied. In recent years, a technique for improving detection accuracy by using a so-called deep neural network (hereinafter simply referred to as DNN) to detect an object has been proposed (for example, see Non-Patent Documents 1 and 2). .

このような技術では、既知の物体が表された多数の画像を教師データとして用いてDNNを学習することで、DNNが入力された画像上に表されたその既知の物体を高精度に検出できるようになる。しかし、教師データとして利用可能な画像の数が少ない物体が検出対象となることがある。そこで、予め学習されたDNNの学習済みのパラメータセットを初期値として、比較的数が少ない特定の物体が表された教師データに対してDNNを再学習することで、その特定の物体に対するDNNの検出精度を向上する技術が提案されている(例えば、非特許文献3を参照)。このような技術は、fine-tuningとも呼ばれる。   In such a technique, by learning DNN using a large number of images representing a known object as teacher data, the known object represented on the input image of the DNN can be detected with high accuracy. Become like However, an object having a small number of images usable as teacher data may be a detection target. Therefore, by using the learned parameter set of the previously learned DNN as an initial value, the DNN is re-learned with respect to the teacher data representing a relatively small number of specific objects, so that the DNN of the specific object is A technique for improving detection accuracy has been proposed (for example, see Non-Patent Document 3). Such a technique is also called fine-tuning.

Wei Liu他、「SSD: Single Shot MultiBox Detector」、ECCV2016、2016年Wei Liu et al., "SSD: Single Shot MultiBox Detector", ECCV2016, 2016 Shaoqing Ren他、「Faster R-CNN: Towards Real-Time ObjectDetection with Region Proposal Networks」、NIPS、2015年Shaoqing Ren et al., `` Faster R-CNN: Towards Real-Time ObjectDetection with Region Proposal Networks '', NIPS, 2015 Filip Radenovic他、「CNN Image Retrieval Learns from BoW: Unsupervised Fine-Tuning with Hard Examples」、ECCV2016、2016年Filip Radenovic et al., `` CNN Image Retrieval Learns from BoW: Unsupervised Fine-Tuning with Hard Examples '', ECCV2016, 2016

Fine-tuningでは、DNNが有する複数の層のうちの特定の層全体が再学習されることがある。しかしながら、特定の層全体が再学習されると、DNNを再学習する際に用いられた教師データに対してDNNがover-fittingしてしまい、事前に学習された教師データにおいて表された物体に対しては検出精度が低下してしまうことがあった。   In fine-tuning, the entire specific layer of the plurality of layers of the DNN may be re-learned. However, when the entire specific layer is re-learned, the DNN over-fits the teacher data used in re-learning the DNN, and the object represented in the previously learned teacher data is On the other hand, the detection accuracy may be reduced.

そこで、本発明は、所定の条件が満たされない場合における、物体の検出精度の低下を抑制しつつ、その所定の条件が満たされる場合における、物体の検出精度を向上できる物体検出装置を提供することを目的とする。   Therefore, the present invention provides an object detection device that can improve the detection accuracy of an object when the predetermined condition is satisfied, while suppressing a decrease in the detection accuracy of the object when the predetermined condition is not satisfied. With the goal.

一つの実施形態によれば、物体検出装置が提供される。この物体検出装置は、車両に搭載されたセンサから得られるセンサ信号をニューラルネットワークに入力することで車両の周囲に存在する物体を検出し、ニューラルネットワークは、センサ信号が入力される入力層と、物体の検出結果を出力する出力層と、入力層と出力層との間に接続される複数の層とを有し、複数の層のうちの少なくとも一つの層は、同一の構造を持ち、かつ、その層に入力される信号に対して互いに並列に演算する複数の部分ネットワークを有し、複数の部分ネットワークのうちの第1の部分ネットワークは、車両に関する所定の条件が満たされる場合において物体を検出するよう予め学習され、かつ、複数の部分ネットワークのうちの第1の部分ネットワーク以外の部分ネットワークは、所定の条件が満たされない場合にも物体を検出するよう予め学習される検出部と、車両に関する所定の条件が満たされる場合、物体の検出に第1の部分ネットワークを用い、一方、車両に関する所定の条件が満たされない場合、物体の検出に第1の部分ネットワークを用いないよう、ニューラルネットワークを制御するネットワーク制御部とを有する。   According to one embodiment, an object detection device is provided. This object detection device detects an object existing around the vehicle by inputting a sensor signal obtained from a sensor mounted on the vehicle to a neural network, and the neural network has an input layer to which the sensor signal is input, An output layer that outputs a detection result of the object, and a plurality of layers connected between the input layer and the output layer, at least one of the plurality of layers has the same structure, and Has a plurality of partial networks that operate on a signal input to the layer in parallel with each other, and a first partial network of the plurality of partial networks is configured to detect an object when a predetermined condition regarding a vehicle is satisfied. The sub-networks that have been learned in advance to detect the sub-networks other than the first sub-network among the plurality of sub-networks do not satisfy a predetermined condition. Also, a detection unit that is learned in advance to detect an object and a first partial network used to detect an object when a predetermined condition regarding a vehicle is satisfied. On the other hand, when a predetermined condition regarding a vehicle is not satisfied, And a network control unit for controlling the neural network so that the first partial network is not used for detection of.

本発明に係る物体検出装置は、所定の条件が満たされない場合における、物体の検出精度の低下を抑制しつつ、その所定の条件が満たされる場合における、物体の検出精度を向上できるという効果を奏する。   ADVANTAGE OF THE INVENTION The object detection apparatus which concerns on this invention has the effect that the detection accuracy of an object can be improved when the predetermined condition is satisfy | filled, suppressing the fall of the object detection accuracy when a predetermined condition is not satisfied. .

物体検出装置が実装される車両制御システムの概略構成図である。1 is a schematic configuration diagram of a vehicle control system in which an object detection device is mounted. 物体検出装置の一つの実施形態である電子制御装置のハードウェア構成図である。FIG. 2 is a hardware configuration diagram of an electronic control device that is one embodiment of the object detection device. 物体検出処理を含む車両制御処理に関する、電子制御装置のプロセッサの機能ブロック図である。FIG. 4 is a functional block diagram of a processor of the electronic control device regarding a vehicle control process including an object detection process. 識別器として利用されるDNNが有する可変層の概略構成図である。It is a schematic structure figure of a variable layer which DNN used as a discriminator has. 識別器制御部により実行される識別器制御処理の動作フローチャートである。6 is an operation flowchart of a discriminator control process executed by a discriminator control unit. 物体検出処理を含む車両制御処理の動作フローチャートである。5 is an operation flowchart of a vehicle control process including an object detection process.

以下、図を参照しつつ、物体検出装置について説明する。この物体検出装置は、車両に搭載されたカメラにより得られた画像から、車両の周囲に存在する物体を検出するための識別器としてDNNを利用する。物体検出装置が利用するDNNは、画像が入力される入力層と、物体の検出結果を出力する出力層と、入力層と出力層との間に接続される複数の隠れ層とを有し、複数の隠れ層のうちの少なくとも一つの層は、同一の構造を持ち、かつ、その隠れ層に入力される信号に対して互いに並列に演算する複数の部分ネットワークを有する。そして複数の部分ネットワークのうちの第1の部分ネットワークは、車両に関する所定の条件が満たされる場合において物体を検出するよう予め学習され、かつ、複数の部分ネットワークのうちの第1の部分ネットワーク以外の部分ネットワークは、所定の条件が満たされない場合にも物体を検出するよう予め学習される。そしてこの物体検出装置は、所定の条件が満たされる場合には、第1の部分ネットワークを他の部分ネットワークとともに利用することで、その所定の条件が満たされる場合における物体の検出精度を向上し、一方、所定の条件が満たされない場合には、第1の部分ネットワークを用いないことで、物体の検出精度の低下を抑制する。   Hereinafter, the object detection device will be described with reference to the drawings. This object detection device uses a DNN as a discriminator for detecting an object existing around a vehicle from an image obtained by a camera mounted on the vehicle. The DNN used by the object detection device has an input layer to which an image is input, an output layer to output a detection result of the object, and a plurality of hidden layers connected between the input layer and the output layer, At least one of the plurality of hidden layers has the same structure and includes a plurality of partial networks that operate on signals input to the hidden layer in parallel with each other. Then, a first partial network of the plurality of partial networks is previously learned to detect an object when a predetermined condition regarding the vehicle is satisfied, and a first partial network of the plurality of partial networks other than the first partial network is included. The partial network is learned in advance to detect an object even when a predetermined condition is not satisfied. When the predetermined condition is satisfied, the object detection device uses the first partial network together with another partial network to improve the detection accuracy of the object when the predetermined condition is satisfied, On the other hand, when the predetermined condition is not satisfied, the first partial network is not used, thereby suppressing a decrease in object detection accuracy.

以下では、物体検出装置を、車両制御システムに適用した例について説明する。この例では、物体検出装置は、車両に搭載されたカメラにより得られた画像に対して物体検出処理を実行することで、車両の周囲に存在する各種の物体、例えば、他の車両、人、道路標識または道路標示などを検出し、その検出結果に基づいて車両を自動運転制御する。また、この例では、所定の条件は、車両自身の走行回数が所定数以上となる地域に車両の現在位置が含まれることである。   Hereinafter, an example in which the object detection device is applied to a vehicle control system will be described. In this example, the object detection device performs an object detection process on an image obtained by a camera mounted on the vehicle, so that various objects existing around the vehicle, for example, other vehicles, people, A road sign or a road sign is detected, and the vehicle is automatically driven based on the detection result. In this example, the predetermined condition is that the current position of the vehicle is included in an area where the number of times the vehicle itself travels is equal to or more than the predetermined number.

図1は、物体検出装置が実装される車両制御システムの概略構成図である。また図2は、物体検出装置の一つの実施形態である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、測位情報受信機3と、物体検出装置の一例である電子制御装置(ECU)4とを有する。カメラ2と、測位情報受信機3と、ECU4とは、コントローラエリアネットワークといった規格に準拠した車内ネットワーク5を介して通信可能に接続される。   FIG. 1 is a schematic configuration diagram of a vehicle control system in which the object detection device is mounted. FIG. 2 is a hardware configuration diagram of an electronic control device which is one embodiment of the object detection device. In the present embodiment, the vehicle control system 1 mounted on the vehicle 10 and controlling the vehicle 10 is an example of a camera 2 for photographing the periphery of the vehicle 10, a positioning information receiver 3, and an object detection device. A certain electronic control unit (ECU) 4. The camera 2, the positioning information receiver 3, and the ECU 4 are communicably connected via an in-vehicle network 5 conforming to a standard such as a controller area network.

カメラ2は、所定の検知範囲内に存在する物体を検出するためのセンサである撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒〜1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。なお、カメラ2により生成された画像は、センサ信号の一例である。   The camera 2 is an example of an imaging unit that is a sensor for detecting an object present within a predetermined detection range, and is configured by an array of photoelectric conversion elements having sensitivity to visible light, such as a CCD or a C-MOS. It has a two-dimensional detector and an imaging optical system that forms an image of a region to be photographed on the two-dimensional detector. The camera 2 is mounted, for example, in the cabin of the vehicle 10 so as to face the front of the vehicle 10. Then, the camera 2 captures an image of the front area of the vehicle 10 at a predetermined shooting cycle (for example, 1/30 to 1/10 seconds), and generates an image including the front area. The image obtained by the camera 2 may be a color image or a gray image. The image generated by the camera 2 is an example of a sensor signal.

カメラ2は、画像を生成する度に、その生成した画像を、車内ネットワーク5を介してECU4へ出力する。   Each time the camera 2 generates an image, the camera 2 outputs the generated image to the ECU 4 via the in-vehicle network 5.

測位情報受信機3は、測位部の一例であり、車両10の現在位置を表す測位情報を所定の周期ごとに取得する。例えば、測位情報受信機3は、GPS受信機とすることができる。そして測位情報受信機3は、測位情報を取得する度に、取得した測位情報を、車内ネットワーク5を介してECU4へ出力する。   The positioning information receiver 3 is an example of a positioning unit, and acquires positioning information indicating the current position of the vehicle 10 at predetermined intervals. For example, the positioning information receiver 3 can be a GPS receiver. Each time the positioning information receiver 3 acquires the positioning information, the positioning information receiver 3 outputs the acquired positioning information to the ECU 4 via the in-vehicle network 5.

ECU4は、車両10を制御する。本実施形態では、ECU4は、カメラ2により得られた時系列の一連の画像から検出された物体に基づいて車両10を自動運転するよう、車両10を制御する。そのために、ECU4は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。   The ECU 4 controls the vehicle 10. In the present embodiment, the ECU 4 controls the vehicle 10 to automatically drive the vehicle 10 based on an object detected from a series of time-series images obtained by the camera 2. To this end, the ECU 4 includes a communication interface 21, a memory 22, and a processor 23.

通信インターフェース21は、通信部の一例であり、ECU4を車内ネットワーク5に接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワーク5を介して、カメラ2と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。   The communication interface 21 is an example of a communication unit, and has an interface circuit for connecting the ECU 4 to the in-vehicle network 5. That is, the communication interface 21 is connected to the camera 2 via the in-vehicle network 5. Then, each time the communication interface 21 receives an image from the camera 2, the communication interface 21 passes the received image to the processor 23.

メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU4のプロセッサ23により実行される物体検出処理において使用される各種のデータ、例えば、カメラ2から受信した画像、物体検出処理で利用される識別器を特定するための各種パラメータ、及び、地域ごとの走行回数などを記憶する。さらに、メモリ22は、地図情報を記憶する。地図情報には、複数の地域のそれぞれの範囲を特定するための情報が含まれる。なお、本実施形態において、走行回数を調べる単位となる地域は、例えば、北海道地方、東京都または大阪市といった、行政区画により区分されるもの、あるいは、平野部または山間部といった、地理的に区分されるもの、あるいはまた、高速道路または幹線道路といった、道路の種類ごとに区分されるものとすることができる。さらに、走行回数を調べる単位となる地域は、それらの組み合わせにより区分されるものであってもよい。   The memory 22 is an example of a storage unit, and includes, for example, a volatile semiconductor memory and a nonvolatile semiconductor memory. The memory 22 stores various data used in the object detection processing executed by the processor 23 of the ECU 4, for example, an image received from the camera 2, various parameters for specifying a classifier used in the object detection processing, Also, the number of times of travel for each area is stored. Further, the memory 22 stores map information. The map information includes information for specifying each range of a plurality of regions. In the present embodiment, the area serving as a unit for checking the number of times of travel is, for example, one that is divided by administrative divisions, such as the Hokkaido region, Tokyo or Osaka, or that is geographically divided, such as a plain or mountainous area. Or may be classified according to the type of road, such as a highway or a highway. Furthermore, the area serving as a unit for checking the number of times of travel may be classified according to a combination thereof.

プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10が走行している間、カメラ2から画像を受信する度に、受信した画像に対して物体検出処理を含む車両制御処理を実行する。そしてプロセッサ23は、検出された車両10の周囲の物体に基づいて、車両10を自動運転するよう、車両10を制御する。   The processor 23 is an example of a control unit, and includes one or a plurality of CPUs (Central Processing Units) and peripheral circuits thereof. The processor 23 may further include another arithmetic circuit such as a logical operation unit, a numerical operation unit, or a graphic processing unit. Then, while the vehicle 10 is traveling, each time an image is received from the camera 2, the processor 23 executes a vehicle control process including an object detection process on the received image. Then, the processor 23 controls the vehicle 10 to automatically drive the vehicle 10 based on the detected object around the vehicle 10.

図3は、物体検出処理を含む車両制御処理に関する、ECU4のプロセッサ23の機能ブロック図である。プロセッサ23は、走行回数更新部31と、識別器制御部32と、物体検出部33と、運転計画部34と、車両制御部35とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、走行回数更新部31、識別器制御部32及び物体検出部33が、物体検出処理を実行する。   FIG. 3 is a functional block diagram of the processor 23 of the ECU 4 regarding the vehicle control processing including the object detection processing. The processor 23 includes a traveling number update unit 31, a discriminator control unit 32, an object detection unit 33, a driving plan unit 34, and a vehicle control unit 35. These units included in the processor 23 are, for example, functional modules realized by a computer program operating on the processor 23. Alternatively, these units included in the processor 23 may be dedicated arithmetic circuits provided in the processor 23. In addition, among these units included in the processor 23, the traveling number update unit 31, the discriminator control unit 32, and the object detection unit 33 execute the object detection process.

走行回数更新部31は、車両10の現在位置に基づいて、地図情報で表された地域ごとの車両10の走行回数を更新する。例えば、走行回数更新部31は、メモリ22に記憶された地図情報に表された複数の地域のうち、測位情報受信機3から受け取った最新の測位情報により表される車両10の現在位置が含まれる地域を特定する。そして走行回数更新部31は、車両10の現在位置が含まれる地域の走行回数を1インクリメントする。   The traveling frequency updating unit 31 updates the traveling frequency of the vehicle 10 for each area represented by the map information based on the current position of the vehicle 10. For example, the traveling frequency update unit 31 includes the current position of the vehicle 10 represented by the latest positioning information received from the positioning information receiver 3 among a plurality of regions represented in the map information stored in the memory 22. Identify areas where Then, the traveling frequency updating unit 31 increments the traveling frequency of the area including the current position of the vehicle 10 by one.

なお、走行回数更新部31は、車両10の1回の走行において一つの地域の走行回数が複数回増加することを抑制するために、走行回数が一旦インクリメントされた地域については、そのインクリメントから所定期間(例えば、6時間、1日あるいは1週間)経過するまで、車両10がその地域に含まれていても、走行回数のインクリメントを行わないようにしてもよい。   In addition, in order to prevent the number of times of travel in one area from increasing a plurality of times in one travel of the vehicle 10, the travel number update unit 31 determines a predetermined number of times for the area in which the number of travels is once incremented. Until the period (for example, 6 hours, 1 day, or 1 week) has elapsed, even if the vehicle 10 is included in the area, the number of times of travel may not be incremented.

識別器制御部32は、ネットワーク制御部の一例であり、車両10に関する所定の条件が満たされるか否か判定し、所定の条件が満たされる場合に、物体検出部33により物体の検出に利用される識別器として用いられるDNNが有する複数の部分ネットワークのうちのその所定の条件に対応する部分ネットワークを物体検出に利用するように制御する。なお、識別器として利用されるDNNは、プロセッサ23上で動作する物体検出処理用のコンピュータプログラムによりソフトウェア的に実装される。しかし、識別器として利用されるDNNは、プロセッサ23が有する専用の演算回路として実装されてもよい。   The discriminator control unit 32 is an example of a network control unit, and determines whether a predetermined condition regarding the vehicle 10 is satisfied. If the predetermined condition is satisfied, the classifier control unit 32 is used by the object detection unit 33 to detect an object. Of the plurality of sub-networks of the DNN used as a discriminator used for the object detection. The DNN used as the discriminator is implemented as software by a computer program for object detection processing that operates on the processor 23. However, the DNN used as the discriminator may be implemented as a dedicated arithmetic circuit included in the processor 23.

本実施形態では、識別器として利用されるDNNは、例えば、Single Shot MultiBox Detector、Faster R-CNN、VGG-19またはAlexNetといった、コンボリューションニューラルネットワーク(CNN)型のアーキテクチャを持つDNNとすることができる。あるいは、識別器として利用されるDNNは、Fully Convolutional Networkといった、入力された画像から、その画像の各画素について、その画素に表される可能性の有る物体を識別するセグメンテーション用のCNNアーキテクチャを持つDNNであってもよい。   In the present embodiment, the DNN used as the discriminator is, for example, a DNN having a convolutional neural network (CNN) type architecture, such as Single Shot MultiBox Detector, Faster R-CNN, VGG-19, or AlexNet. it can. Alternatively, the DNN used as a discriminator has a CNN architecture for segmentation for identifying, for each pixel of the image, an object that may be represented by the pixel, from an input image, such as a Fully Convolutional Network. It may be DNN.

すなわち、本実施形態で識別器として利用されるDNNは、画像が入力される入力層と、物体検出の結果を出力する出力層と、入力層と出力層との間に接続される複数の隠れ層とを有する。そして複数の隠れ層には、畳み込み層及びプーリング層が含まれる。さらに、複数の隠れ層には、全結合層が含まれてもよい。   That is, the DNN used as a discriminator in the present embodiment includes an input layer to which an image is input, an output layer to output a result of object detection, and a plurality of hidden layers connected between the input layer and the output layer. And a layer. The plurality of hidden layers include a convolution layer and a pooling layer. Further, the plurality of hidden layers may include a fully connected layer.

さらに、本実施形態では、DNNが有する入力層または複数の隠れ層のうちの何れか一つ以上の層において、同一の構造を持ち、かつ、その層に入力される信号に対して互いに並列に演算する複数の部分ネットワークが設けられる。なお、複数の部分ネットワークを有する層を、以下では、説明の便宜上、可変層と呼ぶ。また、複数の部分ネットワークが同一の構造を持つとは、その複数の部分ネットワークのそれぞれに入力されるデータが同一であり、かつ、入力されるデータに対して同じ種類の演算(例えば、畳み込み、プーリングなど)を実行することをいう。   Furthermore, in the present embodiment, at least one of the input layer or the plurality of hidden layers of the DNN has the same structure, and signals input to the layer are parallel to each other. A plurality of partial networks for operation are provided. Note that a layer having a plurality of partial networks is hereinafter referred to as a variable layer for convenience of description. Further, that a plurality of sub-networks have the same structure means that data input to each of the plurality of sub-networks is the same, and the same type of operation (for example, convolution, Pooling).

図4は、識別器として利用されるDNNが有する複数の層のうちの可変層の概略構成図である。この例では、DNNの入力側から順にi番目(iは1以上の整数)の可変層400に、互いに並列に、可変層400の上流側の層により得られたfeature map xiに対して畳み込み演算を行う複数の畳み込みモジュールTf1(x)〜Tfn(x)及びTc1(x)〜TcN(x)(n, Nは、それぞれ、1以上の整数)が設けられる。これらの畳み込みモジュールは、複数の部分ネットワークの一例である。このうち、畳み込みモジュールTc1(x)〜TcN(x)は、それぞれ、識別器制御部32の判定結果によらず、常時接続される。すなわち、畳み込みモジュールTc1(x)〜TcN(x)は、車両10に関する所定の条件が満たされない場合の多数の画像を含む教師データ(本実施形態では、様々な地域について得られた多数の画像を含む教師データ)に基づいて、誤差逆伝搬法といった学習手法に従って予め学習され、車両10が走行中の地域によらずに物体検出に利用される。 FIG. 4 is a schematic configuration diagram of a variable layer among a plurality of layers of the DNN used as a discriminator. In this example, convolution is performed on the i-th (i is an integer of 1 or more) variable layer 400 in order from the input side of the DNN, in parallel with each other, on the feature map x i obtained by the upstream layer of the variable layer 400. A plurality of convolution modules Tf1 (x) to Tfn (x) and Tc1 (x) to TcN (x) (where n and N are each an integer of 1 or more) for performing the operation are provided. These convolution modules are examples of a plurality of partial networks. Among them, the convolution modules Tc1 (x) to TcN (x) are always connected regardless of the determination result of the discriminator control unit 32. That is, the convolution modules Tc1 (x) to TcN (x) include teacher data including a large number of images when a predetermined condition regarding the vehicle 10 is not satisfied (in the present embodiment, a large number of images obtained for various areas are The learning is performed in advance according to a learning method such as an error back propagation method based on the teaching data (including the teacher data), and is used for object detection regardless of the area where the vehicle 10 is traveling.

一方、畳み込みモジュールTf1(x)〜Tfn(x)のそれぞれは、第1の部分ネットワークの一例であり、畳み込みモジュールTc1(x)〜TcN(x)と同一の構造を持ち、かつ、互いに異なる、車両10に関する条件(本実施形態では、地図情報に表された複数の地域のうちの互いに異なる地域)に対応する。そして畳み込みモジュールTf1(x)〜Tfn(x)のそれぞれは、スイッチS1〜Snを介して可変層400の上流側の層と下流側の層との間に接続される。畳み込みモジュールTf1(x)〜Tfn(x)は、それぞれ、対応する所定の条件下で得られた複数の画像を含む教師データ(本実施形態では、対応する地域について得られた複数の画像を含む教師データ)に基づいて、誤差逆伝搬法といった学習手法に従って予め学習される。例えば、着目する地域の教師データを用いてDNNが学習される際に、スイッチS1〜Snのうちの着目する地域に対応するスイッチのみがオンにされ、畳み込みモジュールTf1(x)〜Tfn(x)のうちの着目する地域に対応する畳み込みモジュールのみがDNNに接続される。その上で、着目する地域の教師データを用いてDNNが学習される。これにより、畳み込みモジュールTf1(x)〜Tfn(x)は、対応する地域について特化される。そのため、畳み込みモジュールTf1(x)〜Tfn(x)のうちの車両10が走行する地域に対応する畳み込みモジュールがDNNに接続されることで、車両10がその地域を走行する際の物体の検出精度が向上する。   On the other hand, each of the convolution modules Tf1 (x) to Tfn (x) is an example of a first partial network, has the same structure as the convolution modules Tc1 (x) to TcN (x), and differs from each other. This corresponds to the condition relating to the vehicle 10 (in the present embodiment, different regions among a plurality of regions represented in the map information). Each of the convolution modules Tf1 (x) to Tfn (x) is connected between an upstream layer and a downstream layer of the variable layer 400 via switches S1 to Sn. Each of the convolution modules Tf1 (x) to Tfn (x) includes teacher data including a plurality of images obtained under corresponding predetermined conditions (in the present embodiment, includes a plurality of images obtained for a corresponding area. Based on the teacher data), learning is performed in advance according to a learning method such as an error back propagation method. For example, when the DNN is learned using the teacher data of the region of interest, only the switch corresponding to the region of interest among the switches S1 to Sn is turned on, and the convolution modules Tf1 (x) to Tfn (x) Only the convolution module corresponding to the area of interest is connected to the DNN. Then, the DNN is learned using the teacher data of the region of interest. Thereby, the convolution modules Tf1 (x) to Tfn (x) are specialized for the corresponding area. Therefore, by connecting the convolution module of the convolution modules Tf1 (x) to Tfn (x) corresponding to the area where the vehicle 10 travels to the DNN, the detection accuracy of the object when the vehicle 10 travels in that area Is improved.

可変層400では、畳み込みモジュールTc1(x)〜TcN(x)のそれぞれの出力と、畳み込みモジュールTf1(x)〜Tfn(x)のうち、対応するスイッチがオンとなる畳み込みモジュールの出力との和が計算される。そしてその和に対して、畳み込み演算を実施した畳み込みモジュールの数に対する可変層400が有する畳み込みモジュールの総数の比((N+n)/(N+ΣSbk)、ただし、Sbk(k=1,...,n)は、スイッチSkがオンの時に1となり、スイッチSkがオフの時に0となるbool変数である)が乗じられることで得られる値とxiとの和が、feature map xi+iとして出力される。そしてfeature map xi+iが、次の層に入力される。 In the variable layer 400, the sum of the output of each of the convolution modules Tc1 (x) to TcN (x) and the output of the convolution module whose corresponding switch is turned on among the convolution modules Tf1 (x) to Tfn (x) Is calculated. Then, for the sum, the ratio of the total number of convolution modules included in the variable layer 400 to the number of convolution modules that performed the convolution operation ((N + n) / (N + ΣSbk), where Sbk (k = 1,. .., n) is next 1 when the switch Sk is on, the switch Sk is bool variable becomes zero when off) is the sum of the obtained values and xi by is multiplied, feature map x i + Output as i . Then, feature map x i + i is input to the next layer.

なお、識別器として利用されるDNNは、図4に示されるような可変層を2以上有していてもよい。この場合、2以上の可変層は、互いに連続するように設けられてもよく、あるいは、2以上の可変層の間に、プーリング層といった他の層が設けられてもよい。また、2以上の畳み込みモジュールが、一つの所定の条件に対応してもよい。この場合、識別器制御部32は、所定の条件が満たされた場合、その所定の条件に対応する二つ以上の畳み込みモジュールのそれぞれと接続されるスイッチをオンにすればよい。さらに、識別器として利用されるDNNが1以上の全結合層を有する場合、全結合層のうちの一つが可変層として形成されてもよい。この場合、複数の部分ネットワークのそれぞれは、上流側の層が有する複数のニューロンの全ての出力値を入力として一つの出力値を演算するように構成されてもよい。さらに、個々の部分ネットワークは、複数の層を含んでもよい。この場合、個々の部分ネットワークには、例えば、畳み込み層、プーリング層及び全結合層のうちの2種類以上が含まれてもよく、あるいは、畳み込み層、プーリング層及び全結合層の何れかが2層以上含まれてもよい。   It should be noted that the DNN used as the discriminator may have two or more variable layers as shown in FIG. In this case, two or more variable layers may be provided so as to be continuous with each other, or another layer such as a pooling layer may be provided between the two or more variable layers. Further, two or more convolution modules may correspond to one predetermined condition. In this case, when a predetermined condition is satisfied, the discriminator control unit 32 may turn on a switch connected to each of the two or more convolution modules corresponding to the predetermined condition. Further, when the DNN used as the discriminator has one or more total coupling layers, one of the total coupling layers may be formed as a variable layer. In this case, each of the plurality of partial networks may be configured to calculate one output value using all output values of the plurality of neurons of the upstream layer as inputs. Further, individual sub-networks may include multiple layers. In this case, each partial network may include, for example, two or more of a convolutional layer, a pooling layer, and a fully connected layer, or any one of the convolutional layer, the pooling layer, and the fully connected layer. More than one layer may be included.

識別器制御部32は、スイッチS1〜Snのうち、車両10に関する所定の条件が満たされる場合に、その所定の条件に対応するスイッチをオンにし、他のスイッチをオフにする。上記のように、本実施形態では、所定の条件は、車両10自身の走行回数が所定数以上となる地域に車両10の現在位置が含まれることである。したがって、識別器制御部32は、車両の現在位置が含まれる地域について、車両10自身の走行回数が所定数以上となる場合、車両の現在位置が含まれる地域に対応するスイッチをオンにする。例えば、畳み込みモジュールTf1(x)が北海道地方に対応し、畳み込みモジュールTf2(x)が九州地方に対応する場合において、車両10の現在位置が北海道地方に位置し、かつ、車両10自身が北海道地方を走行した回数が所定数以上となる場合、識別器制御部32は、畳み込みモジュールTf1(x)に対応するスイッチS1をオンにし、畳み込みモジュールTf2(x)に対応するスイッチS2をオフにする。これにより、畳み込みモジュールTf1(x)〜Tfn(x)のうち、車両10が現在走行中の地域について、車両10の走行回数が所定の回数閾値以上となる場合に、その地域に対応する畳み込みモジュールが物体検出に利用されることになる。   When a predetermined condition regarding the vehicle 10 is satisfied among the switches S1 to Sn, the discriminator control unit 32 turns on a switch corresponding to the predetermined condition and turns off other switches. As described above, in the present embodiment, the predetermined condition is that the current position of the vehicle 10 is included in an area where the number of times of travel of the vehicle 10 itself is equal to or more than the predetermined number. Therefore, the discriminator control unit 32 turns on a switch corresponding to the area including the current position of the vehicle, when the number of times of travel of the vehicle 10 itself is equal to or more than the predetermined number in the area including the current position of the vehicle. For example, when the convolution module Tf1 (x) corresponds to the Hokkaido region and the convolution module Tf2 (x) corresponds to the Kyushu region, the current position of the vehicle 10 is located in the Hokkaido region, and the vehicle 10 itself is in the Hokkaido region. When the number of times of traveling is equal to or more than the predetermined number, the discriminator control unit 32 turns on the switch S1 corresponding to the convolution module Tf1 (x) and turns off the switch S2 corresponding to the convolution module Tf2 (x). With this, among the convolution modules Tf1 (x) to Tfn (x), for the area where the vehicle 10 is currently traveling, when the number of times the vehicle 10 travels is equal to or more than the predetermined number threshold, the convolution module corresponding to the area Will be used for object detection.

図5は、識別器制御部32により実行される識別器制御処理の動作フローチャートである。識別器制御部32は、所定の周期(例えば、1分、10分、1時間など)あるいは所定のタイミングごと(例えば、車両10が所定距離(例えば、10km〜50km)だけ走行する度、あるいは、車両10が異なる地域へ移動する度)に、図5に示される動作フローチャートに従って、識別器制御処理を実行する。   FIG. 5 is an operation flowchart of a discriminator control process executed by the discriminator control unit 32. The discriminator control unit 32 determines whether the vehicle 10 travels a predetermined period (for example, 1 minute, 10 minutes, 1 hour, etc.) or at a predetermined timing (for example, every time the vehicle 10 travels a predetermined distance (for example, 10 km to 50 km), or Each time the vehicle 10 moves to a different area), the discriminator control process is executed according to the operation flowchart shown in FIG.

プロセッサ23の識別器制御部32は、プロセッサ23が測位情報受信機3から受け取った最新の測位情報で表される車両10の現在位置と、メモリ22に記憶されている地図情報とを比較して、地図情報に表される複数の地域のうち、車両10の現在位置が含まれる地域(以下、現在地域と呼ぶ)を特定する(ステップS101)。識別器制御部32は、特定された現在地域における車両10の走行回数をメモリ22から読み込んで、その走行回数が、所定の回数閾値Th以上か否か判定する(ステップS102)。なお、所定の回数閾値Thは、例えば、10〜100に設定される。   The discriminator control unit 32 of the processor 23 compares the current position of the vehicle 10 represented by the latest positioning information received by the processor 23 from the positioning information receiver 3 with the map information stored in the memory 22. From among the plurality of areas represented by the map information, the area including the current position of the vehicle 10 (hereinafter, referred to as the current area) is specified (step S101). The discriminator control unit 32 reads the number of travels of the vehicle 10 in the specified current area from the memory 22, and determines whether the number of travels is equal to or greater than a predetermined number threshold Th (Step S102). The predetermined number threshold Th is set to, for example, 10 to 100.

現在地域における車両10の走行回数が回数閾値Th以上となる場合(ステップS102−Yes)、識別器制御部32は、物体検出部33にて物体検出に使用される識別器のDNNが有する複数の部分ネットワークのうち、現在地域に対応する部分ネットワークを使用するよう識別器を制御する(ステップS103)。一方、現在地域における車両10の走行回数が回数閾値Th未満となる場合(ステップS102−No)、識別器制御部32は、現在地域に対応する部分ネットワークを使用しないよう識別器を制御する(ステップS104)。
ステップS103またはS104の後、識別器制御部32は、識別器制御処理を終了する。
When the number of times the vehicle 10 travels in the current area is equal to or greater than the number threshold Th (Step S102-Yes), the discriminator control unit 32 determines the plurality of DNNs of the discriminator used for object detection by the object detection unit 33. The classifier is controlled to use the partial network corresponding to the current area among the partial networks (step S103). On the other hand, when the number of travels of the vehicle 10 in the current area is less than the number-of-times threshold Th (Step S102-No), the discriminator control unit 32 controls the discriminator so as not to use the partial network corresponding to the current area (Step S102). S104).
After step S103 or S104, the discriminator control unit 32 ends the discriminator control processing.

物体検出部33は、検出部の一例であり、カメラ2から画像が得られる度に、その画像を識別器として利用されるDNNに入力することで、その画像に表された、車両10の周囲に存在する検出対象となる物体を検出する。その際、DNNが有する複数の部分ネットワークのうち、識別器制御部32により使用するよう制御された部分ネットワークが物体の検出に利用される。なお、検出対象となる物体には、例えば、車または人といった移動物体が含まれる。また、検出対象となる物体には、車線区画線といった道路標示または道路標識、及び信号機といった静止物体がさらに含まれてもよい。
物体検出部33は、検出された物体の種類及び画像上での位置を表す情報を運転計画部34へ出力する。
The object detection unit 33 is an example of a detection unit. Each time an image is obtained from the camera 2, the image is input to a DNN used as a discriminator, and the surroundings of the vehicle 10 represented in the image are displayed. The object to be detected existing in the object is detected. At this time, of the plurality of partial networks of the DNN, the partial network controlled to be used by the discriminator control unit 32 is used for object detection. The object to be detected includes, for example, a moving object such as a car or a person. In addition, the detection target object may further include a road sign or a road sign such as a lane marking and a stationary object such as a traffic light.
The object detection unit 33 outputs information indicating the type of the detected object and the position on the image to the driving planning unit 34.

運転計画部34は、各画像から検出された物体に基づいて、車両10の周囲に存在する物体と車両10とが衝突しないように車両10の走行予定経路を1以上生成する。走行予定経路は、例えば、現時刻から所定時間先までの各時刻における、車両10の目標位置の集合として表される。例えば、運転計画部34は、カメラ2から画像を受信する度に、カメラ2についての車両10への取り付け位置などの情報を用いて視点変換処理を実行することで、受信した画像を鳥瞰画像に変換する。そして運転計画部34は、一連の鳥瞰画像に対してKalman Filterなどを用いたトラッキング処理を実行することで、各画像についての検出されている物体を追跡し、その追跡結果により得られた軌跡から、物体のそれぞれの所定時間先までの予測軌跡を推定する。運転計画部34は、追跡中の各物体の予測軌跡に基づいて、何れの物体についても所定時間先までの追跡中の物体のそれぞれと車両10間の距離の予測値が所定距離以上となるように、車両10の走行予定経路を生成する。その際、運転計画部34は、例えば、測位情報受信機3から得た測位情報に表される車両10の現在位置と、メモリ22に記憶されている地図情報とを参照して、車両10が走行可能な車線の数を確認してもよい。そして運転計画部34は、車両10が走行可能な車線が複数存在する場合には、車両10が走行する車線を変更するように走行予定経路を生成してもよい。その際、運転計画部34は、画像から検出された車線区画線の位置を参照して、車両10が走行中の車線、あるいは変更先の車線と車両10との位置関係を判定してもよい。さらに、運転計画部34は、画像から検出された信号機が一時停止を示している場合には、車両10をその信号機に対応する停止線にて停止させるように走行予定経路を設定してもよい。
なお、運転計画部34は、複数の走行予定経路を生成してもよい。この場合、運転計画部34は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
The driving plan unit 34 generates one or more scheduled routes of the vehicle 10 based on the objects detected from the images so that the objects existing around the vehicle 10 do not collide with the vehicle 10. The scheduled travel route is represented, for example, as a set of target positions of the vehicle 10 at each time from the current time to a predetermined time ahead. For example, each time the driving plan unit 34 receives an image from the camera 2, the driving planning unit 34 performs a viewpoint conversion process using information such as a mounting position of the camera 2 on the vehicle 10, thereby converting the received image into a bird's-eye view image. Convert. Then, the driving planning unit 34 performs tracking processing using a Kalman Filter or the like on a series of bird's-eye images to track the detected object for each image, and from the trajectory obtained from the tracking result. , A predicted trajectory of each of the objects up to a predetermined time ahead. The driving plan unit 34 sets the predicted value of the distance between each of the tracked objects and the vehicle 10 up to a predetermined time ahead based on the predicted trajectory of each of the tracked objects to be equal to or more than a predetermined distance. Next, a scheduled travel route of the vehicle 10 is generated. At that time, the driving planning unit 34 refers to, for example, the current position of the vehicle 10 represented by the positioning information obtained from the positioning information receiver 3 and the map information stored in the memory 22, and You may check the number of lanes that can travel. Then, when there are a plurality of lanes on which the vehicle 10 can travel, the driving plan unit 34 may generate the planned traveling route so as to change the lane on which the vehicle 10 travels. At that time, the driving plan unit 34 may determine the positional relationship between the vehicle 10 and the lane in which the vehicle 10 is traveling or the lane to be changed with reference to the position of the lane marking detected from the image. . Furthermore, when the traffic light detected from the image indicates a temporary stop, the driving plan unit 34 may set the planned traveling route so that the vehicle 10 stops at the stop line corresponding to the traffic light. .
Note that the driving planning unit 34 may generate a plurality of planned traveling routes. In this case, the driving plan unit 34 may select a route that minimizes the sum of the absolute values of the acceleration of the vehicle 10 from the plurality of planned traveling routes.

運転計画部34は、生成した走行予定経路を車両制御部35へ通知する。   The operation planning unit 34 notifies the vehicle control unit 35 of the generated planned traveling route.

車両制御部35は、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部35は、通知された走行予定経路、及び、車速センサ(図示せず)により測定された車両10の現在の車速に従って、車両10の加速度を求め、その加速度となるようにアクセル開度またはブレーキ量を設定する。そして車両制御部35は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置へ出力する。あるいは、車両制御部35は、設定されたブレーキ量に応じた制御信号を車両10のブレーキへ出力する。   The vehicle control unit 35 controls each unit of the vehicle 10 so that the vehicle 10 travels along the notified scheduled travel route. For example, the vehicle control unit 35 obtains the acceleration of the vehicle 10 according to the notified travel schedule route and the current vehicle speed of the vehicle 10 measured by the vehicle speed sensor (not shown), and sets the accelerator so that the acceleration is obtained. Set the opening or brake amount. Then, vehicle control unit 35 obtains a fuel injection amount according to the set accelerator opening, and outputs a control signal corresponding to the fuel injection amount to the fuel injection device of the engine of vehicle 10. Alternatively, the vehicle control unit 35 outputs a control signal corresponding to the set brake amount to the brake of the vehicle 10.

さらに、車両制御部35は、車両10が走行予定経路に沿って走行するために車両10の進路を変更する場合には、その走行予定経路に従って車両10の操舵角を求め、その操舵角に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。   Further, when changing the course of the vehicle 10 so that the vehicle 10 travels along the planned traveling route, the vehicle control unit 35 determines the steering angle of the vehicle 10 according to the planned traveling route, and determines the steering angle according to the steering angle. The control signal is output to an actuator (not shown) that controls the steered wheels of the vehicle 10.

図6は、プロセッサ23により実行される、物体検出処理を含む車両制御処理の動作フローチャートである。プロセッサ23は、カメラ2から画像が受信する度に、図6に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS201〜S202の処理が物体検出処理に対応する。   FIG. 6 is an operation flowchart of a vehicle control process including an object detection process executed by the processor 23. Each time an image is received from the camera 2, the processor 23 executes a vehicle control process according to the operation flowchart shown in FIG. In the operation flowchart described below, the processing of steps S201 to S202 corresponds to the object detection processing.

プロセッサ23の識別器制御部32は、車両10に関する所定の条件が満たされる場合に、識別器として利用するDNNの可変層に含まれる複数の部分ネットワークのうち、その所定の条件に対応する部分ネットワークをオンにする(ステップS201)。すなわち、図4に示されるように、識別器制御部32は、所定の条件に対応する部分ネットワークに対応するスイッチをオンにして、その部分ネットワークが物体の検出に利用されるようにする。そしてプロセッサ23の物体検出部33は、カメラ2から得られた画像を識別器に入力して、画像に表された車両10の周囲の物体を検出する(ステップS202)。   When a predetermined condition relating to the vehicle 10 is satisfied, the discriminator control unit 32 of the processor 23 outputs a partial network corresponding to the predetermined condition among a plurality of partial networks included in the variable layer of the DNN used as the discriminator. Is turned on (step S201). That is, as shown in FIG. 4, the discriminator control unit 32 turns on a switch corresponding to a partial network corresponding to a predetermined condition so that the partial network is used for object detection. Then, the object detection unit 33 of the processor 23 inputs the image obtained from the camera 2 to the discriminator, and detects an object around the vehicle 10 represented in the image (Step S202).

プロセッサ23の運転計画部34は、検出されている物体を追跡し、その追跡結果に基づいて推定されるその物体の予測軌跡と所定の距離以上となるように、車両10の走行予定経路を生成する(ステップS203)。そしてプロセッサ23の車両制御部35は、走行予定経路に沿って車両10が走行するように車両10を制御する(ステップS204)。そしてプロセッサ23は、車両制御処理を終了する。   The driving plan unit 34 of the processor 23 tracks the detected object, and generates a scheduled travel route of the vehicle 10 so as to be at least a predetermined distance from a predicted trajectory of the object estimated based on the tracking result. (Step S203). Then, the vehicle control unit 35 of the processor 23 controls the vehicle 10 so that the vehicle 10 travels along the planned traveling route (Step S204). Then, the processor 23 ends the vehicle control processing.

以上に説明してきたように、この物体検出装置は、車両に関する所定の条件が満たされた時に、識別器として用いられるニューラルネットワークの可変層に含まれる複数の部分ネットワークのうち、その所定の条件に対応するよう予め学習された部分ネットワークを利用するように識別器を制御する。これにより、この物体検出装置は、その所定の条件が満たされる場合における物体の検出精度を向上できる。一方、この物体検出装置は、所定の条件が満たされない場合には、その所定の条件に対応するよう予め学習された部分ネットワークを利用しないように識別器を制御する。これにより、この物体検出装置は、その所定の条件が満たされない場合における物体の検出精度の低下を抑制できる。   As described above, this object detection device is configured such that when a predetermined condition regarding a vehicle is satisfied, the object detection device is configured to satisfy the predetermined condition among a plurality of partial networks included in a variable layer of a neural network used as a discriminator. The classifier is controlled to use the sub-network that has been learned in advance to correspond. Thus, the object detection device can improve the detection accuracy of the object when the predetermined condition is satisfied. On the other hand, when the predetermined condition is not satisfied, the object detection device controls the discriminator so as not to use the partial network previously learned so as to correspond to the predetermined condition. Thus, the object detection device can suppress a decrease in object detection accuracy when the predetermined condition is not satisfied.

変形例によれば、識別器制御部32は、車両10の走行回数の代わりに走行頻度に基づいて識別器を制御してもよい。この場合には、走行回数更新部31が、車両10が走行中の地域について、その地域を識別するための識別情報と対応付けて、車両10が走行した日時(以下、単に走行日時と呼ぶ)をメモリ22に記憶する。識別器制御部32は、車両10が走行中の地域について、直近の所定の期間(例えば、1週間、1カ月間など)に含まれる、その地域の識別情報と対応付けて記憶されている走行日時の数を走行頻度として求めればよい。そして識別器制御部32は、車両10が現在走行している地域についての走行頻度が所定の回数閾値以上であるときに、その地域と対応する部分ネットワークを物体の検出に利用するよう識別器を制御すればよい。   According to the modification, the discriminator control unit 32 may control the discriminator based on the traveling frequency instead of the number of times the vehicle 10 has traveled. In this case, the traveling frequency updating unit 31 associates the area where the vehicle 10 is traveling with the identification information for identifying the area, and associates the date and time when the vehicle 10 traveled (hereinafter, simply referred to as traveling date and time). Is stored in the memory 22. The discriminator control unit 32 stores, for a region in which the vehicle 10 is traveling, a traveling stored in association with identification information of the region included in a latest predetermined period (for example, one week, one month, or the like). The number of dates and times may be obtained as the traveling frequency. Then, when the traveling frequency of the area where the vehicle 10 is currently traveling is equal to or more than the predetermined number threshold, the discriminator control unit 32 causes the discriminator to use the partial network corresponding to the area for object detection. What is necessary is to control.

他の変形例によれば、走行回数または走行頻度を求める単位となる地域は、地図情報を利用せずに設定されてもよい。この場合には、実空間の所定サイズ(例えば、10km四方〜50km四方)の区画ごとに走行回数または走行日時が記憶される。例えば、走行回数更新部31は、車両10の現在位置を中心とする所定サイズの領域(区画よりも大きく、例えば、100km四方〜500km四方)に含まれる複数の区画のそれぞれについて、走行回数を1インクリメントするか、走行日時を記憶すればよい。また、識別器の可変層が有する複数の部分ネットワークは、それぞれ、互いに異なる代表地点と対応付けられ、その対応する代表地点を中心とする領域内から得られた教師データを用いて予め学習される。そして識別器制御部32は、車両10の現在位置を中心とする所定サイズの領域に含まれる各区画の走行回数の和、あるいは、直近の所定期間内の走行日時の数が所定の回数閾値以上である場合、各代表地点のうち、車両10の現在位置に最も近い代表地点と対応付けられた部分ネットワークを利用するよう識別器を制御する。   According to another modification, an area serving as a unit for calculating the number of times of travel or the frequency of travel may be set without using map information. In this case, the number of travels or the travel date and time is stored for each section of the real space having a predetermined size (for example, 10 km square to 50 km square). For example, the traveling count updating unit 31 sets the traveling count to 1 for each of a plurality of sections included in an area of a predetermined size (larger than the section, for example, 100 km square to 500 km square) around the current position of the vehicle 10. Increment or the date and time of travel may be stored. Further, the plurality of partial networks of the variable layer of the classifier are respectively associated with different representative points, and are learned in advance using teacher data obtained from an area centered on the corresponding representative point. . Then, the discriminator control unit 32 determines that the sum of the number of times of travel of each section included in the area of the predetermined size centered on the current position of the vehicle 10 or the number of travel dates and times within the latest predetermined period is equal to or greater than the predetermined number of times threshold In the case of, the classifier is controlled to use the partial network associated with the representative point closest to the current position of the vehicle 10 among the representative points.

また他の変形例によれば、識別器制御部32は、走行回数または走行頻度ではなく、車両10の現在位置に基づいて識別器を制御してもよい。この場合には、識別器制御部32は、例えば、地図情報を参照して、測位情報受信機3から受け取った測位情報で表される車両10の現在位置が含まれる地域を特定し、特定された地域に対応する部分ネットワークを物体の検出に利用するよう、識別器を制御すればよい。この場合、走行回数更新部31は省略されてもよい。   According to another modification, the discriminator control unit 32 may control the discriminator based on the current position of the vehicle 10 instead of the number of times of travel or the frequency of travel. In this case, the discriminator control unit 32 refers to, for example, the map information, specifies the area including the current position of the vehicle 10 represented by the positioning information received from the positioning information receiver 3, and specifies the area. What is necessary is just to control the classifier so that the partial network corresponding to the specified area is used for object detection. In this case, the running frequency updating unit 31 may be omitted.

さらに他の変形例によれば、識別器制御部32は、車両10の位置以外の条件に基づいて、物体の検出に用いられる識別器を制御してもよい。例えば、識別器制御部32は、現在時刻が夜間の時間帯に含まれる場合に所定の条件が満たされると判定してもよい。この場合には、物体の検出に利用される識別器の可変層に含まれる複数の部分ネットワークのうちの一つは、夜間に得られた画像を教師データとして予め学習される。そして識別器制御部32は、車両10に搭載された時計(図示せず)、あるいは、時間を報知する無線信号を受信する、車両10に搭載された無線通信モジュール(図示せず)からプロセッサ23が受信した現在時刻が夜間の時間帯に含まれるか否か判定する。そして識別器制御部32は、現在時刻が夜間の時間帯に含まれる場合に、その夜間の時間帯用に予め学習された部分ネットワークを物体の検出に利用するよう識別器を制御すればよい。これにより、物体検出装置は、昼間における物体の検出精度の低下を防ぎつつ、夜間における物体の検出精度を向上できる。なお、この場合も、走行回数更新部31は省略されてもよい。   According to still another modification, the discriminator control unit 32 may control the discriminator used for detecting an object based on a condition other than the position of the vehicle 10. For example, the discriminator control unit 32 may determine that the predetermined condition is satisfied when the current time is included in the night time zone. In this case, one of the plurality of partial networks included in the variable layer of the discriminator used for detecting the object is previously learned using an image obtained at night as teacher data. Then, the discriminator control unit 32 transmits a clock (not shown) mounted on the vehicle 10 or a wireless communication module (not shown) mounted on the vehicle 10 that receives a wireless signal for notifying time to the processor 23. It is determined whether or not the received current time is included in the night time zone. Then, when the current time is included in the night time zone, the discriminator control unit 32 may control the discriminator to use the partial network previously learned for the night time zone for object detection. Accordingly, the object detection device can improve the detection accuracy of the object at night while preventing a reduction in the detection accuracy of the object during the day. Note that, also in this case, the traveling count updating unit 31 may be omitted.

また、物体検出部33による物体検出の結果が運転支援に利用される場合には、識別器の可変層の複数の部分ネットワークのそれぞれは、互いに異なるドライバと対応付けられてもよい。この場合には、各部分ネットワークは、対応するドライバが車両10を運転する際にカメラ2により得られた画像を教師データとして予め学習される。そして識別器制御部32は、車両10の車室内に、車両10のドライバの顔を撮影するように取り付けられた車内カメラ(図示せず)により得られた車内画像に基づいて、車両10を運転しているドライバを識別する。なお、識別器制御部32は、例えば、メモリ22に予め記憶されたドライバごとのテンプレートを用いたテンプレートマッチング、あるいは、画像に表された顔を認識するための他の顔認識手法に従ってドライバを識別すればよい。そして識別器制御部32は、識別されたドライバに対応する部分ネットワークを物体の検出に利用するよう識別器を制御すればよい。これにより、例えば、ドライバに応じて車両10が通る経路または走行する時間帯に差異があるといった理由により、ドライバによって画像上での物体の写り方に差異が生じる場合でも、物体検出装置は、物体の検出精度を向上できる。   When the result of the object detection by the object detection unit 33 is used for driving assistance, each of the plurality of partial networks in the variable layer of the discriminator may be associated with a different driver. In this case, each partial network is learned in advance using the image obtained by the camera 2 when the corresponding driver drives the vehicle 10 as teacher data. Then, the discriminator control unit 32 drives the vehicle 10 based on an in-vehicle image obtained by an in-vehicle camera (not shown) mounted in the cabin of the vehicle 10 so as to photograph a driver's face of the vehicle 10. Identify the driver you are using. The discriminator control unit 32 identifies the driver according to, for example, template matching using a template for each driver stored in the memory 22 in advance, or another face recognition method for recognizing a face represented in an image. do it. Then, the classifier control unit 32 may control the classifier to use the partial network corresponding to the identified driver for detecting an object. Accordingly, even if a driver causes a difference in the way an object is displayed on an image due to, for example, a difference in a route or time zone in which the vehicle 10 travels depending on the driver, the object detection device can detect the object. Detection accuracy can be improved.

また、識別器の可変層に含まれる、所定の条件と対応付けられた部分ネットワークを規定するためのパラメータセット(重み係数など)は、車両10と無線基地局及び通信ネットワークを介して通信可能なサーバに記憶されていてもよい。この場合には、識別器制御部32は、所定の条件が満たされると判定した場合に、車両10に搭載された無線通信モジュール(図示せず)を介して、サーバへ、車両10の識別情報と、その所定の条件を表す識別情報と、部分ネットワークのパラメータセットを要求することを表す信号とを含む要求信号を送信する。そしてサーバは、無線基地局及び通信ネットワークを介して要求信号を受信すると、所定の条件に対応するパラメータセットを含む応答信号を、通信ネットワーク及び無線基地局を介して車両10へ返送する。識別器制御部32は、無線通信モジュールを介して受信した応答信号からパラメータセットを取り出して部分ネットワークに適用することで、その部分ネットワークは、所定の条件に対応するものとなる。
この変形例によれば、物体検出装置は、識別器が有する部分ネットワークの数を少なくすることができるので、メモリ22に対して要求されるメモリ容量を削減できる。さらに、所定の条件に対応する部分ネットワークのパラメータセットを更新することが容易となる。
A parameter set (such as a weight coefficient) for defining a partial network associated with a predetermined condition included in the variable layer of the discriminator can communicate with the vehicle 10 via a wireless base station and a communication network. It may be stored in the server. In this case, if the discriminator control unit 32 determines that the predetermined condition is satisfied, the discriminator control unit 32 transmits the identification information of the vehicle 10 to the server via a wireless communication module (not shown) mounted on the vehicle 10. And a request signal including identification information indicating the predetermined condition and a signal indicating requesting a parameter set of the partial network. Upon receiving the request signal via the wireless base station and the communication network, the server returns a response signal including a parameter set corresponding to a predetermined condition to the vehicle 10 via the communication network and the wireless base station. The discriminator control unit 32 extracts a parameter set from the response signal received via the wireless communication module and applies the parameter set to a partial network, whereby the partial network corresponds to a predetermined condition.
According to this modification, the object detection device can reduce the number of partial networks included in the classifier, so that the memory capacity required for the memory 22 can be reduced. Further, it becomes easy to update the parameter set of the partial network corresponding to the predetermined condition.

上記の実施形態または変形例による物体検出装置は、カメラ2以外の車両10の周囲に存在する物体を検知するためのセンサにより取得されたセンサ信号に対して適用されてもよい。そのような、所定の検知範囲内に存在する物体を検出するためのセンサとして、例えば、車両10に搭載されたLIDARセンサあるいはレーザセンサが用いられてもよい。この場合、物体検出部33が識別器として用いるDNNは、車両10に搭載されたセンサにより取得されたセンサ信号から、物体を検出するように予め学習されればよい。この場合も、識別器は、上記の実施形態または変形例と同様に、複数の部分ネットワークを含む可変層を1以上有し、複数の部分ネットワークは、対応する条件下での教師データを用いて予め学習されればよい。   The object detection device according to the above embodiment or the modification may be applied to a sensor signal acquired by a sensor for detecting an object existing around the vehicle 10 other than the camera 2. As such a sensor for detecting an object existing within a predetermined detection range, for example, a LIDAR sensor or a laser sensor mounted on the vehicle 10 may be used. In this case, the DNN used by the object detection unit 33 as a discriminator may be learned in advance so as to detect an object from a sensor signal acquired by a sensor mounted on the vehicle 10. Also in this case, the discriminator has one or more variable layers including a plurality of partial networks as in the above-described embodiment or the modified example, and the plurality of partial networks use teacher data under corresponding conditions. What is necessary is just to learn beforehand.

また、上記の実施形態または変形例による、物体検出装置のプロセッサ23の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。   In addition, the computer program for realizing the function of each unit of the processor 23 of the object detection device according to the above embodiment or the modification is stored in a computer-readable portable recording medium such as a semiconductor memory, a magnetic recording medium, or an optical recording medium. It may be provided in recorded form.

以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。   As described above, those skilled in the art can make various changes according to the embodiments within the scope of the present invention.

1 車両制御システム
2 カメラ
3 測位情報受信機
4 電子制御装置(物体検出装置)
5 車内ネットワーク
21 通信インターフェース
22 メモリ
23 プロセッサ
31 走行回数更新部
32 識別器制御部
33 物体検出部
34 運転計画部
35 車両制御部
Reference Signs List 1 vehicle control system 2 camera 3 positioning information receiver 4 electronic control device (object detection device)
5 In-vehicle network 21 Communication interface 22 Memory 23 Processor 31 Travel count update unit 32 Discriminator control unit 33 Object detection unit 34 Driving planning unit 35 Vehicle control unit

Claims (1)

車両に搭載されたセンサから得られるセンサ信号をニューラルネットワークに入力することで前記車両の周囲に存在する物体を検出し、前記ニューラルネットワークは、前記センサ信号が入力される入力層と、前記物体の検出結果を出力する出力層と、前記入力層と前記出力層との間に接続される複数の層とを有し、前記複数の層のうちの少なくとも一つの層は、同一の構造を持ち、かつ、当該層に入力される信号に対して互いに並列に演算する複数の部分ネットワークを有し、前記複数の部分ネットワークのうちの第1の部分ネットワークは、前記車両に関する所定の条件が満たされる場合において前記物体を検出するよう予め学習され、かつ、前記複数の部分ネットワークのうちの前記第1の部分ネットワーク以外の部分ネットワークは、前記所定の条件が満たされない場合にも前記物体を検出するよう予め学習される検出部と、
前記車両に関する前記所定の条件が満たされる場合、前記物体の検出に前記第1の部分ネットワークを用い、一方、前記車両に関する前記所定の条件が満たされない場合、前記物体の検出に前記第1の部分ネットワークを用いないよう、前記ニューラルネットワークを制御するネットワーク制御部と、
を有する物体検出装置。
An object existing around the vehicle is detected by inputting a sensor signal obtained from a sensor mounted on a vehicle to a neural network, and the neural network has an input layer to which the sensor signal is input, and an input layer of the object. An output layer that outputs a detection result, including a plurality of layers connected between the input layer and the output layer, at least one of the plurality of layers has the same structure, And a plurality of partial networks that operate on signals input to the layer in parallel with each other, wherein a first partial network of the plurality of partial networks satisfies a predetermined condition regarding the vehicle. In the learning, the partial networks other than the first partial network among the plurality of partial networks are learned in advance to detect the object. A detection unit in advance are learned to detect the object even if the predetermined condition is not satisfied,
When the predetermined condition regarding the vehicle is satisfied, the first partial network is used for detecting the object. On the other hand, when the predetermined condition regarding the vehicle is not satisfied, the first partial network is used for detecting the object. A network control unit that controls the neural network so as not to use a network;
An object detection device having:
JP2018179448A 2018-09-25 2018-09-25 Object detection device Pending JP2020050047A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018179448A JP2020050047A (en) 2018-09-25 2018-09-25 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018179448A JP2020050047A (en) 2018-09-25 2018-09-25 Object detection device

Publications (1)

Publication Number Publication Date
JP2020050047A true JP2020050047A (en) 2020-04-02

Family

ID=69995428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018179448A Pending JP2020050047A (en) 2018-09-25 2018-09-25 Object detection device

Country Status (1)

Country Link
JP (1) JP2020050047A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111915081A (en) * 2020-08-03 2020-11-10 东北大学秦皇岛分校 Peak-sensitive travel demand prediction method based on deep learning
CN114084153A (en) * 2020-08-24 2022-02-25 丰田自动车株式会社 Object detection device, object detection method, and computer program for object detection

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111915081A (en) * 2020-08-03 2020-11-10 东北大学秦皇岛分校 Peak-sensitive travel demand prediction method based on deep learning
CN111915081B (en) * 2020-08-03 2023-10-17 东北大学秦皇岛分校 Peak sensitive travel demand prediction method based on deep learning
CN114084153A (en) * 2020-08-24 2022-02-25 丰田自动车株式会社 Object detection device, object detection method, and computer program for object detection

Similar Documents

Publication Publication Date Title
US11698263B2 (en) Safety and comfort constraints for navigation
CN110001658B (en) Path prediction for vehicles
US11428537B2 (en) Localization and mapping methods using vast imagery and sensory data collected from land and air vehicles
EP4152204A1 (en) Lane line detection method, and related apparatus
CN113544467B (en) Alignment of road information for navigation
JP2022553491A (en) Systems and methods for vehicle navigation
CN109643367A (en) Crowdsourcing and the sparse map of distribution and lane measurement for autonomous vehicle navigation
CN113743469B (en) Automatic driving decision method integrating multi-source data and comprehensive multi-dimensional indexes
JP2006208223A (en) Vehicle position recognition device and vehicle position recognition method
CN115393677A (en) End-to-end system training using fused images
CN115705693A (en) Method, system and storage medium for annotation of sensor data
US20230086088A1 (en) Vehicle onboard apparatus, image recognition system, support apparatus for vehicle onboard apparatus, image recognition method, and model data transmission method
JP2020050047A (en) Object detection device
US20200097005A1 (en) Object detection device, object detection method, and vehicle controller
US20240135719A1 (en) Identification of unknown traffic objects
WO2024015564A1 (en) Registration of traffic signs' feature vectors in remote server
WO2023194978A1 (en) A safe and scalable model for culturally sensitive driving by automated vehicles using a probabilistic architecture
CN116894871A (en) map generation device