JP2020050047A - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP2020050047A JP2020050047A JP2018179448A JP2018179448A JP2020050047A JP 2020050047 A JP2020050047 A JP 2020050047A JP 2018179448 A JP2018179448 A JP 2018179448A JP 2018179448 A JP2018179448 A JP 2018179448A JP 2020050047 A JP2020050047 A JP 2020050047A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- network
- partial
- satisfied
- discriminator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Description
本発明は、物体を検出する物体検出装置に関する。 The present invention relates to an object detection device that detects an object.
画像に表された物体を検出する技術が研究されている。近年では、物体を検出するために、いわゆるディープニューラルネットワーク(以下、単にDNNと呼ぶ)を用いることで、検出精度を向上する技術が提案されている(例えば、非特許文献1及び2を参照)。
Techniques for detecting an object represented in an image have been studied. In recent years, a technique for improving detection accuracy by using a so-called deep neural network (hereinafter simply referred to as DNN) to detect an object has been proposed (for example, see Non-Patent
このような技術では、既知の物体が表された多数の画像を教師データとして用いてDNNを学習することで、DNNが入力された画像上に表されたその既知の物体を高精度に検出できるようになる。しかし、教師データとして利用可能な画像の数が少ない物体が検出対象となることがある。そこで、予め学習されたDNNの学習済みのパラメータセットを初期値として、比較的数が少ない特定の物体が表された教師データに対してDNNを再学習することで、その特定の物体に対するDNNの検出精度を向上する技術が提案されている(例えば、非特許文献3を参照)。このような技術は、fine-tuningとも呼ばれる。 In such a technique, by learning DNN using a large number of images representing a known object as teacher data, the known object represented on the input image of the DNN can be detected with high accuracy. Become like However, an object having a small number of images usable as teacher data may be a detection target. Therefore, by using the learned parameter set of the previously learned DNN as an initial value, the DNN is re-learned with respect to the teacher data representing a relatively small number of specific objects, so that the DNN of the specific object is A technique for improving detection accuracy has been proposed (for example, see Non-Patent Document 3). Such a technique is also called fine-tuning.
Fine-tuningでは、DNNが有する複数の層のうちの特定の層全体が再学習されることがある。しかしながら、特定の層全体が再学習されると、DNNを再学習する際に用いられた教師データに対してDNNがover-fittingしてしまい、事前に学習された教師データにおいて表された物体に対しては検出精度が低下してしまうことがあった。 In fine-tuning, the entire specific layer of the plurality of layers of the DNN may be re-learned. However, when the entire specific layer is re-learned, the DNN over-fits the teacher data used in re-learning the DNN, and the object represented in the previously learned teacher data is On the other hand, the detection accuracy may be reduced.
そこで、本発明は、所定の条件が満たされない場合における、物体の検出精度の低下を抑制しつつ、その所定の条件が満たされる場合における、物体の検出精度を向上できる物体検出装置を提供することを目的とする。 Therefore, the present invention provides an object detection device that can improve the detection accuracy of an object when the predetermined condition is satisfied, while suppressing a decrease in the detection accuracy of the object when the predetermined condition is not satisfied. With the goal.
一つの実施形態によれば、物体検出装置が提供される。この物体検出装置は、車両に搭載されたセンサから得られるセンサ信号をニューラルネットワークに入力することで車両の周囲に存在する物体を検出し、ニューラルネットワークは、センサ信号が入力される入力層と、物体の検出結果を出力する出力層と、入力層と出力層との間に接続される複数の層とを有し、複数の層のうちの少なくとも一つの層は、同一の構造を持ち、かつ、その層に入力される信号に対して互いに並列に演算する複数の部分ネットワークを有し、複数の部分ネットワークのうちの第1の部分ネットワークは、車両に関する所定の条件が満たされる場合において物体を検出するよう予め学習され、かつ、複数の部分ネットワークのうちの第1の部分ネットワーク以外の部分ネットワークは、所定の条件が満たされない場合にも物体を検出するよう予め学習される検出部と、車両に関する所定の条件が満たされる場合、物体の検出に第1の部分ネットワークを用い、一方、車両に関する所定の条件が満たされない場合、物体の検出に第1の部分ネットワークを用いないよう、ニューラルネットワークを制御するネットワーク制御部とを有する。 According to one embodiment, an object detection device is provided. This object detection device detects an object existing around the vehicle by inputting a sensor signal obtained from a sensor mounted on the vehicle to a neural network, and the neural network has an input layer to which the sensor signal is input, An output layer that outputs a detection result of the object, and a plurality of layers connected between the input layer and the output layer, at least one of the plurality of layers has the same structure, and Has a plurality of partial networks that operate on a signal input to the layer in parallel with each other, and a first partial network of the plurality of partial networks is configured to detect an object when a predetermined condition regarding a vehicle is satisfied. The sub-networks that have been learned in advance to detect the sub-networks other than the first sub-network among the plurality of sub-networks do not satisfy a predetermined condition. Also, a detection unit that is learned in advance to detect an object and a first partial network used to detect an object when a predetermined condition regarding a vehicle is satisfied. On the other hand, when a predetermined condition regarding a vehicle is not satisfied, And a network control unit for controlling the neural network so that the first partial network is not used for detection of.
本発明に係る物体検出装置は、所定の条件が満たされない場合における、物体の検出精度の低下を抑制しつつ、その所定の条件が満たされる場合における、物体の検出精度を向上できるという効果を奏する。 ADVANTAGE OF THE INVENTION The object detection apparatus which concerns on this invention has the effect that the detection accuracy of an object can be improved when the predetermined condition is satisfy | filled, suppressing the fall of the object detection accuracy when a predetermined condition is not satisfied. .
以下、図を参照しつつ、物体検出装置について説明する。この物体検出装置は、車両に搭載されたカメラにより得られた画像から、車両の周囲に存在する物体を検出するための識別器としてDNNを利用する。物体検出装置が利用するDNNは、画像が入力される入力層と、物体の検出結果を出力する出力層と、入力層と出力層との間に接続される複数の隠れ層とを有し、複数の隠れ層のうちの少なくとも一つの層は、同一の構造を持ち、かつ、その隠れ層に入力される信号に対して互いに並列に演算する複数の部分ネットワークを有する。そして複数の部分ネットワークのうちの第1の部分ネットワークは、車両に関する所定の条件が満たされる場合において物体を検出するよう予め学習され、かつ、複数の部分ネットワークのうちの第1の部分ネットワーク以外の部分ネットワークは、所定の条件が満たされない場合にも物体を検出するよう予め学習される。そしてこの物体検出装置は、所定の条件が満たされる場合には、第1の部分ネットワークを他の部分ネットワークとともに利用することで、その所定の条件が満たされる場合における物体の検出精度を向上し、一方、所定の条件が満たされない場合には、第1の部分ネットワークを用いないことで、物体の検出精度の低下を抑制する。 Hereinafter, the object detection device will be described with reference to the drawings. This object detection device uses a DNN as a discriminator for detecting an object existing around a vehicle from an image obtained by a camera mounted on the vehicle. The DNN used by the object detection device has an input layer to which an image is input, an output layer to output a detection result of the object, and a plurality of hidden layers connected between the input layer and the output layer, At least one of the plurality of hidden layers has the same structure and includes a plurality of partial networks that operate on signals input to the hidden layer in parallel with each other. Then, a first partial network of the plurality of partial networks is previously learned to detect an object when a predetermined condition regarding the vehicle is satisfied, and a first partial network of the plurality of partial networks other than the first partial network is included. The partial network is learned in advance to detect an object even when a predetermined condition is not satisfied. When the predetermined condition is satisfied, the object detection device uses the first partial network together with another partial network to improve the detection accuracy of the object when the predetermined condition is satisfied, On the other hand, when the predetermined condition is not satisfied, the first partial network is not used, thereby suppressing a decrease in object detection accuracy.
以下では、物体検出装置を、車両制御システムに適用した例について説明する。この例では、物体検出装置は、車両に搭載されたカメラにより得られた画像に対して物体検出処理を実行することで、車両の周囲に存在する各種の物体、例えば、他の車両、人、道路標識または道路標示などを検出し、その検出結果に基づいて車両を自動運転制御する。また、この例では、所定の条件は、車両自身の走行回数が所定数以上となる地域に車両の現在位置が含まれることである。 Hereinafter, an example in which the object detection device is applied to a vehicle control system will be described. In this example, the object detection device performs an object detection process on an image obtained by a camera mounted on the vehicle, so that various objects existing around the vehicle, for example, other vehicles, people, A road sign or a road sign is detected, and the vehicle is automatically driven based on the detection result. In this example, the predetermined condition is that the current position of the vehicle is included in an area where the number of times the vehicle itself travels is equal to or more than the predetermined number.
図1は、物体検出装置が実装される車両制御システムの概略構成図である。また図2は、物体検出装置の一つの実施形態である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、測位情報受信機3と、物体検出装置の一例である電子制御装置(ECU)4とを有する。カメラ2と、測位情報受信機3と、ECU4とは、コントローラエリアネットワークといった規格に準拠した車内ネットワーク5を介して通信可能に接続される。
FIG. 1 is a schematic configuration diagram of a vehicle control system in which the object detection device is mounted. FIG. 2 is a hardware configuration diagram of an electronic control device which is one embodiment of the object detection device. In the present embodiment, the
カメラ2は、所定の検知範囲内に存在する物体を検出するためのセンサである撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒〜1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。なお、カメラ2により生成された画像は、センサ信号の一例である。
The camera 2 is an example of an imaging unit that is a sensor for detecting an object present within a predetermined detection range, and is configured by an array of photoelectric conversion elements having sensitivity to visible light, such as a CCD or a C-MOS. It has a two-dimensional detector and an imaging optical system that forms an image of a region to be photographed on the two-dimensional detector. The camera 2 is mounted, for example, in the cabin of the
カメラ2は、画像を生成する度に、その生成した画像を、車内ネットワーク5を介してECU4へ出力する。
Each time the camera 2 generates an image, the camera 2 outputs the generated image to the
測位情報受信機3は、測位部の一例であり、車両10の現在位置を表す測位情報を所定の周期ごとに取得する。例えば、測位情報受信機3は、GPS受信機とすることができる。そして測位情報受信機3は、測位情報を取得する度に、取得した測位情報を、車内ネットワーク5を介してECU4へ出力する。
The
ECU4は、車両10を制御する。本実施形態では、ECU4は、カメラ2により得られた時系列の一連の画像から検出された物体に基づいて車両10を自動運転するよう、車両10を制御する。そのために、ECU4は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。
The ECU 4 controls the
通信インターフェース21は、通信部の一例であり、ECU4を車内ネットワーク5に接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワーク5を介して、カメラ2と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。
The
メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU4のプロセッサ23により実行される物体検出処理において使用される各種のデータ、例えば、カメラ2から受信した画像、物体検出処理で利用される識別器を特定するための各種パラメータ、及び、地域ごとの走行回数などを記憶する。さらに、メモリ22は、地図情報を記憶する。地図情報には、複数の地域のそれぞれの範囲を特定するための情報が含まれる。なお、本実施形態において、走行回数を調べる単位となる地域は、例えば、北海道地方、東京都または大阪市といった、行政区画により区分されるもの、あるいは、平野部または山間部といった、地理的に区分されるもの、あるいはまた、高速道路または幹線道路といった、道路の種類ごとに区分されるものとすることができる。さらに、走行回数を調べる単位となる地域は、それらの組み合わせにより区分されるものであってもよい。
The
プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10が走行している間、カメラ2から画像を受信する度に、受信した画像に対して物体検出処理を含む車両制御処理を実行する。そしてプロセッサ23は、検出された車両10の周囲の物体に基づいて、車両10を自動運転するよう、車両10を制御する。
The
図3は、物体検出処理を含む車両制御処理に関する、ECU4のプロセッサ23の機能ブロック図である。プロセッサ23は、走行回数更新部31と、識別器制御部32と、物体検出部33と、運転計画部34と、車両制御部35とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、走行回数更新部31、識別器制御部32及び物体検出部33が、物体検出処理を実行する。
FIG. 3 is a functional block diagram of the
走行回数更新部31は、車両10の現在位置に基づいて、地図情報で表された地域ごとの車両10の走行回数を更新する。例えば、走行回数更新部31は、メモリ22に記憶された地図情報に表された複数の地域のうち、測位情報受信機3から受け取った最新の測位情報により表される車両10の現在位置が含まれる地域を特定する。そして走行回数更新部31は、車両10の現在位置が含まれる地域の走行回数を1インクリメントする。
The traveling
なお、走行回数更新部31は、車両10の1回の走行において一つの地域の走行回数が複数回増加することを抑制するために、走行回数が一旦インクリメントされた地域については、そのインクリメントから所定期間(例えば、6時間、1日あるいは1週間)経過するまで、車両10がその地域に含まれていても、走行回数のインクリメントを行わないようにしてもよい。
In addition, in order to prevent the number of times of travel in one area from increasing a plurality of times in one travel of the
識別器制御部32は、ネットワーク制御部の一例であり、車両10に関する所定の条件が満たされるか否か判定し、所定の条件が満たされる場合に、物体検出部33により物体の検出に利用される識別器として用いられるDNNが有する複数の部分ネットワークのうちのその所定の条件に対応する部分ネットワークを物体検出に利用するように制御する。なお、識別器として利用されるDNNは、プロセッサ23上で動作する物体検出処理用のコンピュータプログラムによりソフトウェア的に実装される。しかし、識別器として利用されるDNNは、プロセッサ23が有する専用の演算回路として実装されてもよい。
The
本実施形態では、識別器として利用されるDNNは、例えば、Single Shot MultiBox Detector、Faster R-CNN、VGG-19またはAlexNetといった、コンボリューションニューラルネットワーク(CNN)型のアーキテクチャを持つDNNとすることができる。あるいは、識別器として利用されるDNNは、Fully Convolutional Networkといった、入力された画像から、その画像の各画素について、その画素に表される可能性の有る物体を識別するセグメンテーション用のCNNアーキテクチャを持つDNNであってもよい。 In the present embodiment, the DNN used as the discriminator is, for example, a DNN having a convolutional neural network (CNN) type architecture, such as Single Shot MultiBox Detector, Faster R-CNN, VGG-19, or AlexNet. it can. Alternatively, the DNN used as a discriminator has a CNN architecture for segmentation for identifying, for each pixel of the image, an object that may be represented by the pixel, from an input image, such as a Fully Convolutional Network. It may be DNN.
すなわち、本実施形態で識別器として利用されるDNNは、画像が入力される入力層と、物体検出の結果を出力する出力層と、入力層と出力層との間に接続される複数の隠れ層とを有する。そして複数の隠れ層には、畳み込み層及びプーリング層が含まれる。さらに、複数の隠れ層には、全結合層が含まれてもよい。 That is, the DNN used as a discriminator in the present embodiment includes an input layer to which an image is input, an output layer to output a result of object detection, and a plurality of hidden layers connected between the input layer and the output layer. And a layer. The plurality of hidden layers include a convolution layer and a pooling layer. Further, the plurality of hidden layers may include a fully connected layer.
さらに、本実施形態では、DNNが有する入力層または複数の隠れ層のうちの何れか一つ以上の層において、同一の構造を持ち、かつ、その層に入力される信号に対して互いに並列に演算する複数の部分ネットワークが設けられる。なお、複数の部分ネットワークを有する層を、以下では、説明の便宜上、可変層と呼ぶ。また、複数の部分ネットワークが同一の構造を持つとは、その複数の部分ネットワークのそれぞれに入力されるデータが同一であり、かつ、入力されるデータに対して同じ種類の演算(例えば、畳み込み、プーリングなど)を実行することをいう。 Furthermore, in the present embodiment, at least one of the input layer or the plurality of hidden layers of the DNN has the same structure, and signals input to the layer are parallel to each other. A plurality of partial networks for operation are provided. Note that a layer having a plurality of partial networks is hereinafter referred to as a variable layer for convenience of description. Further, that a plurality of sub-networks have the same structure means that data input to each of the plurality of sub-networks is the same, and the same type of operation (for example, convolution, Pooling).
図4は、識別器として利用されるDNNが有する複数の層のうちの可変層の概略構成図である。この例では、DNNの入力側から順にi番目(iは1以上の整数)の可変層400に、互いに並列に、可変層400の上流側の層により得られたfeature map xiに対して畳み込み演算を行う複数の畳み込みモジュールTf1(x)〜Tfn(x)及びTc1(x)〜TcN(x)(n, Nは、それぞれ、1以上の整数)が設けられる。これらの畳み込みモジュールは、複数の部分ネットワークの一例である。このうち、畳み込みモジュールTc1(x)〜TcN(x)は、それぞれ、識別器制御部32の判定結果によらず、常時接続される。すなわち、畳み込みモジュールTc1(x)〜TcN(x)は、車両10に関する所定の条件が満たされない場合の多数の画像を含む教師データ(本実施形態では、様々な地域について得られた多数の画像を含む教師データ)に基づいて、誤差逆伝搬法といった学習手法に従って予め学習され、車両10が走行中の地域によらずに物体検出に利用される。
FIG. 4 is a schematic configuration diagram of a variable layer among a plurality of layers of the DNN used as a discriminator. In this example, convolution is performed on the i-th (i is an integer of 1 or more)
一方、畳み込みモジュールTf1(x)〜Tfn(x)のそれぞれは、第1の部分ネットワークの一例であり、畳み込みモジュールTc1(x)〜TcN(x)と同一の構造を持ち、かつ、互いに異なる、車両10に関する条件(本実施形態では、地図情報に表された複数の地域のうちの互いに異なる地域)に対応する。そして畳み込みモジュールTf1(x)〜Tfn(x)のそれぞれは、スイッチS1〜Snを介して可変層400の上流側の層と下流側の層との間に接続される。畳み込みモジュールTf1(x)〜Tfn(x)は、それぞれ、対応する所定の条件下で得られた複数の画像を含む教師データ(本実施形態では、対応する地域について得られた複数の画像を含む教師データ)に基づいて、誤差逆伝搬法といった学習手法に従って予め学習される。例えば、着目する地域の教師データを用いてDNNが学習される際に、スイッチS1〜Snのうちの着目する地域に対応するスイッチのみがオンにされ、畳み込みモジュールTf1(x)〜Tfn(x)のうちの着目する地域に対応する畳み込みモジュールのみがDNNに接続される。その上で、着目する地域の教師データを用いてDNNが学習される。これにより、畳み込みモジュールTf1(x)〜Tfn(x)は、対応する地域について特化される。そのため、畳み込みモジュールTf1(x)〜Tfn(x)のうちの車両10が走行する地域に対応する畳み込みモジュールがDNNに接続されることで、車両10がその地域を走行する際の物体の検出精度が向上する。
On the other hand, each of the convolution modules Tf1 (x) to Tfn (x) is an example of a first partial network, has the same structure as the convolution modules Tc1 (x) to TcN (x), and differs from each other. This corresponds to the condition relating to the vehicle 10 (in the present embodiment, different regions among a plurality of regions represented in the map information). Each of the convolution modules Tf1 (x) to Tfn (x) is connected between an upstream layer and a downstream layer of the
可変層400では、畳み込みモジュールTc1(x)〜TcN(x)のそれぞれの出力と、畳み込みモジュールTf1(x)〜Tfn(x)のうち、対応するスイッチがオンとなる畳み込みモジュールの出力との和が計算される。そしてその和に対して、畳み込み演算を実施した畳み込みモジュールの数に対する可変層400が有する畳み込みモジュールの総数の比((N+n)/(N+ΣSbk)、ただし、Sbk(k=1,...,n)は、スイッチSkがオンの時に1となり、スイッチSkがオフの時に0となるbool変数である)が乗じられることで得られる値とxiとの和が、feature map xi+iとして出力される。そしてfeature map xi+iが、次の層に入力される。
In the
なお、識別器として利用されるDNNは、図4に示されるような可変層を2以上有していてもよい。この場合、2以上の可変層は、互いに連続するように設けられてもよく、あるいは、2以上の可変層の間に、プーリング層といった他の層が設けられてもよい。また、2以上の畳み込みモジュールが、一つの所定の条件に対応してもよい。この場合、識別器制御部32は、所定の条件が満たされた場合、その所定の条件に対応する二つ以上の畳み込みモジュールのそれぞれと接続されるスイッチをオンにすればよい。さらに、識別器として利用されるDNNが1以上の全結合層を有する場合、全結合層のうちの一つが可変層として形成されてもよい。この場合、複数の部分ネットワークのそれぞれは、上流側の層が有する複数のニューロンの全ての出力値を入力として一つの出力値を演算するように構成されてもよい。さらに、個々の部分ネットワークは、複数の層を含んでもよい。この場合、個々の部分ネットワークには、例えば、畳み込み層、プーリング層及び全結合層のうちの2種類以上が含まれてもよく、あるいは、畳み込み層、プーリング層及び全結合層の何れかが2層以上含まれてもよい。
It should be noted that the DNN used as the discriminator may have two or more variable layers as shown in FIG. In this case, two or more variable layers may be provided so as to be continuous with each other, or another layer such as a pooling layer may be provided between the two or more variable layers. Further, two or more convolution modules may correspond to one predetermined condition. In this case, when a predetermined condition is satisfied, the
識別器制御部32は、スイッチS1〜Snのうち、車両10に関する所定の条件が満たされる場合に、その所定の条件に対応するスイッチをオンにし、他のスイッチをオフにする。上記のように、本実施形態では、所定の条件は、車両10自身の走行回数が所定数以上となる地域に車両10の現在位置が含まれることである。したがって、識別器制御部32は、車両の現在位置が含まれる地域について、車両10自身の走行回数が所定数以上となる場合、車両の現在位置が含まれる地域に対応するスイッチをオンにする。例えば、畳み込みモジュールTf1(x)が北海道地方に対応し、畳み込みモジュールTf2(x)が九州地方に対応する場合において、車両10の現在位置が北海道地方に位置し、かつ、車両10自身が北海道地方を走行した回数が所定数以上となる場合、識別器制御部32は、畳み込みモジュールTf1(x)に対応するスイッチS1をオンにし、畳み込みモジュールTf2(x)に対応するスイッチS2をオフにする。これにより、畳み込みモジュールTf1(x)〜Tfn(x)のうち、車両10が現在走行中の地域について、車両10の走行回数が所定の回数閾値以上となる場合に、その地域に対応する畳み込みモジュールが物体検出に利用されることになる。
When a predetermined condition regarding the
図5は、識別器制御部32により実行される識別器制御処理の動作フローチャートである。識別器制御部32は、所定の周期(例えば、1分、10分、1時間など)あるいは所定のタイミングごと(例えば、車両10が所定距離(例えば、10km〜50km)だけ走行する度、あるいは、車両10が異なる地域へ移動する度)に、図5に示される動作フローチャートに従って、識別器制御処理を実行する。
FIG. 5 is an operation flowchart of a discriminator control process executed by the
プロセッサ23の識別器制御部32は、プロセッサ23が測位情報受信機3から受け取った最新の測位情報で表される車両10の現在位置と、メモリ22に記憶されている地図情報とを比較して、地図情報に表される複数の地域のうち、車両10の現在位置が含まれる地域(以下、現在地域と呼ぶ)を特定する(ステップS101)。識別器制御部32は、特定された現在地域における車両10の走行回数をメモリ22から読み込んで、その走行回数が、所定の回数閾値Th以上か否か判定する(ステップS102)。なお、所定の回数閾値Thは、例えば、10〜100に設定される。
The
現在地域における車両10の走行回数が回数閾値Th以上となる場合(ステップS102−Yes)、識別器制御部32は、物体検出部33にて物体検出に使用される識別器のDNNが有する複数の部分ネットワークのうち、現在地域に対応する部分ネットワークを使用するよう識別器を制御する(ステップS103)。一方、現在地域における車両10の走行回数が回数閾値Th未満となる場合(ステップS102−No)、識別器制御部32は、現在地域に対応する部分ネットワークを使用しないよう識別器を制御する(ステップS104)。
ステップS103またはS104の後、識別器制御部32は、識別器制御処理を終了する。
When the number of times the
After step S103 or S104, the
物体検出部33は、検出部の一例であり、カメラ2から画像が得られる度に、その画像を識別器として利用されるDNNに入力することで、その画像に表された、車両10の周囲に存在する検出対象となる物体を検出する。その際、DNNが有する複数の部分ネットワークのうち、識別器制御部32により使用するよう制御された部分ネットワークが物体の検出に利用される。なお、検出対象となる物体には、例えば、車または人といった移動物体が含まれる。また、検出対象となる物体には、車線区画線といった道路標示または道路標識、及び信号機といった静止物体がさらに含まれてもよい。
物体検出部33は、検出された物体の種類及び画像上での位置を表す情報を運転計画部34へ出力する。
The
The
運転計画部34は、各画像から検出された物体に基づいて、車両10の周囲に存在する物体と車両10とが衝突しないように車両10の走行予定経路を1以上生成する。走行予定経路は、例えば、現時刻から所定時間先までの各時刻における、車両10の目標位置の集合として表される。例えば、運転計画部34は、カメラ2から画像を受信する度に、カメラ2についての車両10への取り付け位置などの情報を用いて視点変換処理を実行することで、受信した画像を鳥瞰画像に変換する。そして運転計画部34は、一連の鳥瞰画像に対してKalman Filterなどを用いたトラッキング処理を実行することで、各画像についての検出されている物体を追跡し、その追跡結果により得られた軌跡から、物体のそれぞれの所定時間先までの予測軌跡を推定する。運転計画部34は、追跡中の各物体の予測軌跡に基づいて、何れの物体についても所定時間先までの追跡中の物体のそれぞれと車両10間の距離の予測値が所定距離以上となるように、車両10の走行予定経路を生成する。その際、運転計画部34は、例えば、測位情報受信機3から得た測位情報に表される車両10の現在位置と、メモリ22に記憶されている地図情報とを参照して、車両10が走行可能な車線の数を確認してもよい。そして運転計画部34は、車両10が走行可能な車線が複数存在する場合には、車両10が走行する車線を変更するように走行予定経路を生成してもよい。その際、運転計画部34は、画像から検出された車線区画線の位置を参照して、車両10が走行中の車線、あるいは変更先の車線と車両10との位置関係を判定してもよい。さらに、運転計画部34は、画像から検出された信号機が一時停止を示している場合には、車両10をその信号機に対応する停止線にて停止させるように走行予定経路を設定してもよい。
なお、運転計画部34は、複数の走行予定経路を生成してもよい。この場合、運転計画部34は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
The driving
Note that the driving
運転計画部34は、生成した走行予定経路を車両制御部35へ通知する。
The
車両制御部35は、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部35は、通知された走行予定経路、及び、車速センサ(図示せず)により測定された車両10の現在の車速に従って、車両10の加速度を求め、その加速度となるようにアクセル開度またはブレーキ量を設定する。そして車両制御部35は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置へ出力する。あるいは、車両制御部35は、設定されたブレーキ量に応じた制御信号を車両10のブレーキへ出力する。
The
さらに、車両制御部35は、車両10が走行予定経路に沿って走行するために車両10の進路を変更する場合には、その走行予定経路に従って車両10の操舵角を求め、その操舵角に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。
Further, when changing the course of the
図6は、プロセッサ23により実行される、物体検出処理を含む車両制御処理の動作フローチャートである。プロセッサ23は、カメラ2から画像が受信する度に、図6に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS201〜S202の処理が物体検出処理に対応する。
FIG. 6 is an operation flowchart of a vehicle control process including an object detection process executed by the
プロセッサ23の識別器制御部32は、車両10に関する所定の条件が満たされる場合に、識別器として利用するDNNの可変層に含まれる複数の部分ネットワークのうち、その所定の条件に対応する部分ネットワークをオンにする(ステップS201)。すなわち、図4に示されるように、識別器制御部32は、所定の条件に対応する部分ネットワークに対応するスイッチをオンにして、その部分ネットワークが物体の検出に利用されるようにする。そしてプロセッサ23の物体検出部33は、カメラ2から得られた画像を識別器に入力して、画像に表された車両10の周囲の物体を検出する(ステップS202)。
When a predetermined condition relating to the
プロセッサ23の運転計画部34は、検出されている物体を追跡し、その追跡結果に基づいて推定されるその物体の予測軌跡と所定の距離以上となるように、車両10の走行予定経路を生成する(ステップS203)。そしてプロセッサ23の車両制御部35は、走行予定経路に沿って車両10が走行するように車両10を制御する(ステップS204)。そしてプロセッサ23は、車両制御処理を終了する。
The driving
以上に説明してきたように、この物体検出装置は、車両に関する所定の条件が満たされた時に、識別器として用いられるニューラルネットワークの可変層に含まれる複数の部分ネットワークのうち、その所定の条件に対応するよう予め学習された部分ネットワークを利用するように識別器を制御する。これにより、この物体検出装置は、その所定の条件が満たされる場合における物体の検出精度を向上できる。一方、この物体検出装置は、所定の条件が満たされない場合には、その所定の条件に対応するよう予め学習された部分ネットワークを利用しないように識別器を制御する。これにより、この物体検出装置は、その所定の条件が満たされない場合における物体の検出精度の低下を抑制できる。 As described above, this object detection device is configured such that when a predetermined condition regarding a vehicle is satisfied, the object detection device is configured to satisfy the predetermined condition among a plurality of partial networks included in a variable layer of a neural network used as a discriminator. The classifier is controlled to use the sub-network that has been learned in advance to correspond. Thus, the object detection device can improve the detection accuracy of the object when the predetermined condition is satisfied. On the other hand, when the predetermined condition is not satisfied, the object detection device controls the discriminator so as not to use the partial network previously learned so as to correspond to the predetermined condition. Thus, the object detection device can suppress a decrease in object detection accuracy when the predetermined condition is not satisfied.
変形例によれば、識別器制御部32は、車両10の走行回数の代わりに走行頻度に基づいて識別器を制御してもよい。この場合には、走行回数更新部31が、車両10が走行中の地域について、その地域を識別するための識別情報と対応付けて、車両10が走行した日時(以下、単に走行日時と呼ぶ)をメモリ22に記憶する。識別器制御部32は、車両10が走行中の地域について、直近の所定の期間(例えば、1週間、1カ月間など)に含まれる、その地域の識別情報と対応付けて記憶されている走行日時の数を走行頻度として求めればよい。そして識別器制御部32は、車両10が現在走行している地域についての走行頻度が所定の回数閾値以上であるときに、その地域と対応する部分ネットワークを物体の検出に利用するよう識別器を制御すればよい。
According to the modification, the
他の変形例によれば、走行回数または走行頻度を求める単位となる地域は、地図情報を利用せずに設定されてもよい。この場合には、実空間の所定サイズ(例えば、10km四方〜50km四方)の区画ごとに走行回数または走行日時が記憶される。例えば、走行回数更新部31は、車両10の現在位置を中心とする所定サイズの領域(区画よりも大きく、例えば、100km四方〜500km四方)に含まれる複数の区画のそれぞれについて、走行回数を1インクリメントするか、走行日時を記憶すればよい。また、識別器の可変層が有する複数の部分ネットワークは、それぞれ、互いに異なる代表地点と対応付けられ、その対応する代表地点を中心とする領域内から得られた教師データを用いて予め学習される。そして識別器制御部32は、車両10の現在位置を中心とする所定サイズの領域に含まれる各区画の走行回数の和、あるいは、直近の所定期間内の走行日時の数が所定の回数閾値以上である場合、各代表地点のうち、車両10の現在位置に最も近い代表地点と対応付けられた部分ネットワークを利用するよう識別器を制御する。
According to another modification, an area serving as a unit for calculating the number of times of travel or the frequency of travel may be set without using map information. In this case, the number of travels or the travel date and time is stored for each section of the real space having a predetermined size (for example, 10 km square to 50 km square). For example, the traveling
また他の変形例によれば、識別器制御部32は、走行回数または走行頻度ではなく、車両10の現在位置に基づいて識別器を制御してもよい。この場合には、識別器制御部32は、例えば、地図情報を参照して、測位情報受信機3から受け取った測位情報で表される車両10の現在位置が含まれる地域を特定し、特定された地域に対応する部分ネットワークを物体の検出に利用するよう、識別器を制御すればよい。この場合、走行回数更新部31は省略されてもよい。
According to another modification, the
さらに他の変形例によれば、識別器制御部32は、車両10の位置以外の条件に基づいて、物体の検出に用いられる識別器を制御してもよい。例えば、識別器制御部32は、現在時刻が夜間の時間帯に含まれる場合に所定の条件が満たされると判定してもよい。この場合には、物体の検出に利用される識別器の可変層に含まれる複数の部分ネットワークのうちの一つは、夜間に得られた画像を教師データとして予め学習される。そして識別器制御部32は、車両10に搭載された時計(図示せず)、あるいは、時間を報知する無線信号を受信する、車両10に搭載された無線通信モジュール(図示せず)からプロセッサ23が受信した現在時刻が夜間の時間帯に含まれるか否か判定する。そして識別器制御部32は、現在時刻が夜間の時間帯に含まれる場合に、その夜間の時間帯用に予め学習された部分ネットワークを物体の検出に利用するよう識別器を制御すればよい。これにより、物体検出装置は、昼間における物体の検出精度の低下を防ぎつつ、夜間における物体の検出精度を向上できる。なお、この場合も、走行回数更新部31は省略されてもよい。
According to still another modification, the
また、物体検出部33による物体検出の結果が運転支援に利用される場合には、識別器の可変層の複数の部分ネットワークのそれぞれは、互いに異なるドライバと対応付けられてもよい。この場合には、各部分ネットワークは、対応するドライバが車両10を運転する際にカメラ2により得られた画像を教師データとして予め学習される。そして識別器制御部32は、車両10の車室内に、車両10のドライバの顔を撮影するように取り付けられた車内カメラ(図示せず)により得られた車内画像に基づいて、車両10を運転しているドライバを識別する。なお、識別器制御部32は、例えば、メモリ22に予め記憶されたドライバごとのテンプレートを用いたテンプレートマッチング、あるいは、画像に表された顔を認識するための他の顔認識手法に従ってドライバを識別すればよい。そして識別器制御部32は、識別されたドライバに対応する部分ネットワークを物体の検出に利用するよう識別器を制御すればよい。これにより、例えば、ドライバに応じて車両10が通る経路または走行する時間帯に差異があるといった理由により、ドライバによって画像上での物体の写り方に差異が生じる場合でも、物体検出装置は、物体の検出精度を向上できる。
When the result of the object detection by the
また、識別器の可変層に含まれる、所定の条件と対応付けられた部分ネットワークを規定するためのパラメータセット(重み係数など)は、車両10と無線基地局及び通信ネットワークを介して通信可能なサーバに記憶されていてもよい。この場合には、識別器制御部32は、所定の条件が満たされると判定した場合に、車両10に搭載された無線通信モジュール(図示せず)を介して、サーバへ、車両10の識別情報と、その所定の条件を表す識別情報と、部分ネットワークのパラメータセットを要求することを表す信号とを含む要求信号を送信する。そしてサーバは、無線基地局及び通信ネットワークを介して要求信号を受信すると、所定の条件に対応するパラメータセットを含む応答信号を、通信ネットワーク及び無線基地局を介して車両10へ返送する。識別器制御部32は、無線通信モジュールを介して受信した応答信号からパラメータセットを取り出して部分ネットワークに適用することで、その部分ネットワークは、所定の条件に対応するものとなる。
この変形例によれば、物体検出装置は、識別器が有する部分ネットワークの数を少なくすることができるので、メモリ22に対して要求されるメモリ容量を削減できる。さらに、所定の条件に対応する部分ネットワークのパラメータセットを更新することが容易となる。
A parameter set (such as a weight coefficient) for defining a partial network associated with a predetermined condition included in the variable layer of the discriminator can communicate with the
According to this modification, the object detection device can reduce the number of partial networks included in the classifier, so that the memory capacity required for the
上記の実施形態または変形例による物体検出装置は、カメラ2以外の車両10の周囲に存在する物体を検知するためのセンサにより取得されたセンサ信号に対して適用されてもよい。そのような、所定の検知範囲内に存在する物体を検出するためのセンサとして、例えば、車両10に搭載されたLIDARセンサあるいはレーザセンサが用いられてもよい。この場合、物体検出部33が識別器として用いるDNNは、車両10に搭載されたセンサにより取得されたセンサ信号から、物体を検出するように予め学習されればよい。この場合も、識別器は、上記の実施形態または変形例と同様に、複数の部分ネットワークを含む可変層を1以上有し、複数の部分ネットワークは、対応する条件下での教師データを用いて予め学習されればよい。
The object detection device according to the above embodiment or the modification may be applied to a sensor signal acquired by a sensor for detecting an object existing around the
また、上記の実施形態または変形例による、物体検出装置のプロセッサ23の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。
In addition, the computer program for realizing the function of each unit of the
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various changes according to the embodiments within the scope of the present invention.
1 車両制御システム
2 カメラ
3 測位情報受信機
4 電子制御装置(物体検出装置)
5 車内ネットワーク
21 通信インターフェース
22 メモリ
23 プロセッサ
31 走行回数更新部
32 識別器制御部
33 物体検出部
34 運転計画部
35 車両制御部
5 In-
Claims (1)
前記車両に関する前記所定の条件が満たされる場合、前記物体の検出に前記第1の部分ネットワークを用い、一方、前記車両に関する前記所定の条件が満たされない場合、前記物体の検出に前記第1の部分ネットワークを用いないよう、前記ニューラルネットワークを制御するネットワーク制御部と、
を有する物体検出装置。 An object existing around the vehicle is detected by inputting a sensor signal obtained from a sensor mounted on a vehicle to a neural network, and the neural network has an input layer to which the sensor signal is input, and an input layer of the object. An output layer that outputs a detection result, including a plurality of layers connected between the input layer and the output layer, at least one of the plurality of layers has the same structure, And a plurality of partial networks that operate on signals input to the layer in parallel with each other, wherein a first partial network of the plurality of partial networks satisfies a predetermined condition regarding the vehicle. In the learning, the partial networks other than the first partial network among the plurality of partial networks are learned in advance to detect the object. A detection unit in advance are learned to detect the object even if the predetermined condition is not satisfied,
When the predetermined condition regarding the vehicle is satisfied, the first partial network is used for detecting the object. On the other hand, when the predetermined condition regarding the vehicle is not satisfied, the first partial network is used for detecting the object. A network control unit that controls the neural network so as not to use a network;
An object detection device having:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179448A JP2020050047A (en) | 2018-09-25 | 2018-09-25 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179448A JP2020050047A (en) | 2018-09-25 | 2018-09-25 | Object detection device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020050047A true JP2020050047A (en) | 2020-04-02 |
Family
ID=69995428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018179448A Pending JP2020050047A (en) | 2018-09-25 | 2018-09-25 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020050047A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111915081A (en) * | 2020-08-03 | 2020-11-10 | 东北大学秦皇岛分校 | Peak-sensitive travel demand prediction method based on deep learning |
CN114084153A (en) * | 2020-08-24 | 2022-02-25 | 丰田自动车株式会社 | Object detection device, object detection method, and computer program for object detection |
-
2018
- 2018-09-25 JP JP2018179448A patent/JP2020050047A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111915081A (en) * | 2020-08-03 | 2020-11-10 | 东北大学秦皇岛分校 | Peak-sensitive travel demand prediction method based on deep learning |
CN111915081B (en) * | 2020-08-03 | 2023-10-17 | 东北大学秦皇岛分校 | Peak sensitive travel demand prediction method based on deep learning |
CN114084153A (en) * | 2020-08-24 | 2022-02-25 | 丰田自动车株式会社 | Object detection device, object detection method, and computer program for object detection |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11698263B2 (en) | Safety and comfort constraints for navigation | |
CN110001658B (en) | Path prediction for vehicles | |
US11428537B2 (en) | Localization and mapping methods using vast imagery and sensory data collected from land and air vehicles | |
EP4152204A1 (en) | Lane line detection method, and related apparatus | |
CN113544467B (en) | Alignment of road information for navigation | |
JP2022553491A (en) | Systems and methods for vehicle navigation | |
CN109643367A (en) | Crowdsourcing and the sparse map of distribution and lane measurement for autonomous vehicle navigation | |
CN113743469B (en) | Automatic driving decision method integrating multi-source data and comprehensive multi-dimensional indexes | |
JP2006208223A (en) | Vehicle position recognition device and vehicle position recognition method | |
CN115393677A (en) | End-to-end system training using fused images | |
CN115705693A (en) | Method, system and storage medium for annotation of sensor data | |
US20230086088A1 (en) | Vehicle onboard apparatus, image recognition system, support apparatus for vehicle onboard apparatus, image recognition method, and model data transmission method | |
JP2020050047A (en) | Object detection device | |
US20200097005A1 (en) | Object detection device, object detection method, and vehicle controller | |
US20240135719A1 (en) | Identification of unknown traffic objects | |
WO2024015564A1 (en) | Registration of traffic signs' feature vectors in remote server | |
WO2023194978A1 (en) | A safe and scalable model for culturally sensitive driving by automated vehicles using a probabilistic architecture | |
CN116894871A (en) | map generation device |