JP2021026683A - Distance estimation apparatus - Google Patents

Distance estimation apparatus Download PDF

Info

Publication number
JP2021026683A
JP2021026683A JP2019146445A JP2019146445A JP2021026683A JP 2021026683 A JP2021026683 A JP 2021026683A JP 2019146445 A JP2019146445 A JP 2019146445A JP 2019146445 A JP2019146445 A JP 2019146445A JP 2021026683 A JP2021026683 A JP 2021026683A
Authority
JP
Japan
Prior art keywords
distance
image
vehicle
type
represented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019146445A
Other languages
Japanese (ja)
Inventor
大輔 橋本
Daisuke Hashimoto
大輔 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019146445A priority Critical patent/JP2021026683A/en
Publication of JP2021026683A publication Critical patent/JP2021026683A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Abstract

To provide a distance estimation apparatus capable of improving the accuracy of estimating a distance to an object shown in images.SOLUTION: A distance estimation apparatus includes: a storage part 22 for storing, for each of plural categories of objects that are detection targets, a reference size and size distribution information that represents a degree of variation in size of the object of the category in an actual space; an object detection part 31 for detecting an object zone in which an object is represented by a series of images obtained in time series, and calculating, for each category, a degree of confidence in that the object represented in the object zone is an object of the category; a distance distribution calculation part 32 for calculating, for each image, a distribution of distances to the object represented in the image, on the basis of a size of the object zone in the image and size distribution information of each of the plural categories of objects and the confidence degree; and a distance estimation part 33 for estimating a distance to the object at a time point of obtaining each image, through prediction processing that uses a distribution of the estimated distance for each image as an observation error model for a distance to the object.SELECTED DRAWING: Figure 3

Description

本発明は、画像に表された物体までの距離を推定する距離推定装置に関する。 The present invention relates to a distance estimation device that estimates the distance to an object represented in an image.

カメラにより得られた画像といった、センサ情報に表された物体を検出する技術が研究されている。このような物体検出技術は、例えば、車両の自動運転制御において、車両に設けられたカメラにより得られた画像から車両の周囲の物体を検出するために用いられる。近年では、物体を検出するために、いわゆるディープニューラルネットワーク(以下、単にDNNと呼ぶ)といった機械学習手法を用いることで、検出精度を向上する技術が提案されている(例えば、非特許文献1〜4を参照)。 Research is being conducted on techniques for detecting objects represented by sensor information, such as images obtained by cameras. Such an object detection technique is used, for example, in automatic driving control of a vehicle to detect an object around the vehicle from an image obtained by a camera provided in the vehicle. In recent years, a technique for improving detection accuracy has been proposed by using a machine learning method such as a so-called deep neural network (hereinafter, simply referred to as DNN) to detect an object (for example, Non-Patent Documents 1 to 1). See 4).

また、車両の自動運転制御では、車両が周囲の物体と衝突しないように車両が走行する経路を設定するために、車両と周囲の物体間の相対的な位置関係を正確に把握することが求められる。しかし、一つのカメラにより得られる画像には、その画像に表された物体までの距離に関する情報は含まれていない。そこで、画像に表された前方の車両の水平または垂直のエッジ幅と、水平または垂直の実幅推定値とに基づいて、車間距離を推定する技術が提案されている(例えば、特許文献1を参照)。 In addition, in automatic driving control of a vehicle, in order to set a route on which the vehicle travels so that the vehicle does not collide with surrounding objects, it is required to accurately grasp the relative positional relationship between the vehicle and surrounding objects. Be done. However, the image obtained by one camera does not contain information about the distance to the object represented in the image. Therefore, a technique for estimating the inter-vehicle distance based on the horizontal or vertical edge width of the vehicle in front shown in the image and the estimated horizontal or vertical width has been proposed (for example, Patent Document 1). reference).

特開2002−327635号公報JP-A-2002-327635

Wei Liu他、「SSD: Single Shot MultiBox Detector」、ECCV2016、2016年Wei Liu et al., "SSD: Single Shot MultiBox Detector", ECCV2016, 2016 Shaoqing Ren他、「Faster R-CNN: Towards Real-Time ObjectDetection with Region Proposal Networks」、NIPS、2015年Shaoqing Ren et al., "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", NIPS, 2015 Alex Kendall他、「Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics」、CVPR2018、2018年Alex Kendall et al., "Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics", CVPR2018, 2018 Anna Petrovskaya他、「Model Based Vehicle Tracking for Autonomous Driving in Urban Environments」、Robotics: Science and Systems 2008、2008年Anna Petrovskaya et al., "Model Based Vehicle Tracking for Autonomous Driving in Urban Environments", Robotics: Science and Systems 2008, 2008

しかしながら、距離推定の対象となる物体の実空間での実際の幅の誤差が大きくなるほど、推定された距離の誤差も大きくなる。例えば、画像から検出された物体が車両である場合、上記の技術では、基準となる車両の実空間での幅が仮定され、その仮定された幅を用いて車間距離が推定される。しかし、車両には、バスまたはトラックといった、比較的大きな横幅を持つ車両がある一方、小型乗用車のように、比較的小さな横幅を持つ車両がある。そのため、検出された車両の種類によっては、仮定された車両の幅と実際の車両の幅との差が大きくなり、その結果として、推定された車間距離の誤差も大きくなることがある。 However, the greater the error in the actual width of the object to be estimated in real space, the greater the error in the estimated distance. For example, when the object detected from the image is a vehicle, in the above technique, the width of the reference vehicle in the real space is assumed, and the inter-vehicle distance is estimated using the assumed width. However, some vehicles, such as buses or trucks, have a relatively large width, while others, such as small passenger cars, have a relatively small width. Therefore, depending on the type of vehicle detected, the difference between the assumed width of the vehicle and the width of the actual vehicle becomes large, and as a result, the error of the estimated inter-vehicle distance may also become large.

そこで、本発明は、画像に表された物体までの距離の推定精度を向上できる距離推定装置を提供することを目的とする。 Therefore, an object of the present invention is to provide a distance estimation device capable of improving the estimation accuracy of the distance to the object represented by the image.

一つの実施形態によれば、距離推定装置が提供される。この距離推定装置は、検出対象となる物体の複数の種類のそれぞれについて、その種類の物体の実空間における基準サイズ及びその種類の物体の実空間におけるサイズのバラツキ度合いを表すサイズ分布情報を記憶する記憶部と、時系列に得られる一連の画像のそれぞれについて、その画像から物体が表された物体領域を検出するとともに、物体の複数の種類のそれぞれについて、物体領域に表された物体がその種類の物体である確信度を算出する物体検出部と、一連の画像のうち、物体が検出された画像のそれぞれについて、その画像上の物体領域のサイズと、物体の複数の種類のそれぞれのサイズ分布情報及び確信度とに基づいて、その画像に表された物体までの推定距離の分布を求める距離分布算出部と、一連の画像のうち、物体が検出された画像のそれぞれについての推定距離の分布をその物体までの距離の観測誤差モデルとして用いた予測処理により、その物体が検出された画像のそれぞれの取得時刻における、その物体までの距離を推定する距離推定部とを有する。 According to one embodiment, a distance estimation device is provided. This distance estimation device stores size distribution information indicating the reference size of an object of that type in the real space and the degree of variation in the size of the object of that type in the real space for each of a plurality of types of objects to be detected. For each of the storage unit and a series of images obtained in time series, the object area in which the object is represented is detected from the image, and for each of the plurality of types of objects, the object represented in the object area is the type. For each of the object detection unit that calculates the certainty of the object and the image in which the object is detected in the series of images, the size of the object area on the image and the size distribution of each of the plurality of types of the object. A distance distribution calculation unit that obtains the distribution of the estimated distance to the object represented in the image based on information and certainty, and the distribution of the estimated distance for each of the images in the series of images in which the object was detected. It has a distance estimation unit that estimates the distance to the object at each acquisition time of the image in which the object is detected by the prediction processing using the above as an observation error model of the distance to the object.

本発明に係る距離推定装置は、画像に表された物体までの距離の推定精度を向上できるという効果を奏する。 The distance estimation device according to the present invention has the effect of improving the estimation accuracy of the distance to the object shown in the image.

距離推定装置が実装される車両制御システムの概略構成図である。It is a schematic block diagram of the vehicle control system in which the distance estimation device is mounted. 距離推定装置の一つの実施形態である電子制御装置のハードウェア構成図である。It is a hardware block diagram of the electronic control apparatus which is one Embodiment of a distance estimation apparatus. 距離推定処理を含む車両制御処理に関する、電子制御装置のプロセッサの機能ブロック図である。It is a functional block diagram of the processor of the electronic control device concerning the vehicle control processing including the distance estimation processing. 識別器として利用されるDNNの構成の一例を示す図である。It is a figure which shows an example of the structure of the DNN used as a classifier. 管理テーブルの一例を示す図である。It is a figure which shows an example of the management table. 距離推定処理を含む、車両制御処理の動作フローチャートである。It is an operation flowchart of the vehicle control processing including the distance estimation processing.

以下、図を参照しつつ、距離推定装置について説明する。この距離推定装置は、時系列に得られる一連の画像から検出され、かつ、追跡される物体について、その追跡中の物体までの距離を推定する。その際、この距離推定装置は、追跡期間中に撮像部により得られた各画像について、その画像を識別器に入力することで求められる物体の種類ごとの確信度と、画像上での物体のサイズと、物体の種類ごとの実空間での撮像部から見た基準サイズ及びサイズのバラツキ度合いを表すサイズ分布情報とに基づいて、物体までの距離の推定値の統計的代表値及びバラツキの度合いを含む推定距離の分布を求める。そしてこの距離推定装置は、その分布を観測誤差のモデルとして用いる予測処理を行うことで、追跡中の各画像取得時における、その物体までの距離を推定する。 Hereinafter, the distance estimation device will be described with reference to the drawings. This distance estimation device estimates the distance to an object being tracked for an object detected and tracked from a series of images obtained in time series. At that time, this distance estimation device obtains the certainty of each type of object obtained by inputting the image into the classifier for each image obtained by the imaging unit during the tracking period, and the object on the image. Based on the size and the size distribution information that represents the reference size and the degree of variation in size as seen from the imaging unit in real space for each type of object, the statistical representative value of the estimated value of the distance to the object and the degree of variation Find the distribution of the estimated distance including. Then, this distance estimation device estimates the distance to the object at the time of acquiring each image during tracking by performing prediction processing using the distribution as a model of observation error.

以下では、距離推定装置を、車両制御システムに適用した例について説明する。この例では、距離推定装置は、車両に搭載されたカメラにより得られた画像に対して距離推定処理を実行することで、車両の周囲に存在する、検出対象となる物体を検出するとともに、検出された物体までの距離を推定し、物体の検出結果及び検出された物体までの距離の推定値を、車両の運転制御に利用する。なお、以下の実施形態では、車両に搭載されたカメラから物体までの距離を、その車両から物体までの距離とする。 In the following, an example in which the distance estimation device is applied to the vehicle control system will be described. In this example, the distance estimation device detects and detects an object to be detected around the vehicle by executing a distance estimation process on an image obtained by a camera mounted on the vehicle. The distance to the detected object is estimated, and the detection result of the object and the estimated value of the distance to the detected object are used for the operation control of the vehicle. In the following embodiment, the distance from the camera mounted on the vehicle to the object is defined as the distance from the vehicle to the object.

図1は、距離推定装置が実装される車両制御システムの概略構成図である。また図2は、距離推定装置の一例である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、距離推定装置の一例である電子制御装置(ECU)3とを有する。カメラ2とECU3とは、コントローラエリアネットワークといった規格に準拠した車内ネットワーク4を介して通信可能に接続される。 FIG. 1 is a schematic configuration diagram of a vehicle control system in which a distance estimation device is mounted. Further, FIG. 2 is a hardware configuration diagram of an electronic control device which is an example of a distance estimation device. In the present embodiment, the vehicle control system 1 mounted on the vehicle 10 and controlling the vehicle 10 includes a camera 2 for photographing the surroundings of the vehicle 10 and an electronic control device (ECU) which is an example of a distance estimation device. Has 3 and. The camera 2 and the ECU 3 are communicably connected to each other via an in-vehicle network 4 that conforms to a standard such as a controller area network.

カメラ2は、撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒〜1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。なお、車両10には、撮影方向または焦点距離が異なる複数のカメラが設けられてもよい。 The camera 2 is an example of an imaging unit, and is a two-dimensional detector composed of an array of photoelectric conversion elements having sensitivity to visible light, such as a CCD or C-MOS, and an object to be photographed on the two-dimensional detector. It has an imaging optical system that forms an image of a region. Then, the camera 2 is attached to, for example, the interior of the vehicle 10 so as to face the front of the vehicle 10. Then, the camera 2 photographs the front region of the vehicle 10 at predetermined imaging cycles (for example, 1/30 second to 1/10 second), and generates an image in which the front region is captured. The image obtained by the camera 2 may be a color image or a gray image. The vehicle 10 may be provided with a plurality of cameras having different shooting directions or focal lengths.

カメラ2は、画像を生成する度に、その生成した画像及び撮影時刻(すなわち、画像の取得時刻)を、車内ネットワーク4を介してECU3へ出力する。 Each time the camera 2 generates an image, the camera 2 outputs the generated image and the shooting time (that is, the image acquisition time) to the ECU 3 via the in-vehicle network 4.

ECU3は、車両10を制御する。本実施形態では、ECU3は、カメラ2により得られた時系列の一連の画像から検出された物体に基づいて車両10を自動運転するよう、車両10を制御する。そのために、ECU3は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。 The ECU 3 controls the vehicle 10. In the present embodiment, the ECU 3 controls the vehicle 10 so as to automatically drive the vehicle 10 based on an object detected from a series of time-series images obtained by the camera 2. Therefore, the ECU 3 has a communication interface 21, a memory 22, and a processor 23.

通信インターフェース21は、通信部の一例であり、ECU3を車内ネットワーク4に接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワーク4を介して、カメラ2と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。 The communication interface 21 is an example of a communication unit, and has an interface circuit for connecting the ECU 3 to the in-vehicle network 4. That is, the communication interface 21 is connected to the camera 2 via the in-vehicle network 4. Then, each time the communication interface 21 receives an image from the camera 2, the received image is passed to the processor 23.

メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。なお、メモリ22は、後述するようにプロセッサ23が複数の演算ユニットを有する場合に、演算ユニットごとに専用のメモリ回路を有していてもよい。そしてメモリ22は、ECU3のプロセッサ23により実行される距離推定処理において使用される各種のデータ、例えば、カメラ2の焦点距離といったカメラ2に関する情報を表す内部パラメータ、距離推定処理で利用される識別器を特定するための各種パラメータ、及び、サイズ分布情報の一例である管理テーブルなどを記憶する。さらに、メモリ22は、カメラ2から受信した画像をその撮影時刻とともに一定期間記憶する。さらにまた、メモリ22は、検出された物体が追跡されている期間中に得られた各画像における、その物体が表された物体領域を表す情報及び検出物体リストといった、距離推定処理の途中で生成される各種のデータを一定期間記憶する。さらにまた、メモリ22は、地図情報といった車両10の走行制御に利用される情報を記憶してもよい。 The memory 22 is an example of a storage unit, and includes, for example, a volatile semiconductor memory and a non-volatile semiconductor memory. Note that the memory 22 may have a dedicated memory circuit for each arithmetic unit when the processor 23 has a plurality of arithmetic units as described later. The memory 22 is an internal parameter that represents information about the camera 2, such as various data used in the distance estimation process executed by the processor 23 of the ECU 3, such as the focal length of the camera 2, and a classifier used in the distance estimation process. Various parameters for specifying the above, and a management table which is an example of size distribution information are stored. Further, the memory 22 stores the image received from the camera 2 together with the shooting time for a certain period of time. Furthermore, the memory 22 is generated during the distance estimation process, such as information representing the object area in which the object is represented and a list of detected objects in each image obtained during the period in which the detected object is being tracked. Various data to be stored is stored for a certain period of time. Furthermore, the memory 22 may store information used for traveling control of the vehicle 10, such as map information.

プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10が走行している間、カメラ2から画像を受信する度に、受信した画像に対して距離推定処理を含む車両制御処理を実行する。そしてプロセッサ23は、検出された車両10の周囲の物体までの推定距離に基づいて、車両10を自動運転するよう、車両10を制御する。 The processor 23 is an example of a control unit, and includes one or a plurality of CPUs (Central Processing Units) and peripheral circuits thereof. The processor 23 may further include other arithmetic circuits such as a logical operation unit, a numerical operation unit, or a graphic processing unit. Then, each time the processor 23 receives an image from the camera 2 while the vehicle 10 is traveling, the processor 23 executes a vehicle control process including a distance estimation process for the received image. Then, the processor 23 controls the vehicle 10 so as to automatically drive the vehicle 10 based on the detected estimated distance to an object around the vehicle 10.

図3は、距離推定処理を含む車両制御処理に関する、ECU3のプロセッサ23の機能ブロック図である。プロセッサ23は、物体検出部31と、距離分布算出部32と、距離推定部33と、運転計画部34と、車両制御部35とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、物体検出部31、距離分布算出部32及び距離推定部33が、距離推定処理を実行する。なお、車両10に複数のカメラが設けられる場合には、プロセッサ23は、カメラごとに、そのカメラにより得られた画像に基づいて距離推定処理を実行してもよい。 FIG. 3 is a functional block diagram of the processor 23 of the ECU 3 regarding vehicle control processing including distance estimation processing. The processor 23 includes an object detection unit 31, a distance distribution calculation unit 32, a distance estimation unit 33, a driving planning unit 34, and a vehicle control unit 35. Each of these parts of the processor 23 is, for example, a functional module realized by a computer program running on the processor 23. Alternatively, each of these parts included in the processor 23 may be a dedicated arithmetic circuit provided in the processor 23. Further, among these units of the processor 23, the object detection unit 31, the distance distribution calculation unit 32, and the distance estimation unit 33 execute the distance estimation process. When a plurality of cameras are provided in the vehicle 10, the processor 23 may execute the distance estimation process for each camera based on the image obtained by the cameras.

物体検出部31は、カメラ2から画像を受信する度に、受信した最新の画像を識別器に入力することで、その画像上の複数の領域のそれぞれについて、検出対象となる物体の種類ごとに、その領域にその種類の物体が表されている確からしさを表す確信度を求める。そして物体検出部31は、何れかの種類についての確信度が確信度閾値以上となる領域に、その種類の物体が表されていると判定する。 Each time the object detection unit 31 receives an image from the camera 2, the object detection unit 31 inputs the latest received image into the classifier, and for each of the plurality of areas on the image, for each type of object to be detected. , Find the certainty that represents the certainty that an object of that kind is represented in that area. Then, the object detection unit 31 determines that the object of that type is represented in the region where the certainty of any type is equal to or higher than the certainty threshold.

本実施形態では、物体検出部31は、識別器として、画像上の複数の領域のそれぞれについて、検出対象となる物体の種類ごとに確信度を求めるように予め学習されたDNNを利用する。物体検出部31が利用するDNNは、例えば、非特許文献1に記載されたSingle Shot MultiBox Detector(SSD)、または、非特許文献2に記載されたFaster R-CNNと同様の構造を有するコンボリューショナルニューラルネットワーク(CNN)とすることができる。 In the present embodiment, the object detection unit 31 uses a DNN that has been learned in advance as a discriminator so as to obtain the certainty for each type of the object to be detected for each of the plurality of regions on the image. The DNN used by the object detection unit 31 is, for example, a Single Shot MultiBox Detector (SSD) described in Non-Patent Document 1 or a convolutional network having the same structure as the Faster R-CNN described in Non-Patent Document 2. It can be a tional neural network (CNN).

図4は、識別器として利用されるDNNの構成の一例を示す図である。DNN400は、画像が入力される入力側に設けられる主幹部401と、主幹部401よりも出力側に設けられる位置検出部402及び種類推定部403とを有する。位置検出部402は、主幹部401からの出力に基づいて、画像上で検出対象となる物体が表された領域の外接矩形を出力する。種類推定部403は、主幹部401からの出力に基づいて、位置検出部402で検出された領域に表された物体の種類ごとの確信度を算出する。なお、位置検出部402及び種類推定部403は一体的に形成されてもよい。 FIG. 4 is a diagram showing an example of the configuration of a DNN used as a discriminator. The DNN 400 has a main trunk unit 401 provided on the input side where an image is input, a position detection unit 402 and a type estimation unit 403 provided on the output side of the main trunk unit 401. The position detection unit 402 outputs an circumscribed rectangle of the region in which the object to be detected is represented on the image, based on the output from the main trunk unit 401. The type estimation unit 403 calculates the certainty level for each type of the object represented in the region detected by the position detection unit 402 based on the output from the main trunk unit 401. The position detection unit 402 and the type estimation unit 403 may be integrally formed.

主幹部401は、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。その複数の層には2以上の畳み込み層が含まれる。さらに、主幹部401が有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。さらにまた、主幹部401が有する複数の層には、1以上の全結合層が含まれてもよい。例えば、主幹部401は、SSDのベースレイヤーと同様の構成とすることができる。この場合、主幹部401は、VGG-16と同様に、入力側から順に、2層の畳み込み層→MaxPoolingを行う(すなわち、n×n個の入力のうちの最大値を出力する)プーリング層(以下、単にプーリング層と呼ぶ)→2層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の全結合層で構成されてもよい。あるいは、主幹部401は、VGG-19、AlexNetあるいはNetwork-In-Networkといった他のCNNアーキテクチャに従って構成されてもよい。 The main trunk unit 401 can be, for example, a CNN having a plurality of layers connected in series from the input side to the output side. The plurality of layers include two or more convolutional layers. Further, the plurality of layers included in the main trunk portion 401 may include a pooling layer provided for each one or a plurality of convolution layers. Furthermore, the plurality of layers included in the main trunk portion 401 may include one or more fully connected layers. For example, the main executive 401 may have the same configuration as the base layer of the SSD. In this case, the main executive 401 performs two convolution layers → Max Pooling (that is, outputs the maximum value out of n × n inputs) in order from the input side, as in the case of VGG-16. (Hereinafter, simply referred to as pooling layer) → 2 layers of convolution layer → pooling layer → 3 layers of convolution layer → pooling layer → 3 layers of convolution layer → pooling layer → 3 layers of convolution layer → pooling layer → full bond of 3 layers It may be composed of layers. Alternatively, the cadre 401 may be configured according to other CNN architectures such as VGG-19, AlexNet or Network-In-Network.

主幹部401は、画像が入力されると、その画像に対して各層での演算を実行することで、その画像から算出したfeature mapを出力する。 When an image is input, the main executive 401 outputs a feature map calculated from the image by executing operations on the image in each layer.

位置検出部402及び種類推定部403には、それぞれ、主幹部401から出力されたfeature mapが入力される。そして位置検出部402及び種類推定部403は、それぞれ、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。位置検出部402及び種類推定部403のそれぞれについて、CNNが有する複数の層には2以上の畳み込み層が含まれる。また、位置検出部402及び種類推定部403のそれぞれについて、CNNが有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。なお、CNNが有する畳み込み層及びプーリング層は、位置検出部402及び種類推定部403について共通化されてもよい。さらに、位置検出部402及び種類推定部403のそれぞれについて、複数の層には、1以上の全結合層が含まれてもよい。この場合、全結合層は、各畳み込み層よりも出力側に設けられることが好ましい。また全結合層には、各畳み込み層からの出力が直接入力されてもよい。また、種類推定部403の出力層は、ソフトマックス関数に従って検出対象となる物体の種類のそれぞれの確信度を算出するソフトマックス層としてもよいし、シグモイド関数に従って検出対象となる物体の種類のそれぞれの確信度を算出するシグモイド層としてもよい。 The feature map output from the main executive unit 401 is input to the position detection unit 402 and the type estimation unit 403, respectively. The position detection unit 402 and the type estimation unit 403 can each be, for example, a CNN having a plurality of layers connected in series from the input side to the output side. For each of the position detection unit 402 and the type estimation unit 403, the plurality of layers included in the CNN include two or more convolution layers. Further, for each of the position detection unit 402 and the type estimation unit 403, the plurality of layers included in the CNN may include a pooling layer provided for each one or a plurality of convolution layers. The convolutional layer and pooling layer of the CNN may be shared with respect to the position detection unit 402 and the type estimation unit 403. Further, for each of the position detection unit 402 and the type estimation unit 403, the plurality of layers may include one or more fully connected layers. In this case, it is preferable that the fully connected layer is provided on the output side of each convolutional layer. Further, the output from each convolutional layer may be directly input to the fully connected layer. Further, the output layer of the type estimation unit 403 may be a softmax layer that calculates the certainty of each type of the object to be detected according to the softmax function, or each type of the object to be detected according to the sigmoid function. It may be a sigmoid layer for calculating the certainty of.

位置検出部402及び種類推定部403は、例えば、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、検出対象となる物体の種類のそれぞれの確信度を出力するように学習される。したがって、識別器400は、画像が入力されることで、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、検出対象となる物体の種類のそれぞれの確信度を出力する。 The position detection unit 402 and the type estimation unit 403 output, for example, the certainty of each type of the object to be detected for each region of various positions, various sizes, and various aspect ratios on the image. Be learned. Therefore, when the image is input, the classifier 400 outputs the certainty of each type of the object to be detected for each region of various positions, various sizes, and various aspect ratios on the image. ..

識別器400の学習に利用される教師データに含まれる画像(教師画像)には、例えば、検出対象となる物体の種類(例えば、車、人、道路標識、信号機、道路上のその他の物体など)と、検出対象となる物体が表された領域を表す、その物体の外接矩形とがタグ付けされる。 The image (teacher image) included in the teacher data used for learning the classifier 400 includes, for example, the type of object to be detected (for example, a car, a person, a road sign, a traffic light, another object on the road, etc.). ) And the circumscribing rectangle of the object, which represents the area in which the object to be detected is represented, are tagged.

識別器400は、上記のような多数の教師画像を用いて、例えば、誤差逆伝搬法といった学習手法に従って学習される。プロセッサ23は、このように学習された識別器400を利用することで、画像から検出対象となる物体を精度良く検出できる。 The classifier 400 is trained using a large number of teacher images as described above according to a learning method such as an error back propagation method. By using the classifier 400 learned in this way, the processor 23 can accurately detect the object to be detected from the image.

物体検出部31は、確信度が算出された複数の領域のそれぞれについて、その領域について算出された物体の種類のそれぞれについての確信度を、その種類について設定される確信度閾値と比較する。そして物体検出部31は、複数の領域のうち、何れかの物体の種類についての確信度が、その種類について適用される確信度閾値以上となる領域を、検出対象となる物体が表された物体領域として検出する。さらに、物体検出部31は、物体領域において、確信度閾値以上となる確信度に対応する物体の種類を、物体領域に表された物体の種類として推定する。 The object detection unit 31 compares the certainty of each of the types of objects calculated for each of the plurality of regions for which the certainty has been calculated with the certainty threshold set for the type. Then, the object detection unit 31 represents an object in which the object to be detected is represented in a region in which the certainty of any of the object types is equal to or higher than the certainty threshold applied to the type among the plurality of regions. Detect as an area. Further, the object detection unit 31 estimates the type of the object corresponding to the certainty level equal to or higher than the certainty degree threshold value in the object area as the type of the object represented in the object area.

あるいは、物体検出部31は、識別器として、DNN以外の識別器を用いてもよい。例えば、物体検出部31は、識別器として、画像上に設定されるウィンドウから算出される特徴量(例えば、Histograms of Oriented Gradients, HOG)を入力として、そのウィンドウに検出対象となる物体の種類のそれぞれについて、その種類の物体が表される確信度を出力するように予め学習されたサポートベクトルマシン(SVM)を用いてもよい。物体検出部31は、画像上に設定するウィンドウの位置、サイズ及びアスペクト比を様々に変更しながら、そのウィンドウから特徴量を算出し、算出した特徴量をSVMへ入力することで、そのウィンドウについて各種類の確信度を求める。そして物体検出部31は、何れかの種類の確信度が確信度閾値以上である場合、そのウィンドウを、その種類の物体が表された物体領域とする。 Alternatively, the object detection unit 31 may use a classifier other than the DNN as the classifier. For example, the object detection unit 31 inputs a feature amount (for example, Histograms of Oriented Gradients, HOG) calculated from a window set on the image as a classifier, and inputs the type of object to be detected in the window. For each, a pre-trained support vector machine (SVM) may be used to output the certainty that the object of that type is represented. The object detection unit 31 calculates a feature amount from the window while variously changing the position, size, and aspect ratio of the window set on the image, and inputs the calculated feature amount to the SVM to obtain the window. Find the certainty of each type. Then, when the certainty of any kind is equal to or higher than the certainty threshold value, the object detection unit 31 sets the window as the object area in which the object of the kind is represented.

変形例によれば、物体検出部31は、何れの種類についても確信度が確信度閾値未満となる場合でも、2以上の物体の種類を含むクラスの何れかについて、そのクラスに属する各種類の確信度の和がそのクラスについての確信度閾値以上となる領域を、そのクラスの物体が表された物体領域として検出してもよい。なお、クラスは、物体の種類の上位のカテゴリであり、予め設定される。また、クラスは、Non-Maximum Suppressionが適用される物体の種類の組み合わせを含むように設定されてもよい。例えば、「車両」というクラスに、「普通乗用車」という種類と、「大型車両」という種類とが含まれており、それぞれの種類及びクラスに対して、確信度閾値が0.7に設定されているとする。そしてある領域について、「普通乗用車」及び「大型車両」について算出された確信度が0,5、0.3であったとする。この場合、「普通乗用車」及び「大型車両」については、何れも、確信度が確信度閾値未満であるので、その領域に表された物体の種類は、「普通乗用車」及び「大型車両」の何れとも判定されない。しかし、「普通乗用車」について算出された確信度(0.5)と「大型車両」について算出された確信度(0.3)の和(0.8)は、確信度閾値以上となる。そのため、その領域には、「車両」というクラスの物体が表されていると判定される。 According to the modification, even if the certainty of any type is less than the certainty threshold, the object detection unit 31 of each type belonging to the class for any of the classes including two or more types of objects. A region in which the sum of certainty is equal to or greater than the certainty threshold for the class may be detected as an object region in which an object of the class is represented. The class is a higher category of the object type and is set in advance. The class may also be set to include a combination of object types to which Non-Maximum Suppression is applied. For example, if the class "vehicle" includes a type "ordinary passenger car" and a type "large vehicle", and the certainty threshold is set to 0.7 for each type and class. To do. Then, it is assumed that the confidence levels calculated for "ordinary passenger cars" and "large vehicles" are 0, 5, 0.3 for a certain area. In this case, since the certainty of both the "ordinary passenger car" and the "large vehicle" is less than the certainty threshold, the types of objects represented in the area are "ordinary passenger car" and "large vehicle". Neither is judged. However, the sum (0.8) of the certainty (0.5) calculated for the "ordinary passenger car" and the certainty (0.3) calculated for the "large vehicle" is equal to or higher than the certainty threshold. Therefore, it is determined that an object of the class "vehicle" is represented in that area.

これにより、ある領域に表されている物体が、所定のクラスに属する複数の種類の何れとも判別し難いような場合でも、物体検出部31は、その領域に表された物体を検出できる。 As a result, the object detection unit 31 can detect the object represented in the region even when it is difficult to distinguish the object represented in the region from any of a plurality of types belonging to the predetermined class.

この場合、物体の種類ごとに、その種類が属するクラスを表すクラステーブルがメモリ22に予め記憶される。そして物体検出部31は、クラステーブルを参照して、クラスごとに、そのクラスに属する物体の種類を特定すればよい。 In this case, for each type of object, a class table representing the class to which the type belongs is stored in the memory 22 in advance. Then, the object detection unit 31 may refer to the class table and specify the type of the object belonging to the class for each class.

物体検出部31は、各物体領域の画像上での位置及び範囲を表す情報(例えば、物体領域の左上端及び右下端の座標)と、その物体領域について推定された物体の種類と、その種類が属するクラスの各種類について算出された確信度とを、検出された物体のリストである検出物体リストに登録する。そして物体検出部31は、検出物体リストをメモリ22に記憶する。 The object detection unit 31 includes information representing the position and range of each object area on the image (for example, the coordinates of the upper left end and the lower right end of the object area), the type of the object estimated for the object area, and the type thereof. The certainty calculated for each type of the class to which the belongs is registered in the detected object list, which is a list of detected objects. Then, the object detection unit 31 stores the detected object list in the memory 22.

距離分布算出部32は、画像から検出された物体領域のそれぞれについて、その物体領域に表された物体の推定距離のバラツキ度合いを表す推定距離分布を算出する。本実施形態では、距離分布算出部32は、物体領域のサイズと、サイズ分布情報と、カメラ2の内部パラメータとに基づいて、検出対象となる物体の複数の種類のそれぞれについて物体領域に表された物体がその種類の物体である場合の推定距離の分布を表す正規分布を求め、求めた各種類の正規分布をその種類の確信度で重み付けすることで推定距離分布を求める。距離分布算出部32は、各物体領域について同じ処理を実行すればよいので、以下では、一つの物体領域に対する処理について説明する。 The distance distribution calculation unit 32 calculates an estimated distance distribution representing the degree of variation in the estimated distance of the object represented in the object region for each of the object regions detected from the image. In the present embodiment, the distance distribution calculation unit 32 is represented in the object region for each of a plurality of types of objects to be detected based on the size of the object region, the size distribution information, and the internal parameters of the camera 2. The normal distribution representing the distribution of the estimated distance when the object is that type of object is obtained, and the estimated distance distribution is obtained by weighting the obtained normal distribution of each type with the certainty of that type. Since the distance distribution calculation unit 32 may execute the same processing for each object region, the processing for one object region will be described below.

距離分布算出部32は、推定距離分布として、物体領域に表された物体の種類が属するクラスの種類ごとに、管理テーブルを参照して求められる、その種類について予め求められた実空間における代表的な大きさ及び大きさのバラツキの度合いと、その種類について算出された確信度とを用いて、混合正規分布を算出する。さらに、距離分布算出部32は、推定距離分布を後述する予測フィルタに適用できるようにするために、求めた混合正規分布を一つの正規分布で近似する。 As an estimated distance distribution, the distance distribution calculation unit 32 is obtained by referring to the management table for each type of class to which the type of the object represented in the object area belongs, and is representative of the type obtained in advance in the real space. A mixed normal distribution is calculated using the degree of variation in size and size and the certainty calculated for the type. Further, the distance distribution calculation unit 32 approximates the obtained mixed normal distribution with one normal distribution so that the estimated distance distribution can be applied to the prediction filter described later.

図5は、管理テーブルの一例を示す図である。管理テーブル500には、行ごとに、左から順に、物体の種類、その種類についてのカメラ2から見た実空間での代表的な水平方向サイズ、その水平方向サイズの標準偏差、その種類についての実空間での代表的な垂直方向サイズ、その垂直方向サイズの標準偏差、水平方向サイズの重み係数が表される。以下、カメラ2から見た実空間での物体の水平方向サイズを実幅と呼び、代表的な実幅を基準実幅と呼ぶ。同様に、カメラ2から見た実空間での物体の垂直方向サイズを実高と呼び、代表的な実高を基準実高と呼ぶ。なお、実幅の標準偏差は、その種類の物体の水平方向サイズのバラツキ度合いを表す。同様に、実高の標準偏差は、その種類の物体の垂直方向サイズのバラツキ度合いを表す。幅の重み係数Dwは、実幅に基づいて推定される物体までの距離の信頼性を表し、例えば、0以上1以下の値に設定される。また、同じ物体の種類に対する実高の重み係数は、例えば、(1-Dw)で表される。したがって、実幅に基づいて推定される物体までの距離の信頼性が、実高に基づいて推定される物体までの距離の信頼性に対して相対的に高いほど、実幅の重み係数Dwは大きな値に設定される。これは以下の理由による。物体の種類によっては、実幅と実高の何れか一方についてのバラツキ度合いが他方のバラツキ度合いよりも低いことがある。例えば、物体の種類が「歩行者」である場合、カメラ2から見た歩行者の向きにより、実幅は大きく異なるのに対して、実高はあまり変化しない。そのため、実幅のバラツキ度合いよりも、実高のバラツキ度合いの方が小さくなる。したがって、「歩行者」に関しては、実高に基づいて推定される距離の方が、実幅に基づいて推定される距離よりも信頼性が高くなる。そこで、このような重み係数を設定することで、推定距離の分布をより正確に表すことが可能となる。 FIG. 5 is a diagram showing an example of a management table. In the management table 500, row by row, from left to right, the type of object, the typical horizontal size of the type in real space as seen from the camera 2, the standard deviation of the horizontal size, and the type. The typical vertical size in real space, the standard deviation of the vertical size, and the weighting coefficient of the horizontal size are shown. Hereinafter, the horizontal size of the object in the real space seen from the camera 2 is referred to as an actual width, and a typical actual width is referred to as a reference actual width. Similarly, the vertical size of an object in the real space seen from the camera 2 is called the actual height, and the representative actual height is called the reference actual height. The standard deviation of the actual width represents the degree of variation in the horizontal size of the type of object. Similarly, the standard deviation of the actual height represents the degree of variation in the vertical size of that type of object. The width weighting coefficient Dw represents the reliability of the distance to the object estimated based on the actual width, and is set to a value of 0 or more and 1 or less, for example. The actual height weighting coefficient for the same object type is represented by, for example, (1-Dw). Therefore, the higher the reliability of the distance to the object estimated based on the actual width is relative to the reliability of the distance to the object estimated based on the actual height, the higher the weighting coefficient Dw of the actual width is. Set to a large value. This is due to the following reasons. Depending on the type of object, the degree of variation in either the actual width or the actual height may be lower than the degree of variation in the other. For example, when the type of the object is "pedestrian", the actual width greatly differs depending on the direction of the pedestrian as seen from the camera 2, but the actual height does not change much. Therefore, the degree of variation in actual height is smaller than the degree of variation in actual width. Therefore, for "pedestrians", the distance estimated based on the actual height is more reliable than the distance estimated based on the actual width. Therefore, by setting such a weighting coefficient, the distribution of the estimated distance can be expressed more accurately.

距離分布算出部32は、物体領域に表されていると判定された物体の種類が属するクラスの種類のそれぞれについて、次式に従って、車両10からその種類の物体までの推定距離(以下、幅推定距離と呼ぶ)の平均値distance_w及び幅推定距離の標準偏差σdistancewを算出する。同様に、距離分布算出部32は、物体領域に表されていると判定された物体の種類が属するクラスの種類のそれぞれについて、次式に従って、車両10からその種類の物体までの推定距離(以下、高さ推定距離と呼ぶ)の平均値distance_h及び高さ推定距離の標準偏差σdistancehをもとめる。

Figure 2021026683
ここで、パラメータhorizontal_fov_in_radは、カメラ2の水平方向画角(単位:ラジアン)であり、パラメータvertical_fov_in_radは、カメラ2の垂直方向画角(単位:ラジアン)である。また、パラメータhnは、画像の水平方向画素数であり、パラメータvnは、画像の垂直方向画素数である。さらに、パラメータwidthは、物体領域の水平方向サイズ(単位:画素数)であり、パラメータheightは、物体領域の垂直方向サイズ(単位:画素数)である。さらに、パラメータwX、σw,Xは、それぞれ、管理テーブルに表された、物体の種類Xについての基準実幅及び実幅の標準偏差である。さらに、パラメータhX、σh,Xは、それぞれ、管理テーブルに表された、物体の種類Xについての基準実高及び実高の標準偏差である。 The distance distribution calculation unit 32 estimates the distance from the vehicle 10 to the object of that type (hereinafter, width estimation) according to the following equation for each of the class types to which the type of the object determined to be represented in the object area belongs. Calculate the mean distance_w of (called the distance) and the standard deviation σ distancew of the estimated width distance. Similarly, the distance distribution calculation unit 32 determines the estimated distance from the vehicle 10 to the object of that type (hereinafter, for each of the class types to which the type of the object determined to be represented in the object area belongs, according to the following equation. , Called the height estimation distance) Find the mean distance_h and the standard deviation σ distance h of the height estimation distance.
Figure 2021026683
Here, the parameter horizontal_fov_in_rad is the horizontal angle of view (unit: radian) of the camera 2, and the parameter vertical_fov_in_rad is the vertical angle of view (unit: radian) of the camera 2. Further, the parameter hn is the number of pixels in the horizontal direction of the image, and the parameter vn is the number of pixels in the vertical direction of the image. Further, the parameter width is the horizontal size of the object area (unit: number of pixels), and the parameter height is the vertical size of the object area (unit: number of pixels). Further, the parameters w X , σ w, and X are the reference actual width and the standard deviation of the actual width for the object type X, respectively, represented in the management table. Further, the parameters h X , σ h, and X are the reference actual height and the standard deviation of the actual height for the object type X, respectively, represented in the management table.

これにより、物体の種類ごとに、幅推定距離の平均値distance_w及び幅推定距離の標準偏差σdistancewの二乗とで規定される正規分布N(distance_w, σdistancew 2)(以下、単にNwと表記する)と、高さ推定距離の平均値distance_h及び高さ推定距離の標準偏差σdistancehの二乗とで規定される正規分布N(distance_h, σdistanceh 2) (以下、単にNhと表記する)とが求められる。したがって、距離分布算出部32は、次式に従って、物体領域に表された物体までの推定距離の分布を表す混合正規分布GMMをもとめることができる。

Figure 2021026683
ここで、Mは、物体領域に表された物体の種類が属するクラスに含まれる種類の数である。また、係数aj(j=1,2,..,M)は、物体領域に表された物体の種類が属するクラスに含まれる種類jについて求められた確信度である。さらに、Dwjは、管理テーブルに表された、種類jについての基準実幅に対する重み係数である。さらに、Nwjは、種類jについての正規分布Nwであり、Nhjは、種類jについての正規分布Nhである。 As a result, for each type of object, the normal distribution N (distance_w, σ distancew 2 ) defined by the mean value distance_w of the estimated width distance and the square of the standard deviation σ distancew of the estimated width distance (hereinafter, simply referred to as Nw). ) And the normal distribution N (distance_h, σ distanceh 2 ) (hereinafter, simply referred to as Nh) defined by the mean value distance_h of the estimated height distance and the square of the standard deviation σ distanceh of the estimated height distance. Be done. Therefore, the distance distribution calculation unit 32 can obtain a mixed normal distribution GMM representing the distribution of the estimated distance to the object represented in the object region according to the following equation.
Figure 2021026683
Here, M is the number of types included in the class to which the type of the object represented in the object area belongs. The coefficient aj (j = 1,2, .., M) is the degree of certainty obtained for the type j included in the class to which the type of the object represented in the object area belongs. Furthermore, Dwj is a weighting factor for the reference actual width for type j represented in the management table. Further, Nwj is the normal distribution Nw for the type j, and Nhj is the normal distribution Nh for the type j.

このように、物体領域に表されている可能性の有る物体の種類ごとの確信度で、その種類ごとの実幅または実高の基準値及びバラツキ度合いから求められる距離の推定値の分布を重み付けすることで、距離分布算出部32は、物体領域に表されている物体までの距離のバラツキ度合いを正確に評価することができる。さらに、距離分布算出部32は、物体の種類ごとに、実幅に基づく推定距離の分布と実高に基づく推定距離の分布のそれぞれを、実幅と実幅のそれぞれの信頼性で重み付けするので、物体領域に表されている物体までの距離のバラツキ度合いをより正確に評価することができる。 In this way, the certainty of each type of object that may be represented in the object area is weighted by the distribution of the estimated value of the distance obtained from the reference value of the actual width or height and the degree of variation for each type. By doing so, the distance distribution calculation unit 32 can accurately evaluate the degree of variation in the distance to the object represented in the object region. Further, the distance distribution calculation unit 32 weights the distribution of the estimated distance based on the actual width and the distribution of the estimated distance based on the actual height for each type of the object by the reliability of the actual width and the actual width. , The degree of variation in the distance to the object represented in the object area can be evaluated more accurately.

なお、画像上での物体の実際の幅に対する物体領域の幅のバラツキ度合いが無視できない場合には、距離分布算出部32は、そのバラツキ度合いを考慮して、幅推定距離の標準偏差σdistancewを求めてよい。同様に、画像上での物体の実際の高さに対する物体領域の高さのバラツキ度合いが無視できない場合には、距離分布算出部32は、そのバラツキ度合いを考慮して、高さ推定距離の標準偏差σdistancehを求めてよい。この場合には、距離分布算出部32は、例えば、次式に従って、幅推定距離の標準偏差σdistancew、及び、高さ推定距離の標準偏差σdistancehを算出すればよい。

Figure 2021026683
ここで、関数STDw()は、幅推定距離とその標準偏差の関係を表す関数であり、実際に画像に表されている物体の幅に対する物体領域の幅のバラツキ度合いに応じて予め求められる。同様に、関数STDh()は、高さ推定距離とその標準偏差の関係を表す関数であり、実際に画像に表されている物体の高さに対する物体領域の高さのバラツキ度合いに応じて予め求められる。関数STDw()及び関数STDh()は、例えば、メモリ22に記憶される。なお、(3)式に従って幅推定距離の標準偏差σdistancew、及び、高さ推定距離の標準偏差σdistancehが算出される場合には、管理テーブルにおいて、基準実幅の標準偏差及び基準実高の標準偏差は省略されてもよい。 If the degree of variation in the width of the object region with respect to the actual width of the object on the image cannot be ignored, the distance distribution calculation unit 32 considers the degree of variation and sets the standard deviation σ distance w of the width estimation distance. You may ask. Similarly, when the degree of variation in the height of the object region with respect to the actual height of the object on the image cannot be ignored, the distance distribution calculation unit 32 considers the degree of variation and standardizes the estimated height distance. The deviation σ distance h may be obtained. In this case, the distance distribution calculation unit 32, for example, according to the following equation, the standard deviation sigma Distancew width estimated distance, and may calculate the standard deviation sigma DistanceH height estimated distance.
Figure 2021026683
Here, the function STDw () is a function representing the relationship between the estimated width distance and its standard deviation, and is obtained in advance according to the degree of variation in the width of the object region with respect to the width of the object actually represented in the image. Similarly, the function STDh () is a function that expresses the relationship between the estimated height distance and its standard deviation, and is in advance according to the degree of variation in the height of the object region with respect to the height of the object actually shown in the image. Desired. The function STDw () and the function STDh () are stored in, for example, the memory 22. If the standard deviation σ distancew of the estimated width distance and the standard deviation σ distanceh of the estimated height distance are calculated according to Eq. (3), the standard deviation of the standard actual width and the standard actual height of the reference actual width are calculated in the management table. The standard deviation may be omitted.

距離分布算出部32は、物体領域に表された物体までの推定距離の分布を表す混合正規分布を一つの正規分布で近似することで、その一つの正規分布の平均値及び標準偏差を算出する。そして距離分布算出部32は、物体領域ごとに算出された、その一つの正規分布の平均値dfinal及び標準偏差σfinalを、推定距離の分布として、その物体領域と関連付けてメモリ22に記憶する。 The distance distribution calculation unit 32 calculates the mean value and standard deviation of the one normal distribution by approximating the mixed normal distribution representing the distribution of the estimated distance to the object represented in the object region with one normal distribution. .. Then, the distance distribution calculation unit 32 stores in the memory 22 the mean value d final and the standard deviation σ final of one normal distribution calculated for each object area as the distribution of the estimated distance in association with the object area. ..

距離推定部33は、画像から検出された物体領域のそれぞれについて、車両10からその物体領域に表された物体までの推定距離をもとめる。距離推定部33は、各物体領域について同じ処理を実行すればよいので、以下では、一つの物体領域に対する処理について説明する。 The distance estimation unit 33 obtains an estimated distance from the vehicle 10 to the object represented in the object region for each of the object regions detected from the image. Since the distance estimation unit 33 may execute the same processing for each object region, the processing for one object region will be described below.

本実施形態では、距離推定部33は、最新の画像から検出された着目する物体領域について、その物体領域に表された物体を過去の画像から検出された物体と対応付けることで、その物体領域に表された物体を追跡する。そして距離推定部33は、物体が追跡されている期間(以下、単に追跡期間と呼ぶ)中に得られた個々の画像における、その物体が表された物体領域について求められた推定距離の分布を、Kalman Filterといった予測フィルタにおける、推定距離の観測誤差のモデルとして利用し、その予測フィルタによる予測処理に従って、追跡期間中の各画像取得時におけるその物体までの距離を最小平均二乗誤差推定(MMSE)する。 In the present embodiment, the distance estimation unit 33 sets the object area of interest detected from the latest image by associating the object represented in the object area with the object detected from the past image. Track the represented object. Then, the distance estimation unit 33 determines the distribution of the estimated distance obtained for the object region in which the object is represented in the individual images obtained during the period in which the object is being tracked (hereinafter, simply referred to as the tracking period). , Kalman Filter, which is used as a model of the observation error of the estimated distance, and according to the prediction processing by the prediction filter, the distance to the object at the time of each image acquisition during the tracking period is estimated by the minimum mean square error (MMSE). To do.

距離推定部33は、例えば、Lucas-Kanade法といった、オプティカルフローに基づく追跡処理を、最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された物体を過去に遡って追跡する。そのため、距離推定部33は、例えば、着目する物体領域に対してSIFTあるいはHarrisオペレータといった特徴点抽出用のフィルタを適用することで、その物体領域から複数の特徴点を抽出する。そして距離推定部33は、複数の特徴点のそれぞれについて、過去の画像における物体領域における対応する点を、適用される追跡手法に従って特定することで、オプティカルフローを算出すればよい。あるいは、距離推定部33は、画像から検出された移動物体の追跡に適用される他の追跡手法を、最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された物体を追跡してもよい。 The distance estimation unit 33 applies tracking processing based on an optical flow, such as the Lucas-Kanade method, to the object region of interest in the latest image and the object region in the past image, thereby applying the tracking process to the object region. Track the represented object retroactively. Therefore, the distance estimation unit 33 extracts a plurality of feature points from the object region of interest by applying a filter for feature point extraction such as SIFT or Harris operator to the object region of interest, for example. Then, the distance estimation unit 33 may calculate the optical flow by specifying the corresponding points in the object region in the past image for each of the plurality of feature points according to the applied tracking method. Alternatively, the distance estimation unit 33 applies another tracking method applied to tracking a moving object detected from the image to the object region of interest in the latest image and the object region in the past image. , The object represented in the object area may be tracked.

距離推定部33は、最新の画像における、着目する物体領域に表された物体を、過去の画像から検出された物体と対応付けると、適用される予測フィルタの手法に従って、追跡期間中の各画像取得時におけるその物体までの距離を最小平均二乗誤差推定する。例えば、予測フィルタとしてKalman Filterが適用される場合、距離推定部33は、追跡期間中の画像ごとに、推定距離の観測値を更新するmeasurement updateと、次の時刻(この例では、次の画像取得時)における推定距離の予測値を更新するprocess updateとを、その物体が表された物体領域について求められた推定距離の分布と、Process noiseとを用いて実行する。例えば、距離推定部33は、推定距離の分布の平均値dfinalを観測値、推定距離の分布の標準偏差σfinalを観測誤差として、線形Kalman FilterあるいはExtended Kalman Filterによって観測残差の共分散(Innovation covariance)及びKalman Gainを求めることでmeasurement updateを実行する。また、距離推定部33は、線形Kalman FilterあるいはExtended Kalman Filterにより、process updateを行えばよい。また、Process noiseは、物体の挙動または車両10自体の挙動の不確実性を表し、例えば、正規分布で表され、Process noiseのモデル行列とともにメモリ22に予め記憶される。 When the object represented in the object area of interest in the latest image is associated with the object detected from the past image, the distance estimation unit 33 acquires each image during the tracking period according to the method of the applied prediction filter. Estimate the minimum mean square error of the distance to the object at time. For example, when the Kalman Filter is applied as a prediction filter, the distance estimation unit 33 performs a measurement update that updates the observed value of the estimated distance for each image during the tracking period, and the next time (in this example, the next image). A process update that updates the predicted value of the estimated distance at the time of acquisition) is executed using the distribution of the estimated distance obtained for the object region in which the object is represented and Process noise. For example, the distance estimation unit 33 uses a linear Kalman Filter or an Extended Kalman Filter to covariance the observed residuals, with the mean value d final of the estimated distance distribution as the observed value and the standard deviation σ final of the estimated distance distribution as the observation error. Perform a measurement update by finding the Innovation covariance) and Kalman Gain. Further, the distance estimation unit 33 may perform a process update by using a linear Kalman Filter or an Extended Kalman Filter. Further, the Process noise represents the uncertainty of the behavior of the object or the behavior of the vehicle 10 itself. For example, it is represented by a normal distribution and is stored in advance in the memory 22 together with the model matrix of the Process noise.

変形例によれば、距離推定部33は、Unscented Kalman Filterにより、観測残差の共分散及びKalman Gainを求めることでmeasurement updateを実行してもよい。この場合には、追跡期間中の各画像についてその物体が表された物体領域について求められた、推定距離の分布を表す混合正規分布自体を推定距離の観測誤差のモデルとして利用してもよい。この場合には、距離推定部33は、推定距離の分布を表す混合正規分布に基づいて、平均値dfinal周囲の複数のシグマ点を決定し、その複数のシグマ点に基づいて観測残差の共分散及びKalman Gainを算出すればよい。また、この場合、距離推定部33は、Unscented Kalman Filterにより、process updateを行えばよい。 According to the modification, the distance estimation unit 33 may execute the measurement update by obtaining the covariance of the observation residual and the Kalman Gain by the Unscented Kalman Filter. In this case, the mixed normal distribution itself representing the distribution of the estimated distance obtained for the object region in which the object is represented for each image during the tracking period may be used as a model of the observation error of the estimated distance. In this case, the distance estimation unit 33 determines a plurality of sigma points around the mean value d final based on the mixed normal distribution representing the distribution of the estimated distance, and the observation residual is based on the plurality of sigma points. The covariance and Kalman Gain may be calculated. Further, in this case, the distance estimation unit 33 may perform a process update by the Unscented Kalman Filter.

また、Kalman Filterを用いた予測処理において、追跡期間中の各画像取得時における、追跡中の物体の位置を表す状態ベクトルは、例えば、車両10からその物体までの推定距離と、推定距離の時間微分値である相対速度のそれぞれを要素とする2次元ベクトルで表される。あるいは、状態ベクトルは、カメラ2を基準とし、路面に平行な面に設定される2次元の直交座標系であるカメラ座標系で表される、その物体の位置(すなわち、車両10に対するその物体の相対的な位置座標)(x,y)と、その時間微分値(vx,vy)のそれぞれを要素とする4次元ベクトルで表されてもよい。さらに、状態ベクトルは、車両10からその物体までの推定距離dと、カメラ2からその物体への方位角φ(すなわち、カメラ2の光軸方向に対する、カメラ2からその物体へ向かう方向の角度)と、推定距離の時間微分値と、方位角の時間微分値のそれぞれを要素とする4次元ベクトルで表されてもよい。なお、画像上での物体領域の位置、例えば、物体領域の重心の位置が、カメラ2からその物体への方位角φを表す。したがって、状態ベクトルの要素として方位角φが含まれる場合には、距離推定部33は、物体領域の重心の位置に基づいて、その方位角φを求めることができる。さらに、状態ベクトルの要素として、カメラ座標系における位置が含まれる場合、距離推定部33は、推定距離dと方位角φからその位置を算出できる。 Further, in the prediction process using the Kalman Filter, the state vector representing the position of the object being tracked at the time of acquiring each image during the tracking period is, for example, the estimated distance from the vehicle 10 to the object and the time of the estimated distance. It is represented by a two-dimensional vector whose elements are the relative velocities that are the differential values. Alternatively, the state vector is represented by the camera coordinate system, which is a two-dimensional Cartesian coordinate system set on a plane parallel to the road surface with respect to the camera 2, and the position of the object (that is, the object with respect to the vehicle 10). It may be represented by a four-dimensional vector whose elements are relative position coordinates) (x, y) and its time derivative (vx, vy). Further, the state vector is the estimated distance d from the vehicle 10 to the object and the azimuth angle φ from the camera 2 to the object (that is, the angle in the direction from the camera 2 to the object with respect to the optical axis direction of the camera 2). And, it may be represented by a four-dimensional vector having each of the time derivative value of the estimated distance and the time derivative value of the azimuth as elements. The position of the object region on the image, for example, the position of the center of gravity of the object region represents the azimuth angle φ from the camera 2 to the object. Therefore, when the azimuth angle φ is included as an element of the state vector, the distance estimation unit 33 can obtain the azimuth angle φ based on the position of the center of gravity of the object region. Further, when a position in the camera coordinate system is included as an element of the state vector, the distance estimation unit 33 can calculate the position from the estimated distance d and the azimuth angle φ.

上記のように、距離推定部33は、measurement updateとprocess updateとを追跡期間中の各画像ごとに繰り返すことで、各画像取得時における、物体領域に表された物体までの距離を正確に推定できる。 As described above, the distance estimation unit 33 accurately estimates the distance to the object represented in the object area at the time of acquiring each image by repeating the measurement update and the process update for each image during the tracking period. it can.

距離推定部33は、最新の画像の物体領域ごとに、その物体領域に表された物体についての追跡期間中の各画像取得時の状態ベクトルを、運転計画部34へ通知する。 The distance estimation unit 33 notifies the operation planning unit 34 of the state vector at the time of acquiring each image during the tracking period for the object represented in the object area for each object area of the latest image.

運転計画部34は、各画像について求められた検出物体リスト、及び、追跡中の物体についての状態ベクトルを参照して、車両10の周囲に存在する物体と車両10とが衝突しないように車両10の走行予定経路(トラジェクトリ)を1以上生成する。走行予定経路は、例えば、現時刻から所定時間先までの各時刻における、車両10の目標位置の集合として表される。例えば、運転計画部34は、カメラ2についての車両10への取り付け位置などの情報を用いて視点変換処理を実行することで、物体検出リストにおける物体領域の画像内座標を鳥瞰画像上の座標(鳥瞰座標)に変換する。その際、運転計画部34は、状態ベクトルを参照して、車両10からその物体領域に表された物体までの推定距離を利用して、鳥瞰画像上でのその物体の位置を特定すればよい。そして運転計画部34は、一連の鳥瞰座標に対してKalman FilterまたはParticle filterなどを用いたトラッキング処理を実行することで、検出物体リストに登録されている物体を追跡し、その追跡結果により得られた軌跡から、物体のそれぞれの所定時間先までの予測軌跡を推定する。運転計画部34は、追跡中の各物体の予測軌跡と、車両10の位置、速度及び姿勢に基づいて、何れの物体についても所定時間先までの追跡中の物体のそれぞれと車両10間の距離の予測値が所定距離以上となるように、車両10の走行予定経路を生成する。なお、運転計画部34は、車両10の位置、速度及び姿勢を、例えば、車両10に搭載されたGPS受信機(図示せず)から得た車両10の現在位置を表す現在位置情報に基づいて推定できる。あるいは、ローカライズ処理部(図示せず)が、カメラ2により画像が得られる度に、その画像から車両10の左右の車線区画線を検出し、検出された車線区画線とメモリ22に記憶されている地図情報とをマッチングすることで、車両10の位置、速度及び姿勢が推定されてもよい。さらに、運転計画部34は、例えば、車両10の現在位置情報と、メモリ22に記憶されている地図情報とを参照して、車両10が走行可能な車線の数を確認してもよい。そして運転計画部34は、車両10が走行可能な車線が複数存在する場合には、車両10が走行する車線を変更するように走行予定経路を生成してもよい。
なお、運転計画部34は、複数の走行予定経路を生成してもよい。この場合、運転計画部34は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
The operation planning unit 34 refers to the detected object list obtained for each image and the state vector for the object being tracked so that the object existing around the vehicle 10 and the vehicle 10 do not collide with each other. Generate one or more planned travel routes (trajectory). The planned travel route is represented as, for example, a set of target positions of the vehicle 10 at each time from the current time to a predetermined time ahead. For example, the driving planning unit 34 executes the viewpoint conversion process using information such as the mounting position of the camera 2 on the vehicle 10, so that the coordinates in the image of the object area in the object detection list can be changed to the coordinates on the bird's-eye view image ( Convert to bird's-eye coordinates). At that time, the driving planning unit 34 may specify the position of the object on the bird's-eye view image by referring to the state vector and using the estimated distance from the vehicle 10 to the object represented in the object region. .. Then, the operation planning unit 34 tracks the objects registered in the detected object list by executing the tracking process using the Kalman Filter or the Particle filter for a series of bird's-eye view coordinates, and obtains the tracking result. The predicted trajectory of the object up to a predetermined time ahead is estimated from the trajectory. Based on the predicted trajectory of each object being tracked and the position, speed, and posture of the vehicle 10, the driving planning unit 34 determines the distance between each of the objects being tracked up to a predetermined time and the vehicle 10 for any object. The planned travel route of the vehicle 10 is generated so that the predicted value of is equal to or greater than a predetermined distance. The operation planning unit 34 determines the position, speed, and posture of the vehicle 10 based on, for example, the current position information representing the current position of the vehicle 10 obtained from a GPS receiver (not shown) mounted on the vehicle 10. Can be estimated. Alternatively, the localization processing unit (not shown) detects the left and right lane marking lines of the vehicle 10 from the image each time an image is obtained by the camera 2, and stores the detected lane marking lines and the memory 22. The position, speed, and attitude of the vehicle 10 may be estimated by matching with the existing map information. Further, the driving planning unit 34 may confirm the number of lanes in which the vehicle 10 can travel by referring to, for example, the current position information of the vehicle 10 and the map information stored in the memory 22. Then, when there are a plurality of lanes in which the vehicle 10 can travel, the driving planning unit 34 may generate a planned travel route so as to change the lane in which the vehicle 10 travels.
The operation planning unit 34 may generate a plurality of planned travel routes. In this case, the driving planning unit 34 may select the route that minimizes the sum of the absolute values of the accelerations of the vehicle 10 from the plurality of planned traveling routes.

運転計画部34は、生成した走行予定経路を車両制御部35へ通知する。 The operation planning unit 34 notifies the vehicle control unit 35 of the generated planned travel route.

車両制御部35は、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部35は、通知された走行予定経路、及び、車速センサ(図示せず)により測定された車両10の現在の車速に従って、車両10の加速度を求め、その加速度となるようにアクセル開度またはブレーキ量を設定する。そして車両制御部35は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置へ出力する。あるいは、車両制御部35は、設定されたブレーキ量に応じた制御信号を車両10のブレーキへ出力する。 The vehicle control unit 35 controls each part of the vehicle 10 so that the vehicle 10 travels along the notified travel schedule route. For example, the vehicle control unit 35 obtains the acceleration of the vehicle 10 according to the notified planned travel route and the current vehicle speed of the vehicle 10 measured by the vehicle speed sensor (not shown), and accelerates the accelerator so as to be the acceleration. Set the opening or brake amount. Then, the vehicle control unit 35 obtains the fuel injection amount according to the set accelerator opening degree, and outputs a control signal corresponding to the fuel injection amount to the fuel injection device of the engine of the vehicle 10. Alternatively, the vehicle control unit 35 outputs a control signal according to the set brake amount to the brake of the vehicle 10.

さらに、車両制御部35は、車両10が走行予定経路に沿って走行するために車両10の進路を変更する場合には、その走行予定経路に従って車両10の操舵角を求め、その操舵角に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。 Further, when the vehicle 10 changes the course of the vehicle 10 in order to travel along the planned travel route, the vehicle control unit 35 obtains the steering angle of the vehicle 10 according to the planned travel route, and responds to the steering angle. The control signal is output to an actuator (not shown) that controls the steering wheels of the vehicle 10.

図6は、プロセッサ23により実行される、距離推定処理を含む車両制御処理の動作フローチャートである。プロセッサ23は、カメラ2から画像が受信する度に、図6に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS101〜S105の処理が距離推定処理に対応する。 FIG. 6 is an operation flowchart of the vehicle control process including the distance estimation process executed by the processor 23. Each time an image is received from the camera 2, the processor 23 executes the vehicle control process according to the operation flowchart shown in FIG. In the operation flowchart shown below, the processes of steps S101 to S105 correspond to the distance estimation process.

プロセッサ23の物体検出部31は、カメラ2から得られた最新の画像を識別器に入力して、画像上の様々な領域について、その領域に表された検出対象となる物体の種類ごとの確信度を求める(ステップS101)。そして物体検出部31は、最新の画像における、確信度が算出された複数の領域のうち、何れかの物体の種類についての確信度がその種類についての確信度閾値以上となる物体領域においてその種類の物体が検出されたと判定する(ステップS102)。なお、上記のように、物体検出部31は、何れかのクラスについて、そのクラスに属する各種類の確信度の和が確信度閾値以上となる物体領域に、そのクラスの物体が検出されたと判定してもよい。そして物体検出部31は、検出された物体を検出物体リストに登録する。 The object detection unit 31 of the processor 23 inputs the latest image obtained from the camera 2 into the classifier, and is convinced of various areas on the image for each type of object to be detected represented in the area. Find the degree (step S101). Then, the object detection unit 31 is the type of the object region in the latest image in which the certainty of any of the object types is equal to or higher than the certainty threshold for the type among the plurality of regions for which the certainty is calculated. It is determined that the object of (step S102) has been detected. As described above, the object detection unit 31 determines that an object of that class has been detected in an object region where the sum of the certainty of each type belonging to that class is equal to or greater than the certainty threshold. You may. Then, the object detection unit 31 registers the detected object in the detection object list.

プロセッサ23の距離分布算出部32は、最新の画像上の物体領域のそれぞれについて、車両10からその物体領域に表された物体までの推定距離のバラツキ度合いを表す推定距離分布を、物体領域のサイズ、カメラ2の内部パラメータ、物体の種類ごとのサイズ分布情報、及び、確信度に基づいて算出する(ステップS103)。 The distance distribution calculation unit 32 of the processor 23 calculates the estimated distance distribution representing the degree of variation in the estimated distance from the vehicle 10 to the object represented in the object region for each of the object regions on the latest image, and determines the size of the object region. , Calculation based on the internal parameters of the camera 2, the size distribution information for each type of object, and the certainty (step S103).

プロセッサ23の距離推定部33は、最新の画像上の物体領域のそれぞれについて、その物体領域に表された物体を過去に遡って追跡して、その物体が追跡される追跡期間及び追跡期間中の各画像における、対応する物体領域を特定する(ステップS104)。そして距離推定部33は、最新の画像上の物体領域のそれぞれについて、その物体領域に表された物体の追跡期間中における、車両10からその物体までの各画像取得時の距離を、追跡期間中の各画像における対応する物体領域についての推定距離分布を観測誤差のモデルとして用いた予測処理により最小平均二乗誤差推定する(ステップS105)。 For each of the object areas on the latest image, the distance estimation unit 33 of the processor 23 traces the object represented in the object area retroactively, and during the tracking period and the tracking period in which the object is tracked. The corresponding object region in each image is specified (step S104). Then, the distance estimation unit 33 determines the distance from the vehicle 10 to the object at the time of acquiring each image during the tracking period of the object represented by the object region for each of the object regions on the latest image. The minimum mean squared error is estimated by the prediction process using the estimated distance distribution for the corresponding object region in each image of (step S105) as a model of the observation error.

プロセッサ23の運転計画部34は、追跡中の各物体について、その追跡期間中における各画像取得時のその物体までの推定距離に基づいて推定されるその物体の予測軌跡と所定の距離以上となるように、車両10の走行予定経路を生成する(ステップS106)。そしてプロセッサ23の車両制御部35は、走行予定経路に沿って車両10が走行するように車両10を制御する(ステップS107)。そしてプロセッサ23は、車両制御処理を終了する。 The operation planning unit 34 of the processor 23 makes the predicted locus of the object estimated based on the estimated distance to the object at the time of each image acquisition during the tracking period and a predetermined distance or more for each object being tracked. As described above, the planned travel route of the vehicle 10 is generated (step S106). Then, the vehicle control unit 35 of the processor 23 controls the vehicle 10 so that the vehicle 10 travels along the planned travel route (step S107). Then, the processor 23 ends the vehicle control process.

以上に説明してきたように、この距離推定装置は、時系列に得られる一連の画像から識別器を用いて検出され、かつ、追跡される物体について、その追跡中の物体までの距離を推定する。その際、この距離推定装置は、追跡期間中に得られた各画像について、その画像を識別器に入力することで求められる物体の種類ごとの確信度と、画像上での物体のサイズと、物体の種類ごとのサイズ分布情報とに基づいて、物体までの距離の推定値の統計的代表値及びバラツキの度合いを含む推定距離の分布を求める。そしてこの距離推定装置は、その分布を観測誤差のモデルとして用いる予測処理を行うことで、追跡中の各画像取得時における、その物体までの距離を最小平均二乗誤差推定する。そのため、この距離推定装置は、画像に表された物体までの距離の推定精度を向上することができる。 As described above, this distance estimation device estimates the distance to the object being tracked for the object detected and tracked using the classifier from a series of images obtained in time series. .. At that time, this distance estimation device determines the certainty of each type of object obtained by inputting the image into the classifier for each image obtained during the tracking period, and the size of the object on the image. Based on the size distribution information for each type of object, the distribution of the estimated distance including the statistical representative value of the estimated value of the distance to the object and the degree of variation is obtained. Then, this distance estimation device estimates the minimum mean square error of the distance to the object at the time of acquiring each image during tracking by performing prediction processing using the distribution as a model of the observation error. Therefore, this distance estimation device can improve the estimation accuracy of the distance to the object shown in the image.

なお、変形例によれば、距離分布算出部32は、物体領域に表された物体について、その物体として推定された種類と所定の類似関係が有る種類についても、推定距離分布を求めるために正規分布を求める種類の一つとしてもよい。所定の類似関係は、例えば、事前に設定され、メモリ22に、その類似関係を表す類似参照テーブルが予め記憶される。距離分布算出部32は、類似参照テーブルを参照して、物体領域に表された物体について、確信度が確信度閾値以上となる種類と類似関係が有る種類を特定する。そして距離分布算出部32は、類似関係が設定されている物体の種類について、上記の実施形態と同様に正規分布をもとめればよい。このように、類似関係が有る物体の種類についての正規分布も推定距離分布の算出に利用することで、画像に表された物体の種類が類似関係が有る他の種類と誤認識されている場合でも、本来の種類のサイズ分布情報も考慮して推定距離分布が求められるので、推定距離分布は物体までの推定距離の分布をより正確に表すことができる。 According to the modified example, the distance distribution calculation unit 32 is normal for obtaining an estimated distance distribution for an object represented in the object region, even for a type having a predetermined similarity relationship with the type estimated as the object. It may be one of the types for obtaining the distribution. A predetermined similarity relationship is set in advance, for example, and a similarity reference table representing the similarity relationship is stored in the memory 22 in advance. The distance distribution calculation unit 32 refers to the similarity reference table and identifies the type of the object represented in the object region and the type having a similarity relationship with the type whose certainty is equal to or higher than the certainty threshold. Then, the distance distribution calculation unit 32 may obtain a normal distribution for the types of objects for which similar relationships are set, as in the above embodiment. In this way, by using the normal distribution for the types of objects with similar relationships to calculate the estimated distance distribution, the types of objects shown in the image are erroneously recognized as other types with similar relationships. However, since the estimated distance distribution is obtained in consideration of the original type of size distribution information, the estimated distance distribution can more accurately represent the distribution of the estimated distance to the object.

類似関係は、例えば、共通の外観上の特徴を持つ物体の種類間に設定される。例えば、物体検出部31により確信度が算出される物体の種類の一つである「2輪車」と物体の種類の他の一つである「歩行者」には、何れも、人という共通する外観上の特徴が含まれる。そのため、その二つの種類「2輪車」及び「歩行者」は互いに類似関係に有ると設定される。 Similarities are set, for example, between types of objects that have common appearance features. For example, "two-wheeled vehicle", which is one of the types of objects whose certainty is calculated by the object detection unit 31, and "pedestrian", which is another type of object, are both common to humans. Includes appearance features. Therefore, the two types "two-wheeled vehicle" and "pedestrian" are set to have a similar relationship with each other.

あるいは、検出対象となる物体の種類ごとに、その物体が表された領域から抽出される特徴量に対してクラスタリング処理を実行することで、同じクラスに属すると判定される種類間に類似関係が有ると設定されてもよい。この場合、類似関係の判定に利用される特徴量は、例えば、Haar-like特徴、Histograms of Oriented Gradients(HOG)、あるいは、物体検出部31が確信度の算出に利用する識別器が算出するfeature mapといった、物体の種類の判別に利用可能な特徴量とすることができる。 Alternatively, by executing clustering processing on the feature amount extracted from the area in which the object is represented for each type of the object to be detected, a similar relationship can be established between the types determined to belong to the same class. It may be set to exist. In this case, the feature amount used for determining the similarity is, for example, a Haar-like feature, a Histograms of Oriented Gradients (HOG), or a feature calculated by a classifier used by the object detection unit 31 to calculate the certainty. It can be a feature amount that can be used to determine the type of object, such as a map.

上記の実施形態または変形例による距離推定装置は、車載機器以外に実装されてもよい。例えば、上記の実施形態または変形例による距離推定装置は、屋外または屋内の所定の領域を所定周期ごとに撮影するように設置された監視カメラにより生成された画像から物体を検出し、検出した物体までの距離を推定するように構成されてもよい。 The distance estimation device according to the above embodiment or modification may be mounted on a device other than the in-vehicle device. For example, the distance estimation device according to the above embodiment or modification detects an object from an image generated by a surveillance camera installed so as to capture a predetermined area outdoors or indoors at predetermined intervals, and the detected object. It may be configured to estimate the distance to.

また、上記の実施形態または変形例による、距離推定装置のプロセッサ23の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。 Further, the computer program that realizes the functions of each part of the processor 23 of the distance estimation device according to the above embodiment or modification is a computer-readable portable recording medium such as a semiconductor memory, a magnetic recording medium, or an optical recording medium. It may be provided in a recorded form.

以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various changes within the scope of the present invention according to the embodiment.

1 車両制御システム
2 カメラ
3 電子制御装置(距離推定装置)
4 車内ネットワーク
21 通信インターフェース
22 メモリ
23 プロセッサ
31 物体検出部
32 距離分布算出部
33 距離推定部
34 運転計画部
35 車両制御部
1 Vehicle control system 2 Camera 3 Electronic control device (distance estimation device)
4 In-vehicle network 21 Communication interface 22 Memory 23 Processor 31 Object detection unit 32 Distance distribution calculation unit 33 Distance estimation unit 34 Driving planning unit 35 Vehicle control unit

Claims (1)

検出対象となる物体の複数の種類のそれぞれについて、当該種類の物体の実空間における基準サイズ及び当該種類の物体の実空間におけるサイズのバラツキ度合いを表すサイズ分布情報を記憶する記憶部と、
時系列に得られる一連の画像のそれぞれについて、当該画像から前記物体が表された物体領域を検出するとともに、前記複数の種類のそれぞれについて、当該物体領域に表された前記物体が当該種類の物体である確信度を算出する物体検出部と、
前記一連の画像のうち、前記物体が検出された画像のそれぞれについて、当該画像上の前記物体領域のサイズと、前記複数の種類のそれぞれの前記サイズ分布情報及び前記確信度とに基づいて、当該画像に表された前記物体までの推定距離の分布を求める距離分布算出部と、
前記一連の画像のうち、前記物体が検出された画像のそれぞれについての前記推定距離の分布を前記物体までの距離の観測誤差モデルとして用いた予測処理により、前記物体が検出された画像のそれぞれの取得時刻における、前記物体までの距離を推定する距離推定部と、
を有する距離推定装置。
For each of a plurality of types of objects to be detected, a storage unit that stores size distribution information indicating the reference size of the object of the type in the real space and the degree of variation in the size of the object of the type in the real space.
For each of the series of images obtained in time series, the object region in which the object is represented is detected from the image, and for each of the plurality of types, the object represented in the object region is the object of the type. An object detection unit that calculates the certainty of
For each of the images in which the object is detected in the series of images, the size of the object region on the image, the size distribution information of each of the plurality of types, and the certainty of the object are used. A distance distribution calculation unit that obtains the distribution of the estimated distance to the object shown in the image,
Of the series of images, each of the images in which the object was detected by the prediction process using the distribution of the estimated distance for each of the images in which the object was detected as an observation error model of the distance to the object. A distance estimation unit that estimates the distance to the object at the acquisition time,
Distance estimator with.
JP2019146445A 2019-08-08 2019-08-08 Distance estimation apparatus Pending JP2021026683A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019146445A JP2021026683A (en) 2019-08-08 2019-08-08 Distance estimation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019146445A JP2021026683A (en) 2019-08-08 2019-08-08 Distance estimation apparatus

Publications (1)

Publication Number Publication Date
JP2021026683A true JP2021026683A (en) 2021-02-22

Family

ID=74662404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019146445A Pending JP2021026683A (en) 2019-08-08 2019-08-08 Distance estimation apparatus

Country Status (1)

Country Link
JP (1) JP2021026683A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022142165A (en) * 2021-03-16 2022-09-30 トヨタ自動車株式会社 Vehicle control device, vehicle control method, and computer program for controlling vehicle
WO2023112347A1 (en) * 2021-12-16 2023-06-22 古野電気株式会社 Target monitoring device, target monitoring method, and program
CN118380008A (en) * 2024-06-25 2024-07-23 武汉天虹环保产业股份有限公司 Intelligent real-time identification and positioning monitoring system and method for environmental noise pollution

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022142165A (en) * 2021-03-16 2022-09-30 トヨタ自動車株式会社 Vehicle control device, vehicle control method, and computer program for controlling vehicle
WO2023112347A1 (en) * 2021-12-16 2023-06-22 古野電気株式会社 Target monitoring device, target monitoring method, and program
CN118380008A (en) * 2024-06-25 2024-07-23 武汉天虹环保产业股份有限公司 Intelligent real-time identification and positioning monitoring system and method for environmental noise pollution

Similar Documents

Publication Publication Date Title
JP7052663B2 (en) Object detection device, object detection method and computer program for object detection
JP7078021B2 (en) Object detection device, object detection method and computer program for object detection
JP7147420B2 (en) OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND COMPUTER PROGRAM FOR OBJECT DETECTION
Shim et al. An autonomous driving system for unknown environments using a unified map
JP2019527832A (en) System and method for accurate localization and mapping
JP7135665B2 (en) VEHICLE CONTROL SYSTEM, VEHICLE CONTROL METHOD AND COMPUTER PROGRAM
JP2021165080A (en) Vehicle control device, vehicle control method, and computer program for vehicle control
JP7359735B2 (en) Object state identification device, object state identification method, computer program for object state identification, and control device
JP7115502B2 (en) Object state identification device, object state identification method, computer program for object state identification, and control device
CN114120075B (en) Three-dimensional target detection method integrating monocular camera and laser radar
JP2021026683A (en) Distance estimation apparatus
JP2020067896A (en) Travelable direction detector and travelable direction detection method
JP2021120255A (en) Distance estimation device and computer program for distance estimation
CN116703966A (en) Multi-object tracking
JP2017181476A (en) Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program
JP7226368B2 (en) Object state identification device
JP2021081272A (en) Position estimating device and computer program for position estimation
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
US20230177844A1 (en) Apparatus, method, and computer program for identifying state of lighting
JP2020076714A (en) Position attitude estimation device
JP7147464B2 (en) Image selection device and image selection method
JP7528915B2 (en) Tracking device, tracking method, and tracking computer program
JP7491260B2 (en) Person detection device, person detection method and computer program for detecting persons
JP2022079954A (en) Object detection apparatus
CN113492850B (en) Inclination angle detection device and control device