JP2021026683A - Distance estimation apparatus - Google Patents
Distance estimation apparatus Download PDFInfo
- Publication number
- JP2021026683A JP2021026683A JP2019146445A JP2019146445A JP2021026683A JP 2021026683 A JP2021026683 A JP 2021026683A JP 2019146445 A JP2019146445 A JP 2019146445A JP 2019146445 A JP2019146445 A JP 2019146445A JP 2021026683 A JP2021026683 A JP 2021026683A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- image
- vehicle
- type
- represented
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像に表された物体までの距離を推定する距離推定装置に関する。 The present invention relates to a distance estimation device that estimates the distance to an object represented in an image.
カメラにより得られた画像といった、センサ情報に表された物体を検出する技術が研究されている。このような物体検出技術は、例えば、車両の自動運転制御において、車両に設けられたカメラにより得られた画像から車両の周囲の物体を検出するために用いられる。近年では、物体を検出するために、いわゆるディープニューラルネットワーク(以下、単にDNNと呼ぶ)といった機械学習手法を用いることで、検出精度を向上する技術が提案されている(例えば、非特許文献1〜4を参照)。
Research is being conducted on techniques for detecting objects represented by sensor information, such as images obtained by cameras. Such an object detection technique is used, for example, in automatic driving control of a vehicle to detect an object around the vehicle from an image obtained by a camera provided in the vehicle. In recent years, a technique for improving detection accuracy has been proposed by using a machine learning method such as a so-called deep neural network (hereinafter, simply referred to as DNN) to detect an object (for example, Non-Patent
また、車両の自動運転制御では、車両が周囲の物体と衝突しないように車両が走行する経路を設定するために、車両と周囲の物体間の相対的な位置関係を正確に把握することが求められる。しかし、一つのカメラにより得られる画像には、その画像に表された物体までの距離に関する情報は含まれていない。そこで、画像に表された前方の車両の水平または垂直のエッジ幅と、水平または垂直の実幅推定値とに基づいて、車間距離を推定する技術が提案されている(例えば、特許文献1を参照)。 In addition, in automatic driving control of a vehicle, in order to set a route on which the vehicle travels so that the vehicle does not collide with surrounding objects, it is required to accurately grasp the relative positional relationship between the vehicle and surrounding objects. Be done. However, the image obtained by one camera does not contain information about the distance to the object represented in the image. Therefore, a technique for estimating the inter-vehicle distance based on the horizontal or vertical edge width of the vehicle in front shown in the image and the estimated horizontal or vertical width has been proposed (for example, Patent Document 1). reference).
しかしながら、距離推定の対象となる物体の実空間での実際の幅の誤差が大きくなるほど、推定された距離の誤差も大きくなる。例えば、画像から検出された物体が車両である場合、上記の技術では、基準となる車両の実空間での幅が仮定され、その仮定された幅を用いて車間距離が推定される。しかし、車両には、バスまたはトラックといった、比較的大きな横幅を持つ車両がある一方、小型乗用車のように、比較的小さな横幅を持つ車両がある。そのため、検出された車両の種類によっては、仮定された車両の幅と実際の車両の幅との差が大きくなり、その結果として、推定された車間距離の誤差も大きくなることがある。 However, the greater the error in the actual width of the object to be estimated in real space, the greater the error in the estimated distance. For example, when the object detected from the image is a vehicle, in the above technique, the width of the reference vehicle in the real space is assumed, and the inter-vehicle distance is estimated using the assumed width. However, some vehicles, such as buses or trucks, have a relatively large width, while others, such as small passenger cars, have a relatively small width. Therefore, depending on the type of vehicle detected, the difference between the assumed width of the vehicle and the width of the actual vehicle becomes large, and as a result, the error of the estimated inter-vehicle distance may also become large.
そこで、本発明は、画像に表された物体までの距離の推定精度を向上できる距離推定装置を提供することを目的とする。 Therefore, an object of the present invention is to provide a distance estimation device capable of improving the estimation accuracy of the distance to the object represented by the image.
一つの実施形態によれば、距離推定装置が提供される。この距離推定装置は、検出対象となる物体の複数の種類のそれぞれについて、その種類の物体の実空間における基準サイズ及びその種類の物体の実空間におけるサイズのバラツキ度合いを表すサイズ分布情報を記憶する記憶部と、時系列に得られる一連の画像のそれぞれについて、その画像から物体が表された物体領域を検出するとともに、物体の複数の種類のそれぞれについて、物体領域に表された物体がその種類の物体である確信度を算出する物体検出部と、一連の画像のうち、物体が検出された画像のそれぞれについて、その画像上の物体領域のサイズと、物体の複数の種類のそれぞれのサイズ分布情報及び確信度とに基づいて、その画像に表された物体までの推定距離の分布を求める距離分布算出部と、一連の画像のうち、物体が検出された画像のそれぞれについての推定距離の分布をその物体までの距離の観測誤差モデルとして用いた予測処理により、その物体が検出された画像のそれぞれの取得時刻における、その物体までの距離を推定する距離推定部とを有する。 According to one embodiment, a distance estimation device is provided. This distance estimation device stores size distribution information indicating the reference size of an object of that type in the real space and the degree of variation in the size of the object of that type in the real space for each of a plurality of types of objects to be detected. For each of the storage unit and a series of images obtained in time series, the object area in which the object is represented is detected from the image, and for each of the plurality of types of objects, the object represented in the object area is the type. For each of the object detection unit that calculates the certainty of the object and the image in which the object is detected in the series of images, the size of the object area on the image and the size distribution of each of the plurality of types of the object. A distance distribution calculation unit that obtains the distribution of the estimated distance to the object represented in the image based on information and certainty, and the distribution of the estimated distance for each of the images in the series of images in which the object was detected. It has a distance estimation unit that estimates the distance to the object at each acquisition time of the image in which the object is detected by the prediction processing using the above as an observation error model of the distance to the object.
本発明に係る距離推定装置は、画像に表された物体までの距離の推定精度を向上できるという効果を奏する。 The distance estimation device according to the present invention has the effect of improving the estimation accuracy of the distance to the object shown in the image.
以下、図を参照しつつ、距離推定装置について説明する。この距離推定装置は、時系列に得られる一連の画像から検出され、かつ、追跡される物体について、その追跡中の物体までの距離を推定する。その際、この距離推定装置は、追跡期間中に撮像部により得られた各画像について、その画像を識別器に入力することで求められる物体の種類ごとの確信度と、画像上での物体のサイズと、物体の種類ごとの実空間での撮像部から見た基準サイズ及びサイズのバラツキ度合いを表すサイズ分布情報とに基づいて、物体までの距離の推定値の統計的代表値及びバラツキの度合いを含む推定距離の分布を求める。そしてこの距離推定装置は、その分布を観測誤差のモデルとして用いる予測処理を行うことで、追跡中の各画像取得時における、その物体までの距離を推定する。 Hereinafter, the distance estimation device will be described with reference to the drawings. This distance estimation device estimates the distance to an object being tracked for an object detected and tracked from a series of images obtained in time series. At that time, this distance estimation device obtains the certainty of each type of object obtained by inputting the image into the classifier for each image obtained by the imaging unit during the tracking period, and the object on the image. Based on the size and the size distribution information that represents the reference size and the degree of variation in size as seen from the imaging unit in real space for each type of object, the statistical representative value of the estimated value of the distance to the object and the degree of variation Find the distribution of the estimated distance including. Then, this distance estimation device estimates the distance to the object at the time of acquiring each image during tracking by performing prediction processing using the distribution as a model of observation error.
以下では、距離推定装置を、車両制御システムに適用した例について説明する。この例では、距離推定装置は、車両に搭載されたカメラにより得られた画像に対して距離推定処理を実行することで、車両の周囲に存在する、検出対象となる物体を検出するとともに、検出された物体までの距離を推定し、物体の検出結果及び検出された物体までの距離の推定値を、車両の運転制御に利用する。なお、以下の実施形態では、車両に搭載されたカメラから物体までの距離を、その車両から物体までの距離とする。 In the following, an example in which the distance estimation device is applied to the vehicle control system will be described. In this example, the distance estimation device detects and detects an object to be detected around the vehicle by executing a distance estimation process on an image obtained by a camera mounted on the vehicle. The distance to the detected object is estimated, and the detection result of the object and the estimated value of the distance to the detected object are used for the operation control of the vehicle. In the following embodiment, the distance from the camera mounted on the vehicle to the object is defined as the distance from the vehicle to the object.
図1は、距離推定装置が実装される車両制御システムの概略構成図である。また図2は、距離推定装置の一例である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、距離推定装置の一例である電子制御装置(ECU)3とを有する。カメラ2とECU3とは、コントローラエリアネットワークといった規格に準拠した車内ネットワーク4を介して通信可能に接続される。
FIG. 1 is a schematic configuration diagram of a vehicle control system in which a distance estimation device is mounted. Further, FIG. 2 is a hardware configuration diagram of an electronic control device which is an example of a distance estimation device. In the present embodiment, the
カメラ2は、撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒〜1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。なお、車両10には、撮影方向または焦点距離が異なる複数のカメラが設けられてもよい。
The camera 2 is an example of an imaging unit, and is a two-dimensional detector composed of an array of photoelectric conversion elements having sensitivity to visible light, such as a CCD or C-MOS, and an object to be photographed on the two-dimensional detector. It has an imaging optical system that forms an image of a region. Then, the camera 2 is attached to, for example, the interior of the
カメラ2は、画像を生成する度に、その生成した画像及び撮影時刻(すなわち、画像の取得時刻)を、車内ネットワーク4を介してECU3へ出力する。
Each time the camera 2 generates an image, the camera 2 outputs the generated image and the shooting time (that is, the image acquisition time) to the ECU 3 via the in-
ECU3は、車両10を制御する。本実施形態では、ECU3は、カメラ2により得られた時系列の一連の画像から検出された物体に基づいて車両10を自動運転するよう、車両10を制御する。そのために、ECU3は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。
The ECU 3 controls the
通信インターフェース21は、通信部の一例であり、ECU3を車内ネットワーク4に接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワーク4を介して、カメラ2と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。
The
メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。なお、メモリ22は、後述するようにプロセッサ23が複数の演算ユニットを有する場合に、演算ユニットごとに専用のメモリ回路を有していてもよい。そしてメモリ22は、ECU3のプロセッサ23により実行される距離推定処理において使用される各種のデータ、例えば、カメラ2の焦点距離といったカメラ2に関する情報を表す内部パラメータ、距離推定処理で利用される識別器を特定するための各種パラメータ、及び、サイズ分布情報の一例である管理テーブルなどを記憶する。さらに、メモリ22は、カメラ2から受信した画像をその撮影時刻とともに一定期間記憶する。さらにまた、メモリ22は、検出された物体が追跡されている期間中に得られた各画像における、その物体が表された物体領域を表す情報及び検出物体リストといった、距離推定処理の途中で生成される各種のデータを一定期間記憶する。さらにまた、メモリ22は、地図情報といった車両10の走行制御に利用される情報を記憶してもよい。
The
プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10が走行している間、カメラ2から画像を受信する度に、受信した画像に対して距離推定処理を含む車両制御処理を実行する。そしてプロセッサ23は、検出された車両10の周囲の物体までの推定距離に基づいて、車両10を自動運転するよう、車両10を制御する。
The
図3は、距離推定処理を含む車両制御処理に関する、ECU3のプロセッサ23の機能ブロック図である。プロセッサ23は、物体検出部31と、距離分布算出部32と、距離推定部33と、運転計画部34と、車両制御部35とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、物体検出部31、距離分布算出部32及び距離推定部33が、距離推定処理を実行する。なお、車両10に複数のカメラが設けられる場合には、プロセッサ23は、カメラごとに、そのカメラにより得られた画像に基づいて距離推定処理を実行してもよい。
FIG. 3 is a functional block diagram of the
物体検出部31は、カメラ2から画像を受信する度に、受信した最新の画像を識別器に入力することで、その画像上の複数の領域のそれぞれについて、検出対象となる物体の種類ごとに、その領域にその種類の物体が表されている確からしさを表す確信度を求める。そして物体検出部31は、何れかの種類についての確信度が確信度閾値以上となる領域に、その種類の物体が表されていると判定する。
Each time the
本実施形態では、物体検出部31は、識別器として、画像上の複数の領域のそれぞれについて、検出対象となる物体の種類ごとに確信度を求めるように予め学習されたDNNを利用する。物体検出部31が利用するDNNは、例えば、非特許文献1に記載されたSingle Shot MultiBox Detector(SSD)、または、非特許文献2に記載されたFaster R-CNNと同様の構造を有するコンボリューショナルニューラルネットワーク(CNN)とすることができる。
In the present embodiment, the
図4は、識別器として利用されるDNNの構成の一例を示す図である。DNN400は、画像が入力される入力側に設けられる主幹部401と、主幹部401よりも出力側に設けられる位置検出部402及び種類推定部403とを有する。位置検出部402は、主幹部401からの出力に基づいて、画像上で検出対象となる物体が表された領域の外接矩形を出力する。種類推定部403は、主幹部401からの出力に基づいて、位置検出部402で検出された領域に表された物体の種類ごとの確信度を算出する。なお、位置検出部402及び種類推定部403は一体的に形成されてもよい。
FIG. 4 is a diagram showing an example of the configuration of a DNN used as a discriminator. The
主幹部401は、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。その複数の層には2以上の畳み込み層が含まれる。さらに、主幹部401が有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。さらにまた、主幹部401が有する複数の層には、1以上の全結合層が含まれてもよい。例えば、主幹部401は、SSDのベースレイヤーと同様の構成とすることができる。この場合、主幹部401は、VGG-16と同様に、入力側から順に、2層の畳み込み層→MaxPoolingを行う(すなわち、n×n個の入力のうちの最大値を出力する)プーリング層(以下、単にプーリング層と呼ぶ)→2層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の全結合層で構成されてもよい。あるいは、主幹部401は、VGG-19、AlexNetあるいはNetwork-In-Networkといった他のCNNアーキテクチャに従って構成されてもよい。
The
主幹部401は、画像が入力されると、その画像に対して各層での演算を実行することで、その画像から算出したfeature mapを出力する。
When an image is input, the
位置検出部402及び種類推定部403には、それぞれ、主幹部401から出力されたfeature mapが入力される。そして位置検出部402及び種類推定部403は、それぞれ、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。位置検出部402及び種類推定部403のそれぞれについて、CNNが有する複数の層には2以上の畳み込み層が含まれる。また、位置検出部402及び種類推定部403のそれぞれについて、CNNが有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。なお、CNNが有する畳み込み層及びプーリング層は、位置検出部402及び種類推定部403について共通化されてもよい。さらに、位置検出部402及び種類推定部403のそれぞれについて、複数の層には、1以上の全結合層が含まれてもよい。この場合、全結合層は、各畳み込み層よりも出力側に設けられることが好ましい。また全結合層には、各畳み込み層からの出力が直接入力されてもよい。また、種類推定部403の出力層は、ソフトマックス関数に従って検出対象となる物体の種類のそれぞれの確信度を算出するソフトマックス層としてもよいし、シグモイド関数に従って検出対象となる物体の種類のそれぞれの確信度を算出するシグモイド層としてもよい。
The feature map output from the main
位置検出部402及び種類推定部403は、例えば、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、検出対象となる物体の種類のそれぞれの確信度を出力するように学習される。したがって、識別器400は、画像が入力されることで、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、検出対象となる物体の種類のそれぞれの確信度を出力する。
The
識別器400の学習に利用される教師データに含まれる画像(教師画像)には、例えば、検出対象となる物体の種類(例えば、車、人、道路標識、信号機、道路上のその他の物体など)と、検出対象となる物体が表された領域を表す、その物体の外接矩形とがタグ付けされる。
The image (teacher image) included in the teacher data used for learning the
識別器400は、上記のような多数の教師画像を用いて、例えば、誤差逆伝搬法といった学習手法に従って学習される。プロセッサ23は、このように学習された識別器400を利用することで、画像から検出対象となる物体を精度良く検出できる。
The
物体検出部31は、確信度が算出された複数の領域のそれぞれについて、その領域について算出された物体の種類のそれぞれについての確信度を、その種類について設定される確信度閾値と比較する。そして物体検出部31は、複数の領域のうち、何れかの物体の種類についての確信度が、その種類について適用される確信度閾値以上となる領域を、検出対象となる物体が表された物体領域として検出する。さらに、物体検出部31は、物体領域において、確信度閾値以上となる確信度に対応する物体の種類を、物体領域に表された物体の種類として推定する。
The
あるいは、物体検出部31は、識別器として、DNN以外の識別器を用いてもよい。例えば、物体検出部31は、識別器として、画像上に設定されるウィンドウから算出される特徴量(例えば、Histograms of Oriented Gradients, HOG)を入力として、そのウィンドウに検出対象となる物体の種類のそれぞれについて、その種類の物体が表される確信度を出力するように予め学習されたサポートベクトルマシン(SVM)を用いてもよい。物体検出部31は、画像上に設定するウィンドウの位置、サイズ及びアスペクト比を様々に変更しながら、そのウィンドウから特徴量を算出し、算出した特徴量をSVMへ入力することで、そのウィンドウについて各種類の確信度を求める。そして物体検出部31は、何れかの種類の確信度が確信度閾値以上である場合、そのウィンドウを、その種類の物体が表された物体領域とする。
Alternatively, the
変形例によれば、物体検出部31は、何れの種類についても確信度が確信度閾値未満となる場合でも、2以上の物体の種類を含むクラスの何れかについて、そのクラスに属する各種類の確信度の和がそのクラスについての確信度閾値以上となる領域を、そのクラスの物体が表された物体領域として検出してもよい。なお、クラスは、物体の種類の上位のカテゴリであり、予め設定される。また、クラスは、Non-Maximum Suppressionが適用される物体の種類の組み合わせを含むように設定されてもよい。例えば、「車両」というクラスに、「普通乗用車」という種類と、「大型車両」という種類とが含まれており、それぞれの種類及びクラスに対して、確信度閾値が0.7に設定されているとする。そしてある領域について、「普通乗用車」及び「大型車両」について算出された確信度が0,5、0.3であったとする。この場合、「普通乗用車」及び「大型車両」については、何れも、確信度が確信度閾値未満であるので、その領域に表された物体の種類は、「普通乗用車」及び「大型車両」の何れとも判定されない。しかし、「普通乗用車」について算出された確信度(0.5)と「大型車両」について算出された確信度(0.3)の和(0.8)は、確信度閾値以上となる。そのため、その領域には、「車両」というクラスの物体が表されていると判定される。
According to the modification, even if the certainty of any type is less than the certainty threshold, the
これにより、ある領域に表されている物体が、所定のクラスに属する複数の種類の何れとも判別し難いような場合でも、物体検出部31は、その領域に表された物体を検出できる。
As a result, the
この場合、物体の種類ごとに、その種類が属するクラスを表すクラステーブルがメモリ22に予め記憶される。そして物体検出部31は、クラステーブルを参照して、クラスごとに、そのクラスに属する物体の種類を特定すればよい。
In this case, for each type of object, a class table representing the class to which the type belongs is stored in the
物体検出部31は、各物体領域の画像上での位置及び範囲を表す情報(例えば、物体領域の左上端及び右下端の座標)と、その物体領域について推定された物体の種類と、その種類が属するクラスの各種類について算出された確信度とを、検出された物体のリストである検出物体リストに登録する。そして物体検出部31は、検出物体リストをメモリ22に記憶する。
The
距離分布算出部32は、画像から検出された物体領域のそれぞれについて、その物体領域に表された物体の推定距離のバラツキ度合いを表す推定距離分布を算出する。本実施形態では、距離分布算出部32は、物体領域のサイズと、サイズ分布情報と、カメラ2の内部パラメータとに基づいて、検出対象となる物体の複数の種類のそれぞれについて物体領域に表された物体がその種類の物体である場合の推定距離の分布を表す正規分布を求め、求めた各種類の正規分布をその種類の確信度で重み付けすることで推定距離分布を求める。距離分布算出部32は、各物体領域について同じ処理を実行すればよいので、以下では、一つの物体領域に対する処理について説明する。
The distance
距離分布算出部32は、推定距離分布として、物体領域に表された物体の種類が属するクラスの種類ごとに、管理テーブルを参照して求められる、その種類について予め求められた実空間における代表的な大きさ及び大きさのバラツキの度合いと、その種類について算出された確信度とを用いて、混合正規分布を算出する。さらに、距離分布算出部32は、推定距離分布を後述する予測フィルタに適用できるようにするために、求めた混合正規分布を一つの正規分布で近似する。
As an estimated distance distribution, the distance
図5は、管理テーブルの一例を示す図である。管理テーブル500には、行ごとに、左から順に、物体の種類、その種類についてのカメラ2から見た実空間での代表的な水平方向サイズ、その水平方向サイズの標準偏差、その種類についての実空間での代表的な垂直方向サイズ、その垂直方向サイズの標準偏差、水平方向サイズの重み係数が表される。以下、カメラ2から見た実空間での物体の水平方向サイズを実幅と呼び、代表的な実幅を基準実幅と呼ぶ。同様に、カメラ2から見た実空間での物体の垂直方向サイズを実高と呼び、代表的な実高を基準実高と呼ぶ。なお、実幅の標準偏差は、その種類の物体の水平方向サイズのバラツキ度合いを表す。同様に、実高の標準偏差は、その種類の物体の垂直方向サイズのバラツキ度合いを表す。幅の重み係数Dwは、実幅に基づいて推定される物体までの距離の信頼性を表し、例えば、0以上1以下の値に設定される。また、同じ物体の種類に対する実高の重み係数は、例えば、(1-Dw)で表される。したがって、実幅に基づいて推定される物体までの距離の信頼性が、実高に基づいて推定される物体までの距離の信頼性に対して相対的に高いほど、実幅の重み係数Dwは大きな値に設定される。これは以下の理由による。物体の種類によっては、実幅と実高の何れか一方についてのバラツキ度合いが他方のバラツキ度合いよりも低いことがある。例えば、物体の種類が「歩行者」である場合、カメラ2から見た歩行者の向きにより、実幅は大きく異なるのに対して、実高はあまり変化しない。そのため、実幅のバラツキ度合いよりも、実高のバラツキ度合いの方が小さくなる。したがって、「歩行者」に関しては、実高に基づいて推定される距離の方が、実幅に基づいて推定される距離よりも信頼性が高くなる。そこで、このような重み係数を設定することで、推定距離の分布をより正確に表すことが可能となる。 FIG. 5 is a diagram showing an example of a management table. In the management table 500, row by row, from left to right, the type of object, the typical horizontal size of the type in real space as seen from the camera 2, the standard deviation of the horizontal size, and the type. The typical vertical size in real space, the standard deviation of the vertical size, and the weighting coefficient of the horizontal size are shown. Hereinafter, the horizontal size of the object in the real space seen from the camera 2 is referred to as an actual width, and a typical actual width is referred to as a reference actual width. Similarly, the vertical size of an object in the real space seen from the camera 2 is called the actual height, and the representative actual height is called the reference actual height. The standard deviation of the actual width represents the degree of variation in the horizontal size of the type of object. Similarly, the standard deviation of the actual height represents the degree of variation in the vertical size of that type of object. The width weighting coefficient Dw represents the reliability of the distance to the object estimated based on the actual width, and is set to a value of 0 or more and 1 or less, for example. The actual height weighting coefficient for the same object type is represented by, for example, (1-Dw). Therefore, the higher the reliability of the distance to the object estimated based on the actual width is relative to the reliability of the distance to the object estimated based on the actual height, the higher the weighting coefficient Dw of the actual width is. Set to a large value. This is due to the following reasons. Depending on the type of object, the degree of variation in either the actual width or the actual height may be lower than the degree of variation in the other. For example, when the type of the object is "pedestrian", the actual width greatly differs depending on the direction of the pedestrian as seen from the camera 2, but the actual height does not change much. Therefore, the degree of variation in actual height is smaller than the degree of variation in actual width. Therefore, for "pedestrians", the distance estimated based on the actual height is more reliable than the distance estimated based on the actual width. Therefore, by setting such a weighting coefficient, the distribution of the estimated distance can be expressed more accurately.
距離分布算出部32は、物体領域に表されていると判定された物体の種類が属するクラスの種類のそれぞれについて、次式に従って、車両10からその種類の物体までの推定距離(以下、幅推定距離と呼ぶ)の平均値distance_w及び幅推定距離の標準偏差σdistancewを算出する。同様に、距離分布算出部32は、物体領域に表されていると判定された物体の種類が属するクラスの種類のそれぞれについて、次式に従って、車両10からその種類の物体までの推定距離(以下、高さ推定距離と呼ぶ)の平均値distance_h及び高さ推定距離の標準偏差σdistancehをもとめる。
これにより、物体の種類ごとに、幅推定距離の平均値distance_w及び幅推定距離の標準偏差σdistancewの二乗とで規定される正規分布N(distance_w, σdistancew 2)(以下、単にNwと表記する)と、高さ推定距離の平均値distance_h及び高さ推定距離の標準偏差σdistancehの二乗とで規定される正規分布N(distance_h, σdistanceh 2) (以下、単にNhと表記する)とが求められる。したがって、距離分布算出部32は、次式に従って、物体領域に表された物体までの推定距離の分布を表す混合正規分布GMMをもとめることができる。
このように、物体領域に表されている可能性の有る物体の種類ごとの確信度で、その種類ごとの実幅または実高の基準値及びバラツキ度合いから求められる距離の推定値の分布を重み付けすることで、距離分布算出部32は、物体領域に表されている物体までの距離のバラツキ度合いを正確に評価することができる。さらに、距離分布算出部32は、物体の種類ごとに、実幅に基づく推定距離の分布と実高に基づく推定距離の分布のそれぞれを、実幅と実幅のそれぞれの信頼性で重み付けするので、物体領域に表されている物体までの距離のバラツキ度合いをより正確に評価することができる。
In this way, the certainty of each type of object that may be represented in the object area is weighted by the distribution of the estimated value of the distance obtained from the reference value of the actual width or height and the degree of variation for each type. By doing so, the distance
なお、画像上での物体の実際の幅に対する物体領域の幅のバラツキ度合いが無視できない場合には、距離分布算出部32は、そのバラツキ度合いを考慮して、幅推定距離の標準偏差σdistancewを求めてよい。同様に、画像上での物体の実際の高さに対する物体領域の高さのバラツキ度合いが無視できない場合には、距離分布算出部32は、そのバラツキ度合いを考慮して、高さ推定距離の標準偏差σdistancehを求めてよい。この場合には、距離分布算出部32は、例えば、次式に従って、幅推定距離の標準偏差σdistancew、及び、高さ推定距離の標準偏差σdistancehを算出すればよい。
距離分布算出部32は、物体領域に表された物体までの推定距離の分布を表す混合正規分布を一つの正規分布で近似することで、その一つの正規分布の平均値及び標準偏差を算出する。そして距離分布算出部32は、物体領域ごとに算出された、その一つの正規分布の平均値dfinal及び標準偏差σfinalを、推定距離の分布として、その物体領域と関連付けてメモリ22に記憶する。
The distance
距離推定部33は、画像から検出された物体領域のそれぞれについて、車両10からその物体領域に表された物体までの推定距離をもとめる。距離推定部33は、各物体領域について同じ処理を実行すればよいので、以下では、一つの物体領域に対する処理について説明する。
The
本実施形態では、距離推定部33は、最新の画像から検出された着目する物体領域について、その物体領域に表された物体を過去の画像から検出された物体と対応付けることで、その物体領域に表された物体を追跡する。そして距離推定部33は、物体が追跡されている期間(以下、単に追跡期間と呼ぶ)中に得られた個々の画像における、その物体が表された物体領域について求められた推定距離の分布を、Kalman Filterといった予測フィルタにおける、推定距離の観測誤差のモデルとして利用し、その予測フィルタによる予測処理に従って、追跡期間中の各画像取得時におけるその物体までの距離を最小平均二乗誤差推定(MMSE)する。
In the present embodiment, the
距離推定部33は、例えば、Lucas-Kanade法といった、オプティカルフローに基づく追跡処理を、最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された物体を過去に遡って追跡する。そのため、距離推定部33は、例えば、着目する物体領域に対してSIFTあるいはHarrisオペレータといった特徴点抽出用のフィルタを適用することで、その物体領域から複数の特徴点を抽出する。そして距離推定部33は、複数の特徴点のそれぞれについて、過去の画像における物体領域における対応する点を、適用される追跡手法に従って特定することで、オプティカルフローを算出すればよい。あるいは、距離推定部33は、画像から検出された移動物体の追跡に適用される他の追跡手法を、最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された物体を追跡してもよい。
The
距離推定部33は、最新の画像における、着目する物体領域に表された物体を、過去の画像から検出された物体と対応付けると、適用される予測フィルタの手法に従って、追跡期間中の各画像取得時におけるその物体までの距離を最小平均二乗誤差推定する。例えば、予測フィルタとしてKalman Filterが適用される場合、距離推定部33は、追跡期間中の画像ごとに、推定距離の観測値を更新するmeasurement updateと、次の時刻(この例では、次の画像取得時)における推定距離の予測値を更新するprocess updateとを、その物体が表された物体領域について求められた推定距離の分布と、Process noiseとを用いて実行する。例えば、距離推定部33は、推定距離の分布の平均値dfinalを観測値、推定距離の分布の標準偏差σfinalを観測誤差として、線形Kalman FilterあるいはExtended Kalman Filterによって観測残差の共分散(Innovation covariance)及びKalman Gainを求めることでmeasurement updateを実行する。また、距離推定部33は、線形Kalman FilterあるいはExtended Kalman Filterにより、process updateを行えばよい。また、Process noiseは、物体の挙動または車両10自体の挙動の不確実性を表し、例えば、正規分布で表され、Process noiseのモデル行列とともにメモリ22に予め記憶される。
When the object represented in the object area of interest in the latest image is associated with the object detected from the past image, the
変形例によれば、距離推定部33は、Unscented Kalman Filterにより、観測残差の共分散及びKalman Gainを求めることでmeasurement updateを実行してもよい。この場合には、追跡期間中の各画像についてその物体が表された物体領域について求められた、推定距離の分布を表す混合正規分布自体を推定距離の観測誤差のモデルとして利用してもよい。この場合には、距離推定部33は、推定距離の分布を表す混合正規分布に基づいて、平均値dfinal周囲の複数のシグマ点を決定し、その複数のシグマ点に基づいて観測残差の共分散及びKalman Gainを算出すればよい。また、この場合、距離推定部33は、Unscented Kalman Filterにより、process updateを行えばよい。
According to the modification, the
また、Kalman Filterを用いた予測処理において、追跡期間中の各画像取得時における、追跡中の物体の位置を表す状態ベクトルは、例えば、車両10からその物体までの推定距離と、推定距離の時間微分値である相対速度のそれぞれを要素とする2次元ベクトルで表される。あるいは、状態ベクトルは、カメラ2を基準とし、路面に平行な面に設定される2次元の直交座標系であるカメラ座標系で表される、その物体の位置(すなわち、車両10に対するその物体の相対的な位置座標)(x,y)と、その時間微分値(vx,vy)のそれぞれを要素とする4次元ベクトルで表されてもよい。さらに、状態ベクトルは、車両10からその物体までの推定距離dと、カメラ2からその物体への方位角φ(すなわち、カメラ2の光軸方向に対する、カメラ2からその物体へ向かう方向の角度)と、推定距離の時間微分値と、方位角の時間微分値のそれぞれを要素とする4次元ベクトルで表されてもよい。なお、画像上での物体領域の位置、例えば、物体領域の重心の位置が、カメラ2からその物体への方位角φを表す。したがって、状態ベクトルの要素として方位角φが含まれる場合には、距離推定部33は、物体領域の重心の位置に基づいて、その方位角φを求めることができる。さらに、状態ベクトルの要素として、カメラ座標系における位置が含まれる場合、距離推定部33は、推定距離dと方位角φからその位置を算出できる。
Further, in the prediction process using the Kalman Filter, the state vector representing the position of the object being tracked at the time of acquiring each image during the tracking period is, for example, the estimated distance from the
上記のように、距離推定部33は、measurement updateとprocess updateとを追跡期間中の各画像ごとに繰り返すことで、各画像取得時における、物体領域に表された物体までの距離を正確に推定できる。
As described above, the
距離推定部33は、最新の画像の物体領域ごとに、その物体領域に表された物体についての追跡期間中の各画像取得時の状態ベクトルを、運転計画部34へ通知する。
The
運転計画部34は、各画像について求められた検出物体リスト、及び、追跡中の物体についての状態ベクトルを参照して、車両10の周囲に存在する物体と車両10とが衝突しないように車両10の走行予定経路(トラジェクトリ)を1以上生成する。走行予定経路は、例えば、現時刻から所定時間先までの各時刻における、車両10の目標位置の集合として表される。例えば、運転計画部34は、カメラ2についての車両10への取り付け位置などの情報を用いて視点変換処理を実行することで、物体検出リストにおける物体領域の画像内座標を鳥瞰画像上の座標(鳥瞰座標)に変換する。その際、運転計画部34は、状態ベクトルを参照して、車両10からその物体領域に表された物体までの推定距離を利用して、鳥瞰画像上でのその物体の位置を特定すればよい。そして運転計画部34は、一連の鳥瞰座標に対してKalman FilterまたはParticle filterなどを用いたトラッキング処理を実行することで、検出物体リストに登録されている物体を追跡し、その追跡結果により得られた軌跡から、物体のそれぞれの所定時間先までの予測軌跡を推定する。運転計画部34は、追跡中の各物体の予測軌跡と、車両10の位置、速度及び姿勢に基づいて、何れの物体についても所定時間先までの追跡中の物体のそれぞれと車両10間の距離の予測値が所定距離以上となるように、車両10の走行予定経路を生成する。なお、運転計画部34は、車両10の位置、速度及び姿勢を、例えば、車両10に搭載されたGPS受信機(図示せず)から得た車両10の現在位置を表す現在位置情報に基づいて推定できる。あるいは、ローカライズ処理部(図示せず)が、カメラ2により画像が得られる度に、その画像から車両10の左右の車線区画線を検出し、検出された車線区画線とメモリ22に記憶されている地図情報とをマッチングすることで、車両10の位置、速度及び姿勢が推定されてもよい。さらに、運転計画部34は、例えば、車両10の現在位置情報と、メモリ22に記憶されている地図情報とを参照して、車両10が走行可能な車線の数を確認してもよい。そして運転計画部34は、車両10が走行可能な車線が複数存在する場合には、車両10が走行する車線を変更するように走行予定経路を生成してもよい。
なお、運転計画部34は、複数の走行予定経路を生成してもよい。この場合、運転計画部34は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
The
The
運転計画部34は、生成した走行予定経路を車両制御部35へ通知する。
The
車両制御部35は、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部35は、通知された走行予定経路、及び、車速センサ(図示せず)により測定された車両10の現在の車速に従って、車両10の加速度を求め、その加速度となるようにアクセル開度またはブレーキ量を設定する。そして車両制御部35は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置へ出力する。あるいは、車両制御部35は、設定されたブレーキ量に応じた制御信号を車両10のブレーキへ出力する。
The vehicle control unit 35 controls each part of the
さらに、車両制御部35は、車両10が走行予定経路に沿って走行するために車両10の進路を変更する場合には、その走行予定経路に従って車両10の操舵角を求め、その操舵角に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。
Further, when the
図6は、プロセッサ23により実行される、距離推定処理を含む車両制御処理の動作フローチャートである。プロセッサ23は、カメラ2から画像が受信する度に、図6に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS101〜S105の処理が距離推定処理に対応する。
FIG. 6 is an operation flowchart of the vehicle control process including the distance estimation process executed by the
プロセッサ23の物体検出部31は、カメラ2から得られた最新の画像を識別器に入力して、画像上の様々な領域について、その領域に表された検出対象となる物体の種類ごとの確信度を求める(ステップS101)。そして物体検出部31は、最新の画像における、確信度が算出された複数の領域のうち、何れかの物体の種類についての確信度がその種類についての確信度閾値以上となる物体領域においてその種類の物体が検出されたと判定する(ステップS102)。なお、上記のように、物体検出部31は、何れかのクラスについて、そのクラスに属する各種類の確信度の和が確信度閾値以上となる物体領域に、そのクラスの物体が検出されたと判定してもよい。そして物体検出部31は、検出された物体を検出物体リストに登録する。
The
プロセッサ23の距離分布算出部32は、最新の画像上の物体領域のそれぞれについて、車両10からその物体領域に表された物体までの推定距離のバラツキ度合いを表す推定距離分布を、物体領域のサイズ、カメラ2の内部パラメータ、物体の種類ごとのサイズ分布情報、及び、確信度に基づいて算出する(ステップS103)。
The distance
プロセッサ23の距離推定部33は、最新の画像上の物体領域のそれぞれについて、その物体領域に表された物体を過去に遡って追跡して、その物体が追跡される追跡期間及び追跡期間中の各画像における、対応する物体領域を特定する(ステップS104)。そして距離推定部33は、最新の画像上の物体領域のそれぞれについて、その物体領域に表された物体の追跡期間中における、車両10からその物体までの各画像取得時の距離を、追跡期間中の各画像における対応する物体領域についての推定距離分布を観測誤差のモデルとして用いた予測処理により最小平均二乗誤差推定する(ステップS105)。
For each of the object areas on the latest image, the
プロセッサ23の運転計画部34は、追跡中の各物体について、その追跡期間中における各画像取得時のその物体までの推定距離に基づいて推定されるその物体の予測軌跡と所定の距離以上となるように、車両10の走行予定経路を生成する(ステップS106)。そしてプロセッサ23の車両制御部35は、走行予定経路に沿って車両10が走行するように車両10を制御する(ステップS107)。そしてプロセッサ23は、車両制御処理を終了する。
The
以上に説明してきたように、この距離推定装置は、時系列に得られる一連の画像から識別器を用いて検出され、かつ、追跡される物体について、その追跡中の物体までの距離を推定する。その際、この距離推定装置は、追跡期間中に得られた各画像について、その画像を識別器に入力することで求められる物体の種類ごとの確信度と、画像上での物体のサイズと、物体の種類ごとのサイズ分布情報とに基づいて、物体までの距離の推定値の統計的代表値及びバラツキの度合いを含む推定距離の分布を求める。そしてこの距離推定装置は、その分布を観測誤差のモデルとして用いる予測処理を行うことで、追跡中の各画像取得時における、その物体までの距離を最小平均二乗誤差推定する。そのため、この距離推定装置は、画像に表された物体までの距離の推定精度を向上することができる。 As described above, this distance estimation device estimates the distance to the object being tracked for the object detected and tracked using the classifier from a series of images obtained in time series. .. At that time, this distance estimation device determines the certainty of each type of object obtained by inputting the image into the classifier for each image obtained during the tracking period, and the size of the object on the image. Based on the size distribution information for each type of object, the distribution of the estimated distance including the statistical representative value of the estimated value of the distance to the object and the degree of variation is obtained. Then, this distance estimation device estimates the minimum mean square error of the distance to the object at the time of acquiring each image during tracking by performing prediction processing using the distribution as a model of the observation error. Therefore, this distance estimation device can improve the estimation accuracy of the distance to the object shown in the image.
なお、変形例によれば、距離分布算出部32は、物体領域に表された物体について、その物体として推定された種類と所定の類似関係が有る種類についても、推定距離分布を求めるために正規分布を求める種類の一つとしてもよい。所定の類似関係は、例えば、事前に設定され、メモリ22に、その類似関係を表す類似参照テーブルが予め記憶される。距離分布算出部32は、類似参照テーブルを参照して、物体領域に表された物体について、確信度が確信度閾値以上となる種類と類似関係が有る種類を特定する。そして距離分布算出部32は、類似関係が設定されている物体の種類について、上記の実施形態と同様に正規分布をもとめればよい。このように、類似関係が有る物体の種類についての正規分布も推定距離分布の算出に利用することで、画像に表された物体の種類が類似関係が有る他の種類と誤認識されている場合でも、本来の種類のサイズ分布情報も考慮して推定距離分布が求められるので、推定距離分布は物体までの推定距離の分布をより正確に表すことができる。
According to the modified example, the distance
類似関係は、例えば、共通の外観上の特徴を持つ物体の種類間に設定される。例えば、物体検出部31により確信度が算出される物体の種類の一つである「2輪車」と物体の種類の他の一つである「歩行者」には、何れも、人という共通する外観上の特徴が含まれる。そのため、その二つの種類「2輪車」及び「歩行者」は互いに類似関係に有ると設定される。
Similarities are set, for example, between types of objects that have common appearance features. For example, "two-wheeled vehicle", which is one of the types of objects whose certainty is calculated by the
あるいは、検出対象となる物体の種類ごとに、その物体が表された領域から抽出される特徴量に対してクラスタリング処理を実行することで、同じクラスに属すると判定される種類間に類似関係が有ると設定されてもよい。この場合、類似関係の判定に利用される特徴量は、例えば、Haar-like特徴、Histograms of Oriented Gradients(HOG)、あるいは、物体検出部31が確信度の算出に利用する識別器が算出するfeature mapといった、物体の種類の判別に利用可能な特徴量とすることができる。
Alternatively, by executing clustering processing on the feature amount extracted from the area in which the object is represented for each type of the object to be detected, a similar relationship can be established between the types determined to belong to the same class. It may be set to exist. In this case, the feature amount used for determining the similarity is, for example, a Haar-like feature, a Histograms of Oriented Gradients (HOG), or a feature calculated by a classifier used by the
上記の実施形態または変形例による距離推定装置は、車載機器以外に実装されてもよい。例えば、上記の実施形態または変形例による距離推定装置は、屋外または屋内の所定の領域を所定周期ごとに撮影するように設置された監視カメラにより生成された画像から物体を検出し、検出した物体までの距離を推定するように構成されてもよい。 The distance estimation device according to the above embodiment or modification may be mounted on a device other than the in-vehicle device. For example, the distance estimation device according to the above embodiment or modification detects an object from an image generated by a surveillance camera installed so as to capture a predetermined area outdoors or indoors at predetermined intervals, and the detected object. It may be configured to estimate the distance to.
また、上記の実施形態または変形例による、距離推定装置のプロセッサ23の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。
Further, the computer program that realizes the functions of each part of the
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various changes within the scope of the present invention according to the embodiment.
1 車両制御システム
2 カメラ
3 電子制御装置(距離推定装置)
4 車内ネットワーク
21 通信インターフェース
22 メモリ
23 プロセッサ
31 物体検出部
32 距離分布算出部
33 距離推定部
34 運転計画部
35 車両制御部
1 Vehicle control system 2 Camera 3 Electronic control device (distance estimation device)
4 In-
Claims (1)
時系列に得られる一連の画像のそれぞれについて、当該画像から前記物体が表された物体領域を検出するとともに、前記複数の種類のそれぞれについて、当該物体領域に表された前記物体が当該種類の物体である確信度を算出する物体検出部と、
前記一連の画像のうち、前記物体が検出された画像のそれぞれについて、当該画像上の前記物体領域のサイズと、前記複数の種類のそれぞれの前記サイズ分布情報及び前記確信度とに基づいて、当該画像に表された前記物体までの推定距離の分布を求める距離分布算出部と、
前記一連の画像のうち、前記物体が検出された画像のそれぞれについての前記推定距離の分布を前記物体までの距離の観測誤差モデルとして用いた予測処理により、前記物体が検出された画像のそれぞれの取得時刻における、前記物体までの距離を推定する距離推定部と、
を有する距離推定装置。 For each of a plurality of types of objects to be detected, a storage unit that stores size distribution information indicating the reference size of the object of the type in the real space and the degree of variation in the size of the object of the type in the real space.
For each of the series of images obtained in time series, the object region in which the object is represented is detected from the image, and for each of the plurality of types, the object represented in the object region is the object of the type. An object detection unit that calculates the certainty of
For each of the images in which the object is detected in the series of images, the size of the object region on the image, the size distribution information of each of the plurality of types, and the certainty of the object are used. A distance distribution calculation unit that obtains the distribution of the estimated distance to the object shown in the image,
Of the series of images, each of the images in which the object was detected by the prediction process using the distribution of the estimated distance for each of the images in which the object was detected as an observation error model of the distance to the object. A distance estimation unit that estimates the distance to the object at the acquisition time,
Distance estimator with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019146445A JP2021026683A (en) | 2019-08-08 | 2019-08-08 | Distance estimation apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019146445A JP2021026683A (en) | 2019-08-08 | 2019-08-08 | Distance estimation apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021026683A true JP2021026683A (en) | 2021-02-22 |
Family
ID=74662404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019146445A Pending JP2021026683A (en) | 2019-08-08 | 2019-08-08 | Distance estimation apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021026683A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022142165A (en) * | 2021-03-16 | 2022-09-30 | トヨタ自動車株式会社 | Vehicle control device, vehicle control method, and computer program for controlling vehicle |
WO2023112347A1 (en) * | 2021-12-16 | 2023-06-22 | 古野電気株式会社 | Target monitoring device, target monitoring method, and program |
CN118380008A (en) * | 2024-06-25 | 2024-07-23 | 武汉天虹环保产业股份有限公司 | Intelligent real-time identification and positioning monitoring system and method for environmental noise pollution |
-
2019
- 2019-08-08 JP JP2019146445A patent/JP2021026683A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022142165A (en) * | 2021-03-16 | 2022-09-30 | トヨタ自動車株式会社 | Vehicle control device, vehicle control method, and computer program for controlling vehicle |
WO2023112347A1 (en) * | 2021-12-16 | 2023-06-22 | 古野電気株式会社 | Target monitoring device, target monitoring method, and program |
CN118380008A (en) * | 2024-06-25 | 2024-07-23 | 武汉天虹环保产业股份有限公司 | Intelligent real-time identification and positioning monitoring system and method for environmental noise pollution |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7052663B2 (en) | Object detection device, object detection method and computer program for object detection | |
JP7078021B2 (en) | Object detection device, object detection method and computer program for object detection | |
JP7147420B2 (en) | OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND COMPUTER PROGRAM FOR OBJECT DETECTION | |
Shim et al. | An autonomous driving system for unknown environments using a unified map | |
JP2019527832A (en) | System and method for accurate localization and mapping | |
JP7135665B2 (en) | VEHICLE CONTROL SYSTEM, VEHICLE CONTROL METHOD AND COMPUTER PROGRAM | |
JP2021165080A (en) | Vehicle control device, vehicle control method, and computer program for vehicle control | |
JP7359735B2 (en) | Object state identification device, object state identification method, computer program for object state identification, and control device | |
JP7115502B2 (en) | Object state identification device, object state identification method, computer program for object state identification, and control device | |
CN114120075B (en) | Three-dimensional target detection method integrating monocular camera and laser radar | |
JP2021026683A (en) | Distance estimation apparatus | |
JP2020067896A (en) | Travelable direction detector and travelable direction detection method | |
JP2021120255A (en) | Distance estimation device and computer program for distance estimation | |
CN116703966A (en) | Multi-object tracking | |
JP2017181476A (en) | Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program | |
JP7226368B2 (en) | Object state identification device | |
JP2021081272A (en) | Position estimating device and computer program for position estimation | |
US11120292B2 (en) | Distance estimation device, distance estimation method, and distance estimation computer program | |
US20230177844A1 (en) | Apparatus, method, and computer program for identifying state of lighting | |
JP2020076714A (en) | Position attitude estimation device | |
JP7147464B2 (en) | Image selection device and image selection method | |
JP7528915B2 (en) | Tracking device, tracking method, and tracking computer program | |
JP7491260B2 (en) | Person detection device, person detection method and computer program for detecting persons | |
JP2022079954A (en) | Object detection apparatus | |
CN113492850B (en) | Inclination angle detection device and control device |