JP2006021641A - Vehicle periphery display device and its display method - Google Patents
Vehicle periphery display device and its display method Download PDFInfo
- Publication number
- JP2006021641A JP2006021641A JP2004201396A JP2004201396A JP2006021641A JP 2006021641 A JP2006021641 A JP 2006021641A JP 2004201396 A JP2004201396 A JP 2004201396A JP 2004201396 A JP2004201396 A JP 2004201396A JP 2006021641 A JP2006021641 A JP 2006021641A
- Authority
- JP
- Japan
- Prior art keywords
- position information
- relative position
- vehicle
- distribution
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、自車両周囲の他車両を検出し、自車両との相対位置を計測する車両周辺表示装置と、計測された他車両の相対位置の表示方法に関する。 The present invention relates to a vehicle periphery display device that detects other vehicles around the host vehicle and measures a relative position with the host vehicle, and a display method of the measured relative position of the other vehicle.
従来、走行中に自車両周辺の他車両を検出し、検出された他車両と自車両との位置関係を運転者等に提示したり、自車両との距離に応じて警報を発したりする車両周辺表示装置がある。そのような車両周辺表示装置として、車両にレーザレーダを搭載し、出射レーザパルスから反射レーザパルス受波までの時間から、自車両周辺の他車両の有無や、自車両から他車両までの距離の算出を行うものと、車両にカメラを搭載し、カメラによって撮影された画像から、自車両周辺の他車両の有無や、自車両から他車両までの距離の算出を行うものが知られている。 Conventionally, a vehicle that detects other vehicles in the vicinity of the host vehicle while traveling and presents the positional relationship between the detected other vehicle and the host vehicle to a driver or the like or issues an alarm according to the distance from the host vehicle. There is a peripheral display device. As such a vehicle periphery display device, a laser radar is mounted on the vehicle, and from the time from the emitted laser pulse to the reflected laser pulse reception, the presence of other vehicles around the own vehicle and the distance from the own vehicle to the other vehicle There are known ones that perform calculation and those that include a camera mounted on a vehicle and calculate the presence or absence of other vehicles around the host vehicle and the distance from the host vehicle to another vehicle from an image captured by the camera.
例えばレーザレーダで前方車両との車間距離を所定周期ごとに順次計測して、モニタに表示する車両周辺表示装置では、車両前部に取り付けられるレーザレーダヘッドの発光部はその光軸の向きが、先行車の後部リフレクタ等へ向けてパルスレーザ光を照射するように初期設定されている。しかし、凹凸路でのピッチング等により車両の姿勢が上向き、下向きに変化すると、この車両の姿勢変化に追従してレーザの光軸も上向き、下向きに振られることとなる。
このとき計測される車間距離は、レーザの光軸が上向きに振られたときには、光軸が先行車から外れて例えば空へ向くことで無限大となる、一方レーザの光軸が下向きに振られたときには、光軸が先行車から外れて路面へ向くことで実際の車間距離より短い距離となるなど、計測した車間距離が大きく変動して誤差を含むおそれがあった。
For example, in a vehicle periphery display device that sequentially measures the inter-vehicle distance with a preceding vehicle with a laser radar for each predetermined period and displays it on a monitor, the light emitting part of the laser radar head attached to the front part of the vehicle has the direction of its optical axis, The initial setting is such that the pulse laser beam is emitted toward the rear reflector or the like of the preceding vehicle. However, if the attitude of the vehicle changes upward or downward due to pitching or the like on an uneven road, the optical axis of the laser is also swung upward or downward following this change in the attitude of the vehicle.
The inter-vehicle distance measured at this time becomes infinite when the optical axis of the laser is swung upward, for example, when the optical axis deviates from the preceding vehicle and heads toward the sky, while the laser optical axis is swung downward. In some cases, the measured inter-vehicle distance may vary greatly and include an error, for example, the optical axis may deviate from the preceding vehicle toward the road surface, resulting in a shorter distance than the actual inter-vehicle distance.
ピッチングに起因する計測誤差が生じた際に、ピッチングが収束するまでに変動する不安定な車間距離をモニタに逐次表示することは、車室内の快適な情報表示環境を損なう恐れがある。
これを防ぐために、車間距離が所定の計測上限値を超えた場合には、ピッチングに起因する計測誤差が生じたと判定し、車間距離のモニタ表示を更新しない技術が開示されている(特許文献1参照)。
In order to prevent this, a technique is disclosed in which, when the inter-vehicle distance exceeds a predetermined measurement upper limit value, it is determined that a measurement error due to pitching has occurred, and the monitor display of the inter-vehicle distance is not updated (Patent Document 1). reference).
このような上記従来の方法にあっては、計測上限値を越えたときにピッチングによる誤差が生じたとして表示を更新しないという構成になっているが、ピッチング以外の要因による計測誤差については考慮されていないという問題点があった。
ピッチング以外の要因による計測誤差としては、例えば計測手法に起因する誤差が考えられる。
In such a conventional method, the display is not updated because an error due to pitching occurs when the measurement upper limit is exceeded, but measurement errors due to factors other than pitching are considered. There was a problem that not.
As a measurement error due to factors other than pitching, for example, an error caused by a measurement technique can be considered.
センサの計測手法に起因する誤差の例として、カメラを距離センサとして使用した距離算出手法について、以下に説明する。
例えばカメラ光軸が地面と水平になるように所定の向きに取り付けられたカメラで、所定領域の車両を撮影し、その画像の最下端から車両の地面との接地位置までの縦方向の画素数bを検出する。撮影された所定領域の車両までの距離Lを、カメラ光軸の地面からの高さhと撮影画像上の縦方向の全画素数aとを用いて、
L=h/tan((a−b)/a)
として検出するものである。
この場合、撮影画像上のより遠方位置の1画素あたりの距離は、より大きい距離を示し、距離分解能が解像度に依存することになる。
したがって、遠方の車両は撮影画像上の位置が1画素分だけ振動的に変化するだけで、車両のピッチングによるレーザレーダの場合と同様に、算出距離が不安定に振動する。
As an example of an error caused by the sensor measurement method, a distance calculation method using a camera as a distance sensor will be described below.
For example, the number of pixels in the vertical direction from the lowest end of the image to the ground contact position of the vehicle is shot with a camera mounted in a predetermined orientation so that the camera optical axis is horizontal to the ground b is detected. The distance L to the vehicle in the predetermined area that has been photographed is determined using the height h of the camera optical axis from the ground and the total number of pixels a in the vertical direction on the photographed image,
L = h / tan ((ab) / a)
Is detected.
In this case, the distance per pixel at a farther position on the photographed image indicates a larger distance, and the distance resolution depends on the resolution.
Therefore, a distant vehicle vibrates unstablely in the calculated distance just like the case of laser radar based on vehicle pitching, as the position on the captured image changes only one pixel in vibration.
本発明は、上記の問題点を解決するために、センサの計測手法などに起因する距離測定誤差がある場合も、自車両周囲の対象物までの距離を違和感なく表示する車両周辺表示装置と表示方法を提供することを目的とする。 In order to solve the above problems, the present invention provides a vehicle periphery display device and a display that displays the distance to an object around the host vehicle without a sense of incongruity even when there is a distance measurement error caused by a sensor measurement method or the like. It aims to provide a method.
このため、本発明は、自車両から周囲の対象物までの相対位置情報を取得し、さらに相対位置情報の理論誤差を取得し、相対位置情報と理論誤差を用いて、対象物存在位置情報を算出し、対象物存在位置情報をモニタに表示するものとした。 For this reason, the present invention acquires relative position information from the host vehicle to surrounding objects, further acquires the theoretical error of the relative position information, and uses the relative position information and the theoretical error to calculate the object position information. The target position information is calculated and displayed on the monitor.
本発明により、取得した相対位置情報が有する理論誤差を用いて、対象物の存在位置を示す対象物存在位置情報を算出するので、理論誤差の大小に応じた対象物存在位置情報の生成となり、従来の検出した車間距離の数値を逐次表示することによって理論誤差によって車間距離が不安定に振動するような違和感を軽減することができる。 According to the present invention, the object existence position information indicating the existence position of the object is calculated using the theoretical error of the acquired relative position information, so that the object existence position information according to the magnitude of the theoretical error is generated, By sequentially displaying the numerical values of the conventionally detected inter-vehicle distance, it is possible to reduce the uncomfortable feeling that the inter-vehicle distance vibrates unstablely due to a theoretical error.
以下本発明の実施の形態を説明する。
図1は本実施の形態の車両周辺表示装置のブロック構成図である。
本実施の形態の車両周辺表示装置は、自車両5(図2参照)の周囲の走行車両を検出するための撮影画像を取得するカメラ1と、その撮影画像を画像処理して他車両を検出し、他車両の自車両5からの相対位置を算出し、相対位置を表示させる車両周辺表示コントロール・ユニット(以下、車両周辺表示C/Uと称する)2と、検出した他車両の相対位置を乗員に表示するモニタ3から構成されている。
Embodiments of the present invention will be described below.
FIG. 1 is a block diagram of a vehicle periphery display device according to the present embodiment.
The vehicle periphery display device according to the present embodiment detects a
車両周辺表示C/U2は、撮影画像を画像処理し車両を検出する車両検出部21とカメラ1からの撮影画像および画像処理中の画像データを一時記憶する画像記憶部22とを有する画像処理プロセッサ部11と、車両検出部21からの車両検出結果にもとづいて他車両の自車両5からの相対位置を算出し、その相対位置データを処理し、本発明の対象物存在位置情報として対象物マーカをグラフィック表示する演算制御部12とから構成される。
The vehicle periphery display C / U2 includes an image processing processor including a
演算制御部12は、存在位置算出部23、理論誤差記憶部24、存在位置履歴記憶部25、グルーピング処理部26、統計量算出部27、確信度分布算出部28、表示制御部29とから構成されている。
自車両5の周囲を撮影するカメラ1は、図1では1台で代表して示してあるが、台数は任意で良く、例えば図2に示すように自車両前方を撮影するカメラ1A、自車両後方を撮影するカメラ1B、自車両左後側方を撮影するカメラ1L、自車両右後側方を撮影するカメラ1Rの4台のカメラを用いて、自車両周囲を監視しても良い。
The
Although one
これらのカメラごとに画像処理プロセッサ部11を個別に用意しても良いし、1つの画像処理プロセッサ部11で、カメラ画像取得および画像処理のタイミングをずらして車両検出しても良い。
いずれにしても、画像処理プロセッサ部11は、演算制御部12によって各カメラからの画像取得と画像処理のタイミングを制御される。
The image
In any case, the timing of image acquisition and image processing from each camera is controlled by the
以下に画像処理プロセッサ部11および演算制御部12の機能を説明する。
車両検出部21は、カメラ1によって撮影された画像から車両の検出を行う。車両の検出方法としては、たとえば特開平8−320999号公報に開示された方法を用いる。この方法は車両の側面部として検出される縦エッジが車両最下端部において途切れる点と、車両の特徴である左右対称性とに着目して車両を検出するものである。撮影された画像に画像処理を行って画像中の縦エッジを検出し、その縦エッジが途切れた点を、車両後部または車両前部の左右の車両最下端候補とし、画像中の右側と左側の車両最下端候補がほぼ同じ高さである場合に、検出物体が車両と判断する。
The functions of the image
The
車両検出部21は車両を検出すると、検出された車両に識別番号mを付け、その画像上での車両下端座標(車両最下端の横方向および縦方向の画素位置)と大きさ(車両の横方向の画素数)と、カメラ撮影時刻データtと、カメラ番号nとを付して、演算制御部12に出力する。演算制御部12は、図示しないRAMを有し、それらのデータをRAMに一時記憶する。
When the
演算制御部12の存在位置算出部23は、画像処理プロセッサ部11での画像取得、画像処理タイミングを制御する。また車両検出部21からの車両検出結果にもとづいて、他車両の存在位置としての自車両5からの相対位置を算出する。
相対位置の算出方法を以下に説明する。存在位置算出部23は、上記のRAMから車両最下端座標と大きさを読出し、検出したカメラ画像の中心座標を原点としたカメラ画像座標系において、車両最下端座標の左右方向中間点座標を他車両の代表点として用い、カメラ1の焦点距離、カメラ1の取り付け高さ、カメラ1の取付け方向から、カメラ1の取付け位置から当該他車両までの水平距離と相対方位を算出する。
なお、カメラ1の焦点距離、カメラ1の取り付け高さ、カメラ1の取付け方向などのデータは予め演算制御部12の図示しない不揮発メモリに記憶されている。
The existence
A method for calculating the relative position will be described below. The existence
It should be noted that data such as the focal length of the
存在位置算出部23は、さらに自車両5の基準点M(例えば自車両5の平面中心)とカメラ1の取付け位置との車両左右方向および前後方向の距離差分を補正して、自車両5の基準点Mからの相対位置に換算する。
このとき、自車両5からの相対位置は、基準点Mを原点とした前方方向をy座標(プラス)、後方方向をy座標(マイナス)、右方向をx座標(プラス)、左方向をx座標(マイナス)とした相対座標で表現する。また、自車両5の基準点Mからの相対位置に換算するのに必要なカメラ1の取り付け位置に関するデータも予め演算制御部12の図示しない不揮発メモリに記憶されている。
なお、自車両5の基準点Mを原点とした相対位置データは、本発明の相対位置情報に対応する。
The existence
At this time, the relative position from the
The relative position data with the reference point M of the
存在位置算出部23は、算出した基準点Mからの相対位置データ{xmnt,ymnt}を、カメラ撮影時刻データt、カメラ番号n、識別車両番号mを付して、存在位置履歴記憶部25に出力して記憶させる。
なお、ここでm=0、1、2、・・・、Mtであり、Mtは時刻tにカメラnで取得された画像から車両として検出された数がMt個であったことを意味する。
The existence
Here, m = 0, 1, 2,..., Mt, and Mt means that the number detected as a vehicle from the image acquired by the camera n at time t was Mt.
存在位置履歴記憶部25は、所定の周期で全カメラ1のカメラ画像から得られた相対位置データを記憶し、古い相対位置データを削除して、所定時間(以下、所定時間の幅の上限と下限を時刻t1〜t2と便宜上表示する)に撮影されたカメラ画像から検出された他車両の相対位置データ{xmnt,ymnt}を蓄積する。
The existence position
理論誤差記憶部24は、カメラnの撮影した画像にもとづく相対位置データ{xmnt,ymnt}の算出の理論誤差であるx座標の理論誤差kx{xmnt,ymnt}、y座標の理論誤差ky{xmnt,ymnt}を、カメラnの分解能データ、焦点距離精度、取付け位置精度などから予め計算し、相対位置データ{xmnt,ymnt}の関数またはルックアップテーブルの形で格納している。
The theoretical
グルーピング処理部26は、まず存在位置履歴記憶部25に記憶された相対位置データ{xmnt,ymnt}の分布を撮影したカメラnおよび識別車両番号mごとに、ヒストグラムを作り、例えばk−meanクラスタリングの手法で、第1段階のグルーピング処理を行う。グルーピング処理の中で連続性がなくかつ理論誤差記憶部24から読み出したx座標の理論誤差kx{xmnt,ymnt}、y座標の理論誤差ky{xmnt,ymnt}に、比して大きく離れる相対位置データ{xmnt,ymnt}は、誤検出による相対位置データと見なして、存在位置履歴記憶部25から削除する。
削除されずに残った全てのカメラ1の相対位置データ{xmnt,ymnt}の分布のヒストグラムを再度作り、k−meanクラスタリングの手法で第2段階のグルーピング処理を行い、相対位置データ{xmnt,ymnt}をグループ化された相対位置データ{xigt,yigt}に分類する。
ここでgはグループ番号を示す(g=1〜Nt)。
The
A histogram of the distribution of the relative position data {x mnt , y mnt } of all the
Here, g represents a group number (g = 1 to Nt).
統計量算出部27は、グループ化された相対位置データ{xigt,yigt}ごとに、以下の統計量を算出する。
まず、各グループの相対位置データ{xigt,yigt}の平均座標{xcg,ycg}を以下の式により算出する。
First, the average coordinates {x cg , y cg } of the relative position data { xigt , yigt } of each group are calculated by the following formula.
また、平均座標{xcg,ycg}に対する共分散行列Rを次式のように求める。
確信度分布算出部28では、相対位置(x、y)における他車両の存在する確からしさを示す指標である確信度の分布P(x,y)を算出する。
このとき、存在位置履歴記憶部25に記憶された所定時間(時刻t1〜t2の間)に含まれる相対位置データから、現在の時刻tfにおける確信度分布を考える。
まず、時刻tfにおけるグループgの相対位置データの分布の中心座標(xug,yug)を、式(4)を用いて求める。
(νxg,νyg)は、グルーピングされた相対位置データ{xigt,yigt}の分布のx座標およびy座標をそれぞれカメラ撮影時刻tとx座標、カメラ撮影時刻tとy座標との2次元分布に投影し、各2次元分布において、x座標、y座標の時間に対する変化率の主軸の傾きを求めることによって得られる。
The certainty factor
At this time, from the relative position data included in the location
First, the center coordinates (x ug , y ug ) of the distribution of the relative position data of the group g at time t f are obtained using the equation (4).
(Ν xg , ν yg ) is an x-coordinate and a y-coordinate of the distribution of the grouped relative position data { xigt , yigt }, which are 2 of the camera photographing time t and the x coordinate, respectively. It is obtained by projecting onto a dimensional distribution and determining the inclination of the principal axis of the rate of change with respect to time of the x-coordinate and y-coordinate in each two-dimensional distribution.
主軸の傾きは以下のような一般的な主成分分析によって求められる。ここでは、x座標について例示する。
である。
The inclination of the main axis is obtained by the following general principal component analysis. Here, the x coordinate is illustrated.
次に、Vgの固有値λgを求める。固有値λgは、式(6)を満たす。
νxgは式(8)で与えられる。
ν xg is given by equation (8).
このようにして得られた、現在の時刻tfにおけるカメラ画像から抽出されたグループgの他車両の相対位置の分布の二次元正規確率分布G(x,y)は、中心座標(xug,yug)と、式(3)で定義された共分散行列Rとから式(9)で表される。
表示制御部29は、算出された確信度の分布P(x,y)と理論誤差にもとづき、カメラ画像から求められたグループgの他車両の相対位置を示す対象物マーカ31(図3、図4参照)の表示位置および大きさと、さらに対象物マーカ31の表示面積内の輝度分布とを設定する。表示制御部29は設定した対象物マーカ31の大きさと輝度分布でモニタ3に表示させる。
対象物マーカ31の形状は、例えば楕円とし、楕円の大きさは、式(4)で表されるグループgの中心座標(xug,yug)を対象物マーカ31の中心とし、(xug−kx(xug,yug),yug−ky(xug,yug))と(xug+kx(xug,yug),yug+ky(xug,yug))の2点を対角線の両端に持つ、自車両5の前後方向に平行に向いた長方形に内接する大きさとする。
対象物マーカ31の輝度I(x,y)は、式(14)で表す。
The shape of the
The luminance I (x, y) of the
従って、楕円の対象物マーカ31の表示面積内の輝度分布は、対象物マーカ31の中心が位置する中心座標(xug,yug)において輝度が最も強く、楕円の外側に向かって、確信度の分布P(x,y)の値に応じて輝度が弱くなる。0から1までの間の数値である確信度を所定の段階数Niに分割し、各段階に輝度レベルを対応させて、段階的に分布の中心から外へ行くほど輝度を弱くしても良いし、モニタ3の輝度値が例えば256階調であれば(輝度値)=256×(確信度値)として設定しても良い。
図3、図4に上方からみた自車両5の中心を基準点Mとした平面座標において、自車両周囲の他車両を示す対象物マーカ31の表示例を示す。
なお、自車両5の最外側輪郭から対象物マーカ31の中心までの距離に対して所定の複数の距離帯を設け、自車両5に近い距離帯に中心が存在する対象物マーカ31ほど注意喚起度の高い色彩で表示し、運転者に接近度合いを示す。例えば、2m未満は赤色、2m以上5m未満は橙色、5m以上10m未満はピンク色、10m以上はグリーンのように色彩を設定する。
Therefore, the luminance distribution within the display area of the
3 and 4 show display examples of the
A plurality of predetermined distance zones are provided for the distance from the outermost contour of the
自車両5と他車両との相対速度が大きい、または他車両の距離検出精度が悪いと、つまり理論誤差が大きいと、所定時間(時刻t1〜t2の間)に得られる相対位置データはばらつく。その結果、分布の広がりが大きくなり、かつ二次元正規確率分布の中心座標における確率は低くなる。分布の広がりの大きい理由が、相対速度によるのか理論誤差によるのかは二次元正規確率分布だけでは判断できない。
そこで、確信度としては、二次元正規確率分布を用いずに、式(13)に示すような
(確信度)=(二次元正規確率分布の値)/{(二次元正規確率分布の中心座標における確率)×(中心座標における理論誤差)}とする。
If the relative speed between the
Therefore, as the certainty factor, (certainty factor) = (two-dimensional normal probability distribution value) / {(central coordinates of the two-dimensional normal probability distribution) as shown in the equation (13) without using the two-dimensional normal probability distribution. Probability) × (theoretical error in center coordinates)}.
同じ広がりの二次元正規確率分布であれば、確率分布の中心座標における確率は同じなので、分布の中心座標における理論誤差の大小に依存して確信度は変化する。分布の広がりが大きいのが理論誤差に依存する場合は、分母の理論誤差が大きいので、確信度が小さくなる。逆に分布の広がりが大きいのが相対速度の大きいことによる場合は、分母の理論誤差の値は小さいので、確信度が大きくなる。 In the case of a two-dimensional normal probability distribution with the same spread, the probability at the center coordinate of the probability distribution is the same, so the certainty varies depending on the magnitude of the theoretical error at the center coordinate of the distribution. When the spread of the distribution depends on the theoretical error, the certainty factor becomes small because the theoretical error of the denominator is large. On the contrary, when the spread of the distribution is large due to the large relative speed, the certainty factor increases because the theoretical error value of the denominator is small.
次に、自車両5の基準点Mからの相対位置のある1点において、相対速度の大きい他車両と相対速度の小さい他車両との確信度を比較して見る。
同じカメラ座標位置であるので相対速度の大きい場合も小さい場合も両者で理論誤差は同じである。相対速度が大きい場合は確信度の分布が広く、中心座標から離れるにつれての減衰が小さい。相対速度が小さい場合は確信度の分布は小さく、中心座標から離れるにつれての減衰が大きい。
式(13)より、理論誤差が同じである場合、中心座標における確信度は分布の広がりに関係なく同じである。
つまり、理論誤差が同じ自車両5からの相対位置における相対速度の異なる他車両の確信度は、分布中心での値は等しく、相対速度が大きいほど確信度の高い領域が広がり、相対速度が小さいほど確信度が高い領域が狭まる。
Next, the reliability of the other vehicle having a higher relative speed and the other vehicle having a lower relative speed at one point relative to the reference point M of the
Since the camera coordinate position is the same, the theoretical error is the same in both cases where the relative speed is large and small. When the relative speed is large, the confidence distribution is wide and the attenuation is small as the distance from the center coordinate is increased. When the relative speed is small, the certainty distribution is small and the attenuation increases as the distance from the center coordinate increases.
From Equation (13), when the theoretical error is the same, the certainty factor at the center coordinate is the same regardless of the spread of the distribution.
That is, the certainty factors of other vehicles having different relative speeds at relative positions from the
図5に自車両周囲の他車両の相対位置をモニタに表示するための制御の流れのフローチャートを示す。
これらの制御は、画像処理プロセッサ部11と演算制御部12におけるプログラムとして処理される。
ステップ101では、画像記憶部22は、カメラ1からカメラ番号n、カメラ撮影時刻tと共に、撮影画像を取得する。
ステップ102では、車両検出部21は、エッジ処理により車両を検出し、検出した車両の車両下端座標と大きさを、カメラ番号n、カメラ撮影時刻t、検出車両識別番号mを付加して演算制御部12に出力する。演算制御部12は、それらをRAMに一時記憶する。
FIG. 5 shows a flowchart of a control flow for displaying the relative positions of other vehicles around the host vehicle on the monitor.
These controls are processed as programs in the image
In
In
ステップ103では、存在位置算出部23が、検出された車両の車両下端座標と大きさをRAMから読出し、自車両5の基準点Mからの相対位置データ{xmnt,ymnt}を算出する。
ステップ104では、存在位置算出部23は、相対位置データ{xmnt,ymnt}を所定時間(時刻t1〜t2の間)の相対位置履歴として、存在位置履歴記憶部25に、カメラ番号n、カメラ撮影時刻t、検出車両識別番号mを付加して記憶させる。
ステップ105では、存在位置算出部23は、相対位置データ{xmnt,ymnt}に対応したx座標の理論誤差kx{xmnt,ymnt}、y座標の理論誤差ky{xmnt,ymnt}を理論誤差記憶部24に格納したデータから取得し、相対位置データ{xmnt,ymnt}に対応させて存在位置履歴記憶部25に記憶させる。
In
In
In
ステップ106では、グルーピング処理部26は、グルーピング処理をする。
先ず存在位置履歴記憶部25から相対位置データ{xmnt,ymnt}と、x座標の理論誤差kx{xmnt,ymnt}、y座標の理論誤差ky{xmnt,ymnt}を取得し、所定時間(時刻t1〜t2の間)のカメラn、車両識別番号mに対応する相対位置データ{xmnt,ymnt}に対して、第1段階のグルーピング処理を行い、誤検出による相対位置データ{xmnt,ymnt}を削除する。その次に、全てのカメラnによる所定時間(時刻t1〜t2の間)の相対位置データをグルーピングする第2段階のグルーピング処理を行う。
In
First, the relative position data {x mnt , y mnt }, the x-coordinate theoretical error k x {x mnt , y mnt }, and the y-coordinate theoretical error k y {x mnt , y mnt } are stored from the existing position
ステップ107では、統計量算出部28は、グルーピングされた相対位置データ群ごとに、式(1)、(2)により平均座標を、式(3)により共分散行列Rの統計量を、式(4)から式(8)にもとづき中心座標を算出する。
ステップ108では、確信度分布算出部28は、中心座標(xug,yug)に対する理論誤差を理論誤差記憶部24から取得する。
ステップ109では、確信度分布算出部28は、ステップ107で算出された統計量とステップ108で取得された理論誤差を用いて現在時刻tfにおける検出された他車両の存在位置の確信度分布を式(13)にもとづいて算出する。
In
In
In
ステップ110では、表示制御部29は、現在時刻tfにおけるグループgの確信度分布の中心座標における理論誤差の大きさを対象物マーカ31の大きさとし、確信度分布の中心座標を中心とした対象物マーカ31を設定し、式(14)で設定した対象物マーカ31の表示面積内の輝度設定を行う。
ステップ111では、モニタ3は、表示制御部29の設定した対象物マーカ31の位置と、対象物マーカ31の大きさおよび輝度で他車両の位置を表示する。
In
In
図3の(a)、(b)は、検出された他車両の相対位置が自車両5から遠く、相対位置の理論誤差kx(xug,yug)、ky(xug,yug)が比較的大きい場合である。
カメラ画像による位置検出の場合、画素の座標位置から距離を算出するので、自車両5から遠いほど1画素分の距離が大きくなり、理論誤差が大きくなり、このような細長い楕円の対象物マーカ31となる。
図4の(a)、(b)は、検出された他車両の相対位置が自車両5に近く、相対位置の理論誤差kx(xug,yug)、ky(xug,yug)が小さい場合である。
3A and 3B, the detected relative position of the other vehicle is far from the
In the case of position detection using a camera image, the distance is calculated from the coordinate position of the pixel. Therefore, the distance from one vehicle increases as the distance from the
4A and 4B, the detected relative position of the other vehicle is close to the
さらに、自車両5と他車両との相対速度が小さい場合、相対位置の変化が小さく、図3の(a)または図4の(a)に示すように、輝度の強い部分が相対位置の変化方向に狭く表示される。
自車両5と他車両との相対速度が大きい場合、相対位置の変化が大きく、図3の(b)または図4の(b)に示すように、相対位置の変化方向に沿って輝度の強い均一な中心部分が長く表示される。
Further, when the relative speed between the
When the relative speed between the
本実施の形態のフローチャートにおけるステップ101からステップ104は、本発明の相対位置情報取得手段を、ステップ105、108は理論誤差取得手段を、ステップ106、107、109、110は対象物存在位置情報算出手段を構成する。
以上のように本実施の形態によれば、所定時間(時刻t1〜t2の間)の他車両の存在位置である相対位置データを蓄積し、第1段階のグルーピング処理として、各カメラnで検出した車両識別番号mごとに相対位置データ{xmnt,ymnt}をグルーピング処理して、複数の相対位置データの中で一つのグループとして連続性がなく、理論誤差より大きな変化の相対位置データを誤検出データとして削除する。
その結果、従来の方法にあっては、ピッチングによって計測上限値以内の誤差が生じた場合に、表示される車間距離が真値の周辺で不安定に振動し、モニタ表示されている車間距離変動が不自然となるという問題が改善され、乗員に違和感を与えない。
As described above, according to the present embodiment, relative position data that is the position of another vehicle for a predetermined time (between times t1 and t2) is accumulated and detected by each camera n as a first-stage grouping process. The relative position data {x mnt , y mnt } is grouped for each vehicle identification number m, and the relative position data having a change larger than the theoretical error is not continuous as one group among the plurality of relative position data. Delete as false positive data.
As a result, in the conventional method, when an error within the upper limit of measurement occurs due to pitching, the displayed inter-vehicle distance oscillates unstable around the true value, and the inter-vehicle distance fluctuation displayed on the monitor is displayed. The problem of unnaturalness is improved, and the passengers are not discomforted.
また、カメラの撮影画像を画像処理して対象の車両を抽出するので、光学的な外乱、例えば外光のカメラへの直接入射や日陰や車両に似た構造物の誤検出などを生じ易いが、カメラ1に入射した外来光などによる誤検出データは複数の相対位置データの中で一つのグループとして連続性がない相対位置データは削除されるので、モニタ表示されている車間距離変動が不自然となり、運転者が周囲の状況を認識する妨げとなるという問題が改善され、乗員に違和感を与えない。
In addition, since the target vehicle is extracted by performing image processing on the captured image of the camera, optical disturbances such as direct incidence of external light on the camera and erroneous detection of shades and structures similar to the vehicle are likely to occur. In addition, misdetection data caused by extraneous light incident on the
次に、第2段階のグルーピング処理として、全カメラの削除されなかった所定時間(時刻t1〜t2の間)の相対位置データ{xmnt,ymnt}全体をグルーピング処理して、自車両周囲の複数の他車両の相対位置データ{xmnt,ymnt}をグループgごとの相対位置データ{xigt,yigt}にグルーピングし直す。そのうえで、グループgごとの相対位置データ群に対して現在時刻tfにおける確信度分布P(x,y)を算出している。 Next, as a second stage grouping process, the entire relative position data {x mnt , y mnt } for a predetermined time (between times t1 and t2) when all the cameras are not deleted is grouped, The relative position data {x mnt , y mnt } of a plurality of other vehicles is regrouped into the relative position data {x igt , y iigt } for each group g. Sonouede, and calculates the certainty factor distribution P (x, y) at the current time t f to the relative position data group for each group g.
その後、他車両の存在位置の表示を、上方から見た自車両5を中心とした平面座標に、グループgの相対位置データ群に対する確信度分布P(x,y)の中心座標を対象物マーカ31の中心とし、中心座標における理論誤差にもとづき、対象物マーカ31の大きさを定め、対象物マーカ31の表示面積内の輝度を確信度にもとづいて設定する。
従って、自車両周囲の他車両の存在位置が一目瞭然に表示でき、運転者にとって周囲の他車両の位置を直感的に視認しやすい。
また、理論誤差の大小に応じて対象物マーカ31の大きさを設定しているので、相対位置データの信頼度が一目で分かりやすい。
Thereafter, the display of the position of the other vehicle is displayed on the plane coordinate centered on the
Therefore, the location of the other vehicle around the host vehicle can be displayed at a glance, and the driver can easily visually recognize the position of the other vehicle around.
Further, since the size of the
さらに、自車両5との相対速度が大きい他車両は、輝度の強い部分が対象物マーカ31の表示面積内に細長く表示され、自車両5との相対速度が小さい他車両は、輝度の強い部分が対象物マーカ31の表示面積内に短く表示されるので、他車両との相対速度が直感的に認識し易い。
このように、確信度分布を算出して、その分布の値に応じて輝度表示するので、例えば、確信度分布の算出をせず、グルーピング処理した相対位置データを単にドット表示で表示するよりも、直感的に相対速度の大小を把握しやすい。
さらに、自車両5の最外側輪郭に近い車両の対象物マーカ31ほど、色彩を注意喚起度の高い色彩としているので、運転者が接近度合いを認識しやすい。
Further, in other vehicles having a large relative speed with the
Thus, since the certainty distribution is calculated and the luminance is displayed according to the value of the distribution, for example, the certainty distribution is not calculated, and the grouped relative position data is displayed simply as a dot display. Intuitively understand the relative speed.
Furthermore, since the
本実施の形態では、検出した他車両の存在位置を表示するための対象物マーカ31の大きさを、理論誤差にもとづいて定めたが、確信度分布において所定の数値以上の確信度を示す領域を対象物マーカ31の大きさと定めても良い。例えば0.5以上の確信度分布の領域を対象物マーカの大きさとして設定する。
その場合、当該他車両との相対速度が大きい場合、対象物マーカは相対位置の変化方向に延びた形で大きくなり、逆に当該他車両との相対速度が小さい場合、対象物マーカは比較的小さい円形または楕円形となる。
したがって、直感的に相対位置が変化しているかどうかが分かる。
In the present embodiment, the size of the
In that case, when the relative speed with the other vehicle is large, the object marker increases in a shape extending in the direction of change of the relative position. Conversely, when the relative speed with the other vehicle is small, the object marker is relatively It becomes a small circle or ellipse.
Therefore, it can be understood intuitively whether the relative position has changed.
さらに、所定時間(時刻t1〜t2の間)の相対位置データの平均座標{xcg,ycg}を起点とし、現在の時刻tfにおける確信度分布P(x,y)の中心座標(xug,yug)の位置を終点とする相対変位ベクトルを定義し、相対変位ベクトルが自車両方向に向いている場合と、逆に遠去かる場合とを判別するベクトル方向を示す矢印を対象物マーカ31の近傍に付加しても良い。
このように、相対位置データの所定時間内の履歴にもとづいて、時系列的な相対位置の変化方向を判定することができ、他車両が自車両5に接近しているかどうかを、乗員は常時直感的に判断できる。
Furthermore, starting from the average coordinates {x cg , y cg } of the relative position data for a predetermined time (between times t1 and t2), the center coordinates (x of the certainty distribution P (x, y) at the current time t f ug , y ug ) as an end point, a relative displacement vector is defined, and an arrow indicating a vector direction for determining whether the relative displacement vector is in the direction of the host vehicle or on the other hand is a target object. It may be added near the
In this manner, the direction of change of the relative position in time series can be determined based on the history of the relative position data within a predetermined time, and the occupant can always determine whether another vehicle is approaching the
なお、本実施の形態では対象物マーカ31の表示面積内の確信度値の分布を輝度の変化で表示したが、その代わりに同一色彩の濃さにより、確信度の値が大きいほど濃く設定するようにして確信度の分布を表示しても良い。確信度の分布の表示の仕方はこれに限定されるものではなく、色彩そのものを変えても良い。例えば、確信度が高い方から低い方に向かって赤、橙、黄、青の順にしても良い。
確信度の値に応じて対象物マーカの色彩そのものを変える場合は、接近度合いを示す色彩で対象物マーカを縁取っても良い。
In this embodiment, the distribution of the certainty value within the display area of the
When the color of the object marker itself is changed according to the certainty value, the object marker may be trimmed with a color indicating the degree of approach.
次に、本実施の形態の第1の変形例を説明する。
本変形例では、実施の形態の第1段階および第2段階のグルーピング処理の後、グループgごとに所定時間(時刻t1〜t2の間)の相対位置データの平均座標{xcg,ycg}と、主成分分析による現在時刻tfにおける相対位置データの分布の中心座標(xug,yug)を求める。
さらに、他車両の存在位置の表示を、上方から見た自車両5を中心とした平面座標に、グループgの相対位置データ群の中心座標を対象物マーカ31の中心の位置とし、中心座標における理論誤差に基づき、楕円の対象物マーカ31の大きさを設定する。その上、その対象物マーカ31の表示面積内に含まれるグループgの相対位置データを例えばドット表示でプロットし、平均座標{xcg,ycg}を起点とし、中心座標(xug,yug)の位置を終点とするベクトルを示す矢印形状の対象物マーカをも重畳表示させる。
Next, a first modification of the present embodiment will be described.
In this modification, after the first and second stage grouping processes of the embodiment, the average coordinates {x cg , y cg } of the relative position data for a predetermined time (between times t1 and t2) for each group g. And the center coordinates (x ug , y ug ) of the distribution of the relative position data at the current time t f by principal component analysis.
Further, the display of the position of the other vehicle is set to a plane coordinate centered on the
このような発明の構成とすることにより、所定時間(時刻t1〜t2の間)の他車両の相対位置データの蓄積に基づき、矢印形状の対象物マーカからその他車両が相対的に移動している方向が示され、楕円の対象物マーカ31の大きさで理論誤差の大きさが示されるので、乗員は車間距離データの変化をしばらく観察する必要なく即座に相対位置の変化を判断できる。また、相対位置の信頼度は理論誤差を示す楕円の対象物マーカ31の大きさによって容易に判断できる。
なお、第1段階のグルーピング処理によって、誤検出による相対位置データが排除され、安定した見易い自車両周囲の他車両の相対位置表示であることは、実施の形態と同じである。
With such a configuration, the other vehicle is relatively moved from the arrow-shaped object marker based on the accumulation of the relative position data of the other vehicle for a predetermined time (between times t1 and t2). Since the direction is indicated and the size of the
Note that the relative position data due to erroneous detection is eliminated by the first-stage grouping process, and the relative position display of other vehicles around the host vehicle that is stable and easy to see is the same as in the embodiment.
さらに本実施の形態の第2の変形例を説明する。本変形例では、実施の形態の演算制御部12は、存在位置算出部23、理論誤差記憶部24、表示制御部29から構成されている。
存在位置算出部23において算出した相対位置データを所定時間蓄積することなく、表示制御部29は算出された相対位置座標に対応する理論誤差を理論誤差記憶部24から取得し、対象物マーカ31の中心位置は算出された相対位置座標とし、他車両が存在可能性のある範囲を示す情報として、対象物マーカの大きさを理論誤差の値にもとづき設定する。このようにして得られた対象物マーカを表示制御部29は逐次表示する。
理論誤差の大きい対象物マーカ31は、大きく表示されるので、理論誤差の大きさ程度の距離で表示位置が振動しても、違和感を与えない表示となる。また、乗員は対象物マーカの大きさを、他車両の存在可能性の範囲として直感的に捉えることができる。
Further, a second modification of the present embodiment will be described. In this modification, the
The
Since the
実施の形態および第1の変形例および第2の変形例では、相対位置情報を取得する方法としてカメラによるものとしたがそれに限定されない。レーザレーダなどによる走査によって自車両周辺の他車両位置を検出して、相対位置データとしても良い。
例えば、レーザレーダにおいて、ピッチング以外の要因による計測誤差、例えばパルスレーザ光が先行車後部のリフレクタを照射できなくて、十分な強度の反射レーザ光を受波できず、計測上限値を越えたと判定した場合とか、対向車両から発せられたパルスレーザ光を反射レーザ光として誤検出した場合などの対象物の非検出または誤検出による誤差、およびセンサの計測手法に起因する誤差が考えられる。
この場合特に、実施の形態と第1の実施例においては、第1段階のグルーピング処理をおこない、複数の相対位置データの中で一つのグループとして連続性がなく、理論誤差より大きな変化の相対位置データを誤検出データとして削除する。
その結果、従来の方法にあっては、ピッチングによって計測上限値以内の誤差が生じた場合に、表示される車間距離が真値の周辺で不安定に振動し、モニタ表示されている車間距離変動が不自然となるという問題が改善され、乗員に違和感を与えない。
In the embodiment, the first modified example, and the second modified example, the method for acquiring the relative position information is based on the camera, but is not limited thereto. Relative position data may be obtained by detecting other vehicle positions around the host vehicle by scanning with a laser radar or the like.
For example, in a laser radar, it is determined that the measurement error due to factors other than pitching, for example, the pulse laser beam cannot irradiate the reflector at the rear of the preceding vehicle, the reflected laser beam with sufficient intensity cannot be received, and the measurement upper limit is exceeded. Error due to non-detection or false detection of an object such as a case where a pulse laser beam emitted from an oncoming vehicle is erroneously detected as a reflected laser beam, or an error caused by a sensor measurement technique.
In this case, in particular, in the embodiment and the first example, the first-stage grouping process is performed, and there is no continuity as one group among a plurality of relative position data, and the relative position of the change larger than the theoretical error. Delete the data as false positive data.
As a result, in the conventional method, when an error within the upper limit of measurement occurs due to pitching, the displayed inter-vehicle distance oscillates unstable around the true value, and the inter-vehicle distance fluctuation displayed on the monitor is displayed. The problem of unnaturalness is improved, and the passengers are not discomforted.
なお、本実施の形態および第1の変形例および第2の変形例における理論誤差として、カメラ画像からの画素位置を用いた距離算出方法起因するものを考えたが、それに限定されるものではなく、発生する相対位置データの誤差として明確に数値化可能なものについては、理論誤差として扱うことができる。
また、理論誤差は予め計算されて理論誤差記憶部24に格納されているものとしたが、それに限定されるものではない。時々刻々取得される相対位置データの信頼性を、例えば取得タイミングの自車両のピッチングなどの外的要因を車両状態センサで検出し、それを反映した誤差をその都度取得するものとしてもよい。
Note that although the theoretical error in the present embodiment and the first and second modified examples is attributed to the distance calculation method using the pixel position from the camera image, it is not limited thereto. Those that can be clearly quantified as errors in the generated relative position data can be treated as theoretical errors.
Although the theoretical error is calculated in advance and stored in the theoretical
1、1A、1B、1L、1R カメラ
2 車両周辺表示コントロール・ユニット
3 モニタ
5 自車両
11 画像処理プロセッサ部
12 演算制御部
21 車両検出部
22 画像記憶部
23 存在位置算出部
24 理論誤差記憶部
25 存在位置履歴記憶部
26 グルーピング処理部
27 統計量算出部
28 確信度分布算出部
29 表示制御部
31 対象物マーカ
DESCRIPTION OF
Claims (9)
前記相対位置情報の理論誤差を取得する理論誤差取得手段と、
前記相対位置情報と前記理論誤差を用いて、対象物存在位置情報を算出する対象物存在位置情報算出手段と、
前記対象物存在位置情報を表示するモニタとを備えることを特徴とする車両周辺表示装置。 Relative position information acquisition means for acquiring relative position information from the host vehicle to surrounding objects;
A theoretical error acquisition means for acquiring a theoretical error of the relative position information;
Using the relative position information and the theoretical error, target object position information calculating means for calculating target object position information;
A vehicle periphery display device comprising: a monitor for displaying the object presence position information.
前記対象物存在位置情報算出手段は、
前記蓄積された相対位置情報にもとづいて、前記平面座標における前記対象物の存在する位置の確信度分布を算出し、
該確信度分布にもとづいて前記平面座標における前記対象物存在位置情報の表示位置および大きさを設定することを特徴とする請求項2に記載の車両周辺表示装置。 The relative position information acquisition means accumulates the relative position information for a predetermined time,
The object presence position information calculating means includes
Based on the accumulated relative position information, calculate the certainty distribution of the position where the object exists in the plane coordinates,
The vehicle periphery display device according to claim 2, wherein a display position and a size of the object presence position information in the plane coordinates are set based on the certainty factor distribution.
前記確信度分布の値にもとづいて前記対象物存在位置情報のさらに色彩または輝度を設定することを特徴とする請求項3に記載の車両周辺表示装置。 The object presence position information calculating means includes
4. The vehicle periphery display device according to claim 3, wherein a color or luminance of the object presence position information is set based on the value of the certainty distribution.
前記対象物存在位置情報算出手段は、
前記蓄積された相対位置情報にもとづいて、前記平面座標における前記対象物の存在する位置の確信度分布を算出し、
該確信度分布にもとづいて前記平面座標における前記対象物存在位置情報の表示位置と、さらに色彩または輝度とを設定し、
前記理論誤差の大きさにもとづいて前記対象物存在位置情報の大きさを設定することを特徴とする請求項2に記載の車両周辺表示装置。 The relative position information acquisition means accumulates the relative position information for a predetermined time,
The object presence position information calculating means includes
Based on the accumulated relative position information, calculate the certainty distribution of the position where the object exists in the plane coordinates,
Based on the certainty distribution, set the display position of the object presence position information in the plane coordinates, and further color or brightness,
The vehicle periphery display device according to claim 2, wherein the size of the object presence position information is set based on the size of the theoretical error.
該確信度分布の中心位置を、前記対象物存在位置情報の表示位置とし、
前記対象物存在位置情報の表示面積内において、前記確信度分布の値が高いほど輝度レベルを高く、または濃い色彩を設定することを特徴とする請求項4または5に記載の車両周辺表示装置。 The object presence position information calculating means calculates the certainty distribution of the position where the object exists in the plane coordinate at the current time from the distribution of the accumulated relative position information. ,
The center position of the certainty distribution is set as the display position of the object presence position information,
6. The vehicle periphery display device according to claim 4, wherein within the display area of the target object location information, the luminance level is set higher or darker as the value of the certainty distribution is higher.
前記対象物存在位置情報算出手段は、前記蓄積された相対位置情報の分布の平均値の位置を算出し、該平均値の位置をベクトルの起点とし、
さらに、前記蓄積された相対位置情報の分布にもとづき、時間に対する前記対象物の存在位置の変化率の主成分分析を行い、現在の時刻における前記対象物の存在する中心位置を算出し、該中心位置を前記ベクトルの終点とし、
前記対象物存在位置情報を、前記ベクトルを示す矢印の形状として表示させることを特徴とする請求項2に記載の車両周辺表示装置。 The relative position information acquisition means accumulates the relative position information for a predetermined time,
The object existence position information calculating means calculates the position of the average value of the distribution of the accumulated relative position information, and uses the position of the average value as the starting point of the vector,
Further, based on the distribution of the accumulated relative position information, a principal component analysis of the rate of change of the position of the object with respect to time is performed, and a center position where the object exists at the current time is calculated. Let the position be the end point of the vector,
The vehicle periphery display device according to claim 2, wherein the object presence position information is displayed as an arrow shape indicating the vector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004201396A JP2006021641A (en) | 2004-07-08 | 2004-07-08 | Vehicle periphery display device and its display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004201396A JP2006021641A (en) | 2004-07-08 | 2004-07-08 | Vehicle periphery display device and its display method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006021641A true JP2006021641A (en) | 2006-01-26 |
Family
ID=35795229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004201396A Pending JP2006021641A (en) | 2004-07-08 | 2004-07-08 | Vehicle periphery display device and its display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006021641A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007022471A (en) * | 2005-07-21 | 2007-02-01 | Alpine Electronics Inc | Device for informing other vehicle in vicinity |
WO2011104984A1 (en) * | 2010-02-24 | 2011-09-01 | アイシン精機株式会社 | Vehicle surroundings monitoring device |
JP2019186754A (en) * | 2018-04-10 | 2019-10-24 | アイシン精機株式会社 | Periphery monitoring device |
JP2020042800A (en) * | 2018-09-07 | 2020-03-19 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Method and apparatus for generating object detection box, device, storage medium, and vehicle |
CN111506627A (en) * | 2020-04-21 | 2020-08-07 | 成都路行通信息技术有限公司 | Target behavior clustering method and system |
JP2021154935A (en) * | 2020-03-27 | 2021-10-07 | パナソニックIpマネジメント株式会社 | Vehicle simulation system, vehicle simulation method and computer program |
-
2004
- 2004-07-08 JP JP2004201396A patent/JP2006021641A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007022471A (en) * | 2005-07-21 | 2007-02-01 | Alpine Electronics Inc | Device for informing other vehicle in vicinity |
JP4664141B2 (en) * | 2005-07-21 | 2011-04-06 | アルパイン株式会社 | Peripheral other vehicle notification device |
WO2011104984A1 (en) * | 2010-02-24 | 2011-09-01 | アイシン精機株式会社 | Vehicle surroundings monitoring device |
CN102652327A (en) * | 2010-02-24 | 2012-08-29 | 爱信精机株式会社 | Vehicle surroundings monitoring device |
CN102652327B (en) * | 2010-02-24 | 2015-03-11 | 爱信精机株式会社 | Vehicle surroundings monitoring device |
US9073483B2 (en) | 2010-02-24 | 2015-07-07 | Aisin Seiki Kabushiki Kaisha | Vehicle surroundings monitoring device |
JP2019186754A (en) * | 2018-04-10 | 2019-10-24 | アイシン精機株式会社 | Periphery monitoring device |
JP7159598B2 (en) | 2018-04-10 | 2022-10-25 | 株式会社アイシン | Perimeter monitoring device |
JP2020042800A (en) * | 2018-09-07 | 2020-03-19 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Method and apparatus for generating object detection box, device, storage medium, and vehicle |
JP2021154935A (en) * | 2020-03-27 | 2021-10-07 | パナソニックIpマネジメント株式会社 | Vehicle simulation system, vehicle simulation method and computer program |
JP7320756B2 (en) | 2020-03-27 | 2023-08-04 | パナソニックIpマネジメント株式会社 | Vehicle simulation system, vehicle simulation method and computer program |
CN111506627A (en) * | 2020-04-21 | 2020-08-07 | 成都路行通信息技术有限公司 | Target behavior clustering method and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9288381B2 (en) | In-vehicle image recognizer | |
US9235990B2 (en) | Vehicle periphery monitoring device | |
JP4876118B2 (en) | Three-dimensional object appearance detection device | |
US6744380B2 (en) | Apparatus for monitoring area adjacent to vehicle | |
JP2800531B2 (en) | Obstacle detection device for vehicles | |
JP4456086B2 (en) | Vehicle periphery monitoring device | |
US8175334B2 (en) | Vehicle environment recognition apparatus and preceding-vehicle follow-up control system | |
EP2541465A2 (en) | Vehicle periphery monitoring system | |
CN104954734A (en) | Image processing apparatus and image processing method | |
KR20170080480A (en) | The vehicle detecting system by converging radar and image | |
JP4901275B2 (en) | Travel guidance obstacle detection device and vehicle control device | |
US11961306B2 (en) | Object detection device | |
JP2007241898A (en) | Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device | |
US11030761B2 (en) | Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product | |
JP2007304033A (en) | Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring | |
KR102062579B1 (en) | Vehicle license-plate recognition system that recognition of Vehicle license-plate damaged by shadow and light reflection through the correction | |
US11069049B2 (en) | Division line detection device and division line detection method | |
US7885430B2 (en) | Automotive environment monitoring device, vehicle with the automotive environment monitoring device, and automotive environment monitoring program | |
JP2006021641A (en) | Vehicle periphery display device and its display method | |
JP5172887B2 (en) | Vehicle periphery monitoring device | |
JP2009037284A (en) | Traveling object recognition device | |
JP6331628B2 (en) | Lane recognition device | |
KR20140054922A (en) | Method and device for detecting front vehicle | |
JP6201809B2 (en) | Perimeter monitoring apparatus and method | |
JP2018163530A (en) | Object detection device, object detection method, and object detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080902 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080912 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090127 |