JP2006021641A - Vehicle periphery display device and its display method - Google Patents

Vehicle periphery display device and its display method Download PDF

Info

Publication number
JP2006021641A
JP2006021641A JP2004201396A JP2004201396A JP2006021641A JP 2006021641 A JP2006021641 A JP 2006021641A JP 2004201396 A JP2004201396 A JP 2004201396A JP 2004201396 A JP2004201396 A JP 2004201396A JP 2006021641 A JP2006021641 A JP 2006021641A
Authority
JP
Japan
Prior art keywords
position information
relative position
vehicle
distribution
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004201396A
Other languages
Japanese (ja)
Inventor
Naoko Okubo
直子 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004201396A priority Critical patent/JP2006021641A/en
Publication of JP2006021641A publication Critical patent/JP2006021641A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle periphery display device for displaying the position of an object around own vehicle without feeling odd. <P>SOLUTION: A relative position of another vehicle around the own vehicle is calculated from a photographed image of a camera 1 by an existence position calculation part 23 and the calculated relative position data are accumulated on an existence position history memory part 25 for a predetermined time. A grouping processing part 26 performs grouping processing of first stage, eliminates the relative position data having no continuity caused by erroneous detection and pitching of the vehicle and performs grouping of the relative position data of the predetermined time by grouping processing of second stage. Average coordinate and covariance matrix are calculated by a statistic calculation part 27 in every group of the relative position data and reliability distribution is calculated at a reliability distribution calculation part 28. Monitor display of the existence position of another vehicle sets an object marker having a size corresponding to a size of theory error onto a plane coordinate making the own vehicle viewed from above as a center and displays it with brightness corresponding to a value of reliability added to the object marker. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、自車両周囲の他車両を検出し、自車両との相対位置を計測する車両周辺表示装置と、計測された他車両の相対位置の表示方法に関する。   The present invention relates to a vehicle periphery display device that detects other vehicles around the host vehicle and measures a relative position with the host vehicle, and a display method of the measured relative position of the other vehicle.

従来、走行中に自車両周辺の他車両を検出し、検出された他車両と自車両との位置関係を運転者等に提示したり、自車両との距離に応じて警報を発したりする車両周辺表示装置がある。そのような車両周辺表示装置として、車両にレーザレーダを搭載し、出射レーザパルスから反射レーザパルス受波までの時間から、自車両周辺の他車両の有無や、自車両から他車両までの距離の算出を行うものと、車両にカメラを搭載し、カメラによって撮影された画像から、自車両周辺の他車両の有無や、自車両から他車両までの距離の算出を行うものが知られている。   Conventionally, a vehicle that detects other vehicles in the vicinity of the host vehicle while traveling and presents the positional relationship between the detected other vehicle and the host vehicle to a driver or the like or issues an alarm according to the distance from the host vehicle. There is a peripheral display device. As such a vehicle periphery display device, a laser radar is mounted on the vehicle, and from the time from the emitted laser pulse to the reflected laser pulse reception, the presence of other vehicles around the own vehicle and the distance from the own vehicle to the other vehicle There are known ones that perform calculation and those that include a camera mounted on a vehicle and calculate the presence or absence of other vehicles around the host vehicle and the distance from the host vehicle to another vehicle from an image captured by the camera.

例えばレーザレーダで前方車両との車間距離を所定周期ごとに順次計測して、モニタに表示する車両周辺表示装置では、車両前部に取り付けられるレーザレーダヘッドの発光部はその光軸の向きが、先行車の後部リフレクタ等へ向けてパルスレーザ光を照射するように初期設定されている。しかし、凹凸路でのピッチング等により車両の姿勢が上向き、下向きに変化すると、この車両の姿勢変化に追従してレーザの光軸も上向き、下向きに振られることとなる。
このとき計測される車間距離は、レーザの光軸が上向きに振られたときには、光軸が先行車から外れて例えば空へ向くことで無限大となる、一方レーザの光軸が下向きに振られたときには、光軸が先行車から外れて路面へ向くことで実際の車間距離より短い距離となるなど、計測した車間距離が大きく変動して誤差を含むおそれがあった。
For example, in a vehicle periphery display device that sequentially measures the inter-vehicle distance with a preceding vehicle with a laser radar for each predetermined period and displays it on a monitor, the light emitting part of the laser radar head attached to the front part of the vehicle has the direction of its optical axis, The initial setting is such that the pulse laser beam is emitted toward the rear reflector or the like of the preceding vehicle. However, if the attitude of the vehicle changes upward or downward due to pitching or the like on an uneven road, the optical axis of the laser is also swung upward or downward following this change in the attitude of the vehicle.
The inter-vehicle distance measured at this time becomes infinite when the optical axis of the laser is swung upward, for example, when the optical axis deviates from the preceding vehicle and heads toward the sky, while the laser optical axis is swung downward. In some cases, the measured inter-vehicle distance may vary greatly and include an error, for example, the optical axis may deviate from the preceding vehicle toward the road surface, resulting in a shorter distance than the actual inter-vehicle distance.

ピッチングに起因する計測誤差が生じた際に、ピッチングが収束するまでに変動する不安定な車間距離をモニタに逐次表示することは、車室内の快適な情報表示環境を損なう恐れがある。
これを防ぐために、車間距離が所定の計測上限値を超えた場合には、ピッチングに起因する計測誤差が生じたと判定し、車間距離のモニタ表示を更新しない技術が開示されている(特許文献1参照)。
特開平10−31800号公報
When a measurement error due to pitching occurs, sequentially displaying an unstable inter-vehicle distance that fluctuates until the pitching converges on the monitor may impair a comfortable information display environment in the vehicle interior.
In order to prevent this, a technique is disclosed in which, when the inter-vehicle distance exceeds a predetermined measurement upper limit value, it is determined that a measurement error due to pitching has occurred, and the monitor display of the inter-vehicle distance is not updated (Patent Document 1). reference).
JP-A-10-31800

このような上記従来の方法にあっては、計測上限値を越えたときにピッチングによる誤差が生じたとして表示を更新しないという構成になっているが、ピッチング以外の要因による計測誤差については考慮されていないという問題点があった。
ピッチング以外の要因による計測誤差としては、例えば計測手法に起因する誤差が考えられる。
In such a conventional method, the display is not updated because an error due to pitching occurs when the measurement upper limit is exceeded, but measurement errors due to factors other than pitching are considered. There was a problem that not.
As a measurement error due to factors other than pitching, for example, an error caused by a measurement technique can be considered.

センサの計測手法に起因する誤差の例として、カメラを距離センサとして使用した距離算出手法について、以下に説明する。
例えばカメラ光軸が地面と水平になるように所定の向きに取り付けられたカメラで、所定領域の車両を撮影し、その画像の最下端から車両の地面との接地位置までの縦方向の画素数bを検出する。撮影された所定領域の車両までの距離Lを、カメラ光軸の地面からの高さhと撮影画像上の縦方向の全画素数aとを用いて、
L=h/tan((a−b)/a)
として検出するものである。
この場合、撮影画像上のより遠方位置の1画素あたりの距離は、より大きい距離を示し、距離分解能が解像度に依存することになる。
したがって、遠方の車両は撮影画像上の位置が1画素分だけ振動的に変化するだけで、車両のピッチングによるレーザレーダの場合と同様に、算出距離が不安定に振動する。
As an example of an error caused by the sensor measurement method, a distance calculation method using a camera as a distance sensor will be described below.
For example, the number of pixels in the vertical direction from the lowest end of the image to the ground contact position of the vehicle is shot with a camera mounted in a predetermined orientation so that the camera optical axis is horizontal to the ground b is detected. The distance L to the vehicle in the predetermined area that has been photographed is determined using the height h of the camera optical axis from the ground and the total number of pixels a in the vertical direction on the photographed image,
L = h / tan ((ab) / a)
Is detected.
In this case, the distance per pixel at a farther position on the photographed image indicates a larger distance, and the distance resolution depends on the resolution.
Therefore, a distant vehicle vibrates unstablely in the calculated distance just like the case of laser radar based on vehicle pitching, as the position on the captured image changes only one pixel in vibration.

本発明は、上記の問題点を解決するために、センサの計測手法などに起因する距離測定誤差がある場合も、自車両周囲の対象物までの距離を違和感なく表示する車両周辺表示装置と表示方法を提供することを目的とする。   In order to solve the above problems, the present invention provides a vehicle periphery display device and a display that displays the distance to an object around the host vehicle without a sense of incongruity even when there is a distance measurement error caused by a sensor measurement method or the like. It aims to provide a method.

このため、本発明は、自車両から周囲の対象物までの相対位置情報を取得し、さらに相対位置情報の理論誤差を取得し、相対位置情報と理論誤差を用いて、対象物存在位置情報を算出し、対象物存在位置情報をモニタに表示するものとした。   For this reason, the present invention acquires relative position information from the host vehicle to surrounding objects, further acquires the theoretical error of the relative position information, and uses the relative position information and the theoretical error to calculate the object position information. The target position information is calculated and displayed on the monitor.

本発明により、取得した相対位置情報が有する理論誤差を用いて、対象物の存在位置を示す対象物存在位置情報を算出するので、理論誤差の大小に応じた対象物存在位置情報の生成となり、従来の検出した車間距離の数値を逐次表示することによって理論誤差によって車間距離が不安定に振動するような違和感を軽減することができる。   According to the present invention, the object existence position information indicating the existence position of the object is calculated using the theoretical error of the acquired relative position information, so that the object existence position information according to the magnitude of the theoretical error is generated, By sequentially displaying the numerical values of the conventionally detected inter-vehicle distance, it is possible to reduce the uncomfortable feeling that the inter-vehicle distance vibrates unstablely due to a theoretical error.

以下本発明の実施の形態を説明する。
図1は本実施の形態の車両周辺表示装置のブロック構成図である。
本実施の形態の車両周辺表示装置は、自車両5(図2参照)の周囲の走行車両を検出するための撮影画像を取得するカメラ1と、その撮影画像を画像処理して他車両を検出し、他車両の自車両5からの相対位置を算出し、相対位置を表示させる車両周辺表示コントロール・ユニット(以下、車両周辺表示C/Uと称する)2と、検出した他車両の相対位置を乗員に表示するモニタ3から構成されている。
Embodiments of the present invention will be described below.
FIG. 1 is a block diagram of a vehicle periphery display device according to the present embodiment.
The vehicle periphery display device according to the present embodiment detects a vehicle 1 that acquires a captured image for detecting a traveling vehicle around the host vehicle 5 (see FIG. 2), and detects other vehicles by performing image processing on the captured image. The vehicle relative display control unit (hereinafter referred to as vehicle peripheral display C / U) 2 for calculating the relative position of the other vehicle from the own vehicle 5 and displaying the relative position, and the detected relative position of the other vehicle. It is comprised from the monitor 3 displayed on a passenger | crew.

車両周辺表示C/U2は、撮影画像を画像処理し車両を検出する車両検出部21とカメラ1からの撮影画像および画像処理中の画像データを一時記憶する画像記憶部22とを有する画像処理プロセッサ部11と、車両検出部21からの車両検出結果にもとづいて他車両の自車両5からの相対位置を算出し、その相対位置データを処理し、本発明の対象物存在位置情報として対象物マーカをグラフィック表示する演算制御部12とから構成される。   The vehicle periphery display C / U2 includes an image processing processor including a vehicle detection unit 21 that performs image processing on a captured image and detects a vehicle, and an image storage unit 22 that temporarily stores the captured image from the camera 1 and image data being processed. Based on the vehicle detection results from the unit 11 and the vehicle detection unit 21, the relative position of the other vehicle from the host vehicle 5 is calculated, the relative position data is processed, and the object marker is used as the object presence position information of the present invention. And an arithmetic control unit 12 that graphically displays.

演算制御部12は、存在位置算出部23、理論誤差記憶部24、存在位置履歴記憶部25、グルーピング処理部26、統計量算出部27、確信度分布算出部28、表示制御部29とから構成されている。
自車両5の周囲を撮影するカメラ1は、図1では1台で代表して示してあるが、台数は任意で良く、例えば図2に示すように自車両前方を撮影するカメラ1A、自車両後方を撮影するカメラ1B、自車両左後側方を撮影するカメラ1L、自車両右後側方を撮影するカメラ1Rの4台のカメラを用いて、自車両周囲を監視しても良い。
The calculation control unit 12 includes an existence position calculation unit 23, a theoretical error storage unit 24, an existence position history storage unit 25, a grouping processing unit 26, a statistic calculation unit 27, a certainty factor distribution calculation unit 28, and a display control unit 29. Has been.
Although one camera 1 that captures the surroundings of the host vehicle 5 is shown as a representative in FIG. 1, the number of cameras 1 may be arbitrary. For example, as shown in FIG. The surroundings of the host vehicle may be monitored using four cameras: a camera 1B that captures the rear, a camera 1L that captures the left rear side of the host vehicle, and a camera 1R that captures the right rear side of the host vehicle.

これらのカメラごとに画像処理プロセッサ部11を個別に用意しても良いし、1つの画像処理プロセッサ部11で、カメラ画像取得および画像処理のタイミングをずらして車両検出しても良い。
いずれにしても、画像処理プロセッサ部11は、演算制御部12によって各カメラからの画像取得と画像処理のタイミングを制御される。
The image processing processor unit 11 may be individually prepared for each of these cameras, or the vehicle detection may be performed by shifting the timing of camera image acquisition and image processing by one image processing processor unit 11.
In any case, the timing of image acquisition and image processing from each camera is controlled by the arithmetic control unit 12 in the image processing processor unit 11.

以下に画像処理プロセッサ部11および演算制御部12の機能を説明する。
車両検出部21は、カメラ1によって撮影された画像から車両の検出を行う。車両の検出方法としては、たとえば特開平8−320999号公報に開示された方法を用いる。この方法は車両の側面部として検出される縦エッジが車両最下端部において途切れる点と、車両の特徴である左右対称性とに着目して車両を検出するものである。撮影された画像に画像処理を行って画像中の縦エッジを検出し、その縦エッジが途切れた点を、車両後部または車両前部の左右の車両最下端候補とし、画像中の右側と左側の車両最下端候補がほぼ同じ高さである場合に、検出物体が車両と判断する。
The functions of the image processing processor unit 11 and the calculation control unit 12 will be described below.
The vehicle detection unit 21 detects a vehicle from an image taken by the camera 1. As a vehicle detection method, for example, the method disclosed in JP-A-8-320999 is used. In this method, the vehicle is detected by paying attention to the point where the vertical edge detected as the side surface of the vehicle is interrupted at the lowermost end of the vehicle and the left-right symmetry that is a characteristic of the vehicle. Image processing is performed on the captured image to detect a vertical edge in the image, and the point at which the vertical edge is interrupted is taken as the vehicle bottom end candidate on the left or right of the rear of the vehicle or the front of the vehicle. When the vehicle bottom end candidates are substantially the same height, it is determined that the detected object is a vehicle.

車両検出部21は車両を検出すると、検出された車両に識別番号mを付け、その画像上での車両下端座標(車両最下端の横方向および縦方向の画素位置)と大きさ(車両の横方向の画素数)と、カメラ撮影時刻データtと、カメラ番号nとを付して、演算制御部12に出力する。演算制御部12は、図示しないRAMを有し、それらのデータをRAMに一時記憶する。   When the vehicle detection unit 21 detects the vehicle, the vehicle detection unit 21 assigns an identification number m to the detected vehicle, and the vehicle lower end coordinates (horizontal and vertical pixel positions of the vehicle lowermost end) and size (horizontal of the vehicle) on the image. The number of pixels in the direction), camera shooting time data t, and camera number n are added to the calculation control unit 12 and output. The arithmetic control unit 12 has a RAM (not shown) and temporarily stores the data in the RAM.

演算制御部12の存在位置算出部23は、画像処理プロセッサ部11での画像取得、画像処理タイミングを制御する。また車両検出部21からの車両検出結果にもとづいて、他車両の存在位置としての自車両5からの相対位置を算出する。
相対位置の算出方法を以下に説明する。存在位置算出部23は、上記のRAMから車両最下端座標と大きさを読出し、検出したカメラ画像の中心座標を原点としたカメラ画像座標系において、車両最下端座標の左右方向中間点座標を他車両の代表点として用い、カメラ1の焦点距離、カメラ1の取り付け高さ、カメラ1の取付け方向から、カメラ1の取付け位置から当該他車両までの水平距離と相対方位を算出する。
なお、カメラ1の焦点距離、カメラ1の取り付け高さ、カメラ1の取付け方向などのデータは予め演算制御部12の図示しない不揮発メモリに記憶されている。
The existence position calculation unit 23 of the arithmetic control unit 12 controls image acquisition and image processing timing in the image processing processor unit 11. Further, based on the vehicle detection result from the vehicle detection unit 21, the relative position from the own vehicle 5 as the presence position of the other vehicle is calculated.
A method for calculating the relative position will be described below. The existence position calculation unit 23 reads the vehicle bottom end coordinates and size from the RAM, and in the camera image coordinate system with the center coordinates of the detected camera image as the origin, determines the horizontal intermediate point coordinates of the vehicle bottom end coordinates. As a representative point of the vehicle, a horizontal distance and a relative direction from the mounting position of the camera 1 to the other vehicle are calculated from the focal length of the camera 1, the mounting height of the camera 1, and the mounting direction of the camera 1.
It should be noted that data such as the focal length of the camera 1, the mounting height of the camera 1, and the mounting direction of the camera 1 are stored in advance in a non-illustrated nonvolatile memory of the arithmetic control unit 12.

存在位置算出部23は、さらに自車両5の基準点M(例えば自車両5の平面中心)とカメラ1の取付け位置との車両左右方向および前後方向の距離差分を補正して、自車両5の基準点Mからの相対位置に換算する。
このとき、自車両5からの相対位置は、基準点Mを原点とした前方方向をy座標(プラス)、後方方向をy座標(マイナス)、右方向をx座標(プラス)、左方向をx座標(マイナス)とした相対座標で表現する。また、自車両5の基準点Mからの相対位置に換算するのに必要なカメラ1の取り付け位置に関するデータも予め演算制御部12の図示しない不揮発メモリに記憶されている。
なお、自車両5の基準点Mを原点とした相対位置データは、本発明の相対位置情報に対応する。
The existence position calculation unit 23 further corrects the vehicle left-right and front-back distance differences between the reference point M of the host vehicle 5 (for example, the plane center of the host vehicle 5) and the mounting position of the camera 1, and The relative position from the reference point M is converted.
At this time, the relative position from the host vehicle 5 is that the forward direction with the reference point M as the origin is the y coordinate (plus), the backward direction is the y coordinate (minus), the right direction is the x coordinate (plus), and the left direction is x Expressed in relative coordinates (minus). Further, data related to the mounting position of the camera 1 necessary for conversion into a relative position from the reference point M of the host vehicle 5 is also stored in advance in a non-illustrated nonvolatile memory of the arithmetic control unit 12.
The relative position data with the reference point M of the host vehicle 5 as the origin corresponds to the relative position information of the present invention.

存在位置算出部23は、算出した基準点Mからの相対位置データ{xmnt,ymnt}を、カメラ撮影時刻データt、カメラ番号n、識別車両番号mを付して、存在位置履歴記憶部25に出力して記憶させる。
なお、ここでm=0、1、2、・・・、Mtであり、Mtは時刻tにカメラnで取得された画像から車両として検出された数がMt個であったことを意味する。
The existence position calculation unit 23 adds the relative position data {x mnt , y mnt } from the calculated reference point M to the camera photographing time data t, the camera number n, and the identification vehicle number m, and the existence position history storage unit The data is output to 25 and stored.
Here, m = 0, 1, 2,..., Mt, and Mt means that the number detected as a vehicle from the image acquired by the camera n at time t was Mt.

存在位置履歴記憶部25は、所定の周期で全カメラ1のカメラ画像から得られた相対位置データを記憶し、古い相対位置データを削除して、所定時間(以下、所定時間の幅の上限と下限を時刻t1〜t2と便宜上表示する)に撮影されたカメラ画像から検出された他車両の相対位置データ{xmnt,ymnt}を蓄積する。 The existence position history storage unit 25 stores the relative position data obtained from the camera images of all the cameras 1 at a predetermined cycle, deletes the old relative position data, and determines the predetermined time (hereinafter, the upper limit of the width of the predetermined time). The relative position data {x mnt , y mnt } of the other vehicle detected from the camera image photographed at the time t1 to t2 is displayed for convenience).

理論誤差記憶部24は、カメラnの撮影した画像にもとづく相対位置データ{xmnt,ymnt}の算出の理論誤差であるx座標の理論誤差k{xmnt,ymnt}、y座標の理論誤差k{xmnt,ymnt}を、カメラnの分解能データ、焦点距離精度、取付け位置精度などから予め計算し、相対位置データ{xmnt,ymnt}の関数またはルックアップテーブルの形で格納している。 The theoretical error storage unit 24 calculates the theoretical error k x {x mnt , y mnt } of the x coordinate, which is the theoretical error in calculating the relative position data {x mnt , y mnt } based on the image captured by the camera n, and the y coordinate. The theoretical error k y {x mnt , y mnt } is calculated in advance from the resolution data, focal length accuracy, mounting position accuracy, etc. of the camera n, and the function of the relative position data {x mnt , y mnt } or the form of a lookup table Is stored in.

グルーピング処理部26は、まず存在位置履歴記憶部25に記憶された相対位置データ{xmnt,ymnt}の分布を撮影したカメラnおよび識別車両番号mごとに、ヒストグラムを作り、例えばk−meanクラスタリングの手法で、第1段階のグルーピング処理を行う。グルーピング処理の中で連続性がなくかつ理論誤差記憶部24から読み出したx座標の理論誤差k{xmnt,ymnt}、y座標の理論誤差k{xmnt,ymnt}に、比して大きく離れる相対位置データ{xmnt,ymnt}は、誤検出による相対位置データと見なして、存在位置履歴記憶部25から削除する。
削除されずに残った全てのカメラ1の相対位置データ{xmnt,ymnt}の分布のヒストグラムを再度作り、k−meanクラスタリングの手法で第2段階のグルーピング処理を行い、相対位置データ{xmnt,ymnt}をグループ化された相対位置データ{xigt,yigt}に分類する。
ここでgはグループ番号を示す(g=1〜Nt)。
The grouping processing unit 26 first creates a histogram for each camera n and identification vehicle number m that captures the distribution of the relative position data {x mnt , y mnt } stored in the presence position history storage unit 25, for example, k-mean A first-stage grouping process is performed by a clustering technique. There is no continuity in the grouping process, and the x-coordinate theoretical error k x {x mnt , y mnt } and the y-coordinate theoretical error k y {x mnt , y mnt } read from the theoretical error storage unit 24 are Thus, the relative position data {x mnt , y mnt } greatly deviating is regarded as relative position data due to erroneous detection and is deleted from the existing position history storage unit 25.
A histogram of the distribution of the relative position data {x mnt , y mnt } of all the cameras 1 that remain without being deleted is created again, and a second-stage grouping process is performed by the k-mean clustering method, and the relative position data {x mnt , y mnt } are classified into grouped relative position data { xigt , yigt }.
Here, g represents a group number (g = 1 to Nt).

統計量算出部27は、グループ化された相対位置データ{xigt,yigt}ごとに、以下の統計量を算出する。
まず、各グループの相対位置データ{xigt,yigt}の平均座標{xcg,ycg}を以下の式により算出する。

Figure 2006021641
ここで、Igmaxはグループgの所定時間(時刻t1〜t2の間)に含まれる相対位置データ{xigt,yigt}の総数を示す。 The statistic calculation unit 27 calculates the following statistic for each grouped relative position data { xigt , yigt }.
First, the average coordinates {x cg , y cg } of the relative position data { xigt , yigt } of each group are calculated by the following formula.
Figure 2006021641
Here, Igmax indicates the total number of relative position data { xigt , yigt } included in a predetermined time (between times t1 and t2) of group g.

また、平均座標{xcg,ycg}に対する共分散行列Rを次式のように求める。

Figure 2006021641
である。 Further, a covariance matrix R with respect to the average coordinates {x cg , y cg } is obtained as follows.
Figure 2006021641
It is.

確信度分布算出部28では、相対位置(x、y)における他車両の存在する確からしさを示す指標である確信度の分布P(x,y)を算出する。
このとき、存在位置履歴記憶部25に記憶された所定時間(時刻t1〜t2の間)に含まれる相対位置データから、現在の時刻tにおける確信度分布を考える。
まず、時刻tにおけるグループgの相対位置データの分布の中心座標(xug,yug)を、式(4)を用いて求める。

Figure 2006021641
である。
(νxg,νyg)は、グルーピングされた相対位置データ{xigt,yigt}の分布のx座標およびy座標をそれぞれカメラ撮影時刻tとx座標、カメラ撮影時刻tとy座標との2次元分布に投影し、各2次元分布において、x座標、y座標の時間に対する変化率の主軸の傾きを求めることによって得られる。 The certainty factor distribution calculation unit 28 calculates a certainty factor distribution P (x, y), which is an index indicating the probability that another vehicle exists at the relative position (x, y).
At this time, from the relative position data included in the location history storing unit 25 with the stored predetermined time (between time t1 to t2), consider the confidence distribution in the current time t f.
First, the center coordinates (x ug , y ug ) of the distribution of the relative position data of the group g at time t f are obtained using the equation (4).
Figure 2006021641
It is.
xg , ν yg ) is an x-coordinate and a y-coordinate of the distribution of the grouped relative position data { xigt , yigt }, which are 2 of the camera photographing time t and the x coordinate, respectively. It is obtained by projecting onto a dimensional distribution and determining the inclination of the principal axis of the rate of change with respect to time of the x-coordinate and y-coordinate in each two-dimensional distribution.

主軸の傾きは以下のような一般的な主成分分析によって求められる。ここでは、x座標について例示する。

Figure 2006021641
ig:グループgの相対位置データ{xigt,yigt}のカメラ撮影時刻
である。 The inclination of the main axis is obtained by the following general principal component analysis. Here, the x coordinate is illustrated.
Figure 2006021641
t ig is the camera shooting time of the relative position data {x igt , y igt } of group g.

次に、Vの固有値λを求める。固有値λは、式(6)を満たす。

Figure 2006021641
この結果得られる固有値の内、最大となる固有値λ1gに対して、式(7)から固有ベクトルAg=[a1g,a2g]を求める。
Figure 2006021641
である。
νxgは式(8)で与えられる。
Figure 2006021641
y座標についても同様に求められる。 Next, the eigenvalue λ g of V g is obtained. The eigenvalue λ g satisfies Expression (6).
Figure 2006021641
Among the eigenvalues obtained as a result, the eigenvector Ag = [a 1g , a 2g ] is obtained from the equation (7) for the maximum eigenvalue λ 1g .
Figure 2006021641
It is.
ν xg is given by equation (8).
Figure 2006021641
The y coordinate is obtained in the same manner.

このようにして得られた、現在の時刻tにおけるカメラ画像から抽出されたグループgの他車両の相対位置の分布の二次元正規確率分布G(x,y)は、中心座標(xug,yug)と、式(3)で定義された共分散行列Rとから式(9)で表される。

Figure 2006021641
ここで、νとuは式(10)、(11)で定義される二次元ベクトルである。
Figure 2006021641
確信度の分布P(x,y)は、上式の二次元正規確率分布を(12)式で示す中心座標(xug,yug)における理論誤差Q(xug,yug)と、中心座標(xug,yug)における確率G(xug,yug)で割った値であり、式(13)で表される。
Figure 2006021641
なお、αは任意の定数である。
Figure 2006021641
The two-dimensional normal probability distribution G (x, y) of the relative position distribution of other vehicles in the group g extracted from the camera image at the current time t f obtained in this way is the center coordinates (x ug , y ug ) and the covariance matrix R defined by Equation (3), and expressed by Equation (9).
Figure 2006021641
Here, [nu and u g is the formula (10) is a two-dimensional vector defined by (11).
Figure 2006021641
The certainty distribution P (x, y) has a theoretical error Q (x ug , y ug ) and a center at the center coordinates (x ug , y ug ) indicating the two-dimensional normal probability distribution of the above equation by the equation (12). This is a value divided by the probability G (x ug , y ug ) at the coordinates (x ug , y ug ), and is expressed by equation (13).
Figure 2006021641
Α is an arbitrary constant.
Figure 2006021641

表示制御部29は、算出された確信度の分布P(x,y)と理論誤差にもとづき、カメラ画像から求められたグループgの他車両の相対位置を示す対象物マーカ31(図3、図4参照)の表示位置および大きさと、さらに対象物マーカ31の表示面積内の輝度分布とを設定する。表示制御部29は設定した対象物マーカ31の大きさと輝度分布でモニタ3に表示させる。
対象物マーカ31の形状は、例えば楕円とし、楕円の大きさは、式(4)で表されるグループgの中心座標(xug,yug)を対象物マーカ31の中心とし、(xug−k(xug,yug),yug−k(xug,yug))と(xug+k(xug,yug),yug+k(xug,yug))の2点を対角線の両端に持つ、自車両5の前後方向に平行に向いた長方形に内接する大きさとする。
対象物マーカ31の輝度I(x,y)は、式(14)で表す。

Figure 2006021641
ここで、βは任意の係数である。 Based on the calculated certainty distribution P (x, y) and the theoretical error, the display control unit 29 indicates an object marker 31 (FIG. 3, FIG. 3) indicating the relative position of the other vehicle in the group g obtained from the camera image. 4) and the luminance distribution within the display area of the object marker 31 are set. The display control unit 29 causes the monitor 3 to display the size and luminance distribution of the set object marker 31.
The shape of the object marker 31 is, for example, an ellipse, and the size of the ellipse is defined by using the center coordinates (x ug , y ug ) of the group g represented by the equation (4) as the center of the object marker 31 (x ug -k x (x ug, y ug ), y ug -k y (x ug, y ug)) and (x ug + k x (x ug, y ug), y ug + k y (x ug, y ug)) These two points are inscribed in a rectangle that is parallel to the front-rear direction of the host vehicle 5 and that has two points at both ends of the diagonal line.
The luminance I (x, y) of the object marker 31 is expressed by Expression (14).
Figure 2006021641
Here, β is an arbitrary coefficient.

従って、楕円の対象物マーカ31の表示面積内の輝度分布は、対象物マーカ31の中心が位置する中心座標(xug,yug)において輝度が最も強く、楕円の外側に向かって、確信度の分布P(x,y)の値に応じて輝度が弱くなる。0から1までの間の数値である確信度を所定の段階数Niに分割し、各段階に輝度レベルを対応させて、段階的に分布の中心から外へ行くほど輝度を弱くしても良いし、モニタ3の輝度値が例えば256階調であれば(輝度値)=256×(確信度値)として設定しても良い。
図3、図4に上方からみた自車両5の中心を基準点Mとした平面座標において、自車両周囲の他車両を示す対象物マーカ31の表示例を示す。
なお、自車両5の最外側輪郭から対象物マーカ31の中心までの距離に対して所定の複数の距離帯を設け、自車両5に近い距離帯に中心が存在する対象物マーカ31ほど注意喚起度の高い色彩で表示し、運転者に接近度合いを示す。例えば、2m未満は赤色、2m以上5m未満は橙色、5m以上10m未満はピンク色、10m以上はグリーンのように色彩を設定する。
Therefore, the luminance distribution within the display area of the elliptical object marker 31 has the highest luminance at the center coordinates (x ug , y ug ) where the center of the target marker 31 is located, and the certainty toward the outside of the ellipse. The luminance decreases according to the value of the distribution P (x, y) of. The certainty factor, which is a numerical value between 0 and 1, may be divided into a predetermined number of steps Ni, and the luminance level may be associated with each step, and the luminance may be decreased stepwise from the center of the distribution. If the luminance value of the monitor 3 is, for example, 256 gradations, (luminance value) = 256 × (confidence value) may be set.
3 and 4 show display examples of the object marker 31 indicating other vehicles around the own vehicle in the plane coordinates with the center of the own vehicle 5 seen from above as a reference point M. FIG.
A plurality of predetermined distance zones are provided for the distance from the outermost contour of the host vehicle 5 to the center of the target marker 31, and the target marker 31 having the center in the distance zone close to the host vehicle 5 is more alert. The color is displayed in a high degree of color and indicates the degree of approach to the driver. For example, colors are set such that red is less than 2 m, orange is 2 m or more and less than 5 m, pink is 5 m or more and less than 10 m, and green is 10 m or more.

自車両5と他車両との相対速度が大きい、または他車両の距離検出精度が悪いと、つまり理論誤差が大きいと、所定時間(時刻t1〜t2の間)に得られる相対位置データはばらつく。その結果、分布の広がりが大きくなり、かつ二次元正規確率分布の中心座標における確率は低くなる。分布の広がりの大きい理由が、相対速度によるのか理論誤差によるのかは二次元正規確率分布だけでは判断できない。
そこで、確信度としては、二次元正規確率分布を用いずに、式(13)に示すような
(確信度)=(二次元正規確率分布の値)/{(二次元正規確率分布の中心座標における確率)×(中心座標における理論誤差)}とする。
If the relative speed between the host vehicle 5 and the other vehicle is large or the distance detection accuracy of the other vehicle is poor, that is, if the theoretical error is large, the relative position data obtained in a predetermined time (between times t1 and t2) varies. As a result, the spread of the distribution increases and the probability at the center coordinates of the two-dimensional normal probability distribution decreases. Whether the reason why the spread of the distribution is large is due to the relative velocity or the theoretical error cannot be judged only by the two-dimensional normal probability distribution.
Therefore, as the certainty factor, (certainty factor) = (two-dimensional normal probability distribution value) / {(central coordinates of the two-dimensional normal probability distribution) as shown in the equation (13) without using the two-dimensional normal probability distribution. Probability) × (theoretical error in center coordinates)}.

同じ広がりの二次元正規確率分布であれば、確率分布の中心座標における確率は同じなので、分布の中心座標における理論誤差の大小に依存して確信度は変化する。分布の広がりが大きいのが理論誤差に依存する場合は、分母の理論誤差が大きいので、確信度が小さくなる。逆に分布の広がりが大きいのが相対速度の大きいことによる場合は、分母の理論誤差の値は小さいので、確信度が大きくなる。   In the case of a two-dimensional normal probability distribution with the same spread, the probability at the center coordinate of the probability distribution is the same, so the certainty varies depending on the magnitude of the theoretical error at the center coordinate of the distribution. When the spread of the distribution depends on the theoretical error, the certainty factor becomes small because the theoretical error of the denominator is large. On the contrary, when the spread of the distribution is large due to the large relative speed, the certainty factor increases because the theoretical error value of the denominator is small.

次に、自車両5の基準点Mからの相対位置のある1点において、相対速度の大きい他車両と相対速度の小さい他車両との確信度を比較して見る。
同じカメラ座標位置であるので相対速度の大きい場合も小さい場合も両者で理論誤差は同じである。相対速度が大きい場合は確信度の分布が広く、中心座標から離れるにつれての減衰が小さい。相対速度が小さい場合は確信度の分布は小さく、中心座標から離れるにつれての減衰が大きい。
式(13)より、理論誤差が同じである場合、中心座標における確信度は分布の広がりに関係なく同じである。
つまり、理論誤差が同じ自車両5からの相対位置における相対速度の異なる他車両の確信度は、分布中心での値は等しく、相対速度が大きいほど確信度の高い領域が広がり、相対速度が小さいほど確信度が高い領域が狭まる。
Next, the reliability of the other vehicle having a higher relative speed and the other vehicle having a lower relative speed at one point relative to the reference point M of the host vehicle 5 will be compared.
Since the camera coordinate position is the same, the theoretical error is the same in both cases where the relative speed is large and small. When the relative speed is large, the confidence distribution is wide and the attenuation is small as the distance from the center coordinate is increased. When the relative speed is small, the certainty distribution is small and the attenuation increases as the distance from the center coordinate increases.
From Equation (13), when the theoretical error is the same, the certainty factor at the center coordinate is the same regardless of the spread of the distribution.
That is, the certainty factors of other vehicles having different relative speeds at relative positions from the own vehicle 5 having the same theoretical error have the same value at the distribution center, and the higher the relative velocity, the higher the certainty factor region and the smaller the relative velocity. The region with higher certainty is narrowed.

図5に自車両周囲の他車両の相対位置をモニタに表示するための制御の流れのフローチャートを示す。
これらの制御は、画像処理プロセッサ部11と演算制御部12におけるプログラムとして処理される。
ステップ101では、画像記憶部22は、カメラ1からカメラ番号n、カメラ撮影時刻tと共に、撮影画像を取得する。
ステップ102では、車両検出部21は、エッジ処理により車両を検出し、検出した車両の車両下端座標と大きさを、カメラ番号n、カメラ撮影時刻t、検出車両識別番号mを付加して演算制御部12に出力する。演算制御部12は、それらをRAMに一時記憶する。
FIG. 5 shows a flowchart of a control flow for displaying the relative positions of other vehicles around the host vehicle on the monitor.
These controls are processed as programs in the image processing processor unit 11 and the calculation control unit 12.
In step 101, the image storage unit 22 acquires a photographed image from the camera 1 together with the camera number n and the camera photographing time t.
In step 102, the vehicle detection unit 21 detects the vehicle by edge processing, and adds the camera bottom coordinate and size of the detected vehicle to the camera number n, the camera shooting time t, and the detected vehicle identification number m, and controls the calculation. To the unit 12. The arithmetic control unit 12 temporarily stores them in the RAM.

ステップ103では、存在位置算出部23が、検出された車両の車両下端座標と大きさをRAMから読出し、自車両5の基準点Mからの相対位置データ{xmnt,ymnt}を算出する。
ステップ104では、存在位置算出部23は、相対位置データ{xmnt,ymnt}を所定時間(時刻t1〜t2の間)の相対位置履歴として、存在位置履歴記憶部25に、カメラ番号n、カメラ撮影時刻t、検出車両識別番号mを付加して記憶させる。
ステップ105では、存在位置算出部23は、相対位置データ{xmnt,ymnt}に対応したx座標の理論誤差k{xmnt,ymnt}、y座標の理論誤差k{xmnt,ymnt}を理論誤差記憶部24に格納したデータから取得し、相対位置データ{xmnt,ymnt}に対応させて存在位置履歴記憶部25に記憶させる。
In step 103, the presence position calculation unit 23 reads the detected vehicle lower end coordinates and size of the vehicle from the RAM, and calculates relative position data {x mnt , y mnt } from the reference point M of the host vehicle 5.
In step 104, the existence position calculation unit 23 sets the relative position data {x mnt , y mnt } as a relative position history for a predetermined time (between times t1 and t2) and stores the camera number n, The camera photographing time t and the detected vehicle identification number m are added and stored.
In step 105, the existence position calculation unit 23 calculates the theoretical error k x {x mnt , y mnt } of the x coordinate corresponding to the relative position data {x mnt , y mnt }, the theoretical error k y {x mnt , y mnt } is acquired from the data stored in the theoretical error storage unit 24 and stored in the existing position history storage unit 25 in correspondence with the relative position data {x mnt , y mnt }.

ステップ106では、グルーピング処理部26は、グルーピング処理をする。
先ず存在位置履歴記憶部25から相対位置データ{xmnt,ymnt}と、x座標の理論誤差k{xmnt,ymnt}、y座標の理論誤差k{xmnt,ymnt}を取得し、所定時間(時刻t1〜t2の間)のカメラn、車両識別番号mに対応する相対位置データ{xmnt,ymnt}に対して、第1段階のグルーピング処理を行い、誤検出による相対位置データ{xmnt,ymnt}を削除する。その次に、全てのカメラnによる所定時間(時刻t1〜t2の間)の相対位置データをグルーピングする第2段階のグルーピング処理を行う。
In step 106, the grouping processing unit 26 performs a grouping process.
First, the relative position data {x mnt , y mnt }, the x-coordinate theoretical error k x {x mnt , y mnt }, and the y-coordinate theoretical error k y {x mnt , y mnt } are stored from the existing position history storage unit 25. The first stage grouping process is performed on the relative position data {x mnt , y mnt } corresponding to the camera n and the vehicle identification number m for a predetermined time (between times t1 and t2). Relative position data {x mnt , y mnt } is deleted. Next, a second-stage grouping process for grouping relative position data for a predetermined time (between times t1 and t2) by all the cameras n is performed.

ステップ107では、統計量算出部28は、グルーピングされた相対位置データ群ごとに、式(1)、(2)により平均座標を、式(3)により共分散行列Rの統計量を、式(4)から式(8)にもとづき中心座標を算出する。
ステップ108では、確信度分布算出部28は、中心座標(xug,yug)に対する理論誤差を理論誤差記憶部24から取得する。
ステップ109では、確信度分布算出部28は、ステップ107で算出された統計量とステップ108で取得された理論誤差を用いて現在時刻tにおける検出された他車両の存在位置の確信度分布を式(13)にもとづいて算出する。
In step 107, for each grouped relative position data group, the statistic calculator 28 calculates the average coordinates according to the expressions (1) and (2), the statistic of the covariance matrix R according to the expression (3), and the expression ( The center coordinates are calculated from 4) based on equation (8).
In step 108, the certainty factor distribution calculation unit 28 acquires a theoretical error for the center coordinates (x ug , y ug ) from the theoretical error storage unit 24.
In step 109, confidence factor distribution calculation unit 28, the confidence distribution of presence positions of other vehicles detected at the current time t f using theoretical error obtained by the statistics and step 108 calculated in step 107 It calculates based on Formula (13).

ステップ110では、表示制御部29は、現在時刻tにおけるグループgの確信度分布の中心座標における理論誤差の大きさを対象物マーカ31の大きさとし、確信度分布の中心座標を中心とした対象物マーカ31を設定し、式(14)で設定した対象物マーカ31の表示面積内の輝度設定を行う。
ステップ111では、モニタ3は、表示制御部29の設定した対象物マーカ31の位置と、対象物マーカ31の大きさおよび輝度で他車両の位置を表示する。
In step 110, the display control unit 29, the size Satoshi object marker 31 the magnitude of the theoretical errors in the center coordinates of the confidence distribution group g at the current time t f, around the center coordinates of the confidence distribution target The object marker 31 is set, and the luminance within the display area of the object marker 31 set by Expression (14) is set.
In step 111, the monitor 3 displays the position of the other vehicle with the position of the target marker 31 set by the display control unit 29 and the size and brightness of the target marker 31.

図3の(a)、(b)は、検出された他車両の相対位置が自車両5から遠く、相対位置の理論誤差k(xug,yug)、k(xug,yug)が比較的大きい場合である。
カメラ画像による位置検出の場合、画素の座標位置から距離を算出するので、自車両5から遠いほど1画素分の距離が大きくなり、理論誤差が大きくなり、このような細長い楕円の対象物マーカ31となる。
図4の(a)、(b)は、検出された他車両の相対位置が自車両5に近く、相対位置の理論誤差k(xug,yug)、k(xug,yug)が小さい場合である。
3A and 3B, the detected relative position of the other vehicle is far from the own vehicle 5, and the relative position theoretical errors k x (x ug , y ug ), k y (x ug , y ug). ) Is relatively large.
In the case of position detection using a camera image, the distance is calculated from the coordinate position of the pixel. Therefore, the distance from one vehicle increases as the distance from the host vehicle 5 increases, and the theoretical error increases. It becomes.
4A and 4B, the detected relative position of the other vehicle is close to the own vehicle 5, and the relative position theoretical errors k x (x ug , y ug ), k y (x ug , y ug). ) Is small.

さらに、自車両5と他車両との相対速度が小さい場合、相対位置の変化が小さく、図3の(a)または図4の(a)に示すように、輝度の強い部分が相対位置の変化方向に狭く表示される。
自車両5と他車両との相対速度が大きい場合、相対位置の変化が大きく、図3の(b)または図4の(b)に示すように、相対位置の変化方向に沿って輝度の強い均一な中心部分が長く表示される。
Further, when the relative speed between the host vehicle 5 and the other vehicle is small, the change in the relative position is small, and as shown in (a) of FIG. 3 or (a) of FIG. It is displayed narrowly in the direction.
When the relative speed between the host vehicle 5 and the other vehicle is large, the change in the relative position is large, and as shown in FIG. 3B or FIG. 4B, the luminance is strong along the change direction of the relative position. A uniform central portion is displayed for a long time.

本実施の形態のフローチャートにおけるステップ101からステップ104は、本発明の相対位置情報取得手段を、ステップ105、108は理論誤差取得手段を、ステップ106、107、109、110は対象物存在位置情報算出手段を構成する。   Steps 101 to 104 in the flowchart of the present embodiment are the relative position information acquisition means of the present invention, steps 105 and 108 are the theoretical error acquisition means, and steps 106, 107, 109, and 110 are the object presence position information calculation. Configure the means.

以上のように本実施の形態によれば、所定時間(時刻t1〜t2の間)の他車両の存在位置である相対位置データを蓄積し、第1段階のグルーピング処理として、各カメラnで検出した車両識別番号mごとに相対位置データ{xmnt,ymnt}をグルーピング処理して、複数の相対位置データの中で一つのグループとして連続性がなく、理論誤差より大きな変化の相対位置データを誤検出データとして削除する。
その結果、従来の方法にあっては、ピッチングによって計測上限値以内の誤差が生じた場合に、表示される車間距離が真値の周辺で不安定に振動し、モニタ表示されている車間距離変動が不自然となるという問題が改善され、乗員に違和感を与えない。
As described above, according to the present embodiment, relative position data that is the position of another vehicle for a predetermined time (between times t1 and t2) is accumulated and detected by each camera n as a first-stage grouping process. The relative position data {x mnt , y mnt } is grouped for each vehicle identification number m, and the relative position data having a change larger than the theoretical error is not continuous as one group among the plurality of relative position data. Delete as false positive data.
As a result, in the conventional method, when an error within the upper limit of measurement occurs due to pitching, the displayed inter-vehicle distance oscillates unstable around the true value, and the inter-vehicle distance fluctuation displayed on the monitor is displayed. The problem of unnaturalness is improved, and the passengers are not discomforted.

また、カメラの撮影画像を画像処理して対象の車両を抽出するので、光学的な外乱、例えば外光のカメラへの直接入射や日陰や車両に似た構造物の誤検出などを生じ易いが、カメラ1に入射した外来光などによる誤検出データは複数の相対位置データの中で一つのグループとして連続性がない相対位置データは削除されるので、モニタ表示されている車間距離変動が不自然となり、運転者が周囲の状況を認識する妨げとなるという問題が改善され、乗員に違和感を与えない。   In addition, since the target vehicle is extracted by performing image processing on the captured image of the camera, optical disturbances such as direct incidence of external light on the camera and erroneous detection of shades and structures similar to the vehicle are likely to occur. In addition, misdetection data caused by extraneous light incident on the camera 1 is deleted from relative position data having no continuity as a group among a plurality of relative position data. Thus, the problem that the driver is prevented from recognizing the surrounding situation is improved, and the occupant is not discomforted.

次に、第2段階のグルーピング処理として、全カメラの削除されなかった所定時間(時刻t1〜t2の間)の相対位置データ{xmnt,ymnt}全体をグルーピング処理して、自車両周囲の複数の他車両の相対位置データ{xmnt,ymnt}をグループgごとの相対位置データ{xigt,yigt}にグルーピングし直す。そのうえで、グループgごとの相対位置データ群に対して現在時刻tにおける確信度分布P(x,y)を算出している。 Next, as a second stage grouping process, the entire relative position data {x mnt , y mnt } for a predetermined time (between times t1 and t2) when all the cameras are not deleted is grouped, The relative position data {x mnt , y mnt } of a plurality of other vehicles is regrouped into the relative position data {x igt , y iigt } for each group g. Sonouede, and calculates the certainty factor distribution P (x, y) at the current time t f to the relative position data group for each group g.

その後、他車両の存在位置の表示を、上方から見た自車両5を中心とした平面座標に、グループgの相対位置データ群に対する確信度分布P(x,y)の中心座標を対象物マーカ31の中心とし、中心座標における理論誤差にもとづき、対象物マーカ31の大きさを定め、対象物マーカ31の表示面積内の輝度を確信度にもとづいて設定する。
従って、自車両周囲の他車両の存在位置が一目瞭然に表示でき、運転者にとって周囲の他車両の位置を直感的に視認しやすい。
また、理論誤差の大小に応じて対象物マーカ31の大きさを設定しているので、相対位置データの信頼度が一目で分かりやすい。
Thereafter, the display of the position of the other vehicle is displayed on the plane coordinate centered on the host vehicle 5 viewed from above, and the center coordinate of the certainty distribution P (x, y) for the relative position data group of the group g is set as the object marker. The size of the object marker 31 is determined based on the theoretical error in the center coordinates, and the luminance within the display area of the object marker 31 is set based on the certainty factor.
Therefore, the location of the other vehicle around the host vehicle can be displayed at a glance, and the driver can easily visually recognize the position of the other vehicle around.
Further, since the size of the object marker 31 is set according to the magnitude of the theoretical error, the reliability of the relative position data is easily understood at a glance.

さらに、自車両5との相対速度が大きい他車両は、輝度の強い部分が対象物マーカ31の表示面積内に細長く表示され、自車両5との相対速度が小さい他車両は、輝度の強い部分が対象物マーカ31の表示面積内に短く表示されるので、他車両との相対速度が直感的に認識し易い。
このように、確信度分布を算出して、その分布の値に応じて輝度表示するので、例えば、確信度分布の算出をせず、グルーピング処理した相対位置データを単にドット表示で表示するよりも、直感的に相対速度の大小を把握しやすい。
さらに、自車両5の最外側輪郭に近い車両の対象物マーカ31ほど、色彩を注意喚起度の高い色彩としているので、運転者が接近度合いを認識しやすい。
Further, in other vehicles having a large relative speed with the own vehicle 5, a portion with a high luminance is displayed in an elongated manner within the display area of the object marker 31, and other vehicles with a low relative speed with the own vehicle 5 have a portion with a high luminance. Is displayed within the display area of the object marker 31 so that the relative speed with the other vehicle can be easily recognized intuitively.
Thus, since the certainty distribution is calculated and the luminance is displayed according to the value of the distribution, for example, the certainty distribution is not calculated, and the grouped relative position data is displayed simply as a dot display. Intuitively understand the relative speed.
Furthermore, since the object marker 31 of the vehicle that is closer to the outermost contour of the host vehicle 5 has a color with a high alerting degree, the driver can easily recognize the degree of approach.

本実施の形態では、検出した他車両の存在位置を表示するための対象物マーカ31の大きさを、理論誤差にもとづいて定めたが、確信度分布において所定の数値以上の確信度を示す領域を対象物マーカ31の大きさと定めても良い。例えば0.5以上の確信度分布の領域を対象物マーカの大きさとして設定する。
その場合、当該他車両との相対速度が大きい場合、対象物マーカは相対位置の変化方向に延びた形で大きくなり、逆に当該他車両との相対速度が小さい場合、対象物マーカは比較的小さい円形または楕円形となる。
したがって、直感的に相対位置が変化しているかどうかが分かる。
In the present embodiment, the size of the object marker 31 for displaying the detected position of the other vehicle is determined based on the theoretical error. However, the region indicating the certainty level equal to or higher than a predetermined value in the belief distribution. May be defined as the size of the object marker 31. For example, the region of the certainty distribution of 0.5 or more is set as the size of the object marker.
In that case, when the relative speed with the other vehicle is large, the object marker increases in a shape extending in the direction of change of the relative position. Conversely, when the relative speed with the other vehicle is small, the object marker is relatively It becomes a small circle or ellipse.
Therefore, it can be understood intuitively whether the relative position has changed.

さらに、所定時間(時刻t1〜t2の間)の相対位置データの平均座標{xcg,ycg}を起点とし、現在の時刻tにおける確信度分布P(x,y)の中心座標(xug,yug)の位置を終点とする相対変位ベクトルを定義し、相対変位ベクトルが自車両方向に向いている場合と、逆に遠去かる場合とを判別するベクトル方向を示す矢印を対象物マーカ31の近傍に付加しても良い。
このように、相対位置データの所定時間内の履歴にもとづいて、時系列的な相対位置の変化方向を判定することができ、他車両が自車両5に接近しているかどうかを、乗員は常時直感的に判断できる。
Furthermore, starting from the average coordinates {x cg , y cg } of the relative position data for a predetermined time (between times t1 and t2), the center coordinates (x of the certainty distribution P (x, y) at the current time t f ug , y ug ) as an end point, a relative displacement vector is defined, and an arrow indicating a vector direction for determining whether the relative displacement vector is in the direction of the host vehicle or on the other hand is a target object. It may be added near the marker 31.
In this manner, the direction of change of the relative position in time series can be determined based on the history of the relative position data within a predetermined time, and the occupant can always determine whether another vehicle is approaching the host vehicle 5 or not. Intuitive judgment.

なお、本実施の形態では対象物マーカ31の表示面積内の確信度値の分布を輝度の変化で表示したが、その代わりに同一色彩の濃さにより、確信度の値が大きいほど濃く設定するようにして確信度の分布を表示しても良い。確信度の分布の表示の仕方はこれに限定されるものではなく、色彩そのものを変えても良い。例えば、確信度が高い方から低い方に向かって赤、橙、黄、青の順にしても良い。
確信度の値に応じて対象物マーカの色彩そのものを変える場合は、接近度合いを示す色彩で対象物マーカを縁取っても良い。
In this embodiment, the distribution of the certainty value within the display area of the object marker 31 is displayed as a change in luminance. Instead, the larger the certainty value, the higher the certainty value is set according to the intensity of the same color. In this way, the confidence distribution may be displayed. The method of displaying the confidence distribution is not limited to this, and the color itself may be changed. For example, the order of red, orange, yellow, and blue may be set in order from the highest degree of certainty.
When the color of the object marker itself is changed according to the certainty value, the object marker may be trimmed with a color indicating the degree of approach.

次に、本実施の形態の第1の変形例を説明する。
本変形例では、実施の形態の第1段階および第2段階のグルーピング処理の後、グループgごとに所定時間(時刻t1〜t2の間)の相対位置データの平均座標{xcg,ycg}と、主成分分析による現在時刻tにおける相対位置データの分布の中心座標(xug,yug)を求める。
さらに、他車両の存在位置の表示を、上方から見た自車両5を中心とした平面座標に、グループgの相対位置データ群の中心座標を対象物マーカ31の中心の位置とし、中心座標における理論誤差に基づき、楕円の対象物マーカ31の大きさを設定する。その上、その対象物マーカ31の表示面積内に含まれるグループgの相対位置データを例えばドット表示でプロットし、平均座標{xcg,ycg}を起点とし、中心座標(xug,yug)の位置を終点とするベクトルを示す矢印形状の対象物マーカをも重畳表示させる。
Next, a first modification of the present embodiment will be described.
In this modification, after the first and second stage grouping processes of the embodiment, the average coordinates {x cg , y cg } of the relative position data for a predetermined time (between times t1 and t2) for each group g. And the center coordinates (x ug , y ug ) of the distribution of the relative position data at the current time t f by principal component analysis.
Further, the display of the position of the other vehicle is set to a plane coordinate centered on the host vehicle 5 as viewed from above, and the center coordinate of the relative position data group of the group g is set to the center position of the object marker 31. Based on the theoretical error, the size of the elliptical object marker 31 is set. In addition, the relative position data of the group g included within the display area of the object marker 31 is plotted in, for example, dot display, and the average coordinates {x cg , y cg } are used as the starting point, and the center coordinates (x ug , y ug). The object marker in the shape of an arrow indicating a vector whose end point is the position of () is also superimposed and displayed.

このような発明の構成とすることにより、所定時間(時刻t1〜t2の間)の他車両の相対位置データの蓄積に基づき、矢印形状の対象物マーカからその他車両が相対的に移動している方向が示され、楕円の対象物マーカ31の大きさで理論誤差の大きさが示されるので、乗員は車間距離データの変化をしばらく観察する必要なく即座に相対位置の変化を判断できる。また、相対位置の信頼度は理論誤差を示す楕円の対象物マーカ31の大きさによって容易に判断できる。
なお、第1段階のグルーピング処理によって、誤検出による相対位置データが排除され、安定した見易い自車両周囲の他車両の相対位置表示であることは、実施の形態と同じである。
With such a configuration, the other vehicle is relatively moved from the arrow-shaped object marker based on the accumulation of the relative position data of the other vehicle for a predetermined time (between times t1 and t2). Since the direction is indicated and the size of the elliptical object marker 31 indicates the magnitude of the theoretical error, the occupant can immediately determine the change in the relative position without having to observe the change in the inter-vehicle distance data for a while. Further, the reliability of the relative position can be easily determined by the size of the elliptical object marker 31 indicating the theoretical error.
Note that the relative position data due to erroneous detection is eliminated by the first-stage grouping process, and the relative position display of other vehicles around the host vehicle that is stable and easy to see is the same as in the embodiment.

さらに本実施の形態の第2の変形例を説明する。本変形例では、実施の形態の演算制御部12は、存在位置算出部23、理論誤差記憶部24、表示制御部29から構成されている。
存在位置算出部23において算出した相対位置データを所定時間蓄積することなく、表示制御部29は算出された相対位置座標に対応する理論誤差を理論誤差記憶部24から取得し、対象物マーカ31の中心位置は算出された相対位置座標とし、他車両が存在可能性のある範囲を示す情報として、対象物マーカの大きさを理論誤差の値にもとづき設定する。このようにして得られた対象物マーカを表示制御部29は逐次表示する。
理論誤差の大きい対象物マーカ31は、大きく表示されるので、理論誤差の大きさ程度の距離で表示位置が振動しても、違和感を与えない表示となる。また、乗員は対象物マーカの大きさを、他車両の存在可能性の範囲として直感的に捉えることができる。
Further, a second modification of the present embodiment will be described. In this modification, the calculation control unit 12 according to the embodiment includes an existing position calculation unit 23, a theoretical error storage unit 24, and a display control unit 29.
The display control unit 29 acquires the theoretical error corresponding to the calculated relative position coordinate from the theoretical error storage unit 24 without accumulating the relative position data calculated in the existence position calculation unit 23 for a predetermined time, and The center position is the calculated relative position coordinate, and the size of the object marker is set based on the value of the theoretical error as information indicating a range in which another vehicle may exist. The display control unit 29 sequentially displays the object marker thus obtained.
Since the object marker 31 having a large theoretical error is displayed large, even if the display position vibrates at a distance of the magnitude of the theoretical error, the display does not give a sense of incongruity. In addition, the occupant can intuitively grasp the size of the object marker as the range of possibility of existence of other vehicles.

実施の形態および第1の変形例および第2の変形例では、相対位置情報を取得する方法としてカメラによるものとしたがそれに限定されない。レーザレーダなどによる走査によって自車両周辺の他車両位置を検出して、相対位置データとしても良い。
例えば、レーザレーダにおいて、ピッチング以外の要因による計測誤差、例えばパルスレーザ光が先行車後部のリフレクタを照射できなくて、十分な強度の反射レーザ光を受波できず、計測上限値を越えたと判定した場合とか、対向車両から発せられたパルスレーザ光を反射レーザ光として誤検出した場合などの対象物の非検出または誤検出による誤差、およびセンサの計測手法に起因する誤差が考えられる。
この場合特に、実施の形態と第1の実施例においては、第1段階のグルーピング処理をおこない、複数の相対位置データの中で一つのグループとして連続性がなく、理論誤差より大きな変化の相対位置データを誤検出データとして削除する。
その結果、従来の方法にあっては、ピッチングによって計測上限値以内の誤差が生じた場合に、表示される車間距離が真値の周辺で不安定に振動し、モニタ表示されている車間距離変動が不自然となるという問題が改善され、乗員に違和感を与えない。
In the embodiment, the first modified example, and the second modified example, the method for acquiring the relative position information is based on the camera, but is not limited thereto. Relative position data may be obtained by detecting other vehicle positions around the host vehicle by scanning with a laser radar or the like.
For example, in a laser radar, it is determined that the measurement error due to factors other than pitching, for example, the pulse laser beam cannot irradiate the reflector at the rear of the preceding vehicle, the reflected laser beam with sufficient intensity cannot be received, and the measurement upper limit is exceeded. Error due to non-detection or false detection of an object such as a case where a pulse laser beam emitted from an oncoming vehicle is erroneously detected as a reflected laser beam, or an error caused by a sensor measurement technique.
In this case, in particular, in the embodiment and the first example, the first-stage grouping process is performed, and there is no continuity as one group among a plurality of relative position data, and the relative position of the change larger than the theoretical error. Delete the data as false positive data.
As a result, in the conventional method, when an error within the upper limit of measurement occurs due to pitching, the displayed inter-vehicle distance oscillates unstable around the true value, and the inter-vehicle distance fluctuation displayed on the monitor is displayed. The problem of unnaturalness is improved, and the passengers are not discomforted.

なお、本実施の形態および第1の変形例および第2の変形例における理論誤差として、カメラ画像からの画素位置を用いた距離算出方法起因するものを考えたが、それに限定されるものではなく、発生する相対位置データの誤差として明確に数値化可能なものについては、理論誤差として扱うことができる。
また、理論誤差は予め計算されて理論誤差記憶部24に格納されているものとしたが、それに限定されるものではない。時々刻々取得される相対位置データの信頼性を、例えば取得タイミングの自車両のピッチングなどの外的要因を車両状態センサで検出し、それを反映した誤差をその都度取得するものとしてもよい。
Note that although the theoretical error in the present embodiment and the first and second modified examples is attributed to the distance calculation method using the pixel position from the camera image, it is not limited thereto. Those that can be clearly quantified as errors in the generated relative position data can be treated as theoretical errors.
Although the theoretical error is calculated in advance and stored in the theoretical error storage unit 24, the present invention is not limited to this. The reliability of the relative position data acquired from time to time may be acquired by detecting an external factor such as pitching of the own vehicle at the acquisition timing, for example, by a vehicle state sensor, and acquiring an error reflecting it.

本発明の実施の形態の構成を示す図である。It is a figure which shows the structure of embodiment of this invention. カメラの取り付け状態を示す図である。It is a figure which shows the attachment state of a camera. 検出された車両位置の表示例を示す図である。It is a figure which shows the example of a display of the detected vehicle position. 検出された車両位置の表示例を示す図である。It is a figure which shows the example of a display of the detected vehicle position. 検出された車両位置を表示制御の流れを示すフローチャートである。It is a flowchart which shows the flow of display control about the detected vehicle position.

符号の説明Explanation of symbols

1、1A、1B、1L、1R カメラ
2 車両周辺表示コントロール・ユニット
3 モニタ
5 自車両
11 画像処理プロセッサ部
12 演算制御部
21 車両検出部
22 画像記憶部
23 存在位置算出部
24 理論誤差記憶部
25 存在位置履歴記憶部
26 グルーピング処理部
27 統計量算出部
28 確信度分布算出部
29 表示制御部
31 対象物マーカ
DESCRIPTION OF SYMBOLS 1, 1A, 1B, 1L, 1R Camera 2 Vehicle periphery display control unit 3 Monitor 5 Own vehicle 11 Image processing processor part 12 Arithmetic control part 21 Vehicle detection part 22 Image storage part 23 Existence position calculation part 24 Theoretical error storage part 25 Presence location history storage unit 26 Grouping processing unit 27 Statistics calculation unit 28 Certainty distribution calculation unit 29 Display control unit 31 Object marker

Claims (9)

自車両から周囲の対象物までの相対位置情報を取得する相対位置情報取得手段と、
前記相対位置情報の理論誤差を取得する理論誤差取得手段と、
前記相対位置情報と前記理論誤差を用いて、対象物存在位置情報を算出する対象物存在位置情報算出手段と、
前記対象物存在位置情報を表示するモニタとを備えることを特徴とする車両周辺表示装置。
Relative position information acquisition means for acquiring relative position information from the host vehicle to surrounding objects;
A theoretical error acquisition means for acquiring a theoretical error of the relative position information;
Using the relative position information and the theoretical error, target object position information calculating means for calculating target object position information;
A vehicle periphery display device comprising: a monitor for displaying the object presence position information.
前記モニタは、前記対象物存在位置情報と自車両との位置関係を平面座標にて表示することを特徴とする請求項1に記載の車両周辺表示装置。 2. The vehicle periphery display device according to claim 1, wherein the monitor displays a positional relationship between the object presence position information and the host vehicle in a plane coordinate. 前記相対位置情報取得手段は、前記相対位置情報を所定時間蓄積し、
前記対象物存在位置情報算出手段は、
前記蓄積された相対位置情報にもとづいて、前記平面座標における前記対象物の存在する位置の確信度分布を算出し、
該確信度分布にもとづいて前記平面座標における前記対象物存在位置情報の表示位置および大きさを設定することを特徴とする請求項2に記載の車両周辺表示装置。
The relative position information acquisition means accumulates the relative position information for a predetermined time,
The object presence position information calculating means includes
Based on the accumulated relative position information, calculate the certainty distribution of the position where the object exists in the plane coordinates,
The vehicle periphery display device according to claim 2, wherein a display position and a size of the object presence position information in the plane coordinates are set based on the certainty factor distribution.
前記対象物存在位置情報算出手段は、
前記確信度分布の値にもとづいて前記対象物存在位置情報のさらに色彩または輝度を設定することを特徴とする請求項3に記載の車両周辺表示装置。
The object presence position information calculating means includes
4. The vehicle periphery display device according to claim 3, wherein a color or luminance of the object presence position information is set based on the value of the certainty distribution.
前記相対位置情報取得手段は、前記相対位置情報を所定時間蓄積し、
前記対象物存在位置情報算出手段は、
前記蓄積された相対位置情報にもとづいて、前記平面座標における前記対象物の存在する位置の確信度分布を算出し、
該確信度分布にもとづいて前記平面座標における前記対象物存在位置情報の表示位置と、さらに色彩または輝度とを設定し、
前記理論誤差の大きさにもとづいて前記対象物存在位置情報の大きさを設定することを特徴とする請求項2に記載の車両周辺表示装置。
The relative position information acquisition means accumulates the relative position information for a predetermined time,
The object presence position information calculating means includes
Based on the accumulated relative position information, calculate the certainty distribution of the position where the object exists in the plane coordinates,
Based on the certainty distribution, set the display position of the object presence position information in the plane coordinates, and further color or brightness,
The vehicle periphery display device according to claim 2, wherein the size of the object presence position information is set based on the size of the theoretical error.
前記対象物存在位置情報算出手段は、前記確信度分布を、前記蓄積された相対位置情報の分布から、現在の時刻での前記平面座標における前記対象物の存在する位置の確信度分布を算出し、
該確信度分布の中心位置を、前記対象物存在位置情報の表示位置とし、
前記対象物存在位置情報の表示面積内において、前記確信度分布の値が高いほど輝度レベルを高く、または濃い色彩を設定することを特徴とする請求項4または5に記載の車両周辺表示装置。
The object presence position information calculating means calculates the certainty distribution of the position where the object exists in the plane coordinate at the current time from the distribution of the accumulated relative position information. ,
The center position of the certainty distribution is set as the display position of the object presence position information,
6. The vehicle periphery display device according to claim 4, wherein within the display area of the target object location information, the luminance level is set higher or darker as the value of the certainty distribution is higher.
前記相対位置情報取得手段は、前記相対位置情報を所定時間蓄積し、
前記対象物存在位置情報算出手段は、前記蓄積された相対位置情報の分布の平均値の位置を算出し、該平均値の位置をベクトルの起点とし、
さらに、前記蓄積された相対位置情報の分布にもとづき、時間に対する前記対象物の存在位置の変化率の主成分分析を行い、現在の時刻における前記対象物の存在する中心位置を算出し、該中心位置を前記ベクトルの終点とし、
前記対象物存在位置情報を、前記ベクトルを示す矢印の形状として表示させることを特徴とする請求項2に記載の車両周辺表示装置。
The relative position information acquisition means accumulates the relative position information for a predetermined time,
The object existence position information calculating means calculates the position of the average value of the distribution of the accumulated relative position information, and uses the position of the average value as the starting point of the vector,
Further, based on the distribution of the accumulated relative position information, a principal component analysis of the rate of change of the position of the object with respect to time is performed, and a center position where the object exists at the current time is calculated. Let the position be the end point of the vector,
The vehicle periphery display device according to claim 2, wherein the object presence position information is displayed as an arrow shape indicating the vector.
前記対象物存在位置情報算出手段は、前記相対位置情報取得手段が前記相対位置情報を所定時間蓄積した相対位置情報の分布に対し、まずグルーピング処理を行い、所定の値より大きいばらつきの相対位置情報を排除することを特徴とする請求項1から7のいずれか1に記載の車両周辺表示装置。 The object presence position information calculation unit first performs a grouping process on the distribution of the relative position information in which the relative position information acquisition unit accumulates the relative position information for a predetermined time, and the relative position information having a variation greater than a predetermined value. The vehicle periphery display device according to any one of claims 1 to 7, wherein: 自車両から周囲の対象物までの相対位置情報を取得し、前記相対位置情報の理論誤差を取得し、前記相対位置情報と前記理論誤差を用いて対象物存在位置情報を算出し、該対象物存在位置情報と自車両との位置関係を平面座標にてモニタに表示させることを特徴とする車両周辺表示装置における表示方法。 Obtaining relative position information from the host vehicle to surrounding objects, obtaining a theoretical error of the relative position information, calculating object presence position information using the relative position information and the theoretical error, A display method in a vehicle periphery display device, wherein a positional relationship between presence position information and a host vehicle is displayed on a monitor in plane coordinates.
JP2004201396A 2004-07-08 2004-07-08 Vehicle periphery display device and its display method Pending JP2006021641A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004201396A JP2006021641A (en) 2004-07-08 2004-07-08 Vehicle periphery display device and its display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004201396A JP2006021641A (en) 2004-07-08 2004-07-08 Vehicle periphery display device and its display method

Publications (1)

Publication Number Publication Date
JP2006021641A true JP2006021641A (en) 2006-01-26

Family

ID=35795229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004201396A Pending JP2006021641A (en) 2004-07-08 2004-07-08 Vehicle periphery display device and its display method

Country Status (1)

Country Link
JP (1) JP2006021641A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007022471A (en) * 2005-07-21 2007-02-01 Alpine Electronics Inc Device for informing other vehicle in vicinity
WO2011104984A1 (en) * 2010-02-24 2011-09-01 アイシン精機株式会社 Vehicle surroundings monitoring device
JP2019186754A (en) * 2018-04-10 2019-10-24 アイシン精機株式会社 Periphery monitoring device
JP2020042800A (en) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and apparatus for generating object detection box, device, storage medium, and vehicle
CN111506627A (en) * 2020-04-21 2020-08-07 成都路行通信息技术有限公司 Target behavior clustering method and system
JP2021154935A (en) * 2020-03-27 2021-10-07 パナソニックIpマネジメント株式会社 Vehicle simulation system, vehicle simulation method and computer program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007022471A (en) * 2005-07-21 2007-02-01 Alpine Electronics Inc Device for informing other vehicle in vicinity
JP4664141B2 (en) * 2005-07-21 2011-04-06 アルパイン株式会社 Peripheral other vehicle notification device
WO2011104984A1 (en) * 2010-02-24 2011-09-01 アイシン精機株式会社 Vehicle surroundings monitoring device
CN102652327A (en) * 2010-02-24 2012-08-29 爱信精机株式会社 Vehicle surroundings monitoring device
CN102652327B (en) * 2010-02-24 2015-03-11 爱信精机株式会社 Vehicle surroundings monitoring device
US9073483B2 (en) 2010-02-24 2015-07-07 Aisin Seiki Kabushiki Kaisha Vehicle surroundings monitoring device
JP2019186754A (en) * 2018-04-10 2019-10-24 アイシン精機株式会社 Periphery monitoring device
JP7159598B2 (en) 2018-04-10 2022-10-25 株式会社アイシン Perimeter monitoring device
JP2020042800A (en) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and apparatus for generating object detection box, device, storage medium, and vehicle
JP2021154935A (en) * 2020-03-27 2021-10-07 パナソニックIpマネジメント株式会社 Vehicle simulation system, vehicle simulation method and computer program
JP7320756B2 (en) 2020-03-27 2023-08-04 パナソニックIpマネジメント株式会社 Vehicle simulation system, vehicle simulation method and computer program
CN111506627A (en) * 2020-04-21 2020-08-07 成都路行通信息技术有限公司 Target behavior clustering method and system

Similar Documents

Publication Publication Date Title
US9288381B2 (en) In-vehicle image recognizer
US9235990B2 (en) Vehicle periphery monitoring device
JP4876118B2 (en) Three-dimensional object appearance detection device
US6744380B2 (en) Apparatus for monitoring area adjacent to vehicle
JP2800531B2 (en) Obstacle detection device for vehicles
JP4456086B2 (en) Vehicle periphery monitoring device
US8175334B2 (en) Vehicle environment recognition apparatus and preceding-vehicle follow-up control system
EP2541465A2 (en) Vehicle periphery monitoring system
CN104954734A (en) Image processing apparatus and image processing method
KR20170080480A (en) The vehicle detecting system by converging radar and image
JP4901275B2 (en) Travel guidance obstacle detection device and vehicle control device
US11961306B2 (en) Object detection device
JP2007241898A (en) Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device
US11030761B2 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
JP2007304033A (en) Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring
KR102062579B1 (en) Vehicle license-plate recognition system that recognition of Vehicle license-plate damaged by shadow and light reflection through the correction
US11069049B2 (en) Division line detection device and division line detection method
US7885430B2 (en) Automotive environment monitoring device, vehicle with the automotive environment monitoring device, and automotive environment monitoring program
JP2006021641A (en) Vehicle periphery display device and its display method
JP5172887B2 (en) Vehicle periphery monitoring device
JP2009037284A (en) Traveling object recognition device
JP6331628B2 (en) Lane recognition device
KR20140054922A (en) Method and device for detecting front vehicle
JP6201809B2 (en) Perimeter monitoring apparatus and method
JP2018163530A (en) Object detection device, object detection method, and object detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080912

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090127