JP2002202136A - Observation apparatus for state in circumference of vehicle - Google Patents

Observation apparatus for state in circumference of vehicle

Info

Publication number
JP2002202136A
JP2002202136A JP2001000034A JP2001000034A JP2002202136A JP 2002202136 A JP2002202136 A JP 2002202136A JP 2001000034 A JP2001000034 A JP 2001000034A JP 2001000034 A JP2001000034 A JP 2001000034A JP 2002202136 A JP2002202136 A JP 2002202136A
Authority
JP
Japan
Prior art keywords
vehicle
image
map data
information
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001000034A
Other languages
Japanese (ja)
Inventor
Hirotaka Ishii
啓喬 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2001000034A priority Critical patent/JP2002202136A/en
Publication of JP2002202136A publication Critical patent/JP2002202136A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an observation apparatus by which the state (especially positional information on other vehicles or the like) at the front or the rear (including the oblique front or the oblique rear) of a vehicle is observed by a simple processing operation, at low costs and precisely. SOLUTION: One imaging means 2 which images the image at the front or the rear of an own vehicle 1 is installed. A control unit 3 which stores map data used to convert the position coordinates of a specimen (another vehicle or the like) on the image into coordinates on the surface of the ground around the own vehicle 1 which judges the position on the image of the specimen and which converts the position into the coordinates on the surface of the ground by the map data so as to generate positional information on the surface of the ground on the specimen is installed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば車両におけ
る前方又は後方の他車両や障害物の監視、或いは先行車
に対する追従走行又は車間距離監視等に使用される車両
の周囲状況観測装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for observing the surroundings of a vehicle which is used, for example, for monitoring other vehicles or obstacles in front of or behind a vehicle, or following a preceding vehicle or monitoring the distance between vehicles.

【0002】[0002]

【従来の技術】車両における前方又は後方の他車両や障
害物の監視、先行車に対する追従走行制御、或いは運転
者に対する危険情報の報知等のために、車両の周囲状況
(特に、周囲に存在する他車両や障害物の位置情報)を
観測する装置としては、レーザやミリ波或いは赤外線等
を使用した測距装置(即ち、レーダ)が開発されてお
り、例えば四輪自動車においては既に実用化されて一部
車種では標準装備されている。また、CCD等よりなる
2台のカメラをステレオカメラとして車両に設置し、三
角測量の原理で先行車等の位置情報を生成するものも知
られている。
2. Description of the Related Art In order to monitor other vehicles or obstacles in front of or behind a vehicle, to control running following a preceding vehicle, or to notify a driver of danger information, a situation around the vehicle (particularly, a vehicle existing around the vehicle). As a device for observing position information of other vehicles or obstacles), a distance measuring device (that is, a radar) using laser, millimeter wave, infrared ray, or the like has been developed. For example, it has already been put into practical use in a four-wheeled vehicle. It is standard on some models. There is also known a camera in which two cameras, such as CCDs, are installed as stereo cameras in a vehicle and position information of a preceding vehicle or the like is generated based on the principle of triangulation.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、レーザ
等を用いる測距装置では、レーザ等を所定の検出エリア
に走査して照射し、これにより得られる反射波の情報を
複雑に処理しなければ被検出物の形状や大きさが分から
ないため、被検出物の種別判定や位置判定等を瞬時に行
うこと、ひいては、車両の周囲状況(特に、数10m程
度の比較的近距離の状況)についての所望の情報をリア
ルタイムで得ることが困難で、コスト低減を図りつつ応
答性や信頼性を高めるのに限界がある。また、ステレオ
カメラを使用する場合には、2台のカメラを高い位置決
め精度で所定の位置関係や取付角度を実現するように取
り付けることが必要になってコストが増加する問題や、
振動や経時変化で基線長(三角測量の基準となる長さ;
具体的には2台のカメラ間の距離)やカメラの取付角度
が僅かにずれると、三角測量の原理を使用しているがた
めに、先行車等の位置情報の検知精度が大きく低下し易
いという問題点を有する。そこで本発明は、車両に取り
付けられる1台の撮像手段の画像から車両の前方又は後
方(斜め前方や斜め後方含む)の状況(特に、被検出物
の位置情報或いは被検出物の位置情報に基づく危険情報
等)を簡単な処理で正確に観測できる周囲状況観測装置
を提供することを目的としている。
However, in a distance measuring apparatus using a laser or the like, a laser or the like scans and irradiates a predetermined detection area, and if the information of the reflected wave obtained by the processing is not processed in a complicated manner, the object to be measured may be damaged. Since the shape and size of the detected object are not known, the type determination and the position determination of the detected object can be performed instantaneously, and as a result, the situation around the vehicle (particularly, the situation at a relatively short distance of about several tens of meters) can be determined. It is difficult to obtain desired information in real time, and there is a limit to improving responsiveness and reliability while reducing costs. In addition, when a stereo camera is used, it is necessary to mount two cameras so as to realize a predetermined positional relationship and a predetermined mounting angle with high positioning accuracy, thereby increasing the cost,
Baseline length (the length that becomes the standard for triangulation;
(Specifically, if the distance between the two cameras) or the mounting angle of the cameras is slightly shifted, the detection accuracy of the position information of the preceding vehicle or the like is likely to be greatly reduced because the principle of triangulation is used. There is a problem that. Therefore, the present invention is based on the situation (particularly, the position information of the detected object or the position information of the detected object) in front of or behind the vehicle (including diagonally forward and diagonally rearward) from the image of one imaging unit attached to the vehicle. It is an object of the present invention to provide a surroundings observation device capable of accurately observing dangerous information and the like by simple processing.

【0004】[0004]

【課題を解決するための手段】この出願の第1の発明に
よる周囲状況観測装置は、車両の前方又は/及び後方の
画像を撮像する撮像手段と、前記画像上における被検出
物の位置の座標を、当該車両を中心とした地表面上の座
標に変換するためのマップデータを記憶した記憶手段
と、前記画像内にある被検出物を抽出し、前記被検出物
の前記画像上における位置を判定し、さらに前記マップ
データによってこの位置を前記地表面上の座標に変換す
ることによって、前記被検出物の前記水平面上の位置情
報を生成する処理手段とを備えたものである。ここで、
「被検出物の前記水平面上の位置情報」には、現時点の
位置情報(即ち、現在位置の情報)のみならず、過去の
位置情報や、過去と現在の位置情報(即ち、位置情報の
時間的変化である軌跡情報)が含まれてもよい。
A surroundings observation apparatus according to a first aspect of the present invention includes an image pickup means for picking up an image in front of and / or behind a vehicle, and coordinates of the position of an object on the image. A storage means for storing map data for converting to coordinates on the ground surface with the vehicle as the center, and an object to be detected in the image is extracted, and a position of the object to be detected on the image is extracted. And determining means for converting the position into coordinates on the ground surface using the map data to generate position information on the horizontal plane of the object to be detected. here,
The “position information of the detected object on the horizontal plane” includes not only current position information (ie, current position information) but also past position information, past and current position information (ie, time of position information). (Trajectory information that is a target change) may be included.

【0005】この出願の第2の発明による周囲状況観測
装置は、車両の前方又は/及び後方の画像を撮像する撮
像手段と、前記画像上における被検出物の位置から、当
該車両の運転上又は制御上の情報(例えば、危険度の情
報、車線変更の可否の情報等)を導出するためのマップ
データを記憶した記憶手段と、前記画像内にある被検出
物を抽出し、前記被検出物の前記画像上における位置を
判定し、さらにこの位置から前記マップデータによって
前記情報を導出する処理手段とを備えたものである。こ
こで、「前記画像上における被検出物の位置」には、現
時点の位置(即ち、現在位置)のみならず、過去の位置
や、過去と現在の位置(即ち、位置の時間的変化である
軌跡)が含まれてもよい。
[0005] A surrounding situation observation apparatus according to a second invention of this application is an image pickup means for picking up an image in front of and / or behind a vehicle, and a driving or driving of the vehicle based on the position of an object to be detected on the image. Storage means for storing map data for deriving information on control (for example, information on the degree of risk, information on whether or not lane change is possible, etc.), and extracting an object in the image, And a processing means for determining the position on the image and deriving the information from the position based on the map data. Here, the “position of the object to be detected on the image” includes not only the current position (ie, the current position), but also the past position, and the past and present positions (ie, the temporal change of the position). (Trajectory).

【0006】なお、前記撮像手段は、その軸線が当該車
両の前方又は後方の路面に斜めに交差するように設置さ
れ、前記軸線と地表面に平行な方向とのなす角度が、検
出距離に反比例するように設定されていることが好まし
い。このようにすると、自車線に隣接する側方の車線や
路側帯についても、広く見通せる画像が得られ易くな
り、前記マップデータによる位置情報等の判定がより正
確になる。また、前記撮像手段は、その軸線上の無限遠
の位置が撮像される画像内の中央位置よりも上方に存在
するように、その視野や軸線の方向や設置位置が設定さ
れているとよい。上記無限遠の位置が、より好ましくは
画像の上端から20〜40%程度下方位置にある画像
(例えば図3(a)に示すような画像)であると、例え
ば観測しようとする他車両が高さのある大型トラックな
どであっても、その全体を撮像して確実に判別でき、し
かも位置判定の分解能を最大限に高められるし、周囲の
風景などの無益な画像データを最小にすることができ
る。
The imaging means is installed so that its axis crosses the road surface in front of or behind the vehicle at an angle, and the angle between the axis and a direction parallel to the ground surface is inversely proportional to the detection distance. It is preferable that the setting is made. With this configuration, it is easy to obtain an image that can be widely seen in the lane and the roadside zone adjacent to the own lane, and the determination of the position information and the like based on the map data becomes more accurate. It is preferable that the field of view, the direction of the axis, and the installation position of the imaging unit are set such that the position at infinity on the axis is located above the center position in the image to be captured. If the position at infinity is an image (for example, an image as shown in FIG. 3A) that is more preferably about 20 to 40% lower than the upper end of the image, for example, the other vehicle to be observed is high. Even large heavy trucks can be imaged as a whole to reliably discriminate, maximize the resolution of position determination, and minimize useless image data such as surrounding scenery. it can.

【0007】[0007]

【発明の実施の形態】以下、本発明の実施の形態の一例
を図面に基づいて説明する。本形態例の周囲状況観測装
置は、例えば図1(a)又は(b)に示すように、車両
1(車内又は車外)に取り付けられた撮像手段2(例え
ば、CCDカメラ)と、この撮像手段2で得られた画像
データに基づいて車両1の周囲状況(この場合、特に他
車両の位置情報)を判定するコントロールユニット3と
を備える。撮像手段2は、画像データ(少なくとも、明
暗のデータ)が得られるものであれば、CCDカメラに
限定されず、またカラー画像が得られるものでもよい
し、白黒画像が得られるものでもよい。また、撮像手段
2は、ズーム機能を備えていてもよい。また、撮像手段
2は、好ましくは地表面よりもある程度高い位置に設置
され、例えば図1(c)に示すように、その軸線2aが
自車両1の前方又は後方の路面に斜めに交差するように
設置され、軸線2aと地表面に平行な方向とのなす角度
αが、検出距離に反比例するように設定されている。
An embodiment of the present invention will be described below with reference to the drawings. As shown in FIG. 1 (a) or (b), for example, as shown in FIG. 1 (a) or (b), an ambient condition observation device according to this embodiment includes an imaging unit 2 (for example, a CCD camera) attached to a vehicle 1 (inside or outside of the vehicle), and this imaging unit And a control unit 3 that determines a surrounding situation of the vehicle 1 (in this case, in particular, position information of another vehicle) based on the image data obtained in Step 2. The imaging unit 2 is not limited to a CCD camera as long as it can obtain image data (at least light and dark data), and may be a device that can obtain a color image or a black and white image. Further, the imaging means 2 may have a zoom function. Further, the imaging means 2 is preferably installed at a position somewhat higher than the ground surface. For example, as shown in FIG. 1 (c), its axis 2a obliquely intersects the road surface in front of or behind the own vehicle 1. And an angle α between the axis 2a and a direction parallel to the ground surface is set so as to be inversely proportional to the detection distance.

【0008】即ち、仮に後方の画像を撮像する場合、例
えば図3(a)に示すような画像が得られるように、後
方の路面を斜めに見下ろすような設置位置及び設置角度
で取り付けられ、遠く離れた後方画像を撮像しようとす
る場合には、視野角を狭くして前記角度αが比較的小さ
く設定され、比較的近くの後方画像を撮像しようとする
場合には、視野角を広げて前記角度αが比較的大きく設
定される。つまり、自車線に隣接する側方の車線や路側
帯についても、広く見通せる画像(例えば図3(a)の
ような画像)を得るためには、撮像手段2の左右視野と
上下視野が必要十分な広さに設定されていることはいう
までもないが、さらに撮像手段2が、地表面よりもある
程度高い位置から斜め下方に向かって設置されていると
よい。具体的には、後方の画像を撮像する場合、例えば
図1(c)に示すように、ルーフスポイラの下面位置等
に取り付けるとよい。なお、前方の画像を撮像する場
合、例えば図1(a),(c)に示すように、撮像手段
2を車両の前面部に取り付けてもよいが、この場合には
設置高さがあまり高くできないので、見通しをよくする
ためには、例えば、フロントウインドの上部、ルーフ上
面の前端部、車室内における天井の前端部、ルームミラ
ー(バックミラー)の位置等に取り付けるのがよい。
That is, when a rear image is taken, for example, as shown in FIG. 3 (a), it is installed at an installation position and an installation angle obliquely looking down on the rear road surface so that an image as shown in FIG. When capturing a distant rear image, the viewing angle is narrowed and the angle α is set relatively small, and when capturing a relatively close rear image, the viewing angle is increased and the viewing angle is increased. The angle α is set relatively large. In other words, in order to obtain an image (for example, an image as shown in FIG. 3A) that can be widely seen in the lane and the roadside zone adjacent to the own lane, the left and right visual fields and the upper and lower visual fields of the imaging unit 2 are necessary and sufficient. Needless to say, the image pickup means 2 is preferably installed diagonally downward from a position somewhat higher than the ground surface. More specifically, when capturing a rear image, for example, as shown in FIG. 1 (c), it may be attached to the lower surface of the roof spoiler. When an image in front is taken, the image pickup means 2 may be attached to the front part of the vehicle as shown in FIGS. 1A and 1C, for example. Since it is not possible, in order to improve the visibility, it is preferable to attach it to, for example, the upper part of the front window, the front end of the roof upper surface, the front end of the ceiling in the passenger compartment, the position of a room mirror (rearview mirror), and the like.

【0009】また、画面上における他車両などの被検出
物の移動量をなるべく大きくして位置判定の分解能を高
めるとともに、周囲の風景など(空(そら)や遠方の山
など)の無益な画像データを少なくする観点からは、例
えば図3(a)に示すように、撮像手段2の軸線2a上
における無限遠の位置(路面上の白線等の延長線が画像
上で一点に交わる位置)が、常に撮像される画像内の中
央位置よりも上方(好ましくは、画像の上端から20〜
40%程度下方位置)に存在するように、撮像手段2の
視野やその軸線方向或いはその設置高さが設定されてい
るのがよい。なお、上記無限遠の位置は、画像の上端か
ら30%程度下方位置にある状態(例えば図3(a)に
示すような状態)が、最も好ましいことが発明者らの研
究で判明している。このような画像が得られると、例え
ば観測しようとする他車両が高さのある大型トラックな
どであっても、その全体を撮像して確実に判別でき、し
かも位置判定の分解能を最大限に高められるし、周囲の
風景などの無益な画像データを最小にすることができ
る。
Further, the resolution of position determination is increased by increasing the amount of movement of an object such as another vehicle on the screen as much as possible, and useless images of surrounding scenery (sky (sky), distant mountains, etc.) are obtained. From the viewpoint of reducing the data, for example, as shown in FIG. 3A, the position at infinity on the axis 2a of the imaging means 2 (the position where the extension line such as the white line on the road surface intersects one point on the image). Above the center position in the image that is always taken (preferably 20 to
It is preferable that the field of view of the imaging means 2, its axial direction, or its installation height be set so as to be located at about 40% below). Note that the inventors have found that the position at the infinity is approximately 30% below the upper end of the image (for example, a state as shown in FIG. 3A), which is the most preferable. . When such an image is obtained, for example, even if the other vehicle to be observed is a large truck with a height, the entire vehicle can be imaged and reliably identified, and the resolution of the position determination is maximized. Useless image data such as surrounding scenery can be minimized.

【0010】次に、コントロールユニット3は、図示省
略しているが、画像データを処理するマイクロコンピュ
ータ(以下、マイコンという)を備えるとともに、各種
データを記憶した不揮発性のメモリ(記憶手段)を備え
る。なお、この不揮発性メモリに記憶されるデータとし
ては、被検出物の抽出のためのデータなどに加えて、撮
像手段2が撮像した画像上における被検出物の位置の座
標を、自車両を中心とした地表面上の座標に変換するた
めのマップデータ(図5参照)も登録されている。図4
は、上記マップデータの原理を説明する図であり、図3
(a)に示すような画像上において、右隣の車線(図3
(a)の場合には路側帯)であって自車両よりも後方を
走行する他車両の重心位置の変化例(実測結果の一例)
を示す図である。
Next, although not shown, the control unit 3 includes a microcomputer (hereinafter, referred to as a microcomputer) for processing image data and a non-volatile memory (storage means) for storing various data. . The data stored in the non-volatile memory includes, in addition to data for extracting an object to be detected, coordinates of the position of the object on the image captured by the imaging unit 2, centered on the own vehicle. Map data (see FIG. 5) for conversion into coordinates on the ground surface are also registered. FIG.
FIG. 3 is a diagram for explaining the principle of the map data.
On the image as shown in FIG.
(A) In the case of (a), a change in the position of the center of gravity of another vehicle traveling behind the host vehicle (an example of an actual measurement result).
FIG.

【0011】この場合、地表面に平行な2次元座標系に
おける実際の他車両の位置(車両位置)は、図4におい
て白抜きのポイントで示すように、自車中心から横方向
に200cm離れたコースを、自車から後方に650c
m程度離れた位置から300cm程度離れた位置まで自
車と同一方向に自車に対して相対移動している。これに
対して、撮像手段2によって撮像された画像上の位置
(画素位置)は、図4において黒塗りのポイントで示す
ように、画像上の比較的左上の位置(左右方向68ピク
セル程度、上下方向118ピクセル程度)から、比較的
右下の位置(左右方向140ピクセル程度、上下方向9
9ピクセル程度)まで斜めに変化している。
In this case, the actual position of the other vehicle (vehicle position) in the two-dimensional coordinate system parallel to the ground surface is 200 cm laterally away from the center of the own vehicle as shown by a white point in FIG. Course 650c backward from own car
The vehicle is moving relative to the vehicle in the same direction as the vehicle from a position about m apart to a position about 300 cm away. On the other hand, the position (pixel position) on the image picked up by the image pick-up means 2 is, as shown by a black point in FIG. (About 118 pixels in the direction) and a relatively lower right position (about 140 pixels in the left and right direction,
(About 9 pixels).

【0012】このように、地表面に平行な2次元座標系
(以下、地表面座標系という)における被検出物の実際
の位置と、図3(a)に示すように設定した画像上にお
ける被検出物の位置は、その変化の方向が対応しないが
(即ち、実際には自車と同一方向に相対移動していて
も、自車中心から横方向に離れるに従って画像上の位置
変化は当然斜めに変化するようになるが)、個々の位置
データについては全て一義的に対応しており、実際の位
置変化に対して画像上の位置も相当に変化している。こ
のため、このような位置データの対応関係を、例えば図
5に示すように、所定の観測範囲について、予め理論的
に又は実験によって求めておき、そのような対応関係を
表すデータテーブル又は関数式のデータを前述したマッ
プデータとして記憶しておけば、このマップデータを用
いて、画像上の位置を極めて容易にかつ正確に実際の地
表面座標系の位置に変換できる。なお、図5において
は、符号Y1〜Y7で示すものが、地表面座標系におけ
る位置を表し、符号y1〜y7で示すものが、符号Y1
〜Y7にそれぞれ対応する画像上の位置を表している。
As described above, the actual position of the detected object in the two-dimensional coordinate system parallel to the ground surface (hereinafter referred to as the ground surface coordinate system) and the position of the detected object on the image set as shown in FIG. The position of the detected object does not correspond to the direction of the change (that is, even if the position of the detected object actually moves relative to the own vehicle in the same direction, the position change on the image is naturally oblique as the distance from the center of the own vehicle increases). However, the individual position data all correspond uniquely, and the position on the image also changes considerably with respect to the actual position change. Therefore, for example, as shown in FIG. 5, such a correspondence relationship of the position data is previously obtained theoretically or experimentally for a predetermined observation range, and a data table or a function expression representing such a correspondence relationship is obtained. Is stored as the above-described map data, the position on the image can be very easily and accurately converted to the actual position on the ground surface coordinate system using the map data. In FIG. 5, reference numerals Y1 to Y7 indicate positions in the ground surface coordinate system, and reference numerals y1 to y7 indicate positions Y1 to Y7.
To Y7, respectively.

【0013】次に、コントロールユニット3のマイコン
は、観測装置として起動している状態においては、少な
くとも図2に示す処理を繰り返し実行するようにその動
作プログラム等が設定されている。即ち、まずステップ
S1において、撮像手段2を駆動して、画像データをサ
ンプリングする。次に、ステップS2,S3において、
明暗度などの変化する点(即ち、エッジ)を検出して被
検出物候補の輪郭を決定する周知のエッジ検出及び輪郭
抽出を行う。次いでステップS4において、例えば被検
出物候補の輪郭データを予め記憶された適正な被検出物
の輪郭データ(各種車両の輪郭データ等)と比較した
り、或いは過去の観測結果からその相対速度を分析する
ことによって、予め登録しておいた適正な検出対象(例
えば、各種車両)に相当するものであるか否かを判定す
る。即ち、単にエッジ検出及び輪郭抽出を行うだけで
は、路肩にある看板や路面上のシミなどをも被検出物と
して把握してしまう恐れがあるので、そのようなものを
排除するために、予め登録しておいた適正な検出対象に
相当するものであるか否かを、ここで判定する。そし
て、ステップS5の分岐処理において、適正な検出対象
であれば次のステップS6に進み、適正な対象でなけれ
ば、1シーケンスの処理を終了する。
Next, when the microcomputer of the control unit 3 is activated as an observation device, its operation program and the like are set so as to repeatedly execute at least the processing shown in FIG. That is, first, in step S1, the imaging means 2 is driven to sample image data. Next, in steps S2 and S3,
A well-known edge detection and contour extraction for determining a contour of a candidate to be detected by detecting a point (that is, an edge) at which a change in brightness or the like is performed. Next, in step S4, for example, the contour data of the detected object candidate is compared with appropriate stored contour data of the detected object (such as contour data of various vehicles), or the relative speed is analyzed from past observation results. By doing so, it is determined whether or not the object corresponds to an appropriate detection object (for example, various vehicles) registered in advance. In other words, simply performing edge detection and contour extraction may cause a signboard on the road shoulder or a spot on the road surface to be grasped as an object to be detected. Here, it is determined whether or not the detection target corresponds to the appropriate detection target. Then, in the branching process of step S5, if it is a proper detection target, the process proceeds to the next step S6, and if it is not a proper target, the process of one sequence is ended.

【0014】次に、ステップS6,S7では、適正なも
のとして判定された被検出物の輪郭データから、被検出
物の画像上における重心位置を求める。そしてステップ
S8では、前述したマップデータに基づいて、被検出物
の画像上の重心位置から、前述した地表面座標系におけ
る重心位置の座標を求める。次いでステップS9では、
ステップS8で得られた被検出物の位置情報(或いは、
過去の観測で同様に得られた位置情報)から、その被検
出物の自車量からの距離(前後方向と左右方向の距
離)、或いはさらにその被検出物の相対速度などを求
め、1シーケンスの処理を終了する。なお、以上のステ
ップS6〜S9までの処理は、検出された適正な対象が
複数ある場合には、当然それぞれについて実行する。
Next, in steps S6 and S7, the position of the center of gravity of the detected object on the image is determined from the contour data of the detected object determined to be appropriate. In step S8, based on the above-described map data, the coordinates of the position of the center of gravity in the above-described ground surface coordinate system are obtained from the position of the center of gravity on the image of the detected object. Next, in step S9,
The position information of the detected object obtained in step S8 (or
From the position information similarly obtained in the past observation), the distance of the detected object from the vehicle amount (distance in the front-rear direction and the left-right direction) or the relative speed of the detected object is calculated. Is completed. Note that, when there are a plurality of detected proper targets, the processes of steps S6 to S9 are naturally executed for each.

【0015】また、ステップS8,S9で最終的に得ら
れた位置情報等は、例えば、相対距離と相対速度に基づ
いて追突危険防止の警告を出力する車間距離監視制御
や、先行車に所定の車間距離を維持しつつ追従するよう
に自動操縦する先行車追従制御などの車両の高度な制御
機能に有効活用できる。特に、図3(a)に示すような
自車後方の画像に基づいて、後方の他車両の位置情報が
得られる場合には、自車と同一車線を走行してくる後続
車両との車間距離監視ができるとともに、隣接する側方
の車線であって自車の斜め後方を走行している車両に対
する危険情報の報知等が可能となる。例えば、図3
(a)に示すように、自車の側方であって比較的近距離
(注意ゾーン)を走行する他車両11が存在する場合に
は、その他車両11の車線側(この場合、追越車線側)
に自車が車線変更するには注意を要することを警告ラン
プ等で自車の運転者に報知し、また自車の側方であって
かなり近距離(危険ゾーン)を走行する他車両が存在す
る場合には、その他車両の車線側に自車が車線変更する
ことを阻止するために警告ランプ等で自車の運転者に報
知したり、或いはステアリング操作を抑制するといった
制御が可能である。このような高度な機能が実現される
と、車線変更の際に自車の斜め後方を走行する車両との
接触が起きることを確実に防止できる。なお、上述した
ように運転者に対して警報や警告を出す場合、他車両等
の検出対象の現在位置のみならず、他車両等の過去の位
置情報や、他車両等の過去と現在の位置情報(即ち、位
置情報の時間的変化である軌跡情報)から危険度等を判
定し、この判定結果に基づいて警報等を出力するように
してもよい。即ち、本発明の装置は、検出対象の瞬間的
な位置情報のみを観測するのではなく、検出対象の位置
の時間的変化をも観測し、この観測結果に基づいて危険
度等を判定する機能を備えていてもよい。
The position information and the like finally obtained in steps S8 and S9 may be, for example, an inter-vehicle distance monitoring control for outputting a warning to prevent a rear-end collision based on the relative distance and the relative speed, or a predetermined value for a preceding vehicle. This can be effectively used for advanced control functions of a vehicle such as a preceding vehicle follow-up control that automatically controls the vehicle to follow the vehicle while maintaining the following distance. In particular, when the position information of the other vehicle behind can be obtained based on the image behind the own vehicle as shown in FIG. 3A, the inter-vehicle distance to the following vehicle traveling in the same lane as the own vehicle. Monitoring can be performed, and danger information or the like can be notified to a vehicle traveling in an adjacent side lane and obliquely behind the vehicle. For example, FIG.
As shown in (a), when there is another vehicle 11 running on a relatively short distance (attention zone) on the side of the own vehicle, the lane side of the other vehicle 11 (in this case, the overtaking lane) side)
Alerts the driver of his / her vehicle with a warning lamp or the like that the vehicle needs to be careful to change lanes, and there is another vehicle on the side of the vehicle that runs a very short distance (danger zone). In such a case, a control such as notifying the driver of the own vehicle with a warning lamp or the like or suppressing a steering operation can be performed to prevent the own vehicle from changing lanes to the lane side of the other vehicle. When such advanced functions are realized, it is possible to reliably prevent contact with a vehicle running diagonally behind the host vehicle when changing lanes. When an alarm or warning is issued to the driver as described above, not only the current position of the detection target of another vehicle or the like, but also past position information of the other vehicle or the past and current positions of the other vehicle or the like. The degree of danger or the like may be determined from the information (that is, trajectory information that is a temporal change in the position information), and an alarm or the like may be output based on the determination result. That is, the apparatus of the present invention not only observes instantaneous position information of a detection target, but also observes a temporal change in the position of the detection target, and determines a degree of risk or the like based on the observation result. May be provided.

【0016】以上説明したように本形態例の装置によれ
ば、1台のカメラから得られる画像データのみで、車両
の前方又は後方(斜め前方又は斜め後方含む)の周囲の
状況(特に、被検出物の位置情報或いは被検出物の位置
情報に基づく危険情報や注意情報)を簡単な処理で正確
にほぼリアルタイムで観測できる。したがって、車両の
安全性や運転操作の容易性等を向上させる高度な機能が
安価かつ効果的に実現できる。なお発明者らは、実際に
以上説明した撮像手段等を車両に搭載して高速道路の走
行実験を行っており、他の車両等についての画像上の位
置データから地平面座標系における十分的確な位置情報
がほぼリアルタイムで得られることを確認している。
As described above, according to the apparatus of the present embodiment, only the image data obtained from a single camera is used, and the situation around the front or rear (including diagonally forward or diagonally rear) of the vehicle (particularly, Danger information or caution information based on the position information of the detected object or the position information of the detected object) can be accurately and almost in real time observed by simple processing. Therefore, advanced functions for improving vehicle safety, ease of driving operation, and the like can be realized inexpensively and effectively. In addition, the inventors have carried out a driving experiment on a highway by actually mounting the above-described imaging means and the like on a vehicle, and have obtained a sufficiently accurate ground plane coordinate system from position data on images of other vehicles and the like. We have confirmed that location information can be obtained almost in real time.

【0017】なお、本発明は上記形態例に限られず、各
種の態様や変形があり得る。例えば、撮像手段は、車両
の前方の画像を撮像するものと、後方の画像を撮像する
ものをそれぞれ両方設置して、車両の前後両方の状況を
観測する態様でもよい。また、撮像方向が同じでも、撮
像手段は必ずしも1台に限定されない、例えば車両の左
右両側に後方に向けて2台のカメラを設置して、それぞ
れのカメラの画像について同様の処理を実行して、左右
方向に極めて広範囲な領域について観測できるようにし
てもよい。但し、コスト面を考慮すれば、後方用又は前
方用についてそれぞれ1台の撮像手段を車両の左右方向
中央に設置する構成が好ましい。特に前述した実施の形
態例のように撮像手段の位置や方向等を設定すれば、1
台のみでも実用上十分広範囲な観測が可能となるからで
ある。
The present invention is not limited to the above embodiment, but may have various aspects and modifications. For example, the imaging unit may be configured to install both a unit that captures an image in front of the vehicle and a unit that captures an image in the rear, and observe both front and rear states of the vehicle. Further, even if the imaging directions are the same, the number of imaging means is not necessarily limited to one. For example, two cameras are installed rearward on both left and right sides of the vehicle, and similar processing is performed on the images of the respective cameras. Alternatively, it may be possible to observe an extremely wide area in the left-right direction. However, in consideration of cost, it is preferable that one imaging unit is installed at the center in the left-right direction of the vehicle for each of the rear and front. In particular, if the position, direction, etc. of the imaging means are set as in the above-described embodiment, 1
This is because a wide range of observations is practically possible with only the stand.

【0018】また、前述した実施の形態例では、画像上
の位置データを地平面座標系の位置データに変換し、こ
の変換後の位置情報を使用して危険度判定等を行う態様
を例示したが、これに限定されない。例えば、画像上を
区画した領域に対応して、危険度や運転者が注意すべき
事項、或いは車両の制御手段が実行すべき事項等の情報
を設定したマップデータを予め設定して記憶しておき、
このマップデータと被検出物の画像上の位置データ(位
置の時間的変化のデータであってもよい)から、危険度
情報等を直接導出する態様でもよい。例えば、図3
(a)に示すように、隣接する車線上を走行する他車両
11の存在領域について、図示する如く「安全ゾー
ン」、「注意ゾーン」、「危険ゾーン」を画像上の領域
に対応する情報として設定登録しておき、後方の他車両
が「安全ゾーン」に位置するときには車線変更しても危
険でない旨の情報報知等を実行し(或いは、なにも報知
しない態様でもよい)、「注意ゾーン」に位置するとき
には車線変更するには注意が必要である旨の警告等を実
行し、「危険ゾーン」に位置するときには警告を出すと
ともに車線変更を抑制する制御等を実行するといった態
様でもよい。このような態様であると、位置データの座
標変換処理が不要となるので、より処理が簡単になり、
応答性もさらに向上する。なおこの場合理論的には、路
面がカーブしているときと、直線路面であるときとで、
それぞれ別個の前記マップデータを設定登録しておく
か、或いは、例えば直線路面の場合の前記マップデータ
のみを設定登録しておき、路面がカーブしているときに
は、その曲率等に応じてそのマップデータを修正して使
用する必要がある。但し、既述したような高度な機能
(車間距離監視機能等)が主に使用される高速道路で
は、路面のカーブの曲率が小さいので、たとえ路面がカ
ーブしていても、同じマップデータ(直線路面の場合の
マップデータ)で上記態様を実施することもあり得る。
というのは、図3(a)及び図3(b)は、高速道路に
おける走行実験(撮像手段の角度αは20度)の結果得
られた実際の後方画像に基づいて作図したものであり、
このうち図3(a)は直線道路、図3(b)はカーブ路
面を走行中の後方画像であるが、無限遠の近傍の画像が
異なるのみで、少なくとも観測しようとする自車付近の
領域(例えば、自車から後方に3m〜30m程度の範
囲)については、直線道路の場合に比較して画像上の被
検出物の位置関係がほぼ同じであり、要求される判定精
度によっては同一のマップデータが使用できる可能性が
あるからである。
Further, in the above-described embodiment, the mode in which the position data on the image is converted into the position data in the ground plane coordinate system, and the degree of danger is determined using the converted position information is exemplified. However, it is not limited to this. For example, map data in which information such as a degree of danger, a matter to be noted by the driver, or a matter to be executed by the control means of the vehicle is set and stored in advance corresponding to an area defined on the image. Every
The risk level information or the like may be directly derived from the map data and the position data of the detected object on the image (data of a temporal change in position). For example, FIG.
As shown in (a), regarding the area where another vehicle 11 is traveling on an adjacent lane, as shown in the figure, a “safe zone”, a “caution zone”, and a “danger zone” are information corresponding to the area on the image. When the other vehicle behind is set in the “safety zone”, information notification or the like indicating that it is not dangerous even if the lane is changed is executed (or no information may be issued). When the vehicle is located in the "danger zone", a warning is issued, and when the vehicle is located in the "danger zone", a control or the like for suppressing the lane change is executed. In such a mode, the coordinate conversion processing of the position data is not required, so that the processing becomes simpler,
Responsiveness is further improved. Note that in this case, theoretically, when the road surface is curved and when it is a straight road surface,
Each of the map data is set and registered separately or, for example, only the map data in the case of a straight road is set and registered, and when the road is curved, the map data is set according to the curvature or the like. Need to be modified and used. However, on an expressway where the above-mentioned advanced functions (inter-vehicle distance monitoring function, etc.) are mainly used, since the curvature of the road surface is small, even if the road surface is curved, the same map data (linear The above-described embodiment may be implemented using map data for a road surface.
3A and FIG. 3B are plotted based on an actual rear image obtained as a result of a driving experiment on an expressway (the angle α of the imaging unit is 20 degrees).
3 (a) is a rear image while traveling on a curved road, and FIG. 3 (b) is a rear image while traveling on a curved road surface. Only images near infinity are different. (For example, in the range of about 3 m to 30 m behind the own vehicle), the positional relationship of the detected object on the image is almost the same as in the case of a straight road, and the same depending on the required determination accuracy. This is because there is a possibility that map data can be used.

【0019】また、撮像手段の視野の大きさ(ズームの
状態等含む)や設置位置(高さ等)や、或いはその軸線
(視野の中心線)の方向の設定(例えば、前述の角度α
の設定)は、一定に固定してもよいが、例えば近距離測
定用と遠距離測定用といったように、複数種に切り替え
られる構成(人力により切り替える構成、又は駆動手段
を設けて自動切り替えする構成)でもよい。但しこの場
合理論的には、前述のマップデータ(画像上の位置或い
は位置変化から危険度情報等を直接導出する場合のマッ
プデータ)については、それぞれの設定に対応して別個
に記憶しておき、これらマップデータを切り替えて使用
するといった構成とする必要がある。
Further, the size of the field of view (including the state of zooming, etc.) and the installation position (height, etc.) of the imaging means, or the direction of its axis (center line of the field of view) are set (for example, the angle α described above).
) May be fixed to a fixed value, but may be switched to a plurality of types (for example, for short-distance measurement and long-distance measurement) (a configuration for switching by human power, or a configuration for automatically switching by providing a driving unit) ). However, in this case, theoretically, the above-mentioned map data (map data in the case of directly deriving risk information or the like from a position or a change in position on an image) is separately stored corresponding to each setting. It is necessary to switch between these map data.

【0020】[0020]

【発明の効果】この発明による車両の周囲状況観測装置
によれば、1台のカメラから得られる画像データのみ
で、車両の前方又は後方(斜め前方又は斜め後方含む)
の周囲の状況(特に、被検出物の位置情報或いは被検出
物の位置情報に基づく危険情報や注意情報)を簡単な処
理で正確にほぼリアルタイムで観測できる。したがっ
て、車両の安全性や運転操作の容易性等を向上させる高
度な機能(車間距離監視機能等)が安価かつ効果的に実
現できる。
According to the apparatus for observing the surroundings of a vehicle according to the present invention, only the image data obtained from one camera can be used, in front of or behind the vehicle (including obliquely forward or obliquely backward).
(Particularly, the position information of the detected object or the danger information and the caution information based on the position information of the detected object) can be accurately and almost observed in real time by simple processing. Therefore, advanced functions (inter-vehicle distance monitoring function and the like) for improving the safety of the vehicle and the ease of the driving operation can be realized inexpensively and effectively.

【図面の簡単な説明】[Brief description of the drawings]

【図1】車両の周囲状況観測装置の構成を説明する図で
ある。
FIG. 1 is a diagram illustrating a configuration of a vehicle surroundings observation device.

【図2】同装置の処理内容を示すフローチャートであ
る。
FIG. 2 is a flowchart showing processing contents of the apparatus.

【図3】車両後方の画像例を示す図である。FIG. 3 is a diagram illustrating an example of an image behind a vehicle.

【図4】マップデータの原理を説明する図である。FIG. 4 is a diagram illustrating the principle of map data.

【図5】マップデータの内容例を説明する図である。FIG. 5 is a diagram illustrating an example of the contents of map data.

【符号の説明】[Explanation of symbols]

1 車両 2 撮像手段 3 コントロールユニット(記憶手段、処理手段) 11 他車両(被検出物) REFERENCE SIGNS LIST 1 vehicle 2 imaging means 3 control unit (storage means, processing means) 11 other vehicle (detected object)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G01B 11/00 G01B 11/00 H Fターム(参考) 2F029 AA02 AB01 AC02 AC09 AC16 2F065 AA03 AA12 AA17 AA51 BB15 CC00 CC11 CC40 FF04 FF26 GG09 JJ03 JJ26 MM03 MM07 PP01 QQ00 QQ01 QQ24 QQ32 SS02 SS09 SS13 UU02 UU05──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI theme coat ゛ (reference) G01B 11/00 G01B 11/00 HF term (reference) 2F029 AA02 AB01 AC02 AC09 AC16 2F065 AA03 AA12 AA17 AA51 BB15 CC00 CC11 CC40 FF04 FF26 GG09 JJ03 JJ26 MM03 MM07 PP01 QQ00 QQ01 QQ24 QQ32 SS02 SS09 SS13 UU02 UU05

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 車両の前方又は/及び後方の画像を撮像
する撮像手段と、 前記画像上における被検出物の位置の座標を、当該車両
を中心とした地表面上の座標に変換するためのマップデ
ータを記憶した記憶手段と、 前記画像内にある被検出物を抽出し、前記被検出物の前
記画像上における位置を判定し、さらに前記マップデー
タによってこの位置を前記地表面上の座標に変換するこ
とによって、前記被検出物の前記水平面上の位置情報を
生成する処理手段とを備えたことを特徴とする車両の周
囲状況観測装置。
An image pickup means for picking up an image in front of and / or behind a vehicle, and for converting coordinates of a position of an object on the image into coordinates on the ground surface centered on the vehicle. Storage means for storing map data, extracting an object in the image, determining the position of the object on the image, further converting the position to coordinates on the ground surface by the map data. Processing means for generating position information of the object to be detected on the horizontal plane by conversion.
【請求項2】 車両の前方又は/及び後方の画像を撮像
する撮像手段と、 前記画像上における被検出物の位置から、当該車両の運
転上又は制御上の情報を導出するためのマップデータを
記憶した記憶手段と、 前記画像内にある被検出物を抽出し、前記被検出物の前
記画像上における位置を判定し、さらにこの位置から前
記マップデータによって前記情報を導出する処理手段と
を備えたことを特徴とする測距装置。
2. An image pickup means for picking up an image in front of and / or behind a vehicle, and map data for deriving driving or control information of the vehicle from a position of an object to be detected on the image. A storage unit for storing, and a processing unit for extracting an object in the image, determining a position of the object on the image, and further deriving the information from the position using the map data. Distance measuring device characterized by the above-mentioned.
【請求項3】 前記撮像手段は、その軸線が当該車両の
前方又は後方の路面に斜めに交差するように設置され、
前記軸線と地表面に平行な方向とのなす角度が、検出距
離に反比例するように設定されていることを特徴とする
請求項1又は2記載の測距装置。
3. The imaging means is installed such that its axis obliquely intersects a road surface in front of or behind the vehicle,
The distance measuring apparatus according to claim 1, wherein an angle between the axis and a direction parallel to the ground surface is set so as to be inversely proportional to a detection distance.
【請求項4】 前記撮像手段は、その軸線上の無限遠の
位置が撮像される画像内の中央位置よりも上方に存在す
るように、その視野や軸線の方向や設置位置が設定され
ていることを特徴とする請求項3記載の測距装置。
4. The field of view, the direction of the axis, and the installation position of the imaging means are set such that the position at infinity on the axis is located above the center position in the image to be captured. The distance measuring apparatus according to claim 3, wherein:
JP2001000034A 2001-01-04 2001-01-04 Observation apparatus for state in circumference of vehicle Pending JP2002202136A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001000034A JP2002202136A (en) 2001-01-04 2001-01-04 Observation apparatus for state in circumference of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001000034A JP2002202136A (en) 2001-01-04 2001-01-04 Observation apparatus for state in circumference of vehicle

Publications (1)

Publication Number Publication Date
JP2002202136A true JP2002202136A (en) 2002-07-19

Family

ID=18868928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001000034A Pending JP2002202136A (en) 2001-01-04 2001-01-04 Observation apparatus for state in circumference of vehicle

Country Status (1)

Country Link
JP (1) JP2002202136A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054821A (en) * 2002-07-24 2004-02-19 Nissan Motor Co Ltd Driver's future predicting device
EP1709810A1 (en) * 2004-01-30 2006-10-11 Kabushiki Kaisha Toyota Jidoshokki Video image positional relationship correction apparatus, steering assist apparatus having the video image positional relationship correction apparatus and video image positional relationship correction method
JP2019126043A (en) * 2019-02-21 2019-07-25 Nl技研株式会社 Communication apparatus
CN112697066A (en) * 2020-12-02 2021-04-23 王刚 Vehicle part positioning method and device and computer storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205198A (en) * 1992-01-29 1993-08-13 Mazda Motor Corp Obstacle detection device for vehicle
JPH06321011A (en) * 1993-05-17 1994-11-22 Mitsubishi Electric Corp Peripheral visual field display
JPH0777409A (en) * 1993-06-18 1995-03-20 Kenji Matsui Space recognizing device/method, dangerous state detecting device for vehicle, dangerous state warning device/walk assisting device for the blind
JPH07146145A (en) * 1993-11-24 1995-06-06 Fujitsu Ltd Road detection apparatus
JPH09207801A (en) * 1996-02-08 1997-08-12 Honda Motor Co Ltd Rear caution device for vehicle
JPH09249147A (en) * 1996-03-15 1997-09-22 Koyo Seiko Co Ltd Steering wheel for vehicle
JPH11120498A (en) * 1997-10-18 1999-04-30 Mazda Motor Corp Obstacle alarming device for vehicle
JP2000285245A (en) * 1999-03-31 2000-10-13 Toshiba Corp Method and device for preventing collision of moving body and recording medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205198A (en) * 1992-01-29 1993-08-13 Mazda Motor Corp Obstacle detection device for vehicle
JPH06321011A (en) * 1993-05-17 1994-11-22 Mitsubishi Electric Corp Peripheral visual field display
JPH0777409A (en) * 1993-06-18 1995-03-20 Kenji Matsui Space recognizing device/method, dangerous state detecting device for vehicle, dangerous state warning device/walk assisting device for the blind
JPH07146145A (en) * 1993-11-24 1995-06-06 Fujitsu Ltd Road detection apparatus
JPH09207801A (en) * 1996-02-08 1997-08-12 Honda Motor Co Ltd Rear caution device for vehicle
JPH09249147A (en) * 1996-03-15 1997-09-22 Koyo Seiko Co Ltd Steering wheel for vehicle
JPH11120498A (en) * 1997-10-18 1999-04-30 Mazda Motor Corp Obstacle alarming device for vehicle
JP2000285245A (en) * 1999-03-31 2000-10-13 Toshiba Corp Method and device for preventing collision of moving body and recording medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054821A (en) * 2002-07-24 2004-02-19 Nissan Motor Co Ltd Driver's future predicting device
EP1709810A1 (en) * 2004-01-30 2006-10-11 Kabushiki Kaisha Toyota Jidoshokki Video image positional relationship correction apparatus, steering assist apparatus having the video image positional relationship correction apparatus and video image positional relationship correction method
EP1709810A4 (en) * 2004-01-30 2007-02-28 Toyota Jidoshokki Kk Video image positional relationship correction apparatus, steering assist apparatus having the video image positional relationship correction apparatus and video image positional relationship correction method
JP2019126043A (en) * 2019-02-21 2019-07-25 Nl技研株式会社 Communication apparatus
CN112697066A (en) * 2020-12-02 2021-04-23 王刚 Vehicle part positioning method and device and computer storage medium

Similar Documents

Publication Publication Date Title
CN109017570B (en) Vehicle surrounding scene presenting method and device and vehicle
US9863775B2 (en) Vehicle localization system
US8320628B2 (en) Method and system for assisting driver
EP2150437B1 (en) Rear obstruction detection
EP2463843B1 (en) Method and system for forward collision warning
JP3263699B2 (en) Driving environment monitoring device
JP2800531B2 (en) Obstacle detection device for vehicles
EP1005234A2 (en) Three-dimensional scope system for vehicles with a single camera
JP4556742B2 (en) Vehicle direct image display control apparatus and vehicle direct image display control program
CN109643495B (en) Periphery monitoring device and periphery monitoring method
JP5888339B2 (en) Display control device
CN101396989A (en) Vehicle periphery monitoring apparatus and image displaying method
JPH06124340A (en) Image processor for vehicle
US20190135169A1 (en) Vehicle communication system using projected light
JP2007304033A (en) Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring
JP3666332B2 (en) Pedestrian detection device
JP6394440B2 (en) Dirt determination device
WO2022062000A1 (en) Driver assistance method based on transparent a-pillar
JP5605764B2 (en) Vehicle display device
CN113060156B (en) Vehicle surroundings monitoring device, vehicle surroundings monitoring method, and program
JP3988551B2 (en) Vehicle perimeter monitoring device
JP3916930B2 (en) Approach warning device
JPH04193641A (en) Obstacle detection device for vehicle
JP2002202136A (en) Observation apparatus for state in circumference of vehicle
KR101405327B1 (en) Apparatus for monitoring objects on road

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070906

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070914

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20071109