JPH10222679A - Vehicle image processor - Google Patents

Vehicle image processor

Info

Publication number
JPH10222679A
JPH10222679A JP9021746A JP2174697A JPH10222679A JP H10222679 A JPH10222679 A JP H10222679A JP 9021746 A JP9021746 A JP 9021746A JP 2174697 A JP2174697 A JP 2174697A JP H10222679 A JPH10222679 A JP H10222679A
Authority
JP
Japan
Prior art keywords
image
time
plane
vehicle
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9021746A
Other languages
Japanese (ja)
Inventor
Tomoyuki Doi
智之 土井
Toshihiko Suzuki
敏彦 鈴木
Koji Taguchi
康治 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP9021746A priority Critical patent/JPH10222679A/en
Publication of JPH10222679A publication Critical patent/JPH10222679A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To identify whether an object on a road, which is obtained by a CCD camera, is the planar one or the stereoscopic one. SOLUTION: The anterior images at different times T0 and T1 are obtained by an on-vehicle CCD camera 10 so as to be supplied to an image recognizing device 16. A vehicle action measuring device 14 detects vehicle speed and a yaw rate and supplies them to the image recognizing device 16. The image recognizing device 16 calculates a position which is assumed to be obtained at the time T1 when the object in the image is assumed to be the planar object (a print, etc., on the road) on the road by the image obtained at the time T0 and the running state of a vehicle and comparaes it with the image which is actually obtained at the time T1. When they coincide, the object is judged to be the planar one and it is judged to be the stereoscopic one at the time of non-coincidence. The height of the stereoscopic object is calculates from the deviation quantity of both.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は車両用画像処理装
置、特に撮影された物体が道路上の平面物体か否かを識
別する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for a vehicle, and more particularly, to an apparatus for identifying whether or not a photographed object is a plane object on a road.

【0002】[0002]

【従来の技術】従来より、車両にCCDカメラ等を搭載
して車両進行方向を撮影し、道路上の障害物を検出する
技術が開発されている。
2. Description of the Related Art Conventionally, a technology has been developed in which a vehicle is mounted with a CCD camera or the like to photograph a traveling direction of a vehicle and an obstacle on a road is detected.

【0003】例えば、特開平5−233813号公報に
は、車載カメラで撮影した画像のオプティカルフロー
(移動ベクトル)を用いて車両前方の移動物体を検出す
る技術が開示されている。
For example, Japanese Patent Application Laid-Open No. Hei 5-2333813 discloses a technique for detecting a moving object ahead of a vehicle using an optical flow (movement vector) of an image photographed by a vehicle-mounted camera.

【0004】[0004]

【発明が解決しようとする課題】オプティカルフロー
は、確かに道路上の移動物体を検出する方法として有効
ではあるが、ある時刻T0に得られた画像と次の時刻T1
で得られた画像とのパターンマッチング(全画像につい
て)を行わなければならず、処理量が多く最終的に障害
物となる物体を抽出するまでに時間を要する問題があっ
た。また、パターンマッチングを行ってオプティカルフ
ローを算出しても、そのオプティカルフローがある移動
物体を示しているか否かを判定するためにグルーピング
処理(同一物体に属するオプティカルフローか否か)が
必要となるため、グルーピング処理の精度を確保するた
めに検出できる物体の大きさがある一定値以上に限られ
てしまう問題もある。もちろん、オプティカルフロー自
体を例えば画素単位で抽出することにより小さい物体を
検出することも考えられるが、処理時間が著しく増大し
てしまう。
Although the optical flow is effective as a method for detecting a moving object on a road, an image obtained at a certain time T0 and an image obtained at a next time T1 are certainly effective.
The pattern matching (for all images) with the image obtained in step (1) must be performed, and there is a problem in that the processing amount is large and it takes time to finally extract an object that becomes an obstacle. Further, even if an optical flow is calculated by performing pattern matching, a grouping process (whether the optical flow belongs to the same object or not) is required to determine whether the optical flow indicates a certain moving object. Therefore, there is also a problem that the size of the object that can be detected in order to secure the accuracy of the grouping process is limited to a certain value or more. Of course, it is conceivable to detect a smaller object by extracting the optical flow itself in, for example, a pixel unit, but the processing time is significantly increased.

【0005】本発明は、上記従来技術の有する課題に鑑
みなされたものであり、オプティカルフローを用いるこ
となく道路上の物体が立体物か平面物か、すなわち車両
にとって障害物となり得るか否かを迅速に識別すること
ができる車両用画像処理装置を提供することにある。
The present invention has been made in view of the above-mentioned problems of the prior art, and determines whether an object on a road is a three-dimensional object or a two-dimensional object without using an optical flow, that is, whether an object on a road can be an obstacle for a vehicle. An object of the present invention is to provide a vehicular image processing device that can be quickly identified.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
に、第1の発明は、車両前方を撮影する撮像手段と、車
両の走行状態を検出する検出手段と、前記撮像手段で得
られた画像を道路面内の平面画像に変換する変換手段
と、ある時刻T0の平面画像と次の時刻T1の平面画像を
取得し、時刻T0の平面画像と時間T1−T0における前
記走行状態に基づいて算出される次の時刻T1における
予測平面画像と、実際に時刻T1で得られた平面画像と
を比較することにより画像内の物体が道路上の平面物体
か否かを識別する処理手段とを有することを特徴とす
る。
In order to achieve the above object, a first aspect of the present invention provides an image pickup means for photographing a front of a vehicle, a detection means for detecting a running state of a vehicle, and an image pickup means. A conversion unit for converting the image into a plane image on the road surface, a plane image at a certain time T0 and a plane image at the next time T1 are obtained, and the plane image at the time T0 and the running state at the time T1−T0 are obtained. Processing means for comparing the calculated predicted plane image at the next time T1 with the plane image actually obtained at the time T1 to identify whether or not the object in the image is a plane object on the road; It is characterized by the following.

【0007】また、第2の発明は、第1の発明におい
て、前記処理手段で画像内の物体が道路上の平面物体で
ないと識別された場合に、前記予測平面画像と時刻T1
で得られた平面画像との相違量に基づき前記物体の道路
面からの高さを算出する演算手段を有することを特徴と
する。
According to a second aspect of the present invention, in the first aspect, when the processing means determines that the object in the image is not a plane object on the road, the predicted plane image and the time T1 are determined.
And a calculating means for calculating the height of the object from the road surface based on the amount of difference from the plane image obtained in step (1).

【0008】また、第3の発明は、第2の発明におい
て、前記演算手段は、前記高さが負の場合には前記物体
は道路上の虚像であると判定することを特徴とする。
In a third aspect based on the second aspect, the calculation means determines that the object is a virtual image on a road when the height is negative.

【0009】[0009]

【発明の実施の形態】以下、図面に基づき本発明の実施
形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0010】<第1実施形態>図1には、本実施形態の
構成ブロック図が示されている。車両前方を撮影する撮
像手段としてCCDカメラ10が車両前部に設けられて
おり、所定の撮影タイミングで車両前方を撮影する。C
CDカメラ10で得られた画像は順次車載の画像キャプ
チャボード12に供給される。画像キャプチャボード1
2は、A/Dコンバータ及びVRAMを有しており、C
CDカメラ10からの画像を順次VRAMに記憶し、所
定のタイミングで画像認識装置16に供給する。また、
車両挙動測定装置14は、車速センサやヨーレートセン
サ等で構成され、車両の走行状態(速度や進行方向)を
検出して画像認識装置16に供給する。画像認識装置1
6は、CPU、ROM、RAM及びデータバス等を有し
ており、画像キャプチャボード12から供給された画像
に所定の座標変換を施して道路上の平面座標に変換する
とともに、車両挙動測定装置14から供給された走行状
態データに基づいて予測平面座標を算出し、実際の平面
画像と比較する機能を有する。なお、平面画像への変換
及び走行状態データに基づく予測平面座標の算出は、全
て所定の計算式に基づいて行われ、具体的には予めRO
Mに格納された計算プログラムを実行することで遂行さ
れる。計算プログラムの内容については後述する。ま
た、画像認識装置16で認識された結果、つまり画像内
の物体が平面物か立体物かは、例えば車両制御ECU
(電子制御装置)等に供給され、ブレーキの制御や運転
者への警報等に用いられる。
<First Embodiment> FIG. 1 is a block diagram showing the configuration of the first embodiment. A CCD camera 10 is provided at the front of the vehicle as an imaging means for photographing the front of the vehicle, and photographs the front of the vehicle at a predetermined photographing timing. C
Images obtained by the CD camera 10 are sequentially supplied to an on-vehicle image capture board 12. Image capture board 1
2 has an A / D converter and a VRAM;
Images from the CD camera 10 are sequentially stored in the VRAM and supplied to the image recognition device 16 at a predetermined timing. Also,
The vehicle behavior measuring device 14 includes a vehicle speed sensor, a yaw rate sensor, and the like, detects a traveling state (speed and traveling direction) of the vehicle, and supplies the detected state to the image recognition device 16. Image recognition device 1
Reference numeral 6 includes a CPU, a ROM, a RAM, a data bus, and the like, and performs predetermined coordinate conversion on an image supplied from the image capture board 12 to convert the image into plane coordinates on a road. It has a function of calculating the predicted plane coordinates based on the traveling state data supplied from the computer and comparing the calculated plane coordinates with the actual plane image. Note that the conversion to the plane image and the calculation of the predicted plane coordinates based on the traveling state data are all performed based on a predetermined calculation formula.
This is performed by executing a calculation program stored in M. The contents of the calculation program will be described later. The result recognized by the image recognition device 16, that is, whether the object in the image is a flat object or a three-dimensional object, is determined by, for example, a vehicle control ECU.
(Electronic control unit) and the like, and are used for brake control, warning to a driver, and the like.

【0011】図2〜図5には、本実施形態において画像
認識装置16がCCDカメラ10で得られた画像内の物
体を識別する、つまり道路上の平面物(プリントされた
標示物等)であるか立体物であるかを識別するための基
本原理が示されている。
2 to 5, in this embodiment, the image recognition device 16 identifies an object in an image obtained by the CCD camera 10, that is, a flat object (a printed sign or the like) on a road. The basic principle for discriminating between an object and a three-dimensional object is shown.

【0012】まず、図2は道路上の平面物100(例え
ば菱形状の標示物)を撮影する場合であり、時刻T0で
撮影し、さらに時刻T1で撮影した状況を示している。
車両が走行している場合、時刻T0と時刻T1における車
両位置、すなわち撮影位置は異なるため両時刻で得られ
た画像は当然異なる。図3には、時刻T0でCCDカメ
ラ10で得られる画像(A)及び時刻T1で得られる画
像(B)が模式的に示されている。ここで、CCDカメ
ラ10の高さとその視線方向、撮影タイミングが既知で
あり、車両の走行状態(速度と進行方向)が分かるなら
ば、時刻T0で得られた画像内の平面物100が時刻T1
ではどのように変化するかは予測可能であり、予測して
得られた画像内の平面物100の位置と実際に時刻T1
で得られた画像内の平面物100の位置は一致すること
になる。
First, FIG. 2 shows a case in which a plane object 100 (for example, a diamond-shaped sign) on a road is photographed. The photographing is performed at time T0 and then at time T1.
When the vehicle is traveling, the vehicle position at time T0 and the time T1, that is, the photographing position is different, so that the images obtained at both times are naturally different. FIG. 3 schematically shows an image (A) obtained by the CCD camera 10 at time T0 and an image (B) obtained at time T1. Here, if the height of the CCD camera 10, its line-of-sight direction, and photographing timing are known, and the running state (speed and traveling direction) of the vehicle is known, the plane object 100 in the image obtained at time T0 will be at time T1.
Then, it is possible to predict how it changes, and the position of the plane object 100 in the image obtained by prediction and the actual time T1
The position of the plane object 100 in the image obtained by the above will coincide.

【0013】一方、図4には道路上に存在する立体物2
00を時刻T0と時刻T1で撮影する場合が示されてい
る。CCDカメラ10の高さと視線方向は固定であり、
車両の走行状態は図2と同様であるとしても、被撮影物
が平面物か立体物かで画像内の単位時間当たりの移動距
離が異なるため、時刻T0で得られた画像内の物体が時
刻T1でどの位置に存在するかを平面物体の場合と同様
に予測した場合、予測して得られた位置と実際の位置と
は一致しないことになる。逆に、被撮影物が平面物体で
あると仮定して予測して得られた位置と実際に得られた
位置とが一致しない場合には、被撮影物は道路上の平面
物ではないことになる。
On the other hand, FIG. 4 shows a three-dimensional object 2 existing on the road.
A case where 00 is photographed at time T0 and time T1 is shown. The height and line of sight of the CCD camera 10 are fixed,
Even if the running state of the vehicle is the same as that of FIG. 2, the moving distance per unit time in the image differs depending on whether the object to be photographed is a flat object or a three-dimensional object. If the position at T1 is predicted in the same manner as in the case of a plane object, the position obtained by prediction does not match the actual position. Conversely, if the position obtained by assuming that the object to be photographed is a plane object does not match the position actually obtained, the object to be photographed is not a plane object on the road. Become.

【0014】このことを、図5を用いてより詳細に説明
する。図5(A)は時刻T0で得られた立体物200の
画像であり、これを平面物体として処理すべく道路を真
上から見た座標系、つまり実空間の3次元座標系(X−
Y−Z座標系)において道路面内に設定された平面座標
系(Y=一定)に変換する。図5(B)には変換して得
られた平面画像が模式的に示されている。そして、画像
を座標変換して得られた画像(平面座標)に対し、時間
(T1−T0)における車両の走行状態を用いて時刻T1
における平面座標系内の物体の位置を予測する。図5
(C)には、予測して得られた物体の位置が模式的に示
されている。図中黒四角は、物体固有の特徴部(好まし
くは角部)であり、比較の対象となる領域である。図で
は、平面座標系をX−Z系とし、黒四角の位置を(X0
´、Z0´)としている。なお、添字は時刻T0に得られ
た画像であることを意味し、ダッシュ(´)は予測画像
であることを意味している。また、図5(D)は時刻T
1にCCDカメラ10で得られた実際のカメラ画像であ
り、図5(A)に対応するものである。そして、この画
像に対して道路を真上から見た座標系に変換して平面画
像を算出する。図(E)には変換して得られた平面画像
が模式的に示されている。図中黒四角の位置を(X1、
Z1)とする。添え字は、時刻T1で得られた画像である
ことを意味する。ここで、画像内の物体が平面物100
である場合には、図5(C)内の物体位置と図5(E)
内の物体位置とは一致する、つまりX0′=X1、Z0′
=Z1となるが、物体は立体物200であるため、図5
(E)の黒四角位置と図5(C)の黒四角位置、特にそ
のZ座標は一致せず、ずれることになる。従って、X
0′とX1の値、及びZ0′とZ1の値を比較することで、
物体が道路上の平面物か立体物かを容易に識別すること
ができる。
This will be described in more detail with reference to FIG. FIG. 5A is an image of the three-dimensional object 200 obtained at the time T0. In order to process the three-dimensional object 200 as a planar object, a coordinate system viewed from directly above the road, that is, a three-dimensional coordinate system (X-
In the YZ coordinate system, the data is converted into a plane coordinate system (Y = constant) set in the road surface. FIG. 5B schematically shows a planar image obtained by the conversion. Then, the image (plane coordinates) obtained by performing coordinate conversion on the image is compared with the time T1 using the running state of the vehicle at the time (T1-T0).
Predict the position of the object in the plane coordinate system at. FIG.
(C) schematically shows the position of the object obtained by prediction. A black square in the figure is a characteristic portion (preferably a corner portion) unique to the object, and is a region to be compared. In the figure, the plane coordinate system is an XZ system, and the position of the black square is (X0
', Z0'). Note that the suffix indicates an image obtained at time T0, and the dash (') indicates a predicted image. FIG. 5D shows time T
1 shows an actual camera image obtained by the CCD camera 10, which corresponds to FIG. Then, the plane image is calculated by converting the road into a coordinate system viewed from directly above the image. FIG. 7E schematically shows a plane image obtained by the conversion. In the figure, the position of the black square is (X1,
Z1). The subscript means that the image is obtained at time T1. Here, the object in the image is a plane object 100
In the case of, the object position in FIG.
, The position of the object coincides with that of X0 '= X1, Z0'
= Z1, but since the object is a three-dimensional object 200, FIG.
The black square position in (E) and the black square position in FIG. 5C, especially the Z coordinate, do not coincide with each other and are shifted. Therefore, X
By comparing the values of 0 'and X1, and the values of Z0' and Z1,
It is possible to easily identify whether the object is a plane object or a three-dimensional object on a road.

【0015】図6には、以上述べた基本原理に従って画
像認識装置16が行う処理のフローチャートが示されて
いる。まず、画像認識装置16は、時刻T0で得られた
画像(便宜上これを画像1と称する)を画像キャプチャ
ボード12から入力し(S101)、この画像1を道路
面内の平面画像に変換する(S102)。この変換は、
具体的には、図7に示されるようにCCDカメラの撮影
面座標系をx−y系、CCDカメラ中心を原点とする実
空間の3次元空間X−Y−Z系における道路面のY座標
をY=−H(HはCCDカメラ10の道路面からの高
さ)とした場合、道路面内の平面座標(X、Z)は、
FIG. 6 shows a flowchart of a process performed by the image recognition device 16 according to the basic principle described above. First, the image recognition device 16 inputs the image obtained at time T0 (this is referred to as image 1 for convenience) from the image capture board 12 (S101), and converts this image 1 into a plane image on the road surface ( S102). This conversion is
More specifically, as shown in FIG. 7, the Y-coordinate of the road surface in the three-dimensional space XYZ system of the real space having the origin at the center of the CCD camera is shown in FIG. Is Y = −H (H is the height of the CCD camera 10 from the road surface), the plane coordinates (X, Z) in the road surface are:

【数1】 (Equation 1)

【数2】 で計算される。なお、FはCCDカメラ10の焦点距離
である。このようにして変換された平面画像、つまりカ
メラ中心を原点とする実3次元空間において道路を真上
から見た場合の画像を便宜上模様1と称する。一方、画
像認識装置16は、画像1取得時点、つまり時刻T0か
らの車両挙動を記録する(S103)。車両挙動とは、
具体的には車速及び移動方向(例えばヨーレート)を意
味する。そして、記録した挙動履歴から現在、つまり時
刻T1における車両の位置と姿勢を計算する(S10
4)。図8には、位置と姿勢の一例が示されており、時
刻T0における位置(図中の原点)から(dX、dZ)
だけ移動し、姿勢角(ヨー角)がθになったものとす
る。そして、現在時刻T1での車両の位置(dX、d
Z)と姿勢角θを用いて時刻T0の模様1から現在の時
刻T1における模様(便宜上これを模様1′と称する)
を予測する(S105)。具体的には、模様1の座標を
(X0、Z0)、模様1′の座標を(X0′、Z0′)とし
た場合、
(Equation 2) Is calculated. F is the focal length of the CCD camera 10. The plane image converted in this manner, that is, an image when the road is viewed from directly above in a real three-dimensional space having the origin at the camera center is referred to as a pattern 1 for convenience. On the other hand, the image recognition device 16 records the vehicle behavior from the time when the image 1 was obtained, that is, from time T0 (S103). Vehicle behavior is
Specifically, it means a vehicle speed and a moving direction (for example, a yaw rate). Then, the current position, that is, the position and orientation of the vehicle at time T1 is calculated from the recorded behavior history (S10).
4). FIG. 8 shows an example of the position and the posture, from the position at time T0 (the origin in the figure) to (dX, dZ).
And the attitude angle (yaw angle) becomes θ. Then, the position of the vehicle at the current time T1 (dX, d
Z) and the pattern at time T0 to the pattern at the current time T1 using the attitude angle θ (this pattern is referred to as pattern 1 'for convenience).
Is predicted (S105). Specifically, when the coordinates of pattern 1 are (X0, Z0) and the coordinates of pattern 1 'are (X0', Z0 '),

【数3】 を用いて変換する。得られた平面画像は画像認識装置1
6内のRAMに記憶される。この処理が終了した後、現
在時刻T1における画像(便宜上画像2と称する)を画
像キャプチャボード12から入力し(S106)、S1
02と同様に平面画像に変換する(S107)。平面画
像を便宜上模様2と称する。この模様2は、現在時刻T
1において実際に得られた平面画像であり、模様1′に
対応するものである。そこで、模様1′と模様2とを比
較し(S108)、その形状が一致するか否かを判定す
る(S109)。なお、実際の比較処理は、図5の説明
でも述べたように模様1′及び模様2の対応する特徴点
Pの座標同士を比較すればよい。そして、形状が一致す
る、つまり両模様の対応する特徴点Pの座標が一致する
場合には、画像内の物体は道路上の平面物であり障害に
ならないと判定し(S110)、一致しない場合には平
面物ではなく立体物であるとして障害になり得ると判定
する(S111)。なお、一致しているか否かは、具体
的には両特徴点Pの座標が所定量(例えば2画素)以上
ずれていないか否かで判定すればよい。
(Equation 3) Is converted using. The obtained planar image is stored in the image recognition device 1
6 is stored in the RAM. After this processing is completed, the image at the current time T1 (referred to as image 2 for convenience) is input from the image capture board 12 (S106), and S1
The image is converted into a planar image in the same manner as in step S02 (S107). The plane image is referred to as pattern 2 for convenience. This pattern 2 has a current time T
This is a plane image actually obtained in 1 and corresponds to the pattern 1 '. Then, the pattern 1 'and the pattern 2 are compared (S108), and it is determined whether or not the shapes match (S109). In the actual comparison process, the coordinates of the corresponding feature points P of the pattern 1 'and the pattern 2 may be compared as described in the description of FIG. Then, when the shapes match, that is, when the coordinates of the corresponding feature points P of both patterns match, it is determined that the object in the image is a flat object on the road and does not become an obstacle (S110), and if not, It is determined that the object is not a plane object but a three-dimensional object and can be an obstacle (S111). It should be noted that whether or not they coincide with each other may be determined based on whether or not the coordinates of the two feature points P are shifted by a predetermined amount (for example, two pixels) or more.

【0016】このように、本実施形態では、時刻T0に
おいて取得したカメラ画像から車両の走行状態に基づい
て時刻T1における平面画像を予測し、この予測平面画
像と実際に時刻T1で得られた平面画像とを比較するこ
とにより、画像内の物体が平面物であるか立体物である
かを容易に識別することができる。また、両平面画像を
比較する際に、平面画像の特徴点Pの座標が一致するか
否かを判定すれば良いので、処理の迅速化を図ることも
できる。なお、特徴点は1つである必要はなく、必要に
応じて複数の特徴点を抽出し、これら複数の特徴点に対
応関係を総合的に判断して立体物か平面物かを判定して
も良い。すなわち、立体物であっても道路に接する点を
特徴点として抽出してしまうと予測平面画像と実際の画
像との間に相違が生じないことになるので、特徴点(特
に物体の角部)を複数抽出し、これら複数の特徴点のう
ち少なくとも一つが両画像でずれている場合には、立体
物と判定するのが好適である。もちろん、画像認識装置
の処理速度に余裕がある場合には、予測平面画像と実際
の平面画像とのパターンマッチングを行って両形状が一
致するか否かを判定してもよい。
As described above, in the present embodiment, the plane image at time T1 is predicted from the camera image acquired at time T0 based on the running state of the vehicle, and the predicted plane image and the plane image actually obtained at time T1 are predicted. By comparing the object with the image, it is possible to easily identify whether the object in the image is a planar object or a three-dimensional object. Further, when comparing the two plane images, it is only necessary to determine whether or not the coordinates of the characteristic points P of the two-dimensional images match, so that the processing can be speeded up. Note that the number of feature points does not need to be one, and a plurality of feature points are extracted as necessary, and the correspondence between the plurality of feature points is comprehensively determined to determine whether the object is a three-dimensional object or a planar object. Is also good. In other words, if a point in contact with the road is extracted as a feature point even for a three-dimensional object, there is no difference between the predicted plane image and the actual image. Is extracted, and when at least one of the plurality of feature points is displaced between the two images, it is preferable to determine that the object is a three-dimensional object. Of course, if there is room in the processing speed of the image recognition device, pattern matching between the predicted plane image and the actual plane image may be performed to determine whether the two shapes match.

【0017】また、本実施形態において、時刻T0にお
ける平面画像から車両の走行状態に基づいて時刻T1に
おける予測平面画像を算出するステップを省略し、単に
時刻T0における平面画像の特徴点と実際に得られた時
刻T1における平面画像の特徴点が(3)式の関係を満
たすか否かを判定しても良い。もちろん、このような処
理においても(3)式を用いた時点で実質的に予測平面
画像を算出していることになるので、本実施形態の処理
と等価であることは言うまでもない。
In this embodiment, the step of calculating the predicted plane image at the time T1 from the plane image at the time T0 based on the running state of the vehicle is omitted, and only the characteristic points of the plane image at the time T0 are actually obtained. It may be determined whether or not the feature point of the planar image at the time T1 satisfies the relationship of the expression (3). Of course, even in such a process, the predicted plane image is substantially calculated at the time of using the expression (3), and it is needless to say that the process is equivalent to the process of the present embodiment.

【0018】<第2実施形態>上記第1実施形態では、
画像内の物体が平面物か立体物かを識別したが、本実施
形態では、さらに立体物の高さも検出する場合を示す。
本実施形態の構成は図1と同様であり、相違点は画像認
識装置16内のCPUがROMに格納された高さ算出プ
ログラムを実行することで物体の道路面からの高さを算
出する点である。 図9には、本実施形態の処理フロー
チャートを示す。S201〜S209までの処理は、図
6に示すS101〜S109までの処理と同様であるの
で説明を省略する。そして、模様1´と模様2とを比較
した結果、形状が一致しないと判定した場合には(S2
09でNO)、さらに模様1´と模様2の対応点を探索
する(S210)。この対応点は、形状の一致を判定し
た場合の特徴点Pを用いればよく、必要な場合には他の
対応点(ずれが検出された特徴点)を探索しても良い。
そして、模様1´の特徴点Pの座標を(X0´、Z0
´)、模様2の特徴点Pの座標を(X1、Z1)とした場
合、Z軸(図7参照)方向のずれ量に基づいて物体の高
さを算出する(S211)。
<Second Embodiment> In the first embodiment,
Although the object in the image is identified as a flat object or a three-dimensional object, this embodiment shows a case where the height of the three-dimensional object is also detected.
The configuration of this embodiment is the same as that of FIG. 1 except that the CPU in the image recognition device 16 calculates the height of the object from the road surface by executing the height calculation program stored in the ROM. It is. FIG. 9 shows a processing flowchart of the present embodiment. The processing from S201 to S209 is the same as the processing from S101 to S109 shown in FIG. Then, as a result of comparing the pattern 1 'and the pattern 2, if it is determined that the shapes do not match (S2
(NO at 09), and a search is made for a corresponding point between pattern 1 'and pattern 2 (S210). As the corresponding point, the feature point P when the shape coincidence is determined may be used, and if necessary, another corresponding point (a feature point at which a deviation has been detected) may be searched.
Then, the coordinates of the characteristic point P of the pattern 1 'are represented by (X0', Z0
'), Assuming that the coordinates of the feature point P of the pattern 2 are (X1, Z1), the height of the object is calculated based on the amount of displacement in the Z-axis (see FIG. 7) (S211).

【0019】図10には、物体の高さを算出する基本原
理が示されている。時刻T0において路面からの高さHc
arの車載CCDカメラ10で物体を撮影し、物体の特徴
点Pの見かけの距離がL1(図中Q点)であったとす
る。次に、時刻T1までに車両がLmoveだけ移動し、特
徴点Pまでの見かけの距離がL2(図中R点)になった
とする。このとき、時刻T1において物体が平面物(道
路のプリント等)であったとした場合の視線は図中点線
で示されるように点Qであり、このQ点は、時刻T0に
おいて得られた物体が平面物であったとした場合に時刻
T1で得られるであろう点に相当する。従って、Q点と
R点のずれは、模様1´の特徴点PのZ座標Z0´と模
様2の特徴点PのZ1とのずれΔZ(=Z1−Z0´)に
等しく、物体の高さHは、図より
FIG. 10 shows the basic principle of calculating the height of an object. Height Hc from the road surface at time T0
Assume that an object is photographed by the in-vehicle CCD camera 10 at ar, and the apparent distance of the feature point P of the object is L1 (point Q in the figure). Next, it is assumed that the vehicle has moved by Lmove by time T1, and the apparent distance to the feature point P has become L2 (point R in the figure). At this time, the line of sight when the object is a flat object (a road print or the like) at the time T1 is a point Q as indicated by a dotted line in the figure. This corresponds to a point that would be obtained at time T1 if the object was a plane object. Therefore, the deviation between the Q point and the R point is equal to the deviation ΔZ (= Z1−Z0 ′) between the Z coordinate Z0 ′ of the characteristic point P of the pattern 1 ′ and Z1 of the characteristic point P of the pattern 2, and the height of the object H is from the figure

【数4】 で求められる。但し、(Equation 4) Is required. However,

【数5】 であり、ΔZは通常は負となる(車両から見てR点はQ
点より手前にくる)。このように、時刻T0から算出さ
れた予測平面画像である模様1´と時刻T1で実際に得
られた平面画像である模様2とのずれ量ΔZから物体の
高さを算出することができる(Lmoveは車両挙動測定装
置14からの車速データに基づき算出できる)。
(Equation 5) ΔZ is usually negative (the R point is Q when viewed from the vehicle)
Before the point). As described above, the height of the object can be calculated from the shift amount ΔZ between the pattern 1 ′ that is the predicted plane image calculated from the time T0 and the pattern 2 that is the plane image actually obtained at the time T1 ( Lmove can be calculated based on the vehicle speed data from the vehicle behavior measuring device 14).

【0020】S211で物体の高さを算出した後、得ら
れた高さHが正であるか否かを判定する(S212)。
この判定は、物体が実像(ΔZが負)か虚像(ΔZが
正)かを判定するためのものである。
After calculating the height of the object in S211, it is determined whether or not the obtained height H is positive (S212).
This determination is for determining whether the object is a real image (ΔZ is negative) or a virtual image (ΔZ is positive).

【0021】図11には、ΔZが正となる場合、つまり
道路上の水たまり等に物体が映っている場合の原理図が
示されている。道路上の水たまりには実際の物体(図で
は例として木を示している)の虚像が見えており、時刻
T0でこの虚像の特徴点Pまでの見かけの距離がL1(図
中Q点)であったとすると、時刻T1には見かけの距離
がL2(図中R点)となり、点Rは点Qよりも車両から
みて遠ざかる位置になる。このとき、ΔZ=Z1−Z0´
は正となり、(4)式において正味のHも負となる。そ
こで、得られたHが負である場合には、画像内の物体は
実像ではなく虚像であると判定でき(S213)、Hが
正である場合には実像で障害物となり得る立体物である
と判定できる(S214)。なお、虚像の場合には、形
状が一致する場合(平面物)と同様に非障害物と判定で
き(S215)、警報処理等を実行しない。
FIG. 11 is a principle diagram when ΔZ is positive, that is, when an object is reflected in a puddle on a road or the like. In the puddle on the road, a virtual image of a real object (a tree is shown as an example in the figure) is visible, and at time T0, the apparent distance to the feature point P of this virtual image is L1 (point Q in the figure). If there is, at time T1, the apparent distance becomes L2 (point R in the figure), and point R is located farther from the vehicle than point Q. At this time, ΔZ = Z1−Z0 ′
Is positive, and the net H in equation (4) is also negative. Therefore, if the obtained H is negative, the object in the image can be determined to be a virtual image instead of a real image (S213), and if H is positive, the object is a three-dimensional object that can be an obstacle in the real image. Can be determined (S214). In the case of a virtual image, it can be determined as a non-obstacle as in the case where the shapes match (a planar object) (S215), and no alarm processing or the like is performed.

【0022】このように、本実施形態では、単に平面物
か立体物かを識別するのではなく、立体物の場合にはそ
の高さも算出することができるので、運転者にその高さ
を報知する、あるいは高さに応じて走行制御を変化させ
る(例えば高さが0.5mより小さい場合にはそのまま
通過する)等、より細かい処理が可能となる。
As described above, in the present embodiment, the height of a three-dimensional object can be calculated, rather than simply discriminating between a planar object and a three-dimensional object, so that the driver is notified of the height. More detailed processing is possible, for example, by changing the traveling control according to the height (for example, when the height is smaller than 0.5 m, the vehicle is passed as it is).

【0023】なお、本実施形態のように、予測平面画像
と実際の平面画像との相違量に基づいて物体の高さを算
出する場合、CCDカメラ10のサンプリングタイミン
グが重要となる。その理由は、例えば障害物となり得る
高さ(例えば0.5m以上)の物体を確実に検出するた
めに、ずれ量を検知できるだけのサンプリング間隔を車
速によらず常に確保する必要があるからである(ずれ量
を確実に検出するという観点では上記の第1実施形態も
同様である)。
When the height of the object is calculated based on the difference between the predicted plane image and the actual plane image as in this embodiment, the sampling timing of the CCD camera 10 is important. The reason is that, for example, in order to reliably detect an object having a height (for example, 0.5 m or more) that can be an obstacle, it is necessary to always ensure a sampling interval that can detect a deviation amount regardless of the vehicle speed. (The same is true for the above-described first embodiment from the viewpoint of reliably detecting the shift amount.)

【0024】図12には、CCDカメラ10の画素数を
512×512画素、焦点距離F=7.5mm、障害物
発見距離(時刻T0における車両と障害物との距離)=
30m、CCDカメラ高さHcar=1.4m、「ずれ」
ありと判定する最小の相違量を2画素とした場合の、障
害物高さH(cm)とサンプリング間隔における車両の
移動距離Lmove(m)との関係を示したものである。こ
の図から、高さH=0.5m以上のものを障害物として
検知しようとする場合、車両が7.2m移動する間に比
較すべき2画像をサンプリングすれば良いことがわか
る。
FIG. 12 shows that the number of pixels of the CCD camera 10 is 512 × 512 pixels, the focal length F = 7.5 mm, and the obstacle finding distance (the distance between the vehicle and the obstacle at time T0) =
30m, CCD camera height Hcar = 1.4m, "shift"
The relationship between the height H (cm) of the obstacle and the moving distance Lmove (m) of the vehicle at the sampling interval is shown when the minimum amount of difference to be determined is two pixels. From this figure, it can be seen that when an object having a height of H = 0.5 m or more is to be detected as an obstacle, it is sufficient to sample two images to be compared while the vehicle moves 7.2 m.

【0025】図13には、車両が7.2m移動する間に
CCDカメラ10で2つの画像を撮影するために必要な
サンプリング時間(sec)と車速(km/h)との関
係が示されている。この図から、例えば時速40km/
hで走行する場合には、CCDカメラ10のサンプリン
グ時間は約650msecとすれば、高さ0.5m以上
の障害物を確実に検出することができる。
FIG. 13 shows the relationship between the sampling time (sec) required to capture two images with the CCD camera 10 while the vehicle moves 7.2 m and the vehicle speed (km / h). I have. From this figure, for example, 40 km / h
When the vehicle travels at h, if the sampling time of the CCD camera 10 is approximately 650 msec, an obstacle having a height of 0.5 m or more can be reliably detected.

【0026】[0026]

【発明の効果】以上説明したように、本発明によれば、
道路上の物体が立体物か平面物か、すなわち車両にとっ
て障害物となり得るか否かを迅速に識別することができ
る。
As described above, according to the present invention,
It is possible to quickly identify whether the object on the road is a three-dimensional object or a two-dimensional object, that is, whether the object can be an obstacle for the vehicle.

【0027】また、本発明によれば、道路上の物体が立
体物の場合にはその高さを検出することができ、さらに
画像内の物体が実像か虚像かを識別することができるの
で、画像処理の結果を用いてより適当な走行制御を実行
することができる。
According to the present invention, when the object on the road is a three-dimensional object, the height of the object can be detected, and furthermore, the object in the image can be identified as a real image or a virtual image. More appropriate traveling control can be executed using the result of the image processing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施形態の構成図である。FIG. 1 is a configuration diagram of an embodiment of the present invention.

【図2】 平面物100と車両との位置関係を示す平面
図である。
FIG. 2 is a plan view showing a positional relationship between a plane object 100 and a vehicle.

【図3】 時刻T0とT1で得られる平面物100の画像
説明図である。
FIG. 3 is an explanatory diagram of an image of a plane object 100 obtained at times T0 and T1.

【図4】 時刻T0とT1で得られる立体物200の画像
説明図である。
FIG. 4 is an explanatory diagram of an image of a three-dimensional object 200 obtained at times T0 and T1.

【図5】 実施形態の処理の基本原理説明図である。FIG. 5 is an explanatory diagram of a basic principle of processing according to the embodiment;

【図6】 実施形態の処理フローチャートである。FIG. 6 is a processing flowchart of the embodiment.

【図7】 座標変換に用いられる座標系説明図である。FIG. 7 is an explanatory diagram of a coordinate system used for coordinate conversion.

【図8】 時刻T0からT1における車両の移動を示す
説明図である。
FIG. 8 is an explanatory diagram showing the movement of the vehicle from time T0 to T1.

【図9】 他の実施形態の処理フローチャートである。FIG. 9 is a processing flowchart of another embodiment.

【図10】 実像の場合の車両と像位置の関係を示す説
明図である。
FIG. 10 is an explanatory diagram showing a relationship between a vehicle and an image position in the case of a real image.

【図11】 虚像の場合の車両と像位置の関係を示す説
明図である。
FIG. 11 is an explanatory diagram showing a relationship between a vehicle and an image position in the case of a virtual image.

【図12】 障害物高さと移動距離の関係を示すグラフ
図である。
FIG. 12 is a graph showing a relationship between an obstacle height and a moving distance.

【図13】 車速とサンプリング時間の関係を示すグラ
フ図である。
FIG. 13 is a graph showing a relationship between a vehicle speed and a sampling time.

【符号の説明】[Explanation of symbols]

10 CCDカメラ、12 画像キャプチャボード、1
4 車両挙動測定装置、16 画像認識装置。
10 CCD camera, 12 image capture board, 1
4 Vehicle behavior measurement device, 16 image recognition device.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 車両前方を撮影する撮像手段と、 車両の走行状態を検出する検出手段と、 前記撮像手段で得られた画像を道路面内の平面画像に変
換する変換手段と、 ある時刻T0の平面画像と次の時刻T1の平面画像を取得
し、時刻T0の平面画像と時間T1−T0における前記走
行状態に基づいて算出される次の時刻T1における予測
平面画像と、実際に時刻T1で得られた平面画像とを比
較することにより画像内の物体が道路上の平面物体か否
かを識別する処理手段と、 を有することを特徴とする車両用画像処理装置。
1. An image capturing means for capturing an image in front of a vehicle, a detecting means for detecting a running state of the vehicle, a converting means for converting an image obtained by the image capturing means into a plane image on a road surface, and a time T0. A plane image at time T1 and a plane image at the next time T1 are obtained, and a plane image at time T0 and a predicted plane image at the next time T1 calculated based on the traveling state at time T1−T0 are actually obtained at time T1. Processing means for comparing the obtained plane image with the obtained plane image to determine whether the object in the image is a plane object on a road or not.
【請求項2】 前記処理手段で画像内の物体が道路上の
平面物体でないと識別された場合に、前記予測平面画像
と時刻T1で得られた平面画像との相違量に基づき前記
物体の道路面からの高さを算出する演算手段を有するこ
とを特徴とする請求項1記載の車両用画像処理装置。
2. When the processing means determines that the object in the image is not a plane object on the road, the road of the object is determined based on the difference between the predicted plane image and the plane image obtained at time T1. 2. The image processing apparatus for a vehicle according to claim 1, further comprising a calculating unit that calculates a height from a plane.
【請求項3】 前記演算手段は、前記高さが負の場合に
は前記物体は道路上の虚像であると判定することを特徴
とする請求項2記載の車両用画像処理装置。
3. The vehicular image processing apparatus according to claim 2, wherein said calculating means determines that said object is a virtual image on a road when said height is negative.
JP9021746A 1997-02-04 1997-02-04 Vehicle image processor Pending JPH10222679A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9021746A JPH10222679A (en) 1997-02-04 1997-02-04 Vehicle image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9021746A JPH10222679A (en) 1997-02-04 1997-02-04 Vehicle image processor

Publications (1)

Publication Number Publication Date
JPH10222679A true JPH10222679A (en) 1998-08-21

Family

ID=12063650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9021746A Pending JPH10222679A (en) 1997-02-04 1997-02-04 Vehicle image processor

Country Status (1)

Country Link
JP (1) JPH10222679A (en)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000161915A (en) * 1998-11-26 2000-06-16 Matsushita Electric Ind Co Ltd On-vehicle single-camera stereoscopic vision system
JP2001116527A (en) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd Method and device for detecting solid body
JP2001266160A (en) * 2000-03-22 2001-09-28 Toyota Motor Corp Method and device for recognizing periphery
JP2002034035A (en) * 2000-07-14 2002-01-31 Clarion Co Ltd Image converting method and on-vehicle circumference monitoring device
JP2002352249A (en) * 2001-05-23 2002-12-06 Toshiba Corp Image processor and its method
JP2006160193A (en) * 2004-12-10 2006-06-22 Alpine Electronics Inc Vehicular drive supporting device
JP2007003462A (en) * 2005-06-27 2007-01-11 Toyota Motor Corp Sight line recognition device and sight line recognition method
JP2007267343A (en) * 2006-03-01 2007-10-11 Nissan Motor Co Ltd Providing apparatus for peripheral image of vehicle, and method therefor
JP2007316790A (en) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd Pedestrian detection device and pedestrian detection method
JP2008048094A (en) * 2006-08-14 2008-02-28 Nissan Motor Co Ltd Video display device for vehicle, and display method of video images in vicinity of the vehicle
JP2008099136A (en) * 2006-10-13 2008-04-24 Auto Network Gijutsu Kenkyusho:Kk Solid detection apparatus
JP2008287692A (en) * 2007-04-16 2008-11-27 Honda Motor Co Ltd Obstacle recognition device
JP2008305013A (en) * 2007-06-05 2008-12-18 Digital Magic:Kk Object classification device, parking space detection device, object classification method, and program
WO2009005025A1 (en) * 2007-07-03 2009-01-08 Konica Minolta Holdings, Inc. Moving object detection device
JP2009025932A (en) * 2007-07-18 2009-02-05 Daihatsu Motor Co Ltd Obstacle recognition device
JP2009077022A (en) * 2007-09-19 2009-04-09 Sanyo Electric Co Ltd Driving support system and vehicle
JP2009093332A (en) * 2007-10-05 2009-04-30 Nissan Motor Co Ltd Vehicle peripheral image processor and vehicle peripheral circumstance presentation method
US7551067B2 (en) 2006-03-02 2009-06-23 Hitachi, Ltd. Obstacle detection system
JP2011109286A (en) * 2009-11-16 2011-06-02 Alpine Electronics Inc Vehicle periphery-monitoring device and vehicle periphery-monitoring method
US8102421B2 (en) 2008-04-18 2012-01-24 Denso Corporation Image processing device for vehicle, image processing method of detecting three-dimensional object, and image processing program
JP2012512446A (en) * 2008-12-15 2012-05-31 ニューソフト コーポレーション Method and apparatus for identifying obstacles in an image
EP2492871A1 (en) 2011-02-24 2012-08-29 Alpine Electronics, Inc. 3D object detecting apparatus and 3D object detecting method
US8606480B2 (en) 2011-12-13 2013-12-10 Alpine Electronics, Inc. Vehicle travel amount estimation device and obstacle detection device
JP2014164637A (en) * 2013-02-27 2014-09-08 Alpine Electronics Inc Solid object detection device, drive assist device, and solid object detection method
JP2017162125A (en) * 2016-03-08 2017-09-14 富士通株式会社 Image analysis program, image analyzer and image analysis method
WO2018211930A1 (en) * 2017-05-17 2018-11-22 株式会社デンソー Object detection device, object detection method, and computer-readable recording medium
WO2020111032A1 (en) * 2018-11-28 2020-06-04 株式会社日立製作所 Image processing device and method for determination of surrounding condition of moving body

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000161915A (en) * 1998-11-26 2000-06-16 Matsushita Electric Ind Co Ltd On-vehicle single-camera stereoscopic vision system
JP2001116527A (en) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd Method and device for detecting solid body
JP2001266160A (en) * 2000-03-22 2001-09-28 Toyota Motor Corp Method and device for recognizing periphery
US6535114B1 (en) 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
JP2002034035A (en) * 2000-07-14 2002-01-31 Clarion Co Ltd Image converting method and on-vehicle circumference monitoring device
JP2002352249A (en) * 2001-05-23 2002-12-06 Toshiba Corp Image processor and its method
JP2006160193A (en) * 2004-12-10 2006-06-22 Alpine Electronics Inc Vehicular drive supporting device
JP2007003462A (en) * 2005-06-27 2007-01-11 Toyota Motor Corp Sight line recognition device and sight line recognition method
JP4742695B2 (en) * 2005-06-27 2011-08-10 トヨタ自動車株式会社 Gaze recognition apparatus and gaze recognition method
JP2007267343A (en) * 2006-03-01 2007-10-11 Nissan Motor Co Ltd Providing apparatus for peripheral image of vehicle, and method therefor
US7551067B2 (en) 2006-03-02 2009-06-23 Hitachi, Ltd. Obstacle detection system
JP2007316790A (en) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd Pedestrian detection device and pedestrian detection method
JP2008048094A (en) * 2006-08-14 2008-02-28 Nissan Motor Co Ltd Video display device for vehicle, and display method of video images in vicinity of the vehicle
JP2008099136A (en) * 2006-10-13 2008-04-24 Auto Network Gijutsu Kenkyusho:Kk Solid detection apparatus
JP2008287692A (en) * 2007-04-16 2008-11-27 Honda Motor Co Ltd Obstacle recognition device
JP2008305013A (en) * 2007-06-05 2008-12-18 Digital Magic:Kk Object classification device, parking space detection device, object classification method, and program
WO2009005025A1 (en) * 2007-07-03 2009-01-08 Konica Minolta Holdings, Inc. Moving object detection device
JP2009025932A (en) * 2007-07-18 2009-02-05 Daihatsu Motor Co Ltd Obstacle recognition device
JP2009077022A (en) * 2007-09-19 2009-04-09 Sanyo Electric Co Ltd Driving support system and vehicle
JP2009093332A (en) * 2007-10-05 2009-04-30 Nissan Motor Co Ltd Vehicle peripheral image processor and vehicle peripheral circumstance presentation method
US8102421B2 (en) 2008-04-18 2012-01-24 Denso Corporation Image processing device for vehicle, image processing method of detecting three-dimensional object, and image processing program
US8406474B2 (en) 2008-12-15 2013-03-26 Neusoft Corporation Method and apparatus for identifying obstacle in image
JP2012512446A (en) * 2008-12-15 2012-05-31 ニューソフト コーポレーション Method and apparatus for identifying obstacles in an image
JP2011109286A (en) * 2009-11-16 2011-06-02 Alpine Electronics Inc Vehicle periphery-monitoring device and vehicle periphery-monitoring method
US8594378B2 (en) 2011-02-24 2013-11-26 Alpine Electronics, Inc. 3D object detecting apparatus and 3D object detecting method
EP2492871A1 (en) 2011-02-24 2012-08-29 Alpine Electronics, Inc. 3D object detecting apparatus and 3D object detecting method
US8606480B2 (en) 2011-12-13 2013-12-10 Alpine Electronics, Inc. Vehicle travel amount estimation device and obstacle detection device
JP2014164637A (en) * 2013-02-27 2014-09-08 Alpine Electronics Inc Solid object detection device, drive assist device, and solid object detection method
JP2017162125A (en) * 2016-03-08 2017-09-14 富士通株式会社 Image analysis program, image analyzer and image analysis method
WO2018211930A1 (en) * 2017-05-17 2018-11-22 株式会社デンソー Object detection device, object detection method, and computer-readable recording medium
JP2018195050A (en) * 2017-05-17 2018-12-06 株式会社デンソーアイティーラボラトリ Object detecting device, object detecting method, and program
WO2020111032A1 (en) * 2018-11-28 2020-06-04 株式会社日立製作所 Image processing device and method for determination of surrounding condition of moving body
JP2020087133A (en) * 2018-11-28 2020-06-04 株式会社日立製作所 Surrounding conditions determination image processing device and method of mobile body

Similar Documents

Publication Publication Date Title
JPH10222679A (en) Vehicle image processor
US11320833B2 (en) Data processing method, apparatus and terminal
JP4118452B2 (en) Object recognition device
JP4173901B2 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
JP2001004368A (en) Object recognizing apparatus
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
US7974445B2 (en) Vehicle periphery monitoring device, vehicle, and vehicle periphery monitoring program
JP2002352225A (en) Obstacle detector and its method
JPH05265547A (en) On-vehicle outside monitoring device
CN102016954B (en) Vehicle periphery monitoring device
JPH08329393A (en) Preceding vehicle detector
JP2006160116A (en) Vehicle motion estimation device and moving body detection device
CN111497741B (en) Collision early warning method and device
CN113435237A (en) Object state recognition device, recognition method, recognition program, and control device
JP3936313B2 (en) Image recognition device
JPH07244717A (en) Travel environment recognition device for vehicle
JP2940366B2 (en) Object tracking recognition device
JP3304905B2 (en) Object tracking recognition device
JP3586938B2 (en) In-vehicle distance measuring device
JPH1011585A (en) Object detection device
JP4100823B2 (en) Object judgment device
JP2017211765A (en) Object recognition device
JPH0719893A (en) Curvature of-road detector
JP2004038760A (en) Traveling lane recognition device for vehicle