JP3503543B2 - Road structure recognition method, distance measurement method and distance measurement device - Google Patents

Road structure recognition method, distance measurement method and distance measurement device

Info

Publication number
JP3503543B2
JP3503543B2 JP29068599A JP29068599A JP3503543B2 JP 3503543 B2 JP3503543 B2 JP 3503543B2 JP 29068599 A JP29068599 A JP 29068599A JP 29068599 A JP29068599 A JP 29068599A JP 3503543 B2 JP3503543 B2 JP 3503543B2
Authority
JP
Japan
Prior art keywords
road
current time
camera
real space
road structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP29068599A
Other languages
Japanese (ja)
Other versions
JP2001108434A (en
Inventor
知宣 成岡
美保子 國井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP29068599A priority Critical patent/JP3503543B2/en
Publication of JP2001108434A publication Critical patent/JP2001108434A/en
Application granted granted Critical
Publication of JP3503543B2 publication Critical patent/JP3503543B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像中に存在する
物体までの距離を算出するための距離測定技術に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance measuring technique for calculating a distance to an object existing in an image.

【0002】[0002]

【従来の技術】従来、距離を測定する技術として、レー
ザーレーダーを用いるものや、2台の可視カメラを用い
るステレオ法によるものがある。
2. Description of the Related Art Conventionally, as a technique for measuring a distance, there are a technique using a laser radar and a technique using a stereo method using two visible cameras.

【0003】また、1台の可視カメラのみを用いる方式
として、特開平11−44533号公報「先行車両検出
装置」に示されるものがある。
As a system using only one visible camera, there is a system disclosed in Japanese Patent Application Laid-Open No. 11-44533, "Preceding Vehicle Detection Device".

【0004】図10に従来方式の説明図を示す。図10
において、91は撮像面、92はレンズを表す。先行車
両推定点の画像中央からのy座標のが素数をdy2、画
像入力部のCCDカメラのレンズ92の焦点距離をf、
撮像面91の画素数をIY、画面サイズをDHとすると
き、撮像面91上の先行車両推定点とレンズ92の中心
点を結ぶ直線と光軸のなす角度dθ2は、次式で表され
る。
FIG. 10 shows an explanatory view of the conventional method. Figure 10
In the figure, reference numeral 91 represents an image pickup surface, and 92 represents a lens. The prime number of the y coordinate from the center of the image of the preceding vehicle estimated point is dy2, the focal length of the lens 92 of the CCD camera of the image input unit is f,
When the number of pixels of the image pickup surface 91 is IY and the screen size is DH, the angle dθ2 formed by the optical axis and the straight line connecting the estimated point of the preceding vehicle on the image pickup surface 91 and the center point of the lens 92 is expressed by the following equation. .

【0005】 dθ2=atan(DH/IY・dy2/f) このとき、先行車両推定点までの実空間での距離をL2
とし、レンズ92の光軸方向と水平線のなす上下方向の
角度をθ1、CCDカメラの取り付け高さをHとする
と、距離L2は次式で表される。
Dθ2 = atan (DH / IY · dy2 / f) At this time, the distance in real space to the preceding vehicle estimation point is L2.
When the angle between the optical axis of the lens 92 and the horizontal line in the vertical direction is θ1, and the mounting height of the CCD camera is H, the distance L2 is expressed by the following equation.

【0006】L2=H/tan(θ1−dθ2) 上式で得られた距離L2を車間距離と見なすものであ
る。
L2 = H / tan (θ1-dθ2) The distance L2 obtained by the above equation is regarded as the inter-vehicle distance.

【0007】[0007]

【発明が解決しようとする課題】このような従来の技術
においては、距離を測定するためにレーザーレーダーや
2台の可視カメラを必要とした。また、1台の可視カメ
ラから距離を測定するには、カメラが固定されている場
合、あるいは固定されていない場合でもカメラから対象
物体までの道路が水平面である場合に限られてしまう。
In such a conventional technique, a laser radar and two visible cameras are required to measure the distance. Further, the distance measurement from one visible camera is limited to the case where the camera is fixed or the road from the camera to the target object is a horizontal plane even when the camera is not fixed.

【0008】本発明は、カメラ自身が動いている場合、
かつ道路面が水平でない場合においても、可視カメラ1
台のみを用いて距離を正確に測定することを目的とす
る。
In the present invention, when the camera itself is moving,
And even when the road surface is not horizontal, the visible camera 1
The purpose is to measure the distance accurately using only the table.

【0009】[0009]

【課題を解決するための手段】この課題を解決するため
に本発明は、カメラより入力した画像の中から道路上に
存在する物体を検出する物体検出手段と、同時にその道
路面の構造を認識する道路構造認識手段と、検出した物
体の画像中における位置と道路面構造とを用いてカメラ
から物体までの実空間における距離を算出する距離算出
手段とを備え、距離を測定するように構成したものであ
る。
In order to solve this problem, the present invention is to detect an object existing on a road from an image input from a camera, and at the same time recognize the structure of the road surface. And a distance calculation means for calculating the distance in the real space from the camera to the object using the position of the detected object in the image and the road surface structure, and are configured to measure the distance. It is a thing.

【0010】これにより、カメラ自身が動いている場
合、かつ道路面が水平でない場合においても、可視カメ
ラ1台のみの画像から距離を正確に算出可能な距離測定
装置が得られる。
As a result, even when the camera itself is moving and the road surface is not horizontal, it is possible to obtain a distance measuring device capable of accurately calculating the distance from the image of only one visible camera.

【0011】[0011]

【発明の実施の形態】本発明の請求項1に記載の発明
は、走行車両に設置されたカメラに十分近い位置では道
路は水平であることを仮定し、この仮定の基に現時刻の
入力画像のカメラに十分近い範囲の道路エッジの位置
実空間の前記道路エッジの位置を求め、更に、前記実
空間の前記道路エッジの位置から現時刻の道路構造を算
出し、前時刻から現時刻までの前記走行車両の実空間の
移動量を用いて、前記前時刻までに求めた前記道路構造
と前記現時刻の道路構造とを接続し、前記現時刻までの
道路構造を算出する道路構造認識方法とするものであ
り、カメラ自身が動いている場合、かつ道路面が水平で
ない場合においても、可視カメラ1台のみの画像から道
路構造を認識することができるという作用を有する。
BEST MODE FOR CARRYING OUT THE INVENTION The invention according to claim 1 of the present invention is to provide a road at a position sufficiently close to a camera installed in a traveling vehicle.
It is assumed that the road is horizontal, and whether the road edge position is sufficiently close to the camera of the input image at the current time based on this assumption .
Obtain the position of the road edge Minoru Luo space, further, the calculated road construction at the present time from the position of the road edge in the real space, the amount of movement of the real space of the traveling vehicle from the previous time to the current time Using the road structure obtained by the previous time and the road structure at the current time, the road structure recognition method for calculating the road structure up to the current time is used, and the camera itself moves. Even when the road surface is not horizontal, the road structure can be recognized from the image of only one visible camera.

【0012】請求項2に記載の発明は、走行車両の実空
間の移動量は、前時刻の入力画像の座標軸から現時刻の
入力画像の座標軸への平行移動量及び回転角度である請
求項1記載の道路構造認識方法とするもので、カメラ自
身が動いている場合、かつ道路面が水平でない場合にお
いても、現時刻の道路構造と前時刻までの道路構造とを
正確に接続することができるという作用を有する。
The invention according to claim 2 is the real space of a traveling vehicle.
The amount of movement between the current time and the coordinate axis of the input image at the previous time
The amount of translation and the rotation angle of the input image to the coordinate axes.
The road structure recognition method according to claim 1 , wherein even when the camera itself is moving and the road surface is not horizontal, the road structure at the current time and the road structure up to the previous time are
It has the effect that it can be connected accurately .

【0013】請求項3に記載の発明は、実空間の道路エ
ッジの位置は、部分画像に含まれる道路エッジの位置、
カメラの焦点距離、カメラのレンズ中心の高さ及びカメ
ラ光軸の傾きから算出される請求項1又は2記載の道路
構造認識方法とするもので、カメラ自身が動いている場
合、かつ道路面が水平でない場合においても、可視カメ
ラ1台のみの画像から実空間の道路エッジの位置を算出
することができるという作用を有する。
The third aspect of the present invention is a road road in a real space.
The position of the edge is the position of the road edge included in the partial image,
Camera focal length, camera lens center height and turtle
The road according to claim 1 or 2, which is calculated from the inclination of the optical axis.
The structure recognition method is used to calculate the position of the road edge in real space from the image of only one visible camera even when the camera itself is moving and the road surface is not horizontal.
It has the effect of being able to.

【0014】 請求項4に記載の発明は、走行車両に設
置されたカメラにより撮影された現時刻の入力画像を用
いて、道路上に存在する物体の前記入力画像中の位置を
検出する第1のステップと、前記カメラに十分近い位置
では道路は水平であることを仮定し、この仮定の基に前
現時刻の前記入力画像のカメラに十分近い範囲の道路
エッジの位置から実空間の前記道路エッジの位置を求
め、更に、前記実空間の前記道路エッジの位置から現時
刻の道路構造を算出し、前時刻から現時刻までの前記走
行車両の実空間の移動量を用いて、前記前時刻までに求
めた前記道路構造と前記現時刻の道路構造とを接続し、
前記現時刻までの道路構造を算出する第2のステップ
と、検出した前記物体の入力画像中の位置と前記現時刻
までの道路構造とを用いて、カメラから前記物体までの
実空間の距離を算出する第3のステップとを有する距離
測定方法とするもので、カメラ自身が動いている場合、
かつ道路面が水平でない場合においても、可視カメラ1
台のみの画像から距離を測定できるという作用を有す
る。
According to a fourth aspect of the present invention, the position of the object existing on the road in the input image is detected using the input image at the current time taken by the camera installed in the traveling vehicle. Step and position close enough to the camera
Let's assume that the road is horizontal and
Serial obtain the position of the road edge in the real space from the position of the road edge in close enough range of the input image at the present time cameras, further, it calculates the road structure of the current time from the position of the road edge of the real space , Using the movement amount of the traveling vehicle in the real space from the previous time to the current time, connecting the road structure obtained by the previous time and the road structure at the current time,
Using the second step of calculating the road structure up to the current time, the position of the detected object in the input image and the road structure up to the current time, the distance in real space from the camera to the object is calculated. And a third step of calculating the distance measurement method, wherein the camera itself is moving,
And even when the road surface is not horizontal, the visible camera 1
It has an effect that the distance can be measured from the image of only the table.

【0015】請求項5に記載の発明は、走行車両の実空
間の移動量は、前時刻の入力画像の座標軸から現時刻の
入力画像の座標軸への平行移動量及び回転角度である請
求項4記載の距離測定方法とするもので、カメラ自身が
動いている場合、かつ道路面が水平でない場合において
も、現時刻の道路構造と前時刻までの道路構造とを正確
に接続することができるという作用を有する。
According to a fifth aspect of the present invention, the traveling vehicle is in the real space.
The amount of movement between the current time and the coordinate axis of the input image at the previous time
The amount of translation and the rotation angle of the input image to the coordinate axes.
The distance measuring method according to claim 4 is used, and even when the camera itself is moving and the road surface is not horizontal, the road structure at the current time and the road structure up to the previous time can be accurately measured.
It has the effect that it can be connected to .

【0016】請求項6に記載の発明は、実空間の道路エ
ッジの位置は、部分画像に含まれる道路エッジの位置、
カメラの焦点距離、カメラのレンズ中心の高さ、カメラ
光軸の傾きから算出される請求項4又は5記載の距離測
定方法とするもので、カメラ自身が動いている場合、か
つ道路面が水平でない場合においても、可視カメラ1台
のみの画像から実空間の道路エッジの位置を算出するこ
とができるという作用を有する。
The invention according to claim 6 is a road space in a real space.
The position of the edge is the position of the road edge included in the partial image,
Camera focal length, camera lens center height, camera
The distance measurement according to claim 4 or 5, which is calculated from the inclination of the optical axis.
This is a fixed method, and even if the camera itself is moving and the road surface is not horizontal, the position of the road edge in real space can be calculated from the image of only one visible camera .
It has the effect of being able to

【0017】請求項7に記載の発明は、第1のステップ
は、予め複数の検出対象物体の特徴を保持しておき、入
力画像に含まれる物体の微分2値画像から直線成分を抽
出し、前記直線成分の長さで表現される前記物体の特徴
を求め、前記検出対象物体の特徴と最も類似する前記物
体を抽出し、抽出された前記物体の位置を検出する請求
項4ないし6のいずれか記載の距離測定方法とするもの
で、カメラ自身が動いている場合、かつ道路面が水平で
ない場合においても、可視カメラ1台のみの画像から距
離を測定できるという作用を有する。
The invention according to claim 7 is the first step.
Holds the characteristics of multiple detection target objects in advance, and
Extract the linear component from the differential binary image of the object included in the force image.
Of the object represented by the length of the straight line component
The object that most closely resembles the characteristics of the object to be detected.
Claim to extract the body and detect the position of the extracted object
The distance measuring method according to any one of items 4 to 6, which has an effect that the distance can be measured from the image of only one visible camera even when the camera itself is moving and the road surface is not horizontal. Have.

【0018】請求項8に記載の発明は、第1のステップ
は、予めカメラからの距離が異なる複数の検出対象物体
の画像である学習画像を登録しておき、入力画像に対し
て前記学習画像を照合し、最も類似する領域を求めるこ
とにより、物体の位置を検出する請求項4ないし6のい
ずれか記載の距離測定方法とするもので、カメラ自身が
動いている場合、かつ道路面が水平でない場合において
も、可視カメラ1台のみの画像から距離を測定できると
いう作用を有する。
The invention according to claim 8 is the first step.
Is a plurality of detection target objects that are different in distance from the camera in advance.
The learning image, which is the image of
Collate the learning images to find the most similar area.
The position of the object is detected by and.
The distance measuring method described as the shift has an effect that the distance can be measured from the image of only one visible camera even when the camera itself is moving and the road surface is not horizontal.

【0019】 請求項9に記載の発明は、走行車両に設
置されたカメラに十分近い位置では道路は水平であるこ
とを仮定し、この仮定の基に現時刻の入力画像のカメラ
に十分近い範囲の部分画像を抽出する部分画像抽出手段
と、前記部分画像に含まれる道路エッジの位置から実空
間の前記道路エッジの位置を求る実空間道路エッジ検
出手段と、前記実空間の前記道路エッジの位置から現時
刻の道路構造を算出する現時刻道路構造算出手段と、前
時刻から現時刻までの前記走行車両の実空間の移動量を
用いて、前記前時刻までに求めた前記道路構造と前記現
時刻の道路構造とを接続し、前記現時刻までの道路構造
を算出する道路構造接続手段とを有する道路構造認識装
置とするもので、カメラ自身が動いている場合、かつ道
路面が水平でない場合においても、可視カメラ1台のみ
の画像から道路構造を認識することができるという作用
を有する。
According to a ninth aspect of the present invention , the road is horizontal at a position sufficiently close to the camera installed in the traveling vehicle.
And the camera of the input image at the current time is based on this assumption.
A partial image extraction means for extracting a partial image of sufficiently close range, and the real space road edge detection means from the position of the road edge Ru determined Me a position of the road edge in the real space contained in the partial image, the real space By the current time road structure calculation means for calculating the road structure at the current time from the position of the road edge and the movement amount of the traveling vehicle in the real space from the previous time to the current time. A road structure recognition device having a road structure connecting means for connecting the road structure and the road structure at the current time and calculating the road structure up to the current time, wherein the camera itself is moving, and Even if the road surface is not horizontal, the road structure can be recognized from the image of only one visible camera.

【0020】請求項10に記載の発明は、走行車両の実
空間の移動量は、前時刻の入力画像の座標軸から現時刻
の入力画像の座標軸への平行移動量と回転角度である請
求項9記載の道路構造認識装置とするもので、カメラ自
身が動いている場合、かつ道路面が水平でない場合にお
いても、現時刻の道路構造と前時刻までの道路構造とを
正確に接続することができるという作用を有する。
The invention according to claim 10 is an embodiment of a traveling vehicle.
The amount of space movement is the current time from the coordinate axis of the input image at the previous time.
The translation amount and rotation angle of the input image of the input image to the coordinate axes.
The road structure recognition device according to claim 9, wherein the road structure at the current time and the road structure up to the previous time are calculated even when the camera itself is moving and the road surface is not horizontal.
It has the effect that it can be connected accurately .

【0021】請求項11に記載の発明は、実空間の道路
エッジの位置は、部分画像に含まれる道路エッジの位
置、カメラの焦点距離、カメラのレンズ中心の高さ、カ
メラ光軸の傾きから算出される請求項9又は10記載の
道路構造認識装置とするもので、カメラ自身が動いてい
る場合、かつ道路面が水平でない場合においても、可視
カメラ1台のみの画像から実空間の道路エッジの位置を
算出することができるという作用を有する。
The invention described in claim 11 is a road in a real space.
The position of the edge is the position of the road edge included in the partial image.
Position, camera focal length, camera lens center height,
The calculation according to claim 9 or 10, which is calculated from the tilt of the optical axis of the melody
This is a road structure recognition device, and even if the camera itself is moving and the road surface is not horizontal, the position of the road edge in real space can be determined from the image of only one visible camera.
It has the effect that it can be calculated .

【0022】 請求項12に記載の発明は、走行車両に
設置されたカメラにより撮影された現時刻の入力画像を
用いて、道路上に存在する物体の前記入力画像中の位置
を検出する物体検出手段と、前記カメラに十分近い位置
では道路は水平であることを仮定し、この仮定の基に前
現時刻の前記入力画像のカメラに十分近い範囲の道路
エッジの位置から実空間の前記道路エッジの位置を求
め、更に、前記実空間の前記道路エッジの位置から現時
刻の道路構造を算出し、前時刻から現時刻までの前記走
行車両の実空間の移動量を用いて、前記前時刻までに求
めた前記道路構造と前記現時刻の道路構造とを接続し、
前記現時刻までの道路構造を算出する道路構造認識手段
と、検出した前記物体の入力画像中の位置と前記現時刻
までの道路構造とを用いて、カメラから前記物体までの
実空間の距離を算出する距離算出手段を有する距離測定
装置とするもので、カメラ自身が動いている場合、かつ
道路面が水平でない場合においても、可視カメラ1台の
みの画像から道路構造を認識することができるという作
用を有する。
According to a twelfth aspect of the present invention, an object detection for detecting a position of an object existing on a road in the input image using an input image at the current time taken by a camera installed in a traveling vehicle. Means and position close enough to the camera
Let's assume that the road is horizontal and
Serial obtain the position of the road edge in the real space from the position of the road edge in close enough range of the input image at the present time cameras, further, it calculates the road structure of the current time from the position of the road edge of the real space , Using the movement amount of the traveling vehicle in the real space from the previous time to the current time, connecting the road structure obtained by the previous time and the road structure at the current time,
Using the road structure recognition means for calculating the road structure up to the current time, the position in the input image of the detected object and the road structure up to the current time, the distance in real space from the camera to the object is calculated. It is a distance measuring device having a distance calculating means for calculating, and it is said that the road structure can be recognized from the image of only one visible camera even when the camera itself is moving and the road surface is not horizontal. Have an effect.

【0023】以下、本発明の実施の形態について、図1
から図9を用いて説明する。
FIG. 1 shows an embodiment of the present invention.
9 to 9 will be described.

【0024】(実施の形態1)図1は、本発明の実施の
形態1における距離測定装置のブロック図を示してい
る。図1において、11は物体を撮影した画像を入力す
る画像入力部、12は画像入力部11により入力された
画像データ15に対して物体の領域を抽出し位置情報1
6を検出する物体検出手段、13は画像入力部11によ
り入力された画像データ15に対して道路構造情報17
を認識する道路構造認識手段、14は位置情報16と道
路構造情報17とを用いてカメラから物体までの距離を
算出し測定結果18を出力する距離算出手段である。
(Embodiment 1) FIG. 1 shows a block diagram of a distance measuring apparatus according to Embodiment 1 of the present invention. In FIG. 1, 11 is an image input unit for inputting an image of an object, 12 is an area of the object extracted from the image data 15 input by the image input unit 11, and position information 1
The object detecting means for detecting 6 and the road structure information 17 for the image data 15 input by the image input unit 11.
Is a road structure recognizing means, and 14 is a distance calculating means for calculating the distance from the camera to the object using the position information 16 and the road structure information 17 and outputting the measurement result 18.

【0025】以上のように構成された距離測定装置につ
いて、以下にその動作を説明する。ここで、図2は画像
データ15の例を示しており、道路23の上に検出対象
物体21があり、検出対象物体21と道路23とが位置
22において接している。また、道路23の上には白線
24、25が描かれている。図3は微分2値画像の例を
示しており、31は検出した先行車両のモデルを表す。
図4は道路構造認識結果の例を示しており、41は上か
ら見たときの水平面上の道路形状、42は横から見たと
きの縦断面上の道路形状を表し、線分43の両端の左右
道路エッジがそれぞれ1対1対応している。また、44
は実空間における位置を表す。図5は画像データ15か
ら検出した道路エッジとその対応を示しており、51、
52は検出した道路エッジ、53は左右道路エッジの対
応を表す線分を表す。
The operation of the distance measuring device configured as described above will be described below. Here, FIG. 2 shows an example of the image data 15, and the detection target object 21 is present on the road 23, and the detection target object 21 and the road 23 are in contact with each other at the position 22. White lines 24 and 25 are drawn on the road 23. FIG. 3 shows an example of the differential binary image, and 31 represents the detected model of the preceding vehicle.
FIG. 4 shows an example of a road structure recognition result, where 41 represents a road shape on a horizontal plane when viewed from above, 42 represents a road shape on a vertical cross section when viewed from the side, and both ends of a line segment 43. The left and right road edges of are in a one-to-one correspondence. Also, 44
Represents the position in real space. FIG. 5 shows the road edges detected from the image data 15 and their correspondence.
Reference numeral 52 represents a detected road edge, and 53 represents a line segment representing the correspondence between the left and right road edges.

【0026】画像入力部11は、認識対象となる道路
と、その道路上にある検出対象となる物体とを1台のカ
メラにより撮影した画像を入力する。本発明において
は、カメラが車などに搭載されることによりカメラ自身
が動いている場合、かつ道路面が図2に示すような坂道
などで水平でない場合においても対応可能である。
The image input unit 11 inputs an image of a road to be recognized and an object on the road to be detected by one camera. In the present invention, if the camera is moving more camera itself to be mounted on a vehicle, and the road surface is also available when not horizontal like slope as shown in FIG.

【0027】物体検出手段12は、前記画像入力部11
により入力された図2に示すような画像データ15を読
み込み、検出対象物体21の画像中における位置22を
検出し、これを位置情報16として保持する。
The object detecting means 12 includes the image input section 11
2 is input, the position 22 in the image of the detection target object 21 is detected, and this is held as position information 16.

【0028】ここで、画像の中から物体の位置を検出す
る方式の例としては、情処研報CV37−4(1985
年)「高速道路における先行車の同定と追跡」に示され
ているもの等がある。上記の方式は、検出対象物体とし
て特に前方を走行する車両を想定したもので、以下に簡
単にその内容を説明する。まず、先行車両の後面を撮影
した入力画像に対して、2次微分処理、2値化処理を施
し図3に示すような微分2値画像を得る。次に得られた
画像から対象な水平エッジ成分を抽出し、この集合を先
行車のモデル31とするものである。
Here, as an example of the method of detecting the position of the object from the image, the Information Research Institute CV37-4 (1985)
Year) "Identification and tracking of preceding vehicle on highway". The above-mentioned method is based on the assumption that a vehicle traveling ahead is detected as the detection target object, and its contents will be briefly described below. First, the input image obtained by photographing the rear surface of the preceding vehicle is subjected to the secondary differential processing and binarization processing to obtain a differential binary image as shown in FIG. Next, the target horizontal edge component is extracted from the obtained image, and this set is used as the model 31 of the preceding vehicle.

【0029】道路構造認識手段13は、前記画像入力部
11により入力された図2に示すような画像データ15
を読み込み、道路23の実空間における構造を認識し、
これを道路構造情報17として保持する。ここで、画像
から実空間における道路面の構造を認識する方式の例と
しては、情処研報CV62−3(1989年)「局所平
面近似による道路形状復元」に示されているもの等があ
る。上記の方式は、画像中の道路エッジから、道路モデ
ルと呼ばれる道路形状に関する知識に基づいて、図4に
示すような道路構造を得るもので、以下に簡単にその内
容を説明する。道路モデルとは、滑らかな曲線上を長さ
一定の線分が中点で垂直に交わりながら水平に動いたと
きの端点の軌跡を道路エッジとする。
The road structure recognition means 13 receives the image data 15 input by the image input section 11 as shown in FIG.
To recognize the structure of the road 23 in the real space,
This is held as road structure information 17. Here, as an example of the method of recognizing the structure of the road surface in the real space from the image, there is a method shown in "Reconstruction of Road Shape by Local Plane Approximation" in Information Research Institute CV62-3 (1989). . The above method obtains the road structure as shown in FIG. 4 from the road edge in the image based on the knowledge about the road shape called the road model. The contents will be briefly described below. The road model is defined as a road edge which is a locus of end points when line segments having a constant length move horizontally while intersecting vertically at a midpoint on a smooth curve.

【0030】まず、入力画像に対して図5に示すよう
に、道路エッジ51,52を検出し、左右の道路エッジ
間の1対1の対応を前記長さ一定の線分の両端となるよ
うに求める。次にこの左右の道路エッジの対応点に対し
て、道路モデルに基づき3次元位置を復元し、滑らかな
曲線をあてはめることにより3次元の道路形状41,4
2とするものである。
First, as shown in FIG. 5, the road edges 51 and 52 are detected with respect to the input image, and the one-to-one correspondence between the left and right road edges is set at both ends of the line segment having the constant length. Ask for. Next, with respect to the corresponding points of the left and right road edges, a three-dimensional position is restored based on the road model and a smooth curve is fitted to the three-dimensional road shapes 41, 4
2 is set.

【0031】距離算出手段14は、前記物体検出手段1
2により検出された位置情報16と、前記道路構造認識
手段13により認識された道路構造情報17とから検出
対象物体21の実空間における位置を求めることにより
カメラからの距離を算出し、これを測定結果18として
出力する。例えば、図2に示すような画像データに対し
て、前記物体検出手段12により対象物体21を検出
し、画像中における位置22を求める。
The distance calculating means 14 is the object detecting means 1
2 calculates the distance from the camera by obtaining the position of the detection target object 21 in the real space from the position information 16 detected by 2 and the road structure information 17 recognized by the road structure recognizing means 13, and measures this. The result 18 is output. For example, with respect to the image data as shown in FIG. 2, the target object 21 is detected by the object detecting means 12 and the position 22 in the image is obtained.

【0032】一方、前記道路構造認識手段13により図
4に示すような道路構造を認識する。このとき、図5に
示すように画像中の白線を道路エッジ51,52として
検出し、左右の道路エッジの対応を求めているので、検
出した位置22に対応する画像中の線分53を求める。
線分53は前記道路構造認識手段13において線分43
に復元されているので、それに対応して画像中における
位置22から実空間における位置44が求められる。こ
の位置44より、カメラから物体までの距離を算出する
ものである。
On the other hand, the road structure recognition means 13 recognizes a road structure as shown in FIG. At this time, as shown in FIG. 5, the white lines in the image are detected as road edges 51 and 52, and the correspondence between the left and right road edges is obtained. Therefore, the line segment 53 in the image corresponding to the detected position 22 is obtained. .
The line segment 53 is the line segment 43 in the road structure recognition means 13.
Since it has been restored to, the position 44 in the real space is obtained correspondingly from the position 22 in the image. From this position 44, the distance from the camera to the object is calculated.

【0033】(実施の形態2)図6に、本発明の実施の
形態2における距離測定装置のブロック図を示すが、実
施の形態1と異なるのは物体検出手段12と物体学習画
像データベース19であり、異なる部分のみを以下に説
明する。
(Second Embodiment) FIG. 6 shows a block diagram of a distance measuring device according to a second embodiment of the present invention. The difference from the first embodiment lies in the object detecting means 12 and the object learning image database 19. Yes, only the different parts will be described below.

【0034】実施の形態2における物体検出手段12に
ついて、以下にその動作を説明する。ここで、図7は学
習画像の例を示している。
The operation of the object detecting means 12 in the second embodiment will be described below. Here, FIG. 7 shows an example of the learning image.

【0035】物体検出手段12において物体の位置を検
出するに際し、あらかじめ図7に示すような複数の学習
画像を物体学習画像データベース19に登録しておく。
物体学習画像データベース19に登録する学習画像は、
各検出対象物体に対して、適当な間隔で設定したカメラ
からの距離毎に、それぞれの距離における見え方に応じ
たサイズの画像が登録されている。
When the object detecting means 12 detects the position of the object, a plurality of learning images as shown in FIG. 7 are registered in the object learning image database 19 in advance.
The learning images registered in the object learning image database 19 are
For each object to be detected, an image of a size corresponding to the appearance at each distance is registered for each distance from the camera set at an appropriate interval.

【0036】画像入力部11により入力された図2に示
すような画像データ15を読み込み、それぞれの物体学
習画像データベース19に登録されている学習画像と照
合し、最も類似する学習画像と入力画像中の領域とを求
める。このときの入力画像中の位置を位置情報16とし
て保持する。
The image data 15 as shown in FIG. 2 input by the image input unit 11 is read and collated with the learning image registered in each object learning image database 19 to find the most similar learning image and input image. And the area of. The position in the input image at this time is held as the position information 16.

【0037】また、同時に、照合した距離における見え
方に応じたサイズの学習画像よりカメラから対象物体ま
での大まかな距離を求めることができる。
At the same time, a rough distance from the camera to the target object can be obtained from a learning image having a size corresponding to the appearance at the collated distance.

【0038】(実施の形態3) 次に、本発明の実施の形態3の距離測定装置について説
明するが、実施の形態1とは道路構造認識手段13の処
理が異なるもので、異なる道路構造認識手段13につい
以下に説明する。
(Third Embodiment) Next, a distance measuring device according to a third embodiment of the present invention will be described. However, the processing of the road structure recognizing means 13 is different from that of the first embodiment. It described below means 13.

【0039】実施の形態3における道路構造認識手段に
ついて、以下にその動作を説明する。ここで、図8は画
像と実空間の関係を示しており、71はレンズ中心、7
2は画像の座標軸、73は実空間の座標軸、74は画像
中の位置、75は実空間の位置を表す。ただし、ともに
y軸は紙面に垂直な方向とする。図9は実空間における
道路構造を示しており、図9(a)は現時刻におけるカ
メラに十分近い位置での道路構造、図9(b)は前時刻
における道路構造認識結果、図9(c)は現時刻におけ
る道路構造認識結果を表し、81は前時刻における座標
軸を表す。
The operation of the road structure recognition means in the third embodiment will be described below. Here, FIG. 8 shows the relationship between the image and the real space, where 71 is the lens center and 7
2 is the coordinate axis of the image, 73 is the coordinate axis of the real space, 74 is the position in the image, and 75 is the position of the real space. However, in both cases, the y-axis is the direction perpendicular to the paper surface. 9A and 9B show the road structure in the real space. FIG. 9A shows the road structure at a position sufficiently close to the camera at the current time, FIG. 9B shows the road structure recognition result at the previous time, and FIG. ) Represents the road structure recognition result at the current time, and 81 represents the coordinate axes at the previous time.

【0040】道路構造認識手段13において、カメラが
走行車両後方に設置され進行方向と反対方向を連続撮影
しているような場合を考え、カメラに十分近い位置では
道路は水平であることを仮定する。前記画像入力部11
により入力された図2に示すような画像データ15を読
み込み、カメラに十分近い位置で画像中の白線の位置
(ix,iy)を検出する。図8に示すように、焦点距
離をf、レンズ中心の高さをh、水平方向からカメラ光
軸への角度をθとすると、前記仮定に基づき、実空間に
おける白線の位置(px,py,pz)は(数1)のよ
うになる。
Consider the case where the camera is installed in the rear of the traveling vehicle and continuously captures the direction opposite to the traveling direction in the road structure recognition means 13, and it is assumed that the road is horizontal at a position sufficiently close to the camera. . The image input section 11
2 is input and the position (ix, iy) of the white line in the image is detected at a position sufficiently close to the camera. As shown in FIG. 8, assuming that the focal length is f, the height of the lens center is h, and the angle from the horizontal direction to the camera optical axis is θ, the position of the white line (px, py, pz) is as in (Equation 1).

【0041】[0041]

【数1】 検出した画像中のカメラに十分近い範囲の白線のすべて
の位置から(数1)により実空間における白線の位置を
算出し、曲線をあてはめると図9(a)に示すようなカ
メラに十分近い位置の実空間における道路構造が求めら
れる。
[Equation 1] The position of the white line in the real space is calculated from (Equation 1) from all positions of the white line in the detected image that are sufficiently close to the camera, and if a curve is applied, the position is sufficiently close to the camera as shown in FIG. 9 (a). The road structure in real space is required.

【0042】ここで前時刻において、前時刻における座
標軸で図9(b)に示すような実空間における道路構造
が出力されていたとする。また、前時刻から現時刻まで
の車両自身の移動量、つまり前時刻における座標軸から
現時刻における座標軸への平行移動量と回転角度を車両
側から別途入手する。そこで、現時刻において求めた図
9(a)に示すカメラに十分近い位置の道路構造に、前
時刻における図9(b)に示す道路構造を、前記移動量
を基に接続することにより図9(c)に示すような現時
刻における道路構造を得ることができ、これを道路構造
情報17として保持する。
Here, it is assumed that the road structure in the real space as shown in FIG. 9B has been output at the previous time on the coordinate axes at the previous time. Further, the amount of movement of the vehicle itself from the previous time to the current time, that is, the amount of parallel movement from the coordinate axis at the previous time to the coordinate axis at the current time and the rotation angle are separately obtained from the vehicle side. Therefore, by connecting the road structure shown in FIG. 9B at the previous time to the road structure at a position sufficiently close to the camera shown in FIG. The road structure at the current time as shown in (c) can be obtained, and this is held as road structure information 17.

【0043】[0043]

【発明の効果】以上のように本発明によれば、カメラ自
身が動いている場合、かつ道路面が水平でない場合にお
いても、可視カメラ1台のみの画像から距離を正確に測
定できるという有利な効果が得られる。
As described above, according to the present invention, it is advantageous that the distance can be accurately measured from the image of only one visible camera even when the camera itself is moving and the road surface is not horizontal. The effect is obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態1における距離測定装置を
示すブロック図
FIG. 1 is a block diagram showing a distance measuring device according to a first embodiment of the present invention.

【図2】本発明の実施の形態1における画像データの例
を示す図
FIG. 2 is a diagram showing an example of image data according to the first embodiment of the present invention.

【図3】本発明の実施の形態1における微分2値画像の
例を示す図
FIG. 3 is a diagram showing an example of a differential binary image according to the first embodiment of the present invention.

【図4】本発明の実施の形態1における道路構造の認識
結果の例を示す図
FIG. 4 is a diagram showing an example of a recognition result of a road structure according to the first embodiment of the present invention.

【図5】本発明の実施の形態1における道路エッジ検出
とその対応の例を示す図
FIG. 5 is a diagram showing an example of road edge detection and its correspondence according to the first embodiment of the present invention.

【図6】本発明の実施の形態2における距離測定装置を
示すブロック図
FIG. 6 is a block diagram showing a distance measuring device according to a second embodiment of the present invention.

【図7】本発明の実施の形態2における学習画像の例を
示す図
FIG. 7 is a diagram showing an example of a learning image according to the second embodiment of the present invention.

【図8】本発明の実施の形態3における画像と実空間の
関係を示す図
FIG. 8 is a diagram showing a relationship between an image and a real space according to the third embodiment of the present invention.

【図9】本発明の実施の形態3における実空間の道路構
造を示す図
FIG. 9 is a diagram showing a road structure in a real space according to the third embodiment of the present invention.

【図10】従来の距離測定方式の説明図FIG. 10 is an explanatory diagram of a conventional distance measuring method.

【符号の説明】[Explanation of symbols]

11 画像入力部 12 物体検出手段 13 道路構造認識手段 14 距離算出手段 15 画像データ 16 位置情報 17 道路構造情報 18 測定結果 19 物体学習画像データベース 21 検出対象物体 22 物体の位置 23 道路 24、25 白線 31 先行車両モデル 41 水平面上の道路形状 42 縦断面上の道路形状 43 道路エッジの対応を表す線分 44 実空間上の位置 51、52 道路エッジ 53 道路エッジの対応を表す線分 71 レンズ中心 72 画像の座標軸 73 実空間の座標軸 74 画像中の位置 75 実空間の位置 81 前時刻における座標軸 11 Image input section 12 Object detection means 13 Road structure recognition means 14 Distance calculation means 15 image data 16 Location information 17 Road structure information 18 measurement results 19 Object learning image database 21 Object to be detected 22 Object position 23 road 24, 25 white line 31 Leading vehicle model 41 Road shape on horizontal plane 42 Road shape on vertical section 43 Line segment representing the correspondence of road edges 44 Position in real space 51,52 Road edge 53 Line segment that represents the correspondence of road edges 71 Center of lens 72 Image coordinate axes 73 Coordinate axes in real space 74 Position in image 75 Position in real space 81 Coordinate axes at the previous time

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平9−48299(JP,A) 特開 平11−259658(JP,A) 特開 平5−46730(JP,A) 特開 平11−232426(JP,A) 特開 平7−120258(JP,A) 中嶋正之 外2名,高速道路における 先行車の同定と追跡,情報処理学会研究 報告,社団法人情報処理学会,1985年 7月18日,Vol.85,No.26,CV 37−4,p.1〜8 (58)調査した分野(Int.Cl.7,DB名) G01C 3/06 G01B 11/00 G06T 7/60 180 ─────────────────────────────────────────────────── ─── Continuation of the front page (56) Reference JP-A-9-48299 (JP, A) JP-A-11-259658 (JP, A) JP-A-5-46730 (JP, A) JP-A-11- 232426 (JP, A) JP-A-7-120258 (JP, A) Masayuki Nakajima Two others, identification and tracking of a preceding vehicle on a highway, Information Processing Society of Japan Research Report, Information Processing Society of Japan, July 18, 1985 Sun, Vol. 85, No. 26, CV 37-4, p. 1-8 (58) Fields investigated (Int.Cl. 7 , DB name) G01C 3/06 G01B 11/00 G06T 7/60 180

Claims (12)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 走行車両に設置されたカメラに十分近い
位置では道路は水平であることを仮定し、この仮定の基
現時刻の入力画像のカメラに十分近い範囲の道路エッ
ジの位置から実空間の前記道路エッジの位置を求め、更
に、前記実空間の前記道路エッジの位置から現時刻の道
路構造を算出し、前時刻から現時刻までの前記走行車両
の実空間の移動量を用いて、前記前時刻までに求めた前
記道路構造と前記現時刻の道路構造とを接続し、前記現
時刻までの道路構造を算出する道路構造認識方法。
1. Close enough to a camera installed in a traveling vehicle
The position assumes that the road is horizontal and the basis of this assumption is
To obtain the position of the road edge in the real space from the position of the road edge in the range sufficiently close to the camera of the input image at the current time, further, calculate the road structure at the current time from the position of the road edge in the real space, Using the amount of movement of the traveling vehicle in the real space from the previous time to the current time, the road structure obtained by the previous time and the road structure at the current time are connected to each other, and a road structure up to the current time is obtained. Road structure recognition method to calculate.
【請求項2】 走行車両の実空間の移動量は、前時刻の
入力画像の座標軸から現時刻の入力画像の座標軸への平
行移動量及び回転角度である請求項1記載の道路構造認
識方法。
2. The road structure recognition method according to claim 1, wherein the moving amount of the traveling vehicle in the real space is a parallel moving amount and a rotation angle from the coordinate axis of the input image at the previous time to the coordinate axis of the input image at the current time.
【請求項3】 実空間の道路エッジの位置は、部分画像
に含まれる道路エッジの位置、カメラの焦点距離、カメ
ラのレンズ中心の高さ及びカメラ光軸の傾きから算出さ
れる請求項1又は2記載の道路構造認識方法。
3. The position of the road edge in the real space is calculated from the position of the road edge included in the partial image, the focal length of the camera, the height of the lens center of the camera, and the tilt of the camera optical axis. 2. The road structure recognition method described in 2.
【請求項4】 走行車両に設置されたカメラにより撮影
された現時刻の入力画像を用いて、道路上に存在する物
体の前記入力画像中の位置を検出する第1のステップ
と、前記カメラに十分近い位置では道路は水平であるこ
とを仮定し、この仮定の基に前記現時刻の前記入力画像
のカメラに十分近い範囲の道路エッジの位置から実空間
の前記道路エッジの位置を求め、更に、前記実空間の前
記道路エッジの位置から現時刻の道路構造を算出し、前
時刻から現時刻までの前記走行車両の実空間の移動量を
用いて、前記前時刻までに求めた前記道路構造と前記現
時刻の道路構造とを接続し、前記現時刻までの道路構造
を算出する第2のステップと、検出した前記物体の入力
画像中の位置と前記現時刻までの道路構造とを用いて、
カメラから前記物体までの実空間の距離を算出する第3
のステップとを有する距離測定方法。
4. A first step of detecting a position in the input image of an object existing on a road using an input image of a current time taken by a camera installed in a traveling vehicle, and the camera Roads should be level when close enough
And the input image at the current time based on this assumption
The position of the road edge in the real space is obtained from the position of the road edge sufficiently close to the camera, and the road structure at the current time is calculated from the position of the road edge in the real space, from the previous time to the current time. Second step of connecting the road structure obtained up to the previous time and the road structure at the current time using the movement amount of the traveling vehicle in the real space, and calculating the road structure up to the current time And using the detected position of the object in the input image and the road structure up to the current time,
Third, calculating the distance in real space from the camera to the object
And a distance measuring method including the steps of.
【請求項5】 走行車両の実空間の移動量は、前時刻の
入力画像の座標軸から現時刻の入力画像の座標軸への平
行移動量及び回転角度である請求項4記載の距離測定方
法。
5. The distance measuring method according to claim 4, wherein the moving amount of the traveling vehicle in the real space is a parallel moving amount and a rotation angle from the coordinate axis of the input image at the previous time to the coordinate axis of the input image at the current time.
【請求項6】 実空間の道路エッジの位置は、部分画像
に含まれる道路エッジの位置、カメラの焦点距離、カメ
ラのレンズ中心の高さ、カメラ光軸の傾きから算出され
る請求項4又は5記載の距離測定方法。
6. The position of the road edge in the real space is calculated from the position of the road edge included in the partial image, the focal length of the camera, the height of the lens center of the camera, and the tilt of the optical axis of the camera. 5. The distance measuring method described in 5.
【請求項7】 第1のステップは、予め複数の検出対象
物体の特徴を保持しておき、入力画像に含まれる物体の
微分2値画像から直線成分を抽出し、前記直線成分の長
さで表現される前記物体の特徴を求め、前記検出対象物
体の特徴と最も類似する前記物体を抽出し、抽出された
前記物体の位置を検出する請求項4ないし6のいずれか
記載の距離測定方法。
7. A first step is to store the characteristics of a plurality of detection target objects in advance, extract a linear component from a differential binary image of the object included in the input image, and calculate the length of the linear component. 7. The distance measuring method according to claim 4, wherein the feature of the expressed object is obtained, the object most similar to the feature of the detection target object is extracted, and the position of the extracted object is detected.
【請求項8】 第1のステップは、予めカメラからの距
離が異なる複数の検出対象物体の画像である学習画像を
登録しておき、入力画像に対して前記学習画像を照合
し、最も類似する領域を求めることにより、物体の位置
を検出する請求項4ないし6のいずれか記載の距離測定
方法。
8. The first step is to register a learning image, which is an image of a plurality of detection target objects having different distances from a camera, in advance, collate the learning image with an input image, and obtain the most similar image. 7. The distance measuring method according to claim 4, wherein the position of the object is detected by obtaining the area.
【請求項9】 走行車両に設置されたカメラに十分近い
位置では道路は水平であることを仮定し、この仮定の基
現時刻の入力画像のカメラに十分近い範囲の部分画像
を抽出する部分画像抽出手段と、前記部分画像に含まれ
る道路エッジの位置から実空間の前記道路エッジの位置
を求る実空間道路エッジ検出手段と、前記実空間の前
記道路エッジの位置から現時刻の道路構造を算出する現
時刻道路構造算出手段と、前時刻から現時刻までの前記
走行車両の実空間の移動量を用いて、前記前時刻までに
求めた前記道路構造と前記現時刻の道路構造とを接続
し、前記現時刻までの道路構造を算出する道路構造接続
手段とを有する道路構造認識装置。
9. Close enough to a camera installed in a traveling vehicle
The position assumes that the road is horizontal and the basis of this assumption is
A partial image extraction means for extracting a partial image of sufficiently close range of the input image at the present time cameras, the road edge real space road location Ru determined Me a position from the real space road edge included in the partial image Using the edge detection means, the current time road structure calculation means for calculating the road structure at the current time from the position of the road edge in the real space, and the movement amount of the traveling vehicle in the real space from the previous time to the current time. A road structure recognizing device having a road structure connecting means for connecting the road structure obtained up to the previous time and the road structure at the current time and calculating the road structure up to the current time.
【請求項10】 走行車両の実空間の移動量は、前時刻
の入力画像の座標軸から現時刻の入力画像の座標軸への
平行移動量と回転角度である請求項9記載の道路構造認
識装置。
10. The road structure recognition device according to claim 9, wherein the movement amount of the traveling vehicle in the real space is a translation amount and a rotation angle from the coordinate axis of the input image at the previous time to the coordinate axis of the input image at the current time.
【請求項11】 実空間の道路エッジの位置は、部分画
像に含まれる道路エッジの位置、カメラの焦点距離、カ
メラのレンズ中心の高さ、カメラ光軸の傾きから算出さ
れる請求項9又は10記載の道路構造認識装置。
11. The position of the road edge in the real space is calculated from the position of the road edge included in the partial image, the focal length of the camera, the height of the lens center of the camera, and the tilt of the camera optical axis. 10. The road structure recognition device according to item 10.
【請求項12】 走行車両に設置されたカメラにより撮
影された現時刻の入力画像を用いて、道路上に存在する
物体の前記入力画像中の位置を検出する物体検出手段
と、前記カメラに十分近い位置では道路は水平であるこ
とを仮定し、この仮定の基に前記現時刻の前記入力画像
のカメラに十分近い範囲の道路エッジの位置から実空間
の前記道路エッジの位置を求め、更に、前記実空間の前
記道路エッジの位置から現時刻の道路構造を算出し、前
時刻から現時刻までの前記走行車両の実空間の移動量を
用いて、前記前時刻までに求めた前記道路構造と前記現
時刻の道路構造とを接続し、前記現時刻までの道路構造
を算出する道路構造認識手段と、検出した前記物体の入
力画像中の位置と前記現時刻までの道路構造とを用い
て、カメラから前記物体までの実空間の距離を算出する
距離算出手段を有する距離測定装置。
12. An object detecting means for detecting a position in the input image of an object existing on a road by using an input image at a current time taken by a camera installed in a traveling vehicle, and the camera being sufficient. The road should be horizontal in close proximity.
And the input image at the current time based on this assumption
The position of the road edge in the real space is obtained from the position of the road edge sufficiently close to the camera, and the road structure at the current time is calculated from the position of the road edge in the real space, from the previous time to the current time. A road structure recognizing means for connecting the road structure obtained up to the previous time and the road structure at the current time using the movement amount of the traveling vehicle in the real space to calculate the road structure up to the current time. And a distance calculation device having a distance calculation means for calculating the distance in real space from the camera to the object using the detected position of the object in the input image and the road structure up to the current time.
JP29068599A 1999-10-13 1999-10-13 Road structure recognition method, distance measurement method and distance measurement device Expired - Fee Related JP3503543B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29068599A JP3503543B2 (en) 1999-10-13 1999-10-13 Road structure recognition method, distance measurement method and distance measurement device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29068599A JP3503543B2 (en) 1999-10-13 1999-10-13 Road structure recognition method, distance measurement method and distance measurement device

Publications (2)

Publication Number Publication Date
JP2001108434A JP2001108434A (en) 2001-04-20
JP3503543B2 true JP3503543B2 (en) 2004-03-08

Family

ID=17759186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29068599A Expired - Fee Related JP3503543B2 (en) 1999-10-13 1999-10-13 Road structure recognition method, distance measurement method and distance measurement device

Country Status (1)

Country Link
JP (1) JP3503543B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003315458A (en) * 2002-04-23 2003-11-06 Daihatsu Motor Co Ltd Recognition apparatus and method for forward vehicle
US20060061008A1 (en) 2004-09-14 2006-03-23 Lee Karner Mounting assembly for vehicle interior mirror
JP4810893B2 (en) * 2005-06-20 2011-11-09 株式会社豊田中央研究所 Distance measuring device
US8698894B2 (en) 2006-02-07 2014-04-15 Magna Electronics Inc. Camera mounted at rear of vehicle
JP2009169776A (en) * 2008-01-18 2009-07-30 Hitachi Ltd Detector
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
EP3364336B1 (en) * 2017-02-20 2023-12-20 Continental Autonomous Mobility Germany GmbH A method and apparatus for estimating a range of a moving object
JP7204326B2 (en) 2018-01-15 2023-01-16 キヤノン株式会社 Information processing device, its control method and program, and vehicle driving support system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中嶋正之 外2名,高速道路における先行車の同定と追跡,情報処理学会研究報告,社団法人情報処理学会,1985年 7月18日,Vol.85,No.26,CV37−4,p.1〜8

Also Published As

Publication number Publication date
JP2001108434A (en) 2001-04-20

Similar Documents

Publication Publication Date Title
Toulminet et al. Vehicle detection by means of stereo vision-based obstacles features extraction and monocular pattern analysis
US7667581B2 (en) Pedestrian detector and detecting method using change of velocity of object in image
JP4328692B2 (en) Object detection device
CN102317954B (en) Method for detecting objects
EP0747870B1 (en) An object observing method and device with two or more cameras
JP3937414B2 (en) Planar detection apparatus and detection method
US20020134151A1 (en) Apparatus and method for measuring distances
CN107272021A (en) The object detection of the image detection region defined using radar and vision
US20130010074A1 (en) Measurement apparatus, measurement method, and feature identification apparatus
Soheilian et al. 3D road marking reconstruction from street-level calibrated stereo pairs
JP2010511212A (en) Method and apparatus for identifying and locating planar objects in an image
JP2000357233A (en) Body recognition device
JP2000517452A (en) Viewing method
JPH11252587A (en) Object tracking device
JP3503543B2 (en) Road structure recognition method, distance measurement method and distance measurement device
JPH09297849A (en) Vehicle detector
JP2006053754A (en) Plane detection apparatus and detection method
JP5981284B2 (en) Object detection device and object detection method
JP4270386B2 (en) Moving body moving amount calculation device
JP3465531B2 (en) Object recognition method and apparatus
JP3586938B2 (en) In-vehicle distance measuring device
JP4106163B2 (en) Obstacle detection apparatus and method
GB2344205A (en) Vehicle identification
JPH1055446A (en) Object recognizing device
JP5472928B2 (en) Object detection apparatus and method

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071219

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081219

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091219

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees