JP2006268076A - Driving assistance system - Google Patents

Driving assistance system Download PDF

Info

Publication number
JP2006268076A
JP2006268076A JP2005081001A JP2005081001A JP2006268076A JP 2006268076 A JP2006268076 A JP 2006268076A JP 2005081001 A JP2005081001 A JP 2005081001A JP 2005081001 A JP2005081001 A JP 2005081001A JP 2006268076 A JP2006268076 A JP 2006268076A
Authority
JP
Japan
Prior art keywords
bird
eye view
view image
image
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005081001A
Other languages
Japanese (ja)
Other versions
JP2006268076A5 (en
Inventor
Nagateru Yo
長輝 楊
Hitoshi Hongo
仁志 本郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2005081001A priority Critical patent/JP2006268076A/en
Publication of JP2006268076A publication Critical patent/JP2006268076A/en
Publication of JP2006268076A5 publication Critical patent/JP2006268076A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a driving assistance system for facilitating obstacle detection. <P>SOLUTION: The driving assistance system includes: a display mounted in a vehicle; an image pickup device mounted in the vehicle for picking up images of areas around the vehicle; a bird's eye view image creation means for creating bird's eye view images based on two images picked up by the image pickup device with a time difference; a corresponding point extracting means for extracting two or more sets of corresponding points on a road surface between two bird's eye view images created by the bird's eye view image creation means; a coordinate transformation means for transforming the coordinates of one of the bird's eye view images based on the two or more sets of corresponding points on the road surface extracted by the corresponding point extraction means, so that the corresponding points between the bird's eye view images match; and an obstacle area extracting means for extracting any high obstacle area by determining a difference between the one of the bird's eye view images whose coordinates have been transformed and the other of the bird's eye view images. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、運転支援システムに関する。   The present invention relates to a driving support system.

自動車などの運転手にとって、バックするときには、死角が生じるため後方確認が難しくなる。そこで、運転手の死角となりやすい車両の後方を監視する車載カメラを装備し、その撮像画像をカーナビゲーション等の画面に表示するシステムが既に開発されている。   For a driver of an automobile or the like, when checking the back, a blind spot is generated, so that it is difficult to confirm the rear. Therefore, a system has been developed that is equipped with an in-vehicle camera that monitors the rear of a vehicle that is likely to become a driver's blind spot and displays the captured image on a screen such as a car navigation system.

しかしながら、広範囲を映し出すために広角レンズを用いると映像にレンズ歪みが生じる。さらに、カメラから離れるほど通常のレンズより小さく映り、撮像画像からでは車両後方の距離やスペースを把握しにくくなる。   However, if a wide-angle lens is used to project a wide range, lens distortion occurs in the image. Furthermore, the farther away from the camera, the smaller the image appears than the normal lens, and it becomes difficult to grasp the distance and space behind the vehicle from the captured image.

そこで、カメラの映像を単に表示するのではなく、画像処理技術を利用して、より人間に優しい映像を見せる研究がなされている。その1つに、撮影した画像を座標変換して、地面の上方から眺めたような鳥瞰図画像を生成して、表示するものがある(特開平10−211849号公報、特開2002−87160号公報参照)。上方からの鳥瞰図を表示することによって、運転手は車両後方の距離やスペースを把握し易くなる。   Therefore, research is being conducted to display a more human-friendly video by using image processing technology rather than simply displaying the video from the camera. One of them is to convert the captured image into coordinates and generate and display a bird's eye view image as seen from above the ground (Japanese Patent Laid-Open Nos. 10-211849 and 2002-87160). reference). By displaying a bird's eye view from above, the driver can easily grasp the distance and space behind the vehicle.

また、様々に画像処理技術やセンサを用いて、撮像画像中の障害物を検知し、障害物に車両が衝突する危険度を判定して、警報を出したり、障害物と車両との間の距離を表示したり、その距離に応じて車両の速度を落としたりすることにより、安全を確保する技術も考案されている。   In addition, various image processing technologies and sensors are used to detect obstacles in the captured image, determine the degree of danger that the vehicle will collide with the obstacles, issue an alarm, and between the obstacle and the vehicle A technique for ensuring safety by displaying a distance or reducing the speed of a vehicle according to the distance has been devised.

このような技術として、車両に搭載された2台のカメラによって撮像されたステレオ画像に基づいて障害物を検知したり、障害物と車両との間の距離を検出したりするものがある。また、特開2001−187553号公報には、舵角センサと車輪速センサとによって獲得した車両移動情報と、車両移動前後のバックカメラによる撮像画像とから障害物を特定し、車両から障害物までの距離を算出し、障害物領域と障害物までの距離を明示した鳥瞰図画像をモニタに表示させる技術が開示されている。   As such a technique, there is one that detects an obstacle based on a stereo image captured by two cameras mounted on the vehicle, or detects a distance between the obstacle and the vehicle. Japanese Patent Laid-Open No. 2001-187553 identifies an obstacle from vehicle movement information acquired by a rudder angle sensor and a wheel speed sensor and images taken by a back camera before and after the movement of the vehicle, from the vehicle to the obstacle. Is calculated, and a bird's eye view image in which the distance between the obstacle region and the obstacle is clearly displayed is displayed on the monitor.

ところで、鳥瞰図画像を表示した場合、地面の上方から眺めた見やすい画像を運転手に提示することができるが、本来高さを持つ障害物が平面に投影されるため、障害物の高さ情報を失い、障害物を知覚しにくくなるという欠点がある。   By the way, when the bird's-eye view image is displayed, an easy-to-see image viewed from above the ground can be presented to the driver, but since the obstacle with the original height is projected on the plane, the height information of the obstacle is displayed. It has the disadvantage of losing and making it difficult to perceive obstacles.

特開2001−187553号公報に開示された技術では、障害物を検知できるとともに車両から障害物までの距離を算出できるが、舵角センサと車輪速センサとから正確な車両移動情報を求める必要があり、厳しい精度が要求される。また、異なる時点で撮像された原画像間で差分を取る必要があるため、両画像間のスケール差異を解消しなければならず、その計算には工夫が必要となる。
特開平10−211849号公報 特開2002−87160号公報 特開2001−187553号公報
In the technique disclosed in Japanese Patent Laid-Open No. 2001-187553, an obstacle can be detected and a distance from the vehicle to the obstacle can be calculated. However, it is necessary to obtain accurate vehicle movement information from the rudder angle sensor and the wheel speed sensor. Yes, strict accuracy is required. Further, since it is necessary to take a difference between original images taken at different points in time, the scale difference between the two images must be eliminated, and a device is required for the calculation.
Japanese Patent Laid-Open No. 10-211849 JP 2002-87160 A JP 2001-187553 A

この発明は、障害物検知が容易に行えるようになる運転支援システムを提供することを目的とする。   An object of this invention is to provide the driving assistance system which can perform an obstacle detection easily.

また、この発明は、障害物検知と車両から障害物までの距離の算出が容易に行えるようになる運転支援システムを提供することを目的とする。   It is another object of the present invention to provide a driving support system that can easily detect an obstacle and calculate a distance from the vehicle to the obstacle.

請求項1に記載の発明は、車両に搭載された表示器、車両に搭載された車両周辺の画像を撮像する撮像装置、撮像装置によって撮像された時間差のある2つの画像それぞれから、鳥瞰図画像を生成する鳥瞰図画像生成手段、鳥瞰図画像生成手段によって生成された2つの鳥瞰図画像間の路面上の2組以上の対応点を抽出する対応点抽出手段、対応点抽出手段によって抽出された路面上の2組以上の対応点に基づいて、両鳥瞰図画像間の対応点どうしが一致するように一方の鳥瞰図画像の座標を変換する座標変換手段、座標変換された一方の鳥瞰図画像と他方の鳥瞰図画像との差分をとることにより、高さのある障害物領域を抽出する障害物領域抽出手段、ならびに2つの鳥瞰図画像のうち一方の鳥瞰図画像を表示器に表示するとともに、その鳥瞰図画像のうち障害物領域抽出手段によって抽出された障害物領域を他の部分と識別できるように表示器に表示させる表示手段を備えていることを特徴とする。   According to the first aspect of the present invention, a bird's-eye view image is obtained from each of a display mounted on a vehicle, an imaging device that captures an image around the vehicle mounted on the vehicle, and two images with a time difference captured by the imaging device. A bird's-eye view image generating means to generate, a corresponding point extracting means for extracting two or more sets of corresponding points on the road surface between the two bird's-eye view image generated by the bird's-eye view image generating means, and 2 on the road surface extracted by the corresponding point extracting means Coordinate conversion means for converting the coordinates of one bird's-eye view image so that corresponding points between the two bird's-eye view images match each other based on the pair of corresponding points or more, and the coordinate-converted one bird's-eye view image and the other bird's-eye view image By taking the difference, the obstacle region extracting means for extracting the obstacle region having a height, and displaying one bird's-eye view image of the two bird's-eye view images on the display, Characterized in that it comprises a display means for displaying on the display unit as an obstacle area extracted by the obstacle region extracting means can be distinguished from other portions of the's eye view image.

請求項2に記載の発明は、請求項1に記載の発明において、障害物領域抽出手段によって抽出された各障害物領域毎に、車両からの距離を算出する距離算出手段を備えており、表示手段は距離算出手段によって算出された各障害物領域に対応する距離を表示させる手段を備えていることを特徴とする。   The invention according to claim 2 comprises distance calculation means for calculating the distance from the vehicle for each obstacle area extracted by the obstacle area extraction means in the invention according to claim 1, and displays The means includes means for displaying a distance corresponding to each obstacle area calculated by the distance calculating means.

この発明によれば、障害物検知が容易に行えるようになる。また、この発明によれば、車両から離れた領域においても高い視認性が得られるようになる。   According to the present invention, obstacle detection can be easily performed. Moreover, according to this invention, high visibility comes to be obtained also in the area | region away from the vehicle.

以下、図面を参照して、この発明の実施例について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

〔1〕運転支援システムの構成についての説明
図1は、自動車に設けられた運転支援システムの構成を示している。
[1] Description of Configuration of Driving Support System FIG. 1 shows a configuration of a driving support system provided in an automobile.

運転支援システムは、車両の後部に後方斜め下向きに配置されたカメラ(撮像装置)1と、車両内に設けられかつカメラ1によって撮像された画像から鳥瞰図画像等を生成するための画像処理ユニット2と、車両内のダッシュボードに配置されかつ画像処理ユニット2によって生成された鳥瞰図画像等を表示するモニタ(表示器)3とを備えている。   The driving support system includes a camera (imaging device) 1 disposed rearward and obliquely downward at the rear of the vehicle, and an image processing unit 2 for generating a bird's eye view image or the like from an image provided in the vehicle and captured by the camera 1. And a monitor (display device) 3 that is arranged on a dashboard in the vehicle and displays a bird's eye view image or the like generated by the image processing unit 2.

カメラ1としては、例えば、CCDカメラが用いられる。画像処理ユニット2としては、例えば、マイクロコンピュータが用いられる。モニタ3としては、例えば、ナビゲーションシステムのモニタが用いられる。   As the camera 1, for example, a CCD camera is used. As the image processing unit 2, for example, a microcomputer is used. As the monitor 3, for example, a monitor of a navigation system is used.

水平面とカメラ1の光軸とのなす角は、図1にαで表される角度と、βで表される角度との2種類がある。αは、一般的には、見下ろし角または俯角αと呼ばれている。この明細書では、角度βを水平面に対するカメラ1の傾き角度θということにする。   There are two types of angles between the horizontal plane and the optical axis of the camera 1, the angle represented by α and the angle represented by β in FIG. 1. α is generally called a look-down angle or depression angle α. In this specification, the angle β is referred to as the tilt angle θ of the camera 1 with respect to the horizontal plane.

〔2〕画像処理ユニット2による処理手順の説明
図2は、画像処理ユニット2による処理手順を示している。
カメラ1の地面からの高さh、水平面に対するカメラ1の傾き角度θ、カメラ1のレンズ焦点距離f等のパラメータは、予め設定されているものとする。
[2] Description of Processing Procedure by Image Processing Unit 2 FIG. 2 shows a processing procedure by the image processing unit 2.
It is assumed that parameters such as the height h of the camera 1 from the ground, the tilt angle θ of the camera 1 with respect to the horizontal plane, and the lens focal length f of the camera 1 are set in advance.

まず、カメラ1の撮像画像(第1画像:時点tの画像)を読み込む(ステップS1)。この後、車両が移動すると(ステップS2でYES)、カメラ1の撮像画像(第2画像:時点t+1の画像)を読み込む(ステップS3)。   First, a captured image of the camera 1 (first image: image at time t) is read (step S1). Thereafter, when the vehicle moves (YES in step S2), an image captured by the camera 1 (second image: image at time t + 1) is read (step S3).

第1画像を第1鳥瞰図画像に変換するとともに、第2画像を第2鳥瞰図画像に変換する(ステップS4)。   While converting a 1st image into a 1st bird's-eye view image, a 2nd image is converted into a 2nd bird's-eye view image (step S4).

次に、第1鳥瞰図画像と第2鳥瞰図画像との間のマッチングを行ない、第1鳥瞰図画像と第2鳥瞰図画像との間の路面上の2組の対応点を抽出する(ステップS5)。   Next, matching is performed between the first bird's-eye view image and the second bird's-eye view image, and two sets of corresponding points on the road surface between the first bird's-eye view image and the second bird's-eye view image are extracted (step S5).

第1鳥瞰図画像と第2鳥瞰図画像との間の路面上の2組の対応点に基づいて、両画像間の2組の対応点どうしが一致するように、両画像のうちの一方の画像の座標を変換する(ステップS6)。この例では、第1鳥瞰図画像と第2鳥瞰図画像との間の路面上の2組の対応点どうしが一致するように、第1鳥瞰図画像の座標を変換する。   Based on the two sets of corresponding points on the road surface between the first bird's-eye view image and the second bird's-eye view image, the two sets of corresponding points between the two images match each other. The coordinates are converted (step S6). In this example, the coordinates of the first bird's eye view image are converted so that two sets of corresponding points on the road surface between the first bird's eye view image and the second bird's eye view image match.

座標変換された一方の鳥瞰図画像と他方の鳥瞰図画像との差分をとることにより、高さのある障害物領域を抽出する(ステップS7)。この例では、座標変換された第1の鳥瞰図画像と第2の鳥瞰図画像との差分をとることにより、高さのある障害物領域を抽出する。   By taking the difference between the one bird's-eye view image and the other bird's-eye view image that have undergone coordinate conversion, an obstacle region having a height is extracted (step S7). In this example, an obstacle region having a height is extracted by taking the difference between the first bird's-eye view image and the second bird's-eye view image that have undergone coordinate conversion.

次に、車両から、ステップS7で抽出した各障害物領域までの距離を計算する(ステップS8)。そして、第2の鳥瞰図画像に、その画像内の各障害物領域を他の部分から識別できるような表示と、各障害物領域の車両からの距離データとを付加した画像を表示器に表示させる(ステップS9)。   Next, the distance from the vehicle to each obstacle area extracted in step S7 is calculated (step S8). Then, an image in which each obstacle region in the image can be identified from other parts and distance data from the vehicle of each obstacle region on the second bird's eye view image is displayed on the display. (Step S9).

以下、ステップS4、S5、S6、S7、S8およびS9の処理について、詳しく説明する。   Hereinafter, the processes of steps S4, S5, S6, S7, S8 and S9 will be described in detail.

〔3〕ステップS4の処理についての説明
ステップS4では、原画像を路面上に透視投影することによって、鳥瞰図画像を生成する。以下、この鳥瞰図画像の生成方法について説明する。
[3] Explanation of processing in step S4 In step S4, a bird's-eye view image is generated by perspective-projecting the original image on the road surface. Hereinafter, a method for generating the bird's eye view image will be described.

図3は、カメラ座標系XYZと、カメラ1の撮像面Sの座標系Xbubuと、2次元地面座標系Xw w を含む世界座標系Xw w w との関係を示している。 FIG. 3 shows the relationship between the camera coordinate system XYZ, the coordinate system X bu Y bu of the imaging surface S of the camera 1, and the world coordinate system X w Y w Z w including the two-dimensional ground coordinate system X w Z w. ing.

カメラ座標系XYZでは、カメラの光学中心を原点Oとして、光軸方向にZ軸が、Z軸に直交しかつ地面に平行な方向にX軸が、Z軸およびX軸に直交する方向にY軸がとられている。撮像面Sの座標系Xbubuでは、撮像面Sの中心に原点をとり、撮像面Sの横方向にXbu軸が、撮像面Sの縦方向にYbuが取られている。 In the camera coordinate system XYZ, with the optical center of the camera as the origin O, the Z axis in the optical axis direction, the X axis in the direction perpendicular to the Z axis and parallel to the ground, and the Y axis in the direction perpendicular to the Z axis and the X axis The axis is taken. In the coordinate system X bu Y bu of the imaging surface S, the origin is set at the center of the imaging surface S, the X bu axis is taken in the horizontal direction of the imaging surface S, and Y bu is taken in the vertical direction of the imaging surface S.

世界座標系Xw w w では、カメラ座標系XYZの原点Oを通る垂線と地面との交点を原点Ow とし、地面と垂直な方向にYw 軸が、カメラ座標系XYZのX軸と平行な方向にXw 軸が、Xw 軸およびYw 軸に直交する方向にZw 軸がとられている。 In the world coordinate system X w Y w Z w, the intersection of the perpendicular with the ground passing through the origin O of the camera coordinate system XYZ with the origin O w, Y w axis to the ground and perpendicular directions, X axis of the camera coordinate system XYZ X w axis in a direction parallel to the can, Z w axis is taken in a direction orthogonal to the X w axis and Y w axis.

世界座標系Xw w w とカメラ座標系XYZとの間の平行移動量は〔0,h,0〕であり、X軸周りの回転量はθ(=θo)である。 Translation amount between the world coordinate system X w Y w Z w and the camera coordinate system XYZ is [0, h, 0], the rotation amount about the X-axis is θ (= θo).

したがって、カメラ座標系XYZの座標(x,y,z)と世界座標系Xw w w の座標(xw ,yw ,zw )との間の変換式は、次式(1)で表される。 Therefore, the conversion formula between the coordinates (x, y, z) of the camera coordinate system XYZ and the coordinates (x w , y w , z w ) of the world coordinate system X w Y w Z w is the following formula (1): It is represented by

Figure 2006268076
Figure 2006268076

また、撮像面Sの座標系Xbubuの座標(xbu,ybu)と、カメラ座標系XYZの座標(x,y,z)との間の変換式は、カメラ1の焦点距離をfとすると、次式(2)で表される。 In addition, the conversion formula between the coordinates (x bu , y bu ) of the coordinate system X bu Y bu on the imaging surface S and the coordinates (x, y, z) of the camera coordinate system XYZ represents the focal length of the camera 1. If it is set to f, it represents with following Formula (2).

Figure 2006268076
Figure 2006268076

上記式(1)、(2)から、撮像面Sの座標系Xbubuの座標(xbu,ybu)と二次元地面座標系Xw w の座標(xw ,zw )との間の変換式(3)が得られる。 From the above equations (1) and (2), the coordinates (x bu , y bu ) of the coordinate system X bu Y bu of the imaging surface S and the coordinates (x w , z w ) of the two-dimensional ground coordinate system X w Z w (3) is obtained.

Figure 2006268076
Figure 2006268076

また、二次元地面座標系Xw w から仮想カメラの鳥瞰図座標系Xauauへの投影は、平行投影によって行われる。カメラ1の焦点距離をfとし、仮想カメラの高さ位置をHとすると、二次元地面座標系Xw w の座標(xw ,zw )と鳥瞰図座標系Xauauの座標(xau,yau)との間の変換式は、次式(4)で表される。仮想カメラの高さ位置Hは予め設定されている。 Further, the projection from the two-dimensional ground coordinate system X w Z w to the bird's eye view coordinate system X au Y au of the virtual camera is performed by parallel projection. Assuming that the focal length of the camera 1 is f and the height position of the virtual camera is H, the coordinates (x w , z w ) of the two-dimensional ground coordinate system X w Z w and the coordinates of the bird's eye view coordinate system X au Y au (x A conversion formula between au and y au ) is expressed by the following formula (4). The height position H of the virtual camera is set in advance.

Figure 2006268076
Figure 2006268076

上記式(4)から、次式(5)が得られる。   From the above equation (4), the following equation (5) is obtained.

Figure 2006268076
Figure 2006268076

得られた式(5)を上記式(3)に代入すると、次式(6)が得られる。   Substituting the obtained equation (5) into the above equation (3), the following equation (6) is obtained.

Figure 2006268076
Figure 2006268076

上記式(6)から、入力画像Iの座標(xbu,ybu)を、鳥瞰図座標系Xauauの座標(xau,yau)に変換するための式(7)が得られる。 From the above equation (6), the equation (7) for converting the coordinates (x bu , y bu ) of the input image I into the coordinates (x au , y au ) of the bird's eye view coordinate system X au Y au is obtained.

Figure 2006268076
Figure 2006268076

上記ステップS4では、上記式(7)に基づいて、第1画像を第1鳥瞰図画像に変換するとともに、第2画像を第2鳥瞰図画像に変換する。   In step S4, the first image is converted into the first bird's-eye view image and the second image is converted into the second bird's-eye view image based on the equation (7).

図4(a)は駐車枠の原画像を示し、図4(b)は図4(a)の原画像に対応する鳥瞰図画像を示している。図4(a)および図4(b)から、鳥瞰図画像では、上方から見た画像に変換されていることがわかる。   FIG. 4A shows an original image of a parking frame, and FIG. 4B shows a bird's eye view image corresponding to the original image of FIG. From FIG. 4A and FIG. 4B, it can be seen that the bird's-eye view image is converted to an image viewed from above.

〔4〕ステップS5の処理についての説明
ステップ5では、第1鳥瞰図画像と第2鳥瞰図画像との間の路面上の2組の対応点を抽出する。この場合、2組の対応点は、路面上の点でなければならない。これは、鳥瞰図では撮影地点によらず路面上のスケールが常に同じになることを利用して、第1鳥瞰図画像と第2鳥瞰図画像とを同じ座標系に変換するためである。
[4] Description of Step S5 In step 5, two sets of corresponding points on the road surface between the first bird's-eye view image and the second bird's-eye view image are extracted. In this case, the two sets of corresponding points must be points on the road surface. This is because the first bird's-eye view image and the second bird's-eye view image are converted into the same coordinate system by utilizing the fact that the scale on the road surface is always the same regardless of the shooting point in the bird's-eye view.

まず、第1鳥瞰図画像と第2鳥瞰図画像の一方の画像から3以上の複数の特徴点を抽出する。特徴点は、例えば、エッジ部の点である。そして、第1鳥瞰図画像と第2鳥瞰図画像との間のマッチングにより、一方の画像上の各特徴点に対応する他方の画像上の対応点を求める。これにより、両鳥瞰図画像間で対応する点を3組以上の複数組求める。そして、求めた複数組の対応点から、ランダムに2組の対応点を選択する。ランダムに選択した2組の対応点を(a1,a2)、(b1,b2)とする。   First, three or more feature points are extracted from one image of the first bird's eye view image and the second bird's eye view image. The feature point is, for example, a point at the edge portion. Then, by matching between the first bird's-eye view image and the second bird's-eye view image, corresponding points on the other image corresponding to the feature points on one image are obtained. As a result, a plurality of sets of three or more sets of corresponding points between both bird's-eye view images are obtained. Then, two sets of corresponding points are selected at random from the determined sets of corresponding points. Let two sets of corresponding points selected at random be (a1, a2) and (b1, b2).

鳥瞰図では撮影地点によらず路面上のスケールが常に同じであるので、これらの対応点(a1,a2)、(b1,b2)が路面上にある場合には、ab間の長さa1b1と、a2b2間の長さa2b2とは等しくなる。そこで、選択した2組の対応点(a1,a2)、(b1,b2)について、a1b1間の長さa1b1とa2b2間の長さa2b2とが等しいか否かを判別し、等しければそれらの対応点(a1,a2)、(b1,b2)を、第1鳥瞰図画像と第2鳥瞰図画像との間の路面上の2つの対応点とする。   In the bird's eye view, the scale on the road surface is always the same regardless of the shooting point. Therefore, when these corresponding points (a1, a2), (b1, b2) are on the road surface, the length a1b1 between ab, The length a2b2 between a2b2 is equal. Therefore, it is determined whether or not the length a1b1 between a1b1 and the length a2b2 between a2b2 are equal for the two selected pairs of corresponding points (a1, a2) and (b1, b2). Points (a1, a2) and (b1, b2) are taken as two corresponding points on the road surface between the first bird's-eye view image and the second bird's-eye view image.

等しくなけば、改めて2組の対応点をランダム選択し、選択した2組の対応点(a1,a2)、(b1,b2)について、a1b1間の長さa1b1とa2b2間の長さa2b2とが等しいか否かを判別する。このような処理を、選択した2組の対応点(a1,a2)、(b1,b2)について、a1b1間の長さa1b1とa2b2間の長さa2b2とが等しいと判定されるまで、繰り返し行う。   If they are not equal, two pairs of corresponding points are selected at random, and for the two selected pairs of corresponding points (a1, a2) and (b1, b2), the length a1b1 between a1b1 and the length a2b2 between a2b2 are Determine whether they are equal. Such processing is repeated for the two pairs of corresponding points (a1, a2) and (b1, b2) until it is determined that the length a1b1 between a1b1 and the length a2b2 between a2b2 are equal. .

〔5〕ステップS6の処理についての説明
ステップS6では、第1鳥瞰図画像と第2鳥瞰図画像との間の路面上の2組の対応点に基づいて、両画像間の2組の対応点どうしが一致するように、両画像のうちの一方の画像の座標を変換する。この座標変換の基本的な考え方について説明する。
[5] Explanation of Step S6 In step S6, two sets of corresponding points between the two images are determined based on two sets of corresponding points on the road surface between the first bird's-eye view image and the second bird's-eye view image. The coordinates of one of the two images are converted so as to match. The basic concept of this coordinate transformation will be described.

図5(a)は第1鳥瞰図画像の例を示し、図5(b)は第2鳥瞰図画像の例を示している。   FIG. 5A shows an example of the first bird's-eye view image, and FIG. 5B shows an example of the second bird's-eye view image.

両鳥瞰図画像において、(a1,a2)、(b1,b2)がステップS6で抽出された2組の対応点であるとする。上述したように、a1b1間の長さa1b1と、a2b2間の長さa2b2とは等しい。この性質を利用して、各対応点どうし(a1,a2)、(b1,b2)が一致するように、第1鳥瞰図画像の座標を第2鳥瞰図画像上の座標に変換することができる。   It is assumed that (a1, a2) and (b1, b2) are two sets of corresponding points extracted in step S6 in both bird's-eye view images. As described above, the length a1b1 between a1b1 and the length a2b2 between a2b2 are equal. Using this property, the coordinates of the first bird's-eye view image can be converted into the coordinates on the second bird's-eye view image so that the corresponding points (a1, a2) and (b1, b2) match.

まず、図6に示すように、第1鳥瞰図画像の点a1が、第2鳥瞰図画像の点a2に一致するように、第1鳥瞰図画像を(Δx,Δy)だけ平行移動させる。次に、図7に示すように、点b1が点b2に一致するように、第1鳥瞰図画像をΔθだけ回転させる。なお、(Δx,Δy)およびΔθは、車両の移動量であり、直線a1b1と直線a2b2との画像相対位置から容易に求めることができる。   First, as shown in FIG. 6, the first bird's-eye view image is translated by (Δx, Δy) so that the point a1 of the first bird's-eye view image matches the point a2 of the second bird's-eye view image. Next, as shown in FIG. 7, the first bird's-eye view image is rotated by Δθ so that the point b1 coincides with the point b2. Note that (Δx, Δy) and Δθ are movement amounts of the vehicle, and can be easily obtained from the image relative positions of the straight line a1b1 and the straight line a2b2.

〔6〕ステップS7の処理についての説明
ステップS7では、座標変換された一方の鳥瞰図画像と他方の鳥瞰図画像との差分をとることにより、高さのある障害物領域を検出する。
[6] Description of Step S7 In step S7, the obstacle region having a height is detected by taking the difference between the one bird's-eye view image and the other bird's-eye view image that have undergone coordinate transformation.

上記ステップS6の座標変換により、座標変換後の第1の鳥瞰図画像と、第2の鳥瞰図画像との間においては、路面上の平面画像領域は一致するが、高さを有する障害物の領域においては不一致部分が発生する。   By the coordinate transformation in step S6, the planar image area on the road surface is the same between the first bird's-eye view image and the second bird's-eye view image after the coordinate transformation, but in the obstacle area having a height. Does not match.

図8は、ある障害物Qに対する座標変換後の第1の鳥瞰図画像上の画像Q1と、第2鳥瞰図画像上の画像Q2とを示している。Q1とQ2とは、一部は一致しているが、不一致部分が発生している。   FIG. 8 shows an image Q1 on the first bird's eye view image after coordinate conversion for an obstacle Q and an image Q2 on the second bird's eye view image. Q1 and Q2 partially match, but a mismatched portion has occurred.

そこで、ステップS7では、座標変換後の第1の鳥瞰図画像と、第2の鳥瞰図画像との差分をとることにより、図9に示すように、障害物の画像Q1とQ2の間の不一致部分Q1’、Q2’を障害物領域として抽出する。   Therefore, in step S7, by taking the difference between the first bird's-eye view image after the coordinate conversion and the second bird's-eye view image, as shown in FIG. 9, the inconsistent portion Q1 between the obstacle images Q1 and Q2 is shown. ', Q2' is extracted as an obstacle area.

〔7〕ステップS8の処理についての説明
ステップS8では、車両からステップS7で抽出した各障害物までの距離を計算する。つまり、第2の鳥瞰図画像上において、車両から各障害物までの距離を算出する。具体的には、上記式(5)に基づいて、第2の鳥瞰図画像上の障害物の位置(xau,yau)に対応する2次元地面座標系の座標(xw ,zw )を算出する。得られたzw が、車両からの距離となる。
[7] Description of Step S8 In step S8, the distance from the vehicle to each obstacle extracted in step S7 is calculated. That is, the distance from the vehicle to each obstacle is calculated on the second bird's eye view image. Specifically, based on the above equation (5), the coordinates (x w , z w ) of the two-dimensional ground coordinate system corresponding to the position (x au , y au ) of the obstacle on the second bird's eye view image are obtained. calculate. The obtained z w is the distance from the vehicle.

〔8〕ステップS9の処理についての説明
ステップS9では、第2の鳥瞰図画像に、その画像内の各障害物領域を他の部分から識別できるような表示と各障害物領域の車両からの距離データを付加した画像を表示器に表示させる。
[8] Explanation of processing in step S9 In step S9, the second bird's-eye view image displays on the second bird's-eye view image such that each obstacle region can be identified from other parts, and distance data from the vehicle in each obstacle region. The image with the added is displayed on the display.

障害物領域を他の部分から識別できるような表示としては、障害物領域に特殊な色をつけたり、点滅表示させたりするといったことが行われる。距離データは、障害物領域の近くに数値表示させる。   As a display that can identify the obstacle area from other parts, a special color is given to the obstacle area or a blinking display is performed. The distance data is displayed numerically near the obstacle area.

自動車に設けられた運転支援システムの構成を示している。The structure of the driving assistance system provided in the motor vehicle is shown. 画像処理ユニット2による処理手順を示すフローチャートである。4 is a flowchart illustrating a processing procedure performed by the image processing unit 2. カメラ座標系XYZと、カメラ1の撮像面Sの座標系Xbubuと、2次元地面座標系Xw w を含む世界座標系Xw w w との関係を示す模式図である。A camera coordinate system XYZ, a coordinate system X bu Y bu of the imaging surface S of the camera 1, is a schematic diagram showing the relationship between the world coordinate system X w Y w Z w including a two-dimensional ground surface coordinate system X w Z w . 駐車枠の原画像と、その原画像に対応する鳥瞰図画像とを示す模式図である。It is a schematic diagram which shows the original image of a parking frame, and the bird's-eye view image corresponding to the original image. 第1鳥瞰図画像と第2鳥瞰図画像の例を示す模式図である。It is a schematic diagram which shows the example of a 1st bird's-eye view image and a 2nd bird's-eye view image. 第1鳥瞰図画像の点a1が、第2鳥瞰図画像の点a2に一致するように、第1鳥瞰図画像を平行移動させた状態を示す模式図である。It is a schematic diagram which shows the state which translated the 1st bird's-eye view image so that the point a1 of a 1st bird's-eye view image may correspond to the point a2 of a 2nd bird's-eye view image. 図6の状態から、点b1が点b2に一致するように、第1鳥瞰図画像を回転させた状態を示す模式図である。It is a schematic diagram which shows the state which rotated the 1st bird's-eye view image so that the point b1 may correspond to the point b2 from the state of FIG. ある障害物Qに対する座標変換後の第1の鳥瞰図画像上の画像Q1と、第2鳥瞰図画像上の画像Q2とを示す模式図である。It is a schematic diagram which shows image Q1 on the 1st bird's-eye view image after coordinate transformation with respect to a certain obstacle Q, and image Q2 on the 2nd bird's-eye view image. 座標変換後の第1の鳥瞰図画像と第2の鳥瞰図画像との差分をとることにより抽出された障害物領域を示す模式図である。It is a schematic diagram which shows the obstruction area | region extracted by taking the difference of the 1st bird's-eye view image and 2nd bird's-eye view image after coordinate transformation.

符号の説明Explanation of symbols

1 カメラ
2 画像処理ユニット
3 モニタ
1 Camera 2 Image processing unit 3 Monitor

Claims (2)

車両に搭載された表示器、
車両に搭載された車両周辺の画像を撮像する撮像装置、
撮像装置によって撮像された時間差のある2つの画像それぞれから、鳥瞰図画像を生成する鳥瞰図画像生成手段、
鳥瞰図画像生成手段によって生成された2つの鳥瞰図画像間の路面上の2組以上の対応点を抽出する対応点抽出手段、
対応点抽出手段によって抽出された路面上の2組以上の対応点に基づいて、両鳥瞰図画像間の対応点どうしが一致するように一方の鳥瞰図画像の座標を変換する座標変換手段、 座標変換された一方の鳥瞰図画像と他方の鳥瞰図画像との差分をとることにより、高さのある障害物領域を抽出する障害物領域抽出手段、ならびに
2つの鳥瞰図画像のうち一方の鳥瞰図画像を表示器に表示するとともに、その鳥瞰図画像のうち障害物領域抽出手段によって抽出された障害物領域を他の部分と識別できるように表示器に表示させる表示手段、
を備えていることを特徴とする運転支援システム。
Indicator mounted on the vehicle,
An image pickup apparatus for picking up an image around the vehicle mounted on the vehicle;
A bird's-eye view image generating means for generating a bird's-eye view image from each of two time-difference images captured by the imaging device;
Corresponding point extracting means for extracting two or more sets of corresponding points on the road surface between two bird's eye view images generated by the bird's eye view image generating means;
Coordinate conversion means for converting the coordinates of one bird's-eye view image so that the corresponding points between the two bird's-eye view images match based on two or more sets of corresponding points on the road surface extracted by the corresponding point extraction means; By taking the difference between the one bird's-eye view image and the other bird's-eye view image, the obstacle region extracting means for extracting the obstacle region having a height, and one bird's-eye view image of the two bird's-eye view images is displayed on the display And a display means for displaying the obstacle area extracted by the obstacle area extraction means in the bird's eye view image on the display so as to be distinguishable from other parts,
A driving support system characterized by comprising:
障害物領域抽出手段によって抽出された各障害物領域毎に、車両からの距離を算出する距離算出手段を備えており、表示手段は距離算出手段によって算出された各障害物領域に対応する距離を表示させる手段を備えていることを特徴とする請求項1に記載の運転支援システム。 For each obstacle area extracted by the obstacle area extraction means, a distance calculation means for calculating the distance from the vehicle is provided, and the display means indicates the distance corresponding to each obstacle area calculated by the distance calculation means. The driving support system according to claim 1, further comprising a display unit.
JP2005081001A 2005-03-22 2005-03-22 Driving assistance system Pending JP2006268076A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005081001A JP2006268076A (en) 2005-03-22 2005-03-22 Driving assistance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005081001A JP2006268076A (en) 2005-03-22 2005-03-22 Driving assistance system

Publications (2)

Publication Number Publication Date
JP2006268076A true JP2006268076A (en) 2006-10-05
JP2006268076A5 JP2006268076A5 (en) 2007-08-30

Family

ID=37204033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005081001A Pending JP2006268076A (en) 2005-03-22 2005-03-22 Driving assistance system

Country Status (1)

Country Link
JP (1) JP2006268076A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007235642A (en) * 2006-03-02 2007-09-13 Hitachi Ltd Obstruction detecting system
JP2008099136A (en) * 2006-10-13 2008-04-24 Auto Network Gijutsu Kenkyusho:Kk Solid detection apparatus
JP2008172535A (en) * 2007-01-11 2008-07-24 Sanyo Electric Co Ltd Operation supporting system, image processing device, and deviation detecting method
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
EP2015253A1 (en) 2007-07-09 2009-01-14 Sanyo Electric Co., Ltd. Driving support system and vehicle
JP2009077022A (en) * 2007-09-19 2009-04-09 Sanyo Electric Co Ltd Driving support system and vehicle
JP2009076076A (en) * 2007-09-24 2009-04-09 Delphi Technologies Inc Method for recognizing obstacle
WO2009066506A1 (en) * 2007-11-20 2009-05-28 Sanyo Electric Co., Ltd. Operation support system, vehicle, and method for estimating three-dimensional object area
JP2010016746A (en) * 2008-07-07 2010-01-21 Alpine Electronics Inc Periphery monitoring apparatus
JP2010015367A (en) * 2008-07-03 2010-01-21 Alpine Electronics Inc Three-dimensional object detection device and its method
WO2012062573A1 (en) * 2010-11-12 2012-05-18 Valeo Schalter Und Sensoren Gmbh Method for generating an image of the surroundings of a vehicle and imaging device
US8208686B2 (en) 2008-03-21 2012-06-26 Kabushiki Kaisha Toshiba Object detecting apparatus and method for detecting an object
US8446471B2 (en) 2009-12-31 2013-05-21 Industrial Technology Research Institute Method and system for generating surrounding seamless bird-view image with distance interface
WO2014131193A1 (en) * 2013-03-01 2014-09-04 Harman International Industries, Incorporated Road region detection

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001224013A (en) * 2000-02-09 2001-08-17 Sony Corp Drive support system and drive support method
JP2002087160A (en) * 2000-09-18 2002-03-26 Denso Corp Vehicular surrounding image processing device and recording medium
JP2002283913A (en) * 2001-03-29 2002-10-03 Denso Corp Vehicle periphery indication device, program and recording medium
JP2002359838A (en) * 2001-03-28 2002-12-13 Matsushita Electric Ind Co Ltd Device for supporting driving
JP2003044996A (en) * 2001-07-31 2003-02-14 Matsushita Electric Ind Co Ltd Obstacle detecting device
JP2003143597A (en) * 2001-11-07 2003-05-16 Denso Corp Vehicle surrounding picture processor and recording medium
JP2005012465A (en) * 2003-06-18 2005-01-13 Denso Corp Peripheral displaying device for vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001224013A (en) * 2000-02-09 2001-08-17 Sony Corp Drive support system and drive support method
JP2002087160A (en) * 2000-09-18 2002-03-26 Denso Corp Vehicular surrounding image processing device and recording medium
JP2002359838A (en) * 2001-03-28 2002-12-13 Matsushita Electric Ind Co Ltd Device for supporting driving
JP2002283913A (en) * 2001-03-29 2002-10-03 Denso Corp Vehicle periphery indication device, program and recording medium
JP2003044996A (en) * 2001-07-31 2003-02-14 Matsushita Electric Ind Co Ltd Obstacle detecting device
JP2003143597A (en) * 2001-11-07 2003-05-16 Denso Corp Vehicle surrounding picture processor and recording medium
JP2005012465A (en) * 2003-06-18 2005-01-13 Denso Corp Peripheral displaying device for vehicle

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007235642A (en) * 2006-03-02 2007-09-13 Hitachi Ltd Obstruction detecting system
JP2008099136A (en) * 2006-10-13 2008-04-24 Auto Network Gijutsu Kenkyusho:Kk Solid detection apparatus
JP2008172535A (en) * 2007-01-11 2008-07-24 Sanyo Electric Co Ltd Operation supporting system, image processing device, and deviation detecting method
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
EP2015253A1 (en) 2007-07-09 2009-01-14 Sanyo Electric Co., Ltd. Driving support system and vehicle
JP2009017462A (en) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd Driving support system and vehicle
JP2009077022A (en) * 2007-09-19 2009-04-09 Sanyo Electric Co Ltd Driving support system and vehicle
JP2009076076A (en) * 2007-09-24 2009-04-09 Delphi Technologies Inc Method for recognizing obstacle
WO2009066506A1 (en) * 2007-11-20 2009-05-28 Sanyo Electric Co., Ltd. Operation support system, vehicle, and method for estimating three-dimensional object area
US8208686B2 (en) 2008-03-21 2012-06-26 Kabushiki Kaisha Toshiba Object detecting apparatus and method for detecting an object
JP2010015367A (en) * 2008-07-03 2010-01-21 Alpine Electronics Inc Three-dimensional object detection device and its method
JP2010016746A (en) * 2008-07-07 2010-01-21 Alpine Electronics Inc Periphery monitoring apparatus
US8446471B2 (en) 2009-12-31 2013-05-21 Industrial Technology Research Institute Method and system for generating surrounding seamless bird-view image with distance interface
WO2012062573A1 (en) * 2010-11-12 2012-05-18 Valeo Schalter Und Sensoren Gmbh Method for generating an image of the surroundings of a vehicle and imaging device
US9544549B2 (en) 2010-11-12 2017-01-10 Valeo Schalter Und Sensoren Gmbh Method for generating an image of the surroundings of a vehicle and imaging device
WO2014131193A1 (en) * 2013-03-01 2014-09-04 Harman International Industries, Incorporated Road region detection
US10936883B2 (en) 2013-03-01 2021-03-02 Harman International Industries, Incorporated Road region detection

Similar Documents

Publication Publication Date Title
JP2006268076A (en) Driving assistance system
US8233045B2 (en) Method and apparatus for distortion correction and image enhancing of a vehicle rear viewing system
JP4636346B2 (en) Car camera calibration apparatus, method, and program
WO2016002163A1 (en) Image display device and image display method
JP4248570B2 (en) Image processing apparatus and visibility support apparatus and method
JP5953824B2 (en) Vehicle rear view support apparatus and vehicle rear view support method
US20110169957A1 (en) Vehicle Image Processing Method
JP2009060499A (en) Driving support system, and combination vehicle
JP2004198212A (en) Apparatus for monitoring vicinity of mobile object
JP6392693B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, and program
JP2009017462A (en) Driving support system and vehicle
JP2008227646A (en) Obstacle detector
US10099617B2 (en) Driving assistance device and driving assistance method
JP2010016805A (en) Image processing apparatus, driving support system, and image processing method
JP2008085710A (en) Driving support system
JP2004240480A (en) Operation support device
JP4154980B2 (en) Moving object periphery monitoring device
JP2008048094A (en) Video display device for vehicle, and display method of video images in vicinity of the vehicle
WO2015122124A1 (en) Vehicle periphery image display apparatus and vehicle periphery image display method
WO2019193819A1 (en) Display control device for vehicle, display system for vehicle, display control method for vehicle, and program
JP2001114047A (en) Vehicle-surrounding situation indication device
JP4720446B2 (en) Vehicle detection device and vehicle display device using the same
KR101558586B1 (en) Device and method for display image around a vehicle
JP4932293B2 (en) Obstacle recognition device
JP5271186B2 (en) Image display device for vehicle

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100513

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100930