JP2008085710A - Driving support system - Google Patents
Driving support system Download PDFInfo
- Publication number
- JP2008085710A JP2008085710A JP2006263931A JP2006263931A JP2008085710A JP 2008085710 A JP2008085710 A JP 2008085710A JP 2006263931 A JP2006263931 A JP 2006263931A JP 2006263931 A JP2006263931 A JP 2006263931A JP 2008085710 A JP2008085710 A JP 2008085710A
- Authority
- JP
- Japan
- Prior art keywords
- bird
- eye view
- image
- vehicle
- obstacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明は、運転支援システムに関する。 The present invention relates to a driving support system.
駐車を行なう場合の運転支援システムとして、車両の後方を監視する車載カメラによって撮像された映像を鳥瞰図画像に変換する機能を備え、異なる2地点において得られた鳥瞰図画像から障害物を検出し、検出した障害物をモニタに表示するシステムが既に開発されている(特許第3301421号公報参照)。 As a driving support system for parking, it has a function to convert the image captured by the in-vehicle camera that monitors the back of the vehicle into a bird's-eye view image, and detects and detects obstacles from the bird's-eye view images obtained at two different points A system for displaying the obstacle on the monitor has already been developed (see Japanese Patent No. 3301421).
しかしながら、この従来システムでは、障害物を検出するためには、車両が静止状態でないことが必要であるとともに、車速センサ、舵角センサ等を用いて車両の移動量と移動角度をリアルタイムに正確に計測することが必要となる。 However, in this conventional system, in order to detect an obstacle, it is necessary that the vehicle is not in a stationary state, and the movement amount and movement angle of the vehicle are accurately determined in real time using a vehicle speed sensor, a steering angle sensor, or the like. It is necessary to measure.
また、ステレオカメラを用いて障害物を検出する技術も既に開発されている。しかしながら、ステレオカメラを用いて障害物を検出するには、両カメラで撮像された画像間のマッチングが必要となるため、計算量が莫大となる。
この発明は、従来の欠点を解消でき、信頼性の高い障害物検出が行えるようになる運転支援システムを提供することを目的とする。 An object of this invention is to provide the driving assistance system which can eliminate the conventional fault and can perform highly reliable obstacle detection.
請求項1に記載の発明は、車両に搭載された表示器、互いの撮像範囲に共通領域が含まれるように車両に間隔をおいて設けられかつ車両周辺の画像を撮像する2台の撮像装置、各撮像装置によって撮像された2つの画像のそれぞれを、同一鳥瞰図座標系の鳥瞰図画像に変換する鳥瞰図画像生成手段、鳥瞰図画像生成手段によって生成された2つの鳥瞰図画像の差分をとることにより、高さのある障害物領域を抽出する障害物領域抽出手段、ならびに2つの鳥瞰図画像のうち一方の鳥瞰図画像を表示器に表示するとともに、その鳥瞰図画像のうち障害物領域抽出手段によって抽出された障害物領域を他の部分と識別できるように表示器に表示させる表示手段を備えていることを特徴とする。 According to the first aspect of the present invention, there are provided a display device mounted on a vehicle, and two image pickup devices which are provided at intervals in the vehicle so as to include a common area in the image pickup range of each other and pick up images around the vehicle By taking the difference between the two bird's-eye view images generated by the bird's-eye view image generating means and the bird's-eye view image generating means for converting each of the two images taken by each imaging device into a bird's-eye view image in the same bird's-eye view coordinate system, Obstacle area extracting means for extracting a certain obstacle area, and one of the two bird's-eye view images is displayed on the display, and the obstacle extracted from the bird's-eye view image by the obstacle area extracting means A display means for displaying the area on the display so that the area can be distinguished from other parts is provided.
請求項2に記載の発明は、請求項1に記載の発明において、車両から障害物領域抽出手段によって抽出された障害物領域までの距離を算出する距離算出手段を備えており、表示手段は距離算出手段によって算出された車両から障害物領域までの距離を表示させる手段を備えていることを特徴とする。
The invention according to
請求項3に記載の発明は、請求項1乃至2に記載の発明において、各撮像装置はそれぞれ、地面に水平な同一の仮想軸または地面に水平でかつ互いに平行な2つの仮想軸に対して、撮像装置の光軸が直交する状態で取り付けられている。 According to a third aspect of the present invention, in the first or second aspect of the present invention, each of the imaging devices may be configured with respect to the same virtual axis that is horizontal to the ground or two virtual axes that are horizontal to the ground and parallel to each other. The image pickup apparatus is attached in a state where the optical axes thereof are orthogonal to each other.
この発明によれば、障害物検知が容易に行えるようになる。また、この発明によれば、車両から離れた領域においても高い視認性が得られるようになる。 According to the present invention, obstacle detection can be easily performed. Moreover, according to this invention, high visibility comes to be obtained also in the area | region away from the vehicle.
以下、図面を参照して、この発明の実施例について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
〔1〕本願発明の基本的な考え方についての説明 [1] Explanation of basic concept of the present invention
図1は、本願発明の処理の流れを示している。 FIG. 1 shows a processing flow of the present invention.
本発明では、例えば、車両の後部には、2台のカメラが互いの撮像範囲に共通領域が含まれるように間隔をおいて取り付けられている。各カメラは、後方斜め下向きに取り付けられている。ただし、各カメラはそれぞれ、地面に水平でかつ車両の横方向に平行な同一または異なる2つの仮想軸に対して、カメラの光軸が直交する状態で取り付けられている。
各カメラの地面からの高さ位置の情報、各カメラの取り付け角度の情報および各カメラの水平方向距離(相対位置情報)が予め設定されている。
In the present invention, for example, at the rear of the vehicle, two cameras are attached at an interval so that a common area is included in the mutual imaging range. Each camera is attached rearward and obliquely downward. However, each camera is attached in a state where the optical axis of the camera is orthogonal to two identical or different virtual axes that are horizontal to the ground and parallel to the lateral direction of the vehicle.
Information on the height position of each camera from the ground, information on the mounting angle of each camera, and the horizontal distance (relative position information) of each camera are set in advance.
この2台のカメラによって撮像された映像を入力する。そして、各入力映像から、同一鳥瞰図座標系の2つの鳥瞰図画像を生成する。得られた2つの鳥瞰図画像の差分を取る。得られた差分画像から障害物領域を特定するとともに車両から障害物領域までの距離を算出する。ここで、障害物とは高さのある物体を言う。そして、一方の鳥瞰図画像に、その画像内の障害物領域を他の部分から識別できるような表示と、車両から障害物領域までの距離データを付加した画像をモニタに表示する。 Video captured by the two cameras is input. Then, two bird's-eye view images in the same bird's-eye view coordinate system are generated from each input video. The difference between the two obtained bird's-eye view images is taken. The obstacle area is specified from the obtained difference image, and the distance from the vehicle to the obstacle area is calculated. Here, the obstacle means an object having a height. Then, on the one bird's-eye view image, an image in which the obstacle area in the image can be identified from other parts and an image in which the distance data from the vehicle to the obstacle area is added is displayed on the monitor.
図2の(a)、(b)、(c)は、2台のカメラ1、2の取り付け態様を示している。
2A, 2B, and 2C show how the two
広範囲で障害物を検出するためには、両カメラの撮像範囲の共通領域が広いことが好ましいが、両カメラの設置位置が近すぎると、両カメラの撮像画像間の相違点が少なくなるので、障害物の検出精度が悪くなる可能性がある。つまり、障害物の検出範囲を広くすることと、障害物の検出精度を高くすることは、トレードオフの関係にある。そこで、このトレードオフの関係を考慮して、2台のカメラの取り付け位置を設定する必要がある。この実施例では、図2に(a)、(b)、(c)で示す3つの取り付け方法を提案する。 In order to detect obstacles in a wide range, it is preferable that the common area of the imaging range of both cameras is wide, but if the installation positions of both cameras are too close, the difference between the captured images of both cameras will be reduced. Obstacle detection accuracy may be degraded. That is, widening the obstacle detection range and increasing the obstacle detection accuracy are in a trade-off relationship. Therefore, it is necessary to set the mounting positions of the two cameras in consideration of this trade-off relationship. In this embodiment, three attachment methods indicated by (a), (b), and (c) in FIG. 2 are proposed.
図2(a)は、2台のカメラ1、2を垂直方向に所定距離隔てて配置した例を示し、図2(b)は、2台のカメラ1、2を水平方向に所定距離隔てて配置した例を示し、図2(c)は、2台のカメラ1、2を斜め方向に所定距離隔てて配置した例を示している。
FIG. 2A shows an example in which two
カメラ1は、図3に示すように、地面に水平でかつ車両の横方向に平行な仮想軸に対して、カメラの光軸が直交する状態で取り付けられている。カメラ2も図示しないが、同様に、地面に水平でかつ車両の横方向に平行な仮想軸に対して、カメラの光軸が直交する状態で取り付けられている。
As shown in FIG. 3, the
水平面とカメラ1(カメラ2)の光軸とのなす角には、図3に示すように、αで表される角度と、βで表される角度の2種類がある。αは、一般的には見下ろし角または俯角と呼ばれている。この明細書では、角度βを水平面に対するカメラの傾き角度(取り付け角度)θということにする。カメラ1の取り付け角度βとカメラ2の取り付け角度βとは、一致していても、一致してないくてもよい。
As shown in FIG. 3, there are two types of angles formed by the horizontal plane and the optical axis of the camera 1 (camera 2): an angle represented by α and an angle represented by β. α is generally called a look-down angle or depression angle. In this specification, the angle β is referred to as a camera tilt angle (attachment angle) θ with respect to a horizontal plane. The mounting angle β of the
図4は、図2(c)のように車両に取り付けられた2台のカメラ1、2による撮像シーンを示している。図4において、200が地面上に存在する三角錐状の障害物であり、201、202は地面上に描かれた白線である。
FIG. 4 shows an imaging scene by two
図5は、図4に示すような撮像シーンにおいて、各カメラ1、2によって撮像された撮像画像を示している。図5において、101はカメラ1の撮像画像であり、102はカメラ2の撮像画像である。同じシーンに対する撮影であるが、各カメラ1、2の位置が異なるため、各カメラ1、2の撮像画像は若干異なっている。
FIG. 5 shows captured images captured by the
図5に示す各撮像画像101、102を、同一鳥瞰図座標系の鳥瞰図画像に変換すると、図6に示すような2つの鳥瞰図画像が得られる。図6において、111は撮像画像101から生成された鳥瞰図画像であり、112は撮像画像102から生成された鳥瞰図画像である。両鳥瞰図画像111、112の間においては、路面上の平面画像領域は一致するが、高さを有する障害物200の領域Q1、Q2においては不一致部分が発生する。
When the captured
図6に示す両鳥瞰図画像111、112の差分を取ると、図7に示すような差分画像が得られる。この差分画像では、両鳥瞰図画像111、112における障害物200の画像Q1、Q2の不一致部分Q1’、Q2’が抽出される。したがって、この不一致部分Q1’、Q2’を障害物領域として特定することができる。障害物領域が特定されると、車両から障害物までの距離Dを計算することができる。
When the difference between the two bird's-
なお、図2の(a)、(b)、(c)のカメラ配置のうち、図2の(c)のカメラ配置が好ましい。以下、この理由について説明する。 Of the camera arrangements shown in FIGS. 2A, 2B, and 2C, the camera arrangement shown in FIG. 2C is preferable. Hereinafter, this reason will be described.
カメラ1、2の配置が図2(a)である場合において、図8に示すような垂直棒(障害物)310が存在するような撮像シーンを想定する。この垂直棒310は、両カメラ1、2を含みかつ車両の後方に伸びた鉛直面300内に存在している。この場合、垂直棒310は、両カメラ1、2の撮像画像の左右中央に現れるため、カメラ1、2の撮像画像に対応する同一鳥瞰図座標系の鳥瞰図画像は、図9に311、312で示すような画像となり、それらの差分画像は図10に示すような画像となる。差分画像では、垂直棒310の上端部しか抽出できない。
In the case where the arrangement of the
カメラ1、2の配置が図2(b)である場合において、図11に示すようなカードレール410が存在するような撮像シーンを想定する。このカードレール410は、両カメラ1、2の中間を通りかつ車両の後方に伸びた鉛直面に対して、左右対称な形状である。この場合、カードレール410は各カメラ1、2に対して同じ距離にあるため、カメラ1、2の撮像画像に対応する同一鳥瞰図座標系の鳥瞰図画像は、図12に411、412で示すような画像となり、それらの差分画像は図13に示すような画像となる。差分画像では、カードレール410の両端部分しか抽出できない。
In the case where the
〔2〕運転支援システムの構成についての説明 [2] Explanation of the configuration of the driving support system
図14は、自動車に設けられた運転支援システムの構成を示している。 FIG. 14 shows a configuration of a driving support system provided in the automobile.
運転支援システムは、車両の後部に後方斜め下向きに配置された2台のカメラ(撮像装置)1、2と、車両内に設けられかつカメラ1、2によって撮像された画像を同一鳥瞰図座標系の鳥瞰図画像に変換し、得られた両鳥瞰図画像に基づいて障害物を検出する等の処理を行なう画像処理ユニット3と、車両内のダッシュボードに配置されかつ画像処理ユニット3によって得られた一方の鳥瞰図画像にその画像内の障害物領域を他の部分から識別できるような表示等を付加した画像を表示するモニタ(表示器)4とを備えている。
The driving support system includes two cameras (imaging devices) 1 and 2 that are disposed rearward and obliquely downward at the rear of the vehicle, and images that are provided in the vehicle and captured by the
カメラ1、2の配置としては、図2の(c)のカメラ配置が採用されている。カメラ1、2としては、例えば、CCDカメラが用いられる。画像処理ユニット3としては、例えば、マイクロコンピュータが用いられる。モニタ4としては、例えば、ナビゲーションシステムのモニタが用いられる。
As the arrangement of the
〔2〕画像処理ユニット3による処理手順の説明
[2] Explanation of processing procedure by the
図15は、画像処理ユニット3による処理手順を示している。
FIG. 15 shows a processing procedure by the
カメラ1、2の地面からの高さh、水平面に対するカメラ1の傾き角度θ、両カメラ1、2の水平方向距離(相対位置情報)L(図17(c)参照)、カメラ1、2のレンズ焦点距離f等のパラメータは、予め設定されているものとする。そして、これらの情報に基づいて、カメラ1、2の撮像画像を、同一鳥瞰図座標系の鳥瞰図画像に変換するための座標変換テーブル(ルックアップテーブルLUT1、LUT2)が予め生成されて、保存されているものとする。LUT1、LUT2の作成方法については、後述する。
The height h of the
この例では、LUT1とカメラ1の撮像画像とに基づいて、基準となる鳥瞰図画像を生成し、LUT2とカメラの撮像画像とに基づいて、上記基準となる鳥瞰図画像と同一鳥瞰図座標系の鳥瞰図画像を生成するものとする。LUT1は、カメラ1の撮像画像を、基準となる鳥瞰図画像(第1の鳥瞰図画像)に変換するためのルックアップテーブルである。LUT2は、カメラ2の撮像画像を、第1の鳥瞰図画像と同一鳥瞰図座標系の鳥瞰図画像(第2の鳥瞰図画像)に変換するためのルックアップテーブルである。
In this example, a reference bird's-eye view image is generated based on the
まず、カメラ1の撮像画像(第1の入力画像I1 )を読み込むとともにカメラ2の撮像画像(第2の入力画像I2 )を読み込む(ステップS1)。
First, the captured image (first input image I 1 ) of the camera 1 is read and the captured image (second input image I 2 ) of the
そして、第1の入力画像I1 をルックアップテーブルLUT1を用いて鳥瞰図画像(第1の鳥瞰図画像)に変換するとともに、第2の入力画像I2 をルックアップテーブルLUT2を用いて鳥瞰図画像(第2の鳥瞰図画像)に変換する(ステップS2)。 Then, the first input image I 1 is converted into a bird's-eye view image (first bird's-eye view image) using the lookup table LUT1, and the second input image I 2 is converted into a bird's-eye view image (first view) using the lookup table LUT2. 2) (step S2).
次に、第1の鳥瞰図画像と第2の鳥瞰図画像との差分を取る(ステップS3)。そして、得られた差分画像に基づいて障害物領域を特定するとともに車両から障害物領域までの距離を算出する(ステップS4)。車両から障害物領域までの距離の算出方法については、後述する。 Next, the difference between the first bird's-eye view image and the second bird's-eye view image is taken (step S3). Then, the obstacle area is specified based on the obtained difference image, and the distance from the vehicle to the obstacle area is calculated (step S4). A method for calculating the distance from the vehicle to the obstacle area will be described later.
そして、第1の鳥瞰図画像(基準となる鳥瞰図画像)に、その画像内の障害物領域を他の部分から識別できるような表示と、障害物領域の車両からの距離データとを付加した画像をモニタに表示させる(ステップS5)。そして、ステップS1に戻る。障害物領域を他の部分から識別できるような表示としては、例えば、障害物領域に特殊な色をつけたり、点滅表示させたり、障害物領域を赤線で囲んだりするといったことが行われる。 Then, the first bird's-eye view image (reference bird's-eye view image) is displayed with an image in which the obstacle area in the image can be identified from other parts and distance data from the vehicle in the obstacle area. It is displayed on the monitor (step S5). Then, the process returns to step S1. As a display that can identify the obstacle area from other parts, for example, a special color is given to the obstacle area, a blinking display is performed, or the obstacle area is surrounded by a red line.
〔3〕ルックアップテーブルLUT1、LUT2の作成方法についての説明 [3] Description of how to create lookup tables LUT1 and LUT2
〔3−1〕LUT1の作成方法について説明する。
[3-1] A method for creating the
図16は、カメラ座標系XYZと、カメラ1の撮像面Sの座標系XbuYbuと、2次元地面座標系Xw Zw を含む世界座標系Xw Yw Zw との関係を示している。
FIG. 16 shows the relationship between the camera coordinate system XYZ, the coordinate system X bu Y bu of the imaging surface S of the
カメラ座標系XYZでは、カメラの光学中心を原点Oとして、光軸方向にZ軸が、Z軸に直交しかつ地面に平行な方向にX軸が、Z軸およびX軸に直交する方向にY軸がとられている。撮像面Sの座標系XbuYbuでは、撮像面Sの中心に原点をとり、撮像面Sの横方向にXbu軸が、撮像面Sの縦方向にYbuが取られている。 In the camera coordinate system XYZ, with the optical center of the camera as the origin O, the Z axis in the optical axis direction, the X axis in the direction perpendicular to the Z axis and parallel to the ground, and the Y axis in the direction perpendicular to the Z axis and the X axis The axis is taken. In the coordinate system X bu Y bu of the imaging surface S, the origin is set at the center of the imaging surface S, the X bu axis is taken in the horizontal direction of the imaging surface S, and Y bu is taken in the vertical direction of the imaging surface S.
世界座標系Xw Yw Zw では、カメラ座標系XYZの原点Oを通る垂線と地面との交点を原点Ow とし、地面と垂直な方向にYw 軸が、カメラ座標系XYZのX軸と平行な方向にXw 軸が、Xw 軸およびYw 軸に直交する方向にZw 軸がとられている。 In the world coordinate system X w Y w Z w, the intersection of the perpendicular with the ground passing through the origin O of the camera coordinate system XYZ with the origin O w, Y w axis to the ground and perpendicular directions, X axis of the camera coordinate system XYZ X w axis in a direction parallel to the can, Z w axis is taken in a direction orthogonal to the X w axis and Y w axis.
世界座標系Xw Yw Zw とカメラ座標系XYZとの間の平行移動量は〔0,h,0〕であり、X軸周りの回転量はθである。 Translation amount between the world coordinate system X w Y w Z w and the camera coordinate system XYZ is [0, h, 0], the rotation amount about the X-axis is theta.
したがって、カメラ座標系XYZの座標(x,y,z)と世界座標系Xw Yw Zw の座標(xw ,yw ,zw )との間の変換式は、次式(1)で表される。 Therefore, the conversion formula between the coordinates (x, y, z) of the camera coordinate system XYZ and the coordinates (x w , y w , z w ) of the world coordinate system X w Y w Z w is the following formula (1): It is represented by
また、撮像面Sの座標系XbuYbuの座標(xbu,ybu)と、カメラ座標系XYZの座標(x,y,z)との間の変換式は、カメラ1の焦点距離をfとすると、次式(2)で表される。
In addition, the conversion formula between the coordinates (x bu , y bu ) of the coordinate system X bu Y bu on the imaging surface S and the coordinates (x, y, z) of the camera coordinate system XYZ represents the focal length of the
上記式(1)、(2)から、撮像面Sの座標系XbuYbuの座標(xbu,ybu)と二次元地面座標系Xw Zw の座標(xw ,zw )との間の変換式(3)が得られる。 From the above equations (1) and (2), the coordinates (x bu , y bu ) of the coordinate system X bu Y bu of the imaging surface S and the coordinates (x w , z w ) of the two-dimensional ground coordinate system X w Z w (3) is obtained.
また、二次元地面座標系Xw Zw から仮想カメラの鳥瞰図座標系XauYauへの投影は、平行投影によって行われる。カメラ1の焦点距離をfとし、仮想カメラの高さ位置をHとすると、二次元地面座標系Xw Zw の座標(xw ,zw )と鳥瞰図座標系XauYauの座標(xau,yau)との間の変換式は、次式(4)で表される。仮想カメラの高さ位置Hは予め設定されている。
Further, the projection from the two-dimensional ground coordinate system X w Z w to the bird's eye view coordinate system X au Y au of the virtual camera is performed by parallel projection. Assuming that the focal length of the
上記式(4)から、次式(5)が得られる。 From the above equation (4), the following equation (5) is obtained.
得られた式(5)を上記式(3)に代入すると、次式(6)が得られる。 Substituting the obtained equation (5) into the above equation (3), the following equation (6) is obtained.
上記式(6)から、入力画像I1 の座標(xbu,ybu)を、鳥瞰図座標系XauYauの座標(xau,yau)に変換するための式(7)が得られる。 From the above equation (6), the equation (7) for converting the coordinates (x bu , y bu ) of the input image I 1 into the coordinates (x au , y au ) of the bird's eye view coordinate system X au Y au is obtained. .
したがって、上記式(7)に基づいて、鳥瞰図座標系XauYauの各座標(xau,yau)毎に、それに対応するカメラ1の入力画像I1 の座標(xbu,ybu)を記憶したLUT1を作成することができる。
Therefore, based on the above equation (7), for each coordinate (x au , y au ) of the bird's eye view coordinate system X au Y au , the corresponding coordinate (x bu , y bu ) of the input image I 1 of the
〔3−2〕LUT2の作成方法について説明する。
[3-2] A method for creating the
カメラ2についてもカメラ1と同様に、上記式(7)が成り立つ。しかしながら、式(7)に基づいて、カメラ2の入力画像から鳥瞰図画像を生成した場合には、その鳥瞰図座標系は、カメラ1の入力画像から生成された鳥瞰図画像の鳥瞰図座標系(基準となる鳥瞰図座標系)と同一とならない。
Similarly to the
式(7)により、各カメラ1、2の入力画像から鳥瞰図画像を生成するためには、各カメラ1、2の取り付け角θと取り付け高さhとが必要となる。また、式(7)によって生成された鳥瞰図画像は、各カメラ1、2の地面への垂直投影点が座標原点となる。そこで、各カメラ1、2の入力画像を同一の鳥瞰図座標系の鳥瞰図画像へ変換するためには、両カメラ間の水平方向距離(相対位置情報)Lが必要となる。
In order to generate a bird's eye view image from the input images of the
つまり、図17に示すように、式(7)に基づいてカメラ2の入力画像から生成した鳥瞰図画像の鳥瞰図座標系のZw 軸(図17に破線で示す)は、式(7)に基づいてカメラ1の入力画像から生成した鳥瞰図画像の鳥瞰図座標系(基準となる鳥瞰図座標系)のZw 軸に対して、鳥瞰図座標系の−Xw 方向に距離Lだけ離れている。
That is, as shown in FIG. 17, (shown by dashed lines in FIG. 17) Z w axis of the bird's eye view coordinate system of the bird's-eye view image generated from the input image of the
したがって、カメラ2の入力画像I2 の座標(xbu,ybu)を、基準となる鳥瞰図座標系XauYauの座標(xau,yau)に変換するための式は、次式(8)となる。
Therefore, the equation for converting the coordinates (x bu , y bu ) of the input image I 2 of the
したがって、上記式(8)に基づいて、基準となる鳥瞰図座標系XauYauの各座標(xau,yau)毎に、それに対応するカメラ2の入力画像I2 の座標(xbu,ybu)を記憶したLUT2を作成することができる。
Thus, based on the equation (8), bird's eye view coordinate system as the reference X au Y coordinates of au (x au, y au) for each input image I 2 of the coordinates of the
なお、上記実施例では、LUT1、LUT2は、レンズ歪み補正を考慮していないので、入力画像I1 、I2 としてはカメラによって撮像された原画像に対してレンズ歪み補正を行なった後の画像を用いることが好ましい。 In the above embodiment, since LUT1 and LUT2 do not consider lens distortion correction, input images I 1 and I 2 are images after performing lens distortion correction on the original image captured by the camera. Is preferably used.
また、LUT1、LUT2としてレンズ歪み補正を考慮したルックアップテーブルを用いることができる。この場合には、入力画像I1 、I2 としてはカメラによって撮像された原画像を用いることがてきるので、原画像に対してレンズ歪み補正を行なう必要がない。 In addition, look-up tables taking lens distortion correction into consideration can be used as LUT1 and LUT2. In this case, since the original images picked up by the camera can be used as the input images I 1 and I 2 , it is not necessary to perform lens distortion correction on the original images.
〔4〕車両から障害物領域までの距離の算出方法についての説明 [4] Explanation of the method for calculating the distance from the vehicle to the obstacle area
図15のステップS3で得られた差分画像に基づいて障害物領域を抽出した後、上記式(5)に基づいて、第1の鳥瞰図画像上の障害物領域の位置(xau ,yau)に対応する二次元地面座標系の座標(xw ,zw 〕を算出する。得られたzw が車両から障害物までの距離Dとなる。 After extracting the obstacle area based on the difference image obtained in step S3 of FIG. 15, the position (x au , y au ) of the obstacle area on the first bird's eye view image based on the above equation (5). The coordinates (x w , z w ) of the two-dimensional ground coordinate system corresponding to are calculated, and the obtained z w is the distance D from the vehicle to the obstacle.
1、2 カメラ
3 画像処理ユニット
4 モニタ
1, 2
Claims (3)
互いの撮像範囲に共通領域が含まれるように車両に間隔をおいて設けられかつ車両周辺の画像を撮像する2台の撮像装置、
各撮像装置によって撮像された2つの画像のそれぞれを、同一鳥瞰図座標系の鳥瞰図画像に変換する鳥瞰図画像生成手段、
鳥瞰図画像生成手段によって生成された2つの鳥瞰図画像の差分をとることにより、高さのある障害物領域を抽出する障害物領域抽出手段、ならびに
2つの鳥瞰図画像のうち一方の鳥瞰図画像を表示器に表示するとともに、その鳥瞰図画像のうち障害物領域抽出手段によって抽出された障害物領域を他の部分と識別できるように表示器に表示させる表示手段、
を備えていることを特徴とする運転支援システム。 Indicator mounted on the vehicle,
Two imaging devices that are provided at an interval in the vehicle so as to include a common area in each other's imaging range and that capture an image around the vehicle,
Bird's-eye view image generation means for converting each of the two images captured by each imaging device into a bird's-eye view image of the same bird's-eye view coordinate system;
By taking the difference between the two bird's-eye view images generated by the bird's-eye view image generating means, the obstacle region extracting means for extracting the obstacle region having a height, and one bird's-eye view image of the two bird's-eye view images is displayed on the display. Display means for displaying on the display so that the obstacle area extracted from the bird's eye view image by the obstacle area extraction means can be distinguished from other parts.
A driving support system characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006263931A JP2008085710A (en) | 2006-09-28 | 2006-09-28 | Driving support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006263931A JP2008085710A (en) | 2006-09-28 | 2006-09-28 | Driving support system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008085710A true JP2008085710A (en) | 2008-04-10 |
Family
ID=39356096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006263931A Pending JP2008085710A (en) | 2006-09-28 | 2006-09-28 | Driving support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008085710A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009131152A1 (en) * | 2008-04-23 | 2009-10-29 | コニカミノルタホールディングス株式会社 | Three-dimensional image processing camera and three-dimensional image processing system |
JP2009259215A (en) * | 2008-03-18 | 2009-11-05 | Zenrin Co Ltd | Road surface marking map generation method |
JP2010193198A (en) * | 2009-02-18 | 2010-09-02 | Aisin Seiki Co Ltd | Object bottom end position detection device and object bottom end position detection program |
EP2233358A1 (en) | 2009-03-24 | 2010-09-29 | Aisin Seiki Kabushiki Kaisha | Obstruction detecting apparatus |
JP2010239190A (en) * | 2009-03-30 | 2010-10-21 | Aisin Seiki Co Ltd | Obstacle detection device |
JP2013070177A (en) * | 2011-09-21 | 2013-04-18 | Toshiba Alpine Automotive Technology Corp | On-vehicle camera |
KR20170019793A (en) * | 2015-08-12 | 2017-02-22 | 현대모비스 주식회사 | Apparatus and method for providing around view |
JP2017156329A (en) * | 2016-03-04 | 2017-09-07 | 株式会社リコー | System, information processing device, and program |
WO2017212927A1 (en) | 2016-06-08 | 2017-12-14 | ソニー株式会社 | Imaging control device and method, and vehicle |
JP2021109711A (en) * | 2020-01-06 | 2021-08-02 | 三菱ロジスネクスト株式会社 | Transfer crane |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0396451A (en) * | 1989-09-11 | 1991-04-22 | Nissan Motor Co Ltd | Obstruction detection device for vehicle |
JPH08242443A (en) * | 1995-03-02 | 1996-09-17 | Yazaki Corp | Equipment for monitoring surrounding of vehicle |
JP2001114047A (en) * | 1999-10-20 | 2001-04-24 | Matsushita Electric Ind Co Ltd | Vehicle-surrounding situation indication device |
-
2006
- 2006-09-28 JP JP2006263931A patent/JP2008085710A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0396451A (en) * | 1989-09-11 | 1991-04-22 | Nissan Motor Co Ltd | Obstruction detection device for vehicle |
JPH08242443A (en) * | 1995-03-02 | 1996-09-17 | Yazaki Corp | Equipment for monitoring surrounding of vehicle |
JP2001114047A (en) * | 1999-10-20 | 2001-04-24 | Matsushita Electric Ind Co Ltd | Vehicle-surrounding situation indication device |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009259215A (en) * | 2008-03-18 | 2009-11-05 | Zenrin Co Ltd | Road surface marking map generation method |
WO2009131152A1 (en) * | 2008-04-23 | 2009-10-29 | コニカミノルタホールディングス株式会社 | Three-dimensional image processing camera and three-dimensional image processing system |
JP2010193198A (en) * | 2009-02-18 | 2010-09-02 | Aisin Seiki Co Ltd | Object bottom end position detection device and object bottom end position detection program |
EP2233358A1 (en) | 2009-03-24 | 2010-09-29 | Aisin Seiki Kabushiki Kaisha | Obstruction detecting apparatus |
JP2010239190A (en) * | 2009-03-30 | 2010-10-21 | Aisin Seiki Co Ltd | Obstacle detection device |
JP2013070177A (en) * | 2011-09-21 | 2013-04-18 | Toshiba Alpine Automotive Technology Corp | On-vehicle camera |
KR20170019793A (en) * | 2015-08-12 | 2017-02-22 | 현대모비스 주식회사 | Apparatus and method for providing around view |
KR102352833B1 (en) * | 2015-08-12 | 2022-01-18 | 현대모비스 주식회사 | Apparatus and method for providing around view |
KR20220012375A (en) * | 2015-08-12 | 2022-02-03 | 현대모비스 주식회사 | Apparatus and method for providing around view |
KR102438078B1 (en) | 2015-08-12 | 2022-08-30 | 현대모비스 주식회사 | Apparatus and method for providing around view |
JP2017156329A (en) * | 2016-03-04 | 2017-09-07 | 株式会社リコー | System, information processing device, and program |
WO2017212927A1 (en) | 2016-06-08 | 2017-12-14 | ソニー株式会社 | Imaging control device and method, and vehicle |
US11108992B2 (en) | 2016-06-08 | 2021-08-31 | Sony Corporation | Imaging control device and method, and vehicle |
JP2021109711A (en) * | 2020-01-06 | 2021-08-02 | 三菱ロジスネクスト株式会社 | Transfer crane |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008085710A (en) | Driving support system | |
JP4863922B2 (en) | Driving support system and vehicle | |
JP4874280B2 (en) | Image processing apparatus and method, driving support system, and vehicle | |
JP5615441B2 (en) | Image processing apparatus and image processing method | |
JP5491235B2 (en) | Camera calibration device | |
JP5108605B2 (en) | Driving support system and vehicle | |
JP5341789B2 (en) | Parameter acquisition apparatus, parameter acquisition system, parameter acquisition method, and program | |
JP2006268076A (en) | Driving assistance system | |
JP4248570B2 (en) | Image processing apparatus and visibility support apparatus and method | |
JP2009017462A (en) | Driving support system and vehicle | |
JP2009060499A (en) | Driving support system, and combination vehicle | |
EP2061234A1 (en) | Imaging apparatus | |
JP2006287892A (en) | Driving support system | |
JP2009129001A (en) | Operation support system, vehicle, and method for estimating three-dimensional object area | |
US10099617B2 (en) | Driving assistance device and driving assistance method | |
JP2013001366A (en) | Parking support device and parking support method | |
JP2010016805A (en) | Image processing apparatus, driving support system, and image processing method | |
JP6151535B2 (en) | Parameter acquisition apparatus, parameter acquisition method and program | |
JP5539250B2 (en) | Approaching object detection device and approaching object detection method | |
JPH09202180A (en) | On-board camera device | |
JP4679293B2 (en) | In-vehicle panoramic camera system | |
JP3521859B2 (en) | Vehicle peripheral image processing device and recording medium | |
JP6375633B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP2009267602A (en) | Vehicle periphery monitoring apparatus, and setting correcting method of camera installing position and posture information which is applicable thereto | |
JP2006254318A (en) | Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090916 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110721 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110914 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111027 |