JP4344860B2 - Road plan area and obstacle detection method using stereo image - Google Patents

Road plan area and obstacle detection method using stereo image Download PDF

Info

Publication number
JP4344860B2
JP4344860B2 JP2004023493A JP2004023493A JP4344860B2 JP 4344860 B2 JP4344860 B2 JP 4344860B2 JP 2004023493 A JP2004023493 A JP 2004023493A JP 2004023493 A JP2004023493 A JP 2004023493A JP 4344860 B2 JP4344860 B2 JP 4344860B2
Authority
JP
Japan
Prior art keywords
image
plane
area
road
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004023493A
Other languages
Japanese (ja)
Other versions
JP2005217883A (en
Inventor
正敏 奥富
晃仁 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Priority to JP2004023493A priority Critical patent/JP4344860B2/en
Publication of JP2005217883A publication Critical patent/JP2005217883A/en
Application granted granted Critical
Publication of JP4344860B2 publication Critical patent/JP4344860B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自動車の安全運転の運転者支援や自律移動車の自動運転を実現するために、車載ステレオカメラにより、道路平面領域並びに、先行車、対向車、駐車車輌、歩行者など道路上に存在する全ての障害物を検出するためのステレオ画像を用いた道路平面領域並びに障害物検出方法に関するものである。   In order to realize driver assistance for safe driving of a car and automatic driving of an autonomous mobile vehicle, the present invention uses a vehicle-mounted stereo camera on a road plane area and a road such as a preceding vehicle, an oncoming vehicle, a parked vehicle, and a pedestrian. The present invention relates to a road plane region and an obstacle detection method using a stereo image for detecting all existing obstacles.

従来、自律移動車の誘導において視覚による走行環境の認識、特に走行可能な領域の検出、また、走行環境に存在する障害物の検出のために、レーザレーダ、超音波やミリ波レーダーを利用する方法と、画像を利用する方法に大別することができる。   Conventionally, laser radar, ultrasonic waves, and millimeter wave radar are used for visually recognizing a driving environment, especially for detecting a region where the vehicle can travel, and for detecting obstacles existing in the driving environment in guiding an autonomous mobile vehicle. It can be roughly divided into a method and a method using an image.

レーザレーダやミリ波レーダーを用いる検出方法では、一般に装置が高価であり、また十分な空間解像が得られないという問題があった。超音波センサを用いる検出方法では、遠くの計測が困難であって、また空間分解能も低いという問題があった。   In the detection method using a laser radar or a millimeter wave radar, there is a problem that the apparatus is generally expensive and sufficient spatial resolution cannot be obtained. In the detection method using an ultrasonic sensor, there is a problem that it is difficult to measure far away and the spatial resolution is low.

また、画像を用いる方法では、単眼による方法と、複眼を用いる方法に分けることができる。従来、画像を用いる方法の多くは単眼、すなわち、1つの視点から得られる画像を用いるもので、主に、高速道路等の整備された環境で用いることを想定し、路面の白線(例えば分離線や中央線)等を検出することにより、走行領域を検出している。しかしながら、白線等の存在が保証されず、また路面の色やパターンがさまざまであるような一般道や駐車場等では、単眼による画像方法により、つまり、単眼画像に投影された濃度パターンのみから、走行可能領域と障害物を安定に区別することは困難であるという問題があった。   In addition, the method using an image can be divided into a method using a single eye and a method using a compound eye. Conventionally, most of the methods using an image use a single eye, that is, an image obtained from one viewpoint, and are mainly used in a developed environment such as an expressway, and white lines (for example, separation lines) And the center line) are detected to detect the travel area. However, in general roads and parking lots where the presence of white lines etc. is not guaranteed and the color and pattern of the road surface are various, by the monocular image method, that is, only from the density pattern projected on the monocular image, There is a problem that it is difficult to stably distinguish the travelable area and the obstacle.

一方、複眼による画像方法、すなわち、ステレオ画像を利用する検出方法では、原理的には環境の3次元構造を利用できるため、より安定に走行環境を認識できる可能性がある。特に、走行可能な領域は空間中でほぼ平面であるとみなせることから、画像を2次元射影変換し、各画像の重なり具合から、平面領域か否か、或いは、障害物か否かを検出するという方法が、例えば、非特許文献1、非特許文献2、非特許文献3及び非特許文献4に示されたように、既に提案されている。   On the other hand, in the image method using a compound eye, that is, the detection method using a stereo image, since the three-dimensional structure of the environment can be used in principle, there is a possibility that the driving environment can be recognized more stably. In particular, since the travelable area can be regarded as almost a plane in the space, the image is subjected to two-dimensional projective transformation, and it is detected whether it is a planar area or an obstacle from the overlapping state of the images. For example, as shown in Non-Patent Literature 1, Non-Patent Literature 2, Non-Patent Literature 3, and Non-Patent Literature 4, there has already been proposed.

ところが、非特許文献1、非特許文献2、非特許文献3及び非特許文献4に示された従来の検出方法では、カメラと道路平面の位置関係が常に一定であることを前提とし、予めキャリブレーションすることにより、固定された同一の2次元射影変換を行うことにより、道路の平面領域並びに障害物を検出するようにしている。しかしながら、走行面(道路面)が傾斜したり、移動に伴って車体が傾いたりすることがあるので、車載カメラと道路平面の位置関係が常に一定であるといった仮定は、実際に成立しないことがよくある。従って、固定された同一の2次元射影変換を用いる従来の検出方法では、走行面(道路面)が傾斜したり、移動に伴って車体が傾いたりすることに対処することが、極めて困難であるという問題があった。
ルオン・キュー.−ティー(Luong,Q.-T),ウェーバー・ジェイ(Weber,J),(コラー・ディー(Koller,D),マリク・ジェイ(Malik,J)共著、「インテグレイティッド・ステレオ・ベイスド・アプローチ・トゥー・オートマティック・ビークル・ガイダンス(An Integrated stereo-based approach to automatic vehicle guidance)」、1995年、プロシジァー.アイ・シー・シー・ブイ(Proc. ICCV)、p.52−57 オノグチ・ケイ(Onoguchi,K),タケダ・エヌ(Takeda,N),ワタナベ・エム(Watanabe,M)共著、「プランナー・プロジェクション・ステレオプシス・メソッド・フォア・ロード・エクストラクション(Planar Projection Stereopsis Method for Road Extraction)」、1995年、プロシジァー.アイ・アール・オー・エス(Proc.IROS)、p.249−256 ストールヨハン・ケイ(Storjohann,K),ジールケ・ティー(Zielke,T),マロット・エイチ(Mallot,H),フォンシーレン・ダブリュー(Vonseelen,W)共著、「ビジュアル・オブスタクル・ディテクション・フォア・オートマティカリー・ガイディッド・ビークル(Visual Obstacle Detection for Automatically Guided Vehicles)、1990年、プロシジァー.アイ・シー・アール・エイ(Proc.ICRA)、p.716−766 シエ・エム(Xie,M)著、「マッチング・フリー・ステレオ・ビジョン・フォア・ディテクティング・オブスタクル・オン・グランド・プレイン,マシン・ビジョン・アンド・アプリケーション(Matching free stereo vision for detecting obstacles on a ground plane,Machine Vision and Application)、1996年、ボリューム9.ナンバー1(Vol.9,No.1)、p.9−13 ホイング−ヤング・シャム(Heung-Yeung Shum)、リチャード・セーリスキ(Richard Szeliski),「“パノラミック・イメージ・モザイク”テクニカル・レポート“Panoramic Image Mosaics”」,Technical report」、1997年、エム・エス・アール−ティー・アール−97−23,マイクロソフト・リサーチ(MSR-TR-97-23,Microsoft Research) オー・ディー・フォーゲラス(O.D.Faugeras),エフ・ラスマン(F.Lustman)共著、「“モーション・アンド・ストラクチャー・フロム・モーション・イン・ピースワイズ・プランナー・エンバイアロンメント”(“Motion and Structure from Motion In A Piecewise Planar Environment”)、1998年、プロシジァー.インターナショナル・ジャーナル・オブ・パターン・レコグニション・アンド・アーティフィシャル・インテリジェンス,ボリューム1.2,ナンバー3(Proc. International Journal of Pattern Recognition and Artificial Intelligence,Vol.2,No.3),p458−508
However, in the conventional detection methods shown in Non-Patent Document 1, Non-Patent Document 2, Non-Patent Document 3, and Non-Patent Document 4, calibration is performed in advance on the assumption that the positional relationship between the camera and the road plane is always constant. By performing the same fixed two-dimensional projective transformation, the plane area of the road and the obstacle are detected. However, since the traveling surface (road surface) may be inclined or the vehicle body may be inclined with movement, the assumption that the positional relationship between the in-vehicle camera and the road plane is always constant may not actually hold. Often. Therefore, with the conventional detection method using the same fixed two-dimensional projective transformation, it is extremely difficult to cope with the traveling surface (road surface) tilting or the vehicle body tilting with movement. There was a problem.
Luon cue. -Tong (Luong, Q.-T), Weber J (Weber, J), (Koller, D), Malik Jay (Malik, J), "Integrated Stereo Based Approach Too"・ Automatic Vehicle Guidance (An Integrated stereo-based approach to automatic vehicle guidance), 1995, Proc. ICCV, p.52-57 Onoguchi, K, Takeda, N, Watanabe, M, "Planar Projection Stereopsis Method for Road Extraction (Planar Projection Stereopsis Method for Road Extraction), 1995, Procedure. I.R.O.S. (Proc.IROS), p. 249-256 Co-authored by Storjohann, K, Zielke, T, Mallot, H, Vonseelen, W, “Visual Obstacle Detection for Automata Visual Obstacle Detection for Automatically Guided Vehicles, 1990, Proc. ICRA, p. 716-766 Xie, M, “Matching free stereo vision for detecting obstacles on a ground, machine vision and application” plane, Machine Vision and Application), 1996, Volume 9. Number 1 (Vol. 9, No. 1), p. 9-13 Heung-Yeung Shum, Richard Szeliski, “Panoramic Image Mosaics” Technical Report “Technical report”, 1997, MSR -T-R-97-23, Microsoft Research (MSR-TR-97-23, Microsoft Research) Co-authored by ODFaugeras and F.Lustman, “Motion and Structure from Motion in Peacewise Planner Environment” (“Motion and Structure from Motion In A Piecewise Planar Environment "), 1998, Proc. International Journal of Pattern Recognition and Artificial Intelligence, Volume 1.2, Number 3 (Proc. International Journal of Pattern Recognition and Artificial Intelligence, Vol. .2, No. 3), p458-508

上記のように、道路平面領域並びに障害物検出方法には、レーザレーダ、超音波やミリ波レーダーを利用するものと、画像を利用するものに大別することができる。レーザレーダ、超音波やミリ波レーダーを利用する検出方法は、装置が高価であったり、計測精度が低い点と空間分解能も低いという問題があった。また、画像を利用する検出方法では、高速道路等の整備された使用環境に限定されていたり、車の走行中の振動や道路面の傾斜に対処できないため、一般道や駐車場等の使用環境では計測精度が著しく悪くなるという問題があった。   As described above, the road plane area and the obstacle detection method can be broadly classified into those using laser radar, ultrasonic waves and millimeter wave radar and those using images. Detection methods using laser radar, ultrasonic waves, and millimeter wave radar have problems that the apparatus is expensive, the measurement accuracy is low, and the spatial resolution is low. In addition, detection methods using images are limited to use environments such as expressways, and cannot cope with vibrations during driving and slopes of road surfaces. However, there was a problem that the measurement accuracy deteriorated remarkably.

本発明は、上述のような事情よりなされたものであり、本発明の目的は、車載ステレオカメラから得られる画像情報のみを利用して、道路面の傾斜や車の走行によるカメラの振動に対処できるように、車輌の実空間における走行可能な領域を動的に求め、また車輌から見た各方向毎の障害物までの距離や相対速度を算出・提示することを可能にした、ステレオ画像を用いた道路平面領域並びに障害物検出方法を提供することにある。   The present invention has been made under the circumstances described above, and an object of the present invention is to deal with camera vibrations caused by road surface inclination or vehicle running using only image information obtained from an in-vehicle stereo camera. A stereo image that can dynamically calculate the area that can travel in the real space of the vehicle, and calculate and present the distance and relative speed to the obstacle in each direction as seen from the vehicle. The object is to provide a road plane region and an obstacle detection method used.

本発明は、ステレオ画像を用いた道路平面領域並びに障害物検出方法に関し、本発明の上記目的は、自動車に搭載される撮像手段によって撮影された、基準画像と参照画像から構成されるステレオ動画像のみを利用して、走行可能な道路平面領域及び道路面上に存在する全ての障害物を検出できるようにしたステレオ画像を用いた道路平面領域並びに障害物検出方法であって、道路面に対する射影変換行列を動的に推定する第1のステップと、第1のステップで求まった前記射影変換行列を用いて、走行可能な平面領域を抽出する第2のステップと、第1のステップで求まった前記射影変換行列を分解することにより道路面の傾きを算出する第3のステップと、第3のステップで算出された前記道路面の傾きを基に道路面を上方から見た仮想投影面画像を生成する第4のステップと、第4のステップで生成された前記仮想投影面画像の上で、前記走行可能な平面領域と自車輌の位置と方向を算出する第5のステップとを有することによって達成される。   The present invention relates to a road plane region and an obstacle detection method using a stereo image, and the object of the present invention is a stereo moving image composed of a standard image and a reference image, which is taken by an imaging means mounted on an automobile. A road plane area and obstacle detection method using a stereo image that can detect a road plane area that can be traveled and all obstacles existing on the road surface using only A first step of dynamically estimating a transformation matrix, a second step of extracting a plane area that can be traveled using the projection transformation matrix obtained in the first step, and a first step A third step of calculating the inclination of the road surface by decomposing the projective transformation matrix, and a virtual view of the road surface viewed from above based on the inclination of the road surface calculated in the third step A fourth step of generating a shadow plane image, and a fifth step of calculating the travelable plane area and the position and direction of the vehicle on the virtual projection plane image generated in the fourth step; Is achieved by having

また、本発明は、前記仮想投影面画像の上での前記走行可能な平面領域より自車輌から障害物までの方向別距離を算出する第6のステップと、前記仮想投影面画像の上での前記走行可能な平面領域より自車輌から障害物までの方向別相対速度を算出する第7のステップとを更に有することにより、或いは、前記仮想投影面画像に前記走行可能な平面領域を重ね合わせて表示すると共に、前記方向別距離と前記方向別相対速度情報を表示する第8のステップとを更に有することにより、或いは、前記第1のステップでは、前記基準画像及び前記参照画像にLOGフィルタ処理とヒストグラム平坦化処理を施してから、領域ベースの手法により、前記ステレオ画像間の道路面に対応する射影変換行列を動的に推定するようにし、前記第2のステップでは、前記射影変換行列によって前記参照画像を射影変換し、前記基準画像と射影変換された前記参照画像との差分画像を求め、前記差分画像に平滑化フィルタをかけてから、閾値を使って2値化して2値画像が得られ、前記2値画像に前時刻平面領域の推定結果を利用すると共にテクスチャレス領域を考慮することによって、走行可能な平面領域を抽出するようにし、前記第3のステップでは、前記道路面の傾きを示す道路平面姿勢パラメータは、基準カメラ光学中心から道路平面までの距離と道路平面の法線ベクトルであるようにし、前記第4のステップでは、前記道路平面姿勢パラメータを使って、前記基準画像を射影変換して、道路平面と平行な仮想投影面画像を生成するようにすることによってより効果的に達成される。   In addition, the present invention provides a sixth step of calculating a direction-specific distance from the vehicle to the obstacle from the travelable plane area on the virtual projection plane image, and on the virtual projection plane image. And a seventh step of calculating a relative speed for each direction from the vehicle to the obstacle from the travelable plane area, or by superimposing the travelable plane area on the virtual projection plane image. And further including an eighth step of displaying the direction-specific distance and the direction-specific relative velocity information. Alternatively, in the first step, the reference image and the reference image are subjected to LOG filter processing. After performing the histogram flattening process, a projection transformation matrix corresponding to the road surface between the stereo images is dynamically estimated by an area-based method, and the second step is performed. Then, the reference image is projectively transformed by the projective transformation matrix, a difference image between the base image and the projective transformed reference image is obtained, a smoothing filter is applied to the difference image, and then a threshold value is used. A binarized image is obtained by using the estimation result of the previous time plane area in the binary image and taking the textureless area into consideration, thereby extracting a plane area that can be traveled. In the step, the road plane attitude parameter indicating the inclination of the road plane is a distance from the reference camera optical center to the road plane and a normal vector of the road plane. In the fourth step, the road plane attitude parameter Is more effectively achieved by projectively transforming the reference image to generate a virtual projection plane image parallel to the road plane.

まず、本発明に係るステレオ画像を用いた道路平面領域並びに障害物検出方法によれば、ステレオ画像の撮像手段である画像センサとしてCCDカメラを用いるため、装置が安価で汎用的もので、コスト削減の達成といった優れた効果を奏する。   First, according to the road plane area and obstacle detection method using stereo images according to the present invention, a CCD camera is used as an image sensor that is an imaging means for stereo images. Excellent effects such as achievement of

次に、本発明に係るステレオ画像を用いた道路平面領域並びに障害物検出方法によれば、常に安定に走行可能領域と車輌から障害物までの方向別距離・相対速度を動的に求めることができるので、求められた走行可能領域と車輌から障害物までの方向別距離・相対速度に基づいて、衝突危険性の警告・衝突回避等の運転者支援や車輌の自動運転等を可能にするといった優れた効果を奏する。   Next, according to the road plane area and the obstacle detection method using the stereo image according to the present invention, it is possible to dynamically obtain the stable driving area and the distance and relative speed according to the direction from the vehicle to the obstacle. Because it is possible, based on the required travelable area and the distance and relative speed by direction from the vehicle to the obstacle, it enables driver assistance such as warning of collision risk, collision avoidance etc. and automatic driving of the vehicle etc. Excellent effect.

更に、本発明に係るステレオ画像を用いた道路平面領域並びに障害物検出方法において、カメラの設置やキャリブレーションが大変容易であるということで、本発明は大変実用化に向いた方法であることには間違いない。   Furthermore, in the road plane area and obstacle detection method using the stereo image according to the present invention, it is very easy to install and calibrate the camera, so that the present invention is very suitable for practical use. There is no doubt.

以下、図面を参照しながら、本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本実施形態では、左右2台のステレオカメラを自動車に搭載し、該ステレオカメラを搭載した自動車(以下、該ステレオカメラを搭載した自動車を自車輌または車輌と称する)が走行することによる振動や道路面の傾斜変化がある条件の下で、歩行者、駐車車輌、対向車や先行車等道路面上に存在する全ての障害物を検出する状況を想定している。   In the present embodiment, left and right stereo cameras are mounted on a vehicle, and vibrations and roads caused by the travel of a vehicle equipped with the stereo camera (hereinafter, the vehicle equipped with the stereo camera is referred to as a vehicle or a vehicle). It is assumed that all obstacles existing on the road surface such as a pedestrian, a parked vehicle, an oncoming vehicle, and a preceding vehicle are detected under a condition in which the inclination of the surface is changed.

また、本実施形態では、右側のステレオカメラを基準カメラとし、左側のステレオカメラを参照カメラとする。そして、基準カメラで撮影されたステレオ画像を基準画像とし、参照カメラで撮影されたステレオ画像を参照画像とする。なお、本発明では、ステレオ画像(つまり、基準画像及び参照画像)のみを利用して、走行可能な平面領域及び障害物を検出しているので、そのステレオ画像を撮影するカメラ(つまり、基準カメラ及び参照カメラ)の配置として、場合によって、左側のステレオカメラを基準カメラとし、右側のステレオカメラを参照カメラとすることもできる。   In the present embodiment, the right stereo camera is the reference camera, and the left stereo camera is the reference camera. Then, a stereo image taken by the reference camera is set as a reference image, and a stereo image taken by the reference camera is set as a reference image. In the present invention, the plane area and the obstacle that can be traveled are detected using only the stereo image (that is, the standard image and the reference image), and therefore the camera that captures the stereo image (that is, the standard camera). In some cases, the left stereo camera may be the reference camera, and the right stereo camera may be the reference camera.

ちなみに、下記ステップS100及びステップS110におけるステレオ画像を撮影するステレオカメラとして、基準カメラは自動車の左側に搭載されており、参照カメラは自動車の右側に搭載されている。ほかのステップにおけるステレオ画像を撮影するステレオカメラとして、基準カメラは自動車の右側に搭載されており、参照カメラは自動車の左側に搭載されている。   Incidentally, the reference camera is mounted on the left side of the vehicle and the reference camera is mounted on the right side of the vehicle as a stereo camera that captures a stereo image in steps S100 and S110 described below. As a stereo camera for capturing a stereo image in other steps, the reference camera is mounted on the right side of the automobile, and the reference camera is mounted on the left side of the automobile.

まず、本発明の着眼点としては、2台の車載ステレオカメラを利用して、そのステレオカメラより撮影されたステレオ画像中から空間の平面に対応する領域とその平面の向きを求めることにより、実空間に対応した座標系における走行可能領域を動的に求め、さらに車輌の各方向毎の障害物までの距離や相対速度を算出・提示するようにしているところである。   First, as a point of interest of the present invention, by using two in-vehicle stereo cameras, an area corresponding to a plane of space and an orientation of the plane are obtained from stereo images captured by the stereo cameras. A travelable area in a coordinate system corresponding to the space is dynamically obtained, and the distance to the obstacle and the relative speed for each direction of the vehicle are calculated and presented.

つまり、本発明に係るステレオ画像を用いた道路平面領域並びに障害物検出方法とは、2台の車載ステレオカメラから得られる画像情報を用いて、車輌が走行できる平坦な領域(以下、走行可能領域と称する)を動的に求め、且つ、求められた走行可能領域を実空間に対応した座標系にマッピングすることにより、車輌の各方向毎の障害物までの距離や相対速度を算出・提示し、車輌の衝突危険性の警告・衝突回避等の運転者支援や車輌の自動運転等を可能にするための方法である。   That is, the road plane area and the obstacle detection method using the stereo image according to the present invention are a flat area where the vehicle can travel (hereinafter referred to as a travelable area) using image information obtained from two in-vehicle stereo cameras. The distance and relative speed to the obstacle in each direction of the vehicle are calculated and presented by mapping the obtained travelable area to the coordinate system corresponding to the real space. This is a method for enabling driver assistance such as warning of collision risk of vehicles, avoidance of collision, automatic driving of vehicles, and the like.

なお、本発明では、自動車に搭載されるステレオカメラとして、CCDカメラを用いることが望ましいが、それに限定されることはない。また、以下の実施の形態において、ステレオカメラとして、CCDカメラを用いることを前提とする。   In the present invention, it is desirable to use a CCD camera as a stereo camera mounted on an automobile, but the present invention is not limited to this. In the following embodiments, it is assumed that a CCD camera is used as a stereo camera.

図1は本発明の全体の流れを示すフローチャートである。図1に示されるように、本発明に係るステレオ画像を用いた道路平面領域並びに障害物検出方法では、先ず、道路面に対する射影変換行列を動的に推定する(ステップS100)。次に、ステップS100で求まった射影変換行列を用いて、道路面の平面領域(以下、道路面の平面領域を道路平面領域と称し、また、走行可能な平面領域と称することもある)を抽出する(ステップS110)。さらに、ステップS100で求まった射影変換行列を分解することにより道路面の傾きを算出する(ステップS120)。ステップS120で算出された道路面の傾きを基に道路面を上方から見た画像(本発明では、この画像を仮想投影面(VPP:Virtual Projection Plane)画像と称する)を生成する(ステップS130)。そして、ステップS130で生成された仮想投影面画像(VPP画像)上で、走行可能な平面領域と自車輌の位置、方向を提示する(ステップS140)。次に、仮想投影面画像上での道路平面領域の自車輌からの最遠部すなわち障害物までの各方向毎の距離を算出する(ステップS150)。同様に、仮想投影面画像上での道路平面領域の自車輌からの最遠部すなわち障害物までの各方向毎の相対速度をも算出する(ステップS160)。最後に、仮想投影面画像(VPP画像)に走行可能な平面領域を重ね合わせて表示すると共に、ステップS150、ステップS160で算出された方向別距離、方向別相対速度情報を表示する(ステップS170)。   FIG. 1 is a flowchart showing the overall flow of the present invention. As shown in FIG. 1, in the road plane area and obstacle detection method using the stereo image according to the present invention, first, a projective transformation matrix for the road surface is dynamically estimated (step S100). Next, using the projective transformation matrix obtained in step S100, a road surface plane region (hereinafter, the road surface plane region is referred to as a road plane region and sometimes referred to as a travelable plane region) is extracted. (Step S110). Further, the slope of the road surface is calculated by decomposing the projective transformation matrix obtained in step S100 (step S120). Based on the inclination of the road surface calculated in step S120, an image of the road surface viewed from above (in the present invention, this image is referred to as a virtual projection plane (VPP) image) is generated (step S130). . Then, on the virtual projection plane image (VPP image) generated in step S130, the plane area where the vehicle can travel and the position and direction of the host vehicle are presented (step S140). Next, the distance in each direction to the farthest part from the vehicle in the road plane area on the virtual projection plane image, that is, the obstacle is calculated (step S150). Similarly, the relative speed in each direction to the farthest part from the vehicle in the road plane area on the virtual projection plane image, that is, the obstacle is calculated (step S160). Finally, a plane area that can be traveled is displayed superimposed on the virtual projection plane image (VPP image), and the direction-specific distance and direction-specific relative velocity information calculated in steps S150 and S160 is displayed (step S170). .

次に、本発明をステップ毎により詳細に説明する。まず、本発明に用いられる平面の投影と2次元射影変換の原理を説明する。   The invention will now be described in more detail step by step. First, the principle of plane projection and two-dimensional projective transformation used in the present invention will be described.

図2に示されたように、空間中にある平面上の点Mが2枚のステレオ画像に投影されるとき、ステレオ画像における基準画像Ib上での同次座標をmb、参照画像Ir上での同次座標をmrとすると、各々は下記数1に示すように、2次元射影変換によって関係付けられることはよく知られている。 As shown in FIG. 2, when a point M on a plane in the space is projected onto two stereo images, m b is a homogeneous coordinate on the standard image I b in the stereo image, and the reference image I When the homogeneous coordinates on r and m r, respectively, as shown in formula 1 below, be related by two-dimensional projective transformation it is well known.

Figure 0004344860
ここで、

Figure 0004344860
は3×3の射影変換行列であり、

Figure 0004344860
は定数倍の不定性を許して等しいものとする。また、図2において、Oは基準カメラの光学中心で、O´は参照カメラの光学中心で、

Figure 0004344860
は基準カメラ座標系から参照カメラ座標系への回転行列で、

Figure 0004344860
は参照カメラ座標系における基準カメラと参照カメラの並進ベクトルで、dは基準カメラと平面の距離で、

Figure 0004344860
は平面の法線ベクトルである。
Figure 0004344860
here,

Figure 0004344860
Is a 3 × 3 projective transformation matrix,

Figure 0004344860
Are equal, allowing a constant multiple of indefiniteness. In FIG. 2, O is the optical center of the reference camera, O is the optical center of the reference camera,

Figure 0004344860
Is the rotation matrix from the base camera coordinate system to the reference camera coordinate system,

Figure 0004344860
Is the translation vector of the reference camera and reference camera in the reference camera coordinate system, d is the distance between the reference camera and the plane,

Figure 0004344860
Is the normal vector of the plane.

そこで、道路等の走行可能な領域は、空間中でほぼ平面であると見なすことができれば、一方のステレオ画像に対して適切な射影変換を施すことにより、平面の部分に対しては一致するような画像が得られる。   Therefore, if it can be assumed that the road and other areas that can travel can be considered to be almost flat in the space, by applying an appropriate projective transformation to one of the stereo images, the area of the plane will match. Images can be obtained.

つまり、平面抽出を利用して障害物検出を行う本発明では、平面上に障害物が存在する場合、その領域は平面として認識されないため、走行可能な領域でないとの検出が可能となる。また、平面領域以外の領域では障害物が含まれており、結果的に平面の拡がりを計測することで障害物の検出が可能となる。

<ステップS100>道路面に対する射影変換行列を動的に推定する
まず、自動車に搭載される2台のステレオカメラで撮影されて入力されたステレオ画像に対して、カメラ間の明るさの違い等を除くため、LOG(Laplacian Of Gaussian)フィルタをかけ、さらに、ヒストグラム平坦化処理を施す。図3は入力されるステレオ原画像の一例を示す。図3(A)は基準画像を示し、図3(B)は参照画像を示している。また、図4は、図3に示されるステレオ原画像にLOGフィルタ処理とヒストグラム平坦化処理を施した結果画像を示す。図4(A)は図3(A)の基準画像の処理後の画像を示し、図4(B)は図3(B)の参照画像の処理後の画像を示している。
That is, in the present invention in which obstacle detection is performed using plane extraction, when an obstacle is present on the plane, the area is not recognized as a plane, and thus it is possible to detect that the area is not a travelable area. Moreover, obstacles are included in areas other than the plane area, and as a result, the obstacle can be detected by measuring the spread of the plane.

<Step S100> Dynamically Estimate Projection Transformation Matrix for Road Surface First, the difference in brightness between cameras, etc., for stereo images captured and input by two stereo cameras mounted on a car In order to eliminate this, a LOG (Laplacian Of Gaussian) filter is applied, and a histogram flattening process is further performed. FIG. 3 shows an example of the input stereo original image. FIG. 3A shows a standard image, and FIG. 3B shows a reference image. FIG. 4 shows a result image obtained by subjecting the stereo original image shown in FIG. 3 to LOG filter processing and histogram flattening processing. FIG. 4A shows an image after processing of the standard image of FIG. 3A, and FIG. 4B shows an image after processing of the reference image of FIG. 3B.

次いで、非特許文献5に開示された領域ベースの手法により、平面(本実施例では、道路面)に対応する射影変換行列を求める。すなわち、ある領域RI内で、以下の評価関数

Figure 0004344860
を最小化する

Figure 0004344860
を、繰り返し最適化により求める。 Next, a projective transformation matrix corresponding to a plane (road surface in the present embodiment) is obtained by the region-based method disclosed in Non-Patent Document 5. That is, the following evaluation function within a certain region R I

Figure 0004344860
Minimize

Figure 0004344860
Is obtained by iterative optimization.

Figure 0004344860
但し、Ib(m)、Ir(m)は、それぞれ画像位置mでの基準画像、参照画像の濃度値を表す。
Figure 0004344860
However, I b (m) and I r (m) represent density values of the standard image and the reference image at the image position m, respectively.

上記の推定には、適当に真値に近い初期値としての射影変換行列

Figure 0004344860
と、領域RI(本発明では、以後「計算領域」と呼ぶことにする)を必要とする。そこで本発明では、時系列情報を利用し、以下に述べる手順により、その射影変換行列と計算領域を求める。 For the above estimation, a projective transformation matrix as an initial value suitably close to the true value

Figure 0004344860
And region R I (in the present invention, hereinafter referred to as “calculation region”). Therefore, in the present invention, the time series information is used, and its projective transformation matrix and calculation area are obtained by the procedure described below.

まず、各時刻においてステレオ画像間の射影変換行列

Figure 0004344860
と、基準画像の時間的に連続する2画像間の射影変換行列

Figure 0004344860
、及び基準画像に対する平面領域Rを求めていく。そして、ある時刻tの推定の際には、前時刻t−1までの上記推定結果を利用する。以下、図5を参照しながら、その手順を更に詳細に説明する。
(1)まず、連続する基準画像Ib(t−1)、Ib(t)間の射影変換行列

Figure 0004344860
を求める。その時、射影変換行列の初期値としては、前時刻に推定された射影変換行列

Figure 0004344860
を、また計算領域としては、Ib(t−1)に対して前時刻で求められている平面領域R(t−1)を用いることができる。
(2)次に、(1)で求められた射影変換行列

Figure 0004344860
を用いて、前時刻の平面領域R(t−1)を変換することにより、現時刻における平面領域の予測値RI(t)を求める。
(3)更に、ステレオ画像Ib(t)、Ir(t)間の射影変換行列

Figure 0004344860
は、前時刻において推定された

Figure 0004344860
を初期値とし、(2)で求められたRI(t)を計算領域として、求められる。 First, the projection transformation matrix between stereo images at each time

Figure 0004344860
And a projective transformation matrix between two consecutive images of the reference image

Figure 0004344860
And a plane region R with respect to the reference image. Then, when estimating a certain time t, the estimation result up to the previous time t-1 is used. Hereinafter, the procedure will be described in more detail with reference to FIG.
(1) First, a projective transformation matrix between successive reference images I b (t−1) and I b (t)

Figure 0004344860
Ask for. At that time, the initial value of the projection transformation matrix is the projection transformation matrix estimated at the previous time.

Figure 0004344860
Further, as the calculation region, the plane region R (t−1) obtained at the previous time with respect to I b (t−1) can be used.
(2) Next, the projective transformation matrix obtained in (1)

Figure 0004344860
Is used to convert the plane area R (t−1) at the previous time to obtain the predicted value R I (t) of the plane area at the current time.
(3) Further, a projective transformation matrix between the stereo images I b (t) and I r (t)

Figure 0004344860
Was estimated at the previous time

Figure 0004344860
Is the initial value, and R I (t) obtained in (2) is used as the calculation region.

本発明では、上記手順(1)、(2)、(3)により、時系列画像を用いた連続推定において、十分に真値に近い初期値としての射影変換行列と計算領域を用いることができるため、安定な推定を可能にしている。   In the present invention, the projective transformation matrix and the calculation area as the initial value sufficiently close to the true value can be used in the continuous estimation using the time series image by the procedures (1), (2), and (3). Therefore, stable estimation is possible.

また、本発明において、上述した射影変換行列と計算領域の推定手順では、射影変換行列

Figure 0004344860
は、その都度ステレオ画像から求めることが可能なため、カメラの内部パラメータや2台のカメラ配置、カメラと道路面との位置関係等は知る必要がなく、また、道路面自体が傾いたり、走行中にカーブや道路面の凹凸で車体が傾斜したり、カメラが振動したりすることによっての変化があっても対応することができる。

<ステップS110>求まった射影変換行列を用いて、道路面の平面領域(走行可能な平面領域)を抽出する
ステップS100で求めた射影変換行列を利用して、基準画像中から平面に対応した領域を抽出する。図6に図3のステレオ原画像を用いた一連の処理結果を示す。図6(A)は、LOGフィルタ処理とヒストグラム平坦化処理を施した基準画像(図4(A)と同じ)である。図6(B)は、ステップS100で述べた方法により推定した射影変換行列

Figure 0004344860
を用いて、図4(B)の参照画像を射影変換した結果である。図6(A)の画像と図6(B)の画像の差分(差の絶対値)を求めたものが図6(C)である。図6(C)の画像を見ると、平面(道路面)に対しては、図6(A)、図6(B)両画像の位置が一致しているため、全体的に黒く、それ以外の部分ではずれているため、白っぽく見える。次に、図6(C)の差分画像に対し、平均化フィルタをかけた上で2値化したものが図6(D)である。図6(D)は、図6(A)と図6(B)の画像に対し、SAD(Sum of Absolute Difference)を用いたマッチングを行っていることに相当する。 In the present invention, the projection transformation matrix and the calculation region estimation procedure described above, the projection transformation matrix

Figure 0004344860
Can be obtained from the stereo image each time, so it is not necessary to know the internal parameters of the camera, the arrangement of the two cameras, the positional relationship between the camera and the road surface, etc. Even if there is a change due to the car body tilting or the camera vibrating due to curves or irregularities on the road surface, it can be dealt with.

<Step S110> Using the obtained projective transformation matrix, a road surface plane area (a plane area where the vehicle can run) is extracted. Using the projective transformation matrix obtained in step S100, an area corresponding to a plane from the reference image. To extract. FIG. 6 shows a series of processing results using the stereo original image of FIG. FIG. 6A is a reference image (same as FIG. 4A) subjected to LOG filter processing and histogram flattening processing. FIG. 6B shows a projective transformation matrix estimated by the method described in step S100.

Figure 0004344860
This is a result of projective transformation of the reference image of FIG. FIG. 6C shows the difference (absolute value) between the image in FIG. 6A and the image in FIG. 6B. Looking at the image in FIG. 6C, the positions of both the images in FIG. 6A and FIG. 6B coincide with the plane (road surface), so the whole image is black. Because it is out of place, it looks whitish. Next, FIG. 6D shows a binary image obtained by applying an averaging filter to the difference image shown in FIG. 6C. FIG. 6D corresponds to performing matching using the SAD (Sum of Absolute Difference) on the images of FIGS. 6A and 6B.

ここで、前時刻の平面領域抽出結果が利用できる場合には、その結果を以下のように利用する。ステップS100でも述べたように、前時刻の平面領域R(t−1)と基準画像の時系列間の射影変換行列

Figure 0004344860
より、現時刻において予想される平面領域が得られる。時系列画像間では平面領域がそれほど急激には変化しないとすれば、図7に示すように、現時刻における平面領域と非平面領域の境界は、前時刻から予想される境界に対してある一定の幅に収まると考えられる。そこで、それ以外の部分に関しては、前時刻の結果より平面領域ないし非平面領域とみなすことができるため、それを図6(D)のマッチング結果に反映する。さらに、走行可能な平面領域はある程度の大きさを持っていると考えられるため、収縮・膨張処理により、面積が小さな領域や細長い領域を除く処理を施した結果が図6(E)である。図6(F)は、抽出された結果が原画像とどう対応しているのかが分かるように、原画像に対し、抽出された平面領域以外の明るさを落して表示したものである。図6(F)より、抽出された領域が実際の道路面に良く一致していることが分かる。 Here, when the plane area extraction result of the previous time can be used, the result is used as follows. As described in step S100, the projective transformation matrix between the plane region R (t−1) at the previous time and the time series of the reference image.

Figure 0004344860
As a result, a plane area expected at the current time is obtained. If the plane area does not change so rapidly between time-series images, as shown in FIG. 7, the boundary between the plane area and the non-planar area at the current time is constant relative to the boundary expected from the previous time. It is considered to be within the range of. Therefore, other portions can be regarded as a planar region or a non-planar region from the result of the previous time, and this is reflected in the matching result of FIG. Further, since it is considered that the plane area that can be traveled has a certain size, FIG. 6E shows the result of performing the process of excluding the area having a small area or the elongated area by the contraction / expansion process. FIG. 6F shows the original image displayed with reduced brightness other than the extracted plane area so that it can be seen how the extracted result corresponds to the original image. From FIG. 6 (F), it can be seen that the extracted area is in good agreement with the actual road surface.

一方、以上で述べた方法においては、基準画像と射影変換後の参照画像で、平面以外に対する画像上の位置がずれ、その結果、画像濃度に差が生じるということを前提としている。しかしながら、例えば、テクスチャの無い建物の壁が画像上で大きな領域を占めるような場合には、問題が生じる。そのような領域では、たとえ位置がずれていても、濃度の差が生じないからである。図8(A)と図8(B)は、そのような画像の例を示しており、この場合のマッチング結果(図6(D)に相当)は、図8(D)に示すものとなる。図8(D)に示されるように、明らかに、マッチング結果に正面の建物の壁を含んでしまっている。   On the other hand, the method described above is based on the premise that the position on the image other than the plane is shifted between the base image and the reference image after projective transformation, and as a result, a difference in image density occurs. However, for example, a problem arises when a wall of a building without texture occupies a large area on the image. This is because in such a region, even if the position is shifted, a difference in density does not occur. FIG. 8A and FIG. 8B show examples of such images, and the matching result (corresponding to FIG. 6D) in this case is as shown in FIG. 8D. . As shown in FIG. 8D, the matching result clearly includes the wall of the front building.

そこで、このような問題に対処するため、以下のようなテクスチャレス領域処理を施す。以下、図9を参照しながら、その具体的な処理手順を説明する。   Therefore, in order to deal with such a problem, the following textureless area processing is performed. The specific processing procedure will be described below with reference to FIG.

先ず、LOGフィルタの出力結果が0に近い領域をテクスチャレス領域として抽出し、領域毎にラベリングする(図9(a)のA、B)。つまり、これらの領域は、マッチングによる平面領域判定が困難な部分である。実際、このような画像に対してマッチングによる判定を行うと、図9(c)の斜線部のような領域が得られ、結果としてCの部分が誤判定となる。   First, a region where the output result of the LOG filter is close to 0 is extracted as a textureless region and labeled for each region (A and B in FIG. 9A). That is, these areas are difficult to determine a planar area by matching. Actually, when such an image is determined by matching, an area indicated by a hatched portion in FIG. 9C is obtained, and as a result, the portion C is erroneously determined.

次に、テクスチャレス領域A、Bに対し、次のような判定を行う(図9(d)を参照)。あるテクスチャレス領域の全体が、図9(c)のマッチング結果に含まれていれば、そのテクスチャレス領域は、平面領域とする(つまり、領域Bの場合)。なお、実際の平面領域と非平面領域の間には、画像上でエッジや濃淡の差等の何らかの境界が存在すると考えられる。その境界部は、本発明では、テクスチャレス領域とはならず、かつマッチング領域に属することになる。従って、テクスチャレス領域が仮に平面領域の縁に存在しているような場合でも、処理結果においては、テクスチャレス領域が、マッチング領域内で境界部の分だけ内側に現れることになる。また、あるテクスチャレス領域の全体が、図9(c)のマッチング結果に含まれていなければ、そのテクスチャレス領域全体を非平面領域とする(つまり、領域Aの場合)。   Next, the following determination is performed on the textureless areas A and B (see FIG. 9D). If the entire textureless region is included in the matching result of FIG. 9C, the textureless region is a planar region (that is, in the case of region B). Note that it is considered that some boundary such as an edge or a difference in shading exists on the image between the actual planar region and the non-planar region. In the present invention, the boundary portion is not a textureless region and belongs to the matching region. Therefore, even if the textureless region exists at the edge of the planar region, the textureless region appears inside the matching region by the boundary portion in the processing result. If the entire textureless area is not included in the matching result of FIG. 9C, the entire textureless area is set as a non-planar area (that is, in the case of area A).

最後に、図9(c)のマッチング結果から、非平面領域と判定されたテクスチャレス領域を除いて、正確な平面領域が得られる(図9(e)を参照)。   Finally, an accurate planar region is obtained by excluding the textureless region determined as a non-planar region from the matching result of FIG. 9C (see FIG. 9E).

上記で述べたテクスチャレス領域処理は、以下のように解釈することができる。まず、テクスチャレス領域では、局所的なマッチングを行っても、位置ずれが生じているかどうかの判定をすることができない。そこで、テクスチャレス領域をまとめ、各々の領域を"塊"として、ずれの判定を行う。その際、平面領域に含まれるテクスチャレス領域では、当然位置ずれがないために全体がマッチングすることになるが、非平面領域中のテクスチャレス領域の場合には、位置がずれるため、領域のある部分が必ず周囲の別の領域と重なり、その部分はマッチングにより非平面部と判定されることになる。そこで、そのようなテクスチャレス領域全体を非平面領域と判定する。   The textureless region processing described above can be interpreted as follows. First, in the textureless region, it is not possible to determine whether or not a positional deviation has occurred even if local matching is performed. Therefore, the textureless areas are grouped, and each area is regarded as a “lumb” to determine the deviation. In that case, in the textureless area included in the planar area, there is naturally no positional shift, so the whole will match, but in the case of the textureless area in the non-planar area, the position will shift and there will be an area. The part necessarily overlaps with another surrounding area, and the part is determined to be a non-planar part by matching. Therefore, the entire textureless area is determined as a non-planar area.

以上のテクスチャレス領域処理を行って得られた結果を図10に示す。図10(B)は、図10(A)の基準画像に対して、テクスチャレス領域を抽出した結果である。図10(C)は、上記で述べたテクスチャレス領域処理を加えて、平面領域を抽出した結果である。図10(D)は、原画像との重ね合わせ表示である。   The results obtained by performing the above textureless region processing are shown in FIG. FIG. 10B shows the result of extracting the textureless region from the reference image shown in FIG. FIG. 10C shows the result of extracting the planar area by applying the textureless area processing described above. FIG. 10D shows a superimposed display with the original image.

また、図11にテクスチャレス領域処理を行って得られた別の結果を示す。この例では、空(非平面領域)の部分と、路面のペイント(平面領域)の部分にテクスチャレス領域が存在しているが、テクスチャレス領域処理により、空(非平面領域)に対応したテクスチャレス領域のみがマッチング結果から除かれ、図11(E)及び図11(F)に示すように、良好な結果が得られていることが良く分かる。   FIG. 11 shows another result obtained by performing the textureless area processing. In this example, there are textureless areas in the sky (non-planar area) and the paint (planar area) on the road surface, but textures corresponding to the sky (non-planar area) are processed by textureless area processing. It can be clearly seen that only the less regions are excluded from the matching results, and good results are obtained as shown in FIGS. 11 (E) and 11 (F).

以上をまとめると、本発明での平面抽出の全体の流れは図12に示される通りで、その各々の部分の処理を以下で説明する。
<1>LOGフィルタ
本発明で用いられる領域ベースの手法(非特許文献5参照)の短所として、2つの画像の明るさが異なると、うまく処理が行えないところである。そこで、この画像間の明るさの差を取り除くために、入力されたステレオ原画像にLOGフィルタをかける。LOGフィルタは下記数3のように示される。本実施例ではσ=1、ウィンドウサイズ=7としている。
To summarize the above, the overall flow of plane extraction in the present invention is as shown in FIG. 12, and the processing of each part will be described below.
<1> LOG Filter As a disadvantage of the region-based method (see Non-Patent Document 5) used in the present invention, if the brightness of two images is different, processing cannot be performed well. Therefore, in order to remove the brightness difference between the images, a LOG filter is applied to the input stereo original image. The LOG filter is expressed by the following equation (3). In this embodiment, σ = 1 and window size = 7.

Figure 0004344860
また、LOGフィルタをかけた画像は、コントラストがとても低いので、本発明では、ヒストグラム平坦化によってコントラストを上げるようにしている。
<2>射影変換行列の推定
ステップS100に説明された方法により、ステレオ画像間の平面の射影変換行列を動的に推定する。
<3>射影変換画像
<2>により得られた平面を表す射影変換行列によって、参照画像を射影変換する。射影変換行列が表す平面は、あたかも基準カメラから撮影したかのように一致し、射影変換行列が表す平面上にないものは、歪んで投影される。本発明ではこの性質を利用して平面領域を求める。
<4>差分画像
平面上に存在する点は基準画像へ正確に投影されるので、輝度値の差分は小さい。逆に、平面上にない点の輝度値の差分は大きくなる。閾値処理を施して差分の小さい領域を平面領域とする。このとき、ピクセルごとの差分ではノイズによる影響が大きいので、SADによるマッチングを施す。具体的には、差分画像に平滑化フィルタをかけることで実現している。その後、閾値を使って2値化する。
<5>前時刻平面領域の利用
ステレオ動画像において、前時刻と現時刻に撮影された画像にはとても高い相関がある。同様に、処理結果においても相関が高いことを利用して、前時刻の処理結果を利用することで安定した処理を行うようしている。ここでは現時刻に抽出される平面領域と非平面領域の境界が前時刻から予想される境界に対してある一定幅に収まると考えられる。そこで、それ以外の部分に関しては、前時刻の結果より平面領域ないし非平面領域と見なすことができるため、それを2値画像(マッチング結果)に反映する。
<6>テクスチャレス領域
<4>の差分画像だけを利用すると、画像上であまりテクスチャの無い領域、つまりテクスチャレス領域では、濃度値の変化が無いため、たとえ異なる場所が重なりあっていたとしても道路領域として認識してしまう恐れがある。また、テクスチャレス領域をそのまま道路領域からすべて取り除いてしまうと、本来道路領域であるのに誤って非道路領域としてしまう恐れがある。道路領域内にもテクスチャレス領域が存在するためである。そこでLOGフィルタをかけると、空間周波数が0に近い領域をテクスチャレス領域として抽出し、領域ごとにラベリングする(図13(a)のA、B)。
<7>テクスチャレス領域の考慮
<6>でラベリングしたテクスチャレス領域ごとに基準画像と参照画像のマッチング結果(図13(c))に完全に収まっている領域は道路領域とし、ずれが生じている領域(図13(c)のC)は非道路領域とする。
<8>Opening処理
求めたい道路領域は、自動車の走行可能な道路領域である。そこで、抽出された結果から、自動車の走行できない領域を取り除いている。まず、自動車の走行不可能な小さな領域を道路領域抽出結果から取り除く。得られた道路領域抽出結果からその面積を求め、閾値以下の領域を除去している。また、道路領域全体に収縮膨張処理を施す。

<ステップS120>射影変換行列を分解することにより道路面の傾きを算出する
ここでは平面領域抽出において得られた射影変換行列から、道路面の姿勢を表すパラメータである、基準カメラから道路平面までの距離dと道路平面の法線ベクトル

Figure 0004344860
を求める方法について説明する。
Figure 0004344860
In addition, since an image to which a LOG filter is applied has a very low contrast, the present invention increases the contrast by flattening the histogram.
<2> Estimation of Projection Transformation Matrix The plane projection transformation matrix between stereo images is dynamically estimated by the method described in step S100.
<3> Projection Conversion Image The reference image is projectively converted by the projection conversion matrix representing the plane obtained by <2>. The plane represented by the projective transformation matrix matches as if it was taken from the reference camera, and those not on the plane represented by the projective transformation matrix are distorted and projected. In the present invention, this property is used to obtain a planar area.
<4> Difference image Since the points existing on the plane are accurately projected onto the reference image, the difference in luminance value is small. On the contrary, the difference of the luminance value of the point which is not on a plane becomes large. An area having a small difference is set as a plane area by performing threshold processing. At this time, since the difference for each pixel is greatly affected by noise, matching by SAD is performed. Specifically, this is realized by applying a smoothing filter to the difference image. Then, binarization is performed using a threshold value.
<5> Use of Previous Time Plane Area In a stereo moving image, there is a very high correlation between images taken at the previous time and the current time. Similarly, by using the fact that the correlation is high in the processing result, stable processing is performed by using the processing result at the previous time. Here, it is considered that the boundary between the planar region and the non-planar region extracted at the current time falls within a certain width with respect to the boundary expected from the previous time. Therefore, the other portions can be regarded as a planar region or a non-planar region from the result at the previous time, and are reflected in the binary image (matching result).
<6> Textureless area If only the difference image of <4> is used, there is no change in the density value in the area without much texture on the image, that is, in the textureless area, even if different places overlap. There is a risk of being recognized as a road area. Further, if the textureless area is completely removed from the road area as it is, there is a possibility that it may be a non-road area accidentally although it is originally a road area. This is because there are textureless areas in the road area. Therefore, when a LOG filter is applied, an area having a spatial frequency close to 0 is extracted as a textureless area and is labeled for each area (A and B in FIG. 13A).
<7> Consideration of textureless area For each textureless area labeled in <6>, the area completely included in the matching result of the reference image and the reference image (FIG. 13C) is a road area, and a shift occurs. The area (C in FIG. 13C) is a non-road area.
<8> Opening process The road area to be obtained is a road area where a car can travel. Therefore, the area where the automobile cannot travel is removed from the extracted result. First, a small area where the automobile cannot travel is removed from the road area extraction result. The area is obtained from the obtained road area extraction result, and the area below the threshold is removed. Further, the entire road area is subjected to contraction and expansion processing.

<Step S120> The slope of the road surface is calculated by decomposing the projective transformation matrix. Here, from the projective transformation matrix obtained in the planar region extraction, a parameter representing the posture of the road surface, from the reference camera to the road plane. Normal vector of distance d and road plane

Figure 0004344860
A method for obtaining the value will be described.

まず、道路平面の射影変換行列

Figure 0004344860
は図2のようなカメラ配置の場合、下記数4で表される。 First, the projective transformation matrix of the road plane

Figure 0004344860
In the case of the camera arrangement as shown in FIG.

Figure 0004344860
但し、

Figure 0004344860
は基準カメラ座標系から参照カメラ座標系への回転行列で、

Figure 0004344860
は参照カメラ座標系における基準カメラと参照カメラの並進ベクトルで、dは基準カメラと道路平面の距離で、

Figure 0004344860
は道路平面の法線ベクトルで、A1、A2はそれぞれ基準カメラと参照カメラの内部パラメータである。
Figure 0004344860
However,

Figure 0004344860
Is the rotation matrix from the base camera coordinate system to the reference camera coordinate system,

Figure 0004344860
Is the translation vector of the reference camera and reference camera in the reference camera coordinate system, d is the distance between the reference camera and the road plane,

Figure 0004344860
Is a normal vector of the road plane, and A 1 and A 2 are internal parameters of the reference camera and the reference camera, respectively.

ここで、定数項k≠0を付けるのは、画像から得られた射影変換行列には定数倍の自由度が存在することを表す。カメラの内部パラメータA1、A2が既知であるとすると、下記数5は成立する。 Here, the addition of the constant term k ≠ 0 indicates that the projective transformation matrix obtained from the image has a degree of freedom that is a constant multiple. Assuming that the camera internal parameters A 1 and A 2 are known, the following equation 5 holds.

Figure 0004344860
ここで、非特許文献6に記載されたFaugerasらの手法によって射影変換行列

Figure 0004344860
を特異値分解する。
Figure 0004344860
Here, the projective transformation matrix is obtained by the method of Faugeras et al. Described in Non-Patent Document 6.

Figure 0004344860
Singular value decomposition.

Figure 0004344860
Figure 0004344860

Figure 0004344860
上記数6において、

Figure 0004344860
でそれぞれ対応する行、列を入れ換えれば

Figure 0004344860
のように並べ替えることができる。以後、降順に並んでいるとする。上記数5と上記数6を比較して、
Figure 0004344860
In the above equation 6,

Figure 0004344860
If you replace the corresponding rows and columns with

Figure 0004344860
Can be sorted as follows. Hereinafter, it is assumed that they are arranged in descending order. Comparing Equation 5 and Equation 6 above,

Figure 0004344860
ここで、

Figure 0004344860
とすると、下記数9を得る。
Figure 0004344860
here,

Figure 0004344860
Then, the following formula 9 is obtained.

Figure 0004344860
もとの

Figure 0004344860
は、以下のような関係式から求めることができる。
Figure 0004344860
Original

Figure 0004344860
Can be obtained from the following relational expression.

Figure 0004344860
上記数10から、

Figure 0004344860
を得るには

Figure 0004344860
を求めればよいことが分かる。
Figure 0004344860
From the above formula 10,

Figure 0004344860
To get

Figure 0004344860
It can be seen that

ここで、基準カメラ座標系の基底

Figure 0004344860
を導入し、

Figure 0004344860
とし、上記数9から得られる3つの方程式と

Figure 0004344860
は単位ベクトルであること、

Figure 0004344860
は正規直交行列より

Figure 0004344860
も単位ベクトルとなること、また

Figure 0004344860
は回転行列なのでノルム変化がないことより、下記数11が導出される。 Where the base of the reference camera coordinate system

Figure 0004344860
Introduced

Figure 0004344860
And the three equations obtained from Equation 9 above and

Figure 0004344860
Is a unit vector,

Figure 0004344860
Is from an orthonormal matrix

Figure 0004344860
Is also a unit vector, and

Figure 0004344860
Since is a rotation matrix, the following equation 11 is derived from the fact that there is no norm change.

Figure 0004344860
これを

Figure 0004344860
と置き、

Figure 0004344860
の連立一次方程式として解くと、下記数12を得る。
Figure 0004344860
this

Figure 0004344860
And put

Figure 0004344860
Is solved as a simultaneous linear equation, the following equation 12 is obtained.

Figure 0004344860
よって、下のように

Figure 0004344860
の特異値が(I)重解を持たない場合、(II)重解を持つ場合、(III)3重解を持つ場合に場合分けして考える。
(I)

Figure 0004344860
(II)

Figure 0004344860
(III)

Figure 0004344860
ここで、k=±σ1もしくはk=±σ3は成り立たない。これは背理法で示される。よって、

Figure 0004344860
にかかっている定数倍の項kは、

Figure 0004344860
を特異値分解したときのσ2として求まることが分かる。次に、k>0のときには、2台のカメラを平面の同じ側に配置にして平面の同じ面をカメラが撮影している場合に相当し、本発明で扱うカメラ配置である。また(III)の3重解の場合は、2つのカメラの光学中心が一致、つまり回転だけの場合なので、除外する。これらの関係より、一般的に、

Figure 0004344860
は下記数13のように書ける。
Figure 0004344860
So, as below

Figure 0004344860
The singular values of (1) have no multiple solutions, (II) have multiple solutions, and (III) have triple solutions.
(I)

Figure 0004344860
(II)

Figure 0004344860
(III)

Figure 0004344860
Here, k = ± σ 1 or k = ± σ 3 does not hold. This is shown in a contradiction. Therefore,

Figure 0004344860
The constant k term k depends on

Figure 0004344860
It can be seen that it is obtained as σ 2 when singular value decomposition is performed. Next, when k> 0, this corresponds to the case where two cameras are arranged on the same side of the plane and the same plane is taken by the camera, and is the camera arrangement handled in the present invention. In the case of the triple solution (III), the optical centers of the two cameras are coincident, that is, only rotation is excluded. From these relationships, in general,

Figure 0004344860
Can be written as Equation 13 below.

Figure 0004344860
(I)

Figure 0004344860
のとき

Figure 0004344860
より

Figure 0004344860
を得る。つまり、

Figure 0004344860


Figure 0004344860
周りの回転行列である。以下それぞれ条件を入れて計算すると、下記数14、数15及び数16を得る。
Figure 0004344860
(I)

Figure 0004344860
When

Figure 0004344860
Than

Figure 0004344860
Get. In other words,

Figure 0004344860
Is

Figure 0004344860
The surrounding rotation matrix. When calculation is performed with the following conditions, the following equations 14, 15, and 16 are obtained.

Figure 0004344860
Figure 0004344860

Figure 0004344860
Figure 0004344860

Figure 0004344860
(II)

Figure 0004344860
のとき及び(III)σ1=σ22=σ3)のとき
上記数13より、

Figure 0004344860

Figure 0004344860
は単位行列になる。このとき、
Figure 0004344860
(II)

Figure 0004344860
And (III) when σ 1 = σ 22 = σ 3 )

Figure 0004344860

Figure 0004344860
Becomes the identity matrix. At this time,

Figure 0004344860
と書ける。
Figure 0004344860
Can be written.

ここで、

Figure 0004344860
の符号の違いにより、

Figure 0004344860
は4つの解の不定性が発生している。そこで、「2台のカメラから平面が見えている」という条件を与える。つまり、光学中心を出た視線がレンズを通り、平面へ到達するということである。得られた

Figure 0004344860
の候補のうち、

Figure 0004344860
との内積が正になる

Figure 0004344860
を選べば良い。これで4つから2つに絞れる。さらに、解を一意にするために、本実施例では2台のカメラ同士の位置関係が撮影中変化しないという条件を加えることで解決している。また、dを求めるためには、得られた

Figure 0004344860
の絶対値と

Figure 0004344860
から次の式より求めることができる。

Figure 0004344860
つまり、2台のカメラのベースライン

Figure 0004344860
を与えることでdが決まる。

<ステップS130>道路平面を上方から見た画像(仮想投影面画像)を生成する
ステップS120で求められた道路平面の姿勢パラメータを使って、図14に示されるように、基準画像に基づいて、道路平面と平行な仮想投影面(VPP:Virtual Projection Plane)画像を生成する。図14の中の記号を以下のように定義する。

Figure 0004344860
は道路平面と基準カメラの座標系における法線ベクトルで、fは基準カメラの焦点距離で、dは基準カメラ光学中心と道路平面との距離で、また、eOZは基準カメラの光軸である。 here,

Figure 0004344860
Due to the difference in the sign of

Figure 0004344860
There are four uncertainties in the solution. Therefore, a condition that “a plane can be seen from two cameras” is given. That is, the line of sight that exits the optical center passes through the lens and reaches the plane. Obtained

Figure 0004344860
Of the candidates for

Figure 0004344860
The dot product with is positive

Figure 0004344860
You can choose. This reduces the number from 4 to 2. Furthermore, in order to make the solution unique, in this embodiment, the problem is solved by adding a condition that the positional relationship between the two cameras does not change during shooting. Also, to obtain d, obtained

Figure 0004344860
Absolute value of

Figure 0004344860
From the following equation.

Figure 0004344860
In other words, the baseline of the two cameras

Figure 0004344860
Gives d.

<Step S130> Generating an image (virtual projection plane image) when the road plane is viewed from above Using the road plane attitude parameters obtained in step S120, as shown in FIG. A virtual projection plane (VPP) image parallel to the road plane is generated. Symbols in FIG. 14 are defined as follows.

Figure 0004344860
Is the normal vector in the coordinate system of the road plane and the reference camera, f is the focal length of the reference camera, d is the distance between the optical center of the reference camera and the road plane, and e OZ is the optical axis of the reference camera. .

ここで、ステップS120で射影変換行列を分解することで得られた法線ベクトルを

Figure 0004344860
とする。 Here, the normal vector obtained by decomposing the projective transformation matrix in step S120 is

Figure 0004344860
And

まず、基準カメラの光軸eOZ

Figure 0004344860
との外積を回転軸として、eOZ

Figure 0004344860
のなす角をθ回転させる変換行列を

Figure 0004344860
とすると、 First, the optical axis e OZ of the reference camera

Figure 0004344860
E OZ with the outer product of

Figure 0004344860
A transformation matrix that rotates the angle between

Figure 0004344860
Then,

Figure 0004344860
Figure 0004344860

Figure 0004344860
Figure 0004344860

Figure 0004344860
Figure 0004344860

Figure 0004344860
と表せる。基準カメラをこの

Figure 0004344860
により回転させたVPP画像へ変換する射影変換行列は、基準カメラの内部パラメータ行列を

Figure 0004344860
、仮想カメラ(つまり、VPPカメラ)の内部パラメータ行列を

Figure 0004344860
とすると、
Figure 0004344860
It can be expressed. This is the reference camera

Figure 0004344860
The projective transformation matrix to be converted into the VPP image rotated by the is the internal parameter matrix of the reference camera.

Figure 0004344860
, The internal parameter matrix of the virtual camera (ie VPP camera)

Figure 0004344860
Then,

Figure 0004344860
と表せる。
Figure 0004344860
It can be expressed.

次に、VPP画像の鉛直軸と基準カメラの光軸の向きを一致させる。基準カメラの光軸方向の単位ベクトル

Figure 0004344860
をVPPカメラ座標系から見たベクトル

Figure 0004344860
を考え、それをVPP画像座標系に正射影したベクトル

Figure 0004344860
を考える。 Next, the direction of the vertical axis of the VPP image and the direction of the optical axis of the reference camera are matched. Unit vector in the optical axis direction of the reference camera

Figure 0004344860
Vector viewed from the VPP camera coordinate system

Figure 0004344860
A vector that is orthogonally projected onto the VPP image coordinate system

Figure 0004344860
think of.

まず、
First,

Figure 0004344860
である。
Figure 0004344860
It is.

次に、

Figure 0004344860
のx成分をux、y成分をuyと表すとき、

Figure 0004344860
をx−y平面に正射影した

Figure 0004344860
なるベクトル

Figure 0004344860
を考える。 next,

Figure 0004344860
When the x component of u is represented as u x and the y component as u y ,

Figure 0004344860
Is orthogonally projected onto the xy plane.

Figure 0004344860
Vector

Figure 0004344860
think of.

この

Figure 0004344860
をVPP画像座標に射影すると、同次VPP画像座標上での無限遠点

Figure 0004344860
に変換される。 this

Figure 0004344860
Is projected onto the VPP image coordinates, the point at infinity on the homogeneous VPP image coordinates

Figure 0004344860
Is converted to

Figure 0004344860


Figure 0004344860
を定義し、これをカメラ方向と呼ぶ。求める回転行列

Figure 0004344860
はカメラ方向

Figure 0004344860
を、「VPP画像座標の−v方向」=「VPPカメラ座標系の−y方向」に一致させる回転変換であるので、
Figure 0004344860
When

Figure 0004344860
This is called the camera direction. Desired rotation matrix

Figure 0004344860
Is the camera direction

Figure 0004344860
Is a rotational transformation that matches “−V direction of VPP image coordinates” = “− y direction of VPP camera coordinate system”.

Figure 0004344860
を満たす

Figure 0004344860
を求める。上記数22の

Figure 0004344860
と組み合わせることにより、基準画像からVPP画像への射影変換行列

Figure 0004344860
は、
Figure 0004344860
Meet

Figure 0004344860
Ask for. Number 22 above

Figure 0004344860
Projection transformation matrix from reference image to VPP image

Figure 0004344860
Is

Figure 0004344860
となる。
Figure 0004344860
It becomes.

上記数26の

Figure 0004344860
により、基準画像を射影変換してVPP画像を生成する。3次元空間でmと表すことのできる点を基準画像へ投影して得られる基準画像座標の点

Figure 0004344860
と、同じく点mをVPP画像へ投影したときのVPP画像座標の点

Figure 0004344860
の間には、 The number 26

Figure 0004344860
Thus, the reference image is projectively transformed to generate a VPP image. A point of reference image coordinates obtained by projecting a point that can be expressed as m in a three-dimensional space onto the reference image

Figure 0004344860
Similarly, the point of the VPP image coordinates when the point m is projected onto the VPP image

Figure 0004344860
In between

Figure 0004344860
が成り立つので、VPP画像上の点miの輝度は、

Figure 0004344860
の逆行列

Figure 0004344860
を用いて対応する原画像上の点m0iの輝度値を代入することで得られる。
Figure 0004344860
Since established, the luminance of the point m i on the VPP image,

Figure 0004344860
Inverse matrix of

Figure 0004344860
Is used to substitute the luminance value of the point m 0i on the corresponding original image.

Figure 0004344860
Figure 0004344860

Figure 0004344860
ただし、

Figure 0004344860
は行列

Figure 0004344860
のi行j列成分を表すとする。
Figure 0004344860
However,

Figure 0004344860
Is a matrix

Figure 0004344860
Let i represent the i-row and j-column components.

以上の射影変換行列を使い、図16の基準画像を入力としてVPP画像を計算すると、図19が生成される。なお、図15は参照画像で、また、図18は図17に示される平面領域を原画像に重ね合わせた結果である。

<ステップS140>VPP画像上で走行可能な平面領域と自車輌の位置、方向を算出する
まずステップS130で説明された方法によって、図17のように平面領域のみ(白い領域)をVPP画像に変換した画像が図20である(つまり、この画像において白い領域が平面領域である)。
Using the above projective transformation matrix and calculating the VPP image with the reference image of FIG. 16 as an input, FIG. 19 is generated. 15 is a reference image, and FIG. 18 is a result of superimposing the planar area shown in FIG. 17 on the original image.

<Step S140> Calculate the plane area that can be traveled on the VPP image and the position and direction of the vehicle. First, by the method described in step S130, only the plane area (white area) is converted into a VPP image as shown in FIG. The obtained image is shown in FIG. 20 (that is, a white area in this image is a plane area).

次に、VPP画像の特徴について説明する。推定した平面上に載っている点は、上記数27の変換により正しい座標のVPP画像に変換されるが、平面から浮いている点(例えば、車や壁など)は、VPP画像に変換すると正しい位置に変換されるわけではない。すなわち、VPP画像に変換することで、推定した道路平面領域を平行に上方から見た画像が生成されたわけであり、その画像から得られる座標は、実空間に対応した座標系となっている。   Next, features of the VPP image will be described. A point on the estimated plane is converted into a VPP image having the correct coordinates by the conversion of Equation 27, but a point floating from the plane (for example, a car or a wall) is correct when converted to a VPP image. It is not converted to a position. That is, by converting the image into a VPP image, an image in which the estimated road plane area is viewed from above in parallel is generated, and the coordinates obtained from the image are a coordinate system corresponding to the real space.

次に、VPP画像上に落とした光学中心を得るためには、上記数18における

Figure 0004344860
と仮想カメラの内部パラメタ

Figure 0004344860
と道路平面の法線ベクトル

Figure 0004344860
、上記数25の

Figure 0004344860
を使い、同次VPP画像座標上での光学中心の同次座標を

Figure 0004344860
とすると、

Figure 0004344860
より、VPP画像の画像座標は

Figure 0004344860


Figure 0004344860
として得る。図21の中ではOが基本カメラの光学中心を道路平面に投影した点である。以後、この点を基準カメラ位置原点とする。よって、カメラと車輌の位置関係からVPP画像上での車輌の位置がわかる。また、図21に示すように、VPP画像で垂直な軸Yは光軸に一致する。つまり、光軸と車輌との取り付け角が既知であれば、VPP画像中で自車輌の方向を算出できる。

<ステップS150>VPP画像上での道路平面領域の自車輌からの最遠部すなわち障害物までの各方向毎の距離を算出する
領域の拡がりを求めるには、図20のような平面領域をVPP画像に変換した画像を用意し、その画像上での基準カメラ位置原点から光軸(Y軸)に対して、θ傾いた直線を伸ばし、平面領域の端を計算する(図22参照)。画像上での基準カメラ位置原点Oから平面領域の端の座標を求めることにより、光軸からθ傾いた場所における画像上での平面の拡がり長さを求めることができる。画像上での長さは仮想カメラの内部パラメータと、基準カメラ光学中心と道路平面との距離dを使うことで実際の距離に変換できる。つまり、この処理により平面領域の方向別距離が算出されたわけである。 Next, in order to obtain the optical center dropped on the VPP image,

Figure 0004344860
And virtual camera internal parameters

Figure 0004344860
And road plane normal vector

Figure 0004344860
, The above number 25

Figure 0004344860
To calculate the homogeneous coordinates of the optical center on the homogeneous VPP image coordinates.

Figure 0004344860
Then,

Figure 0004344860
Therefore, the image coordinates of the VPP image are

Figure 0004344860
Is

Figure 0004344860
Get as. In FIG. 21, O is the point where the optical center of the basic camera is projected onto the road plane. Hereinafter, this point is set as the reference camera position origin. Therefore, the position of the vehicle on the VPP image can be known from the positional relationship between the camera and the vehicle. Further, as shown in FIG. 21, the vertical axis Y in the VPP image coincides with the optical axis. That is, if the mounting angle between the optical axis and the vehicle is known, the direction of the vehicle can be calculated in the VPP image.

<Step S150> Calculate the distance in each direction to the farthest part from the vehicle in the road plane area on the VPP image, that is, the obstacle. In order to obtain the area expansion, the plane area as shown in FIG. An image converted to an image is prepared, a straight line inclined by θ is extended from the reference camera position origin on the image with respect to the optical axis (Y axis), and the end of the planar area is calculated (see FIG. 22). By obtaining the coordinates of the end of the plane area from the reference camera position origin O on the image, the spread length of the plane on the image at a position inclined by θ from the optical axis can be obtained. The length on the image can be converted to an actual distance by using the internal parameter of the virtual camera and the distance d between the optical center of the reference camera and the road plane. That is, the distance for each direction of the planar area is calculated by this process.

本実施例においては、撮影した画像の解像度などの制約上、基準カメラ位置原点から光軸方向に32mまで前方を領域の拡がりとして計算できる上限とした。また、計測範囲は光軸から25度の範囲で0.5度刻みとした。

<ステップS160>VPP画像上での道路平面領域の自車輌からの最遠部すなわち障害物までの各方向毎の相対速度を算出する
次に、VPP画像上での道路平面領域の自車輌からの最遠部すなわち障害物までの方向別相対速度を算出する。各時刻について、各方向別にステップS150で述べた方法を利用し、道路平面領域の方向別距離を計算する。
In the present embodiment, due to restrictions such as the resolution of the photographed image, the upper limit is calculated that allows the area from the reference camera position origin to 32 m in the optical axis direction to be calculated as the area expansion. In addition, the measurement range was 25 degrees from the optical axis and in increments of 0.5 degrees.

<Step S160> Calculate the relative speed in each direction to the farthest part from the vehicle in the road plane area on the VPP image, that is, the obstacle. Next, from the vehicle in the road plane area on the VPP image The relative speed for each direction to the farthest part, that is, the obstacle is calculated. For each time, using the method described in step S150 for each direction, the distance for each direction of the road plane area is calculated.

ここでは、例えば、光軸(Y軸)からθ傾いた平面の相対速度を求めるために、光軸(Y軸)からθ傾いた方向別距離を過去の5フレーム使い、また、画像は30fpsで撮影しているため、1フレームで1/30sであるので、最小2乗法を使うことで1/30s毎の方向別距離の時系列データから傾きを求め、時速に換算したことで、その方向の相対速度が算出できたわけである(図23参照)。従って、同様の処理を各方向について行うことで、平面領域のほぼ全体について平面領域の相対速度が算出される。

<ステップS170>VPP画像に走行可能な平面領域を重ね合わせて表示すると共に、算出された方向別距離、方向別相対速度情報を表示する
ステップS150及びステップS160で述べた方法により、各方向における道路平面領域の距離と相対速度が計算できたわけである。
Here, for example, in order to obtain the relative velocity of the plane inclined by θ from the optical axis (Y axis), the distance for each direction inclined by θ from the optical axis (Y axis) is used for the past five frames, and the image is 30 fps. Since shooting is 1/30 s in one frame, the least square method is used to obtain the slope from the time-series data of the direction-specific distance for each 1/30 s, and by converting it to speed, The relative speed was calculated (see FIG. 23). Therefore, by performing the same processing for each direction, the relative speed of the planar area is calculated for almost the entire planar area.

<Step S170> A plane area that can be traveled is displayed superimposed on the VPP image, and the calculated distance by direction and relative speed information by direction are displayed by the method described in Step S150 and Step S160. The distance and relative speed of the planar area could be calculated.

本発明では、得られた道路平面の方向別距離と方向別相対速度を分かり易く表示できるように工夫した。その結果が図24で示す画像である。まず、図24に示された画像の右側の画像は、基準画像をVPP画像に変換したものに、平面領域をVPP画像に変換したものを重ねたものである。図24に示された画像の右側の画像において、水色の領域が合成した平面領域であり、平面領域の端にある各点は領域の端点(この点1つ1つが平面の方向別距離であり、図中では矢印Aで示している点)を表し、端点の色の付け方は次のようなルールがある。   In this invention, it devised so that the distance according to direction and the relative speed according to direction of the obtained road plane could be displayed easily. The result is the image shown in FIG. First, the image on the right side of the image shown in FIG. 24 is obtained by superimposing a reference image converted into a VPP image and a plane region converted into a VPP image. In the image on the right side of the image shown in FIG. 24, the light blue region is a combined planar region, and each point at the end of the planar region is an end point of the region (each point is a distance by plane direction). , The point indicated by arrow A), and the method of coloring the end points has the following rules.

まず、平面の拡がり速度が負(平面が縮む、つまり、カメラに向かってくる方向)の場合は、危険度があるため、暖色系の色の点で表示する。一方、平面の拡がり速度が正(平面が拡がる、つまり、カメラから離れる方向)の場合は、危険度は低くなるため、寒色系の色の点で表示し、また、平面の拡がりがないものについては緑の点で表示することとした。図24に示された画像の左側の下にあるグラデーションは、平面の拡がり速度による点の色の推移を示すものであり、各数字はそれぞれ時速(km/h)に相当している。また、基準カメラ位置原点からの一定距離になるような同心円弧5m毎に描き(図中では矢印Bで示している)、カメラを搭載した車の幅を赤いラインで示した(図中では矢印Cで示している)。   First, when the expansion rate of the plane is negative (the plane is contracted, that is, in the direction toward the camera), there is a risk, and the display is performed with warm color points. On the other hand, when the plane expansion speed is positive (the plane expands, that is, away from the camera), the danger is low, so it is displayed with a cold color point, and there is no plane expansion Is indicated by a green dot. The gradation below the left side of the image shown in FIG. 24 indicates the transition of the color of the point depending on the spread speed of the plane, and each number corresponds to the speed (km / h). In addition, a concentric arc is drawn every 5 m so as to be a fixed distance from the reference camera position origin (indicated by the arrow B in the figure), and the width of the vehicle on which the camera is mounted is indicated by a red line (in the figure, the arrow C).

次に、図24に示された画像の左側の画像は、基準画像に平面領域を合成したもので、平面領域を水色で表している。平面領域の各端点は、VPP画像を基に計算した画像の座標を数27の

Figure 0004344860
を使って変換することで、基準画像での領域の端点に対応する座標が計算されるため、その座標を利用し、表示している(図中では矢印Dで示している)。ここで使用される色の決定の仕方は、図24に示された画像の右側の画像の端点と同じルールを利用する。また、光軸から一定角度毎(本実施例では5度ごと)の点の上にその点の基準カメラ位置原点からの距離をメートル単位で表示している(図中では矢印Eで示している)。 Next, the image on the left side of the image shown in FIG. 24 is obtained by synthesizing the plane area with the reference image, and the plane area is indicated in light blue. Each end point of the plane area is expressed by the coordinates of the image calculated based on the VPP image as shown in Equation 27.

Figure 0004344860
Since the coordinates corresponding to the end points of the region in the reference image are calculated by using the conversion, the coordinates are used and displayed (indicated by an arrow D in the figure). The method of determining the color used here uses the same rule as the end point of the image on the right side of the image shown in FIG. Further, the distance from the reference camera position origin of each point on a point at a certain angle from the optical axis (every 5 degrees in this embodiment) is displayed in meters (indicated by an arrow E in the figure). ).

上記のような方向別距離、方向別相対速度情報の表示方法により、本発明を用いた道路平面領域並びに障害物検出結果の例を図25と図26に示す。なお、図25と図26は、自動車に搭載したカメラで撮影したステレオ動画像に対し、本発明を適用した結果を示し、ちなみに、その結果は市街地における道路平面領域並びに障害物検出結果で、ステレオ動画像に対する処理結果から3フレーム(1/10秒)毎の結果を抜き出して表示している。   FIG. 25 and FIG. 26 show examples of road plane regions and obstacle detection results using the present invention by the above-described method of displaying the distance by direction and the relative speed information by direction. 25 and 26 show the result of applying the present invention to a stereo moving image taken by a camera mounted on an automobile. Incidentally, the result is a road plane area and an obstacle detection result in an urban area, and is a stereo. A result for every three frames (1/10 second) is extracted from the processing result for the moving image and displayed.

上述したように、ステップS100〜ステップS170を有する本発明に係るステレオ画像を用いた道路平面領域並びに障害物検出方法では、自動車に搭載された2台のステレオカメラから撮像されたステレオ動画像から得られる時系列情報を利用することにより、安定に射影変換行列と道路平面領域を連続的に推定することが可能になり、道路面自体が傾いたり、走行中にカーブや路面の凹凸で車体が傾斜したり、自動車に搭載されたカメラが振動したりすることがあっても、射影変換行列は一定ではなく、常に、ステレオ動画像から射影変換行列が求められるので、こういった問題を解決することができた。   As described above, in the road plane region and obstacle detection method using the stereo image according to the present invention having steps S100 to S170, the stereo image obtained from the two stereo cameras mounted on the automobile is obtained. It is possible to stably estimate the projection transformation matrix and the road plane area continuously by using the time series information that is obtained, the road surface itself tilts, and the vehicle body tilts due to curves and road surface irregularities during driving Even if the camera mounted on the car may vibrate, the projective transformation matrix is not constant, and the projective transformation matrix is always obtained from the stereo video, so solving these problems I was able to.

また、本発明では、射影変換行列を分解することによって算出された道路面の傾きに基づいて、仮想投影面画像(VPP画像)を生成し、更に、VPP画像上での平面領域の自車輌からの障害物までの方向別距離、方向別相対速度を算出し、最後に、VPP画像に走行可能な平面領域を重ね合わせて表示すると共に、算出された方向別距離、方向別相対速度情報を表示するようにしているので、自動車に対する走行可能な領域及び障害物の表示は視覚的な表示となり、大変実用性の高い方法である。   Further, in the present invention, a virtual projection plane image (VPP image) is generated based on the slope of the road surface calculated by decomposing the projective transformation matrix, and further, from the vehicle in the plane area on the VPP image. The distance by direction and relative speed by direction to the obstacle are calculated, and finally the plane area that can be traveled is superimposed on the VPP image, and the calculated distance by direction and relative speed information by direction are displayed. Therefore, the display of the area where the vehicle can travel and the obstacle is a visual display, which is a highly practical method.

なお、本発明を適用する際に、自動車に搭載されるステレオカメラとしてはCCDカメラを用いることが好ましいが、それに限定されることはなく、ステレオ動画像を撮影できる撮影手段であれば、ほかの撮影手段を用いることも可能である。また、本発明を自動車以外の走行物体に適用することも可能である。   When applying the present invention, it is preferable to use a CCD camera as a stereo camera mounted on an automobile. However, the present invention is not limited to this, and any other imaging means can be used as long as it can capture a stereo moving image. It is also possible to use photographing means. Further, the present invention can be applied to a traveling object other than an automobile.

本発明の全体の流れを示すフローチャートである。It is a flowchart which shows the whole flow of this invention. 平面の投影と2次元射影変換を説明するための模式図である。It is a schematic diagram for demonstrating planar projection and two-dimensional projective transformation. ステレオ原画像の一例を示す図である。It is a figure which shows an example of a stereo original image. 図3に示されるステレオ原画像にLOGフィルタ処理とヒストグラム平坦化処理を施した結果画像を示す図である。It is a figure which shows the result image which performed the LOG filter process and the histogram flattening process to the stereo original image shown by FIG. 時系列情報を利用した射影変換行列と計算領域の推定手順を説明するための模式図である。It is a schematic diagram for demonstrating the projection transformation matrix and the estimation procedure of a calculation area | region using time series information. 平面領域抽出結果を示す図である。It is a figure which shows a planar area | region extraction result. 前時刻から予想される領域を説明するための模式図である。It is a schematic diagram for demonstrating the area | region estimated from the previous time. 大きなテクスチャレス領域が存在するステレオ画像の平面領域抽出を説明するための図である。It is a figure for demonstrating the planar area | region extraction of the stereo image in which a big textureless area | region exists. テクスチャレス領域処理を説明するための模式図である。It is a schematic diagram for demonstrating a textureless area | region process. 大きなテクスチャレス領域が存在するステレオ画像に対してテクスチャレス領域処理を行って得られた平面領域抽出結果を示す図である。It is a figure which shows the planar area extraction result obtained by performing a textureless area process with respect to the stereo image in which a big textureless area exists. 平面領域内にもテクスチャレス領域が存在するステレオ画像に対してテクスチャレス領域処理を行って得られた平面領域抽出結果を示す図である。It is a figure which shows the planar area extraction result obtained by performing a textureless area process with respect to the stereo image in which a textureless area exists also in a planar area. 本発明での平面抽出の全体の流れ図である。It is the flowchart of the whole plane extraction in this invention. テクスチャレス領域の考慮方法を説明するための模式図である。It is a schematic diagram for demonstrating the consideration method of a textureless area | region. 本発明の仮想投影面画像(VPP画像)を説明するための模式図である。It is a schematic diagram for demonstrating the virtual projection plane image (VPP image) of this invention. 参照画像の一例を示す図である。It is a figure which shows an example of a reference image. 基準画像の一例を示す図である。It is a figure which shows an example of a reference | standard image. 平面領域抽出結果を示す図である。It is a figure which shows a planar area | region extraction result. 図17の平面領域を図16の原画像に重ね合わせた結果を示す図である。FIG. 18 is a diagram illustrating a result of superimposing the planar area of FIG. 17 on the original image of FIG. 16. 図16の基準画像のVPP画像を示す図である。It is a figure which shows the VPP image of the reference | standard image of FIG. 図17の平面領域のVPP画像を示す図である。It is a figure which shows the VPP image of the plane area | region of FIG. VPP画像の特徴を説明するための図である。It is a figure for demonstrating the characteristic of a VPP image. VPP画像上での平面領域の自車輌からの障害物までの方向別距離の算出を説明するための模式図である。It is a schematic diagram for demonstrating the calculation of the distance according to direction from the own vehicle of the plane area | region on a VPP image to the obstruction. 方向別平面領域の相対速度計算を説明するための図である。It is a figure for demonstrating the relative velocity calculation of the plane area according to direction. 本発明を用いた道路平面領域並びに障害物検出結果を示す画像である。It is an image which shows the road plane area | region and obstacle detection result using this invention. 本発明を用いた道路平面領域並びに障害物検出結果の一例を示す図である。It is a figure which shows an example of the road plane area | region and obstacle detection result using this invention. 本発明を用いた道路平面領域並びに障害物検出結果の他の例を示す図である。It is a figure which shows the other example of the road plane area | region and obstacle detection result using this invention.

Claims (4)

自動車に搭載される撮像手段によって撮影された、基準画像と参照画像から構成されるステレオ動画像のみを利用して、走行可能な道路平面領域及び道路面上に存在する全ての障害物を検出できるようにしたステレオ画像を用いた道路平面領域並びに障害物検出方法であって、
道路面に対する射影変換行列を動的に推定する第1のステップと、
第1のステップで求まった前記射影変換行列を用いて、走行可能な平面領域を抽出する第2のステップと、
第1のステップで求まった前記射影変換行列を分解することにより道路面の傾きを算出する第3のステップと、
第3のステップで算出された前記道路面の傾きを基に道路面を上方から見た仮想投影面画像を生成する第4のステップと、
第4のステップで生成された前記仮想投影面画像の上で、前記走行可能な平面領域と自車輌の位置と方向を算出する第5のステップと、
を有することを特徴とするステレオ画像を用いた道路平面領域並びに障害物検出方法。
It is possible to detect a road plane area that can be driven and all obstacles on the road surface by using only a stereo moving image composed of a base image and a reference image, which is taken by an imaging means mounted on an automobile. A road plane area and an obstacle detection method using stereo images,
A first step of dynamically estimating a projective transformation matrix for a road surface;
A second step of extracting a plane region that can be traveled using the projective transformation matrix obtained in the first step;
A third step of calculating a slope of the road surface by decomposing the projective transformation matrix obtained in the first step;
A fourth step of generating a virtual projection plane image in which the road surface is viewed from above based on the inclination of the road surface calculated in the third step;
On the virtual projection plane image generated in the fourth step, a fifth step of calculating the travelable plane area and the position and direction of the own vehicle;
A road plane area and an obstacle detection method using a stereo image characterized by comprising:
前記仮想投影面画像の上での前記走行可能な平面領域より自車輌から障害物までの方向別距離を算出する第6のステップと、
前記仮想投影面画像の上での前記走行可能な平面領域より自車輌から障害物までの方向別相対速度を算出する第7のステップと、
を更に有する請求項1に記載のステレオ画像を用いた道路平面領域並びに障害物検出方法。
A sixth step of calculating a distance by direction from the vehicle to the obstacle from the plane area where the vehicle can travel on the virtual projection plane image;
A seventh step of calculating a relative speed for each direction from the vehicle to the obstacle from the plane area where the vehicle can travel on the virtual projection plane image;
The road plane area | region and obstacle detection method using the stereo image of Claim 1 which further has these.
前記仮想投影面画像に前記走行可能な平面領域を重ね合わせて表示すると共に、前記方向別距離と前記方向別相対速度情報を表示する第8のステップと、
を更に有する請求項2に記載のステレオ画像を用いた道路平面領域並びに障害物検出方法。
An eighth step of displaying the travelable plane region superimposed on the virtual projection plane image, and displaying the distance by direction and the relative speed information by direction;
The road plane area | region and obstacle detection method using the stereo image of Claim 2 which further have these.
前記第1のステップでは、前記基準画像及び前記参照画像にLOGフィルタ処理とヒストグラム平坦化処理を施してから、領域ベースの手法により、前記ステレオ画像間の道路面に対応する射影変換行列を動的に推定するようにし、
前記第2のステップでは、前記射影変換行列によって前記参照画像を射影変換し、前記基準画像と射影変換された前記参照画像との差分画像を求め、前記差分画像に平滑化フィルタをかけてから、閾値を使って2値化して2値画像が得られ、前記2値画像に前時刻平面領域の推定結果を利用すると共にテクスチャレス領域を考慮することによって、走行可能な平面領域を抽出するようにし、
前記第3のステップでは、前記道路面の傾きを示す道路平面姿勢パラメータは、基準カメラ光学中心から道路平面までの距離と道路平面の法線ベクトルであるようにし、
前記第4のステップでは、前記道路平面姿勢パラメータを使って、前記基準画像を射影変換して、道路平面と平行な仮想投影面画像を生成する請求項3に記載のステレオ画像を用いた道路平面領域並びに障害物検出方法。
In the first step, a LOG filter process and a histogram flattening process are performed on the base image and the reference image, and then a projective transformation matrix corresponding to a road surface between the stereo images is dynamically generated by an area-based method. To estimate
In the second step, the reference image is projectively transformed by the projective transformation matrix to obtain a difference image between the reference image and the projective transformed reference image, and a smoothing filter is applied to the difference image. A binary image is obtained by binarization using a threshold value, and a plane area that can be traveled is extracted by using the estimation result of the previous time plane area in the binary image and considering the textureless area. ,
In the third step, the road plane attitude parameter indicating the inclination of the road surface is a distance from the reference camera optical center to the road plane and a normal vector of the road plane,
The road plane using a stereo image according to claim 3, wherein in the fourth step, the reference image is projectively transformed using the road plane attitude parameter to generate a virtual projection plane image parallel to the road plane. Area and obstacle detection method.
JP2004023493A 2004-01-30 2004-01-30 Road plan area and obstacle detection method using stereo image Expired - Fee Related JP4344860B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004023493A JP4344860B2 (en) 2004-01-30 2004-01-30 Road plan area and obstacle detection method using stereo image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004023493A JP4344860B2 (en) 2004-01-30 2004-01-30 Road plan area and obstacle detection method using stereo image

Publications (2)

Publication Number Publication Date
JP2005217883A JP2005217883A (en) 2005-08-11
JP4344860B2 true JP4344860B2 (en) 2009-10-14

Family

ID=34906495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004023493A Expired - Fee Related JP4344860B2 (en) 2004-01-30 2004-01-30 Road plan area and obstacle detection method using stereo image

Country Status (1)

Country Link
JP (1) JP4344860B2 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4765726B2 (en) * 2006-03-31 2011-09-07 トヨタ自動車株式会社 Image processing apparatus and method
US20100103175A1 (en) * 2006-10-25 2010-04-29 Tokyo Institute Of Technology Method for generating a high-resolution virtual-focal-plane image
JP4807583B2 (en) * 2007-03-29 2011-11-02 本田技研工業株式会社 Projective transformation convergence calculation processing method
JP5429986B2 (en) * 2009-12-25 2014-02-26 株式会社Ihiエアロスペース Mobile robot remote environment recognition apparatus and method
WO2011087354A2 (en) * 2010-01-15 2011-07-21 Mimos Berhad Vehicle parking and obstacle avoidance system using a single panoramic camera
JP5530773B2 (en) * 2010-03-19 2014-06-25 株式会社Ihiエアロスペース Plane detection method using stereo camera and mobile robot using this method
JP5501084B2 (en) * 2010-04-28 2014-05-21 株式会社日立製作所 Planar area detection apparatus and stereo camera system
WO2014016949A1 (en) * 2012-07-26 2014-01-30 パイオニア株式会社 Image processing device and image processing method
JP6030405B2 (en) * 2012-10-25 2016-11-24 シャープ株式会社 Planar detection device and autonomous mobile device including the same
WO2014064990A1 (en) * 2012-10-25 2014-05-01 シャープ株式会社 Plane detection device, autonomous locomotion device provided with plane detection device, method for detecting road level difference, device for detecting road level difference, and vehicle provided with device for detecting road level difference
KR101431373B1 (en) 2013-02-26 2014-08-18 경북대학교 산학협력단 Apparatus for estimating of vehicle movement using stereo matching
EP2963633A4 (en) 2013-02-27 2016-12-07 Hitachi Automotive Systems Ltd Object sensing device
JP5959073B2 (en) 2014-09-30 2016-08-02 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Detection device, detection method, and program
DE102016104730A1 (en) * 2016-03-15 2017-09-21 Connaught Electronics Ltd. Method for detecting an object along a road of a motor vehicle, computing device, driver assistance system and motor vehicle
CN106204634B (en) * 2016-06-22 2019-07-09 广东警官学院 A method of car speed is measured by monitor video or vehicle-mounted camera
US10984555B2 (en) 2017-03-30 2021-04-20 Mitsubishi Electric Corporation Object detection device and vehicle
JP7211047B2 (en) * 2018-12-04 2023-01-24 株式会社アイシン Road surface detection device and road surface detection program

Also Published As

Publication number Publication date
JP2005217883A (en) 2005-08-11

Similar Documents

Publication Publication Date Title
JP4344860B2 (en) Road plan area and obstacle detection method using stereo image
KR101188588B1 (en) Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method
US7321386B2 (en) Robust stereo-driven video-based surveillance
US8872925B2 (en) Method and device for camera calibration
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
US7684590B2 (en) Method of recognizing and/or tracking objects
JP3868876B2 (en) Obstacle detection apparatus and method
JP3539788B2 (en) Image matching method
EP1394761B1 (en) Obstacle detection device and method therefor
KR101569919B1 (en) Apparatus and method for estimating the location of the vehicle
US20200193184A1 (en) Image processing device and image processing method
Raguraman et al. Intelligent drivable area detection system using camera and LiDAR sensor for autonomous vehicle
JP4967758B2 (en) Object movement detection method and detection apparatus
Yang Estimation of vehicle's lateral position via the Lucas-Kanade optical flow method
Hwang et al. Vision-based vehicle detection and tracking algorithm design
JP4106163B2 (en) Obstacle detection apparatus and method
JP2007199932A (en) Image processor and its method
JP5903901B2 (en) Vehicle position calculation device
JP6886136B2 (en) Alignment device, alignment method and computer program for alignment
WO2006123438A1 (en) Method of detecting planar road region and obstruction using stereoscopic image
García-García et al. 3D visual odometry for GPS navigation assistance
Son et al. Detection of nearby obstacles with monocular vision for earthmoving operations
Nedevschi et al. Improving accuracy for Ego vehicle motion estimation using epipolar geometry
Albrecht et al. Concept on landmark detection in road scene images taken from a top-view camera system
Dankers et al. Active vision for road scene awareness

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061002

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20071023

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071206

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20071206

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20071023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080222

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20090317

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20090409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090609

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090624

R150 Certificate of patent or registration of utility model

Ref document number: 4344860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120724

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130724

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130724

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130724

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20210724

Year of fee payment: 12

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees