JP6549932B2 - Stereo image processing device - Google Patents

Stereo image processing device Download PDF

Info

Publication number
JP6549932B2
JP6549932B2 JP2015151067A JP2015151067A JP6549932B2 JP 6549932 B2 JP6549932 B2 JP 6549932B2 JP 2015151067 A JP2015151067 A JP 2015151067A JP 2015151067 A JP2015151067 A JP 2015151067A JP 6549932 B2 JP6549932 B2 JP 6549932B2
Authority
JP
Japan
Prior art keywords
distance
stop
parallax
information
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015151067A
Other languages
Japanese (ja)
Other versions
JP2017032356A (en
Inventor
中川 亮
亮 中川
健太 福間
健太 福間
政之 村越
政之 村越
俊樹 越中谷
俊樹 越中谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2015151067A priority Critical patent/JP6549932B2/en
Publication of JP2017032356A publication Critical patent/JP2017032356A/en
Application granted granted Critical
Publication of JP6549932B2 publication Critical patent/JP6549932B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、移動体に搭載されている一対のカメラの視差ずれを推定して補正するステレオ画像処理装置に関する。   The present invention relates to a stereo image processing apparatus that estimates and corrects parallax shift of a pair of cameras mounted on a moving body.

従来、三次元の距離情報を取得し、この情報に基づいて周囲環境や自己位置を認識する三次元計測装置が知られており、車両等の移動体に搭載されて実用化されている。この種の三次元計測装置は、例えば、左右一対のカメラ(ステレオカメラ)で撮影した同一対象物の一対の画像の相関を求め、同一物体に対する視差からステレオカメラの取り付け位置や焦点距離等のカメラパラメータを用いて三角測量の原理により対象物までの距離を算出するようにしている。   BACKGROUND Conventionally, a three-dimensional measurement device that acquires three-dimensional distance information and recognizes an ambient environment and a self position based on this information is known, and is mounted on a mobile body such as a vehicle and put to practical use. This type of three-dimensional measurement apparatus, for example, finds the correlation between a pair of images of the same object captured by a pair of left and right cameras (stereo cameras), and determines the camera position and focal length etc. The parameters are used to calculate the distance to the object according to the principle of triangulation.

従って、ステレオマッチングの精度(信頼性の高い距離情報)を得るためには、視差以外の位置的なずれがステレオ画像に存在しないことが望ましい。しかし、実際には、取付け時にカメラをネジ締めすること等によりカメラに加わる物理的なストレスやカメラが搭載された装置の振動や熱による歪み等によりカメラの光軸がずれる等して、視差が経時的にずれてしまう場合がある。ステレオカメラに視差ずれが生じると、基準画像と比較画像との視差と物体の実際の距離とが正確に対応しなくなり、ステレオマッチング法による物体の三次元的な位置の割り出しの精度が低下して、対象物までの距離情報の信頼性が損なわれてしまう。   Therefore, in order to obtain stereo matching accuracy (reliable distance information), it is desirable that no positional deviation other than parallax be present in the stereo image. However, in actuality, the optical axis of the camera is shifted due to physical stress applied to the camera by screwing the camera at the time of attachment, etc. or distortion due to vibration or heat of the device equipped with the camera, etc. It may shift with time. When parallax displacement occurs in the stereo camera, the parallax between the reference image and the comparison image does not correspond exactly to the actual distance of the object, and the accuracy of the three-dimensional position determination of the object by the stereo matching method decreases. The reliability of the distance information to the object is lost.

このようなカメラにおける光軸ずれを補正する技術としては、例えば、特開2007−267231号公報(以下、特許文献1)で、後方カメラにより、第1の地物および第1の地物と自車両との第1の距離を検出し、前方ステレオカメラにより、第2の地物および第2の地物と自車両との第2の距離を検出し、高精度地図データに格納された真正距離と前述の実測値とを比較して後方カメラの光軸ずれを検出し、実測値が真正距離に一致するように補正する光軸ずれの補正装置の技術が開示されている。   As a technique for correcting the optical axis deviation in such a camera, for example, in Japanese Patent Application Laid-Open No. 2007-267231 (hereinafter referred to as Patent Document 1), the first feature and the first feature are The first distance to the vehicle is detected, and the second distance between the second feature and the second feature and the vehicle is detected by the front stereo camera, and the true distance stored in the high precision map data There is disclosed a technology of an optical axis offset correction device which detects the optical axis offset of the rear camera by comparing the above measured value with the above-mentioned measured value, and corrects the measured value to coincide with the true distance.

特開2007−267231号公報Unexamined-Japanese-Patent No. 2007-267231

しかしながら、上述の特許文献1に開示される光軸ずれの補正装置では、後方カメラ、前方ステレオカメラ、車両の移動距離を計測するためのセンサ(例えば、車速センサ)などの複数のセンサが必要で、後方カメラの光軸ずれを検出して補正しようとした場合、これら複数のセンサの誤差を考慮しなければ精度良く光軸ずれを補正することができないという課題がある。また、第1の地物と第2の地物とを検出して初めて光軸ずれの補正が行えるようになるため、光軸ずれの補正に時間がかかるという課題もある。更に、このように第1の地物と第2の地物を検出して光軸ずれの補正を行おうとすると、第1の地物を検出するときの検出状態と第2の地物を検出するときの検出状態が異なって外乱が含まれ、精度良く光軸ずれを補正するためには、このような外乱をも考慮する必要がある。   However, in the optical axis offset correction device disclosed in Patent Document 1 described above, a plurality of sensors such as a rear camera, a front stereo camera, and a sensor (for example, a vehicle speed sensor) for measuring the movement distance of the vehicle are required. In the case of detecting and correcting the optical axis deviation of the rear camera, there is a problem that the optical axis deviation can not be accurately corrected without considering the errors of the plurality of sensors. In addition, since the correction of the optical axis deviation can be performed only after the first feature and the second feature are detected, there is a problem that it takes time to correct the optical axis deviation. Furthermore, when detecting the first feature and the second feature and correcting the optical axis deviation in this way, the detection state when detecting the first feature and the second feature are detected. The detection state at the time of operation is different, which includes a disturbance, and in order to correct the optical axis deviation with high accuracy, it is necessary to also consider such a disturbance.

本発明は上記事情に鑑みてなされたもので、多くのセンサを用いることなく、誤差や外乱が含まれることなく短時間で精度良くステレオカメラの視差を補正することができるステレオ画像処理装置を提供することを目的としている。   The present invention has been made in view of the above circumstances, and provides a stereo image processing apparatus capable of accurately correcting the parallax of a stereo camera in a short time without including errors and disturbances without using many sensors. The purpose is to

本発明のステレオ画像処理装置の一態様は、移動体に搭載した一対のカメラで撮影した一対の画像情報の同一対象物に対する視差に基づいて上記同一対象物までの距離情報を算出するステレオ画像処理装置において、地図情報を取得する地図情報取得手段と、上記一対の画像情報のうち同一タイミングにおける各一つのフレームのみから上記移動体からの距離が異なる2つの停止物を検出し、上記地図情報に基づき上記画像情報に基づく2つの停止物に対応する2つの停止物を検出し、上記画像情報に基づく2つの停止物間距離を第1の停止物間距離として算出し、上記地図情報に基づく2つの停止物間距離を第2の停止物間距離として算出し、上記第1の停止物間距離と上記第2の停止物間距離とを比較し、上記第2の停止物間距離を基準として上記第1の停止物間距離が上記第2の停止物間距離に一致するように上記視差を補正する視差補正手段とを備えた。 One aspect of a stereo image processing apparatus according to the present invention is stereo image processing for calculating distance information to the same object based on parallax of the same object of a pair of image information captured by a pair of cameras mounted on a moving object In the device, two stopped objects having different distances from the moving object are detected from only one frame at the same timing among the pair of image information and map information acquisition means for acquiring map information, and the above map information is detected. Based on the image information, two stop objects corresponding to the two stop objects are detected, and a distance between the two stop objects based on the image information is calculated as a first stop object distance, and based on the map information The distance between two stationary objects is calculated as a second distance between stationary objects, the first distance between stationary objects is compared with the second distance between stationary objects, and the second distance between stationary objects is used as a reference. The distance between the first stationary object is a parallax correction means for correcting the disparity to match the distance between the second stop was then.

本発明によるステレオ画像処理装置によれば、多くのセンサを用いることなく、誤差や外乱が含まれることなく短時間で精度良くステレオカメラの視差を補正することが可能となる。   According to the stereo image processing apparatus according to the present invention, it is possible to correct the parallax of the stereo camera accurately in a short time without including errors and disturbances without using many sensors.

本発明の実施の一形態に係るステレオ画像処理装置の機能ブロック図である。It is a functional block diagram of a stereo image processing device concerning one embodiment of the present invention. 本発明の実施の一形態に係る視差補正処理部の機能ブロック図である。It is a functional block diagram of a parallax correction processing unit according to an embodiment of the present invention. 本発明の実施の一形態に係る視差補正プログラムのフローチャートである。It is a flowchart of the parallax correction program which concerns on one Embodiment of this invention. 本発明の実施の一形態に係る車載カメラで撮影した自車両前方の画像の一例を示す説明図である。It is explanatory drawing which shows an example of the image ahead of the own vehicle image | photographed with the vehicle-mounted camera which concerns on one Embodiment of this invention. 本発明の実施の一形態に係る自車両前方の2つの停止物の算出方法の説明図である。It is explanatory drawing of the calculation method of two stop objects ahead of the own vehicle which concerns on one Embodiment of this invention. 本発明の実施の一形態に係る2つの停止物までの距離と視差との関係の説明図である。It is explanatory drawing of the relationship of the distance and parallax to two stop objects which concern on one Embodiment of this invention.

以下、図面に基づいて本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described based on the drawings.

図1に示すように、本実施形態によるステレオ画像処理装置1は、自動車等の移動体に搭載されている。尚、以下においては、このステレオ画像処理装置1を、車両に搭載した場合を例示して説明する。   As shown in FIG. 1, the stereo image processing apparatus 1 according to the present embodiment is mounted on a mobile object such as a car. In addition, below, the case where this stereo image processing apparatus 1 is mounted in a vehicle is illustrated and demonstrated.

ステレオ画像処理装置1は、コンピュータを中心に構成されている画像処理部2を有し、この画像処理部2の入力側に、A/Dコンバータ3,4を介してステレオカメラ5、およびナビゲーションシステム6が接続されている。   The stereo image processing apparatus 1 has an image processing unit 2 mainly composed of a computer, and on the input side of the image processing unit 2, a stereo camera 5 via an A / D converter 3, 4 and a navigation system 6 are connected.

ステレオカメラ5は、CCDやCMOS等のイメージセンサを内蔵するメインカメラ5aとサブカメラ5bとで構成されており、この両カメラ5a,5bは、それぞれ車室内の天井前方であって、車幅方向中央を挟んで左右に等間隔離れた位置に取り付けられ、車外の環境を異なる視点からステレオ撮像を行う。   The stereo camera 5 is composed of a main camera 5a and a sub camera 5b incorporating image sensors such as CCDs and CMOSs, and both the cameras 5a and 5b are in front of the ceiling of the vehicle interior and in the vehicle width direction. It is mounted at equal intervals left and right across the center, and performs stereo imaging from different viewpoints of the environment outside the vehicle.

メインカメラ5aは、ステレオ画像処理を行う際に必要な基準画像(右画像)を撮像し、サブカメラ5bは、比較画像(左画像)を撮像する。互いの同期が取れている状態において、カメラ5a,5bから出力された各アナログ画像は、A/Dコンバータ3,4にてデジタル画像に変換されて、画像処理部2に送信される。   The main camera 5a captures a reference image (right image) necessary when performing stereo image processing, and the sub camera 5b captures a comparison image (left image). The respective analog images output from the cameras 5 a and 5 b are converted into digital images by the A / D converters 3 and 4 and transmitted to the image processing unit 2 in a state where they are synchronized with each other.

ナビゲーションシステム6は、周知のシステムであり、例えば、GPS[Global Positioning System:全地球測位システム]衛星からの電波信号を受信して車両の位置情報(緯度、経度)を取得し、車速センサから車速を取得し、また、地磁気センサあるいはジャイロセンサ等により、移動方向情報を取得する。そして、ナビゲーションシステムは、ナビゲーション機能を実現するための経路情報を生成するナビECUと、地図情報(サプライヤデータ、及び、更新されたデータ)を記憶する地図データベースと、例えば液晶ディスプレイ等の表示部(以上、何れも図示せず)を備えて構成される。   The navigation system 6 is a well-known system, for example, receives radio signals from GPS (Global Positioning System) satellites and acquires vehicle position information (latitude, longitude), and vehicle speed from a vehicle speed sensor In addition, movement direction information is acquired by a geomagnetic sensor or a gyro sensor or the like. Then, the navigation system includes a navigation ECU that generates route information for realizing the navigation function, a map database that stores map information (supplier data and updated data), and a display unit such as a liquid crystal display (for example) As mentioned above, all are provided and comprised.

ナビECUは、利用者によって指定された目的地までの経路情報を地図画像に重ねて表示部に表示させるとともに、検出された車両の位置、速度、走行方向等の情報に基づき、車両の現在位置を表示部上の地図画像に重ねて表示する。また、地図データベースには、ノードデータ、施設データ等の道路地図を構成するのに必要な情報が記憶されている。ノードデータは、地図画像を構成する道路の位置及び形状に関するものであり、例えば道路の分岐点(交差点)を含む道路上の点(ノード点)の座標(緯度、経度)、当該ノード点が含まれる道路の方向、種別(例えば、高速道路、幹線道路、市道といった情報)、当該ノード点における道路のタイプ(直線区間、円弧区間(円弧曲線部)、クロソイド曲線区間(緩和曲線部))及びカーブ曲率(或いは、半径)のデータが含まれる。従って、車両の現在位置が重ねられた地図上の位置により自車両の走行路が特定され、該自車両の走行路を目標進行路として自車両の位置に最も近いノード点の情報により、道路のカーブ曲率(或いは、半径)、道路の方向等の走行路情報が取得される。更に、信号機、標識、施設データ(すなわち、停止物データ)は、各ノード点の付近に存在する施設情報に関するデータを含み、ノードデータ(或いは、当該ノードが存在するリンクデータ)と関連づけて記憶されている。このように、ナビゲーションシステム6は、自車位置情報と地図情報とに基づいて車線情報を提供するものであり、地図情報取得手段として設けられている。   The navigation ECU superimposes route information to the destination designated by the user on the map image and displays it on the display unit, and the current position of the vehicle based on the detected information such as the position, speed, and traveling direction of the vehicle. Is superimposed on the map image on the display unit. Further, in the map database, information necessary for constructing a road map, such as node data and facility data, is stored. The node data relates to the position and shape of the road that constitutes the map image, and includes, for example, the coordinates (latitude, longitude) of a point (node point) on the road including the branch point of the road (intersection) Direction of the road being used (for example, information such as expressway, arterial road, city road), type of road at the node point (straight section, arc section (arc curve section), clothoid curve section (relaxation section)) and Curve curvature (or radius) data is included. Therefore, the travel path of the own vehicle is specified by the position on the map where the current position of the vehicle is overlapped, and the travel path of the own vehicle is set as the target travel path of the road according to the information of the node point closest to the position of the own vehicle. Travel road information such as curve curvature (or radius), road direction, etc. is acquired. Furthermore, traffic lights, signs, and facility data (ie, stop data) include data on facility information existing near each node point, and are stored in association with the node data (or link data in which the node is present). ing. As described above, the navigation system 6 provides lane information based on the vehicle position information and the map information, and is provided as map information acquisition means.

そして、画像処理部2は、ステレオカメラ5、およびナビゲーションシステム6からの入力信号に基づいて、ステレオカメラ5からの一対の画像情報の同一フレームから自車両からの距離が異なる2つの停止物(本実施の形態では停止物の一例として、図4に示すように、信号機(遠方の信号機21A、近くの信号機21B)を例とする)を検出し、ナビゲーションシステム6からの地図情報に基づき画像情報に基づく2つの信号機に対応する2つの信号機を検出し、画像情報に基づく2つの停止物間距離を第1の停止物間距離DCABとして算出し、地図情報に基づく2つの停止物間距離を第2の停止物間距離DMABとして算出し、第1の停止物間距離DCABと第2の停止物間距離DMABとを比較し、第2の停止物間距離DMABを基準として(真値として)第1の停止物間距離DCABが第2の停止物間距離DMABに一致するようにステレオカメラ5の視差を補正し、補正した視差を用いて距離データを求めて画像を認識して出力する構成となっている。   Then, based on the input signals from the stereo camera 5 and the navigation system 6, the image processing unit 2 sets two stop objects (this is different from the same frame of the pair of image information from the stereo camera 5). In the embodiment, as an example of the stop object, as shown in FIG. 4, a traffic signal (for example, a distant traffic signal 21A and a nearby traffic signal 21B) is detected, and based on the map information from the navigation system 6, Two traffic signals corresponding to two traffic signals based on the two traffic signals are detected, a distance between two stationary objects based on image information is calculated as a first distance between stationary objects DCABS, and a distance between two stationary objects based on map information is second Between the first stationary object distance DCAB and the second stationary object distance DMAB, and calculates the second stationary object distance DMAB. The parallax of the stereo camera 5 is corrected so that the first stationary object distance DCAB coincides with the second stationary object distance DMAB (as true value), and distance data is determined using the corrected parallax to obtain an image. Is configured to recognize and output.

このため、画像処理部2は、画像補正部11、ステレオ画像処理部12、視差補正処理部13、距離データ記憶部14、画像データ記憶部15、画像認識部16を備えて主要に構成されている。   Therefore, the image processing unit 2 mainly includes an image correction unit 11, a stereo image processing unit 12, a parallax correction processing unit 13, a distance data storage unit 14, an image data storage unit 15, and an image recognition unit 16. There is.

画像補正部11は、画像情報に対して輝度補正や画像の幾何学的な変換等を行う。通常、左右一対のカメラ5a,5bの取付位置には誤差があり、それに起因したずれが左右の画像に生じる。このずれを補正するために、アフィン変換等を用いて、画像の回転や平行移動等の幾何学的な変換を行う。このような画像補正処理により、メインカメラ5aから画像データに基づいて基準画像データが生成され、サブカメラ5bからの画像データに基づいて比較画像データが生成される。この両画像データがステレオ画像処理部12に送信される。   The image correction unit 11 performs luminance correction, geometrical conversion of an image, and the like on image information. Usually, there is an error in the mounting position of the pair of left and right cameras 5a and 5b, and the displacement resulting therefrom is generated in the left and right images. In order to correct this deviation, geometrical transformation such as rotation or translation of the image is performed using affine transformation or the like. By such image correction processing, reference image data is generated from the main camera 5a based on the image data, and comparison image data is generated based on the image data from the sub camera 5b. The two image data are sent to the stereo image processing unit 12.

ステレオ画像処理部12は、基準画像データと比較画像データとに基づいて、1フレーム相当の撮像画像に関し、同一物体に対する視差Zから三角測量の原理を用いて対象物までの距離(距離データ)Dを、次の(1)式から算出する。   The stereo image processing unit 12 is based on the reference image data and the comparison image data, regarding the captured image equivalent to one frame, the distance Z to the object using the principle of triangulation from the parallax Z for the same object D Is calculated from the following equation (1).

D=f・L/Z …(1)
ここで、fは焦点距離、Lは左右カメラ5a,5b間の距離である。尚、Dは焦点距離fの位置から対象物までの距離である(図6参照:図6中では、距離Dは、LCA、或いはLCBを例としている)。
D = f · L / Z (1)
Here, f is a focal length, and L is a distance between the left and right cameras 5a and 5b. Here, D is the distance from the position of the focal distance f to the object (see FIG. 6: in FIG. 6, the distance D is exemplified by LCA or LCB).

また、視差Zは、同一対象物を撮影した基準画像データと比較画像データとの水平方向のずれ量であり、視差画素数xと画素ピッチPとを乗算した値で求められる(Z=x・P)。そして、この距離データを視差補正処理部13に出力する。   Further, the parallax Z is a shift amount in the horizontal direction between the reference image data obtained by photographing the same object and the comparison image data, and is obtained by multiplying the number of parallax pixels x by the pixel pitch P (Z = x ··· P). Then, the distance data is output to the parallax correction processing unit 13.

視差補正処理部13は、ナビゲーションシステム6から地図情報が入力され、ステレオ画像処理部12から距離データが入力され、図2に示すように、学習補正値算出部13aと位置補正部13bとを備えている。   The parallax correction processing unit 13 receives map information from the navigation system 6, receives distance data from the stereo image processing unit 12, and, as shown in FIG. 2, includes a learning correction value calculation unit 13a and a position correction unit 13b. ing.

そして、学習補正値算出部13aは、一対の画像情報の同一フレームから自車両からの距離が異なる2つの停止物(本実施の形態では停止物の一例として、図4に示すように、信号機(遠方の信号機21A、近くの信号機21B)を例とする)を検出し、ナビゲーションシステム6からの地図情報に基づき画像情報に基づく2つの信号機に対応する2つの信号機を検出し、画像情報に基づく2つの停止物間距離を第1の停止物間距離DCABとして算出し、地図情報に基づく2つの停止物間距離を第2の停止物間距離DMABとして算出し、第1の停止物間距離DCABと第2の停止物間距離DMABとを比較し、第2の停止物間距離DMABを基準として(真値として)第1の停止物間距離DCABが第2の停止物間距離DMABに一致するようにステレオカメラ5の視差を補正する(視差画素数を補正する)学習補正値Kxを算出し、位置補正部13bに出力する。   Then, the learning correction value calculation unit 13a outputs two stop objects that differ in distance from the vehicle from the same frame of the pair of image information (in the present embodiment, as shown in FIG. 2) detects a distant traffic light 21A and a nearby traffic light 21B), detects two traffic lights corresponding to two traffic lights based on image information based on the map information from the navigation system 6, and 2 based on the image information The distance between two stationary objects is calculated as a first distance between stationary objects DCABS, the distance between two stationary objects based on the map information is calculated as a second distance between stationary objects DMAB, and the first distance between stationary objects DCABS and Comparing with the second stationary object distance DMAB, the first stationary object distance DCAB matches the second stationary object distance DMAB with the second stationary object distance DMAB as a reference (as a true value) As to correct the parallax of the stereo camera 5 (to correct the number of parallaxes pixels) is calculated learning correction value Kx, and outputs the position correction unit 13b.

具体的には、図5に示すように、両カメラ5a,5bで撮影した自車両20前方の画像の同一のフレームから停止物として、遠方の信号機21Aと、それよりも近くに立設されている信号機21Bを検出し、ナビゲーションシステム6からの地図情報に基づき画像情報に基づく2つの信号機21A、21Bに対応する2つの信号機を検出する。   Specifically, as shown in FIG. 5, as a stopped object from the same frame of the image in front of the host vehicle 20 taken by both cameras 5a and 5b, it is set up near the traffic light 21A at a distance and more Based on the map information from the navigation system 6, two traffic signals corresponding to the two traffic lights 21A and 21B are detected based on the image information.

そして、画像情報に基づく遠方の信号機21Aと近くの信号機21Bとの間の距離(第1の停止物間距離)DCABを、以下の(2)式により算出する。   Then, the distance (first distance between stopped objects) DCAB between the distant signal 21A and the nearby signal 21B based on the image information is calculated by the following equation (2).

DCA=LCA−LCB …(2)
ここで、LCAは自車両から遠方の信号機21Aまでの距離、LCBは自車両から近くの信号機21Bまでの距離である。
DCA = LCA-LCB (2)
Here, LCA is the distance from the host vehicle to the traffic signal 21A at a distance, and LCB is the distance from the host vehicle to the nearby traffic signal 21B.

また、ナビゲーションシステム6の地図情報からは遠方の信号機21Aと近くの信号機21Bとの間の距離(第2の停止物間距離)DMABを直接算出する。   Further, from the map information of the navigation system 6, the distance (second distance between stopped objects) DMAB between the distant signal 21A and the nearby signal 21B is calculated directly.

この場合、地図情報が真値、すなわち、第2の停止物間距離DMABが真値とみなすと、ステレオカメラ5に視差ずれが無く第1の停止物間距離DCABの値が真値であれば、第2の停止物間距離DMABと第1の停止物間距離DCABとが一致する。逆に、ステレオカメラ5に視差ずれがある場合には、第1の停止物間距離DCABもずれた値となり、第2の停止物間距離DMABに対し、第1の停止物間距離DCABが異なった値となる。   In this case, if the map information is a true value, that is, the second stationary object distance DMAB is regarded as a true value, there is no parallax shift in the stereo camera 5, and the value of the first stationary object distance DCAB is a true value. The second stop-to-stop distance DMAB and the first stop-to-stop distance DCAB coincide with each other. Conversely, when there is parallax shift in the stereo camera 5, the first stop object distance DCAB is also a shifted value, and the first stop object distance DCAB is different from the second stop object distance DMAB. Value.

また、図6に示すように、近くの信号機21Bの距離LCBを計測する際に検出した視差ZBの方が、遠方の信号機21Aの距離LCAを計測する際に検出した視差ZAよりも大きく、視差ずれの影響は近くの信号機21B検出した距離LCBの方が小さい。   Further, as shown in FIG. 6, the parallax ZB detected when measuring the distance LCB of the nearby traffic light 21B is larger than the parallax ZA detected when measuring the distance LCA of the distant traffic light 21A, The influence of the deviation is smaller in the distance LCB detected by the nearby traffic light 21B.

従って、本実施形態では、第2の停止物間距離DMABと第1の停止物間距離DCABとが相違している場合、近くの信号機21Bの距離LCBを基準とし、第2の停止物間距離DMABを基準として(真値として)第1の停止物間距離DCABが第2の停止物間距離DMABに一致するようにステレオカメラ5の視差を補正する。   Therefore, in the present embodiment, when the second stop object distance DMAB is different from the first stop object distance DCAB, the second stop object distance is determined based on the distance LCB of the nearby traffic light 21B. The parallax of the stereo camera 5 is corrected such that the first stationary object distance DCAB matches the second stationary object distance DMAB with the DMAB as a reference (true value).

上述したように、視差Z=x・Pであり、視差画素数xに視差ずれが現れる。本実施形態では、画像情報に基づく近くの信号機21Bの距離LCB、遠方の信号機21Aの距離LCAを基に、第1の停止物間距離DCABが第2の停止物間距離DMABに一致するように遠方の信号機21Aの距離LCAの視差画素数xを学習補正値Kxにより補正する。そして、この学習補正値Kxを、次回以降の演算において、新たな学習補正値Kxが算出されるまで保持する。   As described above, the parallax Z = x · P, and parallax displacement appears in the number of parallax pixels x. In this embodiment, based on the distance LCB of the nearby traffic light 21B based on the image information and the distance LCA of the distant traffic light 21A, the first inter-stop object distance DCAB matches the second inter-stop object distance DMAB. The parallax pixel number x of the distance LCA of the distant traffic light 21A is corrected by the learning correction value Kx. Then, the learning correction value Kx is held until a new learning correction value Kx is calculated in the next and subsequent calculations.

以下、学習補正値算出部13aで算出する学習補正値Kxの具体例を示す。この場合、ステレオカメラ5の諸元を、f=5[mm]、L=300[mm]、P=0.005[mm]とし、図5に示す、画像情報により得られるLCA=85[m]、LCB=50[m]、DCAB=35[m]とし、地図情報により得られるDMAB=32[m]とする。従って、地図情報により得られる遠方の信号機21Aと近くの信号機21Bの距離は、近くの信号機21Bの距離をLCB=50[m]と同じ(基準)と考えれば、遠方の信号機21Aの距離は、50+32=82[m]となる。   Hereinafter, a specific example of the learning correction value Kx calculated by the learning correction value calculation unit 13a will be shown. In this case, the specifications of the stereo camera 5 are f = 5 [mm], L = 300 [mm], P = 0.005 [mm], and LCA obtained by the image information shown in FIG. 5 = 85 [m]. , LCB = 50 [m], DCAB = 35 [m], DMAB obtained by map information = 32 [m]. Therefore, the distance between the distant traffic signal 21A obtained from the map information and the nearby traffic light 21B is equal to the distance between the nearby traffic light 21B as LCB = 50 [m] (reference). It becomes 50 + 32 = 82 [m].

以上の例において、画像情報による遠方の信号機21Aの距離は、以下の(3)式となっている。   In the above example, the distance of the distant traffic signal 21A based on the image information is the following equation (3).

85[m]=5[m]・300[mm]/Z1 …(3)
また、地図情報による遠方の信号機21Aの距離は、以下の(4)式となっている。
85 [m] = 5 [m] · 300 [mm] / Z1 (3)
Further, the distance of the distant traffic signal 21A based on the map information is expressed by the following equation (4).

82[m]=5[m]・300[mm]/Z2 …(4)
ここで、(3)式における視差Z1は、補正前の視差画素数を視差画素数x1として、Z1=x1・0.005[mm]であり、x1=3.529411765となっている。
82 [m] = 5 [m] · 300 [mm] / Z2 (4)
Here, assuming that the parallax pixel number before correction is the parallax pixel number x1, the parallax Z1 in the equation (3) is Z1 = x1 · 0.005 [mm], and is x1 = 3.529411765.

また、(4)式における視差Z2は、補正後の視差画素数を視差画素数x2として、Z2=x2・0.005[mm]であり、x2=3.658536585となっている。   Further, with the parallax pixel number after correction as the parallax pixel number x2, the parallax Z2 in the equation (4) is Z2 = x2 · 0.005 [mm], and is x2 = 3.658536585.

従って、視差画素数xは減算補正する値を学習補正値Kxと定義すると、上述の例において、Kx=−0.129124821となる。   Therefore, the parallax pixel number x is Kx = −0.129124821 in the above-described example when the subtraction correction value is defined as the learning correction value Kx.

そして、視差画素数xを減算補正する学習補正値Kxを登録し、以降の演算において、新たな学習補正値Kxが算出されるまで、視差Zを算出する際の視差画素数xを学習補正値Kxで順次、学習補正する(Z=(x−Kx)・P)。   Then, a learning correction value Kx for subtracting and correcting the parallax pixel number x is registered, and the parallax pixel number x at the time of calculating the parallax Z is a learning correction value until a new learning correction value Kx is calculated in the subsequent calculation. Learning correction is sequentially performed with Kx (Z = (x−Kx) · P).

この学習補正値Kxは、位置補正部13bで読込まれる。位置補正部13bは、ステレオ画像処理部12で設定した視差Zを学習補正値Kxで学習補正し(Z=(x−Kx)・P)、学習補正後の視差Zに基づいて対象物の距離Dを求める。そして、視差Zを学習補正して求めた距離データ、及び、この距離データに対応する画像データを距離データ記憶部14、画像データ記憶部15にそれぞれ記憶させる。このように、視差補正処理部13は視差補正手段として設けられている。   The learning correction value Kx is read by the position correction unit 13 b. The position correction unit 13 b performs learning correction of the parallax Z set by the stereo image processing unit 12 with the learning correction value Kx (Z = (x−Kx) · P), and the distance of the object based on the parallax Z after learning correction Ask for D. The distance data storage unit 14 and the image data storage unit 15 respectively store the distance data obtained by learning correction of the parallax Z and the image data corresponding to the distance data. Thus, the parallax correction processing unit 13 is provided as parallax correction means.

画像認識部16は、画像データ記憶部15に記憶されている画像データを用いて対象物を認識し、距離データ記憶部14に記憶されている距離データに基づいて、当該対象物の三次元的な位置を認識する。   The image recognition unit 16 recognizes an object using the image data stored in the image data storage unit 15, and based on the distance data stored in the distance data storage unit 14, three-dimensional the object. Recognize a certain position.

この画像認識部16で認識した対象物の三次元的な位置情報は、使用目的に応じて適宜読込まれる。例えば、ステレオ画像処理装置1が移動体としての自動車に搭載されている場合、自車両20が走行する車線の左右を区画する区画線、標識、横断歩道、ガードレール、側壁、先行車等の車両、歩行者、信号機等の立体物等が認識すべき対象物となる。又、ステレオ画像処理装置1が移動体としての鉄道車両に搭載されている場合は、鉄道レール、通行車、通行人等が認識すべき対象物となる。   The three-dimensional position information of the object recognized by the image recognition unit 16 is appropriately read according to the purpose of use. For example, when the stereo image processing apparatus 1 is mounted on a car as a moving object, vehicles such as division lines, signs, crosswalks, guardrails, side walls, and leading vehicles that divide the left and right of the lane in which the host vehicle 20 travels. Pedestrians, three-dimensional objects such as traffic lights are objects to be recognized. In addition, when the stereo image processing apparatus 1 is mounted on a railway vehicle as a moving object, it is an object to be recognized by a railway rail, a passing vehicle, a passing person, and the like.

次に、視差補正処理部13で実行される視差補正プログラムを図3のフローチャートで説明する。   Next, a parallax correction program executed by the parallax correction processing unit 13 will be described with reference to the flowchart of FIG.

まず、ステップ(以下、「S」と略称)101で、同じ一つのフレームから2つの停止物(物体A、B)を距離情報と共に検出する。尚、本実施の形態の例では、2つの停止物は、遠方の信号機21Aと近くの信号機21Bであり、遠方の信号機21Aの距離LCA、近くの信号機21Bの距離LCBである。   First, in step (hereinafter, abbreviated as “S”) 101, two stop objects (objects A and B) are detected from the same one frame together with distance information. In the example of the present embodiment, the two stop objects are the distant signal 21A and the nearby signal 21B, the distance LCA of the distant signal 21A, and the distance LCB of the nearby signal 21B.

次いで、S102に進み、2つの停止物(物体A、B)が検出済みか否か判定し、検出できない場合にはS103に進み、次のフレームを検索する。   Next, in S102, it is determined whether or not two stop objects (objects A and B) have been detected. If the two objects can not be detected, the process proceeds to S103 and the next frame is searched.

また、S102で、同じ一つのフレームから2つの停止物(物体A、B)を距離情報と共に検出できた場合には、S104に進み、遠方の信号機21Aの距離LCAと近くの信号機21Bの距離LCBが予め設定しておいた閾値LD以上か否か判定し、閾値LDより近くの場合は、S103に進み、次のフレームを検索する。   If two stationary objects (objects A and B) can be detected together with the distance information from the same one frame in S102, the process proceeds to S104, and the distance LCA of the distant signal 21A and the distance LCB of the near signal 21B. Is determined to be equal to or greater than a threshold value LD set in advance, and if it is closer to the threshold value LD, the process proceeds to S103, and the next frame is searched.

逆に、遠方の信号機21Aの距離LCAと近くの信号機21Bの距離LCBが予め設定しておいた閾値LD以上の場合は、S105に進む。   Conversely, if the distance LCA of the distant traffic signal 21A and the distance LCB of the nearby traffic light 21B are greater than or equal to the preset threshold LD, the process proceeds to S105.

S105に進むと、前述の(2)式により、画像情報に基づく遠方の信号機21Aと近くの信号機21Bとの間の距離(第1の停止物間距離)DCABを算出する。   At S105, the distance (first distance between stopped objects) DCAB between the distant signal 21A and the nearby signal 21B based on the image information is calculated according to the above-mentioned equation (2).

次いで、S106に進み、ナビゲーションシステム6の地図情報から、画像情報に基づく2つの信号機21A、21Bに対応する2つの信号機21A、21Bを検出し、遠方の信号機21Aと近くの信号機21Bとの間の距離(第2の停止物間距離)DMABを直接算出する。   Next, in S106, two traffic lights 21A, 21B corresponding to the two traffic lights 21A, 21B based on the image information are detected from the map information of the navigation system 6, and the distant traffic 21A and the near traffic 21B are detected. The distance (second stop object distance) DMAB is directly calculated.

次に、S107に進んで、第1の停止物間距離DCABと第2の停止物間距離DMABとが等しい(DCAB=DMAB)か否か判定する。   Next, in S107, it is determined whether the first stop object distance DCAB and the second stop object distance DMAB are equal (DCAB = DMAB).

このS107の判定の結果、DCAB=DMABの場合は、ステレオカメラ5の視差を補正する必要はないと判定してプログラムを抜ける。   As a result of the determination in S107, in the case of DCAB = DMAB, it is determined that it is not necessary to correct the parallax of the stereo camera 5, and the program is exited.

一方、第1の停止物間距離DCABと第2の停止物間距離DMABとが等しくないと判定した場合は、S108に進み、ステレオカメラ5の視差を補正する。すなわち、学習補正値算出部13aで、前述の如く、視差画素数を補正する学習補正値Kxを算出し、視差の学習補正を行ってプログラムを抜ける。   On the other hand, when it is determined that the first stationary object distance DCAB and the second stationary object distance DMAB are not equal, the process proceeds to S108, and the parallax of the stereo camera 5 is corrected. That is, as described above, the learning correction value calculation unit 13a calculates the learning correction value Kx for correcting the number of parallax pixels, performs learning correction of parallax, and exits the program.

このように、本発明の実施形態によれば、ステレオカメラ5、およびナビゲーションシステム6からの入力信号に基づいて、ステレオカメラ5からの一対の画像情報の同一フレームから自車両からの距離が異なる2つの停止物を検出し、ナビゲーションシステム6からの地図情報に基づき画像情報に基づく2つの信号機に対応する2つの信号機を検出し、画像情報に基づく2つの停止物間距離を第1の停止物間距離DCABとして算出し、地図情報に基づく2つの停止物間距離を第2の停止物間距離DMABとして算出し、第1の停止物間距離DCABと第2の停止物間距離DMABとを比較し、第2の停止物間距離DMABを基準として(真値として)第1の停止物間距離DCABが第2の停止物間距離DMABに一致するようにステレオカメラ5の視差を補正する。このため、光軸ずれ等を検出するために複数のセンサを必要とすること無く、画像情報の1フレームで視差の補正を行うことができ、視差補正の精度向上及び調整時間の短縮化を図ることができる。また、視差の補正を行うのに複数のセンサの影響や補正時間を要しないので外乱が含まれることもなく精度の良い視差補正を行うことができる。   Thus, according to the embodiment of the present invention, based on the input signals from the stereo camera 5 and the navigation system 6, the distance from the own vehicle to the same frame of the pair of image information from the stereo camera 5 is different 2 Two stationary objects are detected, two traffic signals corresponding to two traffic signals based on image information are detected based on map information from navigation system 6, and a distance between two stationary objects based on image information is set as a first stationary object Calculated as the distance DCAB, calculated the distance between two stop objects based on map information as the second distance between stop objects DMAB, and compared the first distance between stop objects DCAB and the second distance between stop objects DMAB. , Stereo on the basis that the second stationary object distance DMAB is a reference (as true value) the first stationary object distance DCAB coincides with the second stationary object distance DMAB To correct the parallax of the camera 5. Therefore, the parallax can be corrected in one frame of the image information without the need for a plurality of sensors to detect the optical axis deviation or the like, and the accuracy of the parallax correction can be improved and the adjustment time can be shortened. be able to. Also, since the correction of parallax does not require the influence of a plurality of sensors or the correction time, accurate parallax correction can be performed without disturbance.

尚、本発明は、上述した実施形態に限るものではなく、例えば、停止物は、信号機以外にも、電柱、標識、道路の中央分離帯、建物であっても良く、また、道路上の標識等であっても良い。   The present invention is not limited to the above-described embodiment. For example, the stop object may be a utility pole, a sign, a central divider of a road, or a building other than a traffic light, and a sign on a road Or the like.

1 ステレオ画像処理装置
2 画像処理部
5 ステレオカメラ
6 ナビゲーションシステム(地図情報取得手段)
11 画像補正部
12 ステレオ画像処理部
13 視差補正処理部(視差補正手段)
13a 学習補正値算出部
13b 位置補正部
14 距離データ記憶部
15 画像データ記憶部
16 画像認識部
20 自車両
21A 信号機
21B 信号機
1 stereo image processing apparatus 2 image processing unit 5 stereo camera 6 navigation system (map information acquisition means)
11 image correction unit 12 stereo image processing unit 13 parallax correction processing unit (parallax correction means)
13a Learning correction value calculation unit 13b Position correction unit 14 Distance data storage unit 15 Image data storage unit 16 Image recognition unit 20 Own vehicle 21A Traffic light 21B Traffic light

Claims (3)

移動体に搭載した一対のカメラで撮影した一対の画像情報の同一対象物に対する視差に基づいて上記同一対象物までの距離情報を算出するステレオ画像処理装置において、
地図情報を取得する地図情報取得手段と、
上記一対の画像情報のうち同一タイミングにおける各一つのフレームのみから上記移動体からの距離が異なる2つの停止物を検出し、上記地図情報に基づき上記画像情報に基づく2つの停止物に対応する2つの停止物を検出し、上記画像情報に基づく2つの停止物間距離を第1の停止物間距離として算出し、上記地図情報に基づく2つの停止物間距離を第2の停止物間距離として算出し、上記第1の停止物間距離と上記第2の停止物間距離とを比較し、上記第2の停止物間距離を基準として上記第1の停止物間距離が上記第2の停止物間距離に一致するように上記視差を補正する視差補正手段と、
を備えたことを特徴とするステレオ画像処理装置。
In a stereo image processing device that calculates distance information to the same object based on parallax of the same object of a pair of image information captured by a pair of cameras mounted on a moving object,
Map information acquisition means for acquiring map information;
Among the pair of image information, two stop objects having different distances from the moving body are detected only from each one frame at the same timing, and based on the map information, the two stop objects corresponding to the two stop objects based on the image information One stop object is detected, and the distance between the two stop objects based on the image information is calculated as the first stop object distance, and the distance between the two stop objects based on the map information is the second distance between the stop objects. The first stop object distance is compared with the second stop object distance, and the first stop object distance is the second stop object based on the second stop object distance. Parallax correction means for correcting the parallax so as to match the object distance;
A stereo image processing apparatus comprising:
上記視差は、上記一対の画像情報の水平方向の視差画素数に応じて取得されるものであって、
上記視差補正手段は、上記視差画素数を補正する学習補正値を算出して上記視差を補正することを特徴とする請求項1記載のステレオ画像処理装置。
The parallax is acquired according to the number of parallax pixels in the horizontal direction of the pair of image information, and
The stereo image processing apparatus according to claim 1, wherein the parallax correction unit corrects the parallax by calculating a learning correction value for correcting the number of parallax pixels.
上記視差補正手段は、上記2つの停止物のうち上記移動体からの距離が短い方の停止物の位置を基準として上記第1の停止物間距離が上記第2の停止物間距離に一致するように上記視差の補正を行うことを特徴とする請求項1又は請求項2記載のステレオ画像処理装置。   The parallax correction means is configured such that the first stop-to-stop distance is equal to the second stop-to-stop distance based on the position of the stop having a shorter distance from the moving body among the two stop targets. The stereo image processing apparatus according to claim 1 or 2, wherein the correction of the parallax is performed.
JP2015151067A 2015-07-30 2015-07-30 Stereo image processing device Active JP6549932B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015151067A JP6549932B2 (en) 2015-07-30 2015-07-30 Stereo image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015151067A JP6549932B2 (en) 2015-07-30 2015-07-30 Stereo image processing device

Publications (2)

Publication Number Publication Date
JP2017032356A JP2017032356A (en) 2017-02-09
JP6549932B2 true JP6549932B2 (en) 2019-07-24

Family

ID=57988574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015151067A Active JP6549932B2 (en) 2015-07-30 2015-07-30 Stereo image processing device

Country Status (1)

Country Link
JP (1) JP6549932B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3690805A4 (en) * 2017-09-28 2021-09-29 Koito Manufacturing Co., Ltd. Sensor system
JP2021099707A (en) * 2019-12-23 2021-07-01 株式会社東芝 Camera automatic inspection system
US11288528B2 (en) * 2020-05-12 2022-03-29 Baidu Usa Llc Differentiation-based traffic light detection

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007267231A (en) * 2006-03-29 2007-10-11 Toyota Motor Corp Optical axis offset detecting device of on-board camera and optical axis offset detecting method of the on-board camera
JP6141734B2 (en) * 2013-09-26 2017-06-07 株式会社Subaru Stereo image processing device
US9509979B2 (en) * 2013-11-26 2016-11-29 Mobileye Vision Technologies Ltd. Stereo auto-calibration from structure-from-motion

Also Published As

Publication number Publication date
JP2017032356A (en) 2017-02-09

Similar Documents

Publication Publication Date Title
JP4600357B2 (en) Positioning device
US10240934B2 (en) Method and system for determining a position relative to a digital map
JP3436074B2 (en) Car stereo camera
US9448074B2 (en) Curve modeling device, curve modeling method, and vehicular navigation device
US11193782B2 (en) Vehicle position estimation apparatus
US10718628B2 (en) Host vehicle position estimation device
CN110530372B (en) Positioning method, path determining device, robot and storage medium
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP2019066193A (en) Own vehicle position detection device
JP6549932B2 (en) Stereo image processing device
JP6834914B2 (en) Object recognition device
US11908206B2 (en) Compensation for vertical road curvature in road geometry estimation
JP6141734B2 (en) Stereo image processing device
US11187815B2 (en) Method of determining location of vehicle, apparatus for determining location, and system for controlling driving
JP2019060814A (en) Self-driving own vehicle location detection device
JP2008276606A (en) Traveling route estimation device for vehicle
TW202229818A (en) Lane mapping and localization using periodically-updated anchor frames
JP2018169207A (en) Vehicle position detector
CN115205828B (en) Vehicle positioning method and device, vehicle control unit and readable storage medium
US11859983B2 (en) Lane information generating method
KR101788186B1 (en) audio video navigation system and an operating method using a video camera
Speth et al. Dynamic position calibration by road structure detection
CN117553811A (en) Vehicle-road co-location navigation method and system based on road side camera and vehicle-mounted GNSS/INS
JP2019124589A (en) Self-location correction device and self-location correction method
KR20170065354A (en) Method of Compensating Error for Predictive Shifting

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190404

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190628

R150 Certificate of patent or registration of utility model

Ref document number: 6549932

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250