JP5950193B2 - Disparity value calculation device, disparity value calculation system including the same, moving surface area recognition system, disparity value calculation method, and disparity value calculation program - Google Patents

Disparity value calculation device, disparity value calculation system including the same, moving surface area recognition system, disparity value calculation method, and disparity value calculation program Download PDF

Info

Publication number
JP5950193B2
JP5950193B2 JP2012131514A JP2012131514A JP5950193B2 JP 5950193 B2 JP5950193 B2 JP 5950193B2 JP 2012131514 A JP2012131514 A JP 2012131514A JP 2012131514 A JP2012131514 A JP 2012131514A JP 5950193 B2 JP5950193 B2 JP 5950193B2
Authority
JP
Japan
Prior art keywords
imaging
pair
parallax value
value calculation
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012131514A
Other languages
Japanese (ja)
Other versions
JP2013257151A (en
Inventor
智幸 薄田
智幸 薄田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012131514A priority Critical patent/JP5950193B2/en
Publication of JP2013257151A publication Critical patent/JP2013257151A/en
Application granted granted Critical
Publication of JP5950193B2 publication Critical patent/JP5950193B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、移動体に搭載される一対の撮像手段によって移動体周囲の撮像領域を撮像して得られる一対の撮像画像データ間の視差値を演算する視差値演算装置及びこれを備えた視差値演算システム、移動面領域認識システム、視差値演算方法、並びに、視差値演算用プログラムに関するものである。   The present invention relates to a parallax value calculation device that calculates a parallax value between a pair of captured image data obtained by imaging an imaging region around a moving body by a pair of imaging means mounted on the moving body, and a parallax value provided with the parallax value The present invention relates to a calculation system, a moving surface area recognition system, a parallax value calculation method, and a parallax value calculation program.

この種の視差値演算装置は、車両、船舶、航空機あるいは産業用ロボットなどの移動体の移動制御を行う移動体制御装置や、移動体の運転者に有益な情報を提供する情報提供装置などの物体検出処理に広く利用されている。具体例を挙げると、例えば、車両の運転者(ドライバー)の運転負荷を軽減させるための、ACC(Adaptive Cruise Control)等の運転者支援システムに利用されるものが知られている。このような運転者支援システムにおいては、自車両が障害物等に衝突することを回避したり衝突時の衝撃を軽減したりするための自動ブレーキ機能や警報機能、先行車両との車間距離を維持するための自車速度調整機能、自車が走行している走行レーンからの逸脱防止を支援する機能などの様々な機能を実現する。そのためには、自車両の周囲を撮像した撮像画像を解析して、自車両周囲に存在する各種物体(例えば、他車両、歩行者、車線やマンホール蓋などの路面構成物、電柱やガードレールなどの路端構造物など)までの距離を、精度よく検出することが重要である。   This type of parallax value calculation device is a mobile control device that controls the movement of a mobile object such as a vehicle, ship, aircraft, or industrial robot, or an information providing device that provides useful information to a driver of the mobile object. Widely used in object detection processing. If a specific example is given, what is used for driver support systems, such as ACC (Adaptive Cruise Control) for reducing the driving load of the driver (driver) of vehicles, for example is known. In such a driver assistance system, an automatic brake function and an alarm function for avoiding the collision of the own vehicle with an obstacle or reducing an impact at the time of the collision, and maintaining a distance from the preceding vehicle are maintained. Various functions are realized, such as a function for adjusting the speed of the own vehicle to support the vehicle and a function for supporting the prevention of deviation from the traveling lane in which the host vehicle is traveling. For this purpose, an image captured around the host vehicle is analyzed, and various objects existing around the host vehicle (for example, other vehicles, pedestrians, road surface components such as lanes and manhole covers, electric poles, guardrails, etc. It is important to accurately detect the distance to the roadside structure.

特許文献1には、水平方向に同じ高さで車両に搭載された2台のカメラにより測距対象(視差値算出対象)の赤外線画像を撮影し、各カメラで撮影した2つの赤外線画像の視差値を利用して、測距対象までの距離を算出する画像測距装置が開示されている。この画像測距装置では、2台のカメラの一方の画像を基準画像として、この基準画像をパターン領域に分割し、もう一方の画像上において同一サイズのパターン領域を順次シフトしながら両画像間における当該パターン領域の相関演算を行い、その相関度が最も高くなるシフト量を求める。そして、このシフト量である2つの画像の視差値から、三角測量の原理により、当該パターン領域に映し出されている測距対象までの距離を算出する。   In Patent Document 1, an infrared image of a distance measurement target (parallax value calculation target) is captured by two cameras mounted on a vehicle at the same height in the horizontal direction, and the parallax of two infrared images captured by each camera. An image distance measuring device that calculates a distance to a distance measurement object using a value is disclosed. In this image distance measuring device, one image of two cameras is used as a reference image, the reference image is divided into pattern areas, and the pattern area of the same size is sequentially shifted on the other image while the two images are in between. Correlation calculation of the pattern area is performed, and a shift amount that maximizes the degree of correlation is obtained. Then, the distance to the distance measurement object displayed in the pattern area is calculated from the parallax values of the two images, which are the shift amounts, by the principle of triangulation.

図1(a)及び(b)は、一対のカメラでそれぞれ撮像した撮像画像の一例をそれぞれ示す説明図である。
図1(a)及び(b)に示す例では、まず、エピポーラ線が一致している一対のカメラを用い、互いに異なる方向から同じ撮像領域を撮像し、これにより得られる2つの撮像画像のうちの一方(図1(a)に示す画像)を基準画像とし、他方(図1(b)に示す画像)を比較画像とする。その後、基準画像内のある画像領域が比較画像内のどの画像領域に対応するかを検索する。例えば、基準画像内の画像領域Waに対応する比較画像内の画像領域を検索する際、縦方向位置は画像領域Waの縦方向位置と同じ位置に固定したまま、横方向位置を変化させて、比較画像内を、Wb1→Wb2→Wb3…というように検索していく。そして、この検索を行いながら基準画像と比較画像との間の相関演算を行い、相関度が最も高くなる画像領域を検出して、撮像領域内の同一地点に対応する対応点を基準画像及び比較画像の両方で特定するマッチング処理を行う。
FIGS. 1A and 1B are explanatory diagrams illustrating examples of captured images respectively captured by a pair of cameras.
In the example shown in FIGS. 1A and 1B, first, a pair of cameras having the same epipolar lines are used, and the same imaging region is imaged from different directions, and of the two captured images obtained thereby. One (image shown in FIG. 1A) is a reference image, and the other (image shown in FIG. 1B) is a comparative image. Thereafter, it is searched which image region in the reference image corresponds to an image region in the reference image. For example, when searching for an image area in the comparative image corresponding to the image area Wa in the reference image, the horizontal position is changed while the vertical position is fixed at the same position as the vertical position of the image area Wa. The comparison image is searched in the order of Wb1 → Wb2 → Wb3. Then, while performing this search, the correlation calculation is performed between the reference image and the comparison image, the image area having the highest degree of correlation is detected, and the corresponding point corresponding to the same point in the imaging area is compared with the reference image. A matching process that specifies both images is performed.

図2は、一般的な測距原理を示す説明図である。
マッチング処理により、基準画像内の画像領域Waに対応する比較画像内の画像領域Wb3が特定されたら、撮像領域内の同一地点に対応した各画像領域Wa,Wb3上の対応点について基準画像と比較画像とのズレ量を視差値として求め、三角測量の原理を利用して、測距対象である当該同一地点までの距離を算出する。
FIG. 2 is an explanatory diagram showing a general distance measuring principle.
When the image processing region Wb3 in the comparison image corresponding to the image region Wa in the reference image is specified by the matching process, the corresponding points on the image regions Wa and Wb3 corresponding to the same point in the imaging region are compared with the reference image. The amount of deviation from the image is obtained as a parallax value, and the distance to the same point that is the object of distance measurement is calculated using the principle of triangulation.

移動体に搭載される一対のカメラ(撮像手段)で撮像した一対の撮像画像データ間の視差値を演算する場合、この一対の撮像画像データは同じ撮像タイミングに撮像されたものであることが望まれる。なぜなら、視差値は、一対の撮像画像データ間における画像のズレが一対のカメラの取り付け位置の差によってのみ生じることを前提にして算出されるからである。   When calculating a parallax value between a pair of captured image data captured by a pair of cameras (imaging means) mounted on a moving body, the pair of captured image data is desirably captured at the same imaging timing. It is. This is because the parallax value is calculated on the assumption that the image shift between the pair of captured image data is caused only by the difference between the attachment positions of the pair of cameras.

図3(a)及び(b)は、撮像タイミングがズレている一対のカメラで自車両の進行方向前方を撮像した撮像画像の一例をそれぞれ模式的に示した画像例である。
この例は、図3(a)に示す撮像画像が先に撮像され、これに遅れて図3(b)に示す撮像画像が撮像されたものである。このように一方のカメラの撮像タイミングが遅れていると、図示のように、その遅れ時間中に、当該一対のカメラが搭載された自車両が移動し、これに伴って当該一対のカメラも移動する。そのため、一対の撮像画像データ間における画像のズレには、その遅れ時間中におけるカメラの移動に起因するズレも含まれてしまう。また、例えば他車両や歩行者のように視差値算出対象が移動するものである場合には、その遅れ時間中に視差値算出対象が移動してしまい、一対の撮像画像データ間における視差値算出対象の画像のズレには、視差値算出対象の移動に起因するズレも含まれてしまう。
FIGS. 3A and 3B are image examples schematically showing examples of captured images obtained by capturing the front in the traveling direction of the host vehicle with a pair of cameras whose imaging timings are shifted.
In this example, the captured image illustrated in FIG. 3A is captured first, and the captured image illustrated in FIG. 3B is captured later. When the imaging timing of one camera is delayed in this way, as shown in the figure, the host vehicle on which the pair of cameras are mounted moves during the delay time, and the pair of cameras also moves accordingly. To do. Therefore, the image shift between the pair of captured image data includes a shift due to the movement of the camera during the delay time. For example, when the parallax value calculation target moves such as another vehicle or a pedestrian, the parallax value calculation target moves during the delay time, and the parallax value calculation between a pair of captured image data is performed. The shift of the target image includes a shift caused by the movement of the parallax value calculation target.

このように、一対のカメラの撮像タイミングがズレていると、一対の撮像画像データ間における画像のズレに対し、一対のカメラの取り付け位置の差とは異なる要因に基づくズレが含まれる。その場合、画像のズレから視差値を算出すると、当該画像に対する本来の視差値から許容範囲を超えるほど異なった視差値が算出されるという問題が生じる。   As described above, when the imaging timing of the pair of cameras is misaligned, the image misalignment between the pair of captured image data includes a misalignment based on a factor that is different from the difference in the attachment position of the pair of cameras. In that case, when the parallax value is calculated from the shift of the image, there arises a problem that a different parallax value is calculated from the original parallax value for the image so as to exceed an allowable range.

本発明者は、上記問題を解消すべく、一対のカメラ間の撮像タイミングのズレ量を検出し、検出したズレ量が所定のズレ許容範囲を超える場合には視差値の利用を制限するように動作する視差値演算装置を開発した。この視差値演算装置によれば、許容範囲を超える撮像タイミングのズレが生じた場合でも、誤った視差値の利用が制限されるので、誤った視差値による不具合の発生を抑制することができる。そして、カメラの同期信号を調整するなどして一対のカメラ間の撮像タイミングのズレを許容範囲内に戻せば、再び、適切な視差値を利用することが可能となる。   In order to solve the above problem, the present inventor detects the amount of deviation of the imaging timing between a pair of cameras, and restricts the use of the parallax value when the detected amount of deviation exceeds a predetermined allowable deviation range. A working parallax value calculation device was developed. According to this parallax value calculation device, even when an imaging timing deviation that exceeds an allowable range occurs, the use of an incorrect parallax value is restricted, so that the occurrence of a malfunction due to an incorrect parallax value can be suppressed. Then, if the shift of the imaging timing between the pair of cameras is returned within the allowable range by adjusting the synchronization signal of the cameras, an appropriate parallax value can be used again.

ところが、一対のカメラ間の撮像タイミングのズレ量の最適な許容範囲は、当該一対のカメラが搭載される移動体の移動速度によって変わってくる。すなわち、撮像タイミングのズレ量が一定であっても、移動体の速度が変化する場合には、そのズレ量に応じた時間中に移動体が移動する距離が変わる。また、視差算出対象が移動している場合、移動体の速度が変化すると、そのズレ量に応じた時間中に視差算出対象が移動する距離が変わる。したがって、移動体の速度が変化すると、撮像タイミングのズレ量が一定であっても、移動体の移動が一対の撮像画像データ間における画像のズレに与える影響が変わり、この画像のズレ量から算出される視差値の誤差が変わってくる。   However, the optimum allowable range of the shift amount of the imaging timing between the pair of cameras varies depending on the moving speed of the moving body on which the pair of cameras is mounted. That is, even if the amount of deviation of the imaging timing is constant, if the speed of the moving body changes, the distance that the moving body moves during the time corresponding to the amount of deviation changes. Further, when the parallax calculation target is moving, if the speed of the moving body changes, the distance that the parallax calculation target moves during the time corresponding to the amount of deviation changes. Therefore, when the speed of the moving body changes, even if the amount of shift in the imaging timing is constant, the effect of the movement of the moving body on the image shift between the pair of captured image data changes, and this is calculated from the shift amount of this image. The error of the parallax value is changed.

撮像タイミングのズレ量の許容範囲は、算出される視差値の誤差が許容範囲を超えないことを基準に設定される。よって、撮像タイミングのズレ量の最適な許容範囲は、撮像タイミングのズレ量が一定であっても、移動体の速度に応じて変化する。そのため、撮像タイミングのズレ量が予め決められた一定のズレ許容範囲を超える場合に視差値の出力を行わないような処理動作では、移動体の速度が想定よりも速い場合などにおいて、誤った視差値の利用を安定して制限することができないという問題が生じる。一方、この一定のズレ許容範囲を予め十分に狭い範囲に設定しておけば、誤った視差値の利用を安定して制限できるものの、十分に許容される誤差しか含んでいない視差値でも、視差値の利用が制限されてしまい、実用上で問題が生じる。   The allowable range of the amount of deviation of the imaging timing is set on the basis that the calculated parallax value error does not exceed the allowable range. Therefore, the optimum allowable range of the amount of deviation of the imaging timing changes according to the speed of the moving object even if the amount of deviation of the imaging timing is constant. Therefore, in the processing operation that does not output the parallax value when the deviation amount of the imaging timing exceeds a predetermined allowable deviation range, an erroneous parallax occurs when the speed of the moving object is faster than expected. There arises a problem that the use of values cannot be stably restricted. On the other hand, if the constant deviation allowable range is set to a sufficiently narrow range in advance, the use of an erroneous parallax value can be stably limited, but even with a parallax value that includes only a sufficiently allowable error, Use of the value is limited, which causes a problem in practical use.

本発明は、以上の背景に鑑みなされたものであり、その目的とするところは、一対のカメラ間の撮像タイミングにズレが生じる場合でも、そのズレ許容範囲を過剰に狭い範囲に設定することなく、誤った視差値が利用されるのを安定して制限できる視差値演算装置及びこれを備えた視差値演算システム、移動面領域認識システム、視差値演算方法、並びに、視差値演算用プログラムを提供することである。   The present invention has been made in view of the above background, and the object of the present invention is to set an allowable deviation range in an excessively narrow range even when a deviation occurs in imaging timing between a pair of cameras. Provided are a parallax value calculation device that can stably limit the use of an incorrect parallax value, a parallax value calculation system including the same, a moving surface area recognition system, a parallax value calculation method, and a program for calculating a parallax value It is to be.

上記目的を達成するために、本発明は、移動体の移動速度を検出する移動速度検出手段を備えた当該移動体に搭載される一対の撮像手段によって当該移動体周囲の撮像領域を撮像して得られる一対の撮像画像データ間の視差値を演算する視差値演算手段を備えた視差値演算装置において、上記一対の撮像手段から入力される該一対の撮像手段の各撮像タイミングを示す情報を用いて上記一対の撮像手段間の撮像タイミングのズレ量を検出するタイミングズレ量検出手段と、上記タイミングズレ量検出手段が検出したズレ量が所定のズレ許容範囲を超える場合には、上記視差値演算手段が演算する視差値の利用を制限するための処理を実行する利用制限処理実行手段とを有し、上記利用制限処理実行手段は、上記移動速度検出手段が検出した速度検出結果に基づき、上記移動体の移動速度が遅いほど上記所定のズレ許容範囲が広がるように、上記所定のズレ許容範囲を変更することを特徴とする。 To achieve the above object, the present invention is an imaging area around the mobile body captured by the pair of imaging means to be mounted on the movable body having a moving speed detecting means for detecting a moving speed of the moving body In the parallax value calculating device including the parallax value calculating means for calculating the parallax value between the pair of captured image data obtained in this manner, information indicating each imaging timing of the pair of imaging means input from the pair of imaging means A timing shift amount detecting means for detecting a shift amount of an imaging timing between the pair of image pickup means, and the disparity value when the shift amount detected by the timing shift amount detecting means exceeds a predetermined shift allowable range. Use restriction processing execution means for executing processing for restricting the use of the parallax value calculated by the calculation means, and the use restriction processing execution means is detected by the moving speed detection means. Based on the degree detection result, as the moving speed of the moving body is spread slowly that the predetermined deviation tolerance, and changes the predetermined deviation tolerance.

移動体の移動が一対の撮像画像データ間における画像のズレに与える影響は、移動体の速度が速いほど大きいものとなる。よって、本発明においては、移動体の移動速度が遅いほど所定のズレ許容範囲が広がるように、一対の撮像手段間の撮像タイミングのズレ許容範囲を変更する。これにより、移動体の速度に応じて視差値の誤差が変わっても、その誤差が許容範囲を超えないように撮像タイミングのズレ許容範囲が変更される。よって、撮像タイミングのズレ許容範囲を予め過剰に狭い範囲に設定しておかなくても、誤った視差値が利用されるのを安定して制限することができる。   The influence of the movement of the moving body on the image shift between the pair of captured image data becomes larger as the speed of the moving body increases. Therefore, in the present invention, the allowable shift range of the imaging timing between the pair of imaging units is changed so that the predetermined allowable shift range is widened as the moving speed of the moving body is slow. Thereby, even if the error of the parallax value changes according to the speed of the moving object, the allowable range of deviation of the imaging timing is changed so that the error does not exceed the allowable range. Therefore, even if the allowable range of imaging timing deviation is not set to an excessively narrow range in advance, it is possible to stably limit the use of an incorrect parallax value.

本発明によれば、一対のカメラ間の撮像タイミングにズレが生じる場合でも、そのズレ許容範囲を過剰に狭い範囲に設定することなく、誤った視差値が利用されるのを安定して制限できるという優れた効果が得られる。   According to the present invention, even when a deviation occurs in the imaging timing between a pair of cameras, it is possible to stably limit the use of an incorrect parallax value without setting the deviation allowable range to an excessively narrow range. An excellent effect is obtained.

(a)及び(b)は、ステレオカメラを構成する2台のカメラでそれぞれ撮像した基準画像と比較画像を示す説明図である。(A) And (b) is explanatory drawing which shows the reference image and comparative image which were each imaged with the two cameras which comprise a stereo camera. 一般的な測距原理を示す説明図である。It is explanatory drawing which shows the general ranging principle. (a)及び(b)は、撮像タイミングがズレている一対のカメラで自車両の進行方向前方を撮像した撮像画像の一例をそれぞれ模式的に示した画像例である。(A) And (b) is an example of an image which showed typically an example of a picked-up image which picturized the direction of advancing of a self-vehicle with a pair of cameras from which imaging timing shifted, respectively. 実施形態における車載機器制御システムの概略構成を示す模式図である。It is a mimetic diagram showing a schematic structure of an in-vehicle device control system in an embodiment. 同車載機器制御システムにおける撮像ユニット及び画像解析ユニットの概略構成を示す模式図である。It is a schematic diagram which shows schematic structure of the imaging unit and image analysis unit in the same vehicle equipment control system. (a)は視差画像の視差値分布の一例を示す説明図である。(b)は、同(a)の視差画像の行ごとの視差値頻度分布を示す行視差分布マップ(Vマップ)を示す説明図である。(A) is explanatory drawing which shows an example of the parallax value distribution of a parallax image. (B) is explanatory drawing which shows the row parallax distribution map (V map) which shows the parallax value frequency distribution for every row | line | column of the parallax image of the same (a). (a)は、撮像画像(輝度画像)の一例を模式的に表した画像例である。(b)は、視差ヒストグラム計算部により算出される行視差分布マップ(Vマップ)を直線近似したグラフである。(A) is an image example schematically representing an example of a captured image (luminance image). (B) is a graph obtained by linearly approximating the row parallax distribution map (V map) calculated by the parallax histogram calculation unit. 実施形態における路面領域認識処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the road surface area recognition process in embodiment. 各撮像部の出力データ方式を説明するためのタイミングチャートである。It is a timing chart for demonstrating the output data system of each imaging part. 実施形態における位相差検出部の動作を説明するためのタイミングチャートである。It is a timing chart for demonstrating operation | movement of the phase difference detection part in embodiment.

以下、本発明に係る視差値演算装置を、車載機器制御システムに用いる一実施形態について説明する。
なお、本発明に係る視差値演算装置は、車載機器制御システムに限らず、例えば、撮像画像に基づいて物体検出を行う物体検出装置を搭載したその他のシステムにも適用できる。
Hereinafter, an embodiment in which a parallax value calculation device according to the present invention is used in an in-vehicle device control system will be described.
In addition, the parallax value calculation apparatus according to the present invention is not limited to the in-vehicle device control system, and can be applied to, for example, other systems equipped with an object detection apparatus that detects an object based on a captured image.

図4は、本実施形態における車載機器制御システムの概略構成を示す模式図である。
本車載機器制御システムは、自動車などの移動体である自車両100に搭載された撮像ユニットで撮像した自車両進行方向前方領域(撮像領域)の撮像画像データを利用して認識対象物の認識結果に応じて各種車載機器の制御を行うものである。
FIG. 4 is a schematic diagram showing a schematic configuration of the in-vehicle device control system in the present embodiment.
This in-vehicle device control system recognizes a recognition target object using captured image data of a forward area (imaging area) in the traveling direction of the host vehicle captured by an imaging unit mounted on the host vehicle 100 that is a moving body such as an automobile. It controls various in-vehicle devices according to the above.

本実施形態の車載機器制御システムには、走行する自車両100の進行方向前方領域を撮像領域として撮像する撮像ユニット101が設けられている。この撮像ユニット101は、例えば、自車両100のフロントガラス105のルームミラー(図示せず)付近に設置される。撮像ユニット101の撮像によって得られる撮像画像データ等の各種データは、画像解析ユニット102に入力される。画像解析ユニット102は、撮像ユニット101から送信されてくるデータを解析して、例えば、自車両100が走行している路面(移動面)を映し出す路面領域(移動面領域)を検出する。   The in-vehicle device control system of the present embodiment is provided with an image pickup unit 101 that picks up an image of an area in the traveling direction of the traveling vehicle 100 as an image pickup area. For example, the imaging unit 101 is installed in the vicinity of a room mirror (not shown) of the windshield 105 of the host vehicle 100. Various data such as captured image data obtained by imaging by the imaging unit 101 is input to the image analysis unit 102. The image analysis unit 102 analyzes the data transmitted from the imaging unit 101 and detects, for example, a road surface region (moving surface region) that displays a road surface (moving surface) on which the host vehicle 100 is traveling.

画像解析ユニット102の算出結果は、車両走行制御ユニット108に送られる。車両走行制御ユニット108は、画像解析ユニット102が検出した路面領域(移動可能領域)の認識結果に基づいて、走行可能領域から自車両100が外れそうな場合等に、自車両100の運転者へ警告を報知したり、自車両のハンドルやブレーキを制御するなどの走行支援制御を行ったりする。   The calculation result of the image analysis unit 102 is sent to the vehicle travel control unit 108. Based on the recognition result of the road surface area (movable area) detected by the image analysis unit 102, the vehicle travel control unit 108 notifies the driver of the own vehicle 100 when the own vehicle 100 is likely to deviate from the travelable area. A warning is notified, and driving support control such as controlling the steering wheel and brake of the host vehicle is performed.

図5は、本実施形態の車載機器制御システムに利用される視差値演算システムを含む路面領域認識システム(移動面認識システム)の概略構成を示す模式図である。
撮像ユニット101は、撮像手段としての2つの撮像部110A,110Bを一対で備えたステレオカメラであり、2つの撮像部110A,110Bの構成は同一のものである。各撮像部110A,110Bは、主に、撮像レンズと、必要に応じて光学フィルタと、撮像素子が2次元配置された画像センサを含んだセンサ基板と、センサ基板から出力されるアナログ電気信号(画像センサ上の各受光素子が受光した受光量)をデジタル電気信号に変換した撮像画像データを生成して出力する信号処理部とから構成されている。
FIG. 5 is a schematic diagram showing a schematic configuration of a road surface area recognition system (moving surface recognition system) including a parallax value calculation system used in the in-vehicle device control system of the present embodiment.
The imaging unit 101 is a stereo camera provided with a pair of two imaging units 110A and 110B as imaging means, and the configuration of the two imaging units 110A and 110B is the same. Each of the imaging units 110A and 110B mainly includes an imaging lens, an optical filter as necessary, a sensor board including an image sensor in which an imaging element is two-dimensionally arranged, and an analog electrical signal ( A signal processing unit that generates and outputs captured image data obtained by converting a received light amount received by each light receiving element on the image sensor into a digital electrical signal.

また、撮像ユニット101は、FPGA(Field-Programmable Gate Array)等からなる処理ハードウェア部を備えている。この処理ハードウェア部は、各撮像部110A,110Bから出力される一対の撮像画像データから視差画像データを得るために、各撮像部110A,110Bでそれぞれ撮像した撮像画像間の対応画像部分の視差値を演算して出力する視差値演算出力手段としての視差演算部121を備えている。ここでいう視差値とは、各撮像部110A,110Bでそれぞれ撮像した撮像画像の一方を基準画像、他方を比較画像とし、撮像領域内の同一地点に対応した基準画像上の画像部分に対する比較画像上の画像部分の位置ズレ量を、当該画像部分の視差値として算出したものである。三角測量の原理を利用することで、この視差値から当該画像部分に対応した撮像領域内の当該同一地点までの距離を算出することができる。   In addition, the imaging unit 101 includes a processing hardware unit including an FPGA (Field-Programmable Gate Array) or the like. The processing hardware unit obtains parallax image data from a pair of captured image data output from the imaging units 110A and 110B, and the parallax of the corresponding image portion between the captured images captured by the imaging units 110A and 110B. A parallax calculation unit 121 is provided as parallax value calculation output means for calculating and outputting values. The parallax value here refers to a comparison image for an image portion on the reference image corresponding to the same point in the imaging region, with one of the captured images captured by each of the imaging units 110A and 110B as a reference image and the other as a comparison image. The positional deviation amount of the upper image part is calculated as the parallax value of the image part. By using the principle of triangulation, the distance to the same point in the imaging area corresponding to the image portion can be calculated from the parallax value.

視差値から距離を算出する方法は以下のとおりである。
視差演算部121で算出した視差値(基準画像上の画像部分と比較画像上の対応画像部分とのズレ量)をdとし、2つの撮像部110A,110Bの間隔(基線長)をBとし、焦点距離fとしたとき、当該画像部分に映し出されている対象物までの距離Zは、以下の式(1)より算出することができる。このようにして算出される距離Zは、例えば、数値として自車両室内の画像表示装置に表示させるようにしてもよい。
Z/B = f/d ・・・(1)
The method for calculating the distance from the parallax value is as follows.
The parallax value calculated by the parallax calculation unit 121 (the amount of deviation between the image portion on the reference image and the corresponding image portion on the comparison image) is d, and the interval (baseline length) between the two imaging units 110A and 110B is B. When the focal length is f, the distance Z to the object displayed in the image portion can be calculated from the following equation (1). The distance Z calculated in this way may be displayed as a numerical value on an image display device in the vehicle interior.
Z / B = f / d (1)

一方、画像解析ユニット102は、撮像ユニット101から出力される視差画像データを記憶するメモリと、識別対象物の認識処理や視差計算制御などを行うソフトウェアを内蔵したMPU(Micro Processing Unit)とを備えている。MPUは、メモリに格納された視差画像データを用いて各種の認識処理を実行する。   On the other hand, the image analysis unit 102 includes a memory that stores parallax image data output from the imaging unit 101, and an MPU (Micro Processing Unit) that includes software for performing recognition processing of an identification target, parallax calculation control, and the like. ing. The MPU executes various recognition processes using the parallax image data stored in the memory.

次に、本実施形態における路面領域認識システムで行われる路面認識処理について説明する。
本実施形態の視差演算部121は、2つの撮像部110A,110Bのうちの一方の撮像部110Aの撮像画像データを基準画像データとし、他方の撮像部110Bの撮像画像データを比較画像データとして用い、両者の視差値を演算して視差画像データを生成し、出力する。この視差画像データは、基準画像データ上の各画像部分について算出される視差値に応じた画素値をそれぞれの画像部分の画素値として表した視差画像を示すものである。
Next, the road surface recognition process performed by the road surface area recognition system in the present embodiment will be described.
The parallax calculation unit 121 of the present embodiment uses captured image data of one imaging unit 110A of the two imaging units 110A and 110B as reference image data, and uses captured image data of the other imaging unit 110B as comparison image data. Then, the parallax values of both are calculated to generate and output parallax image data. This parallax image data indicates a parallax image in which pixel values corresponding to the parallax values calculated for each image portion on the reference image data are represented as pixel values of the respective image portions.

具体的には、視差演算部121は、基準画像データのある行について、一の注目画素を中心とした複数画素(例えば16画素×1画素)からなるブロックを定義する。一方、比較画像データにおける同じ行において、定義した基準画像データのブロックと同じサイズのブロックを1画素ずつ横ライン方向(X方向)へずらし、基準画像データにおいて定義したブロックの画素値の特徴を示す特徴量と比較画像データにおける各ブロックの画素値の特徴を示す特徴量との相関を示す相関値を、それぞれ算出する。そして、算出した相関値に基づき、比較画像データにおける各ブロックの中で最も基準画像データのブロックと相関があった比較画像データのブロックを選定するマッチング処理を行う。その後、基準画像データのブロックの注目画素と、マッチング処理で選定された比較画像データのブロックの対応画素との位置ズレ量を視差値として算出する。このような視差値を算出する処理を基準画像データの全域又は特定の一領域について行うことで、視差画像データを得ることができる。このようにして得られる視差画像データは、視差ヒストグラム計算部141に送られる。   Specifically, the parallax calculation unit 121 defines a block including a plurality of pixels (for example, 16 pixels × 1 pixel) centered on one target pixel for a certain row of reference image data. On the other hand, in the same row in the comparison image data, a block having the same size as the block of the defined reference image data is shifted by one pixel in the horizontal line direction (X direction) to show the feature of the pixel value of the block defined in the reference image data. Correlation values indicating the correlation between the feature amount and the feature amount indicating the feature of the pixel value of each block in the comparison image data are calculated. Then, based on the calculated correlation value, a matching process is performed for selecting a block of comparison image data that is most correlated with a block of reference image data among the blocks of the comparison image data. Thereafter, a positional deviation amount between the target pixel of the block of the reference image data and the corresponding pixel of the block of the comparison image data selected by the matching process is calculated as a parallax value. The parallax image data can be obtained by performing such a process of calculating the parallax value for the entire area of the reference image data or a specific area. The parallax image data obtained in this way is sent to the parallax histogram calculation unit 141.

マッチング処理に用いるブロックの特徴量としては、例えば、ブロック内の各画素の値(輝度値)を用いることができ、相関値としては、例えば、基準画像データのブロック内の各画素の値(輝度値)と、これらの画素にそれぞれ対応する比較画像データのブロック内の各画素の値(輝度値)との差分の絶対値の総和を用いることができる。この場合、当該総和が最も小さくなるブロックが最も相関があると言える。   As the feature amount of the block used for the matching process, for example, the value (luminance value) of each pixel in the block can be used, and as the correlation value, for example, the value (luminance) of each pixel in the block of the reference image data Value) and the sum of absolute values of the differences between the values (luminance values) of the pixels in the block of comparison image data corresponding to these pixels, respectively. In this case, it can be said that the block having the smallest sum is most correlated.

視差画像データを取得した視差ヒストグラム計算部141は、視差画像データの各行について、視差値頻度分布を計算する。具体例を挙げて説明すると、図6(a)に示すような視差値分布をもった視差画像データが入力されたとき、視差ヒストグラム計算部141は、図6(b)に示すような行ごとの視差値頻度分布を計算して出力する。このようにして得られる各行の視差値頻度分布の情報から、例えば、縦方向に視差画像上の縦方向位置をとり、横方向に視差値をとった2次元平面上に、視差画像データ上の各画素を分布させた行視差分布マップ(Vマップ)を得ることができる。   The parallax histogram calculation unit 141 that acquired the parallax image data calculates the parallax value frequency distribution for each row of the parallax image data. Explaining with a specific example, when parallax image data having a parallax value distribution as shown in FIG. 6A is input, the parallax histogram calculation unit 141 performs line by row as shown in FIG. The disparity value frequency distribution is calculated and output. From the parallax value frequency distribution information of each row obtained in this way, for example, the vertical position on the parallax image is taken in the vertical direction and the parallax value is taken in the horizontal direction on the parallax image data. A row parallax distribution map (V map) in which each pixel is distributed can be obtained.

図7(a)は、撮像部110Aで撮像した撮像画像(輝度画像)の一例を模式的に表した画像例であり、図7(b)は、視差ヒストグラム計算部141により算出される行ごとの視差値頻度分布から、行視差分布マップ(Vマップ)上の画素分布を直線近似したグラフである。
図7(a)に示す画像例は、中央分離帯を有する片側2車線の直線道路において自車両が左車線を走行している状況を撮像したものであり、図中符号CLは中央分離帯を映し出す中央分離帯画像部であり、図中符号WLは車線境界線である白線を映し出す白線画像部(車線境界線画像部)であり、図中符号ELは路端に存在する縁石等の段差を映し出す路端段差画像部である。以下、路端段差画像部EL及び中央分離帯段差画像部CLをまとめて段差画像部という。また、図中破線で囲まれた領域RSは、中央分離帯と路側段差とによって区画される車両走行が可能な路面領域である。
FIG. 7A is an image example schematically illustrating an example of a captured image (luminance image) captured by the imaging unit 110A. FIG. 7B illustrates each row calculated by the parallax histogram calculation unit 141. 5 is a graph obtained by linearly approximating the pixel distribution on the row parallax distribution map (V map) from the parallax value frequency distribution of the first parallax.
The image example shown in FIG. 7A is an image of the situation where the host vehicle is traveling in the left lane on a straight road with two lanes on one side, and the reference CL in the figure indicates the central lane. This is a median strip image portion to be projected, and in the figure, a symbol WL is a white line image portion (lane border image portion) that projects a white line that is a lane boundary line, and a symbol EL in the drawing is a step such as a curb on the road edge. This is a road edge step image portion to be projected. Hereinafter, the road edge step image portion EL and the central separation band step image portion CL are collectively referred to as a step image portion. Moreover, area | region RS enclosed with the broken line in the figure is a road surface area | region where the vehicle driving | running | working divided by the median strip and a roadside level | step difference is possible.

本実施形態では、路面領域認識部142において、視差ヒストグラム計算部141から出力される各行の視差値頻度分布の情報から、路面領域RSを認識する。具体的には、路面領域認識部142は、まず、視差ヒストグラム計算部141から各行の視差値頻度分布情報を取得し、その情報から特定される行視差分布マップ上の画素分布を最小二乗法やハフ変換処理などにより直線近似する処理を行う。これにより得られる図7(b)に示す近似直線は、視差画像の下部に対応する行視差分布マップの下部において、画像上方へ向かうほど視差値が小さくなるような傾きをもった直線となる。すなわち、この近似直線上又はその近傍に分布する画素(視差画像上の画素)は、視差画像上の各行においてほぼ同一距離に存在して最も占有率が高く、かつ、画像上方へ向かうほど距離が連続的に遠くなる対象を映し出した画素であると言える。   In the present embodiment, the road surface area recognition unit 142 recognizes the road surface area RS from the parallax value frequency distribution information of each row output from the parallax histogram calculation unit 141. Specifically, the road surface area recognition unit 142 first acquires the disparity value frequency distribution information of each row from the disparity histogram calculation unit 141, and determines the pixel distribution on the row disparity distribution map specified from the information by using the least square method or the like. A straight line approximation process such as a Hough transform process is performed. The approximate straight line shown in FIG. 7B obtained as a result is a straight line having an inclination such that the parallax value decreases toward the upper side of the image at the lower part of the row parallax distribution map corresponding to the lower part of the parallax image. That is, pixels distributed on or near the approximate line (pixels on the parallax image) are present at almost the same distance in each row on the parallax image, have the highest occupancy, and the distance increases toward the top of the image. It can be said that it is a pixel that projects objects that are continuously distant.

ここで、撮像部110Aでは自車両前方領域を撮像するため、その視差画像の内容は、図7(a)に示すように、画像下部において路面領域RSの占有率が最も高く、また、画像上方へ向かうほど路面領域RSの視差値は小さくなる。また、同じ行(横ライン)内において、路面領域RSを構成する画素はほぼ同じ視差値を持つことになる。したがって、視差ヒストグラム計算部141から出力される各行の視差値頻度分布情報から特定される、上述した行視差分布マップ(Vマップ)上の近似直線上又はその近傍に分布する画素は、路面領域RSを構成する画素が持つ特徴に合致する。よって、図7(b)に示す近似直線上又はその近傍に分布する画素は、高い精度で、路面領域RSを構成する画素であると推定できる。   Here, since the imaging unit 110A captures the front area of the host vehicle, the content of the parallax image has the highest occupation ratio of the road surface area RS in the lower part of the image as shown in FIG. The parallax value of the road surface region RS becomes smaller toward the road. Further, in the same row (horizontal line), the pixels constituting the road surface region RS have substantially the same parallax value. Therefore, the pixels distributed on or near the approximate straight line on the row parallax distribution map (V map) specified from the parallax value frequency distribution information of each row output from the parallax histogram calculation unit 141 are the road surface region RS. It matches the characteristics of the pixels that make up. Therefore, it can be estimated that the pixels distributed on or near the approximate straight line shown in FIG. 7B are pixels constituting the road surface region RS with high accuracy.

このように、本実施形態の路面領域認識部142は、視差ヒストグラム計算部141から得た各行の視差値頻度分布情報に基づいて演算した行視差分布マップ(Vマップ)上の直線近似を行い、その近似直線上又はその近傍に分布する画素を、路面を映し出す画素として特定し、特定した画素によって占められる画像領域を路面領域RSとして認識する。なお、路面上には図7(a)に示すように白線も存在するが、路面領域認識部142では、白線画像部WLも含めて路面領域RSを認識する。   As described above, the road surface area recognition unit 142 of the present embodiment performs linear approximation on the row parallax distribution map (V map) calculated based on the parallax value frequency distribution information of each row obtained from the parallax histogram calculation unit 141, Pixels distributed on or in the vicinity of the approximate straight line are specified as pixels that project the road surface, and an image region occupied by the specified pixels is recognized as a road surface region RS. Although a white line is also present on the road surface as shown in FIG. 7A, the road surface area recognition unit 142 recognizes the road surface area RS including the white line image part WL.

路面領域認識部142の認識結果は、車両走行制御ユニット108へ送られる。車両走行制御ユニット108では、例えば、この路面領域認識結果に基づいて、走行可能領域から自車両100が外れそうな場合等に、自車両100の運転者へ警告を報知したり、自車両のハンドルやブレーキを制御するなどの走行支援制御を行ったりする。また、車両走行制御ユニット108では、例えば、撮像ユニット101で撮像した自車両前方の撮像画像を例えば自車両室内の画像表示装置に表示する制御を車両走行制御ユニット108が行っている場合、車両走行制御ユニット108は、路面領域認識部142の認識結果に基づき、その表示画像上の対応する路面領域RSを強調表示するなど、路面領域RSが視認しやすい表示処理を行ってもよい。   The recognition result of the road surface area recognition unit 142 is sent to the vehicle travel control unit 108. In the vehicle travel control unit 108, for example, when the host vehicle 100 is likely to come off from the travelable region based on the road surface region recognition result, a warning is given to the driver of the host vehicle 100, or the handle of the host vehicle is Or driving support control such as controlling a brake. Further, in the vehicle travel control unit 108, for example, when the vehicle travel control unit 108 performs control to display an image captured in front of the host vehicle captured by the imaging unit 101 on, for example, an image display device in the host vehicle interior, Based on the recognition result of the road surface area recognition unit 142, the control unit 108 may perform display processing that makes it easy to visually recognize the road surface area RS, such as highlighting the corresponding road surface area RS on the display image.

ここで、ステレオカメラを構成する一対の撮像部110A,110Bの撮像タイミングがズレている場合、一方の撮像部の撮像タイミングに遅れて他方の撮像部が撮像することになる。その遅れ時間中に自車両100が移動するため、上述したように、視差演算部121で算出される視差値には、その遅れ時間中に自車両が移動することによる誤差が含まれることになる。この視差値誤差が許容範囲を超えていると、視差演算部121で算出された視差値から得られる視差値頻度分布情報が不正確なものとなり、その不正確な視差値頻度分布情報から路面領域認識部142が認識する路面領域RSは、認識精度が低いものとなる。この場合、路面領域認識部142の路面領域認識結果の信頼性が低いものとなって、後段の処理を適正に行うことができないおそれがある。   Here, when the imaging timings of the pair of imaging units 110A and 110B constituting the stereo camera are shifted, the other imaging unit captures images with a delay from the imaging timing of one imaging unit. Since the host vehicle 100 moves during the delay time, as described above, the parallax value calculated by the parallax calculation unit 121 includes an error due to the host vehicle moving during the delay time. . If this parallax value error exceeds the allowable range, the parallax value frequency distribution information obtained from the parallax value calculated by the parallax calculation unit 121 becomes inaccurate, and the road surface area is calculated from the inaccurate parallax value frequency distribution information. The road surface area RS recognized by the recognition unit 142 has low recognition accuracy. In this case, the reliability of the road surface area recognition result of the road surface area recognition unit 142 becomes low, and there is a possibility that subsequent processing cannot be performed properly.

そこで、本実施形態では、一対の撮像部110A,110B間の撮像タイミングのズレ量を把握するために、位相差検出部122において、一対の撮像部110A,110Bの同期信号の位相差を検出する。そして、同期ズレ判断部123において、位相差検出部122で検出された位相差が、視差演算部121で算出される視差値に対して許容範囲を超えるほどの誤差を生じさせるものであるかどうかを判断する。この判断の結果、視差値に対して許容範囲を超えるほどの誤差を生じさせると判断された場合には、路面領域認識部142は、視差ヒストグラム計算部141からの視差値頻度分布情報を用いず、白線認識処理部149の白線認識結果から路面領域RSを認識する。   Therefore, in this embodiment, the phase difference detection unit 122 detects the phase difference between the synchronization signals of the pair of imaging units 110A and 110B in order to grasp the amount of deviation of the imaging timing between the pair of imaging units 110A and 110B. . Whether or not the phase difference detected by the phase difference detection unit 122 causes an error that exceeds the allowable range with respect to the parallax value calculated by the parallax calculation unit 121 in the synchronization deviation determination unit 123. Judging. As a result of this determination, when it is determined that an error exceeding the allowable range is caused with respect to the parallax value, the road surface area recognition unit 142 does not use the parallax value frequency distribution information from the parallax histogram calculation unit 141. The road surface area RS is recognized from the white line recognition result of the white line recognition processing unit 149.

具体的には、白線認識処理部149は、基準画像データを撮像する撮像部110Aから撮像画像データを取得し、まずは、画素値(輝度)が規定値以上変化する箇所をエッジ部分として抽出する。エッジ抽出の方法は、公知のものを広く利用することができる。多くの道路では、黒色に近い色の路面上に白線が形成されており、輝度画像上において白線画像部WLの輝度は路面上の他部分より十分に大きい。そのため、輝度画像上で所定値以上の画素値の差を有するエッジ部は、白線のエッジ部である可能性が高い。また、路面上の白線を映し出す白線画像部WLは、撮像画像上においてライン状に映し出されるので、ライン状に並ぶエッジ部を特定することで、白線のエッジ部を高精度に認識することができる。よって、本実施形態の白線認識処理部149は、エッジ部分について最小二乗法やハフ変換処理などによる直線近似処理を施し、得られた近似直線を白線のエッジ部(路面上の白線を映し出す白線画像部WL)として認識する。   Specifically, the white line recognition processing unit 149 acquires captured image data from the imaging unit 110A that captures the reference image data, and first extracts a portion where the pixel value (luminance) changes by a specified value or more as an edge portion. As the edge extraction method, known methods can be widely used. In many roads, a white line is formed on a road surface of a color close to black, and the luminance of the white line image portion WL is sufficiently higher than that of other portions on the road surface on the luminance image. Therefore, there is a high possibility that an edge portion having a pixel value difference equal to or greater than a predetermined value on the luminance image is a white line edge portion. In addition, the white line image portion WL that projects the white line on the road surface is projected in a line shape on the captured image. Therefore, the edge portion of the white line can be recognized with high accuracy by specifying the edge portion arranged in the line shape. . Therefore, the white line recognition processing unit 149 according to the present embodiment performs a straight line approximation process such as a least square method or a Hough transform process on the edge portion, and uses the obtained approximate straight line as a white line edge portion (a white line image that displays a white line on the road surface). Part WL).

路面領域認識部142は、白線認識処理部149から出力される白線認識結果に基づいて路面領域RSを認識する場合には、次のような処理を行う。まず、撮像画像データについて、白線認識結果に基づいて特定される白線画像部よりも画像左右方向外側に向かってエッジ箇所を探索していく。多くの場合、路面の側端部(白線よりも外側)には段差や壁などの路側部材が存在し、この路側部材によって生じる陰影によって路面との境界に輝度差が生じる。よって、白線画像部よりも画像左右方向外側に存在するエッジ箇所は、このような陰影の箇所である可能性が高く、これを路面領域の境界として認識することが可能である。   The road surface area recognition unit 142 performs the following process when recognizing the road surface area RS based on the white line recognition result output from the white line recognition processing unit 149. First, for the captured image data, an edge portion is searched for outward in the left-right direction of the image from the white line image portion specified based on the white line recognition result. In many cases, a road side member such as a step or a wall exists at a side end portion (outside the white line) of the road surface, and a luminance difference is generated at a boundary with the road surface due to a shadow generated by the road side member. Therefore, it is highly possible that the edge portion that exists outside the white line image portion in the left-right direction of the image is such a shaded portion, and this can be recognized as a boundary of the road surface region.

次に、一対の撮像部110A,110Bの撮像タイミングのズレ量を利用した路面領域認識部142の路面領域認識処理について説明する。
図8は、本実施形態における路面領域認識処理の流れを示すフローチャートである。
本実施形態において、位相差検出部122には、一対の撮像部110A,110Bからそれぞれの垂直同期信号と水平同期信号が入力され、それぞれの垂直同期信号の間の位相差を検出する(S1)。位相差の測定単位は、水平同期信号の数としている。したがって、本実施形態の撮像タイミングのズレは、例えば、7本の水平同期信号分だけズレているというような形で把握することができる。
Next, the road surface area recognition process of the road surface area recognition unit 142 using the amount of deviation of the image pickup timing of the pair of image pickup units 110A and 110B will be described.
FIG. 8 is a flowchart showing a flow of road surface area recognition processing in the present embodiment.
In the present embodiment, the vertical synchronization signal and the horizontal synchronization signal are input from the pair of imaging units 110A and 110B to the phase difference detection unit 122, and the phase difference between the vertical synchronization signals is detected (S1). . The unit of measurement of the phase difference is the number of horizontal synchronization signals. Therefore, the shift in the imaging timing of the present embodiment can be grasped in such a manner that, for example, the shift is equivalent to seven horizontal synchronization signals.

本実施形態の位相差検出部122は、アップダウンカウンタで構成されており、一対の撮像部110A,110Bそれぞれから出力される同期信号間の位相差を、カウント値として表すものである。より詳しくは、ある時刻に一方の撮像部の垂直同期信号がHレベルになってから、他方の撮像部の垂直同期信号がHレベルになるまでの時間差を測定する。   The phase difference detection unit 122 according to the present embodiment includes an up / down counter, and represents a phase difference between synchronization signals output from the pair of imaging units 110A and 110B as a count value. More specifically, the time difference from when the vertical synchronization signal of one imaging unit becomes H level at a certain time until the vertical synchronization signal of the other imaging unit becomes H level is measured.

位相差検出部122の動作の説明に先立ち、各撮像部110A,110Bの出力データ方式について説明する。
図9は、各撮像部110A,110Bの出力データ方式を説明するためのタイミングチャートである。
各撮像部110A,110Bからは、画像データが継続的に出力されるが、その画像データのどこからどこまでが一画面にあたるのかを示す垂直同期信号や、その画像データのどこからどこまでが横1ライン分(1行分)にあたるのかを示す水平同期信号も出力される。画像データには、撮像領域を撮影して得られた有効な画像データだけでなく、撮像部の動作上必要ではあるが画像としては意味の無いデータも含まれる。水平同期信号は、横1ラインのうち有効な画像が出力されている期間にHレベルを示す。垂直同期信号は、水平同期信号が継続的に出力されている期間にHレベルを示す。
Prior to the description of the operation of the phase difference detection unit 122, the output data system of each of the imaging units 110A and 110B will be described.
FIG. 9 is a timing chart for explaining the output data system of each of the imaging units 110A and 110B.
Image data is continuously output from each of the imaging units 110A and 110B. A vertical synchronization signal indicating where and where the image data corresponds to one screen, and one to horizontal lines from where to where in the image data ( A horizontal synchronizing signal indicating whether it corresponds to one line) is also output. The image data includes not only effective image data obtained by photographing the imaging region, but also data that is necessary for the operation of the imaging unit but has no meaning as an image. The horizontal synchronization signal indicates an H level during a period in which a valid image is output in one horizontal line. The vertical synchronization signal indicates the H level during a period in which the horizontal synchronization signal is continuously output.

図10は、本実施形態における位相差検出部122の動作を説明するためのタイミングチャートである。
位相差検出部122を構成するアップダウンカウンタは、一方の撮像部110Aから出力される第一の垂直同期信号及び他方の撮像部110Bから出力される第二の垂直同期信号のうち、どちらか一方がLレベルからHレベルに遷移したことを検出すると、カウント有効期間になる。第一の垂直同期信号がHレベルに遷移してカウント有効期間に入った場合には、カウントアップ動作を行う。一方、第二の垂直同期信号がHレベルに遷移してカウント有効期間に入った場合には、カウントダウン動作を行う。図示の例は、第一の垂直同期信号がHレベルに遷移してカウント有効期間に入った場合であるため、アップダウンカウンタは、カウントアップ動作を行う。
FIG. 10 is a timing chart for explaining the operation of the phase difference detection unit 122 in the present embodiment.
The up / down counter constituting the phase difference detection unit 122 is one of the first vertical synchronization signal output from one imaging unit 110A and the second vertical synchronization signal output from the other imaging unit 110B. When a transition from L level to H level is detected, the count valid period starts. When the first vertical synchronization signal transits to H level and the count valid period starts, a count-up operation is performed. On the other hand, when the second vertical synchronization signal transitions to the H level and enters the count valid period, the countdown operation is performed. The illustrated example is a case where the first vertical synchronization signal transitions to the H level and enters the count valid period, so the up / down counter performs a count-up operation.

その後、アップダウンカウンタは、他方の垂直同期信号がLレベルからHレベルに遷移したことを検出すると、カウント有効期間を終了し、その時のカウント値を維持する。そして、その後に、第一の垂直同期信号及び第二の垂直同期信号のうちのどちらか一方がHレベルからLレベルに遷移したことを検出すると、カウント値をゼロに戻す。   Thereafter, when the up / down counter detects that the other vertical synchronization signal has transitioned from the L level to the H level, it ends the count valid period and maintains the count value at that time. Thereafter, when it is detected that one of the first vertical synchronization signal and the second vertical synchronization signal has transitioned from the H level to the L level, the count value is returned to zero.

カウント有効期間におけるカウントアップ動作又はカウントダウン動作は、撮像部110Aから出力される第一の水平同期信号、もしくは、撮像部110Bから出力される第二の水平同期信号のうち、どちらか一方が1回入力されるたびに、1カウントずつ行う。したがって、アップダウンカウンタのカウント値は、それぞれの垂直同期信号間の位相差が水平同期信号の何回分に相当するかを示すものとなる。これは、言い換えると、1画面の開始時刻のズレが横ライン何本分に相当するかを示すものと言える。   Either the count-up operation or the count-down operation in the count valid period is performed once, either the first horizontal synchronization signal output from the imaging unit 110A or the second horizontal synchronization signal output from the imaging unit 110B. Every time an input is made, one count is performed. Therefore, the count value of the up / down counter indicates how many times the horizontal synchronizing signal corresponds to the phase difference between the vertical synchronizing signals. In other words, it can be said that it indicates how many horizontal lines the deviation of the start time of one screen corresponds to.

以上のようにして検出された撮像タイミングのズレ量(位相差検出部122のカウント値=垂直同期信号の位相差)は、同期ズレ判断部123へ送られる。同期ズレ判断部123では、この撮像タイミングのズレ量が上述したマッチング処理に支障をきたすほどに大きいかどうかを判断し、その判断結果を路面領域認識部142へ出力する。   The shift amount of the imaging timing detected as described above (the count value of the phase difference detection unit 122 = the phase difference of the vertical synchronization signal) is sent to the synchronization shift determination unit 123. The synchronization shift determination unit 123 determines whether the shift amount of the imaging timing is large enough to hinder the matching process described above, and outputs the determination result to the road surface area recognition unit 142.

同期ズレ判断部123は、その判断に先立って、まず、自車両100に搭載されている図示しない車速検出部で検出した車速情報を取得し(S2)、この車速情報に基づいて、撮像タイミングのズレ量と比較するための閾値を決定する(S3)。具体的には、自車両100の車速が遅いほど閾値が大きくなるように、閾値を決定する。したがって、自車両100の車速が遅いほど、閾値が大きくなって、視差ヒストグラム計算部141からの視差値頻度分布情報を用いた路面領域認識処理を実行できるズレ許容範囲が広がる。逆に、自車両100の車速が速いほど、閾値が小さくなるので、視差ヒストグラム計算部141からの視差値頻度分布情報を用いた路面領域認識処理を実行できるズレ許容範囲は狭くなる。なお、図10に示す例では、閾値の絶対値が5に決定された例である。   Prior to the determination, the synchronization deviation determination unit 123 first acquires vehicle speed information detected by a vehicle speed detection unit (not shown) mounted on the host vehicle 100 (S2), and based on this vehicle speed information, determines the imaging timing. A threshold for comparison with the amount of deviation is determined (S3). Specifically, the threshold value is determined so that the threshold value increases as the vehicle speed of the host vehicle 100 decreases. Therefore, the lower the vehicle speed of the host vehicle 100 is, the larger the threshold is, and the permissible deviation range in which the road surface area recognition process using the parallax value frequency distribution information from the parallax histogram calculation unit 141 can be executed is widened. On the contrary, since the threshold value decreases as the vehicle speed of the host vehicle 100 increases, the allowable deviation range in which the road surface area recognition process using the parallax value frequency distribution information from the parallax histogram calculation unit 141 can be executed becomes narrower. In the example illustrated in FIG. 10, the absolute value of the threshold is determined to be 5.

同期ズレ判断部123は、このようにして車速情報に応じて決定された閾値と、位相差検出部122のカウント値が示す垂直同期信号の位相差(撮像タイミングのズレ量)とを比較し(S4)、位相差が閾値以下である場合には(S4のNo)、その旨の判断結果を路面領域認識部142へ出力する。これにより、路面領域認識部142では、視差ヒストグラム計算部141からの視差値頻度分布情報を用いて、路面領域RSの認識処理を行う(S5)。   The synchronization deviation determination unit 123 compares the threshold value determined according to the vehicle speed information in this way with the phase difference (the amount of imaging timing deviation) of the vertical synchronization signal indicated by the count value of the phase difference detection unit 122 ( S4) When the phase difference is equal to or smaller than the threshold value (No in S4), the determination result to that effect is output to the road surface area recognition unit 142. Thereby, the road surface area recognition unit 142 performs the recognition process of the road surface area RS using the parallax value frequency distribution information from the parallax histogram calculation unit 141 (S5).

一方、位相差が閾値を超えている場合には(S4のYes)、その旨の判断結果を路面領域認識部142へ出力する。これにより、路面領域認識部142では、視差ヒストグラム計算部141からの視差値頻度分布情報を用いずに、白線認識処理部149の白線認識結果から路面領域RSを認識する(S6)。このように位相差が閾値を超えている場合、すなわち、撮像タイミングのズレ量が所定のズレ許容範囲を超える場合には、撮像タイミングのズレ量がズレ許容範囲内に戻るように、一対の撮像部110A,110Bの撮像タイミングを修正する処理動作を実行するのが好ましい。   On the other hand, when the phase difference exceeds the threshold value (Yes in S4), a determination result to that effect is output to the road surface area recognition unit 142. Thereby, the road surface area recognition unit 142 recognizes the road surface area RS from the white line recognition result of the white line recognition processing unit 149 without using the parallax value frequency distribution information from the parallax histogram calculation unit 141 (S6). As described above, when the phase difference exceeds the threshold value, that is, when the deviation amount of the imaging timing exceeds a predetermined deviation allowable range, the pair of imaging is performed so that the deviation amount of the imaging timing returns to the deviation allowable range. It is preferable to execute a processing operation for correcting the imaging timing of the units 110A and 110B.

なお、本実施形態では、位相差が閾値を超えている場合、すなわち、撮像タイミングのズレ量が所定のズレ許容範囲を超える場合には、視差値に基づく路面認識処理に代えて、輝度情報に基づく路面認識処理を行っているが、例えば、視差値を用いた後段の処理それ自体(路面認識処理や、視差値から距離を演算する処理など)を中止してもよい。   In this embodiment, when the phase difference exceeds the threshold value, that is, when the deviation amount of the imaging timing exceeds a predetermined deviation tolerance range, the luminance information is used instead of the road surface recognition process based on the parallax value. Although the road surface recognition process based on this is performed, for example, a subsequent process itself using the parallax value (such as a road surface recognition process or a process of calculating a distance from the parallax value) may be stopped.

以上に説明したものは一例であり、本発明は、次の態様毎に特有の効果を奏する。
(態様A)
自車両100等の移動体の移動速度を検出する車速検出部等の移動速度検出手段を備えた当該移動体に搭載される一対の撮像部110A,110B等の撮像手段によって当該移動体周囲の撮像領域を撮像して得られる一対の撮像画像データ間の視差値を演算する視差演算部121等の視差値演算手段を備えた視差値演算装置において、上記一対の撮像手段から入力される該一対の撮像手段の各撮像タイミングを示す同期信号等の情報を用いて上記一対の撮像手段間の撮像タイミングのズレ量を検出する位相差検出部122等のタイミングズレ量検出手段と、上記タイミングズレ量検出手段が検出したズレ量が所定のズレ許容範囲を超える場合には、上記視差値演算手段が演算する視差値の利用を制限するための処理を実行する同期ズレ判断部123等の利用制限処理実行手段とを有し、上記利用制限処理実行手段は、上記移動速度検出手段が検出した速度検出結果に基づき、上記移動体の移動速度が遅いほど上記所定のズレ許容範囲が広がるように、上記所定のズレ許容範囲を変更することを特徴とする。
これによれば、移動体の速度に応じて視差値の誤差が変わっても、その誤差が許容範囲を超えないように撮像タイミングのズレ許容範囲が変更される結果、撮像タイミングのズレ許容範囲を予め過剰に狭い範囲に設定しておかなくても、許容範囲を超える誤った視差値が利用されるのを安定して制限することができる。
What has been described above is merely an example, and the present invention has a specific effect for each of the following modes.
(Aspect A)
Imaging around the moving body by an imaging unit such as a pair of imaging units 110A and 110B mounted on the moving body provided with a moving speed detecting unit such as a vehicle speed detecting unit for detecting the moving speed of the moving body such as the host vehicle 100 In a parallax value calculation device including a parallax value calculation unit such as a parallax calculation unit 121 that calculates a parallax value between a pair of captured image data obtained by imaging a region, the pair of images input from the pair of imaging units Timing shift amount detection means such as a phase difference detection unit 122 for detecting a shift amount of the imaging timing between the pair of imaging means using information such as a synchronization signal indicating each imaging timing of the imaging means, and the timing shift amount detection When the amount of deviation detected by the means exceeds a predetermined deviation allowable range, a synchronization deviation determination unit that executes processing for limiting the use of the parallax value calculated by the parallax value calculating means 23, etc., and the use restriction processing execution means is based on the speed detection result detected by the movement speed detection means, and the predetermined deviation allowable range as the moving speed of the moving body is slow. The predetermined deviation allowable range is changed so as to spread.
According to this, even if the error of the parallax value changes according to the speed of the moving body, the allowable deviation range of the imaging timing is changed so that the error does not exceed the allowable range. Even if an excessively narrow range is not set in advance, the use of an erroneous parallax value exceeding the allowable range can be stably limited.

(態様B)
上記態様Aにおいて、上記一対の撮像手段の各撮像タイミングを示す情報として、該一対の撮像手段から出力される各撮像画像データの同期信号を用い、上記タイミングズレ量検出手段は、上記一対の撮像手段間の撮像タイミングのズレ量として、上記一対の撮像手段間の同期信号の位相差を検出することを特徴とする。
これによれば、撮像手段で一般に使用されている同期信号を用いて、撮像タイミング間のズレ量を検出することができる。
(Aspect B)
In the aspect A, a synchronization signal of each captured image data output from the pair of imaging units is used as information indicating each imaging timing of the pair of imaging units. The phase difference of the synchronization signal between the pair of imaging means is detected as the amount of deviation of the imaging timing between the means.
According to this, it is possible to detect a shift amount between imaging timings using a synchronization signal generally used in the imaging unit.

(態様C)
上記態様Dにおいて、上記タイミングズレ量検出手段は、上記一対の撮像手段の一方の撮像手段についての同期信号が最初に入力された場合には、上記一対の撮像手段間の同期信号の位相差を示すカウント値を、該一対の撮像手段の他方の撮像手段についての同期信号が入力されるまでカウントアップし、該他方の撮像手段についての同期信号が最初に入力された場合には、該カウント値を、該一方の撮像手段についての同期信号が入力されるまでカウントダウンし、カウントしたカウント値を出力するものであることを特徴とする。
これによれば、カウント値が初期値よりも大きな値であれば、一方の撮像手段に対して他方の撮像手段の撮像タイミングが遅れていることを把握でき、カウント値が初期値よりも小さな値であれば、他方の撮像手段に対して一方の撮像手段の撮像タイミングが遅れていることを把握できる。よって、簡易な構成で、いずれの撮像手段の撮像タイミングが遅れているのかを把握できる。
(Aspect C)
In the aspect D, when the synchronization signal for the one imaging unit of the pair of imaging units is first input, the timing shift amount detection unit calculates the phase difference of the synchronization signal between the pair of imaging units. The count value shown is counted up until the synchronization signal for the other imaging means of the pair of imaging means is input, and when the synchronization signal for the other imaging means is input first, the count value Is counted down until a synchronization signal for the one image pickup means is input, and the counted value is output.
According to this, if the count value is larger than the initial value, it can be understood that the imaging timing of the other imaging unit is delayed with respect to one imaging unit, and the count value is smaller than the initial value. If so, it can be understood that the imaging timing of one imaging means is delayed with respect to the other imaging means. Therefore, it is possible to grasp which imaging means of the imaging timing is delayed with a simple configuration.

(態様D)
移動体の移動速度を検出する移動速度検出手段を備えた当該移動体に搭載される一対の撮像手段と、該一対の撮像手段によって当該移動体周囲の撮像領域を撮像して得られる一対の撮像画像データ間の視差値を演算する視差値演算装置とを備えた視差値演算システムにおいて、上記視差値演算装置として、上記態様A〜Cのいずれかの態様に係る視差値演算装置を用いたことを特徴とする。
これによれば、撮像タイミングのズレ許容範囲を予め過剰に狭い範囲に設定しておかなくても、許容範囲を超える誤った視差値が利用されるのを安定して制限できる視差値演算システムを提供できる。
(Aspect D)
A pair of imaging means mounted on the moving body provided with a moving speed detecting means for detecting the moving speed of the moving body, and a pair of imaging obtained by imaging an imaging area around the moving body by the pair of imaging means In a parallax value calculation system including a parallax value calculation device that calculates a parallax value between image data, the parallax value calculation device according to any one of the modes A to C is used as the parallax value calculation device. It is characterized by.
According to this, a parallax value calculation system that can stably limit the use of an erroneous parallax value exceeding the allowable range without setting the allowable range of deviation of the imaging timing in an excessively narrow range in advance. Can be provided.

(態様E)
移動面上を移動する移動体に搭載された撮像手段で移動体周囲を撮像して得た撮像画像から、当該移動体が移動する移動面を映し出す移動面領域を認識する移動面領域認識システムにおいて、上記態様Dに係る視差値演算システムと、上記視差値演算システムによって演算される視差値および上記一対の撮像手段の少なくとも一方によって得られる輝度画像に基づいて、上記移動面領域を認識する処理を行う認識処理手段とを有することを特徴とする。
これによれば、撮像タイミングのズレ許容範囲を予め過剰に狭い範囲に設定しておかなくても、許容範囲を超える誤った視差値が利用されるのを安定して制限でき、移動面領域の認識精度を向上させることができる。
(Aspect E)
In a moving surface area recognition system for recognizing a moving surface area on which a moving surface on which the moving body moves is displayed from an imaged image obtained by imaging the periphery of the moving body with an imaging means mounted on the moving body moving on the moving surface. , A process of recognizing the moving surface area based on a parallax value calculation system according to the aspect D, a parallax value calculated by the parallax value calculation system, and a luminance image obtained by at least one of the pair of imaging units. And a recognition processing means for performing.
According to this, even if the allowable range of imaging timing deviation is not set to an excessively narrow range in advance, it is possible to stably limit the use of an erroneous parallax value exceeding the allowable range, Recognition accuracy can be improved.

(態様F)
移動体の移動速度を検出する移動速度検出手段を備えた当該移動体に搭載される一対の撮像手段によって当該移動体周囲の撮像領域を撮像して得られる一対の撮像画像データ間の視差値を演算する視差値演算工程を有する視差値演算方法において、上記一対の撮像手段から入力される該一対の撮像手段の各撮像タイミングを示す情報を用いて上記一対の撮像手段間の撮像タイミングのズレ量を検出するタイミングズレ量検出工程と、上記タイミングズレ量検出工程で検出されたズレ量が所定のズレ許容範囲を超える場合には、上記視差値演算工程で演算される視差値の利用を制限するための処理を実行する利用制限処理実行工程とを有し、上記利用制限処理実行工程は、上記移動速度検出手段で検出された速度検出結果に基づき、上記移動体の移動速度が遅いほど上記所定のズレ許容範囲が広がるように、上記所定のズレ許容範囲を変更することを特徴とする。
これによれば、撮像タイミングのズレ許容範囲を予め過剰に狭い範囲に設定しておかなくても、許容範囲を超える誤った視差値が利用されるのを安定して制限できる。
(Aspect F)
A parallax value between a pair of imaged image data obtained by imaging an imaging region around the moving body by a pair of imaging means mounted on the moving body provided with a moving speed detecting means for detecting the moving speed of the moving body. In the parallax value calculation method including a parallax value calculation step for calculating, a deviation amount of the imaging timing between the pair of imaging units using information indicating each imaging timing of the pair of imaging units input from the pair of imaging units When the amount of deviation detected in the timing deviation amount detection step and the timing deviation amount detection step exceeds a predetermined tolerance, the use of the parallax value calculated in the parallax value calculation step is limited. and a use restriction process executing step of executing the treatment for, the use restriction process executing step, based on the detected speed detection result by the moving speed detecting means, the moving object As the moving speed is slow as the predetermined deviation tolerance spread, and changes the predetermined deviation tolerance.
According to this, it is possible to stably limit the use of an erroneous parallax value exceeding the permissible range without setting the permissible range of the imaging timing in an excessively narrow range in advance.

(態様G)
移動体の移動速度を検出する移動速度検出手段を備えた当該移動体に搭載される一対の撮像手段によって当該移動体周囲の撮像領域を撮像して得られる一対の撮像画像データ間の視差値を演算する視差値演算工程を、コンピュータに実行させるための視差値演算用プログラムにおいて、上記一対の撮像手段から入力される該一対の撮像手段の各撮像タイミングを示す情報を用いて上記一対の撮像手段間の撮像タイミングのズレ量を検出するタイミングズレ量検出工程と、上記タイミングズレ量検出工程で検出されたズレ量が所定のズレ許容範囲を超える場合には、上記視差値演算工程で演算される視差値の利用を制限するための処理を実行する利用制限処理実行工程とを、上記コンピュータに実行させるものであって、上記利用制限処理実行工程は、上記移動速度検出手段で検出された速度検出結果に基づき、上記移動体の移動速度が遅いほど上記所定のズレ許容範囲が広がるように、上記所定のズレ許容範囲を変更することを特徴とする。
これによれば、撮像タイミングのズレ許容範囲を予め過剰に狭い範囲に設定しておかなくても、許容範囲を超える誤った視差値が利用されるのを安定して制限できる。
尚、このプログラムは、CD−ROM等の記録媒体に記録された状態で配布したり、入手したりすることができる。また、このプログラムを乗せ、所定の送信装置により送信された信号を、公衆電話回線や専用線、その他の通信網等の伝送媒体を介して配信したり、受信したりすることでも、配布、入手が可能である。この配信の際、伝送媒体中には、コンピュータプログラムの少なくとも一部が伝送されていればよい。すなわち、コンピュータプログラムを構成するすべてのデータが、一時に伝送媒体上に存在している必要はない。このプログラムを乗せた信号とは、コンピュータプログラムを含む所定の搬送波に具現化されたコンピュータデータ信号である。また、所定の送信装置からコンピュータプログラムを送信する送信方法には、プログラムを構成するデータを連続的に送信する場合も、断続的に送信する場合も含まれる。
(Aspect G)
A parallax value between a pair of imaged image data obtained by imaging an imaging region around the moving body by a pair of imaging means mounted on the moving body provided with a moving speed detecting means for detecting the moving speed of the moving body. In a parallax value calculation program for causing a computer to execute a parallax value calculation step to be calculated, the pair of imaging units using information indicating each imaging timing of the pair of imaging units input from the pair of imaging units When the amount of deviation detected in the timing deviation amount detection step exceeds a predetermined allowable range, the calculation is performed in the parallax value calculation step. A use restriction process executing step for executing a process for restricting the use of a parallax value, and executing the use restriction process. Degree, based on the speed detection result detected by the moving speed detection means, as the moving speed of the moving body is spread slowly that the predetermined deviation tolerance, characterized in that to change the predetermined deviation tolerance And
According to this, it is possible to stably limit the use of an erroneous parallax value exceeding the permissible range without setting the permissible range of the imaging timing in an excessively narrow range in advance.
This program can be distributed or obtained in a state of being recorded on a recording medium such as a CD-ROM. It is also possible to distribute and obtain signals by placing this program and distributing or receiving signals transmitted by a predetermined transmission device via transmission media such as public telephone lines, dedicated lines, and other communication networks. Is possible. At the time of distribution, it is sufficient that at least a part of the computer program is transmitted in the transmission medium. That is, it is not necessary for all data constituting the computer program to exist on the transmission medium at one time. The signal carrying the program is a computer data signal embodied on a predetermined carrier wave including the computer program. Further, the transmission method for transmitting a computer program from a predetermined transmission device includes a case where data constituting the program is transmitted continuously and a case where it is transmitted intermittently.

100 自車両
101 撮像ユニット
102 画像解析ユニット
105 フロントガラス
108 車両走行制御ユニット
110A,110B 撮像部
121 視差演算部
122 位相差検出部
123 同期ズレ判断部
141 視差ヒストグラム計算部
142 路面領域認識部
149 白線認識処理部
DESCRIPTION OF SYMBOLS 100 Own vehicle 101 Imaging unit 102 Image analysis unit 105 Windshield 108 Vehicle travel control unit 110A, 110B Imaging part 121 Parallax calculating part 122 Phase difference detection part 123 Synchronization shift | offset | difference judgment part 141 Parallax histogram calculation part 142 Road surface area recognition part 149 White line recognition Processing part

特開2003−28635号公報JP 2003-28635 A

Claims (7)

移動体の移動速度を検出する移動速度検出手段を備えた当該移動体に搭載される一対の撮像手段によって当該移動体周囲の撮像領域を撮像して得られる一対の撮像画像データ間の視差値を演算する視差値演算手段を備えた視差値演算装置において、
上記一対の撮像手段から入力される該一対の撮像手段の各撮像タイミングを示す情報を用いて上記一対の撮像手段間の撮像タイミングのズレ量を検出するタイミングズレ量検出手段と、
上記タイミングズレ量検出手段が検出したズレ量が所定のズレ許容範囲を超える場合には、上記視差値演算手段が演算する視差値の利用を制限するための処理を実行する利用制限処理実行手段とを有し、
上記利用制限処理実行手段は、上記移動速度検出手段が検出した速度検出結果に基づき、上記移動体の移動速度が遅いほど上記所定のズレ許容範囲が広がるように、上記所定のズレ許容範囲を変更することを特徴とする視差値演算装置。
Disparity value between mobile pair of a pair of captured image data obtained by imaging the imaging area around the mobile body by the imaging means to be mounted on the mobile body equipped with a moving speed detecting means for detecting a moving speed of the In the parallax value computing device provided with the parallax value computing means for computing
A timing shift amount detecting means for detecting a shift amount of the imaging timing between the pair of imaging means using information indicating each imaging timing of the pair of imaging means input from the pair of imaging means;
Use restriction processing execution means for executing processing for restricting the use of the parallax value calculated by the parallax value calculating means when the amount of deviation detected by the timing deviation amount detecting means exceeds a predetermined deviation allowable range; Have
The use restriction processing execution unit changes the predetermined deviation allowable range based on the speed detection result detected by the moving speed detection unit so that the predetermined deviation allowable range is expanded as the moving speed of the moving body is slower. A parallax value calculation apparatus characterized by:
請求項1の視差値演算装置において、
上記一対の撮像手段の各撮像タイミングを示す情報として、該一対の撮像手段から出力される各撮像画像データの同期信号を用い、
上記タイミングズレ量検出手段は、上記一対の撮像手段間の撮像タイミングのズレ量として、上記一対の撮像手段間の同期信号の位相差を検出することを特徴とする視差値演算装置。
In the parallax value calculation apparatus of Claim 1,
As information indicating each imaging timing of the pair of imaging means, using a synchronization signal of each captured image data output from the pair of imaging means,
The parallax value calculation device, wherein the timing shift amount detection unit detects a phase difference of a synchronization signal between the pair of imaging units as an amount of shift of imaging timing between the pair of imaging units.
請求項2の視差値演算装置において、
上記タイミングズレ量検出手段は、上記一対の撮像手段の一方の撮像手段についての同期信号が最初に入力された場合には、上記一対の撮像手段間の同期信号の位相差を示すカウント値を、該一対の撮像手段の他方の撮像手段についての同期信号が入力されるまでカウントアップし、該他方の撮像手段についての同期信号が最初に入力された場合には、該カウント値を、該一方の撮像手段についての同期信号が入力されるまでカウントダウンし、カウントしたカウント値を出力するものであることを特徴とする視差値演算装置。
In the parallax value calculating apparatus of Claim 2,
When the synchronization signal for one imaging unit of the pair of imaging units is first input, the timing shift amount detection unit calculates a count value indicating the phase difference of the synchronization signal between the pair of imaging units, Counting up until the synchronization signal for the other imaging means of the pair of imaging means is input, and when the synchronization signal for the other imaging means is input first, the count value is A parallax value calculation device that counts down until a synchronization signal for an image pickup means is input and outputs the counted value.
移動体の移動速度を検出する移動速度検出手段を備えた当該移動体に搭載される一対の撮像手段と、
該一対の撮像手段によって当該移動体周囲の撮像領域を撮像して得られる一対の撮像画像データ間の視差値を演算する視差値演算装置とを備えた視差値演算システムにおいて、
上記視差値演算装置として、請求項1乃至3のいずれか1項に記載の視差値演算装置を用いたことを特徴とする視差値演算システム。
A pair of imaging means mounted on the moving body provided with moving speed detecting means for detecting the moving speed of the moving body;
In disparity value calculation system including a disparity value calculation unit for calculating a disparity value between a pair of captured image data obtained by imaging the imaging area around the mobile body by the pair of imaging means,
Above for disparity value calculation unit, the disparity value calculation system characterized by using a disparity value calculation device according to any one of claims 1乃Itaru 3.
移動面上を移動する移動体に搭載された撮像手段で当該移動体周囲を撮像して得た撮像画像から、当該移動体が移動する移動面を映し出す移動面領域を認識する移動面領域認識システムにおいて、
請求項4の視差値演算システムと、
上記視差値演算システムによって演算される視差値および上記一対の撮像手段の少なくとも一方によって得られる輝度画像に基づいて、上記移動面領域を認識する処理を行う認識処理手段とを有することを特徴とする移動面領域認識システム。
The periphery of the moving object from the captured image obtained by imaging by the imaging means mounted on a movable body that moves on a moving surface, the moving surface region recognizing recognizes a moving surface area to project a moving surface to which the mobile moves In the system,
The parallax value calculation system according to claim 4,
Recognizing processing means for performing processing for recognizing the moving surface area based on a parallax value calculated by the parallax value calculating system and a luminance image obtained by at least one of the pair of imaging means. Moving surface area recognition system.
移動体の移動速度を検出する移動速度検出手段を備えた当該移動体に搭載される一対の撮像手段によって当該移動体周囲の撮像領域を撮像して得られる一対の撮像画像データ間の視差値を演算する視差値演算工程を有する視差値演算方法において、
上記一対の撮像手段から入力される該一対の撮像手段の各撮像タイミングを示す情報を用いて上記一対の撮像手段間の撮像タイミングのズレ量を検出するタイミングズレ量検出工程と、
上記タイミングズレ量検出工程で検出されたズレ量が所定のズレ許容範囲を超える場合には、上記視差値演算工程で演算される視差値の利用を制限するための処理を実行する利用制限処理実行工程とを有し、
上記利用制限処理実行工程は、上記移動速度検出手段で検出された速度検出結果に基づき、上記移動体の移動速度が遅いほど上記所定のズレ許容範囲が広がるように、上記所定のズレ許容範囲を変更することを特徴とする視差値演算方法。
Disparity value between mobile pair of a pair of captured image data obtained by imaging the imaging area around the mobile body by the imaging means to be mounted on the mobile body equipped with a moving speed detecting means for detecting a moving speed of the In a parallax value calculation method including a parallax value calculation step of calculating
A timing shift amount detecting step for detecting a shift amount of the image pickup timing between the pair of image pickup means using information indicating each image pickup timing of the pair of image pickup means input from the pair of image pickup means;
When the amount of deviation detected in the timing deviation amount detection step exceeds a predetermined deviation allowable range, execution of a use restriction process for executing processing for restricting the use of the parallax value calculated in the parallax value calculation step A process,
The use restriction process execution step sets the predetermined deviation allowable range based on the speed detection result detected by the moving speed detection means so that the predetermined deviation allowable range is widened as the moving speed of the moving body is slow. A parallax value calculation method characterized by changing.
移動体の移動速度を検出する移動速度検出手段を備えた当該移動体に搭載される一対の撮像手段によって当該移動体周囲の撮像領域を撮像して得られる一対の撮像画像データ間の視差値を演算する視差値演算工程を、コンピュータに実行させるための視差値演算用プログラムにおいて、
上記一対の撮像手段から入力される該一対の撮像手段の各撮像タイミングを示す情報を用いて上記一対の撮像手段間の撮像タイミングのズレ量を検出するタイミングズレ量検出工程と、
上記タイミングズレ量検出工程で検出されたズレ量が所定のズレ許容範囲を超える場合には、上記視差値演算工程で演算される視差値の利用を制限するための処理を実行する利用制限処理実行工程とを、上記コンピュータに実行させるものであって、
上記利用制限処理実行工程は、上記移動速度検出手段で検出された速度検出結果に基づき、上記移動体の移動速度が遅いほど上記所定のズレ許容範囲が広がるように、上記所定のズレ許容範囲を変更することを特徴とする視差値演算用プログラム。
Disparity value between mobile pair of a pair of captured image data obtained by imaging the imaging area around the mobile body by the imaging means to be mounted on the mobile body equipped with a moving speed detecting means for detecting a moving speed of the In a parallax value calculation program for causing a computer to execute a parallax value calculation step for calculating
A timing shift amount detecting step for detecting a shift amount of the image pickup timing between the pair of image pickup means using information indicating each image pickup timing of the pair of image pickup means input from the pair of image pickup means;
When the amount of deviation detected in the timing deviation amount detection step exceeds a predetermined deviation allowable range, execution of a use restriction process for executing processing for restricting the use of the parallax value calculated in the parallax value calculation step And causing the computer to execute a process,
The use restriction process execution step sets the predetermined deviation allowable range based on the speed detection result detected by the moving speed detection means so that the predetermined deviation allowable range is widened as the moving speed of the moving body is slow. A program for calculating a parallax value, characterized by being changed.
JP2012131514A 2012-06-11 2012-06-11 Disparity value calculation device, disparity value calculation system including the same, moving surface area recognition system, disparity value calculation method, and disparity value calculation program Active JP5950193B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012131514A JP5950193B2 (en) 2012-06-11 2012-06-11 Disparity value calculation device, disparity value calculation system including the same, moving surface area recognition system, disparity value calculation method, and disparity value calculation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012131514A JP5950193B2 (en) 2012-06-11 2012-06-11 Disparity value calculation device, disparity value calculation system including the same, moving surface area recognition system, disparity value calculation method, and disparity value calculation program

Publications (2)

Publication Number Publication Date
JP2013257151A JP2013257151A (en) 2013-12-26
JP5950193B2 true JP5950193B2 (en) 2016-07-13

Family

ID=49953718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012131514A Active JP5950193B2 (en) 2012-06-11 2012-06-11 Disparity value calculation device, disparity value calculation system including the same, moving surface area recognition system, disparity value calculation method, and disparity value calculation program

Country Status (1)

Country Link
JP (1) JP5950193B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6248533B2 (en) * 2013-10-22 2017-12-20 富士通株式会社 Image processing apparatus, image processing method, and image processing program
JP6521645B2 (en) * 2015-01-23 2019-05-29 シャープ株式会社 Image measurement device
KR101894731B1 (en) * 2016-11-28 2018-09-04 동국대학교 산학협력단 System and method for vehicle collision avoidance

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003028635A (en) * 2001-07-16 2003-01-29 Honda Motor Co Ltd Image range finder
JP5293131B2 (en) * 2008-12-09 2013-09-18 株式会社リコー Compound eye distance measuring device for vehicle and compound eye distance measuring method
JP2011205388A (en) * 2010-03-25 2011-10-13 Sony Corp Signal processing apparatus and method, and program

Also Published As

Publication number Publication date
JP2013257151A (en) 2013-12-26

Similar Documents

Publication Publication Date Title
US9230165B2 (en) Object detection apparatus, vehicle-mounted device control system and storage medium of program of object detection
EP2400315B1 (en) Travel distance detection device and travel distance detection method
JP6202367B2 (en) Image processing device, distance measurement device, mobile device control system, mobile device, and image processing program
JP4654163B2 (en) Vehicle surrounding environment recognition device and system
EP2546602B1 (en) Stereo camera apparatus
JP6014440B2 (en) Moving object recognition device
EP2927054B1 (en) On-vehicle control device
EP2741256B1 (en) Moving body detection device and method
US9965690B2 (en) On-vehicle control device
JP5561064B2 (en) Vehicle object recognition device
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
JP2014006882A (en) Road surface slope recognition device, road surface slope recognition method, and road surface slope recognition program
JP2014006885A (en) Level difference recognition apparatus, level difference recognition method, and program for level difference recognition
JP4901275B2 (en) Travel guidance obstacle detection device and vehicle control device
JP6315308B2 (en) Control object identification device, mobile device control system, and control object recognition program
JP2013250907A (en) Parallax calculation device, parallax calculation method and parallax calculation program
US20180012068A1 (en) Moving object detection device, image processing device, moving object detection method, and integrated circuit
JP4721278B2 (en) Lane departure determination device, lane departure prevention device, and lane tracking support device
JP5950193B2 (en) Disparity value calculation device, disparity value calculation system including the same, moving surface area recognition system, disparity value calculation method, and disparity value calculation program
JP2017010078A (en) Road surface sign detection apparatus and road surface sign detection method
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP2014016981A (en) Movement surface recognition device, movement surface recognition method, and movement surface recognition program
JP2019053685A (en) Image processing device
JP2007199932A (en) Image processor and its method
JP2007310591A (en) Image processor and parking space determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160318

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160526

R151 Written notification of patent or utility model registration

Ref document number: 5950193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151