JP2019190847A - Stereo camera device - Google Patents
Stereo camera device Download PDFInfo
- Publication number
- JP2019190847A JP2019190847A JP2018080074A JP2018080074A JP2019190847A JP 2019190847 A JP2019190847 A JP 2019190847A JP 2018080074 A JP2018080074 A JP 2018080074A JP 2018080074 A JP2018080074 A JP 2018080074A JP 2019190847 A JP2019190847 A JP 2019190847A
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- parallax offset
- correction amount
- feature point
- offset correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
Abstract
Description
本発明は、ステレオカメラ装置に関する。 The present invention relates to a stereo camera device.
対象物の三次元位置を推定する手段として、ステレオカメラシステムが知られている。ステレオカメラシステムでは、複数の位置に配置したカメラによって同一対象物を異なる複数の視点から撮像し、複数のカメラでそれぞれ得られた複数の画像における見え方のずれ(所謂、視差)に基づいて対象物までの距離を算出する。また、ステレオカメラシステムでの対象物までの距離の算出では、視差などの情報のほかに、視差オフセットと呼ばれる視差に生じるオフセット状の誤差を考慮する。この視差オフセットは、振動や温度変化によるカメラ等の装置の歪み、ねじ締め時に発生する物理的な負荷などによって経時的に変化するため、対象物までの距離を正確に算出するためには、視差オフセットを校正する必要がある。 Stereo camera systems are known as means for estimating the three-dimensional position of an object. In a stereo camera system, the same object is imaged from a plurality of different viewpoints by cameras arranged at a plurality of positions, and the object is based on a shift in view (so-called parallax) in a plurality of images respectively obtained by the plurality of cameras. Calculate the distance to the object. In addition, in the calculation of the distance to the object in the stereo camera system, in addition to information such as parallax, an offset error that occurs in parallax called parallax offset is considered. This parallax offset changes over time due to distortions in devices such as cameras due to vibration and temperature changes, and physical loads that occur during screw tightening, so in order to accurately calculate the distance to the object, the parallax offset The offset needs to be calibrated.
車両などの移動体に搭載されるステレオカメラシステムでは、静止物を複数のカメラで撮像した画像から得られる視差に基づいて車両に対する静止物の距離変化を算出し、その距離変化と移動体の移動量とを比較することによって、距離変化と移動量が等しくなるように視差オフセットを算出する校正方法が知られている。しかしながら、この校正方法では、静止物であると判定可能な物体が撮像されたときのみ視差オフセットの算出が可能であり、視差オフセットを校正する機会を十分に確保することができない。 In a stereo camera system mounted on a moving body such as a vehicle, the distance change of the stationary object relative to the vehicle is calculated based on the parallax obtained from images obtained by capturing the still object with a plurality of cameras, and the distance change and the movement of the moving object A calibration method is known in which the parallax offset is calculated so that the distance change and the movement amount are equal by comparing the amounts. However, with this calibration method, the parallax offset can be calculated only when an object that can be determined to be a stationary object is imaged, and a sufficient opportunity to calibrate the parallax offset cannot be ensured.
そこで、視差オフセットの校正機会増加を目的とする技術として、例えば、特許文献1には、物体までの距離検出を行うステレオカメラ装置であって、前記装置は、基線長だけ離間して設置された2台のカメラと、前記2台のカメラによって取得された画像から画像上の物体までの距離を計算するための演算手段とを備え、前記演算手段は、前記2台のカメラにより取得された画像の対応点を探索し、対応点の撮像面上の位置座標の差から2つの視差を計算する画像処理手段と、少なくとも2つの時刻において前記画像処理手段により規定された前記2つの視差から前記画像全体に渡って視差オフセット値を計算するオフセット値計算手段と、前記視差オフセット値の分布を統計解析し、校正パラメータとして使用する前記視差オフセット値の最適値を決定する統計処理手段とを備える、ステレオカメラ装置が開示されている。 Therefore, as a technique for increasing the calibration opportunity of the parallax offset, for example, Patent Document 1 is a stereo camera device that detects a distance to an object, and the device is installed apart by a base line length. Two cameras, and calculation means for calculating a distance from an image acquired by the two cameras to an object on the image, wherein the calculation means is an image acquired by the two cameras. An image processing unit that searches for corresponding points of the corresponding point and calculates two parallaxes from a difference in position coordinates of the corresponding points on the imaging surface, and the image from the two parallaxes defined by the image processing unit at least at two times Offset value calculation means for calculating the parallax offset value over the whole, and the parallax offset value used as a calibration parameter by statistically analyzing the distribution of the parallax offset value And a statistical processing means for determining an optimum value, the stereo camera apparatus is disclosed.
しかしながら、上記従来技術においては、複数のカメラで撮像した画像上で検知した特徴点の視差を用いることで移動体の移動距離を算出し、視差オフセットの校正機会を増加させようとしているものの、画像全体について特徴点を追跡して視差を取得しようとすると処理負荷が非常に高くなり、算出コストを考慮すると十分な数の特徴点について視差の取得ができないことが考えられる。また、画像上での特徴点の検知が必ずしも正確に行えるわけではないため、画像上の似た点を特徴点として誤追跡してしまうことで、誤った視差オフセットを算出してしまうことも考えられる。 However, in the above-described prior art, although the moving distance of the moving object is calculated by using the parallax of the feature points detected on the images captured by a plurality of cameras, the opportunity to calibrate the parallax offset is increased. If it is attempted to acquire parallax by tracking feature points as a whole, the processing load becomes very high, and it is considered that parallax cannot be acquired for a sufficient number of feature points considering the calculation cost. In addition, since feature points on an image cannot always be detected accurately, it may be possible to calculate an incorrect parallax offset by mistracking similar points on the image as feature points. It is done.
本発明は上記に鑑みてなされたものであり、視差オフセットの算出精度を確保しつつ、算出コストを低減することができるステレオカメラ装置を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a stereo camera device capable of reducing the calculation cost while ensuring the calculation accuracy of the parallax offset.
本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、車両に配置された複数の撮像部を有する撮像装置と、前記複数の撮像部の間の視差オフセットを補正するための視差オフセット補正量を用い、前記複数の撮像部でそれぞれ撮像された複数の画像に基づいて視差画像を生成する視差画像生成部、及び、前記視差画像に基づいて前記複数の撮像部に対する対象物の相対位置を算出する相対位置算出部を有する画像処理装置とを備えたステレオカメラ装置において、前記画像処理装置は、前記複数の撮像部でそれぞれ撮像された前記複数の画像の特徴点を検出する特徴点検出部と、前記複数の撮像部のそれぞれにおいて異なる時刻に撮像された前記複数の画像の間で前記特徴点を追跡する特徴点追跡部と、前記特徴点追跡部における前記複数の画像に対する前記特徴点の追跡を前記複数の画像の一部の追跡範囲に制限する追跡範囲決定部と、前記異なる時刻の間における前記車両の移動距離と前記特徴点追跡部で追跡した特徴点についての視差とに基づいて、前記複数の撮像部の間の視差オフセットを補正するための視差オフセット補正量を算出する視差オフセット補正量算出部とを備えたものとする。 The present application includes a plurality of means for solving the above-described problems. To give an example, a parallax offset between an imaging device having a plurality of imaging units arranged in a vehicle and the plurality of imaging units is corrected. A parallax image generating unit that generates a parallax image based on a plurality of images respectively captured by the plurality of imaging units, and a target for the plurality of imaging units based on the parallax image In a stereo camera device comprising an image processing device having a relative position calculation unit for calculating a relative position of an object, the image processing device detects feature points of the plurality of images respectively captured by the plurality of imaging units. A feature point detecting unit, a feature point tracking unit that tracks the feature point between the plurality of images captured at different times in each of the plurality of imaging units, and the feature point A tracking range determining unit that limits tracking of the feature points for the plurality of images in a trace unit to a tracking range of a part of the plurality of images, and a moving distance of the vehicle between the different times and the feature point tracking unit. A parallax offset correction amount calculation unit that calculates a parallax offset correction amount for correcting a parallax offset between the plurality of imaging units based on the parallax with respect to the tracked feature point is provided.
本発明によれば、視差オフセットの算出精度を確保しつつ、算出コストを低減することができる。 According to the present invention, it is possible to reduce the calculation cost while ensuring the calculation accuracy of the parallax offset.
以下、本発明の実施の形態について図面を参照しつつ説明する。 Embodiments of the present invention will be described below with reference to the drawings.
<第1の実施の形態>
本発明の第1の実施の形態を図1〜図14を参照しつつ説明する。
<First Embodiment>
A first embodiment of the present invention will be described with reference to FIGS.
図1は、本実施の形態に係るステレオカメラ装置のハードウェア構成を示す図である。 FIG. 1 is a diagram illustrating a hardware configuration of the stereo camera device according to the present embodiment.
図1において、ステレオカメラ装置100は、左カメラ111及び右カメラ112の左右一対のカメラ(撮像部)を有するステレオカメラ110(撮像装置)と、記憶装置であるリードオンリーメモリ(ROM)やランダムアクセスメモリ(RAM)などのメモリ130とプロセッサである中央処理装置(CPU)140とから構成される画像処理装置120と、ステレオカメラ装置100と外部のセンサ類や他の装置などの外部装置160との間でCAN(Control Area Network)通信などにより通信を行うためのインタフェース150とを備えており、ステレオカメラ110、画像処理装置120、及び、インタフェース150は、互いに情報の授受を行うための通信路であるバスライン100aにより接続されている。
In FIG. 1, a
本実施の形態においては、ステレオカメラ装置100は自動車などの車両1(図3等参照)に搭載される車載ステレオカメラ装置であり、外部装置160としては、アクセルの開度(すなわち、スロットル開度)、ブレーキの操作量(すなわち、ブレーキペダルの操作量)、ステアリングの操舵角、車速、加速度、温度、湿度などを検出する各種センサ類のほか、車両1の各種動作を制御するECU(Electronic Control Unit)などがある。なお、インタフェース150を介して取得する各種情報は、CAN通信路(CANバス)上を流れるエンジン回転や、車速、車輪速、操舵角、スロットル開度などの種々の情報であっても良く、例えば、ECUが車輪の回転数を検出するセンサなどで得られた情報から車速を演算してCAN通信路に流した結果を取得しても良い。また、画像処理装置120には、図示しないが、例えば、基板上に配置される素子としてのメモリ130やCPU140等の温度を検出する素子温度センサが設けられている。
In the present embodiment, the
メモリ130は、画像処理装置における各種処理に用いる制御プログラムと各種情報とが記憶された記録媒体である。CPU140は、メモリ130に記憶された制御プログラムに従ってインタフェース150を介して取り入れた信号に対して所定の演算処理を行い、立体物や路面の検知、対象物2(図3参照)の位置(対象物2までの距離や方向)の算出等を行う。CPU140による演算結果は、インタフェース150を介して外部装置160(ECUなど)に出力され、アクセルやブレーキ、ステアリングなど車両1の各種動作の判断や制御に用いられる。なお、画像処理装置120のメモリ130(記憶装置)としてROM及びRAMという半導体メモリを例示したが、記憶装置であれば特に代替可能であり、例えばハードディスクドライブ等の磁気記憶装置としても良い。
The
ステレオカメラ110が有する複数(本実施の形態では2台)のカメラ(左カメラ111及び右カメラ112)は、互いの光軸が平行となるように所定の光軸間隔(基線長)で配置されており、それぞれ、CCDやCMOSなどのイメージセンサや光学レンズなどにより構成されている。ステレオカメラ110は、車載ステレオカメラであり、左カメラ111及び右カメラ112によって車両1の前方が撮像されるように配置される。
A plurality of (two in this embodiment) cameras (the
図2は、本実施の形態に係る画像処理装置の処理機能を関連構成とともに抜き出して示す機能ブロック図である。 FIG. 2 is a functional block diagram showing extracted processing functions of the image processing apparatus according to the present embodiment together with related components.
図2において、画像処理装置120は、ステレオカメラ110の左カメラ111及び右カメラ112の視差における誤差(以降、視差オフセットと称する)を補正するための補正量(視差オフセット補正量)を算出して出力する視差オフセット補正部121と、左カメラ111及び右カメラ112でそれぞれ撮像された複数の画像に基づいて、視差オフセット補正量を用いて視差画像(視差を画素値とした画像)を生成する視差画像生成部122と、視差画像生成部122で生成された視差画像に基づいてステレオカメラ110に対する対象物2の相対位置(対象物2までの距離や方向)を算出する距離算出部123(相対位置算出部)とを有している。距離算出部123で算出された対象物2の相対位置(対象物2までの距離や方向)は、インタフェース150を介して外部装置160に送られるほか、画像処理装置120のメモリ130等に記憶される。
In FIG. 2, the
視差オフセットとは、視差に生じるオフセット状の誤差である。視差オフセットの値はステレオカメラ110を構成する左カメラ111及び右カメラ112の設置位置によって予め決定されるが、設置後に生じる振動や温度変化による装置の歪み、ねじ締め時に発生する物理的な負荷などによって経時的に変化する。本実施の形態に係る視差オフセット補正部121では、視差オフセットの値を適切に補正するための視差オフセット補正量を視差オフセットの経時的変化に応じて算出する。視差画像生成部122では、左カメラ111及び右カメラ112で得られた画像に基づく視差を視差オフセット補正部121で算出された視差オフセット補正量を用いて補正することで視差画像を生成することにより、視差画像の精度を向上させる。したがって、視差画像の精度が向上することにより、距離算出部123で視差画像を用いて距離を算出する際の誤差の発生を抑制することができるので、対象物の三次元位置を正確に推定することができる。
The parallax offset is an offset error that occurs in the parallax. The value of the parallax offset is determined in advance depending on the installation positions of the
ここで、本実施の形態における視差オフセット補正量を算出する処理(以降、視差オフセット補正量算出処理と称する)の基本原理について図3を参照しつつ説明する。 Here, the basic principle of the process of calculating the parallax offset correction amount (hereinafter referred to as the parallax offset correction amount calculation process) in the present embodiment will be described with reference to FIG.
図3は、視差オフセット補正量算出処理の基本原理を説明する図である。 FIG. 3 is a diagram for explaining the basic principle of the parallax offset correction amount calculation processing.
図3においては、本実施の形態のステレオカメラ装置100が搭載される車両1の時刻t1における位置s1と対象物(静止物体)との距離をL1、時刻t2における位置s2と対象物(静止物体)との距離を距離L2とし、時刻t1における車両1の位置s1と時刻t2における車両1の位置s2の距離を移動量dzとしている。なお、ステレオカメラ装置100の車両1に対する相対位置(取付位置)は既知であるため、ステレオカメラ110から対象物2までの距離と車両1から対象物2までの距離とは実質的に同じものとして考える。
In FIG. 3, the distance between the position s1 and the target object (stationary object) at time t1 of the vehicle 1 on which the
本実施の形態のように2台のカメラ(左カメラ111及び右カメラ112)を用いるステレオカメラ装置100では、ステレオカメラ110(又は車両1)から対象物までの距離Z[mm]は、下記の(式1)により表される。
In the
上記の(式1)において、f[mm]は左カメラ111及び右カメラ112の焦点距離、wi[mm/px]は画素ピッチ、B[mm]は左カメラ111と右カメラ112の光軸間距離(すなわち、基線長)、d[mm]は視差、ε[px]は視差オフセットをそれぞれ表している。
In the above (Formula 1), f [mm] is the focal length of the
車両1などの移動体に搭載されたステレオカメラ装置100では、静止している対象物2(静止物体)の視差に基づいて移動する車両1から対象物2までの距離を算出し、この距離の所定時間における変化(すなわち、対象物の視差に基づく車両1の移動距離)と車両1の移動量(視差以外の情報から得られる車両1の移動距離)とを比較して車両1から対象物2までの距離変化と車両1の移動量とが等しくなるように視差オフセットを選ぶことで、ステレオカメラ110の視差オフセットを推定することができる。すなわち、この視差オフセットをキャンセルするように視差オフセット補正量を算出すことにより、視差画像生成部122で生成される視差画像の精度を向上させ、距離算出部123で距離を算出する際の誤差の発生を抑制することができる。
The
図3に示した複数(本実施の形態では2つ)の異なる時刻(時刻t1,時刻t2)における視差をそれぞれ視差d1[px],視差d2[px]とすれば、視差から算出された車両1から対象物2までの距離変化と車両1の移動量とは下記の(式2)を満たす。
If the parallaxes at a plurality of (two in the present embodiment) different times (time t1, time t2) shown in FIG. 3 are parallax d1 [px] and parallax d2 [px], respectively, the vehicle calculated from the parallax The change in distance from 1 to the
上記の(式2)をε(視差オフセット)について解くことで、視差オフセットを推定することができ、この視差オフセットから視差オフセット補正量を算出する。 By solving (Equation 2) above for ε (parallax offset), the parallax offset can be estimated, and the parallax offset correction amount is calculated from this parallax offset.
図4は、視差オフセット補正部の処理機能を示す機能ブロック図である。 FIG. 4 is a functional block diagram illustrating processing functions of the parallax offset correction unit.
図4において、視差オフセット補正部121は、ステレオカメラ110の左カメラ111及び右カメラ112でそれぞれ撮像された複数の画像(ここでは、左カメラ111と右カメラ112とで同時刻に撮像された2つの画像)について、互いに対応する特徴点を検出する特徴点検出部220と、左カメラ111及び右カメラ112のそれぞれにおいて異なる時刻に撮像された複数の画像の間で特徴点を追跡する特徴点追跡部240と、特徴点追跡部240における特徴点の追跡の範囲を画像中の一部に制限する(追跡範囲を決定する)追跡範囲決定部230と、特徴点追跡部240で追跡した特徴点についての視差と、特徴点の追跡を行った異なる時刻間での車両の移動距離とに基づいて視差オフセットを算出する視差オフセット補正量算出部250と、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、特徴点検出部220で特徴点を検出する領域を画像中の一部に制限する(特徴点検出領域を決定する)特徴点検出領域決定部210とを有している。
In FIG. 4, the parallax offset
図5は、特徴点検出領域決定部の処理機能を示す機能ブロック図である。 FIG. 5 is a functional block diagram illustrating processing functions of the feature point detection region determination unit.
図5において、特徴点検出領域決定部210は、ステレオカメラ110の左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれ画像について、視差の得られていない領域を排除する視差未算出領域排除部211と、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、視差の精度が低い領域を排除する視差不安定領域排除部212と、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、予め定めた特定の物体の領域を排除する特定物体領域排除部213とを有している。
In FIG. 5, the feature point detection
特徴点検出領域決定部210では、特徴点を検出すべきでない領域を排除する、逆に言えば、特徴点を検出する領域を制限する(すなわち、特徴点を検出する領域(特徴点検出領域)を決定する)ことで処理時間の短縮と精度の向上を図っている。本実施の形態では、三次元的に静止している領域の時系列的な視差変化を用いて視差オフセットの値を推定している。したがって、テクスチャがなく視差を算出できない領域や、視差の精度が低い特定のパターンの領域、移動している物体が撮像されている領域において特徴点検出を行う必要がないため、これらの領域を排除した領域を特徴点を検出する対象となる領域(特徴点検出領域)として決定することで、処理時間の短縮と精度の向上が期待できる。
The feature point detection
図6〜図9は、特徴点検出領域決定部で排除の対象となる画像中の領域の一例を説明する図である。図6は、特徴点検出領域決定部で扱う画像の一例を示す図である。また図7は図6に示す画像のうち視差未算出領域排除部で排除の対象となる領域の一例を、図8は図6に示す画像のうち視差不安定領域排除部で排除の対象となる領域の一例を、図9は図6に示す画像のうち特定物体領域排除部で排除の対象となる領域の一例をそれぞれ示している。 6 to 9 are diagrams illustrating an example of an area in an image to be excluded by the feature point detection area determination unit. FIG. 6 is a diagram illustrating an example of an image handled by the feature point detection region determination unit. 7 shows an example of a region to be excluded by the parallax non-calculated region exclusion unit in the image shown in FIG. 6, and FIG. 8 shows a target to be excluded by the parallax unstable region exclusion unit in the image shown in FIG. FIG. 9 shows an example of an area, and FIG. 9 shows an example of an area to be excluded by the specific object area exclusion unit in the image shown in FIG.
図7に示すように、視差未算出領域排除部211では、画像300において視差が算出されない領域(視差未算出領域311〜313)を排除する。領域311〜313で例示した排除対象の領域は、画像300において、例えば、テクスチャがなく視差を算出できない領域である。すなわち、排除対象の領域としては、画像300中において空などが撮像された領域311や、道路などが撮像された領域311,312が考えられる。なお、視差を算出できない排除対象の領域の選択では、例えば、過去の時点で生成した視差画像において、視差の得られていない領域を選択すれば良い。また、視差を算出する際に得られる左右の画像がどれだけ一致しているかを表すマッチングコストなどの数値を利用し、一致度合いが低い点(画素)は、視差が得られていた場合であっても排除するように構成しても良い。
As illustrated in FIG. 7, the parallax non-calculated
図8に示すように、視差不安定領域排除部212では、画像300において視差の精度が低い可能性のある領域(視差不安定領域321)を排除する。領域321で例示した排除対象の領域は、画像300において、例えば、柵など細かい繰り返しパターンの領域321であり、視差画像の生成過程において誤った視差が算出される可能性がある。
As illustrated in FIG. 8, the parallax unstable
図9に示すように、特定物体領域排除部213では、画像300において特定物体が撮像されている領域(特定物体領域331〜333)を排除する。ここでいう特定物体とは、静止していない可能性が高い物体のことである。すなわち、排除対象の領域としては、画像300中において、移動している可能性が高い車両が撮像された領域331,332や歩行者が撮像された領域333が考えられる。なお、領域331〜333の抽出、すなわち、車両や歩行者などの特定物体の抽出は、例えば、予め保持しているパターンとの適合率で判定を行うパターンマッチングなどの方法により行うことができる。また、上記の特定物体に限らず、例えば、他の特定の物体を検知して追跡した結果、移動していると判断された物体についても排除するようにしても良い。
As illustrated in FIG. 9, the specific object
なお、図6〜図9においては、視差未算出領域排除部211で排除する視差が算出されない領域311〜113、視差不安定領域排除部212で排除する視差の精度が引く可能性のある領域321、及び、特定物体領域排除部213で排除する特定物体が撮像されている領域331〜333として、それぞれ、排除対象となる領域をある一定の範囲として表現して説明したが、これらの領域は複数画素が連なる領域である必要はなく、1画素単位を領域と考えて視差の有無や精度、特定物体の撮像有無などを判定し、視差未算出領域311〜113、視差不安定領域321、又は、特定物体領域331〜333の何れかであるかどうかを判定しても良い。
6 to 9, the
また、図5においては、特徴点検出領域決定部210の処理として、視差未算出領域排除部211、視差不安定領域排除部212、特定物体領域排除部213の順序で処理を行う場合を例示して説明したが、これに限られず、これらの処理機能の順番を入れ替えて特徴点検出領域決定部210を構成しても良い。
In addition, FIG. 5 illustrates a case where the processing of the feature point detection
特徴点検出部220は、特徴点検出領域決定部210で決定した特徴点検出領域(すなわち、例えば、画像300のうち、視差未算出領域311〜113、視差不安定領域321、及び、特定物体領域331〜333として排除した領域以外の範囲)において、1つ以上の特徴点の検出を行う。特徴点の検出方法としては、例えば、FAST(Features from Accelerated Segment Test)を用いることができる。FASTは、ある点(画素)について、その周辺画素と比べて異なる輝度を持つかどうかを高速に判定するもので、高速に特徴のある点を見つける手法として良く用いられるものである。
The feature
図10は、追跡範囲決定部の処理機能を示す機能ブロック図である。また、図11及び図12は、特徴点追跡部による特徴点の追跡の様子を示す図である。 FIG. 10 is a functional block diagram illustrating processing functions of the tracking range determination unit. FIG. 11 and FIG. 12 are diagrams showing how feature points are tracked by the feature point tracking unit.
図11及び図12に示すように、特徴点追跡部240は、ある時刻t1における画像410で撮像された1つ以上の特徴点(ここでは、特徴点p1を例示する)に対応する点を時刻t1よりも後の他の時刻t2における画像420上で検知された複数の特徴点から探索し、探索した特徴点p2を特徴点p1と対応付けることにより、特徴点の追跡を行う。なお、本実施の形態においては、1つ以上の特徴点のうち、特徴点p1のみを例示して説明する。
As shown in FIGS. 11 and 12, the feature
特徴点追跡部240での特徴点の追跡においては、時刻t1,t2の画像410,420間で誤った特徴点を対応付けてしまった場合には、視差オフセット補正部121において、誤った視差オフセットを算出してしまう(すなわち、誤った視差オフセット補正量を算出してしまう)ことになるため、撮像時刻t1,t2の異なる画像410,420間において対応する特徴点p1,p2を精度よく追跡することが必要となる。そこで、追跡範囲決定部230では、特徴点追跡部240において追跡の対象となる特徴点の追跡の範囲を画像中の一部に制限する(追跡範囲を決定する)。これにより、特徴点追跡部240での特徴点p1の追跡を追跡範囲に絞ることにより、撮像時刻t1,t2の異なる画像410,420間における誤った特徴点との対応付けの発生を抑制することができる。また、対応する特徴点であるかどうかを判定する対象となる特徴点の数を減らすことがことから、処理時間の削減も期待できる。
In the tracking of feature points by the feature
図10において、追跡範囲決定部230は、時刻t1において撮像された画像410上のある特徴点p1が時刻t2に撮像された画像420上において撮像されていると予測される位置(撮像予想位置p11)を算出する撮像予想位置算出部231と、撮像予想位置算出部231で算出された撮像予想位置p11に基づいて、時刻t2に撮像された画像420上において特徴点p1に対応する特徴点p2が撮像されていると予測される範囲(撮像予想領域411)を探索範囲として算出する撮像予想領域算出部232とを有している。
In FIG. 10, the tracking
撮像予想位置算出部231は、時刻t1において撮像された画像410上のある特徴点p1が時刻t2に撮像された画像420上において撮像されていると予測される位置(撮像予想位置p11)を算出する。本実施の形態においては、特徴点検出領域決定部210において、3次元的に静止しているものだけを特徴点としての検出対象としているため、画像410(時刻t1)と画像420(時刻t2)間で特徴点の撮像位置が変わるのは車両1(自車)の移動が要因であると言える。
The predicted imaging
したがって、時刻t1で撮像された画像410における、ある特徴点p1のカメラ座標系(例えば、ステレオカメラ装置100を基準とする座標系で、ステレオカメラ装置100の中心に原点を設定し、上方にz軸、前方にy軸、右方にx軸を設定した座標系)における3次元位置(X1,Y1,Z1)と、画像410における画像座標系(例えば、画像410,420の左下角に原点を設定し、右方向にi軸、上方向にj軸を設定した座標系)における位置(i1,j1)とから、時刻t2で撮像された画像420における画像座標系での撮像予想位置p11の位置(i2,j2)は、下記の(式3)及び(式4)で表される。
Therefore, in the
上記の(式3)及び(式4)において、f[mm]は焦点距離、wi[mm/px]は画素ピッチ、v[mm/s]は外部装置160に含まれる車速センサより得られる車両1(自車)の車速をそれぞれ表している。なお、本実施の形態においては説明の簡単のため、車両1(自車)が等速度vで前進している場合を考える。
In the above (Expression 3) and (Expression 4), f [mm] is a focal length, wi [mm / px] is a pixel pitch, and v [mm / s] is a vehicle obtained from a vehicle speed sensor included in the
撮像予想領域算出部232は、撮像予想位置算出部231で算出された撮像予想位置p11に基づいて、時刻t2に撮像された画像420上において特徴点p1に対応する特徴点p2が撮像されていると予測される範囲(撮像予想領域411)を探索範囲として算出する。撮像予想領域算出部232で算出された探索範囲は、追跡範囲決定部230から追跡範囲として特徴点追跡部240に出力される。
The predicted imaging
この撮像予想領域411を設定して追跡範囲として出力することにより、特徴点p1が静止している場合には特徴点追跡部240において精度の良い追跡が可能となる。また、時刻t2に撮像された画像420おいて多くの検知特徴点がある場合であっても、追跡範囲を設定したことで不要な特徴点の追跡に計算コストをかけることなく範囲外として弾くことができる。この追跡範囲の設定は、特に、縞模様などの繰り返しパターン(例えば、視差不安定領域排除部212では除去対象とならなかったような繰り返しパターン)においても有効であり、似通った特徴点が画像上に複数個現れていた場合でも、静止物らしい移動をしている点だけを選んで対応付けすることが可能である。
By setting the predicted
図13及び図14は、撮像予想領域算出部における撮像予想領域(探索範囲)の算出方法の一例を模式的に示す図である。 FIG. 13 and FIG. 14 are diagrams schematically illustrating an example of a method for calculating a predicted imaging region (search range) in the predicted imaging region calculation unit.
撮像予想領域算出部232において、撮像予想領域411は、例えば、画像410において、撮像予想位置算出部231で算出された撮像予想位置p11を中心とし、視差誤差による撮像位置のずれが考えられる方向と、ピッチングによる撮像位置のずれが考えられる方向とに、それらの誤差を考慮した範囲で設定する。
In the predicted imaging
視差誤差は、画像410の中心から撮像予想位置p11を通るような線分に沿って発生する(すなわち、画像410の中心から放射方向に発生する)ので、この線分に沿う方向に撮像予想位置p11を中心として、画像410の中心方向と、画像410の中心とは逆方向とにそれぞれ視差誤差の発生しうる範囲を設定する。また、ピッチングは、画像410の上下方向に発生するので、撮像予想位置p11を中心として上下方向にピッチングにより発生しうる誤差の範囲を設定する。そして、視差誤差とピッチングとにより発生する誤差の範囲の両方を考慮した範囲を撮像予想領域411として設定する。このとき、撮像予想領域411は、画像410の中心から撮像予想位置p11を通るような線分に沿う2本の線分と、画像410の上下方向に延びる2本の線分とで囲まれた領域となる。
Since the parallax error occurs along a line segment that passes from the center of the
このように、誤差が大きいと考えられる視差誤差と、車載環境下では車両が加減速や微妙な凹凸上を走行することで発生するピッチングによる垂直方向の検知位置の誤差とを考慮することにより、撮像予想領域411を適切に設定することができる。
In this way, by considering the parallax error that is considered to be large and the error in the detection position in the vertical direction due to pitching that occurs when the vehicle travels on acceleration / deceleration and subtle unevenness in the in-vehicle environment, The expected
なお、撮像予想位置算出部231での演算に用いる他のカメラ特性に係るパラメータ、すなわち、焦点距離f、画素ピッチwi、速度v、時刻t1,t2、時刻t1における撮像位置(i1、j1)、時刻t2における撮像位置(i2,j2)などを考慮して撮像予想領域411を設定するように構成しても良い。
It should be noted that parameters relating to other camera characteristics used for the calculation in the predicted imaging
特徴点追跡部240は、特徴点検出部220で検出された1つ以上の特徴点のそれぞれについて、追跡範囲決定部230によって設定された追跡範囲において異なる時刻に撮像された複数の画像間で対応する特徴点の探索を行う。すなわち、特徴点追跡部240では、異なる時刻に撮像された複数の画像間で対応づいた特徴点について、時系列の視差情報を算出する。
The feature
視差オフセット補正量算出部250は、特徴点追跡部240で得られた特徴点の時系列の視差情報と、車両1(自車)の移動量(移動距離)とを用いて視差オフセット補正量算出処理を行い、視差オフセット補正量を算出する。なお、本実施の形態では、2つの異なる時刻について得られた視差情報を用いて視差オフセット補正量を算出する場合を例示して説明したが、例えば、時系列的に多くのデータを使うことで安定性を高めることが可能である。なお、3つ以上の異なる時刻について得られた視差情報を用いる場合には、視差オフセットを算出のための式が冗長となり一意には解けないため、最適化計算で視差オフセットを算出する。また、複数の特徴点の情報を用いて視差オフセットを算出することも考えられる。
The parallax offset correction
以上のように構成した本実施の形態に係る作用効果を説明する。 The operational effects according to the present embodiment configured as described above will be described.
従来技術においては、複数のカメラで撮像した画像上で検知した特徴点の視差を用いることで移動体の移動距離を算出し、視差オフセットの校正機会を増加させようとしているものの、画像全体について特徴点を追跡して視差を取得しようとすると処理負荷が非常に高くなり、算出コストを考慮すると十分な数の特徴点について視差の取得ができないことが考えられる。また、画像上での特徴点の検知が必ずしも正確に行えるわけではないため、画像上の似た点を特徴点として誤追跡してしまうことで、誤った視差オフセットを算出してしまうことも考えられる。 In the prior art, the moving distance of the moving object is calculated by using the parallax of the feature points detected on the images captured by a plurality of cameras to increase the calibration opportunity of the parallax offset. If it is attempted to acquire parallax by tracking points, the processing load becomes very high, and it is considered that parallax cannot be acquired for a sufficient number of feature points in consideration of the calculation cost. In addition, since feature points on an image cannot always be detected accurately, it may be possible to calculate an incorrect parallax offset by mistracking similar points on the image as feature points. It is done.
これに対して、本実施の形態においては、車両1に配置された複数の左カメラ111及び右カメラ112を有するステレオカメラ110と、左カメラ111及び右カメラ112の間の視差オフセットを補正するための視差オフセット補正量を用い、左カメラ111及び右カメラ112でそれぞれ撮像された複数の画像に基づいて視差画像を生成する視差画像生成部122、及び、視差画像に基づいて左カメラ111及び右カメラ112に対する対象物の相対位置を算出する距離算出部123を有する画像処理装置120とを備えたステレオカメラ装置100において、画像処理装置120が、左カメラ111及び右カメラ112でそれぞれ撮像された複数の画像の特徴点を検出する特徴点検出部220と、左カメラ111及び右カメラ112のそれぞれにおいて異なる時刻に撮像された複数の画像の間で特徴点を追跡する特徴点追跡部240と、特徴点追跡部240における複数の画像に対する特徴点の追跡を複数の画像の一部の追跡範囲に制限する追跡範囲決定部230と、異なる時刻の間における車両1の移動距離と特徴点追跡部240で追跡した特徴点についての視差とに基づいて、左カメラ111及び右カメラ112の間の視差オフセットを補正するための視差オフセット補正量を算出する視差オフセット補正量算出部250とを備えるように構成したので、視差オフセットの算出精度を確保しつつ、算出コストを低減することができる。
On the other hand, in the present embodiment, in order to correct the parallax offset between the
すなわち、本実施の形態においては、追跡範囲決定部230において、特徴点追跡部240における複数の画像に対する特徴点の追跡を複数の画像の一部の追跡範囲(探索範囲)に制限するように構成したので、追跡対象の特徴点を他の特徴点と誤って対応付けてしまう可能性を抑制することにより、視差オフセットの算出精度を確保することができ、また、特徴点の追跡範囲を画像の一部に制限することによって、特徴点の対応の判定に係る処理量を低減することができ、算出コストを低減することができる。
That is, in the present embodiment, the tracking
また、追跡範囲決定部230においては、特に誤差の大きいと考えられる視差オフセットと車両のピッチング量とに基づいて追跡範囲を決定するように構成したので、より精度良く追跡範囲を決定することができ、視差オフセットの算出精度を確保することができる。
In addition, since the tracking
また、特徴点検出領域決定部210においては、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、特徴点検出部220で特徴点を検出する領域を画像中の一部に制限した特徴点検出領域を決定するように構成したので、特徴点を検出すべきでない領域を排除することで処理時間の短縮と精度の向上を図ることができる。
In addition, in the feature point detection
また、特徴点検出領域決定部210では、視差未算出領域排除部211において、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、視差の得られていない領域を排除するように構成したので、テクスチャがなく視差を算出できない領域を排除することができ、処理時間の短縮と精度の向上を図ることができる。
In addition, the feature point detection
また、特徴点検出領域決定部210では、視差不安定領域排除部212において、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、視差の精度が低い領域を排除するように構成したので、視差の精度が低い特定のパターンの領域を排除することができ、処理時間の短縮と精度の向上を図ることができる。
Further, the feature point detection
また、特徴点検出領域決定部210では、特定物体領域排除部213において、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、予め定めた特定の物体の領域を排除するように構成したので、移動している物体が撮像されている領域を排除することができ、処理時間の短縮と精度の向上を図ることができる。
Further, in the feature point detection
<第2の実施の形態>
本発明の第2の実施の形態を図15及び図16を参照しつつ説明する。本実施の形態では、第1の実施の形態との相違点についてのみ説明するものとし、本実施の形態で用いる図面において第1の実施の形態と同様の部材には同じ符号を付し、説明を省略する。
<Second Embodiment>
A second embodiment of the present invention will be described with reference to FIGS. In the present embodiment, only differences from the first embodiment will be described. In the drawings used in the present embodiment, the same members as those in the first embodiment are denoted by the same reference numerals and described. Is omitted.
本実施の形態は、視差オフセット補正量を精度良く算出可能な状態であるかに基づいて、視差オフセット補正量の算出(視差オフセット補正量算出処理)を行うかどうかを判定する視差オフセット補正量算出判定部610を備えた場合を示すものである。本実施の形態において、視差オフセット補正量を精度良く求めるためには、視差オフセット補正量の算出に用いるパラメータである自車の移動量と視差を精度良く求めること、及び、仮定としている静止している点の視差だけを用いること、の2点の条件を満たすことが重要である。そこで、この2点の条件を満たさないと考えられるシーンにおいては、視差オフセット補正量算出処理を実行しないことを視差オフセット補正量算出判定部610で簡易的に判定することにより、視差オフセット補正量の精度を確保することができる。
In the present embodiment, the parallax offset correction amount calculation for determining whether to calculate the parallax offset correction amount (parallax offset correction amount calculation processing) based on whether the parallax offset correction amount can be accurately calculated. The case where the
図15は、本実施の形態に係る視差オフセット補正部の処理機能を示す機能ブロック図である。 FIG. 15 is a functional block diagram showing processing functions of the parallax offset correction unit according to the present embodiment.
図15において、本実施の形態における視差オフセット補正部121Aは、所定の条件に基づいて、視差オフセットを算出するかどうかを判定する視差オフセット補正量算出判定部610と、視差オフセット補正量算出判定部610で視差オフセットを算出すると判定した場合に、ステレオカメラ110の左カメラ111及び右カメラ112でそれぞれ撮像された複数の画像(ここでは、左カメラ111と右カメラ112とで同時刻に撮像された2つの画像)について、互いに対応する特徴点を検出する特徴点検出部220と、左カメラ111及び右カメラ112のそれぞれにおいて異なる時刻に撮像された複数の画像の間で特徴点を追跡する特徴点追跡部240と、特徴点追跡部240における特徴点の追跡の範囲を画像中の一部に制限する(追跡範囲を決定する)追跡範囲決定部230と、特徴点追跡部240で追跡した特徴点についての視差と、特徴点の追跡を行った異なる時刻間での車両の移動距離とに基づいて視差オフセットを算出する視差オフセット補正量算出部250と、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、特徴点検出部220で特徴点を検出する領域を画像中の一部に制限する(特徴点検出領域を決定する)特徴点検出領域決定部210とを有している。
In FIG. 15, the parallax offset
図16は、視差オフセット算出判定部の処理機能を示す機能ブロック図である。 FIG. 16 is a functional block diagram illustrating processing functions of the parallax offset calculation determination unit.
図16において、視差オフセット補正量算出判定部610は、車両1(自車)の速度に基づいて視差オフセット補正量の算出を行うかどうかを判定する速度判定部611と、車両1(自車)の加速度に基づいて視差オフセット補正量の算出を行うかどうかを判定する加速度判定部612と、車両1(自車)が直進しているかどうかに基づいて視差オフセット補正量の算出を行うかどうかを判定する直進判定部613と、視差オフセット補正量を算出してよいシーンであるかどうかに基づいて、視差オフセット補正量の算出を行うかどうかを判定するシーン判定部614とを有している。判定部611〜614の少なくとも何れか1つにおいて視差オフセット補正量算出処理を実行しないと判定した場合は、視差オフセット補正量算出判定部610での判定結果として、視差オフセット補正量算出処理を実行しないとする判定結果を特徴点検出領域決定部210に出力し、特徴点検出領域決定部210の処理に連なる視差オフセット算出処理の一連の処理を実行しない。
In FIG. 16, a parallax offset correction amount
速度判定部611は、車両1(自車)の速度に応じて、視差オフセット補正量を算出するかどうかを判定する。一般的に、車両に取り付けられた速度センサは低速域において誤差が大きくなる事が知られており、したがって、低速域では外部装置160に含まれる車速センサの検出値を用いて算出される車両1(自車)の移動量の誤差が大きくなると考えられる。そこで、速度判定部611では、例えば、外部装置160に含まれる車速センサによる検出値が20km/h以下の場合には、車両1(自車)の移動量に発生する誤差が許容範囲を超えると判断して、視差オフセット補正量算出処理を実行しないと判定する。
The
加速度判定部612は、車両1(自車)の加速度に応じて、視差オフセット補正量を算出するかどうかを判定する。外部装置160に含まれる各種センサから得られる値は検出から画像処理装置120での受信までに時間的な遅れが発生するため、加減速時にはステレオカメラ110での撮像時刻と速度とが誤って対応付けられる可能性がある。そこで、加速度判定部612では、外部装置160に含まれる加速度センサによる検出値が予め定めた閾値以上の場合、すなわち、許容範囲以上の加減速が行われている場合には、ステレオカメラ110での撮像時刻と速度とが誤って対応付けられる可能性が許容範囲を超えると判断して、視差オフセット補正量算出処理を実行しないと判定する。このような加速度判定部612では、車両1のスリップ状態での視差オフセット補正量算出処理の実行も回避することができる。なお、加速度(加速および減速)は、速度センサの検出値の単位時間における変化量(差分値)や、或いは、外部装置160に含まれるジャイロセンサの出力を観測する事で判定するように構成しても良い。
The
直進判定部613は、車両1(自車)が直進しているかどうかに基づいて、視差オフセット補正量を算出するかどうかを判定する。車両1のカーブ路走行時には、車両1の移動量の推定値の誤差が大きくなる。そこで、直進判定部613では、車両1が直進していると判断できる場合以外は、視差オフセット補正量算出処理を実行しないと判定する。なお、車両1が直進しているかどうか(カーブ走行であるかどうか)の判定は、外部装置160に含まれるナビゲーションシステム等からのGPS情報や、地図データ、操舵角やヨーレートなどを検出する車両センサからの検出値などに基づいて判定することができる。すなわち、例えば、外部装置160に含まれる操舵角センサの検出値が予め定めた範囲外である場合に、視差オフセット補正量算出処理を実行しないと判定する。
The straight
シーン判定部614は、視差オフセット補正量を算出してよいシーンであるかどうかに基づいて、視差オフセット補正量の算出を行うかどうかを判定する。例えば、車両1の渋滞路走行中には、ステレオカメラ110の視界の大部分において低速で動く物体が撮像されるため、静止物体と移動物体との区別が難しくなり、移動物体上で特徴点を検知してしまうことにより、誤った視差オフセット補正値を算出してしまう可能性が高くなる。そこで、シーン判定部614では、例えば、外部装置160に含まれるナビゲーションシステム等から渋滞路走行中であるかどうかの情報を取得し、渋滞路走行中である場合には、視差オフセット補正量を算出してよいシーンではないと判断して、視差オフセット補正量算出処理を実施しないと判定する。なお、同様の理由から、例えば、商店街などの人通りの多い道を走行している場合にも、視差オフセット補正量を算出してよいシーンではないと判断して、視差オフセット補正量算出処理を実施しないと判定する。
The
図17は、視差オフセット補正量算出判定部において視差オフセット補正量算出処理を実行しないと判定する場合の条件の一覧を示す図である。 FIG. 17 is a diagram illustrating a list of conditions when it is determined that the parallax offset correction amount calculation determination unit does not execute the parallax offset correction amount calculation processing.
図17から分かるように、視差オフセット補正量算出判定部610では、外部装置160に含まれる各種センサ類からの入力値や、ナビゲーションシステムからの情報をもとに視差オフセット補正量算出処理を実行するかどうかを判定するため、高速に処理を完了することができ、視差オフセット補正量算出処理を実行すべきでないシーンでは計算リソースを確保する事が可能である。
As can be seen from FIG. 17, the parallax offset correction amount
なお、視差オフセット補正量算出判定部610における、速度判定部611、加速度判定部612、直進判定部613、及び、シーン判定部614での各判定処理は互いに独立に行うことができるので、これらの判定部611〜614のうちの一部を必要に応じて用いるように構成しても良い。例えば、低速域でも精度の良い車速センサを用いている車両1においては、速度判定部611を省略することができ、また、カーブ走行時の移動量を精度よくモデル化できるのであれば、直進判定部613を省略することができる。すなわち、視差オフセット補正量算出判定部610においては、実施時の構成要素に合わせて必要な判定だけを行うように構成すれば良い。
In addition, since each determination process in the
その他の構成は第1の実施の形態と同様である。 Other configurations are the same as those of the first embodiment.
以上のように構成した本実施の形態においても第1の実施の形態と同様の効果を得ることができる。 In the present embodiment configured as described above, the same effects as those of the first embodiment can be obtained.
また、本実施の形態においては、視差オフセット補正量の算出誤差が大きくなることが考えられるシーンにおいては、視差オフセット補正量算出処理を実行しないように構成したので、視差オフセット補正量の算出に適さない状態で特徴点検出などの処理を実行する事がなくなり、計算リソースを他の処理に割り当てる事ができる。また、誤った視差オフセット補正量を算出する可能性を低減することができる。 Further, in the present embodiment, in a scene where the calculation error of the parallax offset correction amount is considered to be large, the parallax offset correction amount calculation process is not executed, which is suitable for calculating the parallax offset correction amount. It is no longer necessary to execute processing such as feature point detection in a state where there is no data, and calculation resources can be allocated to other processing. In addition, the possibility of calculating an incorrect parallax offset correction amount can be reduced.
<第3の実施の形態>
本発明の第3の実施の形態を図18を参照しつつ説明する。本実施の形態では、第2の実施の形態との相違点についてのみ説明するものとし、本実施の形態で用いる図面において第2の実施の形態と同様の部材には同じ符号を付し、説明を省略する。
<Third Embodiment>
A third embodiment of the present invention will be described with reference to FIG. In the present embodiment, only differences from the second embodiment will be described. In the drawings used in the present embodiment, members similar to those of the second embodiment are denoted by the same reference numerals and described. Is omitted.
本実施の形態は、第2の実施の形態の視差オフセット補正部121Aに設けられた、視差オフセット補正量算出処理を実行しない場合を判定する視差オフセット補正量算出判定部610に代えて、視差オフセット補正量算出処理を実行する場合を判定する視差オフセット補正量算出判定部610Aを備えたものである。すなわち、本実施の形態においては、視差オフセット補正量算出判定部610Aが視差オフセット補正量算出処理を実行すると判定した場合に、視差オフセット補正部121Aは視差オフセット算出処理を実行する。したがって、本実施の形態においては、視差オフセット補正量算出処理を実行し、視差オフセット補正量を更新すべき状態であるにも関わらず、視差オフセット補正量算出処理を実施しないというケースがなくなり、適切なタイミングで視差オフセット補正量を更新する事ができる。
In the present embodiment, instead of the parallax offset correction amount
図18は、本実の形態に係る視差オフセット補正量算出判定部の処理機能を示す機能ブロック図である。 FIG. 18 is a functional block diagram illustrating processing functions of the parallax offset correction amount calculation determination unit according to the present embodiment.
図18において、本実施の形態における視差オフセット補正量算出判定部610Aは、ステレオカメラ110の周辺環境の変化に基づいて視差オフセット補正量の算出を行うかどうかを判定する環境変化判定部615と、前回の視差オフセット補正値算出処理の実行からの経過時間に基づいて視差オフセット補正量の算出を行うかどうかを判定する経過時間判定部616とを有している。判定部615,616の少なくとも何れか一方において視差オフセット補正量算出処理を実行すると判定した場合は、視差オフセット補正量算出判定部610Aでの判定結果として、視差オフセット補正量算出処理を実行するとする判定結果を特徴点検出領域決定部210に出力し、特徴点検出領域決定部210の処理に連なる視差オフセット算出処理の一連の処理を実行する。
In FIG. 18, the parallax offset correction amount
環境変化判定部615は、ステレオカメラ110の周辺環境が、前回の視差オフセット補正量算出処理の実行時の環境と比較して大きく変化しているかどうかに基づいて、視差オフセット補正量を算出するかどうかを判定する。ステレオカメラ110の周辺環境としては、例えば、湿度や温度などがあり、温度や湿度の変化によって筐体の変形などが発生し、視差オフセットが変化している可能性が高いと考えられる場合には、急ぎこれを補正する必要がある。そこで、環境変化判定部615では、外部装置160に含まれる温度センサや湿度センサからの検出値の前回の視差オフセット補正量算出処理の実行時からの変化量が予め定めた閾値よりも大きい場合には、ステレオカメラ110の周辺環境が大きく変化したと判断して、視差オフセット補正量算出処理を実行すると判定する。
Whether the environment
経過時間判定部616は、前回の視差オフセット補正値算出処理の実行からの経過時間に基づいて、視差オフセット補正量を算出するかどうかを判定する。ステレオカメラ110は、経年変化などの何らかの要因で視差オフセットが変化することが考えられる。そこで、経過時間判定部616では、前回の視差オフセット補正値算出処理の実行からの経過時間が予め定めた閾値以上である場合には、視差オフセットが変化している可能性が高いと判断して、視差オフセット星量算出処理を実行すると判定する。なお、経年劣化に対応する場合には、例えば、数ヶ月の期間を閾値として設定すればよい。また、ブレーキや人の手がぶつかったことによる衝撃などに対応する場合には、数日〜数週間程度の期間を閾値として設定することで、視差オフセットがずれたまま走行するケースを防止する事ができる。
The elapsed
その他の構成は第1及び第2の実施の形態と同様である。 Other configurations are the same as those of the first and second embodiments.
以上のように構成した本実施の形態においても第1の実施の形態と同様の効果を得ることができる。 In the present embodiment configured as described above, the same effects as those of the first embodiment can be obtained.
また、本実施の形態においては、実際に視差オフセットを算出することなく、視差オフセット補正量を算出すべき状況を判定して処理を実行する事ができるので、通常時には視差オフセット補正量算出処理を行わない事で計算リソースを確保しつつ、必要なタイミングでは動作し、視差の精度を確保する事が可能である。 Further, in the present embodiment, it is possible to determine the situation in which the parallax offset correction amount should be calculated without actually calculating the parallax offset, and to execute the process. It is possible to ensure the accuracy of parallax by operating at a necessary timing while securing the calculation resources by not performing.
<付記>
なお、本発明は上記の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内の様々な変形例や組み合わせが含まれる。また、本発明は、上記の実施の形態で説明した全ての構成を備えるものに限定されず、その構成の一部を削除したものも含まれる。また、上記の各構成、機能等は、それらの一部又は全部を、例えば集積回路で設計する等により実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
<Appendix>
In addition, this invention is not limited to said embodiment, Various modifications and combinations within the range which does not deviate from the summary are included. Further, the present invention is not limited to the one having all the configurations described in the above embodiment, and includes a configuration in which a part of the configuration is deleted. Moreover, you may implement | achieve part or all of said each structure, function, etc., for example by designing with an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor.
1…車両、2…対象物、100…ステレオカメラ装置、100a…バスライン、110…ステレオカメラ、111…左カメラ、112…右カメラ、113…視差未算出領域、120…画像処理装置、121,121A…視差オフセット補正部、122…視差画像生成部、123…距離算出部、130…メモリ、140…中央処理装置(CPU)、150…インタフェース、160…外部装置、210…特徴点検出領域決定部、211…視差未算出領域排除部、212…視差不安定領域排除部、213…特定物体領域排除部、220…特徴点検出部、230…追跡範囲決定部、231…撮像予想位置算出部、232…撮像予想領域算出部、240…特徴点追跡部、250…視差オフセット補正量算出部、300,410,420…画像、311…視差未算出領域、321…視差不安定領域、331…特定物体領域、332…特定物体領域、333…特定物体領域、411…撮像予想領域、610…視差オフセット補正量算出判定部、610A…視差オフセット補正量算出判定部、611…速度判定部、612…加速度判定部、613…直進判定部、614…シーン判定部、615…環境変化判定部、616…経過時間判定部
DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Object, 100 ... Stereo camera apparatus, 100a ... Bus line, 110 ... Stereo camera, 111 ... Left camera, 112 ... Right camera, 113 ... Parallax uncalculated area, 120 ... Image processing apparatus, 121, 121A ... Parallax offset
Claims (13)
前記複数の撮像部の間の視差オフセットを補正するための視差オフセット補正量を用い、前記複数の撮像部でそれぞれ撮像された複数の画像に基づいて視差画像を生成する視差画像生成部、及び、前記視差画像に基づいて前記複数の撮像部に対する対象物の相対位置を算出する相対位置算出部を有する画像処理装置と
を備えたステレオカメラ装置において、
前記画像処理装置は、
前記複数の撮像部でそれぞれ撮像された前記複数の画像の特徴点を検出する特徴点検出部と、
前記複数の撮像部のそれぞれにおいて異なる時刻に撮像された前記複数の画像の間で前記特徴点を追跡する特徴点追跡部と、
前記特徴点追跡部における前記複数の画像に対する前記特徴点の追跡を前記複数の画像の一部の追跡範囲に制限する追跡範囲決定部と、
前記異なる時刻の間における前記車両の移動距離と前記特徴点追跡部で追跡した特徴点についての視差とに基づいて、前記複数の撮像部の間の視差オフセットを補正するための視差オフセット補正量を算出する視差オフセット補正量算出部と
を備えたことを特徴とするステレオカメラ装置。 An imaging device having a plurality of imaging units arranged in a vehicle;
A parallax image generation unit configured to generate a parallax image based on a plurality of images respectively captured by the plurality of imaging units using a parallax offset correction amount for correcting a parallax offset between the plurality of imaging units; and In a stereo camera device comprising: an image processing device having a relative position calculation unit that calculates a relative position of an object with respect to the plurality of imaging units based on the parallax images;
The image processing apparatus includes:
A feature point detection unit for detecting feature points of the plurality of images respectively captured by the plurality of imaging units;
A feature point tracking unit that tracks the feature points between the plurality of images captured at different times in each of the plurality of imaging units;
A tracking range determining unit that limits tracking of the feature points for the plurality of images in the feature point tracking unit to a tracking range of a part of the plurality of images;
A parallax offset correction amount for correcting a parallax offset between the plurality of imaging units based on a moving distance of the vehicle between the different times and a parallax about a feature point tracked by the feature point tracking unit. A stereo camera device comprising: a parallax offset correction amount calculation unit for calculating.
前記追跡範囲決定部は、前記視差オフセットと前記車両のピッチング量とに基づいて前記追跡範囲を決定することを特徴とするステレオカメラ装置。 The stereo camera device according to claim 1,
The tracking range determination unit determines the tracking range based on the parallax offset and the pitching amount of the vehicle.
前記複数の撮像部で撮像された複数の画像のそれぞれについて、前記特徴点検出部で前記特徴点を検出する領域を前記画像中の一部に制限した特徴点検出領域を決定する特徴点検出領域決定部をさらに備えたことを特徴とするステレオカメラ装置。 The stereo camera device according to claim 1,
For each of a plurality of images captured by the plurality of imaging units, a feature point detection region for determining a feature point detection region in which a region for detecting the feature point by the feature point detection unit is limited to a part of the image A stereo camera device further comprising a determination unit.
前記特徴点検出領域決定部は、前記複数の撮像部で撮像された複数の画像のそれぞれについて、視差の得られていない領域を排除する視差未算出領域排除部を備えたことを特徴とするステレオカメラ装置。 The stereo camera device according to claim 3,
The feature point detection area determination unit includes a parallax non-calculated area exclusion unit that excludes an area where parallax is not obtained for each of a plurality of images captured by the plurality of imaging units. Camera device.
前記特徴点検出領域決定部は、前記複数の撮像部で撮像された複数の画像のそれぞれについて、視差の精度が低い領域を排除する視差不安定領域排除部を備えたことを特徴とするステレオカメラ装置。 The stereo camera device according to claim 3,
The feature point detection region determination unit includes a parallax unstable region exclusion unit that excludes a region with low parallax accuracy for each of a plurality of images captured by the plurality of imaging units. apparatus.
前記特徴点検出領域決定部は、前記複数の撮像部で撮像された複数の画像のそれぞれについて、予め定めた特定の物体の領域を排除する特定物体領域排除部を備えたことを特徴とするステレオカメラ装置。 The stereo camera device according to claim 3,
The feature point detection region determination unit includes a specific object region exclusion unit that excludes a predetermined specific object region for each of the plurality of images captured by the plurality of imaging units. Camera device.
前記画像処理装置は、所定の条件に基づいて前記視差オフセットを算出するかどうかを判定する視差オフセット補正量算出判定部をさらに備え、
前記視差オフセット補正量算出部は、前記視差オフセット補正量算出判定部で前記視差オフセットを算出しないと判定した場合には前記視差オフセットを算出しないことを特徴とするステレオカメラ装置。 The stereo camera device according to claim 1,
The image processing apparatus further includes a parallax offset correction amount calculation determination unit that determines whether to calculate the parallax offset based on a predetermined condition,
The parallax offset correction amount calculation unit does not calculate the parallax offset when the parallax offset correction amount calculation determination unit determines not to calculate the parallax offset.
前記視差オフセット補正量算出判定部は、前記車両の速度が予め定めた閾値よりも低速である場合に前記視差オフセットを算出しないと判定することを特徴とするステレオカメラ装置。 The stereo camera device according to claim 7,
The parallax offset correction amount calculation determination unit determines that the parallax offset is not calculated when the speed of the vehicle is lower than a predetermined threshold.
前記視差オフセット補正量算出判定部は、前記車両の加速度の絶対値が予め定めた閾値以上でる場合に前記視差オフセットを算出しないと判定することを特徴とするステレオカメラ装置。 The stereo camera device according to claim 7,
The parallax offset correction amount calculation determination unit determines that the parallax offset is not calculated when the absolute value of the acceleration of the vehicle is equal to or greater than a predetermined threshold.
前記視差オフセット補正量算出判定部は、前記車両が直進していない場合に前記視差オフセットを算出しないと判定することを特徴とするステレオカメラ装置。 The stereo camera device according to claim 7,
The parallax offset correction amount calculation determination unit determines that the parallax offset is not calculated when the vehicle is not traveling straight.
前記視差オフセット補正量算出判定部は、前記複数の画像中に低速で移動する物体が多く撮像されている場合に前記視差オフセットを算出しないと判定することを特徴とするステレオカメラ装置。 The stereo camera device according to claim 7,
The parallax offset correction amount calculation determination unit determines that the parallax offset is not calculated when a large number of objects moving at low speed are captured in the plurality of images.
前記視差オフセット補正量算出判定部は、前回の視差オフセット補正量算出時からの湿度及び温度の値の変化量が予め定めた閾値以上である場合に前記視差オフセットを算出することを特徴とするステレオカメラ装置。 The stereo camera device according to claim 7,
The parallax offset correction amount calculation determination unit calculates the parallax offset when the amount of change in humidity and temperature values since a previous parallax offset correction amount calculation is equal to or greater than a predetermined threshold. Camera device.
前記視差オフセット補正量算出判定部は、前回の視差オフセット補正量算出時からの経過時間が閾値以上である場合に前記視差オフセットを算出することを特徴とするステレオカメラ装置。 The stereo camera device according to claim 7,
The parallax offset correction amount calculation determination unit calculates the parallax offset when an elapsed time from the previous parallax offset correction amount calculation is equal to or greater than a threshold.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018080074A JP7118717B2 (en) | 2018-04-18 | 2018-04-18 | Image processing device and stereo camera device |
CN201980025213.0A CN111989541B (en) | 2018-04-18 | 2019-04-04 | Stereo camera device |
PCT/JP2019/014916 WO2019203001A1 (en) | 2018-04-18 | 2019-04-04 | Stereo camera device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018080074A JP7118717B2 (en) | 2018-04-18 | 2018-04-18 | Image processing device and stereo camera device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019190847A true JP2019190847A (en) | 2019-10-31 |
JP7118717B2 JP7118717B2 (en) | 2022-08-16 |
Family
ID=68239556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018080074A Active JP7118717B2 (en) | 2018-04-18 | 2018-04-18 | Image processing device and stereo camera device |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7118717B2 (en) |
CN (1) | CN111989541B (en) |
WO (1) | WO2019203001A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022091579A1 (en) * | 2020-10-28 | 2022-05-05 | 日立Astemo株式会社 | Movement amount calculation device |
CN115248017A (en) * | 2022-09-21 | 2022-10-28 | 江苏新恒基特种装备股份有限公司 | Rapid detection method and detection system for geometric dimension of branch pipe fitting |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01188909A (en) * | 1988-01-22 | 1989-07-28 | Toyota Autom Loom Works Ltd | Deciding method for traveling route of image type unmanned vehicle |
JP2001169310A (en) * | 1999-12-06 | 2001-06-22 | Honda Motor Co Ltd | Distance detector |
JP2003329439A (en) * | 2002-05-15 | 2003-11-19 | Honda Motor Co Ltd | Distance detecting device |
JP2005202761A (en) * | 2004-01-16 | 2005-07-28 | Toyota Motor Corp | Vehicle surrounding monitoring system |
JP2007336228A (en) * | 2006-06-14 | 2007-12-27 | Canon Inc | Imaging apparatus and its control method and program and storage medium |
JP2009110173A (en) * | 2007-10-29 | 2009-05-21 | Fuji Heavy Ind Ltd | Object detection device |
WO2015049717A1 (en) * | 2013-10-01 | 2015-04-09 | 株式会社日立製作所 | Device for estimating position of moving body and method for estimating position of moving body |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6035620B2 (en) * | 2013-07-29 | 2016-11-30 | 株式会社日立製作所 | On-vehicle stereo camera system and calibration method thereof |
-
2018
- 2018-04-18 JP JP2018080074A patent/JP7118717B2/en active Active
-
2019
- 2019-04-04 WO PCT/JP2019/014916 patent/WO2019203001A1/en active Application Filing
- 2019-04-04 CN CN201980025213.0A patent/CN111989541B/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01188909A (en) * | 1988-01-22 | 1989-07-28 | Toyota Autom Loom Works Ltd | Deciding method for traveling route of image type unmanned vehicle |
JP2001169310A (en) * | 1999-12-06 | 2001-06-22 | Honda Motor Co Ltd | Distance detector |
JP2003329439A (en) * | 2002-05-15 | 2003-11-19 | Honda Motor Co Ltd | Distance detecting device |
JP2005202761A (en) * | 2004-01-16 | 2005-07-28 | Toyota Motor Corp | Vehicle surrounding monitoring system |
JP2007336228A (en) * | 2006-06-14 | 2007-12-27 | Canon Inc | Imaging apparatus and its control method and program and storage medium |
JP2009110173A (en) * | 2007-10-29 | 2009-05-21 | Fuji Heavy Ind Ltd | Object detection device |
WO2015049717A1 (en) * | 2013-10-01 | 2015-04-09 | 株式会社日立製作所 | Device for estimating position of moving body and method for estimating position of moving body |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022091579A1 (en) * | 2020-10-28 | 2022-05-05 | 日立Astemo株式会社 | Movement amount calculation device |
CN115248017A (en) * | 2022-09-21 | 2022-10-28 | 江苏新恒基特种装备股份有限公司 | Rapid detection method and detection system for geometric dimension of branch pipe fitting |
CN115248017B (en) * | 2022-09-21 | 2022-11-29 | 江苏新恒基特种装备股份有限公司 | Rapid detection method and detection system for geometric dimension of branch pipe fitting |
Also Published As
Publication number | Publication date |
---|---|
CN111989541A (en) | 2020-11-24 |
WO2019203001A1 (en) | 2019-10-24 |
CN111989541B (en) | 2022-06-07 |
JP7118717B2 (en) | 2022-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9912933B2 (en) | Road surface detection device and road surface detection system | |
US10795370B2 (en) | Travel assist apparatus | |
CN110023951B (en) | Information processing apparatus, image forming apparatus, device control system, information processing method, and computer-readable recording medium | |
JP2007263669A (en) | Three-dimensional coordinates acquisition system | |
JP6936098B2 (en) | Object estimation device | |
US10554951B2 (en) | Method and apparatus for the autocalibration of a vehicle camera system | |
JP2018044880A (en) | Vehicle posture estimation device | |
JPWO2018042954A1 (en) | In-vehicle camera, adjustment method of in-vehicle camera, in-vehicle camera system | |
WO2019203001A1 (en) | Stereo camera device | |
JP6564127B2 (en) | VISUAL SYSTEM FOR AUTOMOBILE AND METHOD FOR CONTROLLING VISUAL SYSTEM | |
JP2015179066A (en) | Parallax value derivation device, apparatus control system, moving body, robot, parallax value derivation method and program | |
JP2019212015A (en) | Time synchronization device/method for vehicle data | |
JP5425500B2 (en) | Calibration apparatus and calibration method | |
US10643077B2 (en) | Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program | |
EP3051494B1 (en) | Method for determining an image depth value depending on an image region, camera system and motor vehicle | |
JP7064400B2 (en) | Object detection device | |
JP5193148B2 (en) | Vehicle imaging device | |
JP7269130B2 (en) | Image processing device | |
JP2018036225A (en) | State estimation device | |
JP2018120303A (en) | Object detection device | |
WO2020036039A1 (en) | Stereo camera device | |
JP7058128B2 (en) | Information processing equipment and programs | |
JP2021018661A (en) | Traffic lane data generation device, position identification device, traffic lane data generation method, and position identification method | |
JP2020042716A (en) | Abnormality detection device and abnormality detection method | |
US11010625B2 (en) | Vehicle exterior environment recognition apparatus and method of recognizing exterior environment outside vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7118717 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |