JP6209825B2 - Parallax detection device and parallax detection method - Google Patents

Parallax detection device and parallax detection method Download PDF

Info

Publication number
JP6209825B2
JP6209825B2 JP2013027248A JP2013027248A JP6209825B2 JP 6209825 B2 JP6209825 B2 JP 6209825B2 JP 2013027248 A JP2013027248 A JP 2013027248A JP 2013027248 A JP2013027248 A JP 2013027248A JP 6209825 B2 JP6209825 B2 JP 6209825B2
Authority
JP
Japan
Prior art keywords
area
image
parallax
matching
frame rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013027248A
Other languages
Japanese (ja)
Other versions
JP2014157433A (en
Inventor
紘之 長野
紘之 長野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013027248A priority Critical patent/JP6209825B2/en
Publication of JP2014157433A publication Critical patent/JP2014157433A/en
Application granted granted Critical
Publication of JP6209825B2 publication Critical patent/JP6209825B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、ステレオカメラで撮影された1対の画像の視差を検出する視差検出装置に関する。   The present invention relates to a parallax detection device that detects parallax of a pair of images photographed by a stereo camera.

ステレオカメラを用いて歩行者や車両などの障害物を検出する障害物検出装置が実用化されている。障害物検出装置は、同時刻に撮像された複数の画像にテンプレートマッチングを施し、複数の画像における同一対象物の位置ずれ(視差)を算出する。視差が算出されると、算出した視差を周知の変換式に適用することで対象物の実空間上の位置を算出できる。障害物検出装置は監視システムや車載システムとして利用される他、多様な用途が検討されている。   An obstacle detection apparatus that detects an obstacle such as a pedestrian or a vehicle using a stereo camera has been put into practical use. The obstacle detection device performs template matching on a plurality of images taken at the same time, and calculates a positional shift (parallax) of the same object in the plurality of images. When the parallax is calculated, the position of the object in the real space can be calculated by applying the calculated parallax to a known conversion formula. The obstacle detection device is used as a monitoring system or an in-vehicle system, and various uses are being studied.

ステレオ画像処理に含まれる処理として、間隔をあけて設置された複数のカメラが撮影した一対の撮像画像に対して、三角測量技術を適用して距離を求める処理がある。ステレオ画像処理には、一対の撮像手段(カメラ)と、これらの撮像手段が出力する一対の撮像画像に対して三角測量処理を適用するステレオ画像処理LSIと、が使用されることが一般的である。   As processing included in the stereo image processing, there is processing for obtaining a distance by applying a triangulation technique to a pair of captured images captured by a plurality of cameras installed at intervals. In stereo image processing, a pair of imaging means (cameras) and a stereo image processing LSI that applies triangulation processing to a pair of captured images output by these imaging means are generally used. is there.

ステレオ画像処理LSI は、一対の撮像画像に含まれる画素情報を重ね合わせて2つの画像の一致した位置のずれ量(視差)を求めるという処理を行なうことによって、三角測量処理を実現する。   The stereo image processing LSI realizes a triangulation process by performing a process of superimposing pixel information included in a pair of captured images to obtain a shift amount (parallax) of the coincident positions of the two images.

三角測量処理により算出される計測距離Zは、視差d、焦点距離f、基線長(複数のカメラの間隔)bから、
Z=b・f/d
として算出される。この式から明らかなように、距離Zは視差dが小さいほど大きくなる(遠くなる)。
距離の精度を上げるためには、高解像度の撮像素子を用いて視差の分解能を上げればよいが、高解像度の撮像素子を用いるとステレオ画像処理LSIの負荷が増大してしまう。このため、ステレオ画像処理LSIの処理性能を維持する為には、回路を並列化する等の大規模化が必要となりコスト増を招いてしまう。
The measurement distance Z calculated by the triangulation process is calculated from the parallax d, the focal length f, and the base line length (interval between a plurality of cameras) b.
Z = b · f / d
Is calculated as As is clear from this equation, the distance Z increases (distant) as the parallax d decreases.
In order to increase the accuracy of the distance, the resolution of the parallax may be increased using a high-resolution image sensor, but if a high-resolution image sensor is used, the load on the stereo image processing LSI increases. For this reason, in order to maintain the processing performance of the stereo image processing LSI, it is necessary to increase the scale such as paralleling the circuits, resulting in an increase in cost.

ステレオ画像処理LSIの負荷を低減する技術として、走行環境に応じて視差を算出する領域を限定する方法が考えられている(例えば、特許文献1参照。)。特許文献1には、車両の前進後退,ハンドル角、車速,障害物の有無,車両の回転速度,車両の旋回半径,昼夜間,道路形状,高速道路走行と一般道路走行の別のいずれかの走行環境に応じて、処理する画像領域を決定するステレオカメラ装置が開示されている。   As a technique for reducing the load on the stereo image processing LSI, a method of limiting the area for calculating the parallax according to the traveling environment is considered (for example, see Patent Document 1). In Patent Document 1, any one of vehicle forward / backward, steering angle, vehicle speed, presence / absence of obstacles, vehicle rotation speed, vehicle turning radius, day / night, road shape, highway driving and general road driving A stereo camera device that determines an image area to be processed in accordance with a traveling environment is disclosed.

しかしながら、特許文献1に開示されたステレオカメラ装置は、走行環境に応じて決定された視差計算の領域外に、障害物が存在していた場合に検出できないという問題がある。例えば、ハンドル角が左方向に操舵されていても、障害物が右方向から接近していた場合に障害物を検出することが困難である。   However, the stereo camera device disclosed in Patent Literature 1 has a problem that it cannot be detected when an obstacle exists outside the parallax calculation area determined according to the traveling environment. For example, even when the steering wheel angle is steered to the left, it is difficult to detect an obstacle when the obstacle is approaching from the right.

本発明は、上記課題に鑑み、対象物を的確に検出しながらステレオ画像処理の負荷を低減可能な視差検出装置を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide a parallax detection device capable of reducing the load of stereo image processing while accurately detecting an object.

本発明は、ステレオカメラで撮影された1対の画像の視差を検出する視差検出装置であって、第1の画像を撮影する第1の撮影手段と、第2の画像を撮影する第2の撮影手段とが離間して配置されたステレオカメラと、前記第1の画像からエッジを検出してエッジ画像を作成するエッジ画像作成手段と、前記第1の画像のエッジ部分に対応する前記第2の画像の画素位置を起点に、前記第2の画像を水平方向に移動させ、前記第1の画像との類似度が最大になる画素位置を視差情報として算出する視差算出手段と、移動速度検出手段により検出された当該視差検出装置の移動速度に基づき、前記視差算出手段が類似度を算出する算出対象領域を設定するマッチング領域設定手段と、外部からステレオカメラのフレームレートの設定を受け付けるフレームレート設定受付手段と、フレームレートに対応づけて前記算出対象領域の広さ情報が登録された領域広さ指示情報テーブルと、を有し、 前記マッチング領域設定手段は、前記フレームレートに応じて前記領域広さ指示情報テーブルから読み出した前記広さ情報の前記算出対象領域を前記移動速度に応じた場所に設定する、ことを特徴とする。 The present invention is a parallax detection device that detects parallax of a pair of images taken by a stereo camera, and includes a first imaging unit that takes a first image and a second image that takes a second image. A stereo camera that is spaced apart from the photographing unit, an edge image creating unit that creates an edge image by detecting an edge from the first image, and the second corresponding to an edge portion of the first image Parallax calculation means for moving the second image in the horizontal direction starting from the pixel position of the first image and calculating as the parallax information the pixel position having the maximum similarity to the first image, and moving speed detection based on the moving speed of the parallax detection device detected by means, the parallax calculating unit accepts the matching area setting means for setting a calculation target region to calculate a similarity, the set frame rate of the stereo camera from the outside A frame rate setting reception unit; and an area size instruction information table in which size information of the calculation target region is registered in association with a frame rate, and the matching region setting unit is configured to respond to the frame rate. The calculation target area of the area information read from the area area instruction information table is set at a location corresponding to the moving speed .

対象物を的確に検出しながらステレオ画像処理の負荷を低減可能な視差検出装置を提供することができる。   It is possible to provide a parallax detection device capable of reducing the load of stereo image processing while accurately detecting an object.

本実施形態の障害物検出装置の概略的な特徴を説明する図の一例である。It is an example of the figure explaining the schematic characteristic of the obstacle detection apparatus of this embodiment. 車両におけるステレオカメラの搭載例を説明する図の一例である。It is an example of the figure explaining the example of mounting of the stereo camera in a vehicle. 障害物検出装置のハードウェア構成図の一例を示す図である。It is a figure which shows an example of the hardware block diagram of an obstruction detection apparatus. 視差演算部によるマッチング処理について説明する図の一例である。It is an example of the figure explaining the matching process by a parallax calculating part. マッチング領域の設定について説明する図の一例である。It is an example of the figure explaining the setting of a matching area | region. マッチング領域の広さ(幅)について説明する図の一例である。It is an example of the figure explaining the width (width) of a matching area | region. マッチング領域の幅の動的な決定について説明する図の一例である。It is an example of the figure explaining the dynamic determination of the width | variety of a matching area | region. 車速に応じたマッチング領域の幅の決定について説明する図の一例である。It is an example of the figure explaining determination of the width | variety of the matching area | region according to a vehicle speed. 車速とマッチング領域の関係を模式的に説明する図の一例である。It is an example of the figure which illustrates typically the relation between a vehicle speed and a matching field. 障害物検出装置が視差を算出する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which an obstacle detection apparatus calculates parallax. 障害物検出装置が視差を算出する手順を示すフローチャート図の一例である(実施例2)。(Example 2) which is an example of the flowchart figure which shows the procedure in which an obstacle detection apparatus calculates parallax. 係数kとフレームレートの対応を示す図の一例である。It is an example of the figure which shows a response | compatibility with the coefficient k and a frame rate. 障害物検出装置が視差を算出する手順を示すフローチャート図の一例である(実施例3)。(Example 3) which is an example of the flowchart figure which shows the procedure in which an obstacle detection apparatus calculates parallax. 障害物検出装置のハードウェア構成図の一例である(実施例4)。It is an example of the hardware block diagram of an obstruction detection apparatus (Example 4). 障害物検出装置が視差を算出する手順を示すフローチャート図の一例である(実施例4)。(Example 4) which is an example of the flowchart figure which shows the procedure in which an obstacle detection apparatus calculates parallax. 車載された表示装置に表示されるマッチング領域設定画面の一例を示す図である。It is a figure which shows an example of the matching area | region setting screen displayed on the vehicle-mounted display apparatus.

以下、本発明を実施するための形態について図面を参照しながら説明する。しかしながら、本発明の技術的範囲が、本実施の形態に限定されるものではない。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. However, the technical scope of the present invention is not limited to this embodiment.

図1は、本実施形態の障害物検出装置の概略的な特徴を説明する図の一例である。自車両の前方に障害物(図では歩行者)が存在する。自車両のステレオカメラは障害物を撮影している。障害物検出装置は、画像に処理を施してテクスチャ画像(例えばエッジ画像)を作成し、障害物が存在する画素位置を検出している。   FIG. 1 is an example of a diagram illustrating schematic features of the obstacle detection apparatus according to the present embodiment. There is an obstacle (pedestrian in the figure) in front of the host vehicle. The vehicle's stereo camera is shooting obstacles. The obstacle detection device performs processing on the image to create a texture image (for example, an edge image), and detects a pixel position where the obstacle exists.

図1(a)の車両は低速で走行している。低速の車両では、障害物の移動速度が車速に比べて大きくなる。低速で接近するおそれがあるのは自車両から見て近くの障害物であり、また、低速ではステレオカメラの撮影範囲に急に障害物が現れる(進入してくる)可能性がある。そこで、本実施例の障害物検出装置は、車速が低速な場合、車両から近い近傍領域の画素(図の斜線部。テクスチャ対象物から遠い領域)を視差検出領域(以下、マッチング領域という)に決定する。   The vehicle in FIG. 1A is traveling at a low speed. In a low-speed vehicle, the moving speed of the obstacle is higher than the vehicle speed. There is a possibility of approaching at a low speed near obstacles as viewed from the own vehicle, and at a low speed, there is a possibility that the obstacles suddenly appear (approach) in the shooting range of the stereo camera. Therefore, in the obstacle detection device of this embodiment, when the vehicle speed is low, pixels in the vicinity area (shaded area in the figure; area far from the texture object) near the vehicle are used as a parallax detection area (hereinafter referred to as a matching area). decide.

図1(b)の車両は高速で走行している。高速の車両では、障害物の移動速度が車速に比べて小さい。このような状況では、検出されている障害物との相対速度が大きく短時間に遠方の障害物に接近するため、検出するべきは自車両が遠方領域の障害物である。そこで、本実施例の障害物検出装置は、車速が高速な場合、車両が遠い遠方領域の画素(図の斜線部。テクスチャ対象物から近い領域)をマッチング領域に決定する。   The vehicle shown in FIG. 1B is traveling at a high speed. In a high-speed vehicle, the moving speed of the obstacle is smaller than the vehicle speed. In such a situation, since the relative speed with the detected obstacle is large and approaches a distant obstacle in a short time, the vehicle to be detected is an obstacle in a far region. Therefore, when the vehicle speed is high, the obstacle detection apparatus according to the present embodiment determines a pixel in a distant area where the vehicle is far (shaded area in the drawing, an area close to the texture object) as a matching area.

上記のように、距離Zは視差dが小さいほど大きくなるので、障害物が遠方にあれば、1対の画像データにおいてテクスチャ対象物に対応する被撮影物の画素上の距離は近いはずである。逆に、障害物が近傍にあれば、1対の画像データにおいてテクスチャ対象物に対応する被撮影物の画素上の距離は遠いはずである。したがって、図1(a)(b)のようにマッチング領域を設定することで、検出すべき障害物を効率的に検出できる。   As described above, since the distance Z increases as the parallax d decreases, if the obstacle is far away, the distance on the pixel of the object corresponding to the texture object in the pair of image data should be short. . Conversely, if there is an obstacle in the vicinity, the distance on the pixel of the object corresponding to the texture object in the pair of image data should be long. Therefore, the obstacle to be detected can be efficiently detected by setting the matching area as shown in FIGS.

したがって、車速が低速な場合も高速な場合も、マッチング領域は画像データの一部でよいので、ステレオカメラの解像度を上げても、処理負荷が増大することを抑制できる。   Therefore, whether the vehicle speed is low or high, the matching area may be a part of the image data, so that an increase in processing load can be suppressed even if the resolution of the stereo camera is increased.

〔構成例〕
図2は、車両におけるステレオカメラの搭載例を説明する図の一例である。ステレオカメラは、例えば自車両の前方、後方、左右の側方などを撮影可能なように搭載される。自車両の前方を撮影するステレオカメラは、例えば、ルームミラーの前側に光軸を車両の前方やや下向きに向けて配置される。自車両の後方を撮影するステレオカメラは、例えば、バックドアの凹部に光軸を車両の後方やや下向きに向けて配置される。側方を撮影するステレオカメラは、例えば、ピラーやルーフパネルに光軸を車両の側方やや下向きに向けて配置される。
[Configuration example]
FIG. 2 is an example of a diagram illustrating an example of mounting a stereo camera in a vehicle. The stereo camera is mounted so that, for example, the front, rear, left and right sides of the host vehicle can be photographed. A stereo camera that captures the front of the host vehicle is, for example, disposed on the front side of a rearview mirror with the optical axis facing slightly forward of the vehicle. A stereo camera that captures the rear of the host vehicle is disposed, for example, in a concave portion of the back door with the optical axis facing the rear of the vehicle slightly downward. A stereo camera that shoots the side is disposed, for example, on a pillar or a roof panel with the optical axis directed slightly toward the side of the vehicle.

なお、配置位置は一例であって、ドアミラーやバンパー内に搭載してもよく図示する搭載場所に限定されない。本実施例では主に車両の前方を撮影するステレオカメラについて説明する。   The arrangement position is merely an example, and it may be mounted in a door mirror or bumper, and is not limited to the illustrated mounting location. In this embodiment, a stereo camera that mainly captures the front of the vehicle will be described.

また、図では、自動車に搭載されているが、ステレオカメラを自転車や自動二輪車に搭載してもよい。また、普通乗用車でなく、トラック、バス、ワンボックスなど動力により移動する物体には好適に適用できる。   In the figure, the stereo camera is mounted on a bicycle or a motorcycle although it is mounted on a vehicle. Further, the present invention can be suitably applied to an object that is moved by power, such as a truck, a bus, and a one box, instead of a normal passenger car.

障害物検出装置は、例えば、車両前方の歩行者との距離、先行車両との距離、その他の地物(標識、信号機、電柱、ガードレール等)や障害物との距離を測定する。また、ステレオカメラの画像データを用いて、対象物との距離を検出する処理以外の画像処理(例えば、白線認識、先行車認識、歩行者認識等)を行ってもよい。障害物検出装置は障害物以外の対象物との距離を測定することも可能である。以下では対象物として主に歩行者を例に説明する。   The obstacle detection device measures, for example, a distance from a pedestrian in front of the vehicle, a distance from a preceding vehicle, a distance from other features (a sign, a traffic light, a power pole, a guardrail, etc.) and an obstacle. Further, image processing (for example, white line recognition, preceding vehicle recognition, pedestrian recognition, etc.) other than the processing for detecting the distance to the object may be performed using the image data of the stereo camera. The obstacle detection device can also measure the distance to an object other than the obstacle. Below, a pedestrian is mainly demonstrated as an example for a target object.

障害物検出装置は、対象物との距離、相対速度、及び、位置(車幅方向の中央を基準とする横位置)を検出する。不図示の支援装置にこれらの情報が送信され、支援装置は、運転支援、駐車支援、ドア開閉支援などの支援を行う。運転支援は、先行車両などの対象物とのTTC(Time To Collision)を算出して、警告や自動制動を行う支援、走行レーン区分標示(白線)や路肩を検出し、走行レーンからの車両の逸脱を防止する支援、などである。駐車支援は、車両が停止した後、ドアから対象物(壁や車の側面)までの距離、それらの面の傾き、面の方向などを検出し、再度の駐車を促す支援などが相当する。ドア開閉支援は、車両が駐車した後、ドアを開放してよいか否かの判断、開放してよい場合は開放可能なドアの開度を制限する支援などが相当する。   The obstacle detection device detects a distance from the object, a relative speed, and a position (a lateral position based on the center in the vehicle width direction). These pieces of information are transmitted to a support device (not shown), and the support device performs support such as driving support, parking support, and door opening / closing support. Driving assistance calculates TTC (Time To Collision) with objects such as preceding vehicles, detects warning and automatic braking, detects driving lane markings (white line) and shoulders, and detects vehicles from the driving lane. Support to prevent deviations, etc. Parking assistance corresponds to assistance for detecting the distance from the door to an object (a wall or a side surface of the vehicle), the inclination of the surface, the direction of the surface, etc. after the vehicle stops, and prompting parking again. The door opening / closing support corresponds to the determination of whether or not the door may be opened after the vehicle is parked, and the assistance to limit the opening degree of the door that can be opened.

図3は、障害物検出装置100のハードウェア構成図の一例を示す図である。ステレオ画像処理LSI30に、ステレオカメラ20、CPU41、メモリ42、車速センサ43、及び、周辺状況センサ44が接続されている。   FIG. 3 is a diagram illustrating an example of a hardware configuration diagram of the obstacle detection apparatus 100. A stereo camera 20, a CPU 41, a memory 42, a vehicle speed sensor 43, and a surrounding situation sensor 44 are connected to the stereo image processing LSI 30.

ステレオカメラ20は、基準画像取得用カメラ21及び比較画像取得用カメラ22を有している。基準画像取得用カメラ21及び比較画像取得用カメラ22は、CMOS又はCCDなどの撮像素子、光学系、及び、ゲインやシャッター速度などを制御する制御部を備えている。撮像素子の解像度(画素数)は特に限定されないが、例えばVGA、SVGA、HD、フルHDなどがある。なお、ステレオカメラ20はデジタル信号を出力するとして説明するが、アナログ信号を出力してステレオ画像処理LSI30がデジタルに変換してもよい。   The stereo camera 20 includes a reference image acquisition camera 21 and a comparative image acquisition camera 22. The reference image acquisition camera 21 and the comparative image acquisition camera 22 include an imaging device such as a CMOS or a CCD, an optical system, and a control unit that controls a gain, a shutter speed, and the like. The resolution (number of pixels) of the image sensor is not particularly limited, and examples thereof include VGA, SVGA, HD, and full HD. Although the stereo camera 20 is described as outputting a digital signal, the stereo image processing LSI 30 may output an analog signal and convert it into digital.

基準画像取得用カメラ21及び比較画像取得用カメラ22は、同じ構造を有するカメラであることが好ましい。同じ構造であれば、1対の画像に視差以外の差異が生じないようにする調整作業が少なくて済むためである。呼称が異なっているのは、ステレオ画像処理LSI30は、基準画像取得用カメラ21が撮影した画像を基準にして、比較画像取得用カメラ22が撮影した画像をずらしながら視差を算出するためである。図示するように、基準画像取得用カメラ21は撮影方向を基準に左側に、比較画像取得用カメラ22は同じく右側に配置されている。なお、ステレオカメラ20が有するカメラは3台以上でもよい。   The reference image acquisition camera 21 and the comparative image acquisition camera 22 are preferably cameras having the same structure. This is because if the structure is the same, less adjustment work is required to prevent a difference other than parallax from occurring in a pair of images. The names are different because the stereo image processing LSI 30 calculates the parallax while shifting the image captured by the comparative image acquisition camera 22 with reference to the image captured by the reference image acquisition camera 21. As shown in the figure, the reference image acquisition camera 21 is arranged on the left side with respect to the shooting direction, and the comparison image acquisition camera 22 is also arranged on the right side. Note that the stereo camera 20 may have three or more cameras.

基準画像取得用カメラ21は、所定の周期毎に画像データを基準データ入力部311へ出力する。以下、基準画像取得用カメラ21が撮影した画像データを「基準画像」という場合がある。その後、歪み補正部32はレンズにより生じた歪みを補正し、基準画像をテクスチャ検出部33及びメモリコントローラ34に出力する。同様に、比較画像取得用カメラ22は、基準画像取得用カメラ21と同じタイミングで(すなわち同じ周期で)、画像データを比較データ入力部312に出力する。以下、比較画像取得用カメラ22が撮影した画像データを「比較画像」という場合がある。歪み補正部36はレンズにより生じた歪みを補正し比較画像をメモリコントローラ34に出力する。   The reference image acquisition camera 21 outputs image data to the reference data input unit 311 every predetermined cycle. Hereinafter, the image data captured by the reference image acquisition camera 21 may be referred to as a “reference image”. Thereafter, the distortion correction unit 32 corrects the distortion generated by the lens and outputs the reference image to the texture detection unit 33 and the memory controller 34. Similarly, the comparison image acquisition camera 22 outputs the image data to the comparison data input unit 312 at the same timing as the reference image acquisition camera 21 (that is, at the same cycle). Hereinafter, the image data captured by the comparative image acquisition camera 22 may be referred to as a “comparison image”. The distortion correction unit 36 corrects distortion generated by the lens and outputs a comparison image to the memory controller 34.

歪み補正について説明する。ステレオカメラ20は、出荷時又は車両搭載後に校正用の被写体(例えば市松模様のチャート)を撮影しキャリブレーションされている。すなわち、カメラのレンズ歪み、光軸ずれ、焦点距離ずれ及び撮像素子歪み等のハード的な内部誤差要因が最小になるように画像データを変換する幾何変換用のLUT(Look Up Table)が生成されている。または、画像データを変換する多項式が作成されている。LUTや多項式は歪み補正部32、26がアクセス可能な記憶素子に記憶されている。歪み補正部32、36は、LUT又は多項式によりレンズなどの歪みを補正する。   The distortion correction will be described. The stereo camera 20 is calibrated by photographing a calibration subject (for example, a checkered chart) at the time of shipment or after mounting on the vehicle. That is, a geometric conversion LUT (Look Up Table) is generated for converting image data so that hardware internal error factors such as camera lens distortion, optical axis deviation, focal length deviation, and image sensor distortion are minimized. ing. Alternatively, a polynomial for converting image data is created. The LUT and the polynomial are stored in a storage element accessible by the distortion correction units 32 and 26. The distortion correction units 32 and 36 correct distortion of a lens or the like using an LUT or a polynomial.

テクスチャ検出部33は、基準画像取得用カメラ21の画像データに対しテクスチャ検出を行い、テクスチャ対象を検出する。これによりテクスチャデータ(画像データ)が作成される。テクスチャデータは、基準画像に存在する物体の輪郭の位置を示したデータである。例えば、基準画像にエッジ検出処理を施し、所定以上のエッジ強度の画素が物体の輪郭の位置として検出される。テクスチャ検出は比較画像取得用カメラ22に対し行ってもよい。この場合、基準画像と比較画像が入れ替わる。   The texture detection unit 33 performs texture detection on the image data of the reference image acquisition camera 21 to detect a texture target. Thereby, texture data (image data) is created. The texture data is data indicating the position of the contour of the object present in the reference image. For example, edge detection processing is performed on the reference image, and pixels having edge strengths equal to or higher than a predetermined level are detected as the position of the contour of the object. The texture detection may be performed on the comparative image acquisition camera 22. In this case, the reference image and the comparison image are interchanged.

メモリコントローラ34は、基準画像、比較画像及びテクスチャデータをメモリ42に蓄積する。メモリ42は、例えばDRAM、SDRAMなどの高速な揮発性メモリである。   The memory controller 34 stores the reference image, comparison image, and texture data in the memory 42. The memory 42 is a high-speed volatile memory such as DRAM or SDRAM.

このようにメモリ42には、周期的に、1セットの基準画像、比較画像及びテクスチャデータが蓄積される。1セットの基準画像、比較画像、テクスチャデータの蓄積が完了すると、メモリコントローラ34はメモリ42から3つのデータを読み出し、視差演算部35へ転送する。   As described above, the memory 42 periodically stores a set of reference images, comparison images, and texture data. When the accumulation of one set of reference image, comparison image, and texture data is completed, the memory controller 34 reads three data from the memory 42 and transfers them to the parallax calculation unit 35.

マッチング開始位置設定部38は、車速センサ43から入力される車速や車両状況センサから入力される車両状況により、適切なマッチング領域を決定し、視差演算部35へマッチング領域を設定する。詳しくは後述する。   The matching start position setting unit 38 determines an appropriate matching region based on the vehicle speed input from the vehicle speed sensor 43 and the vehicle status input from the vehicle status sensor, and sets the matching region to the parallax calculation unit 35. Details will be described later.

視差演算部35はメモリコントローラ34より転送された、テクスチャデータにより基準画像から視差検出を行う画素を特定し、マッチング開始位置設定部38より設定された比較画像のマッチング領域から視差演算を実施し、視差を算出する。   The parallax calculation unit 35 specifies the pixel for performing parallax detection from the reference image based on the texture data transferred from the memory controller 34, performs the parallax calculation from the matching region of the comparison image set by the matching start position setting unit 38, Parallax is calculated.

なお、CPU41は、ステレオ画像処理LSI30と同じ基板に配置されたマイコンに搭載されていてもよいし、別の基板に配置されたマイコンに搭載されていてもよい。CPU41は所定のプログラムを実行して、ステレオ画像処理LSI30を制御する。具体的には、ステレオ画像処理LSI30の起動時などに、フレームレート、解像度、明るさなどを設定する。   Note that the CPU 41 may be mounted on a microcomputer disposed on the same substrate as the stereo image processing LSI 30 or may be mounted on a microcomputer disposed on a different substrate. The CPU 41 executes a predetermined program and controls the stereo image processing LSI 30. Specifically, the frame rate, resolution, brightness, etc. are set when the stereo image processing LSI 30 is activated.

車速センサ43は車両の各輪に配置されており、例えば車輪の回転速度に比例したパルスを出力するセンサである。また、周辺状況センサ44は、周囲の明るさ,天候、走行中の道路種別(高速道路走行又は一般道路走行)、駐車場(徐行が義務付けられている)を走行していること、横断歩道で信号待ちをしていること、歩行者が横断歩道を渡っていること、見通しの悪い交差点を通過すること、対向車のある交差点を右折すること、などの周辺状況を検出するセンサである。このセンサは単一のセンサでなくてもよく、車載された各種のセンサの検出信号を組み合わせて、周辺状況を検出すればよい。   The vehicle speed sensor 43 is disposed on each wheel of the vehicle, and is a sensor that outputs a pulse proportional to the rotational speed of the wheel, for example. In addition, the surrounding situation sensor 44 is used for the brightness of the surroundings, the weather, the type of road in which the vehicle is running (highway driving or general road driving), the parking lot (slowing is required), It is a sensor that detects surrounding conditions such as waiting for a signal, crossing a pedestrian crossing, passing an intersection with poor visibility, or turning right at an intersection with an oncoming vehicle. This sensor does not have to be a single sensor, and it is only necessary to detect the surrounding situation by combining detection signals of various sensors mounted on the vehicle.

例えば、周囲の明るさは、シャッター速度やコンライト(オートライト)用の照度センサにより検出される。天候のうち、雨天であることはワイパーが作動していることやレインセンサにより検出され、霧が出ていることはフォグランプの点灯から検出される。走行中の道路種別(高速道路走行又は一般道路走行)及び駐車場を走行していることは、GNSS(Global Navigation Satellite System)などを利用した位置検出装置と道路地図から検出される。横断歩道で信号待ちをしていることは、車速がゼロ又はゼロと見なせる程度であり、カメラなどで前方の赤表示の信号が撮影されたことなどから検出される。歩行者が横断歩道を渡っていることは、カメラなどで前方を横切る歩行者が認識されたことなどから検出される。見通しの悪い交差点を通過することは、GNSSなどを利用した位置検出装置、道路地図及び車速などから検出される。対向車のある交差点を右折することは、GNSSなどを利用した位置検出装置、道路地図及びウィンカの操作方向などから検出される。   For example, ambient brightness is detected by an illuminance sensor for shutter speed or conlight (auto light). Of the weather, rain is detected by the operation of the wiper and the rain sensor, and fog is detected from the lighting of the fog lamp. The traveling road type (express road traveling or general road traveling) and traveling in a parking lot are detected from a position detection device using a GNSS (Global Navigation Satellite System) or the like and a road map. Waiting for a signal at a pedestrian crossing is detected so that the vehicle speed can be regarded as zero or zero, and a red display signal is photographed by a camera or the like. The fact that a pedestrian crosses a pedestrian crossing is detected because a pedestrian crossing the front is recognized by a camera or the like. Passing an intersection with poor visibility is detected from a position detection device using GNSS or the like, a road map, a vehicle speed, and the like. Turning right at an intersection with an oncoming vehicle is detected from a position detection device using GNSS or the like, a road map, an operating direction of a winker, and the like.

〔視差演算〕
図4は、視差演算部35によるマッチング処理について説明する図の一例である。図4(a)は基準画像の一例を、図4(b)は比較画像の一例を、図4(c)はテクスチャデータの一例をそれぞれ示す。いずれにおいても歩行者が撮影されているが、基準画像と比較画像では、視差により水平方向の歩行者の撮影位置が異なっている。また、テクスチャデータにより、基準画像において歩行者が撮影されている画素位置を特定する(又は推定する)ことができる。
[Parallax calculation]
FIG. 4 is an example of a diagram illustrating the matching process performed by the parallax calculation unit 35. 4A shows an example of a reference image, FIG. 4B shows an example of a comparative image, and FIG. 4C shows an example of texture data. In both cases, the pedestrian is photographed, but the photographing position of the pedestrian in the horizontal direction differs between the reference image and the comparative image due to the parallax. Moreover, the pixel position where the pedestrian is photographed in the reference image can be specified (or estimated) by the texture data.

まず、説明のため、従来のマッチング処理について説明する。   First, for the sake of explanation, a conventional matching process will be described.

(i) 図4(d)に示すように、視差演算部35は、例えば基準画像の左上の頂点を原点にして、水平方向又は垂直方向に画素を探索し、テクスチャと判定された画素を検出する。この画素を注目画素として、その画素位置を(X,Y)とする。   (i) As shown in FIG. 4D, the parallax calculation unit 35 searches for a pixel in the horizontal direction or the vertical direction using, for example, the upper left vertex of the reference image as an origin, and detects a pixel determined as a texture. To do. Let this pixel be a pixel of interest, and its pixel position be (X, Y).

(ii) 視差演算部35は、注目画素の画素位置(X,Y)の近傍画素(例えば、注目画素を中心とする5×5〜11×11などのブロック)に対し、基準画像の各画素の輝度値と比較画像の各画素の輝度値を比較する処理を行う。具体的には、基準画像のブロックの各画素、基準画像のブロックと同じ位置の比較画像のブロックの各画素、に対し画素毎に輝度値の差を算出して合計する(又は差の二乗を合計する)。輝度の差の合計が小さいほど類似度(マッチング度)が高い。   (ii) The parallax calculation unit 35 applies each pixel of the reference image to a pixel near the pixel position (X, Y) of the pixel of interest (for example, a block of 5 × 5 to 11 × 11 having the pixel of interest as the center). The brightness value of each pixel of the comparison image is compared with the brightness value of the comparison image. Specifically, for each pixel of the reference image block and each pixel of the comparison image block at the same position as the reference image block, the difference in luminance value is calculated for each pixel and summed (or the square of the difference is calculated). Sum up). The smaller the sum of luminance differences, the higher the similarity (matching degree).

(iii) 視差演算部35は、画素位置(X,Y)を基点に比較画像のブロックを水平方向に1画素分移動させ、同様に基準画像のブロックの輝度の差の合計を算出する。基準画像取得用カメラ21と比較画像取得用カメラ22は水平方向に並べて平行に取り付けられているため(視差以外の差は補正済みのため)、比較画像のブロックは水平方向にだけ移動すればよい。   (iii) The parallax calculation unit 35 moves the block of the comparison image by one pixel in the horizontal direction with the pixel position (X, Y) as the base point, and similarly calculates the sum of the luminance differences of the blocks of the reference image. Since the reference image acquisition camera 21 and the comparison image acquisition camera 22 are arranged in parallel in the horizontal direction (because differences other than parallax have been corrected), the blocks of the comparison image need only move in the horizontal direction. .

(iv) 視差演算部35は、予め定められた水平方向の範囲内で(図4(d)では水平方向の最後まで)、輝度の差の合計の算出を行う。そして、類似度が最大(合計が最小)となった水平方向の位置(比較画像のブロックを水平方向に移動した量)を視差dとして出力する。   (iv) The parallax calculation unit 35 calculates the sum of luminance differences within a predetermined horizontal range (until the end in the horizontal direction in FIG. 4D). Then, the horizontal position (amount of movement of the comparison image block in the horizontal direction) at which the degree of similarity is maximum (the total is minimum) is output as parallax d.

図4(e)の例では、類似度が最大となった比較画像のブロックにおいて、基準画像の着目画素(X,Y)に対応する比較画像の画素の画素位置が(X',Y)であるとする。この場合、上記の視差dは「d = X'-X」となる。   In the example of FIG. 4E, the pixel position of the pixel of the comparison image corresponding to the target pixel (X, Y) of the reference image is (X ′, Y) in the block of the comparison image having the maximum similarity. Suppose there is. In this case, the parallax d is “d = X′−X”.

視差演算部35は、視差dの算出をテクスチャデータのテクスチャ対象物に対し行う。なお、視差dは正確には画素数になるので、画素ピッチを用いて視差dは距離の次元に変換される。   The parallax calculator 35 calculates the parallax d for the texture object of the texture data. Since the parallax d is accurately the number of pixels, the parallax d is converted into a dimension of distance using the pixel pitch.

上記の説明は従来例なので、マッチングの領域をテクスチャと判定された画素位置から水平方向の最後の画素までとした。したがって、画像データが高解像度になり画素数が多くなると、ステレオ画像処理LSI30の処理負荷が増大してしまう。   Since the above description is a conventional example, the matching region is defined from the pixel position determined as the texture to the last pixel in the horizontal direction. Therefore, when the image data has a high resolution and the number of pixels increases, the processing load of the stereo image processing LSI 30 increases.

そこで、本実施例の視差演算部35は、マッチング開始位置設定部38より設定されたマッチング領域に対してマッチング処理を行う。   Therefore, the parallax calculation unit 35 of the present embodiment performs matching processing on the matching region set by the matching start position setting unit 38.

〔マッチング領域の設定〕
図5は、マッチング領域の設定について説明する図の一例である。本実施例のマッチング開始位置設定部38は、車速に応じてマッチング領域を決定する。
[Setting of matching area]
FIG. 5 is an example of a diagram illustrating the setting of the matching area. The matching start position setting unit 38 of the present embodiment determines a matching area according to the vehicle speed.

図5(a)は車速が閾値以上の場合のマッチング領域の一例を示す。マッチング開始位置設定部38は、車速が閾値以上の場合、比較画像のうちテクスチャ対象物に近い画素のみを探索するようにマッチング領域を設定する。テクスチャ対象物に近い画素とは、テク「スチャ対象物から」、又は、「テクスチャ対象物+α(数画素から数十画素)から」所定数の画素範囲をいう。図5では基準画像が左側のカメラにより撮影されるという前提のため、マッチング領域がテクスチャ対象物よりも右方向に存在するので、テクスチャ対象物又はその近くから右方向に所定数の画素範囲がマッチング領域である。基準画像が右側のカメラにより撮影される場合は、マッチング領域の場所は逆になる。   FIG. 5A shows an example of the matching area when the vehicle speed is equal to or higher than the threshold value. When the vehicle speed is equal to or higher than the threshold value, the matching start position setting unit 38 sets the matching region so as to search only the pixels close to the texture object in the comparison image. Pixels close to the texture object refer to a predetermined number of pixel ranges from the technique “from texture object” or “from texture object + α (several pixels to several tens of pixels)”. In FIG. 5, since the reference image is taken by the left camera, the matching area exists in the right direction from the texture object. Therefore, a predetermined number of pixel ranges are matched from the texture object or its vicinity to the right direction. It is an area. When the reference image is taken by the right camera, the location of the matching area is reversed.

なお、閾値は、車両が徐行していると見なせる程度の車速であり、例えば20〔km/h〕〜30〔km/h〕である。   Note that the threshold value is a vehicle speed at which the vehicle can be regarded as traveling slowly, and is, for example, 20 [km / h] to 30 [km / h].

図5(b)は車速が閾値未満の場合のマッチング領域の一例を示す。マッチング開始位置設定部38は、車速が閾値未満の場合、比較画像のテクスチャ対象物から遠い画素領域を探索するようにマッチング領域を設定する。図では、遠い画素領域として比較画像の周辺(右端)がマッチング領域になっている。   FIG. 5B shows an example of the matching area when the vehicle speed is less than the threshold value. When the vehicle speed is less than the threshold value, the matching start position setting unit 38 sets the matching area so as to search for a pixel area far from the texture object of the comparison image. In the figure, the periphery (right end) of the comparison image is a matching region as a far pixel region.

"遠い"とは少なくとも車速が閾値以上の場合よりも、テクスチャ対象物から離れた画素領域をマッチング領域とすることをいう。どの程度、テクスチャ対象物から離すかは、車速が速い場合にどの程度遠方の距離の対象物を検出するかなどにより最適化されうる。図5(b)は、テクスチャ対象物から"遠い"ことが強調されている点に注意されたい。   “Far” means that the pixel region far from the texture object is set as the matching region, at least when the vehicle speed is equal to or higher than the threshold value. How far away from the texture object can be optimized depending on how far away the object is detected when the vehicle speed is high. Note that FIG. 5 (b) emphasizes that it is “far” from the textured object.

図5(b)では基準画像が左側のカメラにより撮影されるという前提のため、マッチング領域がテクスチャ対象物よりも右方向に存在する。このため水平方向の右端か右端に近い所定数の画素範囲がマッチング領域である。基準画像が右側のカメラにより撮影される場合は、マッチング領域がテクスチャ対象物よりも左方向に存在するので、水平方向の左端か右端に近い所定数の画素範囲がマッチング領域である。   In FIG. 5B, since the reference image is captured by the left camera, the matching region exists in the right direction with respect to the texture object. For this reason, a predetermined number of pixel ranges close to the right end or the right end in the horizontal direction are matching regions. When the reference image is taken by the right camera, the matching area is located in the left direction with respect to the texture object. Therefore, a predetermined number of pixel ranges close to the left or right edge in the horizontal direction are the matching areas.

図5(a)に示すように、車速が速いときはテクスチャと判定された画素位置から近い位置にマッチング領域を設定することで、遠方から接近する歩行者との距離や相対速度を検出しやすくなる。また、図5(b)に示すように、車速が遅いときはテクスチャと判定された画素位置から遠い位置にマッチング領域を設定することで、近傍や周辺から進入する対象物を検出しやすくなる。いずれにおいても、従来はテクスチャ対象物より右方向の全画素を探索していたのに対し、本実施例ではテクスチャ対象物より右方向の一部の画素をマッチング領域に設定する。したがって、本実施例の障害物検出装置100は、マッチングの計算量を減らす事ができる。   As shown in FIG. 5 (a), when the vehicle speed is fast, it is easy to detect the distance and relative speed with a pedestrian approaching from a distance by setting a matching area near the pixel position determined to be texture. Become. Further, as shown in FIG. 5B, when the vehicle speed is low, by setting a matching region at a position far from the pixel position determined as the texture, it is easy to detect an object entering from the vicinity or the periphery. In any case, in the past, all the pixels in the right direction from the texture object have been searched, but in the present embodiment, some pixels in the right direction from the texture object are set in the matching region. Therefore, the obstacle detection apparatus 100 of the present embodiment can reduce the amount of calculation for matching.

なお、本実施例においてマッチング領域を図5(a)(b)のように限定するのでなく、マッチング領域の"開始位置"を設定してもよい。すなわち、設定されたマッチング領域で類似度が閾値以上とならない場合に、マッチング領域以外の領域にマッチング処理を施す。こうすれば、短時間に視差を算出でき、マッチング領域が適切でなくても最終的に視差が得られる。   In this embodiment, the matching area is not limited to that shown in FIGS. 5A and 5B, but the “start position” of the matching area may be set. That is, when the similarity does not exceed the threshold value in the set matching area, the matching process is performed on the area other than the matching area. In this way, the parallax can be calculated in a short time, and finally the parallax can be obtained even if the matching region is not appropriate.

〔マッチング領域の広さ〕
図6は、マッチング領域の広さ(幅)について説明する図の一例である。図5では車速が遅い場合と速い場合とでマッチング領域の幅が同じであるとした。例えば図6(a)に示すように、車速が遅い場合と速い場合のマッチング領域の幅はどちらもaである(単位は画素数)。
[Size of matching area]
FIG. 6 is an example of a diagram for explaining the width (width) of the matching region. In FIG. 5, the width of the matching area is the same when the vehicle speed is low and when the vehicle speed is high. For example, as shown in FIG. 6A, the width of the matching area when the vehicle speed is slow and when the vehicle speed is fast is both a (unit is the number of pixels).

また、図6(b)に示すように、車速が遅い場合と速い場合のマッチング領域が一部で重複していてもよい。図6(b)ではマッチング領域の幅が長いため、テクスチャ対象物よりも右側の領域で、車速が遅い場合と速い場合のマッチング領域が一部で重複している。   Further, as shown in FIG. 6 (b), the matching regions when the vehicle speed is low and when the vehicle speed is high may partially overlap. In FIG. 6B, since the width of the matching area is long, in the area on the right side of the texture object, the matching areas when the vehicle speed is low and when the vehicle speed is high partially overlap.

また、マッチング領域の幅は、車速が遅い場合と速い場合とで同じある必要はない。
図6(c)は、車速が遅い場合の方がマッチング領域の幅が広い例を、図6(d)は、車速が遅い場合の方がマッチング領域の幅が狭い例を、それぞれ示している。図6(c)のように、車速が遅い場合にマッチング領域を広くすることで、近傍や周辺から進入する対象物を検出しやすくできる。また、図6(d)のように、車速が速い場合にマッチング領域を広くすることで、遠方の歩行者が移動しても捕捉して相対距離等を監視しやすくなる。
Further, the width of the matching area does not have to be the same when the vehicle speed is low and when the vehicle speed is high.
FIG. 6C shows an example in which the width of the matching area is wider when the vehicle speed is slow, and FIG. 6D shows an example in which the width of the matching area is narrower when the vehicle speed is slow. . As shown in FIG. 6C, when the vehicle speed is low, the object that enters from the vicinity or the vicinity can be easily detected by widening the matching area. Further, as shown in FIG. 6D, by widening the matching area when the vehicle speed is fast, it is easy to capture and monitor the relative distance and the like even if a distant pedestrian moves.

また、図7に示すように動的にマッチング領域の幅を決定してもよい。図7(a)は、マッチング領域の幅の動的な決定について説明する図の一例である。マッチング開始位置設定部38はテクスチャ対象物から水平方向の最後の画素までの長さLを測定する。そして、長さLの半分をマッチング領域の幅(L/2)に決定する。こうすることで、車速が速い場合と遅い場合を合わせると、テクスチャ対象物から水平方向の最後まで、不足及び重複なく探索することができる。長さLの半分でなくLの2/3などにしてもよい。   Further, as shown in FIG. 7, the width of the matching area may be determined dynamically. FIG. 7A is an example for explaining dynamic determination of the width of the matching region. The matching start position setting unit 38 measures the length L from the texture object to the last pixel in the horizontal direction. Then, half of the length L is determined as the width (L / 2) of the matching region. By doing so, when the case where the vehicle speed is fast and the case where the vehicle speed is slow are combined, it is possible to search from the texture object to the end in the horizontal direction without deficiency and duplication. It may be 2/3 of L instead of half of the length L.

また、閾値未満の低速領域、閾値以上の高速領域をそれぞれ3段階程度に区分して、車速に応じてマッチング領域の幅を決定してもよい。   Alternatively, the low speed region below the threshold and the high speed region above the threshold may be divided into about three stages, respectively, and the width of the matching region may be determined according to the vehicle speed.

図8では、低速領域が、VL2以上VL3未満、VL1以上VL2未満、VL1未満の3段階に区分された場合のマッチング領域の一例を示している(VL1<VL2<VL3<閾値)。低速領域なので、テクスチャ対象物から遠い領域がマッチング領域であるが、車速が遅いほどマッチング領域が大きくなっている。車速が遅い場合には近傍から歩行者等が進入するおそれが高まるので、マッチング領域を大きくすることで対象物を検出しやすくなる。   FIG. 8 shows an example of the matching region when the low-speed region is divided into three stages of VL2 to VL3, VL1 to VL2, and VL1 (VL1 <VL2 <VL3 <threshold). Since the region is a low speed region, the region far from the texture object is the matching region. However, the slower the vehicle speed, the larger the matching region. When the vehicle speed is slow, there is a high possibility that a pedestrian or the like will enter from the vicinity. Therefore, it is easy to detect an object by increasing the matching area.

同様に図8(b)では、高速領域が、VH1未満、VH1以上VH2未満、VH2以上の3段階に区分されている(閾値<VH1<VH2)。高速領域なので、テクスチャ対象物から近い領域がマッチング領域であるが、車速が速いほどマッチング領域が大きくなっている。車速が速い場合には検出されている対象物が相対的に移動するおそれが高まるので、マッチング領域を大きくすることで対象物の捕捉を維持しやすくなる。   Similarly, in FIG. 8B, the high-speed region is divided into three stages of less than VH1, VH1 to less than VH2, and VH2 or more (threshold value <VH1 <VH2). Since it is a high-speed area, the area close to the texture object is the matching area, but the matching area becomes larger as the vehicle speed increases. When the vehicle speed is high, there is a high possibility that the detected object moves relatively. Therefore, it is easy to maintain capture of the object by increasing the matching area.

また、これまでは車速が低速か高速かによりマッチング領域が不連続に設定されていたが、車速と共に連続的にマッチング領域を移動してもよい。   In the past, the matching area was set to be discontinuous depending on whether the vehicle speed was low or high. However, the matching area may be moved continuously with the vehicle speed.

図9は、車速とマッチング領域の関係を模式的に説明する図の一例である。図9(a)は時速10〔km/h〕、図9(b)は時速20〔km/h〕、図9(c)は時速30〔km/h〕、図9(d)は時速40〔km/h〕、図9(e)は時速50〔km/h〕、図9(f)は時速60〔km/h〕の場合のマッチング領域をそれぞれ示す。図示するように、車速が速いほどマッチング領域がテクスチャ対象物に近くなっている。したがって、低速領域では、テクスチャ対象物から離れた領域にマッチング領域があり、高速領域ではテクスチャ対象物から近い領域にマッチング領域がある点でこれまでと同様である。しかし、図9では、低速から高速まで連続してマッチング領域の場所を変動させることができる。これにより、車速に応じて注視すべき領域(低速では近傍領域、高速では遠方領域)を最適化してマッチングすることができる。   FIG. 9 is an example of a diagram schematically illustrating the relationship between the vehicle speed and the matching area. 9 (a) is 10 [km / h], FIG. 9 (b) is 20 [km / h], FIG. 9 (c) is 30 [km / h], and FIG. [Km / h], FIG. 9 (e) shows the matching region when the speed is 50 [km / h] and FIG. 9 (f) shows the matching area when the speed is 60 [km / h]. As shown in the figure, the faster the vehicle speed, the closer the matching area is to the texture object. Therefore, in the low speed region, there is a matching region in a region away from the texture object, and in the high speed region, the matching region is in a region near the texture object. However, in FIG. 9, the location of the matching region can be changed continuously from low speed to high speed. Thereby, it is possible to optimize and match a region to be watched according to the vehicle speed (a near region at a low speed and a far region at a high speed).

なお、図9ではマッチング領域は一定の幅だが、車速が速いほど広くしたり、車速が遅いほど広くしたりしてもよい。また、低速域と高速域で広くし、中速域で狭くしてもよい。   In FIG. 9, the matching area has a certain width, but it may be wider as the vehicle speed is faster, or may be wider as the vehicle speed is slower. Further, it may be widened in the low speed region and the high speed region, and narrowed in the medium speed region.

〔動作手順〕
図10は、本実施例の障害物検出装置100が視差を算出する手順を示すフローチャート図の一例である。
[Operation procedure]
FIG. 10 is an example of a flowchart illustrating a procedure for calculating the parallax by the obstacle detection apparatus 100 according to the present embodiment.

基準画像取得用カメラ21は基準画像を撮影し、比較画像取得用カメラ22は比較画像を撮影する(S10)。基準画像と比較画像はそれぞれ歪み補正が施され、メモリコントローラ34によりメモリ42に記憶される。   The reference image acquisition camera 21 captures a reference image, and the comparative image acquisition camera 22 captures a comparison image (S10). The reference image and the comparison image are each subjected to distortion correction and stored in the memory 42 by the memory controller 34.

テクスチャ検出部33は、基準画像からテクスチャデータを作成する(S20)。テクスチャデータはメモリコントローラ34によりメモリ42に記憶される。   The texture detection unit 33 creates texture data from the reference image (S20). The texture data is stored in the memory 42 by the memory controller 34.

次に、マッチング開始位置設定部38は、車速センサ43から車速を取得する(S30)。そして、車速が閾値未満か否かを判定する(S40)。   Next, the matching start position setting unit 38 acquires the vehicle speed from the vehicle speed sensor 43 (S30). And it is determined whether a vehicle speed is less than a threshold value (S40).

車速が閾値未満の場合(S40のYes)、マッチング開始位置設定部38はテクスチャ対象物から遠い画素をマッチング領域に設定する(S50)。   When the vehicle speed is less than the threshold (Yes in S40), the matching start position setting unit 38 sets a pixel far from the texture object as a matching region (S50).

車速が閾値未満でない場合(S40のNo)、マッチング開始位置設定部38はテクスチャ対象物から近い画素をマッチング領域に設定する(S60)。   When the vehicle speed is not less than the threshold value (No in S40), the matching start position setting unit 38 sets a pixel close to the texture object in the matching region (S60).

視差演算部35は、テクスチャデータにより注目画素を決定し、基準画像と比較画像のマッチング処理を行って視差を算出する(S70)。   The parallax calculation unit 35 determines a target pixel from the texture data, performs a matching process between the reference image and the comparison image, and calculates the parallax (S70).

以上説明したように、本実施例の障害物検出装置100は、低速走行時と高速走行時でマッチング領域を変えることで、対象物を的確に検出しながらステレオ画像処理の負荷を低減することができる。   As described above, the obstacle detection apparatus 100 according to the present embodiment can reduce the load of stereo image processing while accurately detecting an object by changing the matching area between low speed traveling and high speed traveling. it can.

本実施例では、車速に応じてマッチング領域を変更することに加え、自車両の周辺状況に応じて、マッチング領域を設定する障害物検出装置100について説明する。   In the present embodiment, the obstacle detection device 100 that sets the matching area according to the surrounding situation of the host vehicle in addition to changing the matching area according to the vehicle speed will be described.

例えば、自車両が徐行すべきである駐車場を走行する場合がある。しかしながら、運転者が気づかないうちに高速になるまで加速することもあり得る。一方、駐車場では近傍の対象物はあまり移動しない。したがって、駐車場であれば、車速に関わらず高速時のマッチング領域に設定してよいと考えられる。   For example, there is a case where the host vehicle travels in a parking lot that should slow down. However, the vehicle may accelerate to a high speed without the driver's knowledge. On the other hand, nearby objects do not move much in the parking lot. Therefore, in the case of a parking lot, it may be set as a matching area at high speed regardless of the vehicle speed.

また、横断歩道の信号待ちや歩行者が通過している場合は、歩行者等が進入してくる可能性があるため、実施例1のように低速域と高速域でマッチング領域を変更すべきである。   In addition, when waiting for a signal at a pedestrian crossing or when a pedestrian is passing, there is a possibility that a pedestrian or the like may enter, so the matching area should be changed between the low speed range and the high speed range as in the first embodiment. It is.

このように、周辺情報を考慮する事で、予測不能な運転(例えば徐行エリアでの高速運転)がなされた場合でも、適切な画素領域をマッチング領域に決定することができる。   As described above, by considering the peripheral information, an appropriate pixel region can be determined as a matching region even when an unpredictable operation (for example, high-speed operation in a slow driving area) is performed.

図11は、本実施例の障害物検出装置100が視差を算出する手順を示すフローチャート図の一例である。図11の手順は、図10と同様であるが、ステップS33において、マッチング開始位置設定部38は周辺状況センサ44の検出信号により周辺状況を特定する(S33)。   FIG. 11 is an example of a flowchart illustrating a procedure for calculating the parallax by the obstacle detection apparatus 100 according to the present embodiment. The procedure of FIG. 11 is the same as that of FIG. 10, but in step S33, the matching start position setting unit 38 specifies the surrounding situation based on the detection signal of the surrounding situation sensor 44 (S33).

そして、マッチング開始位置設定部38は周辺状況が駐車場か否かを判定する(S35)。周辺状況が駐車場の場合(S35のYes)、テクスチャ対象物から近い画素をマッチング領域に設定する(S60)。   Then, the matching start position setting unit 38 determines whether or not the surrounding situation is a parking lot (S35). When the surrounding situation is a parking lot (Yes in S35), a pixel close to the texture object is set as a matching area (S60).

周辺状況が駐車場でない場合(S35のNo)、マッチング開始位置設定部38は車速が閾値未満か否かを判定する(S40)。以降の処理は図10と同様である。   When the surrounding situation is not a parking lot (No in S35), the matching start position setting unit 38 determines whether or not the vehicle speed is less than a threshold value (S40). The subsequent processing is the same as in FIG.

なお、図11では、周辺状況が駐車場の場合にテクスチャ対象物から近い画素をマッチング領域に設定したが、別の特定の周辺状況の場合にテクスチャ対象物から遠い画素をマッチング領域に設定してもよい。   In FIG. 11, pixels close to the texture object are set as the matching area when the surrounding situation is a parking lot, but pixels far from the texture object are set as the matching area in another specific surrounding situation. Also good.

本実施例によれば、車速だけでなく周辺状況に応じてマッチング領域を設定できる。   According to this embodiment, the matching area can be set according to not only the vehicle speed but also the surrounding situation.

本実施例では、ステレオカメラ20のフレームレートに応じて、マッチング領域を設定する障害物検出装置100について説明する。   In this embodiment, an obstacle detection apparatus 100 that sets a matching area according to the frame rate of the stereo camera 20 will be described.

CPU41はCPU I/F37を介してフレームレートをステレオ画像処理LSI30に設定する。フレームレートを動的に変更する起因となるのは、例えばステレオ画像処理LSI30の温度が上昇したため負荷を下げようとする場合や、夜間であるためシャッター時間を長くするためにフレームレートを下げるような場合がある。   The CPU 41 sets the frame rate in the stereo image processing LSI 30 via the CPU I / F 37. The reason for dynamically changing the frame rate is, for example, when the load is reduced because the temperature of the stereo image processing LSI 30 is increased, or when the frame rate is decreased to increase the shutter time because it is nighttime. There is a case.

高フレームレートが設定された場合、ステレオ画像処理LSI30は1フレームを短時間で処理しなければならないので処理負荷が高くなる。よって、マッチング領域を狭くすることが好ましい。これに対し低フレームレートが設定された場合には、1フレームの処理時間に余裕が出るので、マッチング領域を広くすることができる。   When the high frame rate is set, the stereo image processing LSI 30 has to process one frame in a short time, so that the processing load increases. Therefore, it is preferable to narrow the matching area. On the other hand, when a low frame rate is set, the processing time for one frame is sufficient, so that the matching area can be widened.

フレームレートに応じてマッチング領域を設定する事で、要求されたフレームレートにおいて可能な限り高い精度で視差を算出することができる。   By setting the matching area according to the frame rate, the parallax can be calculated with the highest possible accuracy at the requested frame rate.

フレームレートに応じてマッチング領域の広さを変更するには、例えば基準となるマッチング領域の広さに、フレームレートに応じた係数kを乗じればよい。
・マッチング領域の広さ=k×基準のマッチング領域の広さ
図12は係数kとフレームレートの対応を示す図の一例である。図12の情報はテーブルとして例えばステレオ画像処理LSI30に記憶されている。図12の情報は特許請求の範囲の領域広さ指示情報テーブルの一例である。基準のマッチング領域の広さをフレームレートが最も低い状態のマッチング領域の広さとすれば、係数kは1未満である。
In order to change the size of the matching area according to the frame rate, for example, the size of the reference matching area may be multiplied by a coefficient k corresponding to the frame rate.
Matching area width = k × reference matching area width FIG. 12 is an example of a diagram illustrating the correspondence between the coefficient k and the frame rate. The information in FIG. 12 is stored as a table in the stereo image processing LSI 30, for example. The information in FIG. 12 is an example of the area size instruction information table in the claims. If the size of the reference matching region is the size of the matching region with the lowest frame rate, the coefficient k is less than 1.

低速ではk=1.0なので、フレームレートが低速の場合はマッチング領域の広さは基準値のままである。   Since k = 1.0 at low speed, the size of the matching area remains at the reference value when the frame rate is low.

中速ではk=0.8なので、フレームレートが中速の場合はマッチング領域の広さは基準値の80%である。   Since k = 0.8 at medium speed, the size of the matching area is 80% of the reference value when the frame rate is medium speed.

高速ではk=0.6なので、フレームレートが中速の場合はマッチング領域の広さは基準値の60%である。   Since k = 0.6 at high speed, the size of the matching area is 60% of the reference value when the frame rate is medium speed.

係数kをより多段階に定めておいてもよいし、又は、任意の車速に対し係数kを演算する関数などを用意しておき無段階に係数kを求めてもよい。   The coefficient k may be determined in more stages, or a function for calculating the coefficient k for an arbitrary vehicle speed may be prepared and the coefficient k may be obtained steplessly.

図13は、本実施例の障害物検出装置100が視差を算出する手順を示すフローチャート図の一例である。   FIG. 13 is an example of a flowchart illustrating a procedure for calculating the parallax by the obstacle detection apparatus 100 according to the present embodiment.

本実施例では、まず、マッチング開始位置設定部38がフレームレートの変更があるか否かを判定する(S2)。例えばCPU I/F37がCPU41によりフレームレートが変更されたことをマッチング開始位置設定部38に通知する。   In this embodiment, first, the matching start position setting unit 38 determines whether or not there is a change in the frame rate (S2). For example, the CPU I / F 37 notifies the matching start position setting unit 38 that the frame rate has been changed by the CPU 41.

フレームレートの変更があった場合(S2のYes)、マッチング開始位置設定部38は係数kを読み出す(S4)。   When the frame rate is changed (Yes in S2), the matching start position setting unit 38 reads the coefficient k (S4).

ステップS10〜S50までの処理は図10と同様である。そして、ステップS52とS62において、マッチング開始位置設定部38はマッチング領域の広さを係数kで決定する(S52、S62)。   The processing from step S10 to S50 is the same as that in FIG. In steps S52 and S62, the matching start position setting unit 38 determines the size of the matching area by the coefficient k (S52, S62).

したがって、本実施例の障害物検出装置100によれば、実施例1,2の効果に加え、フレームレートに応じてマッチング領域の広さを変更でき、ステレオ画像処理LSI30はフレームレートにおいて可能な限り高い精度で視差を算出することができる。   Therefore, according to the obstacle detection apparatus 100 of the present embodiment, in addition to the effects of the first and second embodiments, the size of the matching area can be changed according to the frame rate, and the stereo image processing LSI 30 can be used at the frame rate as much as possible. The parallax can be calculated with high accuracy.

実施例3では、CPU41が設定するフレームレートに基づきマッチング領域の広さを決定したが、本実施例ではステレオ画像処理LSI30が設定するフレームレートに基づきマッチング領域の広さを決定する障害物検出装置100について説明する。   In the third embodiment, the size of the matching area is determined based on the frame rate set by the CPU 41. However, in this embodiment, the obstacle detection apparatus that determines the width of the matching area based on the frame rate set by the stereo image processing LSI 30. 100 will be described.

ステレオカメラ20が撮影する例えば基準画像があまり変化しない場合、高いフレームレートは必要とならない。そこで、ステレオ画像処理LSI30が基準画像の変化率から要求されるフレームレートを算出し、マッチング領域の広さを決定する。   For example, when the reference image captured by the stereo camera 20 does not change much, a high frame rate is not required. Therefore, the stereo image processing LSI 30 calculates the required frame rate from the change rate of the reference image, and determines the size of the matching area.

例えば、基準画像の変化率が低いケースとは、
A.自車も周辺の対象物も止まっている状態
B.自車と周辺の対象物が同じ速度で同じ方向へ動いている状態
などである。前者は信号待ちや渋滞で止まっている場合で、後者は空いている道を一定の速度で走行している場合が想定できる。
For example, the case where the rate of change of the reference image is low is
A. A state where the vehicle and the surrounding objects are stopped. For example, the vehicle and surrounding objects are moving in the same direction at the same speed. The former can be assumed to be stopped due to traffic lights or traffic congestion, and the latter can be assumed to be traveling at a constant speed on an empty road.

基準画像の変化率が高いケースとは、
C.対象物が大きく移動する状態
D.自車がカーブなどを走行する状態
などである。前者は歩行者が走ったり、先行車が急減速する場合が、後者は右左折や急カーブを走行している場合が想定できる。
Cases where the rate of change of the reference image is high
C. A state in which the object moves greatly. This is a situation where the vehicle is traveling on a curve or the like. It can be assumed that the former is a case where a pedestrian runs or the preceding vehicle decelerates rapidly, and the latter is a case where the vehicle is turning right or left or a sharp curve.

図14は、本実施例の障害物検出装置100のハードウェア構成図の一例を示す図である。本実施例において、図3において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。本実施例のステレオ画像処理LSI30はフレームレート判断部39を有している。   FIG. 14 is a diagram illustrating an example of a hardware configuration diagram of the obstacle detection apparatus 100 according to the present embodiment. In the present embodiment, the components denoted by the same reference numerals in FIG. 3 perform the same function, and therefore, only the main components of the present embodiment may be mainly described. The stereo image processing LSI 30 according to this embodiment includes a frame rate determination unit 39.

まず、本実施例ではメモリコントローラ34が1フレーム前のテクスチャデータをメモリ42に記憶している。フレームレート判断部39は、テクスチャ検出部33から出力されたテクスチャデータとメモリ42から読み出した1フレーム前のテクスチャデータとを比較する事で変化率を算出する。例えば、画素毎又は画素フロック毎に2つのテクスチャデータの画素値の差を算出し、画素の差を合計する。差の合計として、変化率が充分に大きい固定値を設定しておき、差の合計を固定値で除することで、変化率を求めることができる。   First, in this embodiment, the memory controller 34 stores the texture data of the previous frame in the memory 42. The frame rate determination unit 39 calculates the rate of change by comparing the texture data output from the texture detection unit 33 and the texture data of the previous frame read from the memory 42. For example, the difference between the pixel values of the two texture data is calculated for each pixel or each pixel flock, and the difference between the pixels is summed. As the total difference, a fixed value with a sufficiently large change rate is set, and the change rate can be obtained by dividing the total difference by the fixed value.

フレームレート判断部39は、変化率に対応づけて予め保持しているフレームレートを読み出し、マッチング開始位置設定部38へ設定する。マッチング開始位置設定部38は図12の係数kとフレームレートの対応から係数kを決定する。
変化率 大 :フレームレート 60fps
変化率 中 :フレームレート 50fps
変化率 小 :フレームレート 40fps
上記の例A,Bの状態では、高フレームレートは必要でない為、フレームレートを低く設定し、マッチング領域を広く設定する事で視差の算出の精度を向上する事ができる。C,Dの状態では、高フレームレートに設定されるがマッチング領域が狭く設定されるので、ステレオ画像処理LSI30の負荷が増大することを抑制できる。
The frame rate determination unit 39 reads out the frame rate held in advance in association with the change rate and sets it in the matching start position setting unit 38. The matching start position setting unit 38 determines the coefficient k from the correspondence between the coefficient k and the frame rate in FIG.
Large change rate: 60fps frame rate
Rate of change Medium: Frame rate 50fps
Change rate small: Frame rate 40fps
In the states of Examples A and B above, since a high frame rate is not necessary, the accuracy of parallax calculation can be improved by setting the frame rate low and setting the matching region wide. In the states C and D, although the high frame rate is set, the matching area is set to be narrow, so that an increase in the load on the stereo image processing LSI 30 can be suppressed.

マッチング開始位置設定部38は、フレームレートに応じて係数kを読み出すので、実施例3と同様に、高フレームレートが設定された場合にはマッチング領域を狭く、低フレームレートが設定された場合にはマッチング領域を広くすることができる。   Since the matching start position setting unit 38 reads the coefficient k in accordance with the frame rate, as in the third embodiment, when the high frame rate is set, the matching region is narrowed, and when the low frame rate is set. Can widen the matching area.

図15は、本実施例の障害物検出装置100が視差を算出する手順を示すフローチャート図の一例である。   FIG. 15 is an example of a flowchart illustrating a procedure for calculating the parallax by the obstacle detection apparatus 100 according to the present embodiment.

ステップS10、S20の処理は図10と同様である。そして、ステップS22において、フレームレート判断部39はテクスチャデータの変化率に応じてフレームレートを決定する(S22)。フレームレート判断部39はフレームレートをマッチング開始位置設定部38に設定する。   The processing in steps S10 and S20 is the same as that in FIG. In step S22, the frame rate determination unit 39 determines the frame rate according to the change rate of the texture data (S22). The frame rate determination unit 39 sets the frame rate in the matching start position setting unit 38.

そして、マッチング開始位置設定部38はフレームレートに対応づけられた係数kを読み出す(S24)。   Then, the matching start position setting unit 38 reads the coefficient k associated with the frame rate (S24).

この後、車速の取得、周辺状況の特定等が行われ、ステップS52とS62において、マッチング開始位置設定部38はマッチング領域の広さを係数kで決定する(S52、S62)。   Thereafter, the vehicle speed is acquired, the surrounding situation is specified, and the like, and in steps S52 and S62, the matching start position setting unit 38 determines the size of the matching region by the coefficient k (S52, S62).

本実施例によれば、ステレオ画像処理LSI30がフレームレートを決定して、マッチング領域の広さを決定するので、負荷を抑制しながら可能な限り高い精度で視差を算出することができる。   According to this embodiment, since the stereo image processing LSI 30 determines the frame rate and determines the size of the matching area, the parallax can be calculated with the highest possible accuracy while suppressing the load.

本実施例では、ユーザがマッチング領域を任意に設定可能な障害物検出装置100について説明する。   In this embodiment, an obstacle detection apparatus 100 that allows a user to arbitrarily set a matching area will be described.

図16は、車載された表示装置に表示されるマッチング領域設定画面の一例を示す図である。この表示装置は、例えばナビゲーションシステムが道路地図を表示するディスプレイである。   FIG. 16 is a diagram illustrating an example of a matching area setting screen displayed on a display device mounted on a vehicle. This display device is, for example, a display on which a navigation system displays a road map.

図16(a)では、車速モードボタン601と任意設定ボタン602が表示されている。ユーザが車速モードボタン601を選択した場合、障害物検出装置100は実施例1〜4で説明した車速に応じたマッチング領域の設定を行う。ユーザが任意設定ボタン602を選択した場合、図16(b)の画面が表示される。この画面には「斜線アイコンを移動してマッチング領域を設定してください」と表示されている。ユーザは「低速時」と「高速時」のそれぞれを選択した状態(押下して反転させた状態)で、斜線アイコン603を移動してマッチング領域を設定する。   In FIG. 16A, a vehicle speed mode button 601 and an arbitrary setting button 602 are displayed. When the user selects the vehicle speed mode button 601, the obstacle detection apparatus 100 sets a matching area according to the vehicle speed described in the first to fourth embodiments. When the user selects the arbitrary setting button 602, the screen in FIG. 16B is displayed. This screen displays “Please move the diagonal line icon to set the matching area”. The user moves the hatched icon 603 to set the matching area in a state where “low speed” and “high speed” are selected (pressed and reversed).

また、斜線アイコン603はダブルタップなどで広くなるので、ユーザはマッチング領域の広さを任意に決定することができる。   In addition, since the hatched icon 603 is widened by a double tap or the like, the user can arbitrarily determine the size of the matching area.

なお、図16の設定は車載装置で行う以外に、端末からサーバに接続しサーバに対し設定してもよい。サーバは、携帯電話網などを利用して車両にマッチング領域を設定する。   In addition, the setting of FIG. 16 may be set with respect to a server by connecting to a server from a terminal other than performing with an in-vehicle device. The server sets a matching area in the vehicle using a cellular phone network or the like.

本実施例によれば、実施例1〜4の効果に加え、ユーザが任意のマッチング領域を設定することができる。   According to the present embodiment, in addition to the effects of the first to fourth embodiments, the user can set an arbitrary matching region.

20 ステレオカメラ
30 ステレオ画像処理LSI
32、36 歪み補正部
33 テクスチャ検出部
34 メモリコントローラ
35 視差演算部
38 マッチング開始位置設定部
41 CPU
42 メモリ
100 障害物検出装置
311 基準データ入力部
312 比較データ入力部
20 Stereo camera 30 Stereo image processing LSI
32, 36 Distortion correction unit 33 Texture detection unit 34 Memory controller 35 Parallax calculation unit 38 Matching start position setting unit 41 CPU
42 Memory 100 Obstacle Detection Device 311 Reference Data Input Unit 312 Comparison Data Input Unit

特開2009-146217号公報JP 2009-146217 JP

Claims (8)

ステレオカメラで撮影された1対の画像の視差を検出する視差検出装置であって、
第1の画像を撮影する第1の撮影手段と、第2の画像を撮影する第2の撮影手段とが離間して配置されたステレオカメラと、
前記第1の画像からエッジを検出してエッジ画像を作成するエッジ画像作成手段と、
前記第1の画像のエッジと判定された画素を注目画素とし、前記注目画素を中心とする近傍画像を第1の画素のブロックとし、前記第1の画素のブロックと同じ位置の第2の画像のブロックを水平方向に移動させ、前記第1の画像のブロックとの類似度が最大になる画素位置を視差情報として算出する視差算出手段と、
移動速度検出手段により検出された当該視差検出装置の移動速度に基づき、前記視差算出手段が類似度を算出する算出対象領域を設定するマッチング領域設定手段と、
外部からステレオカメラのフレームレートの設定を受け付けるフレームレート設定受付手段と、
フレームレートに対応づけて前記算出対象領域の広さ情報が登録された領域広さ指示情報テーブルと、を有し、
前記マッチング領域設定手段は、前記フレームレートに応じて前記領域広さ指示情報テーブルから読み出した前記広さ情報の前記算出対象領域を前記移動速度に応じた場所に設定する、ことを特徴とする視差検出装置。
A parallax detection device that detects parallax of a pair of images captured by a stereo camera,
A stereo camera in which a first photographing means for photographing a first image and a second photographing means for photographing a second image are arranged apart from each other;
Edge image creation means for creating an edge image by detecting an edge from the first image;
A pixel determined as an edge of the first image is a pixel of interest, a neighboring image centered on the pixel of interest is a first pixel block, and a second image at the same position as the block of the first pixel Parallax calculation means for moving the block in the horizontal direction and calculating, as parallax information, a pixel position at which the degree of similarity with the block of the first image is maximized;
A matching region setting unit that sets a calculation target region in which the parallax calculation unit calculates a similarity based on the moving speed of the parallax detection device detected by the moving speed detection unit;
Frame rate setting accepting means for accepting the setting of the frame rate of the stereo camera from the outside;
An area size instruction information table in which the size information of the calculation target area is registered in association with a frame rate,
The matching area setting means sets the calculation target area of the area information read from the area area instruction information table according to the frame rate to a place corresponding to the moving speed. Detection device.
前記マッチング領域設定手段は、周辺状況検出手段から当該視差検出装置が搭載された移動体の周辺状況を取得して、前記周辺状況に応じて前記算出対象領域を設定する、
ことを特徴とする請求項1記載の視差検出装置。
The matching area setting means acquires a surrounding situation of a moving body on which the parallax detection device is mounted from a surrounding situation detection means, and sets the calculation target area according to the surrounding situation.
The parallax detection device according to claim 1.
ステレオカメラが撮影する画像の変化率を監視してフレームレートを決定するフレームレート決定手段と、
フレームレートに対応づけて前記算出対象領域の広さ情報が登録された領域広さ指示情報テーブルと、を有し、
前記マッチング領域設定手段は、前記フレームレート決定手段が決定したフレームレートに応じて前記領域広さ指示情報テーブルから読み出した前記広さ情報の前記算出対象領域を前記移動速度に応じた場所に設定する、
ことを特徴とする請求項1に記載の視差検出装置。
A frame rate determining means for determining a frame rate by monitoring a rate of change of an image captured by the stereo camera;
An area size instruction information table in which the size information of the calculation target area is registered in association with a frame rate,
The matching area setting unit sets the calculation target area of the area information read from the area area instruction information table in a place corresponding to the moving speed according to the frame rate determined by the frame rate determining unit. ,
The parallax detection device according to claim 1 .
前記移動速度に対応した前記算出対象領域の場所及び広さの設定を受け付ける算出対象領域設定受付手段を有し、
前記マッチング領域設定手段は、前記算出対象領域設定受付手段が設定を受け付けた場所に、受け付けた広さの前記算出対象領域を設定する、
ことを特徴とする請求項1〜3のいずれか1項に記載の視差検出装置。
A calculation target area setting receiving unit that receives a setting of a location and a size of the calculation target area corresponding to the moving speed;
The matching area setting means sets the calculation target area of the received area at the place where the calculation target area setting reception means has received the setting.
The parallax detection device according to claim 1, wherein
前記マッチング領域設定手段は、前記移動速度が閾値未満の場合、前記第1の画像のエッジ部分に対応する前記第2の画像の画素位置を基準に、前記移動速度が閾値以上の場合よりも遠方に前記算出対象領域を設定する、
ことを特徴とする請求項1〜4のいずれか1項に記載の視差検出装置。
When the moving speed is less than the threshold, the matching area setting unit is farther than when the moving speed is equal to or greater than the threshold with reference to the pixel position of the second image corresponding to the edge portion of the first image. Set the calculation target area to
The parallax detection device according to claim 1, wherein:
前記マッチング領域設定手段は、前記移動速度に応じて、前記算出対象領域の広さを変更する、ことを特徴とする請求項1〜5のいずれか1項に記載の視差検出装置。 The parallax detection device according to claim 1, wherein the matching area setting unit changes a size of the calculation target area according to the moving speed. 前記マッチング領域設定手段は、前記移動速度が速いほど前記算出対象領域の広さを大きくし、前記移動速度が遅いほど前記算出対象領域の広さを小さくする、
ことを特徴とする請求項6に記載の視差検出装置。
The matching area setting means increases the area of the calculation target area as the moving speed is high, and decreases the area of the calculation target area as the moving speed is low.
The parallax detection device according to claim 6 .
ステレオカメラで撮影された1対の画像の視差を検出する視差検出方法であって、
ステレオカメラが有する第1の撮影手段が第1の画像を撮影し、ステレオカメラが有する第2の撮影手段が第2の画像を撮影するステップと、
エッジ画像作成手段が、前記第1の画像からエッジを検出してエッジ画像を作成するステップと、
マッチング領域設定手段が、移動速度検出手段により検出された視差検出装置の移動速度に基づき、視差算出手段が類似度を算出する算出対象領域を設定するステップと、
視差算出手段が、前記第1の画像のエッジと判定された画素を注目画素とし、前記注目画素を中心とする近傍画像を第1の画素のブロックとし、前記第1の画素のブロックと同じ位置の第2の画像のブロックを水平方向に移動させ、前記第1の画像のブロックとの類似度が最大になる画素位置を視差情報として算出するステップと、
フレームレート設定受付手段が、外部からステレオカメラのフレームレートの設定を受け付けるステップと、
フレームレートに対応づけて前記算出対象領域の広さ情報が登録された領域広さ指示情報テーブルを参照し、前記マッチング領域設定手段が、前記フレームレートに応じて前記領域広さ指示情報テーブルから読み出した前記広さ情報の前記算出対象領域を前記移動速度に応じた場所に設定するステップと、
を有することを特徴とする視差検出装置。
A parallax detection method for detecting parallax of a pair of images taken by a stereo camera,
A step of taking a first image by a first photographing unit of the stereo camera, and a step of taking a second image by a second photographing unit of the stereo camera;
An edge image creating means creating an edge image by detecting an edge from the first image;
A step matching area setting means, which on the basis of the moving speed of the detected visual difference detecting device by the moving speed detecting means, sets the calculated target region parallax calculating means for calculating a degree of similarity,
The parallax calculation means sets the pixel determined as the edge of the first image as the target pixel, sets the neighboring image centered on the target pixel as the first pixel block, and the same position as the block of the first pixel Moving the second image block in the horizontal direction to calculate a pixel position having the maximum similarity with the first image block as disparity information;
A step of receiving a frame rate setting of the stereo camera from the outside;
The matching area setting means reads from the area size instruction information table according to the frame rate with reference to the area size instruction information table in which the area information of the calculation target area is registered in association with the frame rate. Setting the area to be calculated of the area information at a location corresponding to the moving speed;
A parallax detection device comprising:
JP2013027248A 2013-02-15 2013-02-15 Parallax detection device and parallax detection method Expired - Fee Related JP6209825B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013027248A JP6209825B2 (en) 2013-02-15 2013-02-15 Parallax detection device and parallax detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013027248A JP6209825B2 (en) 2013-02-15 2013-02-15 Parallax detection device and parallax detection method

Publications (2)

Publication Number Publication Date
JP2014157433A JP2014157433A (en) 2014-08-28
JP6209825B2 true JP6209825B2 (en) 2017-10-11

Family

ID=51578283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013027248A Expired - Fee Related JP6209825B2 (en) 2013-02-15 2013-02-15 Parallax detection device and parallax detection method

Country Status (1)

Country Link
JP (1) JP6209825B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016130099A (en) * 2015-01-14 2016-07-21 株式会社ニコン Imaging device
KR102298652B1 (en) * 2015-01-27 2021-09-06 삼성전자주식회사 Method and apparatus for determining disparty
JP6346869B2 (en) * 2015-03-31 2018-06-20 公益財団法人鉄道総合技術研究所 Stereo image processing method and apparatus
JP6363587B2 (en) 2015-12-14 2018-07-25 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and warning presenting method
JP6936557B2 (en) * 2016-05-16 2021-09-15 日立Astemo株式会社 Search processing device and stereo camera device
JP6899673B2 (en) * 2017-03-15 2021-07-07 日立Astemo株式会社 Object distance detector
JP2020013586A (en) 2019-08-13 2020-01-23 株式会社ニコン Imaging apparatus
JP6867464B2 (en) 2019-11-28 2021-04-28 株式会社ソニー・インタラクティブエンタテインメント Information processing device and warning presentation method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4424797B2 (en) * 1999-11-26 2010-03-03 富士通株式会社 3D shape detection method
JP2008039491A (en) * 2006-08-02 2008-02-21 Fuji Heavy Ind Ltd Stereo image processing apparatus

Also Published As

Publication number Publication date
JP2014157433A (en) 2014-08-28

Similar Documents

Publication Publication Date Title
JP6209825B2 (en) Parallax detection device and parallax detection method
US10868981B2 (en) Shooting control apparatus, shooting control method, and shooting apparatus
CA3002628C (en) Display control method and display control device
JP5680573B2 (en) Vehicle driving environment recognition device
JP5172314B2 (en) Stereo camera device
JP6176028B2 (en) Vehicle control system, image sensor
JP5682304B2 (en) Image providing device
JP5399027B2 (en) A device having a system capable of capturing a stereoscopic image to assist driving of an automobile
US11676394B2 (en) Processing device for conversion of images
US20110228980A1 (en) Control apparatus and vehicle surrounding monitoring apparatus
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
JP2020501423A (en) Camera means and method for performing context-dependent acquisition of a surrounding area of a vehicle
JPWO2018003532A1 (en) Object detection display device, moving object and object detection display method
JP6032034B2 (en) Object detection device
JP4980970B2 (en) Image pickup means adjustment device and object detection device
CN110293973B (en) Driving support system
US9813694B2 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value deriving method
JP2017220876A (en) Periphery monitoring device
JP2012073927A (en) Driving support apparatus
JP2013185871A (en) Mobile object position attitude estimation device and method
JP2017129543A (en) Stereo camera device and vehicle
US20200118280A1 (en) Image Processing Device
CN111345036A (en) Image processing apparatus, imaging apparatus, driving assistance apparatus, moving object, and image processing method
JP2014130429A (en) Photographing device and three-dimensional object area detection program
JP2010262665A (en) On-vehicle device and vehicle recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170828

R151 Written notification of patent or utility model registration

Ref document number: 6209825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees