JP2018025498A - Movement velocity computation device - Google Patents

Movement velocity computation device Download PDF

Info

Publication number
JP2018025498A
JP2018025498A JP2016158298A JP2016158298A JP2018025498A JP 2018025498 A JP2018025498 A JP 2018025498A JP 2016158298 A JP2016158298 A JP 2016158298A JP 2016158298 A JP2016158298 A JP 2016158298A JP 2018025498 A JP2018025498 A JP 2018025498A
Authority
JP
Japan
Prior art keywords
distance
dimensional object
moving speed
image
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016158298A
Other languages
Japanese (ja)
Other versions
JP6836350B2 (en
Inventor
淑実 大久保
Toshimi Okubo
淑実 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2016158298A priority Critical patent/JP6836350B2/en
Publication of JP2018025498A publication Critical patent/JP2018025498A/en
Application granted granted Critical
Publication of JP6836350B2 publication Critical patent/JP6836350B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve both stability of three-dimensional object recognition and quick calculation of a moving speed for a three-dimensional object existing around an angle of view.SOLUTION: A stereo image processing unit 5 is configured to conduct stereo matching, using a pair of shot images to create a distance image serving as a distribution of a distance on the shot image. A three-dimensional object detection unit 8 is configured to calculate a distance representative value on the basis of a histogram of the distance existing in a section in each of a plurality of sections set on the distance image, and group the distance representative value for each section to detect a three-dimensional object existing on a road surface. A moving speed calculation unit 9 is configured to switch a method of calculating a moving speed of the three-dimensional object in accordance with an estimation value of a gradient of the distance representative value for the three-dimensional object existing around an angle of view.SELECTED DRAWING: Figure 1

Description

本発明は、ステレオカメラを用いた移動速度演算装置に関する。   The present invention relates to a moving speed calculation device using a stereo camera.

特許文献1には、距離データと、オプティカルフローとに基づいて、自車両前方に存在する立体物の移動速度を算出する移動速度検出装置が開示されている。この検出装置では、ステレオマッチングにより算出された距離データについて、横方向および距離方向の位置が接近しているものがグループ化され、グループを代表する視差(例えば、平均値や最頻値など)とともに立体物が認識される。また、時系列的に並ぶ複数の撮像画像に基づいて、立体物のオプティカルフローが検出される。立体物の移動速度は、距離データにより特定される立体物の実空間上の位置と、オプティカルフローにより特定される画像上の立体物の位置的な変化量とを、所定の数式に代入することによって算出される。この検出装置によれば、立体物を信頼性よく認識しつつ、立体物の移動速度を素早く算出することで、自車両前方に飛び出す歩行者のような立体物であっても、危険判定を有効に行うことができる。また、特許文献1には、画像平面上の全ての画素ブロックについてオプティカルフローを算出することだけでなく、オプティカルフローを算出する領域を画像平面の一部分に限定することで、演算量の低減を図ることについても記載されている。   Patent Document 1 discloses a moving speed detection device that calculates the moving speed of a three-dimensional object existing ahead of the host vehicle based on distance data and an optical flow. In this detection device, the distance data calculated by stereo matching are grouped together in the horizontal direction and the distance direction, and together with parallax (for example, an average value or a mode value) representing the group. A three-dimensional object is recognized. Further, the optical flow of the three-dimensional object is detected based on a plurality of captured images arranged in time series. The moving speed of the three-dimensional object is obtained by substituting the position in the real space of the three-dimensional object specified by the distance data and the positional change amount of the three-dimensional object on the image specified by the optical flow into a predetermined mathematical formula. Is calculated by According to this detection device, the risk determination is effective even for a three-dimensional object such as a pedestrian jumping forward of the host vehicle by quickly calculating the moving speed of the three-dimensional object while recognizing the three-dimensional object with high reliability. Can be done. Further, in Patent Document 1, not only the optical flow is calculated for all pixel blocks on the image plane, but also the region for calculating the optical flow is limited to a part of the image plane, thereby reducing the amount of calculation. It is also described.

特開2005−214914号公報JP 2005-214914 A

しかしながら、特許文献1では、距離データとオプティカルフローとを用いて移動速度が算出される領域は、画像平面の全体または一部として固定的に設定されており、移動速度の算出手法を動的に切り替えるものではない。   However, in Patent Document 1, the region in which the moving speed is calculated using the distance data and the optical flow is fixedly set as the whole or a part of the image plane, and the moving speed calculation method is dynamically changed. It does not switch.

本発明の目的は、画角付近に存在する立体物について、立体物認識の安定性と移動速度の迅速な算出との両立を図ることである。   An object of the present invention is to achieve both the stability of the three-dimensional object recognition and the quick calculation of the moving speed for a three-dimensional object existing near the angle of view.

かかる課題を解決すべく、本発明は、ステレオカメラと、ステレオ画像処理部と、立体物検出部と、移動速度算出部とを有する移動速度演算装置を提供する。ステレオカメラは、自車両前方の景色を撮像することにより、一対の撮像画像を時系列的に出力する。ステレオ画像処理部は、一対の撮像画像を用いたステレオマッチングを行い、撮像画像上における距離の分布である距離画像を生成する。立体物検出部は、距離画像上に設定された複数の区分のそれぞれについて、区分内に存在する距離のヒストグラムに基づいて距離代表値を算出すると共に、区分毎の距離代表値をグルーピングすることによって、路面上に存在する立体物を検出する。移動速度算出部は、画角付近に存在する立体物について、距離代表値の傾きの推定値に応じて、立体物の移動速度の算出手法を切り替える。   In order to solve this problem, the present invention provides a moving speed calculation device having a stereo camera, a stereo image processing unit, a three-dimensional object detection unit, and a moving speed calculation unit. The stereo camera outputs a pair of captured images in time series by capturing a scene in front of the host vehicle. The stereo image processing unit performs stereo matching using a pair of captured images, and generates a distance image that is a distribution of distances on the captured image. The three-dimensional object detection unit calculates a distance representative value for each of a plurality of sections set on the distance image based on a histogram of distances existing in the section, and groups the distance representative values for each section. , To detect a three-dimensional object present on the road surface. The moving speed calculation unit switches the calculation method of the moving speed of the three-dimensional object according to the estimated value of the gradient of the distance representative value for the three-dimensional object existing near the angle of view.

ここで、本発明において、時系列的に前後する撮像画像に基づいて、立体物のオプティカルフローを検出するオプティカルフロー検出部をさらに設けてもよい。この場合、移動速度算出部は、距離代表値の傾きの推定値が所定の閾値以上の場合には、オプティカルフロー検出部によって検出されたオプティカルフローに位置的に対応する距離代表値の時間微分に基づいて、立体物の移動速度を算出する。また、移動速度算出部は、距離代表値の傾きの推定値が所定の閾値よりも小さい場合、立体物検出部によって検出された立体物の距離の時間微分に基づいて、立体物の移動速度を算出する。   Here, in the present invention, an optical flow detection unit that detects an optical flow of a three-dimensional object based on captured images that move back and forth in time series may be further provided. In this case, when the estimated value of the gradient of the distance representative value is equal to or greater than a predetermined threshold, the moving speed calculation unit calculates the time derivative of the distance representative value that corresponds to the optical flow detected by the optical flow detection unit. Based on this, the moving speed of the three-dimensional object is calculated. In addition, when the estimated value of the gradient of the distance representative value is smaller than a predetermined threshold, the moving speed calculation unit calculates the moving speed of the three-dimensional object based on the time derivative of the three-dimensional object distance detected by the three-dimensional object detection unit. calculate.

また、本発明において、オプティカルフロー検出部は、自車両よりも左右外側の画像領域を処理対象として、オプティカルフローを検出してもよい。   In the present invention, the optical flow detection unit may detect an optical flow with an image region outside the left and right sides of the host vehicle as a processing target.

本発明によれば、画角付近に存在する立体物について、距離代表値の傾きの推定値に応じて移動速度の算出手法を動的に切り替えることで、立体物認識の安定性と移動速度の迅速な算出との両立を図ることができる。   According to the present invention, for a three-dimensional object existing near the angle of view, the moving speed calculation method is dynamically switched according to the estimated value of the slope of the distance representative value, so that the stability of the three-dimensional object recognition and the movement speed can be improved. It is possible to achieve both a quick calculation.

本実施形態に係る移動速度演算装置のブロック図Block diagram of a moving speed calculation device according to the present embodiment 画角付近に先行車が存在する撮像画像を示す図The figure which shows the picked-up image where the preceding vehicle exists near the angle of view 距離代表値の傾き推定の説明図Explanatory drawing of slope estimation of typical distance value

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

図1は、本実施形態に係る移動速度演算装置のブロック構成図である。この移動速度演算装置1は、自動車等の車両に搭載され、自車両前方に存在する先行車等の立体物の移動速度を算出する。車両前方の監視領域内の景色を撮像するステレオカメラは、ルームミラーの近傍に取り付けられている。このステレオカメラは、一対のカメラ2,3で構成されており、それぞれのカメラ2,3には、イメージセンサ(例えば、CCDまたはCMOSセンサ等)が内蔵されている。メインカメラ2は、ステレオ画像処理を行う際に必要な基準画像(右画像)を撮像し、サブカメラ3は、比較画像(左画像)を撮像する。互いの同期が取れている状態において、カメラ2,3から出力された各アナログ画像は、A/Dコンバータを介して所定の輝度階調(例えば、RGB256階調)のデジタル画像に変換され、画像補正部4に出力される。   FIG. 1 is a block diagram of a moving speed calculation device according to this embodiment. This moving speed calculation device 1 is mounted on a vehicle such as an automobile, and calculates the moving speed of a three-dimensional object such as a preceding vehicle existing in front of the host vehicle. A stereo camera that captures a scene in the monitoring area in front of the vehicle is attached in the vicinity of the room mirror. This stereo camera is composed of a pair of cameras 2 and 3, and each of the cameras 2 and 3 includes an image sensor (for example, a CCD or CMOS sensor). The main camera 2 captures a reference image (right image) necessary for performing stereo image processing, and the sub camera 3 captures a comparison image (left image). In a state where they are synchronized with each other, each analog image output from the cameras 2 and 3 is converted into a digital image of a predetermined luminance gradation (for example, RGB 256 gradation) via the A / D converter, and the image It is output to the correction unit 4.

画像補正部4は、それぞれのカメラ2,3から出力されたデジタル画像に対して、輝度の補正や画像の幾何学的な変換等を施す。通常、一対のカメラ2,3の取付位置は、程度の差はあるものの誤差が存在するため、それに起因したずれが左右の各画像に生じている。このずれを補正するために、アフィン変換回路等を用いて、画像の回転や平行移動等の幾何学的な変換が行われる。このような画像処理を経て、メインカメラ2より基準画像データが得られ、サブカメラ3より比較画像データが得られる。ここで、画像データによって規定される画像平面は、i−j座標系で表現され、画像の左下隅を原点として、水平方向をi座標軸、垂直方向をj座標軸とする。1フレーム(1画像の表示単位)相当のステレオ画像は、後段のステレオ画像処理部5に出力されるとともに、後段の画像データメモリ6に格納される。   The image correction unit 4 performs brightness correction, image geometric conversion, and the like on the digital images output from the cameras 2 and 3. Usually, there is an error in the mounting position of the pair of cameras 2 and 3 although there is a difference in degree. Therefore, a shift caused by the error occurs in the left and right images. In order to correct this deviation, geometrical transformation such as image rotation and translation is performed using an affine transformation circuit or the like. Through such image processing, reference image data is obtained from the main camera 2, and comparison image data is obtained from the sub camera 3. Here, the image plane defined by the image data is expressed in the ij coordinate system, with the lower left corner of the image as the origin, the horizontal direction as the i coordinate axis, and the vertical direction as the j coordinate axis. A stereo image corresponding to one frame (one image display unit) is output to the subsequent stereo image processing unit 5 and stored in the subsequent image data memory 6.

ステレオ画像処理部5は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)及びワークエリアとしてのRAM(Random Access Memory)を備えたマイクロコンピュータで構成され、ROMに格納されたプログラムに従った各種の処理を実行する。ステレオ画像処理部5は、基準画像と比較画像とに基づいて、1フレーム相当の撮像画像に関する距離画像を算出する。ここで、「距離画像」とは、1フレームの撮像画像によって規定される画像平面において小領域毎に算出された視差dの分布・集合であり、個々の視差dは画像平面上の位置(i,j)と対応付けられている。視差dの算出単位は、基準画像の一部を構成する所定面積(例えば、4×4画素)の画素ブロックであり、1つの画素ブロックより1つの視差が算出される。例えば、基準画像が200×512画素で構成されている場合、1フレーム相当の撮像画像から、最大で画素ブロックPBijの個数相当(50×128個)の視差群が算出される。周知のように、視差dは、その算出単位である画素ブロックPBijに関する水平方向のずれ量であり、画素ブロックPBijに写し出された対象物までの距離と大きな相関がある。すなわち、画素ブロックPBij内に写し出されている対象物がカメラ2,3に近いほど、この画素ブロックPBijの視差dは大きくなり、対象物が遠いほど視差dは小さくなる(無限に遠い場合、視差dは0になる)。   The stereo image processing unit 5 is composed of, for example, a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) as a work area, and follows a program stored in the ROM. Various processes are executed. The stereo image processing unit 5 calculates a distance image related to a captured image corresponding to one frame based on the reference image and the comparison image. Here, the “distance image” is a distribution / set of the parallax d calculated for each small area in the image plane defined by the captured image of one frame, and each parallax d is a position (i in the image plane). , J). The unit for calculating the parallax d is a pixel block having a predetermined area (for example, 4 × 4 pixels) constituting a part of the reference image, and one parallax is calculated from one pixel block. For example, when the reference image is composed of 200 × 512 pixels, a parallax group corresponding to the maximum number of pixel blocks PBij (50 × 128) is calculated from the captured image corresponding to one frame. As is well known, the parallax d is a horizontal shift amount related to the pixel block PBij that is a calculation unit thereof, and has a large correlation with the distance to the object projected on the pixel block PBij. That is, the closer the object projected in the pixel block PBij is to the cameras 2 and 3, the larger the parallax d of the pixel block PBij is, and the farther the object is, the smaller the parallax d is (if the object is infinitely distant, d becomes 0).

ある画素ブロックPBij(相関元)に関する視差dを算出する場合、この画素ブロックPBijの輝度特性と相関を有する領域(相関先)を比較画像において特定する。上述したように、カメラ2,3から対象物までの距離は、基準画像と比較画像との間における水平方向のずれ量として現れる。したがって、比較画像において相関先を探索する場合、相関元となる画素ブロックPijのj座標と同じ水平線(エピポーラライン)上を探索すればよい。ステレオ画像処理部5は、相関元のi座標を基準に設定された所定の探索範囲内において、エピポーラライン上を1画素ずつシフトしながら、相関元と相関先の候補との間の相関性を順次評価する(ステレオマッチング)。そして、原則として、最も相関が高いと判断される相関先(相関先の候補の内のいずれか)の水平方向のずれ量が、その画素ブロックPBijの視差dとなる。   When calculating the parallax d regarding a certain pixel block PBij (correlation source), a region (correlation destination) having a correlation with the luminance characteristic of the pixel block PBij is specified in the comparison image. As described above, the distance from the cameras 2 and 3 to the object appears as a horizontal shift amount between the reference image and the comparison image. Therefore, when searching for the correlation destination in the comparison image, it is only necessary to search on the same horizontal line (epipolar line) as the j coordinate of the pixel block Pij that is the correlation source. The stereo image processing unit 5 shifts the correlation between the correlation source and the correlation destination candidate while shifting one pixel at a time on the epipolar line within a predetermined search range set based on the i coordinate of the correlation source. Sequential evaluation (stereo matching). In principle, the amount of horizontal deviation of the correlation destination (one of the correlation destination candidates) determined to have the highest correlation is the parallax d of the pixel block PBij.

2つの画素ブロックの相関は、数式1に示すように、輝度差絶対和CBを算出することにより評価することができる。同数式において、p1ijは一方の画素ブロックのij番目の画素の輝度値であり、p2ijは他方の画素ブロックのij番目の輝度値である。輝度差絶対和CBは、位置的に対応した輝度値p1ij,p2ijの差(絶対値)の画素ブロック全体における総和であって、その差が小さいほど両画素ブロックの相関が大きいことを意味している。基本的に、エピポーラライン上に存在する画素ブロック毎に算出された輝度差絶対和CBのうち、その値が最小となる画素ブロックが相関先と判断される。そして、このようにして特定された相関先と相関元との間のずれ量が視差dとなる。このような処理を経て算出された距離画像、すなわち、画像上の位置(i,j)と対応付けられた視差dの集合が、距離データメモリ7に格納される。なお、ブロック間の相関評価は、輝度差絶対和CBに限らず、輝度差二乗和を含めて任意の相関評価手法を用いることができる。   The correlation between the two pixel blocks can be evaluated by calculating the luminance difference absolute sum CB as shown in Equation 1. In the equation, p1ij is the luminance value of the ijth pixel of one pixel block, and p2ij is the ijth luminance value of the other pixel block. The luminance difference absolute sum CB is the sum of the differences (absolute values) of the luminance values p1ij and p2ij corresponding to each other in the entire pixel block, and the smaller the difference is, the greater the correlation between the two pixel blocks is. Yes. Basically, of the luminance difference absolute sum CB calculated for each pixel block existing on the epipolar line, the pixel block having the smallest value is determined as the correlation destination. Then, the amount of deviation between the correlation destination and the correlation source specified in this way becomes the parallax d. The distance image calculated through such processing, that is, a set of parallax d associated with the position (i, j) on the image is stored in the distance data memory 7. The correlation evaluation between blocks is not limited to the luminance difference absolute sum CB, and any correlation evaluation method including the luminance difference square sum can be used.

[数式1]
CB=Σ|p1ij−p2ij|
[Formula 1]
CB = Σ | p1ij−p2ij |

立体物検出部8、オプティカルフロー検出部9および移動速度算出部10を含む演算ユニットは、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)及びワークエリアとしてのRAM(Random Access Memory)を備えたマイクロコンピュータで構成され、ROMに格納されたプログラムに従った各種の処理を実行する。立体物検出部8は、画像データメモリ6から読み出された撮像画像と、距離データメモリ7から読み出された距離画像とに基づき、自車両を基準とした三次元空間上における道路の形状を規定する道路モデルを算出する。道路モデルは、実空間の座標系において、水平方向および垂直方向における直線式で表現される。道路に沿って存在する植物の植え込みやパイロン、ガードレールなどの立体物、または、路面に描かれた車線を規定する白線(または黄線)といった特徴物は、道路形状を認識する上で有効である。立体物検出部8は、道路に沿って存在するこれらの特徴物の実空間上の位置を認識し、この位置を連結することにより道路モデルを算出する。特徴物の実空間上の位置(x,y,z)は、距離データ上の位置(i,j)とこの位置に関して算出された視差dとに基づいて、周知の座標変換式より一義的に算出される。   The arithmetic unit including the three-dimensional object detection unit 8, the optical flow detection unit 9, and the movement speed calculation unit 10 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) as a work area. It comprises a microcomputer provided, and executes various processes according to programs stored in the ROM. The three-dimensional object detection unit 8 determines the shape of the road in the three-dimensional space based on the own vehicle based on the captured image read from the image data memory 6 and the distance image read from the distance data memory 7. Calculate the prescribed road model. The road model is expressed by a linear expression in the horizontal direction and the vertical direction in the coordinate system of the real space. Plants that exist along the road, solid objects such as pylons and guardrails, or features such as white lines (or yellow lines) that define lanes drawn on the road surface are effective in recognizing road shapes. . The three-dimensional object detection unit 8 recognizes the positions in the real space of these characteristic objects existing along the road, and calculates a road model by connecting these positions. The position (x, y, z) of the feature in the real space is uniquely determined from a well-known coordinate conversion formula based on the position (i, j) on the distance data and the parallax d calculated with respect to this position. Calculated.

また、立体物検出部8は、距離画像上に設定された複数の区分のそれぞれについて、区分内に存在する距離のヒストグラムに基づいて距離代表値を算出すると共に、区分毎の距離代表値をグルーピングすることによって、路面上に存在する立体物を検出する。具体的には、まず、1フレームの距離画像を横方向に分割することによって、縦短冊形状の複数の区分が設定される。それぞれの区分は、地面近傍が写し出される画像下側と、空が写し出される画像上方とを除いた領域として定義される。つぎに、個々の区分に関して、その内部に存在する距離値のヒストグラムが生成される。距離レンジを所定の長さ(区間)毎に分割した上で、ある区分内に存在するすべての距離値が該当する区間に投票される。そして、それぞれの区分について、区分内の距離値群を代表する距離代表値が特定される。この距離代表値は、所定のしきい値以上の出現頻度を有する距離値であり、同一区分内において単一または複数選択される。そして、区分と距離とによって規定される処理空間において、互いに隣接した距離代表値(前後方向および横方向の距離が近接しているもの)を同一物体とみなしてグループ化することによって、路面上に存在する立体物が検出される。立体物の実空間上の位置(x,y,z)は、上記特徴物の場合と同様、距離データ上の位置(i,j)とこの位置に関して算出された視差d(代表視差)とに基づいて、周知の座標変換式より一義的に算出される。以上の処理を経て、路面上に存在する立体物が検出される。   The three-dimensional object detection unit 8 calculates a distance representative value for each of a plurality of sections set on the distance image based on a histogram of distances existing in the section, and groups the distance representative values for each section. By doing so, a three-dimensional object existing on the road surface is detected. Specifically, first, a plurality of vertical strip-shaped sections are set by dividing a distance image of one frame in the horizontal direction. Each section is defined as an area excluding the lower side of the image where the vicinity of the ground is projected and the upper side of the image where the sky is projected. Next, for each segment, a histogram of the distance values present within it is generated. After dividing the distance range into predetermined lengths (sections), all the distance values existing in a certain category are voted for the corresponding section. Then, a distance representative value that represents a group of distance values in the section is specified for each section. This distance representative value is a distance value having an appearance frequency equal to or higher than a predetermined threshold value, and is selected as a single value or a plurality of values within the same section. Then, in the processing space defined by the division and the distance, the distance representative values adjacent to each other (those whose front-rear and lateral distances are close to each other) are regarded as the same object and grouped on the road surface. An existing solid object is detected. The position (x, y, z) in the real space of the three-dimensional object is divided into the position (i, j) on the distance data and the parallax d (representative parallax) calculated with respect to this position, as in the case of the feature object. Based on this, it is uniquely calculated from a well-known coordinate conversion formula. Through the above processing, a three-dimensional object existing on the road surface is detected.

なお、道路形状を規定する道路モデルおよび立体物の認識に関する詳細については、特開平5−265547号公報、特開平6−266828号公報、特開平10−283461号公報、特開平10−283477号公報、特開平11−213138号公報、特開2001−92970号公報などに開示されているので必要ならば参照されたい。
For details regarding the road model that defines the road shape and the recognition of the three-dimensional object, JP-A-5-265547, JP-A-6-266828, JP-A-10-283461, JP-A-10-283477 are disclosed. JP-A-11-213138, JP-A-2001-29970, etc., so refer to them if necessary.

オプティカルフロー検出部9は、時系列的に前後する撮像画像に基づいて立体物のオプティカルフローを検出する。具体的には、まず、画像データメモリ6より、例えば、2フレーム分の撮像画像(基準画像)が読み込まれる。つぎに、前の撮像画像を構成する画素ブロック毎に、画素ブロック(相関元)の輝度特性と相関を有する領域(相関先)が後の撮像画像において特定される。オプティカルフローを検出する場合、上述したステレオマッチング処理とは異なり、相関元となる画素ブロックを後の撮像画像の全域に亘り水平/垂直方向に一画素ずつオフセットさせながら、最も高い相関を有する相関先を特定する(二次元マッチング)。この二次元マッチングにより、それぞれの画素ブロックについて、垂直方向における位置的な変化量(Δj)と、水平方向における位置的な変化量(Δi)とがオプティカルフローとして検出される。各画素ブロックについて検出されたオプティカルフローは、画像平面の位置(i,j)と対応付けられる。   The optical flow detection unit 9 detects the optical flow of a three-dimensional object based on captured images that move back and forth in time series. Specifically, first, for example, a captured image (reference image) for two frames is read from the image data memory 6. Next, for each pixel block constituting the previous captured image, a region (correlation destination) having a correlation with the luminance characteristic of the pixel block (correlation source) is specified in the subsequent captured image. When detecting an optical flow, unlike the stereo matching process described above, the correlation destination having the highest correlation is obtained by offsetting the pixel block as a correlation source one pixel at a time in the horizontal / vertical direction over the entire area of the subsequent captured image. Is identified (two-dimensional matching). By this two-dimensional matching, the positional change amount (Δj) in the vertical direction and the positional change amount (Δi) in the horizontal direction are detected as optical flows for each pixel block. The optical flow detected for each pixel block is associated with the position (i, j) on the image plane.

本実施形態において、オプティカルフロー検出部9は、撮像画像全体を処理対象とするのではなく、自車両よりも左右外側の画像領域だけを処理対象として、オプティカルフローを検出する。後述するように、オプティカルフローが用いられるのは、ステレオカメラの画角近傍だけであることから、処理対象を限定して、演算負荷の軽減を図るためである。   In the present embodiment, the optical flow detection unit 9 detects the optical flow not using the entire captured image as a processing target but using only an image area outside the left and right sides of the host vehicle as a processing target. As will be described later, the optical flow is used only in the vicinity of the angle of view of the stereo camera. Therefore, the processing load is limited to reduce the calculation load.

移動速度算出部10は、基本的に、立体物検出部8より出力された立体物の距離の時間微分に基づいて、この立体物の移動速度を算出する。ただし、移動速度算出部10は、ステレオカメラの画角付近に存在する立体物については、上述した距離代表値の傾きの推定値に応じて、立体物の移動速度の算出手法を切り替える。図2(a)〜(d)に示すように、画角横から先行車がカットインした場合(割り込み時や追い抜き時等)、立体物検出部8から出力された距離(例えば、距離代表値の平均値)を単純に時間微分した移動速度を用いると、先行車の側面Rが徐々に見えてくるが位置があまり変化しないため、相対速度が自車両より高いはずが低めに算出されてしまう。また、先行車の進行方向も推定できないため、カットインに対する自車両の応答が遅れる。   The movement speed calculation unit 10 basically calculates the movement speed of the three-dimensional object based on the time differentiation of the distance of the three-dimensional object output from the three-dimensional object detection unit 8. However, for the three-dimensional object existing near the angle of view of the stereo camera, the moving speed calculation unit 10 switches the calculation method of the moving speed of the three-dimensional object according to the estimated value of the gradient of the distance representative value described above. As shown in FIGS. 2A to 2D, when a preceding vehicle is cut in from the side of the angle of view (when interrupting or overtaking), the distance output from the three-dimensional object detection unit 8 (for example, the distance representative value) If the moving speed obtained by simply differentiating the average value of the vehicle) is used, the side surface R of the preceding vehicle gradually appears, but the position does not change so much that the relative speed should be higher than that of the host vehicle. . In addition, since the traveling direction of the preceding vehicle cannot be estimated, the response of the host vehicle to the cut-in is delayed.

図3は、距離代表値の傾き推定の説明図である。自車両を原点として、横方向をX軸、奥行き(距離)方向をZ軸とする。同図(a)に示すように、自車両と並行して先行車Rが走行している場合(先行車の背面が見えない状態)では、ストレオカメラによって写し出された先行車Rの側面に起因した代表距離値の群Zr(0)〜Zr(n)は、Z軸とほぼ平行に並んでいる。この場合、X−Z座標系において、代表距離値群Zr(0)〜Zr(n)の傾きを最小二乗法にて推定すると、この推定値は最大になる。立体物検出部8によって検出された先行車Rの距離の時間微分によって移動速度を算出する手法は立体物認識の安定性という点で優れているものの、この状態では、それよりもカットインに対する自車両の応答が遅れることが懸念される。   FIG. 3 is an explanatory diagram of the inclination estimation of the distance representative value. With the host vehicle as the origin, the horizontal direction is the X axis and the depth (distance) direction is the Z axis. As shown in FIG. 5A, when the preceding vehicle R is traveling in parallel with the host vehicle (when the rear surface of the preceding vehicle is not visible), the side surface of the preceding vehicle R projected by the streo camera is displayed. The resulting representative distance value groups Zr (0) to Zr (n) are arranged substantially parallel to the Z axis. In this case, in the XZ coordinate system, when the slopes of the representative distance value groups Zr (0) to Zr (n) are estimated by the least square method, the estimated value becomes maximum. Although the method of calculating the moving speed based on the time derivative of the distance of the preceding vehicle R detected by the three-dimensional object detection unit 8 is superior in terms of stability of three-dimensional object recognition, in this state, it is more suitable for cut-in. There is concern that the response of the vehicle will be delayed.

つぎに、同図(b)に示すように、自車両の進行路に割り込もうとする先行車Rが存在する場合(先行車Rの背面が見えない状態)では、この先行車Rの側面に起因した代表距離値群Zr(0)〜Zr(n)は、大きな負の傾きを形成する。この場合、X−Z座標系において、代表距離値群Zr(0)〜Zr(n)の傾きを最小二乗法にて推定すると、この推定値は比較的大きくなる。この状態も、立体物認識の安定性よりも、カットインに対する自車両の応答遅れが懸念される。   Next, as shown in FIG. 5B, when there is a preceding vehicle R that is going to interrupt the traveling path of the host vehicle (when the rear surface of the preceding vehicle R cannot be seen), the side surface of the preceding vehicle R is shown. The representative distance value groups Zr (0) to Zr (n) resulting from the above form a large negative slope. In this case, if the slopes of the representative distance value groups Zr (0) to Zr (n) are estimated by the least square method in the XZ coordinate system, the estimated value becomes relatively large. Also in this state, there is a concern that the response delay of the host vehicle with respect to cut-in is more than the stability of the three-dimensional object recognition.

さらに、同図(c)に示すように、自車両の進行路に割り込もうとする先行車Rが存在する場合(先行車Rの背面が見えている状態)では、この先行車Rの側面上の代表距離値群Zr(0)〜Zr(n)の一部は、大きな負の傾きを形成するが、先行車Rの背面に起因した残りのものは、正の傾きを形成する。この場合、X−Z座標系において、代表距離値群Zr(0)〜Zr(n)の傾きを最小二乗法にて推定すると、この推定値は比較的小さくなる。先行車Rの背面が見えている本状態では、この背面の位置変化が大きいので、カットインに対する自車両の応答遅れは殆ど問題とならない。   Further, as shown in FIG. 5 (c), when there is a preceding vehicle R to be interrupted on the traveling path of the own vehicle (when the rear surface of the preceding vehicle R is visible), the side surface of the preceding vehicle R A part of the upper representative distance value group Zr (0) to Zr (n) forms a large negative inclination, but the remaining part resulting from the rear surface of the preceding vehicle R forms a positive inclination. In this case, if the slopes of the representative distance value groups Zr (0) to Zr (n) are estimated by the least square method in the XZ coordinate system, the estimated value becomes relatively small. In this state in which the back surface of the preceding vehicle R is visible, since the position change of the back surface is large, the response delay of the own vehicle with respect to cut-in hardly poses a problem.

そこで、先行車Rに関して算出された代表距離値群Zr(0)〜Zr(n)の傾きを最小二乗法にて推定し、この推定値を所定の閾値と比較すれば、カットインに対する自車両の応答遅れが問題となる状況であるか否かを適切に判定することができる。そして、この判定結果に応じて、オプティカルフロー検出部9によって検出されたオプティカルフローに位置的に対応する距離の時間微分、および、立体物検出部8によって検出された立体物に関する距離の時間微分のいずれかに切り替えることによって、先行車Rの移動速度が算出される。具体的には、移動速度算出部10は、傾きの推定値が所定の閾値以上の場合には、オプティカルフロー検出部9によって検出されたオプティカルフローに位置的に対応する距離を選択する。この距離は、オプティカルフローが検出された画素ブロックについて算出された距離、または、この画素ブロックを含む区分の距離代表値が用いられ、先行車Rが存在する領域全体の平均の時間微分を移動速度とすることができる。一方、移動速度算出部10は、傾きの推定値が所定の閾値よりも小さい場合、通常どおり、立体物検出部8によって検出された先行車Rの距離の時間微分に基づいて、先行車Rの移動速度を算出する。なお、速度算出に使用する距離は、所定の距離(例えば10m以内)に限定してもよい。   Therefore, if the inclination of the representative distance value group Zr (0) to Zr (n) calculated for the preceding vehicle R is estimated by the least square method and this estimated value is compared with a predetermined threshold value, the host vehicle with respect to cut-in It is possible to appropriately determine whether or not the response delay is a problem. Then, according to the determination result, the time derivative of the distance corresponding to the optical flow detected by the optical flow detector 9 and the time derivative of the distance related to the three-dimensional object detected by the three-dimensional object detector 8 are obtained. By switching to either one, the moving speed of the preceding vehicle R is calculated. Specifically, the moving speed calculation unit 10 selects a distance corresponding to the optical flow detected by the optical flow detection unit 9 when the estimated value of the inclination is equal to or greater than a predetermined threshold. As this distance, the distance calculated for the pixel block in which the optical flow is detected or the distance representative value of the section including this pixel block is used, and the average time derivative of the entire region where the preceding vehicle R exists is calculated as the moving speed. It can be. On the other hand, when the estimated value of the inclination is smaller than the predetermined threshold value, the moving speed calculation unit 10 is based on the time derivative of the distance of the preceding vehicle R detected by the three-dimensional object detection unit 8 as usual. Calculate the moving speed. The distance used for speed calculation may be limited to a predetermined distance (for example, within 10 m).

このように、本実施形態によれば、ステレオカメラの画角付近に存在する立体物について、距離代表値の傾きの推定値に応じて移動速度の算出手法を動的に切り替えることで、立体物認識の安定性と移動速度の迅速な算出との両立を図ることができる。   As described above, according to the present embodiment, for a three-dimensional object that exists in the vicinity of the angle of view of the stereo camera, the moving speed calculation method is dynamically switched according to the estimated value of the inclination of the distance representative value. It is possible to achieve both the stability of recognition and the quick calculation of the moving speed.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。例えば、上述した実施形態では、ステレオ画像処理部5および演算ユニット(立体物検出部8、オプティカルフロー検出部9および移動速度算出部10)のそれぞれが、中央処理装置(CPU)、ROM、RAM等を含む半導体集積回路で構成される例について説明したが、これに限らず、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)等の集積回路で構成されるようにしてもよい。また、単一の中央処理装置、FPGA、ASICによって構成されるようにしてもよいし、これら複数を組み合わせることによって構成されるようにしてもよい。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done. For example, in the above-described embodiment, the stereo image processing unit 5 and the arithmetic unit (the three-dimensional object detection unit 8, the optical flow detection unit 9, and the moving speed calculation unit 10) are a central processing unit (CPU), a ROM, a RAM, and the like. However, the present invention is not limited to this, and may be configured by an integrated circuit such as an FPGA (Field Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit). Further, it may be configured by a single central processing unit, FPGA, ASIC, or may be configured by combining a plurality of these.

また、コンピュータを、上述した移動速度演算装置1として機能させるプログラム、あるいは、当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、DRAM、SRAM、ROM、NVRAM、CD、DVD、BD等の記憶媒体も、本発明の他の形態として提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   Further, a program for causing a computer to function as the above-described moving speed calculation device 1 or a computer-readable flexible disk, magneto-optical disk, DRAM, SRAM, ROM, NVRAM, CD, DVD, BD on which the program is recorded. Such a storage medium is also provided as another embodiment of the present invention. Here, the program refers to data processing means described in an arbitrary language or description method.

さらに、上述した移動速度演算装置1によって実行される処理を構成する各工程は、必ずしも上記実施形態で説明した順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   Further, the steps constituting the processing executed by the moving speed calculation device 1 described above do not necessarily have to be processed in time series in the order described in the above embodiment, and may include processing in parallel or by a subroutine. Good.

1 移動速度演算装置
2 メインカメラ
3 サブカメラ
4 画像補正部
5 ステレオ画像処理部
6 画像データメモリ
7 距離データメモリ
8 立体物検出部
9 オプティカルフロー検出部
10 移動速度算出部
DESCRIPTION OF SYMBOLS 1 Movement speed calculating device 2 Main camera 3 Sub camera 4 Image correction part 5 Stereo image processing part 6 Image data memory 7 Distance data memory 8 Solid object detection part 9 Optical flow detection part 10 Movement speed calculation part

Claims (3)

移動速度演算装置において、
自車両前方の景色を撮像することにより、一対の撮像画像を時系列的に出力するステレオカメラと、
前記一対の撮像画像を用いたステレオマッチングを行い、前記撮像画像上における距離の分布である距離画像を生成するステレオ画像処理部と、
前記距離画像上に設定された複数の区分のそれぞれについて、当該区分内に存在する距離のヒストグラムに基づいて距離代表値を算出すると共に、前記区分毎の距離代表値をグルーピングすることによって、路面上に存在する立体物を検出する立体物検出部と、
画角付近に存在する前記立体物について、前記距離代表値の傾きの推定値に応じて、前記立体物の移動速度の算出手法を切り替える移動速度算出部と
を有することを特徴とする移動速度演算装置。
In the moving speed calculation device,
A stereo camera that outputs a pair of captured images in time series by imaging the scenery in front of the host vehicle;
A stereo image processing unit that performs stereo matching using the pair of captured images and generates a distance image that is a distribution of distances on the captured image;
For each of a plurality of sections set on the distance image, a distance representative value is calculated based on a histogram of distances existing in the section, and the distance representative value for each section is grouped to thereby calculate the distance on the road surface. A three-dimensional object detection unit for detecting a three-dimensional object existing in
A moving speed calculation unit that switches a calculation method of the moving speed of the three-dimensional object according to an estimated value of the inclination of the distance representative value for the three-dimensional object existing near the angle of view. apparatus.
時系列的に前後する前記撮像画像に基づいて、前記立体物のオプティカルフローを検出するオプティカルフロー検出部をさらに有し、
前記移動速度算出部は、
前記距離代表値の傾きの推定値が所定の閾値以上の場合には、前記オプティカルフロー検出部によって検出された前記オプティカルフローに位置的に対応する前記距離代表値の時間微分に基づいて、前記立体物の移動速度を算出し、
前記距離代表値の傾きの推定値が所定の閾値よりも小さい場合、前記立体物検出部によって検出された前記立体物の距離の時間微分に基づいて、前記立体物の移動速度を算出することを特徴とする請求項1に記載された移動速度演算装置。
Further comprising an optical flow detection unit for detecting an optical flow of the three-dimensional object based on the captured images moving back and forth in time series,
The moving speed calculation unit
If the estimated value of the slope of the distance representative value is greater than or equal to a predetermined threshold, the three-dimensional object is determined based on the time derivative of the distance representative value that corresponds to the optical flow detected by the optical flow detector. Calculate the moving speed of the object,
When the estimated value of the slope of the distance representative value is smaller than a predetermined threshold, the moving speed of the three-dimensional object is calculated based on the time derivative of the distance of the three-dimensional object detected by the three-dimensional object detection unit. The moving speed calculation device according to claim 1, wherein
前記オプティカルフロー検出部は、自車両よりも左右外側の画像領域を処理対象として、オプティカルフローを検出することを特徴とする請求項1または2に記載された移動速度演算装置。   3. The moving speed calculation device according to claim 1, wherein the optical flow detection unit detects an optical flow using an image region outside the left and right sides of the host vehicle as a processing target. 4.
JP2016158298A 2016-08-11 2016-08-11 Movement speed arithmetic unit Active JP6836350B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016158298A JP6836350B2 (en) 2016-08-11 2016-08-11 Movement speed arithmetic unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016158298A JP6836350B2 (en) 2016-08-11 2016-08-11 Movement speed arithmetic unit

Publications (2)

Publication Number Publication Date
JP2018025498A true JP2018025498A (en) 2018-02-15
JP6836350B2 JP6836350B2 (en) 2021-02-24

Family

ID=61195036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016158298A Active JP6836350B2 (en) 2016-08-11 2016-08-11 Movement speed arithmetic unit

Country Status (1)

Country Link
JP (1) JP6836350B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005214914A (en) * 2004-02-02 2005-08-11 Fuji Heavy Ind Ltd Traveling speed detecting device and traveling speed detection method
JP2008065634A (en) * 2006-09-07 2008-03-21 Fuji Heavy Ind Ltd Object detection apparatus and object detection method
US20150103159A1 (en) * 2013-10-14 2015-04-16 Mobileye Vision Technologies Ltd. Forward-facing multi-imaging system for navigating a vehicle
JP2015195018A (en) * 2014-03-18 2015-11-05 株式会社リコー Image processor, image processing method, operation support system, and program
JP2015207281A (en) * 2014-04-10 2015-11-19 株式会社リコー Solid detector, solid detection method, solid detection program, and mobile body equipment control system
JP2016110539A (en) * 2014-12-10 2016-06-20 富士重工業株式会社 Vehicle-outside environment recognition device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005214914A (en) * 2004-02-02 2005-08-11 Fuji Heavy Ind Ltd Traveling speed detecting device and traveling speed detection method
JP2008065634A (en) * 2006-09-07 2008-03-21 Fuji Heavy Ind Ltd Object detection apparatus and object detection method
US20150103159A1 (en) * 2013-10-14 2015-04-16 Mobileye Vision Technologies Ltd. Forward-facing multi-imaging system for navigating a vehicle
JP2015195018A (en) * 2014-03-18 2015-11-05 株式会社リコー Image processor, image processing method, operation support system, and program
JP2015207281A (en) * 2014-04-10 2015-11-19 株式会社リコー Solid detector, solid detection method, solid detection program, and mobile body equipment control system
JP2016110539A (en) * 2014-12-10 2016-06-20 富士重工業株式会社 Vehicle-outside environment recognition device

Also Published As

Publication number Publication date
JP6836350B2 (en) 2021-02-24

Similar Documents

Publication Publication Date Title
US8923560B2 (en) Exterior environment recognition device
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
US8947508B2 (en) Image processing apparatus
JP6013884B2 (en) Object detection apparatus and object detection method
US8908924B2 (en) Exterior environment recognition device and exterior environment recognition method
JP5127182B2 (en) Object detection device
US8861787B2 (en) Environment recognition device and environment recognition method
JP6291469B2 (en) Obstacle detection device and obstacle detection method
JP4275378B2 (en) Stereo image processing apparatus and stereo image processing method
JP6561512B2 (en) Parallax value deriving device, moving body, robot, parallax value deriving method, parallax value producing method, and program
JP5164351B2 (en) Object detection apparatus and object detection method
KR20150080569A (en) Moving object recognizer
JP2016009487A (en) Sensor system for determining distance information on the basis of stereoscopic image
JP2016152027A (en) Image processing device, image processing method and program
JP4067340B2 (en) Object recognition device and object recognition method
JP6466679B2 (en) Object detection device
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP6836350B2 (en) Movement speed arithmetic unit
JP6719328B2 (en) Exterior monitoring device
JP2018146495A (en) Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system
JP4099011B2 (en) Monitoring device and monitoring method
JP3965067B2 (en) Stereo monitoring device and stereo monitoring method
JP6299103B2 (en) Object recognition device, object recognition program used for the object recognition device, and moving body control system
JP4555635B2 (en) Image processing apparatus and image processing method
Lee et al. Implementation of stereo camera-based automatic unmanned ground vehicle system for adaptive target detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210205

R150 Certificate of patent or registration of utility model

Ref document number: 6836350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250