JP2022037358A - Surrounding environment recognition apparatus - Google Patents

Surrounding environment recognition apparatus Download PDF

Info

Publication number
JP2022037358A
JP2022037358A JP2020141452A JP2020141452A JP2022037358A JP 2022037358 A JP2022037358 A JP 2022037358A JP 2020141452 A JP2020141452 A JP 2020141452A JP 2020141452 A JP2020141452 A JP 2020141452A JP 2022037358 A JP2022037358 A JP 2022037358A
Authority
JP
Japan
Prior art keywords
unit
dimensional object
pair
back surface
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020141452A
Other languages
Japanese (ja)
Inventor
淑実 大久保
Toshimi Okubo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2020141452A priority Critical patent/JP2022037358A/en
Publication of JP2022037358A publication Critical patent/JP2022037358A/en
Pending legal-status Critical Current

Links

Images

Abstract

To improve the accuracy of identifying a three-dimensional object by properly pairing a back face and side faces of the three-dimensional object.SOLUTION: A surrounding environment recognition apparatus includes: a position derivation unit which derives a three-dimensional position by block in a captured image; a grouping unit which groups blocks of which differences of three-dimensional positions fall within a predetermined range to specify three-dimensional object candidates; a pairing unit which projects the three-dimensional object candidates on a horizontal plane, discriminates a back face from side faces on the basis of angles with respect to a depth direction, and pairs the side faces and back face to specify a pair; and a pair prediction unit which predicts future positions of the pair. The grouping unit specifies three-dimensional object candidates (220h, 220i) on the basis of the future positions of the pair (232, 234) predicted in the past by the pair prediction unit.SELECTED DRAWING: Figure 11

Description

本発明は、自車両の進行方向に存在する立体物を特定する車外環境認識装置に関する。 The present invention relates to an external environment recognition device that identifies a three-dimensional object existing in the traveling direction of the own vehicle.

特許文献1には、自車両の前方に位置する先行車両を検出し、先行車両との衝突被害を軽減する技術や、先行車両との車間距離を安全な距離に保つように追従制御する技術が開示されている。 Patent Document 1 includes a technology for detecting a preceding vehicle located in front of the own vehicle to reduce collision damage with the preceding vehicle, and a technology for following control so as to keep the distance between the preceding vehicle and the vehicle at a safe distance. It has been disclosed.

特許第3349060号公報Japanese Patent No. 3349060

自車両と先行車両との衝突被害を軽減するため、また、先行車両への追従制御を実現するため、自車両は、まず、進行方向に存在する立体物を特定し、その立体物が先行車両等の特定物であるか否か判定する。自車両は、立体物を適切に特定するために、例えば、三次元位置が互いに隣接する距離画像のブロック同士を、立体物の背面や、立体物の側面としてそれぞれグルーピングする。そして、自車両は、グルーピングされた背面と側面とをペアリングし、同一の立体物を表すペアとして特定する。 In order to reduce the damage caused by the collision between the own vehicle and the preceding vehicle and to realize the follow-up control to the preceding vehicle, the own vehicle first identifies a three-dimensional object existing in the traveling direction, and the three-dimensional object is the preceding vehicle. It is determined whether or not it is a specific object such as. In order to appropriately identify a three-dimensional object, the own vehicle groups, for example, blocks of distance images whose three-dimensional positions are adjacent to each other as the back surface of the three-dimensional object and the side surface of the three-dimensional object. Then, the own vehicle pairs the grouped back surface and the side surface, and identifies them as a pair representing the same three-dimensional object.

しかし、距離画像における相対距離のミスマッチングによってノイズが生じると、自車両は、立体物の背面や側面を適切にグルーピングできず、その結果、立体物として安定的に特定することが困難となる。 However, if noise is generated due to the mismatch of the relative distance in the distance image, the own vehicle cannot properly group the back surface and the side surface of the three-dimensional object, and as a result, it becomes difficult to stably identify the three-dimensional object.

本発明は、このような課題に鑑み、立体物の背面や側面を適切にグルーピングすることで、立体物の特定精度を向上することが可能な車外環境認識装置を提供することを目的としている。 In view of such problems, it is an object of the present invention to provide an external environment recognition device capable of improving the accuracy of specifying a three-dimensional object by appropriately grouping the back surface and the side surface of the three-dimensional object.

上記課題を解決するために、本発明の車外環境認識装置は、撮像された画像におけるブロック単位の三次元位置を導出する位置導出部と、三次元位置の差分が所定範囲内にあるブロック同士をグルーピングして立体物候補を特定するグルーピング部と、立体物候補を水平面に投影し、奥行き方向に対する角度に基づいて背面と側面とに区別し、背面と側面とをペアリングしてペアを特定するペアリング部と、ペアの未来の位置を予測するペア予測部と、を備え、グルーピング部は、ペア予測部に過去に予測されたペアの未来の位置に基づいて立体物候補を特定する。 In order to solve the above problems, the vehicle exterior environment recognition device of the present invention has a position deriving unit that derives a three-dimensional position in block units in an captured image, and blocks having a difference in three-dimensional positions within a predetermined range. The grouping part that identifies the three-dimensional object candidate by grouping, the three-dimensional object candidate is projected on the horizontal plane, the back surface and the side surface are distinguished based on the angle with respect to the depth direction, and the back surface and the side surface are paired to specify the pair. A pairing unit and a pair prediction unit that predicts the future position of the pair are provided, and the grouping unit identifies a three-dimensional object candidate based on the future position of the pair predicted in the past by the pair prediction unit.

グルーピング部は、ペア予測部に過去に予測されたペアの背面の未来の位置を示す予測背面線とブロックとの距離に基づいて背面に相当する立体物候補を特定し、ペア予測部に過去に予測されたペアの側面の未来の位置を示す予測側面線とブロックとの距離に基づいて側面に相当する立体物候補を特定してもよい。 The grouping unit identifies the three-dimensional object candidate corresponding to the back surface based on the distance between the block and the predicted back line indicating the future position of the back surface of the pair predicted in the past in the pair prediction unit, and the pair prediction unit in the past. Candidates for three-dimensional objects corresponding to the sides may be identified based on the distance between the block and the predicted side line indicating the future position of the side of the predicted pair.

本発明によれば、立体物の背面と側面とを適切にペアリングすることで、立体物の特定精度を向上することが可能となる。 According to the present invention, it is possible to improve the accuracy of specifying a three-dimensional object by appropriately pairing the back surface and the side surface of the three-dimensional object.

図1は、車外環境認識システムの接続関係を示したブロック図である。FIG. 1 is a block diagram showing the connection relationship of the vehicle exterior environment recognition system. 図2は、車外環境認識装置の概略的な機能を示した機能ブロック図である。FIG. 2 is a functional block diagram showing a schematic function of the vehicle exterior environment recognition device. 図3は、車外環境認識方法の流れを示すフローチャートである。FIG. 3 is a flowchart showing the flow of the vehicle exterior environment recognition method. 図4は、輝度画像と距離画像を説明するための説明図である。FIG. 4 is an explanatory diagram for explaining a luminance image and a distance image. 図5は、グルーピング部の動作を説明するための説明図である。FIG. 5 is an explanatory diagram for explaining the operation of the grouping unit. 図6は、ペアリング部の動作を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining the operation of the pairing unit. 図7は、ペアリング部によるペアリング可否の判断を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining the determination of whether or not pairing is possible by the pairing unit. 図8は、背面および側面の補正を説明するための説明図である。FIG. 8 is an explanatory diagram for explaining the correction of the back surface and the side surface. 図9は、ペア予測部の動作を説明するための説明図である。FIG. 9 is an explanatory diagram for explaining the operation of the pair prediction unit. 図10は、グルーピング部の動作を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining the operation of the grouping unit. 図11は、グルーピング部の動作を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining the operation of the grouping unit.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating the understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and the drawings, elements having substantially the same function and configuration are designated by the same reference numerals to omit duplicate description, and elements not directly related to the present invention are not shown. do.

(車外環境認識システム100)
図1は、車外環境認識システム100の接続関係を示したブロック図である。車外環境認識システム100は、自車両1に設けられ、撮像装置110と、車外環境認識装置120と、車両制御装置130とを含む。
(External environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the vehicle exterior environment recognition system 100. The vehicle exterior environment recognition system 100 is provided in the own vehicle 1 and includes an image pickup device 110, a vehicle exterior environment recognition device 120, and a vehicle control device 130.

撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子で構成される。撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の車外環境を撮像し、少なくとも輝度の情報が含まれる輝度画像(カラー画像やモノクロ画像)を生成する。撮像装置110は、自車両1の前方の検出領域に存在する立体物を撮像した輝度画像を、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、車外環境認識装置120が認識する立体物は、自転車、歩行者、車両、信号機、道路標識、ガードレール、建物といった独立して存在する物のみならず、車両の背面や側面、自転車の車輪等、その一部として特定できる物も含む。ここで、車両の背面は、自車両1の前方において自車両1に対向する面を示し、車両自体の後方面を示すものではない。 The image pickup device 110 is composed of an image pickup element such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor). The image pickup device 110 is arranged so as to be separated from each other in the substantially horizontal direction so that the optical axes of the two image pickup devices 110 are substantially parallel to each other on the traveling direction side of the own vehicle 1. The image pickup device 110 captures an image of the environment outside the vehicle in front of the own vehicle 1 and generates a luminance image (color image or monochrome image) including at least luminance information. The image pickup apparatus 110 continuously generates a luminance image of a three-dimensional object existing in the detection region in front of the own vehicle 1 every frame (60 fps) of, for example, 1/60 second. Here, the three-dimensional objects recognized by the vehicle exterior environment recognition device 120 are not only independently existing objects such as bicycles, pedestrians, vehicles, traffic lights, road signs, guardrails, and buildings, but also the back and sides of the vehicle and the wheels of the bicycle. Etc., including those that can be identified as part of it. Here, the back surface of the vehicle indicates a surface facing the own vehicle 1 in front of the own vehicle 1, and does not indicate a rear surface of the vehicle itself.

車外環境認識装置120は、2つの撮像装置110それぞれから輝度画像を取得し、所謂パターンマッチングを用いて距離画像を生成する。車外環境認識装置120は、輝度画像と距離画像に基づき、路面より上方に位置し、カラー値が等しく、三次元の位置情報が互いに隣接するブロック同士を立体物としてグルーピングする。そして、車外環境認識装置120は、立体物がいずれの特定物であるかを特定する。例えば、車外環境認識装置120は、立体物が先行車両であると特定する。また、車外環境認識装置120は、このように先行車両を特定すると、自車両1と先行車両との衝突被害の軽減制御を行い、また、自車両1を先行車両に追従させる追従制御を行う。車外環境認識装置120の具体的な動作については後程詳述する。 The vehicle exterior environment recognition device 120 acquires a luminance image from each of the two image pickup devices 110, and generates a distance image using so-called pattern matching. The vehicle exterior environment recognition device 120 groups blocks that are located above the road surface, have the same color value, and have three-dimensional position information adjacent to each other as a three-dimensional object, based on a luminance image and a distance image. Then, the vehicle exterior environment recognition device 120 identifies which specific object the three-dimensional object is. For example, the vehicle exterior environment recognition device 120 identifies the three-dimensional object as the preceding vehicle. Further, when the preceding vehicle is specified in this way, the vehicle outside environment recognition device 120 performs reduction control of collision damage between the own vehicle 1 and the preceding vehicle, and also performs follow-up control for causing the own vehicle 1 to follow the preceding vehicle. The specific operation of the vehicle exterior environment recognition device 120 will be described in detail later.

車両制御装置130は、ECU(Electronic Control Unit)等で構成され、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転手の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、操舵機構142、駆動機構144、制動機構146を制御する。 The vehicle control device 130 is composed of an ECU (Electronic Control Unit) or the like, receives a driver's operation input through a steering wheel 132, an accelerator pedal 134, and a brake pedal 136, and transmits the operation input to the steering mechanism 142, the drive mechanism 144, and the braking mechanism 146. By doing so, the own vehicle 1 is controlled. Further, the vehicle control device 130 controls the steering mechanism 142, the drive mechanism 144, and the braking mechanism 146 in accordance with the instructions of the vehicle exterior environment recognition device 120.

(車外環境認識装置120)
図2は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図2に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含む。
(External environment recognition device 120)
FIG. 2 is a functional block diagram showing a schematic function of the vehicle exterior environment recognition device 120. As shown in FIG. 2, the vehicle exterior environment recognition device 120 includes an I / F unit 150, a data holding unit 152, and a central control unit 154.

I/F部150は、撮像装置110、および、車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持する。 The I / F unit 150 is an interface for bidirectional information exchange with the image pickup device 110 and the vehicle control device 130. The data holding unit 152 is composed of a RAM, a flash memory, an HDD, and the like, and holds various information necessary for processing of each of the following functional units.

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、位置導出部170、グルーピング部172、ペアリング部174、ペア予測部176、立体物特定部178としても機能する。以下、車外環境認識方法について、当該中央制御部154の各機能部の動作も踏まえて詳述する。 The central control unit 154 is composed of a semiconductor integrated circuit including a central processing unit (CPU), a ROM in which a program or the like is stored, a RAM as a work area, and the like, and is an I / F unit 150 and a data holding unit through a system bus 156. It controls 152 and so on. Further, in the present embodiment, the central control unit 154 also functions as a position derivation unit 170, a grouping unit 172, a pairing unit 174, a pair prediction unit 176, and a three-dimensional object identification unit 178. Hereinafter, the method of recognizing the environment outside the vehicle will be described in detail with reference to the operation of each functional unit of the central control unit 154.

(車外環境認識方法)
図3は、車外環境認識方法の流れを示すフローチャートである。車外環境認識装置120は、所定の割込時間毎に車外環境認識方法を実行する。車外環境認識方法において、位置導出部170は、撮像装置110から取得した輝度画像におけるブロック単位の三次元位置を導出する(位置導出処理S200)。グルーピング部172は、ブロック同士をグルーピングして立体物候補を特定する(グルーピング処理S202)。ペアリング部174は、立体物候補を水平面に投影し、奥行き方向に対する角度に基づいて背面と側面とに区別し、背面と側面とをペアリングしてペアを特定する(ペアリング処理S204)。ペア予測部176は、ペアの未来の位置を予測する(ペア予測処理S206)。立体物特定部178は、ペアを構成する立体物やその他の立体物がいずれの特定物に対応するか特定する(立体物特定処理S208)。
(Method of recognizing the environment outside the vehicle)
FIG. 3 is a flowchart showing the flow of the vehicle exterior environment recognition method. The vehicle exterior environment recognition device 120 executes the vehicle exterior environment recognition method at predetermined interruption times. In the vehicle exterior environment recognition method, the position derivation unit 170 derives a three-dimensional position in block units in the luminance image acquired from the image pickup apparatus 110 (position derivation process S200). The grouping unit 172 groups the blocks together to specify a three-dimensional object candidate (grouping process S202). The pairing unit 174 projects the three-dimensional object candidate onto the horizontal plane, distinguishes between the back surface and the side surface based on the angle with respect to the depth direction, and pairs the back surface and the side surface to specify the pair (pairing process S204). The pair prediction unit 176 predicts the future position of the pair (pair prediction process S206). The three-dimensional object specifying unit 178 specifies which specific object the three-dimensional object or other three-dimensional object constituting the pair corresponds to (three-dimensional object specifying process S208).

(位置導出処理S200)
図4(図4A~図4C)は、輝度画像および距離画像を説明するための説明図である。位置導出部170は、撮像装置110で光軸を異として同タイミングで撮像された複数(ここでは2)の輝度画像をそれぞれ取得する。ここで、位置導出部170は、輝度画像212として、図4Aに示す、自車両1の比較的右側に位置する撮像装置110で撮像された第1輝度画像212aと、図4Bに示す、自車両1の比較的左側に位置する撮像装置110で撮像された第2輝度画像212bとを取得したとする。
(Position derivation process S200)
4 (FIGS. 4A to 4C) are explanatory views for explaining a luminance image and a distance image. The position derivation unit 170 acquires a plurality of luminance images (here, 2) imaged at the same timing by the image pickup device 110 with different optical axes. Here, the position derivation unit 170 uses the first luminance image 212a captured by the image pickup device 110 located on the relatively right side of the own vehicle 1 shown in FIG. 4A and the own vehicle shown in FIG. 4B as the luminance image 212. It is assumed that the second luminance image 212b imaged by the image pickup apparatus 110 located on the relatively left side of 1 is acquired.

図4Aおよび図4Bを参照すると、撮像装置110の撮像位置の違いから、第1輝度画像212aと第2輝度画像212bとで、画像に含まれる立体物の画像位置が水平方向に異なるのが理解できる。ここで、水平は、撮像した画像の画面横方向を示し、垂直は、撮像した画像の画面縦方向を示す。 With reference to FIGS. 4A and 4B, it is understood that the image positions of the three-dimensional objects included in the images differ in the horizontal direction between the first luminance image 212a and the second luminance image 212b due to the difference in the imaging position of the imaging device 110. can. Here, horizontal indicates the horizontal direction of the screen of the captured image, and vertical indicates the vertical direction of the screen of the captured image.

位置導出部170は、位置導出部170が取得した、図4Aに示す第1輝度画像212aと、図4Bに示す第2輝度画像212bとに基づいて、図4Cのような、撮像対象の距離を特定可能な距離画像214を生成する。 The position deriving unit 170 determines the distance to be imaged as shown in FIG. 4C based on the first luminance image 212a shown in FIG. 4A and the second luminance image 212b shown in FIG. 4B acquired by the position deriving unit 170. Generates a identifiable distance image 214.

具体的に、位置導出部170は、所謂パターンマッチングを用いて、視差、および、任意のブロックの画像内の位置を示す画像位置を含む視差情報を導出する。そして、位置導出部170は、一方の輝度画像(ここでは第1輝度画像212a)から任意に抽出したブロックに対応するブロックを他方の輝度画像(ここでは第2輝度画像212b)から検索する。ここで、ブロックは、例えば、水平4画素×垂直4画素の配列で表される。また、パターンマッチングは、一方の輝度画像から任意に抽出したブロックに対応するブロックを他方の輝度画像から検索する手法である。 Specifically, the position derivation unit 170 uses so-called pattern matching to derive parallax and parallax information including an image position indicating a position in an image of an arbitrary block. Then, the position derivation unit 170 searches the block corresponding to the block arbitrarily extracted from one luminance image (here, the first luminance image 212a) from the other luminance image (here, the second luminance image 212b). Here, the block is represented by, for example, an array of horizontal 4 pixels × vertical 4 pixels. Further, pattern matching is a method of searching for a block corresponding to a block arbitrarily extracted from one luminance image from the other luminance image.

例えば、パターンマッチングにおけるブロック間の一致度を評価する関数として、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。 For example, SAD (Sum of Absolute Difference) that takes the difference in brightness, SSD (Sum of Squared intensity Difference) that squares the difference, and the brightness of each pixel are functions for evaluating the degree of matching between blocks in pattern matching. There is a method such as NCC (Normalized Cross Correlation) that takes the similarity of the variance value obtained by subtracting the average value from.

位置導出部170は、このようなブロック単位の視差導出処理を、例えば、600画素×200画素の検出領域に映し出されている全てのブロックについて行う。ここで、位置導出部170は、ブロックを4画素×4画素として処理しているが、任意の画素数で処理してもよい。 The position derivation unit 170 performs such a block-based parallax derivation process for all the blocks projected in the detection area of, for example, 600 pixels × 200 pixels. Here, the position derivation unit 170 processes the block as 4 pixels × 4 pixels, but may process it with an arbitrary number of pixels.

位置導出部170は、距離画像214のブロック毎の視差情報を、所謂ステレオ法を用いて、水平距離x、高さyおよび相対距離zを含む実空間における三次元位置に変換する。ここで、ステレオ法は、三角測量法を用いることで、ブロックの距離画像214における視差からそのブロックの撮像装置110に対する相対距離zを導出する手法である。このとき、位置導出部170は、ブロックの相対距離zと、ブロックと同相対距離zにある道路表面上の点とブロックとの距離画像214上の検出距離とに基づいて、ブロックの道路表面からの高さyを導出する。そして、位置導出部170は、導出した三次元位置を改めて距離画像214に対応付ける。かかる相対距離zの導出処理や三次元位置の特定処理は、様々な公知技術を適用できるので、ここでは、その説明を省略する。 The position derivation unit 170 converts the parallax information for each block of the distance image 214 into a three-dimensional position in real space including the horizontal distance x, the height y, and the relative distance z by using the so-called stereo method. Here, the stereo method is a method of deriving the relative distance z of the block to the image pickup device 110 from the parallax in the distance image 214 of the block by using the triangulation method. At this time, the position deriving unit 170 is from the road surface of the block based on the relative distance z of the block and the detected distance on the distance image 214 between the point on the road surface at the same relative distance z as the block and the block. The height y of is derived. Then, the position deriving unit 170 associates the derived three-dimensional position with the distance image 214 again. Since various known techniques can be applied to the process of deriving the relative distance z and the process of specifying the three-dimensional position, the description thereof will be omitted here.

(グルーピング処理S202)
グルーピング部172は、路面より上方に位置し、カラー値が等しく、距離画像214における三次元位置の差分が所定範囲内にあるブロック同士をグルーピングして立体物候補を特定する。具体的に、グルーピング部172は、距離画像214における、水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた範囲(例えば0.1m)内にあるブロック同士を、同一の特定物に対応すると仮定してグルーピングする。こうして、仮想的なブロック群が生成される。
(Grouping process S202)
The grouping unit 172 groups blocks that are located above the road surface, have the same color value, and have a difference in three-dimensional positions in the distance image 214 within a predetermined range, and identifies a three-dimensional object candidate. Specifically, the grouping unit 172 connects blocks in the distance image 214 in which the difference in the horizontal distance x, the difference in the height y, and the difference in the relative distance z are within a predetermined range (for example, 0.1 m). Grouping is performed on the assumption that it corresponds to the same specific object. In this way, a virtual block group is generated.

図5(図5A~図5C)は、グルーピング部172の動作を説明するための説明図である。ここで、位置導出部170が、例えば、図5Aのような距離画像214を生成したとする。グルーピング部172は、かかる距離画像214からブロック同士をグルーピングする。こうして、図5Bのようにグルーピングされたブロック群が複数抽出される。グルーピング部172は、図5Bにおいて、グルーピングしたブロックの全てが含まれる外形線、例えば、水平線および垂直線、または、奥行き方向に延びる線および垂直線からなる矩形状の枠(面)を、立体物候補220(220a、220b、220c、220d、220e)とする。 5 (FIGS. 5A to 5C) are explanatory views for explaining the operation of the grouping unit 172. Here, it is assumed that the position derivation unit 170 generates, for example, the distance image 214 as shown in FIG. 5A. The grouping unit 172 groups the blocks from the distance image 214. In this way, a plurality of grouped blocks are extracted as shown in FIG. 5B. In FIG. 5B, the grouping unit 172 forms a three-dimensional object having an outline including all of the grouped blocks, for example, a horizontal line and a vertical line, or a rectangular frame (face) composed of a line extending in the depth direction and a vertical line. Candidate 220 (220a, 220b, 220c, 220d, 220e) is used.

図5Bにおける、距離画像214上の立体物候補220a、220b、220c、220d、220eは、水平距離xおよび相対距離zで示す2次元の水平面で表すと、図5Cにおける、立体物候補220a、220b、220c、220d、220eとなる。 The three-dimensional object candidates 220a, 220b, 220c, 220d, 220e on the distance image 214 in FIG. 5B are represented by a two-dimensional horizontal plane represented by the horizontal distance x and the relative distance z, and the three-dimensional object candidates 220a, 220b in FIG. 5C. , 220c, 220d, 220e.

(ペアリング処理S204)
図5Cにおいては、例えば、立体物候補220aと立体物候補220bとは異なる立体物候補となっている。しかし、立体物候補220aは先行車両の背面を構成し、立体物候補220bは先行車両の側面を構成している。したがって、立体物候補220aと立体物候補220bとは、本来、一体的な同一の立体物を構成するペアとして認識されるべきである。同様に、立体物候補220dと立体物候補220eも同一の立体物として認識されるべきである。そこで、ペアリング部174は、同一の立体物の背面と側面とすべき立体物候補220をペアリングする。
(Pairing process S204)
In FIG. 5C, for example, the three-dimensional object candidate 220a and the three-dimensional object candidate 220b are different three-dimensional object candidates. However, the three-dimensional object candidate 220a constitutes the back surface of the preceding vehicle, and the three-dimensional object candidate 220b constitutes the side surface of the preceding vehicle. Therefore, the three-dimensional object candidate 220a and the three-dimensional object candidate 220b should be originally recognized as a pair constituting the same three-dimensional object. Similarly, the three-dimensional object candidate 220d and the three-dimensional object candidate 220e should be recognized as the same three-dimensional object. Therefore, the pairing unit 174 pairs the three-dimensional object candidate 220 that should be the back surface and the side surface of the same three-dimensional object.

図6は、ペアリング部174の動作を説明するための説明図である。図6は、立体物候補220を水平面に投影したものであり、水平距離xおよび相対距離zのみで表されている。 FIG. 6 is an explanatory diagram for explaining the operation of the pairing unit 174. FIG. 6 is a projection of the three-dimensional object candidate 220 onto a horizontal plane, and is represented only by the horizontal distance x and the relative distance z.

ペアリング部174は、立体物候補220を水平面に投影し、奥行き方向に対する角度に基づいて背面と側面とに区別し、背面と側面との関係が所定条件を満たせば、背面と側面とをペアリングしてペアを特定する。 The pairing unit 174 projects the three-dimensional object candidate 220 onto a horizontal plane, distinguishes between the back surface and the side surface based on the angle with respect to the depth direction, and if the relationship between the back surface and the side surface satisfies a predetermined condition, the back surface and the side surface are paired. Ring to identify the pair.

具体的に、ペアリング部174は、まず、奥行き方向に相当する相対距離の軸に対する、立体物候補220の近似直線の角度を導出する。ペアリング部174は、導出した角度の絶対値が45度以上135度未満であれば、その立体物候補220を背面とする。一方、ペアリング部174は、導出した角度の絶対値が0度以上45度未満または135度以上180度以下であれば、その立体物候補220を側面とする。 Specifically, the pairing unit 174 first derives the angle of the approximate straight line of the three-dimensional object candidate 220 with respect to the axis of the relative distance corresponding to the depth direction. If the absolute value of the derived angle is 45 degrees or more and less than 135 degrees, the pairing unit 174 uses the three-dimensional object candidate 220 as the back surface. On the other hand, if the absolute value of the derived angle is 0 degrees or more and less than 45 degrees or 135 degrees or more and 180 degrees or less, the pairing unit 174 uses the three-dimensional object candidate 220 as a side surface.

ここで、例えば、グルーピング部172がグルーピングした結果、図6Aのように、立体物候補220f、220gを導出したとする。かかる例では、図6Bのように、立体物候補220fの近似直線の角度の絶対値は45度以上135度未満となるので、ペアリング部174は、当該立体物候補220fを背面であると判定する。一方、立体物候補220gの近似直線の角度の絶対値は0度以上45度未満となるので、ペアリング部174は、当該立体物候補220gを側面であると判定する。こうして、グルーピング部172は、背面と側面とを大凡区別することができる。 Here, for example, as a result of grouping by the grouping unit 172, it is assumed that the three-dimensional object candidates 220f and 220g are derived as shown in FIG. 6A. In such an example, as shown in FIG. 6B, the absolute value of the angle of the approximate straight line of the three-dimensional object candidate 220f is 45 degrees or more and less than 135 degrees, so that the pairing unit 174 determines that the three-dimensional object candidate 220f is the back surface. do. On the other hand, since the absolute value of the angle of the approximate straight line of the three-dimensional object candidate 220 g is 0 degrees or more and less than 45 degrees, the pairing unit 174 determines that the three-dimensional object candidate 220 g is a side surface. In this way, the grouping portion 172 can roughly distinguish between the back surface and the side surface.

ペアリング部174は、このように区別された背面と側面との全ての組み合わせについて総当たりでペアリング可能か否か判断する。したがって、ペアリング部174は、1の背面に対する全ての側面とのペアリング判断を背面の数だけ繰り返すこととなるので、その処理回数は、背面の数×側面の数となる。なお、このとき、ペアリング部174は、背面と側面との距離が車両の一部として適切な距離(例えば2m)以内であり、背面と側面との速度がいずれも安定し、背面および側面それぞれの長さが所定値(例えば1m)以上であり、かつ、その中央位置が検出領域内であれば、ペアリングを実行するとしてもよい。かかるペアリングの前提条件を追加することで、ペアリング部174は、ペアリングの対象を適切に制限することが可能となり、処理負荷の軽減を図ることが可能となる。 The pairing unit 174 determines whether or not all combinations of the back surface and the side surface thus distinguished can be paired in a round-robin manner. Therefore, since the pairing unit 174 repeats the pairing determination with all the side surfaces with respect to the back surface by the number of the back surface, the number of processing is the number of the back surface × the number of the side surface. At this time, in the pairing portion 174, the distance between the back surface and the side surface is within an appropriate distance (for example, 2 m) as a part of the vehicle, the speed between the back surface and the side surface is stable, and the back surface and the side surface are respectively. If the length of is equal to or greater than a predetermined value (for example, 1 m) and the center position thereof is within the detection area, pairing may be executed. By adding such a precondition for pairing, the pairing unit 174 can appropriately limit the target of pairing and can reduce the processing load.

図7(図7A~図7D)は、ペアリング部174によるペアリング可否の判断を説明するための説明図である。ペアリング部174は、背面222と側面224との関係が所定条件を満たすか否かによってペアリング可否を判定する。その結果、所定の条件を満たすと判定すると、ペアリング部174は、同一の立体物の背面222と側面224とをペアとして特定する。ここでは、立体物候補220fに対応する背面222と、立体物候補220gに対応する側面224とを挙げて、そのペアリングの可否を判断する。また、所定の条件として、「端点間距離」、「速度ベクトル距離」、「交点距離」、「成す角度」の4つの項目を説明する。なお、所定条件として、必ずしも4つ全ての項目を採用する必要はなく、適宜、1または複数の項目を採用するとしてもよい。 FIG. 7 (FIGS. 7A to 7D) is an explanatory diagram for explaining the determination of whether or not pairing is possible by the pairing unit 174. The pairing unit 174 determines whether or not pairing is possible depending on whether or not the relationship between the back surface 222 and the side surface 224 satisfies a predetermined condition. As a result, if it is determined that a predetermined condition is satisfied, the pairing unit 174 identifies the back surface 222 and the side surface 224 of the same three-dimensional object as a pair. Here, the back surface 222 corresponding to the three-dimensional object candidate 220f and the side surface 224 corresponding to the three-dimensional object candidate 220g are listed, and whether or not the pairing is possible is determined. Further, as predetermined conditions, four items of "distance between end points", "velocity vector distance", "intersection distance", and "angle formed" will be described. It should be noted that it is not always necessary to adopt all four items as predetermined conditions, and one or a plurality of items may be adopted as appropriate.

まず、ペアリング部174は、図7Aのように、水平面において、背面222と側面224との互いに近い方の端点を特定し、その特定した端点間の距離を導出する。そして、ペアリング部174は、その端点間距離が例えば1m未満であれば、「端点間距離」の条件を満たしていると判定する。 First, as shown in FIG. 7A, the pairing unit 174 identifies the end points of the back surface 222 and the side surface 224 that are closer to each other in the horizontal plane, and derives the distance between the specified end points. Then, if the distance between the end points is less than, for example, 1 m, the pairing unit 174 determines that the condition of "distance between end points" is satisfied.

次に、ペアリング部174は、図7Bのように、水平面において、背面222の速度ベクトルと側面224の速度ベクトルをそれぞれ導出する。そして、ペアリング部174は、速度ベクトルの差分ベクトル、すなわち、2つの速度ベクトルの始点を合わせた状態における2つの速度ベクトルの距離を導出する。そして、ペアリング部174は、その速度ベクトル距離yが例えば10km/h未満であれば、「速度ベクトル距離」の条件を満たしていると判定する。 Next, the pairing unit 174 derives the velocity vector of the back surface 222 and the velocity vector of the side surface 224 in the horizontal plane as shown in FIG. 7B. Then, the pairing unit 174 derives the difference vector of the velocity vectors, that is, the distance between the two velocity vectors in the state where the start points of the two velocity vectors are combined. Then, if the velocity vector distance y is less than, for example, 10 km / h, the pairing unit 174 determines that the condition of the "velocity vector distance" is satisfied.

続いて、ペアリング部174は、図7Cのように、水平面において、背面222の近似直線と側面224の近似直線との交点と、背面222の交点側の端点との距離を導出する。そして、ペアリング部174は、その交点距離が例えば1m未満であれば、「交点距離」の条件を満たしていると判定する。 Subsequently, the pairing unit 174 derives the distance between the intersection of the approximate straight line of the back surface 222 and the approximate straight line of the side surface 224 and the end point on the intersection side of the back surface 222 in the horizontal plane as shown in FIG. 7C. Then, if the intersection distance is less than, for example, 1 m, the pairing unit 174 determines that the condition of "intersection distance" is satisfied.

次に、ペアリング部174は、図7Dのように、水平面において、背面222の近似直線と側面224の近似直線との成す角度を導出する。そして、ペアリング部174は、その成す角度vが90度に近い、例えば70~110度の範囲であれば、「成す角度」の条件を満たしていると判定する。 Next, the pairing unit 174 derives the angle formed by the approximate straight line of the back surface 222 and the approximate straight line of the side surface 224 in the horizontal plane as shown in FIG. 7D. Then, the pairing unit 174 determines that the condition of "angle formed" is satisfied if the angle v formed thereof is close to 90 degrees, for example, in the range of 70 to 110 degrees.

ペアリング部174は、「端点間距離」、「速度ベクトル距離」、「交点距離」、「成す角度」の4つの条件を満たすと、その背面222と側面224とをペアリングする。 The pairing unit 174 pairs the back surface 222 and the side surface 224 when the four conditions of "distance between end points", "velocity vector distance", "intersection distance", and "angle formed" are satisfied.

続いて、ペアリング部174は、前回フレームで生成した背面222と側面224とのペアを用いて、ペアリングした背面222と側面224とを補正する。 Subsequently, the pairing unit 174 corrects the paired back surface 222 and side surface 224 by using the pair of the back surface 222 and the side surface 224 generated in the previous frame.

図8(図8A、図8B)は、背面222および側面224の補正を説明するための説明図である。図8には、図7同様、背面222と側面224とが示されている。ペアリング部174は、当該フレームでペアリングした背面222と側面224とに対し、まず、交点と端点に関する実測値を特定する。 FIG. 8 (FIG. 8A, 8B) is an explanatory diagram for explaining the correction of the back surface 222 and the side surface 224. FIG. 8 shows the back surface 222 and the side surface 224, as in FIG. 7. The pairing unit 174 first specifies an actually measured value regarding an intersection and an end point with respect to the back surface 222 and the side surface 224 paired with the frame.

具体的に、ペアリング部174は、図8Aに示すように、背面222の近似直線と側面224の近似直線との交点の実測値を実測交点とし、背面222の交点側の端点の実測値を実測交点側端点とし、背面222の交点側と逆の端点の実測値を実測背面端点とし、側面224の交点側と逆の端点の実測値を実測側面端点とする。なお、ペアリング部174は、交点に相当する実測値の導出において、背面222と側面224との実際の交点をそのまま用いず、その交点と、背面222の交点側の端点、すなわち、実測交点側端点との中間点を用いる。これは、側面224に比べ背面222の特定精度が高く、背面222の端点の方が、信頼性が高いからである。 Specifically, as shown in FIG. 8A, the pairing unit 174 uses the measured value of the intersection of the approximate straight line of the back surface 222 and the approximate straight line of the side surface 224 as the measured intersection, and sets the measured value of the end point on the intersection side of the back surface 222 as the measured intersection. The measured value of the end point opposite to the intersection side of the back surface 222 is used as the measured back end point, and the measured value of the end point opposite to the intersection side of the side surface 224 is used as the measured side end point. The pairing unit 174 does not use the actual intersection of the back surface 222 and the side surface 224 as it is in deriving the measured value corresponding to the intersection point, but the intersection point and the end point of the back surface 222 on the intersection side, that is, the measured intersection side. Use the midpoint with the end point. This is because the specific accuracy of the back surface 222 is higher than that of the side surface 224, and the end point of the back surface 222 is more reliable.

ここで、中間点は各点の水平距離および相対距離をそれぞれ平均することで求められる。なお、中間点は、必ずしも平均とすることはなく、その信頼性から重みをつけてもよい。例えば、背面222の端点の信頼性が高い場合、実測交点より実測交点側端点に近い点を中間点として補正交点を求めてもよい。 Here, the intermediate point is obtained by averaging the horizontal distance and the relative distance of each point. The intermediate points are not necessarily averaged, and may be weighted based on their reliability. For example, when the reliability of the end point of the back surface 222 is high, the correction intersection may be obtained with a point closer to the end point on the actually measured intersection side than the actually measured intersection as an intermediate point.

次に、ペアリング部174は、実測値を補正し、補正交点、補正背面端点、および、補正側面端点を導出する。具体的に、ペアリング部174は、予測交点と、実測交点および実測交点側端点の中間点との中間点を補正交点とし、予測背面端点と実測背面端点との中間点を補正背面端点とし、予測側面端点と実測側面端点との中間点を補正側面端点とする。ここで、予測交点、予測背面端点、および、予測側面端点は、ペア予測部176が、前回フレームにおいて、当該フレームにおける交点、背面端点、および側面端点を予測したものである。なお、前回フレームにおいて、予測交点、予測背面端点、および、予測側面端点が導出されていない場合、ペアリング部174は、実測交点、実測背面端点、実測側面端点を、そのまま予測交点、予測背面端点、および、予測側面端点として用いる。 Next, the pairing unit 174 corrects the measured value and derives the correction intersection point, the correction back end point, and the correction side end point. Specifically, the pairing unit 174 uses the intermediate point between the predicted intersection and the intermediate point between the measured intersection and the measured intersection side end point as the corrected intersection, and the intermediate point between the predicted back end point and the actually measured back end point as the corrected back end point. The intermediate point between the predicted side surface end point and the measured side surface end point is defined as the corrected side surface end point. Here, the predicted intersection point, the predicted back end point, and the predicted side end point are those predicted by the pair prediction unit 176 in the previous frame, the intersection point, the back end point, and the side end point in the frame. When the predicted intersection, the predicted back end point, and the predicted side end point are not derived in the previous frame, the pairing unit 174 uses the actually measured intersection, the actually measured back end point, and the actually measured side end point as they are as the predicted intersection and the predicted back end point. , And used as the predicted side end points.

こうして、ペアリング部174は、図8Bに示すような、補正交点、補正背面端点、補正側面端点を特定する。車外環境認識装置120は、補正交点と補正背面端点とを結ぶ線を補正後の背面222とし、補正交点と補正側面端点とを結ぶ線を補正後の側面224とする。車外環境認識装置120は、かかる補正交点、補正背面端点、予測側面端点、背面222、側面224を用いて、自車両1と先行車両との衝突被害の軽減制御を行い、また、自車両1を先行車両に追従させる追従制御を行う。 In this way, the pairing unit 174 identifies the correction intersection point, the correction back end point, and the correction side end point as shown in FIG. 8B. In the vehicle exterior environment recognition device 120, the line connecting the corrected intersection point and the corrected back surface end point is the corrected back surface 222, and the line connecting the corrected intersection point and the corrected side surface end point is the corrected side surface 224. The vehicle exterior environment recognition device 120 uses the corrected intersection point, the corrected rear end point, the predicted side end point, the back surface 222, and the side surface 224 to control the reduction of collision damage between the own vehicle 1 and the preceding vehicle, and also controls the own vehicle 1. Follow-up control is performed to follow the preceding vehicle.

(ペア予測処理S206)
ペア予測部176は、ペアリング部174がペアリングした背面222と側面224とのペアの未来の位置、ここでは、次フレームにおける位置を予測する。
(Pair prediction processing S206)
The pair prediction unit 176 predicts the future position of the pair of the back surface 222 and the side surface 224 paired by the pairing unit 174, in this case, the position in the next frame.

図9は、ペア予測部176の動作を説明するための説明図である。図9は、水平距離xおよび相対距離zのみで表されている。ペア予測部176は、導出された補正交点、補正背面端点、補正側面端点と、過去に導出した複数回分の補正交点、補正背面端点、補正側面端点とを用い、例えば、カルマンフィルタ等を用いて、次回の予測交点、予測背面端点、予測側面端点とを導出する。このとき、ペア予測部176は、背面および側面の相対速度、Y軸回りの角速度、および、エゴモーションを考慮して、次回の予測交点、予測背面端点、予測側面端点を予測する。 FIG. 9 is an explanatory diagram for explaining the operation of the pair prediction unit 176. FIG. 9 is represented only by the horizontal distance x and the relative distance z. The pair prediction unit 176 uses the derived correction intersections, correction back end points, and correction side end points, and the correction intersections, correction back end points, and correction side end points for a plurality of times derived in the past, for example, using a Kalman filter or the like. The next predicted intersection point, predicted back end point, and predicted side end point are derived. At this time, the pair prediction unit 176 predicts the next predicted intersection point, the predicted back end point, and the predicted side end point in consideration of the relative speed of the back surface and the side surface, the angular velocity around the Y axis, and the ego motion.

(立体物特定処理S208)
立体物特定部178は、ペアリング部174によってペアリングされた背面222と側面224とのペアによって構成される立体物やその他の立体物がいずれの特定物に対応するか特定する。例えば、立体物特定部178は、背面222と側面224とのペアによって構成される立体物が、車両らしい大きさ、形状、相対速度であり、かつ、後方の所定の位置にブレーキランプやハイマウントストップランプ等の発光源を有する場合、その立体物を先行車両と特定する。
(Three-dimensional object identification process S208)
The three-dimensional object specifying unit 178 specifies which specific object corresponds to the three-dimensional object or other three-dimensional object composed of the pair of the back surface 222 and the side surface 224 paired by the pairing unit 174. For example, in the three-dimensional object identification unit 178, the three-dimensional object composed of a pair of the back surface 222 and the side surface 224 has a size, shape, and relative speed that are typical of a vehicle, and a brake lamp or a high mount is provided at a predetermined position behind. If it has a light emitting source such as a stop lamp, the three-dimensional object is specified as the preceding vehicle.

図9を用いて説明したように、ペア予測部176は、次フレームにおける背面222、側面224を予測する。そして、図5を用いて説明したように、グルーピング部172が隣接するブロック同士をグルーピングし、図6、7を用いて説明したように、ペアリング部174は、グルーピングされた立体物候補220同士をペアリングする。そして、図8を用いて説明したように、ペアリング部174は、その予測された背面222、側面224を用いて、背面222、側面224の位置を補正する。このように、ペアリング部174は、ペア予測部176が予測した背面222、側面224を用いることで、背面222、側面224の位置を適切に補正することができる。 As described with reference to FIG. 9, the pair prediction unit 176 predicts the back surface 222 and the side surface 224 in the next frame. Then, as described with reference to FIG. 5, the grouping section 172 groups adjacent blocks together, and as described with reference to FIGS. 6 and 7, the pairing section 174 groups the grouped three-dimensional object candidates 220 with each other. Pair. Then, as described with reference to FIG. 8, the pairing unit 174 corrects the positions of the back surface 222 and the side surface 224 by using the predicted back surface 222 and the side surface 224. As described above, the pairing unit 174 can appropriately correct the positions of the back surface 222 and the side surface 224 by using the back surface 222 and the side surface 224 predicted by the pair prediction unit 176.

ただし、ペアリング部174におけるペアリングが適切に行われても、その前段のグルーピング部172におけるグルーピングが適切に行われていなければ、立体物の特定精度は高まらない。 However, even if the pairing in the pairing unit 174 is properly performed, the specific accuracy of the three-dimensional object is not improved unless the grouping in the grouping unit 172 in the previous stage is properly performed.

図10は、グルーピング部172の動作を説明するための説明図である。図10は、水平距離xおよび相対距離zのみで表されている。例えば、距離画像214において、図10のようなブロックが抽出されたとする。グルーピング部172は、距離画像214における三次元位置の差分が所定範囲内にあるブロック同士をグルーピングする。しかし、距離画像214における相対距離のミスマッチングによってノイズが生じると、グルーピング部172は、背面222や側面224を適切にグルーピングできない場合が生じる。 FIG. 10 is an explanatory diagram for explaining the operation of the grouping unit 172. FIG. 10 is represented only by the horizontal distance x and the relative distance z. For example, in the distance image 214, it is assumed that the block as shown in FIG. 10 is extracted. The grouping unit 172 groups blocks whose three-dimensional position differences in the distance image 214 are within a predetermined range. However, if noise is generated due to the mismatch of the relative distance in the distance image 214, the grouping unit 172 may not be able to properly group the back surface 222 and the side surface 224.

例えば、図10の例では、グルーピング部172が、3つの立体物候補220h、220i、220jを特定したとする。ここで、立体物候補220hは背面222に相当し、立体物候補220iは側面224に相当する。一方、立体物候補220jはノイズであり、本来、立体物候補とすべきではない。また、ブロックの位置によっては、グルーピング部172が、このようなノイズを含めて立体物候補220jを特定するおそれもある。そうすると、ペアリング部174が背面222および側面224を適切にペアリングできず、車外環境認識装置120は、これらを立体物として安定的に特定することが困難となる。 For example, in the example of FIG. 10, it is assumed that the grouping unit 172 identifies three three-dimensional object candidates 220h, 220i, and 220j. Here, the three-dimensional object candidate 220h corresponds to the back surface 222, and the three-dimensional object candidate 220i corresponds to the side surface 224. On the other hand, the three-dimensional object candidate 220j is noise and should not be originally a three-dimensional object candidate. Further, depending on the position of the block, the grouping unit 172 may specify the three-dimensional object candidate 220j including such noise. Then, the pairing unit 174 cannot properly pair the back surface 222 and the side surface 224, and it becomes difficult for the vehicle exterior environment recognition device 120 to stably identify these as a three-dimensional object.

そこで、グルーピング部172は、ペア予測部176が前回フレームで予測した、次フレームにおける背面222、側面224を用いて、立体物候補220を特定する。 Therefore, the grouping unit 172 identifies the three-dimensional object candidate 220 by using the back surface 222 and the side surface 224 in the next frame predicted by the pair prediction unit 176 in the previous frame.

図11(図11A、図11B)は、グルーピング部172の動作を説明するための説明図である。グルーピング部172は、ペア予測部176が予測した背面222および側面224それぞれに近いブロックを優先してグルーピングする。 FIG. 11 (FIGS. 11A and 11B) is an explanatory diagram for explaining the operation of the grouping unit 172. The grouping unit 172 preferentially groups the blocks close to the back surface 222 and the side surface 224 predicted by the pair prediction unit 176.

具体的に、図11Aに示すように、グルーピング部172は、ペア予測部176が予測した予測交点と予測背面端点とを結ぶ、背面222に相当する予測背面線232を生成する。次に、グルーピング部172は、予測背面線232からの距離が、図中破線で示した所定範囲内にあるブロックであり、かつ、三次元位置の差分が所定範囲内にあるブロック同士をグルーピングする。こうして、グルーピング部172は、背面222に相当する立体物候補220hを特定できる。なお、ブロックから予測背面線232への距離は、ブロックから予測背面線232に垂線をおろし、その垂線と予測背面線232との交点とブロックとの距離を示す。 Specifically, as shown in FIG. 11A, the grouping unit 172 generates a predicted back line 232 corresponding to the back surface 222 connecting the predicted intersection point predicted by the pair prediction unit 176 and the predicted back end point. Next, the grouping unit 172 groups the blocks whose distances from the predicted back line 232 are within the predetermined range indicated by the broken line in the figure and whose three-dimensional position difference is within the predetermined range. .. In this way, the grouping unit 172 can identify the three-dimensional object candidate 220h corresponding to the back surface 222. The distance from the block to the predicted back line 232 is a vertical line drawn from the block to the predicted back line 232, and indicates the distance between the intersection of the perpendicular line and the predicted back line 232 and the block.

同様に、図11Bに示すように、グルーピング部172は、ペア予測部176が予測した予測交点と予測側面端点とを結ぶ、側面224に相当する予測側面線234を生成する。次に、グルーピング部172は、予測側面線234からの距離が、図中破線で示した所定範囲内にあるブロックであり、かつ、三次元位置の差分が所定範囲内にあるブロック同士をグルーピングする。こうして、グルーピング部172は、側面224に相当する立体物候補220iを特定できる。 Similarly, as shown in FIG. 11B, the grouping unit 172 generates a predicted side surface line 234 corresponding to the side surface 224 connecting the predicted intersection point predicted by the pair prediction unit 176 and the predicted side surface end point. Next, the grouping unit 172 groups the blocks whose distances from the predicted side line 234 are within the predetermined range indicated by the broken line in the figure and whose three-dimensional position difference is within the predetermined range. .. In this way, the grouping unit 172 can identify the three-dimensional object candidate 220i corresponding to the side surface 224.

なお、ここでは、グルーピング部172が、予測側面線234からの距離が所定範囲内にあるブロックをグルーピングの対象としたが、かかる場合に限らず、様々な統計的手法を用いることができる。例えば、グルーピング部172は、最小二乗距離やM推定を用いて、分散が所定範囲内となるブロックのみをグルーピングの対象とすることができる。 Here, the grouping unit 172 targets blocks whose distance from the predicted side line 234 is within a predetermined range, but the grouping unit 172 is not limited to this case, and various statistical methods can be used. For example, the grouping unit 172 can use the least squares distance and the M estimation to group only the blocks whose variance is within a predetermined range.

また、グルーピング部172は、背面222と側面224との交点に位置するブロックは、背面222および側面224のいずれにも属するブロックとして処理してもよいし、背面222および側面224のいずれか一方にのみ属するブロックとして処理してもよい。 Further, the grouping portion 172 may treat the block located at the intersection of the back surface 222 and the side surface 224 as a block belonging to either the back surface 222 or the side surface 224, or on either the back surface 222 or the side surface 224. It may be treated as a block to which only belongs.

かかる構成により、距離画像214における相対距離のミスマッチングによってノイズが生じたとしても、グルーピング部172は、背面222に相当する立体物候補220hおよび側面224に相当する立体物候補220iを適切に特定できる。その結果、ペアリング部174は、グルーピングされた立体物候補220h、220iを適切にペアリングでき、立体物の特定精度を向上することが可能となる。 With this configuration, even if noise is generated due to the mismatch of the relative distance in the distance image 214, the grouping unit 172 can appropriately identify the three-dimensional object candidate 220h corresponding to the back surface 222 and the three-dimensional object candidate 220i corresponding to the side surface 224. .. As a result, the pairing unit 174 can appropriately pair the grouped three-dimensional object candidates 220h and 220i, and can improve the identification accuracy of the three-dimensional object.

また、ここでは、ペア予測部176は、背面222と側面224のペアで位置を予測しているが、グルーピング部172が、背面222のグルーピングと側面224のグルーピングとを独立して実行している。したがって、グルーピング部172は、背面222および側面224をそれぞれ独立して適切に特定することができる。 Further, here, the pair prediction unit 176 predicts the position by the pair of the back surface 222 and the side surface 224, but the grouping unit 172 independently executes the grouping of the back surface 222 and the grouping of the side surface 224. .. Therefore, the grouping unit 172 can appropriately identify the back surface 222 and the side surface 224 independently and appropriately.

また、コンピュータを車外環境認識装置120として機能させるプログラムや、当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。 Further, a program for making a computer function as an external environment recognition device 120, and a storage medium such as a computer-readable flexible disk, a magneto-optical disk, a ROM, a CD, a DVD, and a BD on which the program is recorded are also provided. Here, the program refers to a data processing means described in any language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 Although the preferred embodiment of the present invention has been described above with reference to the accompanying drawings, it goes without saying that the present invention is not limited to such an embodiment. It is clear that a person skilled in the art can come up with various modifications or modifications within the scope of the claims, and it is understood that these also naturally belong to the technical scope of the present invention. Will be done.

例えば、上述した実施形態では、先行車両が自車両1より画面右側に位置しており、グルーピング部172が、先行車両の左側の側面224を特定する例を挙げて説明した。しかし、かかる場合に限らず、先行車両が自車両1より画面左側に位置している場合、グルーピング部172は、先行車両の右側の側面224を特定することとなる。 For example, in the above-described embodiment, the preceding vehicle is located on the right side of the screen from the own vehicle 1, and the grouping unit 172 specifies the left side surface 224 of the preceding vehicle. However, not limited to this case, when the preceding vehicle is located on the left side of the screen with respect to the own vehicle 1, the grouping unit 172 will specify the side surface 224 on the right side of the preceding vehicle.

また、上述した実施形態では、立体物候補220が、背面222または側面224のいずれであるか特定されているが、ペアリング部174が特定するまでは、立体物候補220が背面222か側面224か明確に特定できない場合がある。この場合、グルーピング部172は、ペアとなり得る2つの立体物候補220をそれぞれ、左面、右面として処理してもよいし、第1面、第2面として処理してもよい。 Further, in the above-described embodiment, it is specified whether the three-dimensional object candidate 220 is the back surface 222 or the side surface 224, but until the pairing portion 174 is specified, the three-dimensional object candidate 220 is the back surface 222 or the side surface 224. It may not be possible to specify clearly. In this case, the grouping unit 172 may process the two three-dimensional object candidates 220 that can be a pair as the left surface and the right surface, respectively, or may process them as the first surface and the second surface, respectively.

なお、本明細書の車外環境認識方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。 It should be noted that each step of the vehicle exterior environment recognition method of the present specification does not necessarily have to be processed in chronological order according to the order described as a flowchart, and may include parallel processing or processing by a subroutine.

本発明は、自車両の進行方向に存在する立体物を特定する車外環境認識装置に利用することができる。 INDUSTRIAL APPLICABILITY The present invention can be used as an external environment recognition device for identifying a three-dimensional object existing in the traveling direction of the own vehicle.

110 撮像装置
120 車外環境認識装置
170 位置導出部
172 グルーピング部
174 ペアリング部
176 ペア予測部
222 背面
224 側面
232 予測背面線
234 予測側面線
110 Imaging device 120 External environment recognition device 170 Position derivation unit 172 Grouping unit 174 Pairing unit 176 Pair prediction unit 222 Back surface 224 Side surface 232 Prediction back line 234 Prediction side line

Claims (2)

撮像された画像におけるブロック単位の三次元位置を導出する位置導出部と、
前記三次元位置の差分が所定範囲内にあるブロック同士をグルーピングして立体物候補を特定するグルーピング部と、
前記立体物候補を水平面に投影し、奥行き方向に対する角度に基づいて背面と側面とに区別し、前記背面と前記側面とをペアリングしてペアを特定するペアリング部と、
前記ペアの未来の位置を予測するペア予測部と、
を備え、
前記グルーピング部は、前記ペア予測部に過去に予測された前記ペアの未来の位置に基づいて前記立体物候補を特定する車外環境認識装置。
A position derivation unit that derives the three-dimensional position of each block in the captured image,
A grouping unit that groups blocks whose three-dimensional position differences are within a predetermined range to specify a three-dimensional object candidate, and a grouping unit.
A pairing unit that projects the three-dimensional object candidate onto a horizontal plane, distinguishes the back surface and the side surface based on the angle with respect to the depth direction, and pairs the back surface and the side surface to specify the pair.
A pair prediction unit that predicts the future position of the pair,
Equipped with
The grouping unit is an external environment recognition device that identifies the three-dimensional object candidate based on the future position of the pair predicted in the past by the pair prediction unit.
前記グルーピング部は、
前記ペア予測部に過去に予測された前記ペアの背面の未来の位置を示す予測背面線とブロックとの距離に基づいて背面に相当する前記立体物候補を特定し、
前記ペア予測部に過去に予測された前記ペアの側面の未来の位置を示す予測側面線とブロックとの距離に基づいて側面に相当する前記立体物候補を特定する請求項1に記載の車外環境認識装置。
The grouping section is
The pair predictor identifies the three-dimensional object candidate corresponding to the back surface based on the distance between the block and the predicted back line indicating the future position of the back surface of the pair predicted in the past.
The external environment according to claim 1, wherein the three-dimensional object candidate corresponding to the side surface is specified based on the distance between the block and the predicted side surface line indicating the future position of the side surface of the pair predicted in the past by the pair prediction unit. Recognition device.
JP2020141452A 2020-08-25 2020-08-25 Surrounding environment recognition apparatus Pending JP2022037358A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020141452A JP2022037358A (en) 2020-08-25 2020-08-25 Surrounding environment recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020141452A JP2022037358A (en) 2020-08-25 2020-08-25 Surrounding environment recognition apparatus

Publications (1)

Publication Number Publication Date
JP2022037358A true JP2022037358A (en) 2022-03-09

Family

ID=80494595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020141452A Pending JP2022037358A (en) 2020-08-25 2020-08-25 Surrounding environment recognition apparatus

Country Status (1)

Country Link
JP (1) JP2022037358A (en)

Similar Documents

Publication Publication Date Title
US9224055B2 (en) Exterior environment recognition device
US9280900B2 (en) Vehicle external environment recognition device
WO2011080943A1 (en) Road-shoulder detecting device and vehicle using road-shoulder detecting device
US20150092989A1 (en) Vehicle external environment recognition device
US9524645B2 (en) Filtering device and environment recognition system
US9659376B2 (en) Filtering device
JP2015170240A (en) Vehicular outside environment recognition system
WO2011016257A1 (en) Distance calculation device for vehicle
JP3868915B2 (en) Forward monitoring apparatus and method
JP7356319B2 (en) Vehicle exterior environment recognition device
JP7229032B2 (en) External object detection device
JP6764378B2 (en) External environment recognition device
JP6174884B2 (en) Outside environment recognition device and outside environment recognition method
JP2022037358A (en) Surrounding environment recognition apparatus
JP7261006B2 (en) External environment recognition device
JP2022040651A (en) Vehicle outside environment recognition device
CN112606839A (en) Vehicle exterior environment recognition device
JP2022043413A (en) External environment recognizing device for vehicle
JP6731020B2 (en) Exterior environment recognition device and exterior environment recognition method
JP5890816B2 (en) Filtering device and environment recognition system
JP2022039949A (en) Surrounding environment recognition apparatus
JP2021059322A (en) Outside-vehicle environment recognition device
JP2021059132A (en) Outside-vehicle environment recognition device
JP5981857B2 (en) Outside environment recognition device and outside environment recognition method
JP4397164B2 (en) Obstacle detection device and obstacle detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230703