JP2021128671A - Three-dimensional object detection apparatus, in-vehicle system, and three-dimensional object detection method - Google Patents

Three-dimensional object detection apparatus, in-vehicle system, and three-dimensional object detection method Download PDF

Info

Publication number
JP2021128671A
JP2021128671A JP2020024175A JP2020024175A JP2021128671A JP 2021128671 A JP2021128671 A JP 2021128671A JP 2020024175 A JP2020024175 A JP 2020024175A JP 2020024175 A JP2020024175 A JP 2020024175A JP 2021128671 A JP2021128671 A JP 2021128671A
Authority
JP
Japan
Prior art keywords
image
dimensional object
vehicle
mask
difference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020024175A
Other languages
Japanese (ja)
Other versions
JP7356371B2 (en
Inventor
彩乃 宮下
Ayano Miyashita
彩乃 宮下
直樹 清水
Naoki Shimizu
直樹 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faurecia Clarion Electronics Co Ltd filed Critical Faurecia Clarion Electronics Co Ltd
Priority to JP2020024175A priority Critical patent/JP7356371B2/en
Priority to PCT/JP2021/002908 priority patent/WO2021166576A1/en
Priority to US17/798,612 priority patent/US20230094672A1/en
Publication of JP2021128671A publication Critical patent/JP2021128671A/en
Application granted granted Critical
Publication of JP7356371B2 publication Critical patent/JP7356371B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

To improve accuracy in detecting a three-dimensional object.SOLUTION: A three-dimensional object detection apparatus generates a mask image 90 for masking a difference image G between a first perspective image F1 and a second perspective image F2 captured in a same imaging position O, excluding a three-dimensional object candidate area, specifies a near ground line L1 of an object on the basis of a mask difference image obtained by masking the difference image G with the mask image 90, determines an end point of the three-dimensional object on the basis of the mask difference image Gm, specifies a width of the object on the basis of a distance between a non-masking area boundary N in the mask image 90 and the end point V of the three-dimensional object, specifies a far ground line L2 of the three-dimensional object on the basis of the width of the object and the near ground line L1, and identifies a location of the three-dimensional object in the difference image G on the basis of the near ground line L1 and the far ground line L2.SELECTED DRAWING: Figure 2

Description

本発明は、立体物検出装置、車載システム、及び立体物検出方法に関する。 The present invention relates to a three-dimensional object detection device, an in-vehicle system, and a three-dimensional object detection method.

異なるタイミングの俯瞰画像(鳥瞰視画像とも呼ばれる)の差分に基づいて、車両周囲の他車両等の立体物を検出する技術が知られている(例えば、特許文献1、特許文献2参照)。かかる技術は、特許文献1のように、車両の駐車時に周辺の他車両等の立体物を障害物として検知して警報を発する駐車支援システムなどに応用されている。 A technique for detecting a three-dimensional object such as another vehicle around a vehicle based on the difference between bird's-eye view images (also called bird's-eye view images) at different timings is known (see, for example, Patent Documents 1 and 2). As in Patent Document 1, such a technique is applied to a parking support system that detects a three-dimensional object such as another vehicle in the vicinity as an obstacle and issues an alarm when the vehicle is parked.

特開2008−227646号公報Japanese Unexamined Patent Publication No. 2008-227646 国際公開第2014/017521号公報International Publication No. 2014/017521

建物や標識、信号機等の構造物の影が路面に現れることが多々あり、走行中の車両からは、この影が相対移動して観測される。かかる影が走行中の車両と、その周囲の立体物との間に存在する場合、立体物の検出精度が悪くなる、という問題があった。 Shadows of structures such as buildings, signs, and traffic lights often appear on the road surface, and these shadows are observed by relative movement from moving vehicles. When such a shadow exists between the moving vehicle and the three-dimensional object around it, there is a problem that the detection accuracy of the three-dimensional object deteriorates.

本発明は、走行中の車両の周囲に存在する立体物の検出精度を向上させることができる立体物検出装置、車載システム、及び立体物検出方法を提供することを目的とする。 An object of the present invention is to provide a three-dimensional object detection device, an in-vehicle system, and a three-dimensional object detection method capable of improving the detection accuracy of a three-dimensional object existing around a moving vehicle.

本発明は、車両の走行中に異なるタイミングでカメラによって撮影された第1撮影画像、及び第2撮影画像のそれぞれを第1俯瞰画像、及び第2俯瞰画像に変換する俯瞰変換処理部と、互いの撮影位置が揃った前記第1俯瞰画像、及び前記第2俯瞰画像の差分画像を生成する差分画像生成部と、前記差分画像において立体物が映っている候補の立体物候補領域以外をマスキングするマスク画像を生成し、当該マスク画像で前記差分画像をマスキングしてマスク差分画像を生成するマスク差分画像生成部と、前記マスク差分画像に基づいて、前記差分画像における立体物の近傍接地線を特定する近傍接地線特定部と、前記マスク差分画像に基づいて前記立体物の端点を求め、前記マスク画像における非マスキング領域の境界である非マスキング領域境界と前記立体物の端点との間の距離に基づいて、前記立体物の幅を特定する幅特定部と、前記立体物の幅、及び、前記近傍接地線に基づいて、前記差分画像における前記立体物の遠方接地線を特定する遠方接地線特定部と、前記近傍接地線、及び前記遠方接地線に基づいて、前記差分画像における立体物の位置を特定する位置特定部と、を備えることを特徴とする立体物検出装置を提供する。 The present invention includes a bird's-eye view conversion processing unit that converts, respectively, a first bird's-eye view image and a second bird's-eye view image taken by a camera at different timings while the vehicle is running, and a bird's-eye view conversion processing unit. Masks other than the difference image generation unit that generates the difference image of the first bird's-eye view image and the second bird's-eye view image in which the shooting positions are aligned, and the candidate three-dimensional object candidate region in which the three-dimensional object is reflected in the difference image. A mask difference image generation unit that generates a mask image and masks the difference image with the mask image to generate a mask difference image, and a near ground line of a three-dimensional object in the difference image are specified based on the mask difference image. The end point of the three-dimensional object is obtained based on the near ground line specific portion and the mask difference image, and the distance between the non-masking area boundary, which is the boundary of the non-masking area in the mask image, and the end point of the three-dimensional object is set. Based on the width specifying portion that specifies the width of the three-dimensional object, the width of the three-dimensional object, and the distant ground line that specifies the distant ground line of the three-dimensional object in the difference image based on the width of the three-dimensional object and the nearby ground line. Provided is a three-dimensional object detecting device including a unit, a position specifying unit for specifying a position of a three-dimensional object in the difference image based on the near ground line and the far ground line.

本発明によれば、走行中の車両の周囲に存在する立体物の検出精度を向上させることができる。 According to the present invention, it is possible to improve the detection accuracy of three-dimensional objects existing around a moving vehicle.

本発明の実施形態に係る車載システムの構成を示す図である。It is a figure which shows the structure of the in-vehicle system which concerns on embodiment of this invention. カメラECUの機能的構成を示す図である。It is a figure which shows the functional structure of a camera ECU. 同実施形態における車両と他車両の位置関係を示す図である。It is a figure which shows the positional relationship of the vehicle and another vehicle in the same embodiment. 立体物検出処理のフローチャートである。It is a flowchart of a three-dimensional object detection process. 差分画像生成動作を説明するための図であり、(A)は第1俯瞰画像、及び第2俯瞰画像の一例を示し、(B)は差分画像の一例を示す。It is a figure for demonstrating the difference image generation operation, (A) shows an example of a 1st bird's-eye view image and 2nd bird's-eye view image, and (B) shows an example of a difference image. マスク画像生成処理のフローチャートである。It is a flowchart of a mask image generation process. 鉛直方向輪郭線の倒れ込みを説明するための図であり、(A)は撮影画像の一例を示し、(B)は俯瞰画像の一例を示す。It is a figure for demonstrating the collapse of a vertical contour line, (A) shows an example of a photographed image, and (B) shows an example of a bird's-eye view image. ラベル画像を模式的に示す図である。It is a figure which shows the label image schematically. ルックアップテーブルを模式的に示す図である。It is a figure which shows typically the lookup table. 差分ヒストグラムの生成を説明するための図であり、(A)は差分画像の一例を示し、(B)は差分ヒストグラムの一例を示す。It is a figure for demonstrating the generation of a difference histogram, (A) shows an example of a difference image, and (B) shows an example of a difference histogram. エッジ強度ヒストグラムの生成を説明するための図であり、(A)はエッジ画像の一例を示し、(B)はエッジ強度ヒストグラムRbの一例を示す。It is a figure for demonstrating the generation of an edge intensity histogram, (A) shows an example of an edge image, (B) shows an example of an edge intensity histogram Rb. マスク画像の生成を説明するための図であり、(A)はラベル画像の一例を示し、(B)はマスク画像の一例を示す。It is a figure for demonstrating the generation of a mask image, (A) shows an example of a label image, and (B) shows an example of a mask image. マスク差分画像の生成動作の説明図である。It is explanatory drawing of the generation operation of a mask difference image. 近傍接地線特定処理のフローチャートである。It is a flowchart of the neighborhood grounding line identification processing. マスク差分ヒストグラムの生成を説明するための図であり、(A)はマスク差分画像の一例を示し、(B)は(A)のマスク差分画像から得られるマスク差分ヒストグラムの一例を示す。It is a figure for demonstrating the generation of a mask difference histogram, (A) shows an example of a mask difference image, (B) shows an example of a mask difference histogram obtained from the mask difference image of (A). 近傍接地線特定動作の説明図である。It is explanatory drawing of the neighborhood grounding line specific operation. 車幅特定処理のフローチャートである。It is a flowchart of a vehicle width identification process. 車幅特定処理においてマスク画像に設定される各種パラメータの説明図である。It is explanatory drawing of various parameters set in a mask image in a vehicle width specifying process. 差分マスク画像に基づく他車両の端点の特定動作の説明図であり、(A)は差分マスク画像の一例を示し、(B)は端点特定用差分マスク画像の一例を示し、(C)は端点特定用差分ヒストグラムの一例を示し、(D)は差分マスク画像における他車両の端点の一例を示す。It is explanatory drawing of the identification operation of the end point of another vehicle based on the difference mask image, (A) shows an example of the difference mask image, (B) shows an example of the difference mask image for end point identification, (C) is an end point. An example of the specific difference histogram is shown, and (D) shows an example of the end points of other vehicles in the difference mask image. カメラ映像、俯瞰画像、及びマスク画像の例を、車幅が異なる複数の他車両について示す図である。It is a figure which shows the example of the camera image, the bird's-eye view image, and the mask image about a plurality of other vehicles having different vehicle widths. 車幅特定条件の説明図である。It is explanatory drawing of the vehicle width specific condition. 俯瞰画像における近傍接地線、及び遠方接地線と鉛直方向輪郭線との関係を示す図である。It is a figure which shows the relationship between the near grounding line, the distant grounding line, and the vertical contour line in the bird's-eye view image. 立体物領域特定処理の概要説明図である。It is a schematic explanatory drawing of the three-dimensional object area identification processing. 立体物領域特定処理のフローチャートである。It is a flowchart of a three-dimensional object area identification process. 差分近傍ヒストグラムの生成を説明するための図であり、(A)は差分画像の一例を示し、(B)は差分近傍ヒストグラムの一例を示す。It is a figure for demonstrating the generation of the difference neighborhood histogram, (A) shows an example of a difference image, (B) shows an example of a difference neighborhood histogram. エッジ強度近傍ヒストグラムの生成を説明するための図であり、(A)はエッジ画像の一例を示し、(B)はエッジ強度近傍ヒストグラムRbnの一例を示す。It is a figure for demonstrating the generation of the edge intensity neighborhood histogram, (A) shows an example of an edge image, (B) shows an example of an edge intensity neighborhood histogram Rbn. 差分遠方ヒストグラムの生成を説明するための図であり、(A)は差分画像の一例を示し、(B)は差分遠方ヒストグラムの一例を示す。It is a figure for demonstrating the generation of the difference distance histogram, (A) shows an example of a difference image, (B) shows an example of a difference distance histogram. エッジ強度遠方ヒストグラムの生成を説明するための図であり、(A)はエッジ画像の一例を示し、(B)エッジ強度遠方ヒストグラムの一例を示す。It is a figure for demonstrating the generation of the edge intensity distant histogram, (A) shows an example of an edge image, and (B) shows an example of an edge intensity distant histogram. 近傍用マスクラベル画像、及び遠方用マスクラベル画像の説明図である。It is explanatory drawing of the mask label image for the vicinity and the mask label image for the distance. 近傍領域に限定して立体物検出を行った場合の他車両領域特定動作の説明図である。It is explanatory drawing of the operation of specifying the other vehicle area when the three-dimensional object is detected only in the vicinity area. 近傍接地線における各交点のグルーピング動作の説明図である。It is explanatory drawing of the grouping operation of each intersection in the neighborhood grounding line. 最終的な単一他車両領域の決定動作の説明図である。It is explanatory drawing of the determination operation of the final single other vehicle area. 本発明の変形例に係る車幅特定処理の説明図である。It is explanatory drawing of the vehicle width specifying process which concerns on the modification of this invention.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本実施形態に係る車載システム1の構成を示す図である。
車載システム1は、車両2に搭載されたシステムであり、撮影部3と、カメラECU6と、車両制御ユニット8と、HMI部9と、CAN10と、を備える。CAN10は、カメラECU6、車両制御ユニット8、及びHMI部9を接続する車載ネットワークの一種である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of an in-vehicle system 1 according to the present embodiment.
The in-vehicle system 1 is a system mounted on the vehicle 2, and includes a photographing unit 3, a camera ECU 6, a vehicle control unit 8, an HMI unit 9, and a CAN 10. The CAN 10 is a kind of in-vehicle network that connects the camera ECU 6, the vehicle control unit 8, and the HMI unit 9.

撮影部3は、車両2の全周囲(360度の範囲)を撮影して得られたカメラ映像5をカメラECU6に出力する。撮影部3は、車両2の前方を撮影するフロントカメラと、後方DB(図3)を撮影するリアカメラと、右側方を撮影する右サイドカメラと、左側方を撮影する左サイドカメラと、いった複数のカメラ4を備え、各カメラ4からカメラ映像5が出力される。なお、本実施形態では、車両2が前進走行しているものとし、車両2の前方と走行方向Bとは一致している。 The photographing unit 3 outputs the camera image 5 obtained by photographing the entire circumference (range of 360 degrees) of the vehicle 2 to the camera ECU 6. The shooting unit 3 includes a front camera that shoots the front of the vehicle 2, a rear camera that shoots the rear DB (FIG. 3), a right side camera that shoots the right side, and a left side camera that shoots the left side. A plurality of cameras 4 are provided, and a camera image 5 is output from each camera 4. In the present embodiment, it is assumed that the vehicle 2 is traveling forward, and the front of the vehicle 2 and the traveling direction B coincide with each other.

カメラECU6は、撮影部3の撮影動作を制御する機能と、各カメラ映像5に適宜の信号処理を施す機能とを備えた装置である。本実施形態のカメラECU6は、車両2に並走する立体物である他車両A(図3)の位置を、各カメラ4のカメラ映像5ごとに検出し、他車両Aの位置情報をCAN10を通じて車両制御ユニット8に送信する他車両検出装置(立体物検出装置)としても機能する。カメラECU6の詳細については後述する。 The camera ECU 6 is a device having a function of controlling the shooting operation of the shooting unit 3 and a function of performing appropriate signal processing on each camera image 5. The camera ECU 6 of the present embodiment detects the position of the other vehicle A (FIG. 3), which is a three-dimensional object running in parallel with the vehicle 2, for each camera image 5 of each camera 4, and transmits the position information of the other vehicle A through the CAN 10. It also functions as another vehicle detection device (three-dimensional object detection device) that transmits to the vehicle control unit 8. Details of the camera ECU 6 will be described later.

車両制御ユニット8は、車両2の走行に係る各種の制御を実行するプロセッサを備えたユニットであり、この制御のために、操舵機構や駆動機構などの車両2の各部を制御する機能を備える。また車両制御ユニット8は、これらの制御に要する各種の車両情報(少なくとも走行速度)を検出する1又は複数のセンサを備える。 The vehicle control unit 8 is a unit including a processor that executes various controls related to the running of the vehicle 2, and has a function of controlling each part of the vehicle 2 such as a steering mechanism and a drive mechanism for this control. Further, the vehicle control unit 8 includes one or a plurality of sensors that detect various vehicle information (at least traveling speed) required for these controls.

また車両制御ユニット8は、運転者の運転操作に代わって車両2を運転制御する機能(いわゆる、自動運転制御機能)を備え、車両2の走行時には、車両2の周囲に存在する立体物の位置を逐次に取得し、立体物までの間に適切な距離を確保するように運転制御する。例えば、車線変更時や合流時、分流時などのように、立体物の一例である他車両Aに車両2が接近し得る場合、車両制御ユニット8は、他車両Aの位置を取得し、当該他車両Aの位置に基づいて、当該他車両Aとの間に適切な車間距離を確保するように運転制御する。 Further, the vehicle control unit 8 has a function of driving and controlling the vehicle 2 instead of the driver's driving operation (so-called automatic driving control function), and when the vehicle 2 is traveling, the position of a three-dimensional object existing around the vehicle 2. Are sequentially acquired, and the operation is controlled so as to secure an appropriate distance to the three-dimensional object. For example, when the vehicle 2 can approach another vehicle A, which is an example of a three-dimensional object, such as when changing lanes, merging, or diverging, the vehicle control unit 8 acquires the position of the other vehicle A and said that. Based on the position of the other vehicle A, the operation is controlled so as to secure an appropriate inter-vehicle distance from the other vehicle A.

なお、車両制御ユニット8は、自動運転制御機能に代えて、或いは、自動運転制御機能と併せて、運転者の運転操作を支援する運転支援機能を備えてもよい。運転支援機能は、車両2の走行時に、車両2の周囲に存在する立体物の位置を逐次に取得し、立体物を運転者に案内したり、当該立体物の位置に基づく各種の警報等を運転者に報知したりすることで運転者の運転操作を支援するものである。 The vehicle control unit 8 may include a driving support function that supports the driving operation of the driver instead of the automatic driving control function or in combination with the automatic driving control function. The driving support function sequentially acquires the positions of three-dimensional objects existing around the vehicle 2 when the vehicle 2 is running, guides the three-dimensional objects to the driver, and issues various warnings based on the positions of the three-dimensional objects. It supports the driver's driving operation by notifying the driver.

HMI部9は、ユーザインタフェースとなる入力装置、及び出力装置を備え、当該出力装置は、各種情報を表示する表示装置9A、及び各種音声を出力するスピーカを備える。表示装置9Aには、各カメラ4のカメラ映像5や、車両2を上方から俯瞰した映像などが表示され、また、カメラECU6によって検出された他車両Aに関する情報(当該他車両Aの位置や大きさなど)も適宜の態様で表示される。 The HMI unit 9 includes an input device and an output device that serve as a user interface, and the output device includes a display device 9A that displays various information and a speaker that outputs various sounds. The display device 9A displays a camera image 5 of each camera 4, an image of a bird's-eye view of the vehicle 2 from above, and information about the other vehicle A detected by the camera ECU 6 (position and size of the other vehicle A). , Etc.) are also displayed in an appropriate manner.

上述したカメラECU6は、プロセッサの一例であるCPU12と、プログラム13等の各種情報を記憶するROMやRAMなどのメモリ14と、CAN10を通じて車両制御ユニット8と通信する通信回路モジュールとしてのCANI/F16と、を備えた、いわゆるコンピュータを備える。本実施形態のカメラECU6は、メモリ14に記憶されたプログラムをCPU12が実行することで、上述した他車両検出装置として機能する。 The camera ECU 6 described above includes a CPU 12 as an example of a processor, a memory 14 such as a ROM or RAM for storing various information such as a program 13, and a CANI / F16 as a communication circuit module that communicates with a vehicle control unit 8 through a CAN 10. It is equipped with a so-called computer equipped with. The camera ECU 6 of the present embodiment functions as the other vehicle detection device described above by executing the program stored in the memory 14 by the CPU 12.

図2は、カメラECU6の機能的構成を示す図である。
本実施形態のカメラECU6は、異なるタイミングで撮影された第1撮影画像、及び第2撮影画像を同じカメラ4で撮影されたカメラ映像5から取得し、これら第1撮影画像、及び第2撮影画像を俯瞰変換した第1俯瞰画像F1、及び第2俯瞰画像F2の差分である差分画像Gに基づいて、当該カメラ4のカメラ映像5に映った他車両Aの位置を検出する。カメラECU6は、かかる検出を各カメラ4のカメラ映像5ごとに行うことで、車両2の全周囲について他車両Aの位置を検出する。
係る検出動作のために、カメラECU6は、図2に示すように、車両情報取得部20と、前処理部22と、立体物位置特定部24と、を備えている。
FIG. 2 is a diagram showing a functional configuration of the camera ECU 6.
The camera ECU 6 of the present embodiment acquires the first shot image and the second shot image shot at different timings from the camera image 5 shot by the same camera 4, and these first shot image and second shot image. The position of the other vehicle A reflected in the camera image 5 of the camera 4 is detected based on the difference image G which is the difference between the first bird's-eye view image F1 and the second bird's-eye view image F2 obtained by converting the bird's-eye view. The camera ECU 6 detects the position of the other vehicle A with respect to the entire circumference of the vehicle 2 by performing such detection for each camera image 5 of each camera 4.
For such a detection operation, the camera ECU 6 includes a vehicle information acquisition unit 20, a preprocessing unit 22, and a three-dimensional object position specifying unit 24, as shown in FIG.

車両情報取得部20は、車両制御ユニット8から車両情報を取得する。この車両情報には、少なくとも車両2の走行速度が含まれる。 The vehicle information acquisition unit 20 acquires vehicle information from the vehicle control unit 8. This vehicle information includes at least the traveling speed of the vehicle 2.

前処理部22は、カメラ映像5から差分画像Gを得るための処理を実行するものであり、カメラ映像取得部30と、輝度変換処理部32と、俯瞰変換処理部34と、差分画像生成部36と、を備える。 The pre-processing unit 22 executes processing for obtaining the difference image G from the camera image 5, and includes the camera image acquisition unit 30, the brightness conversion processing unit 32, the bird's-eye view conversion processing unit 34, and the difference image generation unit. 36 and.

カメラ映像取得部30は、撮影部3を制御することで、所定時間以上に亘って撮影部3による撮影を継続し、その撮影によって得られたカメラ映像5を取得する。
輝度変換処理部32は、カメラ映像5を構成する各フレーム(撮影画像)を輝度画像に変換する。各フレームは静止画像である撮影画像に相当し、輝度画像は、この撮影画像のそれぞれの画素値を、その画素の輝度値に変換した画像である。
俯瞰変換処理部34は、各輝度画像を俯瞰画像に変換する。俯瞰画像は、車両2の上方に設定された仮想視点から直下方向を視た画像である。俯瞰変換処理部34は輝度画像を射影変換(視点変換とも呼ばれる)することで俯瞰画像を生成する。
差分画像生成部36は、俯瞰変換処理部34によって順次に生成される俯瞰画像の中から、撮影タイミングが異なる2つの第1撮影画像、及び第2撮影画像から得られた第1俯瞰画像F1、及び第2俯瞰画像F2(図5(A)参照)を抽出し、両者の差分画像Gを生成する。差分画像Gは、第1撮影画像E1の各画素の画素値(輝度値)を、その画素に対応する第2撮影画像E2の画素の画素値(輝度値)との差に変換し、所定の閾値で各画素の画素値を2値化した画像である。差分画像Gの生成時には、差分画像生成部36は、第1俯瞰画像F1と第2俯瞰画像F2の撮影位置Oを、第1俯瞰画像F1を基準に揃えた状態で、両者の各画素の画素値の差分量を算出することで、差分画像Gを生成する。
By controlling the shooting unit 3, the camera image acquisition unit 30 continues shooting by the shooting unit 3 for a predetermined time or longer, and acquires the camera image 5 obtained by the shooting.
The luminance conversion processing unit 32 converts each frame (captured image) constituting the camera image 5 into a luminance image. Each frame corresponds to a captured image which is a still image, and the luminance image is an image obtained by converting each pixel value of the captured image into the luminance value of the pixel.
The bird's-eye view conversion processing unit 34 converts each luminance image into a bird's-eye view image. The bird's-eye view image is an image viewed directly below from a virtual viewpoint set above the vehicle 2. The bird's-eye view conversion processing unit 34 generates a bird's-eye view image by projecting a luminance image (also called a viewpoint conversion).
The difference image generation unit 36 includes two first shot images having different shooting timings and a first bird's-eye view image F1 obtained from the second shot images from the bird's-eye view images sequentially generated by the bird's-eye view conversion processing unit 34. And the second bird's-eye view image F2 (see FIG. 5A) are extracted to generate a difference image G between the two. The difference image G converts the pixel value (brightness value) of each pixel of the first captured image E1 into the difference from the pixel value (brightness value) of the pixel of the second captured image E2 corresponding to the pixel, and determines a predetermined value. It is an image in which the pixel value of each pixel is binarized by a threshold value. At the time of generating the difference image G, the difference image generation unit 36 aligns the shooting positions O of the first bird's-eye view image F1 and the second bird's-eye view image F2 with the first bird's-eye view image F1 as a reference, and the pixels of each pixel of both. The difference image G is generated by calculating the difference amount of the values.

立体物位置特定部24は、差分画像Gに基づいて、立体物の一例である他車両Aの位置を特定するものであり、マスク差分画像生成部50と、近傍接地線特定部51と、車幅特定部52と、遠方接地線特定部53と、位置特定部54と、を備える。 The three-dimensional object position specifying unit 24 specifies the position of another vehicle A, which is an example of a three-dimensional object, based on the difference image G. A width specifying unit 52, a distant ground line specifying unit 53, and a position specifying unit 54 are provided.

マスク差分画像生成部50は、差分画像Gの中で他車両候補領域60を除く残余の領域をマスキングするマスク画像90を生成し、差分画像Gをマスク画像90によってマスキングすることで、他車両候補領域60以外がマスキングされたマスク差分画像Gm(図13参照)を生成する。
他車両候補領域60は、差分画像Gにおいて他車両Aが映っている蓋然性が高い領域であり、他車両領域Hの候補の領域である。他車両領域Hは、差分画像Gにおいて他車両Aが映っていると確定された領域(立体物領域)である。
The mask difference image generation unit 50 generates a mask image 90 that masks the remaining area excluding the other vehicle candidate area 60 in the difference image G, and masks the difference image G with the mask image 90 to obtain another vehicle candidate. A mask difference image Gm (see FIG. 13) in which the areas other than the region 60 are masked is generated.
The other vehicle candidate region 60 is a region with a high probability that the other vehicle A is reflected in the difference image G, and is a candidate region of the other vehicle region H. The other vehicle area H is an area (three-dimensional object area) in which the other vehicle A is determined to be reflected in the difference image G.

近傍接地線特定部51は、マスク差分画像Gmに基づいて、差分画像Gにおける近傍接地線L1を特定する。
ここで、接地線は、車両2が走行している車線に隣接する他の車線に存在する他車両Aが地面に接する線を言い、平面視における他車両Aの左右両側の輪郭線63(図3)に相当する。
本実施形態において、図3に示すように、他車両Aの左右両側の輪郭線63のうちの車両2に近い側の線を近傍接地線L1と言い、車両2から遠い側の線を遠方接地線L2と言う。
これら近傍接地線L1、及び遠方接地線L2が差分画像Gの中に設定されることで、この差分画像Gの中で、車両2からみて横方向Chにおける他車両領域Hの位置が特定される。なお、横方向Chは車両2の走行方向Bに垂直な方向を指す。
The neighborhood grounding line specifying unit 51 identifies the neighborhood grounding line L1 in the difference image G based on the mask difference image Gm.
Here, the ground contact line refers to a line in which another vehicle A existing in another lane adjacent to the lane in which the vehicle 2 is traveling is in contact with the ground, and contour lines 63 on both the left and right sides of the other vehicle A in a plan view (FIG. Corresponds to 3).
In the present embodiment, as shown in FIG. 3, the line of the contour lines 63 on both the left and right sides of the other vehicle A, which is closer to the vehicle 2, is referred to as the near ground line L1, and the line far from the vehicle 2 is the far ground. It is called line L2.
By setting the near ground line L1 and the far ground line L2 in the difference image G, the position of the other vehicle region H in the lateral direction Ch with respect to the vehicle 2 is specified in the difference image G. .. The lateral direction Ch refers to a direction perpendicular to the traveling direction B of the vehicle 2.

車幅特定部52は、マスク画像90(図13)に基づいて、他車両Aの車幅Vw(図3)を特定する。
遠方接地線特定部53は、近傍接地線L1、及び車幅Vwに基づいて、差分画像Gにおける遠方接地線L2を特定する。
The vehicle width specifying unit 52 specifies the vehicle width Vw (FIG. 3) of the other vehicle A based on the mask image 90 (FIG. 13).
The distant ground line specifying unit 53 identifies the distant ground line L2 in the difference image G based on the near ground line L1 and the vehicle width Vw.

位置特定部54は、近傍接地線L1、遠方接地線L2、他車両Aの先端VF、及び後端VB(図3)に基づいて、差分画像Gにおける単一他車両領域Kを特定する。単一他車両領域Kは、差分画像Gにおいて1台(単一)の他車両Aが占める(映っている)領域である。
詳述すると、複数の他車両Aが縦列走行している場合、これら複数の他車両Aを含む1つの領域が他車両領域Hとして特定される可能性がある。単一他車両領域Kは、かかる他車両領域Hを他車両Aごとに分けた領域に相当し、位置特定部54は、他車両領域Hに代えて、かかる単一他車両領域Kを最終的に特定する。
また位置特定部54は、差分画像Gにおける単一他車両領域Kの位置に基づいて、実空間における他車両Aの位置を特定し、当該位置を車両制御ユニット8に逐次に送信する。単一他車両領域Kの位置から実空間における他車両Aの位置への変換には、公知又は周知の適宜の手法を用いることができる。
The position specifying unit 54 identifies the single other vehicle area K in the difference image G based on the near ground line L1, the far ground line L2, the front end VF of the other vehicle A, and the rear end VB (FIG. 3). The single other vehicle area K is an area occupied (displayed) by one (single) other vehicle A in the difference image G.
More specifically, when a plurality of other vehicles A are traveling in a column, one region including the plurality of other vehicles A may be specified as the other vehicle region H. The single other vehicle area K corresponds to an area in which the other vehicle area H is divided for each other vehicle A, and the position specifying unit 54 finally replaces the other vehicle area H with the single other vehicle area K. To specify.
Further, the position specifying unit 54 identifies the position of the other vehicle A in the real space based on the position of the single other vehicle area K in the difference image G, and sequentially transmits the position to the vehicle control unit 8. A known or well-known appropriate method can be used for the conversion from the position of the single other vehicle region K to the position of the other vehicle A in the real space.

また位置特定部54は、実空間における他車両Aの位置の情報を表示するためのデータをHMI部9に送信し、当該情報を表示装置9Aに表示させる。かかる表示態様としては、例えば、車両2を上方から俯瞰した映像に、単一他車両領域Kの輪郭線を重ねて表示する態様などがあり得る。本実施形態では、他車両Aの車幅Vwには、予め設定された既定値ではなく、車幅特定部52がマスク画像90に基づいて特定した実測の値が用いられるため、他車両Aの位置(他車両Aが占める領域)を、より正確に表示することができる。 Further, the position specifying unit 54 transmits data for displaying the position information of the other vehicle A in the real space to the HMI unit 9, and causes the display device 9A to display the information. As such a display mode, for example, there may be a mode in which the contour line of the single other vehicle region K is superimposed on the image of the vehicle 2 viewed from above. In the present embodiment, the vehicle width Vw of the other vehicle A is not a preset default value, but an actually measured value specified by the vehicle width specifying unit 52 based on the mask image 90. The position (the area occupied by the other vehicle A) can be displayed more accurately.

次いで、カメラECU6による他車両Aの検出動作について説明する。
本動作説明では、リアカメラのカメラ映像5に映った他車両AをカメラECU6が検出する場合を例示する。また本動作説明では、図3に示すように、車両2が走行している車線70の両側に、他の車線70R、70Lが隣接して存在し、各車線70R、70Lを他車両Aが車両2と同一方向に走行(すなわち並走)しているものとする。また、いずれの他車両Aも車両2より後方DBに位置し、かつ、リアカメラの画角αの範囲内に位置するものとする。なお、図3において、矩形線で示した領域は、車両制御ユニット8による自動運転制御や運転支援において他車両Aの存在を検出する検出領域72を示すものである。
Next, the detection operation of the other vehicle A by the camera ECU 6 will be described.
In this operation description, a case where the camera ECU 6 detects another vehicle A reflected in the camera image 5 of the rear camera will be illustrated. Further, in this operation description, as shown in FIG. 3, other lanes 70R and 70L are adjacent to each other on both sides of the lane 70 in which the vehicle 2 is traveling, and the other vehicle A is a vehicle in each lane 70R and 70L. It is assumed that the vehicle is running in the same direction as 2 (that is, running in parallel). Further, it is assumed that all the other vehicles A are located in the rear DB behind the vehicle 2 and are located within the range of the angle of view α of the rear camera. In FIG. 3, the area shown by the rectangular line indicates the detection area 72 that detects the presence of the other vehicle A in the automatic driving control and the driving support by the vehicle control unit 8.

図4は、立体物検出処理のフローチャートである。
立体物検出処理は、少なくとも車両2が走行している間、周囲の他車両Aの存在を検知するために、各カメラ4のカメラ映像5ごとにカメラECU6によって継続的に繰り返し実行される。
FIG. 4 is a flowchart of the three-dimensional object detection process.
The three-dimensional object detection process is continuously and repeatedly executed by the camera ECU 6 for each camera image 5 of each camera 4 in order to detect the presence of another vehicle A in the vicinity while the vehicle 2 is traveling.

立体物検出処理において、先ず、車両情報取得部20が車両情報(少なくとも走行速度を含む)を取得し(ステップSa1)、カメラ映像取得部30がカメラ映像5を取得する(ステップSa2)。
次いで、輝度変換処理部32がカメラ映像5の各フレーム(撮影画像)を輝度画像に順次に変換し(ステップSa3)、俯瞰変換処理部34が、各輝度画像に基づいて俯瞰画像Fを順次に生成する(ステップSa4)。
In the three-dimensional object detection process, first, the vehicle information acquisition unit 20 acquires vehicle information (including at least the traveling speed) (step Sa1), and the camera image acquisition unit 30 acquires the camera image 5 (step Sa2).
Next, the luminance conversion processing unit 32 sequentially converts each frame (captured image) of the camera image 5 into a luminance image (step Sa3), and the bird's-eye view conversion processing unit 34 sequentially converts the bird's-eye view image F based on each luminance image. Generate (step Sa4).

次に、差分画像生成部36が、俯瞰変換処理部34によって順次に生成される俯瞰画像の中から、撮影タイミングが異なる2つの第1撮影画像、及び第2撮影画像から得られた第1俯瞰画像F1、及び第2俯瞰画像F2を抽出し、両者の差分画像Gを生成する(ステップSa5)。 Next, the difference image generation unit 36 receives two first shot images having different shooting timings and a first bird's-eye view obtained from the second shot images from the bird's-eye view images sequentially generated by the bird's-eye view conversion processing unit 34. The image F1 and the second bird's-eye view image F2 are extracted, and the difference image G between the two is generated (step Sa5).

図5は差分画像生成動作を説明するための図であり、図5(A)は第1俯瞰画像F1、及び第2俯瞰画像F2の一例を示し、図5(B)は差分画像Gの一例を示す。
なお、以下では、直近に撮影された撮影画像を第1撮影画像とし、それよりも前に撮影された撮影画像を第2撮影画像として説明する。
5A and 5B are diagrams for explaining a difference image generation operation, FIG. 5A shows an example of a first bird's-eye view image F1 and a second bird's-eye view image F2, and FIG. 5B is an example of a difference image G. Is shown.
In the following, the most recently captured image will be referred to as the first captured image, and the captured image captured before that will be referred to as the second captured image.

第1撮影画像、及び第2撮影画像は、それぞれの撮影位置Oが走行方向Bにずれるため、図5(A)に示すように、第1俯瞰画像F1、及び第2俯瞰画像F2においても撮影位置Oに、車両2の移動に起因したずれDEが生じる。差分画像生成部36は、撮影位置OのずれDEを補正して差分画像Gを生成するために、第1俯瞰画像F1及び第2俯瞰画像F2の両者の撮影位置Oを、いずれか一方(図5(A)では第1俯瞰画像F1)を基準に揃えた状態で両者の差分画像Gを生成する。 Since the respective shooting positions O shift in the traveling direction B in the first shot image and the second shot image, they are also shot in the first bird's-eye view image F1 and the second bird's-eye view image F2 as shown in FIG. 5 (A). At the position O, a shift DE due to the movement of the vehicle 2 occurs. In order to correct the deviation DE of the shooting position O and generate the difference image G, the difference image generation unit 36 sets the shooting position O of both the first bird's-eye view image F1 and the second bird's-eye view image F2 (FIG. In 5 (A), the difference image G between the two is generated in a state where the first bird's-eye view image F1) is aligned with the reference.

具体的には、差分画像生成部36は、車両2の走行速度と、第1撮影画像、及び第2撮影画像の撮影タイミングの時間差taとに基づいて、車両2の走行距離を算出する。そして差分画像生成部36は、第1俯瞰画像F1、及び第2俯瞰画像F2のいずれか一方(図5(A)では、撮影タイミングが早い方の第2俯瞰画像F2)の各画素を、走行距離に応じた画素数分だけ走行方向Bに沿ってずらす。これにより、第1俯瞰画像F1、及び第2俯瞰画像F2の他方を基準に、両者の撮影位置Oが揃えられた状態となる。 Specifically, the difference image generation unit 36 calculates the mileage of the vehicle 2 based on the traveling speed of the vehicle 2 and the time difference ta of the imaging timings of the first captured image and the second captured image. Then, the difference image generation unit 36 travels on each pixel of either the first bird's-eye view image F1 or the second bird's-eye view image F2 (in FIG. 5A, the second bird's-eye view image F2 having the earlier shooting timing). It is shifted along the traveling direction B by the number of pixels according to the distance. As a result, the shooting positions O of both are aligned with respect to the other of the first bird's-eye view image F1 and the second bird's-eye view image F2.

路面標示の一種である白線74等の任意の静止物体が第1俯瞰画像F1、及び第2俯瞰画像F2の各々に映っている場合、両者の撮影位置Oが揃えられることで、図5(A)に示すように、静止物体が映っている位置が揃う。
その一方で、移動物体である他車両Aが第1俯瞰画像F1、及び第2俯瞰画像F2の各々に映っている場合、両者の撮影位置Oが揃えられることで、図5(A)に示すように、それぞれに映った他車両Aの位置にずれが生じる。
これにより、両者の差分を示す差分画像Gにおいては、図5(B)に示すように、路面標示(白線74等)の静止物体が映っている領域の画素値(差分量)は小さくなり、他車両Aが映っている領域の画素値(差分量)は比較的大きくなる。したがって、差分画像Gの2値化に用いる輝度値の閾値が適切に設定されることで、静止物体を除いた画像を差分画像Gとして得ることができる。そして、この差分画像Gにおいて、高輝度値の領域に基づいて、他車両Aが映っている他車両領域Hが特定可能となる。
When an arbitrary stationary object such as a white line 74, which is a kind of road marking, is reflected in each of the first bird's-eye view image F1 and the second bird's-eye view image F2, the shooting positions O of both are aligned, so that FIG. 5 (A) ), The positions where the stationary objects are reflected are aligned.
On the other hand, when another vehicle A, which is a moving object, is reflected in each of the first bird's-eye view image F1 and the second bird's-eye view image F2, the shooting positions O of both are aligned, which is shown in FIG. 5 (A). As described above, the positions of the other vehicles A reflected in each of them are displaced.
As a result, in the difference image G showing the difference between the two, as shown in FIG. 5 (B), the pixel value (difference amount) of the region where the stationary object of the road marking (white line 74, etc.) is reflected becomes small. The pixel value (difference amount) in the area where the other vehicle A is reflected is relatively large. Therefore, by appropriately setting the threshold value of the brightness value used for binarizing the difference image G, the image excluding the stationary object can be obtained as the difference image G. Then, in the difference image G, the other vehicle region H in which the other vehicle A is reflected can be specified based on the region of the high luminance value.

ただし、前掲図3に示すように、車両2と他車両Aとの間に、車両2や他車両Aなどの任意の移動物体によって影76が生じている場合、差分画像Gにおいては、その影76に対応する領域の画素値も増大する。このため、差分画像Gの中で画素値が大きい領域を他車両領域Hとして単純に位置特定部54が抽出した場合、影76に対応する領域が他車両領域Hに含まれ、他車両領域Hの精度が悪くなる。 However, as shown in FIG. 3 above, when a shadow 76 is generated between the vehicle 2 and the other vehicle A by an arbitrary moving object such as the vehicle 2 or the other vehicle A, the shadow 76 is generated in the difference image G. The pixel value in the region corresponding to 76 also increases. Therefore, when the position specifying unit 54 simply extracts the region having a large pixel value in the difference image G as the other vehicle region H, the region corresponding to the shadow 76 is included in the other vehicle region H, and the other vehicle region H The accuracy of

そこで、本実施形態では、位置特定部54が差分画像Gに基づいて他車両領域Hを特定するに前に、前掲図4に示すように、先ず、マスク差分画像生成部50が差分画像Gにおいて他車両候補領域60を除く残余の領域、すなわち、影76などのノイズに対応する領域をマスキングしたマスク差分画像Gmを生成する(ステップSa6:マスク差分画像生成処理)。そして、近傍接地線特定部51が、このマスク差分画像Gmに基づいて、他車両領域Hを区画する線の1つである上記近傍接地線L1を特定する(ステップSa7:近傍接地線特定処理)。これにより、近傍接地線L1を精度よく特定することができる。 Therefore, in the present embodiment, before the position specifying unit 54 identifies the other vehicle area H based on the difference image G, as shown in FIG. 4 above, the mask difference image generation unit 50 first sets the difference image G in the difference image G. A mask difference image Gm that masks the remaining area excluding the other vehicle candidate area 60, that is, the area corresponding to noise such as the shadow 76 is generated (step Sa6: mask difference image generation process). Then, the neighborhood grounding line specifying unit 51 identifies the neighborhood grounding line L1 which is one of the lines dividing the other vehicle region H based on the mask difference image Gm (step Sa7: neighborhood grounding line specifying process). .. Thereby, the near ground line L1 can be specified with high accuracy.

図6は、上述のマスク画像生成処理のフローチャートである。
マスク画像生成処理では、先ず、マスク差分画像生成部50がマスク画像90を生成する(ステップSb1)。マスク画像90は、差分画像Gの中のマスキング領域62をマスクする画像である。マスキング領域62は、差分画像Gにおいて他車両候補領域60を除いた残余の領域である。マスク差分画像生成部50は、この他車両候補領域60を、差分画像Gに映っている他車両Aの鉛直方向輪郭線Pに基づいて特定する。
FIG. 6 is a flowchart of the above-mentioned mask image generation process.
In the mask image generation process, first, the mask difference image generation unit 50 generates the mask image 90 (step Sb1). The mask image 90 is an image that masks the masking region 62 in the difference image G. The masking area 62 is a residual area excluding the other vehicle candidate area 60 in the difference image G. The mask difference image generation unit 50 identifies the other vehicle candidate region 60 based on the vertical contour line P of the other vehicle A shown in the difference image G.

図7は、鉛直方向輪郭線Pの倒れ込みを説明するための図であり、(A)は撮影画像Mの一例を示し、(B)は俯瞰画像Fの一例を示す。
鉛直方向輪郭線Pは、図7(A)に示すように、撮影画像M(カメラ映像5のフレーム)に映っている他車両Aの輪郭線63や、当該他車両Aの車体パーツ(ドアなど)の輪郭線、他車両Aに描かれた模様の輪郭線などのうち、実空間において鉛直方向(地面に対して垂直方向)に延びている線である。撮影画像Mの射影変換(視点変換)に伴い、当該撮影画像Mの鉛直方向輪郭線Pは、図7(B)に示すように、俯瞰画像Fにおいてカメラ4(本動作説明ではリアカメラ)の撮影位置Oから放射状に延びる放射線Qに変換される(いわゆる、鉛直方向輪郭線Pの倒れ込み)。つまり、俯瞰画像Fにおいて、この鉛直方向輪郭線Pを線分に含む放射線Qによって区画される領域(図7(B)のハッチングで示す領域)は他車両Aが存在する領域を示すため、かかる領域が他車両候補領域60となる。なお、鉛直方向輪郭線Pを線分に含む放射線Qの方向は、射影変換(視点変換)によって立体物が倒れ込む方向とも呼ばれる。
7A and 7B are views for explaining the collapse of the vertical contour line P. FIG. 7A shows an example of a captured image M, and FIG. 7B shows an example of a bird's-eye view image F.
As shown in FIG. 7A, the vertical contour line P includes the contour line 63 of the other vehicle A shown in the photographed image M (frame of the camera image 5) and the vehicle body parts (doors, etc.) of the other vehicle A. ), The outline of the pattern drawn on the other vehicle A, and the like, which extends in the vertical direction (perpendicular to the ground) in the real space. Along with the projective transformation (viewpoint transformation) of the captured image M, the vertical contour line P of the captured image M is the camera 4 (rear camera in this operation description) in the bird's-eye view image F as shown in FIG. 7 (B). It is converted into radiation Q extending radially from the imaging position O (so-called collapse of the vertical contour line P). That is, in the bird's-eye view image F, the region defined by the radiation Q including the vertical contour line P in the line segment (the region shown by the hatching in FIG. 7B) indicates the region where the other vehicle A exists. The area becomes another vehicle candidate area 60. The direction of the radiation Q including the vertical contour line P in the line segment is also called the direction in which the three-dimensional object collapses due to the projective transformation (viewpoint transformation).

2つの俯瞰画像Fの差分である差分画像Gにおいても俯瞰画像Fと同様に、鉛直方向輪郭線Pは放射線Qの線分となる。差分画像Gにおいて、鉛直方向輪郭線Pを含んだ放射線Qを構成する各画素は、画素値(差分量)が他の画素よりも大きくなる。このことを踏まえ、マスク差分画像生成部50は、差分画像Gの各画素値に基づいて他車両候補領域60を特定する。またマスク差分画像生成部50は、ラベル画像91、及びルックアップテーブル92を用いて他車両候補領域60の特定を効率良く行っている。 In the difference image G, which is the difference between the two bird's-eye view images F, the vertical contour line P is a line segment of the radiation Q as in the bird's-eye view image F. In the difference image G, each pixel constituting the radiation Q including the vertical contour line P has a pixel value (difference amount) larger than that of the other pixels. Based on this, the mask difference image generation unit 50 identifies another vehicle candidate region 60 based on each pixel value of the difference image G. Further, the mask difference image generation unit 50 efficiently identifies the other vehicle candidate area 60 by using the label image 91 and the look-up table 92.

図8は、ラベル画像91を模式的に示す図である。
ラベル画像91は、撮影位置Oから等間隔に放射状に延び、それぞれがラベル番号によって識別された複数の放射線Qの画像であり、それぞれの放射線Qが、差分画像Gにおける鉛直方向輪郭線Pを含んだ放射線Qの候補となる。本実施形態では、ラベル画像91には、ラベル番号が「1」から「100」までの100本の放射線Qが含まれる。
かかるラベル画像91は、差分画像Gに相当する画素数を有し、図8に示すように、同じ放射線Qを構成する各画素に、その放射線Qのラベル番号(「1」から「100」のいずれか)が対応付けられている。
FIG. 8 is a diagram schematically showing the label image 91.
The label image 91 is an image of a plurality of radiation Qs extending radially from the photographing position O at equal intervals and each of which is identified by a label number, and each radiation Q includes a vertical contour line P in the difference image G. However, it is a candidate for radiation Q. In the present embodiment, the label image 91 includes 100 radiation Qs whose label numbers are "1" to "100".
The label image 91 has a number of pixels corresponding to the difference image G, and as shown in FIG. 8, each pixel constituting the same radiation Q has a label number (“1” to “100”) of the radiation Q. Either) is associated.

図9は、ルックアップテーブル92を模式的に示す図である。
ルックアップテーブル92は、ラベル画像91の各画素に、非マスキング(白色)に対応する「255」、及びマスキング(黒色)に対応する「0」のいずれかの画素値を指定するものである。ラベル画像91の各画素の画素値が、ルックアップテーブル92の指定に基づいて設定されることで、各画素が非マスキング状態(白色)、又はマスキング状態(黒色)となったマスク画像90が得られる。
FIG. 9 is a diagram schematically showing a look-up table 92.
The look-up table 92 specifies a pixel value of either "255" corresponding to non-masking (white) or "0" corresponding to masking (black) for each pixel of the label image 91. By setting the pixel value of each pixel of the label image 91 based on the designation of the lookup table 92, a mask image 90 in which each pixel is in the non-masking state (white) or the masking state (black) is obtained. Be done.

図9に示すように、ルックアップテーブル92において、放射線Qのラベル番号ごとに、その放射線Qの画素値が指定されている。この画素値は、差分画像Gにおける放射線Qごとの画素値に基づいて決定されている。 As shown in FIG. 9, in the lookup table 92, the pixel value of the radiation Q is specified for each label number of the radiation Q. This pixel value is determined based on the pixel value for each radiation Q in the difference image G.

マスク差分画像生成部50は、上記マスク画像生成処理において(図6:ステップSb1)、先ず上記ラベル画像91の全ての画素値を、「255」(非マスキング状態)、又は「0」(マスキング状態)にして初期化する(ステップSb1A)。
次いで、マスク差分画像生成部50は、差分画像Gの中の各放射線Qの画素値に基づいて、上記ルックアップテーブル92を作成する(ステップSb1B)。具体的には、マスク差分画像生成部50は、差分ヒストグラムRa、及びエッジ強度ヒストグラムRbに基づいて、ルックアップテーブル92における放射線Qごとの各画素の輝度値を示すフラグ(「0」又は「255」)を決定する。
In the mask image generation process (FIG. 6: step Sb1), the mask difference image generation unit 50 first sets all the pixel values of the label image 91 to "255" (non-masking state) or "0" (masking state). ) To initialize (step Sb1A).
Next, the mask difference image generation unit 50 creates the look-up table 92 based on the pixel values of each radiation Q in the difference image G (step Sb1B). Specifically, the mask difference image generation unit 50 uses a flag (“0” or “255”) indicating the brightness value of each pixel for each radiation Q in the lookup table 92 based on the difference histogram Ra and the edge intensity histogram Rb. ") Is decided.

図10は、差分ヒストグラムRaの生成を説明するための図であり、図10(A)は差分画像Gの一例を示し、図10(B)は、図10(A)に示す差分画像Gから得られる差分ヒストグラムRaの一例を示す。
差分ヒストグラムRaは、図10(B)に示すように、ラベル番号を横軸とし、図10(A)に示す差分画像Gにおいて放射線Qごとに画素値の有無を累積した値(以下、「放射線方向差分量累積値」と言う)を縦軸としたグラフである。放射線方向差分量累積値は、放射線Qが鉛直方向輪郭線Pを含んでいると大きくなるため、この差分ヒストグラムRaにおいて、放射線方向差分量累積値が所定の第1閾値Th1を越えている各放射線Qを特定することで、他車両候補領域60となる放射線Qの範囲Uaを特定することができる。
また放射線Qごとの放射線方向差分量累積値に基づいて、鉛直方向輪郭線Pを含む放射線Qを特定することで、例えば輪郭抽出処理などの画像処理を差分画像Gに施して鉛直方向輪郭線Pを検出する手法に比べ、高速かつ高精度に放射線Qを特定できる。
10A and 10B are diagrams for explaining the generation of the difference histogram Ra, FIG. 10A shows an example of the difference image G, and FIG. 10B is from the difference image G shown in FIG. 10A. An example of the obtained difference histogram Ra is shown.
As shown in FIG. 10B, the difference histogram Ra has the label number as the horizontal axis, and the difference image G shown in FIG. 10A is a value obtained by accumulating the presence or absence of pixel values for each radiation Q (hereinafter, “radiation”). It is a graph with the vertical axis as the "cumulative value of the amount of difference in direction"). Since the cumulative value of the radiation direction difference increases when the radiation Q includes the vertical contour line P, in this difference histogram Ra, each radiation whose radiation direction difference cumulative value exceeds a predetermined first threshold Th1. By specifying Q, it is possible to specify the range Ua of the radiation Q that is the other vehicle candidate region 60.
Further, by specifying the radiation Q including the vertical contour line P based on the cumulative value of the radiation direction difference amount for each radiation Q, image processing such as contour extraction processing is applied to the difference image G to perform the vertical direction contour line P. Radiation Q can be identified at high speed and with high accuracy as compared with the method of detecting.

図11はエッジ強度ヒストグラムRbの生成を説明するための図であり、図11(A)はエッジ画像Eの一例を示し、図11(B)は図11(A)のエッジ画像Eから得られるエッジ強度ヒストグラムRbの一例を示す。
エッジ強度ヒストグラムRbは、図11(B)に示すように、ラベル番号を横軸とし、図11(A)に示すエッジ画像Eにおいて放射線Qごとに画素値の有無を累積した値(以下、「放射線方向エッジ強度累積値」と言う)を縦軸としたグラフである。
エッジ画像Eは、第1俯瞰画像F1、及び第2俯瞰画像F2のうち、撮影タイミングが遅い方(すなわち直近の方)の俯瞰画像(本実施形態では第1俯瞰画像F1)において、その俯瞰画像に映った物体(当該物体の模様等を含む)の輪郭成分を抽出した画像である。かかるエッジ画像Eは、マスク差分画像生成部50が、俯瞰画像において、周辺の画素との間の輝度差が大きな(所定値以上)の各画素の画素値を、その輝度差に応じた値(強度値)に変換することで生成される。したがって、エッジ強度ヒストグラムRbは、放射線Qに含まれる立体物のエッジ成分の大小を、放射線Qのラベルごとに示したグラフとなる。
11A and 11B are views for explaining the generation of the edge intensity histogram Rb, FIG. 11A shows an example of the edge image E, and FIG. 11B is obtained from the edge image E of FIG. 11A. An example of the edge intensity histogram Rb is shown.
As shown in FIG. 11 (B), the edge intensity histogram Rb is a value obtained by accumulating the presence or absence of pixel values for each radiation Q in the edge image E shown in FIG. 11 (A) with the label number as the horizontal axis (hereinafter, "" It is a graph with the vertical axis as the "cumulative value of edge intensity in the radiation direction").
The edge image E is a bird's-eye view image of the first bird's-eye view image F1 and the second bird's-eye view image F2, whichever has the later shooting timing (that is, the nearest one) (the first bird's-eye view image F1 in the present embodiment). It is an image which extracted the contour component of the object (including the pattern of the object) reflected in. In such an edge image E, the mask difference image generation unit 50 sets the pixel value of each pixel having a large brightness difference (a predetermined value or more) from the surrounding pixels in the bird's-eye view image to a value corresponding to the brightness difference ( It is generated by converting to intensity value). Therefore, the edge intensity histogram Rb is a graph showing the magnitude of the edge component of the three-dimensional object included in the radiation Q for each label of the radiation Q.

マスク差分画像生成部50は、図6のステップSb1Bにおいて、ルックアップテーブル92を作成する際、差分ヒストグラムRaの中で放射線方向差分量累積値が所定の第1閾値Th1を越え、かつ、エッジ強度ヒストグラムRbの中で放射線方向エッジ強度累積値が所定の第2閾値Th2を越えている放射線Qを特定する。そして、マスク差分画像生成部50は、ルックアップテーブル92において、これらの放射線Qに「非マスキング状態」の画素値を設定し、それ以外の放射線Qに「マスキング状態」の画素値を設定する。
次いでマスク差分画像生成部50は、ルックアップテーブル92に基づいて、ラベル画像91の各画素値を設定することで、マスク画像90を生成する(ステップSb1C)。
When the mask difference image generation unit 50 creates the lookup table 92 in step Sb1B of FIG. 6, the cumulative value of the radiation direction difference amount exceeds a predetermined first threshold value Th1 in the difference histogram Ra, and the edge strength In the histogram Rb, the radiation Q whose cumulative value of the radiation direction edge intensity exceeds a predetermined second threshold value Th2 is specified. Then, the mask difference image generation unit 50 sets the pixel values of the “non-masking state” for these radiation Qs in the lookup table 92, and sets the pixel values of the “masking state” for the other radiation Qs.
Next, the mask difference image generation unit 50 generates the mask image 90 by setting each pixel value of the label image 91 based on the lookup table 92 (step Sb1C).

図12は、マスク画像90の生成を説明するための図であり、図12(A)はラベル画像91の一例を示し、図12(B)はマスク画像90の一例を示す。
図12(A)に示すラベル画像91に、ルックアップテーブル92が適用されることで、図12(B)に示すように、他車両候補領域60に相当する領域が非マスキング状態の非マスキング領域64となり、当該非マスキング領域64以外の領域がマスキング領域62となったマスク画像90が得られる。
12A and 12B are views for explaining the generation of the mask image 90, FIG. 12A shows an example of the label image 91, and FIG. 12B shows an example of the mask image 90.
By applying the look-up table 92 to the label image 91 shown in FIG. 12 (A), as shown in FIG. 12 (B), the region corresponding to the other vehicle candidate region 60 is the non-masked region in the non-masked state. A mask image 90 is obtained in which the number is 64 and the area other than the non-masking area 64 is the masking area 62.

そして、マスク差分画像生成部50は、続くステップSb2において、差分画像Gに、マスク画像90を重畳することで、図13に示すように、他車両候補領域60以外の領域がマスキングされたマスク差分画像Gmを生成する。 Then, in the subsequent step Sb2, the mask difference image generation unit 50 superimposes the mask image 90 on the difference image G, so that the mask difference in which the area other than the other vehicle candidate area 60 is masked is masked as shown in FIG. Generate an image Gm.

そして、マスク差分画像Gmが生成されると、上述の通り、近傍接地線特定部51が、このマスク差分画像Gmに基づいて近傍接地線L1を特定する(図4:ステップSa7:近傍接地線特定処理)。 Then, when the mask difference image Gm is generated, as described above, the neighborhood grounding line specifying unit 51 identifies the neighborhood grounding line L1 based on the mask difference image Gm (FIG. 4: Step Sa7: neighborhood grounding line identification). process).

図14は、近傍接地線特定処理のフローチャートである。
近傍接地線特定部51は、近傍接地線L1を求めるために、先ず、マスク差分ヒストグラムRcを生成する(ステップSc1)。
FIG. 14 is a flowchart of the near ground line identification process.
The neighborhood ground line identification unit 51 first generates a mask difference histogram Rc in order to obtain the neighborhood ground line L1 (step Sc1).

図15はマスク差分ヒストグラムRcの生成を説明するための図であり、図15(A)はマスク差分画像Gmの一例を示し、図15(B)は図15(A)のマスク差分画像Gmから得られるマスク差分ヒストグラムRcの一例を示す。
マスク差分ヒストグラムRcは、図15(B)に示すように、車両2の走行方向Bに対して垂直な横方向Chの位置(以下、「横方向位置」と言う)を横軸とし、図15(A)に示すマスク差分画像Gmの横方向を所定間隔で短冊状の小領域に区切り、その領域ごとに走行方向Bに沿って画素値の有無を累積した値(以下、「走行方向差分量累積値」と言う)を縦軸としたグラフである。マスク差分画像Gmでは、他車両候補領域60以外がマスキングされているため、横方向Chにおける走行方向差分量累積値の分布によって、他車両Aの近傍接地線L1を特定することができる。
FIG. 15 is a diagram for explaining the generation of the mask difference histogram Rc, FIG. 15 (A) shows an example of the mask difference image Gm, and FIG. 15 (B) is from the mask difference image Gm of FIG. 15 (A). An example of the obtained mask difference histogram Rc is shown.
As shown in FIG. 15B, the mask difference histogram Rc has the horizontal direction Ch position (hereinafter, referred to as “horizontal position”) perpendicular to the traveling direction B of the vehicle 2 as the horizontal axis, and is shown in FIG. The lateral direction of the mask difference image Gm shown in (A) is divided into strip-shaped small areas at predetermined intervals, and the presence or absence of pixel values is accumulated along the traveling direction B for each area (hereinafter, "traveling direction difference amount"). It is a graph with the vertical axis of "cumulative value"). In the mask difference image Gm, since the area other than the other vehicle candidate region 60 is masked, the near ground line L1 of the other vehicle A can be specified by the distribution of the cumulative value of the difference amount in the traveling direction in the lateral direction Ch.

具体的には、前掲図14に示すように、近傍接地線特定部51は、その横方向位置に他車両Aが存在すると見做す走行方向差分量累積値の第3閾値Th3を設定する(ステップSc2)。この第3閾値Th3には、走行方向差分量累積値の平均値Aveと、走行方向差分量累積値の最小値Minとの中間値(=(Ave+Min)/2)が設定される。 Specifically, as shown in FIG. 14 above, the proximity grounding line specifying unit 51 sets a third threshold value Th3 of the cumulative value of the difference amount in the traveling direction in which the other vehicle A is considered to exist at the lateral position thereof (). Step Sc2). An intermediate value (= (Ave + Min) / 2) between the average value Ave of the cumulative value of the difference amount in the traveling direction and the minimum value Min of the accumulated value of the difference amount in the traveling direction is set in the third threshold value Th3.

次いで、近傍接地線特定部51は、マスク差分ヒストグラムRcにおいて、走行方向差分量累積値が、所定数以上に亘って連続して第3閾値Th3を越えている横方向位置の範囲Ucに基づいて近傍接地線L1を特定する。
具体的には、近傍接地線特定部51は、図16に示すように、マスク差分ヒストグラムRcの横軸上のi(iは1以上の整数)箇所に判定点Xを等間隔に設定する。各判定点Xは、マスク差分ヒストグラムRcの横軸における区間(グラフの柱)に対応させてもよい。
そして、近傍接地線特定部51は、前掲図14に示すように、撮影位置Oに近い判定点Xから順に、所定の近傍接地線判定条件を満足するか否かを判定し(ステップSc3)、満足してない場合には(ステップSc3:No)、次の判定点Xを判定する(ステップSc4)。また、近傍接地線判定条件が満足されている場合は(ステップSc3:Yes)、近傍接地線特定部51は、判定点Xを近傍接地線L1の位置であると特定する(ステップSc5)。
Next, in the mask difference histogram Rc, the near-grounding line specifying unit 51 is based on the range Uc of the lateral position in which the cumulative value of the difference amount in the traveling direction continuously exceeds the third threshold value Th3 for a predetermined number or more. The nearby ground line L1 is specified.
Specifically, as shown in FIG. 16, the neighborhood grounding line specifying unit 51 sets the determination points X at equal intervals at i (i is an integer of 1 or more) on the horizontal axis of the mask difference histogram Rc. Each determination point X may correspond to an interval (column of the graph) on the horizontal axis of the mask difference histogram Rc.
Then, as shown in FIG. 14 above, the neighborhood grounding line specifying unit 51 determines in order from the determination point X closest to the shooting position O whether or not the predetermined neighborhood grounding line determination condition is satisfied (step Sc3). If it is not satisfied (step Sc3: No), the next determination point X is determined (step Sc4). Further, when the neighborhood grounding line determination condition is satisfied (step Sc3: Yes), the neighborhood grounding line specifying unit 51 identifies the determination point X as the position of the neighborhood grounding line L1 (step Sc5).

上記近傍接地線判定条件は、判定点Xの走行方向差分量累積値が第3閾値Th3以下であり、なおかつ、次の判定点Xから所定個数分の判定点Xの全てにおいて走行方向差分量累積値が第3閾値Th3以上である、という条件である。
撮影位置Oに近い判定点Xから順に近傍接地線判定条件が判定されることで、図16に示すように、所定個数分の判定点Xの全ての走行方向差分量累積値が第3閾値Th3を越える範囲Ucに対し、撮影位置Oからみて直前の判定点Xが求められ、この判定点Xが近傍接地線L1として特定されることとなる。これにより、近傍接地線L1が他車両Aに入り込んだ位置(第3閾値Th3を越えている範囲)に設定されることがなく、より正確な位置に近傍接地線L1が設定される。
In the above-mentioned neighborhood grounding line determination condition, the cumulative value of the traveling direction difference amount of the determination point X is the third threshold value Th3 or less, and the traveling direction difference amount is accumulated at all of the predetermined number of determination points X from the next determination point X. The condition is that the value is equal to or greater than the third threshold value Th3.
By determining the neighboring ground line determination conditions in order from the determination point X closest to the shooting position O, as shown in FIG. 16, the cumulative value of all the traveling direction difference amounts of the predetermined number of determination points X is the third threshold value Th3. For the range Uc exceeding the above range, the determination point X immediately before the shooting position O is obtained, and this determination point X is specified as the near ground line L1. As a result, the near ground line L1 is not set at the position where the other vehicle A has entered (the range exceeding the third threshold value Th3), and the near ground line L1 is set at a more accurate position.

このように、差分画像Gにおける近傍接地線L1の位置は、当該差分画像Gではなく、影76などのノイズがマスキングされたマスク差分画像Gmに基づいて特定されるので、特定された位置は非常に正確なものとなる。 As described above, the position of the near ground line L1 in the difference image G is specified not based on the difference image G but based on the mask difference image Gm in which noise such as the shadow 76 is masked, so that the specified position is very high. Will be accurate.

近傍接地線L1が特定されると、前掲図4に示すように、車幅特定部52が車幅特定処理を実行する(ステップSa8)。この車幅特定処理では、車幅特定部52が上記マスク画像90に基づいて、他車両Aの車幅Vwを特定する。 When the nearby ground line L1 is specified, the vehicle width specifying unit 52 executes the vehicle width specifying process as shown in FIG. 4 above (step Sa8). In this vehicle width specifying process, the vehicle width specifying unit 52 specifies the vehicle width Vw of the other vehicle A based on the mask image 90.

図17は車幅特定処理のフローチャートであり、図18は当該車幅特定処理においてマスク画像90上に設定される各種パラメータの説明図である。
車幅特定処理において、車幅特定部52は、先ず、他車両Aの位置が車幅特定条件範囲内か否かを判定する(ステップSe1)。車幅特定条件は、差分画像Gに映っている他車両Aの車幅Vwがマスク画像90から特定可能か否かを示す条件である。なお、この車幅特定条件については後述する。
FIG. 17 is a flowchart of the vehicle width specifying process, and FIG. 18 is an explanatory diagram of various parameters set on the mask image 90 in the vehicle width specifying process.
In the vehicle width specifying process, the vehicle width specifying unit 52 first determines whether or not the position of the other vehicle A is within the vehicle width specifying condition range (step Se1). The vehicle width specifying condition is a condition indicating whether or not the vehicle width Vw of the other vehicle A shown in the difference image G can be specified from the mask image 90. The vehicle width specifying conditions will be described later.

車幅特定部52は、他車両Aの位置が車幅特定条件範囲内でない場合(ステップSe1:No)、そのまま処理を終了し、他車両Aの位置が車幅特定条件範囲内である場合(ステップSe1:Yes)、他車両Aの車幅Vwを特定すべく、次の処理を実行する。 When the position of the other vehicle A is not within the vehicle width specifying condition range (step Se1: No), the vehicle width specifying unit 52 ends the process as it is, and when the position of the other vehicle A is within the vehicle width specifying condition range (step Se1: No). Step Se1: Yes), the following process is executed in order to specify the vehicle width Vw of the other vehicle A.

すなわち、車幅特定部52は、マスク画像90において他車両Aの端点Vの位置を特定する(ステップSe2)。他車両Aの端点Vは、カメラ映像5に映っている他車両Aの先端VF、又は後端VBである。本動作例では、他車両Aがリアカメラのカメラ映像5に映っているため、カメラ映像5と、当該カメラ映像5から得られる差分画像Gとには、他車両Aの先端VFが映り込む。したがって、ステップSe2では、図18に示すように、他車両Aの端点Vとして先端VFの位置が特定される。 That is, the vehicle width specifying unit 52 specifies the position of the end point V of the other vehicle A in the mask image 90 (step Se2). The end point V of the other vehicle A is the front end VF or the rear end VB of the other vehicle A shown in the camera image 5. In this operation example, since the other vehicle A is reflected in the camera image 5 of the rear camera, the tip VF of the other vehicle A is reflected in the camera image 5 and the difference image G obtained from the camera image 5. Therefore, in step Se2, as shown in FIG. 18, the position of the tip VF is specified as the end point V of the other vehicle A.

本実施形態では、車幅特定部52は、マスク画像90における他車両Aの端点Vの位置を、マスク差分画像Gmに基づいて特定する。
具体的には、車幅特定部52は、図19(A)に示すように、マスク差分画像Gmに近傍接地線L1を重畳し、当該マスク差分画像Gmにおいて、近傍接地線L1よりも車両2の撮影位置Oに近い側の領域を更にマスキングすることで、図19(B)に示す端点特定用マスク差分画像Gmtを生成する。
次いで、車幅特定部52は、図19(C)に示すように、端点特定用マスク差分画像Gmtから端点特定用差分ヒストグラムRgmtを生成する。端点特定用差分ヒストグラムRgmtは、端点特定用マスク差分画像Gmtの縦方向(本実施形態では車両2の後方DBの方向)を所定間隔で短冊状の小領域に区切り、その領域ごとに、端点特定用マスク差分画像Gmtの横方向Chに画素値の有無を累積したグラフである。以下、この画素値の累積値を横方向差分量累積値という。
In the present embodiment, the vehicle width specifying unit 52 specifies the position of the end point V of the other vehicle A in the mask image 90 based on the mask difference image Gm.
Specifically, as shown in FIG. 19A, the vehicle width specifying unit 52 superimposes the near ground line L1 on the mask difference image Gm, and in the mask difference image Gm, the vehicle 2 is more than the near ground line L1. By further masking the region on the side close to the photographing position O, the mask difference image Gmt for specifying the end point shown in FIG. 19B is generated.
Next, as shown in FIG. 19C, the vehicle width specifying unit 52 generates an end point specifying difference histogram Rgmt from the end point specifying mask difference image Gmt. The end point identification difference histogram Rgmt divides the vertical direction of the end point identification mask difference image Gmt (in the present embodiment, the direction of the rear DB of the vehicle 2) into strip-shaped small areas at predetermined intervals, and specifies the end points for each area. This is a graph in which the presence / absence of pixel values is accumulated in the lateral direction Ch of the mask difference image Gmt. Hereinafter, the cumulative value of this pixel value is referred to as the cumulative value of the lateral difference amount.

端点特定用マスク差分画像Gmtでは、他車両候補領域60以外の領域に加え、近傍接地線L1よりも車両2の撮影位置Oに近い側の領域がマスキングされているため、横方向差分量累積値の分布により、他車両Aの端部のうち、車両2の撮影位置Oに近い側の端部(本実施形態では、他車両Aの先端VF)の位置を特定できる。 In the end point identification mask difference image Gmt, in addition to the area other than the other vehicle candidate area 60, the area closer to the shooting position O of the vehicle 2 than the nearby ground line L1 is masked, so that the cumulative value of the lateral difference amount is accumulated. From the distribution of, the position of the end of the other vehicle A on the side closer to the photographing position O of the vehicle 2 (in the present embodiment, the tip VF of the other vehicle A) can be specified.

具体的には、車幅特定部52は、近傍接地線特定部51がマスク差分ヒストグラムRcに基づいて近傍接地線L1を特定した手法と同様にして、端点特定用差分ヒストグラムRgmtに基づいて他車両Aの近傍側の端部を特定する。
すなわち、車幅特定部52は、撮影位置Oに近い判定点Xから順に、端点特定用差分ヒストグラムRgmtの各区間を走査する。そして、図19(B)に示すように、端点特定用差分ヒストグラムRgmtにおいて各区間の横方向差分量累積値が所定回数に亘って連続して端点判定用閾値Thgmtを越えている場合に、車幅特定部52は、図19(C)に示すように、当該連続した区間の先頭の区間(すなわち、連続した区間のうち、撮影位置Oに最も近い区間)Kgmtを特定する。そして、車幅特定部52は、マスク差分画像Gmにおいて、上記区間Pgmtに対応する位置を通って横方向Chに延びる端部線Lgmtを当該マスク差分画像Gmに重畳する。この端部線Lgmtがマスク差分画像Gmにおける他車両Aの端部(先端VF)の位置を示している。したがって、車幅特定部52は、この端部線Lgmtと近傍接地線L1との交点を求めることで、マスク差分画像Gmにおける端点Vを特定する。
そして、車幅特定部52は、マスク画像90において、マスク差分画像Gmにおける他車両Aの端点Vの位置に対応する位置を、マスク画像90における端点Vの位置として特定する。
Specifically, the vehicle width specifying unit 52 is similar to the method in which the neighborhood grounding line specifying unit 51 identifies the neighborhood grounding line L1 based on the mask difference histogram Rc, and the vehicle width specifying unit 52 is another vehicle based on the difference histogram Rgmt for specifying the end point. Identify the near-end of A.
That is, the vehicle width specifying unit 52 scans each section of the end point specifying difference histogram Rgmt in order from the determination point X closest to the shooting position O. Then, as shown in FIG. 19B, when the cumulative value of the lateral difference amount of each section continuously exceeds the end point determination threshold value Thgmt for a predetermined number of times in the end point identification difference histogram Rgmt, the vehicle As shown in FIG. 19C, the width specifying unit 52 specifies the first section of the continuous section (that is, the section of the continuous section closest to the shooting position O) Kgmt. Then, in the mask difference image Gm, the vehicle width specifying unit 52 superimposes the end line Lgmt extending in the lateral direction Ch through the position corresponding to the section Pgmt on the mask difference image Gm. This end line Lgmt indicates the position of the end portion (tip VF) of the other vehicle A in the mask difference image Gm. Therefore, the vehicle width specifying unit 52 specifies the end point V in the mask difference image Gm by obtaining the intersection of the end line Lgmt and the nearby ground line L1.
Then, the vehicle width specifying unit 52 specifies in the mask image 90 the position corresponding to the position of the end point V of the other vehicle A in the mask difference image Gm as the position of the end point V in the mask image 90.

次いで、車幅特定部52は、図18に示すように、マスク画像90上に、端点Vを通って横方向Chに延びる横線Lcを設定する(図17:ステップSe3)。そして車幅特定部52は、マスク画像90において、端点Vを起点とし、車両2から遠ざかる遠方方向Chf(図18)に向かって横線Lcに沿って走査し、当該横線Lcと非マスキング領域境界Nとの交点Vmを特定する(図17:ステップSe4)。 Next, as shown in FIG. 18, the vehicle width specifying unit 52 sets a horizontal line Lc extending in the lateral direction Ch through the end point V on the mask image 90 (FIG. 17: step Se3). Then, in the mask image 90, the vehicle width specifying portion 52 scans along the horizontal line Lc from the end point V as the starting point toward the far direction Chf (FIG. 18) away from the vehicle 2, and the horizontal line Lc and the non-masking region boundary N The intersection Vm with is specified (Fig. 17: Step Se4).

ここで、非マスキング領域境界Nは、非マスキング領域64とマスキング領域62との境界であり、当該非マスキング領域64の縁に相当する。非マスキング領域64は、差分画像Gにおけるマスキング領域62以外の領域、すなわち他車両Aが映っている候補となる他車両候補領域60に該当する。
また横線Lcは、差分画像Gに映っている他車両Aの車幅方向に延びる線を示し、さらに当該横線Lcと非マスキング領域境界Nとの交点Vmは、他車両Aの先端VF、又は後端VBを示している。
Here, the non-masking region boundary N is a boundary between the non-masking region 64 and the masking region 62, and corresponds to the edge of the non-masking region 64. The non-masking area 64 corresponds to an area other than the masking area 62 in the difference image G, that is, another vehicle candidate area 60 which is a candidate in which the other vehicle A is reflected.
Further, the horizontal line Lc indicates a line extending in the vehicle width direction of the other vehicle A shown in the difference image G, and the intersection Vm between the horizontal line Lc and the non-masking region boundary N is the tip VF of the other vehicle A or the rear. The end VB is shown.

したがって、ステップSe2によって特定された端点Vと、ステップSe4によって特定された交点Vmとは、他車両Aの先端側における車幅方向の両端に相当する。そこで、車幅特定部52は、マスク画像90における端点Vと交点Vmとの距離を、実空間における距離に変換することで、当該実空間における車幅Vwを特定する(ステップSe5)。 Therefore, the end point V specified by step Se2 and the intersection point Vm specified by step Se4 correspond to both ends in the vehicle width direction on the tip side of the other vehicle A. Therefore, the vehicle width specifying unit 52 specifies the vehicle width Vw in the real space by converting the distance between the end point V and the intersection Vm in the mask image 90 into the distance in the real space (step Se5).

図20は、カメラ映像5、俯瞰画像F、及びマスク画像90の例を、車幅Vwが異なる複数の他車両Aについて示す図である。なお、同図には、他車両Aの例として、普通車(普通四輪自動車)、大型バス(大型乗用自動車)、及びバイク(二輪自動車)が示されている。
同図に示すように、車幅特定処理により、それぞれの他車両Aごとに、適切に車幅Vwが特定される。
FIG. 20 is a diagram showing examples of a camera image 5, a bird's-eye view image F, and a mask image 90 for a plurality of other vehicles A having different vehicle widths Vw. In the figure, as an example of the other vehicle A, an ordinary vehicle (ordinary four-wheeled vehicle), a large bus (large passenger vehicle), and a motorcycle (two-wheeled vehicle) are shown.
As shown in the figure, the vehicle width Vw is appropriately specified for each of the other vehicles A by the vehicle width specifying process.

ところで、この車幅特定処理では、マスク画像90における他車両Aの先端側、又は後端側の端点Vに基づいて車幅Vwが特定されるため、これら先端側、又は後端側が俯瞰画像F、及びカメラ映像5に映り込んでいない場合、車幅Vwを特定することはできない。この場合、車幅特定処理の実行は無駄となる。
そこで、本実施形態では、他車両Aの先端側、又は後端側がカメラ映像5に映り込む条件が上記車幅特定条件に予め設定されており、車幅特定処理の開始時のステップSa1において車幅特定条件の充足を判定することで、無駄な処理の実行を防止している。
By the way, in this vehicle width specifying process, the vehicle width Vw is specified based on the end point V on the front end side or the rear end side of the other vehicle A in the mask image 90, so that the front end side or the rear end side is the bird's-eye view image F. And, if it is not reflected in the camera image 5, the vehicle width Vw cannot be specified. In this case, the execution of the vehicle width specifying process is useless.
Therefore, in the present embodiment, the condition that the front end side or the rear end side of the other vehicle A is reflected in the camera image 5 is set in advance in the vehicle width specifying condition, and the vehicle is set in step Sa1 at the start of the vehicle width specifying process. By determining the satisfaction of the width specific condition, unnecessary execution of processing is prevented.

他車両Aの先端側、又は後端側がカメラ映像5に映り込む条件は、車両2を中心とした360度の全周囲のうち、他車両Aが位置する範囲によって規定可能である。例えば、図21に示すように、当該他車両Aの先端側、又は後端側がカメラ映像5(図21の例では俯瞰映像F)に映らない範囲として、他車両Aが車両2の略側方の所定範囲βが設定され、この所定範囲βを除く残余の範囲が上記車幅特定条件に設定される。
そして、ステップSe1において、車幅特定部52は、所定範囲βを除く残余の範囲に他車両Aが位置するか否かを判定し、当該範囲内に他車両Aが位置する場合に限り、ステップSe2以降の処理を実行する。これにより、車幅特定処理が無駄に行われることが防止される。なお、車幅特定部52は、車両2に対する他車両Aの位置を、例えば各カメラ4のカメラ映像5、或いは、俯瞰画像Fに基づいて特定してもよいし、ソナーなどの別途の物体検知センサの検出結果を用いて特定してもよい。
The condition that the front end side or the rear end side of the other vehicle A is reflected in the camera image 5 can be defined by the range in which the other vehicle A is located within the entire 360-degree circumference centered on the vehicle 2. For example, as shown in FIG. 21, the other vehicle A is substantially lateral to the vehicle 2 so that the front end side or the rear end side of the other vehicle A is not reflected in the camera image 5 (overhead image F in the example of FIG. 21). The predetermined range β of is set, and the remaining range excluding this predetermined range β is set in the vehicle width specifying condition.
Then, in step Se1, the vehicle width specifying unit 52 determines whether or not the other vehicle A is located in the remaining range excluding the predetermined range β, and only when the other vehicle A is located within the range, the step The process after Se2 is executed. As a result, it is possible to prevent the vehicle width specifying process from being unnecessarily performed. The vehicle width specifying unit 52 may specify the position of the other vehicle A with respect to the vehicle 2 based on, for example, the camera image 5 of each camera 4 or the bird's-eye view image F, or another object detection such as sonar. It may be specified by using the detection result of the sensor.

車幅Vwが特定されると、前掲図4に示すように、遠方接地線特定部53が差分画像Gにおける遠方接地線L2を特定する(ステップSa9)。具体的には、遠方接地線特定部53は、差分画像Gにおいて、近傍接地線L1から車幅Vwだけ離間し、当該近傍接地線L1に平行な線を遠方接地線L2として特定する。
この遠方接地線L2の位置は、マスク画像90から得られた車幅Vwを使って求められるので、車幅Vwを予め適宜に定めた固定値とする場合に比べ、正確に求められる。
When the vehicle width Vw is specified, as shown in FIG. 4 above, the distant ground line specifying unit 53 specifies the distant ground line L2 in the difference image G (step Sa9). Specifically, the distant ground line specifying unit 53 specifies, in the difference image G, a line parallel to the nearby ground line L1 as the distant ground line L2, separated from the nearby ground line L1 by the vehicle width Vw.
Since the position of the distant ground line L2 is obtained by using the vehicle width Vw obtained from the mask image 90, it can be obtained more accurately than when the vehicle width Vw is set to a fixed value appropriately determined in advance.

次いで、位置特定部54が、差分画像Gにおいて他車両領域Hを特定する(ステップSa10:立体物領域特定処理)。
他車両領域Hは、近傍接地線特定処理(ステップSa7)、及び遠方接地線特定処理(ステップSa9)のそれぞれで特定された近傍接地線L1、及び遠方接地線L2と、他車両Aの先端VF、及び後端VBと、によって特定される。
Next, the position specifying unit 54 specifies the other vehicle area H in the difference image G (step Sa10: three-dimensional object area specifying process).
The other vehicle area H includes the near ground line L1 and the far ground line L2 specified in each of the near ground line identification process (step Sa7) and the far ground line identification process (step Sa9), and the tip VF of the other vehicle A. , And the trailing edge VB.

他車両Aの先端VF、及び後端VBは、上述の通り、近傍接地線L1、及び遠方接地線L2と鉛直方向輪郭線Pとの交点から求めることができる。
すなわち、図22に示すように、俯瞰画像Fにおいて、他車両Aの後端近傍側鉛直方向輪郭線P1、及び先端近傍側鉛直方向輪郭線P2と、近傍接地線L1との各々の交点によって、近傍接地線L1における後端近傍側位置L1VBと、先端近傍側位置L1VFとを求めることができる。また同様に、他車両Aの後端近傍側鉛直方向輪郭線P1、及び先端近傍側鉛直方向輪郭線P2と、遠方接地線L2との各々の交点によって、遠方接地線L2における後端遠方側位置L2VBと、先端遠方側位置L2VFとを求めることができる。
なお、後端近傍側位置L1VB、及び後端遠方側位置L2VBは、他車両Aの後端側における車幅方向の両端を示し、先端近傍側位置L1VF、及び先端遠方側位置L2VFは、他車両Aの先端側における車幅方向の両端を示す。
As described above, the front end VF and the rear end VB of the other vehicle A can be obtained from the intersection of the near ground line L1 and the far ground line L2 and the vertical contour line P.
That is, as shown in FIG. 22, in the bird's-eye view image F, at the intersections of the vertical contour line P1 near the rear end of the other vehicle A, the vertical contour line P2 near the tip end, and the near ground line L1. The position near the rear end L1VB and the position near the tip L1VF on the near ground line L1 can be obtained. Similarly, the position on the far side of the rear end of the far ground line L2 is determined by the intersection of the vertical contour line P1 near the rear end and the vertical contour line P2 near the tip of the other vehicle A and the distant ground line L2. L2VB and L2VF at the tip far side position can be obtained.
The rear end near side position L1VB and the rear end far side position L2VB indicate both ends in the vehicle width direction on the rear end side of the other vehicle A, and the tip near side position L1VF and the tip far side position L2VF indicate the other vehicle. Both ends in the vehicle width direction on the tip side of A are shown.

しかしながら、俯瞰画像Fにおいては、上述したように、他車両Aが放射線Qの方向に倒れ込んで映るため、他車両Aのルーフ部分Ar等の影響により実際よりも走行方向Bに長く延びた他車両領域Hが検出されることとなり、他車両Aの位置に誤差が生じることとなる。 However, in the bird's-eye view image F, as described above, since the other vehicle A collapses in the direction of the radiation Q, the other vehicle extends longer in the traveling direction B than it actually is due to the influence of the roof portion Ar of the other vehicle A and the like. The region H will be detected, and an error will occur in the position of the other vehicle A.

本実施形態の立体物領域特定処理では、かかる誤差を排除するために、位置特定部54が次のようにして他車両領域Hを特定している。
すなわち、図23に示すように、位置特定部54は、近傍接地線L1、及び遠方接地線L2のそれぞれごとに、他車両Aの鉛直方向輪郭線Pを含む放射線Qとの交点LVを求める。次いで、位置特定部54は、近傍接地線L1における交点LVから暫定第1他車両領域H1を特定し、また遠方接地線L2における交点LVから暫定第2他車両領域H2を特定する。そして、位置特定部54は、これら暫定第1他車両領域H1と暫定第2他車両領域H2とが重複するエリアに基づいて他車両Aの先端VF、及び後端VBを特定する。そして、これら近傍接地線L1、遠方接地線L2、先端VF、及び後端VBによって正確な他車両領域Hが特定される。
ここで、遠方接地線L2の精度が悪い場合、暫定第1他車両領域H1、及び暫定第2他車両領域H2が重複せず、他車両領域Hが特定されないことがある。これに対し、本実施形態では、遠方接地線L2は、マスク差分画像Gmに基づいて特定された近傍接地線L1、及びマスク画像90に基づいて特定された車幅Vwを用いて正確に特定されているため、他車両領域Hを確実に特定することができる。
In the three-dimensional object area specifying process of the present embodiment, in order to eliminate such an error, the position specifying unit 54 specifies the other vehicle area H as follows.
That is, as shown in FIG. 23, the position specifying unit 54 obtains the intersection LV with the radiation Q including the vertical contour line P of the other vehicle A for each of the near ground line L1 and the far ground line L2. Next, the position specifying unit 54 identifies the provisional first other vehicle region H1 from the intersection LV on the near ground line L1 and identifies the provisional second other vehicle region H2 from the intersection LV on the distant ground line L2. Then, the position specifying unit 54 identifies the front end VF and the rear end VB of the other vehicle A based on the area where the provisional first other vehicle area H1 and the provisional second other vehicle area H2 overlap. Then, an accurate other vehicle region H is specified by the near ground line L1, the far ground line L2, the front end VF, and the rear end VB.
Here, if the accuracy of the distant ground line L2 is poor, the provisional first other vehicle area H1 and the provisional second other vehicle area H2 may not overlap, and the other vehicle area H may not be specified. On the other hand, in the present embodiment, the distant ground line L2 is accurately specified by using the near ground line L1 specified based on the mask difference image Gm and the vehicle width Vw specified based on the mask image 90. Therefore, the other vehicle area H can be reliably specified.

以下、かかる立体物領域特定処理について、より詳細に説明する。 Hereinafter, such a three-dimensional object region identification process will be described in more detail.

図24は、立体物領域特定処理のフローチャートである。
位置特定部54は、暫定第1他車両領域H1、及び暫定第2他車両領域H2を特定するために、先ず、差分近傍ヒストグラムRan、及びエッジ強度近傍ヒストグラムRbnと、差分遠方ヒストグラムRaf、及びエッジ強度遠方ヒストグラムRbfと、をそれぞれ生成する(ステップSd1)。
FIG. 24 is a flowchart of the three-dimensional object region identification process.
In order to identify the provisional first other vehicle region H1 and the provisional second other vehicle region H2, the position specifying unit 54 first first specifies the difference neighborhood histogram Ran, the edge intensity neighborhood histogram Rbn, the difference distant histogram Raf, and the edge. Intensity distant histogram Rbf and each are generated (step Sd1).

図25は差分近傍ヒストグラムRanの生成を説明するための図であり、図25(A)は差分画像Gの一例を示し、図25(B)は図25(A)の差分画像Gから得られる差分近傍ヒストグラムRanの一例を示す。また図26はエッジ強度近傍ヒストグラムRbnの生成を説明するための図であり、図26(A)はエッジ画像Eの一例を示し、図26(B)は図26(A)のエッジ画像Eから得られるエッジ強度近傍ヒストグラムRbnの一例を示す。
差分近傍ヒストグラムRanは、図25(B)に示すように、図25(A)に示す差分画像Gにおける近傍領域Jnについて上述した差分ヒストグラムRaを求めたものである。またエッジ強度近傍ヒストグラムRbnは、図26(B)に示すように、図26(A)に示すエッジ画像Eにおける近傍領域Jnについて、上述したエッジ強度ヒストグラムRbを求めたものである。
近傍領域Jnは、差分画像Gにおいて、近傍接地線L1と遠方接地線L2とで挟まれた領域である。
FIG. 25 is a diagram for explaining the generation of the difference neighborhood histogram Ran, FIG. 25 (A) shows an example of the difference image G, and FIG. 25 (B) is obtained from the difference image G of FIG. 25 (A). An example of the difference neighborhood histogram Ran is shown. Further, FIG. 26 is a diagram for explaining the generation of the edge intensity neighborhood histogram Rbn, FIG. 26 (A) shows an example of the edge image E, and FIG. 26 (B) is from the edge image E of FIG. 26 (A). An example of the obtained edge strength neighborhood histogram Rbn is shown.
As shown in FIG. 25 (B), the difference neighborhood histogram Ran is obtained by obtaining the above-mentioned difference histogram Ra for the neighborhood region Jn in the difference image G shown in FIG. 25 (A). Further, as shown in FIG. 26 (B), the edge intensity neighborhood histogram Rbn is obtained by obtaining the above-mentioned edge intensity histogram Rb for the neighborhood region Jn in the edge image E shown in FIG. 26 (A).
The neighborhood region Jn is a region sandwiched between the near ground line L1 and the far ground line L2 in the difference image G.

図27は差分遠方ヒストグラムRafの生成を説明するための図であり、図27(A)は差分画像Gの一例を示し、図27(B)は図27(A)の差分画像Gから得られる差分遠方ヒストグラムRafの一例を示す。また図28はエッジ強度遠方ヒストグラムRbfの生成を説明するための図であり、図28(A)はエッジ画像Eの一例を示し、図28(B)は図28(A)のエッジ画像Eから得られるエッジ強度遠方ヒストグラムRbfの一例を示す。
差分遠方ヒストグラムRafは、図27(B)に示すように、図27(A)に示す差分画像Gにおける遠方領域Jfについて上述した差分ヒストグラムRaを求めたものである。またエッジ強度遠方ヒストグラムRbfは、図28(B)に示すように、図28(A)に示すエッジ画像Eにおける遠方領域Jfについて、上述したエッジ強度ヒストグラムRbを求めたものである。
遠方領域Jfは、差分画像Gにおいて、撮影位置Oからみて近傍接地線L1よりも遠方の領域である。
27 is a diagram for explaining the generation of the difference distance histogram Raf, FIG. 27 (A) shows an example of the difference image G, and FIG. 27 (B) is obtained from the difference image G of FIG. 27 (A). An example of the difference distant histogram Raf is shown. Further, FIG. 28 is a diagram for explaining the generation of the edge intensity distant histogram Rbf, FIG. 28 (A) shows an example of the edge image E, and FIG. 28 (B) is from the edge image E of FIG. 28 (A). An example of the obtained edge intensity distant histogram Rbf is shown.
As shown in FIG. 27 (B), the difference distant histogram Raf is obtained by obtaining the above-mentioned difference histogram Ra for the distant region Jf in the difference image G shown in FIG. 27 (A). Further, as shown in FIG. 28 (B), the edge intensity distant histogram Rbf is obtained by obtaining the above-mentioned edge intensity histogram Rb for the distant region Jf in the edge image E shown in FIG. 28 (A).
The distant region Jf is a region in the difference image G that is farther than the near ground line L1 when viewed from the shooting position O.

差分近傍ヒストグラムRan、及びエッジ強度近傍ヒストグラムRbnの生成には近傍用マスクラベル画像91nが用いられ、差分遠方ヒストグラムRaf、及びエッジ強度遠方ヒストグラムRbfの生成には遠方用マスクラベル画像91fが用いられる。 The neighborhood mask label image 91n is used to generate the difference neighborhood histogram Ran and the edge intensity neighborhood histogram Rbn, and the distance mask label image 91f is used to generate the difference distance histogram Raf and the edge intensity distance histogram Rbf.

図29は、近傍用マスクラベル画像91n、及び遠方用マスクラベル画像91fの説明図である。
近傍用マスクラベル画像91nは、差分画像Gにおいて近傍領域Jn以外の画素値を無効とし、累積値のカウントから除外されるようにする画像である。かかる近傍用マスクラベル画像91nは、図29に示すように、差分画像Gにおける近傍領域Jn以外をマスキングする近傍領域用マスク画像90nを、上述したラベル画像91に重畳することで得られる。
位置特定部54が、近傍用マスクラベル画像91nを用いて差分ヒストグラムRa、及びエッジ強度ヒストグラムRbを求めることで、近傍領域Jnの画素値だけが累積値の加算対象となり、差分近傍ヒストグラムRan、及びエッジ強度近傍ヒストグラムRbnが求められることとなる。
FIG. 29 is an explanatory diagram of the near mask label image 91n and the distant mask label image 91f.
The neighborhood mask label image 91n is an image in which the pixel values other than the neighborhood region Jn are invalidated in the difference image G so as to be excluded from the cumulative value count. As shown in FIG. 29, the neighborhood mask label image 91n is obtained by superimposing the neighborhood mask image 90n that masks areas other than the neighborhood region Jn in the difference image G on the label image 91 described above.
When the position specifying unit 54 obtains the difference histogram Ra and the edge intensity histogram Rb using the neighborhood mask label image 91n, only the pixel values of the neighborhood region Jn are added to the cumulative values, and the difference neighborhood histogram Ran and the difference neighborhood histogram Ran and The edge strength neighborhood histogram Rbn is obtained.

遠方用マスクラベル画像91fは、差分画像Gにおいて遠方領域Jf以外の画素値を無効とし、累積値のカウントから除外されるようにする画像であり、差分画像Gにおける遠方領域Jf以外をマスキングする遠方領域用マスク画像90fをラベル画像91に重畳することで得られる。
位置特定部54が、遠方用マスクラベル画像91fを用いて差分ヒストグラムRa、及びエッジ強度ヒストグラムRbを求めることで、遠方領域Jfの画素値だけが累積値の加算対象となり、差分遠方ヒストグラムRaf、及びエッジ強度遠方ヒストグラムRbfが求められる。
The distant mask label image 91f is an image in which the pixel values other than the distant region Jf are invalidated in the difference image G so as to be excluded from the cumulative value count, and the distant mask label image 91f masks the distant region other than the distant region Jf in the difference image G. It is obtained by superimposing the area mask image 90f on the label image 91.
When the position specifying unit 54 obtains the difference histogram Ra and the edge intensity histogram Rb using the distant mask label image 91f, only the pixel values of the distant region Jf are added to the cumulative values, and the difference distant histogram Raf and the difference distant histogram Raf and The edge strength distant histogram Rbf is obtained.

前掲図24に戻り、位置特定部54は、次に、差分近傍ヒストグラムRan、及びエッジ強度近傍ヒストグラムRbnに基づいて、近傍領域Jnにおける立体物判定を行う(ステップSd2)。
具体的には、位置特定部54は、差分近傍ヒストグラムRanにおいて放射線方向差分量累積値が第4閾値Th4(図25)以上であり、なおかつエッジ強度近傍ヒストグラムRbnにおいて放射方向エッジ強度累積値が第5閾値Th5(図26)以上となるラベル番号の放射線Qを特定する。
そして、図30に示すように、位置特定部54は、差分画像Gにおいて、特定された放射線Qの各々と近傍接地線L1との交点LVを特定する。これらの交点LVは、差分画像Gの中に設定された所定の検出領域についてのみ行われる。この検出領域は、例えば上記検出領域72(図3、図5)などである。
これらの交点LVによって、近傍領域Jnに限定して立体物検出を行った場合の暫定第1他車両領域H1が特定される。なお、暫定第1他車両領域H1の横方向Chの幅には、車幅特定処理(図4:ステップSa9)において特定された車幅Vwが用いられる。
Returning to FIG. 24 above, the position specifying unit 54 then determines a three-dimensional object in the neighborhood region Jn based on the difference neighborhood histogram Ran and the edge strength neighborhood histogram Rbn (step Sd2).
Specifically, in the position specifying unit 54, the cumulative value of the radiation direction difference amount in the difference neighborhood histogram Ran is equal to or higher than the fourth threshold value Th4 (FIG. 25), and the radiation direction edge intensity cumulative value is the third in the edge intensity neighborhood histogram Rbn. Specify the radiation Q with a label number that is equal to or higher than the 5 threshold Th5 (FIG. 26).
Then, as shown in FIG. 30, the position specifying unit 54 identifies the intersection LV of each of the specified radiations Q and the nearby ground line L1 in the difference image G. These intersection points LV are performed only for a predetermined detection region set in the difference image G. This detection area is, for example, the detection area 72 (FIGS. 3 and 5).
By these intersection points LV, the provisional first other vehicle region H1 when the three-dimensional object is detected only in the vicinity region Jn is specified. The vehicle width Vw specified in the vehicle width specifying process (FIG. 4: step Sa9) is used as the width of the provisional first other vehicle region H1 in the lateral direction Ch.

前掲図24に戻り、位置特定部54は、差分遠方ヒストグラムRaf、及びエッジ強度遠方ヒストグラムRbfに基づいて遠方領域Jfにおける立体物判定を行う(ステップSd3)。これにより、遠方領域Jfに限定して立体物検出を行った場合の暫定第2他車両領域H2が特定されることとなる。 Returning to FIG. 24 above, the position specifying unit 54 determines a three-dimensional object in the distant region Jf based on the difference distant histogram Raf and the edge intensity distant histogram Rbf (step Sd3). As a result, the provisional second other vehicle region H2 when the three-dimensional object is detected only in the distant region Jf is specified.

ここで、上述の通り、複数の他車両Aが縦列走行していた場合、暫定第1他車両領域H1、及び暫定第2他車両領域H2には、2台以上の他車両Aが含まれる可能性がある。
そこで、位置特定部54は、近傍接地線L1における各交点LV、及び遠方接地線L2における各交点LVのそれぞれを、次のようにして1台の他車両Aごとにグループ化する(ステップSd4、Sd5)。
Here, as described above, when a plurality of other vehicles A are traveling in tandem, the provisional first other vehicle area H1 and the provisional second other vehicle area H2 may include two or more other vehicles A. There is sex.
Therefore, the position specifying unit 54 groups each intersection LV on the near ground line L1 and each intersection LV on the far ground line L2 for each other vehicle A as follows (step Sd4, step Sd4, Sd5).

近傍接地線L1に交点LVを例にするすると、図31に示すように、位置特定部54は、近傍接地線L1における各交点LVを、撮影位置Oから近い順に探索し、隣り合う2つの交点LVの間の距離Wが所定の第6閾値Th6以下の場合は、それら2つの交点LVを同一のグループ97に分類し、距離Wが所定の第6閾値Th6を越えた場合は、撮影位置Oから遠い方の交点LVを新たなグループ97に分類する。これにより、第6閾値Th6よりも交点LV同士の間隔が開いている箇所、すなわち2台の他車両Aの車間でグループ97が分けられ、他車両Aごとに、交点LVがグループ化される。
そして、位置特定部54は、グループ97ごとに、そのグループ97に属する交点LVによって単一他車両領域K1を特定することで、暫定第1他車両領域H1が、単一の他車両Aごとに分けられることとなる。
Taking the intersection LV as the proximity ground line L1 as an example, as shown in FIG. 31, the position specifying unit 54 searches for each intersection LV on the proximity ground line L1 in order from the shooting position O, and two adjacent intersections. When the distance W between the LVs is equal to or less than the predetermined sixth threshold Th6, the two intersection points LV are classified into the same group 97, and when the distance W exceeds the predetermined sixth threshold Th6, the shooting position O The intersection LV farther from is classified into a new group 97. As a result, the group 97 is divided into places where the distance between the intersection LVs is wider than the sixth threshold Th6, that is, between the two other vehicles A, and the intersection LVs are grouped for each other vehicle A.
Then, the position specifying unit 54 identifies the single other vehicle area K1 by the intersection LV belonging to the group 97 for each group 97, so that the provisional first other vehicle area H1 is set for each single other vehicle A. It will be divided.

前掲図24に戻り、位置特定部54は、近傍接地線L1について特定された単一他車両領域K1と、遠方接地線L2について特定された単一他車両領域K2と、に基づいて、最終的な単一他車両領域Kを決定する(ステップSd6)。
すなわち、図32に示すように、単一他車両領域K1、及び単一他車両領域K2の各々の他車両Aの先端VF、及び後端VBのうち、単一他車両領域K1、及び単一他車両領域K2の両者が重複している範囲にあるものを、最終的な単一他車両領域Kの先端VF、及び後端VBとして特定する。
そして、これら先端VF、及び後端VBと、近傍接地線L1及び遠方接地線L2とによって、射影変換による倒れ込みに起因する誤差を排除し、矩形状の単一他車両領域Kの正確な位置が特定されることとなる。
Returning to FIG. 24 above, the position specifying unit 54 finally determines the single other vehicle area K1 specified for the near ground line L1 and the single other vehicle area K2 specified for the far ground line L2. Single other vehicle area K is determined (step Sd6).
That is, as shown in FIG. 32, among the front end VF and the rear end VB of each of the other vehicle A of the single other vehicle area K1 and the single other vehicle area K2, the single other vehicle area K1 and the single other vehicle area K1 and the single other vehicle area K1. Those in the range where both of the other vehicle areas K2 overlap are specified as the front end VF and the rear end VB of the final single other vehicle area K.
Then, by using these front end VF and rear end VB, the near ground line L1 and the far ground line L2, the error caused by the collapse due to the projective transformation is eliminated, and the accurate position of the rectangular single other vehicle area K is determined. It will be identified.

上述した実施形態によれば、次のような効果を奏する。 According to the above-described embodiment, the following effects are obtained.

本実施形態のカメラECU6(立体物検出装置)は、互いの撮影位置Oが揃った第1俯瞰画像F1、及び第2俯瞰画像F2の差分画像Gにおいて他車両Aが映っていると候補となる他車両候補領域60以外をマスキングしたマスク差分画像Gmを生成し、このマスク差分画像Gmに基づいて、差分画像Gにおける他車両Aの位置を特定する。
これにより、差分画像Gに基づいて他車両Aの位置を特定する場合に比べ、走行中の車両2と、その周囲の他車両Aとの間に影76が存在するときでも、他車両Aの位置を精度よく特定ができる。
したがって、車両制御ユニット8にあっては、他車両Aの正確な位置に基づいて、車線変更や合流、分流時の他車両と接近するようなシーンで、より正確な自動運転制御を実現できる。
これに加え、カメラECU6は、マスク差分画像Gmに基づいて他車両Aの端点Vを求め、マスク画像90における、他車両Aの端点Vと非マスキング領域境界Nとの距離に基づいて、他車両Aの車幅Vwを特定する車幅特定部52を備える。これにより、カメラECU6が予め適宜に定めた固定値を車幅Vwに用いて他車両Aの位置を特定する場合に比べ、他車両Aの位置を正確に特定することができる。
また、車幅特定部52は、マスク差分画像Gmの生成に供されるマスク画像90に基づいて車幅Vwを特定するため、既存のマスク画像90を用いて効率良く車幅Vwを特定できる。
The camera ECU 6 (three-dimensional object detection device) of the present embodiment is a candidate when another vehicle A is shown in the difference image G of the first bird's-eye view image F1 and the second bird's-eye view image F2 in which the shooting positions O of each other are aligned. A mask difference image Gm that masks areas other than the other vehicle candidate area 60 is generated, and the position of the other vehicle A in the difference image G is specified based on the mask difference image Gm.
As a result, as compared with the case where the position of the other vehicle A is specified based on the difference image G, even when the shadow 76 exists between the running vehicle 2 and the other vehicle A around it, the other vehicle A The position can be specified accurately.
Therefore, in the vehicle control unit 8, more accurate automatic driving control can be realized in a scene where the vehicle approaches another vehicle at the time of lane change, merging, or divergence, based on the accurate position of the other vehicle A.
In addition to this, the camera ECU 6 obtains the end point V of the other vehicle A based on the mask difference image Gm, and based on the distance between the end point V of the other vehicle A and the non-masking region boundary N in the mask image 90, the other vehicle A vehicle width specifying unit 52 for specifying the vehicle width Vw of A is provided. As a result, the position of the other vehicle A can be accurately specified as compared with the case where the camera ECU 6 uses a fixed value appropriately determined in advance for the vehicle width Vw to specify the position of the other vehicle A.
Further, since the vehicle width specifying unit 52 specifies the vehicle width Vw based on the mask image 90 used to generate the mask difference image Gm, the vehicle width Vw can be efficiently specified using the existing mask image 90.

本実施形態の車幅特定部52は、他車両Aの端点Vから当該他車両Aの車幅方向に延びる横線Lcと非マスキング領域境界Nとの交点Vmを特定し、当該交点Vmと他車両Aの端点Vとの間の距離に基づいて車幅Vwを特定する。
これにより、他車両Aの車幅Vwをマスク画像90から正確に求めることができる。
The vehicle width specifying unit 52 of the present embodiment specifies an intersection Vm between the horizontal line Lc extending in the vehicle width direction of the other vehicle A from the end point V of the other vehicle A and the non-masking region boundary N, and the intersection Vm and the other vehicle. The vehicle width Vw is specified based on the distance from the end point V of A.
As a result, the vehicle width Vw of the other vehicle A can be accurately obtained from the mask image 90.

本実施形態の車幅特定部52は、他車両Aの端点Vから当該他車両Aの車幅方向に延びる横線Lcに沿ってマスク画像90を走査することで上記交点Vmを特定する。
これにより、交点Vmを比較的簡単に特定することができる。
The vehicle width specifying unit 52 of the present embodiment identifies the intersection Vm by scanning the mask image 90 along the horizontal line Lc extending from the end point V of the other vehicle A in the vehicle width direction of the other vehicle A.
Thereby, the intersection Vm can be specified relatively easily.

本実施形態の位置特定部54は、他車両Aの鉛直方向輪郭線Pを含む放射線Qと、近傍接地線L1、及び遠方接地線L2のそれぞれとの交点LVに基づいて、近傍接地線L1において他車両Aが位置する暫定第1他車両領域H1、及び、遠方接地線L2において他車両Aが位置する暫定第2他車両領域H2を特定し、これら暫定第1他車両領域H1、及び暫定第2他車両領域H2が重複する範囲に基づいて、差分画像Gにおける他車両領域Hを特定する。
これにより、射影変換による倒れ込みの影響を排除して、正確に他車両領域Hを特定することができる。
また遠方接地線L2の精度が悪い場合、暫定第1他車両領域H1、及び暫定第2他車両領域H2が重複せず、他車両領域Hが特定されないことがある。これに対し、本実施形態では、遠方接地線L2は、マスク差分画像Gmに基づいて特定された近傍接地線L1、及びマスク画像90に基づいて特定された車幅Vwを用いて正確に特定されるため、他車両領域Hを確実に特定することができる。
The position specifying unit 54 of the present embodiment is at the near ground line L1 based on the intersection LV of the radiation Q including the vertical contour line P of the other vehicle A and each of the near ground line L1 and the far ground line L2. The provisional first other vehicle area H1 in which the other vehicle A is located and the provisional second other vehicle area H2 in which the other vehicle A is located are specified on the distant ground line L2, and these provisional first other vehicle areas H1 and the provisional first 2 The other vehicle area H in the difference image G is specified based on the range in which the other vehicle area H2 overlaps.
Thereby, the influence of the collapse due to the projective transformation can be eliminated, and the other vehicle region H can be accurately specified.
If the accuracy of the distant ground line L2 is poor, the provisional first other vehicle area H1 and the provisional second other vehicle area H2 may not overlap, and the other vehicle area H may not be specified. On the other hand, in the present embodiment, the distant ground line L2 is accurately specified by using the near ground line L1 specified based on the mask difference image Gm and the vehicle width Vw specified based on the mask image 90. Therefore, the other vehicle area H can be reliably specified.

本実施形態の近傍接地線特定部51は、マスク差分画像Gmに基づいて生成されたマスク差分ヒストグラムRcにおいて走行方向差分量累積値が第3閾値Th3を越える横軸の位置に基づいて、差分画像Gにおける他車両Aの近傍接地線L1を特定する。これにより、近傍接地線L1がマスク差分画像Gmを用いて正確に特定される。 The near ground line specifying unit 51 of the present embodiment is a difference image based on the position on the horizontal axis in which the cumulative value of the difference amount in the traveling direction exceeds the third threshold Th3 in the mask difference histogram Rc generated based on the mask difference image Gm. The near ground line L1 of the other vehicle A in G is specified. As a result, the near ground line L1 is accurately identified using the mask difference image Gm.

上述した実施形態は、あくまでも本発明の一態様を例示したものであって、本発明の趣旨を逸脱しない範囲において任意に変形、及び応用が可能である。 The above-described embodiment is merely an example of one aspect of the present invention, and can be arbitrarily modified and applied without departing from the spirit of the present invention.

(変形例)
上述した車幅特定処理(図17)について、次の変形が可能である。
すなわち、車幅特定部52は、マスク画像90において、端点Vを起点とし遠方方向Chfに横線Lcに沿って走査し、横線Lcと非マスキング領域境界Nとの交点Vmを特定した(図17:ステップSe4)。
(Modification example)
The following modifications can be made to the vehicle width specifying process (FIG. 17) described above.
That is, in the mask image 90, the vehicle width specifying unit 52 scans along the horizontal line Lc in the distant direction Chf starting from the end point V, and identifies the intersection Vm between the horizontal line Lc and the non-masking region boundary N (FIG. 17 :). Step Se4).

しかしながら、車体側面のパーツや模様の輪郭線、或いは車両2の影などがカメラ映像5に映り込んだ場合、マスク画像90には、例えば図33に示すように、この映り込み部分をマスキングする1又は複数(図示例では1つ)のマスキング領域62Aが生じる。このマスキング領域62Aは、1台分の非マスキング領域64(差分画像Gの他車両候補領域60に相当)の中に生じるため、非マスキング領域64が複数(図示例では2つ)に分断される。したがって、この場合には、横線Lcが端点Vを起点とし遠方方向Chfに横断する非マスキング領域64の数だけ、交点Vm1、Vm2、・・・が存在することになる。このような場合に、車幅特定部52が横線Lcに沿った走査時に最初に検出した交点Vm1に基づいて車幅Vw1を求めると、実際の車幅Vwよりも短い車幅Vw1が求められてしまう。 However, when a part on the side surface of the vehicle body, an outline of a pattern, a shadow of the vehicle 2 or the like is reflected in the camera image 5, the mask image 90 masks the reflected portion as shown in FIG. 33, for example. Alternatively, a plurality of masking regions 62A (one in the illustrated example) are generated. Since the masking area 62A is generated in the non-masking area 64 (corresponding to the other vehicle candidate area 60 of the difference image G) for one vehicle, the non-masking area 64 is divided into a plurality of (two in the illustrated example). .. Therefore, in this case, there are as many intersections Vm1, Vm2, ... As the number of non-masking regions 64 in which the horizontal line Lc starts from the end point V and crosses in the distant direction Chf. In such a case, when the vehicle width Vw1 is obtained based on the intersection Vm1 first detected when the vehicle width specifying unit 52 scans along the horizontal line Lc, the vehicle width Vw1 shorter than the actual vehicle width Vw is obtained. It ends up.

そこで、車幅特定処理において、車幅特定部52が端点Vを起点とし遠方方向Chfに横線Lcに沿って走査する際(ステップSe4)、車幅特定部52は、マスク画像90の縁端90Fまで走査し、端点Vと縁端90Fとの間に存在する全ての交点Vm1、Vm2、・・・を特定してもよい。この場合、車幅特定部52は、それぞれの交点Vm1、Vm2から求められる車幅Vw1、Vw2の中から、他車両Aの車幅Vwとして妥当な値のものを特定する。 Therefore, in the vehicle width specifying process, when the vehicle width specifying portion 52 scans along the horizontal line Lc in the distant direction Chf starting from the end point V (step Se4), the vehicle width specifying portion 52 uses the edge 90F of the mask image 90. You may scan to and identify all the intersections Vm1, Vm2, ... Existing between the end point V and the edge 90F. In this case, the vehicle width specifying unit 52 identifies a value that is appropriate as the vehicle width Vw of the other vehicle A from the vehicle widths Vw1 and Vw2 obtained from the intersections Vm1 and Vm2, respectively.

なお、車幅特定部52が、端点Vと縁端90Fとの間に存在する全ての交点Vm1、Vm2、・・・を特定する構成に代えて、次のようにしてもよい。
すなわち、車両2に含まれる輪郭線や当該車両2の影に起因して生じるマスキング領域62Aは比較的狭い傾向にある。そこで、このマスキング領域62Aを他のマスキング領域62と区別するための所定幅が車幅特定部52に予め設定された構成とする。
そして車幅特定部52は、横線Lcに沿った走査の際、交点Vmが検出されるごとに、その交点Vmが属するマスキング領域62Aの横線Lcに沿った幅62Aw(図33)を検出し、当該幅62Awと所定幅とを比較する。車幅特定部52は、この比較結果に基づいて、車両2の影などに起因した上記マスキング領域62Aに交点Vmが属しているか否かを判定し、当該マスキング領域62Aに交点Vmが属していない場合に、当該交点Vmに基づいて車幅Vwを特定する。
Instead of the configuration in which the vehicle width specifying portion 52 specifies all the intersections Vm1, Vm2, ... Existing between the end point V and the edge 90F, the following may be used.
That is, the masking region 62A generated by the contour line included in the vehicle 2 and the shadow of the vehicle 2 tends to be relatively narrow. Therefore, a predetermined width for distinguishing the masking area 62A from the other masking areas 62 is set in advance in the vehicle width specifying portion 52.
Then, each time the intersection Vm is detected during scanning along the horizontal line Lc, the vehicle width specifying unit 52 detects the width 62Aw (FIG. 33) along the horizontal line Lc of the masking region 62A to which the intersection Vm belongs. The width 62Aw is compared with the predetermined width. Based on this comparison result, the vehicle width specifying unit 52 determines whether or not the intersection Vm belongs to the masking region 62A caused by the shadow of the vehicle 2, and the intersection Vm does not belong to the masking region 62A. In this case, the vehicle width Vw is specified based on the intersection Vm.

(その他の変形例)
上述した実施形態では、カメラECU6が立体物検出装置として機能したが、これに限らず、車載システム1が備える任意の装置が立体物検出装置として機能してもよい。
(Other variants)
In the above-described embodiment, the camera ECU 6 functions as a three-dimensional object detection device, but the present invention is not limited to this, and any device included in the in-vehicle system 1 may function as a three-dimensional object detection device.

また上述した実施形態において、図2に示す機能ブロックは、本願発明を理解容易にするために、カメラECU6の構成要素を主な処理内容に応じて分類して示した概略図であり、カメラECU6の構成要素は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。 Further, in the above-described embodiment, the functional blocks shown in FIG. 2 are schematic views showing the components of the camera ECU 6 classified according to the main processing contents in order to facilitate understanding of the present invention. The components of can be further classified into more components according to the processing content. It can also be categorized so that one component performs more processing.

また上述した実施形態において、水平、及び垂直等の方向や、各種の形状は、特段の断りがなされていない場合、同一の作用効果を奏する限りにおいて、その周辺の方向や近似の形状(いわゆる、均等の範囲)を含むものである。 Further, in the above-described embodiment, the directions such as horizontal and vertical, and various shapes, unless otherwise specified, the directions around them and similar shapes (so-called so-called) as long as they have the same effect and effect. Equal range) is included.

1 車載システム
2 車両
4 撮影部
6 カメラECU(立体物検出装置、コンピュータ)
9A 表示装置
24 立体物位置特定部
30 カメラ映像取得部
34 俯瞰変換処理部
36 差分画像生成部
50 マスク差分画像生成部
51 近傍接地線特定部
52 車幅特定部(幅特定部)
53 遠方接地線特定部
54 位置特定部
60 他車両候補領域
62、62A マスキング領域
64 非マスキング領域
90 マスク画像
A 他車両(立体物)
B 走行方向
Ch 横方向
Chf 遠方方向
E エッジ画像
F 俯瞰画像
G 差分画像
Gm マスク差分画像
H 他車両領域
H1 暫定第1他車両領域(第1領域)
H2 暫定第2他車両領域(第2領域)
L1 近傍接地線
L2 遠方接地線
Lc 横線
M 撮影画像
N マスキング領域境界
O 撮影位置
P 鉛直方向輪郭線
Rc マスク差分ヒストグラム
Th3 第3閾値
V 端点
Vm、Vm1、Vm2 交点
Vw、Vw1、Vw2 車幅
1 In-vehicle system 2 Vehicle 4 Imaging unit 6 Camera ECU (three-dimensional object detection device, computer)
9A Display device 24 Three-dimensional object position identification unit 30 Camera image acquisition unit 34 Bird's-eye view conversion processing unit 36 Difference image generation unit 50 Mask difference image generation unit 51 Near ground line identification unit 52 Vehicle width specification unit (width specification unit)
53 Remote ground line identification part 54 Position identification part 60 Other vehicle candidate area 62, 62A Masking area 64 Non-masking area 90 Mask image A Other vehicle (three-dimensional object)
B Travel direction Ch Lateral direction Chf Far direction E Edge image F Bird's-eye view image G Difference image Gm Mask difference image H Other vehicle area H1 Temporary first other vehicle area (first area)
H2 provisional second other vehicle area (second area)
L1 Near ground line L2 Far ground line Lc Horizontal line M Captured image N Masking area boundary O Shooting position P Vertical contour line Rc Mask difference histogram Th3 Third threshold V End point Vm, Vm1, Vm2 Intersection point Vw, Vw1, Vw2 Vehicle width

Claims (7)

車両の走行中に異なるタイミングでカメラによって撮影された第1撮影画像、及び第2撮影画像のそれぞれを第1俯瞰画像、及び第2俯瞰画像に変換する俯瞰変換処理部と、
互いの撮影位置が揃った前記第1俯瞰画像、及び前記第2俯瞰画像の差分画像を生成する差分画像生成部と、
前記差分画像において立体物が映っている候補の立体物候補領域以外をマスキングするマスク画像を生成し、当該マスク画像で前記差分画像をマスキングしてマスク差分画像を生成するマスク差分画像生成部と、
前記マスク差分画像に基づいて、前記差分画像における立体物の近傍接地線を特定する近傍接地線特定部と、
前記マスク差分画像に基づいて前記立体物の端点を求め、前記マスク画像における非マスキング領域の境界である非マスキング領域境界と前記立体物の端点との間の距離に基づいて、前記立体物の幅を特定する幅特定部と、
前記立体物の幅、及び、前記近傍接地線に基づいて、前記差分画像における前記立体物の遠方接地線を特定する遠方接地線特定部と、
前記近傍接地線、及び前記遠方接地線に基づいて、前記差分画像における立体物の位置を特定する位置特定部と、
を備えることを特徴とする立体物検出装置。
A bird's-eye view conversion processing unit that converts each of the first and second shot images taken by the camera at different timings while the vehicle is running into the first bird's-eye view image and the second bird's-eye view image.
A difference image generation unit that generates a difference image of the first bird's-eye view image and the second bird's-eye view image in which the shooting positions are aligned with each other.
A mask difference image generation unit that generates a mask image that masks a region other than the candidate three-dimensional object candidate region in which a three-dimensional object is reflected in the difference image, masks the difference image with the mask image, and generates a mask difference image.
Based on the mask difference image, a near-grounding line specifying portion that specifies the near-grounding line of a three-dimensional object in the difference image,
The end points of the three-dimensional object are obtained based on the mask difference image, and the width of the three-dimensional object is based on the distance between the non-masking region boundary, which is the boundary of the non-masking region in the mask image, and the end points of the three-dimensional object. Width specification part to specify, and
A distant grounding line specifying portion that specifies a distant grounding line of the three-dimensional object in the difference image based on the width of the three-dimensional object and the nearby grounding line.
A position specifying unit that specifies the position of a three-dimensional object in the difference image based on the near ground line and the far ground line.
A three-dimensional object detection device characterized by comprising.
前記幅特定部は、
前記立体物の端点から当該立体物の幅方向に延びる線と前記非マスキング領域境界との交点を特定し、当該交点と、前記立体物の端点との間の距離に基づいて前記立体物の幅を特定する
ことを特徴とする請求項1に記載の立体物検出装置。
The width specifying part is
The intersection of the line extending from the end point of the three-dimensional object in the width direction of the three-dimensional object and the boundary of the non-masking region is specified, and the width of the three-dimensional object is based on the distance between the intersection and the end point of the three-dimensional object. The three-dimensional object detection device according to claim 1, wherein the three-dimensional object detection device is characterized.
前記幅特定部は、
前記立体物の端点から前記立体物の幅方向に延びる線に沿って前記マスク画像を走査して前記交点を特定する
ことを特徴とする請求項2に記載の立体物検出装置。
The width specifying part is
The three-dimensional object detection device according to claim 2, wherein the mask image is scanned along a line extending from the end point of the three-dimensional object in the width direction of the three-dimensional object to identify the intersection.
前記位置特定部は、
前記差分画像において前記撮影位置から延び、前記立体物の鉛直方向輪郭線を含む放射線と、前記近傍接地線、及び前記遠方接地線のそれぞれとの交点に基づいて、前記近傍接地線において前記立体物が位置する第1領域、及び前記遠方接地線において前記立体物が位置する第2領域を特定し、これら第1領域、及び第2領域が重複する範囲に基づいて、前記差分画像において前記立体物が映った立体物領域を特定する
ことを特徴とする請求項1から3のいずれかに記載の立体物検出装置。
The position specifying part is
In the difference image, the three-dimensional object extends from the imaging position and includes the vertical contour line of the three-dimensional object, and the three-dimensional object at the near-grounding line based on the intersection of each of the near-grounding line and the distant grounding line. The first region in which the three-dimensional object is located and the second region in which the three-dimensional object is located are specified in the distant ground line, and the three-dimensional object is found in the difference image based on the range in which the first region and the second region overlap. The three-dimensional object detection device according to any one of claims 1 to 3, wherein the three-dimensional object region in which the image is reflected is specified.
前記近傍接地線特定部は、
前記車両の走行方向に垂直な横方向を横軸とし、前記マスク差分画像の各画素の画素値を前記走行方向に沿って累積した走行方向差分量累積値を縦軸としたマスク差分ヒストグラムにおいて前記走行方向差分量累積値が第3閾値を越える横軸の位置に基づいて、前記近傍接地線を特定する
ことを特徴とする請求項1から4のいずれかに記載の立体物検出装置。
The near ground line identification part is
In the mask difference histogram in which the horizontal direction perpendicular to the traveling direction of the vehicle is the horizontal axis and the pixel value of each pixel of the mask difference image is the cumulative value of the traveling direction difference amount accumulated along the traveling direction as the vertical axis. The three-dimensional object detection device according to any one of claims 1 to 4, wherein the near ground line is specified based on the position of the horizontal axis in which the cumulative value of the difference amount in the traveling direction exceeds the third threshold value.
請求項1から5のいずれかに記載の立体物検出装置と、
前記立体物検出装置によって特定された他車両の位置を表示する表示装置と、
を備えたことを特徴とする車載システム。
The three-dimensional object detection device according to any one of claims 1 to 5.
A display device that displays the position of another vehicle specified by the three-dimensional object detection device, and
An in-vehicle system characterized by being equipped with.
コンピュータが、
車両の走行中に異なるタイミングでカメラによって撮影された第1撮影画像、及び第2撮影画像のそれぞれを第1俯瞰画像、及び第2俯瞰画像に変換するステップと、
互いの撮影位置が揃った前記第1俯瞰画像、及び前記第2俯瞰画像の差分画像を生成するステップと、
前記差分画像において立体物が映っている候補の立体物候補領域以外をマスキングするマスク画像を生成し、当該マスク画像で前記差分画像をマスキングしてマスク差分画像を生成するステップと、
前記マスク差分画像に基づいて、前記差分画像における立体物の近傍接地線を特定するステップと、
前記マスク差分画像に基づいて前記立体物の端点を求め、前記マスク画像における非マスキング領域の境界である非マスキング領域境界と前記立体物の端点との間の距離に基づいて、前記立体物の幅を特定するステップと、
前記立体物の幅、及び、前記近傍接地線に基づいて、前記差分画像における前記立体物の遠方接地線を特定するステップと、
前記近傍接地線、及び前記遠方接地線に基づいて、前記差分画像における立体物の位置を特定するステップと、
を備えることを特徴とする立体物検出方法。
The computer
A step of converting the first and second shot images taken by the camera at different timings while the vehicle is running into the first bird's-eye view image and the second bird's-eye view image, respectively.
A step of generating a difference image of the first bird's-eye view image and the second bird's-eye view image in which the shooting positions are aligned with each other, and
A step of generating a mask image that masks a region other than a candidate three-dimensional object candidate region in which a three-dimensional object is reflected in the difference image, masking the difference image with the mask image, and generating a mask difference image.
Based on the mask difference image, a step of identifying a grounding line in the vicinity of a three-dimensional object in the difference image, and
The end points of the three-dimensional object are obtained based on the mask difference image, and the width of the three-dimensional object is based on the distance between the non-masking region boundary, which is the boundary of the non-masking region in the mask image, and the end points of the three-dimensional object. And the steps to identify
A step of identifying a distant grounding line of the three-dimensional object in the difference image based on the width of the three-dimensional object and the near grounding line.
A step of identifying the position of a three-dimensional object in the difference image based on the near ground line and the far ground line, and
A method for detecting a three-dimensional object, which comprises.
JP2020024175A 2020-02-17 2020-02-17 Three-dimensional object detection device, in-vehicle system, and three-dimensional object detection method Active JP7356371B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020024175A JP7356371B2 (en) 2020-02-17 2020-02-17 Three-dimensional object detection device, in-vehicle system, and three-dimensional object detection method
PCT/JP2021/002908 WO2021166576A1 (en) 2020-02-17 2021-01-27 Three-dimensional-object detection device, on-vehicle system, and three-dimensional-object detection method
US17/798,612 US20230094672A1 (en) 2020-02-17 2021-01-27 Three-dimensional-object detection device, on-vehicle system, and three-dimensional-object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020024175A JP7356371B2 (en) 2020-02-17 2020-02-17 Three-dimensional object detection device, in-vehicle system, and three-dimensional object detection method

Publications (2)

Publication Number Publication Date
JP2021128671A true JP2021128671A (en) 2021-09-02
JP7356371B2 JP7356371B2 (en) 2023-10-04

Family

ID=77488731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020024175A Active JP7356371B2 (en) 2020-02-17 2020-02-17 Three-dimensional object detection device, in-vehicle system, and three-dimensional object detection method

Country Status (1)

Country Link
JP (1) JP7356371B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013125335A1 (en) 2012-02-22 2013-08-29 日産自動車株式会社 Solid-object detection device and method for detecting solid object
JP5871069B2 (en) 2012-07-27 2016-03-01 日産自動車株式会社 Three-dimensional object detection apparatus and three-dimensional object detection method

Also Published As

Publication number Publication date
JP7356371B2 (en) 2023-10-04

Similar Documents

Publication Publication Date Title
US10690770B2 (en) Navigation based on radar-cued visual imaging
JP6519262B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP6550881B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP4426535B2 (en) Vehicle periphery monitoring device
JP6274557B2 (en) Moving surface information detection apparatus, moving body device control system using the same, and moving surface information detection program
JP5145585B2 (en) Target detection device
US8406472B2 (en) Method and system for processing image data
JP6340850B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JPH05265547A (en) On-vehicle outside monitoring device
JP6542539B2 (en) Vehicle accessibility determination device
JP2015057690A (en) Image processor, recognition object detection method, recognition object detection program, and traveling body control system
JP2014115978A (en) Mobile object recognition device, notification apparatus using the device, mobile object recognition program for use in the mobile object recognition device, and mobile object with the mobile object recognition device
JP6467798B2 (en) Image processing apparatus, three-dimensional object detection method, three-dimensional object detection program, and moving object control system
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP3562751B2 (en) Forward vehicle detection method and device
US20140002655A1 (en) Lane departure warning system and lane departure warning method
CN111971682A (en) Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
KR20210062672A (en) Method and processing unit for determining information related to objects in the surrounding environment of the vehicle
JP6340849B2 (en) Image processing apparatus, image processing method, image processing program, and mobile device control system
KR20140024681A (en) Apparatus and method for detecting lane
WO2021166576A1 (en) Three-dimensional-object detection device, on-vehicle system, and three-dimensional-object detection method
JP7356371B2 (en) Three-dimensional object detection device, in-vehicle system, and three-dimensional object detection method
JP7356372B2 (en) Three-dimensional object detection device, in-vehicle system, and three-dimensional object detection method
JP7327992B2 (en) Three-dimensional object detection device and three-dimensional object detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230922

R150 Certificate of patent or registration of utility model

Ref document number: 7356371

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150