JP6453571B2 - 3D object recognition device - Google Patents

3D object recognition device Download PDF

Info

Publication number
JP6453571B2
JP6453571B2 JP2014150673A JP2014150673A JP6453571B2 JP 6453571 B2 JP6453571 B2 JP 6453571B2 JP 2014150673 A JP2014150673 A JP 2014150673A JP 2014150673 A JP2014150673 A JP 2014150673A JP 6453571 B2 JP6453571 B2 JP 6453571B2
Authority
JP
Japan
Prior art keywords
dimensional object
certainty factor
object candidate
image
certainty
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014150673A
Other languages
Japanese (ja)
Other versions
JP2016024160A (en
Inventor
鶴田 知彦
知彦 鶴田
俊輔 鈴木
俊輔 鈴木
直輝 川嵜
直輝 川嵜
和寿 石丸
和寿 石丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014150673A priority Critical patent/JP6453571B2/en
Publication of JP2016024160A publication Critical patent/JP2016024160A/en
Application granted granted Critical
Publication of JP6453571B2 publication Critical patent/JP6453571B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、立体物認識装置に関する。   The present invention relates to a three-dimensional object recognition device.

従来、左右一対のカメラ(ステレオカメラ)を用いて、車両等の立体物を認識する立体物認識装置が知られている。この立体物認識装置は、左側のカメラで取得した画像における立体物の位置と、右側のカメラで取得した画像における同一の立体物の位置とに、視差が生じることに基づき、立体物を認識する(特許文献1参照)。   Conventionally, a three-dimensional object recognition device that recognizes a three-dimensional object such as a vehicle using a pair of left and right cameras (stereo camera) is known. This three-dimensional object recognition device recognizes a three-dimensional object based on the occurrence of parallax between the position of the three-dimensional object in the image acquired by the left camera and the position of the same three-dimensional object in the image acquired by the right camera. (See Patent Document 1).

特開2013−104740号公報JP 2013-104740 A

従来の立体物認識装置では、立体物の特徴等に起因して、立体物を正確に認識することが困難な場合があった。本発明は、こうした問題にかんがみてなされたものであり、上述した課題を解決できる立体物認識装置を提供することを目的とする。   In a conventional three-dimensional object recognition device, it may be difficult to accurately recognize a three-dimensional object due to the characteristics of the three-dimensional object. The present invention has been made in view of these problems, and an object thereof is to provide a three-dimensional object recognition device that can solve the above-described problems.

本発明の立体物認識装置は、第1の撮像素子で撮像した第1の画像、及び第2の撮像素子で撮像した第2の画像を取得する画像取得ユニットと、第1の画像と第2の画像との間で生じる視差に基づき、立体物候補を抽出する立体物候補抽出ユニットと、立体物候補の確信度を算出する確信度算出ユニットと、確信度が所定の閾値以上である立体物候補を立体物として認識する立体物認識ユニットとを備える。   The three-dimensional object recognition device of the present invention includes an image acquisition unit that acquires a first image captured by a first image sensor and a second image captured by a second image sensor, a first image, and a second image. A three-dimensional object candidate extraction unit that extracts a three-dimensional object candidate based on the parallax generated between the three-dimensional image, a certainty factor calculation unit that calculates a certainty factor of the three-dimensional object candidate, and a three-dimensional object having a certainty factor equal to or greater than a predetermined threshold. A three-dimensional object recognition unit for recognizing a candidate as a three-dimensional object.

さらに、本発明の立体物認識装置において、確信度算出ユニットは、以下の(a)〜(o)から選択される1以上の条件を充足するように、確信度を算出することを特徴とする。   Furthermore, in the three-dimensional object recognition device of the present invention, the certainty factor calculation unit calculates the certainty factor so as to satisfy one or more conditions selected from the following (a) to (o). .

(a)前記立体物候補内で前記視差のばらつきが小さいほど、前記確信度が高い。
(b)前記視差が大きいほど、前記確信度が高い。
(c)前記立体物候補内で色のばらつきが小さいほど、前記確信度が高い。
(A) The smaller the variation in the parallax within the three-dimensional object candidate, the higher the certainty factor.
(B) The greater the parallax, the higher the certainty factor.
(C) The degree of certainty is higher as the color variation in the three-dimensional object candidate is smaller.

(d)前記立体物候補の高さが大きいほど、前記確信度が高い。
(e)前記立体物候補における対向面と鉛直面との角度が小さいほど、前記確信度が高い。
(D) The higher the solid object candidate is, the higher the certainty factor is.
(E) The degree of certainty is higher as the angle between the opposing surface and the vertical surface in the three-dimensional object candidate is smaller.

(f)前記立体物候補の色が、色空間において黒又は白に近いほど、前記確信度が高い。
(g)前記立体物候補の外周部における形状の丸みが著しいほど、前記確信度が高い。
(F) The degree of certainty is higher as the color of the three-dimensional object candidate is closer to black or white in the color space.
(G) The more certain the roundness of the shape of the outer periphery of the three-dimensional object candidate is, the higher the certainty factor is.

(h)天候が雨天である場合、雨天以外の場合よりも前記確信度が低い。
(i)昼間である場合、夜間である場合よりも前記確信度が高い。
(j)照度が高いほど、前記確信度が高い。
(H) When the weather is rainy, the certainty level is lower than when the weather is not rainy.
(I) The reliability is higher in the daytime than in the nighttime.
(J) The higher the illuminance, the higher the certainty factor.

(k)前記第1の撮像素子及び前記第2の撮像素子のシャッタースピードが速いほど、前記確信度が高い。
(l)自車両の操舵角が小さいほど、前記確信度が高い。
(K) The higher the shutter speed of the first image sensor and the second image sensor, the higher the certainty factor.
(L) The certainty factor is higher as the steering angle of the host vehicle is smaller.

(m)自車両の速度が所定の閾値以上であり、且つ前記立体物候補が路側に存在する場合、それ以外の場合より、前記確信度が低い。
(n)前記第1の撮像素子及び前記第2の撮像素子の温度が低いほど、前記確信度が高い。
(M) When the speed of the host vehicle is equal to or higher than a predetermined threshold and the three-dimensional object candidate exists on the road side, the certainty factor is lower than in other cases.
(N) The certainty factor is higher as the temperatures of the first image sensor and the second image sensor are lower.

(o)前記第1の撮像素子及び前記第2の撮像素子の信号増幅率が低いほど、前記確信度が高い。
本発明の立体物認識装置によれば、立体物を正確に認識することができる。
(O) The lower the signal amplification factor of the first image sensor and the second image sensor, the higher the certainty factor.
According to the three-dimensional object recognition device of the present invention, a three-dimensional object can be accurately recognized.

立体物認識装置1の構成を表すブロック図である。2 is a block diagram illustrating a configuration of a three-dimensional object recognition device 1. FIG. 立体物認識装置1が実行する処理の全体を表すフローチャートである。It is a flowchart showing the whole process which the solid-object recognition apparatus 1 performs. 立体物認識装置1が実行する立体物候補抽出処理を表すフローチャートである。It is a flowchart showing the solid object candidate extraction process which the solid object recognition apparatus 1 performs. 立体物認識装置1が実行する確信度算出処理を表すフローチャートである。It is a flowchart showing the certainty factor calculation process which the solid-object recognition apparatus 1 performs. 立体物候補の抽出方法を表す説明図である。It is explanatory drawing showing the extraction method of a solid object candidate. 視差を算出する方法を表す説明図である。It is explanatory drawing showing the method of calculating parallax. 図7Aと図7Bは、σBと確信度Kaとの関係を表すグラフである。7A and 7B are graphs showing the relationship between σB and the certainty factor Ka. 図8Aと図8Bは、aveΔBと確信度Kbとの関係を表すグラフである。8A and 8B are graphs showing the relationship between ave ΔB and certainty factor Kb. 立体物候補217の高さHを表す説明図である。It is explanatory drawing showing the height H of the solid thing candidate 217. FIG. 対向面219と鉛直面221との角度θを表す説明図である。It is explanatory drawing showing angle (theta) of the opposing surface 219 and the vertical surface 221. FIG. 図11Aは、立体物候補217の外周部223における丸みを表す平面図であり、図11Bは、右画像201及び左画像203における外周部223を表す説明図である。FIG. 11A is a plan view showing roundness in the outer peripheral portion 223 of the three-dimensional object candidate 217, and FIG. 11B is an explanatory diagram showing the outer peripheral portion 223 in the right image 201 and the left image 203. 立体物認識装置1が実行する確信度算出処理を表すフローチャートである。It is a flowchart showing the certainty factor calculation process which the solid-object recognition apparatus 1 performs.

以下、本発明が適用された実施形態について、図面を用いて説明する。
<第1の実施形態>
1.立体物認識装置1の構成
立体物認識装置1の構成を図1に基づき説明する。立体物認識装置1は車両に搭載される装置である。以下では、立体物認識装置1を搭載する車両を自車両101とする。
Embodiments to which the present invention is applied will be described below with reference to the drawings.
<First Embodiment>
1. Configuration of the three-dimensional object recognition device 1 The configuration of the three-dimensional object recognition device 1 will be described with reference to FIG. The three-dimensional object recognition device 1 is a device mounted on a vehicle. Hereinafter, the vehicle on which the three-dimensional object recognition device 1 is mounted is referred to as the own vehicle 101.

立体物認識装置1は、周知のコンピュータに後述する処理を実行するプログラムをインストールしたものである。立体物認識装置1は、機能的に、画像取得ユニット3、立体物候補抽出ユニット5、確信度算出ユニット7、及び立体物認識ユニット9を備える。各ユニットが実行する処理は後述する。   The three-dimensional object recognition device 1 is obtained by installing a program for executing processing to be described later on a known computer. The three-dimensional object recognition device 1 functionally includes an image acquisition unit 3, a three-dimensional object candidate extraction unit 5, a certainty factor calculation unit 7, and a three-dimensional object recognition unit 9. The processing executed by each unit will be described later.

自車両101は、立体物認識装置1に加えて、右カメラ103、左カメラ105、時計107、照度計109、降雨計110、操舵角センサ111、速度センサ113、温度計115、及び警報/車両制御部117を備える。   In addition to the three-dimensional object recognition apparatus 1, the host vehicle 101 includes a right camera 103, a left camera 105, a clock 107, an illuminometer 109, a rain gauge 110, a steering angle sensor 111, a speed sensor 113, a thermometer 115, and an alarm / vehicle. A control unit 117 is provided.

右カメラ103及び左カメラ105は自車両101の前方を撮像し、自車両101の前方を表す画像を作成する。右カメラ103は自車両101の右端付近に設けられ、左カメラ105は自車両101の左端付近に設けられる。右カメラ103と左カメラ105の路面からの高さは同じである。右カメラ103と左カメラ105とはステレオカメラを構成し、同時に撮像を行う。右カメラ103及び左カメラ105において、画像の輝度、シャッタースピード、信号増幅率等の設定は同一である。   The right camera 103 and the left camera 105 capture the front of the host vehicle 101 and create an image representing the front of the host vehicle 101. The right camera 103 is provided near the right end of the host vehicle 101, and the left camera 105 is provided near the left end of the host vehicle 101. The height from the road surface of the right camera 103 and the left camera 105 is the same. The right camera 103 and the left camera 105 constitute a stereo camera and perform imaging simultaneously. In the right camera 103 and the left camera 105, settings of image brightness, shutter speed, signal amplification factor, and the like are the same.

時計107は時刻情報を取得する。照度計109は、自車両101の車外における照度を測定する。降雨計110は、降雨を検出する。操舵角センサ111は自車両101における操舵角の大きさを検出する。速度センサ113は自車両101の速度を検出する。温度計115は右カメラ103及び左カメラ105の温度を測定する。   The clock 107 acquires time information. The illuminance meter 109 measures the illuminance outside the vehicle 101. The rain gauge 110 detects rainfall. The steering angle sensor 111 detects the magnitude of the steering angle in the host vehicle 101. The speed sensor 113 detects the speed of the host vehicle 101. The thermometer 115 measures the temperature of the right camera 103 and the left camera 105.

警報/車両制御部117は、立体物認識装置1が認識した立体物に対し、周知の警報処理、及び車両制御処理を実行する。例えば、立体物と自車両101との距離が小さくなると、警報処理を行う。また、立体物との衝突を避けるための処理(例えば自動ブレーキ、自動操舵等)を行う。また、警報/車両制御部117は、立体物の一例である先行車に自車両101が追従する処理を行う。   The alarm / vehicle control unit 117 performs well-known alarm processing and vehicle control processing on the three-dimensional object recognized by the three-dimensional object recognition device 1. For example, when the distance between the three-dimensional object and the host vehicle 101 becomes small, an alarm process is performed. In addition, processing for avoiding a collision with a three-dimensional object (for example, automatic braking, automatic steering, etc.) is performed. Further, the alarm / vehicle control unit 117 performs a process in which the host vehicle 101 follows a preceding vehicle that is an example of a three-dimensional object.

なお、右カメラ103及び左カメラ105は、第1の撮像素子及び第2の撮像素子の一例である。
2.立体物認識装置1が実行する処理
立体物認識装置1が実行する処理を図2〜図11に基づき説明する。図2のステップ1では、画像取得ユニット3が、右カメラ103及び左カメラ105を用いて自車両101の前方を撮像し、画像を取得する。以下では、右カメラ103の画像を右画像201とし、左カメラ105の画像を左画像203とする。なお、右画像201及び左画像203は、第1の画像及び第2の画像の一例である。
The right camera 103 and the left camera 105 are examples of a first image sensor and a second image sensor.
2. The process which the solid object recognition apparatus 1 performs The process which the solid object recognition apparatus 1 performs is demonstrated based on FIGS. In step 1 of FIG. 2, the image acquisition unit 3 captures the front of the host vehicle 101 using the right camera 103 and the left camera 105 and acquires an image. Hereinafter, the image of the right camera 103 is referred to as a right image 201, and the image of the left camera 105 is referred to as a left image 203. The right image 201 and the left image 203 are an example of a first image and a second image.

ステップ2では、立体物候補抽出ユニット5が、前記ステップ1で取得した右画像201及び左画像203から立体物候補を抽出する処理を実行する。立体物候補とは、右画像201及び左画像203に表示されているもののうち、立体物である可能性があるものを意味する。   In step 2, the three-dimensional object candidate extraction unit 5 executes a process of extracting a three-dimensional object candidate from the right image 201 and the left image 203 acquired in step 1. The three-dimensional object candidate means one that may be a three-dimensional object among those displayed in the right image 201 and the left image 203.

立体物としては、例えば、他の車両(先行車、対向車、並走車、停止車両)、道路上またはその周囲に存在する立体物(側壁、中央分離帯、路肩部、街灯等)、歩行者等が挙げられる。具体的な立体物候補の抽出方法は後述する。   Examples of solid objects include other vehicles (preceding vehicles, oncoming vehicles, parallel vehicles, stopped vehicles), solid objects on the road or around it (side walls, median strips, road shoulders, street lights, etc.), walking Or the like. A specific method for extracting a three-dimensional object candidate will be described later.

ステップ3では、立体物候補抽出ユニット5が、前記ステップ2で立体物候補を抽出できたか否かを判断する。立体物候補を抽出できた場合はステップ4に進み、抽出できなかった場合は本処理を終了する。   In step 3, the three-dimensional object candidate extraction unit 5 determines whether or not the three-dimensional object candidate has been extracted in step 2. If the three-dimensional object candidate can be extracted, the process proceeds to step 4; otherwise, the process ends.

ステップ4では、確信度算出ユニット7が、前記ステップ2で抽出した立体物候補の確信度を算出する。確信度とは、立体物候補が立体物であることの確からしさを表す指標である。前記ステップ2で複数の立体物候補を抽出した場合はそれぞれの立体物候補について確信度を算出する。具体的な確信度の算出方法は後述する。   In step 4, the certainty factor calculation unit 7 calculates the certainty factor of the three-dimensional object candidate extracted in step 2. The certainty factor is an index representing the certainty that the three-dimensional object candidate is a three-dimensional object. When a plurality of three-dimensional object candidates are extracted in step 2, the certainty factor is calculated for each three-dimensional object candidate. A specific method for calculating the certainty factor will be described later.

ステップ5では、立体物認識ユニット9が、前記ステップ4で算出した確信度が所定の閾値を超えているか否かを判断する。閾値を超えている場合はステップ6に進み、超えていない場合は本処理を終了する。   In step 5, the three-dimensional object recognition unit 9 determines whether or not the certainty factor calculated in step 4 exceeds a predetermined threshold value. If it exceeds the threshold value, the process proceeds to step 6; otherwise, the process ends.

ステップ6では、立体物認識ユニット9が、前記ステップ5で確信度が所定値を超えていると判断した立体物候補を、立体物として認識する。
ステップ7では、前記ステップ6で認識した立体物の情報(立体物の存在、立体物の位置(自車両101から立体物までの距離、自車両101を基準とする立体物の方位))を警報/車両制御部117に出力する。
In step 6, the three-dimensional object recognition unit 9 recognizes the three-dimensional object candidate determined in step 5 as having a certainty degree exceeding a predetermined value as a three-dimensional object.
In step 7, information on the three-dimensional object recognized in step 6 (presence of three-dimensional object, position of three-dimensional object (distance from own vehicle 101 to three-dimensional object, direction of three-dimensional object with reference to own vehicle 101)) is alarmed. / Output to vehicle control unit 117.

次に、前記ステップ2において立体物候補抽出ユニット5が立体物候補を抽出する処理を、図3を用いて具体的に説明する。
ステップ11では、左画像203において、立体物を表すモデル画像と類似性の高い領域(以下左類似領域とする)を探索する。モデル画像としては、例えば、対応する立体物を実際に撮像した画像を用いることができる。モデル画像は、一定の大きさを有し、左画像203よりも小さい画像である。モデル画像との類似性は、例えば、ニューラルネットワーク、サポートベクターマシン等の周知の方法で判断できる。
Next, the process in which the three-dimensional object candidate extraction unit 5 extracts a three-dimensional object candidate in step 2 will be described in detail with reference to FIG.
In step 11, the left image 203 is searched for a region having high similarity to the model image representing the three-dimensional object (hereinafter referred to as a left similar region). As the model image, for example, an image obtained by actually capturing the corresponding three-dimensional object can be used. The model image has a certain size and is smaller than the left image 203. The similarity with the model image can be determined by a known method such as a neural network or a support vector machine.

ステップ12では、前記ステップ11の処理において左類似領域を発見できたか否かを判断する。左類似領域を発見できた場合はステップ13に進み、発見できなかった場合は本処理を終了する。   In step 12, it is determined whether or not a left similar region has been found in the processing of step 11. If the left similar region can be found, the process proceeds to step 13, and if it cannot be found, the process ends.

ステップ13では、前記ステップ11の処理で発見した左類似領域と同じ表示をしている領域を、右画像201内で探索する。その探索は、例えば、以下のように行うことができる。   In step 13, an area displaying the same display as the left similar area found in the process of step 11 is searched in the right image 201. The search can be performed as follows, for example.

まず、図5に示すように、前記ステップ11の処理で発見した左類似領域205(左画像203の一部)を、右画像201内の一部と重ねたと仮定する。このとき、左類似領域205内の任意の位置をPとする。位置Pにおける左画像203の画素の輝度と、右画像201の画素の輝度との差ΔAを求める。このΔAを、左類似領域205内の全ての画素で求め、それらの平均値aveΔAを算出する。   First, as shown in FIG. 5, it is assumed that the left similar region 205 (part of the left image 203) found in the process of step 11 is overlapped with part of the right image 201. At this time, let P be any position in the left similar region 205. A difference ΔA between the luminance of the pixel of the left image 203 at the position P and the luminance of the pixel of the right image 201 is obtained. This ΔA is obtained for all the pixels in the left similar region 205, and an average value aveΔA thereof is calculated.

そして、左類似領域205を、右画像201内で少しずつ移動させながら、各位置で平均値aveΔAを算出する。右画像201のうち、平均値aveΔAが最小となるときに左類似領域205と重なっている領域が、左類似領域と同じ表示をしている領域である。以下では、この探索により見出された領域を、右類似領域とする。   Then, the average value aveΔA is calculated at each position while moving the left similar region 205 little by little in the right image 201. In the right image 201, an area overlapping the left similar area 205 when the average value aveΔA is minimum is an area displaying the same as the left similar area. Hereinafter, the region found by this search is referred to as a right similarity region.

図3に戻り、ステップ14では、左類似領域と右類似領域との視差を算出する。具体的には以下のように行う。まず、図6に示すように、左類似領域205内の任意の点をPとし、左画像203の右側境界線209から、点Pまでの距離をxとする。また、左画像203の下側境界線211から、点Pまでの距離をyLとする。 Returning to FIG. 3, in step 14, the parallax between the left similar region and the right similar region is calculated. Specifically, it is performed as follows. First, as shown in FIG. 6, an arbitrary point in the left similar region 205 is set to P L, and a distance from the right boundary line 209 of the left image 203 to the point P L is set to x L. Further, the lower boundary line 211 in the left image 203, the distance to the point P L and y L.

また、右類似領域207内において、点Pに対応する点をPとする。すなわち、左類似領域205と右類似領域207とを、4辺が一致するように重ねたと仮定したとき、点Pと一致する点が点Pである。 Further, in the right similar region 207, a point corresponding to the point P L and P R. That is, the left similar regions 205 and the right similar region 207, assuming that the stacked as four sides match, point coincident with the point P L is a point P R.

右画像201の右側境界線213から、点Pまでの距離をxとする。また、右画像201の下側境界線215から、点Pまでの距離をyとする。
このとき、(x−x)が点P、点Pでの視差ΔBである。左類似領域205、右類似領域207内の全ての画素について上記のように視差ΔBを算出し、それらの平均値aveΔBを算出する。
From the right border 213 of the right image 201, the distance to the point P R and x R. Further, the lower boundary line 215 of the right image 201, the distance to the point P R and y R.
In this case, a parallax ΔB at (x R -x L) is the point P L, the point P R. The parallax ΔB is calculated as described above for all the pixels in the left similar region 205 and the right similar region 207, and an average value aveΔB thereof is calculated.

図3に戻り、ステップ15では、前記ステップ14で算出した視差が、立体物候補の条件を充足しているか否かを判断する。立体物候補の条件とは、以下の(イ)、(ロ)の両方を充足することである。   Returning to FIG. 3, in step 15, it is determined whether or not the parallax calculated in step 14 satisfies the three-dimensional object candidate condition. The three-dimensional object candidate condition is to satisfy both of the following (A) and (B).

(イ)aveΔBが所定の閾値以上である。
(ロ)左類似領域205、及び右類似領域207内の各画素で算出した視差ΔBのばらつき(例えば標準偏差)σBが所定の閾値以下である。
(A) aveΔB is equal to or greater than a predetermined threshold value.
(B) The variation (for example, standard deviation) σB of the parallax ΔB calculated for each pixel in the left similar region 205 and the right similar region 207 is equal to or less than a predetermined threshold.

立体物候補の条件を充足する場合はステップ16に進み、充足しない場合は本処理を終了する。
ステップ16では、前記ステップ11で発見した左類似領域、及び前記ステップ13で発見した右類似領域における表示内容を、立体物候補として抽出する。
If the three-dimensional object candidate condition is satisfied, the process proceeds to step 16; otherwise, the process ends.
In step 16, the display contents in the left similar region found in step 11 and the right similar region found in step 13 are extracted as solid object candidates.

以上のように、立体物候補抽出ユニット5は、右画像と左画像との間で生じる視差に基づき、立体物候補を抽出する。
次に、前記ステップ4において確信度算出ユニット7が確信度を算出する処理を、図4を用いて具体的に説明する。
As described above, the three-dimensional object candidate extraction unit 5 extracts a three-dimensional object candidate based on the parallax generated between the right image and the left image.
Next, the process in which the certainty factor calculation unit 7 calculates the certainty factor in Step 4 will be specifically described with reference to FIG.

ステップ21では、立体物候補内での視差のばらつきσBに関する確信度Kaを算出する。確信度算出ユニット7は、予め、σBと、確信度Kaとの関係を規定するマップを備えており、このマップにσBを入力することで、確信度Kaを算出することができる。   In step 21, a certainty factor Ka regarding the parallax variation σB in the three-dimensional object candidate is calculated. The certainty factor calculation unit 7 includes a map that preliminarily defines the relationship between σB and the certainty factor Ka, and the certainty factor Ka can be calculated by inputting σB to this map.

上記のマップで規定するσBと確信度Kaとの関係は、図7Aに示すように、σBが小さいほど、確信度Kaが大きくなるという関係である。よって、確信度Kaは、σBが小さいほど、高くなる。なお、マップで規定するσBと確信度Kaとの関係は、図7Bに示すように、σBが小さくなるにつれて、段階的に確信度Kaが高くなる関係であってもよい。   As shown in FIG. 7A, the relationship between σB and the certainty factor Ka defined in the above map is such that the smaller the σB, the larger the certainty factor Ka. Therefore, the certainty factor Ka increases as σB decreases. The relationship between σB and the certainty factor Ka defined by the map may be a relationship in which the certainty factor Ka increases stepwise as σB decreases, as shown in FIG. 7B.

ステップ22では、視差の大きさ(aveΔB)に関する確信度Kbを算出する。確信度算出ユニット7は、予め、aveΔBと、確信度Kbとの関係を規定するマップを備えており、このマップにaveΔBを入力することで、確信度Kbを算出することができる。   In step 22, a certainty factor Kb regarding the magnitude of parallax (aveΔB) is calculated. The certainty factor calculation unit 7 includes a map that prescribes the relationship between the ave ΔB and the certainty factor Kb in advance, and the certainty factor Kb can be calculated by inputting the ave ΔB to this map.

上記のマップで規定するaveΔBと確信度Kbとの関係は、図8Aに示すように、aveΔBが大きいほど、確信度Kbが高くなるという関係である。よって、確信度Kbは、aveΔBが大きいほど、高くなる。なお、マップで規定するaveΔBと確信度Kbとの関係は、図8Bに示すように、aveΔBが大きくなるにつれて、段階的に確信度Kbが高くなる関係であってもよい。   As shown in FIG. 8A, the relationship between aveΔB and the certainty factor Kb defined by the above map is a relationship in which the certainty factor Kb increases as the aveΔB increases. Therefore, the certainty factor Kb increases as aveΔB increases. Note that the relationship between the ave ΔB and the certainty factor Kb defined by the map may be a relationship in which the certainty factor Kb increases stepwise as the ave ΔB increases, as shown in FIG. 8B.

ステップ23では、立体物候補内での色のばらつきに関する確信度Kcを算出する。確信度算出ユニット7は、まず、右画像201、左画像203のうち、立体物候補内の各画素の色を、色空間における座標で表す。次に、その色空間における座標のばらつきを数値化する。以下では、数値化した値を色のばらつき値とする。   In step 23, a certainty factor Kc regarding the color variation in the three-dimensional object candidate is calculated. The certainty calculation unit 7 first represents the color of each pixel in the three-dimensional object candidate in the right image 201 and the left image 203 by coordinates in the color space. Next, the variation in coordinates in the color space is digitized. Hereinafter, the digitized value is referred to as a color variation value.

確信度算出ユニット7は、予め、色のばらつき値と、確信度Kcとの関係を規定するマップを備えており、このマップに、色のばらつき値を入力することで、確信度Kcを算出する。マップで規定する、色のばらつき値と確信度Kcとの関係は、色のばらつき値が小さいほど、確信度Kcが高くなるという関係である。よって、確信度Kcは、色のばらつき値が小さいほど、高くなる。   The certainty factor calculation unit 7 includes a map that preliminarily defines the relationship between the color variation value and the certainty factor Kc, and calculates the certainty factor Kc by inputting the color variation value to this map. . The relationship between the color variation value and the certainty factor Kc defined by the map is such that the smaller the color variation value, the higher the certainty factor Kc. Therefore, the certainty factor Kc increases as the color variation value decreases.

ステップ24では、立体物候補の高さに関する確信度Kdを算出する。確信度算出ユニット7は、まず、図9に示すように、右画像201、左画像203において、立体物候補217の高さHを求める。確信度算出ユニット7は、予め、高さHと、確信度Kdとの関係を規定するマップを備えており、このマップに高さHを入力することで、確信度Kdを算出することができる。   In step 24, a certainty factor Kd regarding the height of the three-dimensional object candidate is calculated. First, the certainty factor calculation unit 7 obtains the height H of the solid object candidate 217 in the right image 201 and the left image 203 as shown in FIG. The certainty factor calculation unit 7 has a map that prescribes the relationship between the height H and the certainty factor Kd in advance, and the certainty factor Kd can be calculated by inputting the height H into this map. .

上記のマップで規定する、高さHと確信度Kdとの関係は、高さHが大きいほど、確信度Kdが高くなるという関係である。よって、確信度Kdは、高さHが大きいほど、高くなる。   The relationship between the height H and the certainty factor Kd defined by the above map is that the certainty factor Kd increases as the height H increases. Therefore, the certainty factor Kd increases as the height H increases.

ステップ25では、立体物候補における対向面と鉛直面との角度θに関する確信度Keを算出する。ここで、図10に示すように、対向面219とは、立体物候補217のうち、自車両101に対向する面である。また、角度θは、対向面219と、鉛直面221との角度である。   In step 25, the certainty factor Ke regarding the angle θ between the opposing surface and the vertical surface in the three-dimensional object candidate is calculated. Here, as illustrated in FIG. 10, the facing surface 219 is a surface of the three-dimensional object candidate 217 that faces the host vehicle 101. Further, the angle θ is an angle between the facing surface 219 and the vertical surface 221.

確信度算出ユニット7は、予め、角度θと、確信度Keとの関係を規定するマップを備えており、このマップに角度θを入力することで、確信度Keを算出することができる。
上記のマップで規定する、角度θと確信度Keとの関係は、角度θが小さいほど、確信度Keが高くなるという関係である。よって、確信度Keは、角度θが小さいほど、高くなる。なお、角度θは、鉛直方向に対する視差の変化量から算出できる。
The certainty factor calculation unit 7 includes a map that preliminarily defines the relationship between the angle θ and the certainty factor Ke, and the certainty factor Ke can be calculated by inputting the angle θ into this map.
The relationship between the angle θ and the certainty factor Ke defined by the above map is that the certainty factor Ke increases as the angle θ decreases. Therefore, the certainty factor Ke increases as the angle θ decreases. The angle θ can be calculated from the amount of change in parallax with respect to the vertical direction.

ステップ26では、特定の色に関する確信度Kfを算出する。すなわち、立体物候補の色が、色空間において黒、又は白に近いほど、確信度Kfを高く設定する。
ステップ27では、立体物候補の外周部における形状の丸みに関する確信度Kgを算出する。図11A、図11Bに示すように、立体物候補217の外周部223とは、自車両101から見て、立体物候補217の外周に位置する部分である。確信度算出ユニット7は、まず、外周部223における曲率を求める。具体的には、外周部付近における視差の変化量または視差の変化の近似曲線の値からこの曲率を求めることができる。
In step 26, a certainty factor Kf for a specific color is calculated. That is, as the color of the three-dimensional object candidate is closer to black or white in the color space, the certainty factor Kf is set higher.
In step 27, the certainty factor Kg regarding the roundness of the shape at the outer periphery of the three-dimensional object candidate is calculated. As shown in FIGS. 11A and 11B, the outer peripheral portion 223 of the three-dimensional object candidate 217 is a portion located on the outer periphery of the three-dimensional object candidate 217 when viewed from the host vehicle 101. The certainty factor calculation unit 7 first obtains the curvature at the outer peripheral portion 223. Specifically, this curvature can be obtained from the amount of parallax change in the vicinity of the outer periphery or the value of the approximate curve of the parallax change.

確信度算出ユニット7は、予め、立体物候補の外周部における曲率が小さいほど(丸みが著しいほど)、高い確信度Kgを出力するマップを備えている。このマップに、上記のように求めた曲率を入力することで、確信度Kgを算出することができる。確信度Kgは、立体物候補の外周部における丸みが著しいほど、高くなる。   The certainty factor calculation unit 7 is previously provided with a map that outputs a higher certainty factor Kg as the curvature at the outer peripheral portion of the three-dimensional object candidate is smaller (as the roundness is more significant). The certainty factor Kg can be calculated by inputting the curvature obtained as described above into this map. The certainty factor Kg increases as the roundness of the outer periphery of the three-dimensional object candidate increases.

ステップ28では、天候に関する確信度Khを算出する。すなわち、確信度算出ユニット7は、降雨計110の出力信号に基づき、天候が雨天であるか否かを判断し、雨天であれば、それ以外の場合よりも、確信度Khを低くする。   In step 28, a certainty factor Kh regarding the weather is calculated. That is, the certainty calculation unit 7 determines whether or not the weather is rainy based on the output signal of the rain gauge 110, and if it is raining, makes the certainty Kh lower than in other cases.

ステップ29では、時間帯に関する確信度Kiを算出する。確信度算出ユニット7は、時計107を用いて時刻情報を取得し、その時点が昼間であるか夜間であるかを判断する。昼間である場合は、夜間である場合よりも、確信度Kiを高くする。   In step 29, a certainty factor Ki for the time zone is calculated. The certainty factor calculation unit 7 acquires time information using the clock 107 and determines whether the time is daytime or nighttime. In the daytime, the certainty factor Ki is set higher than in the nighttime.

ステップ30では、照度に関する確信度Kjを算出する。確信度算出ユニット7は、照度計109を用いて照度を取得する。確信度算出ユニット7は、予め、照度が高いほど、高い確信度Kjを出力するマップを備えている。このマップに、上記のように取得した照度を入力することで、確信度Kjを算出する。確信度Kjは、照度が高いほど、高くなる。   In step 30, a certainty factor Kj relating to illuminance is calculated. The certainty factor calculation unit 7 acquires illuminance using the illuminance meter 109. The certainty factor calculation unit 7 is previously provided with a map that outputs a higher certainty factor Kj as the illuminance is higher. The confidence Kj is calculated by inputting the illuminance acquired as described above to this map. The certainty factor Kj increases as the illuminance increases.

ステップ31では、右カメラ103及び左カメラ105のシャッタースピードに関する確信度Kkを算出する。確信度算出ユニット7は、右カメラ103及び左カメラ105から、シャッタースピードの情報を取得する。また、確信度算出ユニット7は、予め、シャッタースピードが速いほど、高い確信度Kkを出力するマップを備えている。このマップに、上記のように取得したシャッタースピードを入力することで、確信度Kkを算出する。確信度Kkは、シャッタースピードが速いほど、高くなる。   In step 31, the certainty factor Kk regarding the shutter speed of the right camera 103 and the left camera 105 is calculated. The certainty factor calculation unit 7 acquires shutter speed information from the right camera 103 and the left camera 105. In addition, the certainty factor calculation unit 7 includes a map that outputs a higher certainty factor Kk as the shutter speed is faster. The confidence Kk is calculated by inputting the shutter speed acquired as described above to this map. The certainty factor Kk increases as the shutter speed increases.

ステップ32では、操舵角に関する確信度KLを算出する。確信度算出ユニット7は、操舵角センサ111から自車両101の操舵角を取得する。確信度算出ユニット7は、予め、操舵角が小さいほど、高い確信度KLを出力するマップを備えている。このマップに、上記のように取得した操舵角を入力することで、確信度KLを算出する。確信度KLは、操舵角が小さいほど、高くなる。   In step 32, a certainty factor KL relating to the steering angle is calculated. The certainty factor calculation unit 7 acquires the steering angle of the host vehicle 101 from the steering angle sensor 111. The certainty factor calculation unit 7 is previously provided with a map that outputs a higher certainty factor KL as the steering angle is smaller. The confidence factor KL is calculated by inputting the steering angle acquired as described above to this map. The certainty factor KL increases as the steering angle decreases.

ステップ33では、自車両の速度と立体物候補の位置に関する確信度Kmを算出する。確信度算出ユニット7は、速度センサ113から自車両101の速度を取得する。また、確信度算出ユニット7は、右画像201、及び左画像203における立体物候補の左右方向での位置を取得する。そして、自車両101の速度が所定の閾値以上であり、且つ、右画像201、左画像203における立体物候補の左右方向での位置が右寄り又は左寄りである(すなわち、立体物候補が路側に存在する)場合、それ以外の場合より、確信度Kmを低くする。   In step 33, the certainty factor Km regarding the speed of the own vehicle and the position of the three-dimensional object candidate is calculated. The certainty factor calculation unit 7 acquires the speed of the host vehicle 101 from the speed sensor 113. In addition, the certainty factor calculation unit 7 acquires the positions of the three-dimensional object candidates in the right and left directions in the right image 201 and the left image 203. The speed of the host vehicle 101 is equal to or higher than a predetermined threshold, and the positions of the three-dimensional object candidates in the right image 201 and the left image 203 in the left-right direction are rightward or leftward (that is, the three-dimensional object candidates exist on the road side. ), The certainty factor Km is made lower than in other cases.

ステップ34では、右カメラ103及び左カメラ105の温度に関する確信度Knを算出する。確信度算出ユニット7は、温度計115から、右カメラ103及び左カメラ105の温度を取得する。確信度算出ユニット7は、予め、右カメラ103及び左カメラ105の温度が低いほど、高い確信度Knを出力するマップを備えている。このマップに、上記のように取得した、右カメラ103及び左カメラ105の温度を入力することで、確信度Knを算出する。確信度Knは、右カメラ103及び左カメラ105の温度が低いほど、高くなる。   In step 34, the certainty factor Kn regarding the temperature of the right camera 103 and the left camera 105 is calculated. The certainty factor calculation unit 7 acquires the temperatures of the right camera 103 and the left camera 105 from the thermometer 115. The certainty factor calculation unit 7 includes a map that outputs a higher certainty factor Kn as the temperature of the right camera 103 and the left camera 105 is lower. The confidence level Kn is calculated by inputting the temperatures of the right camera 103 and the left camera 105 acquired as described above to this map. The certainty factor Kn increases as the temperature of the right camera 103 and the left camera 105 decreases.

ステップ35では、右カメラ103及び左カメラ105の信号増幅率(ゲイン)に関する確信度Koを算出する。確信度算出ユニット7は、右カメラ103及び左カメラ105から、信号増幅率を取得する。確信度算出ユニット7は、予め、信号増幅率が低いほど、高い確信度Koを出力するマップを備えている。このマップに、上記のように取得した、信号増幅率を入力することで、確信度Koを算出する。確信度Koは、信号増幅率が低いほど、高くなる。   In step 35, the certainty factor Ko regarding the signal amplification factors (gains) of the right camera 103 and the left camera 105 is calculated. The certainty factor calculation unit 7 acquires the signal amplification factor from the right camera 103 and the left camera 105. The certainty factor calculation unit 7 is previously provided with a map that outputs a higher certainty factor Ko as the signal amplification factor is lower. The confidence factor Ko is calculated by inputting the signal gain obtained as described above to this map. The certainty factor Ko increases as the signal amplification factor decreases.

ステップ36では、繰り返し形状に関する確信度Kpを算出する。すなわち、確信度算出ユニット7は、立体物候補が、同一形状又は相似形状の物体が複数配列したものであるか否かを判断し、そのようなものである場合は、それ以外の場合よりも、確信度Kpを低くする。   In step 36, a certainty factor Kp regarding the repetitive shape is calculated. That is, the certainty factor calculation unit 7 determines whether or not the three-dimensional object candidate is an array of a plurality of objects having the same shape or similar shape, and in such a case, the solid object candidate is more than in other cases. The reliability Kp is lowered.

ステップ37では、前記ステップ21〜36で算出した確信度Ka、Kb、Kc、Kd、Ke、Kf、Kg、Kh、Ki、Kj、Kk、KL、Km、Kn、Ko、Kpを全て乗算して最終的な確信度Kを算出する。このように算出された確信度Kは、以下の条件を充足する。   In step 37, the certainty factors Ka, Kb, Kc, Kd, Ke, Kf, Kg, Kh, Ki, Kj, Kk, KL, Km, Kn, Ko, and Kp calculated in steps 21 to 36 are all multiplied. The final certainty factor K is calculated. The certainty factor K calculated in this way satisfies the following conditions.

(a)立体物候補内で視差のばらつき(σB)が小さいほど、確信度Kが高い。
(b)視差(aveΔB)が大きいほど、確信度Kが高い。
(c)立体物候補内で色のばらつきが小さいほど、確信度Kが高い。
(A) The certainty factor K is higher as the parallax variation (σB) is smaller in the three-dimensional object candidate.
(B) The greater the parallax (aveΔB), the higher the certainty factor K.
(C) The confidence K is higher as the color variation in the three-dimensional object candidate is smaller.

(d)立体物候補の高さHが大きいほど、確信度Kが高い。
(e)立体物候補における対向面と鉛直面との角度θが小さいほど、確信度Kが高い。
(f)立体物候補の色が、色空間において黒又は白に近いほど、確信度Kが高い。
(D) The greater the height H of the three-dimensional object candidate, the higher the certainty factor K.
(E) The certainty factor K is higher as the angle θ between the opposing surface and the vertical surface in the three-dimensional object candidate is smaller.
(F) The reliability K is higher as the color of the three-dimensional object candidate is closer to black or white in the color space.

(g)立体物候補の外周部における形状の丸みが著しいほど、確信度Kが高い。
(h)天候が雨天である場合、雨天以外の場合よりも確信度Kが低い。
(i)昼間である場合、夜間である場合よりも確信度Kが高い。
(G) The greater the roundness of the shape of the outer periphery of the three-dimensional object candidate, the higher the certainty factor K.
(H) When the weather is rainy, the certainty factor K is lower than when the weather is not rainy.
(I) The certainty factor K is higher in the daytime than in the nighttime.

(j)照度が高いほど、確信度Kが高い。
(k)右カメラ103及び左カメラ105のシャッタースピードが速いほど、確信度Kが高い。
(J) The higher the illuminance, the higher the certainty factor K.
(K) The higher the shutter speed of the right camera 103 and the left camera 105, the higher the certainty factor K.

(l)自車両101の操舵角が小さいほど、確信度Kが高い。
(m)自車両101の速度が所定の閾値以上であり、且つ立体物候補が路側に存在する場合、それ以外の場合より、確信度Kが低い。
(L) The confidence K is higher as the steering angle of the host vehicle 101 is smaller.
(M) When the speed of the host vehicle 101 is equal to or higher than a predetermined threshold and the three-dimensional object candidate exists on the road side, the certainty factor K is lower than in other cases.

(n)右カメラ103及び左カメラ105の温度が低いほど、確信度Kが高い。
(o)右カメラ103及び左カメラ105の信号増幅率が低いほど、確信度Kが高い。
(p)立体物候補が、同一形状又は相似形状の物体が複数配列したものである場合、それ以外の場合より確信度Kが低い。
(N) The lower the temperature of the right camera 103 and the left camera 105, the higher the certainty factor K.
(O) The lower the signal amplification factor of the right camera 103 and the left camera 105, the higher the certainty factor K.
(P) When the three-dimensional object candidate is an array of a plurality of objects having the same shape or similar shapes, the certainty factor K is lower than in other cases.

3.立体物認識装置1が奏する効果
(1A)立体物認識装置1は、立体物候補が実際には立体物ではない可能性が高い場合は、立体物候補の確信度を低くする。すなわち、立体物候補が実際には立体物ではない場合、一般的に、視差のばらつき(σB)が大きくなり、視差の大きさ(aveΔB)が小さくなり、立体物候補内での色のばらつきが大きくなり、立体物候補の高さ(H)が小さくなり、立体物候補における対向面と鉛直面との角度θが大きくなるが、これらの場合、立体物認識装置1は、確信度Ka、Kb、Kc、Kd、Keを小さくする。
3. Effects produced by the three-dimensional object recognition device 1 (1A) The three-dimensional object recognition device 1 reduces the certainty of the three-dimensional object candidate when there is a high possibility that the three-dimensional object candidate is not actually a three-dimensional object. That is, when the three-dimensional object candidate is not actually a three-dimensional object, generally, the parallax variation (σB) increases, the parallax size (aveΔB) decreases, and the color variation within the three-dimensional object candidate varies. The height (H) of the three-dimensional object candidate becomes small and the angle θ between the opposing surface and the vertical surface in the three-dimensional object candidate becomes large. In these cases, the three-dimensional object recognition device 1 has certainty factors Ka and Kb. , Kc, Kd, Ke are reduced.

その結果、実際には立体物ではない立体物候補の場合、確信度Kが小さくなるので、実際には立体物ではない立体物候補を立体物であると誤認識してしまうことが起こり難い。
(1B)立体物候補は、実際に立体物であっても、場合により、確信度が低くなり易いことがある。例えば、立体物候補の色が黒又は白に近い場合や、立体物候補の外周部における形状の丸みが著しい場合は、確信度が低くなり易い。立体物認識装置1は、それらの場合、確信度Kf、Kgを高くする。その結果、確信度Kが高くなるので、立体物を一層容易に認識できる。
As a result, in the case of a three-dimensional object candidate that is not actually a three-dimensional object, the certainty factor K decreases, so that it is unlikely that a three-dimensional object candidate that is not actually a three-dimensional object will be erroneously recognized as a three-dimensional object.
(1B) Even if the three-dimensional object candidate is actually a three-dimensional object, the certainty factor is likely to be low in some cases. For example, when the color of the three-dimensional object candidate is close to black or white, or when the shape of the three-dimensional object candidate is markedly rounded, the certainty factor tends to be low. In those cases, the three-dimensional object recognition device 1 increases the certainty factors Kf and Kg. As a result, since the certainty factor K is increased, the three-dimensional object can be recognized more easily.

(1C)状況により、立体物候補が立体物であるか否かを正確に判断し難い場合がある。例えば、雨天の場合、夜間の場合、照度が低い場合、右カメラ103及び左カメラ105のシャッタースピードが遅い場合、自車両101の操舵角が大きい場合、自車両101の速度が所定の閾値以上であり且つ立体物候補が路側に存在する場合、右カメラ103及び左カメラ105の温度が高い場合、右カメラ103及び左カメラ105の信号増幅率が高い場合は、右画像201及び左画像203において立体物候補が不鮮明になり易く、立体物であるか否かを判断し難い。これらの場合、仮に、状況を考慮せずに立体物候補が立体物であるか否かを判断すると、実際には立体物でないものを、立体物であると誤判断してしまうおそれがある。   (1C) Depending on the situation, it may be difficult to accurately determine whether the three-dimensional object candidate is a three-dimensional object. For example, in the case of rain, at night, when the illuminance is low, when the shutter speed of the right camera 103 and the left camera 105 is slow, when the steering angle of the host vehicle 101 is large, the speed of the host vehicle 101 is equal to or higher than a predetermined threshold. If there is a three-dimensional object candidate on the road side, if the temperature of the right camera 103 and the left camera 105 is high, or if the signal amplification factor of the right camera 103 and the left camera 105 is high, the right image 201 and the left image 203 are three-dimensional. It is difficult to determine whether an object candidate is unclear and is a three-dimensional object. In these cases, if it is determined whether the three-dimensional object candidate is a three-dimensional object without considering the situation, there is a possibility that an object that is not actually a three-dimensional object is erroneously determined to be a three-dimensional object.

立体物認識装置1は、上記の場合、確信度Kh、Ki、Kj、Kk、KL、Km、Kn、Koを低くする。その結果、確信度Kが低くなり、実際には立体物でないものを、立体物であると誤判断してしまうおそれを低減できる。   In the above case, the three-dimensional object recognition device 1 reduces the certainty factors Kh, Ki, Kj, Kk, KL, Km, Kn, and Ko. As a result, the certainty factor K is lowered, and the possibility that a thing that is not actually a three-dimensional object is erroneously determined to be a three-dimensional object can be reduced.

(1D)立体物として、道路に沿って複数配列された街灯や、トンネルの天井面に、トンネルの進行方向に沿って複数配列された照明がある。これらは、自車両101と衝突するおそれはなく、他の立体物と比べて、認識する必要性は低い。   (1D) As a three-dimensional object, there are street lamps arranged along the road, and illumination arranged on the ceiling surface of the tunnel along the traveling direction of the tunnel. These are not likely to collide with the host vehicle 101, and need not be recognized as compared with other three-dimensional objects.

立体物認識装置1は、立体物候補が、上述した街灯やトンネルの照明に特有の特徴を有するものである場合(同一形状又は相似形状の物体が複数配列したものである場合)、確信度Kpを低くする。その結果、確信度Kが低くなり、上述した街灯やトンネルの照明等を認識し難くすることができる。
<第2の実施形態>
1.立体物認識装置1の構成及び実行する処理
第2の実施形態における構成、及び実行する処理は基本的には前記第1の実施形態と同様であるため、共通する点については説明を省略し、相違点を中心に説明する。
The three-dimensional object recognition device 1 has a certainty factor Kp when the three-dimensional object candidate has characteristics peculiar to the above-mentioned street lamp or tunnel illumination (when a plurality of objects having the same shape or similar shapes are arranged). Lower. As a result, the certainty factor K is lowered, and it is possible to make it difficult to recognize the above-mentioned street lamps, tunnel lighting, and the like.
<Second Embodiment>
1. The configuration of the three-dimensional object recognition device 1 and the processing to be executed The configuration in the second embodiment and the processing to be executed are basically the same as those in the first embodiment. The difference will be mainly described.

本実施形態では、確信度Kを以下のようにして算出する。図12のステップ41では、確信度Kaと確信度Kbとを乗算して、初期の確信度Kを算出する。なお、確信度Ka、Kbは前記第1の実施形態と同様である。 In the present embodiment, the certainty factor K is calculated as follows. In step 41 of FIG. 12, by multiplying the confidence Kb and confidence Ka, it calculates the initial confidence K 0. The certainty factors Ka and Kb are the same as those in the first embodiment.

ステップ42では、確信度を低下させるべき特徴が立体物候補にあるか否かを判断する。確信度を低下させるべき特徴としては、例えば、以下のうちから選択される1以上がある。これらの特徴は、立体物候補が実際には立体物ではない場合に現れ易い特徴である。   In step 42, it is determined whether or not there is a feature whose reliability should be lowered in the three-dimensional object candidate. For example, there is one or more features selected from the following as features that should reduce the certainty factor. These features are likely to appear when the three-dimensional object candidate is not actually a three-dimensional object.

・視差のばらつき(σB)が所定の閾値以上である。
・視差の大きさ(aveΔB)が所定の閾値以下である。
・立体物候補内での色のばらつきが大きい。
The parallax variation (σB) is greater than or equal to a predetermined threshold.
The magnitude of parallax (aveΔB) is less than or equal to a predetermined threshold.
・ Color variation within the three-dimensional object candidate is large.

・立体物候補の高さ(H)が所定の閾値以下である。
・立体物候補における対向面と鉛直面との角度θが所定の閾値以上である。
上記の特徴がある場合はステップ43に進み、そのような特徴がない場合はステップ44に進む。
The height (H) of the three-dimensional object candidate is below a predetermined threshold value.
-Angle (theta) of the opposing surface and vertical surface in a solid object candidate is more than a predetermined threshold value.
If there is the above feature, the process proceeds to step 43. If there is no such feature, the process proceeds to step 44.

ステップ43では、確信度Kを所定量だけ低下させる。
ステップ44では、前記ステップ41で算出した確信度Kが過小であることを示す特徴が立体物候補にあるか否かを判断する。そのような特徴としては、例えば、以下のうちから選択される1以上がある。
In step 43, the certainty factor K is decreased by a predetermined amount.
In step 44, it is determined whether or not the solid object candidate has a feature indicating that the certainty factor K calculated in step 41 is too small. Such features include, for example, one or more selected from the following.

・立体物候補の色が黒又は白に近い。
・立体物候補の外周部における形状の丸みが著しい。
上記の特徴がある場合はステップ45に進み、そのような特徴がない場合はステップ46に進む。
-Solid object candidate color is close to black or white.
-The roundness of the shape at the outer periphery of the three-dimensional object candidate is remarkable.
If there is the above feature, the process proceeds to step 45, and if there is no such feature, the process proceeds to step 46.

ステップ45では、確信度Kを所定量だけ増加させる。
ステップ46では、自車両101が、立体物候補が立体物であるか否かを正確に判断し難い状況にあるか否かを判断する。そのような状況としては、例えば、以下のうちから選択される1以上がある。これらの状況は、いずれも、右画像201及び左画像203において立体物候補が不鮮明になり易く、立体物であるか否かを判断し難い状況である。
In step 45, the certainty factor K is increased by a predetermined amount.
In step 46, the host vehicle 101 determines whether or not it is difficult to accurately determine whether or not the three-dimensional object candidate is a three-dimensional object. Such a situation includes, for example, one or more selected from the following. In any of these situations, the three-dimensional object candidates are likely to become unclear in the right image 201 and the left image 203, and it is difficult to determine whether or not the object is a three-dimensional object.

・雨天の状況。
・夜間の状況。
・照度が低い状況。
・ The situation in rainy weather.
・ Night situation.
・ Low illuminance.

・右カメラ103及び左カメラ105のシャッタースピードが遅い状況。
・自車両101の操舵角が大きい状況
・自車両101の速度が所定の閾値以上であり且つ立体物候補が路側に存在する状況。
A situation where the shutter speed of the right camera 103 and the left camera 105 is slow.
A situation in which the steering angle of the host vehicle 101 is large.

・右カメラ103及び左カメラ105の温度が高い状況。
・右カメラ103及び左カメラ105の信号増幅率が高い状況。
上記の状況である場合はステップ47に進み、そのような状況ではない場合はステップ48に進む。
A situation where the temperature of the right camera 103 and the left camera 105 is high.
A situation where the signal amplification factors of the right camera 103 and the left camera 105 are high.
If so, the process proceeds to step 47; otherwise, the process proceeds to step 48.

ステップ47では、確信度Kを所定量だけ低下させる。
ステップ48では、立体物候補が、認識する必要性が低い立体物の特徴を有しているか否かを判断する。認識する必要性が低い立体物としては、例えば、道路に沿って複数配列された街灯や、トンネルの天井面に、トンネルの進行方向に沿って複数配列された照明がある。これらの立体物は、同一形状又は相似形状の物体が複数配列した形状という特徴を有する。
In step 47, the certainty factor K is decreased by a predetermined amount.
In step 48, it is determined whether or not the three-dimensional object candidate has features of a three-dimensional object that need not be recognized. Examples of the three-dimensional object that need not be recognized include a plurality of street lamps arranged along the road and a plurality of lights arranged along the traveling direction of the tunnel on the ceiling surface of the tunnel. These three-dimensional objects have a feature of a shape in which a plurality of objects having the same shape or similar shapes are arranged.

立体物候補が上記の特徴を有する場合はステップ49に進み、そのような特徴を有していない場合はステップ50に進む。
ステップ49では、確信度Kを所定量だけ低下させる。
If the three-dimensional object candidate has the above-described feature, the process proceeds to step 49, and if it does not have such a feature, the process proceeds to step 50.
In step 49, the certainty factor K is decreased by a predetermined amount.

ステップ50では最終的な確信度Kを確定する。前記ステップ43、45、47、49のいずれかにおいて確信度を補正した場合は、補正後の値を最終的な確信度Kとする。一方、前記ステップ43、45、47、49のいずれにおいても補正していない場合は、前記ステップ41で算出した値が最終的な確信度Kとなる。   In step 50, the final certainty factor K is determined. When the certainty factor is corrected in any of the steps 43, 45, 47, and 49, the corrected value is set as the final certainty factor K. On the other hand, if no correction is made in any of Steps 43, 45, 47, and 49, the value calculated in Step 41 is the final certainty factor K.

2.立体物認識装置1が奏する効果
本実施形態の立体物認識装置1は、前記第1の実施形態の効果(1A)〜(1D)と同様の効果を奏する。
<その他の実施形態>
以上、本発明の実施形態について説明したが、本発明は前記実施形態に限定されることなく、種々の形態を採り得る。
2. Effects exhibited by the three-dimensional object recognition device 1 The three-dimensional object recognition device 1 of the present embodiment has the same effects as the effects (1A) to (1D) of the first embodiment.
<Other embodiments>
As mentioned above, although embodiment of this invention was described, this invention can take a various form, without being limited to the said embodiment.

(1)前記第1の実施形態において、確信度Ka〜Kpのうち、一部は省略してもよい。この場合、確信度Kは、確信度Ka〜Kpのうち、省略されなかったものを乗算して求めることができる。   (1) In the first embodiment, some of the certainty factors Ka to Kp may be omitted. In this case, the certainty factor K can be obtained by multiplying the certainty factors Ka to Kp which are not omitted.

(2)前記第1の実施形態において、確信度Ka〜Kpを乗算する以外の方法で確信度Kを算出してもよい。例えば、乗算以外の既知の関数に、確信度Ka〜Kpを入力して、確信度Kを求めてもよい。   (2) In the first embodiment, the certainty factor K may be calculated by a method other than multiplying the certainty factors Ka to Kp. For example, the certainty factor K may be obtained by inputting the certainty factors Ka to Kp into known functions other than multiplication.

(3)前記第2の実施形態において、ステップ42、43を省略してもよい。また、ステップ44、45を省略してもよい。また、ステップ46、47を省略してもよい。また、ステップ48、49を省略してもよい。
(4)前記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、前記各実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、前記各実施形態の構成の一部を省略してもよい。また、前記実施形態の構成の少なくとも一部を、他の実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
(5)立体物認識装置の他、当該立体物認識装置を構成要素とするシステム、当該立体物認識装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、立体物認識方法等、種々の形態で本発明を実現することもできる。
(3) In the second embodiment, steps 42 and 43 may be omitted. Steps 44 and 45 may be omitted. Further, steps 46 and 47 may be omitted. Steps 48 and 49 may be omitted.
(4) The functions of one component in the embodiment may be distributed as a plurality of components, or the functions of a plurality of components may be integrated into one component. In addition, at least a part of the configuration of each embodiment may be replaced with a known configuration having the same function. Moreover, you may abbreviate | omit a part of structure of each said embodiment. Further, at least a part of the configuration of the embodiment may be added to or replaced with the configuration of the other embodiments. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.
(5) In addition to the three-dimensional object recognition device, various systems such as a system including the three-dimensional object recognition device, a program for causing a computer to function as the three-dimensional object recognition device, a medium on which the program is recorded, a three-dimensional object recognition method, etc. The present invention can also be realized in the form of.

1…立体物認識装置、3…画像取得ユニット、5…立体物候補抽出ユニット、7…確信度算出ユニット、9…立体物認識ユニット、101…自車両、103…右カメラ、105…左カメラ、111…操舵角センサ、113…速度センサ、115…温度計、117…警報/車両制御部、201…右画像、203…左画像、205…左類似領域、207…右類似領域、209…右側境界線、211…下側境界線、213…右側境界線、215…下側境界線、217…立体物候補、219…対向面、221…鉛直面、223…外周部 DESCRIPTION OF SYMBOLS 1 ... Solid object recognition apparatus, 3 ... Image acquisition unit, 5 ... Solid object candidate extraction unit, 7 ... Certainty factor calculation unit, 9 ... Solid object recognition unit, 101 ... Own vehicle, 103 ... Right camera, 105 ... Left camera, 111 ... steering angle sensor, 113 ... speed sensor, 115 ... thermometer, 117 ... alarm / vehicle control unit, 201 ... right image, 203 ... left image, 205 ... left similar region, 207 ... right similar region, 209 ... right boundary 211, lower boundary line, 213, right boundary line, 215, lower boundary line, 217, solid object candidate, 219, opposing surface, 221, vertical surface, 223, outer periphery

Claims (2)

第1の撮像素子(103)で撮像した第1の画像、及び第2の撮像素子(105)で撮像した第2の画像を取得する画像取得ユニット(3)と、
前記第1の画像と前記第2の画像との間で生じる視差に基づき、立体物候補を抽出する
立体物候補抽出ユニット(5)と、
前記立体物候補の確信度を算出する確信度算出ユニット(7)と、
前記確信度が所定の閾値以上である前記立体物候補を立体物として認識する立体物認識ユニット(9)と、
を備える立体物認識装置(1)であって、
前記確信度算出ユニットは、以下の(a)〜(o)から選択される1以上の条件を充足するとともに、以下の(p)の条件を充足するように、前記確信度を算出することを特徴とする立体物認識装置。
(a)前記立体物候補内で前記視差のばらつきが小さいほど、前記確信度が高い。
(b)前記視差が大きいほど、前記確信度が高い。
(c)前記立体物候補内で色のばらつきが小さいほど、前記確信度が高い。
(d)前記立体物候補の高さが大きいほど、前記確信度が高い。
(e)前記立体物候補における対向面と鉛直面との角度が小さいほど、前記確信度が高い。
h)天候が雨天である場合、雨天以外の場合よりも前記確信度が低い。
(i)昼間である場合、夜間である場合よりも前記確信度が高い。
(j)照度が高いほど、前記確信度が高い。
(k)前記第1の撮像素子及び前記第2の撮像素子のシャッタースピードが速いほど、前記確信度が高い。
(l)自車両の操舵角が小さいほど、前記確信度が高い。
(m)自車両の速度が所定の閾値以上であり、且つ前記立体物候補が路側に存在する場合、それ以外の場合より、前記確信度が低い。
(n)前記第1の撮像素子及び前記第2の撮像素子の温度が低いほど、前記確信度が高い。
(o)前記第1の撮像素子及び前記第2の撮像素子の信号増幅率が低いほど、前記確信度が高い。
(p)前記立体物候補が、同一形状又は相似形状の物体が複数配列したものである場合、それ以外の場合より前記確信度が低い。
An image acquisition unit (3) for acquiring a first image captured by the first image sensor (103) and a second image captured by the second image sensor (105);
A three-dimensional object candidate extraction unit (5) for extracting a three-dimensional object candidate based on a parallax generated between the first image and the second image;
A certainty factor calculation unit (7) for calculating the certainty factor of the three-dimensional object candidate;
A three-dimensional object recognition unit (9) for recognizing the three-dimensional object candidate having the certainty factor equal to or higher than a predetermined threshold as a three-dimensional object;
A three-dimensional object recognition device (1) comprising:
The certainty factor calculation unit calculates the certainty factor so as to satisfy one or more conditions selected from the following (a) to (o) and satisfy the following condition (p): A three-dimensional object recognition device.
(A) The smaller the variation in the parallax within the three-dimensional object candidate, the higher the certainty factor.
(B) The greater the parallax, the higher the certainty factor.
(C) The degree of certainty is higher as the color variation in the three-dimensional object candidate is smaller.
(D) The higher the solid object candidate is, the higher the certainty factor is.
(E) The degree of certainty is higher as the angle between the opposing surface and the vertical surface in the three-dimensional object candidate is smaller.
( H) The reliability is lower when the weather is rainy than when it is not rainy.
(I) The reliability is higher in the daytime than in the nighttime.
(J) The higher the illuminance, the higher the certainty factor.
(K) The higher the shutter speed of the first image sensor and the second image sensor, the higher the certainty factor.
(L) The certainty factor is higher as the steering angle of the host vehicle is smaller.
(M) When the speed of the host vehicle is equal to or higher than a predetermined threshold and the three-dimensional object candidate exists on the road side, the certainty factor is lower than in other cases.
(N) The certainty factor is higher as the temperatures of the first image sensor and the second image sensor are lower.
(O) The lower the signal amplification factor of the first image sensor and the second image sensor, the higher the certainty factor.
(P) When the solid object candidate is an array of a plurality of objects having the same shape or similar shapes, the certainty factor is lower than in other cases.
請求項1記載の立体物認識装置であって、
前記立体物が車両であることを特徴とする立体物認識装置。
The three-dimensional object recognition device according to claim 1,
The three-dimensional object recognition apparatus, wherein the three-dimensional object is a vehicle.
JP2014150673A 2014-07-24 2014-07-24 3D object recognition device Active JP6453571B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014150673A JP6453571B2 (en) 2014-07-24 2014-07-24 3D object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014150673A JP6453571B2 (en) 2014-07-24 2014-07-24 3D object recognition device

Publications (2)

Publication Number Publication Date
JP2016024160A JP2016024160A (en) 2016-02-08
JP6453571B2 true JP6453571B2 (en) 2019-01-16

Family

ID=55271009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014150673A Active JP6453571B2 (en) 2014-07-24 2014-07-24 3D object recognition device

Country Status (1)

Country Link
JP (1) JP6453571B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6702148B2 (en) 2016-11-11 2020-05-27 株式会社デンソー 3D object recognition device

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3348939B2 (en) * 1993-11-26 2002-11-20 富士重工業株式会社 Vehicle distance detection device
JP3829511B2 (en) * 1998-12-18 2006-10-04 日産自動車株式会社 Driving control device for automobile
JP3669205B2 (en) * 1999-05-17 2005-07-06 日産自動車株式会社 Obstacle recognition device
JP3855812B2 (en) * 2002-03-15 2006-12-13 ソニー株式会社 Distance measuring method, apparatus thereof, program thereof, recording medium thereof, and robot apparatus mounted with distance measuring apparatus
US7769227B2 (en) * 2004-09-15 2010-08-03 Panasonic Corporation Object detector
JP4830822B2 (en) * 2005-12-07 2011-12-07 日産自動車株式会社 Object detection apparatus and object detection method
JP5127182B2 (en) * 2006-08-14 2013-01-23 富士重工業株式会社 Object detection device
JP5156571B2 (en) * 2008-10-10 2013-03-06 キヤノン株式会社 Image processing apparatus and image processing method
JP2011114524A (en) * 2009-11-26 2011-06-09 Renesas Electronics Corp Semiconductor integrated circuit and operating method thereof
JP5325800B2 (en) * 2010-01-25 2013-10-23 シャープ株式会社 Image processing device, image photographing device, image display device, and program
JP2011180962A (en) * 2010-03-03 2011-09-15 Panasonic Corp Drive assist device, drive assist method and program
JP5423566B2 (en) * 2010-04-28 2014-02-19 富士通株式会社 Object detection device, object detection method, and program
JP2011249948A (en) * 2010-05-25 2011-12-08 Panasonic Corp Stereo image processing apparatus, image processing method, and program
US8983121B2 (en) * 2010-10-27 2015-03-17 Samsung Techwin Co., Ltd. Image processing apparatus and method thereof
JP2013003787A (en) * 2011-06-15 2013-01-07 Panasonic Corp Object detection device
WO2013128764A1 (en) * 2012-03-01 2013-09-06 オリンパスメディカルシステムズ株式会社 Medical system
JP2013186042A (en) * 2012-03-09 2013-09-19 Hitachi Automotive Systems Ltd Distance calculating device and distance calculating method
JP2013191072A (en) * 2012-03-14 2013-09-26 Hitachi Automotive Systems Ltd Object detection device
JP5820774B2 (en) * 2012-06-21 2015-11-24 株式会社豊田中央研究所 Road boundary estimation apparatus and program
BR112015001745B1 (en) * 2012-07-27 2021-11-23 Nissan Motor Co., Ltd THREE-DIMENSIONAL OBJECT DETECTION DEVICE AND THREE-DIMENSIONAL OBJECT DETECTION METHOD

Also Published As

Publication number Publication date
JP2016024160A (en) 2016-02-08

Similar Documents

Publication Publication Date Title
US10262216B2 (en) Hazard detection from a camera in a scene with moving shadows
JP5127182B2 (en) Object detection device
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
US20120207348A1 (en) Vehicle detection apparatus
JP6457278B2 (en) Object detection apparatus and object detection method
US9697421B2 (en) Stereoscopic camera apparatus
US20150262365A1 (en) Image processing device and image processing method
JP5894201B2 (en) Boundary line recognition device
JP5065172B2 (en) Vehicle lighting determination device and program
WO2018116841A1 (en) Object detection device
WO2011086807A1 (en) Vehicle periphery monitoring device
US20140002655A1 (en) Lane departure warning system and lane departure warning method
JP6601506B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, image processing program, and vehicle
US20190145768A1 (en) Object Distance Detection Device
JP6426512B2 (en) Driving lane recognition system
JP6453571B2 (en) 3D object recognition device
JP6174960B2 (en) Outside environment recognition device
JP6993205B2 (en) Compartment line identification device
JP2020126304A (en) Out-of-vehicle object detection apparatus
JP4627305B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, and vehicle periphery monitoring program
JP2019114150A (en) Extravehicular environment recognition device
JP6378547B2 (en) Outside environment recognition device
JP6329442B2 (en) Outside environment recognition device
WO2019013253A1 (en) Detection device
JP5822866B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181213

R150 Certificate of patent or registration of utility model

Ref document number: 6453571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250