JP6317986B2 - Object recognition device - Google Patents
Object recognition device Download PDFInfo
- Publication number
- JP6317986B2 JP6317986B2 JP2014084543A JP2014084543A JP6317986B2 JP 6317986 B2 JP6317986 B2 JP 6317986B2 JP 2014084543 A JP2014084543 A JP 2014084543A JP 2014084543 A JP2014084543 A JP 2014084543A JP 6317986 B2 JP6317986 B2 JP 6317986B2
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- recognition
- recognized
- takeover
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、移動体の周囲に存在する物体を認識する物体認識装置に関する。 The present invention relates to an object recognition device that recognizes an object existing around a moving body.
特許文献1は、撮像手段による瞬間的に不安定な検出結果によりフュージョン物標の大きさ情報を適正に取得できない場合であっても、その影響を極力受けることなくフュージョン物標を更新することを課題としている([0006]、要約)。 Japanese Patent Laid-Open No. 2004-133867 discloses that even if the size information of the fusion target cannot be acquired properly due to the instantaneously unstable detection result by the imaging means, the fusion target is updated without being affected as much as possible. It is an issue ([0006], summary).
当該課題を解決するため、特許文献1では、生成されたフュージョン物標FPの更新時に、レーダ物標MPは検出できたが、撮像手段では瞬間的な画像ロスト(未検出)を生じて大きさ情報を適正に取得できなくても、撮像手段の検出結果に誤りがあり前回の検出物体が存在すると推定する。そして、大きさ情報が過去に取得したフュージョン物標FPの大きさ情報に基づく推定により補間された補間画像物標LIP1〜LIP4を用いて画像ロストフュージョン物標LFP1〜LFP4を生成してフュージョン物標FPを更新する(要約)。
In order to solve the problem, in
また、特許文献1では、画像ロストが生じる場合として、ミリ波レーダ2の検出結果が誤っており現実に物体が存在しなくなってしまった場合に加え、例えば、光の当り具合(夕日、影等)の影響によって、ステレオカメラ3側で瞬間的に画像検出物をロスト(未検出)してしまう場合を想定している([0032])。
Also, in
特許文献1では、画像ロストが発生した場合でも、画像ロストフュージョン物標LFP1〜LFP4を生成することにより大きさ情報を用いることが可能となる。しかしながら、特許文献1の技術には改善の余地がある。
In
例えば、特許文献1では、フュージョン物標FPの大きさ情報を特定しているが、フュージョン物標FPの種類については特定しておらず、画像ロストが生じた際に「種類」を引き継ぐことについては検討されていない。
For example, in
本発明は上記のような課題を考慮してなされたものであり、移動体の周囲に存在する物体の属性を好適に認識することが可能な物体認識装置を提供することを目的とする。
The present invention has been made in consideration of the above-described problems, and an object of the present invention is to provide an object recognition apparatus capable of suitably recognizing attributes of an object existing around a moving body.
本発明に係る物体認識装置は、第1物体からの電磁波の反射に基づいて前記第1物体の位置を認識する第1認識手段と、撮像画像内に存在する第2物体の位置及び属性を認識する第2認識手段と、前記第1認識手段で認識された前記第1物体の位置及び前記第2認識手段で認識された前記第2物体の位置が一致する又は所定距離内にあるときに同一の対象物体であると判定するマッチング手段とを備え、移動体に搭載されるものであって、
前記マッチング手段により前記同一の対象物体であると判定される前記第1物体と前記第2物体の組み合わせが認識された後、前記第2物体が認識されなくなった場合、前記第2物体の属性を引き継ぐか否かを判定する引継ぎ判定手段をさらに備え、
前記引継ぎ判定手段は、前記第2物体が認識されなくなってからの不認識時間が所定の引継ぎ許可閾値を下回ることを少なくとも条件の1つとして、前記第2物体の属性を引き継ぐ
ことを特徴とする。
An object recognition apparatus according to the present invention recognizes first recognition means for recognizing the position of the first object based on reflection of electromagnetic waves from the first object, and recognition of the position and attribute of the second object present in the captured image. The second recognizing means, and the same position when the position of the first object recognized by the first recognizing means and the position of the second object recognized by the second recognizing means match or are within a predetermined distance. And a matching means for determining that the target object is mounted on a moving body,
When the second object is not recognized after the combination of the first object and the second object determined to be the same target object by the matching unit is recognized, the attribute of the second object is set. It further comprises takeover determining means for determining whether to take over,
The takeover determining means takes over the attribute of the second object on at least one of the conditions that the non-recognition time after the second object is no longer recognized is below a predetermined takeover permission threshold. .
本発明によれば、対象物体の属性の認識に用いる第2物体が認識されなくなってからの不認識時間が所定の引継ぎ許可閾値を下回ることを少なくとも条件の1つとして、第2物体の属性を引き継ぐ。このため、第2物体の属性を引き継ぐべきか否かを適切に判定し、対象物体の属性の判定精度を高めることが可能となる。
According to the present invention, as one non-recognition time is at least provided that below a predetermined takeover permission threshold from no longer being recognized second object to be used for recognition of the attributes of the object, the attribute of the second object take over. For this reason, it is possible to appropriately determine whether or not to inherit the attribute of the second object, and to increase the accuracy of determining the attribute of the target object.
前記引継ぎ判定手段は、前記マッチング手段により前記同一の対象物体であると判定される前記第1物体と前記第2物体の組み合わせが認識された後、前記移動体から前記対象物体までの距離が、所定の距離閾値より短くなったことを追加条件として、前記第2物体の属性を引き継ぐか否かを判定してもよい。このため、光の当り具合(夕日、影等)の影響によって対象物体を瞬間的に検出できなかった場合の処理と比較して、比較的長い時間、対象物体の属性を認識し続けることが可能となる。
The takeover determining means recognizes the distance from the moving body to the target object after the combination of the first object and the second object determined to be the same target object by the matching means is recognized. It may be determined whether or not the attribute of the second object is taken over as an additional condition that the distance is shorter than a predetermined distance threshold. For this reason, it is possible to continue to recognize the attributes of the target object for a relatively long time compared to the processing when the target object cannot be detected instantaneously due to the influence of the lighting condition (sunset, shadow, etc.) It becomes.
また、対象物体が、移動体との距離閾値を超えるほど移動体に接近していなければ、第2物体の属性を引き継ぐか否かの判定を行わないことが可能となる。従って、当該引継ぎについての判定を行う場面を限定することで、物体認識装置における演算負荷を軽減することが可能となる。
Further, if the target object is not so close to the moving body that it exceeds the distance threshold with the moving body, it is possible to determine whether or not to inherit the attribute of the second object. Therefore, it is possible to reduce the calculation load in the object recognition apparatus by limiting the scenes where the determination about the takeover is performed.
前記引継ぎ判定手段は、前記移動体から前記対象物体までの距離が前記距離閾値より短いか否かを、前記第1認識手段で認識された前記第1物体の位置を用いて判定してもよい。これにより、撮像画像ではなく、電磁波の反射を用いて、移動体から対象物体までの距離が短すぎるか否かを判定することが可能となる。このため、第2認識手段よりも第1認識手段の方が位置の認識精度が高い場合、移動体から対象物体までの距離を高精度に認識することが可能となる。
Before Ki引 splicing determination means, wherein the distance to the target object whether shorter than the distance threshold, it is determined using a recognized position of the first object in the first recognition means from the mobile Also good. Thereby, it is possible to determine whether the distance from the moving body to the target object is too short by using the reflection of the electromagnetic wave instead of the captured image. For this reason, when the position recognition accuracy of the first recognition unit is higher than that of the second recognition unit, the distance from the moving body to the target object can be recognized with high accuracy.
前記引継ぎ判定手段は、前記第2物体が認識されなくなる前に前記マッチング手段が前記第1物体と前記第2物体とが前記同一の対象物体であると判定した継続時間に基づいて前記引継ぎ許可閾値を変化させてもよい。前記継続時間は、対象物体の属性の認識精度に影響する。このため、前記継続時間に応じて引継ぎ許可閾値を変化させることで、対象物体の属性の判定精度を高めることが可能となる。
The takeover determining means determines the takeover permission threshold based on a duration time that the matching means determines that the first object and the second object are the same target object before the second object is not recognized. May be changed. The duration time affects the recognition accuracy of the attribute of the target object. For this reason, it becomes possible to improve the determination accuracy of the attribute of the target object by changing the takeover permission threshold according to the duration.
前記引継ぎ判定手段は、前記移動体の移動速度又は前記移動体と前記対象物体の相対速度に基づいて前記引継ぎ許可閾値を変化させてもよい。移動体の移動速度又は移動体と対象物体の相対速度は、対象物体の属性の認識精度に影響する。このため、移動速度又は相対速度に応じて引継ぎ許可閾値を変化させることで、対象物体の属性の判定精度を高めることが可能となる。
The takeover determining means may change the takeover permission threshold based on a moving speed of the moving body or a relative speed of the moving body and the target object. The moving speed of the moving body or the relative speed between the moving body and the target object affects the recognition accuracy of the attribute of the target object. For this reason, it is possible to improve the determination accuracy of the attribute of the target object by changing the takeover permission threshold according to the moving speed or the relative speed.
前記引継ぎ判定手段は、前記第1認識手段で認識された前記第1物体の個数に基づいて前記引継ぎ許可閾値を変化させてもよい。第1認識手段で認識された第1物体の個数は、対象物体の属性の認識精度に影響する。このため、第1物体の個数に応じて引継ぎ許可閾値を変化させることで、対象物体の属性の判定精度を高めることが可能となる。
The takeover determining means may change the takeover permission threshold based on the number of the first objects recognized by the first recognizing means. The number of first objects recognized by the first recognition means affects the recognition accuracy of the attribute of the target object. For this reason, it is possible to increase the determination accuracy of the attribute of the target object by changing the takeover permission threshold according to the number of first objects.
前記引継ぎ判定手段は、前記第1物体からの前記電磁波の反射レベルの変化に基づき、前記対象物体の属性の引継ぎを禁止してもよい。第1物体からの電磁波の反射レベルの変化は、対象物体の属性の認識精度に影響する。このため、前記反射レベルの変化に応じて引継ぎを禁止することで、対象物体の属性の判定精度を高めることが可能となる。
The takeover determining means may prohibit taking over the attribute of the target object based on a change in the reflection level of the electromagnetic wave from the first object. The change in the reflection level of the electromagnetic wave from the first object affects the recognition accuracy of the attribute of the target object. For this reason, it is possible to improve the determination accuracy of the attribute of the target object by prohibiting the takeover according to the change in the reflection level.
本発明によれば、移動体の周囲に存在する物体の属性を好適に認識することが可能となる。
According to the present invention, it is possible to appropriately recognize the attributes of an object existing around a moving body.
A.一実施形態
A1.構成
[A1−1.全体構成]
図1は、本発明の一実施形態に係る物体認識装置12を搭載した車両10(以下「自車10」ともいう。)の構成を示すブロック図である。車両10は、物体認識装置12に加え、車両挙動安定システム14(以下「VSAシステム14」という。)、電動パワーステアリングシステム16(以下「EPSシステム16」という。)、ポップアップフードシステム18(以下「PUHシステム18」という。)及び車速センサ20を有する。
A. Embodiment A1. Configuration [A1-1. overall structure]
FIG. 1 is a block diagram showing a configuration of a vehicle 10 (hereinafter also referred to as “
物体認識装置12は、自車10の周囲に現れる各種の物体100(例えば、他車、歩行者、壁)を検出する。そして、物体認識装置12は、物体100(以下「検出物体100」ともいう。)のうち自車10の制御に関連するものを対象物体100tar(以下「物体100tar」ともいう。)として選択又は特定する。物体認識装置12は、自車10から対象物体100tarまでの距離Lを算出すると共に、対象物体100tarの属性Prtarを判別する。ここでの属性Prtarには、例えば、対象物体100tarの種類Ca(例えば、車両、歩行者(ヒト)又は壁)、大きさ等が含まれる。
The
VSAシステム14の電子制御装置30(以下「VSA ECU30」という。)は、車両挙動安定化制御を実行するものであり、図示しないブレーキシステム等の制御を介してカーブ路の旋回時、自車10に対する他車の接近時等における車両10の挙動を安定化させる。
An electronic control unit 30 (hereinafter referred to as “
EPSシステム16の電子制御装置32(以下「EPS ECU32」という。)は、操舵アシスト制御を実行するものであり、電動パワーステアリング装置の構成要素{電動モータ、トルクセンサ及び舵角センサ(いずれも図示せず)等}の制御を介して運転者による操舵をアシストする。
An electronic control device 32 (hereinafter referred to as “
PUHシステム18の電子制御装置34(以下「PUH ECU34」という。)は、車両10が歩行者102(図7〜図9)との衝突事故に遭った場合、車両10のポップアップフード(図示せず)を跳ね上げ、歩行者102の頭部が車体に当たったときの衝撃を和らげる。
The electronic control device 34 (hereinafter referred to as “
車速センサ20は、車両10の車速V[km/h]を検出して物体認識装置12等に出力する。
The
[A1−2.物体認識装置12]
図1に示すように、物体認識装置12は、レーダ40、カメラ42及び物体認識電子制御装置44(以下「物体認識ECU44」又は「ECU44」という。)を有する。
[A1-2. Object recognition device 12]
As shown in FIG. 1, the
(A1−2−1.レーダ40)
レーダ40は、電磁波(ここではミリ波)である送信波Wtを車両10の外部に出力し、送信波Wtのうち検出物体100(例えば、他車、歩行者102)に反射して戻って来る反射波Wrを受信する。そして、反射波Wrに対応する検出信号(以下「反射波信号Swr」又は「信号Swr」という。)をECU44に出力する。以下では、レーダ40が検出した検出物体100を「第1物体100r」又は「レーダ物標100r」ともいう。
(A1-2-1. Radar 40)
The
レーダ40は、車両10の前側(例えば、フロントバンパ及び/又はフロントグリル)に配置される。前側に加えて又は前側に代えて、車両10の後ろ側(例えば、リアバンパ及び/又はリアグリル)又は側方(例えば、フロントバンパの側方)に配置してもよい。
The
また、後述するように、ミリ波を出力するレーダ40の代わりに、レーザレーダ、超音波センサ等のセンサを用いることもできる。
As will be described later, a sensor such as a laser radar or an ultrasonic sensor can be used instead of the
(A1−2−2.カメラ42)
カメラ42(撮像手段)は、車両10の周囲(対象物体100tarを含む。)の画像200(以下「周辺画像200」又は「撮像画像200」ともいう。)(図8及び図9)を取得する。そして、画像200に対応する信号(以下「画像信号Si」又は「信号Si」という。)をECU44に出力する。以下では、カメラ42が検出した検出物体100を「第2物体100c」又は「カメラ物標100c」ともいう。
(A1-2-2. Camera 42)
The camera 42 (imaging means) acquires an image 200 (hereinafter also referred to as “
本実施形態では、1つのカメラ42を用いるが、2つのカメラ42を左右対称に配置させてステレオカメラを構成してもよい。カメラ42は、1秒間に15フレーム以上(例えば30フレーム)で画像200を取得する。カメラ42は、主に可視光領域の波長を有する光を利用するモノクロカメラであるが、カラーカメラ又は赤外線カメラであってもよい。カメラ42は、例えば、車両10の車室内の前方部分における車幅方向中心部(例えば、バックミラー周辺)に配置されている。或いは、カメラ42は、車両10の前部バンパー部における車幅方向中心部に配置されてもよい。
In the present embodiment, one
(A1−2−3.物体認識ECU44)
物体認識ECU44は、物体認識装置12の全体を制御するものであり、図1に示すように、入出力部50、演算部52及び記憶部54を有する。
(A1-2-3. Object recognition ECU 44)
The
レーダ40からの反射波信号Swr及びカメラ42からの画像信号Siは、入出力部50を介して物体認識ECU44に供給される。また、物体認識ECU44と、VSA ECU30、EPS ECU32及びPUH ECU34との間の通信は、通信線70及び入出力部50を介して行われる。入出力部50は、入力されたアナログ信号をデジタル信号に変換する図示しないA/D変換回路を備える。
The reflected wave signal Swr from the
演算部52は、レーダ40及びカメラ42からの各信号Swr、Siに基づく演算を行い、演算結果に基づき、VSA ECU30、EPS ECU32及びPUH ECU34に対する信号を生成する。
The
図1に示すように、演算部52は、レーダ情報処理部60(第1認識手段)、カメラ情報処理部62(第2認識手段)及び対象物体情報処理部64(マッチング手段)を有する。各処理部60、62、64は、記憶部54に記憶されているプログラムを実行することにより実現される。前記プログラムは、図示しない無線通信装置(携帯電話機、スマートフォン等)を介して外部から供給されてもよい。前記プログラムの一部をハードウェア(回路部品)で構成することもできる。
As shown in FIG. 1, the
レーダ情報処理部60は、レーダ40が検出した反射波Wr(反射波信号Swr)に基づいて検出物体100(第1物体100r)の情報(以下「レーダ情報Ir」、「第1物体情報Ir」又は「情報Ir」という。)を算出する。カメラ情報処理部62は、カメラ42が取得した周辺画像200(図8及び図9参照)を用いて検出物体100(第2物体100c)の情報(以下「カメラ情報Ic」、「第2物体情報Ic」又は「情報Ic」という。)を算出する。
The radar
対象物体情報処理部64は、レーダ情報処理部60が算出したレーダ情報Irと、カメラ情報処理部62が算出したカメラ情報Icとを組み合わせた情報(以下「対象物体情報It」又は「情報It」という。)を算出する。換言すると、処理部64は、いわゆるフュージョン処理を行う。情報Itは、レーダ40が検出した検出物体100(第1物体100r)と、カメラ42が検出した検出物体100(第2物体100c)とに基づいて特定する対象物体100tarの情報である。処理部64は、対象物体100tarの属性Prtarを判定する属性判定制御の一部を実行する属性判定部66(属性引継ぎ判定手段)を備える。
The target object
記憶部54は、デジタル信号に変換された撮像信号、各種演算処理に供される一時データ等を記憶するRAM(Random Access Memory)、及び実行プログラム、テーブル又はマップ等を記憶するROM(Read Only Memory)等で構成される。
The
A2.制御
[A2−1.制御の概要]
本実施形態では、物体認識装置12(物体認識ECU44)で検出又は認識した対象物体情報It(対象物体100tarの位置Potar、速度Vtar、加速度atar、属性Prtar等)をVSA ECU30、EPS ECU32及びPUH ECU34に出力する。各ECU30、32、34は、対象物体情報Itを用いて制御を行う。VSA ECU30は、例えば、情報Itを用いて自動ブレーキ制御を実行する。EPS ECU32は、例えば、情報Itを用いて自動ステアリング制御を実行する。PUH ECU34は、情報Itを用いてPUH制御を実行する。
A2. Control [A2-1. Overview of control]
In the present embodiment, the target object information It (position Potar, speed Vtar, acceleration atar, attribute Prtar, etc. of the target object 100tar) detected or recognized by the object recognition device 12 (object recognition ECU 44) is used as the
[A2−2.属性判定制御]
(A2−2−1.属性判定制御の全体的な流れ)
図2及び図3は、本実施形態における属性判定制御の第1及び第2フローチャートである。属性判定制御は、物体認識ECU44の演算部52(処理部60、62、64)が実行する。演算部52は、図2及び図3に示す処理を所定の演算周期(例えば、数μsec〜数百msecのいずれかの周期)で繰り返す。
[A2-2. Attribute judgment control]
(A2-2-1. Overall flow of attribute determination control)
2 and 3 are first and second flowcharts of attribute determination control in the present embodiment. The attribute determination control is executed by the calculation unit 52 (
ステップS1において、ECU44(レーダ情報処理部60)は、レーダ40からの反射波信号Swrに基づいて、検出物体100(第1物体100r)のレーダ情報Irを算出する。レーダ情報Irには、第1物体100rの位置Por、速度Vr、加速度ar等が含まれる。なお、レーダ40の検出範囲内に複数の第1物体100rが存在する場合、ECU44は、各第1物体100rについて位置Por、速度Vr、加速度ar等を算出する。
In step S1, the ECU 44 (radar information processing unit 60) calculates radar information Ir of the detected object 100 (first object 100r) based on the reflected wave signal Swr from the
ステップS2において、ECU44(カメラ情報処理部62)は、カメラ42の画像信号Si(撮像画像200)に基づいて、検出物体100(第2物体100c)のカメラ情報Icを算出する。カメラ情報Icには、第2物体100cの位置Poc、横方向速度Vlc、加速度ac、属性Prc等が含まれる。また、属性Prcとしては、第2物体100cの種類Ca(歩行者、車両等)、大きさ等が含まれる。また、撮像画像200内に複数の第2物体100cが存在する場合、ECU44は、各第2物体100cについて位置Poc、横方向速度Vlc、加速度ac、属性Prc等を算出する。なお、第2物体100cが車両10に近づき過ぎた場合、ECU44は、属性Prcを算出できなくなる(詳細は後述する。)。
In step S2, the ECU 44 (camera information processing unit 62) calculates camera information Ic of the detected object 100 (second object 100c) based on the image signal Si (captured image 200) of the
ステップS3において、ECU44(対象物体情報処理部64)は、レーダ情報Ir(レーダ物標100r)とカメラ情報Ic(カメラ物標100c)をマッチングするマッチング判断を行う。マッチング判断では、レーダ情報処理部60で認識された第1物体100rの位置Por及びカメラ情報処理部62で認識された第2物体100cの位置Pocが一致する又は所定距離内にあるときに同一の対象物体100tarであると判定する。
In step S3, the ECU 44 (target object information processing unit 64) performs a matching determination for matching the radar information Ir (radar target 100r) and the camera information Ic (camera target 100c). The matching determination is the same when the position Por of the first object 100r recognized by the radar
なお、マッチング相手としてのカメラ情報Ic(カメラ物標100c)が存在しないレーダ情報Ir(レーダ物標100r)がある場合、当該レーダ情報Irは、前回の演算周期で算出した対象物体情報It(対象物体100tar)と紐付けされる。この場合、前回の演算周期におけるレーダ物標100r(又は対象物体100tar)の移動方向及び速度に基づいて、現時点におけるレーダ物標100r(又は対象物体100tar)の推定位置を算出する。そして、今回の演算周期で認識されているレーダ物標100rの中から最も当該推定位置に近いものを、前回の演算周期で算出した対象物体100tarと紐付ける。
When there is radar information Ir (radar target 100r) for which there is no camera information Ic (camera target 100c) as a matching partner, the radar information Ir is the target object information It (target It is associated with the
ステップS4〜S18は、ECU44の属性判定部66が行う。すなわち、ステップS4において、ECU44は、前後方向(進行方向)における対象物体100tarが、画像不認識領域154(図7)内にあるか否かを判定する。画像不認識領域154は、歩行者102が撮像画像200の撮影範囲又は画角内に収まりきらなくなる領域を意味する。本実施形態では、歩行者102の大きさを固定値(設計値)として画像不認識領域154を設定する。このため、対象物体100tarが、画像不認識領域154内にあるか否かの判定は、レーダ40からの反射波信号Swrに基づいて算出した第1物体100rの位置Porを用いて行う。換言すると、ステップS4の判定は、第1物体100rが画像不認識領域154内にあるか否かの判定であり、レーダ情報Ir(位置Por)に基づいて行われる。
Steps S4 to S18 are performed by the
対象物体100tarが画像不認識領域154内にない場合(S4:NO)、ステップS5において、ECU44は、属性情報継続時間Tpc(以下「継続時間Tpc」又は「時間Tpc」ともいう。)を更新する。具体的には、時間Tpcの前回値に1を足して時間Tpcの今回値とする。
When the target object 100tar is not in the image non-recognition area 154 (S4: NO), in step S5, the
時間Tpcは、カメラ情報処理部62において第2物体100cの属性Prcが認識され続けている時間(換言すると、演算周期の回数)を意味する。換言すると、時間Tpcは、第2物体100cが認識されなくなる前に対象物体情報処理部64(マッチング手段)が第1物体100rと第2物体100cとが同一の対象物体100tarであると判定した継続時間である。このため、カメラ情報処理部62において第2物体100cの属性Prcを認識できなくなると、時間Tpcはリセットされることとなる(後述する図3のS15)。
The time Tpc means a time during which the camera
続くステップS6において、ECU44は、属性不認識時間Tpn(以下「不認識時間Tpn」又は「時間Tpn」ともいう。)をリセットする。時間Tpnは、カメラ情報処理部62において第2物体100cの属性Prcが認識できていない時間(換言すると、演算周期の回数)を意味する。時間Tpnは、特に、図3のステップS9、S14で用いる。
In subsequent step S6, the
ステップS7において、ECU44は、ステップS2で算出した属性Prc(すなわち、撮像画像200に基づく属性Prc)を対象物体100tarの属性Prtarとしてそのまま利用する。
In step S7, the
ステップS4に戻り、対象物体100tarが画像不認識領域154内にある場合(S4:YES)、ステップS8に進む。ステップS8において、ECU44は、撮像画像200に基づき対象物体100tarの属性Prtarが認識できているか否かを判定する。当該判定は、対象物体100tarの属性Prtarが認識できているか又は第2物体100cの属性Prcが認識できているかに基づいて行うことができる。
Returning to step S4, when the target object 100tar is in the image non-recognition region 154 (S4: YES), the process proceeds to step S8. In step S <b> 8, the
属性Prtarが認識できている場合(S8:YES)、上記と同様に、ステップS5〜S7を実行する。属性Prtarが認識できていない場合(S8:NO)、図3のステップS9において、ECU44は、属性不認識時間Tpnを更新する。具体的には、時間Tpnの前回値に1を足して時間Tpnの今回値とする。
If the attribute Prtar is recognized (S8: YES), steps S5 to S7 are executed in the same manner as described above. If the attribute Prtar is not recognized (S8: NO), the
ステップS10〜S12では、異なる設定指標に基づく複数の属性引継ぎ許可閾値Tpaの候補(仮属性引継ぎ許可閾値Tpa_p1〜Tpa_p3)を算出する。そして、ステップS13において、仮属性引継ぎ許可閾値Tpa_p1〜Tpa_p3の中から属性引継ぎ許可閾値Tpaを選択する。 In Steps S10 to S12, a plurality of attribute takeover permission threshold Tpa candidates (temporary attribute takeover permission thresholds Tpa_p1 to Tpa_p3) based on different setting indexes are calculated. In step S13, an attribute takeover permission threshold Tpa is selected from the temporary attribute takeover permission thresholds Tpa_p1 to Tpa_p3.
具体的には、ステップS10において、ECU44は、直近(過去)の属性情報継続時間Tpcに基づいて仮属性引継ぎ許可閾値Tpa_p1を算出する。
Specifically, in step S10, the
図4は、直近(過去)の属性情報継続時間Tpcと仮属性引継ぎ許可閾値Tpa_p1との関係を示す図である。図4に示すように、属性情報継続時間TpcがTpc1未満である場合、閾値Tpa_p1をゼロに設定する。時間TpcがTpc1以上且つTpc2未満である場合、閾値Tpa_p1を徐々に増加するように設定する。時間TpcがTpc2以上である場合、閾値Tpa_p1を最大値Tpa1_maxで一定にする。 FIG. 4 is a diagram showing a relationship between the latest (past) attribute information duration Tpc and the temporary attribute takeover permission threshold Tpa_p1. As shown in FIG. 4, when the attribute information duration Tpc is less than Tpc1, the threshold value Tpa_p1 is set to zero. When the time Tpc is equal to or greater than Tpc1 and less than Tpc2, the threshold value Tpa_p1 is set to gradually increase. When the time Tpc is equal to or longer than Tpc2, the threshold value Tpa_p1 is made constant at the maximum value Tpa1_max.
図3に戻り、続くステップS11において、ECU44は、自車10と対象物体100tarの相対速度Vrelに基づいて仮属性引継ぎ許可閾値Tpa_p2を算出する。
Returning to FIG. 3, in the subsequent step S11, the
図5は、車両10と対象物体100tarの相対速度Vrelと仮属性引継ぎ許可閾値Tpa_p2との関係を示す図である。図5に示すように、相対速度VrelがVrel1未満である場合、閾値Tpa_p2を最大値Tpa2_maxで一定にする。相対速度VrelがVrel1以上且つVrel2未満である場合、閾値Tpa_p2を徐々に減少するように設定する。相対速度VrelがVrel2以上である場合、閾値Tpa_p2を最小値Tpa2_minで一定にする。
FIG. 5 is a diagram illustrating a relationship between the relative speed Vrel between the
図3に戻り、続くステップS12において、ECU44は、画像不認識領域154内に存在する第1物体100rの個数Nrに基づいて仮属性引継ぎ許可閾値Tpa_p3を算出する。
Returning to FIG. 3, in the subsequent step S12, the
図6は、画像不認識領域154内に存在する第1物体100rの個数Nrと仮属性引継ぎ許可閾値Tpa_p3との関係を示す図である。図6に示すように、個数NrがNr1未満である場合、閾値Tpa_p3を最大値Tpa3_maxで一定にする。個数NrがNr1以上且つNr2未満である場合、閾値Tpa_p3を徐々に減少するように設定する。個数NrがNr2以上である場合、閾値Tpa_p3を最小値Tpa3_minで一定にする。
FIG. 6 is a diagram showing the relationship between the number Nr of the first objects 100r existing in the
図3に戻り、続くステップS13において、ECU44は、閾値Tpa_p1〜Tpa_p3のうち最小値を属性引継ぎ許可閾値Tpaとして設定する。後述するように、最小値以外を許可閾値Tpaとして設定してもよい。
Returning to FIG. 3, in the following step S13, the
ステップS14において、ECU44は、ステップS9で更新した属性不認識時間Tpnが、ステップS13で設定した許可閾値Tpa以下であるか否かを判定する。時間Tpnが閾値Tpa以下でない場合(S14:NO)、ステップS15において、ECU44は、属性情報継続時間Tpcをリセットする。これにより、次の演算周期で図2のステップS5に到達した場合、継続時間Tpcはゼロから開始する。
In step S14, the
続くステップS16において、ECU44は、対象物体100tarの属性Prtarが判定不可であると判定する。換言すると、ECU44は、属性Prtarを引き継がないと判定する。
In subsequent step S16, the
ステップS14に戻り、属性不認識時間Tpnが許可閾値Tpa以下である場合(S14:YES)、ステップS17において、ECU44は、第1物体100rからの反射波Wrの反射レベルLrの変化が大きいか否かを判定する。具体的には、ECU44は、反射レベルLrの現在値と反射レベルLrの平均値Lr_aveとの差ΔLrの絶対値|ΔLr|が閾値THΔLr(以下「反射レベル閾値THΔLr」ともいう。)以下であるか否かを判定する。閾値THΔLrは、例えば、同じ物体であればあり得ない程の差ΔLrを示す値として設定され、実験値又はシミュレーション値を用いることができる。
Returning to step S14, when the attribute non-recognition time Tpn is equal to or less than the permission threshold Tpa (S14: YES), in step S17, the
反射レベルLrの変化が大きい場合(S17:YES)、ステップS16に進み、ECU44は、属性Prtarを引き継がず、対象物体100tarの属性Prtarが判定不可であると判定する。反射レベルLrの変化が大きくない場合(S17:NO)、ステップS18に進み、ECU44は、前回の演算周期における対象物体100tarの属性Prtarを引き継ぐ。
When the change in the reflection level Lr is large (S17: YES), the process proceeds to step S16, and the
(A2−2−2.画像不認識領域154)
図7は、第2物体100c又は対象物体100tarとしての歩行者102と車両10との位置関係を示す図である。図8は、カメラ42の撮像画像200の第1例を示す図である。図9は、カメラ42の撮像画像200の第2例を示す図である。
(A2-2-2. Image Unrecognized Area 154)
FIG. 7 is a diagram illustrating a positional relationship between the
図7において、領域150は、カメラ42の撮像可能領域であり、領域152は、画像認識領域であり、領域154は、画像不認識領域である。また、実線の枠160は、反射波信号Swrに基づいて検出された第1物体100rに対応する枠である。破線の枠162は、画像信号Siに基づいて検出された第2物体100cに対応する枠である。
In FIG. 7, an
なお、枠160は、歩行者102が位置Po1、Po2いずれの位置にいる場合でも示されている。一方、枠162は、歩行者102が位置Po1にいる場合のみ示され、位置Po2にいる場合には示されていない。これは、歩行者102が位置Po2にいる場合、撮像画像200による位置Pocが認識できていないことを示している。
Note that the
図7及び図2のステップS4に示すように、本実施形態では、画像不認識領域154を用いる。領域154は、第2物体100cとしての歩行者102が車両10に近づくことにより、ECU44のカメラ情報処理部62(第2認識手段)が撮像画像200中の第2物体100cを歩行者102として認識できなくなる距離(以下「距離Linv」又は「画像不認識距離Linv」という。)よりも手前側の領域を示す。換言すると、距離Linvは、歩行者102が撮像画像200の撮影範囲又は画角内に収まりきらなくなる距離(距離閾値)を意味する。
As shown in step S4 of FIGS. 7 and 2, in this embodiment, an
但し、歩行者102の身長や姿勢によっては、歩行者102が画像不認識領域154内にいても、画像信号Siに基づいて歩行者102(第2物体100c)の属性Prcを認識可能な場合がある。換言すると、距離Linvは、基準値又は設計値としての歩行者102の大きさ・姿勢に基づいて設定される。距離Linvは、カメラ42のレンズの最短撮影距離よりも長い値に設定される。
However, depending on the height and posture of the
図8の場合、歩行者102は、例えば、図7中の位置Po1にいる。この場合、物体認識装置12(ECU44)は、レーダ40の検出値(反射波信号Swr)及びカメラ42の撮像画像200(画像信号Si)のいずれに基づいても歩行者102を検出可能である。
In the case of FIG. 8, the
換言すると、ECU44は、レーダ40からの反射波信号Swrに基づいて歩行者102を第1物体100rとして検出し、カメラ42からの画像信号Siに基づいて歩行者102を第2物体100cとして検出する。このため、対象物体情報処理部64(マッチング手段)により第1物体100rと第2物体100cとのマッチングが可能であり、歩行者102(対象物体100tar)の位置Potar、属性Prtar等が判定可能である。
In other words, the
一方、図9の場合、歩行者102は、例えば、図7中の位置Po2にいる。この場合、物体認識装置12(ECU44)は、レーダ40からの反射波信号Swrに基づいて歩行者102を検出可能であるが、カメラ42の撮像画像200に基づいて歩行者102を検出することができない。このため、基本的には、歩行者102(対象物体100tar)の属性Prtarを判定することができない。
On the other hand, in the case of FIG. 9, the
なお、図2のフローチャートで示したように、対象物体100tarが、画像不認識領域154内に存在しても(S4:YES)、対象物体100tarの属性Prtarが認識可能である場合(S8:YES)、当該属性Prtarを用いる(S7)。 As shown in the flowchart of FIG. 2, even if the target object 100tar exists in the image non-recognition area 154 (S4: YES), the attribute Prtar of the target object 100tar can be recognized (S8: YES). ), The attribute Prtar is used (S7).
上記のように、本実施形態では、図3のステップS6〜S18において、対象物体100tarの属性Prtarを引き継ぐか否かの判定を行う場合、対象物体100tarが、画像不認識領域154内に存在すること(S4:YES)を条件の1つとする。これにより、画像不認識領域154(カメラ42の苦手領域)については、演算負荷を増加させてでも、歩行者102等の対象物体100tarに対する制御を継続することが可能となる。
As described above, in this embodiment, when it is determined in steps S6 to S18 in FIG. 3 whether or not the attribute Prtar of the target object 100tar is to be taken over, the target object 100tar exists in the
A3.本実施形態の効果
以上のように、本実施形態によれば、対象物体100tarの種類Caの認識に用いる第2物体100cが認識されなくなってからの属性不認識時間Tpnが属性引継ぎ許可閾値Tpa以下であること(図3のS14:YES)を少なくとも条件の1つとして、第2物体100cの種類Caを対象物体100tarの属性Prtarとして引き継ぐ(S18)。このため、第2物体100cの種類Caを引き継ぐべきか否かを適切に判定し、対象物体100tarの種類Caの判定精度を高めることが可能となる。
A3. As described above, according to the present embodiment, the attribute non-recognition time Tpn after the second object 100c used for recognition of the type Ca of the target object 100tar is not recognized is equal to or less than the attribute takeover permission threshold Tpa. (S14: YES in FIG. 3) is at least one of the conditions, and the type Ca of the second object 100c is taken over as the attribute Prtar of the target object 100tar (S18). For this reason, it is possible to appropriately determine whether or not the type Ca of the second object 100c should be taken over, and to improve the determination accuracy of the type Ca of the target object 100tar.
本実施形態によれば、対象物体情報処理部64(マッチング手段)により第1物体100rと第2物体100cの組み合わせが認識された後(図2のS3)、車両10から対象物体100tarまでの距離Lが距離Linv(距離閾値)より短くなったこと(S4:YES)を別の条件として、第2物体100cの種類Caを対象物体100tarの属性Prtarとして引き継ぐか否かを判定する(図3のS18)。このため、光の当り具合(夕日、影等)の影響によって対象物体100tarを瞬間的に検出できなかった場合の処理と比較して、比較的長い時間、対象物体100tarの種類Caを認識し続けることが可能となる。
According to the present embodiment, after the combination of the first object 100r and the second object 100c is recognized by the target object information processing unit 64 (matching means) (S3 in FIG. 2), the distance from the
また、対象物体100tarが、車両10との距離Linvを超えるほど車両10に接近していなければ、第2物体100cの種類Caを引き継ぐか否かの判定を行わないことが可能となる。従って、当該引継ぎについての判定を行う場面を限定することで、物体認識装置12における演算負荷を軽減することが可能となる。
Further, if the target object 100tar is not so close to the
本実施形態において、属性判定部66は、対象物体100tar(歩行者102)が画像不認識領域154内にあること(図2のS4:YES)、換言すると、車両10(移動体)から対象物体100tarまでの距離Lが画像不認識距離Linv(距離閾値)より短いことを、レーダ情報処理部60(第1認識手段)で認識された第1物体100rの位置Porを用いて判定する(図2のS4)。
In the present embodiment, the
これにより、撮像画像200ではなく、反射波Wr(電磁波の反射)を用いて、車両10から対象物体100tarまでの距離Lが短すぎるか否かを判定することが可能となる。このため、カメラ情報処理部62(第2認識手段)よりもレーダ情報処理部60の方が位置の認識精度が高い場合、車両10から対象物体100tarまでの距離Lを高精度に認識することが可能となる。
Thereby, it is possible to determine whether the distance L from the
本実施形態において、属性判定部66(属性引継ぎ判定手段)は、属性情報継続時間Tpcに基づいて属性引継ぎ許可閾値Tpaを変化させる(図3のS10、S13)。継続時間Tpcは、対象物体100tarの種類Caの認識精度に影響する。このため、継続時間Tpcに応じて属性引継ぎ許可閾値Tpaを変化させることで、対象物体100tarの種類Caの判定精度を高めることが可能となる。 In the present embodiment, the attribute determination unit 66 (attribute takeover determination means) changes the attribute takeover permission threshold Tpa based on the attribute information duration Tpc (S10 and S13 in FIG. 3). The duration Tpc affects the recognition accuracy of the type Ca of the target object 100tar. For this reason, it is possible to increase the determination accuracy of the type Ca of the target object 100tar by changing the attribute takeover permission threshold value Tpa according to the duration time Tpc.
本実施形態において、属性判定部66は、車両10と対象物体100tarの相対速度Vrelに基づいて属性引継ぎ許可閾値Tpaを変化させる(図3のS11、S13)。相対速度Vrelは、対象物体100tarの種類Caの認識精度に影響する。このため、相対速度Vrelに応じて属性引継ぎ許可閾値Tpaを変化させることで、対象物体100tarの種類Caの判定精度を高めることが可能となる。
In the present embodiment, the
本実施形態において、属性判定部66は、レーダ情報処理部60(第1認識手段)で認識された第1物体100rの個数Nrに基づいて属性引継ぎ許可閾値Tpaを変化させる(図3のS12、S13)。レーダ情報処理部60で認識された第1物体100rの個数Nrは、対象物体100tarの種類Caの認識精度に影響する。このため、第1物体100rの個数Nrに応じて属性引継ぎ許可閾値Tpaを変化させることで、対象物体100tarの種類Caの判定精度を高めることが可能となる。
In the present embodiment, the
本実施形態において、属性判定部66(属性引継ぎ判定手段)は、第1物体100rからの反射波Wr(電磁波)の反射レベルLrの変化に基づき、対象物体100tarの種類Caの引継ぎを禁止する(図3のS17:YES→S16)。第1物体100rからの反射レベルLrの変化は、対象物体100tarの種類Caの認識精度に影響する。このため、反射レベルLrの変化に応じて引継ぎを禁止することで、対象物体100tarの種類Caの判定精度を高めることが可能となる。 In the present embodiment, the attribute determination unit 66 (attribute takeover determination means) prohibits the takeover of the type Ca of the target object 100tar based on the change in the reflection level Lr of the reflected wave Wr (electromagnetic wave) from the first object 100r ( S17 in FIG. 3: YES → S16). The change in the reflection level Lr from the first object 100r affects the recognition accuracy of the type Ca of the target object 100tar. For this reason, it is possible to improve the determination accuracy of the type Ca of the target object 100tar by prohibiting takeover according to the change in the reflection level Lr.
本実施形態において、物体認識装置12は、撮像画像200を取得するカメラ42を備える。また、画像不認識距離Linv(距離閾値)は、カメラ42のレンズの最短撮影距離よりも長い値に設定される。
In the present embodiment, the
これにより、ピントが合った状態で撮像画像200の取得が行われていても、その後、カメラ情報処理部62の認識精度が低下する可能性が高い場合、第2物体100cの種類Caの引継ぎの判定(図2のS8、図3のS9〜S18)を開始することが可能となる。このため、演算負荷を考慮しつつ、対象物体100tarの種類Caの判定精度を高めることができる。
Thereby, even if acquisition of the captured
本実施形態において、距離Linvは、第2物体100cとしての歩行者102が車両10に近づくことにより、カメラ情報処理部62が撮像画像200中の第2物体100cを歩行者102として認識できなくなる距離に設定される(図7及び図9)。
In the present embodiment, the distance Linv is a distance that prevents the camera
これにより、車両10に対して歩行者102が近づき過ぎることで、カメラ情報処理部62が第2物体100c(歩行者102)の種類Caを認識できなくなる可能性がある場合、第2物体100cの種類Ca(歩行者102)の引継ぎの判定(図2のS8、図3のS9〜S18)を開始することが可能となる。このため、演算負荷を考慮しつつ、対象物体100tarの種類Caの判定精度を高めることができる。
Accordingly, when there is a possibility that the camera
B.変形例
なお、本発明は、上記実施形態に限らず、本明細書の記載内容に基づき、種々の構成を採り得ることはもちろんである。例えば、以下の構成を採用することができる。
B. Modifications It should be noted that the present invention is not limited to the above-described embodiment, and it is needless to say that various configurations can be adopted based on the description of the present specification. For example, the following configuration can be adopted.
B1.適用対象
上記実施形態では、物体認識装置12を車両10に適用したが、これに限らず、別の対象に適用してもよい。例えば、物体認識装置12を船舶や航空機等の移動体に用いることもできる。或いは、物体認識装置12を、ロボット、セキュリティ用監視装置又は家電製品に適用してもよい。また、物体認識装置12を車両10(移動体)自体に搭載するのではなく、車両10の外部に配置してもよい。この場合、車両10と物体認識装置12の間で通信を行い、物体認識装置12の認識結果(対象物体情報It)を車両10に通知することも可能である。
B1. Application target In the above-described embodiment, the
B2.物体認識装置12の構成
上記実施形態では、物体認識装置12の出力(対象物体情報It)を、VSA ECU30、EPS ECU32及びPUH ECU34で用いたが、それ以外の用途で用いることも可能である。例えば、車両10の駐車支援又は誤発進防止にも用いることができる。
B2. Configuration of
上記実施形態では、ミリ波である送信波Wt及び反射波Wrを使用するレーダ40を用いた。しかしながら、例えば、電磁波としての送信波Wtの反射波Wrを用いて第1物体100rの情報Irを取得する観点からすれば、レーザレーダ、超音波センサ等のセンサを用いることもできる。
In the above embodiment, the
B3.物体認識ECU44の制御
[B3−1.対象物体100tarの属性Prtarの引継ぎ]
上記実施形態では、対象物体100tarの属性Prtarの引継ぎ(図3のS18)を行う条件として、対象物体100tarが画像不認識領域154内にあること(図2のS4:YES)、対象物体100tarの属性Prtarを認識可能でないこと(S8:NO)、属性不認識時間Tpnが属性引継ぎ許可閾値Tpa以下であること(図3のS14:YES)及び反射レベルLrの変化が大きくないこと(S17:NO)を条件とした。
B3. Control of the object recognition ECU 44 [B3-1. Inheritance of attribute Prtar of target object 100tar]
In the above embodiment, as a condition for taking over the attribute Prtar of the target object 100tar (S18 in FIG. 3), the target object 100tar is in the image non-recognition area 154 (S4 in FIG. 2: YES), and the target object 100tar The attribute Prtar is not recognizable (S8: NO), the attribute non-recognition time Tpn is less than or equal to the attribute takeover permission threshold Tpa (S14: YES in FIG. 3), and the change in the reflection level Lr is not large (S17: NO) ).
しかしながら、対象物体100tarの属性Prtarの引継ぎを行う観点からすれば、これらの判定(S4、S8、S14、S17)の1つ、2つ又は3つのみを、対象物体100tarの属性Prtarの引継ぎを行う条件としてもよい。或いは、上記各判定以外の判定を加えることも可能である。 However, from the viewpoint of taking over the attribute Prtar of the target object 100tar, only one, two, or three of these determinations (S4, S8, S14, S17) are taken over from the attribute Prtar of the target object 100tar. It is good also as conditions to perform. Alternatively, determinations other than the above determinations can be added.
上記実施形態では、対象物体情報処理部64(マッチング手段)により同一の対象物体100tarであると判定される第1物体100rと第2物体100cの組み合わせが認識された後、第2物体100cが認識されなくなったことの判定を、直近の属性情報継続時間Tpcに基づいて行った。すなわち、対象物体100tarの属性Prtarの引き継ぎを行うか否かを判定する場合、直近の属性情報継続時間Tpcがゼロでないこと(本実施形態では、Tpc1未満でないこと)をもって、第2物体100cの種類Caを引き継ぐことができると判定した(図3のS10、S13)。 In the above embodiment, after the combination of the first object 100r and the second object 100c determined by the target object information processing unit 64 (matching means) to be the same target object 100tar is recognized, the second object 100c is recognized. The determination that it was not performed was performed based on the latest attribute information duration Tpc. That is, when determining whether to take over the attribute Prtar of the target object 100tar, the type of the second object 100c is that the latest attribute information duration Tpc is not zero (in this embodiment, it is not less than Tpc1). It was determined that Ca can be taken over (S10 and S13 in FIG. 3).
しかしながら、当該判定をその他の方法で行うことも可能である。例えば、前回の演算周期において第2物体100cの種類Caが認識されている一方、今回の演算周期において当該第2物体100cの種類Caが認識されていない場合、第1物体100rと第2物体100cの組み合わせが認識された後、第2物体100cが認識されなくなったと判定してもよい。或いは、対象物体情報処理部64によりマッチングが成功したことを示すフラグを当該対象物体100tarについて設定し、その後の演算周期でマッチングが成功しなかった場合、第1物体100rと第2物体100cの組み合わせが認識された後、第2物体100cが認識されなくなったと判定することも可能である。
However, the determination can be performed by other methods. For example, when the type Ca of the second object 100c is recognized in the previous calculation cycle, but the type Ca of the second object 100c is not recognized in the current calculation cycle, the first object 100r and the second object 100c. After the combination is recognized, it may be determined that the second object 100c is no longer recognized. Alternatively, when the target object
[B3−2.画像不認識領域154]
上記実施形態では、車両10の手前側の領域である画像不認識領域154内に対象物体100tarが存在するか否かを判定した(図2のS4)。しかしながら、例えば、対象物体100tarの属性Prtarの引き継ぎを行うか否かを判定する観点からすれば、これに限らない。
[B3-2. Image non-recognition area 154]
In the embodiment described above, it is determined whether or not the target object 100tar exists in the
例えば、車両10の手前側の領域154に加えて又はこれに代えて、対象物体100tarが車両10の奥側の領域内に存在するか否かを判定してもよい。当該奥側の領域は、撮像可能領域150よりも奥側に設定される。例えば、車両10からの距離Lが遠すぎるため、車両10の各種制御(例えば、ECU30、32、34による制御)の対象とならない領域を当該奥側の領域として設定することできる。
For example, in addition to or instead of the
[B3−3.属性引継ぎ許可閾値Tpa]
上記実施形態では、3つの仮属性引継ぎ許可閾値Tpa_p1〜Tpa_p3のうち最小値を属性引継ぎ許可閾値Tpaとして設定した(図3のS13)。しかしながら、例えば、3つの仮属性引継ぎ許可閾値Tpa_p1〜Tpa_p3を用いて属性引継ぎ許可閾値Tpaを設定する観点からすれば、これに限らない。例えば、3つの仮属性引継ぎ許可閾値Tpa_p1〜Tpa_p3の平均値、中間値又は最大値を属性引継ぎ許可閾値Tpaとして設定してもよい。
[B3-3. Attribute takeover permission threshold Tpa]
In the above embodiment, the minimum value among the three temporary attribute takeover permission threshold values Tpa_p1 to Tpa_p3 is set as the attribute takeover permission threshold value Tpa (S13 in FIG. 3). However, for example, from the viewpoint of setting the attribute takeover permission threshold Tpa using the three temporary attribute takeover permission thresholds Tpa_p1 to Tpa_p3, the present invention is not limited to this. For example, an average value, an intermediate value, or a maximum value of the three temporary attribute takeover permission threshold values Tpa_p1 to Tpa_p3 may be set as the attribute takeover permission threshold value Tpa.
また、属性引継ぎ許可閾値Tpaの設定には、3つの仮属性引継ぎ許可閾値Tpa_p1〜Tpa_p3のうち1つ又は2つのみを用いることも可能である。或いは、属性引継ぎ許可閾値Tpaを可変値とせずに、固定値とすることもできる。 Also, only one or two of the three temporary attribute takeover permission thresholds Tpa_p1 to Tpa_p3 can be used for setting the attribute takeover permission threshold Tpa. Alternatively, the attribute takeover permission threshold value Tpa may be a fixed value instead of a variable value.
上記実施形態では、演算周期毎に属性引継ぎ許可閾値Tpaを更新した(図3参照)。しかしながら、例えば、許可閾値Tpaを使用する観点からすれば、これに限らない。例えば、一旦、属性不認識時間Tpnの積算を開始すると、属性引継ぎ許可閾値Tpaを更新せずに固定値として使用することも可能である。 In the above embodiment, the attribute takeover permission threshold value Tpa is updated for each calculation cycle (see FIG. 3). However, for example, from the viewpoint of using the permission threshold Tpa, this is not limiting. For example, once the integration of the attribute non-recognition time Tpn is started, the attribute takeover permission threshold Tpa can be used as a fixed value without being updated.
上記実施形態では、自車10と対象物体100tarとの相対速度Vrelに基づいて仮属性引継ぎ許可閾値Tpa_p2を算出した(図3のS11)。しかしながら、例えば、レーダ40の検出精度の観点からすれば、自車10の車速Vに基づいて仮属性引継ぎ許可閾値Tpa_p2を算出することも可能である。この場合、図5の横軸を相対速度Vrelから車速Vに置き換えて用いる。
In the above embodiment, the temporary attribute takeover permission threshold Tpa_p2 is calculated based on the relative speed Vrel between the
上記実施形態では、画像不認識領域154内に存在する第1物体100rの個数Nrに基づいて仮属性引継ぎ許可閾値Tpa_p3を算出した(図3のS12)。しかしながら、例えば、車両10の周囲に存在する物体100の個数に基づいて仮属性引継ぎ許可閾値Tpa_p3を変化させる観点からすれば、これに限らない。例えば、撮像可能領域150内における第1物体100rの個数Nrに基づいて仮属性引継ぎ許可閾値Tpa_p3を算出してもよい。
In the above embodiment, the temporary attribute takeover permission threshold value Tpa_p3 is calculated based on the number Nr of the first objects 100r existing in the image non-recognition region 154 (S12 in FIG. 3). However, for example, from the viewpoint of changing the temporary attribute takeover permission threshold Tpa_p3 based on the number of
[B3−4.反射レベルLr]
上記実施形態では、反射波Wrの反射レベルLrの異常を判定するために、反射レベルLrの変化が大きいか否かを判定した(図3のS17)。しかしながら、例えば、反射レベルLrの異常を判定する観点からすれば、これに限らない。例えば、反射レベルLrが高すぎることを判定する上限閾値を設定しておき、反射レベルLrの現在値が当該上限閾値を上回るか否かを判定することも可能である。
[B3-4. Reflection level Lr]
In the above embodiment, in order to determine the abnormality of the reflection level Lr of the reflected wave Wr, it is determined whether or not the change in the reflection level Lr is large (S17 in FIG. 3). However, for example, from the viewpoint of determining an abnormality in the reflection level Lr, the present invention is not limited to this. For example, it is possible to set an upper limit threshold value for determining that the reflection level Lr is too high, and to determine whether or not the current value of the reflection level Lr exceeds the upper limit threshold value.
また、反射レベルLrは、対象物体100tarに対応する第1物体100rからの反射波Wrについてのものではなく、レーダ40の走査領域全体からの反射波Wrの反射レベルLrを用いることも可能である。
The reflection level Lr is not for the reflected wave Wr from the first object 100r corresponding to the target object 100tar, but the reflection level Lr of the reflected wave Wr from the entire scanning area of the
10…車両(移動体) 12…物体認識装置
42…カメラ
60…レーダ情報処理部(第1認識手段)
62…カメラ情報処理部(第2認識手段)
64…対象物体情報処理部(マッチング手段)
66…属性判定部(属性引継ぎ判定手段) 100…検出物体
100c…第2物体 100r…第1物体
100tar…対象物体 102…歩行者
200…撮像画像 Ca…種類
L…車両(移動体)から対象物体までの距離
Linv…画像不認識距離(距離閾値)
Lr…反射波(電磁波)の反射レベル Nr…第1物体の個数
Poc…第2物体の位置 Por…第1物体の位置
Prtar…対象物体の属性 Tpa…属性引継ぎ許可閾値
Tpc…属性情報継続時間(継続時間) Tpn…属性不認識時間
V…車速 Vrel…相対速度
Wr…反射波 Wt…送信波(電磁波)
DESCRIPTION OF
62 ... Camera information processing section (second recognition means)
64 ... Target object information processing unit (matching means)
66 ... Attribute determining unit (attribute takeover determining means) 100 ... detected object 100c ... second object 100r ... first object 100tar ...
Lr ... Reflection level of reflected wave (electromagnetic wave) Nr ... Number of first objects Poc ... Position of second object Por ... Position of first object Prtar ... Attribute of target object Tpa ... Attribute takeover permission threshold Tpc ... Attribute information duration ( Duration) Tpn ... attribute non-recognition time V ... vehicle speed Vrel ... relative speed Wr ... reflected wave Wt ... transmitted wave (electromagnetic wave)
Claims (6)
前記マッチング手段により前記同一の対象物体であると判定される前記第1物体と前記第2物体の組み合わせが認識された後、前記第2物体が認識されなくなった場合、前記第2物体の属性を引き継ぐか否かを判定する引継ぎ判定手段をさらに備え、
前記引継ぎ判定手段は、前記第2物体が認識されなくなってからの不認識時間が所定の引継ぎ許可閾値を下回ることを少なくとも条件の1つとして、前記第2物体の属性を引き継ぎ、
前記引継ぎ判定手段は、前記第2物体が認識されなくなる前に前記マッチング手段が前記第1物体と前記第2物体とが前記同一の対象物体であると判定した継続時間に基づいて前記引継ぎ許可閾値を変化させる
ことを特徴とする物体認識装置。 First recognition means for recognizing the position of the first object based on reflection of electromagnetic waves from the first object; second recognition means for recognizing the position and attribute of the second object present in the captured image; Matching that determines the same target object when the position of the first object recognized by the first recognition means and the position of the second object recognized by the second recognition means match or are within a predetermined distance And an object recognition device mounted on a moving body,
When the second object is not recognized after the combination of the first object and the second object determined to be the same target object by the matching unit is recognized, the attribute of the second object is set. It further comprises takeover determining means for determining whether to take over,
The takeover determining means takes over the attribute of the second object, at least as one of the conditions that the non-recognition time after the second object is no longer recognized is below a predetermined takeover permission threshold,
The takeover determining means determines the takeover permission threshold based on a duration time that the matching means determines that the first object and the second object are the same target object before the second object is not recognized. An object recognition device characterized by changing the value.
前記マッチング手段により前記同一の対象物体であると判定される前記第1物体と前記第2物体の組み合わせが認識された後、前記第2物体が認識されなくなった場合、前記第2物体の属性を引き継ぐか否かを判定する引継ぎ判定手段をさらに備え、
前記引継ぎ判定手段は、前記第2物体が認識されなくなってからの不認識時間が所定の引継ぎ許可閾値を下回ることを少なくとも条件の1つとして、前記第2物体の属性を引き継ぎ、
前記引継ぎ判定手段は、前記移動体の移動速度又は前記移動体と前記対象物体の相対速度に基づいて前記引継ぎ許可閾値を変化させる
ことを特徴とする物体認識装置。 First recognition means for recognizing the position of the first object based on reflection of electromagnetic waves from the first object; second recognition means for recognizing the position and attribute of the second object present in the captured image; Matching that determines the same target object when the position of the first object recognized by the first recognition means and the position of the second object recognized by the second recognition means match or are within a predetermined distance And an object recognition device mounted on a moving body,
When the second object is not recognized after the combination of the first object and the second object determined to be the same target object by the matching unit is recognized, the attribute of the second object is set. It further comprises takeover determining means for determining whether to take over,
The takeover determining means takes over the attribute of the second object, at least as one of the conditions that the non-recognition time after the second object is no longer recognized is below a predetermined takeover permission threshold,
The takeover determining means changes the takeover permission threshold based on a moving speed of the moving body or a relative speed of the moving body and the target object.
前記マッチング手段により前記同一の対象物体であると判定される前記第1物体と前記第2物体の組み合わせが認識された後、前記第2物体が認識されなくなった場合、前記第2物体の属性を引き継ぐか否かを判定する引継ぎ判定手段をさらに備え、
前記引継ぎ判定手段は、前記第2物体が認識されなくなってからの不認識時間が所定の引継ぎ許可閾値を下回ることを少なくとも条件の1つとして、前記第2物体の属性を引き継ぎ、
前記引継ぎ判定手段は、前記第1認識手段で認識された前記第1物体の個数に基づいて前記引継ぎ許可閾値を変化させる
ことを特徴とする物体認識装置。 First recognition means for recognizing the position of the first object based on reflection of electromagnetic waves from the first object; second recognition means for recognizing the position and attribute of the second object present in the captured image; Matching that determines the same target object when the position of the first object recognized by the first recognition means and the position of the second object recognized by the second recognition means match or are within a predetermined distance And an object recognition device mounted on a moving body,
When the second object is not recognized after the combination of the first object and the second object determined to be the same target object by the matching unit is recognized, the attribute of the second object is set. It further comprises takeover determining means for determining whether to take over,
The takeover determining means takes over the attribute of the second object, at least as one of the conditions that the non-recognition time after the second object is no longer recognized is below a predetermined takeover permission threshold,
The handover determination unit changes the handover permission threshold based on the number of the first objects recognized by the first recognition unit.
前記引継ぎ判定手段は、前記マッチング手段により前記同一の対象物体であると判定される前記第1物体と前記第2物体の組み合わせが認識された後、前記移動体から前記対象物体までの距離が、所定の距離閾値より短くなったことを追加条件として、前記第2物体の属性を引き継ぐか否かを判定する
ことを特徴とする物体認識装置。 The object recognition apparatus according to any one of claims 1 to 3,
The takeover determining means recognizes the distance from the moving body to the target object after the combination of the first object and the second object determined to be the same target object by the matching means is recognized. An object recognition apparatus characterized by determining whether or not to inherit the attribute of the second object with an additional condition that the distance is shorter than a predetermined distance threshold.
前記引継ぎ判定手段は、前記移動体から前記対象物体までの距離が前記距離閾値より短いか否かを、前記第1認識手段で認識された前記第1物体の位置を用いて判定する
ことを特徴とする物体認識装置。 The object recognition device according to claim 4.
The handover determination unit determines whether the distance from the moving body to the target object is shorter than the distance threshold using the position of the first object recognized by the first recognition unit. An object recognition device.
前記引継ぎ判定手段は、前記第1物体からの前記電磁波の反射レベルの変化に基づき、前記対象物体の属性の引継ぎを禁止する
ことを特徴とする物体認識装置。 In the object recognition device according to any one of claims 1 to 5,
The object recognizing device, wherein the takeover determining means prohibits taking over the attribute of the target object based on a change in a reflection level of the electromagnetic wave from the first object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014084543A JP6317986B2 (en) | 2014-04-16 | 2014-04-16 | Object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014084543A JP6317986B2 (en) | 2014-04-16 | 2014-04-16 | Object recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015203677A JP2015203677A (en) | 2015-11-16 |
JP6317986B2 true JP6317986B2 (en) | 2018-04-25 |
Family
ID=54597186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014084543A Active JP6317986B2 (en) | 2014-04-16 | 2014-04-16 | Object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6317986B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6236549B1 (en) * | 2016-06-02 | 2017-11-22 | 日本郵船株式会社 | Ship navigation support device |
CN106767852B (en) * | 2016-12-30 | 2019-10-11 | 东软集团股份有限公司 | A kind of method, apparatus and equipment generating detection target information |
JP2019086406A (en) * | 2017-11-07 | 2019-06-06 | 株式会社Soken | Object detector |
JP7561098B2 (en) | 2021-07-26 | 2024-10-03 | 株式会社デンソー | Vehicle control device and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7702425B2 (en) * | 2004-06-07 | 2010-04-20 | Ford Global Technologies | Object classification system for a vehicle |
JP2007156626A (en) * | 2005-12-01 | 2007-06-21 | Nissan Motor Co Ltd | Object type determination device and object type determination method |
JP4595833B2 (en) * | 2006-02-24 | 2010-12-08 | トヨタ自動車株式会社 | Object detection device |
JP5379543B2 (en) * | 2009-04-09 | 2013-12-25 | 日立オートモティブシステムズ株式会社 | Automobile external recognition device |
-
2014
- 2014-04-16 JP JP2014084543A patent/JP6317986B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015203677A (en) | 2015-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6084192B2 (en) | Object recognition device | |
JP6190758B2 (en) | Object recognition device and vehicle | |
US10163352B2 (en) | Driving control device | |
US10994732B2 (en) | Controller for a vehicle | |
JP6539228B2 (en) | Vehicle control device and vehicle control method | |
US10328941B2 (en) | Driving assistance device | |
JP6036724B2 (en) | Vehicle surrounding situation recognition device and vehicle control device | |
CN109891262B (en) | Object detecting device | |
US20190034742A1 (en) | Pedestrian determination method and determination device | |
WO2016199345A1 (en) | Road surface display device | |
WO2017111156A1 (en) | Vehicle control device and vehicle control method | |
US20190005823A1 (en) | Lane change assistance device and lane change assistance method | |
JP2018151816A (en) | Collision avoidance control device | |
JP6317986B2 (en) | Object recognition device | |
WO2015097511A1 (en) | Vehicle surrounding situation estimation device | |
JP6300181B2 (en) | Vehicle control device | |
JP6166249B2 (en) | Transportation support device | |
JP6478414B2 (en) | Vehicle control device, vehicle control method, and vehicle control program | |
JP2016124389A (en) | Vehicle braking control device | |
JP6174644B2 (en) | Image processing device | |
JP2016192167A (en) | Vehicle control apparatus and vehicle control method | |
JP2017114429A (en) | Driving support device and driving support method | |
JP2014146083A (en) | Object detection device, object detection system and object detection method | |
JP6627093B2 (en) | VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND VEHICLE CONTROL PROGRAM | |
JP6193177B2 (en) | Motion support system and object recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170131 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170403 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170822 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171013 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180402 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6317986 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R154 | Certificate of patent or utility model (reissue) |
Free format text: JAPANESE INTERMEDIATE CODE: R154 |