JP6600271B2 - 物体認識装置及び物体認識方法 - Google Patents

物体認識装置及び物体認識方法 Download PDF

Info

Publication number
JP6600271B2
JP6600271B2 JP2016072804A JP2016072804A JP6600271B2 JP 6600271 B2 JP6600271 B2 JP 6600271B2 JP 2016072804 A JP2016072804 A JP 2016072804A JP 2016072804 A JP2016072804 A JP 2016072804A JP 6600271 B2 JP6600271 B2 JP 6600271B2
Authority
JP
Japan
Prior art keywords
information
radar
target information
detected
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016072804A
Other languages
English (en)
Other versions
JP2017181450A (ja
Inventor
洋平 増井
唯史 酒井
貴史 前田
剛 名波
実 中通
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2016072804A priority Critical patent/JP6600271B2/ja
Priority to US16/089,141 priority patent/US11346922B2/en
Priority to PCT/JP2017/013118 priority patent/WO2017170799A1/ja
Publication of JP2017181450A publication Critical patent/JP2017181450A/ja
Application granted granted Critical
Publication of JP6600271B2 publication Critical patent/JP6600271B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、物体認識装置及び物体認識方法に関し、詳しくは、物体検知センサとしてレーダ装置及び撮像装置が搭載された車両に適用される物体認識装置及び物体認識方法に関する。
従来、ミリ波レーダやレーザレーダ等のレーダ装置により検知した物体と、画像カメラ等の撮像装置により検知した物体とが同一物体であるか否かの判定を行うことにより、車両の周囲に存在する物体の認識精度を向上させる技術が種々提案されている(例えば、特許文献1参照)。特許文献1には、物体の所定時間あたりの移動量をレーダ測距及び画像処理でそれぞれ算出し、2つの移動量が整合しない場合には、検知した物体を障害物と判断しないことが開示されている。
特開2003−252147号公報
レーダ装置と撮像装置では測距精度が異なり、レーダ装置は測距精度の点で優れているのに対し、撮像装置による画像認識では測距性能が劣るといった特性がある。特に遠方については、画素数の減少によって画像認識の精度の低下が現れやすい。そのため、上記特許文献1のように、レーダ装置により検知した物体と、撮像装置により検知した物体とを別々に認識し、それら認識した物標の挙動を対比することによって同一物判定を行う場合、遠方の物標について、画像認識の精度の低下に起因して判定が困難になることが懸念される。
本発明は上記課題に鑑みなされたものであり、画像認識の精度低下の影響をできるだけ抑制しつつ、レーダ装置で検知した物体と撮像装置で検知した物体との同一物判定を精度良く実施することができる物体認識装置及び物体認識方法を提供することを一つの目的とする。
本発明は、上記課題を解決するために、以下の手段を採用した。
本発明は、レーダ装置(31)と撮像装置(32)とを用いて自車両(50)の周囲に存在する物体(51)を認識する物体認識装置(20)に関する。1の構成は、前記レーダ装置及び前記撮像装置で前記物体が検知されている場合に、前記レーダ装置で検知した物体の情報であるレーダ物標情報と、前記撮像装置で検知した物体の情報である画像物標情報とを結合して、前記物体の情報として結合物標情報を生成する情報結合部と、前記結合物標情報経時変化しないことに基づいて、前記レーダ装置で検知した物体と前記撮像装置で検知した物体とが同一物体であることを判定する同一物判定部と、を備える。
上記構成では、レーダ装置で検知した物体に関する情報と、撮像装置で検知した物体に関する情報とを結合して得られる結合物標情報の経時変化に基づいて、レーダ装置で検知した物体と撮像装置で検知した物体とが同一物体であるか否かの同一物判定を実施する。正しい結合によって結合物標情報を生成した場合と、誤結合によって結合物標情報を生成した場合とでは、物標の位置関係の変動によって結合物標情報の経時変化に違いが現れる。この点に着目し、上記構成とすることにより、レーダ装置で検知した物体と、撮像装置で検知した物体とが同一物体であるかそうでないかを区別することができる。また、レーダ装置と撮像装置との組み合わせによって得られる情報を用いることから、画像認識の精度低下の影響をレーダ装置の検知性能で補うことができる。これにより、画像認識の精度低下の影響をできるだけ抑制しつつ、同一物判定を精度良く実施することができる。
運転支援システムの概略構成を示すブロック図。 正しい結合を行った場合のFSN車幅を表す図。 誤結合が発生している場合のFSN車幅の経時変化を表す図。 フィルタ演算処理の処理手順を示すフローチャート。 先行車両までの距離とFSN車幅と車幅真値との関係を示す図。 他の実施形態における結合物標情報の経時変化を表す図。
以下、実施形態を図面に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。
図1に示す本実施形態の運転支援システム10は、車両に搭載され、自車両の周囲に存在する物体を認識するとともに、その物体の認識結果に基づいて各種の運転支援を実行する。これにより、例えば自車両と同一車線上を走行する車両に追従して走行するオートクルーズコントロールシステム(ACC)や、物体との衝突を回避又は衝突被害を軽減するための各種制御を行うプリクラッシュセーフティシステム(PCS)等として機能する。運転支援システム10は、図1に示すように、物体認識装置20と各種センサと運転支援装置40とを備えている。
物体認識装置20は、CPU、ROM、RAM、I/O等を備えたコンピュータであり、CPUが、ROMにインストールされているプログラムを実行することで、自車両の周囲に存在する物体を認識するための各機能を実現する。物体認識装置20は、物体検知センサであるレーダ装置31及び撮像装置32にそれぞれ接続されており、これらセンサから物体の検知結果を入力する。
レーダ装置31は、送信波として電磁波を送信し、その反射波を受信することで物体を検知する探知装置であり、本実施形態では、ミリ波帯の高周波信号を送信波とする公知のミリ波レーダで構成されている。レーダ装置31は、自車両の前端部に取り付けられており、光軸を中心に車両前方に向かって所定のレーダ角度の範囲に亘って広がる領域をレーダ信号により走査する。また、車両前方に向けて電磁波を送信してから反射波を受信するまでの時間に基づき測距データを作成し、その作成した測距データを物体認識装置20に逐次出力する。測距データには、物体が存在する方位、物体までの距離及び物体の相対速度に関する情報が含まれている。
撮像装置32は車載カメラであり、例えばCCDカメラ、CMOSイメージセンサ、近赤外線カメラ等の単眼カメラで構成されている。撮像装置32は、車両の車幅方向中央の所定高さに取り付けられており、車両前方へ向けて所定角度範囲で広がる領域を俯瞰視点から撮影し、その撮影した画像データを物体認識装置20に逐次出力する。
物体認識装置20は、レーダ装置31の測距データ及び撮像装置32の画像データを逐次入力し、その入力したデータを用いて物体を認識する。物体認識装置20は、レーダ物標検知部21と、画像物標検知部22と、フュージョン演算部23とを備えている。
レーダ物標検知部21は、測距データに基づき検知された物体をレーダ物標として識別し、識別したレーダ物標の位置情報をxy平面に当てはめることにより、自車両に対するレーダ物標の相対位置を特定する。なお、本実施形態では、自車両の車幅方向をx軸とし、車長方向をy軸としている。また、レーダ物標の検知点を含む領域に、レーダ物標の位置を表す領域としてレーダ探索領域を設定する。レーダ探索領域は、レーダ装置31の検知特性に基づき想定される誤差を持たせた領域として設定される。
画像物標検知部22は、画像データを解析することによって検知された物体を画像物標として識別し、識別した画像物標の位置情報をxy平面に当てはめることにより、自車両に対する画像物標の相対位置を特定する。また、画像物標検知部22は、画像物標に対して、予め定められたパターンを用いてパターンマッチングを行い、撮像装置32が検知した物体の種別、例えば車両、歩行者及び自転車のいずれかであるかを識別する。さらに、画像物標検知部22は、画像中における画像物標の左右方向の位置に基づいて、自車両に対する物体の方位角情報を生成する。方位角情報としては、自車両の位置を表す基準点P0及び画像物標の検知点を結ぶ線分と自車両の車長方向とがなす角度である画像物標角度、及び画像物標の方位幅を含む。画像物標検知部22は、画像物標角度、基準点P0からの距離及び画像物標の検知点を用いて、画像物標の位置を表す領域として画像探索領域を設定する。画像探索領域は、撮像装置32の検知特性に基づき想定される誤差を持たせた領域として設定される。
フュージョン演算部23は、レーダ装置31で検知した物体と、撮像装置32で検知した物体とが所定の条件に基づき同一物体であると判定される場合に、レーダ物標検知部21から入力したレーダ物標の情報であるレーダ物標情報と、画像物標検知部22から入力した画像物標の情報である画像物標情報とを結合(フュージョン)してフュージョン物標を生成する。また、生成したフュージョン物標の情報を運転支援装置40に出力する。フュージョン物標情報の生成について、例えば、レーダ物標までの距離によってフュージョン物標までの距離を特定するとともに、画像物標の横位置及び方位角によってフュージョン物標の横位置や横幅を特定する。なお、横位置は、基準点P0に対する車幅方向(x軸)の相対位置である。本実施形態では、フュージョン演算部23が情報結合部及び同一物判定部として機能する。
運転支援装置40は、フュージョン演算部23で生成したフュージョン物標情報を入力し、入力した情報に基づいて、例えばブレーキ装置やステアリング装置、シートベルト駆動装置、警報装置等を制御することで、運転支援のための各種制御を実行する。なお、レーダ物標及び画像物標の少なくともいずれかが識別されているにも関わらず、フュージョン物標を識別できない場合には、レーダ物標又は画像物標の情報に基づいて運転支援のための各種制御を行ってもよい。また、識別された物標を対象とした運転支援については実施しないものとしてもよい。
ところで、レーダ物標情報と画像物標情報との結合に際し、実際には別の物体についての情報を同一物体の情報であるとして誤って結合した場合、物体の認識精度が低下してしまう。また、こうした誤結合により得られたフュージョン物標に基づき、先行車両に対する追従走行制御や衝突回避制御等の運転支援を実施した場合、運転支援を適切に実施できないことが懸念される。
ここで、カメラ物標とレーダ物標との誤結合が発生した場合には、自車両の周囲に存在する物体と自車両との位置関係が変化することによって、レーダ物標情報と画像物標情報とを組み合わせて生成した物理値が、実際には不変であるものについても変動が生じることに着目した。この点について、図2及び図3を用いて説明する。図2は、画像物標とレーダ物標とが正しく結合される場合を示し、図3は、誤結合が発生した場合を示している。
なお、図2及び図3中、P1はレーダ物標の検知点を示し、φは画像物標角度を示し、Wφは、先行車両51のx軸方向の画像検知幅を示している。画像物標角度φは、先行車両51の後端部における車幅方向の中央位置Q1と基準点P0を結ぶ線分と、y軸とがなす角度である。画像検知幅Wφは、先行車両51の車両幅の方位幅に相当し、先行車両51の左端位置から右端位置までの基準点P0を中心とした円周方向の角度で表される。
先行車両51の車幅は、撮像装置32の検知結果である画像物標角度φ及び画像検知幅Wφと、レーダ装置31の検知結果である先行車両51までの縦距離dとを用いて、下記式(1)で表される。
Wr=d×(tan(φ+Wφ/2)−tan(φ−Wφ/2)) …(1)
画像物標とレーダ物標とが同一物体を表している場合には、自車両50と先行車両51の2台の位置関係によって先行車両51の物理値が定められる。そのため、上記式(1)を用いて算出される車幅(以下、FSN車幅Wrという。)は経時変化せず、一定値をとる。なお、縦距離dは、自車両50と先行車両51とを結ぶ距離における車長方向の成分である。
続いて、画像物標とレーダ物標との誤結合が発生した場合を考える。図3では、自車両50と先行車両51との間に別の車両52が存在しており、レーダ装置31が別の車両52を検知している場合を想定している。なお、図3の(b)は、(a)に対して、自車両50が先行車両51及び別の車両52により接近した状態を示している。
誤結合が発生した場合、自車両50、先行車両51及び別の車両52の3台の位置関係が変わり、これにより、上記式(1)によって算出されるFSN車幅Wrが経時変化する。具体的には、図3に示すように、自車両50が先行車両51及び別の車両52に近付くほど、FSN車幅Wrは短くなる。
この点に着目し、本実施形態では、レーダ装置31及び撮像装置32で物体を検知している場合、レーダ物標情報と画像物標情報とを結合することにより、レーダ物標と画像物標との同一物判定に用いるパラメータとして結合物標情報を生成する。そして、その生成した結合物標情報の経時変化に基づいて、レーダ物標と画像物標とが同一物体を表すものか否かを判定する。特に本実施形態では、レーダ物標情報として、物体までの距離情報である縦距離dを用い、画像物標情報として、自車両50に対する物体の方位角情報である画像物標角度φ及び画像検知幅Wφを用い、縦距離d、画像物標角度φ及び画像検知幅Wφから、上記式(1)により結合物標情報としてFSN車幅Wrを求める。そして、FSN車幅Wrを監視することによって同一物判定を実施している。
次に、本実施形態のフュージョン演算処理の処理手順について、図4のフローチャートを用いて説明する。なお、図4の処理は、レーダ装置31及び撮像装置32の両方で物体が検知されている場合に、物体認識装置20のフュージョン演算部23で所定の制御周期毎に実行される。
図4において、ステップS101では、画像物標検知部22から画像物標情報を取得し、ステップS102では、レーダ物標検知部21からレーダ物標情報を取得する。続くステップS103では、画像物標情報に含まれる画像物標、及びレーダ物標情報に含まれるレーダ物標の中から、結合候補となる画像物標とレーダ物標との組み合わせを抽出する。ここでは、画像物標とレーダ物標との位置関係に基づき抽出する。具体的には、レーダ物標検知部21で設定したレーダ探索領域と、画像物標検知部22で設定した画像探索領域とに重複部分が存在している組み合わせを抽出する。
結合候補が抽出されたことを条件にステップS104へ進み、その結合候補の画像物標及びレーダ物標の情報を用いて、上記式(1)によりFSN車幅Wrの瞬時値Wr1を算出する。また、ステップS105では、FSN車幅Wrに対してフィルタ処理を行い、フィルタ値Wr2を算出する。このフィルタ処理は、今回の瞬時値Wr1と、前回までのFSN車幅Wrの瞬時値とを用いた平滑化処理である。
図5に、自車両50から先行車両51までの距離と、FSN車幅Wrと、先行車両51の車幅の真値との関係を示す。FSN車幅Wrは、自車両50から先行車両51までの距離に応じて変化し、先行車両51までの距離が短くなるほど、FSN車幅Wrは実際の車幅(真値)よりも小さくなる。またフィルタ値Wr2は、時間遅れが生じることで瞬時値Wr1よりも変動が小さい。本実施形態では、フィルタ値Wr2から瞬時値Wr1を差し引いて差分ΔWr(ΔWr=Wr2−Wr1)を求め、この差分ΔWrを結合物標情報の経時変化を表す指標として用いる。そして、差分ΔWrが判定値Tw以上である場合に誤結合の可能性が高いと判定する。
すなわち、図4のステップS106で差分ΔWrが判定値Tw以上であるか否かを判定する。ΔWr≧Twであれば、ステップS107で結合判定用のカウンタCwをデクリメントし、ΔWr<Twであれば、ステップS108でカウンタCwをインクリメントする。なお、カウンタCwは、結合候補の組み合わせごとに設定され、結合候補ごとにデクリメント及びインクリメントが行われる。
そして、ステップS109でカウンタCwが閾値Tc以上であると判定されるとステップS110へ進み、その結合候補の画像物標とレーダ物標について、同一物体を表しているものと判断し、画像物標情報とレーダ物標情報とを結合する。一方、カウンタCwが閾値Tc未満である場合には結合を許可せずに本処理を終了する。結合候補の画像物標及びレーダ物標が検知されている間は、対応するカウンタCwのデクリメント及びインクリメントが行われ、結合候補の画像物標及びレーダ物標のうち少なくとも一方が検知されなくなった時点で、対応するカウンタCwは破棄される。
以上詳述した本実施形態によれば、次の優れた効果が得られる。
結合候補として抽出したレーダ物標と画像物標とにつき、正しい結合によって結合物標情報を生成した場合と、誤結合によって結合物標情報を生成した場合とでは、結合物標情報の経時変化に違いが現れる。この点に着目し、結合物標情報の経時変化に基づいて、レーダ物標と画像物標とが同一物体を表すものであるか否かの同一物判定を実施する構成とした。こうした構成によれば、レーダ装置31で検知した物体と、撮像装置32で検知した物体とが同一物体であるか否かを明確に区別することができる。
また、レーダ装置31と撮像装置32との組み合わせによって得られる情報を用いて同一物判定を実施することから、画像認識の精度低下の影響をレーダ装置31の検知性能で補うことができる。その結果、画像認識の精度低下の影響をできるだけ抑制しつつ、同一物判定を精度良く実施することができる。
センサ特性として、レーダ装置31は測距精度が高いのに対し、撮像装置32による画像認識では測距性能が劣るといった特性がある。特に遠方については、画素数の減少によって画像認識の精度の低下が現れやすい。その一方で、撮像装置32の車幅方向の検知精度は充分に高い。この点に着目し、レーダ物標情報として、物体までの距離情報である縦距離dを用い、画像物標情報として、自車両50に対する物体の方位角情報である画像物標角度φ及び画像検知幅Wφを用い、縦距離d、画像物標角度φ及び画像検知幅Wφを用いて結合物標情報を生成する構成とした。こうした構成とすることで、画像認識では画素数の減少によって画像認識の精度の低下が現れやすい遠方の物標についても、信頼性の高い情報を得ることができる。また、こうした信頼性の高い情報を用いて同一物判定を実施することにより判定精度を高めることができる。
自車両50と先行車両51との二者の位置関係のみで先行車両51の物理値が定まる状況では、例えば車両幅のように、不変であるはずの物理値は経時的な変化を生じない。これに対し、誤結合が起きている場合には、自車両50と先行車両51と別の車両52との三者の位置関係の変動によって、不変であるはずの物理値に変動が生じる。この点に着目し、結合物標情報として、本来不変な物理値である車両幅を用い、FSN車幅Wrの経時変化を追跡することにより、同一物判定を精度良く実施することができる。
(他の実施形態)
本発明は上記の実施形態に限定されず、例えば以下のように実施されてもよい。
・上記実施形態では、結合物標情報の経時変化を表す指標として、瞬時値Wr1とフィルタ値Wr2との差分ΔWrを用い、差分ΔWrに基づいて画像物標とレーダ物標とが同一物体を表しているか否かを判定する構成としたが、同一物判定に用いる指標はこれに限定されない。例えば、トラッキング開始からの瞬時値Wr1の減少量が所定値以上となった場合に誤結合が発生しているものと判定してもよい。
・相対速度が異なるレーダ物標と画像物標とを誤結合させた場合、レーダ物標情報と画像物標情報とを結合して生成した結合物標情報につき、その瞬時値の変動が大きくなりやすい。この点に鑑み、結合物標情報の経時変化を表す指標として、結合物標情報の変動割合を用い、結合物標情報の変動割合に基づいて同一物判定を実施してもよい。具体的には、例えば、フュージョン車幅の瞬時値Wr1又はフィルタ値Wr2の今回値と前回値との差分(今回値−前回値)を算出し、その算出した差分が判定値以上となった場合に誤結合が発生しているものと判定する。
・上記実施形態では、結合物標情報として車両幅を用いて同一物判定を実施したが、結合物標情報として、自車両の車幅方向における物体の位置情報である横位置を用いて同一物判定を実施してもよい。図6は、物体の横位置の経時変化に基づき同一物判定を実施する形態を説明する図である。図6中、P2は、レーダ装置31で検知した縦距離dと、撮像装置32で検知した画像物標角度φとを用いて求めた先行車両51の横位置(以下、FSN横位置という。)を表す。なお、図6では、車両後端部の中央位置Q1を先行車両51の横位置としている。画像物標角度φは、基準点P0と中央位置Q1とを結ぶ線分P0−Q1と、自車両50の車長方向(y軸)とがなす角度である。図6の(b)は、(a)に対して、自車両50が先行車両51及び別の車両52により接近した状態を示している。
レーダ物標情報と画像物標情報との結合が正しく行われている場合、FSN横位置P2(P2=dtanφ)は、自車両50が先行車両51に近付くにつれて、車両進行方向に沿って真っ直ぐに自車両50に向かってくる。これに対し、レーダ物標と画像物標との誤結合が生じている場合には、図6に示すように、FSN横位置P2は、真値よりも基準点P0側となる。また、自車両50が先行車両51に近付くにつれて、FSN横位置P2は基準点P0側に現れ、図6()の矢印Aで示すように、自車両50に近付いてくる。つまり、FSN横位置P2は、車両進行方向とは異なる方向に推移する。したがって、FSN横位置P2の経時変化によって、レーダ物標と画像物標との同一物判定を精度良く行うことができる。具体的には、レーダ物標の縦距離dと画像物標の画像物標角度φとからFSN横位置P2(瞬時値)を求め、今回値が前回値よりも基準点P0側に所定以上変化した場合に、結合判定用のカウンタCwをデクリメントし、所定以上変化しなければカウンタCwをインクリメントする。そして、カウンタCwが閾値以上となったことを条件に、結合候補の画像物標とレーダ物標とは同一物体を表しているものと判断し、画像物標情報とレーダ物標情報とを結合する。
・差分ΔWrは、自車両50と物体との距離が近付くにつれて大きくなる(図5参照)。したがって、差分ΔWrとの比較に用いる判定値Twを可変値としてもよい。例えば、自車両50と物体との距離が近付くほど、判定値Twを大きく設定する構成としてもよい。
・上記の各構成要素は概念的なものであり、上記実施形態に限定されない。例えば、一つの構成要素が有する機能を複数の構成要素に分散して実現したり、複数の構成要素が有する機能を一つの構成要素で実現したりしてもよい。
10…運転支援システム、20…物体認識装置、21…レーダ物標検知部、22…画像物標検知部、23…フュージョン演算部(情報結合部、同一物判定部)、31…レーダ装置、32…撮像装置、40…運転支援装置、50…自車両、51…先行車両。

Claims (8)

  1. レーダ装置(31)と撮像装置(32)とを用いて自車両(50)の周囲に存在する物体(51)を認識する物体認識装置(20)であって、
    前記レーダ装置及び前記撮像装置で前記物体が検知されている場合に、前記レーダ装置で検知した物体の情報であるレーダ物標情報と、前記撮像装置で検知した物体の情報である画像物標情報とを結合して、前記物体の情報として結合物標情報を生成する情報結合部と、
    前記結合物標情報が経時変化しないことに基づいて、前記レーダ装置で検知した物体と前記撮像装置で検知した物体とが同一物体であることを判定する同一物判定部と、
    を備え
    前記情報結合部は、前記レーダ物標情報として前記物体までの距離情報を用い、前記画像物標情報として前記自車両に対する前記物体の方位角情報を用い、前記距離情報と前記方位角情報とを結合して前記結合物標情報を生成する、物体認識装置。
  2. 前記物体は車両であり、
    前記結合物標情報は車両幅である、請求項1に記載の物体認識装置。
  3. 前記結合物標情報は、前記自車両の車幅方向における前記物体の位置情報である、請求項1に記載の物体認識装置。
  4. レーダ装置(31)と撮像装置(32)とを用いて自車両(50)の周囲に存在する物体(51)を認識する物体認識装置(20)であって、
    前記レーダ装置及び前記撮像装置で前記物体が検知されている場合に、前記レーダ装置で検知した物体の情報であるレーダ物標情報と、前記撮像装置で検知した物体の情報である画像物標情報とを結合して、前記物体の情報として結合物標情報を生成する情報結合部と、
    前記結合物標情報が経時変化しないことに基づいて、前記レーダ装置で検知した物体と前記撮像装置で検知した物体とが同一物体であることを判定する同一物判定部と、
    を備え
    前記物体は車両であり、
    前記結合物標情報は車両幅である、物体認識装置。
  5. レーダ装置(31)と撮像装置(32)とを用いて自車両(50)の周囲に存在する物体(51)を認識する物体認識装置(20)であって、
    前記レーダ装置及び前記撮像装置で前記物体が検知されている場合に、前記レーダ装置で検知した物体の情報であるレーダ物標情報と、前記撮像装置で検知した物体の情報である画像物標情報とを結合して、前記物体の情報として結合物標情報を生成する情報結合部と、
    前記結合物標情報が経時変化しないことに基づいて、前記レーダ装置で検知した物体と前記撮像装置で検知した物体とが同一物体であることを判定する同一物判定部と、
    を備え
    前記結合物標情報は、前記自車両の車幅方向における前記物体の位置情報である、物体認識装置。
  6. レーダ装置(31)と撮像装置(32)とを用いて自車両(50)の周囲に存在する物体(51)を認識する物体認識方法であって、
    前記レーダ装置及び前記撮像装置で前記物体を検知している場合に、前記レーダ装置で検知した物体の情報であるレーダ物標情報と、前記撮像装置で検知した物体の情報である画像物標情報とを結合して、前記物体の情報として結合物標情報を生成するステップと、
    前記結合物標情報が経時変化しないことに基づいて、前記レーダ装置で検知した物体と前記撮像装置で検知した物体とが同一物体であることを判定するステップと、
    を含み、
    前記結合物標情報を生成するステップは、前記レーダ物標情報として前記物体までの距離情報を用い、前記画像物標情報として前記自車両に対する前記物体の方位角情報を用い、前記距離情報と前記方位角情報とを結合して前記結合物標情報を生成する、物体認識方法。
  7. レーダ装置(31)と撮像装置(32)とを用いて自車両(50)の周囲に存在する物体(51)を認識する物体認識方法であって、
    前記レーダ装置及び前記撮像装置で前記物体を検知している場合に、前記レーダ装置で検知した物体の情報であるレーダ物標情報と、前記撮像装置で検知した物体の情報である画像物標情報とを結合して、前記物体の情報として結合物標情報を生成するステップと、
    前記結合物標情報が経時変化しないことに基づいて、前記レーダ装置で検知した物体と前記撮像装置で検知した物体とが同一物体であることを判定するステップと、
    を含み、
    前記物体は車両であり、
    前記結合物標情報は車両幅である、物体認識方法。
  8. レーダ装置(31)と撮像装置(32)とを用いて自車両(50)の周囲に存在する物体(51)を認識する物体認識方法であって、
    前記レーダ装置及び前記撮像装置で前記物体を検知している場合に、前記レーダ装置で検知した物体の情報であるレーダ物標情報と、前記撮像装置で検知した物体の情報である画像物標情報とを結合して、前記物体の情報として結合物標情報を生成するステップと、
    前記結合物標情報が経時変化しないことに基づいて、前記レーダ装置で検知した物体と前記撮像装置で検知した物体とが同一物体であることを判定するステップと、
    を含み、
    前記結合物標情報は、前記自車両の車幅方向における前記物体の位置情報である、物体認識方法。
JP2016072804A 2016-03-31 2016-03-31 物体認識装置及び物体認識方法 Active JP6600271B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016072804A JP6600271B2 (ja) 2016-03-31 2016-03-31 物体認識装置及び物体認識方法
US16/089,141 US11346922B2 (en) 2016-03-31 2017-03-29 Object recognition apparatus and object recognition method
PCT/JP2017/013118 WO2017170799A1 (ja) 2016-03-31 2017-03-29 物体認識装置及び物体認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016072804A JP6600271B2 (ja) 2016-03-31 2016-03-31 物体認識装置及び物体認識方法

Publications (2)

Publication Number Publication Date
JP2017181450A JP2017181450A (ja) 2017-10-05
JP6600271B2 true JP6600271B2 (ja) 2019-10-30

Family

ID=59964736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016072804A Active JP6600271B2 (ja) 2016-03-31 2016-03-31 物体認識装置及び物体認識方法

Country Status (3)

Country Link
US (1) US11346922B2 (ja)
JP (1) JP6600271B2 (ja)
WO (1) WO2017170799A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017218851A1 (de) 2017-10-23 2019-04-25 Robert Bosch Gmbh Verfahren, Vorrichtung und Computerprogramm zur Erstellung eines tiefen neuronalen Netzes
JP7133752B2 (ja) * 2018-03-28 2022-09-09 株式会社アドヴィックス 走行制御装置
US20210039658A1 (en) * 2018-03-30 2021-02-11 Mitsubishi Electric Corporation Object identification device
US11073610B2 (en) * 2019-01-31 2021-07-27 International Business Machines Corporation Portable imager
CN110940959B (zh) * 2019-12-13 2022-05-24 中国电子科技集团公司第五十四研究所 一种用于低分辨雷达地面目标的人车分类识别方法
JP7474689B2 (ja) 2020-12-04 2024-04-25 日産自動車株式会社 物体検出方法及び物体検出装置
WO2023189076A1 (ja) * 2022-03-28 2023-10-05 i-PRO株式会社 監視システム及び監視方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5005147A (en) * 1988-12-30 1991-04-02 The United States Of America As Represented By The Administrator, The National Aeronautics And Space Administration Method and apparatus for sensor fusion
GB9111129D0 (en) * 1991-05-23 1991-07-17 Imatronic Ltd Vehicle collision avoidance
IL111435A (en) * 1994-10-28 1997-09-30 Israel State Surveillance system including a radar device and electro-optical sensor stations
US5943476A (en) * 1996-06-13 1999-08-24 August Design, Inc. Method and apparatus for remotely sensing orientation and position of objects
JP4019736B2 (ja) 2002-02-26 2007-12-12 トヨタ自動車株式会社 車両用障害物検出装置
JP4175087B2 (ja) * 2002-10-31 2008-11-05 日産自動車株式会社 車両用外界認識装置
JP3779280B2 (ja) * 2003-03-28 2006-05-24 富士通株式会社 衝突予測装置
JP4193765B2 (ja) * 2004-01-28 2008-12-10 トヨタ自動車株式会社 車両用走行支援装置
JP4052291B2 (ja) * 2004-08-05 2008-02-27 日産自動車株式会社 車両用画像処理装置
JP5109264B2 (ja) * 2006-02-27 2012-12-26 トヨタ自動車株式会社 物体検出装置
JP2007279892A (ja) * 2006-04-04 2007-10-25 Honda Motor Co Ltd 衝突予知システムの制御装置、衝突予知方法および乗員保護システム
DE102007018470A1 (de) * 2007-04-19 2008-10-23 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren zur Objektplausibilisierung
JP5012270B2 (ja) * 2007-07-10 2012-08-29 トヨタ自動車株式会社 物体検出装置
JP5120139B2 (ja) * 2008-08-08 2013-01-16 トヨタ自動車株式会社 物体検出装置
US8818703B2 (en) * 2009-01-29 2014-08-26 Toyota Jidosha Kabushiki Kaisha Object recognition device and object recognition method
DE102012203909A1 (de) * 2012-03-13 2013-09-19 Robert Bosch Gmbh Filterverfahren und Filtervorrichtung für Sensordaten
US8917321B1 (en) * 2012-07-10 2014-12-23 Honda Motor Co., Ltd. Failure-determination apparatus
US9152526B2 (en) * 2012-11-16 2015-10-06 GM Global Technology Operations LLC Method and apparatus for state of health estimation of object sensing fusion system
JP6190758B2 (ja) * 2014-05-21 2017-08-30 本田技研工業株式会社 物体認識装置及び車両
JP6361366B2 (ja) * 2014-08-18 2018-07-25 株式会社デンソー 物体認識装置
JP6303956B2 (ja) * 2014-09-24 2018-04-04 株式会社デンソー 軸ずれ量推定装置
JP6084192B2 (ja) * 2014-10-15 2017-02-22 本田技研工業株式会社 物体認識装置
US10890648B2 (en) * 2014-10-24 2021-01-12 Texas Instruments Incorporated Method and apparatus for generating alignment matrix for camera-radar system
US20170242117A1 (en) * 2016-02-19 2017-08-24 Delphi Technologies, Inc. Vision algorithm performance using low level sensor fusion
US10989791B2 (en) * 2016-12-05 2021-04-27 Trackman A/S Device, system, and method for tracking an object using radar data and imager data
US10037472B1 (en) * 2017-03-21 2018-07-31 Delphi Technologies, Inc. Automated vehicle object detection system with camera image and radar data fusion

Also Published As

Publication number Publication date
US11346922B2 (en) 2022-05-31
JP2017181450A (ja) 2017-10-05
WO2017170799A1 (ja) 2017-10-05
US20200300969A1 (en) 2020-09-24

Similar Documents

Publication Publication Date Title
JP6600271B2 (ja) 物体認識装置及び物体認識方法
JP6643166B2 (ja) 物体認識装置及び物体認識方法
JP5862785B2 (ja) 衝突判定装置及び衝突判定方法
JP6536521B2 (ja) 物体検知装置及び物体検知方法
JP6361366B2 (ja) 物体認識装置
JP7018277B2 (ja) 物体検出装置、物体検出方法及び車両制御システム
JP5979232B2 (ja) 衝突判定装置及び衝突判定方法
JP6561704B2 (ja) 運転支援装置、及び運転支援方法
WO2017208976A1 (ja) 駐車支援装置及び駐車支援方法
JP6011625B2 (ja) 速度算出装置及び速度算出方法並びに衝突判定装置
JP6380232B2 (ja) 物体検出装置、及び物体検出方法
JP6669090B2 (ja) 車両制御装置
WO2016021606A1 (ja) 複数の物体検出手段を用いた物体認識装置
JP2019053490A (ja) 物標認識装置、物標認識方法及び車両制御システム
JP6429360B2 (ja) 物体検出装置
JP2006011570A (ja) カメラキャリブレーション方法及びカメラキャリブレーション装置
WO2011036807A1 (ja) 物体検出装置及び物体検出方法
JP2017194926A (ja) 車両制御装置、車両制御方法
EP3139346B1 (en) Vision system for a motor vehicle and method of controlling a vision system
US11407390B2 (en) Vehicle control apparatus and vehicle control method
WO2017163736A1 (ja) 移動軌跡検出装置、移動物体検出装置、移動軌跡検出方法
JP2001082954A (ja) 画像処理装置及び画像処理測距方法
JP5717416B2 (ja) 運転支援制御装置
WO2014033958A1 (ja) 衝突判定装置及び衝突判定方法
JP2019212107A (ja) 物標認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191004

R150 Certificate of patent or registration of utility model

Ref document number: 6600271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250