JP7069061B2 - 物体判定装置 - Google Patents

物体判定装置 Download PDF

Info

Publication number
JP7069061B2
JP7069061B2 JP2019016492A JP2019016492A JP7069061B2 JP 7069061 B2 JP7069061 B2 JP 7069061B2 JP 2019016492 A JP2019016492 A JP 2019016492A JP 2019016492 A JP2019016492 A JP 2019016492A JP 7069061 B2 JP7069061 B2 JP 7069061B2
Authority
JP
Japan
Prior art keywords
likelihood
vehicle
target
determination
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019016492A
Other languages
English (en)
Other versions
JP2020122772A (ja
Inventor
洋平 増井
直紀 楠本
浩史 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2019016492A priority Critical patent/JP7069061B2/ja
Priority to PCT/JP2020/001929 priority patent/WO2020158508A1/ja
Publication of JP2020122772A publication Critical patent/JP2020122772A/ja
Priority to US17/388,960 priority patent/US20210357709A1/en
Application granted granted Critical
Publication of JP7069061B2 publication Critical patent/JP7069061B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V11/00Prospecting or detecting by methods combining techniques covered by two or more of main groups G01V1/00 - G01V9/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V3/00Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation
    • G01V3/12Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation operating with electromagnetic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/005Prospecting or detecting by optical means operating with millimetre waves, e.g. measuring the black losey radiation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/02Prospecting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Description

本発明は、電磁波センサにより検出された物体と、画像センサにより検出された物体とが同一物体であるか否かを判定する物体判定装置に関する。
特許文献1には、電磁波を送受信する電磁波センサにより検出された物体と、画像センサにより検出された物体とが同一物体であるか否かを判定する物体判定装置が開示されている。この物体判定装置は、電磁波センサにより検出された物体の位置に基づく探索領域と、画像センサにより検出された物体の位置に基づく探索領域との重なりの有無により、各物体が同一物体であるか否か判定する。
特開2017-211249号公報
自車前方に複数の物体が近接して存在する場合、各物体の位置に基づく探索領域が近い位置に設定される場合がある。特に、高さ方向の位置が異なる物体が近い位置に複数存在する場合、電磁波センサにより検出された各物体の位置に基づく探索領域が近い位置に設定される。この場合、電磁波センサにより検出された物体と、画像センサにより検出された物体との組合せが誤判定されることが懸念される。
本発明は上記課題に鑑みたものであり、電磁波センサにより検出された物体と、画像センサにより検出された物体とが同一物体であるか否かを判定する物体判定装置において、同一物判定の誤判定を抑制することができる物体判定装置を提供することを目的とする。
上記課題を解決するために本発明では、電磁波を送受信する電磁波センサにより検出された自車前方の第1物体と、画像センサにより検出された自車前方の第2物体とが同一物体であるか否かを判定する同一物判定部と、前記第2物体の物体種別を特定する種別特定部と、前記電磁波センサによる前記第1物体の検出情報に基づいて、物体種別毎の尤度を算出する尤度算出部と、前記同一物判定部により前記第2物体との間で同一物体であるか否かが判定される前記第1物体の候補を、候補物体として特定する候補特定部と、前記候補物体が複数存在する場合に、前記候補物体のうち、特定された前記第2物体の前記物体種別における前記第1物体の前記尤度が所定の尤度判定値よりも大きい物体を、優先して前記同一物判定部による判定対象に選択する対象選択部と、を備える。
上記構成では、第2物体との間での同一物体であるか否かの判定候補となる候補物体が複数存在する場合に、この候補物体に対して、電磁波センサによる当該候補物体の検出情報に基づいて、複数の物体種別毎の尤度が算出される。候補物体のうち、判定対象となる第2物体の物体種別における尤度が所定の尤度判定値よりも大きい物体が、優先して同一物判定部による判定対象に選択される。このため、判定対象となる第2物体に対して、複数の候補物体が存在する場合でも、第2物体と同じ物体種別である可能性の高い候補物体が優先して同一物体であるか否かの判定対象となる。これにより、異なる第1物体と第2物体とが同一物体であると誤判定されるのを抑制することができる。
運転支援装置の構成図。 レーダ探索領域の設定を説明する図。 画像探索領域の設定を説明する図。 自車前方に先行車が走行している場面を示す図。 画像種別毎の尤度を説明する図。 尤度加算値の算出方法を説明する図。 本実施形態に係る同一物判定の手順を説明するフローチャート。 第2実施形態に係る運転支援装置の構成図。
(第1実施形態)
以下、第1実施形態に係る運転支援装置について、図面を参照しつつ説明する。運転支援装置は、車両に搭載されており、先行車との距離が車速に応じた車間距離の目標値となるように制御を行うACC(Adaptive Cruise Control)を実施する。
図1に示す運転支援装置40は、物体判定装置としてのECU10と、レーダセンサ21と、画像センサ22とを備えている。
レーダセンサ21は、ミリ波帯の高周波信号を送信波とする公知のミリ波レーダであり、自車の前端部に設けられている。レーダセンサ21は、自車に対して所定の検知角に入る領域を、物体を検知可能な検知範囲とし、検知範囲内の物体の位置である第1位置P1を検出する。具体的には、レーダセンサ21は、所定周期で探査波を送信し、複数のアンテナにより反射波を受信する。この探査波の送信時刻と反射波の受信時刻とにより、自車を基準とするXY平面上での物標までの第1相対距離を算出する。レーダセンサ21は、複数のアンテナが受信した反射波の位相差により、XY平面での物体の第1方位を算出する。XY平面は、自車の車幅方向に定めされたX軸と、自車進行方向に定められたY軸とで規定される。レーダセンサ21は、算出した物体までの第1相対距離D1と、物体の第1方位θ1とを第1位置P1として検出する。レーダセンサ21は、レーダ物標に反射された反射波の、ドップラー効果により変化した周波数により、物体の相対速度を算出する。
以下では、レーダセンサ21により第1位置P1が検出された物体をレーダ物標と称する。レーダ物標は、第1物体に相当する。
画像センサ22は、自車の車幅方向中央の所定高さに取り付けられており、自車前方に位置する物体の位置を第2位置P2として検出する。具体的には、画像センサ22は、自車前方へ向けて所定角度範囲で広がる領域を撮像し、撮像画像内の輝度に基づいて、予め定められた物標テンプレートとのパターンマッチングを行う。このパターンマッチングにより、撮像画像において、物標テンプレートと適合する輝度情報を有する箇所を物標テンプレートに対応する物体として認識する。画像センサ22は、認識した物体に対して、X軸方向における物体の中心を、物体のX軸方向の位置として算出する。撮像画像における物体のX軸方向の幅は、物体が画像センサ22に近いほど広く撮像されるため、画像センサ22は、物体の幅に基づいて物体のY座標を算出する。そして、算出した物体の座標X,Yから、自車から物体までの第2相対距離D2と、自車を基準とする物体の第2方位θ2とを第2位置P2として算出する。
以下では、画像センサ22により第2位置P2が検出された物体を画像物標と称する。画像物標は、第2物体に相当する。
画像センサ22は、画像物標の種類を、適合した物標テンプレートから特定する。本実施形態では、画像センサ22は、画像物標の種別を、車両、道路標識、及び歩行者に区別する。車両には、バイク、乗用車(小型車及び中型車)、トラック(大型車)が含まれる。道路標識には、信号機が含まれる。本実施形態では、道路標識が、車両よりも異なる高さ範囲に設置されている道路上の静止物に相当する。
レーダセンサ21により検出された第1位置P1と、画像センサ22により検出された第2位置P2とは、ECU10に入力される。ECU10は、CPU11、RAM12、ROM13、I/O等を備えたコンピュータである。
ECU10は、レーダ物標と、画像物標とが同一の物体であるか否かの判定を行う(以下、同一物判定と称する)。具体的には、ECU10は、レーダ物標の第1位置P1に基づくレーダ探索領域A1と、画像物標の第2位置P2に基づく画像探索領域A2との重なりの有無により、レーダ物標と画像物標とが同一物体であるか否かを判定する。ECU10は、レーダ探索領域A1と画像探索領域A2とに重なる領域があると判定した場合に、レーダ物標と画像物標とが同一の物標であると判定する。一方、レーダ探索領域A1と画像探索領域A2とに重なる領域が存在しないと判定した場合に、レーダ物標と画像物標とが異なる物標であると判定する。本実施形態では、ECU10が同一物判定部に相当する。レーダ探索領域A1が第1探索領域に相当し、画像探索領域A2が第2探索領域に相当する。
図2に示すようにレーダ探索領域A1は、第1位置P1を含み、XY平面において、レーダ物標が存在すると想定される領域である。本実施形態では、ECU10は、Y軸方向に、レーダセンサ21の特性に基づき予め想定される想定誤差分の幅を持たせる。そして、XY平面上の自車を基準とする原点Bからの第1方位θ1を基準に、レーダセンサ21の特性に基づき予め想定される想定誤差分の角度幅を両方向に持たせる。これにより、区画された領域をレーダ探索領域A1として設定する。
図3に示すように画像探索領域A2は、第2位置P2を含み、XY平面において、第2位置P2が検出された画像物標が存在すると想定される領域である。本実施形態では、ECU10は、画像物標の画像種別において、想定される最も小さいX軸方向の幅である想定幅最小値Xminに対応するY座標を算出する。このとき、算出されるY座標をY軸最小値Yminと称する。また、画像種別において、想定される最も大きいX軸方向の幅である想定幅最大値Xmaxに対応するY座標を算出する。このとき、算出されるY座標をY軸最大値Ymaxと称する。そして、Y軸最小値YminからY軸最大値Ymaxまでを、画像探索領域A2におけるY軸方向での範囲に設定する。
ECU10は、自車の進行方向に対して画像物標のX軸方向における左端(以下、物標左端Lと呼称)及び右端(以下、物標右端Rと呼称)への方位に基づいて定まる方位範囲を算出する。この方位範囲は、XY平面において、撮像画像における物標左端Lへの方位と物標右端Rへの方位とにより算出される。算出された方位範囲のX軸方向の幅と、想定幅最小値Xmin及び想定幅最大値Xmaxと、がそれぞれ一致するY軸最小値Ymin及びY軸最大値Ymaxをそれぞれ算出する。ハッチングで示すように、方位範囲においてY軸方向における範囲(以下、Y軸範囲と呼称)を、算出したY軸最小値YminからY軸最大値Ymaxまでに区切った領域が画像探索領域A2として設定される。なお、画像探索領域A2の具体的な設定方法については後述する。
ECU10は、同一の物体として判定したレーダ物標と画像物標との各情報を融合することにより、新たな物標であるフュージョン物標を設定する。レーダセンサ21は、画像センサ22と比べて、物体までの距離を検出する精度が高い。一方で、画像センサ22は、レーダセンサ21よりも物体の横位置や方位を検出する精度が高い。そのため、ECU10は、レーダセンサ21及び画像センサ22の検出値のうち、精度の高いものを組み合わせることにより、フュージョン物標の検出情報を設定する。
ECU10は、フュージョン物標のうち、自車が走行する車線を先行する物標と自車との距離を目標車間距離に維持すべく、エンジン31及びブレーキ装置32へ制御指令を送信する。目標値車間距離は、自車速度に応じて変化する。このとき、運転者によるステアリング33の操作により車線を変更してもよく、この場合においても自動操舵の場合と同様に、変更された追従対象と自車両との距離が目標値となるように、エンジン31及びブレーキ装置32へ制御指令を送信する。なお、ECU10は、自車線に先行車両が存在しない場合には、運転者により設定された走行速度や、自車が走行している道路の制限速度等に基づいて、走行速度の制御を行ってもよい。
図4は、自車前方に先行車が走行している場面を示す図であり、自車100と先行車101との間に自車100よりも高い位置に備えられた道路標識102が存在している。図4(a)は自車の側方から自車100、先行車101及び道路標識102を見た図である。図4(b)は、自車の上方から、自車100、先行車101及び道路標識102を見た図である。
図4(a),図4(b)で示す場面では、レーダセンサ21により検出される先行車101の第1位置P11と道路標識102の第1位置P12とは、XY平面において近い位置となっている。このため、ECU10は、先行車101の第1位置P11に基づくレーダ探索領域A11と、道路標識の第1位置P12に基づくレーダ探索領域A12とを、XY座標平面において近い位置に設定している。この場合、先行車101の第2位置P2に基づく画像探索領域A2と、道路標識102の第1位置P12に基づくレーダ探索領域A12とに重なる領域が存在することで、ECU10は、先行車と道路標識との組合せを、同一物体として誤判定することが懸念される。
そこで、ECU10は、画像物標との間で同一物体であるか否かが判定されるレーダ物標の候補が複数存在する場合に、候補となる物標である候補物体のうち、対象となる画像物標の画像種別における尤度Liを算出する。ECU10は、候補物体のうち、画像種別における尤度Liが高い物体を、優先して同一物判定の判定対象に選択する。尤度Liは、レーダ物標が、同一物判定の対象となる画像物標の画像種別であることの尤もらしさ示す指標値であり、例えば、0から100の間の値を取る。特定の画像種別における尤度Liが高いほど、レーダ物標がこの画像種別である可能性が高くなる。以下では、同一物判定の対象となる画像物標を対象画像物標と称す。
次に、ECU10の各機能を説明する。
ECU10は、画像センサ22からの検出情報により、対象画像物標の画像種別を特定する。本実施形態では、ECU10が種別特定部に相当する。
ECU10は、レーダ物標のうち、対象画像物標と同じ方位角範囲に位置するレーダ物標を、候補物体として特定する。具体的には、対象画像物標における第2方位θ2に対するレーダ物標の第1方位θ1の角度差の絶対値が、所定の角度範囲内に収まるレーダ物標を候補物体として特定する。本実施形態では、ECU10が候補特定部に相当する。
ECU10は、特定した候補物体に対して、レーダセンサ21による検出情報に基づいて、画像種別毎の尤度Liを算出する。本実施形態では、画像種別には車両、道路標識、及び歩行者がある。そのため、ECU10は、図5に示すように、候補物体に対して、車両であることの尤度である車両尤度Li1、道路標識であることの尤度である標識尤度Li2、及び歩行者であることの尤度である歩行者尤度Li3を算出する。
ECU10は、レーダセンサ21の検出情報に応じて、物体種別毎の尤度Liに加算する加算値である尤度加算値ΔL1~ΔL3を取得し、取得した各尤度加算値ΔL1~ΔL3を同じ画像種別に対応する各尤度Li1~Li3に加算することにより、各尤度Li1~Li3を算出する。具体的には、ECU10は、車両尤度Li1の尤度加算値である車両加算値ΔL1を車両尤度Li1に加算することにより、車両尤度Li1を算出する。ECU10は、標識尤度Li2の尤度加算値である標識加算値ΔL2を標識尤度Li2に加算することにより、標識尤度Li2を算出する。ECU10は、歩行者尤度Li3の尤度加算値である歩行者加算値ΔL3を歩行者尤度Li3に加算することにより、歩行者尤度Li3を算出する。各尤度加算値ΔL1~ΔL3は、検出情報の内容に応じてその値が異なっている。本実施形態では、ECU10が尤度算出部に相当する。
本実施形態では、ECU10は、検出情報として、以下の3つの情報を取得する。
・候補物体の絶対速度。
・自車が候補物体に近づく際のレーダセンサ21の反射波における受信強度の変化量。
・候補物体に対するレーダセンサ21の反射波における受信強度。
車両、歩行者、及び道路標識では、車両、歩行者、道路標識の順に、絶対速度が低くなる。そのため、ECU10は、レーダセンサ21により検出されたレーダ物標の相対速度に、自車速度を加算した値である絶対速度を検出情報として取得する。候補物体のうち、絶対速度が所定の速度判定値よりも高い物体に対しては、車両加算値ΔL1を、絶対速度が速度判定値以下の物体よりも高くする。速度判定値は、移動体である車両と歩行者とを区別することができる速度であればよく、例えば、30km/h以上の値とすることができる。
図6は自車前方に存在する先行車101及び道路標識102を示している。なお、先行車101は静止しており、図6(a)から図6(b)の順に時間が経過しているものとする。先行車101は、自車100との高低差が小さいため、自車100が先行車101との車間距離を狭めてもレーダセンサ21における上下方向での検知範囲(放射幅)から逸脱していない。一方、自車100に対して高低差が大きい道路標識102は、自車100が道路標識に近づくことにより、レーダセンサ21における上下方向での検知範囲から逸脱している。このため、道路標識は、車両よりもレーダセンサ21における受信強度の変化量が大きく変化する場合がある。そこで、ECU10は、自車が候補物体に近づく際のレーダセンサ21における受信強度の変化量を検出情報として取得する。詳しくは、自車が所定時間走行する間の受信強度の変化量、又は自車が所定距離走行する間の受信強度の変化量等を、検出情報として取得する。候補物体のうち、受信強度の変化量が所定の変化量判定値よりも大きいものに対しては、受信強度の変化量が変化量判定値以下となるものよりも標識加算値ΔL2を高くする。なお、受信強度の変化量が変化量判定値以下であるものに対して、車両加算値ΔL1を高くするものであってもよい。
レーダセンサ21における反射波における受信強度は、車両及び道路標識が、歩行者よりも高くなる。そこで、ECU10は、検出情報として、レーダセンサ21における受信強度を取得する。候補物体のうち、受信強度が所定の強度判定値よりも大きい物体に対しては、車両加算値ΔL1及び標識加算値ΔL2を高くする。強度判定値は、車両及び道路標識と、歩行者とを区別することが可能なレーダセンサ21の受信強度として定められればよい。
ECU10は、候補物体のうち、対象画像物標の画像種別における尤度Liが所定の尤度判定値TH1よりも大きい物標を、同一物判定の対象に選択する。図5に示す対象物体の尤度Liでは、車両尤度Li1が尤度判定値TH1よりも大きな値となっている。そのため、対象画像物標の画像種別が車両である場合は、図5に示す車両尤度Li1を伴う候補物体が、同一物判定の対象に選択される。尤度判定値TH1は、尤度Liを0から100までの範囲で設定している場合は、尤度Liが80以上の値として定めることができ、望ましくは90以上の値に定められればよい。本実施形態では、ECU10が対象選択部に相当する。
次に、本実施形態に係る同一物判定の手順を、図7を用いて説明する。図7に示す処理は、ECU10により所定の制御周期で繰り返し実施される。
ステップS11では、画像センサ22から出力される画像種別により、対象画像物標の画像種別を特定する。
ステップS12では、レーダ物標のうち、第1方位θ1と、対象画像物標の第2方位θ2との差の絶対値が所定の方位角範囲に収まるものを、候補物体として特定する。
ステップS13では、ステップS12で特定した候補物体が複数存在するか否かを判定する。候補物体が一つしか存在しない場合、ステップS25に進み、候補物体を同一物判定の対象に選択する。ステップS26では、対象画像物標と、候補物体との間で同一物判定を行う。ステップS25からステップS26に進む場合、候補物体のうち、ステップS25で選択したものを判定対象とし、この判定対象と対象画像物標との間で各探索領域A1,A2の重なりの有無により同一物判定を行う。
ステップS13の判定において、候補物体が複数存在すると判定した場合、ステップS14に進む。対象画像物標が自車の近傍に位置する近傍物体である場合、候補物体のうち、自車に最も近いものが画像物標と同一物体である可能性が高い。ステップS14では、対象画像物標の第2相対距離D2が、所定の近傍距離TH2以下であるか否かを判定する。第2相対距離D2が近傍距離TH2以下であると判定した場合、対象画像物標は近傍物体であるため、ステップS24に進む。ステップS24では、候補物体のうち、自車からの距離が最も近い物体を同一物判定の対象に選択する。なお、各候補物体における自車からの距離は、第1位置P1を構成する第1相対距離D1を用いて判断すればよい。
近傍距離TH2は、例えば、ACCで設定される目標車間距離に応じた値とすることができる。この場合、近傍距離TH2は、自車速度を基準とする対象画像物標の相対速度に応じてその値を定めることができる。具体的には、相対速度が高いほど近傍距離TH2を長くし、相対速度が短いほど近傍距離TH2を短くすればよい。
ステップS14の判定において、対象画像物標を近傍物体でないと判定すると、ステップS15では、各候補物体における検出情報に基づいて、画像種別毎の尤度加算値ΔLを取得する。具体的には、各候補物体における、絶対速度、レーダセンサ21の受信強度の変化量、及びレーダセンサ21の受信強度を用いて、車両加算値ΔL1、標識加算値ΔL2、歩行者加算値ΔL3を取得する。
ステップS16では、ステップS15において各検出情報により取得した尤度加算値ΔL1~ΔL3を対応する画像種別の尤度Liに加算することにより、車両尤度Li1、標識尤度Li2、及び歩行者尤度Li3の3つの尤度Liを算出する。
ステップS17では、候補物体のうち、対象画像物標の画像種別における尤度Liが尤度判定値TH1よりも大きい物体が存在するか否かを判定する。ステップS17を肯定判定する場合、ステップS18では、候補物体のうち、尤度Liが尤度判定値TH1よりも大きい物体が複数存在するか否かを判定する。ステップS18において、対象画像物標の画像種別における尤度Liが尤度判定値TH1よりも大きい物体が複数存在すると判定すると、ステップS19に進む。
自車前方において複数の車両が前後に走行している場面では、撮像画像内において前方の車両が後方の車両に隠れることにより、画像センサ22は自車に近い方の車両しか検出できない場合がある。これに対して、レーダセンサ21は、ミリ波が後方の車両と道路との隙間を通過することができるため、前後に走行する車両をそれぞれ検出することができる。この場合、候補物体のうち、自車からの距離が最も近い物体が対象画像物標である可能性が高い。
そこで、ステップS19では、対象画像物標の画像種別が車両であるか否かを判定する。画像種別が車両であると判定すると、ステップS21に進み、対象画像物標の画像種別における尤度Liが尤度判定値TH1よりも大きい候補物体のうち、自車からの距離が最も近い物体を、同一物判定の対象に選択する。ステップS21からステップS26に進む場合、候補物体のうち、ステップS21で選択したものを判定対象とし、この判定対象と対象画像物標との間で各探索領域A1,A2の重なりの有無により同一物体判定を行う。
一方、ステップS19において、対象画像物標の画像種別が車両でないと判定すると、ステップS22に進む。ステップS22では、候補物体のうち、対象画像物標の画像種別における尤度Liが尤度判定値TH1よりも大きい全てのものを、同一物判定の対象に選択する。ステップS22からステップS26に進む場合、候補物体のうち、ステップS22で選択したものを判定対象とし、この判定対象と対象画像物標との間で各探索領域A1,A2の重なりの有無により同一物判定を行う。
また、ステップS18において、対象画像物標の画像種別における尤度Liが尤度判定値TH1よりも大きい候補物体が複数存在しないと判定すると、ステップS23に進み、対象画像物標の画像種別における尤度Liが尤度判定値TH1よりも大きい候補物体を同一物判定の対象に選択する。ステップS23からステップS26に進む場合、候補物体のうち、ステップS23で選択したものを判定対象とし、この判定対象と対象画像物標との間で各探索領域A1,A2の重なりの有無により同一物判定を行う。
一方、ステップS17において、対象画像物標の画像種別における尤度Liが尤度判定値TH1よりも大きい候補物体が存在しないと判定すると、ステップS20に進む。ステップS20では、対象画像物標の画像種別が車両であるか否かを判定する。対象画像物標の画像種別が車両である場合、ステップS24に進み、候補物体のうち、自車からの距離が最も近い物体を、同一物判定の対象に選択する。ステップS24からステップS26に進む場合、候補物体のうち、ステップS24で選択したものを判定対象とし、この判定対象と対象画像物標との間で各探索領域A1,A2の重なりの有無により同一物判定を行う。なお、ステップS20を否定判定する場合、図7の処理を一旦終了する。
ステップS26の処理を実施した後、図7の処理を一旦終了する。
次に、本実施形態に係る画像探索領域A2の設定手順を説明する。
画像物標において、方位範囲のX軸方向の幅が想定幅最小値Xminと合致するY軸最小値Yminは、(2)式を用いることで算出できる。以下に、その算出方法を詳述する。
図3に示したように、XY平面において、物標右端Rと原点Bとを通る仮想線R1を引き、仮想線R1とY軸との成す角度φRを検出する。また、構築したXY平面において、物標左端Lと原点Bとを通る仮想線L1を引き、仮想線L1とY軸との成す角度φLを検出する。角度φRのタンジェント値は、物標右端RのX座標を物標右端RのY座標(Y軸最小値Yminに該当)で割った値である。つまり、Y軸最小値Yminは、物標右端RのX座標を角度φRのタンジェント値で割った値となる。一方で、物標右端RのX座標は、想定幅最小値Xminと物標左端LのX座標とを加算した値に該当する。また、物標左端LのX座標は、物標左端LのY座標(Y軸最小値Yminに該当)と角度φLのタンジェント値との積に該当する。以上を考慮し、Y軸最小値Yminについて式を整理すると(1)式となる。
Ymin=Xmin/(tanφR-tanφL)…(1)
本実施形態では、XY平面における原点Bから物標左端L及び物標右端Rへの方位に基づいて定まる方位範囲を構築し、その方位範囲において画像探索領域を設定する。よって、方位範囲が原点Bに対して成す角度幅Δφに基づいてY軸最小値Yminを求める。
検出した角度φRから角度φLを引いた差は、原点Bに対しての仮想線R1及び仮想線L1が成す角度幅Δφに該当する。この角度幅Δφの二等分線BSを引き、方位範囲を成す仮想線R1及び仮想線L1のうちどちらか一方の仮想線と、二等分線BSと、の成す角度幅Δφ/2を算出する。そして、角度φLに算出した角度幅Δφ/2を加えた角度を角度φとして算出する。
このとき、角度φRは、角度φに角度幅Δφ/2を加えた値であり、角度φLは、角度φから角度幅Δφ/2を引いた値に該当する。よって、(1)式は(2)式に変形することができ、(2)式に基づいてY軸最小値Yminを算出することができる。
Ymin=Xmin/{(tan(φ+Δφ/2)-tan(φ-Δφ/2)}…(2)
同様に、方位範囲のX軸方向の幅が想定幅最大値Xmaxと合致するY軸最大値Ymaxは、(3)式を用いることで算出できる。
Ymax=Xmax/{(tan(φ+Δφ/2)-tan(φ-Δφ/2)}…(3)
そして、構築した方位範囲において、Y軸方向における範囲(以下、Y軸範囲と呼称)を記憶した、Y軸最小値YminからY軸最大値Ymaxまでに区切った範囲を画像探索領域A2として設定する。
以上説明した本実施形態では、以下の効果を奏することができる。
・ECU10は、候補画像物標との間で同一物判定の候補となる候補物体が複数存在する場合に、候補物体に対して、レーダセンサ21による当該候補物体の検出情報に基づいて、複数の物体種別毎の尤度Liを算出する。候補物体のうち、候補画像物標の画像種別における尤度Liが所定の尤度判定値TH1よりも大きい物体を、優先して同一物判定の対象に選択する。このため、候補画像物標に対して、複数のレーダ物標の候補が存在する場合でも、候補画像物標と同じ種別であるレーダ物標が優先して同一物体であるか否かの判定対象となる。これにより、異なるレーダ物標と画像物標とが同一物体であると誤判定されるのを抑制することができる。
・ECU10は、レーダセンサ21による検出情報に基づいて、画像種別毎の尤度Li1~Li3に加算する尤度加算値ΔL1~ΔL3を取得する。そして、取得した各尤度加算値ΔL1~ΔL3を物体種別に応じて各尤度Li1~Li3に加算することにより、物体種別毎の尤度Li1~Li3を算出する。物体種別毎の尤度加算値ΔLを、レーダセンサ21による検出情報の内容に応じて異なる値とする。上記構成では、レーダセンサ21による検出情報の内容に応じて、尤度加算値ΔL1~ΔL3が異なるため、候補物体に対して物体種別毎の尤度Li1~Li3を適正に数値化することができる。これにより、異なるレーダ物標と画像物標とが同一物体であると誤判定されるのをいっそう抑制することができる。
・ECU10は、検出情報として、レーダ物標の絶対速度を取得し、候補物体のうち、絶対速度が所定の速度判定値よりも高い物体に対しては、車両加算値ΔL1を、絶対速度が速度判定値以下である物体よりも高くする。これにより、車両の上方に道路標識が存在する場面において、移動物である車両と、静止物である道路標識を同一物体と誤判定することを抑制することができる。
・ECU10は、検出情報として、自車が候補物体に近づく際のレーダセンサ21における反射波の受信強度の変化量を取得し、候補物体のうち、受信強度の変化量が所定の変化量判定値よりも大きい物体に対しては、標識加算値ΔL2を、受信強度の変化量が変化量判定値以下である物体よりも高くする。これにより、車両の近くに高低差が大きい道路標識が存在する場面において、車両と、道路標識とを同一物体と誤判定することを抑制することができる。
・ECU10は、検出情報として、レーダセンサ21における受信強度を取得し、候補物体のうち、受信強度が所定の強度判定値よりも大きい物体に対しては、車両加算値ΔL1を、受信強度が強度判定値以下である物体よりも高くする。これにより、車両と、歩行者を同一物体と誤判定することを抑制することができる。
・ECU10は、同一物判定の対象となる画像物標の物体種別が車両と特定されており、候補物体のうち、車両尤度Li1が尤度判定値TH1よりも大きい物体が複数存在する場合は、候補物体のうち、自車に最も近い物体を優先して同一物判定の対象に選択する。これにより、複数の車両が自車進行方向で前後に走行している場面において、異なる車両を同一の車両として誤判定するのを抑制することができる。
・ECU10は、同一物判定の対象となる画像物標の物体種別が車両と特定されており、車両尤度Li1が尤度判定値TH1よりも大きい候補物体が存在しない場合は、候補物体のうち、自車に最も近い物体を優先して同一物判定の対象に選択する。これにより、車両尤度Li1が不適切に算出された場合でも、画像物標と自車に最も近い候補物体とを同一物であると判定することができる。
・ECU10は、自車からの距離が所定の近傍距離よりも短い画像物標に対しては、尤度Liに依らず、候補物体のうち、自車に最も近い物体を優先して同一物判定の対象に選択する。これにより、算出された尤度Liが不適切であった場合でも、自車に最も近い物体を同一物物体であると判定することができる。
(第2実施形態)
第2実施形態では、第1実施形態と異なる構成を主に説明を行う。なお、第2実施形態において、第1実施形態と同一の符号を付した箇所は同一の箇所を示し、その説明は繰り返さない。
本実施形態では、図8示すように、運転支援装置40は、電磁波センサとして、レーダセンサに代えてレーザースキャナ23を備えている。レーザースキャナ23は、自車の水平方向において、レーザ光を自車前方の所定角度範囲に走査し、物体に反射した反射光を受信することにより、自車周囲に存在する物体までの距離や、物体の外形形状を検出することができる。
自車前方を走行する車両は、道路標識よりも自車進行方向での寸法が長い。そこで、本実施形態では、ECU10は、検出情報として、レーザースキャナ23により検出された外形寸法からレーダ物標の自車進行方向での奥行き寸法を取得する。この場合、図7のステップS15での車両加算値ΔL1の取得において、候補物体のうち、奥行き寸法が奥行き判定値よりも大きいものに対しては、車両加算値ΔL1を、標識加算値ΔL2及び歩行者加算値ΔL3よりも高くすればよい。奥行き判定値は、例えば、車両において想定される最小の奥行き寸法である。なお、取得した奥行き寸法が奥行き判定値以下である物体に対しては、標識加算値ΔL2を、車両加算値ΔL1及び歩行者加算値ΔL3よりも高くしてもよい。
以上説明した本実施形態では、ECU10は、検出情報として、自車進行方向における候補物体の寸法である奥行き寸法を取得し、候補物体のうち、取得した奥行き寸法が所定の奥行き判定値よりも大きいものに対しては、車両加算値ΔL1を、奥行き寸法が奥行き判定値以下である物体よりも高くする。これにより、車両の近くに道路標識が存在する場面において、車両と、道路標識を同一物体と誤判定することを抑制することができる。
(その他の実施形態)
・画像センサ22は、画像種別として、マンホールを区別するものであってもよい。この場合において、道路標識と同様、候補物体のうち、受信強度の変化量が所定の変化量判定値よりも大きい物体に対しては、受信強度の変化量が変化量判定値以下となる物体よりもマンホールの尤度に対する尤度加算値を高くすればよい。候補物体のうち、受信強度が所定の変化量判定値よりも大きい物体に対しては、マンホールの尤度に対する尤度加算値を高くすればよい。本実施形態では、マンホールが、車両を想定した所定高さ範囲よりも外に設置された静止物に相当する。
・ECU10は、第2位置P2を基準として、画像センサ22の特性に基づき予め想定される想定誤差分の幅を、XY両方向に持たせることにより、区画された領域を画像探索領域A2として設定してもよい。
・複数の候補物体のうち、対象画像物標の画像種別における尤度Liが尤度判定値TH1よりも大きい物体が複数存在する場合に、候補物体のうち、尤度Liが尤度判定値TH1よりも大きい全ての物体を、同一物判定の対象として選択してもよい。この場合において、図7のステップS18を肯定判定した場合、ステップS22に進めばよい。なお、この場合、ステップS19,S21は抹消される。
・ECU10は、候補物体の絶対速度、レーダセンサ21の反射波における受信強度の変化量、及び候補物体に対するレーダセンサ21の受信強度のうち、少なくとも一つを用いて尤度加算値ΔLを取得するものであってもよい。
・画像探索領域A2と重なりがあるレーダ探索領域A1を有するレーダ物標が複数ある場合に、ECU10が、各レーダ物標に対して、尤度Liが所定の尤度判定値TH1よりも大きいか否かを判定してもよい。この場合、画像物標における画像種別の尤度Liが尤度判定値TH1よりも大きいレーダ物標が、画像物標と同一物体であると判定される。
・ECU10は、ACCに代えて、自車と自車前方に位置する物体との衝突を緩和する衝突緩和制御を実施してもよい。この場合において、ECU10は、フュージョン物体の位置により、自車とこのフュージョン物体とが衝突する可能性があると判定した場合に、ブレーキ装置32の制動力を増加させればよい。
・ECU10は、レーダ物標の第1位置P1と、画像物標の第2位置P2との間の距離が所定の判定距離よりも近い場合に、レーダ物標と画像物標とが同一物体であると判定してもよい。
・同一物判定を行う主体が、レーダセンサ21又は画像センサ22に搭載された制御装置であってもよい。この場合、レーダセンサ21が備える制御装置、又は画像センサ22が備える制御装置が、ECU10の機能を有していればよい。
・本開示に記載の制御装置及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
10…ECU、21…レーダセンサ、22…画像センサ、40…運転支援装置。

Claims (10)

  1. 電磁波を送受信する電磁波センサ(21,23)により検出された自車前方の第1物体と、画像センサ(22)により検出された自車前方の第2物体が同一物体であるか否かを判定する同一物判定部と、
    前記第2物体の物体種別を特定する種別特定部と、
    前記電磁波センサによる前記第1物体の検出情報に基づいて、物体種別毎の尤度を算出する尤度算出部と、
    前記同一物判定部により前記第2物体との間で同一物体であるか否かが判定される前記第1物体の候補を、候補物体として特定する候補特定部と、
    前記候補物体が複数存在する場合に、前記候補物体のうち、特定された前記第2物体の前記物体種別における前記第1物体の前記尤度が所定の尤度判定値よりも大きい物体を、優先して前記同一物判定部による判定対象に選択する対象選択部と、
    を備える物体判定装置。
  2. 前記尤度算出部は、
    前記電磁波センサによる検出情報に基づいて、前記物体種別毎の尤度に加算する加算値である尤度加算値を取得し、取得した前記尤度加算値を前記物体種別毎に加算することにより、前記物体種別毎の尤度を算出し、
    前記物体種別毎の前記尤度加算値を、前記電磁波センサによる検出情報の内容に応じて異ならせる請求項1に記載の物体判定装置。
  3. 前記物体種別には、車両、及び道路標識を含む道路上の静止物があり、
    前記尤度算出部は、
    前記検出情報として、前記第1物体の絶対速度を取得し、
    前記候補物体のうち、前記絶対速度が所定の速度判定値よりも高い物体に対しては、前記車両であることの前記尤度加算値を、前記絶対速度が前記速度判定値以下である物体よりも高くする請求項2に記載の物体判定装置。
  4. 前記物体種別には、車両、及び前記車両を想定した所定高さ範囲よりも外に設置された静止物があり、
    前記尤度算出部は、
    前記検出情報として、自車が前記候補物体に近づく際の前記電磁波センサにおける反射波の受信強度の変化量を取得し、
    前記候補物体のうち、前記受信強度の変化量が所定の変化量判定値よりも大きい物体に対しては、前記静止物であることの前記尤度加算値を、前記受信強度の変化量が前記変化量判定値以下である物体よりも高くする請求項2又は3に記載の物体判定装置。
  5. 前記物体種別には、車両、及び道路標識があり、
    前記尤度算出部は、
    前記検出情報として、自車進行方向における前記候補物体の寸法である奥行き寸法を取得し、
    前記候補物体のうち、取得した前記奥行き寸法が所定の奥行き判定値よりも大きい物体に対しては、前記車両であることの前記尤度加算値を、前記奥行き寸法が前記奥行き判定値以下である物体よりも高くする請求項2~4のいずれか一項に記載の物体判定装置。
  6. 前記物体種別には、車両、及び歩行者があり、
    前記尤度算出部は、
    前記検出情報として、前記電磁波センサにおける反射波の受信強度を取得し、
    前記候補物体のうち、前記受信強度が所定の強度判定値よりも大きい物体に対しては、前記車両であることの前記尤度加算値を、前記受信強度が前記強度判定値以下である物体よりも高くする請求項2~5のいずれか一項に記載の物体判定装置。
  7. 前記対象選択部は、前記同一物判定部による判定対象となる前記第2物体の前記物体種別が車両と特定されており、前記候補物体のうち、車両における前記尤度が前記尤度判定値よりも大きい物体が複数存在する場合は、前記候補物体のうち、自車に最も近い物体を優先して前記同一物判定部による判定対象に選択する請求項1~6のいずれか一項に記載の物体判定装置。
  8. 前記対象選択部は、前記同一物判定部による判定対象となる前記第2物体の前記物体種別が車両と特定されており、車両における前記尤度が前記尤度判定値よりも大きい前記候補物体が存在しない場合は、前記候補物体のうち、自車に最も近い物体を優先して前記同一物判定部による判定対象に選択する請求項1~7のいずれか一項に記載の物体判定装置。
  9. 前記対象選択部は、自車からの距離が所定の近傍距離よりも短い第2物体に対しては、前記尤度に依らず、前記候補物体のうち、自車に最も近い物体を優先して前記同一物判定部による判定対象に選択する請求項1~8のいずれか一項に記載の物体判定装置。
  10. 前記同一物判定部は、前記第1物体の位置に基づく第1探索領域と、前記第2物体の位置に基づく第2探索領域との重なりの有無により、前記第1物体と前記第2物体とが同一物体であるか否かを判定する請求項1~9のいずれか一項に記載の物体判定装置。
JP2019016492A 2019-01-31 2019-01-31 物体判定装置 Active JP7069061B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019016492A JP7069061B2 (ja) 2019-01-31 2019-01-31 物体判定装置
PCT/JP2020/001929 WO2020158508A1 (ja) 2019-01-31 2020-01-21 物体判定装置
US17/388,960 US20210357709A1 (en) 2019-01-31 2021-07-29 Object determination apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019016492A JP7069061B2 (ja) 2019-01-31 2019-01-31 物体判定装置

Publications (2)

Publication Number Publication Date
JP2020122772A JP2020122772A (ja) 2020-08-13
JP7069061B2 true JP7069061B2 (ja) 2022-05-17

Family

ID=71840908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019016492A Active JP7069061B2 (ja) 2019-01-31 2019-01-31 物体判定装置

Country Status (3)

Country Link
US (1) US20210357709A1 (ja)
JP (1) JP7069061B2 (ja)
WO (1) WO2020158508A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3451708A1 (en) * 2017-09-01 2019-03-06 BlackBerry Limited Method and system for load balancing of sensors
KR20220010900A (ko) * 2020-07-20 2022-01-27 현대모비스 주식회사 차량용 레이더 장치 및 제어방법

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084034A (ja) 2003-09-11 2005-03-31 Toyota Motor Corp 物体検出装置
JP2005165421A (ja) 2003-11-28 2005-06-23 Denso Corp センサフュージョンシステム及びそれを用いた車両制御装置
JP2005202878A (ja) 2004-01-19 2005-07-28 Toyota Motor Corp 物体検出装置
JP2006292681A (ja) 2005-04-14 2006-10-26 Toyota Motor Corp 物体検出装置
JP2007188354A (ja) 2006-01-13 2007-07-26 Fuji Heavy Ind Ltd 車両の前方立体物認識装置
JP2007310741A (ja) 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd 立体物認識装置
JP2008008870A (ja) 2006-06-30 2008-01-17 Toyota Motor Corp 物体検出装置
JP2011039833A (ja) 2009-08-12 2011-02-24 Fujitsu Ltd 車両検出装置、車両検出プログラム、および車両検出方法
US20140035775A1 (en) 2012-08-01 2014-02-06 GM Global Technology Operations LLC Fusion of obstacle detection using radar and camera
US20150234045A1 (en) 2014-02-20 2015-08-20 Mobileye Vision Technologies Ltd. Navigation based on radar-cued visual imaging
US20160358018A1 (en) 2015-06-02 2016-12-08 SK Hynix Inc. Moving object detection device and object detection method
JP2017111054A (ja) 2015-12-17 2017-06-22 株式会社デンソー 物体検出装置
JP2017211249A (ja) 2016-05-24 2017-11-30 株式会社デンソー 物標検出装置
JP2018026096A (ja) 2016-07-29 2018-02-15 株式会社デンソー 物標検出装置
WO2018056212A1 (ja) 2016-09-22 2018-03-29 株式会社デンソー 物体検知装置及び物体検知方法
JP2018081628A (ja) 2016-11-18 2018-05-24 株式会社デンソー 車両制御装置、車両制御方法
JP2018147399A (ja) 2017-03-08 2018-09-20 株式会社デンソー 物標検出装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5812064B2 (ja) * 2012-11-22 2015-11-11 株式会社デンソー 物標検出装置
US9582886B2 (en) * 2013-07-08 2017-02-28 Honda Motor Co., Ltd. Object recognition device
JP6610585B2 (ja) * 2017-03-13 2019-11-27 トヨタ自動車株式会社 衝突回避制御装置
US10613212B2 (en) * 2017-08-14 2020-04-07 Oculii Corp. Systems and methods for doppler-enhanced radar tracking

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084034A (ja) 2003-09-11 2005-03-31 Toyota Motor Corp 物体検出装置
JP2005165421A (ja) 2003-11-28 2005-06-23 Denso Corp センサフュージョンシステム及びそれを用いた車両制御装置
JP2005202878A (ja) 2004-01-19 2005-07-28 Toyota Motor Corp 物体検出装置
JP2006292681A (ja) 2005-04-14 2006-10-26 Toyota Motor Corp 物体検出装置
JP2007188354A (ja) 2006-01-13 2007-07-26 Fuji Heavy Ind Ltd 車両の前方立体物認識装置
JP2007310741A (ja) 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd 立体物認識装置
JP2008008870A (ja) 2006-06-30 2008-01-17 Toyota Motor Corp 物体検出装置
JP2011039833A (ja) 2009-08-12 2011-02-24 Fujitsu Ltd 車両検出装置、車両検出プログラム、および車両検出方法
US20140035775A1 (en) 2012-08-01 2014-02-06 GM Global Technology Operations LLC Fusion of obstacle detection using radar and camera
US20150234045A1 (en) 2014-02-20 2015-08-20 Mobileye Vision Technologies Ltd. Navigation based on radar-cued visual imaging
US20160358018A1 (en) 2015-06-02 2016-12-08 SK Hynix Inc. Moving object detection device and object detection method
JP2017111054A (ja) 2015-12-17 2017-06-22 株式会社デンソー 物体検出装置
JP2017211249A (ja) 2016-05-24 2017-11-30 株式会社デンソー 物標検出装置
JP2018026096A (ja) 2016-07-29 2018-02-15 株式会社デンソー 物標検出装置
WO2018056212A1 (ja) 2016-09-22 2018-03-29 株式会社デンソー 物体検知装置及び物体検知方法
JP2018081628A (ja) 2016-11-18 2018-05-24 株式会社デンソー 車両制御装置、車両制御方法
JP2018147399A (ja) 2017-03-08 2018-09-20 株式会社デンソー 物標検出装置

Also Published As

Publication number Publication date
US20210357709A1 (en) 2021-11-18
WO2020158508A1 (ja) 2020-08-06
JP2020122772A (ja) 2020-08-13

Similar Documents

Publication Publication Date Title
CN109155109B (zh) 物标检测装置
EP3339896B1 (en) Object detection device and recording medium
US10345443B2 (en) Vehicle cruise control apparatus and vehicle cruise control method
US9008940B2 (en) Vehicle control device and vehicle control method
JP6729282B2 (ja) 車両制御装置
US10787170B2 (en) Vehicle control method and apparatus
US9102329B2 (en) Tracking control apparatus
JP6614108B2 (ja) 車両制御装置、車両制御方法
WO2018030271A1 (ja) 走行制御装置
JP6497284B2 (ja) 車両制御装置、及び車両制御方法
JP6669090B2 (ja) 車両制御装置
JP7069061B2 (ja) 物体判定装置
JP2019053490A (ja) 物標認識装置、物標認識方法及び車両制御システム
WO2017138329A1 (ja) 衝突予測装置
JP2020134981A (ja) 運転支援装置
US20200353919A1 (en) Target detection device for vehicle
CN110065492B (zh) 车辆控制系统
JP6428539B2 (ja) 車両制御装置、及び車両制御方法
JP7185547B2 (ja) 車両検出装置
WO2022107549A1 (ja) 走行支援装置
WO2023145723A1 (ja) 物標認識装置および物標認識方法
WO2022044885A1 (ja) 走行支援装置
JP2022050966A (ja) 物体検出装置
JP2021117848A (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220502

R150 Certificate of patent or registration of utility model

Ref document number: 7069061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150