JP6645074B2 - Obstacle detection system - Google Patents
Obstacle detection system Download PDFInfo
- Publication number
- JP6645074B2 JP6645074B2 JP2015166006A JP2015166006A JP6645074B2 JP 6645074 B2 JP6645074 B2 JP 6645074B2 JP 2015166006 A JP2015166006 A JP 2015166006A JP 2015166006 A JP2015166006 A JP 2015166006A JP 6645074 B2 JP6645074 B2 JP 6645074B2
- Authority
- JP
- Japan
- Prior art keywords
- certainty
- obstacle
- unit
- certainty factor
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 116
- 238000012545 processing Methods 0.000 claims description 126
- 238000000034 method Methods 0.000 claims description 19
- 230000005484 gravity Effects 0.000 claims description 16
- 230000010354 integration Effects 0.000 description 18
- 238000004364 calculation method Methods 0.000 description 15
- 230000007423 decrease Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000283080 Proboscidea <mammal> Species 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
本発明は、支障物検知システムに関する。 The present invention relates to an obstacle detection system.
従来、センサによって対象物を検出し、検出された対象物について危険であるか否かを判定する物体認識装置がある(例えば、特許文献1参照)。特許文献1の物体認識装置は、車両に搭載され、レーザを照射して車両前方の対象物を探知し、衝突の可能性がある物体を検出している。
2. Description of the Related Art Conventionally, there is an object recognition device that detects an object by a sensor and determines whether the detected object is dangerous or not (for example, see Patent Document 1). The object recognition device of
従来技術では、例えば、先行車よりも前方に存在する物体については、誤検出された物体と定義することで、危険であるか否かの判定対象から除外していた。また、従来技術では、センサによって数多くの対象物候補を検出してしまう場合があった。そのため、危険な対象物である支障物を精度良く認識することは容易ではなかった。 In the related art, for example, an object existing ahead of a preceding vehicle is excluded from an object to be determined as dangerous if it is defined as an erroneously detected object. Further, in the related art, a large number of target object candidates may be detected by the sensor. Therefore, it has not been easy to accurately recognize obstacles that are dangerous objects.
本発明は、支障物を精度良く検知することが可能な支障物検知システムを提供することを目的とする。 An object of the present invention is to provide an obstacle detection system capable of accurately detecting an obstacle.
本発明の支障物検知システムは、対象物を検出する検出部と、当該検出部で取得した対象物の検出データに基づいて、対象物が支障物である可能性を示す確信度を設定する確信度設定部と、検出時刻が異なる複数の検出データが同一の対象物に対するものであるか否かを判定する追跡処理を実行する追跡処理部と、当該追跡処理部で、複数の検出データが同一の対象物に対するものであると判定した場合に、同一の対象物に関連する検出データを用いて、当該対象物の確信度を更新する確信度更新部と、を備える。 An obstacle detection system according to the present invention includes: a detection unit that detects an object; and a confidence setting unit that sets a certainty factor that indicates a possibility that the object is an obstacle based on detection data of the object acquired by the detection unit. A degree setting unit, a tracking processing unit that performs a tracking process of determining whether a plurality of pieces of detection data having different detection times are for the same target object, and the plurality of pieces of detection data are the same in the tracking processing unit. A certainty update unit that updates the certainty factor of the target object using the detection data related to the same target object when it is determined that the target object is related to the target object.
この支障物検知システムでは、追跡処理を行い複数の検出データが同一の対象物のものであると判定された場合に対象物の確信度を更新するので、検出時刻が異なる複数の検出データを用いて確信度を適切に更新することができる。これにより、更新された確信度に応じて精度良く支障物を検知することができる。 This obstacle detection system performs tracking processing and updates the certainty factor of the target object when it is determined that the plurality of detection data items belong to the same target object. Thus, the degree of certainty can be appropriately updated. Thereby, an obstacle can be detected with high accuracy according to the updated certainty factor.
また、対象物の検出データは、対象物の明度に関する情報を含み、確信度設定部は、対象物と当該対象物の周囲との明度差が大きい場合に、当該明度差が小さい場合と比較して、確信度を高く設定することができる。対象物とその周囲との明度差が大きい場合には、対象物とその周囲との明度差が小さい場合と比較して、誤検出の可能性が低いので、対象物とその周囲との明度差が大きい場合について、対象物の確信度を高く設定し、対象物とその周囲との明度差が小さい場合について、対象物の確信度を低く設定することで、支障物を精度良く検知する。 In addition, the detection data of the object includes information regarding the brightness of the object, and the confidence setting unit compares the brightness difference between the object and the surroundings of the object with the case where the brightness difference is small. Therefore, the confidence can be set high. When the brightness difference between the object and its surroundings is large, the possibility of erroneous detection is lower than when the brightness difference between the object and its surroundings is small, so the brightness difference between the object and its surroundings is small. Is large, the certainty of the object is set high, and when the brightness difference between the object and its surroundings is small, the certainty of the object is set low, so that obstacles are detected with high accuracy.
また、対象物の検出データは、対象物の色相に関する情報を含み、確信度設定部は、対象物と当該対象物の周囲との色相差が大きい場合に、当該色相差が小さい場合と比較して、確信度を高く設定することができる。対象物とその周囲との色相差が大きい場合には、対象物とその周囲との色相差が小さい場合と比較して、誤検出の可能性が低いので、対象物とその周囲との色相差が大きい場合について、対象物の確信度を高く設定し、対象物とその周囲との色相差が小さい場合について、対象物の確信度を低く設定することで、支障物を精度良く検知する。 Further, the detection data of the object includes information on the hue of the object, and the certainty factor setting unit compares the hue difference between the object and the periphery of the object with the hue difference when the hue difference is small. Therefore, the confidence can be set high. When the hue difference between the object and its surroundings is large, the possibility of erroneous detection is lower than when the hue difference between the object and its surroundings is small, so the hue difference between the object and its surroundings is small. Is large, the hue difference between the object and its surroundings is set high, and when the hue difference between the object and its surroundings is small, the certainty of the object is set low, so that obstacles are accurately detected.
また、対象物の検出データは、対象物の外形寸法に関する情報を含み、確信度設定部は、対象物の外形寸法が大きい場合に、対象物の外形寸法が小さい場合と比較して、確信度を高く設定することができる。対象物が大きい場合には、対象物が小さい場合と比較して、誤検出の可能性が低いので、対象物が大きい場合について、対象物の確信度を高く設定し、対象物が小さい場合について、対象物の確信度を低く設定することで、支障物を精度良く検知する。 In addition, the detection data of the object includes information on the external dimensions of the object, and the confidence setting unit compares the external dimensions of the object with the confidence level when the external dimensions of the object are large compared to when the external dimensions of the object are small. Can be set higher. When the object is large, the possibility of erroneous detection is lower than when the object is small.Therefore, when the object is large, the confidence of the object is set high, and when the object is small, By setting the certainty factor of the object low, obstacles can be accurately detected.
また、対象物の検出データは、検出部から対象物まで距離に関する情報を含み、確信度設定部は、対象物までの距離が近い場合に、対象物までの距離が遠い場合と比較して、確信度を高く設定することができる。検出部からの距離が近い位置で検出された対象物は、検出部からの距離が遠い位置で検出された対象物と比較して、誤検出の可能性が低いので、対象物までの距離が近い場合について対象物の確信度を高く設定し、対象物までの距離が遠い場合について対象物の確信度を低く設定することで、支障物を精度良く検知する。 Further, the detection data of the object includes information on the distance from the detection unit to the object, and the certainty factor setting unit, when the distance to the object is short, as compared with the case where the distance to the object is long, Confidence can be set high. An object detected at a position closer to the detection unit is less likely to be erroneously detected than an object detected at a position farther from the detection unit. Obstacles can be detected with high accuracy by setting the certainty factor of the object high when the distance is short and by setting the low certainty factor when the distance to the object is long.
また、更新された確信度が判定閾値以上であるか否かを判定し、確信度が判定閾値以上である場合に、対象物を支障物であると判定する支障物判定部を更に備える構成でもよい。これにより、確信度が判定閾値に満たない場合に、対象物が支障物として検知されることが防止される。 In addition, the configuration further includes an obstacle determining unit that determines whether the updated certainty is equal to or greater than the determination threshold and determines that the target object is an obstacle when the certainty is equal to or greater than the determination threshold. Good. This prevents the target from being detected as an obstacle when the certainty is less than the determination threshold.
また、確信度更新部は、複数の検出データの重み付き平均を算出して対象物の確信度を更新する構成でもよい。複数の検出データについて重み付き平均を用いて、対象物の確信度を適切に更新することができる。 Further, the certainty update unit may be configured to calculate a weighted average of a plurality of pieces of detection data and update the certainty of the target object. The certainty factor of the target object can be appropriately updated using the weighted average for the plurality of pieces of detection data.
また、確信度更新部は、複数種類の検出部を備え、確信度更新部は、検出部の種別に応じて、重み付き平均における重みを変更して、対象物の確信度を更新する構成でもよい。これにより、検出部の種別によって異なる検出精度を考慮して、対象物の確信度を適切に更新することができる。 Further, the certainty update unit may include a plurality of types of detection units, and the certainty update unit may change the weight in the weighted average according to the type of the detection unit to update the certainty of the object. Good. This makes it possible to appropriately update the certainty factor of the target object in consideration of the detection accuracy that varies depending on the type of the detection unit.
また、確信度更新部は、追跡処理部で対象物が追跡判定されなかった場合に、当該対象物の確信度を低下させる構成でもよい。これにより、検出部によって検出された対象物が、その後検出されない場合には追跡判定されないので、次第にその確信度が低下する。そのため、検出されなくたった対象物が支障物として検知される可能性が減ることになる。 Also, the certainty factor updating unit may be configured to reduce the certainty factor of the target object when the tracking processing unit does not determine the tracking of the target object. Accordingly, if the target object detected by the detection unit is not detected thereafter, the tracking determination is not performed, so that the degree of certainty gradually decreases. Therefore, the possibility that the undetected target is detected as an obstacle is reduced.
本発明の支障物検知システムによれば、支障物を精度良く検知することができる。 According to the obstacle detection system of the present invention, an obstacle can be accurately detected.
以下、本発明の好適な実施形態について、図面を参照しながら詳細に説明する。なお、各図において同一部分又は相当部分には同一の符号を付し、重複する説明は省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In each of the drawings, the same or corresponding portions have the same reference characters allotted, and overlapping description will be omitted.
図1及び図2に示される支障物検知装置1は、例えば、車両Mに搭載されて、車両前方の対象物(例えば落下物B)を検出するものである。支障物検知装置1は、カメラ2、3DLR(3次元レーザレーダ)3、車輪速センサ4及び支障物検知ユニット5を備えている。
The
支障物検知装置1は、検出された対象物を追跡し、追跡された対象物の中で、確信度が高いものを、支障物として判定する。「支障物」とは、車両の走行の妨げになるおそれがある対象物であり、当該対象物を回避するように走行を変更したり、停止して取り除くことが必要となるものである。また、「確信度」とは、対象物が支障物であることの確からしさを示す指標である。確信度が高い場合には、対象物が支障物である可能性が高く、確信度が低い場合には、対象物が支障物である可能性が低い。
The
カメラ2(検出部)は、車両前方を撮影し、道路及び対象物等の画像情報(検出データ)を取得する。カメラ2で取得された画像情報は、支障物検知ユニット5に入力される。
The camera 2 (detection unit) captures an image of the front of the vehicle and acquires image information (detection data) of a road, an object, and the like. Image information obtained by the
3DLR(検出部)3は、車両前方にレーザを照射して、路上の対象物で反射した反射レーザを受信する。3DLR3で受信した反射レーザに関する情報(検出データ)は、支障物検知ユニット5に入力される。
The 3DLR (detection unit) 3 irradiates a laser in front of the vehicle and receives a reflected laser reflected by an object on the road. Information (detection data) regarding the reflected laser received by the
車輪速センサ4は、車両Mの車輪の回転角度に関する情報を取得するセンサである。車輪速センサ4は、例えばエンコーダを備え、このエンコーダは、車輪の回転パルスを計測する。車輪の回転パルスに関する信号は、支障物検知ユニット5に入力される。
The
支障物検知ユニット5は、画像処理部6、3DLR処理部7、線形計算部8、統合処理部9及びシステム統括部10を備えている。支障物検知ユニット5は、演算処理を行うCPU、記憶部となるROM及びRAM、入力信号回路、出力信号回路、電源回路などを備える。
The
システム統括部10は、支障物検知ユニット5の全体の制御を司り、画像処理部6、3DLR処理部7、線形計算部8及び統合処理部9のブロックの生成及び機能の停止を管理する。また、システム統括部10は、後述する表示部15、操作部16及び車両制御部17とのデータの入出力を管理する。
The
画像処理部6は、カメラ2から入力したセンサデータについて画像処理を行う。画像処理部6は、画像処理として、例えば2値化処理を行い、対象物に関する情報、道路の白線に関する情報を検知する。また、カメラ2から入力したセンサデータには、対象物の色相に関する情報、対象物の明度に関する情報、対象物のサイズ(外形寸法)に関する情報、及び対象物の位置に関する情報が含まれる。
The
また、画像処理部6は、検知された対象物について確信度を設定する確信度設定部として機能する。画像処理部6は、センサデータに基づいて、対象物の位置(左右方向の位置、車両の進行方向における位置)、対象物のサイズ(幅方向のサイズ、高さ方向のサイズ)、対象物の色相及び明度を算出する。また、画像処理部6は、対象物の周囲の色相及び明度を算出する。
In addition, the
画像処理部6は、対象物のセンサデータに基づいて、対象物の色相及び当該対象物の周囲の色相について判定し、対象物と当該対象物の周囲との色相差が大きい場合に、色相差が小さい場合と比較して確信度を高く設定する。画像処理部6は、検知された対象物の平均色相が高いと判定した場合に、平均色相が低いと判定した場合と比較して確信度を高く設定する。
The
画像処理部6は、対象物のセンサデータに基づいて、対象物の明度及び当該対象物の周囲の明度について判定し、対象物と当該対象物の周囲との明度差が大きい場合に、明度差が小さい場合と比較して確信度を高く設定する。画像処理部6は、検知された対象物の平均明度が高いと判定した場合に、平均明度が低いと判定した場合と比較して確信度を高く設定する。
The
画像処理部6は、対象物のセンサデータに基づいて、対象物のサイズについて判定し、対象物のサイズ(実際のサイズ)が大きい場合に、対象物のサイズが小さい場合と比較して確信度を高く設定する。画像処理部6は、画像内のピクセルサイズに対して、画角などのカメラパラメータ及び経路の線形情報を照合して、対象物の実際のサイズを算出し判定する。
The
画像処理部6は、対象物のセンサデータに基づいて、対象物の位置について判定し、車両Mと対象物との距離が近い場合に、車両Mと対象物との距離が遠い場合と比較して確信度を高く設定する。
The
画像処理部6は、例えば、下記式(1)を用いて確信度を算出する。
CCAM=f(Intensity,Size,Dist)…(1)
なお、CCAMは、カメラ2によって取得されたセンサデータに基づく確信度である。式(1)において、「Intensity」は対象物の色相または明度であり、「Size」は対象物の外形寸法であり、「Dist」は車両と対象物との距離であり、fは確信度を算出するための関数である。
The
C CAM = f (Intensity, Size, Dist) (1)
The CAM is a certainty factor based on the sensor data acquired by the
3DLR処理部7は、3DLR3から入力したセンサデータについてデータ処理を行う。また、3DLRから入力したセンサデータには、対象物の位置(左右方向の位置、車両の進行方向における位置、上下方向の位置)、対象物のサイズ(幅方向のサイズ、高さ方向のサイズ、奥行き方向のサイズ)、対象物に当たって反射したレーザの反射強度、対象物に当たって反射したレーザの点数(計測点数)、レーザが当たった複数の点である点群の重心位置(左右方向の重心、車両の進行方向の重心、上下方向の重心)、点群の分散に関する情報が含まれる。
The
3DLR処理部7は、3DLR3で検知された対象物について確信度を設定する確信度設定部として機能する。3DLR処理部7は、センサデータに基づいて、対象物の位置(左右方向の位置、車両の進行方向における位置、上下方向の位置)、対象物のサイズ(幅方向のサイズ、高さ方向のサイズ、奥行き方向のサイズ)、対象物に当たって反射したレーザの反射強度、対象物に当たって反射したレーザの点数(計測点数)、レーザが当たった複数の点である点群の重心位置(左右方向の重心、車両の進行方向の重心、上下方向の重心)、点群の分散を算出する。
The
3DLR処理部7は、対象物のセンサデータに基づいて、対象物のサイズについて判定し、対象物のサイズ(実際のサイズ)が大きい場合に、対象物のサイズが小さい場合と比較して確信度を高く設定する。
The
3DLR処理部7は、対象物のセンサデータに基づいて、対象物に当たって反射したレーザの反射強度について判定し、レーザの反射強度が強い場合に、レーザの反射強度が弱い場合と比較して確信度を高く設定する。
The
3DLR処理部7は、対象物のセンサデータに基づいて、対象物に当たって反射したレーザの点数について判定し、対象物に当たって反射したレーザの点数が多い場合に、対象物に当たって反射したレーザの点数が少ない場合と比較して確信度を高く設定する。
The
3DLR処理部7は、対象物のセンサデータに基づいて、複数のレーザが当たった点群の重心位置について判定し、点群の重心の位置が車両から近い場合に、点群の重心の位置が車両から遠い場合と比較して確信度を高く設定する。また、3DLR処理部7は、点群の重心の位置が経路中心に近い場合に、点群の重心の位置が経路中心から遠い場合と比較して確信度を高く設定する。
The
3DLR処理部7は、対象物のセンサデータに基づいて、点群の分布について判定し、点群の分散の信頼区間の大きさが対象物の外形サイズと同等である場合に、点群の分散の信頼区間の大きさが対象物の外形サイズと大きく異なる場合と比較して確信度を高く設定する。
The
3DLR処理部7は、例えば、下記式(2)を用いて確信度を算出する。
C3DLR=g(Num of Spots,Trace)…(2)
なお、C3DLRは、3DLR3によって取得されたセンサデータに基づく確信度である。式(2)において、「Num of Spots」は、反射したレーザの点数であり、「Trace」は、3DLR3自体が判定した追跡成否結果を示す係数であり、gは確信度を算出するための関数である。3DLR処理部7による処理結果は、統合処理部9に出力される。
The
C 3DLR = g (Num of Spots, Trace) (2)
In addition, C3DLR is a certainty factor based on the sensor data acquired by 3DLR3. In Equation (2), “Num of Spots” is the number of reflected lasers, “Trace” is a coefficient indicating the tracking success / failure result determined by the
線形計算部8は、記憶部に記憶されている経路の線形情報と、車輪速センサ4で取得された車速とを用いて、車両の移動距離を算出する。「経路の線形情報」は、経路の起点となる位置からの距離に対応した経路の3次元の形状に関する情報であり、道路におけるカーブの水平方向の曲率に関する情報、坂道における上下方向の勾配に関する情報を含むものである。線形計算部8は、経路の線形情報及び車速に基づいて、車両の起点から位置を示す自車位置情報を算出する。
The
統合処理部9は、複数のセンサから取得された対象物のセンサデータを統合する統合処理を行う。統合処理部9は、追跡処理及び支障物判定処理に適したデータとするために、時間的に異なる複数のセンサデータを時間的に連続するデータとして統合する。
The
また、統合処理部9は、追跡処理部11、確信度更新部12、支障物判定部13、及びマスク処理部14を備えている。
The
追跡処理部11は、例えばカルマンフィルタを用いて、対象物の追跡処理(トラッキング)を行う。時間的に前後するデータフレーム間で、同一の対象物に関するセンサデータについて関連付けを行う追跡処理を行う。これにより、一度検知された対象物について時間を追って認識することができる。追跡処理部11は、センサの種別ごとに追跡処理を行う。追跡処理部11は、カメラ2によって取得されたセンサデータを用いた追跡処理と、3DLR3によって取得されたセンサデータを用いた追跡処理とを別々に行う。
The
確信度更新部12は、追跡処理部11において、追跡判定された場合に、センサデータに基づく確信度を更新する。例えば、時刻t=1のセンサデータDS1と、時刻t=2のセンサデータDS2とが同じ対象物であると追跡判定された場合(合致した場合)には、センサデータDS1,DS2に付随する確信度に基づいて、対象物の確信度を更新する。例えば、センサデータDS1,DS2に付随する確信度を平均することで、確信度を更新してもよく、重み付き平均を用いて確信度を更新してもよい。
The
確信度更新部12は、下記式(3)を用いて重み付き平均を算出して対象物の確信度を更新する。
Ck+1=wCk+wsCk S…(3)
ただし、Ck+1は、時刻k+1における確信度、Ckは、時刻kにおける確信度、Ck Sは、上記(1)または(2)のセンサデータに基づいて設定された確信度であり、wは現在値に対する重み係数であり、wsは計測値に対する重み係数(センサの種別に応じた重み係数)である。
The
C k + 1 = wC k + w s C k S ... (3)
Here, C k + 1 is the certainty at
また、カメラ2によるセンサデータに基づく確信度CSに対する重み係数wsと、3DLR3によるセンサデータに基づく確信度CSに対する重み係数wsとを同じ値としてもよく、異なる値としてもよい。例えば、センサによる検出精度が高い場合には、センサによる検出精度が低い場合と比較して、センサの種別に応じた重み係数を高く設定する。
Further, the weight coefficient w s for confidence C S based on the sensor data from the
また、確信度更新部12は、追跡処理部11で対象物が追跡判定できなかった場合に、当該対象物の確信度を減少させるように確信度を更新する。例えば、現在の確信度を一定の割合で減少させてもよく、一定の値を差し引いてもよい。
Further, when the
図3及び図4は、確信度の変化の例を示すグラフである。図3及び図4では、横軸にセンサデータのパラメータ(色相、明度、大きさ、または距離に関する値)を示し、縦軸に確信度を示している。図3(a)は、パラメータが増加しても確信度が一定である場合を示している。図3(b)は、パラメータの増加に比例して確信度が増加する場合(線形変化)を示している。 3 and 4 are graphs showing examples of changes in the certainty factor. 3 and 4, the horizontal axis indicates the parameters of the sensor data (values related to hue, lightness, size, or distance), and the vertical axes indicate the certainty factor. FIG. 3A shows a case where the certainty factor is constant even when the parameter increases. FIG. 3B shows a case where the certainty factor increases in proportion to an increase in the parameter (linear change).
図3(c)は、確信度の上限値及び下限値の範囲内において、パラメータの増加に伴って確信度が増加する場合を示している。例えば、パラメータがP1以下である場合には、確信度は下限値で一定である。パラメータがP1以上であり、P2以下である場合には、確信度は、パラメータの増加に比例して増加する(線形変化)。パラメータがP2以上である場合には、確信度は上限値で一定である。 FIG. 3C shows a case where the certainty increases with an increase in the parameter within the range of the upper limit and the lower limit of the certainty. For example, if the parameter is equal to or less than P1, the certainty factor is constant at the lower limit. If the parameter is greater than or equal to P1 and less than or equal to P2, the confidence increases in proportion to the parameter increase (linear change). If the parameter is equal to or greater than P2, the certainty factor is constant at the upper limit.
図3(d)は、パラメータの増加に伴って確信度が非線形変化して増加する場合を示している。例えば、確信度の増加率は、パラメータの増加に伴って増大する。 FIG. 3D shows a case where the certainty factor nonlinearly changes and increases as the parameter increases. For example, the rate of increase in the certainty factor increases with an increase in the parameter.
図4(a)は、確信度の上限値及び下限値の範囲内において、パラメータの増加に伴って確信度が増加する場合を示している。例えば、パラメータがP1以下である場合には、確信度は下限値で一定である。パラメータがP1以上であり、P2以下である場合には、確信度は、パラメータの増加に伴って増加する(非線形変化)。例えば、この非線形変化の区間における確信度の増加率は、パラメータの増加に伴って増大する。パラメータがP2以上である場合には、確信度は上限値で一定である。 FIG. 4A shows a case where the certainty increases with an increase in the parameters within the range of the upper limit and the lower limit of the certainty. For example, if the parameter is equal to or less than P1, the certainty factor is constant at the lower limit. When the parameter is equal to or more than P1 and equal to or less than P2, the certainty factor increases as the parameter increases (nonlinear change). For example, the rate of increase of the certainty factor in the non-linear change section increases with an increase in the parameter. If the parameter is equal to or greater than P2, the certainty factor is constant at the upper limit.
図4(b)は、パラメータの増加に伴って確信度が非線形変化して増加する場合を示している。例えば、確信度の増加率は、パラメータの増加に伴って減少する。 FIG. 4B shows a case where the certainty factor increases nonlinearly as the parameter increases. For example, the rate of increase in certainty decreases with an increase in parameters.
図4(c)は、パラメータの増加に伴って確信度がステップ状に変化して増加する場合を示している。例えば、パラメータがP11以上P12未満である場合には、確信度はC11で一定であり、パラメータがP12以上P13未満である場合に、確信度はC12(C11<C12)で一定である。 FIG. 4C shows a case where the certainty factor changes stepwise and increases with an increase in the parameter. For example, when the parameter is not less than P11 and less than P12, the certainty is constant at C11, and when the parameter is not less than P12 and less than P13, the certainty is constant at C12 (C11 <C12).
図4(d)に示す場合は、走行路の幅方向の中心から対象物までの距離に応じて、確信度が異なっている。例えば、パラメータの増加に比例して確信度が増加するように、確信度の変化のモデルを複数(例えば4つ)設定する。そして、走行路の幅方向の中心から対象物までの距離が近い場合には、走行路の幅方向の中心から対象物までの距離が遠い場合と比較して、確信度が高く、且つ、確信度の増加率が高くなっている。 In the case shown in FIG. 4D, the degree of certainty differs depending on the distance from the center in the width direction of the traveling path to the object. For example, a plurality (for example, four) models of the change in the certainty factor are set so that the certainty factor increases in proportion to the increase in the parameter. When the distance from the center in the width direction of the traveling path to the object is short, the confidence is higher and the confidence is higher than when the distance from the center in the width direction of the traveling path to the object is longer. The rate of increase in degrees is high.
マスク処理部14は、センサデータに基づいて検知された対象物が、所定の条件を満足する場合に、その対象物は支障物ではないと判定する。これにより、統合処理部9における計算負荷を軽減する。所定の条件としては、例えば、検知された対象物の危険度が低く、車両の走行に影響を与えないものと判定できる条件が設定される。
When an object detected based on the sensor data satisfies a predetermined condition, the
支障物判定部13は、確信度に基づいて、カメラ2又は3DLR3で検知された対象物が支障物であるか否かを判定する。支障物判定部13は、確信度が閾値以上である場合に、センサで検知された対象物は支障物であると判定する。統合処理部9による処理結果は、システム統括部10に出力される。
The
また、支障物検知ユニット5には、表示部15及び操作部16が電気的に接続されている。表示部15は、例えば、液晶表示装置であり、カメラ2で取得した画像を表示する。また、支障物検知ユニット5から出力された情報に基づいて、支障物である対象物を強調表示することで、運転者に報知する。
The
また、操作部16は、例えば、液晶表示装置のタッチパネルであり、運転者の操作入力に基づく信号をシステム統括部10に出力する。運転者は、例えば、支障物ではないと確認された対象物について入力操作する際に、操作部16を操作する。
The
また、支障物検知装置1には、車両Mの制御を司る車両制御部17が電気的に接続されている。車両制御部17には、例えば警報器18及びブレーキ19が電気的に接続されている。車両制御部17は、システム統括部10からの信号に基づいて、警報器18を制御して警報音を発することができる。また、車両制御部17は、システム統括部10からの信号に基づいて、ブレーキ19を作動させて、車両を減速させることができる。
Further, a
次に、支障物検知装置1の動作について説明する。図5及び図6に示すフローチャートに沿って説明する。図5は、画像処理部6及び3DLR処理部7における処理手順を示すフローチャートである。図6は、統合処理部9における処理手順を示すフローチャートである。
Next, the operation of the
まず、図5のフローチャートを参照して、支障物検知ユニット5における確信度の設定について説明する。図5に示される確信度を設定する処理(ステップS1〜S4)は、画像処理部6及び3DLR処理部7において、別々に実行される。
First, the setting of the certainty factor in the
ここでは、画像処理部6における処理について説明した後に、3DLR処理部7における処理について説明する。
Here, after the processing in the
画像処理部6はカメラ2で取得したセンサデータとして画像情報を取得する(ステップS1)。このセンサデータには、対象物の色相、明度、サイズ、及び位置に関する情報が含まれている。なお、複数のセンサ(カメラ2、3DLR3)において、要求されている検出性能は以下の通りである。例えば、「夜間、対象物の静止状態において、車両の前方50m以上450m以下の区間に存在し、標準値程度の反射率であり、サッカーボールや小型のボストンバック程度の大きさの物体を検出できること」である。
The
次に、画像処理部6は、線形計算部8から自車位置情報を取得する(ステップS2)。線形計算部8は、車輪速センサ4から車両Mの車速を算出して、当該車速及び経路の線形情報に基づいて起点からの車両Mの移動距離を算出して、自車位置情報を算出する。算出された自車位置情報は、画像処理部6に出力される。
Next, the
続いて、画像処理部6は、センサデータ及び自車位置情報に基づいて、対象物の確信度を設定する(ステップS3)。画像処理部6は、上述したように、対象物の色相、対象物の明度、対象物のサイズ、車両Mから対象物までの距離を判定して、対象物の確信度を設定する。画像処理部6は、例えば、確信度を算出するための数式を用いて確信度を算出してもよく、マップを用いて確信度を算出してもよい。確信度を算出するためのマップでは、対象物の色相、対象物の明度、対象物のサイズ、及び対象物までの距離と、確信度とが関係付けられている。確信度を算出するためのマップは、例えば、支障物検知ユニット5の記憶部に記憶されている。
Subsequently, the
そして、画像処理部6は、各種データとして、センサデータ、及び設定された確信度に関するデータを、統合処理部9に出力する(ステップS4)。
Then, the
次に、3DLR処理部7における処理について説明する。ステップS1では、3DLR処理部7は3DLR3で取得したセンサデータとして、対象物に当たって反射したレーザに関する情報を取得する。このセンサデータには、対象物の位置、対象物のサイズ、対象物に当たって反射したレーザの反射強度、対象物に当たって反射したレーザの点数、レーザが当たった複数の点である点群の重心位置、点群の分散に関する情報が含まれる。
Next, processing in the
次に、3DLR処理部7は、ステップS2に進み、線形計算部8から自車位置情報を取得した後、ステップS3に進み、センサデータ及び自車位置情報に基づいて、対象物の確信度を設定する。
Next, the
3DLR処理部7は、上述したように、対象物のサイズ、車両Mから対象物までの距離、対象物に当たって反射したレーザの反射強度、対象物に当たって反射したレーザの点数、レーザが当たった複数の点である点群の重心位置、点群の分散を判定して、対象物の確信度を設定する。3DLR処理部7は、例えば、確信度を算出するための数式を用いて、確信度を算出してもよく、マップを用いて確信度を算出してもよい。
As described above, the
そして、画像処理部6は、各種データとして、センサデータ、及び設定された確信度に関するデータを、統合処理部9に出力する(ステップS4)。
Then, the
次に、図6のフローチャートを参照して、統合処理部9における処理手順について説明する。
Next, a processing procedure in the
まず、統合処理部9は、画像処理部6及び3DLR処理部7から出力された各種データを入力する(ステップS11)。統合処理部9は、適宜、各種データを統合する。
First, the
続く、ステップS12では、統合処理部9の追跡処理部11は、センサデータを取得したセンサ(カメラ2または3DLR3)を判別する。センサデータには、取得したセンサを示す識別信号が含まれている。追跡処理部11は、この識別信号を読み取り、当該センサデータを取得したセンサを判別する。
Subsequently, in step S12, the
次に、ステップS13では、追跡処理部11は、センサごとに、当該センサによって取得されたセンサデータを用いて、追跡処理(追跡計算)を実行する。追跡処理部11は、時間的に前後するデータフレーム間で、同一の対象物に関するセンサデータについて関連付けを行う。複数のデータフレーム間で同一の対象物の存在を確認できた場合には、当該対象物を追跡できたと判定する(追跡判定)。
Next, in step S13, the
追跡処理部11では、例えば最大100個程度の対象物を周期100msで、追跡計算する。また、追跡処理部11では、対象物は地面に対して静止しており、センサによる観測の変化は、車両の運動のみに依存すると仮定する。更に、追跡処理部11では、計算負荷を低減するために、対象物同士の位置の相関について計算せず、対象物ごとに追跡計算する。例えば、従来の追跡処理の計算方法では、誤合致による誤差が発生した場合には、カルマンゲインを介してその誤差が複数の対象物に対する追跡処理に分散する。しかし、追跡処理部11では、象物同士の位置の相関について計算せず、対象物について個別に追跡処理を行うので、他の対象物の追跡処理への誤差の影響が防止される。
The
対象物を追跡できた場合(追跡判定できた場合、S14;YES)には、ステップS15に進み、対象物を追跡できなかった場合(追跡判定できなかった場合、S14;NO)には、ステップS16に進む。 If the object can be tracked (if the tracking can be determined, S14; YES), the process proceeds to step S15. If the object cannot be tracked (if the tracking cannot be determined, S14; NO), the process proceeds to step S15. Proceed to S16.
ステップS15では、確信度更新部12は、複数のセンサデータに紐付く確信度を用いて確信度の更新を行う。ここでは、対象物の追跡判定の際に関連付けられた複数のセンサデータに紐付く確信度を用いて、当該対象物の確信度を更新する。確信度更新部12は、複数のセンサデータに紐付く確信度について、例えば、重み付き平均を用いて新たな確信度を設定することで更新する。
In step S15, the certainty
ステップS16では、確信度更新部12は、追跡判定できなかった対象物の確信度を減らすように確信度の更新を行う。例えば、現在の確信度を一定の割合で減少させてもよく、一定の値を差し引いてもよい。
In step S16, the certainty
次に、ステップS17では、支障物判定部13は、対象物の確信度が判定閾値以上であるか否かを判定する。確信度が判定閾値以上である場合(ステップS17;YES)には、対象物は支障物であると判定し、ステップS18に進み、確信度が判定閾値に満たない場合(ステップS17;NO)には、ここでの処理は終了する。
Next, in step S17, the
また、マスク処理部14は、対象物が所定の条件に合致する場合には、対象物は支障物ではないと判断することができる。これにより、支障物判定部13による判定処理を回避することができると共に、不要な警告や、回避動作を抑制することができるので、支障物検知ユニット5及び車両制御部17における負荷を低減することができる。
In addition, when the target object satisfies the predetermined condition, the
続く、ステップS18では、統合処理部9は、システム統括部10に対して、支障物判定部13による判定結果をシステム統括部10に出力し、システム統括部10は、ステップS17において支障物であると判定された対象物を運転者に報知する。具体的には、表示部15において、カメラ2による画像を表示する際に、該当する対象物が支障物であると強調表示(警報)する。強調表示としては、例えば、支障物を赤枠で囲むなどする。また、対象物の近傍に確信度の数値を表示してもよい。
Subsequently, in step S18, the
また、支障物であることが報知された場合には、運転者は、目視により支障物を確認し、実際に支障物であると確認した場合に、車両を停止させたり、ハンドル操作を行って進路を変更したりすることで、支障物との接触を回避することができる。 When the driver is notified that the vehicle is an obstacle, the driver checks the obstacle visually and stops the vehicle or operates the steering wheel when the driver confirms that the vehicle is actually an obstacle. By changing the course, contact with obstacles can be avoided.
また、運転者が目視により支障物ではないと判断した場合には、操作部16を用いて操作入力を行い、当該対象物をキャンセル物体(支障物ではない対象物)とする。
If the driver visually determines that the object is not an obstacle, the driver performs an operation input using the
支障物検知ユニット5は、ステップS18の処理を実行した後、図6における処理を終了して、ステップS1に戻り、同様の処理を繰り返す。
After executing the processing in step S18, the
この支障物検知装置1によれば、追跡処理を行って追跡判定できた場合に、対象物の確信度を更新するので、検出時刻が異なる複数のセンサデータを用いて確信度を適切に更新することができる。これにより、更新された確信度に応じて精度良く支障物を検知することができる。
According to the
また、確信度更新部12は、追跡処理部11で対象物が追跡判定されなかった場合に、当該対象物の確信度を低下するように更新している。これにより、カメラ2または3DLR3によって検出された対象物が、その後検出されない場合には追跡判定されないので、次第にその確信度が低下する。そのため、検出されなくたった対象物が支障物として検知される可能性が減ることになる。その結果、誤検出の可能性が高い対象物が支障物として検知されるおそれを減らすことができる。
In addition, when the
また、支障物検知装置1では、対象物とその周囲との明度差に応じて確信度を設定し、この設定された確信度を用いて、確信度を更新することができる。これにより、センサデータに含まれる対象物の明度に関するデータを考慮して、対象物の確信度を更新することで、誤検知を低減して、支障物を検知する精度を向上させることができる。
Further, the
また、支障物検知装置1では、対象物とその周囲との色相差に応じて確信度を設定し、この設定された確信度を用いて、確信度を更新することができる。これにより、センサデータに含まれる対象物の色相に関するデータを考慮して、対象物の確信度を更新することで、誤検知を低減して、支障物を検知する精度を向上させることができる。
Further, the
また、支障物検知装置1では、対象物の外形サイズに応じて確信度を設定し、この設定された確信度を用いて、確信度を更新することができる。これにより、センサデータに含まれる対象物の外形サイズに関するデータを考慮して、対象物の確信度を更新することで、誤検知を低減して、支障物を検知する精度を向上させることができる。
In the
また、支障物検知装置1では、車両Mから対象物までの距離に応じて確信度を設定し、この設定された確信度を用いて、確信度を更新することができる。これにより、センサデータに含まれる対象物までの距離に関するデータを考慮して、対象物の確信度を更新することで、誤検知を低減して、支障物を検知する精度を向上させることができる。
Further, the
また、車両Mから支障物までの距離が近い場合には、支障物を回避するための時間や支障物を確認するための時間が短いため、早急に対策を取る必要がある。支障物検知装置1では、車両Mから対象物までの距離が近い場合に、対象物の確信度を高く設定して、当該対象物が支障物として検知される可能性を高くし、運転者への報知を早く確実に行うことができる。その結果、運転者は、ブレーキ操作を早めて支障物との衝突を確実に回避することができる。
Further, when the distance from the vehicle M to the obstacle is short, the time for avoiding the obstacle and the time for confirming the obstacle are short, so it is necessary to take immediate measures. In the
また、確信度更新部12は、センサの種別に応じて、複数のセンサデータの重み付き平均を算出して対象物の確信度を更新するので、センサの種別に基づくセンサデータの重要度を反映させて、対象物の確信度を適切更新することができる。これにより、誤検知を一層低減して、支障物を検知する精度を向上させることができる。
In addition, the certainty
また、支障物判定部13は、確信度が判定閾値以上である場合に、対象物を支障物であると判定するので、確信度が判定閾値に満たない場合に、対象物が支障物として検知されることが防止される。その結果、支障物を検知する精度を向上することができる。
In addition, the
また、従来技術の物体認識装置では、要求された仕様を満たすためにセンサによって数多くの対象物候補を検出する傾向にあった。また、従来の物体認識装置では、センサによる単回の検出結果を用いて危険な対象物であるのか否かを判定するために、多数の検出結果が得るおそれがあった。本実施形態の支障物検知装置1では、複数の検出データを統合して確信度を更新することができるので、支障物判定部13において演算に使用されるデータ数を削減することができる。支障物検知装置1では、1つの対象物に対して複数の検出データを用いることで支障物を検知する精度(確度)を高めることができる。
Further, in the object recognition device of the related art, a large number of target object candidates tend to be detected by a sensor in order to satisfy a required specification. Further, in the conventional object recognition device, a large number of detection results may be obtained in order to determine whether or not the object is a dangerous target using a single detection result of the sensor. In the
本発明は、前述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で下記のような種々の変形が可能である。 The present invention is not limited to the embodiments described above, and various modifications as described below are possible without departing from the gist of the present invention.
上記実施形態では、センサとしてカメラ2及び3DLR3を備える構成としているが、センサはこれらに限定されず、例えば、検出範囲が異なる複数種類のカメラ(遠距離カメラ、近距離カメラ)を備える構成でもよい。また、上記実施形態では、複数種類のセンサを備える構成としているが、1種類のセンサを備えるものでもよい。
In the above-described embodiment, the camera is configured to include the
また、上記実施形態では、対象物の明度に関する情報、対象物の色相に関する情報、対象物の外形寸法に関する情報、対象物までの距離に関する情報に基づいて確信度を設定しているが、明度に関する情報のみ、色相に関する情報のみ、外形寸法に関する情報のみ、対象物までの距離に関する情報のみに基づいて、確信度を設定してもよく、複数の情報を用いて確信度を設定してもよい。 Further, in the above embodiment, the certainty is set based on the information on the brightness of the object, the information on the hue of the object, the information on the external dimensions of the object, and the information on the distance to the object. The certainty may be set based on only the information, only the information related to the hue, only the information related to the outer dimensions, or only the information related to the distance to the object, or the certainty may be set using a plurality of pieces of information.
また、対象物の検出データは、対象物の明るさに関する情報を含み、確信度設定部は、対象物の明るさが明るい場合に、対象物の明るさが暗い場合と比較して、確信度を高く設定してもよい。対象物が明るい場合には、対象物が暗い場合と比較して、誤検出の可能性が低いので、対象物が明るい場合について、対象物の確信度を高く設定し、対象物が暗い場合について、対象物の確信度を低く設定することで、支障物を精度良く検知する。 In addition, the detection data of the object includes information regarding the brightness of the object, and the certainty factor setting unit determines the certainty factor when the brightness of the object is higher than when the brightness of the object is lower. May be set higher. When the object is bright, the possibility of erroneous detection is lower than when the object is dark.Therefore, when the object is bright, the confidence level of the object is set high, and when the object is dark, By setting the certainty factor of the object low, obstacles can be detected with high accuracy.
また、上記実施形態では、確信度更新部12において、重み付き平均を用いて対象物の確信度を更新しているが、重み付き平均を用いないで確信度を更新してもよい。例えば、複数の確信度に基づいて、その他の数式やマップを用いて確信度を更新してもよい。
In the above embodiment, the certainty
また、上記実施形態では、確信度更新部12は、センサの種別に応じて、重み付き平均における重みを変更して、対象物の確信度を更新しているが、センサの種別以外のその他の条件に応じて、重み付き平均における重みを変更してもよい。例えば、対象物である物体の種別に応じて、その物体がその場所に存在する確率に基づいて、重み付け平均における重みを変更してもよい。物体の存在確率が高い場合には、物体の存在確率が低い場合と比較して、重み係数を大きくする。これにより、対象物である物体の存在確率を考慮して、対象物の確信度を変更することができる。なお、支障物検知装置1では、センサデータに基づいて、対象物の物体の種別を判定してもよい。また、物体の存在確率に関するデータは、例えば、統合処理部9の記憶部に格納されている。
In the above-described embodiment, the certainty
また、上記実施形態では、追跡処理部11で追跡判定できなかった場合(ステップS14;NO)に、確信度を減少させている(ステップS16)が、確信度を減少させずに確信度を維持してもよい。
Further, in the above embodiment, when the
また、上記実施形態では、支障物検知システムを車両に搭載した場合について説明しているが、支障物検知システムを車両以外の移動体に搭載してもよい。例えば、ロボット、飛行機、船舶、鉄道などに、支障物検知システムを搭載してもよい。また、支障物検知システムは、移動体に搭載せずに、その他の場所や物に設置してもよい。例えば、工場、店舗、病院、空港、駅、走行路周辺の建築物などに、支障物検知システムを設置して、危険のおそれがある対象物を支障物として検知してもよい。なお、対象物は静止物に限定されず、移動する物、人、動物でもよい。また、支障物は、危険な対象物に限定されず、障害となる対象物、特定の条件に合致する対象物でもよい。 In the above embodiment, the case where the obstacle detection system is mounted on the vehicle is described. However, the obstacle detection system may be mounted on a moving body other than the vehicle. For example, the obstacle detection system may be mounted on a robot, an airplane, a ship, a railway, or the like. Further, the obstacle detection system may be installed in another place or object without being mounted on the moving body. For example, an obstacle detection system may be installed in a factory, a store, a hospital, an airport, a station, a building around a traveling road, or the like, and a potentially dangerous object may be detected as an obstacle. The target object is not limited to a stationary object, but may be a moving object, a person, or an animal. In addition, the obstacle is not limited to a dangerous object, and may be an obstacle or an object that meets specific conditions.
1 支障物検知装置(支障物検知システム)
2 カメラ(検出部)
3 3DLR(検出部)
5 支障物検知ユニット
6 画像処理部(確信度設定部)
7 3DLR処理部(確信度設定部)
9 統合処理部
11 追跡処理部
12 確信度更新部
13 支障物判定部
B 落下物(対象物、支障物)
1 Obstacle detection device (obstacle detection system)
2 Camera (detection unit)
3 3DLR (detection unit)
5
7 3DLR processing unit (confidence level setting unit)
9
Claims (8)
前記検出部で取得した前記対象物の検出データに基づいて、前記対象物が支障物である可能性を示す確信度を設定する確信度設定部と、
検出時刻が異なる複数の前記検出データが同一の前記対象物に対するものであるか否かを判定する追跡処理を実行する追跡処理部と、
前記追跡処理部で、複数の前記検出データが前記同一の対象物に対するものであると判定した場合に、前記同一の対象物に関連する前記検出データを用いて、当該対象物の前記確信度を更新する確信度更新部と、を備え、
前記検出部は、3次元レーザレーダを含む複数種類の検出部を備え、
前記対象物の検出データは、前記対象物に当たって反射したレーザの点数、レーザが当たった複数の点である点群の重心位置、及び前記点群の分散の少なくとも一つに関する情報を含み、
前記確信度更新部は、各検出部で取得した前記対象物の検出データに基づいて、それぞれ、各確信度を設定し、前記各確信度を用いた重み付き平均を算出することによって前記対象物の前記確信度を更新する支障物検知システム。 A detection unit for detecting an object;
Based on the detection data of the target object obtained by the detection unit, a certainty factor setting unit that sets a certainty factor indicating the possibility that the target object is an obstacle,
A tracking processing unit that performs a tracking process to determine whether the plurality of pieces of detection data having different detection times are for the same object,
In the tracking processing unit, when it is determined that the plurality of the detection data is for the same object, using the detection data related to the same object, the certainty factor of the object And a confidence update unit for updating .
The detection unit includes a plurality of types of detection units including a three-dimensional laser radar,
The detection data of the object includes the number of lasers reflected on the object, the position of the center of gravity of a point group that is a plurality of points hit by the laser, and information on at least one of the variance of the point group,
The certainty factor updating unit sets each certainty factor based on the detection data of the target object obtained by each detecting unit, and calculates a weighted average using the certainty factors to obtain the target object. the obstacle detection system to update the confidence of.
前記確信度設定部は、前記対象物と当該対象物の周囲との明度差が大きい場合に、前記明度差が小さい場合と比較して、前記確信度を高く設定する請求項1に記載の支障物検知システム。 The detection data of the object includes information on the brightness of the object,
The obstacle according to claim 1, wherein the certainty factor setting unit sets the certainty factor higher when the brightness difference between the target object and the surroundings of the target object is larger than when the brightness difference is smaller. Object detection system.
前記確信度設定部は、前記対象物と当該対象物の周囲との色相差が大きい場合に、前記色相差が小さい場合と比較して、前記確信度を高く設定する請求項1又は2に記載の支障物検知システム。 The detection data of the object includes information on a hue of the object,
The said certainty factor setting part sets the said certainty factor high when the hue difference between the said target object and the circumference | surroundings of the said target object is large compared with the case where the said hue difference is small. Obstacle detection system.
前記確信度設定部は、前記対象物の外形寸法が大きい場合に、前記対象物の外形寸法が小さい場合と比較して、前記確信度を高く設定する請求項1〜3の何れか一項に記載の支障物検知システム。 The detection data of the object includes information on the external dimensions of the object,
The confidence factor setting unit according to any one of claims 1 to 3, wherein when the external dimensions of the object are large, the confidence is set higher than when the external dimensions of the object are small. Obstacle detection system as described.
前記確信度設定部は、前記対象物までの距離が近い場合に、前記対象物までの距離が遠い場合と比較して、前記確信度を高く設定する請求項1〜4の何れか一項に記載の支障物検知システム。 The detection data of the object includes information on a distance from the detection unit to the object,
5. The confidence factor setting unit according to claim 1, wherein when the distance to the target object is short, the confidence factor is set higher than when the distance to the target object is long. Obstacle detection system as described.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015166006A JP6645074B2 (en) | 2015-08-25 | 2015-08-25 | Obstacle detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015166006A JP6645074B2 (en) | 2015-08-25 | 2015-08-25 | Obstacle detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017044530A JP2017044530A (en) | 2017-03-02 |
JP6645074B2 true JP6645074B2 (en) | 2020-02-12 |
Family
ID=58209742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015166006A Active JP6645074B2 (en) | 2015-08-25 | 2015-08-25 | Obstacle detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6645074B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210396525A1 (en) * | 2020-06-18 | 2021-12-23 | Furuno Electric Co., Ltd. | Ship target object detection system, method of detecting ship target object and reliability estimating device |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6930152B2 (en) * | 2017-03-14 | 2021-09-01 | トヨタ自動車株式会社 | Autonomous driving system |
JP6791055B2 (en) | 2017-08-08 | 2020-11-25 | 株式会社デンソー | Photodetector, driver assistance system, and autonomous driving system |
US10641888B2 (en) * | 2017-11-06 | 2020-05-05 | Veoneer Us Inc. | Cued automobile sensor fusion |
CN110412530B (en) * | 2018-04-27 | 2021-09-17 | 深圳市优必选科技有限公司 | Method and device for identifying charging pile and robot |
JP2020034454A (en) * | 2018-08-30 | 2020-03-05 | パイオニア株式会社 | Signal processing device |
JP7147420B2 (en) * | 2018-09-26 | 2022-10-05 | トヨタ自動車株式会社 | OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND COMPUTER PROGRAM FOR OBJECT DETECTION |
JP7519601B2 (en) | 2020-06-11 | 2024-07-22 | パナソニックIpマネジメント株式会社 | Fall detection device and fall detection method |
WO2023054090A1 (en) * | 2021-10-01 | 2023-04-06 | ソニーセミコンダクタソリューションズ株式会社 | Recognition processing device, recognition processing method, and recognition processing system |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3065821B2 (en) * | 1992-11-02 | 2000-07-17 | 株式会社豊田中央研究所 | Object detection device |
JPH06243258A (en) * | 1993-02-19 | 1994-09-02 | Toshiba Corp | Depth detector |
JP3304905B2 (en) * | 1999-01-08 | 2002-07-22 | 住友電気工業株式会社 | Object tracking recognition device |
JP3718747B2 (en) * | 2001-04-27 | 2005-11-24 | 日産自動車株式会社 | Vehicle travel control device |
JP3915746B2 (en) * | 2003-07-01 | 2007-05-16 | 日産自動車株式会社 | Vehicle external recognition device |
JP2007127478A (en) * | 2005-11-02 | 2007-05-24 | Konica Minolta Holdings Inc | Device and method for speed detection of tracking subject |
JP4937029B2 (en) * | 2007-07-23 | 2012-05-23 | 株式会社豊田中央研究所 | Object detection apparatus and program |
US8917904B2 (en) * | 2008-04-24 | 2014-12-23 | GM Global Technology Operations LLC | Vehicle clear path detection |
JP5929870B2 (en) * | 2013-10-17 | 2016-06-08 | 株式会社デンソー | Target detection device |
-
2015
- 2015-08-25 JP JP2015166006A patent/JP6645074B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210396525A1 (en) * | 2020-06-18 | 2021-12-23 | Furuno Electric Co., Ltd. | Ship target object detection system, method of detecting ship target object and reliability estimating device |
Also Published As
Publication number | Publication date |
---|---|
JP2017044530A (en) | 2017-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6645074B2 (en) | Obstacle detection system | |
US20230079730A1 (en) | Control device, scanning system, control method, and program | |
JP6464673B2 (en) | Obstacle detection system and railway vehicle | |
US20140347207A1 (en) | Probabilistic target selection and threat assessment method and application to intersection collision alert system | |
US20180224275A1 (en) | Road surface shape measuring device, measuring method, and non-transitory computer-readable medium | |
JP2018060326A (en) | Tracking device and program thereof | |
KR102126670B1 (en) | Apparatus and method for tracking objects with optimizing region of interest | |
US10814788B2 (en) | Recognized-region estimation device, recognized-region estimation method, and recognized-region estimation program | |
US20230011475A1 (en) | Object recognition device and object recognition method | |
EP3899778A1 (en) | A method for multi-modal sensor fusion using object trajectories for cross-domain correspondence | |
JP2017004176A (en) | Road surface marking detection device and road surface marking detection method | |
US11420632B2 (en) | Output device, control method, program and storage medium | |
WO2021102676A1 (en) | Object state acquisition method, mobile platform and storage medium | |
CN115993597A (en) | Visual radar perception fusion method and terminal equipment | |
JP2007309799A (en) | On-board distance measuring apparatus | |
WO2019073024A1 (en) | Lane sensing method | |
US10976426B2 (en) | Apparatus and method for ascertaining object kinematics of a movable object | |
US20100152967A1 (en) | Object detection system with learned position information and method | |
KR102087046B1 (en) | Method and apparatus for providing information of a blind spot based on a lane using local dynamic map in autonomous vehicle | |
US20220414920A1 (en) | Object recognition device and object recognition method | |
KR20200133856A (en) | Autonomous driving apparatus and method | |
CN114084129A (en) | Fusion-based vehicle automatic driving control method and system | |
US20200026297A1 (en) | Output device, control method, program and storage medium | |
US20220067403A1 (en) | Visual guidance system and method | |
BE1028777B1 (en) | System and method for detecting inconsistencies in the outputs of perception systems of autonomous vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180626 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190709 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191223 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6645074 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |