JP6645074B2 - Obstacle detection system - Google Patents

Obstacle detection system Download PDF

Info

Publication number
JP6645074B2
JP6645074B2 JP2015166006A JP2015166006A JP6645074B2 JP 6645074 B2 JP6645074 B2 JP 6645074B2 JP 2015166006 A JP2015166006 A JP 2015166006A JP 2015166006 A JP2015166006 A JP 2015166006A JP 6645074 B2 JP6645074 B2 JP 6645074B2
Authority
JP
Japan
Prior art keywords
certainty
obstacle
unit
certainty factor
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015166006A
Other languages
Japanese (ja)
Other versions
JP2017044530A (en
Inventor
将旭 渡辺
将旭 渡辺
信一郎 園田
信一郎 園田
尚 大田
尚 大田
正樹 滝澤
正樹 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2015166006A priority Critical patent/JP6645074B2/en
Publication of JP2017044530A publication Critical patent/JP2017044530A/en
Application granted granted Critical
Publication of JP6645074B2 publication Critical patent/JP6645074B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、支障物検知システムに関する。   The present invention relates to an obstacle detection system.

従来、センサによって対象物を検出し、検出された対象物について危険であるか否かを判定する物体認識装置がある(例えば、特許文献1参照)。特許文献1の物体認識装置は、車両に搭載され、レーザを照射して車両前方の対象物を探知し、衝突の可能性がある物体を検出している。   2. Description of the Related Art Conventionally, there is an object recognition device that detects an object by a sensor and determines whether the detected object is dangerous or not (for example, see Patent Document 1). The object recognition device of Patent Literature 1 is mounted on a vehicle, irradiates a laser beam, detects an object in front of the vehicle, and detects an object having a possibility of collision.

特開2010−181246号公報JP 2010-181246 A

従来技術では、例えば、先行車よりも前方に存在する物体については、誤検出された物体と定義することで、危険であるか否かの判定対象から除外していた。また、従来技術では、センサによって数多くの対象物候補を検出してしまう場合があった。そのため、危険な対象物である支障物を精度良く認識することは容易ではなかった。   In the related art, for example, an object existing ahead of a preceding vehicle is excluded from an object to be determined as dangerous if it is defined as an erroneously detected object. Further, in the related art, a large number of target object candidates may be detected by the sensor. Therefore, it has not been easy to accurately recognize obstacles that are dangerous objects.

本発明は、支障物を精度良く検知することが可能な支障物検知システムを提供することを目的とする。   An object of the present invention is to provide an obstacle detection system capable of accurately detecting an obstacle.

本発明の支障物検知システムは、対象物を検出する検出部と、当該検出部で取得した対象物の検出データに基づいて、対象物が支障物である可能性を示す確信度を設定する確信度設定部と、検出時刻が異なる複数の検出データが同一の対象物に対するものであるか否かを判定する追跡処理を実行する追跡処理部と、当該追跡処理部で、複数の検出データが同一の対象物に対するものであると判定した場合に、同一の対象物に関連する検出データを用いて、当該対象物の確信度を更新する確信度更新部と、を備える。   An obstacle detection system according to the present invention includes: a detection unit that detects an object; and a confidence setting unit that sets a certainty factor that indicates a possibility that the object is an obstacle based on detection data of the object acquired by the detection unit. A degree setting unit, a tracking processing unit that performs a tracking process of determining whether a plurality of pieces of detection data having different detection times are for the same target object, and the plurality of pieces of detection data are the same in the tracking processing unit. A certainty update unit that updates the certainty factor of the target object using the detection data related to the same target object when it is determined that the target object is related to the target object.

この支障物検知システムでは、追跡処理を行い複数の検出データが同一の対象物のものであると判定された場合に対象物の確信度を更新するので、検出時刻が異なる複数の検出データを用いて確信度を適切に更新することができる。これにより、更新された確信度に応じて精度良く支障物を検知することができる。   This obstacle detection system performs tracking processing and updates the certainty factor of the target object when it is determined that the plurality of detection data items belong to the same target object. Thus, the degree of certainty can be appropriately updated. Thereby, an obstacle can be detected with high accuracy according to the updated certainty factor.

また、対象物の検出データは、対象物の明度に関する情報を含み、確信度設定部は、対象物と当該対象物の周囲との明度差が大きい場合に、当該明度差が小さい場合と比較して、確信度を高く設定することができる。対象物とその周囲との明度差が大きい場合には、対象物とその周囲との明度差が小さい場合と比較して、誤検出の可能性が低いので、対象物とその周囲との明度差が大きい場合について、対象物の確信度を高く設定し、対象物とその周囲との明度差が小さい場合について、対象物の確信度を低く設定することで、支障物を精度良く検知する。   In addition, the detection data of the object includes information regarding the brightness of the object, and the confidence setting unit compares the brightness difference between the object and the surroundings of the object with the case where the brightness difference is small. Therefore, the confidence can be set high. When the brightness difference between the object and its surroundings is large, the possibility of erroneous detection is lower than when the brightness difference between the object and its surroundings is small, so the brightness difference between the object and its surroundings is small. Is large, the certainty of the object is set high, and when the brightness difference between the object and its surroundings is small, the certainty of the object is set low, so that obstacles are detected with high accuracy.

また、対象物の検出データは、対象物の色相に関する情報を含み、確信度設定部は、対象物と当該対象物の周囲との色相差が大きい場合に、当該色相差が小さい場合と比較して、確信度を高く設定することができる。対象物とその周囲との色相差が大きい場合には、対象物とその周囲との色相差が小さい場合と比較して、誤検出の可能性が低いので、対象物とその周囲との色相差が大きい場合について、対象物の確信度を高く設定し、対象物とその周囲との色相差が小さい場合について、対象物の確信度を低く設定することで、支障物を精度良く検知する。   Further, the detection data of the object includes information on the hue of the object, and the certainty factor setting unit compares the hue difference between the object and the periphery of the object with the hue difference when the hue difference is small. Therefore, the confidence can be set high. When the hue difference between the object and its surroundings is large, the possibility of erroneous detection is lower than when the hue difference between the object and its surroundings is small, so the hue difference between the object and its surroundings is small. Is large, the hue difference between the object and its surroundings is set high, and when the hue difference between the object and its surroundings is small, the certainty of the object is set low, so that obstacles are accurately detected.

また、対象物の検出データは、対象物の外形寸法に関する情報を含み、確信度設定部は、対象物の外形寸法が大きい場合に、対象物の外形寸法が小さい場合と比較して、確信度を高く設定することができる。対象物が大きい場合には、対象物が小さい場合と比較して、誤検出の可能性が低いので、対象物が大きい場合について、対象物の確信度を高く設定し、対象物が小さい場合について、対象物の確信度を低く設定することで、支障物を精度良く検知する。   In addition, the detection data of the object includes information on the external dimensions of the object, and the confidence setting unit compares the external dimensions of the object with the confidence level when the external dimensions of the object are large compared to when the external dimensions of the object are small. Can be set higher. When the object is large, the possibility of erroneous detection is lower than when the object is small.Therefore, when the object is large, the confidence of the object is set high, and when the object is small, By setting the certainty factor of the object low, obstacles can be accurately detected.

また、対象物の検出データは、検出部から対象物まで距離に関する情報を含み、確信度設定部は、対象物までの距離が近い場合に、対象物までの距離が遠い場合と比較して、確信度を高く設定することができる。検出部からの距離が近い位置で検出された対象物は、検出部からの距離が遠い位置で検出された対象物と比較して、誤検出の可能性が低いので、対象物までの距離が近い場合について対象物の確信度を高く設定し、対象物までの距離が遠い場合について対象物の確信度を低く設定することで、支障物を精度良く検知する。   Further, the detection data of the object includes information on the distance from the detection unit to the object, and the certainty factor setting unit, when the distance to the object is short, as compared with the case where the distance to the object is long, Confidence can be set high. An object detected at a position closer to the detection unit is less likely to be erroneously detected than an object detected at a position farther from the detection unit. Obstacles can be detected with high accuracy by setting the certainty factor of the object high when the distance is short and by setting the low certainty factor when the distance to the object is long.

また、更新された確信度が判定閾値以上であるか否かを判定し、確信度が判定閾値以上である場合に、対象物を支障物であると判定する支障物判定部を更に備える構成でもよい。これにより、確信度が判定閾値に満たない場合に、対象物が支障物として検知されることが防止される。   In addition, the configuration further includes an obstacle determining unit that determines whether the updated certainty is equal to or greater than the determination threshold and determines that the target object is an obstacle when the certainty is equal to or greater than the determination threshold. Good. This prevents the target from being detected as an obstacle when the certainty is less than the determination threshold.

また、確信度更新部は、複数の検出データの重み付き平均を算出して対象物の確信度を更新する構成でもよい。複数の検出データについて重み付き平均を用いて、対象物の確信度を適切に更新することができる。   Further, the certainty update unit may be configured to calculate a weighted average of a plurality of pieces of detection data and update the certainty of the target object. The certainty factor of the target object can be appropriately updated using the weighted average for the plurality of pieces of detection data.

また、確信度更新部は、複数種類の検出部を備え、確信度更新部は、検出部の種別に応じて、重み付き平均における重みを変更して、対象物の確信度を更新する構成でもよい。これにより、検出部の種別によって異なる検出精度を考慮して、対象物の確信度を適切に更新することができる。   Further, the certainty update unit may include a plurality of types of detection units, and the certainty update unit may change the weight in the weighted average according to the type of the detection unit to update the certainty of the object. Good. This makes it possible to appropriately update the certainty factor of the target object in consideration of the detection accuracy that varies depending on the type of the detection unit.

また、確信度更新部は、追跡処理部で対象物が追跡判定されなかった場合に、当該対象物の確信度を低下させる構成でもよい。これにより、検出部によって検出された対象物が、その後検出されない場合には追跡判定されないので、次第にその確信度が低下する。そのため、検出されなくたった対象物が支障物として検知される可能性が減ることになる。   Also, the certainty factor updating unit may be configured to reduce the certainty factor of the target object when the tracking processing unit does not determine the tracking of the target object. Accordingly, if the target object detected by the detection unit is not detected thereafter, the tracking determination is not performed, so that the degree of certainty gradually decreases. Therefore, the possibility that the undetected target is detected as an obstacle is reduced.

本発明の支障物検知システムによれば、支障物を精度良く検知することができる。   According to the obstacle detection system of the present invention, an obstacle can be accurately detected.

本発明の実施形態に係る支障物検知装置を搭載する車両が高速道路を走行する状態を示す斜視図である。1 is a perspective view illustrating a state in which a vehicle equipped with an obstacle detection device according to an embodiment of the present invention travels on a highway. 本発明の実施形態に係る支障物検知装置を示すブロック構成図である。1 is a block diagram illustrating an obstacle detection device according to an embodiment of the present invention. 確信度の変化の例を示すグラフである。It is a graph which shows the example of a change of a certainty factor. 確信度の変化の例を示すグラフである。It is a graph which shows the example of a change of a certainty factor. 画像処理部及び3DLR処理部における処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure in an image processing part and a 3DLR processing part. 統合処理部における処理手順を示すフローチャートである。9 is a flowchart illustrating a processing procedure in an integration processing unit.

以下、本発明の好適な実施形態について、図面を参照しながら詳細に説明する。なお、各図において同一部分又は相当部分には同一の符号を付し、重複する説明は省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In each of the drawings, the same or corresponding portions have the same reference characters allotted, and overlapping description will be omitted.

図1及び図2に示される支障物検知装置1は、例えば、車両Mに搭載されて、車両前方の対象物(例えば落下物B)を検出するものである。支障物検知装置1は、カメラ2、3DLR(3次元レーザレーダ)3、車輪速センサ4及び支障物検知ユニット5を備えている。   The obstacle detection device 1 shown in FIGS. 1 and 2 is mounted on, for example, a vehicle M and detects an object (for example, a falling object B) in front of the vehicle. The obstacle detection device 1 includes a camera 2, 3DLR (three-dimensional laser radar) 3, a wheel speed sensor 4, and an obstacle detection unit 5.

支障物検知装置1は、検出された対象物を追跡し、追跡された対象物の中で、確信度が高いものを、支障物として判定する。「支障物」とは、車両の走行の妨げになるおそれがある対象物であり、当該対象物を回避するように走行を変更したり、停止して取り除くことが必要となるものである。また、「確信度」とは、対象物が支障物であることの確からしさを示す指標である。確信度が高い場合には、対象物が支障物である可能性が高く、確信度が低い場合には、対象物が支障物である可能性が低い。   The obstacle detection device 1 tracks the detected object, and determines an object having a high degree of certainty among the tracked objects as an obstacle. The “obstacle” is an object that may obstruct the traveling of the vehicle, and it is necessary to change the traveling so as to avoid the object, or to stop and remove the object. The “certainty factor” is an index indicating the likelihood that the target object is an obstacle. When the degree of certainty is high, the possibility that the object is an obstacle is high, and when the degree of certainty is low, the possibility that the object is an obstacle is low.

カメラ2(検出部)は、車両前方を撮影し、道路及び対象物等の画像情報(検出データ)を取得する。カメラ2で取得された画像情報は、支障物検知ユニット5に入力される。   The camera 2 (detection unit) captures an image of the front of the vehicle and acquires image information (detection data) of a road, an object, and the like. Image information obtained by the camera 2 is input to the obstacle detection unit 5.

3DLR(検出部)3は、車両前方にレーザを照射して、路上の対象物で反射した反射レーザを受信する。3DLR3で受信した反射レーザに関する情報(検出データ)は、支障物検知ユニット5に入力される。   The 3DLR (detection unit) 3 irradiates a laser in front of the vehicle and receives a reflected laser reflected by an object on the road. Information (detection data) regarding the reflected laser received by the 3DLR 3 is input to the obstacle detection unit 5.

車輪速センサ4は、車両Mの車輪の回転角度に関する情報を取得するセンサである。車輪速センサ4は、例えばエンコーダを備え、このエンコーダは、車輪の回転パルスを計測する。車輪の回転パルスに関する信号は、支障物検知ユニット5に入力される。   The wheel speed sensor 4 is a sensor that acquires information on the rotation angle of the wheel of the vehicle M. The wheel speed sensor 4 includes, for example, an encoder, and the encoder measures a rotation pulse of the wheel. A signal related to the wheel rotation pulse is input to the obstacle detection unit 5.

支障物検知ユニット5は、画像処理部6、3DLR処理部7、線形計算部8、統合処理部9及びシステム統括部10を備えている。支障物検知ユニット5は、演算処理を行うCPU、記憶部となるROM及びRAM、入力信号回路、出力信号回路、電源回路などを備える。   The obstacle detection unit 5 includes an image processing unit 6, a 3DLR processing unit 7, a linear calculation unit 8, an integrated processing unit 9, and a system control unit 10. The obstacle detection unit 5 includes a CPU that performs arithmetic processing, ROM and RAM serving as storage units, an input signal circuit, an output signal circuit, a power supply circuit, and the like.

システム統括部10は、支障物検知ユニット5の全体の制御を司り、画像処理部6、3DLR処理部7、線形計算部8及び統合処理部9のブロックの生成及び機能の停止を管理する。また、システム統括部10は、後述する表示部15、操作部16及び車両制御部17とのデータの入出力を管理する。   The system control unit 10 controls the overall operation of the obstacle detection unit 5, and manages the generation of blocks and the suspension of functions of the image processing unit 6, 3DLR processing unit 7, linear calculation unit 8, and integration processing unit 9. Further, the system control unit 10 manages input and output of data with a display unit 15, an operation unit 16, and a vehicle control unit 17 described below.

画像処理部6は、カメラ2から入力したセンサデータについて画像処理を行う。画像処理部6は、画像処理として、例えば2値化処理を行い、対象物に関する情報、道路の白線に関する情報を検知する。また、カメラ2から入力したセンサデータには、対象物の色相に関する情報、対象物の明度に関する情報、対象物のサイズ(外形寸法)に関する情報、及び対象物の位置に関する情報が含まれる。   The image processing unit 6 performs image processing on the sensor data input from the camera 2. The image processing unit 6 performs, for example, binarization processing as image processing, and detects information on the target object and information on the white line of the road. The sensor data input from the camera 2 includes information on the hue of the object, information on the brightness of the object, information on the size (external dimensions) of the object, and information on the position of the object.

また、画像処理部6は、検知された対象物について確信度を設定する確信度設定部として機能する。画像処理部6は、センサデータに基づいて、対象物の位置(左右方向の位置、車両の進行方向における位置)、対象物のサイズ(幅方向のサイズ、高さ方向のサイズ)、対象物の色相及び明度を算出する。また、画像処理部6は、対象物の周囲の色相及び明度を算出する。   In addition, the image processing unit 6 functions as a certainty setting unit that sets certainty for the detected object. Based on the sensor data, the image processing unit 6 determines the position of the object (the position in the horizontal direction, the position in the traveling direction of the vehicle), the size of the object (the size in the width direction, the size in the height direction), Calculate hue and lightness. Further, the image processing unit 6 calculates the hue and lightness around the object.

画像処理部6は、対象物のセンサデータに基づいて、対象物の色相及び当該対象物の周囲の色相について判定し、対象物と当該対象物の周囲との色相差が大きい場合に、色相差が小さい場合と比較して確信度を高く設定する。画像処理部6は、検知された対象物の平均色相が高いと判定した場合に、平均色相が低いと判定した場合と比較して確信度を高く設定する。   The image processing unit 6 determines the hue of the object and the hue around the object based on the sensor data of the object, and when the hue difference between the object and the periphery of the object is large, the hue difference Is set higher than the case where is small. The image processing unit 6 sets the certainty higher when the average hue of the detected target object is determined to be higher than when the average hue is determined to be lower.

画像処理部6は、対象物のセンサデータに基づいて、対象物の明度及び当該対象物の周囲の明度について判定し、対象物と当該対象物の周囲との明度差が大きい場合に、明度差が小さい場合と比較して確信度を高く設定する。画像処理部6は、検知された対象物の平均明度が高いと判定した場合に、平均明度が低いと判定した場合と比較して確信度を高く設定する。   The image processing unit 6 determines the brightness of the target object and the brightness around the target object based on the sensor data of the target object, and when the brightness difference between the target object and the surrounding of the target object is large, the brightness difference Is set higher than the case where is small. The image processing unit 6 sets the certainty higher when the average brightness of the detected target object is determined to be higher than when the average brightness is determined to be lower.

画像処理部6は、対象物のセンサデータに基づいて、対象物のサイズについて判定し、対象物のサイズ(実際のサイズ)が大きい場合に、対象物のサイズが小さい場合と比較して確信度を高く設定する。画像処理部6は、画像内のピクセルサイズに対して、画角などのカメラパラメータ及び経路の線形情報を照合して、対象物の実際のサイズを算出し判定する。   The image processing unit 6 determines the size of the target object based on the sensor data of the target object. When the size of the target object (actual size) is large, the certainty factor is compared with the case where the size of the target object is small. Set high. The image processing unit 6 calculates and determines the actual size of the target object by comparing camera parameters such as the angle of view and linear information of the path with the pixel size in the image.

画像処理部6は、対象物のセンサデータに基づいて、対象物の位置について判定し、車両Mと対象物との距離が近い場合に、車両Mと対象物との距離が遠い場合と比較して確信度を高く設定する。   The image processing unit 6 determines the position of the target based on the sensor data of the target, and compares the position of the target with the vehicle M when the distance between the vehicle M and the target is long. To increase the confidence.

画像処理部6は、例えば、下記式(1)を用いて確信度を算出する。
CAM=f(Intensity,Size,Dist)…(1)
なお、CCAMは、カメラ2によって取得されたセンサデータに基づく確信度である。式(1)において、「Intensity」は対象物の色相または明度であり、「Size」は対象物の外形寸法であり、「Dist」は車両と対象物との距離であり、fは確信度を算出するための関数である。
The image processing unit 6 calculates the certainty factor using, for example, the following equation (1).
C CAM = f (Intensity, Size, Dist) (1)
The CAM is a certainty factor based on the sensor data acquired by the camera 2. In Equation (1), “Intensity” is the hue or lightness of the object, “Size” is the external dimension of the object, “Dist” is the distance between the vehicle and the object, and f is the confidence. This is a function for calculation.

3DLR処理部7は、3DLR3から入力したセンサデータについてデータ処理を行う。また、3DLRから入力したセンサデータには、対象物の位置(左右方向の位置、車両の進行方向における位置、上下方向の位置)、対象物のサイズ(幅方向のサイズ、高さ方向のサイズ、奥行き方向のサイズ)、対象物に当たって反射したレーザの反射強度、対象物に当たって反射したレーザの点数(計測点数)、レーザが当たった複数の点である点群の重心位置(左右方向の重心、車両の進行方向の重心、上下方向の重心)、点群の分散に関する情報が含まれる。   The 3DLR processing unit 7 performs data processing on the sensor data input from the 3DLR 3. The sensor data input from the 3DLR includes the position of the object (the position in the horizontal direction, the position in the traveling direction of the vehicle, the position in the vertical direction), the size of the object (the size in the width direction, the size in the height direction, (The size in the depth direction), the reflection intensity of the laser reflected on the object, the number of points of the laser reflected on the object (measurement points), the position of the center of gravity of the point group that is a plurality of points on which the laser was irradiated (the center of gravity in the horizontal direction, vehicle) , The center of gravity in the traveling direction, the center of gravity in the vertical direction), and information on the dispersion of the point cloud.

3DLR処理部7は、3DLR3で検知された対象物について確信度を設定する確信度設定部として機能する。3DLR処理部7は、センサデータに基づいて、対象物の位置(左右方向の位置、車両の進行方向における位置、上下方向の位置)、対象物のサイズ(幅方向のサイズ、高さ方向のサイズ、奥行き方向のサイズ)、対象物に当たって反射したレーザの反射強度、対象物に当たって反射したレーザの点数(計測点数)、レーザが当たった複数の点である点群の重心位置(左右方向の重心、車両の進行方向の重心、上下方向の重心)、点群の分散を算出する。   The 3DLR processing unit 7 functions as a certainty setting unit that sets certainty for the object detected by the 3DLR3. Based on the sensor data, the 3DLR processing unit 7 determines the position of the object (the position in the horizontal direction, the position in the traveling direction of the vehicle, the position in the vertical direction), the size of the object (the size in the width direction, the size in the height direction). , The size in the depth direction), the reflection intensity of the laser reflected on the object, the number of points of the laser reflected on the object (the number of measurement points), the center of gravity of the point group that is a plurality of points on which the laser was irradiated (the center of gravity in the horizontal direction, The center of gravity in the traveling direction of the vehicle, the center of gravity in the vertical direction, and the variance of the point cloud are calculated.

3DLR処理部7は、対象物のセンサデータに基づいて、対象物のサイズについて判定し、対象物のサイズ(実際のサイズ)が大きい場合に、対象物のサイズが小さい場合と比較して確信度を高く設定する。   The 3DLR processing unit 7 determines the size of the target object based on the sensor data of the target object, and when the size of the target object (actual size) is large, the degree of certainty is compared with the case where the size of the target object is small. Set high.

3DLR処理部7は、対象物のセンサデータに基づいて、対象物に当たって反射したレーザの反射強度について判定し、レーザの反射強度が強い場合に、レーザの反射強度が弱い場合と比較して確信度を高く設定する。   The 3DLR processing unit 7 determines, based on the sensor data of the target object, the reflection intensity of the laser beam reflected on the target object, and when the laser reflection intensity is high, the confidence level is compared with the case where the laser reflection intensity is low. Set high.

3DLR処理部7は、対象物のセンサデータに基づいて、対象物に当たって反射したレーザの点数について判定し、対象物に当たって反射したレーザの点数が多い場合に、対象物に当たって反射したレーザの点数が少ない場合と比較して確信度を高く設定する。   The 3DLR processing unit 7 determines the number of lasers reflected on the object based on the sensor data of the object, and when the number of lasers reflected on the object is large, the number of lasers reflected on the object is small. The confidence is set higher than in the case.

3DLR処理部7は、対象物のセンサデータに基づいて、複数のレーザが当たった点群の重心位置について判定し、点群の重心の位置が車両から近い場合に、点群の重心の位置が車両から遠い場合と比較して確信度を高く設定する。また、3DLR処理部7は、点群の重心の位置が経路中心に近い場合に、点群の重心の位置が経路中心から遠い場合と比較して確信度を高く設定する。   The 3DLR processing unit 7 determines the position of the center of gravity of the point group hit by the plurality of lasers based on the sensor data of the object, and determines the position of the center of gravity of the point group when the position of the center of gravity of the point group is close to the vehicle. The certainty factor is set higher than when the vehicle is far from the vehicle. Further, the 3DLR processing unit 7 sets a certainty factor higher when the position of the center of gravity of the point cloud is closer to the center of the route than when the position of the center of gravity of the point cloud is farther from the center of the route.

3DLR処理部7は、対象物のセンサデータに基づいて、点群の分布について判定し、点群の分散の信頼区間の大きさが対象物の外形サイズと同等である場合に、点群の分散の信頼区間の大きさが対象物の外形サイズと大きく異なる場合と比較して確信度を高く設定する。   The 3DLR processing unit 7 determines the distribution of the point group based on the sensor data of the object, and when the size of the confidence interval of the variance of the point group is equal to the outer size of the object, the 3DLR processing unit 7 determines the variance of the point group. Is set higher than the case where the size of the confidence interval is significantly different from the external size of the object.

3DLR処理部7は、例えば、下記式(2)を用いて確信度を算出する。
3DLR=g(Num of Spots,Trace)…(2)
なお、C3DLRは、3DLR3によって取得されたセンサデータに基づく確信度である。式(2)において、「Num of Spots」は、反射したレーザの点数であり、「Trace」は、3DLR3自体が判定した追跡成否結果を示す係数であり、gは確信度を算出するための関数である。3DLR処理部7による処理結果は、統合処理部9に出力される。
The 3DLR processing unit 7 calculates the certainty factor using, for example, the following equation (2).
C 3DLR = g (Num of Spots, Trace) (2)
In addition, C3DLR is a certainty factor based on the sensor data acquired by 3DLR3. In Equation (2), “Num of Spots” is the number of reflected lasers, “Trace” is a coefficient indicating the tracking success / failure result determined by the 3DLR 3 itself, and g is a function for calculating the certainty factor. It is. The processing result by the 3DLR processing unit 7 is output to the integration processing unit 9.

線形計算部8は、記憶部に記憶されている経路の線形情報と、車輪速センサ4で取得された車速とを用いて、車両の移動距離を算出する。「経路の線形情報」は、経路の起点となる位置からの距離に対応した経路の3次元の形状に関する情報であり、道路におけるカーブの水平方向の曲率に関する情報、坂道における上下方向の勾配に関する情報を含むものである。線形計算部8は、経路の線形情報及び車速に基づいて、車両の起点から位置を示す自車位置情報を算出する。   The linear calculation unit 8 calculates the travel distance of the vehicle using the linear information of the route stored in the storage unit and the vehicle speed acquired by the wheel speed sensor 4. "Route linear information" is information on the three-dimensional shape of the route corresponding to the distance from the position serving as the starting point of the route, information on the horizontal curvature of the curve on the road, and information on the vertical gradient on the slope. Is included. The linear calculation unit 8 calculates own vehicle position information indicating a position from the starting point of the vehicle based on the linear information of the route and the vehicle speed.

統合処理部9は、複数のセンサから取得された対象物のセンサデータを統合する統合処理を行う。統合処理部9は、追跡処理及び支障物判定処理に適したデータとするために、時間的に異なる複数のセンサデータを時間的に連続するデータとして統合する。   The integration processing unit 9 performs an integration process of integrating sensor data of an object acquired from a plurality of sensors. The integration processing unit 9 integrates a plurality of temporally different sensor data as temporally continuous data in order to obtain data suitable for the tracking processing and the obstacle determination processing.

また、統合処理部9は、追跡処理部11、確信度更新部12、支障物判定部13、及びマスク処理部14を備えている。   The integration processing unit 9 includes a tracking processing unit 11, a certainty factor updating unit 12, an obstacle determining unit 13, and a mask processing unit 14.

追跡処理部11は、例えばカルマンフィルタを用いて、対象物の追跡処理(トラッキング)を行う。時間的に前後するデータフレーム間で、同一の対象物に関するセンサデータについて関連付けを行う追跡処理を行う。これにより、一度検知された対象物について時間を追って認識することができる。追跡処理部11は、センサの種別ごとに追跡処理を行う。追跡処理部11は、カメラ2によって取得されたセンサデータを用いた追跡処理と、3DLR3によって取得されたセンサデータを用いた追跡処理とを別々に行う。   The tracking processing unit 11 performs tracking processing (tracking) of the target object using, for example, a Kalman filter. A tracking process for associating sensor data relating to the same object between data frames that are temporally preceding and succeeding is performed. Thereby, it is possible to recognize the object once detected with time. The tracking processing unit 11 performs a tracking process for each type of sensor. The tracking processing unit 11 separately performs a tracking process using the sensor data acquired by the camera 2 and a tracking process using the sensor data acquired by the 3DLR 3.

確信度更新部12は、追跡処理部11において、追跡判定された場合に、センサデータに基づく確信度を更新する。例えば、時刻t=1のセンサデータDS1と、時刻t=2のセンサデータDS2とが同じ対象物であると追跡判定された場合(合致した場合)には、センサデータDS1,DS2に付随する確信度に基づいて、対象物の確信度を更新する。例えば、センサデータDS1,DS2に付随する確信度を平均することで、確信度を更新してもよく、重み付き平均を用いて確信度を更新してもよい。 The credibility update unit 12 updates the credibility based on the sensor data when the tracking processing unit 11 performs the tracking determination. For example, the sensor data D S1 at time t = 1, the case where the sensor data D S2 at time t = 2 is tracked determined to be the same object (if matched), the sensor data D S1, D S2 Is updated on the basis of the certainty factor associated with. For example, the confidence may be updated by averaging the confidences associated with the sensor data D S1 and D S2 , or the confidence may be updated using a weighted average.

確信度更新部12は、下記式(3)を用いて重み付き平均を算出して対象物の確信度を更新する。
k+1=wC+w …(3)
ただし、Ck+1は、時刻k+1における確信度、Cは、時刻kにおける確信度、C は、上記(1)または(2)のセンサデータに基づいて設定された確信度であり、wは現在値に対する重み係数であり、wは計測値に対する重み係数(センサの種別に応じた重み係数)である。
The certainty updating unit 12 calculates a weighted average using the following equation (3) and updates the certainty of the target object.
C k + 1 = wC k + w s C k S ... (3)
Here, C k + 1 is the certainty at time k + 1, C k is the certainty at time k, C k S is the certainty set based on the sensor data of (1) or (2), and w is a weighting factor for the current value, w s is the weighting factor for measured values (weighting factor according to the type of sensor).

また、カメラ2によるセンサデータに基づく確信度Cに対する重み係数wと、3DLR3によるセンサデータに基づく確信度Cに対する重み係数wとを同じ値としてもよく、異なる値としてもよい。例えば、センサによる検出精度が高い場合には、センサによる検出精度が低い場合と比較して、センサの種別に応じた重み係数を高く設定する。 Further, the weight coefficient w s for confidence C S based on the sensor data from the camera 2 may be the same value and the weight coefficient w s for confidence C S based on the sensor data by 3DLR3, the value may be different. For example, when the detection accuracy of the sensor is high, the weight coefficient according to the sensor type is set higher than when the detection accuracy of the sensor is low.

また、確信度更新部12は、追跡処理部11で対象物が追跡判定できなかった場合に、当該対象物の確信度を減少させるように確信度を更新する。例えば、現在の確信度を一定の割合で減少させてもよく、一定の値を差し引いてもよい。   Further, when the tracking processing unit 11 cannot determine the tracking of the target, the certainty updating unit 12 updates the certainty so as to reduce the certainty of the target. For example, the current certainty may be reduced at a fixed rate, or a certain value may be subtracted.

図3及び図4は、確信度の変化の例を示すグラフである。図3及び図4では、横軸にセンサデータのパラメータ(色相、明度、大きさ、または距離に関する値)を示し、縦軸に確信度を示している。図3(a)は、パラメータが増加しても確信度が一定である場合を示している。図3(b)は、パラメータの増加に比例して確信度が増加する場合(線形変化)を示している。   3 and 4 are graphs showing examples of changes in the certainty factor. 3 and 4, the horizontal axis indicates the parameters of the sensor data (values related to hue, lightness, size, or distance), and the vertical axes indicate the certainty factor. FIG. 3A shows a case where the certainty factor is constant even when the parameter increases. FIG. 3B shows a case where the certainty factor increases in proportion to an increase in the parameter (linear change).

図3(c)は、確信度の上限値及び下限値の範囲内において、パラメータの増加に伴って確信度が増加する場合を示している。例えば、パラメータがP1以下である場合には、確信度は下限値で一定である。パラメータがP1以上であり、P2以下である場合には、確信度は、パラメータの増加に比例して増加する(線形変化)。パラメータがP2以上である場合には、確信度は上限値で一定である。   FIG. 3C shows a case where the certainty increases with an increase in the parameter within the range of the upper limit and the lower limit of the certainty. For example, if the parameter is equal to or less than P1, the certainty factor is constant at the lower limit. If the parameter is greater than or equal to P1 and less than or equal to P2, the confidence increases in proportion to the parameter increase (linear change). If the parameter is equal to or greater than P2, the certainty factor is constant at the upper limit.

図3(d)は、パラメータの増加に伴って確信度が非線形変化して増加する場合を示している。例えば、確信度の増加率は、パラメータの増加に伴って増大する。   FIG. 3D shows a case where the certainty factor nonlinearly changes and increases as the parameter increases. For example, the rate of increase in the certainty factor increases with an increase in the parameter.

図4(a)は、確信度の上限値及び下限値の範囲内において、パラメータの増加に伴って確信度が増加する場合を示している。例えば、パラメータがP1以下である場合には、確信度は下限値で一定である。パラメータがP1以上であり、P2以下である場合には、確信度は、パラメータの増加に伴って増加する(非線形変化)。例えば、この非線形変化の区間における確信度の増加率は、パラメータの増加に伴って増大する。パラメータがP2以上である場合には、確信度は上限値で一定である。   FIG. 4A shows a case where the certainty increases with an increase in the parameters within the range of the upper limit and the lower limit of the certainty. For example, if the parameter is equal to or less than P1, the certainty factor is constant at the lower limit. When the parameter is equal to or more than P1 and equal to or less than P2, the certainty factor increases as the parameter increases (nonlinear change). For example, the rate of increase of the certainty factor in the non-linear change section increases with an increase in the parameter. If the parameter is equal to or greater than P2, the certainty factor is constant at the upper limit.

図4(b)は、パラメータの増加に伴って確信度が非線形変化して増加する場合を示している。例えば、確信度の増加率は、パラメータの増加に伴って減少する。   FIG. 4B shows a case where the certainty factor increases nonlinearly as the parameter increases. For example, the rate of increase in certainty decreases with an increase in parameters.

図4(c)は、パラメータの増加に伴って確信度がステップ状に変化して増加する場合を示している。例えば、パラメータがP11以上P12未満である場合には、確信度はC11で一定であり、パラメータがP12以上P13未満である場合に、確信度はC12(C11<C12)で一定である。   FIG. 4C shows a case where the certainty factor changes stepwise and increases with an increase in the parameter. For example, when the parameter is not less than P11 and less than P12, the certainty is constant at C11, and when the parameter is not less than P12 and less than P13, the certainty is constant at C12 (C11 <C12).

図4(d)に示す場合は、走行路の幅方向の中心から対象物までの距離に応じて、確信度が異なっている。例えば、パラメータの増加に比例して確信度が増加するように、確信度の変化のモデルを複数(例えば4つ)設定する。そして、走行路の幅方向の中心から対象物までの距離が近い場合には、走行路の幅方向の中心から対象物までの距離が遠い場合と比較して、確信度が高く、且つ、確信度の増加率が高くなっている。   In the case shown in FIG. 4D, the degree of certainty differs depending on the distance from the center in the width direction of the traveling path to the object. For example, a plurality (for example, four) models of the change in the certainty factor are set so that the certainty factor increases in proportion to the increase in the parameter. When the distance from the center in the width direction of the traveling path to the object is short, the confidence is higher and the confidence is higher than when the distance from the center in the width direction of the traveling path to the object is longer. The rate of increase in degrees is high.

マスク処理部14は、センサデータに基づいて検知された対象物が、所定の条件を満足する場合に、その対象物は支障物ではないと判定する。これにより、統合処理部9における計算負荷を軽減する。所定の条件としては、例えば、検知された対象物の危険度が低く、車両の走行に影響を与えないものと判定できる条件が設定される。   When an object detected based on the sensor data satisfies a predetermined condition, the mask processing unit 14 determines that the object is not an obstacle. Thereby, the calculation load on the integration processing unit 9 is reduced. As the predetermined condition, for example, a condition that can determine that the detected object has a low degree of risk and does not affect the running of the vehicle is set.

支障物判定部13は、確信度に基づいて、カメラ2又は3DLR3で検知された対象物が支障物であるか否かを判定する。支障物判定部13は、確信度が閾値以上である場合に、センサで検知された対象物は支障物であると判定する。統合処理部9による処理結果は、システム統括部10に出力される。   The obstacle determining unit 13 determines whether the object detected by the camera 2 or the 3DLR 3 is an obstacle based on the certainty factor. The obstacle determining unit 13 determines that the object detected by the sensor is an obstacle when the certainty factor is equal to or greater than the threshold. The processing result by the integration processing unit 9 is output to the system control unit 10.

また、支障物検知ユニット5には、表示部15及び操作部16が電気的に接続されている。表示部15は、例えば、液晶表示装置であり、カメラ2で取得した画像を表示する。また、支障物検知ユニット5から出力された情報に基づいて、支障物である対象物を強調表示することで、運転者に報知する。   The display unit 15 and the operation unit 16 are electrically connected to the obstacle detection unit 5. The display unit 15 is, for example, a liquid crystal display device, and displays an image acquired by the camera 2. Further, based on the information output from the obstacle detection unit 5, the driver is notified by highlighting the object which is the obstacle.

また、操作部16は、例えば、液晶表示装置のタッチパネルであり、運転者の操作入力に基づく信号をシステム統括部10に出力する。運転者は、例えば、支障物ではないと確認された対象物について入力操作する際に、操作部16を操作する。   The operation unit 16 is, for example, a touch panel of a liquid crystal display device, and outputs a signal based on a driver's operation input to the system control unit 10. For example, the driver operates the operation unit 16 when performing an input operation on an object that has been confirmed as not an obstacle.

また、支障物検知装置1には、車両Mの制御を司る車両制御部17が電気的に接続されている。車両制御部17には、例えば警報器18及びブレーキ19が電気的に接続されている。車両制御部17は、システム統括部10からの信号に基づいて、警報器18を制御して警報音を発することができる。また、車両制御部17は、システム統括部10からの信号に基づいて、ブレーキ19を作動させて、車両を減速させることができる。   Further, a vehicle control unit 17 that controls the vehicle M is electrically connected to the obstacle detection device 1. For example, an alarm 18 and a brake 19 are electrically connected to the vehicle control unit 17. The vehicle control unit 17 can control the alarm device 18 based on a signal from the system control unit 10 to emit an alarm sound. Further, the vehicle control unit 17 can operate the brake 19 based on a signal from the system control unit 10 to decelerate the vehicle.

次に、支障物検知装置1の動作について説明する。図5及び図6に示すフローチャートに沿って説明する。図5は、画像処理部6及び3DLR処理部7における処理手順を示すフローチャートである。図6は、統合処理部9における処理手順を示すフローチャートである。   Next, the operation of the obstacle detection device 1 will be described. This will be described with reference to the flowcharts shown in FIGS. FIG. 5 is a flowchart illustrating a processing procedure in the image processing unit 6 and the 3DLR processing unit 7. FIG. 6 is a flowchart illustrating a processing procedure in the integration processing unit 9.

まず、図5のフローチャートを参照して、支障物検知ユニット5における確信度の設定について説明する。図5に示される確信度を設定する処理(ステップS1〜S4)は、画像処理部6及び3DLR処理部7において、別々に実行される。   First, the setting of the certainty factor in the obstacle detection unit 5 will be described with reference to the flowchart in FIG. The process of setting the certainty factor shown in FIG. 5 (steps S1 to S4) is executed separately in the image processing unit 6 and the 3DLR processing unit 7.

ここでは、画像処理部6における処理について説明した後に、3DLR処理部7における処理について説明する。   Here, after the processing in the image processing unit 6 is described, the processing in the 3DLR processing unit 7 will be described.

画像処理部6はカメラ2で取得したセンサデータとして画像情報を取得する(ステップS1)。このセンサデータには、対象物の色相、明度、サイズ、及び位置に関する情報が含まれている。なお、複数のセンサ(カメラ2、3DLR3)において、要求されている検出性能は以下の通りである。例えば、「夜間、対象物の静止状態において、車両の前方50m以上450m以下の区間に存在し、標準値程度の反射率であり、サッカーボールや小型のボストンバック程度の大きさの物体を検出できること」である。   The image processing unit 6 acquires image information as sensor data acquired by the camera 2 (Step S1). The sensor data includes information on the hue, brightness, size, and position of the object. Note that the required detection performance of the plurality of sensors (cameras 2 and 3DLR3) is as follows. For example, "at night, when the object is stationary, it exists in a section 50 m or more and 450 m or less in front of the vehicle, has a reflectance of about a standard value, and can detect an object having a soccer ball or a small size of about a small Boston back. ".

次に、画像処理部6は、線形計算部8から自車位置情報を取得する(ステップS2)。線形計算部8は、車輪速センサ4から車両Mの車速を算出して、当該車速及び経路の線形情報に基づいて起点からの車両Mの移動距離を算出して、自車位置情報を算出する。算出された自車位置情報は、画像処理部6に出力される。   Next, the image processing unit 6 acquires the vehicle position information from the linear calculation unit 8 (Step S2). The linear calculation unit 8 calculates the vehicle speed of the vehicle M from the wheel speed sensor 4, calculates the moving distance of the vehicle M from the starting point based on the vehicle speed and the linear information of the route, and calculates the own vehicle position information. . The calculated vehicle position information is output to the image processing unit 6.

続いて、画像処理部6は、センサデータ及び自車位置情報に基づいて、対象物の確信度を設定する(ステップS3)。画像処理部6は、上述したように、対象物の色相、対象物の明度、対象物のサイズ、車両Mから対象物までの距離を判定して、対象物の確信度を設定する。画像処理部6は、例えば、確信度を算出するための数式を用いて確信度を算出してもよく、マップを用いて確信度を算出してもよい。確信度を算出するためのマップでは、対象物の色相、対象物の明度、対象物のサイズ、及び対象物までの距離と、確信度とが関係付けられている。確信度を算出するためのマップは、例えば、支障物検知ユニット5の記憶部に記憶されている。   Subsequently, the image processing unit 6 sets the certainty factor of the target based on the sensor data and the vehicle position information (Step S3). As described above, the image processing unit 6 determines the hue of the target, the brightness of the target, the size of the target, and the distance from the vehicle M to the target, and sets the certainty of the target. For example, the image processing unit 6 may calculate the certainty using a mathematical expression for calculating the certainty, or may calculate the certainty using a map. In the map for calculating the certainty factor, the hue of the target object, the brightness of the target object, the size of the target object, and the distance to the target object are associated with the certainty factor. The map for calculating the certainty factor is stored in, for example, the storage unit of the obstacle detection unit 5.

そして、画像処理部6は、各種データとして、センサデータ、及び設定された確信度に関するデータを、統合処理部9に出力する(ステップS4)。   Then, the image processing unit 6 outputs sensor data and data on the set certainty factor to the integration processing unit 9 as various data (step S4).

次に、3DLR処理部7における処理について説明する。ステップS1では、3DLR処理部7は3DLR3で取得したセンサデータとして、対象物に当たって反射したレーザに関する情報を取得する。このセンサデータには、対象物の位置、対象物のサイズ、対象物に当たって反射したレーザの反射強度、対象物に当たって反射したレーザの点数、レーザが当たった複数の点である点群の重心位置、点群の分散に関する情報が含まれる。   Next, processing in the 3DLR processing unit 7 will be described. In step S1, the 3DLR processing unit 7 acquires information on the laser beam reflected on the object as the sensor data acquired by the 3DLR3. In this sensor data, the position of the object, the size of the object, the reflection intensity of the laser reflected on the object, the number of lasers reflected on the object, the center of gravity of a plurality of points that the laser hit, Contains information about the variance of the point cloud.

次に、3DLR処理部7は、ステップS2に進み、線形計算部8から自車位置情報を取得した後、ステップS3に進み、センサデータ及び自車位置情報に基づいて、対象物の確信度を設定する。   Next, the 3DLR processing unit 7 proceeds to step S2, acquires the vehicle position information from the linear calculation unit 8, and then proceeds to step S3 to determine the degree of certainty of the target object based on the sensor data and the vehicle position information. Set.

3DLR処理部7は、上述したように、対象物のサイズ、車両Mから対象物までの距離、対象物に当たって反射したレーザの反射強度、対象物に当たって反射したレーザの点数、レーザが当たった複数の点である点群の重心位置、点群の分散を判定して、対象物の確信度を設定する。3DLR処理部7は、例えば、確信度を算出するための数式を用いて、確信度を算出してもよく、マップを用いて確信度を算出してもよい。   As described above, the 3DLR processing unit 7 determines the size of the target object, the distance from the vehicle M to the target object, the reflection intensity of the laser reflected on the target object, the number of lasers reflected on the target object, and the number of lasers reflected on the target object. The position of the center of gravity of the point group, which is a point, and the variance of the point group are determined, and the certainty factor of the object is set. The 3DLR processing unit 7 may calculate the certainty using, for example, a mathematical expression for calculating the certainty, or may calculate the certainty using a map.

そして、画像処理部6は、各種データとして、センサデータ、及び設定された確信度に関するデータを、統合処理部9に出力する(ステップS4)。   Then, the image processing unit 6 outputs sensor data and data on the set certainty factor to the integration processing unit 9 as various data (step S4).

次に、図6のフローチャートを参照して、統合処理部9における処理手順について説明する。   Next, a processing procedure in the integration processing unit 9 will be described with reference to a flowchart of FIG.

まず、統合処理部9は、画像処理部6及び3DLR処理部7から出力された各種データを入力する(ステップS11)。統合処理部9は、適宜、各種データを統合する。   First, the integration processing unit 9 inputs various data output from the image processing unit 6 and the 3DLR processing unit 7 (Step S11). The integration processing unit 9 integrates various data as appropriate.

続く、ステップS12では、統合処理部9の追跡処理部11は、センサデータを取得したセンサ(カメラ2または3DLR3)を判別する。センサデータには、取得したセンサを示す識別信号が含まれている。追跡処理部11は、この識別信号を読み取り、当該センサデータを取得したセンサを判別する。   Subsequently, in step S12, the tracking processing unit 11 of the integration processing unit 9 determines the sensor (camera 2 or 3DLR3) that has acquired the sensor data. The sensor data includes an identification signal indicating the acquired sensor. The tracking processing unit 11 reads this identification signal and determines the sensor that has acquired the sensor data.

次に、ステップS13では、追跡処理部11は、センサごとに、当該センサによって取得されたセンサデータを用いて、追跡処理(追跡計算)を実行する。追跡処理部11は、時間的に前後するデータフレーム間で、同一の対象物に関するセンサデータについて関連付けを行う。複数のデータフレーム間で同一の対象物の存在を確認できた場合には、当該対象物を追跡できたと判定する(追跡判定)。   Next, in step S13, the tracking processing unit 11 performs a tracking process (tracking calculation) for each sensor using the sensor data acquired by the sensor. The tracking processing unit 11 associates sensor data relating to the same object between data frames that are temporally successive. If the presence of the same object can be confirmed between a plurality of data frames, it is determined that the object has been tracked (tracking determination).

追跡処理部11では、例えば最大100個程度の対象物を周期100msで、追跡計算する。また、追跡処理部11では、対象物は地面に対して静止しており、センサによる観測の変化は、車両の運動のみに依存すると仮定する。更に、追跡処理部11では、計算負荷を低減するために、対象物同士の位置の相関について計算せず、対象物ごとに追跡計算する。例えば、従来の追跡処理の計算方法では、誤合致による誤差が発生した場合には、カルマンゲインを介してその誤差が複数の対象物に対する追跡処理に分散する。しかし、追跡処理部11では、象物同士の位置の相関について計算せず、対象物について個別に追跡処理を行うので、他の対象物の追跡処理への誤差の影響が防止される。   The tracking processing unit 11 performs tracking calculation of, for example, about 100 objects at a cycle of 100 ms. Further, the tracking processing unit 11 assumes that the target object is stationary with respect to the ground, and that a change in observation by the sensor depends only on the motion of the vehicle. Further, in order to reduce the calculation load, the tracking processing unit 11 does not calculate the correlation between the positions of the objects, but performs the tracking calculation for each object. For example, in the calculation method of the conventional tracking processing, when an error due to an erroneous match occurs, the error is distributed to the tracking processing for a plurality of objects via the Kalman gain. However, the tracking processing unit 11 does not calculate the correlation between the positions of the elephants, but performs tracking processing individually for the objects, so that the influence of errors on the tracking processing of other objects is prevented.

対象物を追跡できた場合(追跡判定できた場合、S14;YES)には、ステップS15に進み、対象物を追跡できなかった場合(追跡判定できなかった場合、S14;NO)には、ステップS16に進む。   If the object can be tracked (if the tracking can be determined, S14; YES), the process proceeds to step S15. If the object cannot be tracked (if the tracking cannot be determined, S14; NO), the process proceeds to step S15. Proceed to S16.

ステップS15では、確信度更新部12は、複数のセンサデータに紐付く確信度を用いて確信度の更新を行う。ここでは、対象物の追跡判定の際に関連付けられた複数のセンサデータに紐付く確信度を用いて、当該対象物の確信度を更新する。確信度更新部12は、複数のセンサデータに紐付く確信度について、例えば、重み付き平均を用いて新たな確信度を設定することで更新する。   In step S15, the certainty factor updating unit 12 updates the certainty factor using the certainty factor associated with the plurality of sensor data. Here, the certainty factor of the target object is updated using the certainty factor linked to the plurality of sensor data associated with the tracking determination of the target object. The certainty updating unit 12 updates the certainty associated with the plurality of sensor data by setting a new certainty using, for example, a weighted average.

ステップS16では、確信度更新部12は、追跡判定できなかった対象物の確信度を減らすように確信度の更新を行う。例えば、現在の確信度を一定の割合で減少させてもよく、一定の値を差し引いてもよい。   In step S16, the certainty factor updating unit 12 updates the certainty factor so as to reduce the certainty factor of the target object for which the tracking determination has not been performed. For example, the current certainty may be reduced at a fixed rate, or a certain value may be subtracted.

次に、ステップS17では、支障物判定部13は、対象物の確信度が判定閾値以上であるか否かを判定する。確信度が判定閾値以上である場合(ステップS17;YES)には、対象物は支障物であると判定し、ステップS18に進み、確信度が判定閾値に満たない場合(ステップS17;NO)には、ここでの処理は終了する。   Next, in step S17, the obstacle determining unit 13 determines whether or not the certainty factor of the target is equal to or greater than a determination threshold. If the certainty is equal to or more than the determination threshold (step S17; YES), the object is determined to be an obstacle, and the process proceeds to step S18. If the certainty is less than the determination threshold (step S17; NO), Ends the processing here.

また、マスク処理部14は、対象物が所定の条件に合致する場合には、対象物は支障物ではないと判断することができる。これにより、支障物判定部13による判定処理を回避することができると共に、不要な警告や、回避動作を抑制することができるので、支障物検知ユニット5及び車両制御部17における負荷を低減することができる。   In addition, when the target object satisfies the predetermined condition, the mask processing unit 14 can determine that the target object is not an obstacle. Accordingly, the determination process by the obstacle determination unit 13 can be avoided, and unnecessary warnings and avoidance operations can be suppressed, so that the load on the obstacle detection unit 5 and the vehicle control unit 17 can be reduced. Can be.

続く、ステップS18では、統合処理部9は、システム統括部10に対して、支障物判定部13による判定結果をシステム統括部10に出力し、システム統括部10は、ステップS17において支障物であると判定された対象物を運転者に報知する。具体的には、表示部15において、カメラ2による画像を表示する際に、該当する対象物が支障物であると強調表示(警報)する。強調表示としては、例えば、支障物を赤枠で囲むなどする。また、対象物の近傍に確信度の数値を表示してもよい。   Subsequently, in step S18, the integration processing unit 9 outputs the determination result by the obstacle determination unit 13 to the system control unit 10, and the system control unit 10 determines that the system control unit 10 is an obstacle in step S17. Is notified to the driver. Specifically, when displaying an image by the camera 2 on the display unit 15, the corresponding object is highlighted (warned) as an obstacle. As the highlighting, for example, an obstacle is surrounded by a red frame. Further, a numerical value of the certainty factor may be displayed near the target object.

また、支障物であることが報知された場合には、運転者は、目視により支障物を確認し、実際に支障物であると確認した場合に、車両を停止させたり、ハンドル操作を行って進路を変更したりすることで、支障物との接触を回避することができる。   When the driver is notified that the vehicle is an obstacle, the driver checks the obstacle visually and stops the vehicle or operates the steering wheel when the driver confirms that the vehicle is actually an obstacle. By changing the course, contact with obstacles can be avoided.

また、運転者が目視により支障物ではないと判断した場合には、操作部16を用いて操作入力を行い、当該対象物をキャンセル物体(支障物ではない対象物)とする。   If the driver visually determines that the object is not an obstacle, the driver performs an operation input using the operation unit 16 and sets the object as a canceled object (an object that is not an obstacle).

支障物検知ユニット5は、ステップS18の処理を実行した後、図6における処理を終了して、ステップS1に戻り、同様の処理を繰り返す。   After executing the processing in step S18, the obstacle detection unit 5 ends the processing in FIG. 6, returns to step S1, and repeats the same processing.

この支障物検知装置1によれば、追跡処理を行って追跡判定できた場合に、対象物の確信度を更新するので、検出時刻が異なる複数のセンサデータを用いて確信度を適切に更新することができる。これにより、更新された確信度に応じて精度良く支障物を検知することができる。   According to the obstacle detection device 1, when the tracking process is performed and the tracking determination can be performed, the certainty factor of the target object is updated. Therefore, the certainty factor is appropriately updated using a plurality of sensor data having different detection times. be able to. Thereby, an obstacle can be detected with high accuracy according to the updated certainty factor.

また、確信度更新部12は、追跡処理部11で対象物が追跡判定されなかった場合に、当該対象物の確信度を低下するように更新している。これにより、カメラ2または3DLR3によって検出された対象物が、その後検出されない場合には追跡判定されないので、次第にその確信度が低下する。そのため、検出されなくたった対象物が支障物として検知される可能性が減ることになる。その結果、誤検出の可能性が高い対象物が支障物として検知されるおそれを減らすことができる。   In addition, when the tracking processing unit 11 does not determine the tracking of the target, the certainty updating unit 12 updates the certainty of the target so as to reduce the certainty of the target. As a result, if the object detected by the camera 2 or the 3DLR 3 is not subsequently detected, the tracking determination is not performed, so that the certainty degree gradually decreases. Therefore, the possibility that the undetected target is detected as an obstacle is reduced. As a result, it is possible to reduce the possibility that an object having a high possibility of erroneous detection is detected as an obstacle.

また、支障物検知装置1では、対象物とその周囲との明度差に応じて確信度を設定し、この設定された確信度を用いて、確信度を更新することができる。これにより、センサデータに含まれる対象物の明度に関するデータを考慮して、対象物の確信度を更新することで、誤検知を低減して、支障物を検知する精度を向上させることができる。   Further, the obstacle detection device 1 can set a certainty factor according to the brightness difference between the target object and its surroundings, and can update the certainty factor by using the set certainty factor. Accordingly, by updating the certainty factor of the target object in consideration of the data regarding the brightness of the target object included in the sensor data, erroneous detection can be reduced and the accuracy of detecting the obstacle can be improved.

また、支障物検知装置1では、対象物とその周囲との色相差に応じて確信度を設定し、この設定された確信度を用いて、確信度を更新することができる。これにより、センサデータに含まれる対象物の色相に関するデータを考慮して、対象物の確信度を更新することで、誤検知を低減して、支障物を検知する精度を向上させることができる。   Further, the obstacle detection device 1 can set the certainty according to the hue difference between the target object and the surroundings, and update the certainty using the set certainty. Accordingly, by updating the certainty factor of the target object in consideration of the data regarding the hue of the target object included in the sensor data, erroneous detection can be reduced and the accuracy of detecting the obstacle can be improved.

また、支障物検知装置1では、対象物の外形サイズに応じて確信度を設定し、この設定された確信度を用いて、確信度を更新することができる。これにより、センサデータに含まれる対象物の外形サイズに関するデータを考慮して、対象物の確信度を更新することで、誤検知を低減して、支障物を検知する精度を向上させることができる。   In the obstacle detection device 1, the certainty factor can be set according to the external size of the object, and the certainty factor can be updated using the set certainty factor. Accordingly, by updating the certainty factor of the target object in consideration of the data regarding the outer shape size of the target object included in the sensor data, it is possible to reduce erroneous detection and improve the accuracy of detecting an obstacle. .

また、支障物検知装置1では、車両Mから対象物までの距離に応じて確信度を設定し、この設定された確信度を用いて、確信度を更新することができる。これにより、センサデータに含まれる対象物までの距離に関するデータを考慮して、対象物の確信度を更新することで、誤検知を低減して、支障物を検知する精度を向上させることができる。   Further, the obstacle detection device 1 can set a certainty factor according to the distance from the vehicle M to the target, and update the certainty factor using the set certainty factor. Accordingly, by updating the certainty factor of the target object in consideration of the data on the distance to the target object included in the sensor data, it is possible to reduce erroneous detection and improve the accuracy of detecting an obstacle. .

また、車両Mから支障物までの距離が近い場合には、支障物を回避するための時間や支障物を確認するための時間が短いため、早急に対策を取る必要がある。支障物検知装置1では、車両Mから対象物までの距離が近い場合に、対象物の確信度を高く設定して、当該対象物が支障物として検知される可能性を高くし、運転者への報知を早く確実に行うことができる。その結果、運転者は、ブレーキ操作を早めて支障物との衝突を確実に回避することができる。   Further, when the distance from the vehicle M to the obstacle is short, the time for avoiding the obstacle and the time for confirming the obstacle are short, so it is necessary to take immediate measures. In the obstacle detection device 1, when the distance from the vehicle M to the object is short, the certainty of the object is set to be high to increase the possibility that the object is detected as an obstacle, and Can be notified quickly and reliably. As a result, the driver can speed up the braking operation and reliably avoid the collision with the obstacle.

また、確信度更新部12は、センサの種別に応じて、複数のセンサデータの重み付き平均を算出して対象物の確信度を更新するので、センサの種別に基づくセンサデータの重要度を反映させて、対象物の確信度を適切更新することができる。これにより、誤検知を一層低減して、支障物を検知する精度を向上させることができる。   In addition, the certainty factor updating unit 12 updates the certainty factor of the target object by calculating a weighted average of a plurality of sensor data according to the type of the sensor, and reflects the importance of the sensor data based on the type of the sensor. Thus, the certainty factor of the object can be updated appropriately. Thereby, erroneous detection can be further reduced, and the accuracy of detecting obstacles can be improved.

また、支障物判定部13は、確信度が判定閾値以上である場合に、対象物を支障物であると判定するので、確信度が判定閾値に満たない場合に、対象物が支障物として検知されることが防止される。その結果、支障物を検知する精度を向上することができる。   In addition, the obstacle determining unit 13 determines that the object is an obstacle when the certainty is equal to or greater than the determination threshold. Therefore, when the certainty is less than the determination threshold, the obstacle is detected as an obstacle. Is prevented. As a result, the accuracy of detecting obstacles can be improved.

また、従来技術の物体認識装置では、要求された仕様を満たすためにセンサによって数多くの対象物候補を検出する傾向にあった。また、従来の物体認識装置では、センサによる単回の検出結果を用いて危険な対象物であるのか否かを判定するために、多数の検出結果が得るおそれがあった。本実施形態の支障物検知装置1では、複数の検出データを統合して確信度を更新することができるので、支障物判定部13において演算に使用されるデータ数を削減することができる。支障物検知装置1では、1つの対象物に対して複数の検出データを用いることで支障物を検知する精度(確度)を高めることができる。   Further, in the object recognition device of the related art, a large number of target object candidates tend to be detected by a sensor in order to satisfy a required specification. Further, in the conventional object recognition device, a large number of detection results may be obtained in order to determine whether or not the object is a dangerous target using a single detection result of the sensor. In the obstacle detection device 1 of the present embodiment, the confidence level can be updated by integrating a plurality of pieces of detection data, so that the number of data used in the calculation in the obstacle determination unit 13 can be reduced. The obstacle detection device 1 can increase the accuracy (accuracy) of detecting an obstacle by using a plurality of pieces of detection data for one target object.

本発明は、前述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で下記のような種々の変形が可能である。   The present invention is not limited to the embodiments described above, and various modifications as described below are possible without departing from the gist of the present invention.

上記実施形態では、センサとしてカメラ2及び3DLR3を備える構成としているが、センサはこれらに限定されず、例えば、検出範囲が異なる複数種類のカメラ(遠距離カメラ、近距離カメラ)を備える構成でもよい。また、上記実施形態では、複数種類のセンサを備える構成としているが、1種類のセンサを備えるものでもよい。   In the above-described embodiment, the camera is configured to include the camera 2 and the 3DLR 3 as the sensor. However, the sensor is not limited thereto. For example, a configuration including a plurality of types of cameras (a long-distance camera, a short-distance camera) having different detection ranges may be used. . Further, in the above embodiment, a configuration including a plurality of types of sensors is employed, but a configuration including a single type of sensor may be employed.

また、上記実施形態では、対象物の明度に関する情報、対象物の色相に関する情報、対象物の外形寸法に関する情報、対象物までの距離に関する情報に基づいて確信度を設定しているが、明度に関する情報のみ、色相に関する情報のみ、外形寸法に関する情報のみ、対象物までの距離に関する情報のみに基づいて、確信度を設定してもよく、複数の情報を用いて確信度を設定してもよい。   Further, in the above embodiment, the certainty is set based on the information on the brightness of the object, the information on the hue of the object, the information on the external dimensions of the object, and the information on the distance to the object. The certainty may be set based on only the information, only the information related to the hue, only the information related to the outer dimensions, or only the information related to the distance to the object, or the certainty may be set using a plurality of pieces of information.

また、対象物の検出データは、対象物の明るさに関する情報を含み、確信度設定部は、対象物の明るさが明るい場合に、対象物の明るさが暗い場合と比較して、確信度を高く設定してもよい。対象物が明るい場合には、対象物が暗い場合と比較して、誤検出の可能性が低いので、対象物が明るい場合について、対象物の確信度を高く設定し、対象物が暗い場合について、対象物の確信度を低く設定することで、支障物を精度良く検知する。   In addition, the detection data of the object includes information regarding the brightness of the object, and the certainty factor setting unit determines the certainty factor when the brightness of the object is higher than when the brightness of the object is lower. May be set higher. When the object is bright, the possibility of erroneous detection is lower than when the object is dark.Therefore, when the object is bright, the confidence level of the object is set high, and when the object is dark, By setting the certainty factor of the object low, obstacles can be detected with high accuracy.

また、上記実施形態では、確信度更新部12において、重み付き平均を用いて対象物の確信度を更新しているが、重み付き平均を用いないで確信度を更新してもよい。例えば、複数の確信度に基づいて、その他の数式やマップを用いて確信度を更新してもよい。   In the above embodiment, the certainty factor updating unit 12 updates the certainty factor of the target object using the weighted average. However, the certainty factor may be updated without using the weighted average. For example, based on a plurality of certainty factors, the certainty factors may be updated using other formulas or maps.

また、上記実施形態では、確信度更新部12は、センサの種別に応じて、重み付き平均における重みを変更して、対象物の確信度を更新しているが、センサの種別以外のその他の条件に応じて、重み付き平均における重みを変更してもよい。例えば、対象物である物体の種別に応じて、その物体がその場所に存在する確率に基づいて、重み付け平均における重みを変更してもよい。物体の存在確率が高い場合には、物体の存在確率が低い場合と比較して、重み係数を大きくする。これにより、対象物である物体の存在確率を考慮して、対象物の確信度を変更することができる。なお、支障物検知装置1では、センサデータに基づいて、対象物の物体の種別を判定してもよい。また、物体の存在確率に関するデータは、例えば、統合処理部9の記憶部に格納されている。   In the above-described embodiment, the certainty factor update unit 12 updates the certainty factor of the target object by changing the weight in the weighted average according to the type of the sensor. The weight in the weighted average may be changed according to conditions. For example, the weight in the weighted average may be changed based on the probability that the object exists at the place according to the type of the target object. When the existence probability of the object is high, the weight coefficient is increased as compared with the case where the existence probability of the object is low. This makes it possible to change the certainty factor of the target object in consideration of the existence probability of the target object. Note that the obstacle detection device 1 may determine the type of the target object based on the sensor data. Further, data on the existence probability of the object is stored in, for example, the storage unit of the integration processing unit 9.

また、上記実施形態では、追跡処理部11で追跡判定できなかった場合(ステップS14;NO)に、確信度を減少させている(ステップS16)が、確信度を減少させずに確信度を維持してもよい。   Further, in the above embodiment, when the tracking processing unit 11 cannot perform the tracking determination (Step S14; NO), the confidence is reduced (Step S16), but the confidence is maintained without decreasing the confidence. May be.

また、上記実施形態では、支障物検知システムを車両に搭載した場合について説明しているが、支障物検知システムを車両以外の移動体に搭載してもよい。例えば、ロボット、飛行機、船舶、鉄道などに、支障物検知システムを搭載してもよい。また、支障物検知システムは、移動体に搭載せずに、その他の場所や物に設置してもよい。例えば、工場、店舗、病院、空港、駅、走行路周辺の建築物などに、支障物検知システムを設置して、危険のおそれがある対象物を支障物として検知してもよい。なお、対象物は静止物に限定されず、移動する物、人、動物でもよい。また、支障物は、危険な対象物に限定されず、障害となる対象物、特定の条件に合致する対象物でもよい。   In the above embodiment, the case where the obstacle detection system is mounted on the vehicle is described. However, the obstacle detection system may be mounted on a moving body other than the vehicle. For example, the obstacle detection system may be mounted on a robot, an airplane, a ship, a railway, or the like. Further, the obstacle detection system may be installed in another place or object without being mounted on the moving body. For example, an obstacle detection system may be installed in a factory, a store, a hospital, an airport, a station, a building around a traveling road, or the like, and a potentially dangerous object may be detected as an obstacle. The target object is not limited to a stationary object, but may be a moving object, a person, or an animal. In addition, the obstacle is not limited to a dangerous object, and may be an obstacle or an object that meets specific conditions.

1 支障物検知装置(支障物検知システム)
2 カメラ(検出部)
3 3DLR(検出部)
5 支障物検知ユニット
6 画像処理部(確信度設定部)
7 3DLR処理部(確信度設定部)
9 統合処理部
11 追跡処理部
12 確信度更新部
13 支障物判定部
B 落下物(対象物、支障物)
1 Obstacle detection device (obstacle detection system)
2 Camera (detection unit)
3 3DLR (detection unit)
5 Obstacle detection unit 6 Image processing unit (confidence level setting unit)
7 3DLR processing unit (confidence level setting unit)
9 Integrated processing unit 11 Tracking processing unit 12 Confidence updating unit 13 Obstacle determination unit B Falling object (object, obstacle)

Claims (8)

対象物を検出する検出部と、
前記検出部で取得した前記対象物の検出データに基づいて、前記対象物が支障物である可能性を示す確信度を設定する確信度設定部と、
検出時刻が異なる複数の前記検出データが同一の前記対象物に対するものであるか否かを判定する追跡処理を実行する追跡処理部と、
前記追跡処理部で、複数の前記検出データが前記同一の対象物に対するものであると判定した場合に、前記同一の対象物に関連する前記検出データを用いて、当該対象物の前記確信度を更新する確信度更新部と、を備え
前記検出部は、3次元レーザレーダを含む複数種類の検出部を備え、
前記対象物の検出データは、前記対象物に当たって反射したレーザの点数、レーザが当たった複数の点である点群の重心位置、及び前記点群の分散の少なくとも一つに関する情報を含み、
前記確信度更新部は、各検出部で取得した前記対象物の検出データに基づいて、それぞれ、各確信度を設定し、前記各確信度を用いた重み付き平均を算出することによって前記対象物の前記確信度を更新する支障物検知システム。
A detection unit for detecting an object;
Based on the detection data of the target object obtained by the detection unit, a certainty factor setting unit that sets a certainty factor indicating the possibility that the target object is an obstacle,
A tracking processing unit that performs a tracking process to determine whether the plurality of pieces of detection data having different detection times are for the same object,
In the tracking processing unit, when it is determined that the plurality of the detection data is for the same object, using the detection data related to the same object, the certainty factor of the object And a confidence update unit for updating .
The detection unit includes a plurality of types of detection units including a three-dimensional laser radar,
The detection data of the object includes the number of lasers reflected on the object, the position of the center of gravity of a point group that is a plurality of points hit by the laser, and information on at least one of the variance of the point group,
The certainty factor updating unit sets each certainty factor based on the detection data of the target object obtained by each detecting unit, and calculates a weighted average using the certainty factors to obtain the target object. the obstacle detection system to update the confidence of.
前記対象物の検出データは、前記対象物の明度に関する情報を含み、
前記確信度設定部は、前記対象物と当該対象物の周囲との明度差が大きい場合に、前記明度差が小さい場合と比較して、前記確信度を高く設定する請求項1に記載の支障物検知システム。
The detection data of the object includes information on the brightness of the object,
The obstacle according to claim 1, wherein the certainty factor setting unit sets the certainty factor higher when the brightness difference between the target object and the surroundings of the target object is larger than when the brightness difference is smaller. Object detection system.
前記対象物の検出データは、前記対象物の色相に関する情報を含み、
前記確信度設定部は、前記対象物と当該対象物の周囲との色相差が大きい場合に、前記色相差が小さい場合と比較して、前記確信度を高く設定する請求項1又は2に記載の支障物検知システム。
The detection data of the object includes information on a hue of the object,
The said certainty factor setting part sets the said certainty factor high when the hue difference between the said target object and the circumference | surroundings of the said target object is large compared with the case where the said hue difference is small. Obstacle detection system.
前記対象物の検出データは、前記対象物の外形寸法に関する情報を含み、
前記確信度設定部は、前記対象物の外形寸法が大きい場合に、前記対象物の外形寸法が小さい場合と比較して、前記確信度を高く設定する請求項1〜3の何れか一項に記載の支障物検知システム。
The detection data of the object includes information on the external dimensions of the object,
The confidence factor setting unit according to any one of claims 1 to 3, wherein when the external dimensions of the object are large, the confidence is set higher than when the external dimensions of the object are small. Obstacle detection system as described.
前記対象物の検出データは、前記検出部から前記対象物まで距離に関する情報を含み、
前記確信度設定部は、前記対象物までの距離が近い場合に、前記対象物までの距離が遠い場合と比較して、前記確信度を高く設定する請求項1〜4の何れか一項に記載の支障物検知システム。
The detection data of the object includes information on a distance from the detection unit to the object,
5. The confidence factor setting unit according to claim 1, wherein when the distance to the target object is short, the confidence factor is set higher than when the distance to the target object is long. Obstacle detection system as described.
前記更新された前記確信度が判定閾値以上であるか否かを判定し、前記確信度が判定閾値以上である場合に、前記対象物を前記支障物であると判定する支障物判定部を更に備える請求項1〜5の何れか一項に記載の支障物検知システム。   Determining whether the updated certainty factor is equal to or greater than a determination threshold, and further comprising, when the certainty factor is equal to or greater than the determination threshold, an obstacle determining unit that determines that the object is the obstacle. The obstacle detection system according to any one of claims 1 to 5. 前記確信度更新部は、前記検出部の種別に応じて、前記重み付き平均における重みを変更して、前記対象物の前記確信度を更新する請求項1〜6の何れか一項に記載の支障物検知システム。 The said certainty factor update part changes the weight in the said weighted average according to the classification of the said detection part, and updates the said certainty factor of the said target object in any one of Claims 1-6 . Obstacle detection system. 前記確信度更新部は、前記追跡処理部で前記対象物が追跡判定されなかった場合に、当該対象物の前記確信度を低下させる請求項1〜の何れか一項に記載の支障物検知システム。 The obstacle detection according to any one of claims 1 to 7 , wherein the certainty update unit reduces the certainty of the object when the tracking processing unit does not determine the tracking of the object. system.
JP2015166006A 2015-08-25 2015-08-25 Obstacle detection system Active JP6645074B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015166006A JP6645074B2 (en) 2015-08-25 2015-08-25 Obstacle detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015166006A JP6645074B2 (en) 2015-08-25 2015-08-25 Obstacle detection system

Publications (2)

Publication Number Publication Date
JP2017044530A JP2017044530A (en) 2017-03-02
JP6645074B2 true JP6645074B2 (en) 2020-02-12

Family

ID=58209742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015166006A Active JP6645074B2 (en) 2015-08-25 2015-08-25 Obstacle detection system

Country Status (1)

Country Link
JP (1) JP6645074B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210396525A1 (en) * 2020-06-18 2021-12-23 Furuno Electric Co., Ltd. Ship target object detection system, method of detecting ship target object and reliability estimating device

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6930152B2 (en) * 2017-03-14 2021-09-01 トヨタ自動車株式会社 Autonomous driving system
JP6791055B2 (en) 2017-08-08 2020-11-25 株式会社デンソー Photodetector, driver assistance system, and autonomous driving system
US10641888B2 (en) * 2017-11-06 2020-05-05 Veoneer Us Inc. Cued automobile sensor fusion
CN110412530B (en) * 2018-04-27 2021-09-17 深圳市优必选科技有限公司 Method and device for identifying charging pile and robot
JP2020034454A (en) * 2018-08-30 2020-03-05 パイオニア株式会社 Signal processing device
JP7147420B2 (en) * 2018-09-26 2022-10-05 トヨタ自動車株式会社 OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND COMPUTER PROGRAM FOR OBJECT DETECTION
JP7519601B2 (en) 2020-06-11 2024-07-22 パナソニックIpマネジメント株式会社 Fall detection device and fall detection method
WO2023054090A1 (en) * 2021-10-01 2023-04-06 ソニーセミコンダクタソリューションズ株式会社 Recognition processing device, recognition processing method, and recognition processing system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3065821B2 (en) * 1992-11-02 2000-07-17 株式会社豊田中央研究所 Object detection device
JPH06243258A (en) * 1993-02-19 1994-09-02 Toshiba Corp Depth detector
JP3304905B2 (en) * 1999-01-08 2002-07-22 住友電気工業株式会社 Object tracking recognition device
JP3718747B2 (en) * 2001-04-27 2005-11-24 日産自動車株式会社 Vehicle travel control device
JP3915746B2 (en) * 2003-07-01 2007-05-16 日産自動車株式会社 Vehicle external recognition device
JP2007127478A (en) * 2005-11-02 2007-05-24 Konica Minolta Holdings Inc Device and method for speed detection of tracking subject
JP4937029B2 (en) * 2007-07-23 2012-05-23 株式会社豊田中央研究所 Object detection apparatus and program
US8917904B2 (en) * 2008-04-24 2014-12-23 GM Global Technology Operations LLC Vehicle clear path detection
JP5929870B2 (en) * 2013-10-17 2016-06-08 株式会社デンソー Target detection device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210396525A1 (en) * 2020-06-18 2021-12-23 Furuno Electric Co., Ltd. Ship target object detection system, method of detecting ship target object and reliability estimating device

Also Published As

Publication number Publication date
JP2017044530A (en) 2017-03-02

Similar Documents

Publication Publication Date Title
JP6645074B2 (en) Obstacle detection system
US20230079730A1 (en) Control device, scanning system, control method, and program
JP6464673B2 (en) Obstacle detection system and railway vehicle
US20140347207A1 (en) Probabilistic target selection and threat assessment method and application to intersection collision alert system
US20180224275A1 (en) Road surface shape measuring device, measuring method, and non-transitory computer-readable medium
JP2018060326A (en) Tracking device and program thereof
KR102126670B1 (en) Apparatus and method for tracking objects with optimizing region of interest
US10814788B2 (en) Recognized-region estimation device, recognized-region estimation method, and recognized-region estimation program
US20230011475A1 (en) Object recognition device and object recognition method
EP3899778A1 (en) A method for multi-modal sensor fusion using object trajectories for cross-domain correspondence
JP2017004176A (en) Road surface marking detection device and road surface marking detection method
US11420632B2 (en) Output device, control method, program and storage medium
WO2021102676A1 (en) Object state acquisition method, mobile platform and storage medium
CN115993597A (en) Visual radar perception fusion method and terminal equipment
JP2007309799A (en) On-board distance measuring apparatus
WO2019073024A1 (en) Lane sensing method
US10976426B2 (en) Apparatus and method for ascertaining object kinematics of a movable object
US20100152967A1 (en) Object detection system with learned position information and method
KR102087046B1 (en) Method and apparatus for providing information of a blind spot based on a lane using local dynamic map in autonomous vehicle
US20220414920A1 (en) Object recognition device and object recognition method
KR20200133856A (en) Autonomous driving apparatus and method
CN114084129A (en) Fusion-based vehicle automatic driving control method and system
US20200026297A1 (en) Output device, control method, program and storage medium
US20220067403A1 (en) Visual guidance system and method
BE1028777B1 (en) System and method for detecting inconsistencies in the outputs of perception systems of autonomous vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191223

R151 Written notification of patent or utility model registration

Ref document number: 6645074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151