JP2010132056A - Sensing device, sensing method, and vehicle control device - Google Patents

Sensing device, sensing method, and vehicle control device Download PDF

Info

Publication number
JP2010132056A
JP2010132056A JP2008308198A JP2008308198A JP2010132056A JP 2010132056 A JP2010132056 A JP 2010132056A JP 2008308198 A JP2008308198 A JP 2008308198A JP 2008308198 A JP2008308198 A JP 2008308198A JP 2010132056 A JP2010132056 A JP 2010132056A
Authority
JP
Japan
Prior art keywords
reliability
sensing result
sensing
detection
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008308198A
Other languages
Japanese (ja)
Inventor
Natsumi Take
奈津美 嶽
Yasuyoshi Sawada
康嘉 澤田
Minoru Fujioka
稔 藤岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2008308198A priority Critical patent/JP2010132056A/en
Publication of JP2010132056A publication Critical patent/JP2010132056A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To take into account the degrees of reliability of sensing results when sensing obstacles by using the sensing results through an on-vehicle radar or an on-vehicle camera. <P>SOLUTION: A sensing device includes preliminarily a reliability table for storing the degrees of reliability of sensing results through individual on-vehicle sensors by associating them with environmental conditions when the sensing results are captured from the individual on-vehicle sensors (such as night, rain, or the like) or sensing objects that become sensing objects of the individual on-vehicle sensors (such as long distance objects, pedestrians or the like), respectively. The sensing device calculates the degrees of reliability of the sensing results by referring to the reliability table based on the environmental conditions during capture of the sensing results and the sensing objects indicated by the sensing results. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、検知装置、検知方法および車両制御装置に関する。   The present invention relates to a detection device, a detection method, and a vehicle control device.

従来、障害物との衝突等を回避することを目的として、レーダや車載カメラにより自車両の走路ルート周辺をセンシングし、各センシング結果を総合的に判断して障害物の検知や認識を行う技術が存在する。   Conventionally, for the purpose of avoiding collisions with obstacles, etc., sensing the surroundings of the route of the host vehicle with a radar or in-vehicle camera, and comprehensively judging each sensing result to detect and recognize obstacles Exists.

例えば、特許文献1では、レーザレーダによるセンシング結果に対して、画像センサによるセンシング結果を加味することで、前方車両のみを精度よく認識する技術が提案されている。   For example, Patent Document 1 proposes a technique for accurately recognizing only a vehicle ahead by adding a sensing result obtained by an image sensor to a sensing result obtained by a laser radar.

特開2003−84064号公報JP 2003-84064 A

車両に搭載されるレーダやカメラなどの各種センサが置かれる環境や各種センサによる検知物に応じて、センシング結果の信頼度が変化する。しかしながら、上記した従来の技術では、センシング結果を用いて障害物を検知する場合に、センシング結果の信頼度が加味されていないという問題点があった。   The reliability of the sensing result varies depending on the environment in which various sensors such as a radar and a camera mounted on the vehicle are placed and the objects detected by the various sensors. However, the above-described conventional technique has a problem that the reliability of the sensing result is not taken into account when an obstacle is detected using the sensing result.

そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、センシング結果を用いて障害物を検知する場合に、各車載センサから取得されるセンシング結果の信頼度を加味することが可能な検知装置、検知方法および車両制御装置を提供することを目的とする。   Therefore, the present invention has been made to solve the above-described problems of the prior art, and considers the reliability of the sensing result obtained from each in-vehicle sensor when an obstacle is detected using the sensing result. It is an object of the present invention to provide a detection device, a detection method, and a vehicle control device that can be used.

上述した課題を解決し、目的を達成するため、本発明は、車両周辺の障害物をセンシングする各車載センサからセンシング結果が取得された時の環境条件、または当該各車載センサのセンシング対象となる検知対象物にそれぞれ対応付けて、各車載センサによるセンシング結果の信頼度をそれぞれ記憶する信頼度記憶手段と、前記各車載センサによるセンシング結果を取得した場合に、当該センシング結果取得時の環境条件および当該センシング結果が示す検知物に基づいて前記信頼度記憶手段を参照し、前記センシング結果の信頼度を算出する信頼度算出手段と、前記信頼度算出手段により算出された前記信頼度と、前記センシング結果とを用いて、前記障害物が検知されたか否かを判定する検知判定手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is an environmental condition when a sensing result is acquired from each in-vehicle sensor that senses an obstacle around the vehicle, or a sensing target of each in-vehicle sensor. A reliability storage means for storing the reliability of the sensing result by each in-vehicle sensor in association with each detection target, and when the sensing result by each in-vehicle sensor is acquired, Based on the detected object indicated by the sensing result, the reliability storage means is referred to, a reliability calculating means for calculating the reliability of the sensing result, the reliability calculated by the reliability calculating means, and the sensing And a detection determination unit that determines whether or not the obstacle is detected using a result.

また、本発明は、各車載センサによるセンシング結果を取得した場合に、当該センシング結果取得時の環境条件および当該センシング結果が示す検知物に基づいて、車両周辺の障害物をセンシングする各車載センサからセンシング結果が取得された時の環境条件、または当該各車載センサのセンシング対象となる検知対象物にそれぞれ対応付けて、各車載センサによるセンシング結果の信頼度をそれぞれ記憶する信頼度記憶手段を参照し、前記センシング結果の信頼度を算出する信頼度算出ステップと、前記信頼度算出ステップにより算出された前記信頼度と、前記センシング結果とを用いて、前記障害物が検知されたか否かを判定する検知判定ステップと、を含んだことを特徴とする。   In addition, the present invention is based on each in-vehicle sensor that senses an obstacle around the vehicle based on the environmental condition at the time of acquiring the sensing result and the detected object indicated by the sensing result when the sensing result by each in-vehicle sensor is acquired. Refer to the reliability storage means for storing the reliability of the sensing result by each in-vehicle sensor in association with the environmental condition when the sensing result is acquired or the detection object to be sensed by each in-vehicle sensor. And determining whether or not the obstacle has been detected using the reliability calculation step for calculating the reliability of the sensing result, the reliability calculated by the reliability calculation step, and the sensing result. A detection determination step.

本発明によれば、車両に搭載されるレーダや車載カメラによるセンシング結果を用いて障害物を検知する場合に、センシング結果の信頼度を加味できる。   ADVANTAGE OF THE INVENTION According to this invention, when detecting an obstruction using the sensing result by the radar mounted in a vehicle or a vehicle-mounted camera, the reliability of a sensing result can be considered.

以下に添付図面を参照して、この発明に係る検知装置、検知方法および車両制御装置の実施例を詳細に説明する。なお、以下では、本発明に係る検知装置の一実施形態として実施例1を説明した後に、本発明に係る検知装置に含まれる他の実施形態について説明する。   Hereinafter, embodiments of a detection device, a detection method, and a vehicle control device according to the present invention will be described in detail with reference to the accompanying drawings. In addition, below, after describing Example 1 as one embodiment of the detection device according to the present invention, other embodiments included in the detection device according to the present invention will be described.

以下の実施例1では、実施例1に係る検知装置の概要および特徴、かかる検知装置の構成および処理を順に説明し、最後に実施例1による効果を説明する。   In the following first embodiment, the outline and features of the detection device according to the first embodiment, the configuration and processing of the detection device will be described in order, and finally the effects of the first embodiment will be described.

[検知装置の概要および特徴(実施例1)]
まず、図1を用いて、実施例1に係る検知装置の概要および特徴を説明する。図1および図2は、実施例1に係る検知装置の概要および特徴を説明するための図である。
[Outline and Features of Detection Device (Example 1)]
First, the outline and features of the detection apparatus according to the first embodiment will be described with reference to FIG. FIG. 1 and FIG. 2 are diagrams for explaining the outline and features of the detection apparatus according to the first embodiment.

実施例1に係る検知装置は、車両に搭載され、走行中の車両周辺に存在する障害物を検知することを概要とする。そして、実施例1に係る検知装置は、車両に搭載されるレーダや車載カメラによるセンシング結果を用いて障害物を検知する場合に、センシング結果の信頼度を加味する点に主たる特徴がある。   The detection apparatus according to the first embodiment is mounted on a vehicle, and outlines the detection of an obstacle existing around the traveling vehicle. And the detection apparatus which concerns on Example 1 has the main characteristics in the point which considers the reliability of a sensing result, when detecting an obstruction using the sensing result by the radar mounted in a vehicle, or a vehicle-mounted camera.

この主たる特徴について具体的に説明すると、実施例1に係る検知装置は、図1に示すように、レーダ、車載カメラおよび環境センサによるセンシング結果を取得すると、センシング結果の信頼度を算出する(図1の(1)参照)。   This main feature will be specifically described. As shown in FIG. 1, the detection apparatus according to the first embodiment calculates the reliability of the sensing result when the sensing result obtained by the radar, the in-vehicle camera, and the environment sensor is acquired (see FIG. 1). 1 (1)).

具体的には、検知装置は、図1に示すように、車両走行中に、車両周辺の障害物をセンシングする各車載センサからセンシング結果が取得された時の環境条件(例えば、夜や雨など)、または当該各車載センサのセンシング対象となる検知対象物(例えば、遠距離物体や歩行者など)にそれぞれ対応付けて、各車載センサによるセンシング結果の信頼度をそれぞれ記憶する信頼度テーブルを予め備える。   Specifically, as shown in FIG. 1, the detection device is configured such that an environmental condition (for example, night or rain) when a sensing result is acquired from each in-vehicle sensor that senses an obstacle around the vehicle while the vehicle is running. ) Or a reliability table that stores the reliability of the sensing result of each in-vehicle sensor in advance in association with a detection target (for example, a long-distance object or a pedestrian) to be sensed by each in-vehicle sensor. Prepare.

そして、検知装置は、センシング結果取得時の環境条件および当該センシング結果が示す検知物に基づいて信頼度テーブルを参照し、センシング結果の信頼度を算出する。例えば、図2に示すように、環境条件が「夜」に対応するレーダによるセンシング結果の信頼度を「高」と算出するとともに、環境条件が「夜」に対応する車載カメラによるセンシング結果の信頼度を「低」と算出する。さらに、センシング結果が示す検知物「遠距離物体」に対応するレーダによるセンシング結果の信頼度を「高」と算出するとともに、センシング結果が示す検知物「遠距離物体」に対応する車載カメラによるセンシング結果の信頼度を「低」と算出する。   Then, the detection device calculates the reliability of the sensing result by referring to the reliability table based on the environmental condition at the time of sensing result acquisition and the detected object indicated by the sensing result. For example, as shown in FIG. 2, the reliability of the sensing result by the radar corresponding to the environmental condition “night” is calculated as “high”, and the reliability of the sensing result by the in-vehicle camera corresponding to the environmental condition “night”. The degree is calculated as “low”. Furthermore, the reliability of the sensing result by the radar corresponding to the detected object “far object” indicated by the sensing result is calculated as “high”, and the sensing by the in-vehicle camera corresponding to the detected object “far object” indicated by the sensing result. The reliability of the result is calculated as “low”.

信頼度の算出後、検知装置は、障害物が検知されたか否かを判定するために車載センサの種別ごとに予め設定されている検知閾値をセンシング結果の信頼度に基づいて変更する(図1の(2)参照)。   After calculating the reliability, the detection device changes a detection threshold set in advance for each type of vehicle-mounted sensor based on the reliability of the sensing result in order to determine whether an obstacle has been detected (FIG. 1). (See (2)).

具体的には、検知装置は、先に算出された信頼度に基づいて、車載センサの種別ごとに予め設定されている検知閾値を初期値よりも低く変更する。例えば、図2に示す場合では、環境条件「夜」およびセンシング結果が示す検知物「遠距離物体」に対応する車載カメラの信頼度がともに低いので、車載カメラのセンシング結果についての検知閾値を初期値よりも低く変更する。   Specifically, the detection device changes the detection threshold set in advance for each type of on-vehicle sensor to be lower than the initial value based on the reliability calculated previously. For example, in the case shown in FIG. 2, since the reliability of the in-vehicle camera corresponding to the environmental condition “night” and the detected object “far-distance object” indicated by the sensing result is low, the detection threshold for the in-vehicle camera sensing result is initially set. Change lower than the value.

検知閾値の変更後、検知装置は、車載センサの種別ごとに予め設定されている検知閾値、および先に低く変更された検知閾値と、各検知閾値に対応するセンシング結果のセンシング値との比較結果を用いて、障害物の検知判定を行う(図1の(3)参照)。具体的には、レーダおよび車載カメラにより取得された各センシング値が、レーダについての検知閾値、および先に変更された車載カメラについての検知閾値をそれぞれ超えているものと判定された場合に、障害物を検知したものと判定する。   After the detection threshold is changed, the detection device compares the detection threshold set in advance for each type of vehicle-mounted sensor, the detection threshold that has been changed to a lower value, and the sensing value of the sensing result corresponding to each detection threshold. Is used to detect the obstacle (see (3) in FIG. 1). Specifically, when it is determined that each sensing value acquired by the radar and the vehicle-mounted camera exceeds the detection threshold for the radar and the previously detected vehicle-mounted camera, It is determined that an object has been detected.

そして、障害物を検知したものと判定された場合には、検知装置は、障害物を検知した旨(例えば、遠距離物体を検知した旨)をドライバに報知する(図1の(4)参照)。   When it is determined that an obstacle has been detected, the detection device notifies the driver that the obstacle has been detected (for example, that a long-distance object has been detected) (see (4) in FIG. 1). ).

このようにして、実施例1に係る検知装置は、上述した主たる特徴のように、車両に搭載されるレーダや車載カメラによるセンシング結果を用いて障害物を検知する場合に、センシング結果の信頼度を加味できる。   As described above, the detection apparatus according to the first embodiment, when detecting an obstacle using a sensing result obtained by a radar or an in-vehicle camera mounted on a vehicle, as described above, is a reliability of the sensing result. Can be added.

[検知装置の構成(実施例1)]
次に、図3〜図11を用いて、実施例1に係る検知装置の構成を説明する。図3は、実施例1に係る検知装置の構成を示す図である。
[Configuration of Detection Device (Example 1)]
Next, the configuration of the detection apparatus according to the first embodiment will be described with reference to FIGS. FIG. 3 is a diagram illustrating the configuration of the detection device according to the first embodiment.

図3に示すように、実施例1に係る検知装置は、環境センサ群100、レーダ200、レーダ認識部210、車載カメラ220、画像認識部230、ディスプレイ240およびスピーカ250とともに、車両に搭載される。   As shown in FIG. 3, the detection apparatus according to the first embodiment is mounted on a vehicle together with the environmental sensor group 100, the radar 200, the radar recognition unit 210, the in-vehicle camera 220, the image recognition unit 230, the display 240 and the speaker 250. .

環境センサ群100は、車両周辺の障害物をセンシングする各車載センサからセンシング結果が取得された時の環境条件を計測または検知する。図3に示すように、照度を計測するための照度センサ110、温度を計測するための温度センサ120、雨を検知するための雨滴センサ130、道路の起伏等を計測するためのジャイロセンサ140およびインフラの情報を取得して蓄積するインフラ情報デバイス150を有する。なお、インフラ情報デバイス150は、車車間および路車間で実行される通信機能を有し、ガードレールやガードロープなどの路側構造物や、トンネルなどの路上構造物であるインフラの情報を通信により取得して蓄積する。環境センサ群100により計測または検知されたセンシング結果は、後述する環境特定部320に出力される。   The environmental sensor group 100 measures or detects an environmental condition when a sensing result is acquired from each in-vehicle sensor that senses an obstacle around the vehicle. As shown in FIG. 3, an illuminance sensor 110 for measuring illuminance, a temperature sensor 120 for measuring temperature, a raindrop sensor 130 for detecting rain, a gyro sensor 140 for measuring road undulations, and the like An infrastructure information device 150 that acquires and accumulates infrastructure information is included. The infrastructure information device 150 has a communication function executed between vehicles and between roads and vehicles, and acquires information on infrastructures such as roadside structures such as guardrails and guard ropes and roadside structures such as tunnels by communication. Accumulate. The sensing result measured or detected by the environmental sensor group 100 is output to the environment specifying unit 320 described later.

レーダ200は、レーダ(例えば、76.5GHzのミリ波)を照射して、車両の前方や側方のレーダ照射範囲(センシング範囲)にある障害物(歩行者や他車両)との距離や速度、方向などを測定して、センシング結果として取得する。レーダ200によるセンシング結果は、レーダ認識部210に出力される。   The radar 200 irradiates a radar (for example, 76.5 GHz millimeter wave), and distance and speed with an obstacle (pedestrian or other vehicle) in the radar irradiation range (sensing range) in front of or on the side of the vehicle. Measure the direction, etc., and obtain it as a sensing result. A sensing result by the radar 200 is output to the radar recognition unit 210.

レーダ認識部210は、レーダ200から入力されるセンシング結果から、センシングされた障害物をある程度認識して、後述する信頼度算出部330に認識結果を出力する。例えば、レーダ200からセンシング結果として入力される障害物との距離や速度、方向から、遠距離物体や車両、歩行者などをある程度認識して、認識結果およびセンシング結果を後述する信頼度算出部330に出力する。   The radar recognition unit 210 recognizes a sensed obstacle to some extent from the sensing result input from the radar 200, and outputs the recognition result to a reliability calculation unit 330 described later. For example, from a distance, speed, and direction from an obstacle input as a sensing result from the radar 200, a long distance object, a vehicle, a pedestrian, or the like is recognized to some extent, and a reliability calculation unit 330 described later on the recognition result and the sensing result. Output to.

車載カメラ220は、車両の前方や側方に設定されたセンシング範囲(撮影方向)を撮影してセンシング結果として取得する。車載カメラ220によるセンシング結果は、画像認識部230に出力される。   The in-vehicle camera 220 captures a sensing range (imaging direction) set in front of or on the side of the vehicle and acquires it as a sensing result. A sensing result by the in-vehicle camera 220 is output to the image recognition unit 230.

画像認識部230は、車載カメラ220から入力した画像内の障害物の輪郭を強調するための前処理(例えば、シャープネス、コントラスト調整、彩度調整)を行った後、画像内に映し出された障害物を認識して、認識結果およびセンシング結果を後述する信頼度算出部330に出力する。   The image recognizing unit 230 performs preprocessing (for example, sharpness, contrast adjustment, saturation adjustment) for emphasizing the outline of the obstacle in the image input from the in-vehicle camera 220, and then the obstacle displayed in the image The object is recognized, and the recognition result and the sensing result are output to the reliability calculation unit 330 described later.

ディスプレイ240は、後述する報知制御部360からの報知内容を画像により出力する。スピーカ250は、後述する報知制御部360からの報知内容を音声により出力する。   The display 240 outputs notification contents from a notification control unit 360 described later as an image. The speaker 250 outputs notification contents from the notification control unit 360 described later by voice.

検知装置300は、信頼度テーブル1(310)、信頼度テーブル2(311)、信頼度テーブル3(312)、環境特定部320、信頼度算出部330、検知閾値変更部340、検知判定部350および報知制御部360を有する。   The detection apparatus 300 includes a reliability table 1 (310), a reliability table 2 (311), a reliability table 3 (312), an environment identification unit 320, a reliability calculation unit 330, a detection threshold change unit 340, and a detection determination unit 350. And a notification control unit 360.

信頼度テーブル1(310)は、環境条件に関する分類項目に対応付けて、レーダまたは車載カメラのセンシング結果についての信頼度をあらかじめ記憶する。例えば、図4に示すように、分類項目が「夜」である場合には、センシング結果の信頼度が高いのは「レーダ」、センシング結果の信頼度が低いのは「車載カメラ」であるというデータを予め記憶する。図4は、実施例1に係る信頼度テーブル1の構成例を示す図である。   The reliability table 1 (310) stores in advance the reliability of the sensing result of the radar or the in-vehicle camera in association with the classification item related to the environmental condition. For example, as shown in FIG. 4, when the classification item is “night”, the reliability of the sensing result is “radar”, and the reliability of the sensing result is “in-vehicle camera”. Data is stored in advance. FIG. 4 is a diagram illustrating a configuration example of the reliability table 1 according to the first embodiment.

信頼度テーブル2(311)は、ガードレールやガードロープなどの路側構造物や、トンネルなどの路上構造物であるインフラの情報に関する分類項目に対応付けて、レーダまたは車載カメラのセンシング結果についての信頼度をあらかじめ記憶する。例えば、図5に示すように、分類項目が「ガードレール」である場合には、センシング結果の信頼度が高いのは「車載カメラ」、センシング結果の信頼度が低いのは「レーダ」であるというデータを予め記憶する。図5は、実施例1に係る信頼度テーブル2の構成例を示す図である。   The reliability table 2 (311) is associated with classification items related to infrastructure information such as roadside structures such as guard rails and guard ropes and road structures such as tunnels, and the reliability of the sensing result of the radar or the in-vehicle camera. Is stored in advance. For example, as shown in FIG. 5, when the classification item is “guardrail”, the reliability of the sensing result is “on-vehicle camera”, and the reliability of the sensing result is “radar”. Data is stored in advance. FIG. 5 is a diagram illustrating a configuration example of the reliability table 2 according to the first embodiment.

信頼度テーブル3(312)は、遠距離物体や歩行者などの検知対象物に対応付けて、レーダまたは車載カメラのセンシング結果についての信頼度をあらかじめ記憶する。例えば、図6に示すように、分類項目が「遠距離物体」である場合には、センシング結果の信頼度が高いのは「レーダ」、センシング結果の信頼度が低いのは「車載カメラ」であるというデータを予め記憶する。図6は、実施例1に係る信頼度テーブル3の構成例を示す図である。   The reliability table 3 (312) stores in advance the reliability of the sensing result of the radar or the in-vehicle camera in association with a detection target such as a long-distance object or a pedestrian. For example, as shown in FIG. 6, when the classification item is “long-distance object”, the sensing result reliability is “radar” and the sensing result reliability is “vehicle camera”. The data that there is is stored in advance. FIG. 6 is a diagram illustrating a configuration example of the reliability table 3 according to the first embodiment.

環境特定部320は、環境センサ群100から入力するセンシング結果に基づいて、自車両周辺の環境条件を特定する。具体的には、環境特定部320は、照度センサ110、温度センサ120、雨滴センサ130、ジャイロセンサ140およびインフラ情報デバイス150からのセンシング結果を解析して、夜(トンネルなどで暗い)や雨、道路の所定の起伏、トンネルなどの環境条件を特定する。環境特定部320により特定された環境条件は、信頼度算出部330に出力される。   The environment specifying unit 320 specifies environmental conditions around the host vehicle based on the sensing result input from the environment sensor group 100. Specifically, the environment identification unit 320 analyzes the sensing results from the illuminance sensor 110, the temperature sensor 120, the raindrop sensor 130, the gyro sensor 140, and the infrastructure information device 150, so that night (dark in a tunnel or the like), rain, Identify environmental conditions such as predetermined road undulations and tunnels. The environmental condition specified by the environment specifying unit 320 is output to the reliability calculation unit 330.

信頼度算出部330は、環境センサ群100から入力する環境条件と、レーダ認識部210および画像認識部230から入力する認識結果とを用いて、レーダ200および車載カメラ220によるセンシング結果の信頼度を算出する。   The reliability calculation unit 330 uses the environmental conditions input from the environmental sensor group 100 and the recognition results input from the radar recognition unit 210 and the image recognition unit 230 to determine the reliability of the sensing results from the radar 200 and the in-vehicle camera 220. calculate.

具体的には、信頼度算出部330は、環境センサ群100から入力したセンシング結果取得時の環境条件、およびレーダ認識部210および画像認識部230から入力する認識結果に基づいて信頼度テーブル1(311)〜信頼度テーブル3(312)を参照し、センシング結果の信頼度を算出する。   Specifically, the reliability calculation unit 330 is based on the environmental condition at the time of sensing result input from the environmental sensor group 100 and the recognition result input from the radar recognition unit 210 and the image recognition unit 230 based on the reliability table 1 ( 311) to reliability table 3 (312), the reliability of the sensing result is calculated.

例えば、センシング結果取得時の環境条件が「夜」である場合には、信頼度テーブル1(310)を参照して、図7に示すように、「夜」に対応したレーダ200によるセンシング結果の信頼度を「高」と算出するとともに、「夜」に対応した車載カメラ220によるセンシング結果の信頼度を「低」と算出する。さらに、レーダ200および車載カメラ220からの認識結果が「遠距離物体」である場合には、信頼度テーブル3(312)を参照して、同図に示すように、「遠距離物体」に対応したレーダ200によるセンシング結果の信頼度を「高」と算出するとともに、「遠距離物体」に対応した車載カメラ220によるセンシング結果の信頼度を「低」と算出する。   For example, when the environmental condition at the time of sensing result acquisition is “night”, referring to the reliability table 1 (310), the sensing result of the radar 200 corresponding to “night” as shown in FIG. The reliability is calculated as “high”, and the reliability of the sensing result by the in-vehicle camera 220 corresponding to “night” is calculated as “low”. Furthermore, when the recognition result from the radar 200 and the in-vehicle camera 220 is “far object”, the reliability table 3 (312) is referred to, and as shown in FIG. The reliability of the sensing result obtained by the radar 200 is calculated as “high”, and the reliability of the sensing result obtained by the in-vehicle camera 220 corresponding to “distant object” is calculated as “low”.

そして、信頼度算出部330は、レーダ200および車載カメラ220によるセンシング結果の信頼度算出結果(図7参照)を検知閾値変更部340に出力するとともに、レーダ認識部210および画像認識部230から入力したセンシング結果を検知判定部350に出力する。なお、図7は、実施例1に係る信頼度算出結果例を示す図である。   Then, the reliability calculation unit 330 outputs the reliability calculation result (see FIG. 7) of the sensing results obtained by the radar 200 and the in-vehicle camera 220 to the detection threshold value changing unit 340 and inputs from the radar recognition unit 210 and the image recognition unit 230. The sensed result is output to the detection determination unit 350. FIG. 7 is a diagram illustrating an example of a reliability calculation result according to the first embodiment.

また、センシング結果取得時の環境条件が「夜」であって、レーダ200および車載カメラ220からの認識結果が「歩行者」である場合には、信頼度テーブル1(310)を参照して、図8に示すように、「夜」に対応したレーダ200および車載カメラ220によるセンシング結果の信頼度をそれぞれ「高」および「低」と算出する。さらに、信頼度テーブル3(312)を参照して、同図に示すように、「歩行者」に対応したレーダ200および車載カメラ220によるセンシング結果の信頼度をそれぞれ「低」および「高」と算出する。   If the environmental condition at the time of sensing result acquisition is “night” and the recognition result from the radar 200 and the in-vehicle camera 220 is “pedestrian”, refer to the reliability table 1 (310), As shown in FIG. 8, the reliability of the sensing result by the radar 200 and the in-vehicle camera 220 corresponding to “night” is calculated as “high” and “low”, respectively. Further, referring to the reliability table 3 (312), as shown in the figure, the reliability of the sensing result by the radar 200 and the in-vehicle camera 220 corresponding to “pedestrian” is set to “low” and “high”, respectively. calculate.

そして、信頼度算出部330は、レーダ200および車載カメラ220によるセンシング結果の信頼度算出結果(図8参照)を検知閾値変更部340に出力するとともに、レーダ認識部210および画像認識部230から入力したセンシング結果を検知判定部350に出力する。なお、図8は、実施例1に係る信頼度算出結果例を示す図である。   Then, the reliability calculation unit 330 outputs the reliability calculation result (see FIG. 8) of the sensing results obtained by the radar 200 and the in-vehicle camera 220 to the detection threshold value changing unit 340 and inputs from the radar recognition unit 210 and the image recognition unit 230. The sensed result is output to the detection determination unit 350. FIG. 8 is a diagram illustrating an example of a reliability calculation result according to the first embodiment.

また、センシング結果取得時の環境条件が「夜」および「雨」であって、レーダ200および車載カメラ220からの認識結果が「歩行者」である場合には、信頼度テーブル1(310)を参照して、図9に示すように、「夜」または「雨」に対応したレーダ200および車載カメラ220によるセンシング結果の信頼度をそれぞれ「高」および「低」、「高」および「低」と算出する。さらに、信頼度テーブル3(312)を参照して、同図に示すように、「歩行者」に対応したレーダ200および車載カメラ220によるセンシング結果の信頼度をそれぞれ「低」および「高」と算出する。   If the environmental conditions at the time of sensing result acquisition are “night” and “rain” and the recognition results from the radar 200 and the in-vehicle camera 220 are “pedestrians”, the reliability table 1 (310) is stored. Referring to FIG. 9, the reliability of the sensing results by the radar 200 and the in-vehicle camera 220 corresponding to “night” or “rain” is “high” and “low”, “high” and “low”, respectively. And calculate. Further, referring to the reliability table 3 (312), as shown in the figure, the reliability of the sensing result by the radar 200 and the in-vehicle camera 220 corresponding to “pedestrian” is set to “low” and “high”, respectively. calculate.

そして、信頼度算出部330は、レーダ200および車載カメラ220によるセンシング結果の信頼度算出結果(図9参照)を検知閾値変更部340に出力するとともに、レーダ認識部210および画像認識部230から入力したセンシング結果を検知判定部350に出力する。なお、図9は、実施例1に係る信頼度算出結果例を示す図である。   Then, the reliability calculation unit 330 outputs the reliability calculation result (see FIG. 9) of the sensing results obtained by the radar 200 and the in-vehicle camera 220 to the detection threshold value changing unit 340 and inputs from the radar recognition unit 210 and the image recognition unit 230. The sensed result is output to the detection determination unit 350. FIG. 9 is a diagram illustrating an example of the reliability calculation result according to the first embodiment.

また、センシング結果取得時の環境条件が「夜」であって、レーダ200および車載カメラ220からの認識結果が「歩行者」および「ガードレール」である場合には、信頼度テーブル1(310)を参照して、図10に示すように、「夜」に対応したレーダ200および車載カメラ220によるセンシング結果の信頼度をそれぞれ「高」および「低」と算出する。さらに、信頼度テーブル3(312)を参照して、同図に示すように、「歩行者」または「ガードレール」に対応したレーダ200および車載カメラ220によるセンシング結果の信頼度をそれぞれ「低」および「高」、「低」および「高」と算出する。   If the environmental condition at the time of sensing result acquisition is “night” and the recognition results from the radar 200 and the in-vehicle camera 220 are “pedestrian” and “guardrail”, the reliability table 1 (310) is stored. Referring to FIG. 10, the reliability of the sensing result by radar 200 and in-vehicle camera 220 corresponding to “night” is calculated as “high” and “low”, respectively. Further, referring to the reliability table 3 (312), as shown in the figure, the reliability of the sensing results obtained by the radar 200 and the in-vehicle camera 220 corresponding to “pedestrian” or “guardrail” is set to “low” and “low”, respectively. Calculate as “high”, “low” and “high”.

なお、レーダ200および車載カメラ220から入力する認識結果が「ガードレール」、「ポスト」、「雪壁」等であって、環境センサ群100のインフラ情報デバイス150から入力されるセンシング結果が、同様に、「ガードレール」、「ポスト」、「雪壁」等である場合には、レーダ200および車載カメラ220によるセンシング結果の信頼度を「高」と算出する。   Note that the recognition results input from the radar 200 and the in-vehicle camera 220 are “guardrail”, “post”, “snow wall”, etc., and the sensing results input from the infrastructure information device 150 of the environmental sensor group 100 are the same. , “Guardrail”, “post”, “snow wall”, etc., the reliability of the sensing result by the radar 200 and the in-vehicle camera 220 is calculated as “high”.

そして、信頼度算出部330は、レーダ200および車載カメラ220によるセンシング結果の信頼度算出結果(図10参照)を検知閾値変更部340に出力するとともに、レーダ認識部210および画像認識部230から入力したセンシング結果を検知判定部350に出力する。なお、図10は、実施例1に係る信頼度算出結果例を示す図である。   Then, the reliability calculation unit 330 outputs the reliability calculation result (see FIG. 10) of the sensing results obtained by the radar 200 and the in-vehicle camera 220 to the detection threshold value changing unit 340 and inputs from the radar recognition unit 210 and the image recognition unit 230. The sensed result is output to the detection determination unit 350. FIG. 10 is a diagram illustrating an example of the reliability calculation result according to the first embodiment.

検知閾値変更部340は、信頼度算出部330から入力する信頼度算出結果に基づいて、障害物が検知されたか否かを判定するために車載センサの種別ごとに予め設定されている検知閾値の変更を行う。   The detection threshold value changing unit 340 has a detection threshold value set in advance for each type of vehicle-mounted sensor in order to determine whether an obstacle is detected based on the reliability calculation result input from the reliability calculation unit 330. Make a change.

具体的には、検知閾値変更部340は、例えば、図11に示すような分類基準に基づいて、信頼度算出部330から入力する信頼度算出結果のケース分類を実行する。例えば、図7または図9に示すような信頼度算出結果を信頼度算出部330から入力した場合には、レーダ200によるセンシング結果よりも車載カメラ220によるセンシング結果の方が信頼度の低いケースAに該当する(レーダの方が信頼度「高」の数が多い)ので、信頼度算出結果をケースAに分類する。そして、検知閾値変更部340は、信頼度算出結果がケースAに分類される場合には、車載カメラ220について予め設定されている検知閾値を初期値よりも所定の割合で低く設定するように、検知判定部350に変更指示を出力する。   Specifically, the detection threshold value changing unit 340 executes case classification of the reliability calculation result input from the reliability calculation unit 330 based on, for example, a classification standard as illustrated in FIG. For example, when the reliability calculation result as shown in FIG. 7 or FIG. 9 is input from the reliability calculation unit 330, the sensing result by the in-vehicle camera 220 is less reliable than the sensing result by the radar 200. Therefore, the reliability calculation result is classified as Case A. Then, when the reliability calculation result is classified as case A, the detection threshold value changing unit 340 sets the detection threshold value set in advance for the in-vehicle camera 220 at a predetermined rate lower than the initial value. A change instruction is output to the detection determination unit 350.

また、検知閾値変更部340は、例えば、図8または図10に示すような信頼度算出結果を入力した場合には、レーダ200および車載カメラ220によるセンシング結果の信頼度が同等である(「低」と「高」が同数、信頼度「低」の数≧信頼度「高」の数)ケースCに該当するので、信頼度算出結果をケースCに分類する。そして、検知閾値変更部340は、信頼度算出結果がケースCに分類される場合には、レーダ200および車載カメラ220について予め設定されている検知閾値をそれぞれ初期値よりも所定の割合で低く設定するように、検知判定部350に変更指示を出力する。   Further, for example, when the reliability calculation result as shown in FIG. 8 or 10 is input, the detection threshold value changing unit 340 has the same reliability of the sensing result by the radar 200 and the in-vehicle camera 220 (“low”). ”And“ high ”are the same number and the number of reliability“ low ”≧ the number of reliability“ high ”), which corresponds to case C. Therefore, the reliability calculation result is classified into case C. Then, when the reliability calculation result is classified as case C, the detection threshold value changing unit 340 sets the detection threshold values set in advance for the radar 200 and the in-vehicle camera 220 at a predetermined rate lower than the initial values, respectively. Thus, a change instruction is output to the detection determination unit 350.

また、検知閾値変更部340は、例えば、レーダ200および車載カメラ220によるセンシング結果の信頼度が同等であり、上記ケースCとは異なり、信頼度「低」の数<信頼度「高」の数である時には、該当ケースなしに分類する。そして、検知閾値変更部340は、信頼度算出結果が該当ケースなしに分類される場合には、検知判定部350に検知閾値の変更指示は出力しない。なお、図11は、実施例1に係る信頼度算出結果のケース分類基準例を示す図である。   In addition, the detection threshold value changing unit 340 has, for example, the reliability of the sensing results obtained by the radar 200 and the in-vehicle camera 220 are equal, and unlike the case C, the number of reliability “low” <the number of reliability “high”. When it is, it classifies without the corresponding case. The detection threshold changing unit 340 does not output a detection threshold changing instruction to the detection determining unit 350 when the reliability calculation result is classified as no corresponding case. FIG. 11 is a diagram illustrating a case classification reference example of the reliability calculation result according to the first embodiment.

検知判定部350は、車載センサの種別ごとに予め設定されている検知閾値、および検知閾値変更部340から入力する変更指示に応じて低く変更する検知閾値と、各検知閾値に対応するセンシング結果のセンシング値との比較結果を用いて、障害物の検知判定を行う。   The detection determination unit 350 includes a detection threshold that is set in advance for each type of in-vehicle sensor, a detection threshold that is changed in accordance with a change instruction input from the detection threshold change unit 340, and a sensing result corresponding to each detection threshold. Obstacle detection is determined using the comparison result with the sensing value.

具体的には、検知判定部350は、検知閾値変更部340から検知閾値の変更指示を入力すると、変更指示の対象となる車載センサ(レーダ200または車載カメラ220)についての検知閾値を初期値よりも所定の割合で低く設定する。そして、レーダ200および車載カメラ220により取得された各センシング値が、それぞれ対応する検知閾値(レーダ200あるいは車載カメラ220について予め設定された検知閾値、あるいは低く変更された検知閾値)をそれぞれ超えているか否かを判定する。   Specifically, when the detection determination unit 350 inputs a detection threshold change instruction from the detection threshold change unit 340, the detection threshold for the in-vehicle sensor (radar 200 or in-vehicle camera 220) to be changed is determined from the initial value. Is also set low at a predetermined rate. Whether each of the sensing values acquired by the radar 200 and the in-vehicle camera 220 exceeds a corresponding detection threshold (a detection threshold set in advance for the radar 200 or the in-vehicle camera 220 or a detection threshold that has been changed to be low). Determine whether or not.

検知判定部350は、判定の結果、レーダ200および車載カメラ220により取得された各センシング値が、それぞれ対応する検知閾値を超えているものと判定された場合には、障害物を検知したものと判定する。そして、レーダ認識部210および画像認識部230による認識結果が示す障害物を検知した旨の判定結果を報知制御部360に出力する。   As a result of the determination, if it is determined that the respective sensing values acquired by the radar 200 and the vehicle-mounted camera 220 exceed the corresponding detection threshold values, the detection determination unit 350 detects an obstacle. judge. Then, a determination result indicating that the obstacle indicated by the recognition result by the radar recognition unit 210 and the image recognition unit 230 has been detected is output to the notification control unit 360.

報知制御部360は、検知判定部350から入力する判定結果に応じて、ディスプレイ240やスピーカ250を介して、障害物を検知した旨(例えば、遠距離物体を検知した旨)をドライバに報知する。   The notification control unit 360 notifies the driver that an obstacle has been detected (for example, that a long-distance object has been detected) via the display 240 or the speaker 250 according to the determination result input from the detection determination unit 350. .

[検知装置による処理(実施例1)]
続いて、図12を用いて、実施例1に係る検知装置による処理を説明する。図12は、実施例1に係る検知装置による処理の流れを示す図である。
[Processing by Detection Device (Example 1)]
Subsequently, a process performed by the detection apparatus according to the first embodiment will be described with reference to FIG. FIG. 12 is a diagram illustrating a process flow of the detection device according to the first embodiment.

同図に示すように、レーダ200、車載カメラ220および環境センサ群100によりセンシング結果が取得されると(ステップS1肯定)、信頼度算出部330は、センシング結果取得時の環境条件および当該センシング結果が示す検知物に基づいて信頼度テーブル1(310)〜3(312)を参照し、センシング結果の信頼度を算出する(ステップS2)。   As shown in the figure, when the sensing result is acquired by the radar 200, the in-vehicle camera 220, and the environment sensor group 100 (Yes in step S1), the reliability calculation unit 330 displays the environmental condition and the sensing result when the sensing result is acquired. The reliability of the sensing result is calculated by referring to the reliability tables 1 (310) to 3 (312) based on the detected object (step S2).

具体的には、信頼度算出部330は、環境センサ群100から入力したセンシング結果取得時の環境条件、およびレーダ認識部210および画像認識部230から入力する認識結果に基づいて信頼度テーブル1(310)〜信頼度テーブル3(312)を参照し、センシング結果の信頼度を算出する。   Specifically, the reliability calculation unit 330 is based on the environmental condition at the time of sensing result input from the environmental sensor group 100 and the recognition result input from the radar recognition unit 210 and the image recognition unit 230 based on the reliability table 1 ( 310) to reliability table 3 (312), the reliability of the sensing result is calculated.

信頼度算出部330による信頼度算出後、検知閾値変更部340は、例えば、図11に示すような分類基準に基づいて、信頼度算出部330により算出された信頼度算出結果のケース分類を実行する(ステップS3)。そして、検知閾値変更部340は、ケース分類結果に応じて、障害物が検知されたか否かを判定するために車載センサの種別ごとに予め設定されている検知閾値の変更指示を出力する(ステップS4)。   After the reliability calculation by the reliability calculation unit 330, the detection threshold value changing unit 340 executes the case classification of the reliability calculation result calculated by the reliability calculation unit 330 based on the classification criteria as shown in FIG. (Step S3). Then, the detection threshold value changing unit 340 outputs an instruction to change the detection threshold value set in advance for each type of vehicle-mounted sensor in order to determine whether or not an obstacle has been detected according to the case classification result (step) S4).

例えば、図7または図9に示すような信頼度算出結果を信頼度算出部330から入力した場合には、レーダ200によるセンシング結果よりも車載カメラ220によるセンシング結果の方が信頼度の低いケースAに該当する(レーダの方が信頼度「高」の数が多い)ので、信頼度算出結果をケースAに分類する。そして、検知閾値変更部340は、信頼度算出結果がケースAに分類される場合には、車載カメラ220について予め設定されている検知閾値を初期値よりも所定の割合で低く設定するように、検知判定部350に変更指示を出力する。   For example, when the reliability calculation result as shown in FIG. 7 or FIG. 9 is input from the reliability calculation unit 330, the sensing result by the in-vehicle camera 220 is less reliable than the sensing result by the radar 200. Therefore, the reliability calculation result is classified as Case A. Then, when the reliability calculation result is classified as case A, the detection threshold value changing unit 340 sets the detection threshold value set in advance for the in-vehicle camera 220 at a predetermined rate lower than the initial value. A change instruction is output to the detection determination unit 350.

また、検知閾値変更部340は、例えば、図8または図10に示すような信頼度算出結果を入力した場合には、レーダ200および車載カメラ220によるセンシング結果の信頼度が同等である(「低」と「高」が同数、信頼度「低」の数≧信頼度「高」の数)ケースCに該当するので、信頼度算出結果をケースCに分類する。そして、検知閾値変更部340は、信頼度算出結果がケースCに分類される場合には、レーダ200および車載カメラ220について予め設定されている検知閾値をそれぞれ初期値よりも所定の割合で低く設定するように、検知判定部350に変更指示を出力する。   Further, for example, when the reliability calculation result as shown in FIG. 8 or 10 is input, the detection threshold value changing unit 340 has the same reliability of the sensing result by the radar 200 and the in-vehicle camera 220 (“low”). ”And“ high ”are the same number and the number of reliability“ low ”≧ the number of reliability“ high ”), which corresponds to case C. Therefore, the reliability calculation result is classified into case C. Then, when the reliability calculation result is classified as case C, the detection threshold value changing unit 340 sets the detection threshold values set in advance for the radar 200 and the in-vehicle camera 220 at a predetermined rate lower than the initial values, respectively. Thus, a change instruction is output to the detection determination unit 350.

検知判定部350は、車載センサの種別ごとに予め設定されている検知閾値、および検知閾値変更部340からの変更指示に応じて低く変更する検知閾値と、各検知閾値に対応するセンシング結果のセンシング値との比較結果を用いて、障害物の検知判定を行う(ステップS5)。   The detection determination unit 350 is configured to detect a detection threshold that is set in advance for each type of vehicle-mounted sensor, a detection threshold that is changed in accordance with a change instruction from the detection threshold change unit 340, and a sensing result corresponding to each detection threshold. Obstacle detection is determined using the comparison result with the value (step S5).

具体的には、検知判定部350は、検知閾値変更部340から検知閾値の変更指示を入力すると、変更指示の対象となる車載センサ(レーダ200または車載カメラ220)についての検知閾値を初期値よりも所定の割合で低く設定する。そして、レーダ200および車載カメラ220により取得された各センシング値が、それぞれ対応する検知閾値(レーダ200あるいは車載カメラ220について予め設定された検知閾値、あるいは低く変更された検知閾値)をそれぞれ超えているか否かを判定する。そして、レーダ200および車載カメラ220により取得された各センシング値が、それぞれ対応する検知閾値を超えている場合には、障害物を検知したものと判定する。   Specifically, when the detection determination unit 350 inputs a detection threshold change instruction from the detection threshold change unit 340, the detection threshold for the in-vehicle sensor (radar 200 or in-vehicle camera 220) to be changed is determined from the initial value. Is also set low at a predetermined rate. Whether each of the sensing values acquired by the radar 200 and the in-vehicle camera 220 exceeds a corresponding detection threshold (a detection threshold set in advance for the radar 200 or the in-vehicle camera 220 or a detection threshold that has been changed to be low). Determine whether or not. And when each sensing value acquired by the radar 200 and the vehicle-mounted camera 220 exceeds the corresponding detection threshold value, it determines with having detected the obstruction.

検知判定部350により障害物を検知したものと判定されると(ステップS5肯定)、報知制御部360は、検知判定部350の判定結果に応じて、ディスプレイ240やスピーカ250を介して、障害物を検知した旨(例えば、遠距離物体を検知した旨)をドライバに報知する。   If it is determined by the detection determination unit 350 that an obstacle has been detected (Yes at step S5), the notification control unit 360 passes through the display 240 or the speaker 250 according to the determination result of the detection determination unit 350. Is detected to the driver (for example, that a long-distance object has been detected).

一方、センシング結果を取得していない場合(ステップS1否定)、検知判定部350により障害物を検知したものと判定されなかった場合(ステップS5否定)、およびドライバへの報知実行後(ステップS6)には、再び、上述したステップS1に処理を戻す。なお、上述してきたステップS1〜ステップS6までの処理は、車両走行中の検知装置300起動時に繰り返し実行される。   On the other hand, when the sensing result is not acquired (No at Step S1), when it is not determined that the obstacle is detected by the detection determination unit 350 (No at Step S5), and after the notification to the driver is executed (Step S6). In this case, the process returns to step S1 described above. In addition, the process from step S1 to step S6 described above is repeatedly executed when the detection device 300 is activated while the vehicle is traveling.

[実施例1による効果]
上述してきたように、実施例1によれば、車両に搭載されるレーダや車載カメラによるセンシング結果を用いて障害物を検知する場合に、センシング結果の信頼度を加味できる。さらに、センシング結果の信頼度に応じて、対応する検知閾値を変更することにより、複数のセンシング結果(レーダやカメラによるセンシング結果)を用いて、より積極的に障害物を検知できる。
[Effects of Example 1]
As described above, according to the first embodiment, the reliability of the sensing result can be taken into account when the obstacle is detected using the sensing result obtained by the radar mounted on the vehicle or the in-vehicle camera. Furthermore, by changing the corresponding detection threshold according to the reliability of the sensing result, an obstacle can be detected more positively using a plurality of sensing results (sensing results by a radar or a camera).

上記の実施例1にように、センシング結果の信頼度に応じて、対応する検知閾値を変更するのではなく、センシング結果の信頼度に応じて、障害物検知に採用するセンシング結果を選択するようにしてもよい。そこで、以下の実施例2では、実施例2に係る検知装置の構成および処理を順に説明し、最後に実施例1による効果を説明する。   As in the first embodiment, instead of changing the corresponding detection threshold according to the reliability of the sensing result, the sensing result employed for obstacle detection is selected according to the reliability of the sensing result. It may be. Therefore, in the following second embodiment, the configuration and processing of the detection apparatus according to the second embodiment will be described in order, and finally the effects of the first embodiment will be described.

[検知装置の構成(実施例2)]
図13は、実施例1に係る検知装置の構成を示す図である。同図に示すように、実施例2に係る検知装置300は、検知閾値変更部340ではなく、センシング結果選択部380を有する点が実施例1とは異なる。
[Configuration of Detection Device (Example 2)]
FIG. 13 is a diagram illustrating the configuration of the detection device according to the first embodiment. As shown in the figure, the detection apparatus 300 according to the second embodiment is different from the first embodiment in that the detection apparatus 300 according to the second embodiment includes a sensing result selection unit 380 instead of the detection threshold value changing unit 340.

センシング結果選択部380は、レーダ認識部210および画像認識部230によるセンシング結果、およびセンシング結果についての信頼度算出結果(図7〜図10参照)を信頼度算出部330から入力する。そして、センシング結果選択部380は、信頼度算出結果に応じて、障害物検知に採用するセンシング結果を選択する。   The sensing result selection unit 380 receives from the reliability calculation unit 330 the sensing results obtained by the radar recognition unit 210 and the image recognition unit 230 and the reliability calculation results (see FIGS. 7 to 10) for the sensing results. And the sensing result selection part 380 selects the sensing result employ | adopted for an obstruction detection according to a reliability calculation result.

具体的には、センシング結果選択部380は、例えば、図7または図9に示すような信頼度算出結果を信頼度算出部330から入力した場合には、レーダ200によるセンシング結果が車載カメラ220によるセンシング結果よりも信頼度が高いケースAに該当する(レーダの方が信頼度「高」の数が多い)ので、信頼度算出結果をケースAに分類する。そして、センシング結果選択部380は、ケースAに分類される場合には、レーダ200によるセンシング結果を障害物検知に採用するセンシング結果として選択して、レーダ200によるセンシング結果のみを検知判定部350に出力する。   Specifically, for example, when a reliability calculation result as illustrated in FIG. 7 or FIG. 9 is input from the reliability calculation unit 330, the sensing result selection unit 380 receives the sensing result from the radar 200 from the in-vehicle camera 220. Since this corresponds to case A having higher reliability than the sensing result (the radar has a higher number of reliability “high”), the reliability calculation result is classified as case A. Then, when classified into case A, the sensing result selection unit 380 selects the sensing result by the radar 200 as the sensing result to be used for obstacle detection, and only the sensing result by the radar 200 is sent to the detection determination unit 350. Output.

また、センシング結果選択部380は、車載カメラ220によるセンシング結果がレーダ200によるセンシング結果よりも信頼度が高いケースBに該当する場合には、信頼度算出結果をケースBに分類する。そして、センシング結果選択部380は、ケースBに分類される場合には、車載カメラ220によるセンシング結果を障害物検知に採用するセンシング結果として選択して、車載カメラ220によるセンシング結果のみを検知判定部350に出力する。   In addition, the sensing result selection unit 380 classifies the reliability calculation result into the case B when the sensing result by the in-vehicle camera 220 corresponds to the case B having higher reliability than the sensing result by the radar 200. Then, the sensing result selection unit 380 selects the sensing result by the in-vehicle camera 220 as the sensing result to be used for obstacle detection when classified into the case B, and detects only the sensing result by the in-vehicle camera 220. Output to 350.

また、センシング結果選択部380は、例えば、図8または図10に示すような信頼度算出結果を入力した場合には、レーダ200および車載カメラ220によるセンシング結果の信頼度が同等である(「低」と「高」が同数、信頼度「低」の数≧信頼度「高」の数)ケースCに該当するので、信頼度算出結果をケースCに分類する。   For example, when a reliability calculation result as illustrated in FIG. 8 or 10 is input to the sensing result selection unit 380, the reliability of the sensing result by the radar 200 and the in-vehicle camera 220 is equal (“low” ”And“ high ”are the same number and the number of reliability“ low ”≧ the number of reliability“ high ”), which corresponds to case C. Therefore, the reliability calculation result is classified into case C.

また、センシング結果選択部380は、例えば、レーダ200および車載カメラ220によるセンシング結果の信頼度が同等であり、上記ケースCとは異なり、信頼度「低」の数<信頼度「高」の数である時には、該当ケースなしに分類する。そして、センシング結果選択部380は、「ケースC」または「該当ケースなし」に分類される場合には、レーダ200および車載カメラ220によるセンシング結果を障害物検知に採用するセンシング結果として選択して、レーダ200および車載カメラ220によるセンシング結果および該当ケース(ケースCあるいは該当ケースなし)を検知判定部350にそれぞれ出力する。   In addition, the sensing result selection unit 380 has, for example, the reliability of the sensing results obtained by the radar 200 and the in-vehicle camera 220 are equal, and unlike the case C, the number of reliability “low” <the number of reliability “high”. When it is, it classifies without the corresponding case. Then, the sensing result selection unit 380 selects the sensing result obtained by the radar 200 and the in-vehicle camera 220 as the sensing result to be used for obstacle detection when it is classified as “Case C” or “No applicable case”. The sensing results from the radar 200 and the in-vehicle camera 220 and the corresponding case (case C or no corresponding case) are output to the detection determination unit 350, respectively.

検知判定部350は、レーダ200によるセンシング結果のみ(ケースAに該当)をセンシング結果選択部380から入力した場合には、レーダ200について予め設定されている検知閾値と、レーダ200によるセンシング結果のセンシング値との比較結果を用いて、障害物の検知判定を実行する。判定の結果、障害物を検知したものと判定した場合には、検知判定部350は、車両を検知した旨の検知結果を報知制御部360に出力する。すなわち、車両を検知しやすいというレーダ200の特性から、レーダ200によるセンシング結果の信頼度が高い状況(ケースA)では、車両を検知したものと決め打ちした報知を行う趣旨である。   When only the sensing result by the radar 200 (corresponding to case A) is input from the sensing result selection unit 380, the detection determination unit 350 senses the detection threshold set in advance for the radar 200 and the sensing result by the radar 200. Obstacle detection detection is performed using the comparison result with the value. If it is determined that an obstacle has been detected as a result of the determination, the detection determination unit 350 outputs a detection result indicating that the vehicle has been detected to the notification control unit 360. In other words, from the characteristic of the radar 200 that it is easy to detect the vehicle, in a situation where the reliability of the sensing result by the radar 200 is high (Case A), the notification is made that the vehicle is detected.

検知判定部350は、車載カメラ220によるセンシング結果のみ(ケースBに該当)をセンシング結果選択部380から入力した場合には、車載カメラ220について予め設定されている検知閾値と、車載カメラ220によるセンシング結果のセンシング値との比較結果を用いて、障害物の検知判定を実行する。判定の結果、障害物を検知したものと判定した場合には、検知判定部350は、歩行者を検知した旨の検知結果を報知制御部360に出力する。すなわち、歩行者を検知しやすいという車載カメラ220の特性から、車載カメラ220によるセンシング結果の信頼度が高い状況(ケースB)では、歩行者を検知したものと決め打ちした報知を行う趣旨である。   When only the sensing result from the in-vehicle camera 220 (corresponding to case B) is input from the sensing result selection unit 380, the detection determining unit 350 detects the detection threshold set in advance for the in-vehicle camera 220 and the sensing by the in-vehicle camera 220. Obstacle detection detection is executed using the result of comparison with the sensing value. As a result of the determination, if it is determined that an obstacle has been detected, the detection determination unit 350 outputs a detection result indicating that a pedestrian has been detected to the notification control unit 360. In other words, from the characteristic of the in-vehicle camera 220 that it is easy to detect a pedestrian, in a situation where the reliability of the sensing result by the in-vehicle camera 220 is high (Case B), the intention is to make a notification that the pedestrian is detected. .

検知判定部350は、レーダ200および車載カメラ220によるセンシング結果(ケースC、該当ケースなしに該当)をセンシング結果選択部380から入力した場合には、レーダ200および車載カメラ220について予め設定されている検知閾値と、レーダ200および車載カメラ220によるセンシング結果のセンシング値との比較結果を用いて、障害物の検知判定を実行する。   The detection determination unit 350 is set in advance for the radar 200 and the in-vehicle camera 220 when the sensing result from the radar 200 and the in-vehicle camera 220 (case C, corresponding to no case) is input from the sensing result selection unit 380. Obstacle detection detection is performed using a comparison result between the detection threshold and the sensing value of the sensing result of the radar 200 and the in-vehicle camera 220.

判定の結果、「ケースC」で障害物を検知したものと判定した場合には、検知判定部350は、何か障害物を検知した旨の検知結果を報知制御部360に出力する。すなわち、レーダ200および車載カメラ220の信頼度がともに低いことを加味して、障害物の種別を限定しない報知を行う趣旨である。   As a result of the determination, if it is determined that an obstacle has been detected in “Case C”, the detection determination unit 350 outputs a detection result indicating that an obstacle has been detected to the notification control unit 360. In other words, in consideration of the low reliability of both the radar 200 and the in-vehicle camera 220, notification is performed without limiting the type of obstacle.

判定の結果、「該当ケースなし」で障害物を検知したものと判定された場合には、検知判定部350は、車両および歩行者を検知した旨の検知結果を報知制御部360に出力する。すなわち、レーダ200および車載カメラ220の信頼度がともに高いことを加味して、車両および歩行者を検知したものと決め打ちした報知を行う趣旨である。   As a result of the determination, if it is determined that an obstacle has been detected as “no corresponding case”, the detection determination unit 350 outputs a detection result indicating that the vehicle and the pedestrian have been detected to the notification control unit 360. In other words, the fact that the reliability of both the radar 200 and the in-vehicle camera 220 is high is taken into account, and notification that the vehicle and the pedestrian are detected is performed.

[検知装置による処理(実施例1)]
次に、図14を用いて、実施例2に係る検知装置により処理を説明する。図14は、実施例2に係る検知装置による処理の流れを示す図である。なお、実施例2に係る検知装置による処理は、以下に説明する点が実施例1とは異なる。
[Processing by Detection Device (Example 1)]
Next, the processing will be described using the detection apparatus according to the second embodiment with reference to FIG. FIG. 14 is a diagram illustrating a process flow of the detection device according to the second embodiment. The processing by the detection apparatus according to the second embodiment is different from the first embodiment in the points described below.

すなわち、センシング結果選択部380は、信頼度算出部330による信頼度算出結果のケース分類を実行し(ステップS3)、分類結果に応じて、障害物検知に採用するセンシング結果を選択する(ステップS4)。   That is, the sensing result selection unit 380 executes case classification of the reliability calculation result by the reliability calculation unit 330 (step S3), and selects a sensing result to be used for obstacle detection according to the classification result (step S4). ).

具体的には、センシング結果選択部380は、例えば、図7または図9に示すような信頼度算出結果を信頼度算出部330から入力した場合には、レーダ200によるセンシング結果が車載カメラ220によるセンシング結果よりも信頼度が高いケースAに該当する(レーダの方が信頼度「高」の数が多い)ので、信頼度算出結果をケースAに分類する。そして、センシング結果選択部380は、ケースAに分類される場合には、レーダ200によるセンシング結果を障害物検知に採用するセンシング結果として選択して、レーダ200によるセンシング結果のみを検知判定部350に出力する。   Specifically, for example, when a reliability calculation result as illustrated in FIG. 7 or FIG. 9 is input from the reliability calculation unit 330, the sensing result selection unit 380 receives the sensing result from the radar 200 from the in-vehicle camera 220. Since this corresponds to case A having higher reliability than the sensing result (the radar has a higher number of reliability “high”), the reliability calculation result is classified as case A. Then, when classified into case A, the sensing result selection unit 380 selects the sensing result by the radar 200 as the sensing result to be used for obstacle detection, and only the sensing result by the radar 200 is sent to the detection determination unit 350. Output.

また、センシング結果選択部380は、車載カメラ220によるセンシング結果がレーダ200によるセンシング結果よりも信頼度が高いケースBに該当する場合には、信頼度算出結果をケースBに分類する。そして、センシング結果選択部380は、ケースBに分類される場合には、車載カメラ220によるセンシング結果を障害物検知に採用するセンシング結果として選択して、車載カメラ220によるセンシング結果のみを検知判定部350に出力する。   In addition, the sensing result selection unit 380 classifies the reliability calculation result into the case B when the sensing result by the in-vehicle camera 220 corresponds to the case B having higher reliability than the sensing result by the radar 200. Then, the sensing result selection unit 380 selects the sensing result by the in-vehicle camera 220 as the sensing result to be used for obstacle detection when classified into the case B, and detects only the sensing result by the in-vehicle camera 220. Output to 350.

また、センシング結果選択部380は、例えば、図8または図10に示すような信頼度算出結果を入力した場合には、レーダ200および車載カメラ220によるセンシング結果の信頼度が同等である(「低」と「高」が同数、信頼度「低」の数≧信頼度「高」の数)ケースCに該当するので、信頼度算出結果をケースCに分類する。   For example, when a reliability calculation result as illustrated in FIG. 8 or 10 is input to the sensing result selection unit 380, the reliability of the sensing result by the radar 200 and the in-vehicle camera 220 is equal (“low” ”And“ high ”are the same number and the number of reliability“ low ”≧ the number of reliability“ high ”), which corresponds to case C. Therefore, the reliability calculation result is classified into case C.

また、センシング結果選択部380は、例えば、レーダ200および車載カメラ220によるセンシング結果の信頼度が同等であり、上記ケースCとは異なり、信頼度「低」の数<信頼度「高」の数である時には、該当ケースなしに分類する。   In addition, the sensing result selection unit 380 has, for example, the reliability of the sensing results obtained by the radar 200 and the in-vehicle camera 220 are equal, and unlike the case C, the number of reliability “low” <the number of reliability “high”. When it is, it classifies without the corresponding case.

そして、センシング結果選択部380は、「ケースC」または「該当ケースなし」に分類される場合には、レーダ200および車載カメラ220によるセンシング結果を障害物検知に採用するセンシング結果として選択して、レーダ200および車載カメラ220によるセンシング結果および該当ケース(ケースCあるいは該当ケースなし)を検知判定部350にそれぞれ出力する。   Then, the sensing result selection unit 380 selects the sensing result obtained by the radar 200 and the in-vehicle camera 220 as the sensing result to be used for obstacle detection when it is classified as “Case C” or “No applicable case”. The sensing results from the radar 200 and the in-vehicle camera 220 and the corresponding case (case C or no corresponding case) are output to the detection determination unit 350, respectively.

検知判定部350は、レーダ200によるセンシング結果のみ(ケースAに該当)をセンシング結果選択部380から入力した場合には、レーダ200について予め設定されている検知閾値と、レーダ200によるセンシング結果のセンシング値との比較結果を用いて、障害物の検知判定を実行する(ステップS5)。   When only the sensing result by the radar 200 (corresponding to case A) is input from the sensing result selection unit 380, the detection determination unit 350 senses the detection threshold set in advance for the radar 200 and the sensing result by the radar 200. Obstacle detection determination is executed using the comparison result with the value (step S5).

判定の結果、検知判定部350は、「ケースA」で障害物を検知したものと判定した場合には(ステップS5肯定)、車両を検知した旨の検知結果を報知制御部360に出力し、報知制御部360は、車両を検知した旨をドライバに報知する(ステップS6)。すなわち、車両を検知しやすいというレーダ200の特性から、レーダ200によるセンシング結果の信頼度が高い状況(ケースA)では、車両を検知したものと決め打ちした報知を行う趣旨である。   As a result of the determination, when it is determined that the obstacle is detected in “Case A” (Yes in Step S5), the detection determination unit 350 outputs a detection result indicating that the vehicle is detected to the notification control unit 360, The notification control unit 360 notifies the driver that the vehicle has been detected (step S6). In other words, from the characteristic of the radar 200 that it is easy to detect the vehicle, in a situation where the reliability of the sensing result by the radar 200 is high (Case A), the notification is made that the vehicle is detected.

また、検知判定部350は、判定の結果、「ケースB」で障害物を検知したものと判定された場合には、検知判定部350は、歩行者を検知した旨の検知結果を報知制御部360に出力し、報知制御部360は、歩行者を検知した旨をドライバに報知する(ステップS6)。すなわち、歩行者を検知しやすいという車載カメラ220の特性から、車載カメラ220によるセンシング結果の信頼度が高い状況(ケースB)では、歩行者を検知したものと決め打ちした報知を行う趣旨である。   Further, when the detection determination unit 350 determines that an obstacle has been detected in “Case B” as a result of the determination, the detection determination unit 350 notifies the detection result indicating that a pedestrian has been detected. 360, the notification control unit 360 notifies the driver that a pedestrian has been detected (step S6). In other words, from the characteristic of the in-vehicle camera 220 that it is easy to detect a pedestrian, in a situation where the reliability of the sensing result by the in-vehicle camera 220 is high (Case B), the intention is to make a notification that the pedestrian is detected. .

また、検知判定部350は、判定の結果、「ケースC」で障害物を検知したものと判定した場合には(ステップS5肯定)、何か障害物を検知した旨の検知結果を報知制御部360に出力し、報知制御部360は、何か障害物を検知した旨をドライバに報知する(ステップS6)。すなわち、レーダ200および車載カメラ220の信頼度がともに低いことを加味して、障害物の種別を限定しない報知を行う趣旨である。   Further, when the detection determination unit 350 determines that an obstacle has been detected in “Case C” as a result of the determination (Yes in step S5), the detection control unit notifies the detection result that an obstacle has been detected. 360, the notification control unit 360 notifies the driver that an obstacle has been detected (step S6). In other words, in consideration of the low reliability of both the radar 200 and the in-vehicle camera 220, notification is performed without limiting the type of obstacle.

また、報知制御部350は、判定の結果、「該当ケースなし」で障害物を検知したものと判定した場合には(ステップS5肯定)、車両および歩行者を検知した旨の検知結果を報知制御部360に出力し、報知制御部360は、車両を検知した旨をドライバに報知する(ステップS6)。すなわち、レーダ200および車載カメラ220の信頼度がともに高いことを加味して、車両および歩行者を検知したものと決め打ちした報知を行う趣旨である。   Further, when it is determined that the obstacle is detected as “no applicable case” as a result of the determination (Yes in step S5), the notification control unit 350 performs notification control of the detection result indicating that the vehicle and the pedestrian are detected. The information is output to the unit 360, and the notification control unit 360 notifies the driver that the vehicle has been detected (step S6). In other words, the fact that the reliability of both the radar 200 and the in-vehicle camera 220 is high is taken into account, and notification that the vehicle and the pedestrian are detected is performed.

[実施例2による効果]
上述してきたように、実施例2によれば、車両に搭載されるレーダや車載カメラによるセンシング結果を用いて障害物を検知する場合に、センシング結果の信頼度を加味できる。さらに、センシング結果の信頼度に応じて、障害物の検知に採用するセンシング結果を選択でき、選択されたセンシング結果に合わせて検知結果の報知内容を変更できる。
[Effects of Example 2]
As described above, according to the second embodiment, the reliability of the sensing result can be taken into account when the obstacle is detected using the sensing result obtained by the radar mounted on the vehicle or the in-vehicle camera. Furthermore, according to the reliability of a sensing result, the sensing result employ | adopted for the detection of an obstruction can be selected, and the alerting | reporting content of a detection result can be changed according to the selected sensing result.

なお、上述してきた実施例1または実施例2に係る検知装置300は、車両走行制御を実行するために車両に搭載される車両制御装置に適用することもできる。   In addition, the detection apparatus 300 which concerns on Example 1 or Example 2 mentioned above can also be applied to the vehicle control apparatus mounted in a vehicle in order to perform vehicle travel control.

さて、これまで本発明に係る検知装置の一実施形態として実施例1について説明してきたが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施形態を説明する。   Now, the first embodiment has been described as an embodiment of the detection device according to the present invention, but the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, in the following, other embodiments included in the present invention will be described.

(1)装置構成等
図3または図13に示した検知装置300の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、検知装置300の分散・統合の具体的形態は図示のものに限られるものではない。
(1) Device Configuration, etc. Each component of the detection device 300 shown in FIG. 3 or FIG. 13 is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of the detection apparatus 300 is not limited to the illustrated one.

例えば、図3に示す検知閾値変更部340および検知判定部350を統合し、図13に示すセンシング結果選択部380および検知判定部350を統合するなど、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、検知装置300にて行なわれる各処理機能(図12または図14等参照)は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   For example, the detection threshold value changing unit 340 and the detection determination unit 350 shown in FIG. 3 are integrated, and the sensing result selection unit 380 and the detection determination unit 350 shown in FIG. It can be configured to be functionally or physically distributed / integrated in an arbitrary unit according to the usage situation. Furthermore, each processing function (see FIG. 12 or FIG. 14 or the like) performed in the detection device 300 is realized by a CPU and a program that is analyzed and executed by the CPU. It can be realized as hardware by wired logic.

(2)検知処理プログラム
また、上記の実施例で説明した装置の各種の処理(例えば、図12または図14等参照)は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することができる。そこで、以下では、図15を用いて、上記の実施例と同様の機能を有する検知処理プログラムを実行するコンピュータの一例を説明する。図15は、検知処理プログラムを実行するコンピュータを示す図である。
(2) Detection processing program Various processes (for example, see FIG. 12 or FIG. 14) of the apparatus described in the above embodiment are executed by a computer system such as a personal computer or a workstation. Can be realized. In the following, an example of a computer that executes a detection processing program having the same function as that of the above-described embodiment will be described with reference to FIG. FIG. 15 is a diagram illustrating a computer that executes a detection processing program.

同図に示すように、コンピュータ400は、入力部410、出力部420、HDD430、RAM440およびCPU450をバス500で接続して構成される。   As shown in the figure, the computer 400 is configured by connecting an input unit 410, an output unit 420, an HDD 430, a RAM 440 and a CPU 450 via a bus 500.

ここで、入力部410は、ユーザから各種データの入力を受け付ける。出力部420は、各種情報を表示する。HDD430は、CPU450による各種処理の実行に必要な情報を記憶する。RAM440は、各種情報を一時的に記憶する。CPU450は、各種演算処理を実行する。   Here, the input unit 410 receives input of various data from the user. The output unit 420 displays various information. The HDD 430 stores information necessary for the CPU 450 to execute various processes. The RAM 440 temporarily stores various information. The CPU 450 executes various arithmetic processes.

そして、HDD430には、図15に示すように、上記の実施例に示した検知装置の各処理部と同様の機能を発揮する検知処理プログラム431と、検知処理用データ432とがあらかじめ記憶されている。なお、この検知処理プログラム431を適宜分散させて、ネットワークを介して通信可能に接続された他のコンピュータの記憶部に記憶させておくこともできる。   As shown in FIG. 15, the HDD 430 stores in advance a detection processing program 431 that exhibits the same function as each processing unit of the detection apparatus shown in the above embodiment, and detection processing data 432. Yes. Note that the detection processing program 431 may be appropriately distributed and stored in a storage unit of another computer that is communicably connected via a network.

そして、CPU450が、この検知処理プログラム431をHDD430から読み出してRAM440に展開することにより、図15に示すように、検知処理プログラム431は検知処理プロセス441として機能するようになる。   Then, the CPU 450 reads out the detection processing program 431 from the HDD 430 and develops it in the RAM 440, so that the detection processing program 431 functions as a detection processing process 441 as shown in FIG.

すなわち、検知処理プロセス441は、検知処理用データ432等をHDD430から読み出して、RAM440において自身に割り当てられた領域に展開し、この展開したデータ等に基づいて各種処理を実行する。   That is, the detection processing process 441 reads the detection processing data 432 and the like from the HDD 430, expands them in an area allocated to itself in the RAM 440, and executes various processes based on the expanded data and the like.

なお、検知処理プロセス441は、図3または図13に示した検知装置300の環境特定部320、信頼度算出部330、検知閾値変更部340(センシング結果選択部380)、検知判定部350および報知制御部360において実行される処理にそれぞれ対応する。   Note that the detection process 441 includes the environment identification unit 320, the reliability calculation unit 330, the detection threshold value changing unit 340 (sensing result selection unit 380), the detection determination unit 350, and the notification of the detection apparatus 300 illustrated in FIG. This corresponds to each process executed in the control unit 360.

なお、上記した検知処理プログラム431については、必ずしも最初からHDD430に記憶させておく必要はない。例えば、コンピュータ400に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ400に接続される「他のコンピュータ(またはサーバ)」などに各プログラムを記憶させておき、コンピュータ400がこれらから各プログラムを読み出して実行するようにしてもよい。   Note that the above-described detection processing program 431 is not necessarily stored in the HDD 430 from the beginning. For example, a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, and an IC card inserted into the computer 400, a public line, the Internet, a LAN, a WAN, etc. Each program may be stored in “another computer (or server)” connected to the computer 400 via the computer 400, and the computer 400 may read and execute each program from these.

(3)検知方法
上記の実施例で説明した装置により、以下のような検知方法が実現される。
(3) Detection Method The following detection method is realized by the apparatus described in the above embodiment.

すなわち、各車載センサによるセンシング結果を取得した場合に、当該センシング結果取得時の環境条件および当該センシング結果が示す検知物に基づいて、車両周辺の障害物をセンシングする各車載センサからセンシング結果が取得された時の環境条件、または各車載センサのセンシング対象となる検知対象物にそれぞれ対応付けて、各車載センサによるセンシング結果の信頼度をそれぞれ記憶する信頼度記憶手段を参照し、センシング結果の信頼度を算出する信頼度算出ステップと(例えば、図12のステップS1〜S2参照)、信頼度算出ステップにより算出された信頼度と、センシング結果とを用いて、障害物が検知されたか否かを判定する検知判定ステップと(例えば、図12のステップS5参照)、を含んだ検知方法が実現される。   That is, when sensing results from each in-vehicle sensor are acquired, sensing results are obtained from each in-vehicle sensor that senses obstacles around the vehicle based on the environmental conditions at the time of the sensing result acquisition and the detected object indicated by the sensing result. The reliability of the sensing result by referring to the reliability storage means for storing the reliability of the sensing result by each in-vehicle sensor in association with the environmental condition at the time of detection or the sensing object to be sensed by each in-vehicle sensor. Whether or not an obstacle is detected using the reliability calculation step for calculating the degree (see, for example, steps S1 to S2 in FIG. 12), the reliability calculated by the reliability calculation step, and the sensing result. A detection method including a detection determination step for determination (see, for example, step S5 in FIG. 12) is realized. .

以上のように、本発明に係る検知装置、検知方法および車両制御装置は、走行中の車両周辺に存在する障害物を検知する場合に有用であり、特に、車両に搭載されるレーダや車載カメラによるセンシング結果を用いて障害物を検知する場合に、センシング結果の信頼度を加味することに適する。   As described above, the detection device, the detection method, and the vehicle control device according to the present invention are useful when detecting an obstacle existing around a traveling vehicle, and in particular, a radar or an in-vehicle camera mounted on the vehicle. It is suitable for taking into account the reliability of the sensing result when detecting an obstacle using the sensing result of

実施例1に係る検知装置の概要および特徴を説明するための図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure for demonstrating the outline | summary and characteristic of the detection apparatus which concern on Example 1. FIG. 実施例1に係る検知装置の概要および特徴を説明するための図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure for demonstrating the outline | summary and characteristic of the detection apparatus which concern on Example 1. FIG. 実施例1に係る検知装置の構成を示す図である。It is a figure which shows the structure of the detection apparatus which concerns on Example 1. FIG. 実施例1に係る信頼度テーブル1の構成例を示す図である。It is a figure which shows the structural example of the reliability table 1 which concerns on Example 1. FIG. 実施例1に係る信頼度テーブル2の構成例を示す図である。It is a figure which shows the structural example of the reliability table 2 which concerns on Example 1. FIG. 実施例1に係る信頼度テーブル3の構成例を示す図である。It is a figure which shows the structural example of the reliability table 3 which concerns on Example 1. FIG. 実施例1に係る信頼度算出結果例を示す図である。It is a figure which shows the reliability calculation result example which concerns on Example 1. FIG. 実施例1に係る信頼度算出結果例を示す図である。It is a figure which shows the reliability calculation result example which concerns on Example 1. FIG. 実施例1に係る信頼度算出結果例を示す図である。It is a figure which shows the reliability calculation result example which concerns on Example 1. FIG. 実施例1に係る信頼度算出結果例を示す図である。It is a figure which shows the reliability calculation result example which concerns on Example 1. FIG. 実施例1に係る信頼度算出結果のケース分類基準例を示す図である。It is a figure which shows the example of case classification reference | standard of the reliability calculation result which concerns on Example 1. FIG. 実施例1に係る検知装置による処理の流れを示す図である。It is a figure which shows the flow of the process by the detection apparatus which concerns on Example 1. FIG. 実施例1に係る検知装置の構成を示す図である。It is a figure which shows the structure of the detection apparatus which concerns on Example 1. FIG. 実施例2に係る検知装置による処理の流れを示す図である。FIG. 10 is a diagram illustrating a flow of processing by a detection device according to a second embodiment. 検知処理プログラムを実行するコンピュータを示す図である。It is a figure which shows the computer which performs a detection processing program.

符号の説明Explanation of symbols

100 環境センサ群
110 照度センサ
120 温度センサ
130 雨滴センサ
140 ジャイロセンサ
150 インフラ情報デバイス
200 レーダ
210 レーダ認識部
220 車載カメラ
230 画像認識部
240 ディスプレイ
250 スピーカ
300 検知装置
310 信頼度テーブル1
311 信頼度テーブル2
312 信頼度テーブル3
320 環境特定部
330 信頼度算出部
340 検知閾値変更部
350 検知判定部
360 報知制御部
380 センシング結果選択部
400 コンピュータ
410 入力部
420 出力部
430 HDD(Hard Disk Drive)
431 検知処理プログラム
432 検知処理用データ
440 RAM(Random Access Memory)
441 検知処理プロセス
450 CPU(Central Processing Unit)
500 バス
DESCRIPTION OF SYMBOLS 100 Environmental sensor group 110 Illuminance sensor 120 Temperature sensor 130 Raindrop sensor 140 Gyro sensor 150 Infrastructure information device 200 Radar 210 Radar recognition part 220 Car-mounted camera 230 Image recognition part 240 Display 250 Speaker 300 Detection apparatus 310 Reliability table 1
311 Reliability table 2
312 Reliability table 3
320 environment identification unit 330 reliability calculation unit 340 detection threshold change unit 350 detection determination unit 360 notification control unit 380 sensing result selection unit 400 computer 410 input unit 420 output unit 430 HDD (Hard Disk Drive)
431 Detection processing program 432 Detection processing data 440 RAM (Random Access Memory)
441 Detection processing process 450 CPU (Central Processing Unit)
500 buses

Claims (6)

車両周辺の障害物をセンシングする各車載センサからセンシング結果が取得された時の環境条件、または当該各車載センサのセンシング対象となる検知対象物にそれぞれ対応付けて、各車載センサによるセンシング結果の信頼度をそれぞれ記憶する信頼度記憶手段と、
前記各車載センサによるセンシング結果を取得した場合に、当該センシング結果取得時の環境条件および当該センシング結果が示す検知物に基づいて前記信頼度記憶手段を参照し、前記センシング結果の信頼度を算出する信頼度算出手段と、
前記信頼度算出手段により算出された前記信頼度と、前記センシング結果とを用いて、前記障害物が検知されたか否かを判定する検知判定手段と、
を備えたことを特徴とする検知装置。
Confidence of sensing results by each in-vehicle sensor by associating it with environmental conditions when sensing results are acquired from each in-vehicle sensor that senses obstacles around the vehicle Reliability storage means for storing each degree,
When the sensing result by each of the in-vehicle sensors is acquired, the reliability storage unit is referred to based on the environmental condition at the time of the sensing result acquisition and the detected object indicated by the sensing result, and the reliability of the sensing result is calculated Reliability calculation means;
Detection determination means for determining whether or not the obstacle has been detected using the reliability calculated by the reliability calculation means and the sensing result;
A detection device comprising:
前記信頼度算出手段により算出された前記信頼度に基づいて、前記障害物が検知されたか否かを判定するために車載センサの種別ごとに予め設定されている検知閾値を初期値よりも低く変更する閾値変更手段をさらに備え、
前記検知判定手段は、前記予め設定されている検知閾値、および前記閾値変更手段により変更された検知閾値と、各検知閾値に対応する前記センシング結果との比較結果を用いて、前記障害物が検知されたか否かを判定することを特徴とする請求項1に記載の検知装置。
Based on the reliability calculated by the reliability calculation means, a detection threshold set in advance for each type of in-vehicle sensor is determined to be lower than an initial value in order to determine whether or not the obstacle has been detected. Further comprising threshold changing means for
The detection determination unit detects the obstacle using a comparison result between the detection threshold set in advance and the detection threshold changed by the threshold change unit and the sensing result corresponding to each detection threshold. The detection device according to claim 1, wherein it is determined whether or not it has been performed.
前記検知判定手段は、前記各車載センサから取得された各センシング結果の中から、前記信頼度算出手段により前記信頼度が高いと判定されたセンシング結果を選択し、当該選択されたセンシング結果を用いて前記障害物が検知されたか否かを判定することを特徴とする請求項1に記載の検知装置。   The detection determination unit selects a sensing result determined by the reliability calculation unit as being highly reliable from each sensing result acquired from each of the in-vehicle sensors, and uses the selected sensing result. The detection device according to claim 1, wherein it is determined whether or not the obstacle has been detected. 前記検知判定手段により前記障害物が検知されたものと判定された場合に、当該判定に用いられたセンシング結果の取得元である車載センサの種別に応じて、車両運転者に対する報知を行う報知手段をさらに備えたことを特徴とする請求項3に記載の検知装置。   Informing means for informing the vehicle driver according to the type of the in-vehicle sensor that is the acquisition source of the sensing result used for the determination when it is determined by the detection determining means that the obstacle is detected The detection device according to claim 3, further comprising: 各車載センサによるセンシング結果を取得した場合に、当該センシング結果取得時の環境条件および当該センシング結果が示す検知物に基づいて、車両周辺の障害物をセンシングする各車載センサからセンシング結果が取得された時の環境条件、または当該各車載センサのセンシング対象となる検知対象物にそれぞれ対応付けて、各車載センサによるセンシング結果の信頼度をそれぞれ記憶する信頼度記憶手段を参照し、前記センシング結果の信頼度を算出する信頼度算出ステップと、
前記信頼度算出ステップにより算出された前記信頼度と、前記センシング結果とを用いて、前記障害物が検知されたか否かを判定する検知判定ステップと、
を含んだことを特徴とする検知方法。
When the sensing results from each in-vehicle sensor are acquired, the sensing results are obtained from each in-vehicle sensor that senses obstacles around the vehicle based on the environmental conditions at the time of the sensing result acquisition and the detected object indicated by the sensing result. The reliability of the sensing result is referred to by referring to the reliability storage means for storing the reliability of the sensing result by each in-vehicle sensor in association with the environmental condition at the time or the sensing object to be sensed by each in-vehicle sensor. A reliability calculation step for calculating a degree;
A detection determination step of determining whether or not the obstacle is detected using the reliability calculated in the reliability calculation step and the sensing result;
The detection method characterized by including.
車両周辺の障害物をセンシングする各車載センサからセンシング結果が取得された時の環境条件、または当該各車載センサのセンシング対象となる検知対象物にそれぞれ対応付けて、各車載センサによるセンシング結果の信頼度をそれぞれ記憶する信頼度記憶手段と、
前記各車載センサによるセンシング結果を取得した場合に、当該センシング結果取得時の環境条件および当該センシング結果が示す検知物に基づいて前記信頼度記憶手段を参照し、前記センシング結果の信頼度を算出する信頼度算出手段と、
前記信頼度算出手段により算出された前記信頼度と、前記センシング結果とを用いて、前記障害物が検知されたか否かを判定する検知判定手段と、
を備えたことを特徴とする車両制御装置。
Confidence of sensing results by each in-vehicle sensor by associating it with the environmental conditions when sensing results are obtained from each in-vehicle sensor that senses obstacles around the vehicle, or the sensing object to be sensed by each in-vehicle sensor Reliability storage means for storing each degree,
When the sensing result by each of the in-vehicle sensors is acquired, the reliability storage unit is referred to based on the environmental condition at the time of the sensing result acquisition and the detected object indicated by the sensing result, and the reliability of the sensing result is calculated. Reliability calculation means;
Detection determination means for determining whether or not the obstacle has been detected using the reliability calculated by the reliability calculation means and the sensing result;
A vehicle control device comprising:
JP2008308198A 2008-12-03 2008-12-03 Sensing device, sensing method, and vehicle control device Withdrawn JP2010132056A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008308198A JP2010132056A (en) 2008-12-03 2008-12-03 Sensing device, sensing method, and vehicle control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008308198A JP2010132056A (en) 2008-12-03 2008-12-03 Sensing device, sensing method, and vehicle control device

Publications (1)

Publication Number Publication Date
JP2010132056A true JP2010132056A (en) 2010-06-17

Family

ID=42343840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008308198A Withdrawn JP2010132056A (en) 2008-12-03 2008-12-03 Sensing device, sensing method, and vehicle control device

Country Status (1)

Country Link
JP (1) JP2010132056A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140032658A (en) * 2012-09-07 2014-03-17 한국전자통신연구원 Apparatus for gathering surrounding of vehicle
JP2014102165A (en) * 2012-11-20 2014-06-05 Denso Corp Target determination device
WO2014156222A1 (en) * 2013-03-26 2014-10-02 シャープ株式会社 Obstacle detection device, and electric-powered vehicle provided therewith
JP2015221642A (en) * 2014-05-23 2015-12-10 本田技研工業株式会社 Object recognition device
US9669829B2 (en) 2014-10-29 2017-06-06 Denso Corporation Travel lane marking recognition system
JP2019500694A (en) * 2015-12-18 2019-01-10 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Method for evaluating a danger situation detected by at least one sensor of a vehicle, method for controlling the reproduction of a danger warning, and method for reproducing a danger warning
EP3498560A1 (en) * 2017-12-18 2019-06-19 Toyota Jidosha Kabushiki Kaisha Vehicle controller, vehicle control method, and non-transitory storage medium storing vehicle control program
WO2020160801A1 (en) * 2019-02-06 2020-08-13 Bayerische Motoren Werke Aktiengesellschaft Method, device, computer program and computer program product for operating a vehicle
CN111634290A (en) * 2020-05-22 2020-09-08 华域汽车系统股份有限公司 Advanced driving assistance forward fusion system and method
CN112313537A (en) * 2018-06-29 2021-02-02 索尼半导体解决方案公司 Information processing apparatus and information processing method, imaging apparatus, computer program, information processing system, and mobile body apparatus
JP2022506262A (en) * 2018-11-02 2022-01-17 ルノー エス.ア.エス. How to generate control settings for a car

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102015533B1 (en) * 2012-09-07 2019-08-28 한국전자통신연구원 Apparatus for gathering surrounding of vehicle
KR20140032658A (en) * 2012-09-07 2014-03-17 한국전자통신연구원 Apparatus for gathering surrounding of vehicle
JP2014102165A (en) * 2012-11-20 2014-06-05 Denso Corp Target determination device
US9135823B2 (en) 2012-11-20 2015-09-15 Denso Corporation Object type determination apparatus
WO2014156222A1 (en) * 2013-03-26 2014-10-02 シャープ株式会社 Obstacle detection device, and electric-powered vehicle provided therewith
JP2014191485A (en) * 2013-03-26 2014-10-06 Sharp Corp Obstacle detection device and electrically-driven vehicle with the same
JP2015221642A (en) * 2014-05-23 2015-12-10 本田技研工業株式会社 Object recognition device
US9669829B2 (en) 2014-10-29 2017-06-06 Denso Corporation Travel lane marking recognition system
JP2019500694A (en) * 2015-12-18 2019-01-10 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Method for evaluating a danger situation detected by at least one sensor of a vehicle, method for controlling the reproduction of a danger warning, and method for reproducing a danger warning
EP3498560A1 (en) * 2017-12-18 2019-06-19 Toyota Jidosha Kabushiki Kaisha Vehicle controller, vehicle control method, and non-transitory storage medium storing vehicle control program
JP2019107971A (en) * 2017-12-18 2019-07-04 トヨタ自動車株式会社 Vehicle control device, method, and program
US10983521B2 (en) 2017-12-18 2021-04-20 Toyota Jidosha Kabushiki Kaisha Vehicle controller, vehicle control method, and non-transitory storage medium storing vehicle control program
CN112313537A (en) * 2018-06-29 2021-02-02 索尼半导体解决方案公司 Information processing apparatus and information processing method, imaging apparatus, computer program, information processing system, and mobile body apparatus
US11994581B2 (en) 2018-06-29 2024-05-28 Sony Semiconductor Solutions Corporation Information processing device and information processing method, imaging device, computer program, information processing system, and moving body device
JP2022506262A (en) * 2018-11-02 2022-01-17 ルノー エス.ア.エス. How to generate control settings for a car
JP7439079B2 (en) 2018-11-02 2024-02-27 ルノー エス.ア.エス. Method for generating control settings for a vehicle
WO2020160801A1 (en) * 2019-02-06 2020-08-13 Bayerische Motoren Werke Aktiengesellschaft Method, device, computer program and computer program product for operating a vehicle
US11915489B2 (en) 2019-02-06 2024-02-27 Bayerische Motoren Werke Aktiengesellschaft Method, device, computer program and computer program product for operating a vehicle
CN111634290A (en) * 2020-05-22 2020-09-08 华域汽车系统股份有限公司 Advanced driving assistance forward fusion system and method
CN111634290B (en) * 2020-05-22 2023-08-11 华域汽车系统股份有限公司 Advanced driving assistance forward fusion system and method

Similar Documents

Publication Publication Date Title
JP2010132056A (en) Sensing device, sensing method, and vehicle control device
JP6714513B2 (en) An in-vehicle device that informs the navigation module of the vehicle of the presence of an object
US9180814B2 (en) Vehicle rear left and right side warning apparatus, vehicle rear left and right side warning method, and three-dimensional object detecting device
JP5938569B2 (en) Advanced driver support system considering azimuth information and operation method thereof
US8994823B2 (en) Object detection apparatus and storage medium storing object detection program
US20170243073A1 (en) Method and system to identify traffic lights by an autonomous vehicle
EP2575078B1 (en) Front vehicle detecting method and front vehicle detecting apparatus
CN111932901B (en) Road vehicle tracking detection apparatus, method and storage medium
US10147315B2 (en) Method and apparatus for determining split lane traffic conditions utilizing both multimedia data and probe data
JP6140658B2 (en) Traveling lane marking recognition device, traveling lane marking recognition program
US20140002658A1 (en) Overtaking vehicle warning system and overtaking vehicle warning method
JP4940177B2 (en) Traffic flow measuring device
JP2009237898A (en) Image recognition device
JP2019212188A (en) Road sign recognition device
JP2019211416A (en) Drive assist device
JP6411933B2 (en) Vehicle state determination device
US11474535B2 (en) Method of processing data, apparatus for processing data, and system for controlling vehicle
US20220092981A1 (en) Systems and methods for controlling vehicle traffic
JP2009146153A (en) Moving object detection device, moving object detection method and moving object detection program
KR102337034B1 (en) Autonomous driving situation recognition program performance test method and apparatus for porceeding the same
KR102079291B1 (en) Forward vehicle collision warning apparatus and method thereof
JP4762830B2 (en) Perimeter monitoring system
CN109830123B (en) Crossing collision early warning method and system
US20210004016A1 (en) U-turn control system for autonomous vehicle and method therefor
JP5145138B2 (en) Driving support device, driving support control method, and driving support control processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111121

A072 Dismissal of procedure

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20130326

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130402