JP2011146049A - Person detection apparatus, person detection program, activation controller, and crash absorption apparatus - Google Patents

Person detection apparatus, person detection program, activation controller, and crash absorption apparatus Download PDF

Info

Publication number
JP2011146049A
JP2011146049A JP2011022643A JP2011022643A JP2011146049A JP 2011146049 A JP2011146049 A JP 2011146049A JP 2011022643 A JP2011022643 A JP 2011022643A JP 2011022643 A JP2011022643 A JP 2011022643A JP 2011146049 A JP2011146049 A JP 2011146049A
Authority
JP
Japan
Prior art keywords
person
probability
detection
vehicle
mitigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011022643A
Other languages
Japanese (ja)
Inventor
Yosuke Ito
洋介 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2011022643A priority Critical patent/JP2011146049A/en
Publication of JP2011146049A publication Critical patent/JP2011146049A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Regulating Braking Force (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology for precisely discriminating whether a target object is a person. <P>SOLUTION: A crash absorption apparatus operates a person probability presenting a probability that the target object detected based on an image acquired from an image sensor is a person in an activation determination processing according to a degree of matching between a parameter associated with the external appearance of the target object and a parameter for comparison associated with a person (S210: S310 to S330), and determines that the target object is a person when the person probability exceeds a preset person threshold value (S230). The person threshold value is corrected using a correction value corresponding to a presence probability of a person in accordance with a detection environment when the target object is detected (S220). The correction is made such that the target object is determined to be a person more as the presence probability of the person becomes higher. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、検出された対象物が人物であることを検出する人物検出装置および人物検出プログラム、並びにこれらの機能を有する作動制御装置および衝突緩和装置に関する。   The present invention relates to a person detection device and a person detection program for detecting that a detected object is a person, and an operation control device and a collision mitigation device having these functions.

従来、上記の衝突緩和装置として、車両が人物と衝突する際に、車両のボンネットを持ち上げて、ボンネットとボンネット内容物との間に隙間を形成したり、車両の外部にてエアバッグを開かせたりすることによって、衝撃を緩和する技術が知られている(例えば、特許文献1参照)。   Conventionally, as the above-described collision mitigation device, when a vehicle collides with a person, the vehicle hood is lifted to form a gap between the bonnet and the bonnet contents, or the airbag is opened outside the vehicle. Is known to alleviate the impact (see, for example, Patent Document 1).

特開2003−226211号公報Japanese Patent Laid-Open No. 2003-226211

ここで、車両のボンネットを持ち上げたり、車両の外部にてエアバッグを開かせたりする作動は、車両が人物と衝突する場合のみに必要であって、車両同士が衝突するとき等、車両が人物以外と衝突する際の作動は不要である。特に、エアバッグは、一度開いてしまうと再度利用することができないため、車両が人物以外と衝突する際にエアバッグが開かないようにすることが求められる。   Here, the operation of lifting the hood of the vehicle or opening the airbag outside the vehicle is necessary only when the vehicle collides with a person. No action is required when colliding with other devices. In particular, since the airbag cannot be used again once it is opened, it is required that the airbag is not opened when the vehicle collides with a person other than a person.

つまり、車両が衝突する対象物が人物であるかを精度よく識別し、この識別結果に応じてエアバッグ等を作動するか否かを判定できるようにすればよい。そこで、本発明においては、対象物が人物であるか否かを精度よく識別できるようにする技術を提供することを目的とする。   That is, it is only necessary to accurately identify whether the object with which the vehicle collides is a person and to determine whether or not to operate the airbag or the like according to the identification result. Therefore, an object of the present invention is to provide a technique that can accurately identify whether or not an object is a person.

かかる目的を達成するために成された請求項1に記載の人物検出装置において、人物確率演算手段は、パラメータ検出手段から取得したパラメータ検出結果と人物に関する比較用パラメータとが一致する度合いに応じて、対象物が人物である確率を表す人物確率を演算する。そして、人物判定手段は、人物確率が予め設定された人物閾値以上である場合に対象物が人物であると判定する。   The person detection apparatus according to claim 1, wherein the person probability calculation unit is configured to achieve the above object according to a degree of coincidence between the parameter detection result acquired from the parameter detection unit and the comparison parameter related to the person. The person probability representing the probability that the object is a person is calculated. The person determination means determines that the target is a person when the person probability is equal to or higher than a preset person threshold.

なお、本発明において、対象物を検出する処理は、パラメータ検出手段がパラメータを検出する処理を兼ねて実施してもよいし、パラメータ検出手段または他の手段がパラメータを検出する処理の前に実施してもよい。また、本発明において、「外観に関するパラメータ」とは、例えば、対象物の大きさ(幅、高さ)、形状、大きさおよび形状の変化等、対象物の外観から導出できる値が該当する。   In the present invention, the process for detecting an object may be performed as a process for the parameter detection means to detect a parameter, or before the process for the parameter detection means or other means to detect a parameter. May be. Further, in the present invention, the “parameter relating to the appearance” corresponds to a value that can be derived from the appearance of the object, such as the size (width, height), shape, size, and shape change of the object.

さらに、本発明において、「存在確率が高くなるにつれて…(略)…前記人物確率または前記人物閾値を補正する」とは、存在確率に応じて段階的(少なくとも2段階)或いは連続的に人物確率または人物閾値を変化させることを意味する。ところで、環境取得手段および補正手段の作動タイミングは、人物判定手段が1度のみ作動する場合には人物判定手段の作動前に設定されればよく、人物判定手段が繰り返し作動する場合には任意のタイミング(繰り返してもよい)に設定されていればよい。   Further, in the present invention, “as the existence probability becomes higher (...) (correct) the person probability or the person threshold value is corrected stepwise (at least in two steps) or continuously according to the existence probability. Or it means changing the person threshold. By the way, the operation timing of the environment acquisition unit and the correction unit may be set before the operation of the person determination unit when the person determination unit operates only once, and any timing when the person determination unit operates repeatedly. It is only necessary to set the timing (may be repeated).

さらに、本発明の人物検出装置において、人物確率演算手段は、対象物が存在する対象領域を撮像する撮像手段による撮像画像を画像処理することによって対象物の形状を検出する画像処理手段と、対象領域に向けて送信波を出力し、該送信波が対象物によって反射された反射波を検出することによって前記対象物までの距離を検出する距離検出手段と、による検出結果をそれぞれ取得し、各検出結果に基づいて、人物確率を演算するように構成されている。特に、距離検出手段による検出結果に基づいて撮像画像中の対象物の大きさを特定し、該対象物の幅が予め設定された幅基準値から外れるに従って、或いは該対象物の高さが予め設定された高さ基準値から外れるに従って、徐々に人物確率を低く設定することで、人物確率を演算する。   Further, in the human detection device of the present invention, the human probability calculation means includes an image processing means for detecting a shape of the target object by performing image processing on an image picked up by the image pickup means for picking up a target area where the target object exists, and a target A transmission wave is output toward the region, and a detection result by distance detection means for detecting a distance to the target object by detecting a reflected wave reflected by the target object is obtained. A person probability is calculated based on the detection result. In particular, the size of the object in the captured image is specified based on the detection result by the distance detection means, and the height of the object is determined in advance as the width of the object deviates from a preset width reference value. The person probability is calculated by gradually setting the person probability lower as it deviates from the set height reference value.

このような人物検出装置によれば、対象物までの距離を検出することができるので、この距離に基づいて撮像画像中の人物の大きさを推定することができる。よって、人物の検出精度を向上させることができる。   According to such a person detection device, since the distance to the target can be detected, the size of the person in the captured image can be estimated based on this distance. Therefore, the detection accuracy of a person can be improved.

なお、人物確率演算手段は、撮像手段による撮像画像を画像処理する手法や、レーダ等による形状認識機能のうちの少なくとも1つを利用していればよい。   It should be noted that the person probability calculation means may use at least one of a technique for processing an image captured by the imaging means and a shape recognition function by radar or the like.

ところで、請求項1に記載の人物検出装置においては、請求項2に記載のように、人物確率演算手段は、撮像画像中において人物とはかけ離れた大きさである対象物を人物としては除外してもよい。   By the way, in the person detection device according to claim 1, as described in claim 2, the person probability calculation means excludes an object having a size far from the person in the captured image as a person. May be.

また、請求項3に記載のように、人物確率演算手段は、高さ基準値として予め設定された上限値および下限値で規定される範囲を有する値を利用するようにしてもよい。特に、請求項4に記載のように、人物確率演算手段は、幅基準値として0.5mを利用し、高さ基準値の上限値として1.8m、下限値として1.0mを利用するようにしてもよい。   According to a third aspect of the present invention, the person probability calculating means may use a value having a range defined by an upper limit value and a lower limit value set in advance as the height reference value. In particular, as described in claim 4, the human probability calculation means uses 0.5 m as the width reference value, uses 1.8 m as the upper limit value of the height reference value, and 1.0 m as the lower limit value. It may be.

また、請求項5に記載の人物検出プログラムは、請求項1〜請求項4の何れか1項に記載の人物検出装置を構成する各手段としての機能をコンピュータにて実行するためのプログラムであることを特徴としている。   A human detection program according to claim 5 is a program for executing functions as respective means constituting the human detection device according to any one of claims 1 to 4 on a computer. It is characterized by that.

このような人物検出プログラムによれば、少なくとも請求項1に記載の効果と同様の効果を享受することができる。   According to such a person detection program, at least the same effect as that described in claim 1 can be enjoyed.

次に、上記目的を達成するために成された請求項6に記載の作動制御装置において、人物検出手段は、車両が衝突する虞がある対象物が人物であることを検出し、作動制御手段は、対象物が人物であることが検出された場合に緩和手段の作動を許可し、対象物が人物であることが検出されなかった場合に緩和手段の作動を禁止する。そして、人物検出手段は請求項1〜請求項4の何れか1項に記載の人物検出装置として構成されている。   Next, in the operation control device according to claim 6, wherein the person detection unit detects that an object with which the vehicle may collide is a person, and the operation control unit is configured to achieve the above object. Permits the operation of the mitigation means when it is detected that the object is a person, and prohibits the operation of the mitigation means when it is not detected that the object is a person. And a person detection means is comprised as a person detection apparatus of any one of Claims 1-4.

このような作動制御装置によれば、請求項1〜請求項4の何れか1項に記載の人物検出装置を備えているので、少なくとも請求項1に記載の効果と同様の効果を享受することができる。また、本発明の作動制御装置では、対象物が人物であるか否かの出力結果に応じて緩和手段を作動させるか否かという異なる処理を実施することができる。   According to such an operation control device, since the person detection device according to any one of claims 1 to 4 is provided, at least the same effect as the effect according to claim 1 is enjoyed. Can do. Further, in the operation control device of the present invention, it is possible to perform different processing of whether or not to actuate the mitigation means according to the output result of whether or not the object is a person.

なお、本発明において、複数の緩和手段を備えている場合には、少なくとも1つの緩和手段に対して作動を許可または禁止する作動を実施すればよい。   In the present invention, when a plurality of mitigating means are provided, an operation for permitting or prohibiting the operation of at least one mitigating means may be performed.

さらに、上記目的を達成するために成された請求項7に記載の作動制御装置において、衝突演算手段は、車両が対象物に衝突するまでの予想時間である衝突時間を演算し、作動設定手段は、対象物が人物であるか否かを判定し、この判定結果に応じて、当該車両と人物とが衝突する際の衝撃を緩和する緩和手段の作動を許可するか否かを設定する。そして、緩和制御手段は、作動設定手段によって緩和手段の作動が許可され、かつ衝突時間が衝突を回避することができる限界時間未満である場合に、緩和手段を作動させる。ただし、作動設定手段は、請求項6に記載の作動制御装置として構成されている。   Furthermore, the operation control device according to claim 7, wherein the collision calculation means calculates a collision time, which is an expected time until the vehicle collides with an object, and the operation setting means. Determines whether or not the object is a person, and sets whether or not to permit the operation of the mitigation means for reducing the impact when the vehicle and the person collide, according to the determination result. Then, the mitigation control unit activates the mitigation unit when the operation of the mitigation unit is permitted by the operation setting unit and the collision time is less than the limit time that can avoid the collision. However, the operation setting means is configured as an operation control device according to claim 6.

従って、このような衝突緩和装置によれば、請求項6に記載の作動制御装置を備えているので、請求項6に記載の効果と同様の効果を享受することができる。また、人物との衝突が避けられない場合のみに緩和手段を作動させることができる。   Therefore, according to such a collision alleviating device, since the operation control device according to the sixth aspect is provided, the same effect as that according to the sixth aspect can be enjoyed. Further, the mitigation means can be activated only when a collision with a person is unavoidable.

本発明が適用されたPCS1の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of PCS1 to which this invention was applied. 衝突緩和処理を示すフローチャートでありIt is a flowchart which shows a collision mitigation process 衝突緩和処理のうちの作動設定処理を示すフローチャート(a)および作動設定処理のうちの人物確率演算処理を示すフローチャート(b)である。It is the flowchart (a) which shows the operation | movement setting process in a collision mitigation process, and the flowchart (b) which shows the person probability calculation process in an operation | movement setting process. 作動設定処理のうちの閾値演算処理を示すフローチャート(a)、および人対車両昼夜別事故件数を示す表(b)である。It is the flowchart (a) which shows the threshold value calculation process among operation | movement setting processes, and the table | surface (b) which shows the number of accidents according to person versus vehicle day and night. 対象物の幅および高さと、人物確率を演算する際に利用する係数との関係を示すグラフである。It is a graph which shows the relationship between the width | variety and height of a target object, and the coefficient utilized when calculating a person probability.

以下に本発明にかかる実施の形態を図面と共に説明する。   Embodiments according to the present invention will be described below with reference to the drawings.

[本実施形態の構成]
図1は、本発明が適用されたプリクラッシュセーフティシステム(以下、PCSという。衝突緩和装置。)1の概略構成を示すブロック図である。
[Configuration of this embodiment]
FIG. 1 is a block diagram showing a schematic configuration of a pre-crash safety system (hereinafter referred to as PCS, collision mitigation device) 1 to which the present invention is applied.

PCS1は、例えば、乗用車等の車両に搭載され、当該車両(以下、「自車両」ともいう。)が衝突することを検出し、自車両が衝突する際にその被害を緩和させるシステムである。特に、本実施形態のPCS1においては、歩行者や自転車の乗員等の人物が自車両の車体に直接衝突する際に、この人物への衝撃を緩和する機能も有する。   The PCS 1 is a system that is mounted on a vehicle such as a passenger car, for example, detects that the vehicle (hereinafter also referred to as “own vehicle”) collides, and reduces the damage when the own vehicle collides. In particular, the PCS 1 of the present embodiment also has a function of reducing the impact on a person when a person such as a pedestrian or a bicycle occupant directly collides with the vehicle body of the own vehicle.

具体的には、図1に示すように、PCS1は、衝突緩和コントローラ10と、各種センサ30と、ナビゲーション装置35(道路種別検出手段、環境検出手段)と、被制御対象40(緩和手段)とを備えている。   Specifically, as shown in FIG. 1, the PCS 1 includes a collision mitigation controller 10, various sensors 30, a navigation device 35 (road type detection means, environment detection means), and a controlled object 40 (mitigation means). It has.

各種センサ30としては、例えば、歩行者、路上障害物や他車両等の対象物を、その位置(自車両に対する相対位置)とともに検出するレーダセンサ31(位置検出手段、距離検出手段、パラメータ検出手段)、車両の旋回角速度を検出するヨーレートセンサ32(環境検出手段)、車輪の回転速度を検出する車輪速センサ33(速度検出手段)、車両の前方を撮像するカメラとして構成された画像センサ34(位置検出手段、撮像手段、パラメータ検出手段)等を備えている。これらの各種センサ30による検出結果は、衝突緩和コントローラ10によって取得される。   As the various sensors 30, for example, a radar sensor 31 (position detecting means, distance detecting means, parameter detecting means) that detects an object such as a pedestrian, an obstacle on the road, or another vehicle together with its position (relative position with respect to the host vehicle). ), A yaw rate sensor 32 (environment detection means) for detecting the turning angular velocity of the vehicle, a wheel speed sensor 33 (speed detection means) for detecting the rotational speed of the wheels, and an image sensor 34 (configured as a camera for imaging the front of the vehicle) Position detecting means, imaging means, parameter detecting means) and the like. The detection results by these various sensors 30 are acquired by the collision mitigation controller 10.

なお、レーダセンサ31は、例えば周知のレーザレーダとして構成されており、予め設定された所定の周期(例えば100ms)毎に車両の進行方向に位置する対象物の検出を実施する。この際、レーザセンサ31は、対象物の大きさ(幅および高さ)とともにその形状を検出する。   The radar sensor 31 is configured as a well-known laser radar, for example, and detects an object located in the traveling direction of the vehicle at a predetermined period (for example, 100 ms). At this time, the laser sensor 31 detects the shape of the object together with the size (width and height).

ナビゲーション装置35は、自車両の現在地や自車両の走行環境等を検出し、これらの検出結果に対応する地図画像を図示しない自身の表示部に表示させる周知の機能を備えている。また、ナビゲーション装置35は、衝突緩和コントローラ10等の他の装置からの要求を受けると、要求に応じたデータを要求元の装置に送信する。特に本実施形態においては、衝突緩和コントローラ10から走行環境の要求を受けると、走行環境の情報を衝突緩和コントローラ10に送信する。   The navigation device 35 has a known function of detecting the current location of the host vehicle, the traveling environment of the host vehicle, and the like, and displaying a map image corresponding to these detection results on its own display unit (not shown). When the navigation device 35 receives a request from another device such as the collision mitigation controller 10, the navigation device 35 transmits data corresponding to the request to the requesting device. In particular, in this embodiment, when a travel environment request is received from the collision mitigation controller 10, information on the travel environment is transmitted to the collision mitigation controller 10.

衝突緩和コントローラ10は、CPU11,ROM12,RAM13等を備えた周知のマイクロコンピュータとして構成されている。そして、衝突緩和コントローラ10は、各種センサ30による検出結果等に基づいてROM12に格納されたプログラムを実行することによって、後述する衝突緩和処理等の各種処理を実施する。   The collision mitigation controller 10 is configured as a known microcomputer including a CPU 11, a ROM 12, a RAM 13, and the like. The collision mitigation controller 10 executes various processes such as a collision mitigation process, which will be described later, by executing a program stored in the ROM 12 based on the detection results by the various sensors 30.

衝突緩和コントローラ10は、このような処理を実施し、これらの処理による処理結果に応じて被制御対象40を作動させる。この結果、車両が衝突する際の被害を緩和させることができる。   The collision mitigation controller 10 performs such processing, and activates the controlled object 40 according to the processing results of these processing. As a result, damage caused when the vehicle collides can be reduced.

なお、被制御対象40としては、例えば、ブレーキや、ステアリング、シートベルト、アクティブフード、外部エアバッグ等を駆動するアクチュエータが挙げられる。ただし、アクティブフードとは、例えば車両のボンネットとボンネットの内容物との間に隙間を形成するためにボンネットを持ち上げる装置を示す。   The controlled object 40 includes, for example, an actuator that drives a brake, steering, seat belt, active hood, external airbag, and the like. However, the active hood refers to a device that lifts the hood in order to form a gap between the hood of the vehicle and the contents of the hood, for example.

また、外部エアバッグとは、人物が車両に衝突する際の衝撃を吸収するために車両の外部に向かってエアバッグを膨張させる装置を示す。以下、本実施形態においては、被制御対象40がアクティブフードやエアバッグ等、人物が車両に衝突する際の衝撃を吸収する装置である場合について説明する。   Further, the external airbag refers to a device that inflates the airbag toward the outside of the vehicle in order to absorb an impact when a person collides with the vehicle. Hereinafter, in the present embodiment, a case will be described in which the controlled object 40 is a device that absorbs an impact when a person collides with a vehicle, such as an active hood or an airbag.

[本実施形態の処理]
ここで、被制御対象40を作動させる際の処理である衝突緩和処理について図2、図3(a)、図3(b)および図4(a)を用いて説明する。
[Process of this embodiment]
Here, a collision mitigation process that is a process when the controlled object 40 is operated will be described with reference to FIGS. 2, 3 (a), 3 (b) and 4 (a).

図2は衝突緩和コントローラ10(人物検出装置、作動制御装置)のCPU11が実行する衝突緩和処理を示すフローチャートであり、図3(a)は衝突緩和処理のうちの作動設定処理を示すフローチャートである。また、図3(b)は作動設定処理のうちの人物確率演算処理を示すフローチャートであり、図4(a)は作動設定処理のうちの閾値演算処理を示すフローチャートである。   FIG. 2 is a flowchart showing a collision mitigation process executed by the CPU 11 of the collision mitigation controller 10 (person detection device, operation control device), and FIG. 3A is a flowchart showing an operation setting process in the collision mitigation process. . FIG. 3B is a flowchart showing the person probability calculation process in the action setting process, and FIG. 4A is a flowchart showing the threshold value calculation process in the action setting process.

衝突緩和処理は、例えば、イグニッションスイッチ等の車両の電源がON状態にされると開始され、以後、予め設定された所定周期(例えば約50ms)毎に起動される処理である。具体的には図2に示すように、衝突緩和処理においては、対象物選択処理(S110:画像処理手段)、作動設定処理(S120:作動設定手段)、作動判定処理(S130:衝突演算手段、緩和制御手段)、作動制御処理(S140:緩和制御手段)、を順に実施する。   The collision mitigation process is a process that is started, for example, when a vehicle such as an ignition switch is turned on, and thereafter started every predetermined period (for example, about 50 ms). Specifically, as shown in FIG. 2, in the collision mitigation process, the object selection process (S110: image processing means), the action setting process (S120: action setting means), the action determination process (S130: collision calculation means, The relaxation control unit) and the operation control process (S140: relaxation control unit) are performed in order.

対象物選択処理(S110)では、自車両の進路上に位置する歩行者や路上障害物等の対象物を検出する。なお、この対象物選択処理では、レーダセンサ31による検出結果や画像センサ34による検出結果を取得し、この検出結果に基づいて対象物を特定し、対象物の進路を推定する処理や、対象物との相対速度の演算する処理等を実施する。そして、これらの処理に基づいて、自車両と衝突する可能性がある対象物を選択する。   In the object selection process (S110), an object such as a pedestrian or an obstacle on the road located on the course of the host vehicle is detected. In this object selection process, a detection result obtained by the radar sensor 31 or a detection result obtained by the image sensor 34 is acquired, an object is specified based on the detection result, and a path of the object is estimated. The process of calculating the relative speed with the is executed. And based on these processes, the target object which may collide with the own vehicle is selected.

作動設定処理(S120)では、各種センサ30によって検出された対象物が人物であるか否かを判定し、対象物が人物であると判定するとアクチュエータの作動許可をRAM13に記録する。また、対象物が人物でないと判定すると、アクチュエータの作動不許可をRAM13に記録する。なお、作動設定処理については後に詳述する。   In the operation setting process (S120), it is determined whether or not the object detected by the various sensors 30 is a person. If it is determined that the object is a person, the operation permission of the actuator is recorded in the RAM 13. If it is determined that the object is not a person, the actuator 13 is recorded in the RAM 13 as being not permitted. The operation setting process will be described in detail later.

作動判定処理(S130)では、被制御対象40を作動させるタイミングであるか否かを(被制御対象40が複数の場合はそれぞれ)判定し、被制御対象40を作動させるタイミングであれば作動指令を生成し、RAM13に記録する。より詳細には、対象物選択処理によって推定された対象物の進路、対象物との相対速度等に基づいて、自車両が対象物に衝突するまでの予想時間である衝突時間を演算し、この衝突時間が衝突を回避することができる限界時間未満である場合(つまり、対象物との衝突を回避できない場合)に、被制御対象40を作動させるタイミングであると判断する。   In the operation determination process (S130), it is determined whether or not it is a timing to operate the controlled object 40 (in the case where there are a plurality of controlled objects 40, respectively). Is recorded in the RAM 13. More specifically, based on the course of the target estimated by the target selection process, the relative speed with the target, etc., the collision time, which is the expected time until the host vehicle collides with the target, is calculated. When the collision time is less than the time limit for avoiding the collision (that is, when the collision with the object cannot be avoided), it is determined that it is time to activate the controlled object 40.

続いて、作動制御処理(S140)では、生成された作動指令に基づいて、被制御対象40に対応する作動指令を被制御対象40に対して(被制御対象40が複数の場合にはそれぞれの被制御対象40に対して)送信する。ただし、作動指令を被制御対象40に送信するのは、S120の処理にて、アクチュエータの作動許可がRAM13に記録されている場合に限られ、アクチュエータの作動許可がRAM13に記録されていない場合には、作動指令を被制御対象40に対して送信することはない。   Subsequently, in the operation control process (S140), based on the generated operation command, an operation command corresponding to the controlled object 40 is sent to the controlled object 40 (if there are a plurality of controlled objects 40, each of the controlled commands 40). To the controlled object 40). However, the operation command is transmitted to the controlled object 40 only when the actuator operation permission is recorded in the RAM 13 in the process of S120, and when the actuator operation permission is not recorded in the RAM 13. Does not transmit an operation command to the controlled object 40.

次に、作動設定処理の詳細について説明する。なお、作動設定処理においてS210〜S230の処理は、本発明でいう人物検出手段に相当する。   Next, details of the operation setting process will be described. In the operation setting process, the processes of S210 to S230 correspond to the person detecting means in the present invention.

作動設定処理では、図3(a)に示すように、まず、人物確率演算処理を実施する(S210)。この人物確率演算処理は、図3(b)に示すように、まず、画像センサ34による撮像画像を取得し(S310)、取得した撮像画像中の対象物(の形状)と、予めROM12等のメモリに格納されたパターンマッチング用データである人物テンプレートとを比較する(S320)。   In the operation setting process, as shown in FIG. 3A, first, a person probability calculation process is performed (S210). In this person probability calculation process, as shown in FIG. 3B, first, an image captured by the image sensor 34 is acquired (S310), the object (shape) in the acquired captured image, and the ROM 12 or the like in advance. The person template, which is pattern matching data stored in the memory, is compared (S320).

そして、撮像画像中の対象物と人物テンプレートとの一致度を算出する(S330)。この際には、S110の処理にて取得したレーダセンサ31による検出結果(即ち、対象物までの距離)を利用して、撮像画像中の対象物の大きさを特定することによって、人物とはかけ離れた大きさを有する対象物を人物としては除外する。   Then, the degree of coincidence between the object in the captured image and the person template is calculated (S330). At this time, by using the detection result (that is, the distance to the target object) detected by the radar sensor 31 acquired in the process of S110, the size of the target object in the captured image is specified, and the person is An object having a large size is excluded as a person.

また、この処理にて算出される一致度は、人物である確率が高くなるにつれて大きな数値が設定され、この数値は例えば、0〜1の範囲内の数値に設定される。このようなS330の処理が終了すると、人物確率演算処理を終了する。   The degree of coincidence calculated in this process is set to a larger value as the probability of being a person increases, and this value is set to a value in the range of 0 to 1, for example. When such a process of S330 ends, the person probability calculation process ends.

このような人物確率演算処理が終了すると、図3(a)に戻り、閾値演算処理を実施する(S220)。閾値演算処理は、対象物が人物であると判定する際の閾値を演算する処理である。なお、閾値演算処理においてS430〜S480の処理は、本発明でいう補正手段に相当する。具体的には、図4(a)に示すように、まず、車両の走行環境を取得する(S410:環境取得手段)。   When such person probability calculation processing is completed, the process returns to FIG. 3A, and threshold calculation processing is performed (S220). The threshold value calculation process is a process for calculating a threshold value when determining that the object is a person. In the threshold value calculation process, the processes of S430 to S480 correspond to the correction means in the present invention. Specifically, as shown in FIG. 4A, first, the travel environment of the vehicle is acquired (S410: environment acquisition means).

ここで、走行環境とは、車両が走行している時間帯、曜日、日付、道路種別、道路幅員、昼夜の区別、天候、道路状態、道路線形等の情報が該当する。これらの情報は、ナビゲーション装置35から取得される。なお、この処理にて演算する閾値は、上記走行環境として取得される情報に基づいて設定されればよいが、ここでは説明を簡単にするために、走行環境として道路種別の情報(自動車専用道路であるか否かの情報)および昼夜の区別の情報(現在、昼であるか夜であるかの情報)を取得し、これらの情報に応じて閾値を設定する例について説明する。   Here, the traveling environment corresponds to information such as the time zone in which the vehicle is traveling, day of the week, date, road type, road width, day / night distinction, weather, road condition, road alignment, and the like. These pieces of information are acquired from the navigation device 35. Note that the threshold value calculated in this process may be set based on the information acquired as the travel environment, but here, in order to simplify the description, the road type information (automobile road) is used as the travel environment. Information on whether or not) and day / night distinction information (information on whether it is currently daytime or night) and a threshold value is set according to these information will be described.

なお、道路種別の情報および昼夜の区別の情報に対応する補正値(閾値に乗ずる数値)の情報(対応付けデータ)は、予めROM12に格納されている。   Note that information (association data) of correction values (numerical values multiplied by a threshold value) corresponding to road type information and day / night distinction information is stored in the ROM 12 in advance.

S410の処理が終了すると、閾値を初期値として0.5に設定し、RAM13に記録する(S420)。そして、道路種別が自動車専用道路であるか否かを判定する(S430)。   When the processing of S410 ends, the threshold value is set to 0.5 as an initial value and recorded in the RAM 13 (S420). Then, it is determined whether or not the road type is an automobile-only road (S430).

自動車専用道路であれば(S430:YES)、RAM13に記録された閾値を1.5倍し、RAM13に上書き記録する(S440)。また、自動車専用道路でなければ(S430:NO)、RAM13に記録された閾値を0.8倍し、RAM13に上書きする(S450)。   If it is an automobile-only road (S430: YES), the threshold value recorded in the RAM 13 is multiplied by 1.5 and overwritten and recorded in the RAM 13 (S440). If the road is not an automobile-only road (S430: NO), the threshold value recorded in the RAM 13 is multiplied by 0.8 and overwritten in the RAM 13 (S450).

続いて、昼夜の区別を判定する(S460)。現在、昼であれば(S460:YES)、RAM13に記録された閾値を0.8倍し、RAM13に上書きし(S470)、閾値演算処理を終了する。また、夜であれば(S460:NO)、RAM13に記録された閾値を1.2倍し、RAM13に上書きし(S480)、閾値演算処理を終了する。   Subsequently, the distinction between day and night is determined (S460). If it is currently daytime (S460: YES), the threshold value recorded in the RAM 13 is multiplied by 0.8, overwritten in the RAM 13 (S470), and the threshold value calculation process is terminated. If it is night (S460: NO), the threshold value recorded in the RAM 13 is multiplied by 1.2 and overwritten in the RAM 13 (S480), and the threshold value calculation process is terminated.

このような閾値演算処理が終了すると、図3(a)に戻り、人物確率演算処理(S210:人物確率演算手段)にて演算した人物確率と閾値演算処理(S220)にて演算した閾値とを比較する(S230:人物判定手段)。人物確率が閾値以上であれば(S230:YES)、アクチュエータ(被制御対象40)の作動許可をRAM13に記録し(S240:作動制御手段)、作動設定処理を終了する。   When such a threshold calculation process is completed, the process returns to FIG. 3A, and the person probability calculated in the person probability calculation process (S210: person probability calculation means) and the threshold calculated in the threshold calculation process (S220) are obtained. Compare (S230: person determination means). If the person probability is equal to or higher than the threshold (S230: YES), the operation permission of the actuator (controlled object 40) is recorded in the RAM 13 (S240: operation control means), and the operation setting process is terminated.

また、人物確率が閾値未満であれば(S230:NO)、アクチュエータの作動不許可をRAM13に記録し(S250:作動制御手段)、作動設定処理を終了する。   If the person probability is less than the threshold value (S230: NO), the actuator operation disapproval is recorded in the RAM 13 (S250: operation control means), and the operation setting process is terminated.

ここで、閾値演算処理において設定される閾値は、図4(b)に示すように、人対車両昼夜別事故件数に基づいて設定(補正)されている。即ち、昼または夜の区別が昼の場合に、歩行者等の人物が道路上に存在する確率が高い時間帯であるものとして、対象物が人物であると判定されやすくなるように、閾値を低く設定している。また、自動車専用道路は車両に乗車しない人物の侵入が禁止されているので、人物が存在する確率は低いものと推定し、対象物が人物であると判定されにくくなるようにしている。   Here, as shown in FIG. 4B, the threshold value set in the threshold value calculation process is set (corrected) on the basis of the number of accidents according to person-to-vehicle day and night. That is, when the distinction between daytime and nighttime is daytime, the threshold value is set so that it is easy to determine that the object is a person, assuming that a person such as a pedestrian is present on the road. It is set low. Moreover, since the invasion of a person who does not get on the vehicle is prohibited on the automobile exclusive road, it is estimated that the probability that the person exists is low, so that it is difficult to determine that the object is a person.

[本実施形態の効果]
以上のように詳述したPCS1において、衝突緩和コントローラ10のCPU11は、衝突緩和処理にて、車両が対象物に衝突するまでの予想時間である衝突時間を演算する。そして、対象物が人物であるか否かを判定し、この判定結果に応じて、当該車両と人物とが衝突する際の衝撃を緩和する被制御対象40の作動を許可するか否かを設定する。そして、CPU11は、被制御対象40の作動が許可され、かつ衝突時間が衝突を回避することができる限界時間未満である場合に、被制御対象40を作動させる。
[Effect of this embodiment]
In the PCS 1 described in detail above, the CPU 11 of the collision mitigation controller 10 calculates a collision time, which is an expected time until the vehicle collides with an object, in the collision mitigation process. Then, it is determined whether or not the object is a person, and according to the determination result, it is set whether or not the operation of the controlled object 40 that relieves the impact when the vehicle and the person collide is permitted. To do. Then, the CPU 11 operates the controlled object 40 when the operation of the controlled object 40 is permitted and the collision time is less than the limit time that can avoid the collision.

ここで、被制御対象40の作動を許可するか否かの処理は、車両が衝突する虞がある対象物が人物であることを検出し、対象物が人物であることが検出された場合に被制御対象40の作動を許可し、対象物が人物であることが検出されなかった場合に被制御対象40の作動を禁止することによって行う。   Here, the process of determining whether or not to permit the operation of the controlled object 40 is performed when it is detected that the object that the vehicle may collide with is a person and the object is detected as a person. The operation of the controlled object 40 is permitted, and the operation of the controlled object 40 is prohibited when it is not detected that the object is a person.

特に、対象物が人物であることを検出する際には、CPU11は、レーダセンサ31や画像センサ34から取得したパラメータ検出結果と人物に関する比較用パラメータとが一致する度合いに応じて、対象物が人物である確率を表す人物確率を演算する。そして、CPU11は、人物確率が予め設定された人物閾値以上である場合に対象物が人物であると判定する。また、CPU11は、パラメータの検出環境を検出するヨーレートセンサ32,ナビゲーション装置35による検出結果を取得し、各検出環境と人物の存在確率または存在確率に基づく補正値とを対応付けた対応付けデータを参照することによって、検出した検出環境に対応する存在確率または補正値を選択し、選択した存在確率または補正値を利用して、人物確率または人物閾値を補正する。ただし、この補正の際には、人物の存在確率が高くなるにつれて対象物が人物であると判定されやすくなるようにしている。   In particular, when detecting that the object is a person, the CPU 11 determines whether the object is in accordance with the degree to which the parameter detection result acquired from the radar sensor 31 or the image sensor 34 matches the comparison parameter related to the person. A person probability representing the probability of being a person is calculated. Then, the CPU 11 determines that the object is a person when the person probability is equal to or higher than a preset person threshold. Further, the CPU 11 acquires detection results by the yaw rate sensor 32 and the navigation device 35 that detect the parameter detection environment, and associates association data in which each detection environment is associated with a person's existence probability or a correction value based on the existence probability. By referencing, the existence probability or the correction value corresponding to the detected detection environment is selected, and the person probability or the person threshold value is corrected using the selected existence probability or the correction value. However, at the time of this correction, the object is easily determined to be a person as the existence probability of the person increases.

従って、このようなPCS1によれば、対象物を検出する際の環境(検出環境)において歩行者等の人物が存在する可能性が高いか低いか(存在確率)を考慮して、人物確率または人物閾値を補正することができる。よって、検出環境対象物が人物であるか否かを精度よく識別することができる。また、人物との衝突が避けられない場合のみに被制御対象40を作動させることができる。   Therefore, according to such PCS1, in consideration of whether there is a high or low possibility (existence probability) of a person such as a pedestrian in an environment (detection environment) when detecting an object, The person threshold value can be corrected. Therefore, it can be accurately identified whether or not the detection environment object is a person. Further, the controlled object 40 can be operated only when a collision with a person is unavoidable.

また、PCS1において、CPU11は、対象物として当該車両の進行方向に位置する物体に関するパラメータを検出するレーダセンサ31や画像センサ34による検出結果に基づいて人物確率を演算し、さらに当該車両の走行環境を検出するヨーレートセンサ32,ナビゲーション装置35による検出結果を取得し、取得した走行環境に対応する補正値を選択し、該選択した値を利用して閾値の補正を行う。   Further, in the PCS 1, the CPU 11 calculates a person probability based on a detection result by the radar sensor 31 or the image sensor 34 that detects a parameter related to an object positioned in the traveling direction of the vehicle as an object, and further, the traveling environment of the vehicle The detection result by the yaw rate sensor 32 and the navigation device 35 for detecting the vehicle is acquired, the correction value corresponding to the acquired traveling environment is selected, and the threshold value is corrected using the selected value.

このようなPCS1によれば、通常の車両に搭載されたヨーレートセンサ32,ナビゲーション装置35を利用して走行環境を容易に検出することができるので、車両の進行方向に人物が存在する確率についても容易に特定することができる。   According to such PCS1, since the traveling environment can be easily detected using the yaw rate sensor 32 and the navigation device 35 mounted on a normal vehicle, the probability that a person exists in the traveling direction of the vehicle is also improved. Can be easily identified.

さらに、CPU11は、取得した走行環境に類似する環境において過去に発生した人対車両の事故の多さに対応する補正値に基づいて閾値を補正する。即ち、現在の走行環境が過去に人対車両の事故が多く発生している走行環境であれば、当該車両の走行環境にて人物が存在する確率が高いと判定する。   Further, the CPU 11 corrects the threshold value based on a correction value corresponding to the number of accidents of a person-to-vehicle that has occurred in the past in an environment similar to the acquired traveling environment. In other words, if the current driving environment is a driving environment in which many accidents of people versus vehicles have occurred in the past, it is determined that the probability that a person exists in the driving environment of the vehicle is high.

このようなPCS1によれば、過去の事故の多さ(事故数や事故頻度等のパラメータ)に応じて人物が存在する確率を選択するので、該選択された値に応じて人物確率または人物閾値を的確に補正することができる。   According to such PCS1, since the probability that a person exists is selected according to the number of accidents in the past (parameters such as the number of accidents and accident frequency), the person probability or the person threshold value is selected according to the selected value. Can be corrected accurately.

また、PCS1においてCPU11は、当該車両が走行している道路種別を検出するナビゲーション装置35による検出結果を取得し、道路種別が自動車専用道路である場合の補正値は、道路種別が自動車専用道路でない場合の補正値よりも、衝突緩和コントローラ10のCPU11は、対象物が人物であると判定されにくくなるような値に設定されている。   Further, in the PCS 1, the CPU 11 acquires the detection result by the navigation device 35 that detects the road type on which the vehicle is traveling, and the correction value when the road type is an automobile-only road is the road type is not an automobile-only road. The CPU 11 of the collision mitigation controller 10 is set to a value that makes it difficult to determine that the object is a person rather than the correction value in this case.

このような衝突緩和コントローラ10によれば、特に、人物が存在するはずがない自動車専用道路では、対象物を人物として検出しにくくすることができるので、自動車専用道路において人物以外の対象物を誤って人物として検出する誤検出を防止することができる。   According to such a collision mitigation controller 10, it is possible to make it difficult to detect an object as a person, particularly on an automobile-only road where a person should not exist. Thus, it is possible to prevent erroneous detection that is detected as a person.

さらに、CPU11は、対象物が存在する対象領域を撮像する画像センサ34による撮像画像を画像処理することによって対象物の形状を検出する手法と、レーダセンサ31によって対象物までの距離を検出する手法とを併用し、各検出結果に基づいて、人物確率を演算する。   Furthermore, the CPU 11 detects a shape of the target object by performing image processing on an image captured by the image sensor 34 that captures a target area where the target object exists, and detects a distance to the target object using the radar sensor 31. And the probability of person is calculated based on each detection result.

このような衝突緩和コントローラ10によれば、対象物までの距離を検出することができるので、この距離に基づいて撮像画像中の人物の大きさを推定することができる。よって、人物の検出精度を向上させることができる。   According to the collision mitigation controller 10 as described above, the distance to the object can be detected, and the size of the person in the captured image can be estimated based on this distance. Therefore, the detection accuracy of a person can be improved.

[その他の実施形態の構成]
本発明の実施の形態は、上記の実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態を採りうる。
[Configuration of Other Embodiments]
Embodiments of the present invention are not limited to the above-described embodiments, and can take various forms as long as they belong to the technical scope of the present invention.

例えば、上記実施形態において、人物確率演算処理は、主に画像センサ34による撮像画像を利用する画像処理としたが、レーダセンサ31のみからなる処理としてもよい。この場合には、レーダセンサ31によって検出可能な対象物の幅および高さに着目する。   For example, in the above-described embodiment, the human probability calculation process is an image process mainly using a captured image by the image sensor 34, but may be a process including only the radar sensor 31. In this case, attention is paid to the width and height of the object that can be detected by the radar sensor 31.

ここで、図5は、対象物の幅および高さと、人物確率を演算する際に利用する係数との関係を示すグラフである。レーダセンサ31が対象物を人物であると判定する際には、例えば、図5に示すように、対象物の幅が0.5m、かつ対象物の高さが1.0m〜1.8mの範囲内の物体が、最も人物である確率(ここでは係数)が高いものする。そして、これらの範囲内から外れるにしたがって、徐々に人物である確率が低いものとする。   Here, FIG. 5 is a graph showing the relationship between the width and height of the object and the coefficient used when calculating the human probability. When the radar sensor 31 determines that the object is a person, for example, as shown in FIG. 5, the width of the object is 0.5 m, and the height of the object is 1.0 m to 1.8 m. It is assumed that an object within the range has the highest probability (here, coefficient) that it is the person. Then, it is assumed that the probability of being a person gradually decreases as the value falls outside these ranges.

人物確率は、対象物の幅によって得られる幅係数(図5(a)参照)と対象物の高さによって得られる高さ係数(図5(b)参照)とにそれぞれ定数(例えば0.5)を乗じたものを足し合わせることによって得られる。このようにしても、人物確率を演算することができる。   The human probability is a constant (for example, 0.5%) for each of the width coefficient obtained by the width of the object (see FIG. 5A) and the height coefficient obtained by the height of the object (see FIG. 5B). ) Is added to the product. Even in this way, the person probability can be calculated.

なお、レーダセンサ31を利用した人物確率演算処理と、前述の画像処理を利用した人物確率演算処理とを併用するようにしてもよい。この場合には、それぞれの処理にて演算された人物確率に所定の係数を乗じて(例えばそれぞれ0.5ずつ乗じて)、これらを足し合わせるようにすればよい。   It should be noted that the human probability calculation process using the radar sensor 31 and the human probability calculation process using the image processing described above may be used in combination. In this case, the person probabilities calculated in the respective processes may be multiplied by a predetermined coefficient (for example, multiplied by 0.5 each) and added together.

また、人物確率は、対象物を人物として検出している継続時間や、異なる複数の手法で人物を検出する際において複数の手法で人物を検出できているか否か等の条件によって、補正するようにしてもよい。さらに、上記実施形態においては、走行環境に応じて閾値を補正するようにしたが、閾値をそのままの値にして、閾値と比較される値である人物確率を補正するようにしてもよい。   In addition, the person probability is corrected by conditions such as the duration of detecting the object as a person and whether or not a person can be detected by a plurality of methods when detecting a person by a plurality of different methods. It may be. Furthermore, in the above embodiment, the threshold value is corrected according to the driving environment. However, the threshold value may be left as it is, and the person probability that is a value compared with the threshold value may be corrected.

さらに、上記実施形態においては、走行環境と人物の存在確率に応じた補正値とを対応させてROMに記録させ、走行環境に応じた補正値を選択するよう構成したが、人物等の対象物を検出する際の検出環境と、人物の存在確率またはこの存在確率に基づく値とを対応させてROMに記録させていてもよい。この場合には、存在確率等に基づいて補正値を演算するようにすればよく、存在確率に応じて連続的に閾値が変化されることになる。   Further, in the above embodiment, the driving environment and the correction value according to the existence probability of the person are associated with each other and recorded in the ROM, and the correction value according to the driving environment is selected. It is also possible to record in the ROM the detection environment at the time of detecting and the presence probability of a person or a value based on the presence probability in association with each other. In this case, the correction value may be calculated based on the existence probability, and the threshold value is continuously changed according to the existence probability.

1…PCS、10…衝突緩和コントローラ、11…CPU、12…ROM、13…RAM、31…レーダセンサ、32…ヨーレートセンサ、33…車輪速センサ、34…画像センサ、35…ナビゲーション装置、40…被制御対象。   DESCRIPTION OF SYMBOLS 1 ... PCS, 10 ... Collision mitigation controller, 11 ... CPU, 12 ... ROM, 13 ... RAM, 31 ... Radar sensor, 32 ... Yaw rate sensor, 33 ... Wheel speed sensor, 34 ... Image sensor, 35 ... Navigation apparatus, 40 ... Controlled object.

Claims (7)

検出された対象物が人物であることを検出する人物検出装置であって、
少なくとも対象物の外観に関するパラメータを検出するパラメータ検出手段による検出結果を取得し、該パラメータ検出結果と人物に関する比較用パラメータとが一致する度合いに応じて、前記対象物が人物である確率を表す人物確率を演算する人物確率演算手段と、
前記人物確率が予め設定された人物閾値以上である場合に前記対象物が人物であると判定する人物判定手段と、
を備え、
前記人物確率演算手段は、
対象物が存在する対象領域を撮像する撮像手段による撮像画像を画像処理することによって対象物の形状を検出する画像処理手段と、
前記対象領域に向けて送信波を出力し、該送信波が対象物によって反射された反射波を検出することによって前記対象物までの距離を検出する距離検出手段と、
による検出結果をそれぞれ取得し、前記距離検出手段による検出結果に基づいて前記撮像画像中の対象物の大きさを特定し、該対象物の幅が予め設定された幅基準値から外れるに従って、或いは該対象物の高さが予め設定された高さ基準値から外れるに従って、徐々に人物確率を低く設定することで、前記人物確率を演算すること
を特徴とする人物検出装置。
A person detection device for detecting that a detected object is a person,
A person representing the probability that the object is a person according to the degree to which the parameter detection result and the comparison parameter related to the person match at least a detection result obtained by a parameter detection unit that detects a parameter related to the appearance of the object A human probability calculating means for calculating a probability;
Person determination means for determining that the object is a person when the person probability is equal to or higher than a preset person threshold;
With
The person probability calculating means includes
Image processing means for detecting the shape of the object by image processing a captured image by an imaging means for imaging a target area where the object exists
Distance detection means for detecting a distance to the object by outputting a transmission wave toward the target area and detecting a reflected wave reflected by the object;
Respectively, and the size of the object in the captured image is specified based on the detection result by the distance detection unit, and the width of the object deviates from a preset width reference value, or A person detection apparatus, wherein the person probability is calculated by gradually setting the person probability lower as the height of the object deviates from a preset height reference value.
請求項1に記載の人物検出装置において、
前記人物確率演算手段は、前記撮像画像中において人物とはかけ離れた大きさである対象物を人物としては除外すること
を特徴とする人物検出装置。
The person detection device according to claim 1,
The person probability calculating means excludes an object having a size far from a person in the captured image as a person.
請求項1または請求項2に記載の人物検出装置において、
前記人物確率演算手段は、前記高さ基準値として予め設定された上限値および下限値で規定される範囲を有する値を利用すること
を特徴とする人物検出装置。
In the person detection device according to claim 1 or 2,
The person probability calculating means uses a value having a range defined by a preset upper limit value and lower limit value as the height reference value.
請求項3に記載の人物検出装置において、
前記人物確率演算手段は、前記幅基準値として0.5mを利用し、前記高さ基準値の上限値として1.8m、下限値として1.0mを利用すること
を特徴とする人物検出装置。
The person detecting device according to claim 3,
The person probability calculating means uses 0.5 m as the width reference value, uses 1.8 m as an upper limit value of the height reference value, and 1.0 m as a lower limit value.
請求項1〜請求項4の何れか1項に記載の人物検出装置を構成する各手段としての機能をコンピュータにて実行するための人物検出プログラム。   The person detection program for performing the function as each means which comprises the person detection apparatus of any one of Claims 1-4 in a computer. 車両に搭載され、当該車両が人物と衝突する際の衝撃を緩和する緩和手段の作動を制御する作動制御装置であって、
当該車両が衝突する虞がある対象物が人物であることを検出する人物検出手段と、
前記人物検出手段により対象物が人物であることが検出された場合に前記緩和手段の作動を許可し、前記人物検出手段により対象物が人物であることが検出されなかった場合に前記緩和手段の作動を禁止する作動制御手段と、
を備え、
前記人物検出手段は請求項1〜請求項4の何れか1項に記載の人物検出装置として構成されていること
を特徴とする作動制御装置。
An operation control device that controls the operation of a mitigation means that is mounted on a vehicle and relieves an impact when the vehicle collides with a person,
A person detection means for detecting that the object that the vehicle may collide with is a person;
When the person detection means detects that the object is a person, the operation of the mitigation means is permitted, and when the person detection means does not detect that the object is a person, the mitigation means An operation control means for prohibiting the operation;
With
The said person detection means is comprised as a person detection apparatus of any one of Claims 1-4, The operation control apparatus characterized by these.
車両に搭載され、当該車両が人物と衝突する際の衝撃を緩和する衝突緩和装置であって、
少なくとも当該車両の進行方向に存在する対象物の位置を検出する位置検出手段による検出結果、および当該車両の走行速度を検出する速度検出手段による検出結果を取得し、該各検出結果に基づいて、当該車両が前記対象物に衝突するまでの予想時間である衝突時間を演算する衝突演算手段と、
前記対象物が人物であるか否かを判定し、該判定結果に応じて、当該車両と人物とが衝突する際の衝撃を緩和する緩和手段の作動を許可するか否かを設定する作動設定手段と、
前記作動設定手段によって前記緩和手段の作動が許可され、かつ前記衝突時間が衝突を回避することができる限界時間未満である場合に、前記緩和手段を作動させる緩和制御手段と、
を備え、
前記作動設定手段は、請求項6に記載の作動制御装置として構成されていること
を特徴とする衝突緩和装置。
A collision mitigation device that is mounted on a vehicle and relieves an impact when the vehicle collides with a person,
Obtain at least the detection result by the position detection means for detecting the position of the object existing in the traveling direction of the vehicle and the detection result by the speed detection means for detecting the traveling speed of the vehicle, and based on the respective detection results, Collision calculation means for calculating a collision time which is an expected time until the vehicle collides with the object;
Operation setting for determining whether or not the object is a person, and setting whether to permit the operation of the mitigation means for reducing the impact when the vehicle and the person collide according to the determination result Means,
A mitigation control means for actuating the mitigation means when the operation setting means permits the mitigation means to operate and the collision time is less than a limit time that can avoid a collision;
With
The said action setting means is comprised as an action control apparatus of Claim 6, The collision mitigation apparatus characterized by the above-mentioned.
JP2011022643A 2011-02-04 2011-02-04 Person detection apparatus, person detection program, activation controller, and crash absorption apparatus Pending JP2011146049A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011022643A JP2011146049A (en) 2011-02-04 2011-02-04 Person detection apparatus, person detection program, activation controller, and crash absorption apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011022643A JP2011146049A (en) 2011-02-04 2011-02-04 Person detection apparatus, person detection program, activation controller, and crash absorption apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008230031A Division JP4683096B2 (en) 2008-09-08 2008-09-08 Person detection device, person detection program, operation control device, and collision mitigation device

Publications (1)

Publication Number Publication Date
JP2011146049A true JP2011146049A (en) 2011-07-28

Family

ID=44460801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011022643A Pending JP2011146049A (en) 2011-02-04 2011-02-04 Person detection apparatus, person detection program, activation controller, and crash absorption apparatus

Country Status (1)

Country Link
JP (1) JP2011146049A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014141127A (en) * 2013-01-22 2014-08-07 Denso Corp Collision injury prediction system
JP2014197353A (en) * 2013-03-29 2014-10-16 株式会社メガチップス Image detection device, control program and image detection method
WO2017047085A1 (en) * 2015-09-16 2017-03-23 日本電気株式会社 Operation control device, operation control method, and storage medium
JP2019500632A (en) * 2015-09-08 2019-01-10 ブラウン ゲーエムベーハー Determining the user's currently treated body part
US10474910B2 (en) 2015-03-10 2019-11-12 Jvckenwood Corporation Warning device, warning method, and warning program
US10702206B2 (en) 2015-06-29 2020-07-07 Braun Gmbh Toothbrush for oral cavity position detection
US10713809B2 (en) 2016-02-16 2020-07-14 Braun Gmbh Interactive system setup concept
CN111915852A (en) * 2020-05-29 2020-11-10 济南浪潮高新科技投资发展有限公司 Vehicle scratch alarm system, method, equipment and medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209787A (en) * 2001-01-19 2002-07-30 Inax Corp Stand for placing washbowl
JP2002296489A (en) * 2001-03-29 2002-10-09 Minolta Co Ltd Person detector and photographing device provided with the same
JP2005202878A (en) * 2004-01-19 2005-07-28 Toyota Motor Corp Object detector
JP2006338594A (en) * 2005-06-06 2006-12-14 Toyota Motor Corp Pedestrian recognition system
JP2007112213A (en) * 2005-10-18 2007-05-10 Toyota Motor Corp Pedestrian determining device
JP2008074301A (en) * 2006-09-22 2008-04-03 Toyota Motor Corp Vehicular movable bumper device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209787A (en) * 2001-01-19 2002-07-30 Inax Corp Stand for placing washbowl
JP2002296489A (en) * 2001-03-29 2002-10-09 Minolta Co Ltd Person detector and photographing device provided with the same
JP2005202878A (en) * 2004-01-19 2005-07-28 Toyota Motor Corp Object detector
JP2006338594A (en) * 2005-06-06 2006-12-14 Toyota Motor Corp Pedestrian recognition system
JP2007112213A (en) * 2005-10-18 2007-05-10 Toyota Motor Corp Pedestrian determining device
JP2008074301A (en) * 2006-09-22 2008-04-03 Toyota Motor Corp Vehicular movable bumper device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014141127A (en) * 2013-01-22 2014-08-07 Denso Corp Collision injury prediction system
JP2014197353A (en) * 2013-03-29 2014-10-16 株式会社メガチップス Image detection device, control program and image detection method
US11423664B2 (en) 2015-03-10 2022-08-23 Jvckenwood Corporation Warning device, warning method, and warning program
US11749112B2 (en) 2015-03-10 2023-09-05 Jvckenwood Corporation Warning device, warning method, and warning program
US10474910B2 (en) 2015-03-10 2019-11-12 Jvckenwood Corporation Warning device, warning method, and warning program
EP4187524A1 (en) 2015-03-10 2023-05-31 JVC Kenwood Corporation Alert device, alert method, and alert program
US10702206B2 (en) 2015-06-29 2020-07-07 Braun Gmbh Toothbrush for oral cavity position detection
JP2019500632A (en) * 2015-09-08 2019-01-10 ブラウン ゲーエムベーハー Determining the user's currently treated body part
US10702191B2 (en) 2015-09-08 2020-07-07 Braun Gmbh Determination of a currently treated body portion of a user
JPWO2017047085A1 (en) * 2015-09-16 2018-07-05 日本電気株式会社 Operation control device, operation control method, and program
US10921757B2 (en) 2015-09-16 2021-02-16 Nec Corporation Operation control device, operation control method, and storage medium
WO2017047085A1 (en) * 2015-09-16 2017-03-23 日本電気株式会社 Operation control device, operation control method, and storage medium
US10713809B2 (en) 2016-02-16 2020-07-14 Braun Gmbh Interactive system setup concept
CN111915852A (en) * 2020-05-29 2020-11-10 济南浪潮高新科技投资发展有限公司 Vehicle scratch alarm system, method, equipment and medium

Similar Documents

Publication Publication Date Title
JP4683096B2 (en) Person detection device, person detection program, operation control device, and collision mitigation device
EP3581451B1 (en) Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control
JP2011146049A (en) Person detection apparatus, person detection program, activation controller, and crash absorption apparatus
US10407060B2 (en) Driver assistance apparatus and method for operating the same
JP6190758B2 (en) Object recognition device and vehicle
US10479353B2 (en) Vehicle surrounding situation estimation device
JP6136714B2 (en) Vehicle control device
US9460627B2 (en) Collision determination device and collision mitigation device
EP2803546B1 (en) Collision mitigation apparatus
JP6837708B2 (en) Collision avoidance device
US20170080929A1 (en) Movement-assisting device
CN108602494B (en) Vehicle control device and vehicle control method
JP2008308024A (en) Collision reducing device
WO2017033425A1 (en) Vehicle control device
US20190061750A1 (en) Collision mitigation control device
JP5083172B2 (en) Collision prediction device
JP2009294753A (en) Image processor and image processing method
US9290172B2 (en) Collision mitigation device
JP4696792B2 (en) Car alarm system
US9533643B2 (en) Apparatus and method for vehicle occupant protection in roadway departure
JP6198019B2 (en) Vehicle control device
CN108275148A (en) Device and method for alleviating pedestrian impact
JP5077183B2 (en) Collision prevention device
JP2008279863A (en) Collision damping device
KR102339172B1 (en) Apparatus for operating air-bag of vehicle and control method thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121023