JP2007293487A - Periphery monitoring method for vehicle, vehicle, periphery monitoring method for vehicle and periphery monitoring program for vehicle - Google Patents

Periphery monitoring method for vehicle, vehicle, periphery monitoring method for vehicle and periphery monitoring program for vehicle Download PDF

Info

Publication number
JP2007293487A
JP2007293487A JP2006118998A JP2006118998A JP2007293487A JP 2007293487 A JP2007293487 A JP 2007293487A JP 2006118998 A JP2006118998 A JP 2006118998A JP 2006118998 A JP2006118998 A JP 2006118998A JP 2007293487 A JP2007293487 A JP 2007293487A
Authority
JP
Japan
Prior art keywords
vehicle
determination
speed component
avoidance target
relative position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006118998A
Other languages
Japanese (ja)
Other versions
JP2007293487A5 (en
JP4823753B2 (en
Inventor
Makoto Aimura
誠 相村
Hiroshi Hattori
弘 服部
Akio Takahashi
昭夫 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006118998A priority Critical patent/JP4823753B2/en
Publication of JP2007293487A publication Critical patent/JP2007293487A/en
Publication of JP2007293487A5 publication Critical patent/JP2007293487A5/ja
Application granted granted Critical
Publication of JP4823753B2 publication Critical patent/JP4823753B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide the periphery monitoring device of a vehicle for establishing a status in which the contact of an object such as a pedestrian to a vehicle is avoidable as quickly as possible under such circumstances that the object intends to cross in front of the vehicle. <P>SOLUTION: The periphery monitoring method of a vehicle comprises: a speed component judging means (STEP 16) for successively judging whether a relative speed to a vehicle 10 of an object detected in front of a vehicle 10 has the speed components of a vehicle width direction, that is, lateral speed components whose scale is a prescribed positive lower limit value or less; and avoidance object judging means (STEP 16 to 20) for selecting a judgement algorithm (STEP 19 or 20) for judging whether the object is an avoidance object whose contact to the vehicle 10 should be avoided according to at least the judgement result of the speed component judging means, and for executing the selected judgment algorithm to judge whether the object is the avoidance object (STEP 19 or 20). <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像装置などにより車両の周辺に存在する対象物を監視する装置および方法に関する。さらに、その装置を搭載した車両と、その装置の処理をコンピュータに実行させるためのプログラムに関する。   The present invention relates to an apparatus and a method for monitoring an object existing around a vehicle using an imaging device or the like. Furthermore, the present invention relates to a vehicle on which the device is mounted, and a program for causing a computer to execute processing of the device.

この種の装置としては、例えば特許文献1に見られるものが本願出願人により提案されている。   As this type of device, for example, the one shown in Patent Document 1 has been proposed by the present applicant.

この技術では、2台の赤外線カメラにより車両の前方を撮像して、その撮像画像から、歩行者、車両などの対象物を検出する。そして、2台の赤外線カメラの撮像画像における対象物の視差などに基づいて、車両に対する対象物の相対位置(実空間位置)を逐次検出し、その相対位置の、ある時間間隔(相対位置の検出周期よりも長い時間間隔)における時系列を基に、対象物の車両に対する相対的な移動方向を表す移動ベクトルを求める。そして、この移動ベクトルの算出後、その移動ベクトルが表す対象物の移動方向に関する判定などを含む判定処理によって、対象物が、運転者に対する警報の対象とすべき警報対象(車両との接触を回避すべき対象)であるか否かを判定する。さらに、対象物が警報対象であると判定した場合には、車両のブレーキ操作などの状態を基に、実際の警報を発するか否かの判定を行い、警報を発すべきと判定した場合には、スピーカや画像による警報を車両の運転者に対し行うようにしている。これにより、車両の運転者に、警報対象の対象物に対する注意を喚起し、該対象物と車両との接触を回避するための処置を運転者が実行し得るようにしている。
特開2001−6096号公報
In this technique, the front of a vehicle is imaged by two infrared cameras, and an object such as a pedestrian or a vehicle is detected from the captured image. Then, based on the parallax of the object in the captured images of the two infrared cameras, the relative position (real space position) of the object with respect to the vehicle is sequentially detected, and a certain time interval (detection of the relative position) of the relative position. A movement vector representing a relative movement direction of the object with respect to the vehicle is obtained based on a time series in a time interval longer than the period. Then, after the calculation of the movement vector, a determination process including determination regarding the movement direction of the object represented by the movement vector, the object is to be an alarm object (avoids contact with the vehicle) that should be an alarm object for the driver. It is determined whether it is a target to be). Furthermore, when it is determined that the object is an alarm target, it is determined whether or not an actual alarm is to be issued based on the state of the brake operation of the vehicle. The vehicle driver is alerted by a speaker or an image. Accordingly, the driver of the vehicle is alerted to the object to be alarmed, and the driver can execute a measure for avoiding contact between the object and the vehicle.
JP 2001-6096 A

前記特許文献1に見られる技術では、前記移動ベクトルを対象物の相対位置の時系列を基に算出しているので、該移動ベクトルは、対象物の車両に対する相対的な移動方向を表すものとしての信頼性は高い。   In the technique found in Patent Document 1, the movement vector is calculated based on the time series of the relative position of the object, so that the movement vector represents the relative movement direction of the object with respect to the vehicle. Is highly reliable.

一方、歩行者や動物等の対象物が車両の前方を横断しようとしているときには、迅速に該対象物の存在を車両の運転者に認識させたりして、該対象物と車両との接触を回避し得る状態を確立することが望ましい。特に、歩行者が車両の前方に飛び出すような横断をしようとしているときには、対象物と車両との接触を回避し得る状態をできるだけ早急に確立することが望まれる。   On the other hand, when an object such as a pedestrian or an animal is about to cross the front of the vehicle, the presence of the object is quickly recognized by the driver of the vehicle to avoid contact between the object and the vehicle. It is desirable to establish a possible state. In particular, when a pedestrian is trying to cross the vehicle so as to jump out in front of the vehicle, it is desirable to establish as soon as possible a state in which contact between the object and the vehicle can be avoided.

しかるに、前記特許文献1に見られる技術では、前記移動ベクトルを算出するために時間を要する。そして、前記特許文献1のものでは、前記対象物が警報対象であるか否かを判定する処理において、この移動ベクトルが表す対象物の移動方向に関する判定を行なうため、その判定結果が得られるまでに時間を要する。このため、特に、歩行者の急な飛び出しが行なわれたような場合に、より迅速に、対象物が車両との接触を回避すべき対象であるのか否かを判定し得る技術が望まれていた。   However, in the technique found in Patent Document 1, it takes time to calculate the movement vector. And in the thing of the said patent document 1, in the process which determines whether the said target object is a warning target, in order to perform the determination regarding the moving direction of the target object which this movement vector represents, until the determination result is obtained Takes time. For this reason, in particular, when a pedestrian suddenly jumps out, there is a demand for a technique that can more quickly determine whether an object is a target that should avoid contact with a vehicle. It was.

本発明はかかる背景に鑑みてなされたものであり、歩行者などの対象物が車両の前方を横断しようとしているような状況で、該対象物と車両との接触を回避し得る状態をできるだけ迅速に確立することが可能な車両の周辺監視装置および周辺監視方法、並びに車両を提供することを目的とする。さらに、該周辺監視装置の処理をコンピュータに実行させる車両の周辺監視用プログラムに関する。   The present invention has been made in view of such a background, and in a situation where an object such as a pedestrian is about to cross the front of the vehicle, a state in which contact between the object and the vehicle can be avoided as quickly as possible. It is an object of the present invention to provide a vehicle periphery monitoring device, a periphery monitoring method, and a vehicle that can be established. Furthermore, the present invention relates to a vehicle periphery monitoring program that causes a computer to execute the processing of the periphery monitoring device.

本発明の車両の周辺監視装置は、かかる目的を達成するために、少なくとも車両の前方側に存在する対象物を検出する対象物検出手段と、前記検出された対象物が前記車両との接触を回避すべき回避対象であるか否かを判定する回避対象判定手段とを備えた車両の周辺監視装置において、前記対象物検出手段により検出された対象物の前記車両に対する相対速度が、該車両の車幅方向の速度成分であって、その大きさが所定の正の下限値以上となる横方向速度成分を有するか否かを逐次判定する速度成分判定手段を備え、前記回避対象判定手段は、前記対象物が回避対象であるか否かの判定を行なうための複数種類の判定アルゴリズムを選択的に実行可能な手段であり、少なくとも前記速度成分判定手段の判定結果に応じて前記複数種類の判定アルゴリズムのうちの1つの判定アルゴリズムを選択して、該判定アルゴリズムを実行することにより前記対象物が回避対象であるか否かの判定を行なうことを特徴とする(第1発明)。   In order to achieve the above object, the vehicle periphery monitoring device of the present invention has at least object detection means for detecting an object existing on the front side of the vehicle, and the detected object makes contact with the vehicle. In a vehicle periphery monitoring device including an avoidance target determination unit that determines whether or not the target is an avoidance target to be avoided, a relative speed of the target detected by the target detection unit with respect to the vehicle is determined by the vehicle. A speed component determination unit that sequentially determines whether or not the vehicle has a speed component in the vehicle width direction, the magnitude of which is equal to or greater than a predetermined positive lower limit value, and the avoidance target determination unit includes: A means capable of selectively executing a plurality of types of determination algorithms for determining whether or not the object is an avoidance target, and at least the plurality of types of determinations according to a determination result of the speed component determination unit; Select one determination algorithm of the algorithm, the object is characterized in that it is determined whether or not the avoidance target by executing the decision algorithm (first invention).

かかる本発明(第1発明)によれば、前記速度成分判定手段により、対象物の車両に対する相対速度が前記横方向速度成分を有すると判定されたときには、該対象物が車両の前方を横断しようとしている可能性が高い。これに対して前記相対速度が横方向速度成分を有しないと判定されたときには、該対象物が、停止しているかもしくは、車両と同方向に移動している状況であるので、前記対象物が車両の前方を横断しようとしている可能性は低い。従って、速度成分判定手段の判定結果は、前記対象物検出手段により検出された対象物の、車両の前方での横断の可能性の度合いを表す。このため、速度成分判定手段の判定処理を逐次行いつつ、少なくともその判定結果に応じて、前記回避対象判定手段が実行する判定アルゴリズムを選択することにより、対象物が車両の前方を横断しようとしている状況とそうでない状況とでそれぞれに適した判定アルゴリズムで回避対象判定手段の判定処理を実行できる。例えば前者の状況(速度成分判定手段の判定結果が肯定的となる状況)では、後者の状況(速度成分判定手段の判定結果が否定的となる状況)よりも、より短時間で判定結果を決定し得る1つの判定アルゴリズムを前記複数の判定アルゴリズムから選択して、実行するようにすればよい。逆に後者の状況では、例えば前者の状況よりも、より信頼性の高い判定結果を決定し得る1つの判定アルゴリズムを前記複数の判定アルゴリズムから選択して、実行するようにすればよい。   According to the present invention (first invention), when the speed component determination means determines that the relative speed of the object to the vehicle has the lateral speed component, the object tries to cross the front of the vehicle. It is highly possible that On the other hand, when it is determined that the relative speed does not have a lateral speed component, the object is stopped or moving in the same direction as the vehicle. It is unlikely that you are trying to cross the front of the vehicle. Therefore, the determination result of the speed component determination unit represents the degree of possibility of crossing the object detected by the object detection unit in front of the vehicle. For this reason, while the determination process of the speed component determination unit is sequentially performed, the target is about to cross the front of the vehicle by selecting the determination algorithm executed by the avoidance target determination unit according to at least the determination result. The determination process of the avoidance target determination unit can be executed by a determination algorithm suitable for each situation and each other. For example, in the former situation (a situation where the determination result of the speed component determination unit is positive), the determination result is determined in a shorter time than in the latter situation (a situation where the determination result of the speed component determination unit is negative). One possible determination algorithm may be selected from the plurality of determination algorithms and executed. Conversely, in the latter situation, for example, one judgment algorithm that can determine a judgment result with higher reliability than the former situation may be selected from the plurality of judgment algorithms and executed.

よって、本発明によれば、歩行者などの対象物が車両の前方を横断しようとしているような状況で、できるだけ迅速に該対象物が回避対象であるか否かの判定を行なうことが可能となる。ひいては、その判定結果に応じた注意喚起(回避対象に対する運転者の注意の喚起)などの処置を適切に実行することが可能となる。また、当該状況以外の状況では、対象物が回避対象であるか否かの判定の信頼性を高めることが可能となる。   Therefore, according to the present invention, in a situation where an object such as a pedestrian is about to cross the front of the vehicle, it is possible to determine whether or not the object is an avoidance target as quickly as possible. Become. Eventually, it is possible to appropriately execute measures such as alerting (arousing the driver's attention to the avoidance target) according to the determination result. Further, in situations other than the situation, it is possible to increase the reliability of the determination as to whether or not the object is an avoidance target.

かかる本発明では、前記横方向速度成分は、その大きさが前記下限値よりも大きい所定の上限値以下となる速度成分であることが好ましい(第2発明)。   In the present invention, it is preferable that the lateral velocity component is a velocity component whose magnitude is not more than a predetermined upper limit value that is larger than the lower limit value (second invention).

これによれば、横方向速度成分の大きさが前記下限値以上であることに加えて、前記上限値以下であることが、前記速度成分判定手段の判定結果が肯定的となる(横方向速度成分を有すると判定される)ための必要要件となる。ここで、運転者の注意を迅速に喚起することは、特に、人や動物のような特定種類の対象物が車両の前方を横断しようとしている場合にその必要性が高い。また、人や動物のような注意喚起の対象とする必要性の高い対象物は、他車両などの人工的な移動物体に比べて、一般に、道路を横断しようとするときの速度の大きさの上限が比較的低い。従って、横方向速度成分の大きさが前記上限値以下であることが、前記速度成分判定手段の判定結果が肯定的となるための必要要件とすることにより、該判定結果が肯定的となり得る対象物の種類が人や動物などの特定の種類に限定される可能性が高まる。ひいては、その特定種類の対象物が回避対象であるか否かの判定を迅速に行なうことが可能となる。   According to this, in addition to the magnitude of the lateral speed component being equal to or greater than the lower limit value, the determination result of the speed component determination means is affirmative when the magnitude is equal to or less than the upper limit value (lateral speed To be determined to have an ingredient). Here, prompting the driver's attention quickly is particularly necessary when a specific type of object such as a person or an animal is about to cross the front of the vehicle. Also, objects that need to be alerted, such as people and animals, generally have a higher speed when trying to cross a road than artificial moving objects such as other vehicles. The upper limit is relatively low. Therefore, by making the size of the lateral velocity component equal to or smaller than the upper limit value as a necessary requirement for the determination result of the velocity component determination means to be affirmative, the determination result can be affirmative. There is an increased possibility that the types of objects are limited to specific types such as people and animals. As a result, it is possible to quickly determine whether or not the specific type of object is an avoidance target.

なお、前記上限値は、例えば前記回避対象判定手段の判定処理で回避対象であると判定され得る特定種類の対象物が一般的に採り得る速度の大きさの最大値付近の値に設定しておけばよい。   The upper limit value is set to a value near the maximum value of the speed magnitude that can be generally taken by a specific type of object that can be determined as an avoidance target in the determination process of the avoidance target determination means, for example. Just keep it.

また、前記第1発明あるいは第2発明では、前記対象物検出手段により検出された対象物の前記車両に対する相対位置を逐次検出する相対位置検出手段を備え、前記横方向速度成分を、その向きが前記相対位置検出手段により検出された相対位置に応じて定まる所定の要件を満たす向きとなる速度成分としてもよい(第3発明)。   Further, in the first invention or the second invention, the apparatus further comprises relative position detecting means for sequentially detecting a relative position of the object detected by the object detecting means with respect to the vehicle, and the direction of the lateral velocity component is determined by the direction. It may be a velocity component having a direction that satisfies a predetermined requirement determined according to the relative position detected by the relative position detecting means (third invention).

すなわち、対象物が横方向速度成分の大きさが前記下限値以上であっても、その横方向速度成分の向きと該対象物の車両に対する相対位置との組み合わせによっては、対象物が回避対象であるか否かの迅速な判定の必要性が低い場合がある。例えば車両の前方正面の車幅相当の領域の外側(右側もしくは左側)の領域に存在する対象物は、その横方向速度成分の向きが、車両に接近する向き(車両の前方正面の車幅内の領域に向かう向き)である場合には、回避対象の迅速な判定の必要性が高いが、該横方向速度成分の向きは、車両から離れる向きである場合には、回避対象の迅速な判定の必要性は低い。従って、前記横方向速度成分を、その向きが対象物の相対位置に応じて定まる所定の要件を満たす向きとなる速度成分とすることにより、速度成分判定手段の判定処理を、回避対象の迅速な判定の必要性の程度に適合させて行なうことが可能となる。   That is, even if the magnitude of the lateral speed component of the object is equal to or greater than the lower limit value, the object may be an avoidance target depending on the combination of the direction of the lateral speed component and the relative position of the object with respect to the vehicle. There may be a low need for a quick determination of whether or not there is. For example, an object existing outside (on the right or left side) of the area corresponding to the vehicle width in front of the vehicle has a direction in which the lateral velocity component approaches the vehicle (within the vehicle width in front of the vehicle If the direction of the lateral velocity component is away from the vehicle, the determination of the avoidance target is quick. The need for is low. Therefore, the speed component determination unit can perform the determination process of the avoidance target quickly by setting the horizontal direction speed component to a speed component whose direction satisfies a predetermined requirement determined according to the relative position of the object. It is possible to carry out by adapting to the degree of necessity of determination.

なお、上記所定の要件としては、例えば、対象物の相対位置が、車両の前方正面の車幅相当の領域(車幅と同等かもしくはそれよりも若干広い幅の領域)の外側の領域に存在するときには、横方向速度成分の向きが車両に接近する向きであること、該相対位置が、車両の前方正面の車幅相当の領域内に存在するときには、横方向速度成分の向きが、左右いずれかの向きであること、などの要件が挙げられる。   As the predetermined requirement, for example, the relative position of the object exists in a region outside a region corresponding to the vehicle width in front of the vehicle (region having a width equal to or slightly wider than the vehicle width). When the direction of the lateral speed component is the direction approaching the vehicle, and when the relative position is in a region corresponding to the vehicle width in front of the vehicle, the direction of the lateral speed component is either left or right There are requirements such as that.

また、前記第1発明では、前記対象物検出手段により検出された対象物の前記車両に対する相対位置を逐次検出する相対位置検出手段と、その相対位置が前記車両の前方の所定の領域に存在するか否かを判定する相対位置判定手段とを備え、前記回避対象判定手段は、前記速度成分判定手段の判定結果と前記相対位置判定手段の判定結果との組に応じて前記複数の判定アルゴリズムのうちの1つの判定アルゴリズムを選択して実行するようにしてもよい(第4発明)。   In the first invention, the relative position detecting means for sequentially detecting the relative position of the object detected by the object detecting means with respect to the vehicle, and the relative position exists in a predetermined area in front of the vehicle. Relative position determination means for determining whether the plurality of determination algorithms are based on a set of a determination result of the speed component determination means and a determination result of the relative position determination means. One of the determination algorithms may be selected and executed (fourth invention).

すなわち、対象物の相対位置が、車両から前後方向、あるいは、車幅方向で十分に離れているような場合には、前記速度成分判定手段の判定結果が肯定的であっても、その対象物に関する回避対象の判定を迅速に行なう必要性は一般には低い。従って、前記速度成分判定手段の判定結果と前記相対位置判定手段の判定結果との組に応じて前記複数の判定アルゴリズムのうちの1つの判定アルゴリズムを選択して実行することにより、回避対象判定手段の判定処理をより適切に行なうことが可能となる。   That is, when the relative position of the object is sufficiently far away from the vehicle in the front-rear direction or the vehicle width direction, even if the determination result of the speed component determination means is positive, the object In general, the necessity for quickly determining the avoidance target is low. Therefore, by selecting and executing one determination algorithm of the plurality of determination algorithms according to the combination of the determination result of the speed component determination unit and the determination result of the relative position determination unit, the avoidance target determination unit This determination process can be performed more appropriately.

補足すると、この第4発明における前記所定の領域は、前記対象物検出手段により対象物を検出可能な領域のうち、前記車両の前後方向に距離が所定値以下となる領域(以下、第A領域ということがある)、あるいは、前記検出可能な領域のうち、車両の両側で前後方向に延在するように設定された一対の境界線の間の領域(以下、第B領域ということがある)、あるいは、上記第A領域と第B領域との合成領域などが挙げられる。そして、この場合、速度成分判定手段の判定結果が肯定的で、且つ、相対位置判定手段の判定結果が肯定的である場合に、速度成分判定手段の判定結果が否定的あるか、または相対位置判定手段の判定結果が否定的である場合に、前記複数の判定アルゴリズムのうち、より短時間で判定結果を決定し得る1つの判定アルゴリズムを選択して実行することが好ましい。   Supplementally, the predetermined area according to the fourth aspect of the present invention is an area in which the object can be detected by the object detecting means, and the distance in the front-rear direction of the vehicle is a predetermined value or less (hereinafter referred to as the A area). Or a region between a pair of boundary lines set so as to extend in the front-rear direction on both sides of the vehicle among the detectable regions (hereinafter also referred to as a B-th region). Alternatively, a composite region of the A region and the B region may be used. In this case, if the determination result of the speed component determination unit is affirmative and the determination result of the relative position determination unit is affirmative, the determination result of the speed component determination unit is negative or the relative position When the determination result of the determination unit is negative, it is preferable to select and execute one determination algorithm that can determine the determination result in a shorter time from the plurality of determination algorithms.

なお、上記第4発明は、前記第2発明または第3発明と組み合わせてもよい。   The fourth invention may be combined with the second invention or the third invention.

また、前記第1発明では、前記対象物の前記車両に対する相対位置を逐次検出する相対位置検出手段と、前記速度成分判定手段の判定処理の実行周期よりも長い時間間隔において前記相対位置検出手段により検出された前記対象物の相対位置の時系列に基づき該対象物の前記車両に対する移動方向を表す移動方向特徴量を算出する移動方向特徴量算出手段を備え、前記速度成分判定手段の判定結果が否定的である場合に前記回避対象判定手段が選択する判定アルゴリズムは、少なくとも前記移動方向特徴量に関する判定処理を含むアルゴリズムにより構成され、前記速度成分判定手段の判定結果が肯定的である場合に前記回避対象判定手段が選択する判定アルゴリズムは、少なくとも前記移動方向特徴量に関する判定処理を含まないアルゴリズムにより構成されていることが好ましい(第5発明)。   In the first aspect of the invention, the relative position detecting means for sequentially detecting the relative position of the object to the vehicle, and the relative position detecting means at a time interval longer than the execution cycle of the determination process of the speed component determining means. A moving direction feature amount calculating means for calculating a moving direction feature amount representing a moving direction of the target object with respect to the vehicle based on a detected time series of the relative position of the target object; and the determination result of the speed component determining means is The determination algorithm selected by the avoidance target determination unit in the case of negative is configured by an algorithm including at least a determination process related to the moving direction feature amount, and the determination result of the speed component determination unit is positive when the determination result is positive The determination algorithm selected by the avoidance target determination means is an algorithm that does not include at least a determination process related to the moving direction feature amount. It is preferably composed of a beam (fifth aspect).

これによれば、前記速度成分判定手段の判定結果が否定的である場合に、前記回避対象判定手段が実行する判定アルゴリズムは、前記移動方向特徴量に関する判定処理を含むので、信頼性の高い判定結果を決定することが可能となる。ただし、前記移動方向特徴量の算出は、速度成分判定手段の判定処理の実行周期よりも長い時間間隔で行なわれるので、回避対象判定手段による判定結果の決定に時間を要する。一方、前記速度成分判定手段の判定結果が肯定的である場合に、前記回避対象判定手段が実行する判定アルゴリズムは、前記移動方向特徴量に関する判定処理を含まないので、該回避対象判定手段による判定結果の決定を短時間で行なうことが可能となる。ひいては、横方向速度成分を有する対象物に関する注意喚起などの処置を迅速に行なうことができる。   According to this, when the determination result of the speed component determination unit is negative, the determination algorithm executed by the avoidance target determination unit includes a determination process related to the moving direction feature amount, and thus a highly reliable determination The result can be determined. However, since the calculation of the moving direction feature amount is performed at a time interval longer than the execution cycle of the determination process of the speed component determination unit, it takes time to determine the determination result by the avoidance target determination unit. On the other hand, when the determination result of the speed component determination unit is affirmative, the determination algorithm executed by the avoidance target determination unit does not include the determination process related to the moving direction feature amount. The result can be determined in a short time. As a result, it is possible to quickly perform a procedure such as alerting an object having a lateral velocity component.

同様に、前記第4発明では、前記速度成分判定手段の判定処理の実行周期よりも長い時間間隔において前記相対位置検出手段により検出された前記対象物の相対位置の時系列に基づき該対象物の前記車両に対する移動方向を表す移動方向特徴量を算出する移動方向特徴量算出手段を備え、前記速度成分判定手段の判定結果または前記相対位置判定手段の判定結果が否定的である場合に前記回避対象判定手段が選択する判定アルゴリズムは、少なくとも前記移動方向特徴量に関する判定処理を含むアルゴリズムにより構成され、前記速度成分判定手段の判定結果および前記相対位置判定手段の判定結果が肯定的である場合に前記回避対象判定手段が選択する判定アルゴリズムは、少なくとも前記移動方向特徴量に関する判定処理を含まないアルゴリズムにより構成されていることが好ましい(第6発明)。   Similarly, in the fourth aspect of the present invention, based on the time series of the relative position of the object detected by the relative position detection means in a time interval longer than the execution cycle of the determination process of the speed component determination means, A moving direction feature amount calculating unit that calculates a moving direction feature amount representing a moving direction with respect to the vehicle, and the avoidance target when the determination result of the speed component determination unit or the determination result of the relative position determination unit is negative The determination algorithm selected by the determination unit is configured by an algorithm including at least a determination process related to the moving direction feature quantity, and the determination result of the speed component determination unit and the determination result of the relative position determination unit are affirmative. The determination algorithm selected by the avoidance target determination means is an algorithm that does not include at least determination processing related to the moving direction feature amount. It is preferably made of the rhythm (sixth invention).

これによれば、前記速度成分判定手段の判定結果または前記相対位置判定手段の判定結果が否定的である場合に、前記回避対象判定手段が実行する判定アルゴリズムは、前記移動方向特徴量に関する判定処理を含むので、信頼性の高い判定結果を決定することが可能となる。一方、前記速度成分判定手段の判定結果および相対位置判定手段の判定結果が肯定的である場合に、前記回避対象判定手段が実行する判定アルゴリズムは、前記移動方向特徴量に関する判定処理を含まないので、該回避対象判定手段による判定結果の決定を短時間で行なうことが可能となる。ひいては、横方向速度成分を有する対象物に関する注意喚起などの処置を迅速に行なうことができる。   According to this, when the determination result of the speed component determination unit or the determination result of the relative position determination unit is negative, the determination algorithm executed by the avoidance target determination unit is a determination process related to the moving direction feature amount. Therefore, it is possible to determine a highly reliable determination result. On the other hand, when the determination result of the speed component determination unit and the determination result of the relative position determination unit are affirmative, the determination algorithm executed by the avoidance target determination unit does not include the determination process regarding the moving direction feature amount. The determination result by the avoidance target determination means can be determined in a short time. As a result, it is possible to quickly perform a procedure such as alerting an object having a lateral velocity component.

補足すると、上記第5発明または第6発明において、移動方向特徴量に関する判定処理としては、該移動方向特徴量により表される対象物の移動方向が、前記車両の正面に向かってくる方向であるか否かなどの判定処理が挙げられる。また、上記第5発明は、前記第1〜第3発明と組み合わせてもよい。   Supplementally, in the fifth or sixth invention, the determination process related to the moving direction feature value is a direction in which the moving direction of the object represented by the moving direction feature value is directed toward the front of the vehicle. And a determination process such as whether or not. The fifth invention may be combined with the first to third inventions.

なお、前記回避対象判定手段が実行する判定アルゴリズムのそれぞれは、特に、対象物の種類の判定処理を含むことが好ましい。さらに、各判定アルゴリズムには、対象物の相対位置または前記横方向速度成分に関する判定処理が含まれていてもよい。   Each of the determination algorithms executed by the avoidance target determination unit preferably includes a determination process for the type of the object. Further, each determination algorithm may include a determination process related to the relative position of the object or the lateral velocity component.

また、本発明の車両は、前記した本発明の周辺監視装置を搭載したことを特徴とする(第7発明)。この車両によれば、本発明の周辺監視装置と同等の効果を奏する車両を実現できる。   Further, the vehicle of the present invention is equipped with the above-described periphery monitoring device of the present invention (seventh invention). According to this vehicle, a vehicle having the same effects as the periphery monitoring device of the present invention can be realized.

また、本発明の車両の周辺監視方法は、少なくとも車両の前方側に存在する対象物を検出し、その検出した対象物が前記車両との接触を回避すべき回避対象であるか否かを判定する車両の周辺監視方法において、前記検出された対象物の前記車両に対する相対速度が、該車両の車幅方向の速度成分であって、その大きさが所定の正の下限値以上となる横方向速度成分を有するか否かを逐次判定する速度成分判定ステップと、前記対象物が回避対象であるか否かの判定を行なうための判定アルゴリズムを、あらかじめ用意された複数種類の判定アルゴリズムの中から、少なくとも前記速度成分判定ステップの判定結果に応じて選択し、その選択した判定アルゴリズムを実行することにより前記対象物が回避対象であるか否かの判定を行なう回避対象判定ステップとを備えたことを特徴とする(第8発明)。   Further, the vehicle periphery monitoring method of the present invention detects at least an object existing on the front side of the vehicle, and determines whether or not the detected object is an avoidance object that should avoid contact with the vehicle. In the vehicle periphery monitoring method, a lateral direction in which a relative speed of the detected object to the vehicle is a speed component in a vehicle width direction of the vehicle, the magnitude of which is equal to or greater than a predetermined positive lower limit value. A speed component determination step for sequentially determining whether or not it has a speed component, and a determination algorithm for determining whether or not the object is an avoidance target, from among a plurality of types of determination algorithms prepared in advance The selection is made at least according to the determination result of the speed component determination step, and the determination is made as to whether or not the object is an avoidance object by executing the selected determination algorithm. Characterized by comprising a elephant determination step (Eighth invention).

この第8発明によれば、速度成分判定ステップの判定結果は、本発明の車両の周辺監視装置と同様に、検出された対象物の、車両の前方での横断の可能性の度合いを表すものとなるので、速度成分判定ステップの判定処理を逐次行いつつ、少なくともその判定結果に応じて、前記回避対象判定ステップで実行する判定アルゴリズムを選択することにより、対象物が車両の前方を横断しようとしている状況とそうでない状況とでそれぞれに適した判定アルゴリズムで回避対象判定ステップの判定処理を実行できる。   According to the eighth aspect of the invention, the determination result of the speed component determination step represents the degree of possibility that the detected object crosses in front of the vehicle, as in the vehicle periphery monitoring device of the present invention. Therefore, while performing the determination process of the speed component determination step sequentially, the target tries to cross the front of the vehicle by selecting the determination algorithm to be executed in the avoidance target determination step according to at least the determination result. It is possible to execute the determination process of the avoidance target determination step with a determination algorithm suitable for each of the existing situation and the other situation.

よって、本発明によれば、歩行者などの対象物が車両の前方を横断しようとしているような状況で、できるだけ迅速に該対象物が回避対象であるか否かの判定を行なうことが可能となる。ひいては、その判定結果に応じた適切な注意喚起などの処置を実行することが可能となる。また、当該状況以外の状況では、対象物が回避対象であるか否かの判定の信頼性を高めることが可能となる。   Therefore, according to the present invention, in a situation where an object such as a pedestrian is about to cross the front of the vehicle, it is possible to determine whether or not the object is an avoidance target as quickly as possible. Become. As a result, it is possible to execute appropriate measures such as alerting according to the determination result. Further, in situations other than the situation, it is possible to increase the reliability of the determination as to whether or not the object is an avoidance target.

また、本発明の車両の周辺監視用プログラムは、少なくとも車両の前方側に存在することが検出された対象物が、前記車両との接触を回避すべき回避対象であるか否かを判定する処理をコンピュータに実行させる車両の周辺監視用プログラムであって、前記検出された対象物の前記車両に対する相対速度が、該車両の車幅方向の速度成分であって、その大きさが所定の正の下限値以上となる横方向速度成分を有するか否かを逐次判定する速度成分判定処理と、前記対象物が回避対象であるか否かの判定を行なうための判定用アルゴリズムを、あらかじめ定められた複数の判定用アルゴリズムの中から、少なくとも前記速度成分判定処理の判定結果に応じて選択し、その選択した判定アルゴリズムにより前記対象物が前記回避対象であるか否かを判定する回避対象判定処理とを前記コンピュータに実行させる機能を備えることを特徴とする(第9発明)。   The vehicle periphery monitoring program according to the present invention is a process for determining whether or not an object detected to be present at least on the front side of the vehicle is an avoidance object that should avoid contact with the vehicle. A vehicle periphery monitoring program that causes a computer to execute the following: a relative speed of the detected object with respect to the vehicle is a speed component in a vehicle width direction of the vehicle, the magnitude of which is a predetermined positive value A speed component determination process for sequentially determining whether or not a lateral speed component is equal to or greater than a lower limit value, and a determination algorithm for determining whether or not the object is an avoidance target are determined in advance. It is selected from a plurality of determination algorithms according to at least the determination result of the speed component determination process, and whether or not the object is the avoidance target by the selected determination algorithm And determining avoidance judging process, characterized in that it comprises a function to be executed by the computer (ninth invention).

この第9発明のプログラムによれば、前記第1発明に関して説明した効果を奏し得る処理をコンピュータに実行させることができる。   According to the program of the ninth aspect of the invention, it is possible to cause a computer to execute a process that can achieve the effects described with respect to the first aspect of the invention.

本発明の第1実施形態を図1〜図7を参照して以下に説明する。   A first embodiment of the present invention will be described below with reference to FIGS.

まず、図1および図2を参照して、本実施形態の車両の周辺監視装置のシステム構成を説明する。図1は該周辺監視装置の全体構成を示すブロック図、図2は該周辺監視装置を搭載した車両の外観を示す斜視図である。なお、図2では、周辺監視装置の一部の構成要素の図示を省略している。   First, with reference to FIG. 1 and FIG. 2, the system configuration | structure of the vehicle periphery monitoring apparatus of this embodiment is demonstrated. FIG. 1 is a block diagram showing the overall configuration of the periphery monitoring device, and FIG. 2 is a perspective view showing the appearance of a vehicle equipped with the periphery monitoring device. In FIG. 2, illustration of some components of the periphery monitoring device is omitted.

図1および図2を参照して、本実施形態の周辺監視装置は、画像処理ユニット1を備える。この画像処理ユニット1には、車両1の前方の画像を撮像する撮像装置としての2つの赤外線カメラ2R,2Lが接続されると共に、車両10の走行状態を検出するセンサとして、車両10のヨーレートを検出するヨーレートセンサ3と、車両10の走行速度(車速)を検出する車速センサ4と、車両10のブレーキ操作(詳しくはブレーキペダルが操作されているか否か)を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な注意喚起情報を出力するためのスピーカ6と、前記赤外線カメラ2R,2Lにより撮像された画像や視覚的な注意喚起情報を表示するための表示装置7とが接続されている。   With reference to FIGS. 1 and 2, the periphery monitoring device of the present embodiment includes an image processing unit 1. The image processing unit 1 is connected to two infrared cameras 2R and 2L as imaging devices for capturing an image in front of the vehicle 1 and also uses the yaw rate of the vehicle 10 as a sensor for detecting the traveling state of the vehicle 10. A yaw rate sensor 3 for detecting, a vehicle speed sensor 4 for detecting a traveling speed (vehicle speed) of the vehicle 10, and a brake sensor 5 for detecting a brake operation (specifically, whether or not a brake pedal is operated) of the vehicle 10 are connected. Has been. Further, the image processing unit 1 displays a speaker 6 for outputting auditory alert information such as voice, and images captured by the infrared cameras 2R and 2L and visual alert information. A display device 7 is connected.

画像処理ユニット1は、詳細な図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM)、画像メモリなどを含む電子回路により構成され、前記赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5の出力(アナログ信号)がA/D変換回路を介してデジタル化されて入力される。そして、画像処理ユニット1は、入力されたデータを基に、人(歩行者)などの対象物を検出する処理や、その検出した対象物が車両との接触を回避すべき回避対象であるか否かを判定する処理、回避対象と判定された対象物に対する運転者の注意を喚起する処理などをマイクロコンピュータにより実行する。これらの処理は、マイクロコンピュータのROMにあらかじめ実装されたプログラムを該マイクロコンピュータにより実行することにより実現され、そのプログラムは、本発明の車両の周辺監視用プログラムを含んでいる。   Although not shown in detail, the image processing unit 1 is composed of an electronic circuit including an A / D conversion circuit, a microcomputer (CPU, RAM, ROM), an image memory, and the like. The infrared cameras 2R and 2L, the yaw rate sensor 3. Outputs (analog signals) of the vehicle speed sensor 4 and the brake sensor 5 are digitized and inputted via an A / D conversion circuit. Then, the image processing unit 1 performs processing for detecting an object such as a person (pedestrian) based on the input data, and whether the detected object is an avoidance target that should avoid contact with the vehicle. The microcomputer performs a process for determining whether or not, a process for alerting the driver to an object determined to be an avoidance target, and the like. These processes are realized by the microcomputer executing a program pre-installed in the ROM of the microcomputer, and the program includes the vehicle periphery monitoring program of the present invention.

なお、画像処理ユニット1は、上記プログラムにより実現される機能として、本発明における対象物検出手段、速度成分判定手段、回避対象判定手段、相対位置検出手段を含んでいる。   Note that the image processing unit 1 includes an object detection unit, a speed component determination unit, an avoidance target determination unit, and a relative position detection unit according to the present invention as functions realized by the program.

図2に示すように、前記赤外線カメラ2R,2Lは、車両10の前方を撮像するために、車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それらの位置は、自車両10の車幅方向の中心に対して左右対称である。そして、該赤外線カメラ2R,2Lは、それらの光軸が互いに平行に車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように車両10の前部に固定されている。なお、各赤外線カメラ2R,2Lは、遠赤外域に感度を有する撮像装置であり、それにより撮像される物体の温度が高いほど、その物体の画像の出力信号のレベルが高くなる(該物体の画像の輝度が高くなる)特性を有している。   As shown in FIG. 2, the infrared cameras 2 </ b> R and 2 </ b> L are attached to the front portion of the vehicle 10 (the front grill portion in the figure) in order to image the front of the vehicle 10. In this case, the infrared cameras 2R and 2L are respectively arranged at a position on the right side and a position on the left side of the center of the vehicle 10 in the vehicle width direction. These positions are symmetrical with respect to the center of the host vehicle 10 in the vehicle width direction. The infrared cameras 2R and 2L are arranged in front of the vehicle 10 such that their optical axes extend in parallel in the front-rear direction of the vehicle 10 and the heights of the respective optical axes from the road surface are equal to each other. It is fixed to the part. Each infrared camera 2R, 2L is an imaging device having sensitivity in the far-infrared region, and the higher the temperature of the object imaged by the infrared camera 2R, 2L, the higher the level of the output signal of the object image (the object's image). (The brightness of the image is increased).

また、前記表示装置7は、本実施形態では、例えば車両10のフロントウィンドウに画像などの情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7は、HUD7aの代わりに、もしくは、HUD7aと共に、自車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイを含んでもよい。   In the present embodiment, the display device 7 includes a head-up display 7a (hereinafter referred to as HUD 7a) that displays information such as an image on the front window of the vehicle 10, for example. The display device 7 may be a display provided integrally with a meter that displays a traveling state such as the vehicle speed of the host vehicle 10 in place of the HUD 7a or together with the HUD 7a, or a display provided in an in-vehicle navigation device. May be included.

次に、本実施形態の周辺監視装置の全体的動作を図3および図4のフローチャートを参照して説明する。なお、図3のフローチャートの処理のうちの多くの処理は、例えば前記特許文献1に記載されている処理と同じであるので、その同じ処理については、本明細書での詳細な説明は省略する。補足すると、図3のフローチャートの処理は、画像処理ユニット1のマイクロコンピュータが実行するプログラムにより実現される処理である。   Next, the overall operation of the periphery monitoring apparatus of this embodiment will be described with reference to the flowcharts of FIGS. Note that many of the processes in the flowchart of FIG. 3 are the same as the processes described in Patent Document 1, for example, and thus detailed description of the same processes is omitted in this specification. . Supplementally, the process of the flowchart of FIG. 3 is a process realized by a program executed by the microcomputer of the image processing unit 1.

まず、画像処理ユニット1は、赤外線カメラ2R,2Lのそれぞれの出力信号である赤外線画像を取得して(STEP1)、A/D変換し(STEP2)、それぞれの画像を画像メモリに格納する(STEP3)。これにより、各赤外線カメラ2R,2Lにより撮像された画像が画像処理ユニット1に取り込まれる。以降、赤外線カメラ2Rから得られた画像を右画像、赤外線カメラ2Lから得られた画像を左画像という。これらの右画像および左画像は、いずれもグレースケール画像である。   First, the image processing unit 1 acquires infrared images that are output signals of the infrared cameras 2R and 2L (STEP 1), performs A / D conversion (STEP 2), and stores each image in an image memory (STEP 3). ). As a result, images captured by the infrared cameras 2R and 2L are taken into the image processing unit 1. Hereinafter, an image obtained from the infrared camera 2R is referred to as a right image, and an image obtained from the infrared camera 2L is referred to as a left image. These right image and left image are both grayscale images.

次いで、画像処理ユニット1は、前記右画像および左画像のうちの一方を基準画像とし、この基準画像を2値化する(STEP4)。基準画像は、本実施形態では右画像である。この2値化処理は、基準画像の各画素の輝度値を所定の輝度閾値と比較し、基準画像のうちの、該所定の輝度閾値よりも高い輝度値を有する領域(比較的明るい領域)を「1」(白)とし、該輝度閾値よりも低い輝度値を有する領域(比較的暗い領域)を「0」(黒)とする処理である。以降、この2値化処理により得られる画像(白黒画像)を2値化画像という。そして、この2値化画像のうちの、「1」とされる領域を高輝度領域という。なお、この2値化画像は、グレースケール画像(右画像および左画像)とは別に画像メモリに記憶される。   Next, the image processing unit 1 uses one of the right image and the left image as a reference image, and binarizes this reference image (STEP 4). The reference image is a right image in the present embodiment. In this binarization process, the luminance value of each pixel of the reference image is compared with a predetermined luminance threshold value, and an area (relatively bright area) having a luminance value higher than the predetermined luminance threshold value in the reference image. This is a process of setting “1” (white) and setting an area having a luminance value lower than the luminance threshold (a relatively dark area) to “0” (black). Hereinafter, an image (monochrome image) obtained by the binarization process is referred to as a binarized image. In the binarized image, an area “1” is referred to as a high luminance area. The binarized image is stored in the image memory separately from the grayscale image (right image and left image).

補足すると、STEP1〜4の処理は、前記特許文献1の図3のS11〜S14の処理と同じである。   Supplementally, the processing of STEP1 to STEP4 is the same as the processing of S11 to S14 of FIG.

次いで、画像処理ユニット1は、前記2値化画像に対してSTEP5〜7の処理を実行し、該2値化画像から対象物(より正確には対象物に対応する画像部分)を抽出する。すなわち、前記2値化画像の高輝度領域を構成する画素群を、基準画像の縦方向(y方向)に1画素分の幅を有して横方向(x方向)延在するラインに分類し、その各ラインを、その位置(基準画像上での2次元位置)の座標と長さ(画素数)とからなるランレングスデータに変換する(STEP5)。そして、このランレングスデータにより表されるラインのうちの、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)を付し(STEP6)、そのライン群のそれぞれを対象物として抽出する(STEP7)。   Next, the image processing unit 1 performs the processing of STEPs 5 to 7 on the binarized image, and extracts an object (more precisely, an image portion corresponding to the object) from the binarized image. That is, the pixel group constituting the high luminance area of the binarized image is classified into lines having a width of one pixel in the vertical direction (y direction) of the reference image and extending in the horizontal direction (x direction). Each line is converted into run-length data composed of coordinates and length (number of pixels) of the position (two-dimensional position on the reference image) (STEP 5). Of the lines represented by the run length data, labels (identifiers) are attached to the respective line groups that overlap in the vertical direction of the reference image (STEP 6), and each of the line groups is extracted as an object. (STEP 7).

なお、STEP5〜7の処理により抽出される対象物には、一般には、人(歩行者)だけでなく、他車両などの人口構造物なども含まれる。また、同一の物体の複数の局所部分が対象物として抽出される場合もある。   The objects extracted by the processing in STEPs 5 to 7 generally include not only people (pedestrians) but also artificial structures such as other vehicles. In addition, a plurality of local parts of the same object may be extracted as the target object.

次いで、画像処理ユニット1は、上記の如く抽出した各対象物の重心の位置(基準画像上での位置)と面積と外接四角形の縦横比とを求める(STEP8)。なお、各対象物の重心の位置は、該対象物に含まれるランレングスデータの各ラインの位置(各ラインの中心位置)の座標に該ラインの長さを乗じたものを、該対象物に含まれるランレングスデータの全てのラインについて加算し、その加算結果を該対象物の面積により除算することにより求められる。また、各対象物の重心の代わりに、該対象物の外接四角形の重心(中心)の位置を求めてもよい。   Next, the image processing unit 1 obtains the position of the center of gravity of each object extracted as described above (position on the reference image), the area, and the aspect ratio of the circumscribed rectangle (STEP 8). The position of the center of gravity of each object is obtained by multiplying the coordinates of the position of each line (the center position of each line) of the run length data included in the object by the length of the line. It is obtained by adding all the lines of included run length data and dividing the addition result by the area of the object. Further, instead of the center of gravity of each object, the position of the center (center) of the circumscribed rectangle of the object may be obtained.

次いで、画像処理ユニット1は、前記STEP7で抽出した対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎の同一対象物の認識を行なう(STEP9)。この処理では、ある演算処理周期の時刻(離散系時刻)kにおけるSTEP7の処理により対象物Aが抽出され、次の演算処理周期の時刻k+1におけるSTEP7の処理により対象物Bが抽出されたとしたとき、それらの対象物A,Bの同一性が判定される。この同一性の判定は、例えば、それらの対象物A,Bの2値化画像上での形状やサイズ、基準画像(グレースケール画像)上での輝度分布の相関性などに基づいて行なえばよい。そして、それらの対象物A,Bが互いに同一であると判定された場合に、時刻k+1で抽出した対象物Bのラベル(STEP6で付したラベル)が対象物Aのラベルと同じラベルに変更される。   Next, the image processing unit 1 traces the object extracted in STEP 7 for the time, that is, recognizes the same object for each calculation processing period of the image processing unit 1 (STEP 9). In this processing, when the object A is extracted by the processing of STEP 7 at a time (discrete system time) k in a certain arithmetic processing cycle, and the object B is extracted by the processing of STEP 7 at the time k + 1 of the next arithmetic processing cycle. The identity of these objects A and B is determined. This identity determination may be performed based on, for example, the shape and size of the objects A and B on the binarized image, the correlation of the luminance distribution on the reference image (grayscale image), and the like. . When it is determined that the objects A and B are the same, the label of the object B extracted at time k + 1 (the label attached in STEP 6) is changed to the same label as the label of the object A. The

なお、前記したSTEP5〜9の処理は、前記特許文献3の図3のS15〜S19の処理と同じである。また、STEP1〜9の処理により、本発明における対象物検出手段が構成される。   Note that the processing in STEPs 5 to 9 described above is the same as the processing in S15 to S19 in FIG. Moreover, the object detection means in this invention is comprised by the process of STEP1-9.

次いで、画像処理ユニット1は、前記車速センサ4およびヨーレートセンサ5の出力(車速の検出値およびヨーレートの検出値)を読み込む(STEP10)。なお、このSTEP10では、読込んだヨーレートの検出値を積分することにより、自車両10の回頭角(方位角)の算出も行なわれる。   Next, the image processing unit 1 reads the outputs (vehicle speed detection value and yaw rate detection value) of the vehicle speed sensor 4 and the yaw rate sensor 5 (STEP 10). In STEP 10, the turning angle (azimuth angle) of the host vehicle 10 is also calculated by integrating the read detection value of the yaw rate.

一方、画像処理ユニット1は、STEP9,10の処理と並行して、STEP11〜13の処理を実行する。このSTEP11〜13の処理は、STEP7で抽出した各対象物の自車両10からの距離を求める処理であり、前記特許文献1の図3のS31〜S33の処理と同じである。その処理を概略的に説明すると、まず、右画像(基準画像)のうち、各対象物に対応する領域(例えば該対象物の外接四角形の領域)を探索画像R1として抽出する(STEP11)。   On the other hand, the image processing unit 1 executes the processes of STEPs 11 to 13 in parallel with the processes of STEPs 9 and 10. The processing of STEP 11 to 13 is processing for obtaining the distance of each object extracted in STEP 7 from the host vehicle 10, and is the same as the processing of S31 to S33 in FIG. The process is schematically described. First, an area corresponding to each object (for example, a circumscribed square area of the object) in the right image (reference image) is extracted as a search image R1 (STEP 11).

次いで、左画像中で、右画像の探索画像R1に含まれる対象物と同じ対象物を探索するための領域である探索領域R2が設定され、その探索領域R2内で、探索画像R1との相関性が最も高い領域が、探索画像R1に対応する画像(探索画像R1と同等の画像)である対応画像R3として抽出される(STEP12)。この場合、左画像の探索領域R2のうち、右画像の探索画像R1の輝度分布に最も一致する輝度分布を有する領域が対応画像R3として抽出される。なお、STEP12の処理は、2値化画像ではなく、グレースケール画像を使用して行なわれる。   Next, in the left image, a search area R2 that is an area for searching for the same object as the object included in the search image R1 of the right image is set, and the correlation with the search image R1 is set in the search area R2. The region having the highest probability is extracted as a corresponding image R3 that is an image corresponding to the search image R1 (an image equivalent to the search image R1) (STEP 12). In this case, an area having a luminance distribution that most closely matches the luminance distribution of the search image R1 of the right image is extracted as the corresponding image R3 from the search area R2 of the left image. Note that the processing in STEP 12 is performed using a grayscale image, not a binarized image.

次いで、右画像における前記探索画像R1の重心の横方向位置(x方向位置)と、左画像における前記対応画像R3の重心の横方向位置(x方向位置)との差分の画素数を視差Δdとして算出し、その視差Δdを用いて、対象物の自車両10からの距離z(自車両10の前後方向における距離)が算出される(STEP13)。距離zは、次式(1)により算出される。   Next, the number of pixels of the difference between the lateral position (x-direction position) of the center of gravity of the search image R1 in the right image and the lateral position (x-direction position) of the center of gravity of the corresponding image R3 in the left image is defined as parallax Δd. The distance z of the object from the host vehicle 10 (the distance in the front-rear direction of the host vehicle 10) is calculated using the parallax Δd (STEP 13). The distance z is calculated by the following equation (1).


z=(f×D)/(Δd×p) ……(1)

なお、fは赤外線カメラ2R,2Lの焦点距離、Dは赤外線カメラ2R,2Lの基線長(光軸の間隔)、pは画素ピッチ(1画素分の長さ)である。

z = (f × D) / (Δd × p) (1)

Note that f is the focal length of the infrared cameras 2R and 2L, D is the base length (interval of the optical axis) of the infrared cameras 2R and 2L, and p is the pixel pitch (length of one pixel).

以上がSTEP11〜13の処理の概要である。なお、STEP11〜13の処理は、前記STEP7で抽出された各対象物に対して実行される。   The above is the outline of the processing of STEPs 11 to 13. In addition, the process of STEP11-13 is performed with respect to each target object extracted by said STEP7.

前記STEP10およびSTEP13の処理の終了後、画像処理ユニット1は、次に、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(STEP14)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向およびY方向は、それぞれ自車両10の車幅方向、上下方向であり、これらのX方向およびY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、自車両10の前後方向である。そして、対象物の実空間位置(X,Y,Z)は次式(2)、(3)、(4)により算出される。   After the processing of STEP 10 and STEP 13, the image processing unit 1 next calculates a real space position that is a position (relative position with respect to the host vehicle 10) of each object in the real space (STEP 14). Here, as shown in FIG. 2, the real space position is a position (X, Y, Z) in the real space coordinate system (XYZ coordinate system) set with the midpoint of the attachment position of the infrared cameras 2R, 2L as the origin. ). The X direction and the Y direction of the real space coordinate system are the vehicle width direction and the vertical direction of the host vehicle 10, respectively. These X direction and Y direction are the x direction (lateral direction) and y of the right image and the left image, respectively. It is the same direction as the direction (vertical direction). The Z direction in the real space coordinate system is the front-rear direction of the host vehicle 10. Then, the real space position (X, Y, Z) of the object is calculated by the following equations (2), (3), (4).


X=x×z×p/f ……(2)
Y=y×z×p/f ……(3)
Z=z ……(4)

なお、x、yは基準画像上での対象物のx座標、y座標である。

X = x × z × p / f (2)
Y = y × z × p / f (3)
Z = z (4)

Note that x and y are the x-coordinate and y-coordinate of the object on the reference image.

次いで、画像処理ユニット1は、自車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、対象物の実空間位置(X,Y,Z)のうちのX方向の位置Xを上記式(2)により求めた値から、前記STEP10で求めた回頭角の時系列データに応じて補正する(STEP15)。これにより、最終的に対象物の実空間位置が求められる。以降の説明では、「対象物の実空間位置」は、この補正を施した対象物の実空間位置を意味する。なお、対象物の実空間位置は、所定の演算処理周期で逐次算出される。   Next, the image processing unit 1 compensates for the influence of the change in the turning angle of the host vehicle 10 and increases the accuracy of the real space position of the target object, so that the real space position (X, Y, Z) of the target object is increased. The position X in the X direction is corrected according to the time-series data of the turning angle obtained in STEP 10 from the value obtained by the above equation (2) (STEP 15). Thereby, the real space position of the object is finally obtained. In the following description, “the real space position of the object” means the real space position of the object subjected to this correction. Note that the real space position of the object is sequentially calculated at a predetermined calculation processing cycle.

なお、STEP14,15の処理は、前記特許文献1の図3のS21、S22の処理と同じである。以降の説明では、対象物の現在の(今回の演算処理周期での)実空間位置のX方向成分(X方向位置)、Y方向成分(Y方向位置)、Z方向成分(Z方向位置)をそれぞれX0,Y0,Z0で表す。   Note that the processing of STEPs 14 and 15 is the same as the processing of S21 and S22 of FIG. In the following description, the X-direction component (X-direction position), Y-direction component (Y-direction position), and Z-direction component (Z-direction position) of the actual space position (in the current calculation processing cycle) of the object are described. Represented by X0, Y0 and Z0, respectively.

補足すると、STEP14,15の処理は、本発明における相対位置検出手段を構成するものである。   Supplementally, the processing of STEPs 14 and 15 constitutes the relative position detecting means in the present invention.

次いで、画像処理ユニット1は、各対象物(同一ラベルの各対象物)について、該対象物が横方向速度成分を有するか否かの判定を行なう(STEP16)。補足すると、このSTEP16以降の処理(STEP16の処理を含む)は、前記特許文献1の図3の処理とは相違する。   Next, the image processing unit 1 determines for each object (each object with the same label) whether or not the object has a lateral velocity component (STEP 16). Supplementally, the processing after STEP 16 (including the processing of STEP 16) is different from the processing of FIG.

STEP16の判定処理は、本実施形態では次のように行なわれる。   In the present embodiment, the determination process in STEP 16 is performed as follows.

すなわち、まず、対象物の実空間位置の前回値(前回の演算処理周期で求めた実空間位置)におけるX方向成分(X方向位置)と、該対象物の実空間位置の今回値(今回の(現在の)演算処理周期で求めた実空間位置)におけるX方向成分X0との差ΔXが求められる。そして、このΔXを、演算処理周期の時間で除算してなる値Vxが、該対象物の現在の相対速度(車両10に対する相対速度)の、車幅方向の速度成分として求められる。さらに、この速度成分Vxの大きさ(絶対値)が、所定の下限値VxL(>0)以上で、且つ所定の上限値VxH(>下限値)以下である場合(VxL≦|Vx|≦VxHである場合)に、該対象物が車両10に対して横方向速度成分を有すると判定する。また、VxL>|Vx|、またはVxH<|Vx|である場合には、対象物が横方向速度成分を有しないと判定する。なお、現在の演算処理周期で初めて抽出された対象物(前回の演算処理周期で抽出されていない対象物)については、横方向速度成分を有しないと判定される。また、本実施形態では、対象物の実空間位置の前回値と今回値との2つの値からVxを求めるようにしたが、例えば前々回値、前回値および今回値など、今回値を含めた最新の3つ以上の実空間位置からVxを求めるようにしてもよい。その場合、逐次型の移動平均処理によりVxを求めるようにしてもよい。   That is, first, the X direction component (X direction position) in the previous value of the real space position of the object (the real space position obtained in the previous calculation processing cycle) and the current value of the real space position of the object (current time) A difference ΔX with respect to the X direction component X 0 at the (current space position obtained in the current processing cycle) is obtained. Then, a value Vx obtained by dividing ΔX by the time of the arithmetic processing cycle is obtained as a speed component in the vehicle width direction of the current relative speed of the object (relative speed with respect to the vehicle 10). Further, when the magnitude (absolute value) of the velocity component Vx is not less than a predetermined lower limit value VxL (> 0) and not more than a predetermined upper limit value VxH (> lower limit value) (VxL ≦ | Vx | ≦ VxH). In the case where the object has a lateral velocity component with respect to the vehicle 10. If VxL> | Vx | or VxH <| Vx |, it is determined that the object does not have a lateral velocity component. Note that an object extracted for the first time in the current calculation processing cycle (an object not extracted in the previous calculation processing cycle) is determined not to have a lateral velocity component. Further, in this embodiment, Vx is obtained from two values, the previous value and the current value of the real space position of the object. However, for example, the latest value including the current value such as the last time value, the previous value, and the current value. Vx may be obtained from three or more real space positions. In that case, Vx may be obtained by a sequential moving average process.

ここで、上記下限値VxLおよび上限値VxHは、本実施形態では、人が道路を横断する場合に一般的にとり得る速度の大きさが該下限値VxLと上限値VxHとの間に収まるようにあらかじめ設定されている。なお、上限値VxHよりも大きい車幅方向の速度成分を有する対象物は、他車両など、歩行者以外の移動物体である可能性が高く、そのような対象物は、STEP16において、横方向速度成分を有しないと判定される。従って、STEP16で横方向速度成分を有すると判定される対象物は、歩行者(人)である可能性が高い対象物である。また、前記下限値VxLは0よりも若干大きい値に設定されるので、対象物の実空間位置の検出誤差などに起因して、車両10とほぼ同方向もしくは逆方向に移動しているような歩行者、あるいは、静止している物体(例えば電柱や自動販売機など)が、横方向速度成分を有すると判定されるのが回避される。   Here, in the present embodiment, the lower limit value VxL and the upper limit value VxH are set so that the magnitude of the speed that can generally be taken when a person crosses the road falls between the lower limit value VxL and the upper limit value VxH. It is set in advance. Note that an object having a speed component in the vehicle width direction larger than the upper limit value VxH is highly likely to be a moving object other than a pedestrian, such as another vehicle. Such an object is determined in STEP 16 as a lateral speed. It is determined that there is no component. Therefore, the object determined to have the lateral velocity component in STEP 16 is an object that is highly likely to be a pedestrian (person). In addition, since the lower limit value VxL is set to a value slightly larger than 0, the lower limit value VxL is moving in the same direction or the opposite direction to the vehicle 10 due to a detection error of the real space position of the object. It is avoided that a pedestrian or a stationary object (for example, a utility pole or a vending machine) is determined to have a lateral velocity component.

補足すると、上記下限値VxLおよび上限値VxHは、人の移動速度だけでなく、人以外の動物の移動速度も考慮して設定するようにしてもよい。また、STEP16の判定処理は、本発明における速度成分判定手段、速度成分判定ステップを構成するものであり、速度成分判定用プログラムによって、画像処理ユニット1のマイクロコンピュータが実行する処理である。   Supplementally, the lower limit value VxL and the upper limit value VxH may be set in consideration of not only the movement speed of a person but also the movement speed of an animal other than a person. The determination process of STEP 16 constitutes the speed component determination means and the speed component determination step in the present invention, and is a process executed by the microcomputer of the image processing unit 1 by the speed component determination program.

STEP16の判定結果がYESである場合(横方向速度成分を有すると判定された対象物が存在する場合)には、画像処理ユニット1は、その横方向速度成分を有すると判定された各対象物についての後述する第1回避対象判定処理(第1回避対象判定アルゴリズム)を実行する(STEP19)。また、STEP16の判定結果がNOである場合(横方向速度成分を有しないと判定された対象物が存在する場合)には、画像処理ユニット1は、その対象物についての実空間位置の時系列データの個数が所定数N(NはSTEP16で横方向速度成分を求めるときのサンプル数よりも大きい個数で、例えば10個)に達したか否かを判断する(STEP17)。そして、該対象物の実空間位置の時系列データが所定数Nに満たない場合には、STEP1からの処理を繰り返す。これにより、実空間位置を算出する演算処理周期のN−1倍の時間間隔(これは実空間位置の演算処理周期よりも長い)を対象物の実空間位置のモニタ期間(観測期間)とし、このモニタ期間での対象物の実空間位置の時系列データが得られる。なお、STEP17の処理では、時系列データの個数を判断する代わりに、各対象物について、それが初めて抽出された時からの経過時間が所定時間(上記所定数Nに対応する時間)に達したか否かを判断するようにしてもよい。   When the determination result in STEP 16 is YES (when there is an object determined to have a lateral speed component), the image processing unit 1 determines each object determined to have the lateral speed component. A first avoidance target determination process (first avoidance target determination algorithm) described later is executed (STEP 19). When the determination result in STEP 16 is NO (when there is an object determined not to have a lateral velocity component), the image processing unit 1 performs time series of the real space position for the object. It is determined whether or not the number of data has reached a predetermined number N (N is a number larger than the number of samples when the lateral speed component is obtained in STEP 16, for example, 10) (STEP 17). When the time series data of the real space position of the object is less than the predetermined number N, the processing from STEP 1 is repeated. Thus, a time interval N-1 times the calculation processing cycle for calculating the real space position (which is longer than the calculation processing cycle of the real space position) is set as a monitoring period (observation period) of the real space position of the object. Time series data of the real space position of the object in this monitoring period is obtained. In the process of STEP 17, instead of determining the number of time-series data, the elapsed time from the time when each object is first extracted has reached a predetermined time (time corresponding to the predetermined number N). It may be determined whether or not.

補足すると、各演算処理周期において、STEP16の判定結果がYESとなる対象物と、NOとなる対象物とが混在する場合には、YESとなる対象物についての第1回避対象判定処理の実行が優先され、その実行後に、STEP17からの処理が行なわれる。   Supplementally, in each calculation processing cycle, when an object for which the determination result in STEP 16 is YES and an object for which NO is mixed, the execution of the first avoidance object determination process for the object for which YES is executed. Priority is given, and after the execution, processing from STEP 17 is performed.

また、STEP16の判定結果がNOとなった対象物(横方向速度成分を有しないと判定された対象物)についての実空間位置の時系列データの個数が所定数Nに達した場合には、画像処理ユニット1は、該対象物の車両10に対する相対的な移動方向を表す移動方向特徴量としての移動ベクトルを求める(STEP18)。具体的には、該対象物についての実空間位置のN個の時系列データを近似する直線を最小2乗法などの近似手法により求め、(N−1)周期前の演算処理周期の時刻での該直線上の対象物の位置(点)から、現在時刻(今回の演算処理周期の時刻)における該直線上の対象物の位置(点)に向かうベクトルを対象物の移動ベクトルとして求める。この移動ベクトルは、対象物の車両10に対する相対速度ベクトルに比例する。なお、移動ベクトルの代わりに、例えば、車両10の前後方向もしくは車幅方向に対する上記直線の方位角などを対象物の移動方向特徴量として算出するようにしてもよい。   Further, when the number of the time-series data of the real space position for the object for which the determination result in STEP 16 is NO (the object determined to have no lateral velocity component) reaches a predetermined number N, The image processing unit 1 obtains a movement vector as a movement direction feature amount representing a relative movement direction of the object with respect to the vehicle 10 (STEP 18). Specifically, a straight line that approximates N time-series data of the real space position for the object is obtained by an approximation method such as the least square method, and (N−1) at the time of the calculation processing cycle before the cycle. A vector from the position (point) of the object on the straight line to the position (point) of the object on the straight line at the current time (the time of the current computation processing cycle) is obtained as a movement vector of the object. This movement vector is proportional to the relative velocity vector of the object with respect to the vehicle 10. Instead of the movement vector, for example, the azimuth angle of the straight line with respect to the front-rear direction or the vehicle width direction of the vehicle 10 may be calculated as the moving direction feature amount of the object.

補足するとSTEP18の処理は、本発明における移動方向特徴量算出手段を構成するものである。   Supplementally, the processing in STEP 18 constitutes the moving direction feature amount calculating means in the present invention.

そして、画像処理ユニット1は、上記のように移動ベクトルを算出した後、その移動ベクトルを算出した対象物についての後述する第2回避対象判定処理(第2回避対象判定アルゴリズム)を実行する(STEP20)。なお、各演算処理周期において、STEP16の判定結果がYESとなる対象物と、NOとなる対象物とが混在し、且つ、その判定結果がNOとなる対象物についての実空間位置の時系列データの個数がN個に達した場合には、STEP16の判定結果がYESとなる対象物(横方向速度成分を有すると判定された対象物)についての第1回避対象判定処理の実行が優先され、その実行後に、STEP16の判定結果がNOとなる対象物(横方向速度成分を有しないと判定された対象物)についての第2回避対象判定処理が実行される。   Then, after calculating the movement vector as described above, the image processing unit 1 executes a second avoidance target determination process (second avoidance target determination algorithm) to be described later for the target object for which the movement vector has been calculated (STEP 20). ). It should be noted that in each arithmetic processing cycle, the object of which the determination result of STEP 16 is YES and the object of NO are mixed, and the time series data of the real space position for the object of which the determination result is NO When the number of the N reaches N, priority is given to the execution of the first avoidance target determination process for an object for which the determination result of STEP 16 is YES (an object determined to have a lateral speed component), After the execution, a second avoidance target determination process is executed for an object for which the determination result of STEP 16 is NO (an object determined not to have a lateral speed component).

前記第1回避対象判定処理および第2回避対象判定処理は、詳細は後述するが、対象物が、車両10との接触を回避すべき回避対象であるか否かを判定する処理であり、基本的には対象物が車両10に接触する可能性の度合いや対象物の種類に関する判定処理によって、該対象物が回避対象であるか否かを判定する。なお、これらの回避対象判定処理は、マイクロコンピュータのROMに実装されたサブルーチンプログラムを該マイクロコンピュータが実行することにより実現される。   The first avoidance target determination process and the second avoidance target determination process are processes that determine whether or not the target object is an avoidance target that should avoid contact with the vehicle 10, as will be described in detail later. Specifically, whether or not the target object is an avoidance target is determined by a determination process regarding the degree of possibility that the target object contacts the vehicle 10 and the type of the target object. Note that these avoidance target determination processes are realized by the microcomputer executing a subroutine program installed in the ROM of the microcomputer.

そして、STEP19の判定結果がYESである場合、あるいは、STEP20の判定結果がYESである場合、すなわち、STEP19または20で対象物が回避対象であると判定された場合には、STEP21に進んで、画像処理ユニット1は、該対象物に対する車両10の運転者の注意を喚起すべきか否かを判定する注意喚起出力判定処理を実行する。   If the determination result in STEP 19 is YES, or if the determination result in STEP 20 is YES, that is, if it is determined in STEP 19 or 20 that the object is an avoidance target, the process proceeds to STEP 21. The image processing unit 1 executes a warning output determination process for determining whether or not the driver of the vehicle 10 should be alerted to the object.

この注意喚起出力判定処理では、前記ブレーキセンサ5の出力から、運転者による車両10のブレーキ操作がなされていることが確認され、且つ、車両10の減速加速度(車速の減少方向の加速度を正とする)が所定の閾値(>0)よりも大きいときには、注意喚起を行なわないと判定される。また、運転者によるブレーキ操作が行なわれていない場合、あるいは、ブレーキ操作が行なわれていても、車両10の減速加速度が所定の閾値以下である場合には、注意喚起を行なうべきと判定される。   In this alerting output determination process, it is confirmed from the output of the brake sensor 5 that the driver has operated the brake of the vehicle 10 and the vehicle 10 is decelerating acceleration (acceleration in the vehicle speed decreasing direction is positive). ) Is greater than a predetermined threshold (> 0), it is determined that no alerting is to be performed. In addition, when the driver does not perform a braking operation or when the deceleration acceleration of the vehicle 10 is equal to or less than a predetermined threshold even if the braking operation is performed, it is determined that attention should be given. .

そして、画像処理ユニット1は、注意喚起を行なうべきと判定した場合(STEP21の判定結果がYESとなる場合)には、前記スピーカ6と表示装置7とによる注意喚起を車両10の運転者に対して行なう注意喚起処理を実行し(STEP21)、さらにSTEP1からの処理を繰り返す。この注意喚起処理では、例えば表示装置7に前記基準画像を表示すると共に、その基準画像中の対象物(STEP19または20で回避対象であると判定された対象物)の画像を強調的に表示する。さらに、そのような回避対象の対象物が存在することをスピーカ6から運転者に音声案内する。これにより、該対象物に対する運転者の注意が喚起され、該運転者は、該対象物と車両10との接触を回避するための体制を整えることができる。なお、運転者に対する注意喚起は、スピーカ6および表示装置7のいずれか一方だけで行なうようにしてもよい。また、車両10が自動操舵を行い得る車両である場合には、STEP19または20で回避対象であると判定された対象物との接触を回避するように車両10の操舵制御を実行するようにしてもよい。   When the image processing unit 1 determines that attention should be given (when the determination result of STEP 21 is YES), the image processing unit 1 issues a warning by the speaker 6 and the display device 7 to the driver of the vehicle 10. Is executed (STEP 21), and the processing from STEP 1 is repeated. In this alerting process, for example, the reference image is displayed on the display device 7 and the image of the target object (the target object determined as the avoidance target in STEP 19 or 20) in the reference image is highlighted. . Furthermore, the driver is instructed by voice from the speaker 6 that such an object to be avoided exists. As a result, the driver's attention is drawn to the object, and the driver can prepare a system for avoiding contact between the object and the vehicle 10. Note that the driver may be alerted only by either the speaker 6 or the display device 7. Further, when the vehicle 10 is a vehicle that can perform automatic steering, the steering control of the vehicle 10 is executed so as to avoid contact with an object that is determined as an avoidance target in STEP 19 or 20. Also good.

また、STEP21で注意喚起を行なわないと判断したとき(全ての回避対象の対象物について注意喚起を行なわないと判断したとき)には、STEP21の判断結果がNOとなり、この場合には、そのままSTEP1からの処理が再開される。   Further, when it is determined in STEP 21 that alerting is not performed (when it is determined that alerting is not performed for all objects to be avoided), the determination result in STEP 21 is NO, and in this case, STEP 1 is maintained as it is. Processing from is resumed.

補足すると、STEP16〜STEP20の処理は、本発明における回避対象判定手段、回避対象判定ステップを構成するものである。この場合、本実施形態では、対象物が回避対象であるか否かを判定する判定アルゴリズムとして、STEP19,20の2つのアルゴリズムを備えている。   Supplementally, the processing of STEP16 to STEP20 constitutes the avoidance target determination means and the avoidance target determination step in the present invention. In this case, in this embodiment, two algorithms of STEP 19 and 20 are provided as determination algorithms for determining whether or not the target object is an avoidance target.

以上が本実施形態の周辺監視装置の全体的作動である。   The above is the overall operation of the periphery monitoring device of this embodiment.

次に、説明を後回しにした前記STEP19および20の判定処理を図5〜図7を参照して以下に詳説する。図5はSTEP19の第1回避対象判定処理を示すフローチャート、図6はSTEP20の第2回避対象判定処理を示すフローチャート、図7は後述する第1領域AR1、第2領域AR2、第3領域AR3などを平面視で示す図である。   Next, the determination processing of STEPs 19 and 20 which will be described later will be described in detail with reference to FIGS. 5 is a flowchart showing the first avoidance target determination process in STEP 19, FIG. 6 is a flowchart showing the second avoidance target determination process in STEP 20, and FIG. 7 is a first area AR1, second area AR2, third area AR3, etc., which will be described later. FIG.

まず、STEP19の判定処理を図5および図7を参照して説明する。STEP19の第1回避対象判定処理は、前記STEP16で横方向速度成分を有すると判定された対象物のそれぞれについて実行される判定処理(判定アルゴリズム)であり、図5のフローチャートで示す如く実行される。   First, the determination process in STEP 19 will be described with reference to FIGS. The first avoidance target determination process of STEP 19 is a determination process (determination algorithm) that is executed for each of the objects determined to have a lateral velocity component in STEP 16, and is executed as shown in the flowchart of FIG. .

まず、対象物の実空間位置(車両10に対する相対位置)に関する1つの判定処理としての第1対象物位置判定処理が実行される(STEP31)。この第1対象物位置判定処理は、車両10と対象物との接触を車両10の操舵やブレーキ操作によって余裕をもって回避できるか否かを判定するための処理である。具体的には、該第1対象物位置判定処理では、赤外線カメラ2R,2Lにより撮像される車両10の前方の領域(赤外線カメラ2R,2Lの視野角内の領域。以下、撮像領域という)のうち、車両10からのZ方向の距離(車両10の前後方向の距離)が、所定値以下となる領域AR1(以下、第1領域AR1という)に対象物の現在の実空間位置(実空間位置の今回値)が存在するか否かが判定される。   First, a first object position determination process is performed as one determination process regarding the real space position of the object (relative position with respect to the vehicle 10) (STEP 31). The first object position determination process is a process for determining whether or not contact between the vehicle 10 and the object can be avoided with sufficient margin by steering or braking operation of the vehicle 10. Specifically, in the first object position determination process, an area in front of the vehicle 10 imaged by the infrared cameras 2R and 2L (an area within the viewing angle of the infrared cameras 2R and 2L; hereinafter referred to as an imaging area). Among them, the current real space position (real space position) of the object in the area AR1 (hereinafter referred to as the first area AR1) in which the distance in the Z direction from the vehicle 10 (the distance in the front-rear direction of the vehicle 10) is a predetermined value or less. It is determined whether or not there is a current value).

この場合、車両10からの距離に関する所定値は、対象物毎に設定される。具体的には、対象物の実空間位置の前回値におけるZ方向成分(Z方向位置)と該対象物の実空間位置の今回値におけるZ方向成分(Z方向位置)との差を演算処理周期の時間で除算することにより、車両10の前後方向(Z方向)における該対象物の相対速度Vz1が求められ、この相対速度Vz1に所定の定数T(時間の次元の定数)を乗じてなる値Vz1・Tが前記第1領域AR1の、Z方向の境界を規定する上記所定値として設定される。このように、該所定値は、車両10の前後方向(Z方向)における対象物の相対速度Vz1に応じて設定される。なお、該所定値は固定値でもよく、あるいは、相対速度Vz1と車両10の走行速度(対地速度)とに応じて設定してもよい。   In this case, the predetermined value related to the distance from the vehicle 10 is set for each object. Specifically, the difference between the Z direction component (Z direction position) in the previous value of the real space position of the target object and the Z direction component (Z direction position) in the current value of the real space position of the target object is calculated. Is obtained by dividing the relative speed Vz1 of the object in the longitudinal direction (Z direction) of the vehicle 10 by multiplying the relative speed Vz1 by a predetermined constant T (time dimension constant). Vz1 · T is set as the predetermined value that defines the boundary in the Z direction of the first area AR1. Thus, the predetermined value is set according to the relative speed Vz1 of the object in the front-rear direction (Z direction) of the vehicle 10. The predetermined value may be a fixed value, or may be set according to the relative speed Vz1 and the traveling speed (ground speed) of the vehicle 10.

ここで、図7に示すように、前記撮像領域を、平面視で図中の直線L1,L2の間の領域とすると(直線L1,L2は赤外線カメラ2R,2Lの視野角の左右の境界線に相当する)、前記第1領域AR1は、平面視で、図7の三角形abcで囲まれた領域となる。また、第1領域AR1は、上下方向では、所定の高さ(例えば車両10の高さの2倍程度の高さ)を有する領域である。従って、対象物の現在の実空間位置のZ方向位置Z0がVz1・T以下で、且つ、Y方向位置Y0が所定の高さ以下の位置であるときに、該対象物が第1領域AR1に存在すると判定される。なお、車両10の前後方向における対象物の相対速度Vz1が車両10から遠ざかる向きの相対速度である場合には、該対象物は第1領域AR1に存在しないと判定される。   Here, as shown in FIG. 7, when the imaging region is a region between the straight lines L1 and L2 in the drawing in a plan view (the straight lines L1 and L2 are the left and right boundary lines of the viewing angles of the infrared cameras 2R and 2L). The first area AR1 is an area surrounded by the triangle abc in FIG. 7 in plan view. In addition, the first area AR1 is an area having a predetermined height (for example, about twice the height of the vehicle 10) in the vertical direction. Accordingly, when the Z direction position Z0 of the current real space position of the object is Vz1 · T or less and the Y direction position Y0 is a position of a predetermined height or less, the object is in the first area AR1. It is determined that it exists. When the relative speed Vz1 of the object in the front-rear direction of the vehicle 10 is a relative speed away from the vehicle 10, it is determined that the object does not exist in the first area AR1.

STEP31において、対象物が第1領域AR1内に存在しないと判定された場合(STEP31の判定結果がNOとなる場合)は、車両10の操舵やブレーキ操作によって該対象物と車両10との接触を余裕をもって回避し得る状況である。そして、この場合には、画像処理ユニット1は、STEP36において、該対象物が回避対象で無いと判定し、該対象物についての第1回避対象判定処理を終了する。   In STEP 31, when it is determined that the object does not exist in the first area AR1 (when the determination result in STEP 31 is NO), the vehicle 10 is brought into contact with the object by steering or braking operation. It is a situation that can be avoided with a margin. In this case, the image processing unit 1 determines in STEP 36 that the target object is not an avoidance target, and ends the first avoidance target determination process for the target object.

一方、STEP31において、対象物が第1領域AR1内に存在すると判定された場合(STEP31の判断結果がYESとなる場合)は、対象物の実空間位置、あるいは該対象物の移動形態によっては、該対象物と車両10とが将来、接触する可能性がある。そこで、この場合には、画像処理ユニット1はさらに、対象物の実空間位置に関する判定処理としての第2対象物位置判定処理を実行する(STEP32)。この第2対象物位置判定処理は、対象物の実空間位置が現在位置に維持されたとした場合に、車両10と対象物との接触の可能性が高いか否かを判定するための処理である。具体的には、該第2対象物位置判定処理では、対象物が、図7に示すように車両10の両側で前後方向に延在する(車両10の車幅中心線L0と平行に延在する)ように設定された一対の境界線L3,L4の間の領域AR2(以下、第2領域AR2という)に存在するか否かが判定される。   On the other hand, when it is determined in STEP 31 that the object is present in the first area AR1 (when the determination result in STEP 31 is YES), depending on the real space position of the object or the movement form of the object, There is a possibility that the object and the vehicle 10 will come into contact in the future. Therefore, in this case, the image processing unit 1 further executes a second object position determination process as a determination process related to the real space position of the object (STEP 32). This second object position determination process is a process for determining whether or not the possibility of contact between the vehicle 10 and the object is high when the real space position of the object is maintained at the current position. is there. Specifically, in the second object position determination process, the object extends in the front-rear direction on both sides of the vehicle 10 as shown in FIG. 7 (extending in parallel with the vehicle width center line L0 of the vehicle 10). It is determined whether or not it exists in an area AR2 (hereinafter referred to as a second area AR2) between a pair of boundary lines L3 and L4 set as follows.

この場合、第2領域AR2の左右の境界線L3,L4は、それらの間隔をWとしたとき、図7に示すように、車両10の車幅中心線L0から左右に同じ間隔W/2を有する位置に設定される。そして、境界線L3,L4の間隔Wは、車両10の車幅αよりも若干広い間隔に設定される。なお、対象物が第2領域AR2に存在するか否かは、対象物の現在の実空間位置のX方向成分X0の値が、境界線L3のX方向位置と境界線L4のX方向位置との間の値であるか否によって判定される。   In this case, the left and right boundary lines L3 and L4 of the second area AR2 have the same distance W / 2 left and right from the vehicle width center line L0 of the vehicle 10, as shown in FIG. It is set to the position to have. The interval W between the boundary lines L3 and L4 is set to be slightly wider than the vehicle width α of the vehicle 10. Whether or not the object exists in the second area AR2 depends on whether the value of the X direction component X0 of the current real space position of the object is the X direction position of the boundary line L3 and the X direction position of the boundary line L4. It is determined by whether the value is between.

STEP32において、対象物の実空間位置が第2領域AR2に存在すると判定された場合(STEP32の判定結果がYESとなる場合)は、対象物が現在の実空間位置に留まったとした場合に、該対象物が車両10と接触する可能性が高い。この場合には、画像処理ユニット1は、次に、対象物が歩行者(人)であるか(より正確には人である可能性が高いか否か)の判定処理を行なう(STEP33)。対象物が歩行者であるか否かの判定は、公知の手法(例えば特開2003−284057号公報に記載されている手法)を使用すればよく、グレースケール画像上での対象物の形状や大きさ、輝度分布等の特徴に基づいて行なうことができる。   In STEP 32, when it is determined that the real space position of the object exists in the second area AR2 (when the determination result in STEP 32 is YES), the object remains at the current real space position. There is a high possibility that the object comes into contact with the vehicle 10. In this case, the image processing unit 1 next performs a process of determining whether the object is a pedestrian (person) (more accurately, whether or not there is a high possibility of being a person) (STEP 33). A determination as to whether or not the object is a pedestrian may be made using a known method (for example, a method described in Japanese Patent Application Laid-Open No. 2003-284057), and the shape of the object on the grayscale image This can be done based on features such as size and luminance distribution.

このSTEP33の歩行者判定処理で、対象物が歩行者である可能性が高いと判断した場合には、対象物が歩行者であるとの判定の信頼性を高めるために、STEP34に進み、該対象物が他車両であるか否かの判定処理(車両判定処理)が行なわれる。対象物が他車両であるか否かの判定は、公知の手法(例えば特開2003−230134号公報に記載されている手法)を使用すればよく、対象物の画像(グレースケール画像または2値化画像)における、他車両のウィンドウシールド部分の有無などに基づいて行なうことができる。あるいは、パターンマッチングの手法により対象物が他車両であるか否かの判定を行なうようにしてもよい。   In this pedestrian determination process of STEP 33, if it is determined that the object is likely to be a pedestrian, the process proceeds to STEP 34 in order to increase the reliability of the determination that the object is a pedestrian. A determination process (vehicle determination process) is performed as to whether or not the object is another vehicle. Whether or not the object is another vehicle may be determined by using a known method (for example, a method described in Japanese Patent Application Laid-Open No. 2003-230134), and an image of the object (grayscale image or binary). For example, the presence or absence of a window shield part of another vehicle. Or you may make it determine whether a target object is another vehicle by the method of pattern matching.

補足すると、第1回避対象判定処理は、前記STEP16で横方向速度成分を有すると判定された対象物に関して実行される処理であるので、電柱や自動販売機などの静止物体は、除外されている。一方、車両10の前方で比較的ゆっくり曲がろうとしている他車両や進路変更中の他車両は、第1回避対象判定処理の対象となる場合がある。このため、本実施形態では、STEP34の車両判定処理を実行する。   Supplementally, since the first avoidance target determination process is a process executed on the target determined to have the lateral velocity component in STEP 16, stationary objects such as utility poles and vending machines are excluded. . On the other hand, another vehicle that is about to turn relatively slowly in front of the vehicle 10 or another vehicle that is changing course may be a target of the first avoidance target determination process. For this reason, in this embodiment, the vehicle determination process of STEP34 is performed.

そして、STEP34で、対象物が他車両でないと判定された場合(STEP34の判定結果がNOとなる場合)には、画像処理ユニット1は、STEP35において、対象物が回避対象であると判定し、第1回避対象判定処理を終了する。従って、対象物が前記第1領域AR1内の第2領域AR2に存在し、且つ、対象物が歩行者である可能性が高く、且つ、他車両でないと判定された場合には、対象物が回避対象であると判定される。   When it is determined in STEP 34 that the object is not another vehicle (when the determination result in STEP 34 is NO), the image processing unit 1 determines in STEP 35 that the object is an avoidance target. The first avoidance target determination process is terminated. Therefore, when it is determined that the object exists in the second area AR2 in the first area AR1, the object is likely to be a pedestrian, and is not another vehicle, the object is It is determined to be an avoidance target.

また、STEP33で対象物が歩行者でないと判定され、あるいは、STEP34で対象物が人工構造物であると判定された場合には、前記STEP36に進んで、対象物が回避対象で無いと判定され、第1回避対象判定処理が終了する。   If it is determined in STEP 33 that the object is not a pedestrian, or if it is determined in STEP 34 that the object is an artificial structure, the process proceeds to STEP 36 and it is determined that the object is not an avoidance target. Then, the first avoidance target determination process ends.

一方、前記STEP32において、対象物が第2領域AR2に存在しないと判定された場合(STEP32の判定結果がNOとなる場合)には、画像処理ユニット1は、次に、対象物の実空間位置と該対象物の横方向速度成分Vxの向きとに関する第1進入判定処理を実行する(STEP37)。この第1進入判定処理は、対象物が前記第2領域AR2に進入しようとしている可能性が高い(対象物が車両10の前方で道路を横断しようとしている可能性が高い)か否かを判定する処理である。具体的には、該第1進入判定処理では、前記第2領域AR2の左右の両側で前後方向に延在して設定された左右一対の第3領域AR3,AR3(図7参照)に対象物が存在し、且つ、該対象物の横方向速度成分Vxの向き(符号)が、第2領域AR2に向かう向きであるという要件が満たされるか否かが判定される。   On the other hand, when it is determined in STEP 32 that the object does not exist in the second area AR2 (when the determination result in STEP 32 is NO), the image processing unit 1 next moves the real space position of the object. And a first approach determination process regarding the direction of the lateral velocity component Vx of the object (STEP 37). The first entry determination process determines whether or not the object is likely to enter the second area AR2 (the object is likely to cross the road in front of the vehicle 10). It is processing to do. Specifically, in the first entry determination process, the left and right sides of the second area AR2 are set in the pair of left and right third areas AR3 and AR3 (see FIG. 7) set to extend in the front-rear direction. And the direction (sign) of the lateral velocity component Vx of the object is determined whether or not the requirement that the direction is toward the second area AR2 is satisfied.

ここで、図7を参照して、左側の第3領域AR3は、第2領域AR2の左側の境界線L3と、該第2領域AR2の外側で境界線L3と平行に延在する境界線L5との間の領域であり、右側の第3領域は、第2領域の右側の境界線L4と、該第2領域の外側の境界線L4と平行に延在する境界線L6との間の領域である。換言すれば、これらの第3領域AR3,AR3は、前記撮像領域のうち、第2領域AR2の外側で、該第2領域AR2に隣接して、前後方向に延在する領域である。左右の第3領域AR3,AR3の幅は、互いに同一である。なお、第3領域AR3の幅は、固定値でもよいが、対象物の横方向速度成分Vxの大きさ(絶対値)に応じて変化させる(横方向速度成分の大きさが大きいほど、第3領域AR3の幅を大きくする)ようにしてもよい。また、第3領域AR3の幅は、Z方向で車両10に近づくほど、広くなるようにしてもよい。   Here, referring to FIG. 7, the left third area AR3 includes a left boundary line L3 of the second area AR2, and a boundary line L5 extending parallel to the boundary line L3 outside the second area AR2. The third region on the right side is a region between the right boundary line L4 of the second region and the boundary line L6 extending in parallel with the outer boundary line L4 of the second region. It is. In other words, these third areas AR3 and AR3 are areas extending in the front-rear direction adjacent to the second area AR2 outside the second area AR2 in the imaging area. The widths of the left and right third regions AR3 and AR3 are the same. The width of the third region AR3 may be a fixed value, but is changed according to the magnitude (absolute value) of the lateral velocity component Vx of the object (the larger the magnitude of the lateral velocity component, the third The width of the area AR3 may be increased). Further, the width of the third region AR3 may be increased as it approaches the vehicle 10 in the Z direction.

補足すると、対象物が第3領域AR3に存在するか否かは、対象物の現在のX方向位置X0が境界線L3のX方向位置と境界線L5のX方向位置との間、または、境界線L4のX方向位置と境界線L6のX方向位置との間の値であるか否かによって判定される。また、対象物の横方向速度成分Vxの向きは、Vxの符号によって判定される。この場合、対象物が第2領域AR2の左側に存在する場合には、横方向速度成分Vxの向きが右向きであるときに、その向きが第2領域AR2に接近する向きであり、対象物が第3領域AR2の右側に存在する場合には、横方向速度成分Vxの向きが左向きであるときに、その向きが第2領域AR2に接近する向きである。   Supplementally, whether or not the object exists in the third area AR3 depends on whether the current X direction position X0 of the object is between the X direction position of the boundary line L3 and the X direction position of the boundary line L5, or the boundary It is determined by whether or not the value is between the X direction position of the line L4 and the X direction position of the boundary line L6. Also, the direction of the lateral velocity component Vx of the object is determined by the sign of Vx. In this case, when the object is present on the left side of the second area AR2, when the direction of the lateral velocity component Vx is rightward, the direction is the direction approaching the second area AR2, and the object is When present on the right side of the third area AR2, when the direction of the lateral velocity component Vx is leftward, the direction is the direction approaching the second area AR2.

STEP32において、対象物が前記第3領域AR3,AR3のいずれか一方に存在し、且つ、該対象物の横方向速度成分Vxの向き(符号)が、第2領域AR2に向かう向きであるという要件が満たされる場合(STEP32の判定結果がYESとなる場合)には、対象物が車両10の前方を横断しようとしており、近い将来に該対象物が第2領域AR2に進入する可能性が高い。そこで、この場合には、画像処理ユニット1は、STEP35において、該対象物が回避対象である判定し、第1回避対象判定処理を終了する。   In STEP 32, the object is present in any one of the third areas AR3 and AR3, and the direction (sign) of the lateral velocity component Vx of the object is a direction toward the second area AR2. Is satisfied (when the determination result in STEP 32 is YES), the object is about to cross the front of the vehicle 10, and there is a high possibility that the object will enter the second area AR2 in the near future. Therefore, in this case, the image processing unit 1 determines in STEP 35 that the target object is an avoidance target, and ends the first avoidance target determination process.

また、STEP32において、対象物の実空間位置が前記第3領域AR3,AR3に存在し、且つ、該対象物の横方向速度成分Vxの向き(符号)が、第2領域AR2に向かう向きであるという要件が満たされない場合(STEP32の判定結果がNOとなる場合)、すなわち、対象物が、前記撮像領域内で、第3領域AR3の外側の領域(前記境界線L5よりも左側の領域または前記境界線L6よりも右側の領域)に存在するか、もしくは、対象物の横方向速度成分Vxの向きが、第2領域AR2から離れる向きである場合には、画像処理ユニット1は、STEP36において、該対象物が回避対象で無いと判定し、第1回避対象判定処理を終了する。   In STEP 32, the real space position of the object is present in the third areas AR3 and AR3, and the direction (sign) of the lateral velocity component Vx of the object is the direction toward the second area AR2. If the requirement is not satisfied (when the determination result of STEP 32 is NO), that is, the object is an area outside the third area AR3 (the area on the left side of the boundary line L5 or the In the area on the right side of the boundary line L6) or when the direction of the lateral velocity component Vx of the object is away from the second area AR2, the image processing unit 1 determines in STEP 36 that It is determined that the object is not an avoidance target, and the first avoidance target determination process is terminated.

以上が、第1回避対象判定処理の詳細である。なお、撮像領域のうちの、第2領域を除く領域を第3領域AR3として設定するようにしてもよい。   The above is the details of the first avoidance target determination process. In addition, you may make it set the area | region except a 2nd area | region among imaging areas as 3rd area | region AR3.

次に、前記STEP20の第2回避対象判定処理を説明する。この第2回避対象判定処理は、図6のフローチャートに示す如く実行される。   Next, the second avoidance target determination process in STEP 20 will be described. This second avoidance target determination process is executed as shown in the flowchart of FIG.

第2回避対象判定処理では、まず、前記STEP18で移動ベクトルを求めた対象物の実空間位置(車両10に対する相対位置)に関する第3対象物位置判定処理が実行される(STEP41)。本実施形態では、この第3対象物位置判定処理では、前記第1対象物位置判定処理と同様に、前記撮像領域のうち、車両10からのZ方向の距離(車両10の前後方向の距離)が、所定値以下となる第1領域AR1に対象物が存在するか否かが判定される。ただし、この第3対象物位置判定処理において、第1領域AR1のZ方向の境界を規定する上記所定値は、前記STEP18で移動ベクトルを求めるための前記モニタ期間における対象物の相対速度(Z方向の速度成分)の平均値Vz2に前記定数Tを乗じてなる値Vz2・T(図7参照)に設定される。この場合、Z方向における対象物の相対速度の平均値Vz2は、前記STEP18で算出した移動ベクトルのZ方向成分を前記モニタ期間の時間で除算することにより算出される。なお、第1領域AR1の上下方向の高さは、第1対象物位置判定処理の場合と同じに設定される。   In the second avoidance target determination process, first, a third target position determination process related to the real space position (relative position with respect to the vehicle 10) of the target whose movement vector is obtained in STEP 18 is executed (STEP 41). In the present embodiment, in the third object position determination process, in the same manner as the first object position determination process, the distance in the Z direction from the vehicle 10 (the distance in the front-rear direction of the vehicle 10) in the imaging region. However, it is determined whether or not an object exists in the first area AR1 that is equal to or less than a predetermined value. However, in this third object position determination process, the predetermined value that defines the boundary in the Z direction of the first area AR1 is the relative speed (Z direction) of the object in the monitoring period for obtaining the movement vector in STEP18. Of the velocity component) is set to a value Vz2 · T (see FIG. 7) obtained by multiplying the average value Vz2 by the constant T. In this case, the average value Vz2 of the relative speed of the object in the Z direction is calculated by dividing the Z direction component of the movement vector calculated in STEP 18 by the time of the monitoring period. The vertical height of the first area AR1 is set to be the same as that in the case of the first object position determination process.

STEP41において、対象物が第1領域AR1に存在しない場合(STEP41の判定結果がNOとなる場合)は、車両10の操舵やブレーキ操作によって対象物と車両10との接触を余裕をもって回避し得る。このため、この場合には、画像処理ユニット1は、STEP46において、対象物が回避対象で無いと判定し、第2回避対象判定処理を終了する。   In STEP 41, when the object does not exist in the first area AR1 (when the determination result in STEP 41 is NO), the contact between the object and the vehicle 10 can be avoided with sufficient margin by steering or braking operation of the vehicle 10. For this reason, in this case, the image processing unit 1 determines in STEP 46 that the object is not an avoidance target, and ends the second avoidance target determination process.

また、STEP41において、対象物が第1領域AR1に存在する場合(STEP41の判定結果がYESとなる場合)には、画像処理ユニット1は次に、対象物の実空間位置に関する第4対象物位置判定処理を実行する(STEP42)。この第4対象物位置判定処理は、前記第2対象物位置判定処理と同じであり、対象物が前記第2領域AR2(図7参照)に存在するか否かが判定される。   In STEP 41, when the object is present in the first area AR1 (when the determination result in STEP 41 is YES), the image processing unit 1 next selects the fourth object position relating to the real space position of the object. A determination process is executed (STEP 42). The fourth object position determination process is the same as the second object position determination process, and it is determined whether or not the object exists in the second area AR2 (see FIG. 7).

そして、STEP41において、対象物が第2領域AR2に存在する場合には、前記STEP33と同じ歩行者判定処理(対象物が歩行者である可能性が高いか否かの判定処理)がSTEP43で実行され、該STEP44の判定結果がYESである場合には、さらに、対象物が電柱や他車両などの人工構造物であるか否かの判定処理(人工構造物判定処理)がSTEP44で実行される。対象物が人工構造物であるか否かの判定は、公知の手法(例えば特開2003−16429号公報や特開2003−230134号公報に記載されている手法)を使用すればよく、対象物の画像(グレースケール画像または2値化画像)における直線部分や直角部分の有無、他車両のウィンドウシールド部分の有無などの基づいて行なうことができる。あるいは、パターンマッチングの手法により対象物が人工構造物であるか否かの判定を行なうようにしてもよい。   In STEP 41, when the object is present in the second area AR2, the same pedestrian determination process (determination process as to whether or not the object is likely to be a pedestrian) is performed in STEP 43. If the determination result in STEP 44 is YES, a determination process (artificial structure determination process) for determining whether or not the target object is an artificial structure such as a utility pole or another vehicle is further performed in STEP 44. . Whether or not the object is an artificial structure may be determined by using a known method (for example, a method described in JP2003-16429A or JP2003-230134A). The image (grayscale image or binarized image) can be performed based on the presence or absence of a straight line portion or a right angle portion, the presence or absence of a window shield portion of another vehicle, and the like. Alternatively, it may be determined whether or not the object is an artificial structure by a pattern matching method.

補足すると、第2回避対象判定処理は、前記STEP16で横方向速度成分を有しないと判定された対象物に関して実行される処理であるので、前記第1回避対象判定処理の対象とならない電柱や自動販売機などの静止物体、あるいは、車両10と同方向もしくは逆方向に移動している他車両が、第2回避対象判定処理の対象となる場合がある。このため、本実施形態では、STEP44の人工構造物判定処理を実行する。   Supplementally, since the second avoidance target determination process is a process executed on the target object determined not to have the lateral velocity component in STEP 16, the utility pole or automatic that is not the target of the first avoidance target determination process A stationary object such as a vending machine, or another vehicle moving in the same direction as or opposite to the vehicle 10 may be a target of the second avoidance target determination process. For this reason, in this embodiment, the artificial structure determination process of STEP44 is performed.

このとき、STEP44の判定結果がNOである場合には、STEP45において、対象物が回避対象であると判定され、第2回避対象判定処理が終了する。また、STEP43の判定結果がNOである場合、あるいは、STEP44の判定結果がYESである場合には、前記STEP46において、対象物が回避対象で無いと判定され、第2回避対象判定処理が終了する。   At this time, if the determination result in STEP 44 is NO, it is determined in STEP 45 that the object is an avoidance target, and the second avoidance target determination process ends. If the determination result in STEP 43 is NO, or if the determination result in STEP 44 is YES, it is determined in STEP 46 that the target is not an avoidance target, and the second avoidance target determination process ends. .

一方、STEP42において、対象物が第2領域AR2に存在しないと判定された場合(STEP42の判定結果がNOとなる場合)、すなわち、対象物が、撮像領域のうちの第2領域AR2の外側の領域に存在する場合には、画像処理ユニット1は、次に、対象物の移動方向に関する第2進入判定処理を実行する(STEP47)。この第2進入判定処理は、対象物が前記第2領域AR2に進入し、且つ、車両10との接触する可能性が高いか否かを判定する処理である。具体的には、対象物の移動ベクトルが現状に維持されると仮定し、この移動ベクトルを含む直線と、車両10の前端位置における実空間座標系のXY平面との交点のX方向位置が求められる。そして、この求めたX方向位置が、自車両10の車幅中心線L0のX方向位置を中心とする所定範囲(自車両10の車幅よりも若干広い範囲)に存在することを要件(以下、進入接触要件という)として、この進入接触要件が満たされるか否かが判定される。   On the other hand, when it is determined in STEP42 that the object does not exist in the second area AR2 (when the determination result in STEP42 is NO), that is, the object is located outside the second area AR2 in the imaging area. If it exists in the area, the image processing unit 1 next executes a second approach determination process regarding the moving direction of the object (STEP 47). The second entry determination process is a process of determining whether or not the object enters the second area AR2 and has a high possibility of contact with the vehicle 10. Specifically, assuming that the movement vector of the object is maintained as it is, the position in the X direction of the intersection point between the straight line including this movement vector and the XY plane of the real space coordinate system at the front end position of the vehicle 10 is obtained. It is done. Then, it is a requirement that the X-direction position thus obtained exists in a predetermined range (a range slightly wider than the vehicle width of the host vehicle 10) centered on the position in the X direction of the vehicle width center line L0 of the host vehicle 10 (hereinafter referred to as a requirement). It is determined whether or not this approach contact requirement is satisfied.

STEP47において、対象物が前記進入接触要件を満たす場合(STEP47の判定結果がYESとなる場合)には、対象物が将来、車両10と接触する可能性が高い。そこで、この場合には、画像処理ユニット1は、前記STEP45において、該対象物が回避対象であると判定し、第2回避対象判定処理を終了する。   In STEP 47, when the object satisfies the entry contact requirement (when the determination result in STEP 47 is YES), there is a high possibility that the object will contact the vehicle 10 in the future. Therefore, in this case, the image processing unit 1 determines in STEP 45 that the target object is an avoidance target, and ends the second avoidance target determination process.

また、STEP47において、対象物が前記進入接触要件を満たさない場合(STEPの判定結果がNOとなる場合)には、対象物が車両10と接触する可能性が低いので、画像処理ユニット1は、前記STEP46において、該対象物が回避対象で無いと判定し、第2回避対象判定処理を終了する。   Further, in STEP 47, when the object does not satisfy the entry contact requirement (when the determination result of STEP is NO), the object is unlikely to contact the vehicle 10, so the image processing unit 1 In STEP 46, it is determined that the object is not an avoidance target, and the second avoidance target determination process is terminated.

以上が第2回避対象判定処理の詳細である。   The above is the details of the second avoidance target determination process.

以上説明した第1実施形態では、STEP16で対象物が横方向速度成分を有すると判定された場合には、画像処理ユニット1(詳しくは画像処理ユニット1のマイクロコンピュータ)により前記第1回避対象判定処理が実行され、前記モニタ期間において横方向速度成分を有しないと判定された場合には、画像処理ユニット1により前記第2回避対象判定処理が実行される。この場合、第1回避対象判定処理は、モニタ期間における対象物の時系列データを基に決定される移動ベクトルに関する判定処理を含まないので、歩行者が車両10の前方の道路を横断しつつあるとき、あるいは、横断しようとしているとき(もしくはその可能性が高いとき)には、速やかに該歩行者を回避対象であると判定し、ひいては、その歩行者に関する車両10の運転者の注意を喚起することができる。また、第2回避対象判定処理は、前記移動ベクトルに関する判定処理である前記STEP47の第2進入判定処理を含むため、該移動ベクトルが算出された後でなければ、実行されない。ただし、該第2進入判定処理によって、対象物が車両10に接触する可能性を高い信頼性で判定できるので、適切な注意喚起を車両10の運転者に対して行なうことができる。   In the first embodiment described above, when it is determined in STEP 16 that the object has a lateral velocity component, the first avoidance target determination is performed by the image processing unit 1 (specifically, the microcomputer of the image processing unit 1). When the process is executed and it is determined that there is no lateral velocity component in the monitoring period, the second avoidance target determination process is executed by the image processing unit 1. In this case, since the first avoidance target determination process does not include a determination process related to the movement vector determined based on the time-series data of the object in the monitoring period, the pedestrian is crossing the road ahead of the vehicle 10. When or when trying to cross (or when the possibility is high), the pedestrian is quickly determined to be an avoidance target, and the driver of the vehicle 10 regarding the pedestrian is alerted. can do. Further, since the second avoidance target determination process includes the second entry determination process of STEP 47 that is a determination process related to the movement vector, it is not executed unless the movement vector is calculated. However, since the possibility that the target object contacts the vehicle 10 can be determined with high reliability by the second approach determination processing, appropriate alerting can be performed to the driver of the vehicle 10.

次に、本発明の第2実施形態を図8を参照して説明する。本実施形態は、STEP16の判定処理(横方向速度成分を有するか否かの判定処理)のみが、第1実施形態と相違するものであり、図8はその判定処理を示している。   Next, a second embodiment of the present invention will be described with reference to FIG. This embodiment is different from the first embodiment only in the determination process of STEP 16 (determination process for determining whether or not it has a lateral velocity component), and FIG. 8 shows the determination process.

以下説明すると、本実施形態では、STEP16の判定処理では、まず、前記第1実施形態で説明した如く、車両10の車幅方向における対象物の速度成分Vxが算出され(STEP51)、さらに、この速度成分Vxの大きさが所定の下限値VxL以上で、且つ上限値VxH以下であるか否かが判定される(STEP52)。このとき、STEP52の判定結果がNOである場合(VxL>|Vx|、またはVxH<|Vx|である場合)には、STEP56において、対象物は横方向速度成分を有しないと判定される。   As will be described below, in the present embodiment, in the determination process of STEP 16, as described in the first embodiment, first, the speed component Vx of the object in the vehicle width direction of the vehicle 10 is calculated (STEP 51). It is determined whether or not the magnitude of the velocity component Vx is not less than a predetermined lower limit value VxL and not more than an upper limit value VxH (STEP 52). At this time, if the determination result in STEP 52 is NO (when VxL> | Vx | or VxH <| Vx |), it is determined in STEP 56 that the object does not have a lateral velocity component.

一方、STEP52の判定結果がYESである場合(VxL≦|Vx|≦VxHである場合)には、対象物の現在の実空間位置と前記第2領域AR2と比較に基づいて、該対象物が第2領域AR2に存在するか否かが判定される(STEP53)。このとき、対象物が第2領域AR2に存在し、STEP53の判定結果がYESとなる場合には、対象物の速度成分Vxの向き(符号)によらずに、STEP55において、対象物が横方向速度成分を有すると判定される。   On the other hand, when the determination result in STEP 52 is YES (when VxL ≦ | Vx | ≦ VxH), the object is determined based on the comparison between the current real space position of the object and the second area AR2. It is determined whether or not it exists in the second area AR2 (STEP 53). At this time, if the object is present in the second area AR2 and the determination result in STEP 53 is YES, the object is in the horizontal direction in STEP 55 regardless of the direction (sign) of the velocity component Vx of the object. It is determined that it has a velocity component.

一方、STEP53の判定結果がNOとなる場合、すなわち、対象物が撮像領域内で、第2領域AR2の外側(第2領域AR2の左側の領域または右側の領域)に存在する場合には、対象物の速度成分Vxの向きが、第2領域AR2に接近する向きであるか否かがVxの符号を基に判定される(STEP54)。この場合、対象物が第2領域AR2の左側の領域に存在する場合には、第2領域AR2に接近する向きは、右向きであり、対象物が第2領域AR2の右側の領域に存在する場合には、第2領域AR2に接近する向きは、左向きである。   On the other hand, if the determination result in STEP 53 is NO, that is, if the object is present outside the second area AR2 (the left area or the right area of the second area AR2) within the imaging area, Whether the direction of the velocity component Vx of the object is a direction approaching the second area AR2 is determined based on the sign of Vx (STEP 54). In this case, when the object is present in the left area of the second area AR2, the direction approaching the second area AR2 is rightward, and the object is present in the right area of the second area AR2. The direction approaching the second area AR2 is leftward.

そして、STEP54の判定結果がYESとなる場合(Vxの向きが第2領域AR2に接近する向きである場合)には、STEP55において、対象物が横方向速度成分を有すると判定される。また、STEP54の判定結果がNOとなる場合(Vxの向きが第2領域AR2から離れる向きである場合)には、STEP56において、対象物が横方向速度成分を有しないと判定される。   When the determination result in STEP 54 is YES (when the direction of Vx is the direction approaching the second area AR2), it is determined in STEP 55 that the object has a lateral velocity component. When the determination result in STEP 54 is NO (when the direction of Vx is a direction away from the second area AR2), it is determined in STEP 56 that the object does not have a lateral velocity component.

以上のように、本実施形態では、VxL≦|Vx|≦VxHという要件に加えて、Vxの向きが、対象物の実空間位置(車両10に対する相対位置)に応じて定まる要件を満たす場合に、対象物が横方向速度成分を有すると判定される。この場合、Vxの向きに関する要件は、対象物が第2領域AR2に存在する場合には、Vxが左右いずれかの向きであるという要件となり、対象物が第2領域AR2に存在しない場合には、Vxが第2領域AR2に接近する向きであるという要件となる。   As described above, in the present embodiment, in addition to the requirement of VxL ≦ | Vx | ≦ VxH, the direction of Vx satisfies the requirement determined according to the real space position of the object (relative position with respect to the vehicle 10). The object is determined to have a lateral velocity component. In this case, the requirement regarding the direction of Vx is a requirement that Vx is in the left or right direction when the object is present in the second area AR2, and when the object is not present in the second area AR2. , Vx is in a direction approaching the second area AR2.

このように横方向速度成分を有するか否かの判定を行なうことにより、横方向速度成分を有すると判定される対象物は、第1実施形態の場合よりも、車両10の前方を横断する可能性が高い対象物となる。   By determining whether or not the vehicle has the lateral speed component in this way, the object determined to have the lateral speed component can cross the front of the vehicle 10 as compared with the case of the first embodiment. It becomes a high-quality object.

補足すると、本実施形態において、前記第3領域を第2領域AR2の外側の領域に設定した場合には、前記第1回避対象判定処理におけるSTEP37の判定結果は常にYESとなる。従って、この場合には、前記図5のSTEP32の判定結果がNOとなる場合に、STEP37の判定処理(第1進入判定処理)を省略して、対象物が回避対象であると判定するようにしてもよい。   Supplementally, in the present embodiment, when the third area is set as an area outside the second area AR2, the determination result of STEP 37 in the first avoidance target determination process is always YES. Therefore, in this case, when the determination result of STEP 32 in FIG. 5 is NO, the determination process (first entry determination process) of STEP 37 is omitted, and it is determined that the object is an avoidance target. May be.

次に、本発明の第3実施形態を図9を参照して説明する。本実施形態は、第1実施形態における図4のSTEP16からSTEP17にかけての処理を変更したものであり、図9はその変更後の処理を部分的に示すフローチャートである。これ以外は、第1実施形態と同じである。   Next, a third embodiment of the present invention will be described with reference to FIG. In the present embodiment, the processing from STEP 16 to STEP 17 in FIG. 4 in the first embodiment is changed, and FIG. 9 is a flowchart partially showing the processing after the change. The rest is the same as in the first embodiment.

図9を参照して、本実施形態では、STEP16で横方向速度成分を有すると判定された対象物については、さらに、STEP60において、対象物の実空間位置に関する判定処理が実行される。具体的には、STEP60においては、対象物の現在のZ方向位置Z0、すなわち、車両10の前後方向における対象物の車両10からの距離が所定値以下であるか否かが判定される。この場合、該所定値は、Z方向における対象物の現在の相対速度Vz1に応じて設定され、例えば前記第1領域AR1のZ方向の境界を規定する所定値(=Vz1・T)と同じ値に設定される。ただし、STEP60の判定処理における所定値と、第1領域AR1のZ方向の境界を規定する所定値(=Vz1・T)とを同じ値にする必要はなく、例えば前者の値を後者の値と異なる値に設定してもよく、あるいは、前者の値を固定値に設定してもよい。   Referring to FIG. 9, in the present embodiment, for an object determined to have a lateral velocity component in STEP 16, a determination process related to the real space position of the object is further executed in STEP 60. Specifically, in STEP 60, it is determined whether or not the current Z-direction position Z0 of the object, that is, the distance of the object from the vehicle 10 in the front-rear direction of the vehicle 10 is equal to or less than a predetermined value. In this case, the predetermined value is set according to the current relative speed Vz1 of the object in the Z direction, and is, for example, the same value as a predetermined value (= Vz1 · T) that defines the boundary in the Z direction of the first area AR1. Set to However, the predetermined value in the determination process of STEP 60 and the predetermined value (= Vz1 · T) defining the boundary in the Z direction of the first area AR1 do not have to be the same value. For example, the former value is changed to the latter value. Different values may be set, or the former value may be set to a fixed value.

そして、STEP60の判定結果がYESとなる場合(Z0≦所定値となる場合)には、その対象物ついては、前記図4のSTEP19に進んで、前記第1回避対象判定処理が実行される。また、STEP60の判定結果がNOとなる場合には、前記STEP17からの処理が実行され、最終的に、実空間位置の時系列データの個数がN個に達したときに、前記図4のSTEP20に進んで、前記第2回避対象判定処理が実行される。   If the determination result in STEP 60 is YES (when Z0 ≦ predetermined value), the process proceeds to STEP 19 in FIG. 4 for the object, and the first avoidance object determination process is executed. If the determination result in STEP 60 is NO, the processing from STEP 17 is executed, and when the number of time-series data at the real space position finally reaches N, STEP 20 in FIG. Then, the second avoidance target determination process is executed.

以上のように、本実施形態では、STEP16における横方向速度成分の有無の判定結果と、STEP60における対象物の実空間位置に関する判定結果との組に応じて、第1回避対象判定処理と、第2回避対象判定処理とが選択的に実行されることとなる。   As described above, in the present embodiment, the first avoidance target determination process and the first avoidance process are performed according to the set of the determination result of the presence or absence of the lateral velocity component in STEP 16 and the determination result regarding the real space position of the object in STEP 60. 2 The avoidance target determination process is selectively executed.

この場合、本実施形態では、対象物が横方向速度成分を有するだけでなく、Z方向における対象物の相対位置が、車両10に比較的近い場合にのみ、第1回避対象判定処理が実行されることとなる。つまり、移動ベクトルを使用しない簡易的な回避対象判定処理である第1回避対象判定処理は、対象物を回避対象とすべきか否かの判定をより早急に行なうべき状況でのみ実行され、それ以外の状況では、第2回避対象判定処理が実行されて、対象物を回避対象とすべきか否かの判定の信頼性を高めて、注意喚起をより適切に行なうことができる。   In this case, in the present embodiment, the first avoidance target determination process is executed not only when the target object has a lateral velocity component but also when the relative position of the target object in the Z direction is relatively close to the vehicle 10. The Rukoto. In other words, the first avoidance target determination process, which is a simple avoidance target determination process that does not use a movement vector, is executed only in a situation in which it is more quickly determined whether or not an object should be an avoidance target. In this situation, the second avoidance target determination process is executed to increase the reliability of the determination as to whether or not the target object should be the avoidance target, so that alerting can be performed more appropriately.

補足すると、本実施形態において、STEP60の判定処理を前記第1回避対象判定処理における前記STEP31の判定処理(第1対象物位置判定処理)と同じにしてよい。その場合には、第1回避対象判定処理における前記STEP31の判定結果は常にYESとなるので、該STEP31の判定処理を省略してもよい。   Supplementally, in the present embodiment, the determination process in STEP 60 may be the same as the determination process in STEP 31 (first object position determination process) in the first avoidance target determination process. In that case, the determination result of STEP 31 in the first avoidance target determination process is always YES, and therefore the determination process of STEP 31 may be omitted.

また、本実施形態では、STEP60において、対象物のZ方向位置だけを判定するようにしたが、これに加えて、あるいは、これの代わりに、対象物のX方向位置を判定するようにしてもよい。例えば、対象物のX方向位置が第3領域AR3の左側境界線L5の左側の領域、あるいは、右側境界線L6の右側の領域に存在する場合には、STEP19の第1回避対象判定処理を実行せずに、STEP17からの処理を実行するようにしてもよい。   In this embodiment, only the position of the object in the Z direction is determined in STEP 60. However, in addition to or instead of this, the position of the object in the X direction may be determined. Good. For example, when the X direction position of the object is present in the left area of the left boundary line L5 of the third area AR3 or the right area of the right boundary line L6, the first avoidance object determination process in STEP 19 is executed. Instead, the processing from STEP 17 may be executed.

また、前記第1〜第3実施形態では、赤外線カメラ2R,2Lの撮像画像を基に対象物を検出するようにしたが、可視光カメラの撮像画像を基に対象物を検出するようにしてもよく、あるいは、レーダなどにより対象物を検出するようにしてもよい。また、対象物の車両10に対する相対位置や相対速度をレーダを使用して検出するようにしてもよい。   In the first to third embodiments, the object is detected based on the captured images of the infrared cameras 2R and 2L. However, the object is detected based on the captured image of the visible light camera. Alternatively, the object may be detected by a radar or the like. Moreover, you may make it detect the relative position and relative velocity with respect to the vehicle 10 of a target object using a radar.

本発明の第1実施形態の装置の全体構成を示す図。The figure which shows the whole structure of the apparatus of 1st Embodiment of this invention. 図1の周辺監視装置を備えた車両の斜視図。The perspective view of the vehicle provided with the periphery monitoring apparatus of FIG. 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。3 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1. 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。3 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1. 図4のSTEP19の処理を示すフローチャート。The flowchart which shows the process of STEP19 of FIG. 図4のSTEP20の処理を示すフローチャート。The flowchart which shows the process of STEP20 of FIG. 図4のSTEP19、20の処理で使用する領域を説明するための図。The figure for demonstrating the area | region used by the process of STEP19, 20 of FIG. 本発明の第2実施形態におけるSTEP16の判定処理を示すフローチャート。The flowchart which shows the determination process of STEP16 in 2nd Embodiment of this invention. 本発明の第3実施形態おける画像処理ユニットの処理の一部を示すフローチャート。10 is a flowchart showing a part of processing of an image processing unit in the third embodiment of the present invention.

符号の説明Explanation of symbols

1…画像処理ユニット(対象物検出手段、速度成分判定手段、回避対象判定手段、相対位置検出手段、移動方向特徴量算出手段)、STEP1〜9…対象物検出手段、STEP14,15…相対位置検出手段、STEP16…速度成分判定手段、STEP16〜STEP20…回避対象判定手段、STEP18…移動方向特徴量算出手段。   DESCRIPTION OF SYMBOLS 1 ... Image processing unit (Object detection means, speed component determination means, avoidance target determination means, relative position detection means, movement direction feature quantity calculation means), STEP 1 to 9 ... Object detection means, STEP 14, 15 ... Relative position detection Means, STEP 16 ... speed component determination means, STEP 16 to STEP 20 ... avoidance target determination means, STEP 18 ... movement direction feature quantity calculation means.

Claims (9)

少なくとも車両の前方側に存在する対象物を検出する対象物検出手段と、前記検出された対象物が前記車両との接触を回避すべき回避対象であるか否かを判定する回避対象判定手段とを備えた車両の周辺監視装置において、
前記対象物検出手段により検出された対象物の前記車両に対する相対速度が、該車両の車幅方向の速度成分であって、その大きさが所定の正の下限値以上となる横方向速度成分を有するか否かを逐次判定する速度成分判定手段を備え、
前記回避対象判定手段は、前記対象物が回避対象であるか否かの判定を行なうための複数種類の判定アルゴリズムを選択的に実行可能な手段であり、少なくとも前記速度成分判定手段の判定結果に応じて前記複数種類の判定アルゴリズムのうちの1つの判定アルゴリズムを選択して、該判定アルゴリズムを実行することにより前記対象物が回避対象であるか否かの判定を行なうことを特徴とする車両の周辺監視装置。
Object detection means for detecting an object present at least on the front side of the vehicle, and avoidance object determination means for determining whether or not the detected object is an avoidance object to avoid contact with the vehicle; In a vehicle periphery monitoring device equipped with
The relative speed of the object detected by the object detection means is a speed component in the vehicle width direction of the vehicle, and a lateral speed component whose magnitude is equal to or greater than a predetermined positive lower limit value. Speed component determination means for sequentially determining whether or not it has,
The avoidance target determination means is a means capable of selectively executing a plurality of types of determination algorithms for determining whether or not the object is an avoidance target, and at least the determination result of the speed component determination means Accordingly, a vehicle is characterized in that one of the plurality of types of determination algorithms is selected and the determination algorithm is executed to determine whether or not the object is an avoidance target. Perimeter monitoring device.
前記横方向速度成分は、その大きさが前記下限値よりも大きい所定の上限値以下となる速度成分であることを特徴とする請求項1記載の車両の周辺監視装置。   2. The vehicle periphery monitoring device according to claim 1, wherein the lateral speed component is a speed component whose magnitude is not more than a predetermined upper limit value that is larger than the lower limit value. 前記対象物検出手段により検出された対象物の前記車両に対する相対位置を逐次検出する相対位置検出手段を備え、前記横方向速度成分は、その向きが前記相対位置検出手段により検出された相対位置に応じて定まる所定の要件を満たす向きとなる速度成分であることを特徴とする請求項1または2記載の車両の周辺監視装置。   Relative position detection means for successively detecting the relative position of the object detected by the object detection means with respect to the vehicle is provided, and the direction of the lateral velocity component is the relative position detected by the relative position detection means. The vehicle periphery monitoring device according to claim 1, wherein the vehicle periphery monitoring device is a speed component in a direction that satisfies a predetermined requirement determined in accordance with the requirements. 前記対象物検出手段により検出された対象物の前記車両に対する相対位置を逐次検出する相対位置検出手段と、その相対位置が前記車両の前方の所定の領域に存在するか否かを判定する相対位置判定手段とを備え、前記回避対象判定手段は、前記速度成分判定手段の判定結果と前記相対位置判定手段の判定結果との組に応じて前記複数の判定アルゴリズムのうちの1つの判定アルゴリズムを選択して実行することを特徴とする請求項1記載の車両の周辺監視装置。   Relative position detecting means for sequentially detecting the relative position of the object detected by the object detecting means with respect to the vehicle, and a relative position for determining whether or not the relative position exists in a predetermined area in front of the vehicle A determination unit, wherein the avoidance target determination unit selects one determination algorithm from among the plurality of determination algorithms according to a set of a determination result of the speed component determination unit and a determination result of the relative position determination unit The vehicle periphery monitoring device according to claim 1, wherein the vehicle periphery monitoring device is executed. 前記対象物の前記車両に対する相対位置を逐次検出する相対位置検出手段と、
前記速度成分判定手段の判定処理の実行周期よりも長い時間間隔において前記相対位置検出手段により検出された前記対象物の相対位置の時系列に基づき該対象物の前記車両に対する移動方向を表す移動方向特徴量を算出する移動方向特徴量算出手段を備え、
前記速度成分判定手段の判定結果が否定的である場合に前記回避対象判定手段が選択する判定アルゴリズムは、少なくとも前記移動方向特徴量に関する判定処理を含むアルゴリズムにより構成され、前記速度成分判定手段の判定結果が肯定的である場合に前記回避対象判定手段が選択する判定アルゴリズムは、少なくとも前記移動方向特徴量に関する判定処理を含まないアルゴリズムにより構成されていることを特徴とする請求項1記載の車両の周辺監視装置。
Relative position detecting means for sequentially detecting a relative position of the object to the vehicle;
A moving direction representing a moving direction of the object relative to the vehicle based on a time series of the relative position of the object detected by the relative position detecting unit in a time interval longer than the execution period of the determination process of the speed component determining unit. A moving direction feature amount calculating means for calculating the feature amount;
The determination algorithm selected by the avoidance target determination unit when the determination result of the speed component determination unit is negative is configured by an algorithm including at least a determination process related to the moving direction feature amount, and the determination of the speed component determination unit 2. The vehicle according to claim 1, wherein when the result is affirmative, the determination algorithm selected by the avoidance target determination unit is configured by an algorithm that does not include at least a determination process related to the moving direction feature quantity. Perimeter monitoring device.
前記速度成分判定手段の判定処理の実行周期よりも長い時間間隔において前記相対位置検出手段により検出された前記対象物の相対位置の時系列に基づき該対象物の前記車両に対する移動方向を表す移動方向特徴量を算出する移動方向特徴量算出手段を備え、
前記速度成分判定手段の判定結果または前記相対位置判定手段の判定結果が否定的である場合に前記回避対象判定手段が選択する判定アルゴリズムは、少なくとも前記移動方向特徴量に関する判定処理を含むアルゴリズムにより構成され、前記速度成分判定手段の判定結果および前記相対位置判定手段の判定結果が肯定的である場合に前記回避対象判定手段が選択する判定アルゴリズムは、少なくとも前記移動方向特徴量に関する判定処理を含まないアルゴリズムにより構成されていることを特徴とする請求項4記載の車両の周辺監視装置。
A moving direction representing a moving direction of the object relative to the vehicle based on a time series of the relative position of the object detected by the relative position detecting unit in a time interval longer than the execution period of the determination process of the speed component determining unit. A moving direction feature amount calculating means for calculating the feature amount;
The determination algorithm selected by the avoidance target determination unit when the determination result of the speed component determination unit or the determination result of the relative position determination unit is negative is constituted by an algorithm including at least a determination process related to the moving direction feature amount The determination algorithm selected by the avoidance target determination unit when the determination result of the speed component determination unit and the determination result of the relative position determination unit are affirmative does not include at least a determination process related to the moving direction feature amount The vehicle periphery monitoring device according to claim 4, wherein the vehicle periphery monitoring device is configured by an algorithm.
請求項1〜6のいずれか1項に記載の車両の周辺監視装置を搭載したことを特徴とする車両。   A vehicle comprising the vehicle periphery monitoring device according to any one of claims 1 to 6. 少なくとも車両の前方側に存在する対象物を検出し、その検出した対象物が前記車両との接触を回避すべき回避対象であるか否かを判定する車両の周辺監視方法において、
前記検出された対象物の前記車両に対する相対速度が、該車両の車幅方向の速度成分であって、その大きさが所定の正の下限値以上となる横方向速度成分を有するか否かを逐次判定する速度成分判定ステップと、
前記対象物が回避対象であるか否かの判定を行なうための判定アルゴリズムを、あらかじめ用意された複数種類の判定アルゴリズムの中から、少なくとも前記速度成分判定ステップの判定結果に応じて選択し、その選択した判定アルゴリズムを実行することにより前記対象物が回避対象であるか否かの判定を行なう回避対象判定ステップとを備えたことを特徴とする車両の周辺監視方法。
In the vehicle periphery monitoring method for detecting an object present at least on the front side of the vehicle and determining whether the detected object is an avoidance object to avoid contact with the vehicle,
Whether the relative speed of the detected object with respect to the vehicle is a speed component in the vehicle width direction of the vehicle and has a lateral speed component whose magnitude is equal to or greater than a predetermined positive lower limit value. A speed component determining step for sequentially determining;
A determination algorithm for determining whether or not the object is an avoidance target is selected from a plurality of types of determination algorithms prepared in advance according to the determination result of at least the speed component determination step, A vehicle periphery monitoring method comprising: an avoidance target determination step for determining whether or not the target object is an avoidance target by executing a selected determination algorithm.
少なくとも車両の前方側に存在することが検出された対象物が、前記車両との接触を回避すべき回避対象であるか否かを判定する処理をコンピュータに実行させる車両の周辺監視用プログラムであって、
前記検出された対象物の前記車両に対する相対速度が、該車両の車幅方向の速度成分であって、その大きさが所定の正の下限値以上となる横方向速度成分を有するか否かを逐次判定する速度成分判定処理と、
前記対象物が回避対象であるか否かの判定を行なうための判定用アルゴリズムを、あらかじめ定められた複数の判定用アルゴリズムの中から、少なくとも前記速度成分判定処理の判定結果に応じて選択し、その選択した判定アルゴリズムにより前記対象物が前記回避対象であるか否かを判定する回避対象判定処理とを前記コンピュータに実行させる機能を備えることを特徴とする車両の周辺監視用プログラム。
A vehicle periphery monitoring program that causes a computer to execute a process of determining whether or not an object detected at least in front of the vehicle is an avoidance target that should avoid contact with the vehicle. And
Whether the relative speed of the detected object with respect to the vehicle is a speed component in the vehicle width direction of the vehicle and has a lateral speed component whose magnitude is equal to or greater than a predetermined positive lower limit value. Speed component determination processing for sequential determination;
A determination algorithm for determining whether or not the object is an avoidance target is selected from a plurality of predetermined determination algorithms according to at least the determination result of the speed component determination process, A vehicle periphery monitoring program comprising a function of causing the computer to execute an avoidance target determination process for determining whether or not the object is the avoidance target by the selected determination algorithm.
JP2006118998A 2006-04-24 2006-04-24 Vehicle periphery monitoring device Active JP4823753B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006118998A JP4823753B2 (en) 2006-04-24 2006-04-24 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006118998A JP4823753B2 (en) 2006-04-24 2006-04-24 Vehicle periphery monitoring device

Publications (3)

Publication Number Publication Date
JP2007293487A true JP2007293487A (en) 2007-11-08
JP2007293487A5 JP2007293487A5 (en) 2008-10-23
JP4823753B2 JP4823753B2 (en) 2011-11-24

Family

ID=38764074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006118998A Active JP4823753B2 (en) 2006-04-24 2006-04-24 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4823753B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008197720A (en) * 2007-02-08 2008-08-28 Mitsubishi Electric Corp Pedestrian warning device
WO2014174637A1 (en) * 2013-04-25 2014-10-30 トヨタ自動車株式会社 Drive assist device, and drive assist method
JP2015024713A (en) * 2013-07-25 2015-02-05 トヨタ自動車株式会社 Collision determination device
JP2015046132A (en) * 2013-08-29 2015-03-12 株式会社デンソー Collision possibility determination apparatus and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08122432A (en) * 1994-10-20 1996-05-17 Honda Motor Co Ltd Mobile detector
JPH09226490A (en) * 1996-02-22 1997-09-02 Nippon Soken Inc Detector for crossing object
JPH10105891A (en) * 1996-09-30 1998-04-24 Mazda Motor Corp Moving object recognizing device for vehicle
JPH11115660A (en) * 1997-10-21 1999-04-27 Mazda Motor Corp Obstacle warning device for vehicle
JPH11284997A (en) * 1998-03-31 1999-10-15 Oki Electric Ind Co Ltd Traveling object sensing device
JP2001084500A (en) * 1999-09-14 2001-03-30 Sumitomo Electric Ind Ltd Running support device for moving body
JP2003151096A (en) * 2001-11-19 2003-05-23 Honda Motor Co Ltd Ingression warning device
JP2003157498A (en) * 2001-11-19 2003-05-30 Honda Motor Co Ltd Obstacle warning device
JP2004227122A (en) * 2003-01-21 2004-08-12 Toyota Motor Corp Collision determination device
JP2004268829A (en) * 2003-03-11 2004-09-30 Denso Corp Pedestrian collision risk determining device for vehicle

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08122432A (en) * 1994-10-20 1996-05-17 Honda Motor Co Ltd Mobile detector
JPH09226490A (en) * 1996-02-22 1997-09-02 Nippon Soken Inc Detector for crossing object
JPH10105891A (en) * 1996-09-30 1998-04-24 Mazda Motor Corp Moving object recognizing device for vehicle
JPH11115660A (en) * 1997-10-21 1999-04-27 Mazda Motor Corp Obstacle warning device for vehicle
JPH11284997A (en) * 1998-03-31 1999-10-15 Oki Electric Ind Co Ltd Traveling object sensing device
JP2001084500A (en) * 1999-09-14 2001-03-30 Sumitomo Electric Ind Ltd Running support device for moving body
JP2003151096A (en) * 2001-11-19 2003-05-23 Honda Motor Co Ltd Ingression warning device
JP2003157498A (en) * 2001-11-19 2003-05-30 Honda Motor Co Ltd Obstacle warning device
JP2004227122A (en) * 2003-01-21 2004-08-12 Toyota Motor Corp Collision determination device
JP2004268829A (en) * 2003-03-11 2004-09-30 Denso Corp Pedestrian collision risk determining device for vehicle

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008197720A (en) * 2007-02-08 2008-08-28 Mitsubishi Electric Corp Pedestrian warning device
WO2014174637A1 (en) * 2013-04-25 2014-10-30 トヨタ自動車株式会社 Drive assist device, and drive assist method
CN105122330A (en) * 2013-04-25 2015-12-02 丰田自动车株式会社 Drive assist device, and drive assist method
JP5999259B2 (en) * 2013-04-25 2016-09-28 トヨタ自動車株式会社 Driving support device and driving support method
DE112013006986B4 (en) * 2013-04-25 2020-12-10 Toyota Jidosha Kabushiki Kaisha Driver assistance device and driver assistance method
JP2015024713A (en) * 2013-07-25 2015-02-05 トヨタ自動車株式会社 Collision determination device
JP2015046132A (en) * 2013-08-29 2015-03-12 株式会社デンソー Collision possibility determination apparatus and program

Also Published As

Publication number Publication date
JP4823753B2 (en) 2011-11-24

Similar Documents

Publication Publication Date Title
JP4173901B2 (en) Vehicle periphery monitoring device
JP4456086B2 (en) Vehicle periphery monitoring device
US9965957B2 (en) Driving support apparatus and driving support method
JP4203512B2 (en) Vehicle periphery monitoring device
US9073484B2 (en) Surrounding area monitoring apparatus for vehicle
JP5503728B2 (en) Vehicle periphery monitoring device
JP4426535B2 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
JP4173896B2 (en) Vehicle periphery monitoring device
JP3987057B2 (en) Vehicle periphery monitoring device
JP4171501B2 (en) Vehicle periphery monitoring device
EP2784763A1 (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP2007241898A (en) Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device
JP2010146494A (en) Vehicle surroundings monitoring device
US7974445B2 (en) Vehicle periphery monitoring device, vehicle, and vehicle periphery monitoring program
JP2007304033A (en) Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring
US9160986B2 (en) Device for monitoring surroundings of a vehicle
JP2007334511A (en) Object detection device, vehicle, object detection method and program for object detection
JP4813304B2 (en) Vehicle periphery monitoring device
JP4823753B2 (en) Vehicle periphery monitoring device
JP5192007B2 (en) Vehicle periphery monitoring device
JP4762774B2 (en) Ranging device and vehicle periphery monitoring device
JP4629638B2 (en) Vehicle periphery monitoring device
JP4694441B2 (en) Vehicle perimeter monitoring system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110907

R150 Certificate of patent or registration of utility model

Ref document number: 4823753

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250