JP2008174028A - Target detection system and method - Google Patents

Target detection system and method Download PDF

Info

Publication number
JP2008174028A
JP2008174028A JP2007007401A JP2007007401A JP2008174028A JP 2008174028 A JP2008174028 A JP 2008174028A JP 2007007401 A JP2007007401 A JP 2007007401A JP 2007007401 A JP2007007401 A JP 2007007401A JP 2008174028 A JP2008174028 A JP 2008174028A
Authority
JP
Japan
Prior art keywords
imaging device
image data
area
vehicle
position coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007007401A
Other languages
Japanese (ja)
Inventor
Toru Murase
亨 村瀬
Hiroaki Saito
裕昭 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2007007401A priority Critical patent/JP2008174028A/en
Publication of JP2008174028A publication Critical patent/JP2008174028A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a target detection system and a target detection method capable of preventing erroneous identification of a target with high accuracy by verifying an identification result obtained by using a far infrared imaging device again by means of a near infrared imaging device (visible light imaging device). <P>SOLUTION: An obstacle candidate area is specified based on image data obtained from the far infrared imaging device 1. When it is determined that the specified area is a target area corresponding to a target, positional coordinates, a feature quantity, and vehicle positional information at the acquisition time of the image data from which the target area is specified are recorded. When a predetermined condition is satisfied, the far infrared imaging device 1 for acquiring image data is switched to the near infrared imaging device 2, and image data at different times are acquired. The obstacle candidate area is identified again, and if it disagrees with the positional coordinates of the stored target area, the stored positional coordinates of the target area, its feature quantity, and the vehicle positional information at the acquisition time of the image data from the target area is specified are deleted. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、車両の周辺を撮像する撮像装置で撮像した画像データに基づいて、認識すべき対象物の誤認識を防止することができる対象物検出システム、及び対象物検出方法に関する。   The present invention relates to an object detection system and an object detection method that can prevent erroneous recognition of an object to be recognized based on image data captured by an imaging device that captures the periphery of a vehicle.

走行中の車両から衝突する可能性のある歩行者等の対象物を検出し、運転者に警告を出力する対象物検出システムが多々開発されている。従来の対象物検出システムは、例えば赤外線カメラ等の撮像装置により撮像された車両周辺の画像から、車両と衝突する可能性が高い歩行者等の対象物を抽出して、対象物が存在する旨の情報を運転者に提供する。   Many object detection systems that detect an object such as a pedestrian that may collide with a traveling vehicle and output a warning to the driver have been developed. A conventional object detection system extracts an object such as a pedestrian who has a high possibility of colliding with a vehicle from an image around the vehicle captured by an imaging device such as an infrared camera, and the object exists. Information to the driver.

例えば特許文献1では、歩行者等の対象物までの距離は、左右一組のステレオカメラが撮影した自車両周辺の画像において対象物の視差を求めることにより算出している。そして、算出した距離、位置、移動方向等に基づいて、衝突する可能性の高い対象物を検出して警報を出力している。   For example, in Patent Document 1, the distance to a target object such as a pedestrian is calculated by obtaining the parallax of the target object in an image around the host vehicle captured by a pair of left and right stereo cameras. Based on the calculated distance, position, moving direction, etc., an object that is highly likely to collide is detected and an alarm is output.

しかし、歩行者等の対象物と類似した温度分布を示す道路脇の電柱、街灯のポール、自動販売機等の人工構造物が存在する場合、該人工構造物を対象物として誤認識しやすいことから、例えば歩行者が存在しないにもかかわらず運転者に警報が出力され、運転者にとっては逆に運転の妨げになるおそれがあるという問題があった。斯かる問題を解決するために、例えば特許文献2では、検出された対象物の特徴及び位置を、運転者の操作により記憶手段へ記憶することができ、記憶してある対象物が再度検出された場合には、該対象物に対する警報の出力を中止する対象物検出装置が開示されている。特許文献2では、運転者が意識的に警報出力の対象から除外したい対象物を選択することが可能となる。
特開2001−006096号公報 特開2004−106682号公報
However, if there are artificial structures such as roadside utility poles, streetlight poles, vending machines, etc. that show a temperature distribution similar to that of objects such as pedestrians, it is easy to misrecognize the artificial structures as objects Therefore, for example, a warning is output to the driver even though there is no pedestrian, and there is a problem that the driver may hinder driving. In order to solve such a problem, for example, in Patent Document 2, the feature and position of the detected object can be stored in the storage means by the operation of the driver, and the stored object is detected again. In such a case, there is disclosed an object detection device that stops outputting an alarm for the object. In Patent Document 2, it is possible for the driver to consciously select an object to be excluded from the alarm output target.
JP 2001-006096 A JP 2004-106682 A

しかし、上述した対象物検出装置では、歩行者であると誤認識された対象物を運転者が選択する必要が有り、走行中に運転者が斯かる操作を行うことは非常に危険であるという問題点があった。   However, in the above-described object detection device, it is necessary for the driver to select an object that is misrecognized as a pedestrian, and it is extremely dangerous for the driver to perform such an operation while traveling. There was a problem.

本発明は、斯かる事情に鑑みてなされたものであり、撮像装置を用いて得られた認識結果について異なる時点において自動で再検証することにより、高い精度で対象物の誤認識を回避することができ、かつ運転者による操作を必要としない対象物検出システム、及び対象物検出方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and avoids erroneous recognition of an object with high accuracy by automatically re-verifying recognition results obtained using an imaging device at different points in time. It is an object of the present invention to provide an object detection system and an object detection method that can be operated and do not require an operation by a driver.

上記目的を達成するために第1発明に係る対象物検出システムは、車両の周辺を撮像する撮像装置と、該撮像装置で撮像した画像を取得して画像中に含まれる対象物を検出する検出装置とを備える対象物検出システムにおいて、車両の位置情報を検出する車両位置検出装置を備え、前記検出装置は、前記撮像装置から取得した一の画像データに基づいて障害物候補領域を特定する障害物候補領域特定手段と、特定された障害物候補領域に対応する一の画像データの特徴量に基づいて対象物に相当する対象物領域であるか否かを判断する手段と、該手段で対象物領域であると判断した場合、該対象物領域の位置座標、及び該対象物領域を特定した一の画像データを取得した時点の車両の位置情報を記録する手段と、前記一の画像データを取得した時点から異なる時点で、記録してある車両の位置情報に対応する位置にて、他の画像データを取得する手段と、該他の画像データに基づいて障害物候補領域を再特定する手段と、再特定された障害物候補領域の位置座標、及び記録してある対象物領域の位置座標が略一致しているか否かを判断する手段と、該手段で略一致していないと判断した場合、記録してある前記対象物領域の位置座標、及び該対象物領域を特定した一の画像データを取得した時点の車両の位置情報を削除する手段とを備え、記録された対象物領域の位置座標及び車両の位置情報に基づいて、対象物の誤認識を防止するようにしてあることを特徴とする。   In order to achieve the above object, an object detection system according to a first aspect of the present invention includes an imaging device that images the periphery of a vehicle, and a detection that acquires an image captured by the imaging device and detects an object included in the image. An object detection system comprising a device, comprising: a vehicle position detection device that detects vehicle position information, wherein the detection device identifies an obstacle candidate region based on one image data acquired from the imaging device An object candidate area specifying means; a means for determining whether the object area corresponds to the object based on a feature amount of one image data corresponding to the specified obstacle candidate area; and If it is determined to be an object area, the position coordinates of the object area and means for recording the position information of the vehicle at the time when one image data specifying the object area is acquired; and the one image data Acquired Means for acquiring other image data at a position corresponding to the recorded vehicle position information at a different time from the time, and means for respecifying an obstacle candidate area based on the other image data; When it is determined that the position coordinates of the re-specified obstacle candidate area and the position coordinates of the recorded object area are substantially matched, and the means do not substantially match, Means for deleting the recorded position coordinates of the object area and the position information of the vehicle at the time when one image data specifying the object area is acquired, and the recorded position coordinates of the object area And, based on the position information of the vehicle, misrecognition of the object is prevented.

第2発明に係る対象物検出システムは、車両の周辺を撮像する第1撮像装置と、該第1撮像装置で撮像した画像を取得して画像中に含まれる対象物を検出する検出装置とを備える対象物検出システムにおいて、車両の位置情報を検出する車両位置検出装置と、撮像可能な波長帯域が前記第1撮像装置と異なる第2撮像装置とを備え、前記検出装置は、前記第1撮像装置から取得した一の画像データに基づいて障害物候補領域を特定する障害物候補領域特定手段と、特定された障害物候補領域に対応する一の画像データの特徴量に基づいて対象物に相当する対象物領域であるか否かを判断する手段と、該手段で対象物領域であると判断した場合、該対象物領域の位置座標、及び該対象物領域を特定した一の画像データを取得した時点の車両の位置情報を記録する手段と、所定の条件を具備している場合、前記第2撮像装置を選択し、前記所定の条件を具備していない場合、前記第1撮像装置を選択する手段と、選択された前記第1撮像装置又は第2撮像装置で、記録してある車両の位置情報に対応する位置にて、前記第1撮像装置で一の画像データを取得した時点と異なる時点での他の画像データを取得する手段と、前記他の画像データに基づいて障害物候補領域を再特定する手段と、再特定された障害物候補領域の位置座標、及び記録してある対象物領域の位置座標が略一致しているか否かを判断する手段と、該手段で略一致していないと判断した場合、記録してある前記対象物領域の位置座標、及び該対象物領域を特定した一の画像データを取得した時点の車両の位置情報を削除する手段とを備え、記録された対象物領域の位置座標及び車両の位置情報に基づいて、対象物の誤認識を防止するようにしてあることを特徴とする。   An object detection system according to a second aspect of the present invention includes a first imaging device that images the periphery of a vehicle, and a detection device that acquires an image captured by the first imaging device and detects an object included in the image. The object detection system includes a vehicle position detection device that detects vehicle position information, and a second imaging device that has a wavelength band that can be imaged different from that of the first imaging device, and the detection device includes the first imaging device. Corresponding to an object based on an obstacle candidate area specifying means for specifying an obstacle candidate area based on one image data acquired from the apparatus, and a feature amount of the one image data corresponding to the specified obstacle candidate area A means for determining whether or not the object area is to be acquired, and if the means determines that the object area is, the position coordinates of the object area and one image data specifying the object area are acquired. The position of the vehicle at the time Means for recording information, and if the predetermined condition is satisfied, selects the second imaging device; if not, the means for selecting the first imaging device is selected. In the first imaging device or the second imaging device, another image at a time different from the time when the first imaging device acquired one image data at a position corresponding to the recorded vehicle position information. Means for acquiring data, means for respecifying an obstacle candidate area based on the other image data, position coordinates of the respecified obstacle candidate area, and position coordinates of the recorded object area Means for determining whether or not they substantially match, and when the means determines that they do not substantially match, the recorded position coordinates of the object area and one image data specifying the object area Delete vehicle location information at the time of obtaining That a means, based on the position coordinates and the position information of the vehicle of the recorded object region, and wherein the you have to prevent the erroneous recognition of the object.

第3発明に係る対象物検出システムは、前記第1撮像装置は遠赤外線撮像装置、前記第2撮像装置は、可視光撮像装置又は近赤外線撮像装置であり、周囲の照度を検出する照度センサを備え、前記所定の条件を具備しているか否かの判断基準は、前記照度センサの検出値が所定値を超えたか否かであり、前記照度センサの検出値が所定値を超えていると判断された場合、前記第2撮像装置を選択し、所定値以下であると判断された場合、前記第1撮像装置を選択するようにしてあることを特徴とする。   In the object detection system according to a third aspect of the invention, the first imaging device is a far-infrared imaging device, the second imaging device is a visible light imaging device or a near-infrared imaging device, and an illuminance sensor that detects ambient illuminance is provided. A criterion for determining whether or not the predetermined condition is satisfied is whether or not the detection value of the illuminance sensor exceeds a predetermined value, and it is determined that the detection value of the illuminance sensor exceeds the predetermined value If the second imaging device is selected, the first imaging device is selected when it is determined that the second imaging device is equal to or less than a predetermined value.

第4発明に係る対象物検出システムは、前記第1撮像装置は遠赤外線撮像装置、前記第2撮像装置は、可視光撮像装置又は近赤外線撮像装置であり、車両のヘッドライトをオンオフするスイッチを備え、前記所定の条件を具備しているか否かの判断基準は、前記スイッチがオフ状態であるか否かであり、前記スイッチがオフ状態であると判断された場合、前記第2撮像装置を選択し、前記スイッチがオン状態であると判断された場合、前記第1撮像装置を選択するようにしてあることを特徴とする。   In the object detection system according to a fourth aspect of the invention, the first imaging device is a far-infrared imaging device, the second imaging device is a visible light imaging device or a near-infrared imaging device, and a switch for turning on and off a vehicle headlight is provided. A criterion for determining whether or not the predetermined condition is satisfied is whether or not the switch is in an off state. When the switch is determined to be in an off state, the second imaging device is When it is selected and it is determined that the switch is on, the first imaging device is selected.

第5発明に係る対象物検出システムは、前記第1撮像装置は遠赤外線撮像装置、前記第2撮像装置は、可視光撮像装置又は近赤外線撮像装置であり、前記所定の条件を具備しているか否かの判断基準は、前記第2撮像装置で撮像された画像の輝度値の平均値が所定値を超えているか否かであり、輝度値の平均値が所定値を超えていると判断された場合、前記第2撮像装置を選択し、前記平均値が所定値以下であると判断された場合、前記第1撮像装置(又は第2撮像装置)を選択するようにしてあることを特徴とする。   In the object detection system according to a fifth aspect of the present invention, the first imaging device is a far-infrared imaging device, and the second imaging device is a visible light imaging device or a near-infrared imaging device, and has the predetermined condition The determination criterion is whether or not the average value of the luminance value of the image captured by the second imaging device exceeds a predetermined value, and it is determined that the average value of the luminance value exceeds the predetermined value. The second imaging device is selected, and when it is determined that the average value is equal to or less than a predetermined value, the first imaging device (or the second imaging device) is selected. To do.

第6発明に係る対象物検出方法は、車両の周辺を撮像する撮像装置で撮像した画像を取得して画像中に含まれる対象物を検出する対象物検出方法において、前記撮像装置から取得した一の画像データに基づいて障害物候補領域を特定し、特定された障害物候補領域に対応する一の画像データの特徴量に基づいて対象物に相当する対象物領域であるか否かを判断し、対象物領域であると判断した場合、該対象物領域の位置座標、及び該対象物領域を特定した一の画像データを取得した時点の車両の位置情報を記録し、前記一の画像データを取得した時点から異なる時点で、記録してある車両の位置情報に対応する位置にて、他の画像データを取得し、該他の画像データに基づいて障害物候補領域を再特定し、再特定された障害物候補領域の位置座標、及び記録してある対象物領域の位置座標が略一致しているか否かを判断し、略一致していないと判断した場合、記録してある前記対象物領域の位置座標、及び該対象物領域を特定した一の画像データを取得した時点の車両の位置情報を削除することを特徴とする。   An object detection method according to a sixth aspect of the present invention is an object detection method for acquiring an image captured by an image capturing apparatus that captures the periphery of a vehicle and detecting an object included in the image. The obstacle candidate area is identified based on the image data of the image, and it is determined whether the object area corresponds to the object based on the feature amount of one image data corresponding to the identified obstacle candidate area. When it is determined that the target area is the object area, the position coordinates of the target area and the position information of the vehicle at the time when one image data specifying the target area is acquired are recorded. Acquire other image data at a position corresponding to the recorded vehicle position information at a different time from the acquired time, re-specify the obstacle candidate area based on the other image data, and re-specify Of the obstacle candidate area It is determined whether or not the position coordinates of the target area and the recorded object area are substantially the same, and when it is determined that they are not approximately the same, the position coordinates of the object area that is recorded and the target The vehicle position information at the time when one image data specifying the object area is acquired is deleted.

第1発明、及び第6発明では、車両の周辺を撮像する可視光撮像装置、遠赤外線撮像装置、近赤外線撮像装置等の撮像装置で撮像した画像を取得して画像中に含まれる対象物を検出する。より詳細には撮像装置から取得した一の画像データに基づいて障害物候補領域を特定する。特定された障害物候補領域に対応する一の画像データの特徴量に基づいて対象物に相当する対象物領域であるか否かを判断し、対象物領域であると判断した場合、該対象物領域の位置座標、及び該対象物領域を特定した一の画像データを取得した時点の車両の位置情報を記録する。次に、一の画像データを取得した時点から異なる時点で、記録してある車両の位置情報に対応する位置にて、他の画像データを取得し、他の画像データに基づいて障害物候補領域を再特定する。再特定された障害物候補領域の位置座標と、記録してある対象物領域の位置座標とが略一致しているか否かを判断し、略一致していないと判断した場合、記録してある対象物領域の位置座標、及び該対象物領域を特定した一の画像データを取得した時点の車両の位置情報を削除する。一度対象物であると認識された対象物領域と同一位置において、別個のタイミングで再度障害物候補領域が特定された場合、該位置には自動販売機等の誤認識しやすい静止物が存在する可能性が高いと判断し、対象物の記録を残しておくことで、次回以降の撮像装置を用いた対象物検出処理では歩行者等の対象物であると誤認識することを回避することができる。また、運転者が意識して情報の登録作業を行う必要が無く、安全に運転を続行することが可能となる。   In the first invention and the sixth invention, an image captured by an imaging device such as a visible light imaging device, a far-infrared imaging device, or a near-infrared imaging device that captures the periphery of the vehicle is acquired, and an object included in the image is obtained. To detect. More specifically, the obstacle candidate area is specified based on one image data acquired from the imaging apparatus. When it is determined whether the target area corresponds to the target object based on the feature amount of one image data corresponding to the identified obstacle candidate area, The position coordinates of the area and the position information of the vehicle at the time when one image data specifying the object area is acquired are recorded. Next, another image data is acquired at a position corresponding to the recorded vehicle position information at a time different from the time when the one image data is acquired, and the obstacle candidate area is based on the other image data. Respecify. It is determined whether or not the position coordinates of the re-specified obstacle candidate area and the position coordinates of the recorded object area are substantially matched. The position coordinates of the object area and the position information of the vehicle at the time when one image data specifying the object area is acquired are deleted. When an obstacle candidate area is identified again at a different timing at the same position as the object area once recognized as an object, there is a stationary object that is easily misrecognized, such as a vending machine. By judging that the possibility is high and keeping a record of the object, it is possible to avoid erroneously recognizing that the object is a pedestrian or the like in the object detection process using the imaging device from the next time onward. it can. In addition, it is not necessary for the driver to register information consciously, and it is possible to continue driving safely.

第2発明では、撮像可能な波長帯域が異なる第1撮像装置及び第2撮像装置を状況に応じて使い分ける。状況に応じて選択された第1撮像装置又は第2撮像装置のいずれかを使用して撮像した画像を用いるので対象物の検出精度が上がる。第1撮像装置及び第2撮像装置は、例えば可視光撮像装置、遠赤外線撮像装置、近赤外線撮像装置等である。   In the second invention, the first imaging device and the second imaging device having different wavelength bands that can be imaged are selectively used depending on the situation. Since an image picked up using either the first image pickup device or the second image pickup device selected according to the situation is used, the detection accuracy of the object is improved. The first imaging device and the second imaging device are, for example, a visible light imaging device, a far infrared imaging device, a near infrared imaging device, or the like.

第3発明では、周囲の照度を検出する照度センサの検出値が所定値を超えている場合、可視光撮像装置又は近赤外線撮像装置である第2撮像装置を選択し、所定値以下である場合、遠赤外線撮像装置である第1撮像装置を選択する。これにより、車両の周囲の明るさが所定値以上である場合、例えば昼間には、第2撮像装置を用いることで障害物候補領域の特定を行うことができ、対象物領域の認識結果を検証することができる。また、車両の周囲の明るさが所定値以下である場合、例えば夜間には、第1撮像装置を用いることにより、第2撮像装置では確認することができない対象物の存在も確実に検出することが可能となり、対象物領域の認識結果を検証することができる。   In the third invention, when the detection value of the illuminance sensor that detects the ambient illuminance exceeds a predetermined value, the second imaging device, which is a visible light imaging device or a near-infrared imaging device, is selected and is equal to or less than the predetermined value. The first imaging device that is a far-infrared imaging device is selected. Thereby, when the brightness around the vehicle is a predetermined value or more, for example, in the daytime, the obstacle candidate area can be specified by using the second imaging device, and the recognition result of the object area is verified. can do. Further, when the brightness around the vehicle is equal to or lower than a predetermined value, for example, at night, by using the first imaging device, it is possible to reliably detect the presence of an object that cannot be confirmed by the second imaging device. And the recognition result of the object area can be verified.

第4発明では、車両のヘッドライトをオンオフするスイッチがオフ状態である場合、可視光撮像装置又は近赤外線撮像装置である第2撮像装置を選択し、スイッチがオン状態である場合、遠赤外線撮像装置である第1撮像装置を選択する。これにより、車両のヘッドライトが必要ではない場合、例えば昼間には、第2撮像装置を用いることで障害物候補領域の特定を行うことができ、対象物領域の認識結果を検証することができる。また、車両のヘッドライトが必要である場合、例えば夜間には、第1撮像装置を用いることにより、第2撮像装置では確認することができない対象物の存在も確実に検出することが可能となり、対象物領域の認識結果を検証することができる。   In the fourth invention, when the switch for turning on / off the headlight of the vehicle is in the off state, the second imaging device which is the visible light imaging device or the near infrared imaging device is selected, and when the switch is in the on state, the far infrared imaging The first imaging device, which is a device, is selected. Thereby, when the vehicle headlight is not necessary, for example, in the daytime, the obstacle candidate area can be specified by using the second imaging device, and the recognition result of the object area can be verified. . In addition, when a vehicle headlight is necessary, for example, at night, by using the first imaging device, it is possible to reliably detect the presence of an object that cannot be confirmed by the second imaging device, The recognition result of the object area can be verified.

第5発明では、可視光撮像装置又は近赤外線撮像装置である第2撮像装置で撮像された画像の輝度値の平均値が所定値以下であると判断された場合、遠赤外線撮像装置である第1線撮像装置を選択し、平均値超であると判断された場合、第2撮像装置を選択する。これにより、第2撮像装置で撮像された画像の輝度値の平均値が所定値以下、すなわち車両の周囲の明るさが一定値以下である場合には、第1撮像装置を用いることで障害物候補領域の特定を行うことができ、夜間走行時の認識結果を検証することができる。また、第2撮像装置で撮像された画像の輝度値の平均値が所定値を超えている、すなわち車両の周囲の明るさが一定値以上である場合には、第1撮像装置を用いることにより、第2撮像装置では確認することができない対象物の存在も確実に検出することが可能となり、対象物領域の認識結果を検証することができる。   In the fifth aspect of the invention, when it is determined that the average value of the luminance values of the images picked up by the second image pickup device which is a visible light image pickup device or a near infrared image pickup device is equal to or less than a predetermined value, When the one-line imaging device is selected and it is determined that the average value is exceeded, the second imaging device is selected. Thus, when the average value of the luminance values of the images captured by the second imaging device is not more than a predetermined value, that is, when the brightness of the surroundings of the vehicle is not more than a certain value, an obstacle can be obtained by using the first imaging device. Candidate areas can be specified, and recognition results during night driving can be verified. In addition, when the average value of the luminance values of the images captured by the second imaging device exceeds a predetermined value, that is, when the brightness around the vehicle is a certain value or more, the first imaging device is used. The presence of an object that cannot be confirmed by the second imaging apparatus can be reliably detected, and the recognition result of the object area can be verified.

本発明によれば、一度歩行者等の対象物であると認識された対象物領域と同一位置において、別個のタイミングで再度障害物候補領域が特定された場合、該位置には自動販売機等の誤認識しやすい静止物が存在する可能性が高いと判断し、該対象物領域の位置座標、及び該対象物領域を特定した画像データを取得した車両の位置座標の記録を残しておくことで、次回以降の撮像装置を用いた対象物検出処理では歩行者等であると誤認識することを回避することができる。また、運転者が意識して情報の登録作業を行う必要が無く、安全に運転を続行することが可能となる。   According to the present invention, when an obstacle candidate area is specified again at a different timing at the same position as the object area once recognized as an object such as a pedestrian, a vending machine or the like is located at the position. It is determined that there is a high possibility that there is a stationary object that is likely to be erroneously recognized, and the position coordinates of the object area and the position coordinates of the vehicle that acquired the image data specifying the object area are recorded. Thus, it is possible to avoid erroneous recognition that the object is a pedestrian or the like in the object detection process using the imaging device from the next time onward. In addition, it is not necessary for the driver to register information consciously, and it is possible to continue driving safely.

以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、以下の実施の形態では、車両が走行中に、遠赤外線撮像装置(撮像装置)で撮像された画像に基づいて車両の前方に障害物、例えば歩行者、自転車等の対象物を検出する場合を例として説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following embodiment, an obstacle such as a pedestrian or a bicycle is detected in front of the vehicle based on an image captured by the far-infrared imaging device (imaging device) while the vehicle is traveling. A case will be described as an example.

(実施の形態1)
図1は、本発明の実施の形態1に係る対象物検出システムの構成を示す模式図である。本実施の形態1では、走行中に車両周辺の画像を撮像する一組の遠赤外線撮像装置1、1を、車両前方の中央近傍のフロントグリル内(バンパー内でも可能)に搭載している。なお、遠赤外線撮像装置1、1は、波長が7〜14マイクロメートルの赤外光を用いた撮像装置である。
(Embodiment 1)
FIG. 1 is a schematic diagram showing a configuration of an object detection system according to Embodiment 1 of the present invention. In the first embodiment, a set of far-infrared imaging devices 1 and 1 that capture an image of the periphery of a vehicle during traveling are mounted in a front grille (also possible in a bumper) near the center in front of the vehicle. The far-infrared imaging devices 1 and 1 are imaging devices using infrared light having a wavelength of 7 to 14 micrometers.

図1において、遠赤外線撮像装置1、1は、車両のフロントグリル内の左右方向の略対称な位置に並置してある。遠赤外線撮像装置1、1で撮像された画像データは、NTSC等のアナログ映像方式、又はデジタル映像方式に対応した映像ケーブル7を介して接続してある検出装置3へ送信される。   In FIG. 1, far-infrared imaging devices 1 and 1 are juxtaposed in a substantially symmetrical position in the left-right direction within a front grill of a vehicle. Image data captured by the far-infrared imaging devices 1 and 1 is transmitted to a detection device 3 connected via a video cable 7 corresponding to an analog video system such as NTSC or a digital video system.

検出装置3には、操作部を備えた表示装置4が、NTSC、VGA、DVI等の映像方式に対応したケーブル8を介して接続されており、また音声、効果音等により聴覚的な警告を発する警報装置5等の出力装置が、CANに準拠した車載LANケーブル6を介して接続されている。   A display device 4 having an operation unit is connected to the detection device 3 via a cable 8 corresponding to a video system such as NTSC, VGA, DVI, etc., and an audible warning is given by sound, sound effect, etc. An output device such as an alarm device 5 is connected via an in-vehicle LAN cable 6 compliant with CAN.

また、車両の位置を検出するためにGPS通信することが可能な車両位置検出装置9を車両の天井部分に設けてある。車両位置検出装置9は、CANに準拠した車載LANケーブル6を介して検出装置3に接続されており、車両の緯度情報及び経度情報を時系列的に送信する。   In addition, a vehicle position detecting device 9 capable of performing GPS communication for detecting the position of the vehicle is provided on the ceiling portion of the vehicle. The vehicle position detection device 9 is connected to the detection device 3 via the in-vehicle LAN cable 6 conforming to CAN, and transmits the latitude information and longitude information of the vehicle in time series.

図2は、本発明の実施の形態1に係る対象物検出システムの遠赤外線撮像装置1の構成を示すブロック図である。画像撮像部11は、光学信号を電気信号に変換する撮像素子をマトリックス状に備えている。赤外光用の撮像素子としては、マイクロマシニング(micromachining)技術を用いた酸化バナジウムのボロメータ型、BST(Barium−Strontium−Titanium)の焦電型等の赤外線センサを用いている。画像撮像部11は、車両の周囲の赤外光像を輝度信号として読み取り、読み取った輝度信号を信号処理部12へ送信する。   FIG. 2 is a block diagram illustrating a configuration of the far-infrared imaging device 1 of the object detection system according to Embodiment 1 of the present invention. The image pickup unit 11 includes image pickup elements that convert optical signals into electric signals in a matrix. As an imaging device for infrared light, an infrared sensor such as a vanadium oxide bolometer type using a micromachining technique or a BST (Barium-Strontium-Titanium) pyroelectric type sensor is used. The image capturing unit 11 reads an infrared light image around the vehicle as a luminance signal, and transmits the read luminance signal to the signal processing unit 12.

信号処理部12は、LSIであり、画像撮像部11から受信した輝度信号をRGB信号等のデジタル信号に変換し、撮像素子のばらつきを補正する処理、欠陥素子の補正処理、ゲイン制御処理等を行い、画像データとして画像メモリ13へ記憶する。なお、画像データを画像メモリ13へ一時記憶することは必須ではなく、映像出力部14を介して直接検出装置3へ送信しても良いことは言うまでもない。   The signal processing unit 12 is an LSI, converts the luminance signal received from the image imaging unit 11 into a digital signal such as an RGB signal, and performs processing for correcting variations in the imaging device, correction processing for a defective device, gain control processing, and the like. And stored in the image memory 13 as image data. Needless to say, it is not essential to temporarily store the image data in the image memory 13, and the image data may be transmitted directly to the detection device 3 via the video output unit 14.

映像出力部14は、LSIであり、NTSC等のアナログ映像方式、又はデジタル映像方式に対応した映像ケーブル7を介して検出装置3に画像データを出力する。   The video output unit 14 is an LSI, and outputs image data to the detection device 3 via a video cable 7 compatible with an analog video system such as NTSC or a digital video system.

図3は、本発明の実施の形態1に係る対象物検出システムの検出装置3の構成を示すブロック図である。検出装置3は画像処理ECUであり、少なくとも映像入力部31a、映像出力部31b、通信インタフェース部31c、画像メモリ32、及びRAM331を内蔵するLSI33で構成されている。   FIG. 3 is a block diagram showing the configuration of the detection device 3 of the object detection system according to Embodiment 1 of the present invention. The detection device 3 is an image processing ECU, and includes at least a video input unit 31a, a video output unit 31b, a communication interface unit 31c, an image memory 32, and an LSI 33 incorporating a RAM 331.

映像入力部31aは、遠赤外線撮像装置1、1から映像信号の入力を行う。映像入力部31aは、遠赤外線撮像装置1、1から入力された画像データを、1フレーム単位に同期させて画像メモリ32に記憶する。また、映像出力部31bは、映像ケーブル8を介して液晶ディスプレイ等の表示装置4に対して画像データを出力する。   The video input unit 31 a inputs video signals from the far infrared imaging devices 1 and 1. The video input unit 31a stores the image data input from the far-infrared imaging devices 1 and 1 in the image memory 32 in synchronization with each frame. The video output unit 31 b outputs image data to the display device 4 such as a liquid crystal display via the video cable 8.

通信インタフェース部31cは、車載LANケーブル6を介してブザー、スピーカ等の警報装置5に対して合成音等の出力信号を送信する。また、通信インタフェース部31cは、車載LANケーブル6を介して車両位置検出装置9から車両の位置を示す緯度情報及び経度情報を一定時間間隔で受信し、RAM331に記憶する。   The communication interface unit 31 c transmits an output signal such as a synthesized sound to the alarm device 5 such as a buzzer or a speaker via the in-vehicle LAN cable 6. Further, the communication interface unit 31 c receives latitude information and longitude information indicating the position of the vehicle from the vehicle position detection device 9 via the in-vehicle LAN cable 6 at regular time intervals, and stores them in the RAM 331.

画像メモリ32は、SRAM、フラッシュメモリ、SDRAM等であり、映像入力部31aを介して遠赤外線撮像装置1、1から入力された画像データを記憶する。   The image memory 32 is an SRAM, flash memory, SDRAM or the like, and stores image data input from the far-infrared imaging devices 1 and 1 via the video input unit 31a.

画像処理を行うLSI33は、画像メモリ32に記憶された画像データをフレーム単位で読出し、障害物候補領域を特定する。LSI33は、読み出した画像データの視差に基づいて、特定された障害物候補領域の代表点、例えば重心の位置座標を推算する。なお、障害物候補領域の代表点の位置座標は、左右に設置した撮像装置による視差に基づいて距離を算出して推算する方法に限定されるものではなく、例えば距離検出用のレーダ装置、超音波装置等を別途備え、直接求める方法であっても良い。レーダ装置、超音波装置等を備えている場合には、遠赤外線撮像装置1は1基設置していれば足りることは言うまでもない。   The LSI 33 that performs image processing reads the image data stored in the image memory 32 in units of frames and specifies an obstacle candidate area. The LSI 33 estimates a representative point of the identified obstacle candidate area, for example, the position coordinates of the center of gravity, based on the parallax of the read image data. The position coordinates of the representative point of the obstacle candidate area are not limited to the method of calculating and estimating the distance based on the parallax by the imaging devices installed on the left and right. A method of directly obtaining a sonic device and the like may be used. Needless to say, when a radar device, an ultrasonic device, or the like is provided, it is sufficient to install one far-infrared imaging device 1.

LSI33は、読み出した画像データに基づいて、障害物候補領域の特徴量を抽出し、抽出された特徴量に基づいて歩行者等の対象物が存在するか否かを判断する。LSI33が、歩行者等の対象物が存在すると判断した場合、LSI33は、歩行者等の対象物であると認識された対象物領域の代表点の位置座標、特徴量、及び算出の基礎となった画像データを撮像した時点の車両の位置座標をRAM331に記録する。   The LSI 33 extracts the feature amount of the obstacle candidate area based on the read image data, and determines whether or not an object such as a pedestrian exists based on the extracted feature amount. When the LSI 33 determines that an object such as a pedestrian is present, the LSI 33 is a basis for the position coordinates, the feature amount, and the calculation of the representative point of the object area recognized as the object such as the pedestrian. The position coordinates of the vehicle at the time of capturing the image data are recorded in the RAM 331.

LSI33は、異なる時間帯に同一の車両位置で撮像された画像メモリ32に記憶された画像データをフレーム単位で読出し、再度障害物候補領域を特定する。例えば記録してある対象物領域に関する情報の基礎となる画像データを撮像した時点が夜間である場合には、昼間に撮像された画像データを読み出す。LSI33は、読み出した画像データの視差に基づいて、特定された障害物候補領域の位置座標を推算し、RAM331を照会して記録してある対象物領域の位置座標が相違しているか否かを判断する。   The LSI 33 reads out image data stored in the image memory 32 captured at the same vehicle position in different time zones in units of frames, and specifies an obstacle candidate region again. For example, when the image data that is the basis of the information on the recorded object area is captured at night, the image data captured in the daytime is read out. The LSI 33 estimates the position coordinates of the identified obstacle candidate area based on the parallax of the read image data, and queries the RAM 331 to determine whether the position coordinates of the object area recorded are different. to decide.

LSI33が両領域の位置座標が相違すると判断した場合、対象物検出結果が適切であった、すなわちRAM331に記録してある対象物領域に関する情報が歩行者に関する情報であったと判断する。位置座標が略一致すると判断した場合、LSI33は、歩行者等の対象物を検出したとの認識が誤りであったと判断し、RAM331に記録してある対象物領域に関する情報が人工構造物等の静止物に関する情報であると判断する。   When the LSI 33 determines that the position coordinates of the two areas are different, it determines that the object detection result is appropriate, that is, the information regarding the object area recorded in the RAM 331 is information regarding the pedestrian. If it is determined that the position coordinates are substantially the same, the LSI 33 determines that the recognition that the target object such as a pedestrian has been detected is an error, and the information on the target area recorded in the RAM 331 includes information such as the artificial structure. Judged as information on a stationary object.

以下、本発明の実施の形態1に係る対象物検出システムの検出装置3のLSI33の詳細な処理について説明する。図4及び図5は、本発明の実施の形態1に係る対象物検出システムの検出装置3のLSI33の対象物検出情報の記録処理の手順を示すフローチャートである。   Hereinafter, detailed processing of the LSI 33 of the detection device 3 of the object detection system according to the first embodiment of the present invention will be described. 4 and 5 are flowcharts showing the procedure of the object detection information recording process of the LSI 33 of the detection apparatus 3 of the object detection system according to the first embodiment of the present invention.

LSI33は、車両の位置座標(緯度情報及び経度情報)を車両位置検出装置9より取得する(ステップS401)。次いで、LSI33は、遠赤外線撮像装置1、1で撮像した画像データを取得する(ステップS402)。   The LSI 33 acquires vehicle position coordinates (latitude information and longitude information) from the vehicle position detection device 9 (step S401). Next, the LSI 33 acquires image data captured by the far-infrared imaging devices 1 and 1 (step S402).

そして、LSI33は、障害物候補領域を特定するべく、画像メモリ32から取得した一方の遠赤外線撮像装置1で撮像された画像データを所定の大きさの小領域に分割する(ステップS403)。分割する小領域の設定方法は特に限定されるものではない。例えばm×n(m、nは自然数)画素からなる方形領域として設定しても良い。本実施の形態1では、3×3画素からなる方形領域として小領域を設定する。   Then, the LSI 33 divides the image data captured by the one far-infrared imaging device 1 acquired from the image memory 32 into small regions of a predetermined size in order to specify an obstacle candidate region (step S403). The method for setting the small area to be divided is not particularly limited. For example, you may set as a square area | region which consists of m * n (m and n are natural numbers) pixels. In the first embodiment, a small area is set as a square area composed of 3 × 3 pixels.

LSI33は、分割された小領域を基準領域として、一方の遠赤外線撮像装置1で撮像された画像データ中の一の基準領域に対応する領域、すなわち同一の物体を指す領域(以下「対応領域」と呼ぶ)を、他方の遠赤外撮像装置1で撮像した画像データ中から探索する。具体的には、一方の遠赤外線撮像装置1で撮像した画像データ中の一の基準領域と、他方の遠赤外線撮像装置1で撮像した画像データ中の基準領域と同サイズの領域(以下「探索領域」と呼ぶ)との間で相関計算を行い(ステップS404)、相関値が所定値より大きいか否かを判断する(ステップS405)。   The LSI 33 uses a divided small area as a reference area, an area corresponding to one reference area in image data captured by one far-infrared imaging device 1, that is, an area indicating the same object (hereinafter referred to as “corresponding area”). Is searched from the image data captured by the other far-infrared imaging device 1. Specifically, one reference area in the image data captured by one far-infrared imaging device 1 and an area of the same size as the reference area in the image data captured by the other far-infrared imaging device 1 (hereinafter referred to as “search”). (Referred to as “region”) (step S404), and it is determined whether or not the correlation value is greater than a predetermined value (step S405).

LSI33が、基準領域と探索領域との相関値が所定値より小さいと判断した場合(ステップS405:NO)、LSI33は、探索領域を変更し、処理をステップS404に戻して上述した処理を繰り返す。LSI33が、相関値が所定値より大きいと判断した場合(ステップS405:YES)、LSI33は探索領域を対応領域と見なし、基準領域と対応領域との視差を算出する(ステップS406)。具体的には、一方の遠赤外線撮像装置1、例えば右に設置した遠赤外線撮像装置1で撮像された画像中の基準領域と、該基準領域の対応領域、すなわち他方の遠赤外線撮像装置1、例えば左に設置した遠赤外線撮像装置1で撮像された画像中で相関値が所定値より大きい探索領域との視差を算出する(ステップS406)。   When the LSI 33 determines that the correlation value between the reference area and the search area is smaller than the predetermined value (step S405: NO), the LSI 33 changes the search area, returns the process to step S404, and repeats the above-described process. When the LSI 33 determines that the correlation value is greater than the predetermined value (step S405: YES), the LSI 33 regards the search area as the corresponding area and calculates the parallax between the reference area and the corresponding area (step S406). Specifically, a reference region in an image captured by one far-infrared imaging device 1, for example, a far-infrared imaging device 1 installed on the right, and a corresponding region of the reference region, that is, the other far-infrared imaging device 1, For example, the parallax with the search area having a correlation value larger than a predetermined value in the image captured by the far-infrared imaging device 1 installed on the left is calculated (step S406).

LSI33は、一方の遠赤外線撮像装置1で撮像された画像中のすべての基準領域について視差を算出したか否かを判断し(ステップS407)、LSI33が、未算出である基準領域が存在すると判断した場合(ステップS407:NO)、LSI33は、基準領域を変更して(ステップS408)、処理をステップS404へ戻し、上述した処理を繰り返す。LSI33が、画像中のすべての基準領域について視差を算出したと判断した場合(ステップS407:YES)、LSI33は、視差が略一致する隣接する小領域を結合して障害物候補領域として特定する(ステップS409)。   The LSI 33 determines whether or not parallax has been calculated for all reference regions in the image captured by one far-infrared imaging device 1 (step S407), and the LSI 33 determines that there is an uncalculated reference region. In the case (step S407: NO), the LSI 33 changes the reference area (step S408), returns the process to step S404, and repeats the above-described process. When the LSI 33 determines that the parallax has been calculated for all the reference areas in the image (step S407: YES), the LSI 33 combines adjacent small areas having substantially the same parallax and identifies it as an obstacle candidate area ( Step S409).

LSI33は、特定された障害物候補領域において、歩行者等の対象物が存在するか否かを判断するのに使用する特徴量を抽出し、判定規則に則って障害物候補領域が歩行者等の対象物を示す対象物領域か否かを判定する。例としては、障害物候補領域の画素データと、人間の標準的な温度分布を示すテンプレートの画素データとのパターンマッチングによる相関値を特徴量として算出し(ステップS410)、判定規則として設定した所定値より算出した相関値が大きいか否かを判断する(ステップS411)。LSI33が、相関値が所定値以下であると判断した場合(ステップS411:NO)、LSI33は、歩行者等の対象物の存在を示す対象物領域ではないものと判断し、ステップS410に戻って次の障害物候補領域に対して同様の処理を繰り返す。   The LSI 33 extracts a feature amount used to determine whether or not an object such as a pedestrian exists in the specified obstacle candidate area, and the obstacle candidate area is determined to be a pedestrian or the like in accordance with a determination rule. It is determined whether or not the target area indicates the target object. As an example, a correlation value obtained by pattern matching between pixel data of an obstacle candidate area and pixel data of a template indicating a standard human temperature distribution is calculated as a feature amount (step S410), and a predetermined value set as a determination rule It is determined whether or not the correlation value calculated from the value is large (step S411). When the LSI 33 determines that the correlation value is equal to or less than the predetermined value (step S411: NO), the LSI 33 determines that the area is not an object area indicating the presence of an object such as a pedestrian, and the process returns to step S410. The same process is repeated for the next obstacle candidate area.

LSI33が、相関値が所定値より大きいと判断した場合(ステップS411:YES)、LSI33は、該障害物候補領域が歩行者等の対象物を示す対象物領域であると判断して、算出した該対象物領域の代表点の位置座標、抽出された特徴量、及び該対象物領域を特定した画像データを取得した時点での車両の位置座標を、RAM331に記録する(ステップS412)。   When the LSI 33 determines that the correlation value is greater than the predetermined value (step S411: YES), the LSI 33 determines that the obstacle candidate area is an object area indicating an object such as a pedestrian, and calculates The position coordinates of the representative point of the object area, the extracted feature amount, and the position coordinates of the vehicle when the image data specifying the object area are acquired are recorded in the RAM 331 (step S412).

なお、LSI33が、歩行者等の対象物が存在するか否かを判断するのに使用する特徴量として、人間の標準的な温度分布を示すテンプレートの画素データと、障害物候補領域の画素データとをマッチングすることにより算出した相関値Rを用いる場合、相関値Rは(数1)に基づいて算出される。   It should be noted that as the feature quantity used by the LSI 33 to determine whether or not an object such as a pedestrian exists, pixel data of a template indicating a standard human temperature distribution and pixel data of an obstacle candidate area When the correlation value R calculated by matching is used, the correlation value R is calculated based on (Equation 1).

Figure 2008174028
Figure 2008174028

(数1)において、Nはテンプレートの総画素数を、kは0≦k≦(N−1)の整数を、Fkはテンプレート内におけるk番目の画素の画素値を、Gkは障害物候補領域におけるk番目の画素の画素値を、それぞれ示している。   In (Expression 1), N is the total number of pixels of the template, k is an integer of 0 ≦ k ≦ (N−1), Fk is the pixel value of the kth pixel in the template, and Gk is the obstacle candidate area. The pixel values of the kth pixel in FIG.

なお、特定された障害物候補領域が歩行者等の対象物であると認識すべき画像であるか否かを判断するのに使用する特徴量としては、上述した相関値に限定されるものではなく、歩行者等の対象物であると認識される領域の大きさ、縦横比、画素値の平均値、分散等、歩行者等の対象物であると認識される領域を特定することが可能な特徴量であれば何でも良いし、これらを組み合わせて判断するものであっても良い。また、判定規則も閾値処理に限定されるものではなく、サポートベクターマシン、ブースティングなどの学習機械による判定を行っても良い。   Note that the feature amount used to determine whether or not the identified obstacle candidate region is an image that should be recognized as an object such as a pedestrian is not limited to the correlation value described above. It is possible to specify the area that is recognized as an object such as a pedestrian, such as the size, aspect ratio, average pixel value, and variance of the area that is recognized as an object such as a pedestrian. Any feature amount may be used, or a combination of these may be determined. Further, the determination rule is not limited to threshold processing, and determination may be performed by a learning machine such as a support vector machine or boosting.

LSI33が、該障害物候補領域が歩行者等の対象物の存在を示す対象物領域であると判断した場合、LSI33は、歩行者等の対象物を検出した旨を示す信号を表示装置4又は警報装置5へ出力する。表示装置4では、歩行者等の対象物を検出した旨を示す表示を出力する、警告表示を点滅させる等の警告表示を出力する。警報装置5では、ブザーの鳴動等によって歩行者等の対象物の存在を運転者へ報知する。   When the LSI 33 determines that the obstacle candidate area is an object area indicating the presence of an object such as a pedestrian, the LSI 33 displays a signal indicating that the object such as a pedestrian has been detected on the display device 4 or Output to the alarm device 5. The display device 4 outputs a warning display such as outputting a display indicating that an object such as a pedestrian has been detected or blinking the warning display. The alarm device 5 notifies the driver of the presence of an object such as a pedestrian by sounding a buzzer or the like.

図6及び図7は、本発明の実施の形態1に係る対象物検出システムの検出装置3のLSI33の誤認識回避処理の手順を示すフローチャートである。LSI33は、車両の位置座標を車両位置検出装置9から取得し(ステップS601)、RAM331に記録してある車両の位置座標と略一致しているか否かを判断する(ステップS602)。LSI33が、相違していると判断した場合(ステップS602:NO)、LSI33は、ステップS601へ戻り、車両の位置座標を取得する。LSI33が、略一致していると判断した場合(ステップS602:YES)、LSI33は、遠赤外線撮像装置1、1で撮像した画像データを取得する(ステップS603)。   6 and 7 are flowcharts showing a procedure of erroneous recognition avoidance processing of the LSI 33 of the detection apparatus 3 of the object detection system according to Embodiment 1 of the present invention. The LSI 33 acquires the vehicle position coordinates from the vehicle position detection device 9 (step S601), and determines whether or not the vehicle position coordinates are substantially coincident with the vehicle position coordinates recorded in the RAM 331 (step S602). When it is determined that the LSI 33 is different (step S602: NO), the LSI 33 returns to step S601 and acquires the position coordinates of the vehicle. When it is determined that the LSIs 33 substantially match (step S602: YES), the LSI 33 acquires image data captured by the far-infrared imaging devices 1 and 1 (step S603).

車両が同一の位置を異なる時間に走行する場合に、前回歩行者等の対象物の存在を検出した位置に同じ特徴量を有する障害物候補領域が存在することはほとんどない。歩行者等は移動するからである。しかし、歩行者等と類似した温度分布を示す道路脇の電柱、街灯のポール、自動販売機等の人工構造物を検出している場合には、撮像した時間が異なる場合であっても略同一の位置に略同一の特徴量を有する対象物を検出することになる。   When the vehicle travels at the same position at different times, there is almost no obstacle candidate region having the same feature amount at the position where the presence of an object such as a pedestrian is detected last time. This is because pedestrians move. However, when detecting artificial structures such as roadside utility poles, streetlight poles, vending machines, etc. that show a temperature distribution similar to that of pedestrians, etc., even if the times taken are different, they are substantially the same. An object having substantially the same feature amount at the position of is detected.

したがって、車両が同一の位置を異なる時間に走行する場合に、前回歩行者等の対象物の存在を検出した位置に同じ特徴量を有する障害物候補領域が存在するときには、前回歩行者等の対象物の存在を検出したこと自体が誤りであるものと判断し、前回の対象物領域の位置及び特徴量の記録を残しておくことにより、次回以降歩行者等の対象物であると誤認識することを回避することができる。逆に車両が同一の位置を異なる時間に走行する場合に、前回歩行者等の対象物であると検出した位置に同じ特徴量を有する障害物候補領域が存在しないときには、前回歩行者等の対象物の存在を検出したことは正しいものと判断し、RAM331に記録してある対象物領域の位置及び特徴量を削除する。   Therefore, when the vehicle travels at the same position at different times, and there is an obstacle candidate area having the same feature amount at the position where the presence of the object such as the previous pedestrian is detected, the object such as the previous pedestrian Judging that the presence of an object itself is an error and leaving a record of the position and feature amount of the previous object area, it will be erroneously recognized as an object such as a pedestrian after the next time. You can avoid that. Conversely, when the vehicle travels at the same position at different times and there is no obstacle candidate area having the same feature amount at the position detected as the object of the previous pedestrian or the like, the object of the previous pedestrian or the like It is determined that the presence of the object is detected correctly, and the position and feature amount of the object area recorded in the RAM 331 are deleted.

上述の処理を具現化すべくLSI33は、画像メモリ32から取得した画像データを所定の大きさの小領域に分割する(ステップS604)。分割する小領域の設定方法は特に限定されるものではない。例えばm×n(m、nは自然数)画素からなる方形領域として設定しても良い。本実施の形態1では、3×3画素からなる方形領域として小領域を設定する。   In order to implement the above-described processing, the LSI 33 divides the image data acquired from the image memory 32 into small areas having a predetermined size (step S604). The method for setting the small area to be divided is not particularly limited. For example, you may set as a square area | region which consists of m * n (m and n are natural numbers) pixels. In the first embodiment, a small area is set as a square area composed of 3 × 3 pixels.

LSI33は、分割された小領域を基準領域として、一方の遠赤外線撮像装置1で撮像された画像データ中の基準領域と、他方の遠赤外線撮像装置1で撮像された画像データ中の探索領域との間で正規相互相関値を算出して(ステップS605)、相関値が所定値より大きい探索領域が存在するか否かを判断する(ステップS606)。   The LSI 33 uses a divided small area as a reference area, a reference area in image data captured by one far-infrared imaging device 1, and a search area in image data captured by the other far-infrared imaging apparatus 1. A normal cross-correlation value is calculated (step S605), and it is determined whether or not there is a search region having a correlation value greater than a predetermined value (step S606).

LSI33が、所定値より大きい探索領域が存在しないと判断した場合(ステップS606:NO)、LSI33は、探索領域を変更し、処理をステップS605へ戻して上述した処理を繰り返す。LSI33が、所定値より大きい探索領域が存在すると判断した場合(ステップS606:YES)、LSI33は、基準領域と該探索領域間の視差、すなわち一方の遠赤外線撮像装置1、例えば右に設置した遠赤外線撮像装置1で撮像された画像中の基準領域と、該基準領域に対応する他方の遠赤外線撮像装置1、例えば左に設置した遠赤外線撮像装置1で撮像された画像中で相関値が所定値より大きい探索領域との視差を算出する(ステップS607)。   When the LSI 33 determines that there is no search area larger than the predetermined value (step S606: NO), the LSI 33 changes the search area, returns the process to step S605, and repeats the above-described process. When the LSI 33 determines that there is a search area larger than the predetermined value (step S606: YES), the LSI 33 has a parallax between the reference area and the search area, that is, one of the far-infrared imaging devices 1, for example, a distant place installed on the right. A correlation value is predetermined in an image captured by a reference region in an image captured by the infrared imaging device 1 and the other far infrared imaging device 1 corresponding to the reference region, for example, a far infrared imaging device 1 installed on the left. The parallax with the search area larger than the value is calculated (step S607).

LSI33は、画像中のすべての小領域について視差を算出したか否かを判断し(ステップS608)、LSI33が、未算出である小領域が存在すると判断した場合(ステップS608:NO)、LSI33は、小領域を変更して(ステップS609)、処理をステップS605へ戻し、上述した処理を繰り返す。LSI33が、画像中のすべての小領域について視差を算出したと判断した場合(ステップS608:YES)、LSI33は、視差が略一致する隣接する小領域を結合して障害物候補領域として特定する(ステップS610)。   The LSI 33 determines whether or not the parallax has been calculated for all the small areas in the image (step S608), and if the LSI 33 determines that there is a small area that has not been calculated (step S608: NO), the LSI 33 Then, the small area is changed (step S609), the process returns to step S605, and the above-described process is repeated. When the LSI 33 determines that the parallax has been calculated for all the small regions in the image (step S608: YES), the LSI 33 combines adjacent small regions whose parallax is substantially the same and identifies it as an obstacle candidate region ( Step S610).

次いで、LSI33は、障害物候補領域までの距離を、左右の撮像装置の視差画像に基づいて推算することにより、障害物候補領域の重心位置(代表点)の位置座標を推算する(ステップS611)。もちろん、レーザ装置、超音波装置等により実際に存在する障害物までの距離、及び障害物の代表点の位置座標を直接求めても良い。   Next, the LSI 33 estimates the position coordinates of the center of gravity position (representative point) of the obstacle candidate area by estimating the distance to the obstacle candidate area based on the parallax images of the left and right imaging devices (step S611). . Of course, the distance to the obstacle that actually exists and the position coordinates of the representative point of the obstacle may be directly obtained by a laser device, an ultrasonic device, or the like.

次いで、LSI33は、推算した障害物候補領域の位置座標が、RAM331に記録してある対象物領域の位置座標と相違するか否かを判断する(ステップS612)。LSI33が、相違すると判断した場合(ステップS612:YES)、LSI33は、前回歩行者等の対象物の存在を検出した処理が正しい処理であったと判断し、RAM331に記録してある対象物領域の位置座標、該対象物領域に対応する画像データの特徴量、及び該対象物領域を特定した画像データを取得した時点の車両の位置座標を削除する(ステップS613)。なお、位置座標が相違するか否かは、RAM331に記録してある対象物領域の位置座標から所定の範囲内に、推算した障害物候補領域の位置座標が含まれるか否かで判断する。   Next, the LSI 33 determines whether or not the estimated position coordinates of the obstacle candidate area are different from the position coordinates of the object area recorded in the RAM 331 (step S612). If it is determined that the LSI 33 is different (step S612: YES), the LSI 33 determines that the process for detecting the presence of the object such as the pedestrian is the correct process, and the object area recorded in the RAM 331 is determined. The position coordinates, the feature amount of the image data corresponding to the object area, and the position coordinates of the vehicle when the image data specifying the object area are acquired are deleted (step S613). Whether or not the position coordinates are different is determined based on whether or not the estimated position coordinates of the obstacle candidate area are included within a predetermined range from the position coordinates of the object area recorded in the RAM 331.

LSI33が、略一致すると判断した場合(ステップS612:NO)、LSI33は、前回歩行者等の対象物の存在を検出した処理が誤っており、検出したのは人工構造物であるものと判断し、RAM331の該対象物領域の記録を残す(ステップS614)。次回以降、RAM331に記録してある対象物領域の位置座標、該対象物領域に対応する画像データの特徴量、及び該対象物領域を特定した画像データを取得した時点の車両の位置座標と照合することにより、明らかに歩行者等の対象物ではなく人工的な構造物である対象物を、歩行者等の対象物であると誤認識することを未然に回避することが可能となる。したがって、LSI33は、歩行者等の対象物の存在を検出した旨を示す信号を表示装置4又は警報装置5へ出力することがなく、運転者は不要な警告表示、警報の鳴動等に煩わされることなく安全に運転することができる。   When it is determined that the LSI 33 substantially matches (step S612: NO), the LSI 33 determines that the process of detecting the presence of an object such as a pedestrian is incorrect last time and that the detected object is an artificial structure. The record of the object area in the RAM 331 is left (step S614). From the next time, the position coordinates of the object area recorded in the RAM 331, the feature amount of the image data corresponding to the object area, and the position coordinates of the vehicle at the time of obtaining the image data specifying the object area are collated. By doing so, it becomes possible to avoid erroneously recognizing an object that is not an object such as a pedestrian but an artificial structure as an object such as a pedestrian. Therefore, the LSI 33 does not output a signal indicating that the presence of an object such as a pedestrian has been detected to the display device 4 or the alarm device 5, and the driver is bothered by unnecessary warning display, alarm sound, and the like. You can drive safely without any problems.

以上のように本実施の形態1によれば、一度歩行者等の対象物であると認識された対象物領域が、別個のタイミングでは歩行者等の対象物ではないと認識された場合には、歩行者等の対象物であるとの認識自体が誤りであるものと判断し、該対象物領域の位置座標、特徴量、及び該対象物領域を特定した画像データを取得した車両の位置座標を記録しておくことで、次回以降の対象物検出処理では歩行者等の対象物であると誤認識することを回避することができる。また、運転者が意識して情報の登録作業を行う必要が無く、安全に運転を続行することが可能となる。   As described above, according to the first embodiment, when an object area that has been recognized as an object such as a pedestrian is not an object such as a pedestrian at a separate timing, The position coordinates of the vehicle that has determined that the recognition itself as an object such as a pedestrian is an error, and acquired the position coordinates, the feature amount of the object area, and the image data specifying the object area Can be prevented from being erroneously recognized as an object such as a pedestrian in the subsequent object detection process. In addition, it is not necessary for the driver to register information consciously, and it is possible to continue driving safely.

なお、上述した実施の形態1において、検出装置3のLSI33が上述した処理を実行しているが、別個に制御装置を設けても良いし、他の機器の制御装置が兼用しても良い。   In the first embodiment described above, the LSI 33 of the detection device 3 executes the above-described processing, but a control device may be provided separately, or a control device of another device may also be used.

また、上述のように障害物候補領域の代表点の位置座標と対象物領域の代表点の位置座標とが略一致するか否かで判断することに限定されるものではなく、例えば障害物候補領域の特徴量と対象物領域の特徴量とが略一致するか否かの判断を併用しても良いことは言うまでも無い。
更に、実施の形態1では、遠赤外線撮像装置を備えた場合を説明したが、撮像可能な波長帯域が遠赤外線撮像装置と異なる可視光撮像装置、近赤外線撮像装置等の他の撮像装置を備えても良い。但し、赤外線撮像装置を備えた方が、赤外線を放射する歩行者等以外の静止物を誤認識する可能性が低いため、より好適である。
Further, as described above, the determination is not limited to whether or not the position coordinates of the representative point of the obstacle candidate area and the position coordinates of the representative point of the object area substantially coincide with each other. Needless to say, the determination of whether or not the feature amount of the region and the feature amount of the object region substantially coincide may be used together.
Furthermore, in the first embodiment, the case where the far-infrared imaging device is provided has been described, but other imaging devices such as a visible light imaging device and a near-infrared imaging device having a wavelength band that can be imaged are different from those of the far-infrared imaging device. May be. However, it is more preferable to provide the infrared imaging device because there is a low possibility of erroneously recognizing a stationary object other than a pedestrian or the like that emits infrared rays.

(実施の形態2)
図8は、本発明の実施の形態2に係る対象物検出システムの構成を示す模式図である。本実施の形態2では、走行中に車両周辺の画像を撮像する一組の遠赤外線撮像装置1、1(第1撮像装置)及び近赤外線撮像装置2、2(第2撮像装置)を、車両前方の中央近傍のフロントグリル内(バンパー内でも可能)に搭載している。なお、遠赤外線撮像装置1、1は、波長が7〜14マイクロメートルの赤外光を用いた撮像装置であり、近赤外線撮像装置2、2は、波長が0.8〜3マイクロメートルの赤外光を用いた撮像装置である。また、近赤外線撮像装置2、2の代わりに、波長が0.4〜0.8マイクロメートルの可視光を用いた可視光撮像装置を備えていても良い。
(Embodiment 2)
FIG. 8 is a schematic diagram showing a configuration of an object detection system according to Embodiment 2 of the present invention. In the second embodiment, a set of far-infrared imaging devices 1, 1 (first imaging device) and near-infrared imaging devices 2, 2 (second imaging device) that capture an image of the periphery of the vehicle while traveling are used for the vehicle. It is mounted in the front grille near the front center (possible in a bumper). The far infrared imaging devices 1 and 1 are imaging devices using infrared light having a wavelength of 7 to 14 micrometers, and the near infrared imaging devices 2 and 2 are red having a wavelength of 0.8 to 3 micrometers. This is an imaging device using external light. Further, instead of the near infrared imaging devices 2 and 2, a visible light imaging device using visible light having a wavelength of 0.4 to 0.8 micrometers may be provided.

図8において、遠赤外線撮像装置1、1及び近赤外線撮像装置2、2は、車両のフロントグリル内の左右方向の略対称な位置に並置してある。遠赤外線撮像装置1、1及び近赤外線撮像装置2、2で撮像された画像データは、NTSC等のアナログ映像方式、又はデジタル映像方式に対応した映像ケーブル7を介して接続してある検出装置3へ送信される。   In FIG. 8, the far-infrared imaging devices 1 and 1 and the near-infrared imaging devices 2 and 2 are juxtaposed at substantially symmetrical positions in the left-right direction in the front grill of the vehicle. Image data captured by the far-infrared imaging devices 1 and 1 and the near-infrared imaging devices 2 and 2 are connected via a video cable 7 corresponding to an analog video system such as NTSC or a digital video system. Sent to.

検出装置3には、遠赤外線撮像装置1、1、近赤外線撮像装置2、2の他、操作部を備えた表示装置4が、NTSC、VGA、DVI等の映像方式に対応したケーブル8を介して接続されており、また音声、効果音等により聴覚的な警告を発する警報装置5等の出力装置が、CANに準拠した車載LANケーブル6を介して接続されている。   In addition to the far-infrared imaging devices 1, 1, the near-infrared imaging devices 2, and 2, the detection device 3 includes a display device 4 having an operation unit via a cable 8 that supports video systems such as NTSC, VGA, and DVI. An output device such as an alarm device 5 that issues an audible warning by voice, sound effect, or the like is connected via an in-vehicle LAN cable 6 that conforms to CAN.

また、車両の位置を検出するためにGPS通信することが可能な車両位置検出装置9を車両の天井部分に設けてある。車両位置検出装置9は、CANに準拠した車載LANケーブル6を介して検出装置3に接続されており、車両の緯度情報及び経度情報を時系列的に送信する。   In addition, a vehicle position detecting device 9 capable of performing GPS communication for detecting the position of the vehicle is provided on the ceiling portion of the vehicle. The vehicle position detection device 9 is connected to the detection device 3 via the in-vehicle LAN cable 6 conforming to CAN, and transmits the latitude information and longitude information of the vehicle in time series.

画像撮像部11は、光学信号を電気信号に変換する撮像素子をマトリックス状に備えている。赤外光用の撮像素子としては、マイクロマシニング技術を用いた酸化バナジウムのボロメータ型、BSTの焦電型等の赤外線センサを用いている。画像撮像部11は、車両の周囲の赤外光像を輝度信号として読み取り、読み取った輝度信号を信号処理部12へ送信する。   The image pickup unit 11 includes image pickup elements that convert optical signals into electric signals in a matrix. As an imaging device for infrared light, an infrared sensor such as a vanadium oxide bolometer type or a BST pyroelectric type using a micromachining technique is used. The image capturing unit 11 reads an infrared light image around the vehicle as a luminance signal, and transmits the read luminance signal to the signal processing unit 12.

信号処理部12は、LSIであり、画像撮像部11から受信した輝度信号をRGB信号等のデジタル信号に変換し、撮像素子のばらつきを補正する処理、欠陥素子の補正処理、ゲイン制御処理等を行い、画像データとして画像メモリ13へ記憶する。なお、画像データを画像メモリ13へ一時記憶することは必須ではなく、映像出力部14を介して直接検出装置3へ送信しても良いことは言うまでもない。   The signal processing unit 12 is an LSI, converts the luminance signal received from the image imaging unit 11 into a digital signal such as an RGB signal, and performs processing for correcting variations in the imaging device, correction processing for a defective device, gain control processing, and the like. And stored in the image memory 13 as image data. Needless to say, it is not essential to temporarily store the image data in the image memory 13, and the image data may be transmitted directly to the detection device 3 via the video output unit 14.

映像出力部14は、LSIであり、NTSC等のアナログ映像方式、又はデジタル映像方式に対応した映像ケーブル7を介して検出装置3に画像データを出力する。   The video output unit 14 is an LSI, and outputs image data to the detection device 3 via a video cable 7 compatible with an analog video system such as NTSC or a digital video system.

近赤外線撮像装置2の構成は、遠赤外線撮像装置1と同様であり、撮像素子として用いるCCD、CMOS等の赤外線センサが検出可能な赤外光の波長が、0.8〜3マイクロメートルの近赤外光である点のみが相違している。   The configuration of the near-infrared imaging device 2 is the same as that of the far-infrared imaging device 1, and the wavelength of infrared light that can be detected by an infrared sensor such as a CCD or CMOS used as an imaging element is in the vicinity of 0.8 to 3 micrometers. The only difference is that it is infrared light.

図9は、本発明の実施の形態2に係る対象物検出システムの検出装置3の構成を示すブロック図である。検出装置3は画像処理ECUであり、少なくとも映像入力部31a、映像出力部31b、通信インタフェース部31c、画像メモリ32、及びRAM331を内蔵するLSI33で構成されている。   FIG. 9 is a block diagram showing the configuration of the detection device 3 of the object detection system according to Embodiment 2 of the present invention. The detection device 3 is an image processing ECU, and includes at least a video input unit 31a, a video output unit 31b, a communication interface unit 31c, an image memory 32, and an LSI 33 incorporating a RAM 331.

映像入力部31aは、遠赤外線撮像装置1、1及び近赤外線撮像装置2、2から映像信号の入力を行う。映像入力部31aは、遠赤外線撮像装置1、1及び近赤外線撮像装置2、2から入力された画像データを、1フレーム単位に同期させて画像メモリ32に記憶する。また、映像出力部31bは、映像ケーブル8を介して液晶ディスプレイ等の表示装置4に対して画像データを出力する。   The video input unit 31 a inputs video signals from the far infrared imaging devices 1 and 1 and the near infrared imaging devices 2 and 2. The video input unit 31a stores the image data input from the far-infrared imaging devices 1 and 1 and the near-infrared imaging devices 2 and 2 in the image memory 32 in synchronization with each frame. The video output unit 31 b outputs image data to the display device 4 such as a liquid crystal display via the video cable 8.

通信インタフェース部31cは、車載LANケーブル6を介してブザー、スピーカ等の警報装置5に対して合成音等の出力信号を送信する。また、通信インタフェース部31cは、車載LANケーブル6を介して車両位置検出装置9から車両の位置を示す緯度情報及び経度情報を一定時間間隔で受信し、RAM331に記憶する。   The communication interface unit 31 c transmits an output signal such as a synthesized sound to the alarm device 5 such as a buzzer or a speaker via the in-vehicle LAN cable 6. Further, the communication interface unit 31 c receives latitude information and longitude information indicating the position of the vehicle from the vehicle position detection device 9 via the in-vehicle LAN cable 6 at regular time intervals, and stores them in the RAM 331.

画像メモリ32は、SRAM、フラッシュメモリ、SDRAM等であり、映像入力部31aを介して遠赤外線撮像装置1、1及び近赤外線撮像装置2、2から入力された画像データを記憶する。   The image memory 32 is an SRAM, a flash memory, an SDRAM, or the like, and stores image data input from the far infrared imaging devices 1 and 1 and the near infrared imaging devices 2 and 2 via the video input unit 31a.

画像処理を行うLSI33は、画像メモリ32に記憶された画像データをフレーム単位で読出し、障害物候補領域を特定する。LSI33は、所定の条件、例えば周囲の明るさが一定以上であるか否かに基づいて遠赤外線撮像装置1、1から取得した画像データを読み出すか、又は近赤外線撮像装置2、2から画像データを読み出すかを切り替え、読み出した画像データの視差に基づいて、特定された障害物候補領域の代表点、例えば重心の位置座標を推算する。なお、障害物候補領域の代表点の位置座標は、左右に設置した撮像装置による視差に基づいて距離を算出して推算する方法に限定されるものではなく、例えば距離検出用のレーダ装置、超音波装置等を別途備え、直接求める方法であっても良い。レーダ装置、超音波装置等を備えている場合には、遠赤外線撮像装置1及び近赤外線撮像装置2はそれぞれ1基設置していれば足りることは言うまでもない。   The LSI 33 that performs image processing reads the image data stored in the image memory 32 in units of frames and specifies an obstacle candidate area. The LSI 33 reads the image data acquired from the far-infrared imaging devices 1 and 1 based on a predetermined condition, for example, whether or not the ambient brightness is a certain level or more, or the image data from the near-infrared imaging devices 2 and 2. Is switched, and based on the parallax of the read image data, the representative point of the specified obstacle candidate area, for example, the position coordinates of the center of gravity is estimated. The position coordinates of the representative point of the obstacle candidate area are not limited to the method of calculating and estimating the distance based on the parallax by the imaging devices installed on the left and right. A method of directly obtaining a sonic device and the like may be used. Needless to say, when a radar device, an ultrasonic device, or the like is provided, it is sufficient to install one far-infrared imaging device 1 and one near-infrared imaging device 2.

LSI33は、読み出した画像データに基づいて、障害物候補領域の特徴量を抽出し、抽出された特徴量に基づいて歩行者等の対象物が存在するか否かを判断する。LSI33が、歩行者等の対象物が存在すると判断した場合、LSI33は、歩行者等の対象物であると認識された対象物領域の代表点の位置座標、特徴量、及び算出の基礎となった画像データを撮像した時点の車両の位置座標をRAM331に記憶する。   The LSI 33 extracts the feature amount of the obstacle candidate area based on the read image data, and determines whether or not an object such as a pedestrian exists based on the extracted feature amount. When the LSI 33 determines that an object such as a pedestrian is present, the LSI 33 is a basis for the position coordinates, the feature amount, and the calculation of the representative point of the object area recognized as the object such as the pedestrian. The position coordinates of the vehicle at the time of capturing the image data are stored in the RAM 331.

LSI33は、異なる時間帯に同一の車両位置で撮像された画像メモリ32に記憶された画像データをフレーム単位で読出し、再度障害物候補領域を特定する。例えば記録してある対象物領域に関する情報の基礎となる画像データを撮像した時点が夜間である場合には、昼間に撮像された画像データを読み出す。LSI33は、読み出した画像データの視差に基づいて、特定された障害物候補領域の位置座標を推算し、RAM331を照会して記録してある対象物領域の位置座標が相違しているか否かを判断する。   The LSI 33 reads out image data stored in the image memory 32 captured at the same vehicle position in different time zones in units of frames, and specifies an obstacle candidate region again. For example, when the image data that is the basis of the information on the recorded object area is captured at night, the image data captured in the daytime is read out. The LSI 33 estimates the position coordinates of the identified obstacle candidate area based on the parallax of the read image data, and queries the RAM 331 to determine whether the position coordinates of the object area recorded are different. to decide.

LSI33が両領域の位置座標が相違すると判断した場合、対象物検出結果が適切であった、すなわちRAM331に記録してある対象物領域に関する情報が歩行者に関する情報であったと判断する。位置座標が略一致すると判断した場合、LSI33は、歩行者等の対象物を検出したとの認識が誤りであったと判断し、RAM331に記録してある対象物領域に関する情報が人工構造物等の静止物に関する情報であると判断する。   When the LSI 33 determines that the position coordinates of the two areas are different, it determines that the object detection result is appropriate, that is, the information regarding the object area recorded in the RAM 331 is information regarding the pedestrian. If it is determined that the position coordinates are substantially the same, the LSI 33 determines that the recognition that the target object such as a pedestrian has been detected is an error, and the information on the target area recorded in the RAM 331 includes information such as the artificial structure. Judged as information on a stationary object.

以下、本発明の実施の形態2に係る対象物検出システムの検出装置3のLSI33の詳細な処理について説明する。図10及び図11は、本発明の実施の形態2に係る対象物検出システムの検出装置3のLSI33の対象物検出情報の記録処理の手順を示すフローチャートである。   Hereinafter, detailed processing of the LSI 33 of the detection device 3 of the object detection system according to the second embodiment of the present invention will be described. FIG. 10 and FIG. 11 are flowcharts showing the procedure of the object detection information recording process of the LSI 33 of the detection apparatus 3 of the object detection system according to the second embodiment of the present invention.

LSI33は、車両の位置座標(緯度情報及び経度情報)を車両位置検出装置9より取得し(ステップS1001)、外部に設けてある各種のセンサによる検出値、車両のヘッドライトのオンオフ情報、画像データの輝度値の平均値等の条件判断情報を取得し(ステップS1002)、取得した条件判断情報に基づいて所定の条件を具備しているか否かを判断する(ステップS1003)。LSI33が、所定の条件を具備していると判断した場合(ステップS1003:YES)、LSI33は、近赤外線撮像装置2、2で撮像した画像データを取得し(ステップS1004)、LSI33が、所定の条件を具備していないと判断した場合(ステップS1003:NO)、LSI33は、遠赤外線撮像装置1、1で撮像した画像データを取得する(ステップS1005)。   The LSI 33 acquires the position coordinates (latitude information and longitude information) of the vehicle from the vehicle position detection device 9 (step S1001), detected values by various sensors provided outside, on / off information of the headlights of the vehicle, and image data. Condition determination information such as an average value of the luminance values is acquired (step S1002), and it is determined whether a predetermined condition is satisfied based on the acquired condition determination information (step S1003). When the LSI 33 determines that the predetermined condition is satisfied (step S1003: YES), the LSI 33 acquires image data captured by the near-infrared imaging devices 2 and 2 (step S1004). If it is determined that the condition is not satisfied (step S1003: NO), the LSI 33 acquires image data captured by the far-infrared imaging devices 1 and 1 (step S1005).

所定の条件を具備しているか否かを判断する判断基準は特に限定されるものではない。例えば車両の周囲の照度を検出する照度センサ(図示せず)を車両に設置しておき、照度センサの出力値が所定値より大きい場合に条件を具備するものと判断する。すなわち、出力された照度が所定値より大きい場合には昼間であると判断し、近赤外線撮像装置2、2で撮像した画像データを取得する。出力された照度が所定値以下である場合には夜間であると判断し、遠赤外線撮像装置1、1で撮像された画像データを取得する。   The criterion for determining whether or not the predetermined condition is satisfied is not particularly limited. For example, an illuminance sensor (not shown) for detecting the illuminance around the vehicle is installed in the vehicle, and it is determined that the condition is satisfied when the output value of the illuminance sensor is larger than a predetermined value. That is, when the output illuminance is greater than a predetermined value, it is determined that it is daytime, and image data captured by the near-infrared imaging devices 2 and 2 is acquired. When the output illuminance is less than or equal to a predetermined value, it is determined that it is nighttime, and image data captured by the far-infrared imaging devices 1 and 1 is acquired.

また、車両のヘッドライトのスイッチがオフ状態である場合に条件を具備していると判断しても良い。この場合、車両のヘッドライトのスイッチがオン状態である場合には夜間であると判断し、遠赤外線撮像装置1、1で撮像された画像データを取得する。車両のヘッドライトのスイッチがオフ状態である場合には昼間であると判断し、近赤外線撮像装置2、2で撮像された画像データを取得する。   Further, it may be determined that the condition is satisfied when the vehicle headlight switch is in an OFF state. In this case, when the vehicle headlight switch is on, it is determined that the vehicle is at night, and image data captured by the far-infrared imaging devices 1 and 1 is acquired. When the vehicle headlight switch is off, it is determined that it is daytime, and image data captured by the near-infrared imaging devices 2 and 2 is acquired.

さらに、近赤外線撮像装置2、2で撮像された画像データの輝度値の平均値を算出して、算出された平均値が所定値より大きい場合に条件を具備していると判断しても良い。この場合、算出された平均値が所定値より大きい場合には昼間であると判断し、近赤外線撮像装置2、2で撮像された画像データを取得する。算出された平均値が所定値以下である場合には夜間であると判断し、遠赤外線撮像装置1、1で撮像された画像データを取得する。   Furthermore, the average value of the luminance values of the image data captured by the near-infrared imaging devices 2 and 2 may be calculated, and it may be determined that the condition is satisfied when the calculated average value is greater than a predetermined value. . In this case, when the calculated average value is larger than the predetermined value, it is determined that it is daytime, and the image data captured by the near infrared imaging devices 2 and 2 is acquired. When the calculated average value is less than or equal to the predetermined value, it is determined that the night is night, and image data captured by the far-infrared imaging devices 1 and 1 is acquired.

このように画像データを取得する撮像装置を切り替えることにより、車両の周囲の明るさが一定以上である場合、例えば昼間には、可視光撮像装置又は近赤外線撮像装置2,2を用いることで、障害物候補領域の特定を行うことができ、夜間走行時の認識結果を検証することができる。また、車両の周囲の明るさが一定以下である場合、例えば夜間には、遠赤外線撮像装置1,1を用いることにより、可視光線撮像装置又は近赤外線撮像装置2,2では確認することができない対象物の存在も確実に検出することが可能となる。   By switching the imaging device that acquires the image data in this manner, when the brightness around the vehicle is a certain level or more, for example, in the daytime, by using the visible light imaging device or the near infrared imaging devices 2 and 2, The obstacle candidate area can be specified, and the recognition result during night driving can be verified. Further, when the brightness around the vehicle is below a certain level, for example, at night, the far-infrared imaging devices 1 and 1 cannot be used to check with the visible light imaging device or the near-infrared imaging devices 2 and 2. The presence of the object can be reliably detected.

LSI33は、障害物候補領域を特定するべく、画像メモリ32から取得した一方の遠赤外線撮像装置1で撮像された画像データを所定の大きさの小領域に分割する(ステップS1006)。   The LSI 33 divides the image data captured by the one far-infrared imaging device 1 acquired from the image memory 32 into small regions of a predetermined size in order to identify obstacle candidate regions (step S1006).

LSI33は、分割された小領域を基準領域として、一方の遠赤外線撮像装置1で撮像された画像データ中の一の基準領域に対応する領域、すなわち同一の物体を指す対応領域を、他方の遠赤外撮像装置1で撮像した画像データ中から探索する。具体的には、一方の遠赤外線撮像装置1で撮像した画像データ中の一の基準領域と、他方の遠赤外線撮像装置1で撮像した画像データ中の基準領域と同サイズの探索領域の間で相関計算を行い(ステップS1007)、相関値が所定値より大きいか否かを判断する(ステップS1008)。   The LSI 33 uses the divided small area as a reference area, and designates an area corresponding to one reference area in the image data captured by one far-infrared imaging device 1, that is, a corresponding area indicating the same object as the other far-infrared imaging apparatus 1. Search is performed from image data captured by the infrared imaging device 1. Specifically, between one reference region in the image data captured by one far-infrared imaging device 1 and a search region of the same size as the reference region in the image data captured by the other far-infrared imaging device 1. Correlation calculation is performed (step S1007), and it is determined whether the correlation value is greater than a predetermined value (step S1008).

LSI33が、基準領域と探索領域との相関値が所定値より小さいと判断した場合(ステップS1008:NO)、LSI33は、探索領域を変更し、処理をステップS1007に戻して上述した処理を繰り返す。LSI33が、相関値が所定値より大きいと判断した場合(ステップS1008:YES)、LSI33は探索領域を対応領域と見なし、基準領域と該探索領域との視差を算出する(ステップS1009)。   When the LSI 33 determines that the correlation value between the reference area and the search area is smaller than the predetermined value (step S1008: NO), the LSI 33 changes the search area, returns the process to step S1007, and repeats the above-described process. When the LSI 33 determines that the correlation value is greater than the predetermined value (step S1008: YES), the LSI 33 regards the search area as a corresponding area and calculates the parallax between the reference area and the search area (step S1009).

LSI33は、一方の遠赤外線撮像装置1で撮像された画像中のすべての基準領域について視差を算出したか否かを判断し(ステップS1010)、LSI33が、未算出である基準領域が存在すると判断した場合(ステップS1010:NO)、LSI33は、基準領域を変更して(ステップS1011)、処理をステップS1007へ戻し、上述した処理を繰り返す。LSI33が、画像中のすべての基準領域について視差を算出したと判断した場合(ステップS1010:YES)、LSI33は、視差が略一致する隣接する小領域を結合して障害物候補領域として特定する(ステップS1012)。   The LSI 33 determines whether or not the parallax has been calculated for all reference regions in the image captured by one far-infrared imaging device 1 (step S1010), and the LSI 33 determines that there is an uncalculated reference region. If it is (step S1010: NO), the LSI 33 changes the reference area (step S1011), returns the process to step S1007, and repeats the above-described process. When the LSI 33 determines that the parallax has been calculated for all the reference areas in the image (step S1010: YES), the LSI 33 combines adjacent small areas having substantially the same parallax and identifies it as an obstacle candidate area ( Step S1012).

LSI33は、特定された障害物候補領域において、歩行者等の対象物が存在するか否かを判断するのに使用する特徴量を抽出し、判定規則に則って障害物候補領域が歩行者等の対象物を示す対象物領域か否かを判定する。例としては、障害物候補領域の画素データと、人間の標準的な温度分布を示すテンプレートの画素データとのパターンマッチングによる相関値を特徴量として算出し(ステップS1013)、判定規則として設定した所定値より算出した相関値が大きいか否かを判断する(ステップS1014)。LSI33が、相関値が所定値以下であると判断した場合(ステップS1014:NO)、LSI33は、歩行者等の対象物の存在を示す対象物領域ではないものと判断し、ステップS1013に戻って次の障害物候補領域に対して同様の処理を繰り返す。   The LSI 33 extracts a feature amount used to determine whether or not an object such as a pedestrian exists in the specified obstacle candidate area, and the obstacle candidate area is determined to be a pedestrian or the like in accordance with a determination rule. It is determined whether or not the target area indicates the target object. As an example, a correlation value by pattern matching between pixel data of an obstacle candidate region and pixel data of a template indicating a standard human temperature distribution is calculated as a feature amount (step S1013), and a predetermined value set as a determination rule It is determined whether or not the correlation value calculated from the value is large (step S1014). When the LSI 33 determines that the correlation value is equal to or less than the predetermined value (step S1014: NO), the LSI 33 determines that the area is not an object area indicating the presence of an object such as a pedestrian, and the process returns to step S1013. The same process is repeated for the next obstacle candidate area.

LSI33が、相関値が所定値より大きいと判断した場合(ステップS1014:YES)、LSI33は、該障害物候補領域が歩行者等の対象物を示す対象物領域であると判断して、算出した該対象物領域の代表点の位置座標、抽出された特徴量、及び該対象物領域を特定した画像データを取得した時点での車両の位置座標を、RAM331に記録する(ステップS1015)。   When the LSI 33 determines that the correlation value is greater than the predetermined value (step S1014: YES), the LSI 33 determines that the obstacle candidate area is an object area indicating an object such as a pedestrian and the like, and calculates The position coordinates of the representative point of the object area, the extracted feature amount, and the position coordinates of the vehicle when the image data specifying the object area are acquired are recorded in the RAM 331 (step S1015).

図12及び図13は、本発明の実施の形態2に係る対象物検出システムの検出装置3のLSI33の誤認識回避処理の手順を示すフローチャートである。LSI33は、車両の位置座標を車両位置検出装置9から取得し(ステップS1201)、RAM331に記録してある車両の位置座標と略一致しているか否かを判断する(ステップS1202)。LSI33が、相違していると判断した場合(ステップS1202:NO)、LSI33は、ステップS1201へ戻り、車両の位置座標を取得する。LSI33が、略一致していると判断した場合(ステップS1202:YES)、LSI33は、外部に設けてある各種のセンサによる検出値、車両のヘッドライトのオンオフ情報、画像データの輝度値の平均値等の条件判断情報を取得し(ステップS1203)、取得した条件判断情報に基づいて所定の条件を具備しているか否かを判断する(ステップS1204)。   12 and 13 are flowcharts showing a procedure of erroneous recognition avoidance processing of the LSI 33 of the detection device 3 of the object detection system according to Embodiment 2 of the present invention. The LSI 33 acquires the vehicle position coordinates from the vehicle position detection device 9 (step S1201), and determines whether or not the vehicle position coordinates substantially match the vehicle position coordinates recorded in the RAM 331 (step S1202). If it is determined that the LSI 33 is different (step S1202: NO), the LSI 33 returns to step S1201 and acquires the position coordinates of the vehicle. When it is determined that the LSIs 33 substantially match (step S1202: YES), the LSI 33 detects the values detected by various sensors provided outside, the on / off information of the vehicle headlights, and the average value of the luminance values of the image data. Or the like (step S1203), and based on the acquired condition determination information, it is determined whether a predetermined condition is satisfied (step S1204).

LSI33が、所定の条件を具備していると判断した場合(ステップS1204:YES)、LSI33は、近赤外線撮像装置2、2で撮像した画像データを取得し(ステップS1205)、LSI33が、所定の条件を具備していないと判断した場合(ステップS1204:NO)、LSI33は、遠赤外線撮像装置1、1で撮像した画像データを取得する(ステップS1206)。   When the LSI 33 determines that the predetermined condition is satisfied (step S1204: YES), the LSI 33 acquires the image data captured by the near-infrared imaging devices 2 and 2 (step S1205). If it is determined that the condition is not satisfied (step S1204: NO), the LSI 33 acquires image data captured by the far-infrared imaging devices 1 and 1 (step S1206).

車両が同一の位置を異なる時間に走行する場合に、前回歩行者等の対象物の存在を検出した位置に同じ特徴量を有する障害物候補領域が存在することはほとんどない。歩行者等は移動するからである。しかし、歩行者等と類似した温度分布を示す道路脇の電柱、街灯のポール、自動販売機等の人工構造物を検出している場合には、撮像した時間が異なる場合であっても略同一の位置に略同一の特徴量を有する対象物を検出することになる。   When the vehicle travels at the same position at different times, there is almost no obstacle candidate region having the same feature amount at the position where the presence of an object such as a pedestrian is detected last time. This is because pedestrians move. However, when detecting artificial structures such as roadside utility poles, streetlight poles, vending machines, etc. that show a temperature distribution similar to that of pedestrians, etc., even if the times taken are different, they are substantially the same. An object having substantially the same feature amount at the position of is detected.

したがって、車両が同一の位置を異なる時間に走行する場合に、前回歩行者等の対象物の存在を検出した位置に同じ特徴量を有する障害物候補領域が存在するときには、前回歩行者等の対象物の存在を検出したこと自体が誤りであるものと判断し、前回の対象物領域の位置及び特徴量の記録を残しておくことにより、次回以降歩行者等の対象物であると誤認識することを回避することができる。逆に車両が同一の位置を異なる時間に走行する場合に、前回歩行者等の対象物であると検出した位置に同じ特徴量を有する障害物候補領域が存在しないときには、前回歩行者等の対象物の存在を検出したことは正しいものと判断し、RAM331に記録してある対象物領域の位置及び特徴量を削除する。   Therefore, when the vehicle travels at the same position at different times, and there is an obstacle candidate area having the same feature amount at the position where the presence of the object such as the previous pedestrian is detected, the object such as the previous pedestrian Judging that the presence of an object itself is an error and leaving a record of the position and feature amount of the previous object area, it will be erroneously recognized as an object such as a pedestrian after the next time. You can avoid that. Conversely, when the vehicle travels at the same position at different times and there is no obstacle candidate area having the same feature amount at the position detected as the object of the previous pedestrian or the like, the object of the previous pedestrian or the like It is determined that the presence of the object is detected correctly, and the position and feature amount of the object area recorded in the RAM 331 are deleted.

上述の処理を具現化すべくLSI33は、画像メモリ32から取得した画像データを所定の大きさの小領域に分割する(ステップS1207)。   In order to implement the above processing, the LSI 33 divides the image data acquired from the image memory 32 into small areas of a predetermined size (step S1207).

LSI33は、分割された小領域を基準領域として、一方の遠赤外線撮像装置1で撮像された画像データ中の基準領域と、他方の遠赤外線撮像装置1で撮像された画像データ中の探索領域との間で正規相互相関値を算出して(ステップS1208)、相関値が所定値より大きい探索領域が存在するか否かを判断する(ステップS1209)。   The LSI 33 uses a divided small area as a reference area, a reference area in image data captured by one far-infrared imaging device 1, and a search area in image data captured by the other far-infrared imaging apparatus 1. A normal cross-correlation value is calculated (step S1208), and it is determined whether or not there is a search region having a correlation value greater than a predetermined value (step S1209).

LSI33が、所定値より大きい探索領域が存在しないと判断した場合(ステップS1209:NO)、LSI33は、基準領域を変更し、処理をステップS1208へ戻して上述した処理を繰り返す。LSI33が、所定値より大きい探索領域が存在すると判断した場合(ステップS1209:YES)、LSI33は、基準領域と該探索領域間の視差、すなわち一方の遠赤外線撮像装置1、例えば右に設置した遠赤外線撮像装置1で撮像された画像中の基準領域と、該基準領域に対応する他方の遠赤外線撮像装置1、例えば左に設置した遠赤外線撮像装置1で撮像された画像中で相関値が所定値より大きい基準領域との視差を算出する(ステップS1210)。   When the LSI 33 determines that there is no search area larger than the predetermined value (step S1209: NO), the LSI 33 changes the reference area, returns the process to step S1208, and repeats the above-described process. When the LSI 33 determines that there is a search area larger than the predetermined value (step S1209: YES), the LSI 33 has a parallax between the reference area and the search area, that is, one of the far infrared imaging devices 1, for example, a far disposition installed on the right. A correlation value is predetermined in an image captured by a reference region in an image captured by the infrared imaging device 1 and the other far infrared imaging device 1 corresponding to the reference region, for example, a far infrared imaging device 1 installed on the left. The parallax with the reference area larger than the value is calculated (step S1210).

LSI33は、画像中のすべての小領域について視差を算出したか否かを判断し(ステップS1211)、LSI33が、未算出である小領域が存在すると判断した場合(ステップS1211:NO)、LSI33は、小領域を変更して(ステップS1212)、処理をステップS1208へ戻し、上述した処理を繰り返す。LSI33が、画像中のすべての小領域について視差を算出したと判断した場合(ステップS1211:YES)、LSI33は、視差が略一致する隣接する小領域を結合して障害物候補領域として特定する(ステップS1213)。   The LSI 33 determines whether or not the parallax has been calculated for all the small areas in the image (step S1211). If the LSI 33 determines that there is a small area that has not been calculated (step S1211: NO), the LSI 33 The small area is changed (step S1212), the process returns to step S1208, and the above-described process is repeated. When the LSI 33 determines that the parallax has been calculated for all the small areas in the image (step S1211: YES), the LSI 33 combines adjacent small areas having substantially the same parallax and identifies it as an obstacle candidate area ( Step S1213).

次いで、LSI33は、障害物候補領域までの距離を、左右の撮像装置の視差画像に基づいて推算することにより、障害物候補領域の重心位置(代表点)の位置座標を推算する(ステップS1214)。   Next, the LSI 33 estimates the position coordinates of the center of gravity (representative point) of the obstacle candidate area by estimating the distance to the obstacle candidate area based on the parallax images of the left and right imaging devices (step S1214). .

そして、LSI33は、推算した障害物候補領域の位置座標が、RAM331に記録してある対象物領域の位置座標と相違するか否かを判断する(ステップS1215)。LSI33が、相違すると判断した場合(ステップS1215:YES)、LSI33は、前回歩行者等の対象物の存在を検出した処理が正しい処理であったと判断し、RAM331に記録してある対象物領域の位置座標、該対象物領域に対応する画像データの特徴量、及び該対象物領域を特定した画像データを取得した時点の車両の位置座標を削除する(ステップS1216)。なお、位置座標が相違するか否かは、RAM331に記録してある対象物領域の位置座標から所定の範囲内に、推算した障害物候補領域の位置座標が含まれるか否かで判断する。   Then, the LSI 33 determines whether or not the estimated position coordinates of the obstacle candidate area are different from the position coordinates of the object area recorded in the RAM 331 (step S1215). When it is determined that the LSI 33 is different (step S1215: YES), the LSI 33 determines that the process for detecting the presence of the object such as the pedestrian is the correct process, and the object area recorded in the RAM 331 is determined. The position coordinates, the feature amount of the image data corresponding to the object area, and the position coordinates of the vehicle when the image data specifying the object area are acquired are deleted (step S1216). Whether or not the position coordinates are different is determined based on whether or not the estimated position coordinates of the obstacle candidate area are included within a predetermined range from the position coordinates of the object area recorded in the RAM 331.

LSI33が、略一致すると判断した場合(ステップS1215:NO)、LSI33は、前回歩行者等の対象物の存在を検出した処理が誤っており、検出したのは人工構造物であるものと判断し、RAM331の該対象物領域の記録を残す(ステップS1217)。次回以降、RAM331に記録してある対象物領域の位置座標、該対象物領域に対応する画像データの特徴量、及び該対象物領域を特定した画像データを取得した時点の車両の位置座標と照合することにより、明らかに歩行者等の対象物ではなく人工的な構造物である対象物を、歩行者等の対象物であると誤認識することを未然に回避することが可能となる。したがって、LSI33は、歩行者等の対象物の存在を検出した旨を示す信号を表示装置4又は警報装置5へ出力することがなく、運転者は不要な警告表示、警報の鳴動等に煩わされることなく安全に運転することができる。   If it is determined that the LSIs 33 substantially match (step S1215: NO), the LSI 33 determines that the process of detecting the presence of an object such as a pedestrian is incorrect last time and that the detected object is an artificial structure. The record of the object area in the RAM 331 is left (step S1217). From the next time, the position coordinates of the object area recorded in the RAM 331, the feature amount of the image data corresponding to the object area, and the position coordinates of the vehicle at the time of obtaining the image data specifying the object area are collated. By doing so, it becomes possible to avoid erroneously recognizing an object that is not an object such as a pedestrian but an artificial structure as an object such as a pedestrian. Therefore, the LSI 33 does not output a signal indicating that the presence of an object such as a pedestrian has been detected to the display device 4 or the alarm device 5, and the driver is bothered by unnecessary warning display, alarm sound, and the like. You can drive safely without any problems.

以上のように本実施の形態2によれば、一度歩行者等の対象物であると認識された対象物領域が、別個のタイミングでは歩行者等の対象物ではないと認識された場合には、歩行者等の対象物であるとの認識自体が誤りであるものと判断し、該対象物領域の位置座標、特徴量、及び該対象物領域を特定した画像データを取得した車両の位置座標を記録しておくことで、次回以降の対象物検出処理では歩行者等の対象物であると誤認識することを回避することができる。また、運転者が意識して情報の登録作業を行う必要が無く、安全に運転を続行することが可能となる。
なお、実施の形態2では、遠赤外線撮像装置及び近赤外線撮像装置を備えた場合を説明したが、撮像可能な波長帯域が異なる2つの撮像装置を備えても良い。例えば、可視光撮像装置、遠赤外線撮像装置、近赤外線撮像装置のいずれか二つを備えても良い。但し、遠赤外線撮像装置及び近赤外線撮像装置を備えた方が、赤外線を放射する歩行者等以外の静止物を誤認識する可能性が低いため、より好適である。
As described above, according to the second embodiment, when an object area that has been recognized as an object such as a pedestrian is not an object such as a pedestrian at a separate timing, The position coordinates of the vehicle that has determined that the recognition itself as an object such as a pedestrian is an error, and acquired the position coordinates, the feature amount of the object area, and the image data specifying the object area Can be prevented from being erroneously recognized as an object such as a pedestrian in the subsequent object detection process. In addition, it is not necessary for the driver to register information consciously, and it is possible to continue driving safely.
In the second embodiment, the case where the far-infrared imaging device and the near-infrared imaging device are provided has been described. However, two imaging devices having different wavelength bands that can be imaged may be provided. For example, any two of a visible light imaging device, a far infrared imaging device, and a near infrared imaging device may be provided. However, it is more preferable to provide the far-infrared imaging device and the near-infrared imaging device because there is a low possibility of erroneously recognizing a stationary object other than a pedestrian or the like that emits infrared rays.

実施の形態2に係る対象物検出システムの他の構成、作用及び効果は、実施の形態1に係る対象物検出システムの構成、作用及び効果と同様であるため、対応する箇所には同様の符号を付してその詳細な説明を省略する。   Other configurations, operations, and effects of the object detection system according to the second embodiment are the same as the configurations, operations, and effects of the object detection system according to the first embodiment. The detailed description is omitted.

本発明の実施の形態1に係る対象物検出システムの構成を示す模式図である。It is a schematic diagram which shows the structure of the target object detection system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る対象物検出システムの遠赤外線撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the far-infrared imaging device of the target object detection system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る対象物検出システムの検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the detection apparatus of the target object detection system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る対象物検出システムの検出装置のLSIの対象物検出情報の記録処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the recording process of the target object detection information of LSI of the detection apparatus of the target object detection system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る対象物検出システムの検出装置のLSIの対象物検出情報の記録処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the recording process of the target object detection information of LSI of the detection apparatus of the target object detection system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る対象物検出システムの検出装置のLSIの誤認識回避処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the misrecognition avoidance process of LSI of the detection apparatus of the target object detection system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る対象物検出システムの検出装置のLSIの誤認識回避処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the misrecognition avoidance process of LSI of the detection apparatus of the target object detection system which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る対象物検出システムの構成を示す模式図である。It is a schematic diagram which shows the structure of the target object detection system which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る対象物検出システムの検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the detection apparatus of the target object detection system which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る対象物検出システムの検出装置のLSIの対象物検出情報の記録処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the recording process of the target object detection information of LSI of the detection apparatus of the target object detection system which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る対象物検出システムの検出装置のLSIの対象物検出情報の記録処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the recording process of the target object detection information of LSI of the detection apparatus of the target object detection system which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る対象物検出システムの検出装置のLSIの誤認識回避処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the misrecognition avoidance process of LSI of the detection apparatus of the target object detection system which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る対象物検出システムの検出装置のLSIの誤認識回避処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the misrecognition avoidance process of LSI of the detection apparatus of the target object detection system which concerns on Embodiment 2 of this invention.

符号の説明Explanation of symbols

1 遠赤外線撮像装置
2 近赤外線撮像装置
3 検出装置
4 表示装置
5 警報装置
6 車載LANケーブル
7 映像ケーブル
8 ケーブル
9 車両位置検出装置
31a 映像入力部
31b 映像出力部
31c 通信インタフェース部
32 画像メモリ
33 LSI
331 RAM
DESCRIPTION OF SYMBOLS 1 Far-infrared imaging device 2 Near-infrared imaging device 3 Detection apparatus 4 Display apparatus 5 Alarm apparatus 6 Car-mounted LAN cable 7 Video cable 8 Cable 9 Vehicle position detection apparatus 31a Video input part 31b Video output part 31c Communication interface part 32 Image memory 33 LSI
331 RAM

Claims (6)

車両の周辺を撮像する撮像装置と、該撮像装置で撮像した画像を取得して画像中に含まれる対象物を検出する検出装置とを備える対象物検出システムにおいて、
車両の位置情報を検出する車両位置検出装置を備え、
前記検出装置は、
前記撮像装置から取得した一の画像データに基づいて障害物候補領域を特定する障害物候補領域特定手段と、
特定された障害物候補領域に対応する一の画像データの特徴量に基づいて対象物に相当する対象物領域であるか否かを判断する手段と、
該手段で対象物領域であると判断した場合、該対象物領域の位置座標、及び該対象物領域を特定した一の画像データを取得した時点の車両の位置情報を記録する手段と、
前記一の画像データを取得した時点から異なる時点で、記録してある車両の位置情報に対応する位置にて、他の画像データを取得する手段と、
該他の画像データに基づいて障害物候補領域を再特定する手段と、
再特定された障害物候補領域の位置座標、及び記録してある対象物領域の位置座標が略一致しているか否かを判断する手段と、
該手段で略一致していないと判断した場合、記録してある前記対象物領域の位置座標、及び該対象物領域を特定した一の画像データを取得した時点の車両の位置情報を削除する手段と
を備え、
記録された対象物領域の位置座標及び車両の位置情報に基づいて、対象物の誤認識を防止するようにしてあることを特徴とする対象物検出システム。
In an object detection system comprising: an imaging device that captures the periphery of a vehicle; and a detection device that acquires an image captured by the imaging device and detects an object included in the image;
A vehicle position detection device for detecting vehicle position information;
The detection device includes:
Obstacle candidate area specifying means for specifying an obstacle candidate area based on one image data acquired from the imaging device;
Means for determining whether or not the object region corresponds to the object based on the feature amount of the one image data corresponding to the identified obstacle candidate region;
Means for recording the position coordinates of the object area and the position information of the vehicle at the time when one image data specifying the object area is acquired, when the means determines that it is the object area;
Means for acquiring other image data at a position corresponding to the recorded vehicle position information at a different time from the time when the one image data was acquired;
Means for respecifying an obstacle candidate area based on the other image data;
Means for determining whether or not the position coordinates of the re-specified obstacle candidate area and the position coordinates of the recorded object area are substantially the same;
Means for deleting the position coordinates of the object area recorded and the position information of the vehicle at the time of acquiring one image data specifying the object area when it is determined that the means does not substantially match And
An object detection system characterized in that erroneous recognition of an object is prevented based on the recorded position coordinates of the object area and vehicle position information.
車両の周辺を撮像する第1撮像装置と、該第1撮像装置で撮像した画像を取得して画像中に含まれる対象物を検出する検出装置とを備える対象物検出システムにおいて、
車両の位置情報を検出する車両位置検出装置と、
撮像可能な波長帯域が前記第1撮像装置と異なる第2撮像装置と
を備え、
前記検出装置は、
前記第1撮像装置から取得した一の画像データに基づいて障害物候補領域を特定する障害物候補領域特定手段と、
特定された障害物候補領域に対応する一の画像データの特徴量に基づいて対象物に相当する対象物領域であるか否かを判断する手段と、
該手段で対象物領域であると判断した場合、該対象物領域の位置座標、及び該対象物領域を特定した一の画像データを取得した時点の車両の位置情報を記録する手段と、
所定の条件を具備している場合、前記第2撮像装置を選択し、前記所定の条件を具備していない場合、前記第1撮像装置を選択する手段と、
選択された前記第1撮像装置又は第2撮像装置で、記録してある車両の位置情報に対応する位置にて、前記第1撮像装置で一の画像データを取得した時点と異なる時点での他の画像データを取得する手段と、
前記他の画像データに基づいて障害物候補領域を再特定する手段と、
再特定された障害物候補領域の位置座標、及び記録してある対象物領域の位置座標が略一致しているか否かを判断する手段と、
該手段で略一致していないと判断した場合、記録してある前記対象物領域の位置座標、及び該対象物領域を特定した一の画像データを取得した時点の車両の位置情報を削除する手段と
を備え、
記録された対象物領域の位置座標及び車両の位置情報に基づいて、対象物の誤認識を防止するようにしてあることを特徴とする対象物検出システム。
In an object detection system comprising: a first imaging device that images the periphery of a vehicle; and a detection device that acquires an image captured by the first imaging device and detects an object included in the image.
A vehicle position detecting device for detecting position information of the vehicle;
A second imaging device having a wavelength band that can be imaged different from that of the first imaging device,
The detection device includes:
Obstacle candidate area specifying means for specifying an obstacle candidate area based on one image data acquired from the first imaging device;
Means for determining whether or not the object region corresponds to the object based on the feature amount of the one image data corresponding to the identified obstacle candidate region;
Means for recording the position coordinates of the object area and the position information of the vehicle at the time when one image data specifying the object area is acquired, when the means determines that it is the object area;
Means for selecting the second imaging device if the predetermined condition is satisfied, and selecting the first imaging device if the predetermined condition is not satisfied;
At a time point different from the time point when the first image pickup device acquires one image data at a position corresponding to the vehicle position information recorded by the selected first image pickup device or second image pickup device. Means for acquiring image data of
Means for respecifying an obstacle candidate area based on the other image data;
Means for determining whether or not the position coordinates of the re-specified obstacle candidate area and the position coordinates of the recorded object area are substantially the same;
Means for deleting the position coordinates of the object area recorded and the position information of the vehicle at the time of acquiring one image data specifying the object area when it is determined that the means does not substantially match And
An object detection system characterized in that erroneous recognition of an object is prevented based on the recorded position coordinates of the object area and vehicle position information.
前記第1撮像装置は遠赤外線撮像装置、前記第2撮像装置は、可視光撮像装置又は近赤外線撮像装置であり、
周囲の照度を検出する照度センサを備え、
前記所定の条件を具備しているか否かの判断基準は、前記照度センサの検出値が所定値を超えたか否かであり、
前記照度センサの検出値が所定値を超えていると判断された場合、前記第2撮像装置を選択し、所定値以下であると判断された場合、前記第1撮像装置を選択するようにしてあることを特徴とする請求項2に記載の対象物検出システム。
The first imaging device is a far infrared imaging device, and the second imaging device is a visible light imaging device or a near infrared imaging device,
It has an illuminance sensor that detects ambient illuminance,
The criterion for determining whether or not the predetermined condition is satisfied is whether or not the detection value of the illuminance sensor exceeds a predetermined value,
When it is determined that the detection value of the illuminance sensor exceeds a predetermined value, the second imaging device is selected, and when it is determined that the detection value is not more than the predetermined value, the first imaging device is selected. The object detection system according to claim 2, wherein there is an object detection system.
前記第1撮像装置は遠赤外線撮像装置、前記第2撮像装置は、可視光撮像装置又は近赤外線撮像装置であり、
車両のヘッドライトをオンオフするスイッチを備え、
前記所定の条件を具備しているか否かの判断基準は、前記スイッチがオフ状態であるか否かであり、
前記スイッチがオフ状態であると判断された場合、前記第2撮像装置を選択し、前記スイッチがオン状態であると判断された場合、前記第1撮像装置を選択するようにしてあることを特徴とする請求項2記載の対象物検出システム。
The first imaging device is a far infrared imaging device, and the second imaging device is a visible light imaging device or a near infrared imaging device,
It has a switch to turn on and off the vehicle headlight,
The criterion for determining whether or not the predetermined condition is satisfied is whether or not the switch is in an off state,
The second imaging device is selected when it is determined that the switch is in an off state, and the first imaging device is selected when it is determined that the switch is in an on state. The object detection system according to claim 2.
前記第1撮像装置は遠赤外線撮像装置、前記第2撮像装置は、可視光撮像装置又は近赤外線撮像装置であり、
前記所定の条件を具備しているか否かの判断基準は、前記第2撮像装置で撮像された画像の輝度値の平均値が所定値を超えているか否かであり、
輝度値の平均値が所定値を超えていると判断された場合、前記第2撮像装置を選択し、前記平均値が所定値以下であると判断された場合、前記第1撮像装置を選択するようにしてあることを特徴とする請求項2記載の対象物検出システム。
The first imaging device is a far infrared imaging device, and the second imaging device is a visible light imaging device or a near infrared imaging device,
The criterion for determining whether or not the predetermined condition is satisfied is whether or not an average value of luminance values of images captured by the second imaging device exceeds a predetermined value.
When it is determined that the average value of luminance values exceeds a predetermined value, the second imaging device is selected, and when it is determined that the average value is equal to or less than the predetermined value, the first imaging device is selected. The object detection system according to claim 2, wherein the object detection system is configured as described above.
車両の周辺を撮像する撮像装置で撮像した画像を取得して画像中に含まれる対象物を検出する対象物検出方法において、
前記撮像装置から取得した一の画像データに基づいて障害物候補領域を特定し、
特定された障害物候補領域に対応する一の画像データの特徴量に基づいて対象物に相当する対象物領域であるか否かを判断し、
対象物領域であると判断した場合、該対象物領域の位置座標、及び該対象物領域を特定した一の画像データを取得した時点の車両の位置情報を記録し、
前記一の画像データを取得した時点から異なる時点で、記録してある車両の位置情報に対応する位置にて、他の画像データを取得し、
該他の画像データに基づいて障害物候補領域を再特定し、
再特定された障害物候補領域の位置座標、及び記録してある対象物領域の位置座標が略一致しているか否かを判断し、
略一致していないと判断した場合、記録してある前記対象物領域の位置座標、及び該対象物領域を特定した一の画像データを取得した時点の車両の位置情報を削除することを特徴とする対象物検出方法。
In an object detection method for acquiring an image captured by an imaging device that captures the periphery of a vehicle and detecting an object included in the image,
Identifying an obstacle candidate area based on one image data acquired from the imaging device,
It is determined whether or not the object area corresponds to the object based on the feature amount of the one image data corresponding to the identified obstacle candidate area,
When it is determined that the object area, the position coordinates of the object area and the position information of the vehicle at the time when one image data specifying the object area is acquired are recorded,
At a time point different from the time point when the one image data was acquired, at a position corresponding to the recorded vehicle position information, acquire other image data,
Re-specify the obstacle candidate area based on the other image data,
Determine whether the position coordinates of the re-specified obstacle candidate area and the position coordinates of the recorded object area substantially match,
If it is determined that they do not substantially match, the position coordinates of the recorded object area and the position information of the vehicle at the time of acquiring one image data specifying the object area are deleted, Target detection method.
JP2007007401A 2007-01-16 2007-01-16 Target detection system and method Pending JP2008174028A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007007401A JP2008174028A (en) 2007-01-16 2007-01-16 Target detection system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007007401A JP2008174028A (en) 2007-01-16 2007-01-16 Target detection system and method

Publications (1)

Publication Number Publication Date
JP2008174028A true JP2008174028A (en) 2008-07-31

Family

ID=39701381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007007401A Pending JP2008174028A (en) 2007-01-16 2007-01-16 Target detection system and method

Country Status (1)

Country Link
JP (1) JP2008174028A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010191637A (en) * 2009-02-17 2010-09-02 Mazda Motor Corp Driving support device for vehicle
WO2011108258A1 (en) * 2010-03-03 2011-09-09 パナソニック株式会社 Vehicle-surroundings monitoring apparatus and vehicle-surroundings monitoring method
JP2011246023A (en) * 2010-05-28 2011-12-08 Koito Mfg Co Ltd Device for controlling headlight of vehicle, vehicle headlight system, and vehicle headlight
WO2017073348A1 (en) * 2015-10-27 2017-05-04 富士フイルム株式会社 Infrared imaging device, control method for same, and vehicle
KR20170137689A (en) * 2017-12-01 2017-12-13 팅크웨어(주) Electronic device and mehtod of shooting pictures thereof
CN109131076A (en) * 2017-06-27 2019-01-04 上海蔚兰动力科技有限公司 Driving assistance system and driving assistance method
WO2021010485A1 (en) * 2019-07-18 2021-01-21 株式会社小糸製作所 Vehicle light-fixture system, vehicle light-fixture control device and vehicle light-fixture control method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010191637A (en) * 2009-02-17 2010-09-02 Mazda Motor Corp Driving support device for vehicle
WO2011108258A1 (en) * 2010-03-03 2011-09-09 パナソニック株式会社 Vehicle-surroundings monitoring apparatus and vehicle-surroundings monitoring method
JP2011246023A (en) * 2010-05-28 2011-12-08 Koito Mfg Co Ltd Device for controlling headlight of vehicle, vehicle headlight system, and vehicle headlight
WO2017073348A1 (en) * 2015-10-27 2017-05-04 富士フイルム株式会社 Infrared imaging device, control method for same, and vehicle
JPWO2017073348A1 (en) * 2015-10-27 2018-10-04 富士フイルム株式会社 Infrared imaging device, control method therefor, and vehicle
US10511789B2 (en) 2015-10-27 2019-12-17 Fujifilm Corporation Infrared imaging device, control method thereof, and vehicle
CN109131076A (en) * 2017-06-27 2019-01-04 上海蔚兰动力科技有限公司 Driving assistance system and driving assistance method
KR20170137689A (en) * 2017-12-01 2017-12-13 팅크웨어(주) Electronic device and mehtod of shooting pictures thereof
KR102091017B1 (en) * 2017-12-01 2020-03-19 팅크웨어(주) Electronic device and mehtod of shooting pictures thereof
WO2021010485A1 (en) * 2019-07-18 2021-01-21 株式会社小糸製作所 Vehicle light-fixture system, vehicle light-fixture control device and vehicle light-fixture control method
JP7442528B2 (en) 2019-07-18 2024-03-04 株式会社小糸製作所 Vehicle lighting system, vehicle lighting control device, and vehicle lighting control method

Similar Documents

Publication Publication Date Title
CN113271400B (en) Imaging device and electronic equipment
JP4309920B2 (en) Car navigation system, road marking identification program, and road marking identification method
JP5615441B2 (en) Image processing apparatus and image processing method
US8330816B2 (en) Image processing device
JP2008174028A (en) Target detection system and method
JP2008027309A (en) Collision determination system and collision determination method
AU2015282374A1 (en) Vehicle position confirmation system of parking lot using imaging method and control method thereof
JP2008026998A (en) Obstacle location calculation system and method
JP2006318062A (en) Image processor, image processing method and image processing program
JP2008026999A (en) Obstacle detection system and obstacle detection method
JP2008165595A (en) Obstacle detection method, obstacle detection device, and obstacle detection system
JP3999088B2 (en) Obstacle detection device
JP2014130429A (en) Photographing device and three-dimensional object area detection program
JP2005285011A (en) Human recognition system and image processing apparatus
JP2007087203A (en) Collision determination system, collision determination method, and computer program
JP2006160193A (en) Vehicular drive supporting device
JP2007045336A (en) System and method for detecting obstacle
JP3405793B2 (en) Image type pedestrian detection device
JP2005242914A (en) Human recognition system and image processor
JP2008286648A (en) Distance measuring device, distance measuring system, and distance measuring method
JP4457077B2 (en) Obstacle detection system and obstacle detection method
JP2005259031A (en) Human recognition system, human recognition device, storage device and human recognition method
JP2008108135A (en) Obstacle detection system and obstacle detection method
JP2008028478A (en) Obstacle detection system, and obstacle detecting method
JP2004364112A (en) Device for displaying vehicle surroundings