JP2013020295A - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP2013020295A
JP2013020295A JP2011150708A JP2011150708A JP2013020295A JP 2013020295 A JP2013020295 A JP 2013020295A JP 2011150708 A JP2011150708 A JP 2011150708A JP 2011150708 A JP2011150708 A JP 2011150708A JP 2013020295 A JP2013020295 A JP 2013020295A
Authority
JP
Japan
Prior art keywords
vehicle
distance
real space
space position
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011150708A
Other languages
Japanese (ja)
Other versions
JP5374549B2 (en
Inventor
Atsuo Eguchi
敦央 江口
Morimichi Nishigaki
守道 西垣
Yuji Yokochi
裕次 横地
Masaki Negoro
昌樹 根来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2011150708A priority Critical patent/JP5374549B2/en
Publication of JP2013020295A publication Critical patent/JP2013020295A/en
Application granted granted Critical
Publication of JP5374549B2 publication Critical patent/JP5374549B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle periphery monitoring device in which calculation of an inappropriate actual space position is prevented from being performed by erroneous detection of distance between a vehicle and an object when the actual space position of the object is calculated by combination of a camera and a radar device.SOLUTION: A vehicle periphery monitoring device includes: an image part detection unit 22 which projects an object detected from ranging data of a radar device 12 by an object distance detection unit 21 on a pick up image of a camera 11 to detect an image part of the object; an actual space position calculation unit 23 which calculates an actual space position of the object on the basis of detected distance of the object distance detection unit 21; a translucent object detection unit 25 which detects a grating fence present within a detection range; and an actual space position reliability determination unit 24 which prohibits calculation of the actual space position by the actual space position detection unit 23 for an object present at a position to overlap with the grating fence in the imaging direction of the camera 11.

Description

本発明は、車両に搭載されたレーダ装置とカメラにより、車両の周辺に存在する物体を監視する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that monitors an object existing around a vehicle using a radar device and a camera mounted on the vehicle.

従来より、車両に搭載されたレーダ装置とカメラにより、車両の周辺に存在する物体の種別を判別すると共に、この物体の実空間位置を算出する車両周辺監視装置が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there is known a vehicle periphery monitoring device that determines the type of an object existing around a vehicle by a radar device and a camera mounted on the vehicle and calculates a real space position of the object (for example, a patent) Reference 1).

従来の車両周辺監視装置においては、レーダ装置により車両周辺に存在する物体を検出して、この物体と車両間の距離を検出する。そして、カメラの撮像画像に、レーダ装置により検出された物体を投影することにより、物体の画像部分を検出してその種別を判別する。   In the conventional vehicle periphery monitoring device, an object existing around the vehicle is detected by a radar device, and the distance between the object and the vehicle is detected. Then, by projecting the object detected by the radar device onto the captured image of the camera, the image portion of the object is detected and its type is discriminated.

物体の種別が歩行者等の監視対象物であったときには、車両と物体間の検出距離に基づいて、撮像画像上での物体の画像部分の位置が物体の実空間位置に変換され、車両と物体との相対位置が算出される。   When the object type is a monitoring target such as a pedestrian, the position of the image portion of the object on the captured image is converted into the real space position of the object based on the detection distance between the vehicle and the object. A relative position with respect to the object is calculated.

特開平9−264954号公報JP-A-9-264554

本願発明者らは、上述したように、カメラとレーダ装置を組み合わせて、車両周辺に存在する物体の画像と物体までの距離を検出した場合に、カメラによる検出物体とレーダ装置による検出物体との不整合により、カメラによる検出物体までの距離が誤って検出される場合があることを知見した。そして、このように、カメラによる検出物体までの距離が誤って検出されたときには、この距離に基づく物体の実空間位置の算出が不適切なものとなる。   As described above, the inventors of the present invention combine a camera and a radar device to detect an image of an object existing around the vehicle and a distance to the object, and detect the object detected by the camera and the object detected by the radar device. It was discovered that the distance to the object detected by the camera may be detected incorrectly due to inconsistencies. Thus, when the distance to the detected object by the camera is erroneously detected, the calculation of the real space position of the object based on this distance becomes inappropriate.

本発明はかかる背景を鑑みてなされたものであり、カメラとレーダ装置の組み合わせにより、車両周辺に存在する物体の実空間位置を算出するときに、レーダ装置による車両と物体間の距離の誤検出により、不適切な実区間位置が用いられることを防止した車両周辺監視装置を提供することを目的とする。   The present invention has been made in view of such a background, and when a real space position of an object existing around a vehicle is calculated by a combination of a camera and a radar apparatus, an erroneous detection of a distance between the vehicle and the object by the radar apparatus is made. Accordingly, an object of the present invention is to provide a vehicle periphery monitoring device that prevents an inappropriate actual section position from being used.

本発明は上記目的を達成するためになされたものであり、車両に搭載されたレーダ装置により前記車両周辺の検出範囲を走査することによって、該検出範囲内に存在する物体を検出して、該物体と前記車両間の距離を検出する物体距離検出部と、前記物体距離検出部により検出された物体を、前記車両に搭載されたカメラの撮像画像に投影して、該物体の画像部分を検出する画像部分検出部と、前記物体距離検出部による検出距離に基づいて、前記画像部分検出部により画像部分が検出された物体の実空間位置を算出する実空間位置算出部とを備えた車両周辺監視装置に関する。   The present invention has been made in order to achieve the above object, and by scanning a detection range around the vehicle with a radar device mounted on the vehicle, an object present in the detection range is detected, and the An object distance detection unit for detecting a distance between an object and the vehicle, and an object detected by the object distance detection unit is projected on a captured image of a camera mounted on the vehicle to detect an image portion of the object And a real space position calculation unit that calculates a real space position of an object in which the image part is detected by the image part detection unit based on a detection distance by the object distance detection unit. It relates to a monitoring device.

そして、前記検出範囲内に存在し、前記レーダ装置から出力されるビームを遮蔽すると共に、前記カメラにより撮像されたときに背後の他物体が撮像される半透過物体を検出する半透過物体検出部と、前記カメラの撮像方向で、前記半透過物体検出部により検出された半透過物体と重なる位置に存在する物体については、前記実空間位置算出部により算出される実空間位置の信頼性を下げる実空間位置信頼性判定部とを備えたことを特徴とする(第1発明)。   A semi-transparent object detection unit that is within the detection range, shields the beam output from the radar device, and detects a semi-transparent object in which other objects behind the image are captured by the camera And the reliability of the real space position calculated by the real space position calculation unit for an object existing in a position overlapping with the semi-transparent object detected by the semi-transparent object detection unit in the imaging direction of the camera A real space position reliability determination unit is provided (first invention).

第1発明において、前記車両とその周辺に存在する物体との間に、前記レーダ装置から出力されるビームを遮蔽すると共に、前記カメラにより撮像されたときに背後の他物体が撮像される半透過物体(格子フェンス等)が介在する場合がある。この場合には、前記カメラにより半透過物体を通して背後の物体が撮像される一方で、前記レーダ装置により半透過物体のみが検出され、半透過物体の背後の物体は前記レーダ装置によって検出されない状況となる場合がある。   In the first invention, the beam output from the radar device is shielded between the vehicle and an object existing in the vicinity thereof, and the other object behind is imaged when imaged by the camera. An object (such as a lattice fence) may be present. In this case, while the object behind the semi-transparent object is imaged by the camera, only the semi-transparent object is detected by the radar device, and the object behind the semi-transmissive object is not detected by the radar device. There is a case.

そして、この場合に、前記実空間位置算出部により、前記物体距離検出部による検出距離に基づいて、前記画像部分検出部により画像部分が検出された物体の実空間位置を算出すると、この物体と異なる半透過物体の検出距離に基づく誤った実空間位置が算出されてしまう。   In this case, when the real space position calculation unit calculates the real space position of the object in which the image part is detected by the image part detection unit based on the detection distance by the object distance detection unit, An erroneous real space position based on the detection distance of a different translucent object is calculated.

そこで、前記実空間位置信頼性判定部は、前記半透過物体検出部により検出された半透過物体と重なる位置に存在する物体については、前記実空間位置算出部により算出される実空間位置の信頼性を下げる。これにより、前記半透過物体検出部により検出された半透過物体と重なる位置に存在する物体について、不適切な実空間位置が用いられることを防止することができる。   Therefore, the real space position reliability determination unit determines the reliability of the real space position calculated by the real space position calculation unit for an object existing at a position overlapping the semi-transparent object detected by the semi-transparent object detection unit. Decrease sex. Thereby, it is possible to prevent an inappropriate real space position from being used for an object that exists at a position overlapping with the semi-transmissive object detected by the semi-transmissive object detection unit.

また、第1発明において、前記画像部分検出部により検出された画像部分のぼけ度合を算出するぼけ度合算出部を備え、前記実空間位置信頼性判定部は、前記画像部分検出部により画像部分が検出された物体について、前記ぼけ度合算出部により算出された該画像部分のぼけ度合と、前記物体距離検出部により検出された該物体と前記車両間の距離との関係が、予め設定されたぼけ度合と距離との基準関係から第1所定レベル以上乖離したときに、前記実空間位置算出部による該物体の実空間位置の算出を禁止することを特徴とする(第2発明)。   In the first aspect of the present invention, a blur degree calculation unit that calculates a degree of blur of the image portion detected by the image portion detection unit is provided, and the real space position reliability determination unit is configured such that the image portion is detected by the image portion detection unit. For a detected object, a relationship between the degree of blur of the image portion calculated by the blur degree calculation unit and the distance between the object detected by the object distance detection unit and the vehicle is set in advance. When the reference relationship between the degree and the distance deviates by a first predetermined level or more, the real space position calculation unit prohibits the calculation of the real space position of the object (second invention).

第2発明によれば、前記画像部分検出部により検出される物体の画像部分のぼけ度合は、この物体と前記車両間の距離に応じて変化する。そこで、前記実空間位置信頼性判定部は、前記ぼけ度合算出部により算出された物体の画像部分のぼけ度合と、前記物体距離検出部により検出された該物体と前記車両間の距離との関係が、予め設定されたぼけ度合と距離との基準関係から第1所定レベル以上乖離したときに、前記実空間位置算出部による物体の実空間位置の算出を禁止する。これにより、画像部分と検出距離の対応が誤っているときに、前記実空間位置算出部により不適切な実空間位置が算出されて、不適切な実空間位置が用いられることを防止することができる。   According to the second invention, the degree of blurring of the image portion of the object detected by the image portion detection unit changes according to the distance between the object and the vehicle. Therefore, the real space position reliability determination unit is a relationship between the degree of blur of the image portion of the object calculated by the degree of blur calculation unit and the distance between the object detected by the object distance detection unit and the vehicle. However, when the predetermined reference level relationship between the degree of blur and the distance deviates by a first predetermined level or more, the real space position calculation unit prohibits the calculation of the real space position of the object. Thereby, when the correspondence between the image portion and the detection distance is incorrect, it is possible to prevent the inappropriate real space position from being used due to the inappropriate real space position being calculated by the real space position calculating unit. it can.

なお、このように、実空間位置算出部による物体の実空間位置の算出を禁止する処理は、実空間位置算出部により算出される物体の実空間位置の信頼性を下げることに相当する。   As described above, the process of prohibiting the calculation of the real space position of the object by the real space position calculation unit corresponds to lowering the reliability of the real space position of the object calculated by the real space position calculation unit.

また、第1発明又は第2発明において、前記カメラによる時系列の撮像画像から、前記画像部分検出部により検出された同一物体の画像部分の変位状況を算出する変位状況算出部を備え、前記実空間位置信頼性判定部は、前記変位状況算出部により算出された前記変位状況が、前記同一物体について前記物体距離検出部により検出された前記車両との距離の変化と、前記車両の走行速度とに基づいて算出した推定変位状況から、第2所定レベル以上乖離したときに、前記実空間位置算出部による該物体の実空間位置の算出を禁止することを特徴とする(第3発明)。   In the first or second aspect of the invention, the apparatus further comprises a displacement state calculation unit that calculates a displacement state of an image portion of the same object detected by the image portion detection unit from a time-series captured image by the camera. The spatial position reliability determination unit is configured such that the displacement status calculated by the displacement status calculation unit is a change in distance from the vehicle detected by the object distance detection unit for the same object, and a traveling speed of the vehicle. The real space position of the object is prohibited from being calculated by the real space position calculation unit when the estimated displacement state calculated based on is deviated by a second predetermined level or more (third invention).

第3発明によれば、前記変位状況算出部により算出された前記変位状況が、前記推定変位状況から前記第2所定レベル以上乖離しているときには、前記画像部分検出部により画像部分が検出された物体と、前記物体距離検出部により検出された距離との対応が誤っていると判断することができる。そのため、前記実空間位置信頼性判定部は、この場合に、前記実空間位置算出部によるこの物体の実空間位置の算出を禁止する。これにより、前記画像部分検出部により画像部分が検出された物体について、前記実空間位置算出部により不適切な実空間位置が算出されて、不適切な実空間位置が用いられることを防止することができる。   According to the third invention, when the displacement state calculated by the displacement state calculation unit deviates from the estimated displacement state by the second predetermined level or more, an image portion is detected by the image portion detection unit. It can be determined that the correspondence between the object and the distance detected by the object distance detection unit is incorrect. Therefore, in this case, the real space position reliability determination unit prohibits the calculation of the real space position of the object by the real space position calculation unit. This prevents the real space position calculation unit from calculating an inappropriate real space position and preventing the use of an inappropriate real space position for the object whose image portion has been detected by the image part detection unit. Can do.

また、第1発明から第3発明のうちのいずれかにおいて、前記カメラによる時系列の撮像画像から、前記画像部分検出部により検出された同一物体の画像部分の大きさの変化率を算出し、該変化率と前記車両の走行速度とに基づいて、該同一物体と前記車両間の推定距離を算出する推定距離算出部を備え、前記実空間位置信頼性判定部は、前記同一物体について前記物体距離検出部により検出された前記車両との距離が、前記推定距離算出部により算出された前記推定距離から、第3所定レベル以上乖離したときに、前記実空間位置算出部による該同一物体の実空間位置の算出を禁止することを特徴とする(第4発明)。   Further, in any one of the first to third inventions, the rate of change of the size of the image part of the same object detected by the image part detection unit is calculated from the time-series captured images by the camera, An estimated distance calculating unit that calculates an estimated distance between the same object and the vehicle based on the rate of change and the traveling speed of the vehicle, and the real space position reliability determining unit includes the object for the same object; When the distance to the vehicle detected by the distance detector deviates from the estimated distance calculated by the estimated distance calculator by a third predetermined level or more, the real space position calculator calculates the actual object The calculation of the spatial position is prohibited (fourth invention).

第4発明によれば、前記物体距離検出部により検出された距離が、前記推定距離算出部により算出された推定距離から前記第3所定レベル以上乖離しているときには、前記画像部分検出部により画像部分が検出された物体と、前記物体距離検出部により検出された距離との対応が誤っていると判断することができる。そのため、前記実空間位置信頼性判定部は、この場合に、前記実空間位置算出部によるこの物体の実空間位置の算出を禁止する。これにより、前記画像部分検出部により画像部分が検出された物体について、前記実空間位置算出部により不適切な実空間位置が算出されて、不適切な実空間位置が用いられることを防止することができる。   According to the fourth aspect of the present invention, when the distance detected by the object distance detector deviates from the estimated distance calculated by the estimated distance calculator by the third predetermined level or more, the image portion detector detects an image. It can be determined that the correspondence between the object whose portion is detected and the distance detected by the object distance detection unit is incorrect. Therefore, in this case, the real space position reliability determination unit prohibits the calculation of the real space position of the object by the real space position calculation unit. This prevents the real space position calculation unit from calculating an inappropriate real space position and preventing the use of an inappropriate real space position for the object whose image portion has been detected by the image part detection unit. Can do.

また、第1発明から第4発明のうちのいずれかにおいて、前記車両に搭載されたナビゲーション装置により、前記車両の地図上の位置を認識する自車両位置認識部を備え、前記実空間位置信頼性判定部は、前記画像部分検出部により歩行者の画像部分が検出され、前記自車両位置算出部により算出された前記車両の地図上の位置と、前記物体距離検出部により検出された距離とに基づいて認識した地図上の該歩行者の位置が、道路から外れているときに、前記実空間位置算出部による該歩行者の実空間位置の算出を禁止することを特徴とする(第5発明)。   Further, in any one of the first to fourth inventions, the navigation apparatus mounted on the vehicle includes a host vehicle position recognition unit that recognizes a position of the vehicle on a map, and the real space position reliability is provided. The determination unit detects the pedestrian's image portion by the image portion detection unit, and determines the position on the map of the vehicle calculated by the own vehicle position calculation unit and the distance detected by the object distance detection unit. When the position of the pedestrian on the map recognized based on the map is off the road, the calculation of the real space position of the pedestrian by the real space position calculation unit is prohibited (fifth invention) ).

第5発明によれば、前記物体位置検出部により検出された歩行者の位置が、前記ナビゲーション装置による前記車両の地図上の位置が道路から外れている不自然な状況であるときに、前記実空間位置信頼性判定部は、この歩行者について、前記実空間位置算出部による実空間位置の算出を禁止する。これにより、前記画像部分検出部により画像部分が検出された歩行者について、前記実空間位置算出部により不適切な実空間位置が算出されて、不適切な実空間位置が用いられることを防止することができる。   According to the fifth invention, when the position of the pedestrian detected by the object position detection unit is an unnatural situation where the position on the map of the vehicle by the navigation device is off the road, The space position reliability determination unit prohibits the calculation of the real space position by the real space position calculation unit for the pedestrian. As a result, for the pedestrian whose image part is detected by the image part detection unit, an inappropriate real space position is calculated by the real space position calculation unit and an inappropriate real space position is not used. be able to.

また、第1発明から第5発明のうちのいずれかにおいて、前記半透過物体検出部は、前記半透過物体として格子フェンスを検出することを特徴とする(第6発明)。   In any one of the first to fifth inventions, the semi-transmissive object detection unit detects a lattice fence as the semi-transmissive object (sixth invention).

第6発明によれば、格子を介して前記カメラにより背後の物体が撮像されると共に、前記レーダ装置から出力されるビームが格子によって遮蔽されて背後の物体には到達しない格子フェンスを、前記半透過物体として検出することができる。   According to the sixth aspect of the present invention, the lattice fence in which the object behind the image is imaged by the camera through the lattice and the beam output from the radar device is shielded by the lattice and does not reach the object behind the half is provided. It can be detected as a transparent object.

また、第6発明において、前記半透過物体検出部は、前記レーダ装置の測距データから算出される物体の幅が、所定値以上であるときに、該物体が格子フェンスであると検出することを特徴とする(第7発明)。   In the sixth invention, the translucent object detection unit detects that the object is a lattice fence when the width of the object calculated from the distance measurement data of the radar device is equal to or larger than a predetermined value. (Seventh invention).

第7発明によれば、監視対象物である歩行者等よりも幅が大きくなる格子フェンスの存在を、前記レーダ装置の測距データから容易に検出することができる。   According to the seventh aspect of the present invention, it is possible to easily detect the presence of a grid fence having a width larger than that of a pedestrian or the like that is a monitoring target from the distance measurement data of the radar device.

車両周辺監視装置の車両への取付態様の説明図。Explanatory drawing of the attachment aspect to the vehicle of a vehicle periphery monitoring apparatus. レーダ装置の左右方向の走査範囲の説明図。Explanatory drawing of the scanning range of the left-right direction of a radar apparatus. 車両周辺監視装置の構成図。The block diagram of a vehicle periphery monitoring apparatus. 車両と物体との間に格子フェンスが介在する状況の説明図。Explanatory drawing of the condition where a lattice fence interposes between a vehicle and an object. 格子フェンスとその背後に存在する物体の撮像画像の説明図。Explanatory drawing of the captured image of a lattice fence and the object which exists behind it. 格子フェンスを検出する処理の一例の説明図。Explanatory drawing of an example of the process which detects a lattice fence. 画像部分のぼけ度合により、検出距離の適否を判断する処理の説明図。Explanatory drawing of the process which judges the appropriateness of a detection distance by the blurring degree of an image part. 画像部分のオプティカルフローにより、検出距離の適否を判断する処理の説明図。Explanatory drawing of the process which judges the suitability of detection distance by the optical flow of an image part. 画像部分の大きさの変化率に基づく推定距離により、検出距離の適否を判断する処理の説明図。Explanatory drawing of the process which judges the suitability of detection distance by the estimated distance based on the change rate of the magnitude | size of an image part. ナビゲーション装置からの情報により、検出距離の適否を判断する処理の説明図。Explanatory drawing of the process which judges the suitability of detection distance with the information from a navigation apparatus.

本発明の車両周辺監視装置の実施形態について、図1〜図10を参照して説明する。   An embodiment of a vehicle periphery monitoring device of the present invention will be described with reference to FIGS.

図1を参照して、車両周辺監視装置10は、前側に赤外線カメラ11とレーダ装置12が装着された車両(自車両)1に搭載されている。赤外線カメラ11は、撮像物の温度が高いほど出力レベルが高くなる(輝度が高くなる)特性を有している。なお、赤外線カメラ11に代えて可視光等、他の波長領域に感度が調節されたカメラを用いてもよい。   Referring to FIG. 1, a vehicle periphery monitoring device 10 is mounted on a vehicle (own vehicle) 1 having an infrared camera 11 and a radar device 12 mounted on the front side. The infrared camera 11 has a characteristic that the output level increases (the luminance increases) as the temperature of the imaged object increases. Instead of the infrared camera 11, a camera whose sensitivity is adjusted to other wavelength regions such as visible light may be used.

また、レーダ装置12により検出される物体の実空間座標系が、車両1の前部を原点0とし、X軸を車両1の左右方向、Y軸を車両1の上下方向、Z軸を車両1の前後方向として定義されている。   Further, in the real space coordinate system of the object detected by the radar device 12, the front portion of the vehicle 1 is the origin 0, the X axis is the left and right direction of the vehicle 1, the Y axis is the up and down direction of the vehicle 1, and the Z axis is the vehicle 1 It is defined as the front-rear direction.

レーダ装置12は、車両1の前側の赤外線カメラ11の上部位置に取付けられている。レーダ装置12は、図2に示したように、車両1の上方から見たときに、赤外線カメラ11の撮像範囲L1〜L2よりも狭い幅で広がるミリ波(電磁波)のビームBMを、車両1の前方の検出範囲が車両1の左右方向に走査されるように、一定強度のビームBMの送信角度を一定角度ずつずらして出力する。   The radar device 12 is attached to an upper position of the infrared camera 11 on the front side of the vehicle 1. As shown in FIG. 2, the radar device 12 generates a millimeter-wave (electromagnetic wave) beam BM that spreads in a narrower width than the imaging range L1 to L2 of the infrared camera 11 when viewed from above the vehicle 1. The transmission angle of the beam BM having a constant intensity is shifted by a predetermined angle so as to be scanned in the left-right direction of the vehicle 1 and output.

ビームBMの左右方向の走査範囲は、赤外線カメラ11の撮像領域L1〜L2を、水平方向について全て含むように設定されている。また、ビームBMの上下方向の幅は、赤外線カメラ11の撮像範囲L1〜L2の上下方向の視野を含むように設定されている。   The scanning range of the beam BM in the left-right direction is set so as to include all the imaging areas L1 to L2 of the infrared camera 11 in the horizontal direction. Further, the vertical width of the beam BM is set so as to include the vertical visual field of the imaging range L1 to L2 of the infrared camera 11.

そして、レーダ装置12は、このミリ波の反射波、すなわち、車両1の前方に存在する物体により反射されたミリ波を上下方向に配列された受信アンテナ(図示しない)により受信する。レーダ装置12は、受信した反射波のうちの所定強度以上の反射波に基づいて、ビームBMの送信方向に存在する物体を検出する。   The radar apparatus 12 receives this millimeter wave reflected wave, that is, the millimeter wave reflected by the object existing in front of the vehicle 1 by a receiving antenna (not shown) arranged in the vertical direction. The radar apparatus 12 detects an object present in the transmission direction of the beam BM based on a reflected wave having a predetermined intensity or more among the received reflected waves.

また、レーダ装置12は、送信波と受信波との時間差に基づいて、ビームBMを反射した物体と車両1間の距離を検出する。なお、レーダ装置としてはミリ波等の電磁波(レーザー光など)のほか、超音波等の弾性振動波を用いるレーダ装置を採用してもよい。   Further, the radar apparatus 12 detects the distance between the object reflecting the beam BM and the vehicle 1 based on the time difference between the transmission wave and the reception wave. In addition, as a radar apparatus, you may employ | adopt the radar apparatus which uses elastic vibration waves, such as an ultrasonic wave, besides electromagnetic waves (laser light etc.), such as a millimeter wave.

次に、図3を参照して、車両周辺監視装置10は、CPU、メモリ、インターフェース回路等(図示しない)により構成された電子ユニットであり、赤外線カメラ11から出力されるアナログの映像信号をデジタルデータに変換して画像メモリ(図示しない)に取り込み、画像メモリに取り込んだ車両1の前方画像に対して、CPUにより各種演算処理を行う機能を有している。   Next, referring to FIG. 3, the vehicle periphery monitoring device 10 is an electronic unit composed of a CPU, a memory, an interface circuit, etc. (not shown), and digitally outputs an analog video signal output from the infrared camera 11. The CPU has a function of converting the data into an image memory (not shown) and performing various arithmetic processes by the CPU on the front image of the vehicle 1 captured in the image memory.

また、車両周辺監視装置10には、レーダ装置12から、物体で反射されたミリ波の反射強度を示す反射強度データと、この物体と車両1間の距離を示す距離データとを含む測距データが入力される。さらに、車両1には、車両1のヨーレートを検出するヨーレートセンサ13、車両1の走行速度を検出する速度センサ14、車両1のブレーキペダル(図示しない)の操作状態を検出するブレーキセンサ15が備えられ、これらのセンサの検出信号が車両周辺監視装置10に入力される。   The vehicle periphery monitoring device 10 also includes distance measurement data including reflection intensity data indicating the reflection intensity of the millimeter wave reflected by the object from the radar device 12 and distance data indicating the distance between the object and the vehicle 1. Is entered. Further, the vehicle 1 includes a yaw rate sensor 13 that detects the yaw rate of the vehicle 1, a speed sensor 14 that detects the traveling speed of the vehicle 1, and a brake sensor 15 that detects an operation state of a brake pedal (not shown) of the vehicle 1. The detection signals of these sensors are input to the vehicle periphery monitoring device 10.

また、車両1には、音声出力装置16、画像出力装置17、制動装置18、及びナビゲーション装置19が備えられ、車両周辺監視装置10から出力される制御信号により、これらの装置の作動が制御される。なお、画像出力装置17としては、車両1のフロントウィンドウに画像を表示するHUD(ヘッドアップディスプレイ)、車両1の走行状況を示す表示計、ナビゲーション装置を構成するディスプレイ装置等が採用される。   In addition, the vehicle 1 includes an audio output device 16, an image output device 17, a braking device 18, and a navigation device 19, and operations of these devices are controlled by a control signal output from the vehicle periphery monitoring device 10. The As the image output device 17, a HUD (head-up display) that displays an image on the front window of the vehicle 1, a display meter that indicates the traveling state of the vehicle 1, a display device that constitutes a navigation device, and the like are employed.

車両周辺監視装置10は、メモリに保持された車両周辺監視用プログラムをCPUで実行することにより、レーダ装置12から出力される測距データに基づいて、車両1の前方に所在する物体を検出して、この物体と車両1間の距離を検出する物体距離検出部21、赤外線カメラ11による撮像画像から、物体距離検出部21により検出された物体の画像部分を検出する画像部分検出部22、画像部分検出部22により画像部分が検出された物体の実空間位置を算出する実空間位置算出部23、及び実空間位置算出部23により算出される物体の実空間位置の信頼性を判定する実空間位置信頼性判定部24として機能する。   The vehicle periphery monitoring device 10 detects an object located in front of the vehicle 1 based on distance measurement data output from the radar device 12 by executing a vehicle periphery monitoring program stored in the memory by the CPU. The object distance detecting unit 21 that detects the distance between the object and the vehicle 1, the image part detecting unit 22 that detects the image part of the object detected by the object distance detecting unit 21 from the image captured by the infrared camera 11, and the image The real space position calculation unit 23 that calculates the real space position of the object from which the image portion is detected by the partial detection unit 22, and the real space that determines the reliability of the real space position of the object calculated by the real space position calculation unit 23 The position reliability determination unit 24 functions.

さらに、車両周辺監視装置10は、赤外線カメラ11による撮像画像又はレーダ装置12から出力される測距データに基づいて、半透過物体(例えば、金網等の格子フェンス)を検出する半透過物体検出部25、画像部分検出部22により検出された画像部分のぼけ度合を算出するぼけ度合算出部26、赤外線カメラ11による時系列の撮像画像間で、同一物体の画像部分のオプティカルフローを算出する変位状況算出部27、及び、赤外線カメラ11による時系列の撮像画像間で、同一物体の大きさの変化率を算出する推定距離算出部28として機能する。   Further, the vehicle periphery monitoring device 10 detects a semi-transmissive object (for example, a lattice fence such as a wire mesh) based on a captured image obtained by the infrared camera 11 or distance measurement data output from the radar device 12. 25. Displacement status for calculating the optical flow of the image part of the same object between the time-series captured images by the infrared camera 11 and the blur degree calculating part 26 for calculating the degree of blur of the image part detected by the image part detecting unit 22 It functions as an estimated distance calculation unit 28 that calculates the rate of change of the size of the same object between the calculation unit 27 and the time-series captured images by the infrared camera 11.

物体距離検出部21は、所定の制御サイクル毎に、検出範囲内をレーダ装置12により走査して検出範囲内に存在する物体を検出して、物体と車両1間の距離を検出する。画像部分検出部22は、物体距離検出部21による物体の検出位置を赤外線カメラ11の撮像画像に投影して、この物体の画像部分の検出範囲を設定し、この検出範囲内でこの物体の画像部分を検出する。   The object distance detection unit 21 detects the distance between the object and the vehicle 1 by scanning the detection range with the radar device 12 and detecting an object existing in the detection range for each predetermined control cycle. The image part detection unit 22 projects the detection position of the object by the object distance detection unit 21 onto the captured image of the infrared camera 11, sets the detection range of the image part of the object, and sets the image of the object within the detection range. Detect part.

実空間位置算出部23は、画像部分検出部22により検出された画像部分の位置(座標)を、物体距離検出部21により検出された距離に基づいて実空間位置に座標変換することで、画像部分が検出された物体の実空間位置を算出する。   The real space position calculation unit 23 converts the position (coordinates) of the image part detected by the image part detection unit 22 into a real space position based on the distance detected by the object distance detection unit 21, thereby generating an image. The real space position of the object from which the part is detected is calculated.

なお、このように、撮像画像における画像部分の位置を、物体と車両1との距離に基づいて実空間位置に変換する処理の詳細については、上述した特開平9−264954号公報に記載されているので、ここでは説明を省略する。   Note that details of the process of converting the position of the image portion in the captured image into the real space position based on the distance between the object and the vehicle 1 are described in Japanese Patent Laid-Open No. 9-264554 described above. Therefore, the description is omitted here.

車両周辺監視装置10は、実空間位置算出部23により実空間位置が算出された物体と車両1との接触可能性を判断する。なお、車両1と物体との接触可能性の判断処理については、例えば、特開2001−6096号公報に記載されているように、検出された物体の移動ベクトルが、車両前方に設定された進入判定領域から接近判定領域に進む(物体が車両1に接近する)と判定されたときに、この物体(接近物体)と車両1が接触する可能性があると判定する。   The vehicle periphery monitoring device 10 determines the possibility of contact between the vehicle 1 and the object whose real space position is calculated by the real space position calculation unit 23. In addition, regarding the determination process of the possibility of contact between the vehicle 1 and the object, for example, as described in Japanese Patent Application Laid-Open No. 2001-6096, the detected movement vector of the object is set in front of the vehicle. When it is determined from the determination area to the approach determination area (the object approaches the vehicle 1), it is determined that there is a possibility that the object (approaching object) and the vehicle 1 are in contact with each other.

この物体と車両1が接触する可能性があると判定した場合に、車両周辺監視装置10は、接触回避処理を実行する。具体的には、車両周辺監視装置10は、ブレーキセンサ15の検出信号により、運転者がブレーキ操作をしているか否かを判断する。そして、ブレーキ操作をしていないときは、直ちに、音声出力装置16及び画像出力装置17による警報を出力する。   When it is determined that there is a possibility that the object and the vehicle 1 are in contact with each other, the vehicle periphery monitoring device 10 executes a contact avoidance process. Specifically, the vehicle periphery monitoring apparatus 10 determines whether or not the driver is operating a brake based on a detection signal from the brake sensor 15. When the brake operation is not performed, an alarm from the audio output device 16 and the image output device 17 is immediately output.

一方、運転者がブレーキ操作をしているときは、車両周辺監視装置10は、このブレーキ操作に応じた制動装置18の作動により、接触が回避されるか否かを判断する。そして、回避されると判断したときには、警報を出力しないようにして、運転者に余計な煩わしさを与えないようにする。   On the other hand, when the driver performs a brake operation, the vehicle periphery monitoring device 10 determines whether or not contact is avoided by the operation of the brake device 18 according to the brake operation. When it is determined that it will be avoided, an alarm is not output so that the driver is not bothered excessively.

また、回避されると判断しなかったときには、車両周辺監視装置10は、音声出力装置16及び画像出力装置17による警報を出力する。さらに、車両周辺監視装置10は、必要に応じて接触が回避されるように制動装置18を作動させる。   When it is not determined that the vehicle is to be avoided, the vehicle periphery monitoring device 10 outputs an alarm from the audio output device 16 and the image output device 17. Furthermore, the vehicle periphery monitoring device 10 operates the braking device 18 so that contact is avoided as necessary.

次に、実空間位置信頼性判定部24は、以下の第1条件〜第5条件のうちの少なくとも一つが成立したときに、前記物体距離検出部21により検出された物体と車両1間の距離に基づく、実空間位置算出部23による物体の実空間位置の算出を禁止する処理を行う。以下、図4〜図10を参照して、この処理について説明する。なお、このように、実空間位置算出部23による物体の実空間位置の算出を禁止する処理は、実空間位置算出部23により算出される物体の実空間位置の信頼性を下げることに相当する。   Next, the real space position reliability determination unit 24 determines the distance between the object and the vehicle 1 detected by the object distance detection unit 21 when at least one of the following first to fifth conditions is satisfied. Based on the above, a process of prohibiting the calculation of the real space position of the object by the real space position calculation unit 23 is performed. Hereinafter, this process will be described with reference to FIGS. As described above, the process of prohibiting the calculation of the real space position of the object by the real space position calculation unit 23 corresponds to lowering the reliability of the real space position of the object calculated by the real space position calculation unit 23. .

[第1条件]格子フェンスの検出による条件
図4(a)に示したように、車両1と物体60(広告板等)との間に格子フェンス50(金網フェンス等)が介在しているときに、レーダ装置12は、手前に存在する格子フェンス50を検出する。しかし、格子フェンス50の背後に存在する物体60については、レーダ装置12により検出されない場合がある。
[First Condition] Conditions Based on Detection of Lattice Fence As shown in FIG. 4A, when a lattice fence 50 (such as a wire fence) is interposed between the vehicle 1 and an object 60 (such as an advertising board). In addition, the radar apparatus 12 detects the lattice fence 50 existing in the foreground. However, the object 60 that exists behind the lattice fence 50 may not be detected by the radar device 12.

そしてこの場合には、画像部分60aが検出された物体60と車両1間の距離が、図4(a)に示したように、真の距離である40mではなく、格子フェンス50との距離20mであると誤って検出されてしまう。   In this case, the distance between the object 60 from which the image portion 60a is detected and the vehicle 1 is not a true distance of 40 m as shown in FIG. If it is, it will be detected by mistake.

そこで、実空間位置信頼性判定部24は、半透過物体検出部25により格子フェンス50が検出されたときに、車両1からみたときに格子フェンス50と重なる物体60については、実空間位置算出部23による、物体距離検出部21により検出された物体60と車両1間の距離(20m)に基づく実空間位置の算出を禁止する。これにより、物体60と車両1間の誤った検出距離(20m)に基づく、不適切な実空間位置の算出が行われることを防止する。   Therefore, the real space position reliability determination unit 24 performs the real space position calculation unit for the object 60 that overlaps the lattice fence 50 when viewed from the vehicle 1 when the lattice fence 50 is detected by the translucent object detection unit 25. 23, the calculation of the real space position based on the distance (20 m) between the object 60 and the vehicle 1 detected by the object distance detection unit 21 is prohibited. This prevents an inappropriate real space position from being calculated based on an erroneous detection distance (20 m) between the object 60 and the vehicle 1.

なお、物体60の実空間位置が、車両1から20mの位置に誤って算出されると、物体60の画像部分60aの大きさが、車両1から20m離れた歩行者を想定した大きさに近くなる場合がある。そして、この場合には、車両周辺監視装置1による接触回避処理が実行されて、運転者に違和感や不安感を抱かせるおそれがあるが、上記第1条件により、不適切な実空間位置の算出が行われることを防止することによって、このような違和感や不安感を抱かせることを防止することができる。   If the real space position of the object 60 is erroneously calculated at a position 20 m from the vehicle 1, the size of the image portion 60 a of the object 60 is close to the size assumed for a pedestrian 20 m away from the vehicle 1. There is a case. In this case, the contact avoidance process by the vehicle periphery monitoring device 1 is executed, which may cause the driver to feel uncomfortable or uneasy. However, an inappropriate real space position is calculated according to the first condition. It is possible to prevent such a sense of incongruity and anxiety from occurring.

また、半透過物体検出部25は、図5に示したように、赤外線カメラ11の撮像画像Im2から、格子パターンを有する画像部分50bを、金網フェンスの画像部分として検出する。   Further, as shown in FIG. 5, the translucent object detection unit 25 detects the image portion 50b having a lattice pattern from the captured image Im2 of the infrared camera 11 as an image portion of the wire mesh fence.

なお、レーダ装置12から出力される測距データによる反射強度の分布が、上端と下端部で強く、中間部で弱い物体について、格子フェンスであると検出するようにしてもよい。   Note that the distribution of the reflection intensity based on the distance measurement data output from the radar device 12 may be detected as a lattice fence for an object that is strong at the upper and lower ends and weak at the middle.

また、図6に示したように、赤外線カメラ11による撮像データ、又はレーダ装置12から出力される測距データにより、横方向(X軸方向)の幅が所定値(歩行者の幅よりも大きい値に設定される)以上である物体50が検出されたときに、物体50が格子フェンスであると検出するようにしてもよい。   Further, as shown in FIG. 6, the width in the horizontal direction (X-axis direction) is larger than the width of the pedestrian (the width of the pedestrian) based on the image data captured by the infrared camera 11 or the distance measurement data output from the radar device 12. When an object 50 that is equal to or greater than (set to a value) is detected, it may be detected that the object 50 is a lattice fence.

[第2条件]画像部分のぼけ度合による条件
図7を参照して、赤外線カメラ11の撮像画像Im3における物体50の撮像画像50cのぼけ度合は、物体50と車両1間の距離が長くなるほど大きくなる。そこで、ぼけ度合算出部26は、画像部分検出部22により検出された物体の画像部分について、ぼけ度合を算出する。なお、ぼけ度合は、画像部分の輝度分布等に基づいて算出される。
[Second Condition] Condition According to Degree of Blur of Image Part Referring to FIG. 7, the degree of blur of captured image 50c of object 50 in captured image Im3 of infrared camera 11 increases as the distance between object 50 and vehicle 1 increases. Become. Therefore, the blur degree calculation unit 26 calculates the blur degree for the image portion of the object detected by the image portion detection unit 22. Note that the degree of blur is calculated based on the luminance distribution of the image portion and the like.

そして、実空間位置信頼性判定部23は、物体距離検出部21により検出された物体と車両1間の距離と、ぼけ度合算出部26により算出されたぼけ度合との対応関係が、予め設定された距離−ぼけ度合の基準値(距離○○m−ぼけ度合△△%のように設定される)から第1所定レベル以上乖離したときに、実空間位置算出部23による、この物体の実空間位置の算出を禁止する。   The real space position reliability determination unit 23 sets in advance a correspondence relationship between the distance between the object detected by the object distance detection unit 21 and the vehicle 1 and the degree of blur calculated by the degree-of-blur calculation unit 26. When the actual space position calculation unit 23 deviates more than a first predetermined level from the reference value of the distance-blur degree (set as the distance OOm-blur degree △ Δ%), the real space position calculation unit 23 performs the real space of the object. Prohibit position calculation.

これにより、物体60と車両1間の誤った検出距離(20m)に基づく、不適切な実空間位置の算出が行われることを防止している。   This prevents an inappropriate real space position from being calculated based on an erroneous detection distance (20 m) between the object 60 and the vehicle 1.

[第3条件]オプティカルフローによる条件
変位状況算出部27は、赤外線カメラ11により制御サイクル毎に撮像された時系列画像間で、同一物体の画像部分のオプティカルフロー(本発明の変位状況に相当する)を算出する。なお、時系列の各撮像画像からの同一物体の画像部分の抽出処理については、例えば、特開2001−6096号公報に記載された同一性判定の処理を用いて行われる。
[Third Condition] Optical Flow Condition The displacement state calculation unit 27 is an optical flow of the image portion of the same object between time-series images captured for each control cycle by the infrared camera 11 (corresponding to the displacement state of the present invention). ) Is calculated. Note that the process of extracting the image portion of the same object from each time-series captured image is performed using, for example, the identity determination process described in Japanese Patent Laid-Open No. 2001-6096.

図8(a)に示したように、車両1の赤外線カメラ11及びレーダ装置12と物体60との間に、格子フェンス50(金網フェンス等)が介在している状態で、赤外線カメラ11の時系列の撮像画像間における画像部分のオプティカルフローを算出すると、図8(b)のV1に示したようになる。   As shown in FIG. 8A, when the infrared camera 11 is used with the lattice fence 50 (such as a wire fence) interposed between the object 60 and the infrared camera 11 and the radar device 12 of the vehicle 1. When the optical flow of the image portion between the series of captured images is calculated, it is as shown in V1 of FIG.

図8(b)のV2は、物体距離検出部21により検出された距離と車両1間の距離と、速度センサ14により検出された車両1の走行速度とに基づいて算出された推定オプティカルフロー(本発明の推定変位状況に相当する)を示している。   V 2 in FIG. 8B is an estimated optical flow (based on the distance detected by the object distance detector 21, the distance between the vehicles 1, and the traveling speed of the vehicle 1 detected by the speed sensor 14 ( This corresponds to the estimated displacement state of the present invention).

ここで、物体距離検出部21による検出距離が物体60と車両1間の距離であるときには、V1とV2はほぼ等しくなる。それに対して、物体距離検出部21による検出距離が格子フェンス50と自車両1間の距離であるときには、V1がV2と異なるものとなる。   Here, when the detection distance by the object distance detection unit 21 is the distance between the object 60 and the vehicle 1, V1 and V2 are substantially equal. On the other hand, when the detection distance by the object distance detection unit 21 is the distance between the lattice fence 50 and the host vehicle 1, V1 is different from V2.

そこで、実空間位置信頼性判定部24は、変位状況算出部27により算出されたオプティカルフローV1が、推定オプティカルフローV2から第2所定レベル以上乖離したときに、実空間位置算出部23による物体60の実空間位置の算出を禁止する。これにより、物体60と車両1間の誤った検出距離(格子フェンス50と車両1間の検出距離)に基づく、不適切な実空間位置の算出が行われることを防止している。   Therefore, the real space position reliability determination unit 24 detects the object 60 by the real space position calculation unit 23 when the optical flow V1 calculated by the displacement state calculation unit 27 deviates from the estimated optical flow V2 by a second predetermined level or more. The calculation of the real space position of is prohibited. This prevents an inappropriate real space position from being calculated based on an erroneous detection distance between the object 60 and the vehicle 1 (detection distance between the lattice fence 50 and the vehicle 1).

[第4条件]画像部分の大きさの変化率による条件
推定距離算出部28は、赤外線カメラ11により制御サイクル毎に撮像された時系列画像間で、同一物体の画像部分の大きさの変化率を算出する。なお、時系列の各撮像画像からの同一物体の画像部分の抽出処理については、例えば、特開2001−6096号公報に記載された同一性判定の処理を用いて行われる。
[Fourth Condition] Condition Based on the Rate of Change of Size of Image Part The estimated distance calculation unit 28 is the rate of change of the size of the image part of the same object between time-series images captured for each control cycle by the infrared camera 11. Is calculated. Note that the process of extracting the image portion of the same object from each time-series captured image is performed using, for example, the identity determination process described in Japanese Patent Laid-Open No. 2001-6096.

図9(a),図9(b)は、図8(a)に示したように、車両1の赤外線カメラ11及びレーダ装置12と物体60との間に、格子フェンス50(金網フェンス等)が介在している状態で、時刻t1で撮像された画像Im5と時刻t2(t2=t1+Δt)で撮像された画像Im6を示している。   9A and 9B show a lattice fence 50 (such as a wire fence) between the object 60 and the infrared camera 11 and the radar device 12 of the vehicle 1, as shown in FIG. 8A. The image Im5 imaged at time t1 and the image Im6 imaged at time t2 (t2 = t1 + Δt) are shown.

この場合、推定距離算出部28は、Im6における物体60の画像部分60fの高さh2を、Im5における物体60の画像部分60eの高さh1で除して、物体60の画像部分の大きさの変化率(=h2/h1)を算出する。   In this case, the estimated distance calculation unit 28 divides the height h2 of the image portion 60f of the object 60 at Im6 by the height h1 of the image portion 60e of the object 60 at Im5 to obtain the size of the image portion of the object 60. The rate of change (= h2 / h1) is calculated.

そして、実空間位置信頼性判定部24は、物体60の画像部分の大きさの変化率と、速度センサ14により検出された車両1の走行速度とに基づいて、物体60と車両1間の距離を推定する。   Then, the real space position reliability determination unit 24 determines the distance between the object 60 and the vehicle 1 based on the change rate of the size of the image portion of the object 60 and the traveling speed of the vehicle 1 detected by the speed sensor 14. Is estimated.

ここで、物体距離検出部21による検出距離が物体60と車両1間の距離であるときには、この検出距離は上記推定距離とほぼ等しくなる。それに対して、物体距離検出部21による検出距離が格子フェンス50と自車両1間の距離であるときには、この検出距離は上記推定距離と異なるものとなる。   Here, when the detection distance by the object distance detection unit 21 is the distance between the object 60 and the vehicle 1, the detection distance is substantially equal to the estimated distance. On the other hand, when the detection distance by the object distance detection unit 21 is the distance between the lattice fence 50 and the host vehicle 1, this detection distance is different from the estimated distance.

そこで、実空間位置信頼性判定部24は、物体距離検出部21による検出距離が、推定距離算出部28により算出された物体60と車両1間の推定距離から第3所定レベル以上乖離したときに、実空間位置算出部23による物体60の実空間位置の算出を禁止する。これにより、物体60と車両1間の誤った検出距離(格子フェンス50と車両1間の検出距離)に基づく、不適切な実空間位置の算出が行われることを防止している。   Therefore, the real space position reliability determination unit 24 detects when the detection distance by the object distance detection unit 21 deviates from the estimated distance between the object 60 and the vehicle 1 calculated by the estimated distance calculation unit 28 by a third predetermined level or more. The calculation of the real space position of the object 60 by the real space position calculation unit 23 is prohibited. This prevents an inappropriate real space position from being calculated based on an erroneous detection distance between the object 60 and the vehicle 1 (detection distance between the lattice fence 50 and the vehicle 1).

[第5条件]ナビゲーション装置の情報による条件
実空間位置信頼性判定部24は、画像部分検出部22により画像部分が検出された物体が歩行者であると識別したときに、図10に示したように、ナビゲーション装置19からのデータにより得られる地図データMa上の車両1の位置71と、物体距離検出部21により検出された歩行者と車両1間の距離に基づく、地図データMa上の歩行者の位置72を算出する。
[Fifth Condition] Condition Based on Information of Navigation Device When the real space position reliability determination unit 24 identifies that the object from which the image part is detected by the image part detection unit 22 is a pedestrian, it is shown in FIG. As described above, walking on the map data Ma based on the position 71 of the vehicle 1 on the map data Ma obtained from the data from the navigation device 19 and the distance between the pedestrian and the vehicle 1 detected by the object distance detection unit 21. The position 72 of the person is calculated.

そして、地図データMa上の歩行者の位置72が道路から外れているときに、実空間位置信頼性判定部24は、実空間位置算出部23による歩行者の実空間位置の算出を禁止する。これにより、歩行者と車両1間の誤った検出距離に基づく、不適切な実空間位置の算出が行われることを防止している。   When the pedestrian position 72 on the map data Ma is off the road, the real space position reliability determination unit 24 prohibits the real space position calculation unit 23 from calculating the pedestrian's real space position. This prevents an inappropriate real space position from being calculated based on an erroneous detection distance between the pedestrian and the vehicle 1.

なお、本実施形態では、実空間位置信頼性判定部24は、上記第1条件〜第5条件の成否を判断して、実空間位置算出部23により、誤った検出距離に基づく実空間位置の算出が行われることを防止したが、必ずしも全ての条件を判断する必要はなく、少なくとも上記第1条件の成否を判断することにより、本発明の効果を得ることができる。   In this embodiment, the real space position reliability determination unit 24 determines whether or not the first to fifth conditions are satisfied, and the real space position calculation unit 23 determines the real space position based on the erroneous detection distance. Although the calculation is prevented from being performed, it is not always necessary to determine all the conditions, and the effect of the present invention can be obtained by determining at least whether or not the first condition is satisfied.

また、本実施形態では、実空間位置信頼性判定部24は、上記第1条件〜第5条件の成否を判断して、実空間位置算出部23による物体の実空間位置の算出を禁止したが、判断結果に応じて実空位置算出部23により算出される物体の実空間位置の信頼性を下げるようにしてもよい。そして、信頼性の程度に応じて、実空間位置算出部23により算出される物体の実空間位置を採用するか否かを決定するようにしてもよい。   In the present embodiment, the real space position reliability determination unit 24 determines whether or not the first condition to the fifth condition are satisfied, and prohibits the real space position calculation unit 23 from calculating the real space position of the object. The reliability of the real space position of the object calculated by the real sky position calculation unit 23 according to the determination result may be lowered. Then, it may be determined whether or not to adopt the real space position of the object calculated by the real space position calculation unit 23 according to the degree of reliability.

また、本実施の形態では、レーダ装置12から出力されるビームを遮蔽すると共に、赤外線カメラ11により撮像されたときに背後の他物体が撮像される半透過物体として、格子フェンスを検出する例を示したが、他の種類の半透過物体についても本発明の適用が可能である。   In the present embodiment, an example in which a lattice fence is detected as a translucent object that shields a beam output from the radar device 12 and images other objects behind when captured by the infrared camera 11 is used. Although shown, the present invention can be applied to other types of translucent objects.

1…車両(自車両)、10…車両周辺監視装置、11…赤外線カメラ、12…レーダ装置、16…音声出力装置、17…画像出力装置、18…制動装置、19…ナビゲーション装置、21…物体距離検出部、22…画像部分検出部、23…実空間位置算出部、24…実空間位置信頼性判定部、25…半透過物体検出部、26…ぼけ度合算出部、27…変位状況算出部、28…推定距離算出部、50…格子フェンス(半透過物体)。   DESCRIPTION OF SYMBOLS 1 ... Vehicle (own vehicle), 10 ... Vehicle periphery monitoring device, 11 ... Infrared camera, 12 ... Radar device, 16 ... Sound output device, 17 ... Image output device, 18 ... Braking device, 19 ... Navigation device, 21 ... Object Distance detection unit 22 ... Image part detection unit 23 ... Real space position calculation unit 24 24 Real space position reliability determination unit 25 25 Translucent object detection unit 26 26 Degree degree calculation unit 27 27 Displacement state calculation unit 28 ... Estimated distance calculation unit, 50 ... Lattice fence (semi-transparent object).

Claims (7)

車両に搭載されたレーダ装置により前記車両周辺の検出範囲を走査することによって、該検出範囲内に存在する物体を検出して、該物体と前記車両間の距離を検出する物体距離検出部と、
前記物体距離検出部により検出された物体を、前記車両に搭載されたカメラの撮像画像に投影して、該物体の画像部分を検出する画像部分検出部と、
前記物体距離検出部による検出距離に基づいて、前記画像部分検出部により画像部分が検出された物体の実空間位置を算出する実空間位置算出部と
を備えた車両周辺監視装置において、
前記検出範囲内に存在し、前記レーダ装置から出力されるビームを遮蔽すると共に、前記カメラにより撮像されたときに背後の他物体が撮像される半透過物体を検出する半透過物体検出部と、
前記カメラの撮像方向で、前記半透過物体検出部により検出された半透過物体と重なる位置に存在する物体については、前記実空間位置算出部により算出される実空間位置の信頼性を下げる実空間位置信頼性判定部と
を備えたことを特徴とする車両周辺監視装置。
An object distance detection unit that detects an object existing in the detection range by scanning a detection range around the vehicle by a radar device mounted on the vehicle, and detects a distance between the object and the vehicle;
An image part detection unit that projects an object detected by the object distance detection unit onto a captured image of a camera mounted on the vehicle and detects an image part of the object;
In a vehicle periphery monitoring device comprising: a real space position calculation unit that calculates a real space position of an object whose image portion is detected by the image portion detection unit based on a detection distance by the object distance detection unit;
A semi-transparent object detection unit that is within the detection range and shields a beam output from the radar apparatus and detects a semi-transparent object in which another object behind the image is imaged by the camera;
For an object existing in a position overlapping with the semi-transparent object detected by the semi-transparent object detection unit in the imaging direction of the camera, the real space for reducing the reliability of the real space position calculated by the real space position calculation unit A vehicle periphery monitoring device comprising a position reliability determination unit.
請求項1に記載の車両周辺監視装置において、
前記画像部分検出部により検出された画像部分のぼけ度合を算出するぼけ度合算出部を備え、
前記実空間位置信頼性判定部は、前記画像部分検出部により画像部分が検出された物体について、前記ぼけ度合算出部により算出された該画像部分のぼけ度合と、前記物体距離検出部により検出された該物体と前記車両間の距離との関係が、予め設定されたぼけ度合と距離との基準関係から第1所定レベル以上乖離したときに、前記実空間位置算出部による該物体の実空間位置の算出を禁止することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 1,
A blur degree calculation unit that calculates the degree of blur of the image part detected by the image part detection unit;
The real space position reliability determination unit detects the degree of blur of the image part calculated by the degree-of-blur calculation unit and the object distance detection unit for the object whose image part is detected by the image part detection unit. Further, when the relationship between the distance between the object and the vehicle deviates from a preset reference relationship between the degree of blur and the distance by a first predetermined level or more, the real space position of the object by the real space position calculation unit Vehicle periphery monitoring device, which prohibits calculation of
請求項1又は請求項2に記載の車両周辺監視装置において、
前記カメラによる時系列の撮像画像から、前記画像部分検出部により検出された同一物体の画像部分の変位状況を算出する変位状況算出部を備え、
前記実空間位置信頼性判定部は、前記変位状況算出部により算出された前記変位状況が、前記同一物体について前記物体距離検出部により検出された前記車両との距離の変化と、前記車両の走行速度とに基づいて算出した推定変位状況から、第2所定レベル以上乖離したときに、前記実空間位置算出部による該同一物体の実空間位置の算出を禁止することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 1 or 2,
A displacement state calculation unit that calculates a displacement state of an image part of the same object detected by the image part detection unit from time-series captured images by the camera;
The real space position reliability determination unit is configured such that the displacement state calculated by the displacement state calculation unit is a change in the distance from the vehicle detected by the object distance detection unit for the same object, and the traveling of the vehicle. A vehicle periphery monitoring device that prohibits calculation of the real space position of the same object by the real space position calculation unit when the estimated displacement state calculated based on the speed deviates by a second predetermined level or more. .
請求項1から請求項3のうちいずれか1項に記載の車両周辺監視装置において、
前記カメラによる時系列の撮像画像から、前記画像部分検出部により検出された同一物体の画像部分の大きさの変化率を算出し、該変化率と前記車両の走行速度とに基づいて、該同一物体と前記車両間の推定距離を算出する推定距離算出部を備え、
前記実空間位置信頼性判定部は、前記同一物体について前記物体距離検出部により検出された前記車両との距離が、前記推定距離算出部により算出された前記推定距離から、第3所定レベル以上乖離したときに、前記実空間位置算出部による該同一物体の実空間位置の算出を禁止することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to any one of claims 1 to 3,
The rate of change in the size of the image portion of the same object detected by the image portion detection unit is calculated from the time-series captured images by the camera, and the same rate is calculated based on the rate of change and the traveling speed of the vehicle. An estimated distance calculation unit for calculating an estimated distance between the object and the vehicle;
The real space position reliability determination unit is configured such that a distance between the same object and the vehicle detected by the object distance detection unit deviates from the estimated distance calculated by the estimated distance calculation unit by a third predetermined level or more. When this is done, the vehicle surroundings monitoring device prohibits the calculation of the real space position of the same object by the real space position calculation unit.
請求項1から請求項4のうちいずれか1項に記載の車両周辺監視装置において、
前記車両に搭載されたナビゲーション装置により、前記車両の地図上の位置を算出する自車両位置算出部を備え、
前記実空間位置信頼性判定部は、前記画像部分検出部により歩行者の画像部分が検出され、前記自車両位置算出部により算出された前記車両の地図上の位置と、前記物体距離検出部により検出された距離とに基づいて認識した地図上の該歩行者の位置が、道路から外れているときに、前記実空間位置算出部による該歩行者の実空間位置の算出を禁止することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to any one of claims 1 to 4,
A navigation device mounted on the vehicle, including a host vehicle position calculation unit that calculates a position of the vehicle on a map;
The real space position reliability determination unit detects a pedestrian's image part by the image part detection unit, and calculates the position on the map of the vehicle calculated by the own vehicle position calculation unit and the object distance detection unit. When the position of the pedestrian on the map recognized based on the detected distance is off the road, the calculation of the real space position of the pedestrian by the real space position calculation unit is prohibited. A vehicle periphery monitoring device.
請求項1から請求項5のうちいずれか1項に記載の車両周辺監視装置において、
前記半透過物体検出部は、前記半透過物体として格子フェンスを検出することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to any one of claims 1 to 5,
The vehicle periphery monitoring device, wherein the translucent object detection unit detects a lattice fence as the translucent object.
請求項6に記載の車両周辺監視装置において、
前記半透過物体検出部は、前記レーダ装置の測距データから算出される物体の幅が、所定値以上であるときに、該物体が格子フェンスであると検出することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 6,
The semi-transparent object detection unit detects that the object is a lattice fence when the width of the object calculated from the distance measurement data of the radar device is equal to or greater than a predetermined value. apparatus.
JP2011150708A 2011-07-07 2011-07-07 Vehicle periphery monitoring device Expired - Fee Related JP5374549B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011150708A JP5374549B2 (en) 2011-07-07 2011-07-07 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011150708A JP5374549B2 (en) 2011-07-07 2011-07-07 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2013020295A true JP2013020295A (en) 2013-01-31
JP5374549B2 JP5374549B2 (en) 2013-12-25

Family

ID=47691706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011150708A Expired - Fee Related JP5374549B2 (en) 2011-07-07 2011-07-07 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5374549B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016200929A (en) * 2015-04-09 2016-12-01 トヨタ自動車株式会社 Collision avoidance assist device
KR20190083789A (en) * 2018-01-05 2019-07-15 현대자동차주식회사 Parking collision-avoidance assist system, vehicle and controll method thereof
CN111830455A (en) * 2019-03-28 2020-10-27 北京嘀嘀无限科技发展有限公司 Positioning method and system
WO2021245928A1 (en) * 2020-06-05 2021-12-09 日本電信電話株式会社 Image processing device, image processing method, and image processing program
CN114347064A (en) * 2022-01-31 2022-04-15 深圳市云鼠科技开发有限公司 Robot collision detection method and device based on optical flow, computer equipment and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007255978A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detector
JP2009223900A (en) * 2005-02-23 2009-10-01 Panasonic Electric Works Co Ltd Autonomous moving device and planar obstacle recognition method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009223900A (en) * 2005-02-23 2009-10-01 Panasonic Electric Works Co Ltd Autonomous moving device and planar obstacle recognition method
JP2007255978A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detector

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016200929A (en) * 2015-04-09 2016-12-01 トヨタ自動車株式会社 Collision avoidance assist device
KR20190083789A (en) * 2018-01-05 2019-07-15 현대자동차주식회사 Parking collision-avoidance assist system, vehicle and controll method thereof
KR102516597B1 (en) 2018-01-05 2023-04-03 현대자동차주식회사 Parking collision-avoidance assist system, vehicle and controll method thereof
CN111830455A (en) * 2019-03-28 2020-10-27 北京嘀嘀无限科技发展有限公司 Positioning method and system
CN111830455B (en) * 2019-03-28 2023-10-31 北京骑胜科技有限公司 Positioning method and system
WO2021245928A1 (en) * 2020-06-05 2021-12-09 日本電信電話株式会社 Image processing device, image processing method, and image processing program
CN114347064A (en) * 2022-01-31 2022-04-15 深圳市云鼠科技开发有限公司 Robot collision detection method and device based on optical flow, computer equipment and storage medium
CN114347064B (en) * 2022-01-31 2022-09-20 深圳市云鼠科技开发有限公司 Robot collision detection method and device based on optical flow, computer equipment and storage medium

Also Published As

Publication number Publication date
JP5374549B2 (en) 2013-12-25

Similar Documents

Publication Publication Date Title
JP6686988B2 (en) Video output device and video generation program
US9073484B2 (en) Surrounding area monitoring apparatus for vehicle
JP5503728B2 (en) Vehicle periphery monitoring device
US10220778B2 (en) Vehicle-mounted alert system and alert control device
JP5505702B2 (en) Vehicle periphery monitoring device
JP5774140B2 (en) Driving support device and driving support method
JP3263699B2 (en) Driving environment monitoring device
US20170269684A1 (en) Vehicle display device
JP6246014B2 (en) Exterior recognition system, vehicle, and camera dirt detection method
US20110228980A1 (en) Control apparatus and vehicle surrounding monitoring apparatus
US20140375812A1 (en) Method for representing a vehicle's surrounding environment
JP5374549B2 (en) Vehicle periphery monitoring device
CN109643495B (en) Periphery monitoring device and periphery monitoring method
JP4528283B2 (en) Vehicle periphery monitoring device
JP5718726B2 (en) Vehicle periphery monitoring device
JP6277933B2 (en) Display control device, display system
JP2007304033A (en) Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring
JP5927110B2 (en) Vehicle external recognition device
JP5192007B2 (en) Vehicle periphery monitoring device
KR20130119144A (en) Method and device for displaying object using transparent display panel
JP2017037400A (en) Information display device
JP2015156191A (en) Warning device and program
JP2007249324A5 (en)
JPH095078A (en) Vehicle peripheral monitor

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130920

R150 Certificate of patent or registration of utility model

Ref document number: 5374549

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees