JP2012256159A - Approaching object detecting device and method for detecting approaching object - Google Patents

Approaching object detecting device and method for detecting approaching object Download PDF

Info

Publication number
JP2012256159A
JP2012256159A JP2011128207A JP2011128207A JP2012256159A JP 2012256159 A JP2012256159 A JP 2012256159A JP 2011128207 A JP2011128207 A JP 2011128207A JP 2011128207 A JP2011128207 A JP 2011128207A JP 2012256159 A JP2012256159 A JP 2012256159A
Authority
JP
Japan
Prior art keywords
approaching object
center
gravity
approaching
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011128207A
Other languages
Japanese (ja)
Inventor
Hiroki Oba
裕樹 大場
Kosuke Munakata
康介 棟方
Tasuke Omori
太輔 大森
Hiroshi Mori
大志 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2011128207A priority Critical patent/JP2012256159A/en
Publication of JP2012256159A publication Critical patent/JP2012256159A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide "an approaching object detecting device and a method for detecting an approaching object" capable of quickly determining whether it is an approaching object or not and reducing an output of an erroneous warning directed to a stationary object when applied to an approaching object warning system, by reducing an erroneous determination that the stationary object is the approaching object.SOLUTION: An approaching object detecting device includes: center-of-gravity calculating means 5 for calculating the center of gravity of a three-dimensional object that is shown in a latest detection result every time a latest detection result of the three-dimensional object is obtained by approaching object candidate detecting means 4; and moving direction calculating means 6 for calculating the moving direction of the center of gravity on the basis of the calculation result of the center of gravity. When the moving direction of the center of gravity is the direction showing an approach of the moving body, approaching object determination means 7 determines that it is the approaching object and, when the moving direction of the center of gravity is the direction showing a separation from the moving body, determines that it is not the approaching object.

Description

本発明は、接近物検知装置および接近物検知方法に係り、特に、撮像手段の撮像画像に基づいて接近物を検知するのに好適な接近物検知装置および接近物検知方法に関する。   The present invention relates to an approaching object detection apparatus and an approaching object detection method, and more particularly to an approaching object detection apparatus and an approaching object detection method suitable for detecting an approaching object based on a captured image of an imaging unit.

従来から、車両に取り付けられた単眼(単一)カメラによる車両周辺の撮像画像(カメラからの入力画像)に基づいて、撮像画像中の路面上に存在する障害物を検出し、検出された障害物を対象とした警報を出力する路上障害物警報システムが知られていた。   Conventionally, an obstacle present on a road surface in a captured image is detected based on a captured image (input image from the camera) around the vehicle by a monocular (single) camera attached to the vehicle, and the detected obstacle A road obstacle warning system that outputs a warning for an object has been known.

この種のシステムには、路面上の立体物(障害物)を検出するための種々の立体物検出方法が適用されており、例えば、特許文献1に示すように、自車両の移動量を把握して、単眼カメラによる過去の撮像画像と現在の撮像画像とを照らし合わせることによって、路面や遠景等の不要な領域を除去して路面上の立体物(動体)のみを抽出する方法(所謂、背景差分法)等が知られている。   Various types of three-dimensional object detection methods for detecting a three-dimensional object (obstacle) on the road surface are applied to this type of system. For example, as shown in Patent Document 1, the amount of movement of the host vehicle is grasped. A method of extracting only a three-dimensional object (moving body) on the road surface by removing unnecessary areas such as a road surface and a distant view by comparing a past captured image by a monocular camera and a current captured image (so-called Background subtraction method) is known.

また、この種のシステムの中には、ユーザの死角から自車両に接近する立体物(例えば、歩行者や他車両等)のみを警報の対象とすべく、立体物が接近物であるか否かを判定するものがあった。   Also, in this type of system, whether or not the three-dimensional object is an approaching object so that only a three-dimensional object (for example, a pedestrian or another vehicle) approaching the host vehicle from the blind spot of the user is targeted for warning. There was something to judge.

特開平10−222679号公報JP-A-10-222679 特開2007−172540号公報JP 2007-172540 A 特開2010−128869号公報JP 2010-128869 A

しかしながら、従来は、自車両の後退時において、自車両の後方に存在する静止物(他車等)に対する誤警報が多発するといった問題が生じていた。   However, conventionally, there has been a problem that false alarms frequently occur for stationary objects (such as other vehicles) existing behind the host vehicle when the host vehicle is moving backward.

ここで、図6および図7は、このような問題が生じる理由を示す概念図である。   Here, FIG. 6 and FIG. 7 are conceptual diagrams showing the reason why such a problem occurs.

具体的には、図6(a)は、自車両のバックカメラによる自車両の後方の視野角内の撮像領域の撮像画像として、自車両とこれの後方の停車中の他車両(静止物)との距離が比較的大きい場合における当該他車両を含む撮像画像を示したものである。また、図6(b)は、このときの自車両と当該他車両との位置関係を模式的に示す平面図である。このような図6の状態において、当該他車両が背景差分法等によって検出された際には、図6(b)に示すように、当該他車両が、実際の位置(図中の塗り潰し円形マーク部)よりも自車両から遠い位置(図中の破線円形マーク部)に検出されることになる。これは、当該他車両の自車両からの距離が大きく、立体物としての当該他車両の検出に用いられる現在の撮像画像と過去の撮像画像との差分が小さく出ることによるものである。ただし、立体物の検出に用いられる撮像画像は、カメラレンズ(魚眼レンズ等)のディストーションを考慮した歪み補正後のものである場合がある。また、過去の撮像画像は、これの撮像時点からの現在までの自車両(カメラ)の移動量に応じた必要な変形(移動や回転等の座標変換)が施されたものである。   Specifically, FIG. 6A shows the captured image of the imaging region within the viewing angle behind the host vehicle by the back camera of the host vehicle and another vehicle (stationary object) stopped behind the host vehicle. The captured image including the other vehicle in the case where the distance to is relatively large is shown. FIG. 6B is a plan view schematically showing the positional relationship between the host vehicle and the other vehicle at this time. In the state of FIG. 6, when the other vehicle is detected by the background subtraction method or the like, as shown in FIG. 6B, the other vehicle is moved to the actual position (filled circular mark in the drawing). ) Is detected at a position farther from the host vehicle (a broken line circular mark portion in the figure). This is because the distance of the other vehicle from the host vehicle is large and the difference between the current captured image and the past captured image used for detection of the other vehicle as a three-dimensional object is small. However, a captured image used for detection of a three-dimensional object may be one after distortion correction taking into account distortion of a camera lens (fisheye lens or the like). In addition, the past captured image has been subjected to necessary deformation (coordinate conversion such as movement and rotation) according to the amount of movement of the host vehicle (camera) from the time of image capture to the present.

一方、図7(a)は、自車両が図6の状態から後退によって他車両に近づいた場合におけるバックカメラの撮像画像を示したものである。また、図7(b)は、このときの自車両と当該他車両との位置関係を示す平面図である。このような図7の状態において、当該他車両が検出された際には、当該他車両の自車両からの距離が小さく、現在の撮像画像と過去の撮像画像(自車両の移動量を加味したもの)との差分が小さく出るため、図7(b)に示すように、当該他車両が実際の位置と近い位置(図中の実線円形マーク部)に検出されることになる。   On the other hand, FIG. 7A shows a captured image of the back camera when the host vehicle approaches the other vehicle by retreating from the state of FIG. Moreover, FIG.7 (b) is a top view which shows the positional relationship of the own vehicle and the said other vehicle at this time. In the state of FIG. 7, when the other vehicle is detected, the distance of the other vehicle from the own vehicle is small, and the current captured image and the past captured image (considering the movement amount of the own vehicle are taken into account). As shown in FIG. 7B, the other vehicle is detected at a position close to the actual position (solid circle mark portion in the figure).

そして、このような他車両の検出位置の大きな変位が生じることによって、システム側では、他車両が停車中であるにもかかわらず、接近したように判断されてしまうことになる。   When such a large displacement of the detection position of the other vehicle occurs, the system side determines that the vehicle is approaching despite the other vehicle being stopped.

なお、特許文献2には、連結ブロック内の画素の動きベクトル方向の平均値を算出し、算出した平均値を連結ブロックの移動方向として特定し、特定した移動方向と予め定められた接近方向との角度差を算出し、算出した角度差に応じて接近を判定することが記載されている。また、特許文献3には、オプティカルフロー方式を利用し、接近物体とカメラの視野との関係により、画面上の中央向きに発生するフロー領域を抽出して接近物体の領域として特定することが記載されている。しかしながら、これら各文献に記載の構成では、演算量が多く、迅速な接近物判定が困難であるといった問題がある。   In Patent Document 2, an average value of motion vector directions of pixels in a connected block is calculated, the calculated average value is specified as a moving direction of the connected block, and the specified moving direction and a predetermined approach direction are Is calculated, and the approach is determined according to the calculated angle difference. Patent Document 3 describes that an optical flow method is used to extract a flow area generated in the center direction on the screen and specify it as an approaching object area based on the relationship between the approaching object and the field of view of the camera. Has been. However, the configurations described in these documents have a problem that the amount of calculation is large and it is difficult to quickly determine an approaching object.

そこで、本発明は、このような問題点に鑑みなされたものであり、立体物が接近物であるか否かの判定を迅速に行うことができるとともに、静止物が接近物であるとの誤判定を低減して、接近物警報システムに適用する場合における静止物を対象とした誤警報の出力を低減することができる接近物検知装置および接近物検知方法を提供することを目的とするものである。   Therefore, the present invention has been made in view of such problems, and can quickly determine whether or not a three-dimensional object is an approaching object, and erroneously state that a stationary object is an approaching object. The object of the present invention is to provide an approaching object detection device and an approaching object detection method capable of reducing the output of a false alarm for a stationary object when applied to an approaching object warning system with reduced determination. is there.

前述した目的を達成するため、本発明に係る接近物検知装置は、移動体の所定の位置に配置され、前記移動体の周辺の所定の撮像領域を撮像する単一の撮像手段と、この撮像手段の撮像画像に基づいて、接近物候補としての前記撮像領域中の立体物を所定周期毎に検出する接近物候補検出手段と、この接近物候補検出手段によって検出された前記立体物が前記移動体に接近する接近物であるか否かを判定する接近物判定手段とを備えた接近物検知装置であって、前記接近物候補検出手段によって前記立体物の最新の検出結果が取得される毎に、前記最新の検出結果に示される前記立体物の重心を算出する重心算出手段と、この重心算出手段による前記重心の算出結果に基づいて、前記重心の移動方向を算出する移動方向算出手段とを備え、前記接近物判定手段は、前記移動方向算出手段によって算出された前記重心の移動方向が、前記移動体への接近を示す方向である場合には、前記接近物であるとの判定を行い、一方、前記重心の移動方向が、前記移動体からの離間を示す方向である場合には、前記接近物ではないとの判定を行うことを特徴としている。   In order to achieve the above-described object, an approaching object detection device according to the present invention is arranged at a predetermined position of a moving body, and a single imaging unit that images a predetermined imaging area around the moving body, and this imaging Based on the captured image of the means, an approaching object candidate detecting means for detecting a solid object in the imaging region as an approaching object candidate at predetermined intervals, and the three-dimensional object detected by the approaching object candidate detecting means is moved. An approaching object detection device comprising an approaching object determination unit that determines whether or not the object is approaching the body, each time the latest detection result of the three-dimensional object is acquired by the approaching object candidate detection unit In addition, a center-of-gravity calculating unit that calculates the center of gravity of the three-dimensional object indicated in the latest detection result, and a moving direction calculating unit that calculates the moving direction of the center of gravity based on the calculation result of the center of gravity by the center-of-gravity calculating unit. With the front The approaching object determining means determines that the approaching object is the approaching object when the moving direction of the center of gravity calculated by the moving direction calculating means is a direction indicating approach to the moving body, When the moving direction of the center of gravity is a direction indicating separation from the moving body, it is determined that the moving object is not the approaching object.

また、本発明に係る接近物検知方法は、移動体の所定の位置に、前記移動体の周辺の所定の撮像領域を撮像する単一の撮像手段を配置し、前記撮像手段の撮像画像に基づいて、接近物候補としての前記撮像領域中の立体物を所定周期毎に検出し、検出された前記立体物が前記移動体に接近する接近物であるか否かを判定する接近物検知方法であって、前記立体物の最新の検出結果が取得される毎に、前記最新の検出結果に示される前記立体物の重心を算出する第1のステップと、この第1のステップにおける前記重心の算出結果に基づいて、前記重心の移動方向を算出する第2のステップと、この第2のステップにおいて算出された前記重心の移動方向が、前記移動体への接近を示す方向である場合には、前記接近物であるとの判定を行い、一方、前記重心の移動方向が、前記移動体からの離間を示す方向である場合には、前記接近物ではないとの判定を行う第3のステップとを含むことを特徴としている。   In the approaching object detection method according to the present invention, a single imaging unit that images a predetermined imaging region around the moving body is arranged at a predetermined position of the moving body, and the approaching object detection method is based on the captured image of the imaging unit. An approaching object detection method for detecting a three-dimensional object in the imaging region as an approaching object candidate at predetermined intervals and determining whether the detected three-dimensional object is an approaching object approaching the moving object. And each time the latest detection result of the three-dimensional object is acquired, a first step of calculating the center of gravity of the three-dimensional object indicated in the latest detection result, and the calculation of the center of gravity in the first step Based on the result, when the second step of calculating the moving direction of the center of gravity and the moving direction of the center of gravity calculated in the second step are directions indicating the approach to the moving body, It is determined that the approaching object, Write, the direction of movement of the center of gravity, when the direction indicating the spacing from the moving body is characterized in that it comprises a third step for judging that there is the approaching object.

そして、このような本発明によれば、検出された立体物の重心の移動方向に基づいて、立体物が接近物であるか否かの判定を簡便、迅速かつ正確に行うことが可能となる。   According to the present invention, it is possible to easily, quickly and accurately determine whether or not a three-dimensional object is an approaching object based on the detected movement direction of the center of gravity of the three-dimensional object. .

また、本発明の接近物検知装置において、前記接近物であると判定された立体物については、これを対象とした警報の出力を行い、前記接近物ではないと判定された立体物については、これを対象とした前記警報の出力を行わない警報出力手段を備えてもよい。これにともなって、本発明の接近物検知方法において、前記第3のステップにおいて前記接近物であると判定された立体物については、これを対象とした警報の出力を行い、前記第3のステップにおいて前記接近物ではないと判定された立体物については、これを対象とした前記警報の出力を行わない第4のステップを含んでもよい。   Further, in the approaching object detection device of the present invention, for a three-dimensional object determined to be the approaching object, an alarm is output for this, and for a three-dimensional object determined not to be the approaching object, You may provide the alarm output means which does not output the said alarm targeting this. Accordingly, in the approaching object detection method of the present invention, for the three-dimensional object determined to be the approaching object in the third step, an alarm is output for the three-dimensional object, and the third step is performed. For the three-dimensional object determined not to be the approaching object in step 4, a fourth step may be included in which the warning is not output for this object.

そして、このような場合には、静止物を対象とした誤警報の出力を確実に低減することが可能となる。   In such a case, it is possible to reliably reduce the output of a false alarm for a stationary object.

さらに、本発明の接近物検知装置において、前記重心算出手段は、前記接近物候補検出手段によって検出された前記立体物の画素値を、前記重心の算出に用いてもよい。これにともなって、本発明の接近物検知方法において、前記第1のステップにおける重心の算出に、前記検出された立体物の画素値を用いてもよい。   Furthermore, in the approaching object detection device of the present invention, the center-of-gravity calculation unit may use the pixel value of the three-dimensional object detected by the approaching object candidate detection unit for the calculation of the center of gravity. Accordingly, in the approaching object detection method of the present invention, the pixel value of the detected three-dimensional object may be used for calculating the center of gravity in the first step.

そして、このような場合には、立体物の画素値を用いることによって、重心の算出精度を高めることが可能となる。   In such a case, the calculation accuracy of the center of gravity can be improved by using the pixel value of the three-dimensional object.

本発明によれば、立体物が接近物であるか否かの判定を迅速に行うことができるとともに、静止物が接近物であるとの誤判定を低減して、接近物警報システムに適用する場合における静止物を対象とした誤警報の出力を低減することができる。   According to the present invention, it is possible to quickly determine whether or not a three-dimensional object is an approaching object, and to reduce an erroneous determination that a stationary object is an approaching object and to apply the approaching object warning system. In this case, the output of false alarms for stationary objects can be reduced.

本発明に係る接近物検知装置の実施形態を示すブロック図The block diagram which shows embodiment of the approaching object detection apparatus which concerns on this invention 本発明に係る接近物検知装置の実施形態において、撮像画像と立体物検出結果とを示す図The figure which shows a captured image and a solid-object detection result in embodiment of the approaching object detection apparatus which concerns on this invention. 本発明に係る接近物検知装置の実施形態において、警報の出力状態を示す図The figure which shows the output state of an alarm in embodiment of the approaching object detection apparatus which concerns on this invention. 本発明に係る接近物検知装置および接近物検知方法の実施形態を示す第1の工程図1st process drawing which shows embodiment of the approaching object detection apparatus and approaching object detection method which concern on this invention 本発明に係る接近物検知装置および接近物検知方法の実施形態を示す第2の工程図2nd process drawing which shows embodiment of the approaching object detection apparatus and approaching object detection method which concern on this invention 従来の問題点を説明するための第1の説明図1st explanatory drawing for demonstrating the conventional problem 従来の問題点を説明するための第2の説明図2nd explanatory drawing for demonstrating the conventional problem

以下、本発明に係る接近物検知装置の実施形態について、図1乃至図5を参照して説明する。   Hereinafter, an embodiment of an approaching object detection device according to the present invention will be described with reference to FIGS. 1 to 5.

図1は、本発明に係る接近物検知装置の実施形態として、移動体としての自車両(車両)に搭載された接近物検知装置1を示すブロック図である。   FIG. 1 is a block diagram showing an approaching object detection device 1 mounted on a host vehicle (vehicle) as a moving body as an embodiment of the approaching object detection device according to the present invention.

図1に示すように、本実施形態における接近物検知装置1は、単一の撮像手段としての車載カメラ2を有している。この車載カメラ2は、自車両の所定の位置に取り付けられており、撮像対象面としての路面を含む自車両の周辺の視野角内の撮像領域を、不図示の入力装置(操作ボタン等)を用いたユーザ操作や車両の所定の運転操作等を開始トリガとして所定のフレームレートで撮像するようになっている。なお、路面には、道路の路面だけでなく、駐車場の路面、地面、その他の車両の走行が想定される走行面が含まれる(以下、同様)。そして、接近物検知装置1は、このような車載カメラ2の撮像画像に基づいて、撮像領域中における路面上の立体物を検知するようになっている。なお、車載カメラ2は、魚眼レンズ等の広角のレンズを備えた広視野角のカメラであって、CCDやCMOS等の固体撮像素子(像面)を備えたデジタルカメラであってもよい。また、車載カメラ2は、自車両の後部(例えば、リアライセンスガーニッシュ部等)に自車両の後方の路面を斜め方向から見下ろすような姿勢で取り付けられた自車両の後方を中心とした所定の撮像領域を撮像するバックカメラであってもよい。これ以外にも、車載カメラ2は、自車両の前部(例えば、エンブレム部等)に自車両の前方の路面を斜め方向から見下ろすような姿勢で取り付けられた自車両の前方を中心とした所定の撮像領域を撮像するフロントカメラであってもよい。また、これら以外にも、車載カメラ2は、自車両の左側部(例えば、左ドアミラー等)に自車両の左側方の路面を斜め方向から見下ろすような姿勢で取り付けられた自車両の左側方を中心とした所定の撮像領域を撮像する左サイドカメラであってもよい。さらに、これら以外にも、車載カメラ2は、自車両の右側部(例えば、右ドアミラー等)に自車両の右側方の路面を斜め方向から見下ろすような姿勢で取り付けられた自車両の右側方を中心とした所定の撮像領域を撮像する右サイドカメラであってもよい。   As shown in FIG. 1, the approaching object detection device 1 according to the present embodiment includes an in-vehicle camera 2 as a single imaging unit. This in-vehicle camera 2 is attached to a predetermined position of the host vehicle, and an imaging region within a viewing angle around the host vehicle including a road surface as an imaging target surface is input to an input device (such as an operation button) (not shown). Imaging is performed at a predetermined frame rate by using a user operation or a predetermined driving operation of the vehicle as a start trigger. The road surface includes not only the road surface of the road but also the road surface of the parking lot, the ground, and other travel surfaces on which other vehicles are supposed to travel (the same applies hereinafter). And the approaching object detection apparatus 1 detects the solid object on the road surface in an imaging region based on such a captured image of the vehicle-mounted camera 2. The in-vehicle camera 2 is a wide viewing angle camera including a wide-angle lens such as a fisheye lens, and may be a digital camera including a solid-state imaging device (image plane) such as a CCD or CMOS. The in-vehicle camera 2 has a predetermined image centered on the rear of the host vehicle attached to the rear part of the host vehicle (for example, a rear license garnish unit) in a posture that looks down on the road surface behind the host vehicle from an oblique direction. The back camera which images an area | region may be sufficient. In addition to this, the in-vehicle camera 2 is a predetermined centered around the front of the host vehicle that is attached to the front portion (for example, an emblem portion) of the host vehicle in a posture that looks down on the road surface in front of the host vehicle from an oblique direction. It may be a front camera that images the imaging region. In addition to these, the in-vehicle camera 2 is mounted on the left side of the host vehicle attached to the left side of the host vehicle (for example, the left door mirror) in such a posture as to look down the road surface on the left side of the host vehicle from an oblique direction. It may be a left side camera that images a predetermined imaging area centered. In addition to these, the in-vehicle camera 2 is mounted on the right side of the host vehicle mounted on the right side of the host vehicle (for example, the right door mirror) in such a posture as to look down the road surface on the right side of the host vehicle from an oblique direction. It may be a right side camera that captures a predetermined imaging region at the center.

また、図1に示すように、接近物検知装置1は、カメラ画像取得部3を有しており、このカメラ画像取得部3には、車載カメラ2の撮像画像が、撮像の度毎に逐次入力されるようになっている。   As shown in FIG. 1, the approaching object detection device 1 includes a camera image acquisition unit 3, and images captured by the in-vehicle camera 2 are sequentially stored in the camera image acquisition unit 3 for each imaging. It is designed to be entered.

さらに、図1に示すように、接近物検知装置1は、接近物候補検出手段としての接近物候補検出部4を有している。この接近物候補検出部4は、カメラ画像取得部3によって取得された車載カメラ2の撮像画像をカメラ画像取得部3から逐次取得し、取得された撮像画像に基づいて、接近物候補としての路面上の立体物を所定の時間周期(以下、立体物検出周期と称する)毎に画像認識によって検出するようになっている。なお、立体物検出周期は、例えば、車載カメラ2による所定数フレーム分の撮像に要する時間であってもよいし、撮像周期と同時間であってもよい。また、立体物の検出は、撮像画像中のいずれの画素領域が立体物に該当するものであるかを検出できる方法によって行えばよく、前述した背景差分法その他の公知の立体物検出方法を適用することができる。そして、接近物候補検出部4は、このようにして立体物が検出された場合には、検出結果として、検出された立体物を示す検出画像を作成するようになっている。なお、接近物候補検出部4は、撮像画像に対して予め接近物検知装置1に記憶された車載カメラ2の内部パラメータ(画像中心座標、レンズ焦点距離、レンズ歪み係数等)を用いた歪み補正を行った歪み補正後の撮像画像に基づいて検出画像を作成してもよい。   Furthermore, as shown in FIG. 1, the approaching object detection apparatus 1 has an approaching object candidate detection unit 4 as an approaching object candidate detection unit. The approaching object candidate detection unit 4 sequentially acquires captured images of the in-vehicle camera 2 acquired by the camera image acquisition unit 3 from the camera image acquisition unit 3, and based on the acquired captured images, a road surface as an approaching object candidate. The upper three-dimensional object is detected by image recognition every predetermined time period (hereinafter referred to as a three-dimensional object detection period). The three-dimensional object detection cycle may be, for example, a time required for imaging for a predetermined number of frames by the in-vehicle camera 2 or may be the same time as the imaging cycle. Further, the detection of the three-dimensional object may be performed by a method that can detect which pixel region in the captured image corresponds to the three-dimensional object, and the above-described background difference method and other known three-dimensional object detection methods are applied. can do. When the three-dimensional object is detected in this way, the approaching object candidate detection unit 4 creates a detection image indicating the detected three-dimensional object as a detection result. Note that the approaching object candidate detection unit 4 uses the internal parameters (image center coordinates, lens focal length, lens distortion coefficient, etc.) of the in-vehicle camera 2 stored in advance in the approaching object detection device 1 for the captured image. A detected image may be created based on the captured image after distortion correction performed.

ここで、図2(a)は、立体物の検出に用いられる撮像画像の一例として、路面上の他車両を含む歪み補正後の撮像画像を示したものである。ただし、同図の撮像画像は、便宜上、図2(c)に略示する撮像画像全体のうちの一部分(破線枠部)についての歪み補正後のものを限定的に図示したものである。また、図2(b)は、図2(a)の撮像画像を用いて検出された立体物に該当する検出画像の一例を示したものである。図2(b)の検出画像は、図2(a)の歪み補正後の撮像画像を、立体物検出周期にしたがった最新の検出時点(時機)における歪み補正後の撮像画像(以下、最新の撮像画像と略称する)として作成されたものである。また、図2(b)の検出画像は、最新の検出時点よりも立体物検出周期遡った前回の検出時点における歪み補正後の撮像画像(以下、前回の撮像画像と略称する)に対して、前回の検出時点から最新の検出時点までの期間における自車両の移動量に応じた変形(移動、回転等の座標変換)を施したもの(以下、自車両の移動を加味した前回の撮像画像と称する)を用いて作成されたものである。具体的には、図2(b)に示すように、検出画像は、最新の撮像画像と自車両の移動を加味した前回の撮像画像との差分(以下、最新の差分と称する)を所定の画素値の画素(図中の白塗り部分)として含んだものである。また、図2(b)中の灰色部分に示すように、検出画像は、最新の差分と同様の要領によって求められた過去の差分(前回の差分、前々回の差分等)を、最新の差分と重ならない位置において、過去に遡るにしたがって画素値が低くなる画素として含んだものである。換言すれば、検出画像は、過去の差分に対して、最新の差分を、これとは位置(座標)が重ならない範囲の当該過去の差分を残しつつ上書きしたような画像となっている。より具体的には、同図中に示す過去の差分に該当する画素は、過去に遡る程(画素値が低くなる程)、黒色に近い灰色となっている。なお、このように検出画像中に過去の差分を含ませるのは、接近物候補検出部4の検出結果のばらつきを考慮して重心の算出精度を高めるためである。ただし、検出画像中に、どの程度まで過去に遡った差分を含ませるかについては、接近物候補検出部4の検出精度や処理速度等に応じて種々変更することができ、場合によっては、最新の差分のみを用いるようにすることも可能である。さらに、図2(b)に示すように、差分が出なかった領域、また、検出画像に含まれていたが時間経過とともに古くなった過去の差分に該当する領域については、実質的に画像が存在しない黒塗り部となっている。   Here, FIG. 2A shows a captured image after distortion correction including another vehicle on the road surface as an example of a captured image used for detecting a three-dimensional object. However, for the sake of convenience, the captured image shown in FIG. 2 is a limited image after distortion correction of a part (broken line frame portion) of the entire captured image schematically illustrated in FIG. Moreover, FIG.2 (b) shows an example of the detection image applicable to the solid object detected using the captured image of Fig.2 (a). The detected image of FIG. 2B is a captured image after distortion correction at the latest detection time (time) according to the three-dimensional object detection cycle (hereinafter referred to as the latest image). (Abbreviated as a captured image). In addition, the detected image in FIG. 2B is a distortion-corrected captured image (hereinafter, abbreviated as the previous captured image) at the previous detection time point that is earlier than the latest detection time. What has been subjected to transformation (coordinate conversion such as movement, rotation, etc.) according to the amount of movement of the host vehicle during the period from the previous detection point to the latest detection point (hereinafter referred to as the previous captured image taking into account the movement of the host vehicle) It is created using Specifically, as shown in FIG. 2B, the detected image has a predetermined difference (hereinafter referred to as the latest difference) between the latest captured image and the previous captured image in consideration of the movement of the host vehicle. The pixel value is included as a pixel (white portion in the figure). In addition, as shown in the gray portion in FIG. 2B, the detected image is obtained by replacing the past difference (previous difference, previous difference, etc.) obtained by the same procedure as the latest difference with the latest difference. The pixel is included as a pixel whose pixel value decreases as it goes back in the past at a position that does not overlap. In other words, the detected image is an image in which the latest difference is overwritten on the past difference while leaving the past difference in a range where the position (coordinates) does not overlap. More specifically, the pixel corresponding to the past difference shown in the figure becomes gray near black as it goes back to the past (lower pixel value). The reason why past differences are included in the detected image in this way is to increase the accuracy of calculating the center of gravity in consideration of variations in the detection result of the approaching object candidate detection unit 4. However, the extent to which the retroactive difference is included in the detected image can be variously changed according to the detection accuracy, processing speed, etc. of the approaching object candidate detection unit 4. It is also possible to use only the difference. Further, as shown in FIG. 2 (b), for the area where the difference did not appear and the area corresponding to the past difference which was included in the detected image but became old with the passage of time, the image is substantially It is a black part that does not exist.

図1に戻って、接近物検知装置1は、重心算出手段としての重心算出部5を有している。この重心算出部5は、接近物候補検出部4によって最新の検出画像(検出結果)が作成(取得)される毎に、当該最新の検出画像の重心を算出するようになっている。   Returning to FIG. 1, the approaching object detection device 1 has a center-of-gravity calculation unit 5 as a center-of-gravity calculation means. The centroid calculating unit 5 calculates the centroid of the latest detected image every time the latest detected image (detection result) is created (acquired) by the approaching object candidate detecting unit 4.

ここで、重心は、次式によって算出してもよい。   Here, the center of gravity may be calculated by the following equation.

xg=Σ(i=1〜n)xi×wi/n (1)
yg=Σ(i=1〜n)yi×wi/n (2)
xg = Σ (i = 1 to n) xi × wi / n (1)
yg = Σ (i = 1 to n) yi × wi / n (2)

ただし、(1)式におけるxgは、重心の画像座標系におけるx座標である。また、(1)式および(2)式におけるn(自然数)は、差分に該当する画素の個数(画素数)である。さらに、(1)式におけるxi(整数)は、差分に該当するn個の画素のうちの第i番目の画素についての画像座標系におけるx座標である。さらに、(1)式および(2)式におけるwi(実数)は、差分に該当するn個の画素のうちの第i番目の画素についての画素値に応じた(画素値が大きいほど値が大きくなる)重み係数(0〜1)である。この重み係数を用いた算出(重み付け)は、図2(b)に示したように、差分として最新の差分よりも画素値が低くなる過去の差分も用いる場合に実質的な意義があり、重み付けを行わない場合(すなわち、最新の差分のみを用いる場合)には、wi=1に統一すればよい。さらにまた、(2)式におけるygは、重心の画像座標系におけるy座標である。また、(2)式におけるyi(整数)は、差分に該当するn個の画素のうちの第i番目の画素についての画像座標系におけるy座標である。   However, xg in the equation (1) is the x coordinate in the image coordinate system of the center of gravity. Further, n (natural number) in the expressions (1) and (2) is the number of pixels (number of pixels) corresponding to the difference. Furthermore, xi (integer) in equation (1) is the x coordinate in the image coordinate system for the i-th pixel among the n pixels corresponding to the difference. Furthermore, wi (real number) in the equations (1) and (2) corresponds to the pixel value of the i-th pixel among n pixels corresponding to the difference (the value increases as the pixel value increases). Weight coefficient (0 to 1). This calculation (weighting) using the weighting factor is substantially meaningful when a past difference whose pixel value is lower than the latest difference is also used as the difference, as shown in FIG. When not performing (that is, using only the latest difference), it is only necessary to unify wi = 1. Furthermore, yg in equation (2) is the y coordinate in the image coordinate system of the center of gravity. In addition, yi (integer) in equation (2) is the y coordinate in the image coordinate system for the i-th pixel among the n pixels corresponding to the difference.

また、図1に示すように、接近物検知装置1は、移動方向算出手段としての移動方向算出部6を有している。この移動方向算出部6は、重心算出部5による連続する複数回分の重心の算出結果に基づいて、重心の移動方向を算出するようになっている。   Moreover, as shown in FIG. 1, the approaching object detection apparatus 1 has the movement direction calculation part 6 as a movement direction calculation means. The movement direction calculation unit 6 calculates the movement direction of the center of gravity based on a plurality of successive calculation results of the center of gravity by the center of gravity calculation unit 5.

ここで、重心の移動方向は、次式を用いて算出してもよい。   Here, the moving direction of the center of gravity may be calculated using the following equation.

Δxg=xg(t)−xg(t−T) (3)
Δyg=yg(t)−yg(t−T) (4)
Δxg = xg (t) −xg (t−T) (3)
Δyg = yg (t) −yg (t−T) (4)

ただし、(3)式におけるΔxgは、重心の算出周期に応じた重心のx座標の変位量である。また、(3)式におけるxg(t)は、ある算出時点(時刻)tにおいて算出された重心の画像座標系におけるx座標である。さらに、(3)式および(4)式におけるTは、重心の算出周期である。さらにまた、(3)式におけるxg(t−T)は、xg(t)の前回(算出周期T前)に算出された重心の画像座標系におけるx座標である。また、(4)式におけるΔygは、重心の算出周期に応じた重心のy座標の変位量である。さらに、(4)式におけるyg(t)は、ある算出時点tにおいて算出された重心の画像座標系におけるy座標である。さらにまた、(4)式におけるyg(t−T)は、yg(t)の前回に算出された重心の画像座標系におけるy座標である。   However, Δxg in the equation (3) is the displacement amount of the x coordinate of the center of gravity according to the center of gravity calculation cycle. Further, xg (t) in the expression (3) is the x coordinate in the image coordinate system of the center of gravity calculated at a certain calculation time (time) t. Furthermore, T in the equations (3) and (4) is a center of gravity calculation period. Furthermore, xg (t−T) in the expression (3) is the x coordinate in the image coordinate system of the center of gravity calculated the previous time (before the calculation cycle T) of xg (t). In addition, Δyg in the equation (4) is a displacement amount of the y-coordinate of the center of gravity according to the center-of-gravity calculation cycle. Furthermore, yg (t) in equation (4) is the y coordinate in the image coordinate system of the center of gravity calculated at a certain calculation time t. Furthermore, yg (t−T) in the equation (4) is the y coordinate in the image coordinate system of the center of gravity calculated last time of yg (t).

そして、移動方向算出部6は、このようにして算出されたΔxg、Δygの符号によって、重心の移動方向を算出すればよい。   Then, the movement direction calculation unit 6 may calculate the movement direction of the center of gravity based on the signs of Δxg and Δyg calculated in this way.

また、移動方向の算出の安定性を向上させるために、一連の複数の算出時点における重心の平均値を、移動方向の算出に用いるようにしてもよい。例えば、(3)式においては、xg(t)の代わりに、xg(t)、xg(t−T)およびxg(t−2T)の平均値を用いるとともに、xg(t−T)の代わりに、xg(t−T)、xg(t−2T)およびxg(t−3T)の平均値を用いるようにしてもよい。同様に、(4)式においては、yg(t)の代わりに、yg(t)、yg(t−T)およびyg(t−2T)の平均値を用いるとともに、yg(t−T)の代わりに、yg(t−T)、yg(t−2T)およびyg(t−3T)の平均値を用いるようにしてもよい。   In order to improve the calculation stability of the moving direction, the average value of the center of gravity at a series of a plurality of calculation points may be used for calculating the moving direction. For example, in equation (3), instead of xg (t), an average value of xg (t), xg (t−T) and xg (t−2T) is used, and instead of xg (t−T) Alternatively, an average value of xg (t−T), xg (t−2T), and xg (t−3T) may be used. Similarly, in the formula (4), instead of yg (t), an average value of yg (t), yg (t−T) and yg (t−2T) is used, and yg (t−T) Instead, an average value of yg (t−T), yg (t−2T), and yg (t−3T) may be used.

さらに、図1に示すように、接近物検知装置1は、接近物判定手段としての接近物判定部7を有している。この接近物判定部7は、接近物候補検出部4によって検出された立体物が自車両に接近する接近物であるか否かを判定するようになっている。具体的には、接近物判定部7は、移動方向算出部6によって算出された重心の移動方向が、自車両への接近を示す方向である場合には、検出された立体物が接近物であるとの判定を行い、一方、重心の移動方向が、自車両からの離間を示す方向である場合には、検出された立体物が接近物ではないとの判定を行うようになっている。なお、接近物ではないとの判定は、静止物であるとの判定であってもよい。   Furthermore, as shown in FIG. 1, the approaching object detection device 1 has an approaching object determination unit 7 as an approaching object determination unit. The approaching object determination unit 7 determines whether or not the three-dimensional object detected by the approaching object candidate detection unit 4 is an approaching object approaching the host vehicle. Specifically, the approaching object determination unit 7 determines that the detected three-dimensional object is an approaching object when the movement direction of the center of gravity calculated by the movement direction calculation unit 6 is a direction indicating approach to the host vehicle. On the other hand, when the moving direction of the center of gravity is a direction indicating separation from the host vehicle, it is determined that the detected three-dimensional object is not an approaching object. The determination that the object is not an approaching object may be a determination that the object is a stationary object.

さらにまた、図1に示すように、接近物検知装置1は、警報出力手段としての警報出力部8を有している。この警報出力部8は、接近物判定部7によって接近物であると判定された立体物を対象とした警報を出力するようになっている。この警報の出力は、図3に示すように、撮像画像に基づいて作成されて表示部10に表示された車両周辺監視画像における接近物(他車両)上への警報枠fの表示や、音声出力部11を介した警報音の音声出力によって行うようにしてもよい。一方、警報出力部8は、接近物判定部7によって接近物ではないと判定された立体物については、警報の出力を行わないようになっている。   Furthermore, as shown in FIG. 1, the approaching object detection device 1 has an alarm output unit 8 as an alarm output means. The warning output unit 8 outputs a warning for a three-dimensional object determined to be an approaching object by the approaching object determination unit 7. As shown in FIG. 3, the alarm output is generated based on the captured image and displayed on the approaching object (another vehicle) in the vehicle periphery monitoring image displayed on the display unit 10 or a sound. You may make it perform by the audio | voice output of the alarm sound via the output part 11. FIG. On the other hand, the warning output unit 8 does not output a warning for a three-dimensional object that is determined not to be an approaching object by the approaching object determination unit 7.

なお、接近物検知装置1の前述した各構成部3〜8は、接近物検知装置1の機能に相当する処理を行うCPU、CPUの実行プログラムが記憶されたROMおよびCPUの処理結果の一時的な保存に用いられるRAM等によって実現してもよい。   Each of the above-described components 3 to 8 of the approaching object detection device 1 includes a CPU that performs processing corresponding to the function of the approaching object detection device 1, a ROM that stores an execution program of the CPU, and a temporary processing result of the CPU. You may implement | achieve by RAM etc. which are used for a safe preservation | save.

ここで、図4には、本実施形態の第1の動作例として、自車両のバックカメラの撮像画像に基づいて自車両の後方の他車両が検出された場合であって、当該他車両が停車車両(静止物)の場合における動作が示されている。   Here, FIG. 4 shows a case where another vehicle behind the host vehicle is detected based on the captured image of the back camera of the host vehicle as a first operation example of the present embodiment. The operation in the case of a stopped vehicle (stationary object) is shown.

すなわち、図4のステップ1(ST1)には、歪み補正後のバックカメラの撮像画像(同図左半部)と、この撮像画像を最新の撮像画像として接近物候補検出部4によって作成された他車両の検出画像(同図右半部、以下同様)とが示されている。また、この検出画像上には、重心算出部5によって算出された重心G1が示されている。   That is, in step 1 (ST1) of FIG. 4, the captured image of the back camera after distortion correction (the left half of the figure) and this captured image are created by the approaching object candidate detection unit 4 as the latest captured image. A detection image of another vehicle (the right half of the figure, the same applies hereinafter) is shown. In addition, the center of gravity G1 calculated by the center of gravity calculation unit 5 is shown on the detected image.

次いで、図4のステップ2(ST2)には、ステップ1(ST1)に示した撮像画像の取得時点から立体物検出周期が経過した際に取得された歪み補正後のバックカメラの撮像画像と、この撮像画像を最新の撮像画像として接近物候補検出部4によって作成された他車両の検出画像とが示されている。また、この検出画像上には、重心算出部5によって算出された重心G2が示されている。ここで、ステップ2(ST2)においては、ステップ1(ST1)に比べて検出画像の面積が画面左方向に向かって大きくなっているため、重心G2がステップ1(ST1)の場合G1よりも左方向に変位している。   Next, in Step 2 (ST2) of FIG. 4, the captured image of the back camera after distortion correction acquired when the three-dimensional object detection cycle has elapsed from the acquisition time of the captured image shown in Step 1 (ST1), and The detected image of the other vehicle created by the approaching object candidate detection unit 4 with the captured image as the latest captured image is shown. Further, the center of gravity G2 calculated by the center of gravity calculating unit 5 is shown on the detected image. Here, in step 2 (ST2), since the area of the detected image is larger in the left direction of the screen than in step 1 (ST1), the center of gravity G2 is further to the left than G1 in the case of step 1 (ST1). It is displaced in the direction.

次いで、図4のステップ3(ST3)には、ステップ2(ST2)に示した撮像画像の取得時点から立体物検出周期が経過した際に取得された歪み補正後のバックカメラの撮像画像と、この撮像画像を最新の撮像画像として接近物候補検出部4によって作成された他車両の検出画像とが示されている。また、この検出画像上には、重心算出部5によって算出された重心G3が示されている。ここで、ステップ3(ST3)においては、ステップ2(ST2)に比べて検出画像の面積が画面左方向に向かって大きくなっているため、重心G3がステップ2(ST2)の場合G2よりも左方向に変位している。   Next, in step 3 (ST3) of FIG. 4, the captured image of the back camera after distortion correction acquired when the three-dimensional object detection cycle has elapsed from the acquisition time of the captured image shown in step 2 (ST2), and The detected image of the other vehicle created by the approaching object candidate detection unit 4 with the captured image as the latest captured image is shown. In addition, the center of gravity G3 calculated by the center of gravity calculating unit 5 is shown on the detected image. Here, in step 3 (ST3), the area of the detected image is larger in the left direction of the screen than in step 2 (ST2), so that the center of gravity G3 is more left than G2 in step 2 (ST2). It is displaced in the direction.

次いで、図4のステップ4(ST4)には、ステップ1(ST1)からステップ3(ST3)において算出された一連の重心G1〜G3に基づいて移動方向算出部6によって算出された重心の移動方向が、移動ベクトルとして示されている。図4に示すように、ステップ4(ST4)の移動ベクトルは、画像座標系における自車両位置(カメラ位置)に相当する固定座標に対して遠ざかる方向のベクトルとなっている。   Next, in step 4 (ST4) of FIG. 4, the movement direction of the center of gravity calculated by the movement direction calculation unit 6 based on the series of center of gravity G1 to G3 calculated in step 1 (ST1) to step 3 (ST3). Are shown as movement vectors. As shown in FIG. 4, the movement vector in step 4 (ST4) is a vector in a direction away from the fixed coordinates corresponding to the own vehicle position (camera position) in the image coordinate system.

このような場合には、次のステップ5(ST5)に示すように、接近物判定部7によって接近物ではないとの判定が行われ、最後に、ステップ6(ST6)に示すように、警報出力部8による当該他車両を対象とした警報の出力が禁止される。   In such a case, as shown in the next step 5 (ST5), the approaching object determination unit 7 determines that the object is not an approaching object, and finally, as shown in step 6 (ST6), an alarm is issued. The output of the alarm for the other vehicle by the output unit 8 is prohibited.

次に、図5には、本実施形態の第2の動作例として、自車両のバックカメラの撮像画像に基づいて自車両の後方の他車両が検出された場合であって、当該他車両が接近車両(接近物)の場合における動作が示されている。   Next, FIG. 5 shows a case where another vehicle behind the host vehicle is detected based on the captured image of the back camera of the host vehicle as a second operation example of the present embodiment. The operation in the case of an approaching vehicle (approaching object) is shown.

すなわち、図5のステップ11(ST11)には、歪み補正後のバックカメラの撮像画像と、この撮像画像を最新の撮像画像として接近物候補検出部4によって作成された他車両の検出画像とが示されている。また、この検出画像上には、重心算出部5によって算出された重心G11が示されている。   That is, in Step 11 (ST11) of FIG. 5, the captured image of the back camera after distortion correction, and the detected image of the other vehicle created by the approaching object candidate detection unit 4 using this captured image as the latest captured image. It is shown. In addition, the center of gravity G11 calculated by the center of gravity calculation unit 5 is shown on the detected image.

次いで、図5のステップ12(ST12)には、ステップ11(ST11)に示した撮像画像の取得時点から立体物検出周期が経過した際に取得された歪み補正後のバックカメラの撮像画像と、この撮像画像を最新の撮像画像として接近物候補検出部4によって作成された他車両の検出画像とが示されている。また、この検出画像上には、重心算出部5によって算出された重心G12が示されている。ここで、ステップ12(ST12)においては、ステップ11(ST11)に比べて検出画像の面積が画面右方向に向かって大きくなっているため、重心G12がステップ11(ST11)の場合G11よりも右方向に変位している。   Next, in step 12 (ST12) of FIG. 5, the captured image of the back camera after distortion correction acquired when the three-dimensional object detection cycle has elapsed from the acquisition time of the captured image shown in step 11 (ST11), and The detected image of the other vehicle created by the approaching object candidate detection unit 4 with the captured image as the latest captured image is shown. Further, the center of gravity G12 calculated by the center of gravity calculating unit 5 is shown on the detected image. Here, in step 12 (ST12), since the area of the detected image is larger in the right direction of the screen than in step 11 (ST11), the center of gravity G12 is more right than G11 in the case of step 11 (ST11). It is displaced in the direction.

次いで、図5のステップ13(ST13)には、ステップ12(ST12)に示した撮像画像の取得時点から立体物検出周期が経過した際に取得された歪み補正後のバックカメラの撮像画像と、この撮像画像を最新の撮像画像として接近物候補検出部4によって作成された他車両の検出画像とが示されている。また、この検出画像上には、重心算出部5によって算出された重心G13が示されている。ここで、ステップ13(ST13)においては、ステップ12(ST12)に比べて検出画像の面積が画面右向に向かって大きくなっているため、重心G13がステップ12(ST12)の場合G12よりも右方向に変位している。   Next, in step 13 (ST13) of FIG. 5, the captured image of the back camera after distortion correction acquired when the three-dimensional object detection cycle has elapsed from the acquisition time of the captured image shown in step 12 (ST12), and The detected image of the other vehicle created by the approaching object candidate detection unit 4 with the captured image as the latest captured image is shown. Further, the center of gravity G13 calculated by the center of gravity calculating unit 5 is shown on the detected image. Here, in step 13 (ST13), the area of the detected image is larger toward the right of the screen than in step 12 (ST12), so that the center of gravity G13 is more right than G12 when in step 12 (ST12). It is displaced in the direction.

次いで、図5のステップ14(ST14)には、ステップ11(ST11)からステップ13(ST13)において算出された一連の重心G11〜G13に基づいて移動方向算出部6によって算出された重心の移動方向が、移動ベクトルとして示されている。図5に示すように、ステップ14(ST14)の移動ベクトルは、画像座標系における自車両位置(カメラ位置)に相当する固定座標に対して接近する方向のベクトルとなっている。   Next, in Step 14 (ST14) of FIG. 5, the movement direction of the center of gravity calculated by the movement direction calculation unit 6 based on the series of center of gravity G11 to G13 calculated in Step 11 (ST11) to Step 13 (ST13). Are shown as movement vectors. As shown in FIG. 5, the movement vector in step 14 (ST14) is a vector in a direction approaching a fixed coordinate corresponding to the own vehicle position (camera position) in the image coordinate system.

このような場合には、次のステップ15(ST15)に示すように、接近物判定部7によって接近物であるとの判定が行われ、最後に、ステップ16(ST16)に示すように、警報出力部8による当該他車両を対象とした警報の出力が行われる。   In such a case, as shown in the next step 15 (ST15), the approaching object determination unit 7 determines that the object is an approaching object, and finally, as shown in step 16 (ST16), an alarm is issued. The output unit 8 outputs an alarm for the other vehicle.

以上述べたように、本発明によれば、立体物が接近物であるか否かの判定を迅速に行うことができるとともに、接近物判定における静止物に対する誤判定を低減して、接近物警報システムに適用する場合における静止物を対象とした誤警報を未然に回避することができ、ひいては、無用な警報によるユーザの不快感を軽減することができる。   As described above, according to the present invention, it is possible to quickly determine whether or not a three-dimensional object is an approaching object, and to reduce the erroneous determination of a stationary object in the approaching object determination, thereby reducing the approaching object warning. When applied to the system, false alarms targeting stationary objects can be avoided in advance, and as a result, user discomfort due to unnecessary alarms can be reduced.

なお、本発明は、前述した実施の形態に限定されるものではなく、本発明の特徴を損なわない限度において種々変更することができる。   In addition, this invention is not limited to embodiment mentioned above, A various change can be made in the limit which does not impair the characteristic of this invention.

1 接近物検知装置
2 車載カメラ
4 接近物候補検出部
5 重心算出部
6 移動方向算出部
7 接近物判定部
DESCRIPTION OF SYMBOLS 1 Approaching object detection apparatus 2 Car-mounted camera 4 Approaching object candidate detection part 5 Center of gravity calculation part 6 Movement direction calculation part 7 Approaching object determination part

Claims (6)

移動体の所定の位置に配置され、前記移動体の周辺の所定の撮像領域を撮像する単一の撮像手段と、
この撮像手段の撮像画像に基づいて、接近物候補としての前記撮像領域中の立体物を所定周期毎に検出する接近物候補検出手段と、
この接近物候補検出手段によって検出された前記立体物が前記移動体に接近する接近物であるか否かを判定する接近物判定手段と
を備えた接近物検知装置であって、
前記接近物候補検出手段によって前記立体物の最新の検出結果が取得される毎に、前記最新の検出結果に示される前記立体物の重心を算出する重心算出手段と、
この重心算出手段による前記重心の算出結果に基づいて、前記重心の移動方向を算出する移動方向算出手段と
を備え、
前記接近物判定手段は、
前記移動方向算出手段によって算出された前記重心の移動方向が、前記移動体への接近を示す方向である場合には、前記接近物であるとの判定を行い、一方、前記重心の移動方向が、前記移動体からの離間を示す方向である場合には、前記接近物ではないとの判定を行うこと
を特徴とする接近物検知装置。
A single imaging means that is arranged at a predetermined position of the moving body and images a predetermined imaging area around the moving body;
Based on the captured image of the imaging means, an approaching object candidate detecting means for detecting a solid object in the imaging region as an approaching object candidate for each predetermined period;
An approaching object detection device comprising: an approaching object determining means for determining whether or not the three-dimensional object detected by the approaching object candidate detecting means is an approaching object approaching the moving body,
Each time the latest detection result of the three-dimensional object is acquired by the approaching object candidate detection means, a centroid calculation unit that calculates the centroid of the three-dimensional object indicated in the latest detection result;
A moving direction calculating means for calculating a moving direction of the center of gravity based on a calculation result of the center of gravity by the center of gravity calculating means;
The approaching object determining means includes
When the moving direction of the center of gravity calculated by the moving direction calculating means is a direction indicating approach to the moving body, it is determined that the moving object is the approaching object, while the moving direction of the center of gravity is An approaching object detection device that determines that the object is not the approaching object when the direction is a direction indicating separation from the moving body.
前記接近物であると判定された前記立体物については、これを対象とした警報の出力を行い、前記接近物ではないと判定された前記立体物については、これを対象とした前記警報の出力を行わない警報出力手段を備えたこと
を特徴とする請求項1に記載の接近物検知装置。
For the three-dimensional object determined to be the approaching object, an alarm is output for the three-dimensional object, and for the three-dimensional object determined not to be the approaching object, the alarm is output for the object. The approaching object detection device according to claim 1, further comprising an alarm output unit that does not perform the operation.
前記重心算出手段は、前記接近物候補検出手段によって検出された前記立体物の画素値を、前記重心の算出に用いること
を特徴とする請求項1または請求項2に記載の接近物検知装置。
The approaching object detection device according to claim 1, wherein the center-of-gravity calculation unit uses the pixel value of the three-dimensional object detected by the approaching object candidate detection unit for the calculation of the center of gravity.
移動体の所定の位置に、前記移動体の周辺の所定の撮像領域を撮像する単一の撮像手段を配置し、前記撮像手段の撮像画像に基づいて、接近物候補としての前記撮像領域中の立体物を所定周期毎に検出し、検出された前記立体物が前記移動体に接近する接近物であるか否かを判定する接近物検知方法であって、
前記立体物の最新の検出結果が取得される毎に、前記最新の検出結果に示される前記立体物の重心を算出する第1のステップと、
この第1のステップにおける前記重心の算出結果に基づいて、前記重心の移動方向を算出する第2のステップと、
この第2のステップにおいて算出された前記重心の移動方向が、前記移動体への接近を示す方向である場合には、前記接近物であるとの判定を行い、一方、前記重心の移動方向が、前記移動体からの離間を示す方向である場合には、前記接近物ではないとの判定を行う第3のステップと
を含むことを特徴とする接近物検知方法。
A single imaging unit that images a predetermined imaging area around the moving body is arranged at a predetermined position of the moving body, and based on the captured image of the imaging unit, the imaging area as the approaching object candidate in the imaging area An approaching object detection method for detecting a three-dimensional object at predetermined intervals and determining whether or not the detected three-dimensional object is an approaching object approaching the moving body,
A first step of calculating the center of gravity of the three-dimensional object shown in the latest detection result each time the latest detection result of the three-dimensional object is acquired;
A second step of calculating a moving direction of the center of gravity based on the calculation result of the center of gravity in the first step;
When the movement direction of the center of gravity calculated in the second step is a direction indicating approach to the moving body, it is determined that the object is an approaching object, while the movement direction of the center of gravity is And a third step of determining that the object is not the approaching object when the direction is a direction indicating separation from the moving body.
前記第3のステップにおいて前記接近物であると判定された立体物については、これを対象とした警報の出力を行い、前記第3のステップにおいて前記接近物ではないと判定された立体物については、これを対象とした前記警報の出力を行わない第4のステップを含むこと
を特徴とする請求項4に記載の接近物検知方法。
For the three-dimensional object determined to be the approaching object in the third step, an alarm is output for this, and for the three-dimensional object determined not to be the approaching object in the third step The approaching object detection method according to claim 4, further comprising a fourth step of not outputting the alarm for the target.
前記第1のステップにおける重心の算出に、前記検出された立体物の画素値を用いること
を特徴とする請求項4または請求項5に記載の接近物検知方法。
The approaching object detection method according to claim 4 or 5, wherein a pixel value of the detected three-dimensional object is used for calculating the center of gravity in the first step.
JP2011128207A 2011-06-08 2011-06-08 Approaching object detecting device and method for detecting approaching object Pending JP2012256159A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011128207A JP2012256159A (en) 2011-06-08 2011-06-08 Approaching object detecting device and method for detecting approaching object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011128207A JP2012256159A (en) 2011-06-08 2011-06-08 Approaching object detecting device and method for detecting approaching object

Publications (1)

Publication Number Publication Date
JP2012256159A true JP2012256159A (en) 2012-12-27

Family

ID=47527680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011128207A Pending JP2012256159A (en) 2011-06-08 2011-06-08 Approaching object detecting device and method for detecting approaching object

Country Status (1)

Country Link
JP (1) JP2012256159A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104002730A (en) * 2013-02-27 2014-08-27 阿尔派株式会社 Solid object detector, driving support device and solid object detection method
WO2015111422A1 (en) * 2014-01-23 2015-07-30 日立建機株式会社 Periphery monitoring device for work machine
WO2017208601A1 (en) * 2016-05-31 2017-12-07 クラリオン株式会社 Image processing device and external recognition device
JP2021189882A (en) * 2020-06-02 2021-12-13 沖電気工業株式会社 Position calculation system, program, and position calculation method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007069806A (en) * 2005-09-08 2007-03-22 Clarion Co Ltd Obstacle detecting device for vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007069806A (en) * 2005-09-08 2007-03-22 Clarion Co Ltd Obstacle detecting device for vehicle

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104002730A (en) * 2013-02-27 2014-08-27 阿尔派株式会社 Solid object detector, driving support device and solid object detection method
JP2014164637A (en) * 2013-02-27 2014-09-08 Alpine Electronics Inc Solid object detection device, drive assist device, and solid object detection method
WO2015111422A1 (en) * 2014-01-23 2015-07-30 日立建機株式会社 Periphery monitoring device for work machine
JP2015139161A (en) * 2014-01-23 2015-07-30 日立建機株式会社 Periphery monitoring device for work machine
WO2017208601A1 (en) * 2016-05-31 2017-12-07 クラリオン株式会社 Image processing device and external recognition device
JP2017215743A (en) * 2016-05-31 2017-12-07 クラリオン株式会社 Image processing device, and external world recognition device
JP2021189882A (en) * 2020-06-02 2021-12-13 沖電気工業株式会社 Position calculation system, program, and position calculation method
JP7078066B2 (en) 2020-06-02 2022-05-31 沖電気工業株式会社 Position calculation system, program and position calculation method

Similar Documents

Publication Publication Date Title
JP5554261B2 (en) Three-dimensional object detection apparatus and three-dimensional object detection method
US7710246B2 (en) Vehicle driving assist system
JP5603835B2 (en) Vehicle perimeter monitoring device
JP4899424B2 (en) Object detection device
JP5687702B2 (en) Vehicle periphery monitoring device
KR101611194B1 (en) Apparatus and method for peripheral image generation of vehicle
JP4687411B2 (en) Vehicle peripheral image processing apparatus and program
JP5240149B2 (en) Vehicle periphery monitoring device
JPWO2009099022A1 (en) Perimeter monitoring device and perimeter monitoring method
JP4797877B2 (en) VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
KR101427032B1 (en) Apparatus and method for recognizing pedestrian in vehicle, and apparatus and method for warning and preventing collision with pedestrian in vehicle using thereof
JP2012256159A (en) Approaching object detecting device and method for detecting approaching object
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP2015064735A (en) Apparatus and method for estimating vehicle position
JP6407596B2 (en) Image processing apparatus and driving support system
JP5083142B2 (en) Vehicle periphery monitoring device
JP5541099B2 (en) Road marking line recognition device
JP2014044730A (en) Image processing apparatus
JP5251814B2 (en) Driving assistance device
JP2008003696A (en) Image processing apparatus and image processing method
JP5529058B2 (en) Three-dimensional object detection device and three-dimensional object detection method
JP6201809B2 (en) Perimeter monitoring apparatus and method
JP2014164637A (en) Solid object detection device, drive assist device, and solid object detection method
JP2004038760A (en) Traveling lane recognition device for vehicle
JP5874411B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141001

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150310