JP2007181129A - Vehicle-mounted movable body detection instrument - Google Patents

Vehicle-mounted movable body detection instrument Download PDF

Info

Publication number
JP2007181129A
JP2007181129A JP2005379995A JP2005379995A JP2007181129A JP 2007181129 A JP2007181129 A JP 2007181129A JP 2005379995 A JP2005379995 A JP 2005379995A JP 2005379995 A JP2005379995 A JP 2005379995A JP 2007181129 A JP2007181129 A JP 2007181129A
Authority
JP
Japan
Prior art keywords
vehicle
unit
moving body
relative position
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005379995A
Other languages
Japanese (ja)
Inventor
Keiichirou Ookawa
圭一朗 大川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005379995A priority Critical patent/JP2007181129A/en
Publication of JP2007181129A publication Critical patent/JP2007181129A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To effectively detect important information on a movable body at high speed from a picture of a vehicle-mounted camera. <P>SOLUTION: A picture photographed with a camera 5 is inputted as an analog signal to a picture signal input portion 6, is converted to a digital signal and is memorized in a first image memory 7 and a second image memory 8. The memorized picture signal is inputted to a variance region extraction portion 9, and a variance region is extracted by difference detection. A distance information conversion portion 13 refers to a road distance map and obtains distance information of each variance region. A movable body detection portion 14 detects a nearest coordinate point to one's own vehicle, in each variance region, as a movable body. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、車載用移動体検出装置に係り、特に、自車両周辺を撮像するように車両に設置された車載カメラ等の撮像手段によって撮像された画像から移動体を検出する装置に関する。   The present invention relates to an on-vehicle moving body detection apparatus, and more particularly to an apparatus that detects a moving body from an image captured by an imaging unit such as an in-vehicle camera installed on a vehicle so as to image the periphery of the host vehicle.

交差点の進入時や車両の後退時に運転者の視界を補う装置として、車載カメラとディスプレイを用いた運転支援システムが多数提案されている。例えば、見通しの悪い交差点では、交差点に完全に進入する前に、車両の前方に取り付けられた側方を撮像するカメラにより交差点の状況をあらかじめディスプレイに表示し、側方道路からの接近車両などを把握できるようにしたものが知られている。   Many driving support systems using an in-vehicle camera and a display have been proposed as devices for supplementing the driver's field of view when entering an intersection or when the vehicle is moving backward. For example, at an intersection with poor visibility, before entering the intersection completely, the situation of the intersection is displayed on the display in advance by a camera that captures the side attached to the front of the vehicle, and vehicles approaching from the side road are displayed. What you can understand is known.

また、車両の側方を監視する側方監視装置として、車両の側方を撮像する車載カメラから得た所定時間前後の2画像に基づいて、自車両へ接近する物体(移動体)を検出し、その接近度合から危険度を判定するものがある(例えば、特許文献1)。   Further, as a side monitoring device for monitoring the side of the vehicle, an object (moving body) approaching the host vehicle is detected based on two images before and after a predetermined time obtained from an in-vehicle camera that images the side of the vehicle. In some cases, the degree of risk is determined from the degree of approach (for example, Patent Document 1).

特開2001−213254号公報JP 2001-213254 A

しかしながら、上記に示されるような従来の側方監視装置においては、第1の課題として、2画像中の同一物の移動量を算出するには画像間の詳細なマッチングが必要となり、計算量が膨大となることが挙げられる。このため、処理中に接近物体がさらに移動してしまい、危険度の判定が間に合わなくなるという欠点がある。   However, in the conventional side monitoring apparatus as described above, as a first problem, in order to calculate the movement amount of the same object in two images, detailed matching between the images is required, and the calculation amount is large. It can be enormous. For this reason, there is a drawback that the approaching object further moves during the process, and the determination of the degree of danger cannot be made in time.

第2の課題としては、2画像を記録する所定時間の間に自車両が移動した場合には、画像全体が変化するため、画像全体を接近する物体と誤検出してしまうという欠点がある。   As a second problem, when the host vehicle moves during a predetermined time for recording two images, the entire image changes, and thus the entire image is erroneously detected as an approaching object.

第3の課題としては、夜間に接近物体が発光するヘッドライト等をカメラで撮像した場合、カメラの受光素子の許容限度を超えてしまい、その周辺の素子まで明るく変化する現象が発生する。このため、接近物体を実際よりも大きい物体であると誤検出するという欠点がある。   As a third problem, when a headlight that emits light from an approaching object is imaged with a camera at night, the allowable limit of the light receiving element of the camera is exceeded, and a phenomenon in which the surrounding elements are brightly changed occurs. For this reason, there is a drawback that an approaching object is erroneously detected as an object larger than the actual object.

第4の課題としては、カメラの撮像画面に地平線より上方が含まれていると、例えば飛行機なども接近物体と検出してしまう。また、そのために計算処理の時間も増大するという欠点がある。   As a fourth problem, if the imaging screen of the camera includes an area above the horizon, for example, an airplane or the like is also detected as an approaching object. For this reason, there is a disadvantage that the time required for the calculation process increases.

第5の課題としては、接近物体の接近度合を危険度として通報する際に、カメラで撮像した画面との関連がわからないと、運転者が状況を把握しづらいという欠点がある。   As a fifth problem, when reporting the degree of approach of an approaching object as the degree of risk, there is a drawback that it is difficult for the driver to grasp the situation unless the relationship with the screen imaged by the camera is known.

第6の課題としては、自車両の周辺地形が水平でなく傾きを持っているときは、周辺地形を水平とみなしてカメラで撮像した画像を単純に座標変換すると、接近物体までの距離や方向の接近度合に誤差を生じるという欠点がある。   As a sixth problem, when the surrounding terrain of the host vehicle is inclined rather than horizontal, the distance and direction to the approaching object can be calculated by simply converting the image captured by the camera with the surrounding terrain regarded as horizontal. There is a drawback that an error occurs in the degree of approach.

本発明は前記課題に鑑みてなされたものであって、その目的とするところは、撮像画像を記録する条件を適切に設定して誤検出を防ぎ、接近物体の検出を最も重要な部分に着目して行うことによって計算量を削減し、移動体の重要な情報を高速に効率よく検出する移動体検出装置を提供することにある。   The present invention has been made in view of the above-mentioned problems, and its object is to appropriately set conditions for recording a captured image to prevent erroneous detection and to focus on the most important part for detection of an approaching object. Accordingly, it is an object of the present invention to provide a moving body detection apparatus that reduces the amount of calculation and detects important information of the moving body at high speed and efficiently.

前記目的を達成するために、本発明による車載用移動体検出装置は、自車両周辺を撮像するように車両に設置された撮像手段によって撮像された画像から移動体を検出する車載用移動体検出装置であって、前記撮像手段によって撮像された複数の画像の差分を用いて1つ以上の変化領域を抽出する変化領域抽出手段と、前記変化領域抽出手段によって抽出された変化領域中の最も自車両に近い座標点を移動体として検出する移動体検出手段とを有する。   In order to achieve the above object, an in-vehicle moving body detection apparatus according to the present invention detects an in-vehicle moving body from an image captured by an imaging unit installed in the vehicle so as to image the periphery of the host vehicle. A change area extraction means for extracting one or more change areas using a difference between a plurality of images captured by the imaging means; and a self-change area extracted by the change area extraction means. Moving body detecting means for detecting a coordinate point close to the vehicle as a moving body.

本発明による車載用移動体検出装置は、更に、自車両がおおよそ停止状態かどうかであるか否かを判定する停止状態判定手段を有し、前記変化領域抽出手段は、前記停止状態判定手段によって自車両がおおよそ停止状態と判定された場合にのみ、前記撮像手段によって撮像された複数の画像の差分を用いて1つ以上の変化領域を抽出する。   The on-vehicle moving body detection device according to the present invention further includes stop state determination means for determining whether or not the host vehicle is approximately in a stop state, and the change region extraction means is determined by the stop state determination means. Only when it is determined that the host vehicle is approximately stopped, one or more change regions are extracted using the difference between the plurality of images captured by the imaging unit.

本発明による車載用移動体検出装置は、更に、前記撮像手段によって撮像された画像中の輝度を検出する画像輝度検出手段と、前記画像輝度検出手段によって所定値以上の輝度が検出された場合に前記撮像手段の受光量を低減する受光量低減手段を有する。   The on-vehicle moving body detection apparatus according to the present invention further includes an image luminance detection unit that detects luminance in an image captured by the imaging unit, and a luminance that is equal to or higher than a predetermined value is detected by the image luminance detection unit. A light receiving amount reducing unit configured to reduce a light receiving amount of the imaging unit;

本発明による車載用移動体検出装置は、更に、前記変化領域抽出手段に用いる前記画像の地平線上方の領域を除外する領域除外手段を有する。   The on-vehicle moving body detection apparatus according to the present invention further includes area exclusion means for excluding an area above the horizon of the image used for the change area extraction means.

本発明による車載用移動体検出装置は、更に、前記移動体検出手段によって検出した移動体を前記画像中にマーキングして表示する移動体表示手段を有する。   The vehicle-mounted mobile body detection device according to the present invention further includes mobile body display means for marking and displaying the mobile body detected by the mobile body detection means in the image.

本発明による車載用移動体検出装置は、更に、前記移動体検出手段によって検出した移動体と自車両との距離を通知する距離通知手段を有する。   The on-vehicle moving body detection apparatus according to the present invention further includes distance notification means for notifying the distance between the moving body detected by the moving body detection means and the host vehicle.

本発明による車載用移動体検出装置は、更に、前記移動体検出手段によって検出した移動体の座標点を座標変換し、自車両との相対位置を算出する相対位置算出手段と、前記相対位置算出手段によって算出された相対位置を表示する相対位置表示手段とを有する。   The on-vehicle moving body detection apparatus according to the present invention further includes a relative position calculation unit that performs coordinate conversion of a coordinate point of the moving body detected by the moving body detection unit and calculates a relative position with respect to the host vehicle, and the relative position calculation. Relative position display means for displaying the relative position calculated by the means.

本発明による車載用移動体検出装置は、更に、自車両周辺の地形情報を用いて前記相対位置算出手段によって算出された相対位置の補正を行う地形対応位置補正手段を有する。   The on-vehicle moving body detection apparatus according to the present invention further includes terrain corresponding position correction means for correcting the relative position calculated by the relative position calculation means using the terrain information around the host vehicle.

本発明による車載用移動体検出装置は、更に、自車両の傾斜状態を測定する傾斜状態測定手段と、前記傾斜状態測定手段によって測定された傾斜状態に基づいて前記相対位置算出手段によって算出された相対位置の補正を行う傾斜対応位置補正手段とを有する。   The on-vehicle moving body detection apparatus according to the present invention is further calculated by the relative position calculating means based on the inclination state measuring means for measuring the inclination state of the host vehicle and the inclination state measured by the inclination state measuring means. And a tilt corresponding position correcting means for correcting the relative position.

本発明による車載用移動体検出装置によれば、画像の差分から得た各変化領域中の最も自車両に近い座標点のものを移動体として検出することにより、計算量を削減することができる。これは従来、変化領域内のすべての点について画像間のマッチングを行い、さらに移動距離や接近速度を計算する必要があったために計算量が膨大となっていたが、それを最も自車両に近い座標点のみに限定することにより画像間のマッチングが不要となり、移動距離や接近速度の計算量を大幅に削減することができる。   According to the vehicle-mounted moving body detection device of the present invention, it is possible to reduce the amount of calculation by detecting a moving object having a coordinate point closest to the host vehicle in each change region obtained from the difference between images. . Conventionally, it has been necessary to perform matching between images for all points in the change area, and to calculate the moving distance and the approach speed. By limiting to only coordinate points, matching between images becomes unnecessary, and the calculation amount of moving distance and approach speed can be greatly reduced.

(実施形態1)
本発明による車載用移動体検出装置の実施形態1を、図1〜図7を参照して説明する。
(Embodiment 1)
A vehicle-mounted moving body detection apparatus according to a first embodiment of the present invention will be described with reference to FIGS.

本実施形態の車載用移動体検出装置は、図1に示されているように、カメラ5と、画像信号入力部6と、第一画像記憶部7と、第二画像記憶部8と、変化領域抽出部9と、車速センサ10と、車速信号入力部11と、車両停止判定部12と、距離情報変換部13と、移動体検出部14とを有する。   As shown in FIG. 1, the on-vehicle moving body detection device of the present embodiment includes a camera 5, an image signal input unit 6, a first image storage unit 7, a second image storage unit 8, and changes. It has the area | region extraction part 9, the vehicle speed sensor 10, the vehicle speed signal input part 11, the vehicle stop determination part 12, the distance information conversion part 13, and the mobile body detection part 14. FIG.

カメラ5は、本実施形態では、図2に示されているように、車両側方を撮像するように車両前方側面に設置されており、符号15により示されている撮像方向の撮影を行う。なお、カメラ5は車両周辺を撮像するように設置されていればよく、設置場所は、前方、後方などどこであってもよい。また、撮像方向も車両側方に限らず、車両前方、車両後方などであってもよい。   In the present embodiment, as shown in FIG. 2, the camera 5 is installed on the front side of the vehicle so as to image the side of the vehicle, and performs imaging in the imaging direction indicated by reference numeral 15. In addition, the camera 5 should just be installed so that the periphery of a vehicle may be imaged, and an installation place may be anywhere, such as the front and back. Further, the imaging direction is not limited to the side of the vehicle, and may be forward of the vehicle, rear of the vehicle, or the like.

カメラ5によって撮像された画像は、アナログ信号となって画像信号入力部6に入力される。ここでデジタル信号に変換された画像信号は、第一画像記憶部7と第二画像記憶部8に記憶される。第一画像記憶部7と第二画像記憶部8への入力は、画像信号入力部6により所定の時間差をもって振り分けられる。第一画像記憶部7と第二画像記憶部8に記憶された画像信号は、変化領域抽出部9に入力される。   The image captured by the camera 5 is input to the image signal input unit 6 as an analog signal. Here, the image signal converted into the digital signal is stored in the first image storage unit 7 and the second image storage unit 8. Inputs to the first image storage unit 7 and the second image storage unit 8 are distributed by the image signal input unit 6 with a predetermined time difference. The image signals stored in the first image storage unit 7 and the second image storage unit 8 are input to the change area extraction unit 9.

車速センサ10によって取得された車速情報は、パルス信号となって車速信号入力部11に入力される。車速情報は車速信号入力部11においてデジタル信号に変換され、停止判定部12に入力される。   The vehicle speed information acquired by the vehicle speed sensor 10 is input to the vehicle speed signal input unit 11 as a pulse signal. The vehicle speed information is converted into a digital signal by the vehicle speed signal input unit 11 and input to the stop determination unit 12.

車両停止判定部12は、車速信号入力部11よりの車速情報に基づいて、おおよそ停止状態であるか否かを判定する。車両停止判定部12がおおよそ停止状態と判定した場合には、変化領域抽出部9に処理許可信号が入力される。   The vehicle stop determination unit 12 determines whether or not the vehicle is approximately stopped based on the vehicle speed information from the vehicle speed signal input unit 11. When the vehicle stop determination unit 12 determines that the vehicle is approximately stopped, a process permission signal is input to the change region extraction unit 9.

変化領域抽出部9に処理許可信号が入力された場合には、第一画像記憶部7と第二画像記憶部8に格納された画像信号が変化領域抽出部9に入力される。   When the processing permission signal is input to the change area extraction unit 9, the image signals stored in the first image storage unit 7 and the second image storage unit 8 are input to the change area extraction unit 9.

これにより、変化領域抽出部9は、自車両がおおよそ停止状態にある時のみ、第一画像記憶部7に格納された画像信号と第二画像記憶部8に格納された画像信号とを参照し、2次元画像として両画像(第一画像記憶部7に格納された画像信号による2次元画像と第二画像記憶部8に格納された画像信号による2次元画像)の差分成分を抽出する。   Thereby, the change area extraction unit 9 refers to the image signal stored in the first image storage unit 7 and the image signal stored in the second image storage unit 8 only when the host vehicle is approximately stopped. A differential component of both images (a two-dimensional image based on an image signal stored in the first image storage unit 7 and a two-dimensional image based on an image signal stored in the second image storage unit 8) is extracted as a two-dimensional image.

この差分成分が画像中の変化領域を表しており、例えば、移動している他の車両、歩行者などの移動体である。   This difference component represents a change area in the image, and is, for example, a moving body such as another moving vehicle or a pedestrian.

次に、距離情報変換部13は、カメラ5が設置されている方向や画角によってあらかじめ算出された路面距離マップを備えており、撮像された2次元画像の各座標点を自車両からの距離情報に変換する機能を有している。   Next, the distance information conversion unit 13 includes a road surface distance map calculated in advance according to the direction and angle of view in which the camera 5 is installed, and each coordinate point of the captured two-dimensional image is represented as a distance from the host vehicle. It has a function to convert information.

これにより、距離情報変換部13は、路面距離マップを参照して、変化領域抽出部9によって抽出された変化領域の各座標点を、自車両からの距離情報に変換する。   Thereby, the distance information conversion unit 13 refers to the road surface distance map and converts each coordinate point of the change area extracted by the change area extraction unit 9 into distance information from the host vehicle.

移動体検出部14は、距離情報変換部13によって変換された距離情報のうち、最も距離値の小さいもの、すなわち自車両に最も近い座標点を抽出する。これが、距離情報変換部13によって抽出された変化領域のうち、自車両に最も近い座標点にある移動体であり、これを移動体として検出する。   The moving body detection unit 14 extracts the coordinate information having the smallest distance value among the distance information converted by the distance information conversion unit 13, that is, the coordinate point closest to the host vehicle. This is a moving body at a coordinate point closest to the host vehicle in the change area extracted by the distance information conversion unit 13, and this is detected as a moving body.

次に、画像信号(画像データ)を用いた変化領域抽出の原理について、図3、図4を参照して説明する。   Next, the principle of changing area extraction using image signals (image data) will be described with reference to FIGS.

図3(a)、(b)は、撮像された画像の例を示している。図3(a)は、第一画像記憶部7に記憶された画像データによる画像を、図3(b)は第二画像記憶部8に記憶された画像データによる画像を各々示している。   3A and 3B show examples of captured images. 3A shows an image based on the image data stored in the first image storage unit 7, and FIG. 3B shows an image based on the image data stored in the second image storage unit 8.

図4(a)、(b)は、変化領域抽出部9の動作を模式的に示している。図4(a)は、説明のために、第一画像記憶部7に記憶された画像データによる画像(図3(a)の画像)と第二画像記憶部8に記憶された画像データによる画像(図3(b)の画像)とを合成した画像を示している。図4(b)は、第一画像記憶部7に記憶された画像データによる画像(図3(a)の画像)と第二画像記憶部8に記憶された画像データによる画像(図3(b)の画像)の差分成分を抽出した画像を示している。   4A and 4B schematically show the operation of the change area extraction unit 9. 4A shows an image based on image data stored in the first image storage unit 7 (an image in FIG. 3A) and an image based on image data stored in the second image storage unit 8 for the sake of explanation. An image obtained by combining (the image in FIG. 3B) is shown. 4B shows an image based on the image data stored in the first image storage unit 7 (image in FIG. 3A) and an image based on the image data stored in the second image storage unit 8 (FIG. 3B). The image obtained by extracting the difference component of ().

変化領域抽出部9は、第一画像記憶部7と第二画像記憶部8に記憶された画像データ中の各画素について、一般的にRGBで表される色情報の差分を計算する。これを、第一画像記憶部7に記憶された画像データによる画像(図3(a)の画像)と第二画像記憶部8に記憶された画像データによる画像(図3(b)の画像)に適用した結果を示したのが、図4(b)に示されている画像である。図4(b)において、抽出された差分成分は、符号20により示されている。図3(a)の画像と図3(b)の画像中における移動物体の画素のみが差分(差分成分20)として抽出され、静止している背景、路面を表す画素は抽出されない。   The change area extraction unit 9 calculates a difference in color information generally expressed in RGB for each pixel in the image data stored in the first image storage unit 7 and the second image storage unit 8. An image based on the image data stored in the first image storage unit 7 (image in FIG. 3A) and an image based on the image data stored in the second image storage unit 8 (image in FIG. 3B). The result shown in FIG. 4B is the result of applying to the image. In FIG. 4B, the extracted difference component is indicated by reference numeral 20. Only the pixel of the moving object in the image of FIG. 3A and the image of FIG. 3B is extracted as the difference (difference component 20), and the pixel representing the stationary background and the road surface is not extracted.

次に、距離情報への変換の原理について、図5〜図7を参照して説明する。   Next, the principle of conversion into distance information will be described with reference to FIGS.

図5は、自車両周辺の位置情報を平面格子によって模式的に表している。ここで、符号21は自車両を表し、図5の平面格子は自車両21を上方から俯瞰して得られる。符号A〜Gは、平面格子の格子点を表している。   FIG. 5 schematically shows position information around the host vehicle using a plane lattice. Here, the code | symbol 21 represents the own vehicle and the plane lattice of FIG. 5 is obtained by overlooking the own vehicle 21 from the upper direction. Reference numerals A to G represent lattice points of a planar lattice.

図6は、距離情報変換部13が備えている路面距離マップを示している。路面距離マップは、カメラ5を通して図5に示されている平面格子を見た形となっており、図5の格子点A〜Gが、図6の格子点A〜Gに対応しており、各々、同一位置を表している。   FIG. 6 shows a road surface distance map provided in the distance information conversion unit 13. The road surface distance map has a shape in which the planar grid shown in FIG. 5 is viewed through the camera 5, and the grid points A to G in FIG. 5 correspond to the grid points A to G in FIG. Each represents the same position.

図5に示されている平面格子において、各格子点A〜Gの自車両21からの距離を算出できる。符号Cdは、格子点Cと自車両21との距離を表しており、この図では3mである。同様に、図6の格子点Cと自車両21との距離も3mである。この距離情報を、各格子点だけでなく、画素の各点において、あらかじめ算出しておき、路面距離マップとする。例えば、図6の格子点Cに対応する画素は、3mという距離情報を保持する。   In the planar grid shown in FIG. 5, the distances from the own vehicle 21 of the grid points A to G can be calculated. The symbol Cd represents the distance between the grid point C and the host vehicle 21 and is 3 m in this figure. Similarly, the distance between the grid point C in FIG. 6 and the host vehicle 21 is 3 m. This distance information is calculated in advance not only at each grid point but also at each pixel point to obtain a road surface distance map. For example, the pixel corresponding to the grid point C in FIG. 6 holds distance information of 3 m.

図7は、この路面距離マップを、変化領域抽出部9によって得た差分成分20に適用する様子を示している。差分成分20の領域中において、格子点Cに対応する画素は、路面距離マップによって3mという距離情報を得ることができる。これを差分成分20の領域の各画素について適用し、各画素の距離情報が得られる。ここで、差分成分20の領域の各画素についての適用は、必ずしも画面上方や下方からに限らず、例えば、路面距離マップにおいて、距離の近い画素の順に行ってもよい。   FIG. 7 shows a state in which this road surface distance map is applied to the difference component 20 obtained by the change area extraction unit 9. In the region of the difference component 20, the pixel corresponding to the lattice point C can obtain distance information of 3 m by the road surface distance map. This is applied to each pixel in the region of the difference component 20, and distance information of each pixel is obtained. Here, the application of each pixel in the region of the difference component 20 is not necessarily performed from the upper side or the lower side of the screen.

このようにして得られた距離情報のうち最も値の小さい点、すなわち、自車両に近い距離にある点を移動体検出部14によって抽出し、移動体として検出する。図7における符号20pが、差分成分20の各画素に属する距離情報のうち、最も値の小さい座標点を示し、この例では、自車両21からの距離は2.8mである。   The point having the smallest value among the distance information obtained in this way, that is, the point at a distance close to the own vehicle is extracted by the moving body detection unit 14 and detected as a moving body. Reference numeral 20p in FIG. 7 indicates a coordinate point having the smallest value among the distance information belonging to each pixel of the difference component 20, and in this example, the distance from the host vehicle 21 is 2.8 m.

移動体検出部14は、距離情報変換部13によって変換された距離情報のうち、座標点20pを自車両に最も近い座標点にある移動体として検出する。   The moving body detection unit 14 detects the coordinate point 20p as the moving body at the coordinate point closest to the host vehicle among the distance information converted by the distance information conversion unit 13.

このように移動体の検出を、最も自車両に近い座標点のみに限定することにより、画像間のマッチングが不要となり、その後の移動距離や接近速度の計算量を大幅に削減することができる。   In this way, by limiting the detection of the moving body to only the coordinate point closest to the host vehicle, matching between images becomes unnecessary, and the amount of calculation of the subsequent moving distance and approach speed can be greatly reduced.

また、変化領域抽出部9は、自車両がおおよそ停止状態にある時のみ変化領域抽出を行うから、2画像を記録する所定時間の間に自車両が移動し、画像全体が変化したことにより、画像全体を接近する物体と誤検出してしまうことを未然に排除できる。   Further, since the change area extraction unit 9 performs the change area extraction only when the host vehicle is approximately in a stopped state, the host vehicle has moved during a predetermined time for recording two images, and the entire image has changed. It is possible to eliminate erroneous detection of the entire image as an approaching object.

(実施形態2)
本発明による車載用移動体検出装置の実施形態2を、図8を参照して説明する。なお、図8において、図1に対応する部分は、図1に付した符号と同一の符号を付けて、その説明を省略する。
(Embodiment 2)
Embodiment 2 of the on-vehicle moving body detection apparatus according to the present invention will be described with reference to FIG. 8, parts corresponding to those in FIG. 1 are denoted by the same reference numerals as those in FIG. 1, and description thereof is omitted.

本実施形態では、実施形態1の車載用移動体検出装置に、画像輝度検出部22と、受光量低減部23とが追加されている。   In the present embodiment, an image luminance detection unit 22 and a received light amount reduction unit 23 are added to the vehicle-mounted mobile body detection device of the first embodiment.

画像輝度検出部22は、画像信号入力部6によってデジタル信号に変換された画像信号のRGBの色情報から、その輝度成分を検出する。この輝度成分が所定値以上であると判定された場合には、受光量低減部23に、その輝度成分の値に応じて算出された受光量低減信号が送られる。   The image luminance detection unit 22 detects the luminance component from the RGB color information of the image signal converted into a digital signal by the image signal input unit 6. When it is determined that the luminance component is equal to or greater than a predetermined value, the received light amount reduction signal calculated according to the value of the luminance component is sent to the received light amount reducing unit 23.

受光量低減部23は、画像輝度検出部22よりの受光量低減信号に応じて、カメラ5のシャッタスピード、絞りなどを操作し、露出補正制御を行う。
従って、カメラ5が強い光源からの光を受光した場合でも、適切な画像が得られ、接近物体を誤検出することが避けられる。
The received light amount reducing unit 23 performs exposure correction control by operating the shutter speed, the aperture, and the like of the camera 5 according to the received light amount reducing signal from the image luminance detecting unit 22.
Therefore, even when the camera 5 receives light from a strong light source, an appropriate image can be obtained and erroneous detection of an approaching object can be avoided.

(実施形態3)
本発明による車載用移動体検出装置の実施形態3を、図9、図10を参照して説明する。なお、図9においても、図1に対応する部分は、図1に付した符号と同一の符号を付けて、その説明を省略する。
(Embodiment 3)
Embodiment 3 of the on-vehicle moving body detection apparatus according to the present invention will be described with reference to FIGS. In FIG. 9 as well, portions corresponding to those in FIG. 1 are denoted by the same reference numerals as those in FIG. 1, and description thereof is omitted.

第3の実施例を図面を用いて説明する。図9はこの発明の実施の形態3を示した構成図であり、図において24は領域除外部である。5から14については図2と同様である。本発明の第1の実施例と異なる点を以下説明する。   A third embodiment will be described with reference to the drawings. FIG. 9 is a block diagram showing Embodiment 3 of the present invention, in which 24 is an area exclusion unit. 5 to 14 are the same as those in FIG. Differences from the first embodiment of the present invention will be described below.

本実施形態では、実施形態1の車載用移動体検出装置に、領域除外部24が追加されている。
領域除外部24は、画像信号入力部6によってデジタル信号に変換された画像信号のうち、地平線上方部分の情報を除外する。領域除外部24によって地平線上方部分を除外された画像信号が第一画像記憶部7と第二画像記憶部8に記憶される。
In the present embodiment, a region exclusion unit 24 is added to the vehicle-mounted mobile body detection device of the first embodiment.
The area exclusion unit 24 excludes information on the upper part of the horizon from the image signal converted into a digital signal by the image signal input unit 6. The image signal from which the upper part of the horizon has been excluded by the region exclusion unit 24 is stored in the first image storage unit 7 and the second image storage unit 8.

図10は、地平線上方部分が除外された画像の例を示している。符号25は、除外領域(除外地平線上方部分)であり、除外された領域を分かり易くするために、ハッチングで示している。   FIG. 10 shows an example of an image in which the upper part of the horizon is excluded. Reference numeral 25 denotes an excluded area (a portion above the excluded horizon), which is indicated by hatching in order to make the excluded area easy to understand.

このように、有効領域を地平線以下に限定することにより、地平線上方の飛行物体などを除外することができ、併せて画像を記憶する第一画像記憶部7と第二画像記憶部8の記憶容量も少なくて済む。さらにその後の変化領域抽出部9において、地平線下方のみの処理で済むため、計算量を削減することができる。   In this way, by limiting the effective area to the horizon or less, it is possible to exclude flying objects and the like above the horizon, and the storage capacity of the first image storage unit 7 and the second image storage unit 8 that store images together. Less. Further, since the subsequent change area extraction unit 9 only needs to perform processing below the horizon, the amount of calculation can be reduced.

(実施形態4)
本発明による車載用移動体検出装置の実施形態4を、図11、図12を参照して説明する。なお、図11においても、図1に対応する部分は、図1に付した符号と同一の符号を付けて、その説明を省略する。
(Embodiment 4)
Embodiment 4 of the vehicle-mounted moving body detection apparatus according to the present invention will be described with reference to FIGS. Also in FIG. 11, parts corresponding to those in FIG. 1 are denoted by the same reference numerals as those in FIG.

本実施形態では、実施形態1の車載用移動体検出装置に、移動体表示部26が追加されている。
移動体表示部26は、液晶ディスプレイ等により構成されて運転席前方に設置されており、画像信号入力部6によってデジタル信号に変換された画像信号を入力し、それを画像として表示する。
In the present embodiment, a moving body display unit 26 is added to the on-vehicle moving body detection apparatus of the first embodiment.
The moving body display unit 26 is configured by a liquid crystal display or the like and is installed in front of the driver's seat, and receives the image signal converted into a digital signal by the image signal input unit 6 and displays it as an image.

移動体表示部26は、移動体検出部14より座標点20pに関する情報を入力することにより、移動体検出部14によって検出された移動体を表す点も、画像中にマーキングして表示する。   The moving body display unit 26 inputs information related to the coordinate point 20p from the moving body detection unit 14 to mark and display a point representing the moving body detected by the moving body detection unit 14 in the image.

図13は、移動体表示部26によって表示される画像例を示したものである。符号27は移動体として検出された最も自車両に近い座標点20pの表示画像であり、この例では、星印としてマーキングしている。   FIG. 13 shows an example of an image displayed by the moving body display unit 26. Reference numeral 27 denotes a display image of the coordinate point 20p closest to the host vehicle detected as a moving body, and in this example, it is marked as an asterisk.

従って、運転者は、運転席前方に設置された移動体表示部26を目視することにより、画像中の移動体がどれであるかを、即座に、的確に把握することができる。   Therefore, the driver can immediately and accurately grasp the moving body in the image by viewing the moving body display unit 26 installed in front of the driver's seat.

(実施形態5)
本発明による車載用移動体検出装置の実施形態5を、図13、図14を参照して説明する。なお、図13においても、図1に対応する部分は、図1に付した符号と同一の符号を付けて、その説明を省略する。
(Embodiment 5)
Embodiment 5 of the on-vehicle moving body detection apparatus according to the present invention will be described with reference to FIGS. Also in FIG. 13, the parts corresponding to those in FIG. 1 are denoted by the same reference numerals as those in FIG.

本実施形態では、実施形態1の車載用移動体検出装置に、距離通知部28が追加されている。
移動体検出部14によって検出された移動体を表す座標点20pのデータは、距離情報変換部13によって得られた距離情報を保持している。
距離通知部28は、運転席の前方に設置される表示器等により構成され、移動体検出部14より座標点20pに関する情報を入力し、座標点20pの距離情報を通知する。
In the present embodiment, a distance notification unit 28 is added to the vehicle-mounted mobile body detection device of the first embodiment.
The data of the coordinate point 20p representing the moving body detected by the moving body detection unit 14 holds the distance information obtained by the distance information conversion unit 13.
The distance notification unit 28 is configured by a display or the like installed in front of the driver's seat, inputs information related to the coordinate point 20p from the moving body detection unit 14, and notifies the distance information of the coordinate point 20p.

図14は、距離通知部28によって通知される座標点20pの距離情報の表示例を示している。この例では、距離情報が、「接近物体との距離」として、デジタル数値情報として表示されている。
従って、カメラの撮像した画像では分かり難いような移動体までの距離を、運転者は、容易に、的確に把握することができる。
FIG. 14 shows a display example of the distance information of the coordinate point 20p notified by the distance notification unit 28. In this example, the distance information is displayed as digital numerical information as “distance to the approaching object”.
Therefore, the driver can easily and accurately grasp the distance to the moving body that is difficult to understand with the image captured by the camera.

(実施形態6)
本発明による車載用移動体検出装置の実施形態6を、図15〜図18を参照して説明する。なお、図15においても、図1に対応する部分は、図1に付した符号と同一の符号を付けて、その説明を省略する。
(Embodiment 6)
Embodiment 6 of the vehicle-mounted moving body detection apparatus according to the present invention will be described with reference to FIGS. Also in FIG. 15, parts corresponding to those in FIG. 1 are denoted by the same reference numerals as those in FIG. 1, and description thereof is omitted.

本実施形態では、実施形態1の車載用移動体検出装置に、相対位置算出部29と、相対位置表示部30とが追加されている。
相対位置算出部29は、距離情報変換部13が備える路面距離マップと同様の相対位置マップを備えている。
In the present embodiment, a relative position calculation unit 29 and a relative position display unit 30 are added to the vehicle-mounted mobile body detection device of the first embodiment.
The relative position calculation unit 29 includes a relative position map similar to the road surface distance map included in the distance information conversion unit 13.

図16は、自車両周辺の位置情報を平面格子によって模式的に表している。図16においても、符号21は自車両を表し、図16の平面格子は、図5と同様に、自車両21を上方から俯瞰して得られる。符号A〜Gは、図5と同様に、平面格子の格子点を表している。   FIG. 16 schematically shows position information around the host vehicle using a plane lattice. Also in FIG. 16, the code | symbol 21 represents the own vehicle and the plane lattice of FIG. 16 is obtained by overlooking the own vehicle 21 from upper direction similarly to FIG. Symbols A to G represent lattice points of a planar lattice, as in FIG.

図17は、相対位置算出部29が備える相対位置マップを示している。相対位置マップは、距離情報変換部13が備える路面距離マップと同様に、カメラ5を通して図17の格子を見た形となっている。
路面距離マップでは各格子点は距離情報を保持していたが、相対位置マップでは相対位置情報を保持する。
FIG. 17 shows a relative position map provided in the relative position calculation unit 29. Similar to the road surface distance map provided in the distance information conversion unit 13, the relative position map has a shape in which the grid in FIG. 17 is viewed through the camera 5.
In the road surface distance map, each lattice point holds distance information, but in the relative position map, it holds relative position information.

図16の格子点Cは、この例では任意の位置を基準点とした(x,y)=(3,2)という相対位置である。これに対応する図17の格子点Cは(x,y)=(3,2)という相対位置情報を保持する。この相対位置情報を、各格子点だけでなく画素の各点においてあらかじめ算出しておき、相対位置マップとする。これを変化領域抽出部9によって得た差分成分20の領域の各画素について適用し、各画素の相対位置が得られる。   The lattice point C in FIG. 16 is a relative position of (x, y) = (3, 2) with an arbitrary position as a reference point in this example. The corresponding lattice point C in FIG. 17 holds relative position information of (x, y) = (3, 2). This relative position information is calculated in advance not only at each grid point but also at each point of the pixel to obtain a relative position map. This is applied to each pixel in the region of the difference component 20 obtained by the change region extraction unit 9, and the relative position of each pixel is obtained.

相対位置算出部29は、移動体検出部14によって検出された移動体の画素情報を照合し、移動体を表す座標点20pの自車両に対する相対位置情報を相対位置表示部30に出力する。   The relative position calculation unit 29 collates pixel information of the moving body detected by the moving body detection unit 14 and outputs relative position information of the coordinate point 20p representing the moving body to the host vehicle to the relative position display unit 30.

相対位置表示部30は、液晶ディスプレイ等により構成されて運転席前方に設置されており、相対位置表示部30より自車両に対する移動体を表す座標点20pの相対位置情報を入力し、図18に示されているように、自車両21を上方から俯瞰した表示と共に、移動体を、自車両21の表示に対して相対位置算出部29によって算出された相対位置をもって、表示する。この表示例では、移動体は星印32によって表示されている。   The relative position display unit 30 is configured by a liquid crystal display or the like and is installed in front of the driver's seat. The relative position display unit 30 inputs relative position information of the coordinate point 20p representing the moving body with respect to the host vehicle from the relative position display unit 30, and FIG. As shown, the moving body is displayed with the relative position calculated by the relative position calculating unit 29 with respect to the display of the own vehicle 21 together with the display overlooking the own vehicle 21 from above. In this display example, the moving object is displayed by an asterisk 32.

従って、運転者は、運転席前方に設置された相対位置表示部30を目視することにより、カメラ5が撮像した画像では分かり難いような移動体までの距離や自車両との相対位置を、容易に、的確に把握することができる。   Accordingly, the driver can easily determine the distance to the moving body and the relative position with the own vehicle, which are difficult to understand in the image captured by the camera 5, by visually observing the relative position display unit 30 installed in front of the driver's seat. It is possible to grasp accurately.

(実施形態7)
本発明による車載用移動体検出装置の実施形態7を、図19〜図21を参照して説明する。なお、図19において、図1、図15に対応する部分は、図1、図15に付した符号と同一の符号を付けて、その説明を省略する。
(Embodiment 7)
Embodiment 7 of the vehicle-mounted mobile body detection device according to the present invention will be described with reference to FIGS. 19, parts corresponding to those in FIGS. 1 and 15 are denoted by the same reference numerals as those in FIGS. 1 and 15, and description thereof is omitted.

本実施形態では、実施形態6の車載用移動体検出装置に、地形対応相対位置補正部33が追加されている。
地形対応相対位置補正部33は、ナビゲーションシステムからの地図情報やGPSなどによる車両現在位置情報により、車両周辺の地形情報に基づいた相対位置補正を行う。
In the present embodiment, a terrain-compatible relative position correction unit 33 is added to the vehicle-mounted mobile body detection device of the sixth embodiment.
The terrain corresponding relative position correction unit 33 performs relative position correction based on the terrain information around the vehicle based on the map information from the navigation system and the vehicle current position information by GPS or the like.

図20は、図5と同様に、自車両周辺の位置情報を平面格子によって模式的に表している。図21は地形対応相対位置補正部33が行う相対位置補正を説明する図である。図21はカメラ5を通して図20の格子を見た形となっている。   FIG. 20 schematically shows the position information around the host vehicle using a plane grid, as in FIG. FIG. 21 is a diagram for explaining the relative position correction performed by the terrain corresponding relative position correction unit 33. FIG. 21 shows a shape in which the lattice of FIG.

ここでは、格子点C周辺が丘陵地として盛り上がっている地形の例を示している。図20の格子点Cに対応する点は図21の格子点Cであるが、地形が平坦な場合には、図21の格子点C’である。   Here, the example of the topography where the periphery of the lattice point C is rising as a hilly area is shown. The point corresponding to the grid point C in FIG. 20 is the grid point C in FIG. 21, but when the topography is flat, it is the grid point C ′ in FIG. 21.

このように地形の違いにより、俯瞰図では同一の位置であっても、カメラ5を通して撮像される画像が変化する。この例では、格子点Cの相対位置は(x,y)=(3,2)であり、格子点C’の相対位置は(x,y)=(2.5,1.9)である。これは、車両周辺の地形の標高情報とカメラの方向および画角から算出される。   Thus, due to the difference in topography, the image captured through the camera 5 changes even at the same position in the overhead view. In this example, the relative position of the lattice point C is (x, y) = (3, 2), and the relative position of the lattice point C ′ is (x, y) = (2.5, 1.9). . This is calculated from the elevation information of the terrain around the vehicle, the direction of the camera, and the angle of view.

地形対応相対位置補正部33は、相対位置算出部29によって算出された相対位置情報を、この原理によって補正する。
従って、自車両周辺の地形が、一様な水平でなく、傾きを含んでいる場合も、その地形情報を用いて自車両21と移動体の相対位置の補正を行うことで、正確な相対位置の算出を行うことができる。
The landform corresponding relative position correcting unit 33 corrects the relative position information calculated by the relative position calculating unit 29 based on this principle.
Accordingly, even when the terrain around the host vehicle is not uniform horizontal and includes an inclination, the relative position between the host vehicle 21 and the moving body is corrected using the terrain information, so that an accurate relative position can be obtained. Can be calculated.

(実施形態8)
本発明による車載用移動体検出装置の実施形態8を、図22〜図24を参照して説明する。なお、図22においても、図1、図15に対応する部分は、図1、図15に付した符号と同一の符号を付けて、その説明を省略する。
(Embodiment 8)
Embodiment 8 of the on-vehicle moving body detection apparatus according to the present invention will be described with reference to FIGS. Also in FIG. 22, parts corresponding to those in FIGS. 1 and 15 are denoted by the same reference numerals as those in FIGS. 1 and 15, and description thereof is omitted.

本実施形態では、実施形態6の車載用移動体検出装置に、傾斜対応相対位置補正部35が追加されている。
本実施形態では、実施形態6の車載用移動体検出装置に、傾斜状態測定部34と、傾斜対応相対位置補正部35とが追加されている。
In the present embodiment, an inclination corresponding relative position correcting unit 35 is added to the vehicle-mounted mobile body detection device of the sixth embodiment.
In the present embodiment, a tilt state measurement unit 34 and a tilt-corresponding relative position correction unit 35 are added to the vehicle-mounted mobile body detection device of the sixth embodiment.

傾斜状態測定部34は、車両に搭載されたジャイロセンサあるいはハイトセンサ、サスペンションアクチュエータなどにより、自車両21の傾斜状態を測定し、傾斜情報を傾斜対応相対位置補正部35に出力する。   The tilt state measuring unit 34 measures the tilt state of the host vehicle 21 using a gyro sensor or height sensor mounted on the vehicle, a suspension actuator, and the like, and outputs tilt information to the tilt corresponding relative position correcting unit 35.

図23は、図5と同様に、自車両周辺の位置情報を平面格子によって模式的に表している。図24は傾斜対応相対位置補正部35が行う相対位置補正を説明する図である。図24はカメラ5を通して図23の格子を見た形となっている。   FIG. 23 schematically shows position information around the host vehicle by a plane lattice, as in FIG. 5. FIG. 24 is a diagram for explaining the relative position correction performed by the inclination corresponding relative position correction unit 35. FIG. 24 shows the shape of the grid shown in FIG.

ここでは、自車両21が傾斜して地平線35が傾いて撮像されている例を示している。図23の格子点Cに対応する点は図24の格子点Cであるが、自車両21が水平の場合には、図24の格子点C’である。   Here, an example is shown in which the host vehicle 21 is tilted and the horizon 35 is tilted and imaged. The points corresponding to the grid point C in FIG. 23 are the grid points C in FIG. 24, but are the grid points C ′ in FIG. 24 when the host vehicle 21 is horizontal.

このように、自車両21の傾斜状態の違いにより、俯瞰図では同一の位置であっても、カメラ5を通して撮像される画像が変化する。この例では、格子点Cの相対位置は(x,y)=(3,2)であり、格子点C’の相対位置は(x,y)=(2.9,1.8)である。これは自車両21の傾斜情報とカメラ5の方向および画角から算出される。   Thus, due to the difference in the inclination state of the host vehicle 21, the image captured through the camera 5 changes even at the same position in the overhead view. In this example, the relative position of the lattice point C is (x, y) = (3, 2), and the relative position of the lattice point C ′ is (x, y) = (2.9, 1.8). . This is calculated from the inclination information of the host vehicle 21, the direction of the camera 5, and the angle of view.

傾斜対応相対位置補正部35は、相対位置算出部29によって算出された相対位置情報を、この原理によって補正する。
従って、自車両周辺の地形が、一様な水平でなく、傾きを含んでいる場合も、自車両21の傾斜状態を測定してこの傾斜状態に基づいて自車両21と移動体の相対位置の補正を行うことで、正確な相対位置の算出を行うことができる。
The inclination corresponding relative position correcting unit 35 corrects the relative position information calculated by the relative position calculating unit 29 based on this principle.
Therefore, even when the terrain around the host vehicle is not uniform horizontal and includes a tilt, the tilt state of the host vehicle 21 is measured, and the relative position of the host vehicle 21 and the moving body is determined based on the tilt state. By performing the correction, an accurate relative position can be calculated.

以下に、本発明による車載用移動体検出装置の効果を要約して説明する。   Below, the effect of the vehicle-mounted moving body detection apparatus by this invention is summarized and demonstrated.

(1)従来は、変化領域内のすべての点について画像間のマッチングを行い、さらに移動距離や接近速度を計算する必要があったため、計算量が膨大となっていた検出プロセスを、移動体検出手段は、画像の差分から得た各変化領域中の最も自車両に近い座標点を座標点のみに限定して移動体として検出するので、画像間のマッチングが不要となり、移動距離や接近速度の計算量を大幅に削減できる。   (1) Conventionally, it has been necessary to perform matching between images for all points in the change area, and to calculate the moving distance and the approach speed. The means detects the coordinate point closest to the host vehicle in each change area obtained from the difference of the images as a moving object only by the coordinate point, so matching between the images becomes unnecessary, and the movement distance and the approach speed are not required. The amount of calculation can be greatly reduced.

(2)車両停止判定部が、自車両がおおよそ停止状態と判定した場合にのみ、撮像された複数の画像の差分を用いるため、移動体以外の背景の部分が一致し、適切に消去することができる。これにより移動体の誤検出を防ぐことができる。   (2) Since the difference between a plurality of captured images is used only when the vehicle stop determination unit determines that the host vehicle is approximately in a stopped state, background parts other than the moving body are matched and appropriately deleted. Can do. Thereby, the erroneous detection of a moving body can be prevented.

(3)画像輝度検出手段が、撮像手段によって撮像された画像中の輝度を検出し、受光量低減手段が、画像輝度検出手段によって所定値以上の輝度が検出された場合に撮像手段の受光量を低減するので、強い光源からの光を受光した場合でも適切な画像が得られ、接近物体を誤検出を防ぐことができる。   (3) When the image luminance detecting means detects the luminance in the image picked up by the image pickup means, and the received light amount reducing means detects a luminance of a predetermined value or more by the image luminance detecting means, the received light amount of the imaging means Therefore, even when light from a strong light source is received, an appropriate image can be obtained, and erroneous detection of an approaching object can be prevented.

(4)領域除外手段が、変化領域抽出手段に用いる画像の地平線上方の領域を除外するので、地平線上方の飛行物体などの誤検出を防ぐという効果を持つ。また地平線下方の処理のみで済むため計算量を削減でき、さらに、画像を一時的に記憶するメモリ容量なども少なくて済む。   (4) Since the area excluding means excludes the area above the horizon of the image used for the change area extracting means, it has the effect of preventing erroneous detection of a flying object above the horizon. In addition, since only the processing below the horizon is required, the amount of calculation can be reduced, and the memory capacity for temporarily storing images can be reduced.

(5)移動体表示手段が、移動体検出手段によって検出した移動体を画像中にマーキングして表示するため、運転者は画像中の移動体がどれであるかを即座に把握することができる。   (5) Since the moving body display means marks and displays the moving body detected by the moving body detection means in the image, the driver can immediately grasp which moving body is in the image. .

(6)距離通知手段が、移動体検出手段によって検出した移動体と自車両との距離を通知するので、カメラの撮像した画像では分かり難いような移動体までの距離を運転者が容易に把握できる。   (6) Since the distance notification means notifies the distance between the moving object detected by the moving object detection means and the host vehicle, the driver can easily grasp the distance to the moving object that is difficult to understand from the image captured by the camera. it can.

(7)相対位置算出手段が、移動体検出手段によって検出した移動体の座標点を座標変換し、自車両との相対位置を算出し、相対位置表示手段がこの相対位置を表示するので、カメラの撮像した画像では分かり難いような移動体までの距離や自車両との相対位置を運転者が容易に把握できる。   (7) Since the relative position calculation means converts the coordinate point of the moving body detected by the moving body detection means, calculates the relative position with the own vehicle, and the relative position display means displays the relative position. The driver can easily grasp the distance to the moving body and the relative position with respect to the host vehicle that are difficult to understand in the captured image.

(8)地形対応相対位置補正手段が、自車両周辺の地形情報を用いて相対位置の補正を行うので、自車両周辺の地形が一様な水平でなく傾きを含んでいる場合も、正確な相対位置の算出を行うことができる。   (8) Since the terrain-compatible relative position correction means corrects the relative position using the terrain information around the host vehicle, the correct terrain around the host vehicle is accurate even when the terrain around the host vehicle is not uniform and horizontal. The relative position can be calculated.

(9)傾斜状態測定手段が自車両の傾斜状態を測定し、傾斜対応相対位置補正手段が、この傾斜状態に基づいて相対位置の補正を行うので、自車両周辺の地形が一様な水平でなく傾きを含んでいる場合も、正確な相対位置の算出を行うことができる。   (9) Since the tilt state measuring means measures the tilt state of the host vehicle and the tilt corresponding relative position correcting unit corrects the relative position based on the tilt state, the topography around the host vehicle is uniform and horizontal. Even when the inclination is included, the relative position can be accurately calculated.

本発明による車載用移動体検出装置の実施形態1を示す構成図。BRIEF DESCRIPTION OF THE DRAWINGS The block diagram which shows Embodiment 1 of the vehicle-mounted moving body detection apparatus by this invention. 図1のカメラの設置例および撮像方向例を示す図。The figure which shows the example of installation of the camera of FIG. 1, and an example of an imaging direction. (a)、(b)は、図1の第一画像記憶部、第二画像記憶部に記憶する画像例を示す図。(A), (b) is a figure which shows the example of an image memorize | stored in the 1st image storage part of FIG. 1, and a 2nd image storage part. (a)、(b)は、変化領域抽出部の動作例を示す図。(A), (b) is a figure which shows the operation example of a change area extraction part. 自車両周辺の位置情報例を示す図。The figure which shows the positional information example around the own vehicle. 距離情報変換部が備える路面距離マップ例を示す図。The figure which shows the road surface distance map example with which a distance information conversion part is provided. 路面距離マップの適用例を示す図。The figure which shows the example of application of a road surface distance map. 本発明による車載用移動体検出装置の実施形態2を示す構成図。The block diagram which shows Embodiment 2 of the vehicle-mounted moving body detection apparatus by this invention. 本発明による車載用移動体検出装置の実施形態3を示す構成図。The block diagram which shows Embodiment 3 of the vehicle-mounted moving body detection apparatus by this invention. 実施形態3による車載用移動体検出装置において地平線上方部分が除外された画像例を示す図。The figure which shows the example of an image in which the upper part of the horizon was excluded in the vehicle-mounted mobile body detection apparatus by Embodiment 3. 本発明による車載用移動体検出装置の実施形態4を示す構成図。The block diagram which shows Embodiment 4 of the vehicle-mounted moving body detection apparatus by this invention. 実施形態4による車載用移動体検出装置における移動体表示部によって表示された画像例を示す図。FIG. 10 is a diagram illustrating an example of an image displayed by a moving body display unit in a vehicle-mounted moving body detection apparatus according to Embodiment 4; 本発明による車載用移動体検出装置の実施形態5を示す構成図。The block diagram which shows Embodiment 5 of the vehicle-mounted moving body detection apparatus by this invention. 実施形態5による車載用移動体検出装置における距離通知部によって通知された表示例を示す図。FIG. 10 is a diagram showing a display example notified by a distance notification unit in the vehicle-mounted mobile body detection device according to the fifth embodiment. 本発明による車載用移動体検出装置の実施形態6を示す構成図。The block diagram which shows Embodiment 6 of the vehicle-mounted moving body detection apparatus by this invention. 実施形態6による自車両周辺の位置情報例を示す図。The figure which shows the positional information example of the own vehicle periphery by Embodiment 6. FIG. 実施形態6による相対位置算出部が備える相対位置マップ例を示す図。FIG. 10 is a diagram illustrating an example of a relative position map included in a relative position calculation unit according to Embodiment 6. 実施形態6による車載用移動体検出装置における相対位置表示部による表示例を示す図。FIG. 10 is a diagram illustrating a display example by a relative position display unit in a vehicle-mounted moving body detection device according to a sixth embodiment. 本発明による車載用移動体検出装置の実施形態7を示す構成図。The block diagram which shows Embodiment 7 of the vehicle-mounted moving body detection apparatus by this invention. 実施形態7による自車両周辺の位置情報例を示す図。The figure which shows the positional information example of the own vehicle periphery by Embodiment 7. FIG. 実施形態7による相対位置補正部による相対位置補正例を示す図。FIG. 10 is a diagram illustrating an example of relative position correction by a relative position correction unit according to Embodiment 7. 本発明による車載用移動体検出装置の実施形態8を示す構成図。The block diagram which shows Embodiment 8 of the vehicle-mounted moving body detection apparatus by this invention. 実施形態8による自車両周辺の位置情報例を示す図。The figure which shows the positional information example of the surroundings of the own vehicle by Embodiment 8. FIG. 実施形態8による相対位置補正部による相対位置補正例を示す図。FIG. 10 is a diagram illustrating an example of relative position correction by a relative position correction unit according to an eighth embodiment.

符号の説明Explanation of symbols

5 カメラ
6 画像信号入力部
7 第一画像記憶部
8 第二画像記憶部
9 変化領域抽出部
10 車速センサ
11 車速信号入力部
12 車両停止判定部
13 距離情報変換部
14 移動体検出部
15 撮像方向
20 抽出された差分成分
20p 移動体として検出された最も自車両に近い座標点
21 自車両
22 画像輝度検出部
23 受光量低減部
24 領域除外部
25 除外された領域
26 移動体表示部
27 検出された移動体
28 距離通知部
29 相対位置算出部
30 相対位置表示部
32 星印によってマーキングされた移動体
33 地形対応相対位置補正部
34 傾斜状態測定部
35 傾斜対応相対位置補正部
5 Camera 6 Image signal input unit 7 First image storage unit 8 Second image storage unit 9 Change area extraction unit 10 Vehicle speed sensor 11 Vehicle speed signal input unit 12 Vehicle stop determination unit 13 Distance information conversion unit 14 Moving body detection unit 15 Imaging direction 20 Extracted differential component 20p Coordinate point closest to own vehicle detected as moving body 21 Own vehicle 22 Image luminance detecting unit 23 Light receiving amount reducing unit 24 Area excluding unit 25 Excluded region 26 Moving object display unit 27 Detected The moving body 28 The distance notification unit 29 The relative position calculation unit 30 The relative position display unit 32 The moving body 33 marked with an asterisk 33 The landform corresponding relative position correction unit 34 The tilt state measurement unit 35 The tilt corresponding relative position correction unit

Claims (9)

自車両周辺を撮像するように車両に設置された撮像手段によって撮像された画像から移動体を検出する車載用移動体検出装置であって、
前記撮像手段によって撮像された複数の画像の差分を用いて1つ以上の変化領域を抽出する変化領域抽出手段と、
前記変化領域抽出手段によって抽出された変化領域中の最も自車両に近い座標点を移動体として検出する移動体検出手段と、
を有することを特徴とする車載用移動体検出装置。
A vehicle-mounted moving body detection device that detects a moving body from an image captured by an imaging unit installed in a vehicle so as to image the periphery of the host vehicle,
Change area extraction means for extracting one or more change areas using differences between a plurality of images captured by the imaging means;
A moving body detecting means for detecting, as a moving body, a coordinate point closest to the host vehicle in the changed area extracted by the changed area extracting means;
A vehicle-mounted moving body detection device comprising:
自車両がおおよそ停止状態かどうかであるか否かを判定する停止状態判定手段を有し、
前記変化領域抽出手段は、前記停止状態判定手段によって自車両がおおよそ停止状態と判定された場合にのみ、前記撮像手段によって撮像された複数の画像の差分を用いて1つ以上の変化領域を抽出することを特徴とする請求項1に記載の車載用移動体検出装置。
Having a stop state determining means for determining whether or not the host vehicle is approximately in a stop state;
The change area extraction unit extracts one or more change areas using a difference between a plurality of images captured by the imaging unit only when the own vehicle is determined to be approximately stopped by the stop state determination unit. The vehicle-mounted mobile body detection device according to claim 1, wherein
前記撮像手段によって撮像された画像中の輝度を検出する画像輝度検出手段と、
前記画像輝度検出手段によって所定値以上の輝度が検出された場合に前記撮像手段の受光量を低減する受光量低減手段を有することを特徴とする請求項1又は2に記載の車載用移動体検出装置。
Image luminance detecting means for detecting luminance in an image captured by the imaging means;
The on-vehicle moving body detection according to claim 1 or 2, further comprising: a received light amount reducing unit configured to reduce a received light amount of the imaging unit when a luminance of a predetermined value or more is detected by the image luminance detecting unit. apparatus.
前記変化領域抽出手段に用いる前記画像の地平線上方の領域を除外する領域除外手段を有することを特徴とする請求項1から3のいずれか一項に記載の車載用移動体検出装置。   The in-vehicle moving body detection apparatus according to any one of claims 1 to 3, further comprising an area excluding unit that excludes an area above the horizon of the image used for the change area extracting unit. 前記移動体検出手段によって検出した移動体を前記画像中にマーキングして表示する移動体表示手段を有することを特徴とする請求項1から4のいずれか一項に記載の車載用移動体検出装置。   The vehicle-mounted mobile body detection device according to any one of claims 1 to 4, further comprising mobile body display means for marking and displaying the mobile body detected by the mobile body detection means in the image. . 前記移動体検出手段によって検出した移動体と自車両との距離を通知する距離通知手段を有することを特徴とする請求項1から5のいずれか一項に記載の車載用移動体検出装置。   The in-vehicle moving body detection device according to claim 1, further comprising a distance notification unit that notifies a distance between the moving body detected by the moving body detection unit and the host vehicle. 前記移動体検出手段によって検出した移動体の座標点を座標変換し、自車両との相対位置を算出する相対位置算出手段と、
前記相対位置算出手段によって算出された相対位置を表示する相対位置表示手段と、
を有することを特徴とする請求項1から6のいずれか一項に記載の車載用移動体検出装置。
A relative position calculating means for converting the coordinate point of the moving body detected by the moving body detecting means and calculating a relative position with the own vehicle;
Relative position display means for displaying the relative position calculated by the relative position calculation means;
The vehicle-mounted mobile body detection device according to claim 1, wherein
自車両周辺の地形情報を用いて前記相対位置算出手段によって算出された相対位置の補正を行う地形対応位置補正手段を有することを特徴とする請求項7に記載の車載用移動体検出装置。   8. The vehicle-mounted moving body detection device according to claim 7, further comprising terrain corresponding position correction means for correcting the relative position calculated by the relative position calculation means using terrain information around the host vehicle. 自車両の傾斜状態を測定する傾斜状態測定手段と、
前記傾斜状態測定手段によって測定された傾斜状態に基づいて前記相対位置算出手段によって算出された相対位置の補正を行う傾斜対応位置補正手段と、
を有することを特徴とする請求項7又は8に記載の車載用移動体検出装置。
A tilt state measuring means for measuring the tilt state of the host vehicle;
A tilt corresponding position correcting unit that corrects the relative position calculated by the relative position calculating unit based on the tilt state measured by the tilt state measuring unit;
The vehicle-mounted mobile body detection device according to claim 7 or 8, characterized by comprising:
JP2005379995A 2005-12-28 2005-12-28 Vehicle-mounted movable body detection instrument Pending JP2007181129A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005379995A JP2007181129A (en) 2005-12-28 2005-12-28 Vehicle-mounted movable body detection instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005379995A JP2007181129A (en) 2005-12-28 2005-12-28 Vehicle-mounted movable body detection instrument

Publications (1)

Publication Number Publication Date
JP2007181129A true JP2007181129A (en) 2007-07-12

Family

ID=38305772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005379995A Pending JP2007181129A (en) 2005-12-28 2005-12-28 Vehicle-mounted movable body detection instrument

Country Status (1)

Country Link
JP (1) JP2007181129A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009230224A (en) * 2008-03-19 2009-10-08 Mazda Motor Corp Surroundings monitoring device for vehicle
JP2011227857A (en) * 2010-03-31 2011-11-10 Saxa Inc Device and method for determining leaving-behind or carrying-away
JP2015501249A (en) * 2011-10-14 2015-01-15 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Device that supports a driver when driving a vehicle or autonomously drives a vehicle
JP2016535377A (en) * 2013-10-02 2016-11-10 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Method and apparatus for displaying the periphery of a vehicle, and driver assistant system
JP2017084068A (en) * 2015-10-27 2017-05-18 富士通テン株式会社 Image processing device and image processing method
JP2019112839A (en) * 2017-12-25 2019-07-11 コベルコ建機株式会社 Obstacle detecting device for construction machine
US10836388B2 (en) 2017-06-29 2020-11-17 Denso Corporation Vehicle control method and apparatus
CN113170047A (en) * 2018-12-13 2021-07-23 索尼集团公司 Control device, control method, and control program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009230224A (en) * 2008-03-19 2009-10-08 Mazda Motor Corp Surroundings monitoring device for vehicle
JP2011227857A (en) * 2010-03-31 2011-11-10 Saxa Inc Device and method for determining leaving-behind or carrying-away
JP2015501249A (en) * 2011-10-14 2015-01-15 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Device that supports a driver when driving a vehicle or autonomously drives a vehicle
JP2016535377A (en) * 2013-10-02 2016-11-10 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Method and apparatus for displaying the periphery of a vehicle, and driver assistant system
JP2017084068A (en) * 2015-10-27 2017-05-18 富士通テン株式会社 Image processing device and image processing method
CN107045620A (en) * 2015-10-27 2017-08-15 富士通天株式会社 Image processing equipment and image processing method
US10127702B2 (en) 2015-10-27 2018-11-13 Fujitsu Ten Limited Image processing device and image processing method
US10836388B2 (en) 2017-06-29 2020-11-17 Denso Corporation Vehicle control method and apparatus
CN111511994A (en) * 2017-12-25 2020-08-07 神钢建机株式会社 Obstacle detection device for construction machine
JP2019112839A (en) * 2017-12-25 2019-07-11 コベルコ建機株式会社 Obstacle detecting device for construction machine
EP3715536A4 (en) * 2017-12-25 2021-02-24 Kobelco Construction Machinery Co., Ltd. Obstacle detection device of construction machine
CN111511994B (en) * 2017-12-25 2022-03-22 神钢建机株式会社 Obstacle detection device for construction machine
US11346085B2 (en) 2017-12-25 2022-05-31 Kobelco Construction Machinery Co., Ltd. Obstacle detection device of construction machine
CN113170047A (en) * 2018-12-13 2021-07-23 索尼集团公司 Control device, control method, and control program
CN113170047B (en) * 2018-12-13 2023-06-30 索尼集团公司 Control device, control method, and control program
US12018926B2 (en) 2018-12-13 2024-06-25 Sony Group Corporation Controller and control method

Similar Documents

Publication Publication Date Title
JP4832321B2 (en) Camera posture estimation apparatus, vehicle, and camera posture estimation method
US8461976B2 (en) On-vehicle device and recognition support system
JP5421072B2 (en) Approaching object detection system
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
EP2485203B1 (en) Vehicle-surroundings monitoring device
JP4861034B2 (en) Car camera calibration system
JP4876118B2 (en) Three-dimensional object appearance detection device
JP2007181129A (en) Vehicle-mounted movable body detection instrument
US11450040B2 (en) Display control device and display system
JP2007235642A (en) Obstruction detecting system
CN103502876A (en) Method and device for calibrating a projection device of a vehicle
JP2009250718A (en) Vehicle position detecting apparatus and vehicle position detection method
CN110378836B (en) Method, system and equipment for acquiring 3D information of object
US20210327113A1 (en) Method and arrangement for producing a surroundings map of a vehicle, textured with image information, and vehicle comprising such an arrangement
JP2013092820A (en) Distance estimation apparatus
JP6407596B2 (en) Image processing apparatus and driving support system
JP5208790B2 (en) Image processing apparatus, image processing method, and program
US20220172490A1 (en) Image processing apparatus, vehicle control apparatus, method, and program
JP2007257304A (en) Obstacle recognition device
JP4752319B2 (en) Image recognition apparatus and image recognition method
JP6961125B2 (en) Vehicle posture measuring device and vehicle posture measuring method
JP6855254B2 (en) Image processing device, image processing system, and image processing method
JP2009062020A (en) Surrounding vehicle display device
WO2022133986A1 (en) Accuracy estimation method and system
JP2010257217A (en) Vehicle circumference monitoring device