JP2010237810A - System and method for detecting moving object - Google Patents

System and method for detecting moving object Download PDF

Info

Publication number
JP2010237810A
JP2010237810A JP2009082889A JP2009082889A JP2010237810A JP 2010237810 A JP2010237810 A JP 2010237810A JP 2009082889 A JP2009082889 A JP 2009082889A JP 2009082889 A JP2009082889 A JP 2009082889A JP 2010237810 A JP2010237810 A JP 2010237810A
Authority
JP
Japan
Prior art keywords
image
feature
vehicle
distance
current position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009082889A
Other languages
Japanese (ja)
Other versions
JP5278108B2 (en
Inventor
Satoru Matsuoka
悟 松岡
Haruhisa Kore
治久 是
Koji Iwase
耕二 岩瀬
Takanori Kume
孝則 久米
Kumiko Maebashi
久美子 前橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2009082889A priority Critical patent/JP5278108B2/en
Publication of JP2010237810A publication Critical patent/JP2010237810A/en
Application granted granted Critical
Publication of JP5278108B2 publication Critical patent/JP5278108B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce burden of process for detecting a moving object in a system and a method for detecting moving object which detect a moving object in the vicinity of a vehicle. <P>SOLUTION: The moving object detecting system A includes an external camera 20, a position detecting sensor 21, database 11-13, a moving object extracting nit 25d, and a moving object distance calculation unit 25e. The moving object extracting nit 25d extracts a moving object, by generating an image of geographic feature of the current position of the vehicle by performing a viewpoint transformation to the image of geographic feature into an image which is viewed from the current position of the vehicle, based on the current position of the vehicle detected by the position detecting sensor 21, and an image of geographic feature, a distance image, and an imaging position stored in the database 11-13; and by performing a differential process to the image captured at the current position of the vehicle by using the external camera 20 and the image of the geographic feature at the current position of the vehicle. By generating a distance image of the current position of the vehicle, the moving object distance calculation unit calculates a distance to the contact position of the moving object extracted by the moving object extracting nit to the ground, based on the distance image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、車両の周囲の移動体を検出する移動体検出システム及び移動体検出方法に関するものである。   The present invention relates to a moving body detection system and a moving body detection method for detecting a moving body around a vehicle.

従来から、車両の周囲を撮像する車載撮像手段の撮像画像に基づいて、移動体までの距離を算出することが知られている。そして、例えば、その移動体までの距離が短いときに、その旨を乗員に報知するため、警報装置を作動させるようになっている。   2. Description of the Related Art Conventionally, it is known to calculate a distance to a moving body based on a captured image of an in-vehicle image capturing unit that captures the periphery of a vehicle. For example, when the distance to the moving body is short, an alarm device is activated to notify the passenger to that effect.

特許文献1のものでは、まず、カメラから異なる時点での画像を取得して記憶装置に記憶して、記憶装置に記憶された異なる時点での画像に基づいてこの画像の各領域における動きベクトルを算出する。次に、車両の走行状態からこの車両の走行する空間のモデルを生成して、生成したモデルに基づいて画像の各領域に対応する仮想的な動きベクトルを算出する。そして、画像の各領域に対する動きベクトルと各領域に対応する仮想的な動きベクトルとの差分を検出して、この差分に基づいて障害物を検出して、その障害物までの距離を算出する。
特開2008−140155号公報
In Patent Document 1, first, an image at a different time point is acquired from a camera and stored in a storage device, and a motion vector in each region of this image is obtained based on the image at a different time point stored in the storage device. calculate. Next, a model of a space in which the vehicle travels is generated from the traveling state of the vehicle, and virtual motion vectors corresponding to each region of the image are calculated based on the generated model. Then, a difference between a motion vector for each region of the image and a virtual motion vector corresponding to each region is detected, an obstacle is detected based on the difference, and a distance to the obstacle is calculated.
JP 2008-140155 A

しかしながら、特許文献1のものでは、動きベクトルと仮想的な動きベクトルとの差分を検出して、この差分に基づいて障害物を検出するため、その検出の処理負担が大きい。   However, since the thing of patent document 1 detects the difference of a motion vector and a virtual motion vector, and detects an obstacle based on this difference, the processing burden of the detection is large.

本発明は、かかる点に鑑みてなされたものであり、その目的とするところは、車両の周囲の移動体を検出する移動体検出システム及び移動体検出方法において、移動体検出の処理負担を軽減することにある。   The present invention has been made in view of the above points, and an object of the present invention is to reduce the processing load of moving object detection in a moving object detection system and a moving object detection method for detecting a moving object around a vehicle. There is to do.

第1の発明は、車両に搭載され、該車両の周囲を撮像する撮像手段と、上記車両の現在位置を検出する位置検出手段と、撮像画像から移動体を削除した地物画像と該地物画像に対応する距離画像と該地物画像の撮像位置の情報とを記憶する画像記憶手段と、上記位置検出手段により検出された車両の現在位置の情報と上記画像記憶手段により記憶された地物画像、距離画像、及び撮像位置の情報とに基づいて、該地物画像を上記車両の現在位置から見える画像に視点変換することにより、上記車両の現在位置における地物画像を作成して、上記撮像手段により車両の現在位置で撮像された撮像画像と上記車両の現在位置における地物画像とを差分処理して差分領域を移動体として抽出する移動体抽出手段と、少なくとも、上記車両の現在位置における上記移動体抽出手段により抽出された移動体の接地部分の距離画像を含む、上記車両の現在位置における距離画像を作成して、該距離画像に基づいて、上記移動体の接地部分までの距離を該移動体までの距離として算出する移動体距離算出手段とを備えていることを特徴とする移動体検出システムである。   According to a first aspect of the present invention, there is provided an image pickup means mounted on a vehicle for picking up an image around the vehicle, a position detection means for detecting a current position of the vehicle, a feature image obtained by deleting a moving body from the picked-up image, and the feature Image storage means for storing the distance image corresponding to the image and information on the imaging position of the feature image, information on the current position of the vehicle detected by the position detection means, and the feature stored by the image storage means Based on the image, the distance image, and the imaging position information, the feature image at the current position of the vehicle is created by converting the viewpoint of the feature image into an image that can be seen from the current position of the vehicle. A moving body extracting means for extracting a difference area as a moving body by performing a difference process between a captured image captured at the current position of the vehicle by the imaging means and a feature image at the current position of the vehicle; and at least the current position of the vehicle A distance image at the current position of the vehicle including a distance image of the ground contact portion of the mobile body extracted by the mobile body extraction means in the vehicle, and a distance to the ground contact portion of the mobile body based on the distance image And a moving object distance calculating means for calculating the distance to the moving object.

これにより、移動体抽出手段により、位置検出手段により検出された車両の現在位置の情報と画像記憶手段により記憶された地物画像、この地物画像に対応する距離画像、その地物画像の撮像位置の情報とに基づいて、その地物画像を車両の現在位置から見える画像に視点変換することにより、車両の現在位置における地物画像を作成するので、撮像手段により車両の現在位置で撮像された撮像画像と地物画像とのずれを小さくすることができ、その差分処理の負担、ひいては、移動体検出及び移動体までの距離算出の処理負担を軽減することができる。   Thereby, the moving body extracting means captures the current position information of the vehicle detected by the position detecting means, the feature image stored by the image storage means, the distance image corresponding to the feature image, and the imaging of the feature image. The feature image at the current position of the vehicle is created by converting the viewpoint of the feature image into an image that can be seen from the current position of the vehicle based on the position information. The difference between the captured image and the feature image can be reduced, and the burden of the difference processing, and hence the processing load of the mobile object detection and the distance calculation to the mobile object can be reduced.

第2の発明は、上記第1の発明において、上記移動体抽出手段は、異なる位置における複数の地物画像を上記車両の現在位置から見える画像に視点変換して、該視点変換した各地物画像の欠落領域を互いに補完することにより、上記車両の現在位置における1つの地物画像を作成するように構成されていることを特徴とするものである。   In a second aspect based on the first aspect, the moving body extraction means converts the viewpoint of a plurality of feature images at different positions into an image that can be seen from the current position of the vehicle, and the feature image that has undergone the viewpoint conversion. By complementing each other missing region, one feature image at the current position of the vehicle is created.

これにより、移動体抽出手段により、異なる位置における複数の地物画像を車両の現在位置から見える画像に視点変換して、その視点変換した各地物画像の欠落領域を互いに補完することにより、車両の現在位置における1つの地物画像を作成するので、欠落領域のない、車両の現在位置における地物画像を作成することができ、移動体を精度よく抽出することができる。   Thus, the moving object extracting means converts the plurality of feature images at different positions into images that can be seen from the current position of the vehicle, and complements the missing regions of the feature images that have undergone the viewpoint conversion. Since one feature image at the current position is created, a feature image at the current position of the vehicle without a missing region can be created, and a moving object can be extracted with high accuracy.

第3の発明は、上記第1の発明において、上記移動体距離算出手段は、上記車両の現在位置における上記移動体の接地部分の距離画像のみを作成するように構成されていることを特徴とするものである。   According to a third invention, in the first invention, the moving body distance calculating means is configured to create only a distance image of a ground contact portion of the moving body at a current position of the vehicle. To do.

これにより、移動体距離算出手段により、車両の現在位置における移動体の接地部分の距離画像のみを作成するので、移動体検出の処理負担を軽減することができる。   Thereby, only the distance image of the ground contact portion of the moving body at the current position of the vehicle is created by the moving body distance calculating means, so that the processing load of the moving body detection can be reduced.

第4の発明は、上記第1の発明において、上記地物画像を作成して、該地物画像を上記画像記憶手段に記憶させる地物画像作成手段と、上記距離画像を作成して、該距離画像を上記画像記憶手段に記憶させる距離画像作成手段とをさらに備えており、上記画像記憶手段、上記地物画像作成手段、及び上記距離画像作成手段は、上記車両の外部に設置されかつ上記車両との間で相互通信可能な情報センターに設けられていることを特徴とするものである。   According to a fourth invention, in the first invention, the feature image is created by creating the feature image and storing the feature image in the image storage means, and the distance image is created, A distance image creating means for storing a distance image in the image storage means, wherein the image storage means, the feature image creating means, and the distance image creating means are installed outside the vehicle and It is provided in an information center capable of mutual communication with a vehicle.

これにより、画像記憶手段、地物画像を作成する地物画像作成手段、及び距離画像を作成する距離画像作成手段を情報センターに設けているので、車両側の移動体検出の処理負担を軽減することができる。   As a result, the information storage means, the feature image creating means for creating the feature image, and the distance image creating means for creating the distance image are provided in the information center, thereby reducing the processing load of the moving object detection on the vehicle side. be able to.

第5の発明は、上記第4の発明において、上記移動体抽出手段及び上記移動体距離算出手段は、上記車両に搭載されており、上記情報センターは、上記車両が予め設定された所定の位置にあるときに、上記画像記憶手段により記憶された地物画像、距離画像、及び撮像位置の情報を上記車両に送信するように構成されていることを特徴とするものである。   In a fifth aspect based on the fourth aspect, the moving body extracting means and the moving body distance calculating means are mounted on the vehicle, and the information center is a predetermined position where the vehicle is set in advance. The feature image, the distance image, and the information on the imaging position stored by the image storage means are transmitted to the vehicle.

これにより、情報センターは、車両が予め設定された所定の位置にあるときに、画像記憶手段により記憶された地物画像、距離画像、及び撮像位置の情報を車両に送信するので、車両側からその送信要求をすることなく、車両はその提供を受けることができる。   As a result, the information center transmits the feature image, the distance image, and the imaging position information stored by the image storage means to the vehicle when the vehicle is at a predetermined position set in advance. The vehicle can receive the provision without requesting the transmission.

第6の発明は、上記第1の発明において、上記画像記憶手段により記憶された地物画像と、該地物画像に対応する撮像画像を撮像した後に撮像された撮像画像に対応する、上記画像記憶手段により記憶された地物画像と同じ撮像位置における地物画像とを差分処理して、差分領域を新設又は撤去された地物として抽出して、上記画像記憶手段により記憶された地物画像を更新する新設/撤去地物抽出手段をさらに備えていることを特徴とするものである。   In a sixth aspect based on the first aspect, the image corresponding to the feature image stored by the image storage means and the captured image captured after capturing the captured image corresponding to the feature image. The feature image stored in the storage means and the feature image at the same imaging position are subjected to differential processing, and the difference area is extracted as a newly created or removed feature, and the feature image stored in the image storage means is stored. And a new / removed feature extracting means for updating the system.

これにより、新設/撤去地物抽出手段により、画像記憶手段により記憶された地物画像と、この地物画像に対応する撮像画像を撮像した後に撮像された撮像画像に対応する、その画像記憶手段により記憶された地物画像と同じ撮像位置における地物画像とを差分処理して、その差分領域を新設又は撤去された地物として抽出して、その画像記憶手段により記憶された地物画像を更新するので、新設又は撤去された地物を移動体として抽出することを抑制でき、移動体の誤検出を抑制することができる。   Thus, the image storage unit corresponding to the captured image captured after the feature image stored by the image storage unit and the captured image corresponding to the feature image are captured by the new / removed feature extraction unit. The feature image stored at the same position as the feature image stored at the same imaging position is subjected to differential processing, and the difference area is extracted as a newly added or removed feature, and the feature image stored by the image storage means is extracted. Since it updates, it can suppress extracting the newly installed or removed feature as a moving body, and can suppress the misdetection of a moving body.

第7の発明は、上記第1の発明において、異なる位置における複数の地物画像をマッチング処理して視差を算出して、該視差に基づいて、上記複数の地物画像のうちいずれかの地物画像に対応する距離画像を作成して、上記距離画像を上記画像記憶手段に記憶させる距離画像作成手段をさらに備えていることを特徴とするものである。   In a seventh aspect based on the first aspect, a plurality of feature images at different positions are subjected to matching processing to calculate a parallax, and one of the plurality of feature images is selected based on the parallax. It further comprises distance image creating means for creating a distance image corresponding to the object image and storing the distance image in the image storage means.

これにより、距離画像作成手段により、距離画像を作成することができる。   Thereby, a distance image can be created by the distance image creating means.

第8の発明は、上記第7の発明において、上記距離画像作成手段は、上記複数の地物画像を予め設定された所定の領域でマッチング処理するように構成されていることを特徴とするものである。   In an eighth aspect based on the seventh aspect, the distance image creating means is configured to perform a matching process on the plurality of feature images in a predetermined region set in advance. It is.

これにより、距離画像作成手段により、複数の地物画像を予め設定された所定の領域でマッチング処理するので、精密な距離画像を作成することができ、移動体までの距離を精度よく算出することができる。   As a result, the distance image creating means performs a matching process on a plurality of feature images in a predetermined region set in advance, so that a precise distance image can be created and the distance to the moving object can be calculated with high accuracy. Can do.

第9の発明は、上記第7の発明において、上記距離画像作成手段は、上記複数の地物画像のうちいずれかの地物画像に対応する複数の距離画像を作成して、該複数の距離画像の距離情報を統計処理することにより、1つの距離画像を作成するように構成されていることを特徴とするものである。   In a ninth aspect based on the seventh aspect, the distance image creating means creates a plurality of distance images corresponding to any one of the plurality of feature images, and the plurality of distances. It is configured to create one distance image by statistically processing the distance information of the image.

これにより、距離画像作成手段により、複数の地物画像のうちいずれかの地物画像に対応する複数の距離画像を作成して、その複数の距離画像の距離情報を統計処理することにより、1つの距離画像を作成するので、精密な距離画像を作成することができ、移動体までの距離を精度よく算出することができる。   Thus, the distance image creating means creates a plurality of distance images corresponding to any one of the plurality of feature images, and statistically processes the distance information of the plurality of distance images, thereby obtaining 1 Since two distance images are created, a precise distance image can be created, and the distance to the moving body can be calculated with high accuracy.

第10の発明は、上記第1の発明において、上記撮像手段により車両の現在位置で撮像された撮像画像と該車両の現在位置における地物画像とをマッチング処理して視差を算出して、該視差に基づいて、上記車両の位置補正量及び該車両のピッチ角のうち少なくとも一方を算出する位置補正/ピッチ角算出手段をさらに備えていることを特徴とするものである。   In a tenth aspect based on the first aspect, a parallax is calculated by performing a matching process on the captured image captured at the current position of the vehicle by the imaging means and the feature image at the current position of the vehicle, The apparatus further comprises position correction / pitch angle calculating means for calculating at least one of the position correction amount of the vehicle and the pitch angle of the vehicle based on the parallax.

これにより、位置補正/ピッチ角算出手段により、撮像手段により車両の現在位置で撮像された撮像画像と車両の現在位置における地物画像とをマッチング処理して視差を算出して、その視差に基づいて、車両の位置補正量及び車両のピッチ角のうち少なくとも一方を算出する。つまり、撮像手段の撮像画像を利用して、車両の位置補正量及び車両のピッチ角のうち少なくとも一方を算出することができる。   Accordingly, the position correction / pitch angle calculation means calculates the parallax by matching the captured image captured at the current position of the vehicle by the imaging means with the feature image at the current position of the vehicle, and based on the parallax. Then, at least one of the vehicle position correction amount and the vehicle pitch angle is calculated. That is, it is possible to calculate at least one of the vehicle position correction amount and the vehicle pitch angle by using the captured image of the imaging means.

第11の発明は、車両に搭載され、該車両の周囲を撮像する撮像手段と、撮像画像から移動体を削除した地物画像と該地物画像に対応する距離画像と該地物画像の撮像位置の情報とを記憶する画像記憶手段とを設けておき、上記車両の現在位置を検出する位置検出工程と、上記位置検出工程により検出された車両の現在位置の情報と上記画像記憶手段により記憶された地物画像、距離画像、及び撮像位置の情報とに基づいて、該地物画像を上記車両の現在位置から見える画像に視点変換することにより、上記車両の現在位置における地物画像を作成して、上記撮像手段により車両の現在位置で撮像された撮像画像と上記車両の現在位置における地物画像とを差分処理して差分領域を移動体として抽出する移動体抽出工程と、少なくとも、上記車両の現在位置における上記移動体抽出工程により抽出された移動体の接地部分の距離画像を含む、上記車両の現在位置における距離画像を作成して、該距離画像に基づいて、上記移動体の接地部分までの距離を該移動体までの距離として算出する移動体距離算出工程とを備えていることを特徴とする移動体検出方法である。   An eleventh aspect of the present invention is an image pickup unit mounted on a vehicle for picking up an image of the surroundings of the vehicle, a feature image obtained by deleting a moving body from the picked-up image, a distance image corresponding to the feature image, and the pickup of the feature image Image storage means for storing position information is provided, a position detection step for detecting the current position of the vehicle, information on the current position of the vehicle detected by the position detection step, and storage by the image storage means. The feature image at the current position of the vehicle is created by converting the viewpoint of the feature image into an image that can be seen from the current position of the vehicle based on the obtained feature image, the distance image, and the imaging position information. A moving body extraction step of performing differential processing between the captured image captured at the current position of the vehicle by the imaging means and the feature image at the current position of the vehicle and extracting the difference area as a moving body; A distance image at the current position of the vehicle including a distance image of the ground contact portion of the moving object extracted by the moving object extracting step at both current positions is created, and the grounding of the moving object is performed based on the distance image. And a moving body distance calculating step of calculating a distance to the part as a distance to the moving body.

これにより、上記第1の発明と同様の作用効果が得られる。   Thereby, the same effect as that of the first invention can be obtained.

本発明によれば、移動体抽出手段により、位置検出手段により検出された車両の現在位置の情報と画像記憶手段により記憶された地物画像、この地物画像に対応する距離画像、その地物画像の撮像位置の情報とに基づいて、その地物画像を車両の現在位置から見える画像に視点変換することにより、車両の現在位置における地物画像を作成するので、撮像手段により車両の現在位置で撮像された撮像画像と地物画像とのずれを小さくすることができ、その差分処理の負担、ひいては、移動体検出及び移動体までの距離算出の処理負担を軽減することができる。   According to the present invention, the moving body extracting means detects the current position information of the vehicle detected by the position detecting means, the feature image stored by the image storage means, the distance image corresponding to the feature image, and the feature. The feature image at the current position of the vehicle is created by converting the viewpoint of the feature image into an image that can be seen from the current position of the vehicle based on the information on the imaging position of the image. The difference between the picked-up image picked up by the image and the feature image can be reduced, and the burden of the difference processing, and hence the load of detecting the moving object and calculating the distance to the moving object can be reduced.

以下、本発明の実施形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態に係る移動体検出システムAのブロック図を示し、図2は、移動体検出システムAの車載ユニット2を搭載した車両Vを示している。この移動体検出システムAの情報センター(基地局)1は、車両Vの外部に設置されていて、移動体検出システムAの車載ユニット2との間でデータを相互通信するための送受信機10と、この送受信機10により受信した受信画像のデータなどを記憶する取得画像データベース11と、下記地物輝度画像のデータなどを記憶する地物輝度画像データベース12と、下記地物距離画像のデータなどを記憶する地物距離画像データベース13と、地物輝度画像や地物距離画像などを車載ユニット2に提供するサーバ14とを備えており、これらは相互通信可能に接続されている。尚、取得画像データベース11、地物輝度画像データベース12、及び地物距離画像データベース13は、本発明の画像記憶手段を構成している。また、地物輝度画像は本発明の地物画像に、地物距離画像は本発明の距離画像に対応する。   FIG. 1 shows a block diagram of a mobile body detection system A according to an embodiment of the present invention, and FIG. 2 shows a vehicle V on which an in-vehicle unit 2 of the mobile body detection system A is mounted. An information center (base station) 1 of the mobile body detection system A is installed outside the vehicle V, and a transceiver 10 for communicating data with the in-vehicle unit 2 of the mobile body detection system A. The acquired image database 11 for storing the received image data received by the transceiver 10, the feature luminance image database 12 for storing the following feature luminance image data, the following feature distance image data, and the like. A feature distance image database 13 to be stored and a server 14 that provides a feature luminance image, a feature distance image, and the like to the in-vehicle unit 2 are provided, and these are connected to be able to communicate with each other. The acquired image database 11, the feature luminance image database 12, and the feature distance image database 13 constitute the image storage means of the present invention. The feature luminance image corresponds to the feature image of the present invention, and the feature distance image corresponds to the distance image of the present invention.

上記送受信機10は、サーバ14の送信データ作成処理部14eにより作成された送信データを車載ユニット2に送信する送信部10aと、車載ユニット2からの送信データを受信する受信部10bとを有している。   The transceiver 10 includes a transmission unit 10a that transmits transmission data created by the transmission data creation processing unit 14e of the server 14 to the in-vehicle unit 2, and a reception unit 10b that receives transmission data from the in-vehicle unit 2. ing.

上記取得画像データベース11は、受信部10bにより受信した、車載ユニット2の外界カメラ20の撮像画像(輝度画像)並びにその撮像位置及び撮像日時のデータを対応付けて記憶するようになっている。具体的には、取得画像データベース11は、自車両V及び他車両(図示せず)の外界カメラ20の撮像画像のうちその撮像位置が予め設定された所定の撮像位置である撮像画像、並びにその撮像位置及び撮像日時のデータを対応付けて記憶する。尚、所定の撮像位置とは、例えば、図4に示すA地点やB地点のように、道路上に所定の間隔毎(例えば、数m〜数十m毎)に設定された撮像地点である。   The acquired image database 11 stores the captured image (luminance image) of the external camera 20 of the in-vehicle unit 2 and the data of the imaging position and the imaging date and time received by the receiving unit 10b in association with each other. Specifically, the acquired image database 11 includes a captured image that is a predetermined imaging position in which the imaging position is preset among the captured images of the external camera 20 of the host vehicle V and other vehicles (not shown), and The imaging position and imaging date / time data are stored in association with each other. The predetermined imaging position is an imaging point set at predetermined intervals (for example, every several m to several tens of meters) on the road, for example, as point A and point B shown in FIG. .

上記地物輝度画像データベース12は、上記撮像画像から移動体を削除した地物輝度画像並びにその地物輝度画像に対応する撮像画像の撮像位置及び撮像日時のデータを対応付けて記憶するようになっている。上記地物距離画像データベース13は、複数の地物輝度画像を周知の三角測量法で処理して画素毎の距離を求めることにより得られる地物距離画像並びにその地物距離画像に対応する撮像画像の撮像位置及び撮像日時のデータを記憶するようになっている。   The feature brightness image database 12 stores the feature brightness image obtained by deleting the moving object from the captured image, and the imaging position and date / time data of the captured image corresponding to the feature brightness image in association with each other. ing. The feature distance image database 13 is a feature distance image obtained by processing a plurality of feature luminance images by a known triangulation method to obtain a distance for each pixel, and a captured image corresponding to the feature distance image. The data of the imaging position and the imaging date and time are stored.

上記サーバ14は、地物輝度画像を作成する地物輝度画像作成処理を行う地物輝度画像作成処理部14a(地物画像作成手段)と、この地物輝度画像作成処理部14aにより作成された地物輝度画像から新設又は撤去された地物を抽出する新設/撤去地物抽出処理を行う新設/撤去地物抽出処理部14b(新設/撤去地物抽出手段)と、地物輝度画像作成処理部14aにより作成された地物輝度画像の領域属性データを作成する領域属性テータ作成処理を行う領域属性データ作成処理部14cと、地物輝度画像作成処理部14aにより作成された地物輝度画像に対応する地物距離画像を作成する地物距離画像作成処理を行う地物距離画像作成処理部14d(距離画像作成手段)と、車載ユニット2に送信する送信データを作成する送信データ作成処理を行う送信データ作成処理部14eとを有しており、これらは相互通信可能に接続されている。   The server 14 is created by a feature brightness image creation processing unit 14a (feature image creation means) that performs a feature brightness image creation process for creating a feature brightness image, and the feature brightness image creation processing unit 14a. New / removed feature extraction processing unit 14b (new / removed feature extraction means) for performing a new / removed feature extraction process for extracting new or removed features from the feature luminance image, and a feature luminance image creation process A region attribute data creation processing unit 14c that performs region attribute data creation processing for creating region attribute data of the feature brightness image created by the unit 14a, and a feature brightness image created by the feature brightness image creation processing unit 14a. A feature distance image creation processing unit 14d (distance image creation means) that performs feature distance image creation processing for creating a corresponding feature distance image, and transmission data for creating transmission data to be transmitted to the in-vehicle unit 2 Has a transmission data generation processing unit 14e for performing conversion treatment, it is mutually communicably connected.

上記地物輝度画像作成処理部14aは、取得画像データベース11により記憶された、外界カメラ20の各撮像画像から移動体を削除した地物輝度画像を作成して、その地物輝度画像のデータを、これに対応する撮像画像の撮像位置及び撮像日時のデータと対応付けて地物輝度画像データベース12に新設/撤去地物抽出処理部14b及び領域属性データ作成処理部14cを介して記憶させるようになっている。   The feature brightness image creation processing unit 14a creates a feature brightness image in which the moving body is deleted from each captured image of the external camera 20 stored in the acquired image database 11, and uses the data of the feature brightness image. The feature luminance image database 12 is stored in the feature brightness image database 12 via the new / removed feature extraction processing unit 14b and the region attribute data creation processing unit 14c in association with the data of the imaging position and the imaging date / time of the captured image corresponding to this. It has become.

以下、図3を参照しながら、地物輝度画像作成処理部14aの地物輝度画像作成処理の一例を示す。まず、外界カメラ20により或る撮像地点(図の例ではB地点)近傍で連続撮像された複数(図の例では2つ)の撮像画像(車載カメラ画像(輝度画像))を比較して差分処理して、その差分領域(差分抽出像)を移動体(図の例では歩行者P)として抽出する。次に、その2つの撮像画像のうちいずれか1つの撮像画像からその歩行者Pを削除してB地点の地物輝度画像を作成する。そして、その地物輝度画像のデータを、これに対応する撮像画像の撮像位置(図の例ではB地点)及び撮像日時のデータと対応付けて地物輝度画像データベース12に記憶させる。また、上記のようにして、移動体を削除した、建物や道路などの静止物だけからなる、B地点以外の他の所定の撮像地点(A地点、…)における地物輝度画像も作成して、地物輝度画像データベース12に記憶させる。尚、地物輝度画像は、プローブカーなどにより撮影された撮影画像に基づいて、所定の撮影地点毎に予め作成して、記憶させてもよい。   Hereinafter, an example of the feature luminance image creation processing of the feature luminance image creation processing unit 14a will be described with reference to FIG. First, a plurality of (two in the illustrated example) captured images (in-vehicle camera images (luminance images)) continuously captured in the vicinity of a certain imaging point (point B in the illustrated example) by the external camera 20 are compared and the difference is obtained. It processes and extracts the difference area (difference extraction image) as a mobile body (pedestrian P in the example of a figure). Next, the pedestrian P is deleted from any one of the two captured images, and a feature luminance image at the point B is created. Then, the feature luminance image data is stored in the feature luminance image database 12 in association with the imaging position (point B in the example in the figure) and imaging date / time data corresponding to the feature luminance image data. In addition, as described above, a feature luminance image is also created at a predetermined imaging point (point A,...) Other than point B, which includes only stationary objects such as buildings and roads from which the moving object is deleted. The feature brightness image database 12 is stored. Note that the feature luminance image may be created and stored in advance for each predetermined photographing point based on a photographed image photographed by a probe car or the like.

以下、図4を参照しながら、地物輝度画像作成処理部14aの地物輝度画像作成処理の他の例を示す。まず、外界カメラ20により或る2つの所定の撮像地点(図の例では、A地点と、車両Vの現在位置であるB地点)で撮像された2つの撮像画像(車載カメラ画像(輝度画像))のうちA地点の撮像画像やA地点及びB地点の位置データに基づいて、A地点の撮像画像をB地点の車両Vの外界カメラ20から見える画像に視点変換する。次に、B地点の撮像画像とその視点変換した撮像画像とを比較して差分処理して、その差分領域(差分抽出像)を移動体(図の例では歩行者P)として抽出する。それから、車両Vの現在位置であるB地点の撮像画像からその歩行者Pを削除してB地点の地物輝度画像を作成する。そして、その地物輝度画像のデータを、これに対応する撮像画像の撮像地点(図の例ではB地点)及び撮像日時のデータと対応付けて地物輝度画像データベース12に記憶させる。また、上記のようにして、B地点以外の他の所定の撮像地点における地物輝度画像も作成する。   Hereinafter, another example of the feature luminance image creation processing of the feature luminance image creation processing unit 14a will be described with reference to FIG. First, two captured images (in-vehicle camera image (luminance image) captured by the external camera 20 at a certain two predetermined imaging points (A point in the example and B point which is the current position of the vehicle V). ), The viewpoint of the captured image at the point A is converted into an image that can be seen from the external camera 20 of the vehicle V at the point B based on the captured image at the point A and the position data of the points A and B. Next, the picked-up image of the point B and the picked-up image obtained by converting the viewpoint are compared, and a difference process (difference extracted image) is extracted as a moving object (pedestrian P in the example in the figure). Then, the pedestrian P is deleted from the captured image of the B point that is the current position of the vehicle V, and a feature luminance image of the B point is created. Then, the feature luminance image data is stored in the feature luminance image database 12 in association with the imaging point (point B in the example in the figure) and imaging date / time data of the captured image corresponding to the feature luminance image data. In addition, as described above, a feature luminance image at a predetermined imaging point other than the point B is also created.

上記視点変換処理は、既知のものであり、例えば、まず、A地点の撮像画像に基づいて、A地点の俯瞰図を作成して、次に、その俯瞰図やB地点の位置データに基づいて、A地点の俯瞰図をB地点から俯瞰した画像に視点変換することにより、B地点の俯瞰図を作成して、そして、その俯瞰図に基づいて、A地点の撮像画像をB地点の車両Vの外界カメラ20から見える画像に視点変換した画像を作成することにより行われる。尚、以下に示す視点変換処理も、この視点変換処理とほぼ同様の工程により行われる。   The viewpoint conversion process is known. For example, first, an overhead view of point A is created based on a captured image of point A, and then, based on the overhead view and position data of point B. The overhead view of the point A is converted into an image obtained by looking down from the point B to create an overhead view of the point B. Based on the overhead view, the captured image of the point A is obtained from the vehicle V at the point B. This is performed by creating an image whose viewpoint is converted to an image that can be seen from the external camera 20. Note that the viewpoint conversion process described below is also performed by substantially the same process as the viewpoint conversion process.

上記新設/撤去地物抽出処理部14bは、地物輝度画像データベース12により記憶された地物輝度画像と、この地物輝度画像に対応する撮像画像を撮像した後(その地物輝度画像を地物輝度画像データベース12に記憶させた後)に撮像された撮像画像に対応する、その地物輝度画像データベース12により記憶された地物輝度画像と略同じ撮像位置における地物輝度画像とを比較して差分処理して、その差分領域を新設又は撤去された地物として抽出して、その地物輝度画像データベース12により記憶された地物輝度画像を、この地物輝度画像からその差分領域が付加又は削除された地物輝度画像に更新するようになっている。   The new / removed feature extraction processing unit 14b captures a feature brightness image stored in the feature brightness image database 12 and a captured image corresponding to the feature brightness image (the feature brightness image is The feature brightness image stored in the feature brightness image database 12 corresponding to the captured image captured after being stored in the object brightness image database 12 is compared with the feature brightness image at substantially the same imaging position. Then, the difference area is extracted as a feature that has been newly created or removed, and the feature brightness image stored in the feature brightness image database 12 is added to the feature brightness image from the feature brightness image. Or it updates to the deleted feature luminance image.

以下、図5を参照しながら、新設/撤去地物抽出処理部14bの新設/撤去地物抽出処理の一例を示す。まず、地物輝度画像データベース12により記憶されたA地点の過去(例えば、数日前)の地物輝度画像と、A地点の現在の地物輝度画像(即ち、地物輝度画像作成処理部14aにより作成されたA地点の地物輝度画像)とを比較して差分処理して、その差分領域(差分画像)を新設又は撤去された地物(図の例では、路肩に新設された地物である道路標識)として抽出する。そして、A地点の過去の地物輝度画像を、この地物輝度画像からその地物が付加された地物輝度画像(即ち、A地点の現在の地物輝度画像)に更新する。また、A地点以外の他の所定の撮像地点(B地点など)における地物輝度画像に対しても、新設/撤去地物抽出処理を行い、新設又は撤去された地物が抽出された場合、地物輝度画像を更新する。尚、A地点の過去の地物輝度画像とA地点の現在の地物輝度画像とを複数回比較・差分処理して(即ち、過去の地物輝度画像と互いに異なる日時における複数の地物輝度画像とを比較・差分処理して)、略同じ差分領域を複数回抽出した場合、その差分領域を新設又は撤去された地物と判定してもよい。   Hereinafter, an example of the new / removed feature extraction process of the new / removed feature extraction processing unit 14b will be described with reference to FIG. First, the past feature luminance image of the point A (for example, several days ago) stored in the feature luminance image database 12 and the current feature luminance image of the point A (that is, the feature luminance image creation processing unit 14a). The difference brightness (difference image) is newly created or removed (in the example in the figure, the feature newly established on the shoulder of the road). It is extracted as a certain road sign). Then, the past feature luminance image at the point A is updated to the feature luminance image to which the feature is added from the feature luminance image (that is, the current feature luminance image at the point A). In addition, when a new / removed feature extraction process is performed on a feature luminance image at a predetermined imaging point (such as a B point) other than the point A, and a new or removed feature is extracted, Update feature luminance image. It should be noted that the past feature luminance image at the point A and the current feature luminance image at the point A are compared / differed a plurality of times (that is, a plurality of feature luminances at different dates and times from the past feature luminance image). In the case where substantially the same difference area is extracted a plurality of times by comparing / differing with the image), the difference area may be determined as a newly-installed or removed feature.

上記領域属性データ作成処理部14cは、地物輝度画像作成処理部14aにより作成された地物輝度画像における各地物が存在すると推定される各領域(例えば、建造物や電柱、道路標識、樹木、ガードレール、地面、歩道、横断歩道、道路区画線、路面表示、道路端の段差などの領域。図10の下2つの画像を参照)の、地物輝度画像の全体に対する位置に基づいて、領域属性データを作成して、その領域属性データを地物輝度画像と対応付けて地物輝度画像データベース12に記憶させるようになっている。この領域属性データは、その領域の種類を示すデータと、その領域の用途を示すデータとを含んでいる。道路標識の領域は、地物距離画像を作成する際のマッチング処理や車両Vの位置補正量を算出する際のマッチング処理などに用いられる。道路区画線の領域は、車両Vのピッチ角を算出する際のマッチング処理などに用いられる。尚、マッチング処理に用いられる領域は、これに限定されず、経年変化しにくい地物、例えば、建造物や道路端の段差の領域などであってもよい。   The region attribute data creation processing unit 14c is configured to estimate each region (for example, a building, a power pole, a road sign, a tree, a feature in the feature brightness image created by the feature brightness image creation processing unit 14a). Area attributes such as guardrails, ground, sidewalks, pedestrian crossings, road lane markings, road surface indications, road edge steps, etc. (see the bottom two images in FIG. 10) Data is created, and the region attribute data is stored in the feature luminance image database 12 in association with the feature luminance image. This area attribute data includes data indicating the type of the area and data indicating the use of the area. The road sign area is used for matching processing when creating a feature distance image, matching processing when calculating the position correction amount of the vehicle V, and the like. The area of the road marking line is used for a matching process when calculating the pitch angle of the vehicle V. Note that the region used for the matching process is not limited to this, and may be a feature that hardly changes over time, such as a building or a stepped region on a road edge.

上記地物距離画像作成処理部14dは、地物輝度画像作成処理部14aにより作成された複数の地物輝度画像(地物輝度画像データベース12により記憶された地物輝度画像)を周知の三角測量法で処理して画素毎の距離を求めることにより、地物距離画像を作成して、その地物距離画像のデータを、これに対応する撮像画像の撮像位置及び撮像日時のデータと対応付けて地物距離画像データベース13に記憶させるようになっている。尚、地物距離画像は、その画素毎に距離のデータを有している。   The feature distance image creation processing unit 14d uses a plurality of feature brightness images (feature brightness images stored by the feature brightness image database 12) created by the feature brightness image creation processing unit 14a to perform well-known triangulation. The feature distance image is created by calculating the distance for each pixel by processing in accordance with the method, and the data of the feature distance image is associated with the data of the imaging position and the imaging date and time of the corresponding captured image. The feature distance image database 13 is stored. Note that the feature distance image has distance data for each pixel.

以下、図6の二点鎖線で囲まれた部分を参照しながら、地物距離画像作成処理部14dの地物距離画像作成処理の一例について説明する。まず、地物輝度画像データベース12により記憶された、異なる撮像地点における複数の地物輝度画像(図の例ではA地点及びB地点の地物輝度画像)に基づいて、画素毎の距離を周知の三角測量法で求める。さらに、予め設定された所定の領域(同一物体。図の例では道路標識領域)でマッチング処理して視差を算出(演算)して、その視差に基づいて、A地点及びB地点の地物輝度画像のうちいずれかの地物輝度画像の画素毎の距離誤差を算出して、そのいずれかの地物輝度画像の全体の画素の距離誤差を補正することにより、地物距離画像を作成する。そして、その地物距離画像のデータを、これに対応する撮像画像の撮像地点(図の例ではA地点又はB地点)及び撮像日時のデータと対応付けて地物距離画像データベース13に記憶させる。また、上記のようにして、A地点又はB地点以外の他の所定の撮像地点における地物距離画像も作成する。尚、上記のように、A地点及びB地点の地物輝度画像に基づいて、地物距離画像を作成するのに代えて、A地点又はB地点の各地点における複数の地物輝度画像に基づいて、各地点の地物距離画像を作成してもよい。   Hereinafter, an example of the feature distance image creation process of the feature distance image creation processing unit 14d will be described with reference to a portion surrounded by a two-dot chain line in FIG. First, based on a plurality of feature luminance images (feature luminance images at point A and point B in the example in the figure) stored in the feature luminance image database 12, the distance for each pixel is known. Obtained by triangulation. Further, a parallax is calculated (calculated) by performing a matching process on a predetermined area (the same object, which is a road sign area in the example in the figure) set in advance, and the feature brightness at points A and B is calculated based on the parallax. A distance error for each pixel of any feature luminance image in the image is calculated, and a distance error of all pixels of the feature luminance image is corrected to create a feature distance image. Then, the feature distance image data is stored in the feature distance image database 13 in association with the data of the imaging point (point A or B in the example in the figure) and the imaging date and time of the captured image corresponding thereto. In addition, as described above, a feature distance image at a predetermined imaging point other than the point A or the point B is also created. As described above, instead of creating the feature distance image based on the feature luminance images at the points A and B, it is based on a plurality of feature luminance images at each of the points A or B. Thus, a feature distance image of each point may be created.

以下、図6を参照しながら、地物距離画像作成処理部14dの地物距離画像作成処理の他の例について説明する。まず、地物輝度画像データベース12により記憶された、異なる撮像日時(例えば、数分違う撮像日時)における複数組(図の例では2組)のA地点及びB地点の地物輝度画像に基づいて、上記の方法で、各地点の撮影日時の異なる複数の地物距離画像を作成する。次に、同一地点(例えば、A地点)の撮影日時が異なる複数の地物距離画像の画素毎の距離データを統計処理(例えば平均や加重平均など)することにより、地物距離画像を作成する。そして、その地物距離画像のデータを、これに対応する撮像画像の撮像地点(図の例ではA地点又はB地点)及び撮像日時のデータと対応付けて地物距離画像データベース13に記憶させる。また、上記のようにして、A地点又はB地点以外の他の所定の撮像地点における地物距離画像も作成する。尚、上記では、各所定の撮影地点の時間的に異なる撮影画像を統計処理したが、これに代えて、各所定の撮影地点(例えば、A地点)で複数の撮像画像を取得して、この複数の撮像画像に基づいて、移動体を削除した複数の地物輝度画像を作成して、さらに、この複数の地物輝度画像に基づいて、複数の地物距離画像を作成して、この複数の地物距離画像の、対応する画素毎の距離データを統計処理して、最終的な地物距離画像を作成してもよい。   Hereinafter, another example of the feature distance image creation processing of the feature distance image creation processing unit 14d will be described with reference to FIG. First, based on the feature luminance images of points A and B of a plurality of sets (two sets in the example in the figure) stored in the feature luminance image database 12 at different imaging dates and times (for example, imaging dates and times that differ by several minutes). By the above method, a plurality of feature distance images with different shooting dates and times at each point are created. Next, a feature distance image is created by performing statistical processing (for example, an average or a weighted average) on the distance data for each pixel of a plurality of feature distance images having different shooting dates and times at the same point (for example, point A). . Then, the feature distance image data is stored in the feature distance image database 13 in association with the data of the imaging point (point A or B in the example in the figure) and the imaging date and time of the captured image corresponding thereto. In addition, as described above, a feature distance image at a predetermined imaging point other than the point A or the point B is also created. Note that, in the above, statistical processing is performed on time-sequentially captured images at each predetermined shooting point, but instead of this, a plurality of captured images are acquired at each predetermined shooting point (for example, point A). Based on the plurality of captured images, create a plurality of feature luminance images from which the moving object is deleted, and further create a plurality of feature distance images based on the plurality of feature luminance images. The final feature distance image may be created by statistically processing the distance data for each corresponding pixel of the feature distance image.

上記送信データ作成処理部14eは、データベース11〜13により記憶された地物輝度画像、この地物輝度画像に対応する地物距離画像、並びにその地物輝度画像及び地物距離画像に対応する撮像画像の撮像位置及び撮像日時のデータを送信データとして作成するようになっている。   The transmission data creation processing unit 14e is a feature luminance image stored by the databases 11 to 13, a feature distance image corresponding to the feature luminance image, and an imaging corresponding to the feature luminance image and the feature distance image. Data of the image capturing position and image capturing date and time is created as transmission data.

上記送信部10aは、車両Vが予め設定された所定の送信位置にあるときに、或る撮像地点における地物輝度画像、この地物輝度画像に対応する地物距離画像、並びにその地物輝度画像及び地物距離画像に対応する撮像画像の撮像位置及び撮像日時のデータを車載ユニット2に自動送信するようになっている。尚、所定の送信位置とは、例えば、道路上に所定の間隔毎(例えば、数m〜数十m毎)に設定された送信地点である。或る送信地点で送信される地物輝度画像及び地物距離画像は、例えば、その送信地点の車両V後方の地点(例えば、図3のA地点)における地物輝度画像及び地物距離画像や、その送信地点の車両V前方と車両V後方の2地点(例えば、図3のA地点及びB地点)における地物輝度画像及び地物距離画像である。尚、上記送信位置は、先に述べた、A地点やB地点などの所定の撮像地点と同じでもよい。つまり、車両VがA地点やB地点の各所定地点にある場合、車両Vから情報センター1へ各所定地点の撮像画像が送信されると同時に、情報センター1から車両Vへ各所定地点の地物輝度画像や地物距離画像が送信されるようにしてもよい。   When the vehicle V is in a predetermined transmission position set in advance, the transmission unit 10a is configured to detect a feature luminance image at a certain imaging point, a feature distance image corresponding to the feature luminance image, and the feature luminance. Data of the imaging position and imaging date / time of the captured image corresponding to the image and the feature distance image are automatically transmitted to the in-vehicle unit 2. The predetermined transmission position is, for example, a transmission point set on a road at predetermined intervals (for example, every several m to several tens of m). The feature luminance image and the feature distance image transmitted at a certain transmission point are, for example, a feature luminance image and a feature distance image at a point behind the vehicle V at the transmission point (for example, point A in FIG. 3) FIG. 4 is a feature luminance image and a feature distance image at two points (for example, point A and point B in FIG. 3) in front of the vehicle V and behind the vehicle V of the transmission point. The transmission position may be the same as the predetermined imaging point such as point A or point B described above. That is, when the vehicle V is at each of the predetermined points A and B, the captured image of each predetermined point is transmitted from the vehicle V to the information center 1, and at the same time, the ground of each predetermined point is transmitted from the information center 1 to the vehicle V. An object luminance image or a feature distance image may be transmitted.

上記車両Vは、車両V前方を撮像する単眼カメラからなる単一の外界カメラ(車載カメラ)20(撮像手段)と、車両Vの現在位置を検出するGPSからなる位置検出センサ21(位置検出手段)と、情報センター1との間でデータを相互通信するための送受信機22と、運転者の視覚や聴覚などに訴える警報を行う警報装置23と、ブレーキ制御を行うブレーキ制御ユニット24と、警報装置23やブレーキ制御ユニット24を制御する制御ユニット25とを備えており、これらは相互通信可能に接続されている。そして、車両Vは、車両V前方の移動体の危険度が相対的に高いときに、その旨を運転者に報知するため、警報装置23を作動させるようになっている。   The vehicle V includes a single external camera (vehicle camera) 20 (imaging means) composed of a monocular camera that images the front of the vehicle V, and a position detection sensor 21 (position detection means) composed of a GPS that detects the current position of the vehicle V. ), A transmitter / receiver 22 for mutual communication of data with the information center 1, an alarm device 23 for alarming the driver's vision and hearing, a brake control unit 24 for brake control, an alarm The control unit 25 which controls the apparatus 23 and the brake control unit 24 is provided, and these are connected so that mutual communication is possible. The vehicle V operates the alarm device 23 in order to notify the driver when the degree of danger of the moving body in front of the vehicle V is relatively high.

上記外界カメラ20は、車両Vの前部の車幅方向中央部に取り付けられていて、車両V前方の地物(例えば、建造物や電柱、道路標識、樹木、ガードレール、地面、歩道、横断歩道、道路区画線、路面表示、道路端の段差など)や車両V前方の移動体(例えば、歩行者Pや自転車など)等を撮像するようになっている。外界カメラ20の撮像画像データは、制御ユニット25の画像取得部25aに入力される。上記位置検出センサ21の位置データは、制御ユニット25の送信データ作成処理部25bや移動体抽出処理部25d、位置補正/ピッチ角算出処理部25gに入力される。   The external camera 20 is attached to the center in the vehicle width direction at the front of the vehicle V, and features in front of the vehicle V (for example, buildings, utility poles, road signs, trees, guardrails, ground, sidewalks, crosswalks). , Road markings, road surface indications, road edge steps, etc.) and moving objects in front of the vehicle V (for example, pedestrians P, bicycles, etc.) are imaged. The captured image data of the external camera 20 is input to the image acquisition unit 25a of the control unit 25. The position data of the position detection sensor 21 is input to the transmission data creation processing unit 25b, the moving body extraction processing unit 25d, and the position correction / pitch angle calculation processing unit 25g of the control unit 25.

上記送受信機22は、車両Vの後部に取り付けられていて、制御ユニット25の送信データ作成処理部25bにより作成された送信データを情報センター1に送信する送信部22aと、情報センター1からの送信データを受信する受信部22bとを有している。上記警報装置23は、ダッシュボード26に取り付けられていて、音響や発光などによって移動体と衝突する危険の緊迫などを警報するようになっている。上記ブレーキ制御ユニット24は、制御ユニット25の位置補正/ピッチ角算出処理部 25gにより算出された、車両Vの位置補正量やピッチ角に基づいて、ブレーキ制御を行うとともに、制御ユニット25の危険度判定処理部25fが移動体との衝突が避けられないと判断した場合、ブレーキ制御を行うようになっている。   The transmitter / receiver 22 is attached to the rear part of the vehicle V, and transmits from the information center 1 a transmission unit 22a that transmits transmission data created by the transmission data creation processing unit 25b of the control unit 25 to the information center 1. And a receiving unit 22b for receiving data. The alarm device 23 is attached to the dashboard 26 and warns the danger of collision with a moving body due to sound or light emission. The brake control unit 24 performs brake control based on the position correction amount and the pitch angle of the vehicle V calculated by the position correction / pitch angle calculation processing unit 25g of the control unit 25, and the risk level of the control unit 25. When the determination processing unit 25f determines that a collision with the moving body is unavoidable, brake control is performed.

上記制御ユニット25は、外界カメラ20の撮像画像を取得する画像取得部25aと、情報センター1に送信する送信データを作成する送信データ作成処理を行う送信データ作成処理部25bと、情報センター1からの受信データを処理する受信データ処理を行う受信データ処理部25cと、画像取得部25aの取得画像から移動体を抽出する移動体抽出処理を行う移動体抽出処理部25d(移動体抽出手段)と、車両Vの現在位置から、移動体抽出処理部25dにより抽出された移動体までの距離を算出する移動体距離算出処理を行う移動体距離算出処理部25e(移動体距離算出手段)と、移動体の危険度を判定する危険度判定処理を行う危険度判定処理部25fと、車両Vの位置補正量やピッチ角を算出する位置補正/ピッチ角算出処理を行う位置補正/ピッチ角算出処理部25g(位置補正/ピッチ角算出手段)とを有しており、これらは相互通信可能に接続されている。   The control unit 25 includes an image acquisition unit 25 a that acquires a captured image of the external camera 20, a transmission data generation processing unit 25 b that performs transmission data generation processing for generating transmission data to be transmitted to the information center 1, and the information center 1. A received data processing unit 25c that performs received data processing to process the received data, and a moving object extraction processing unit 25d (moving object extraction means) that performs a moving object extraction process for extracting a moving object from the acquired image of the image acquiring unit 25a; A moving body distance calculation processing unit 25e (moving body distance calculation means) for performing a moving body distance calculation process for calculating a distance from the current position of the vehicle V to the moving body extracted by the moving body extraction processing unit 25d; A risk determination processing unit 25f for performing a risk determination process for determining the risk of the body, and a position correction / pitch angle calculation process for calculating the position correction amount and pitch angle of the vehicle V; Has a a performing position correction / pitch angle calculation unit 25 g (position correction / pitch angle calculating means), all of which are communicably interconnected.

上記画像取得部25aの取得画像は、送信データ作成処理部25bや移動体抽出処理部25d、移動体距離算出処理部25eに入力される。上記送信データ作成処理部25bは、画像取得部25aの取得画像並びにその撮像位置及び撮像日時のデータを送信データとして作成するようになっている。上記受信データ処理部25cは、受信部22bの受信データを処理するようになっている。   The acquired image of the image acquisition unit 25a is input to the transmission data creation processing unit 25b, the moving body extraction processing unit 25d, and the moving body distance calculation processing unit 25e. The transmission data creation processing unit 25b creates the acquired image of the image acquisition unit 25a and the data of the imaging position and imaging date and time as transmission data. The reception data processing unit 25c processes the reception data of the reception unit 22b.

上記移動体抽出処理部25dは、位置検出センサ21により検出された車両Vの現在位置のデータや、受信データ処理部25cの処理データ(即ち、情報センター1のデータベース11〜13により記憶された地物輝度画像や、この地物輝度画像に対応する地物距離画像、その地物輝度画像の撮像位置のデータ)に基づいて、その地物輝度画像を車両Vの現在位置における外界カメラ20から見える画像に視点変換することにより、車両Vの現在位置における地物輝度画像を作成して、外界カメラ20により車両Vの現在位置で撮像された撮像画像と車両Vの現在位置における地物輝度画像とを比較して差分処理して、その差分領域を移動体として抽出するようになっている。   The moving body extraction processing unit 25d is configured to store the current position data of the vehicle V detected by the position detection sensor 21 and the processing data of the reception data processing unit 25c (that is, the ground data stored in the databases 11 to 13 of the information center 1). On the basis of the object brightness image, the feature distance image corresponding to the feature brightness image, and the data of the imaging position of the feature brightness image), the feature brightness image can be seen from the external camera 20 at the current position of the vehicle V. By converting the viewpoint to an image, a feature luminance image at the current position of the vehicle V is created, and a captured image captured at the current position of the vehicle V by the external camera 20 and a feature luminance image at the current position of the vehicle V Are subjected to differential processing, and the differential area is extracted as a moving object.

以下、図7を参照しながら、移動体抽出処理部25dの移動体抽出処理の一例について説明する。まず、情報センター1から最後に受信した、車両Vの現在位置に近い所定の撮像地点(図の例では車両V後方のA地点)における地物輝度画像を、車両Vの現在位置における外界カメラ20から見える画像に視点変換することにより、車両Vの現在位置における地物輝度画像を作成する。そして、外界カメラ20により車両Vの現在位置で撮像された撮像画像(車載カメラ画像)と車両Vの現在位置における地物輝度画像とを比較して差分処理して、その差分領域(差分抽出像)を移動体(図の例では歩行者P)として抽出する。   Hereinafter, an example of the moving body extraction process of the moving body extraction processing unit 25d will be described with reference to FIG. First, the feature brightness image at a predetermined imaging point (A point behind the vehicle V in the example in the figure) received last from the information center 1 at the current position of the vehicle V is used as an external camera 20 at the current position of the vehicle V. The feature luminance image at the current position of the vehicle V is created by converting the viewpoint to an image that can be seen from the vehicle. Then, the captured image (in-vehicle camera image) captured by the external camera 20 at the current position of the vehicle V and the feature luminance image at the current position of the vehicle V are compared and subjected to difference processing, and the difference area (difference extraction image) ) As a moving body (pedestrian P in the example in the figure).

以下、図8を参照しながら、移動体抽出処理部25dの移動体抽出処理の他の例について説明する。まず、情報センター1から最後に受信した、車両Vの現在位置に近い異なる所定の撮像地点における複数の地物輝度画像(図の例では、車両V後方のA地点の地物輝度画像と、車両V前方のB地点の地物輝度画像)を車両Vの現在位置における外界カメラ20から見える画像に視点変換する。次に、その視点変換したA地点の地物輝度画像の欠落領域(図の例では道路標識の陰となる領域)を視点変換したB地点の地物輝度画像で補完することにより、車両Vの現在位置における1つの地物輝度画像を作成する。そして、外界カメラ20により車両Vの現在位置で撮像された撮像画像(車載カメラ画像)と車両Vの現在位置における地物輝度画像とを比較して差分処理して、その差分領域(差分抽出像)を移動体(図の例では歩行者P)として抽出する。   Hereinafter, another example of the moving object extraction process of the moving object extraction processing unit 25d will be described with reference to FIG. First, a plurality of feature luminance images at different predetermined imaging points close to the current position of the vehicle V received from the information center 1 (in the example shown in FIG. The viewpoint is converted into an image that can be seen from the external camera 20 at the current position of the vehicle V. Next, the missing region of the feature luminance image at point A that has undergone the viewpoint conversion (the region that is the shadow of the road sign in the example in the figure) is complemented with the feature luminance image at point B that has undergone viewpoint conversion, so that One feature luminance image at the current position is created. Then, the captured image (in-vehicle camera image) captured by the external camera 20 at the current position of the vehicle V and the feature luminance image at the current position of the vehicle V are compared and subjected to difference processing, and the difference area (difference extraction image) ) As a moving body (pedestrian P in the example in the figure).

上記移動体距離算出処理部25eは、車両Vの現在位置における、移動体抽出処理部25dにより抽出された移動体の地面との接地部分(境界部分)の距離画像を含む、車両Vの現在位置における距離画像を作成して、その距離画像に基づいて、車両Vからその移動体の接地部分までの距離を車両Vからその移動体までの距離として算出するようになっている。   The moving body distance calculation processing unit 25e includes the current position of the vehicle V including the distance image of the grounding portion (boundary part) of the moving body and the ground extracted by the moving body extraction processing unit 25d at the current position of the vehicle V. A distance image is created, and a distance from the vehicle V to the ground contact portion of the moving body is calculated as a distance from the vehicle V to the moving body based on the distance image.

以下、図9を参照しながら、移動体距離算出処理部25eの移動体距離算出処理の一例について説明する。まず、上記の方法で、移動体(図の例では歩行者P)を検出して、その接地部分を抽出する。次に、情報センター1から最後に受信した、車両Vの現在位置に近い所定の撮像地点(図の例では車両V後方のA地点。図7、図8を参照)における地物距離画像や、A地点の位置データ、車両Vの現在位置のデータに基づいて、A地点の地物距離画像を車両Vの現在位置における外界カメラ20から見える画像に視点変換することにより、車両Vの現在位置における地物輝度画像の全体に対応する、車両Vの現在位置における画素毎の地物距離画像を作成する。言い換えると、A地点の地物距離画像を歩行者Pの接地部分に相当する外界カメラ20から見える画像に視点変換することにより、車両Vの現在位置における地物距離画像を作成する。そして、その距離画像に基づいて、その歩行者Pの接地部分までの距離を算出する。   Hereinafter, an example of the moving object distance calculation process of the moving object distance calculation processing unit 25e will be described with reference to FIG. First, a moving body (pedestrian P in the example in the figure) is detected by the above method, and the ground contact portion is extracted. Next, a feature distance image at a predetermined imaging point (A point behind the vehicle V in the example shown in the figure, see FIGS. 7 and 8) received from the information center 1 lastly, Based on the position data of the point A and the data of the current position of the vehicle V, the feature distance image of the point A is converted into an image that can be seen from the external camera 20 at the current position of the vehicle V, thereby A feature distance image for each pixel at the current position of the vehicle V corresponding to the entire feature luminance image is created. In other words, the feature distance image at the current position of the vehicle V is created by converting the viewpoint of the feature distance image at the point A into an image seen from the external camera 20 corresponding to the ground contact portion of the pedestrian P. And based on the distance image, the distance to the grounding part of the pedestrian P is calculated.

上記危険度判定処理部25fは、移動体距離算出処理部25eにより算出された移動体までの距離に基づいて、その移動体の危険度を判定して、その移動体の危険度が相対的に高いときには、警報装置23を作動させるようになっている。具体的には、危険度判定処理部25fは、例えば、移動体までの距離が所定距離未満であるときには、その移動体の危険度が相対的に高いと判定する。   The risk determination processing unit 25f determines the risk of the moving object based on the distance to the moving object calculated by the moving object distance calculation processing unit 25e, and the risk of the moving object is relatively When it is high, the alarm device 23 is activated. Specifically, for example, when the distance to the moving object is less than a predetermined distance, the risk determination processing unit 25f determines that the risk of the moving object is relatively high.

上記位置補正/ピッチ角算出処理部25gは、位置検出センサ21により検出された車両Vの現在位置のデータや、受信データ処理部25cの処理データ(即ち、情報センター1のデータベース11〜13により記憶された地物輝度画像や、この地物輝度画像に対応する地物距離画像、その地物輝度画像の撮像位置のデータ)に基づいて、その地物輝度画像を車両Vの現在位置における外界カメラ20から見える画像に視点変換することにより、車両Vの現在位置における地物輝度画像を作成して、外界カメラ20により車両Vの現在位置で撮像された撮像画像と車両Vの現在位置における地物輝度画像とをマッチング処理して視差を算出して、その視差に基づいて、車両Vの位置補正量(車両Vの位置誤差量)及び車両Vのピッチ角を算出するようになっている。   The position correction / pitch angle calculation processing unit 25g stores data of the current position of the vehicle V detected by the position detection sensor 21 and processing data of the reception data processing unit 25c (that is, the databases 11 to 13 of the information center 1). The feature brightness image, the feature distance image corresponding to the feature brightness image, and the image pickup position data of the feature brightness image). The feature luminance image at the current position of the vehicle V is created by converting the viewpoint to an image that can be seen from the image 20, and the captured image captured at the current position of the vehicle V by the external camera 20 and the feature at the current position of the vehicle V are displayed. The parallax is calculated by performing a matching process with the luminance image, and the position correction amount (position error amount of the vehicle V) and the pitch angle of the vehicle V are calculated based on the parallax. It has become to so that.

以下、図10を参照しながら、位置補正/ピッチ角算出処理部25gの位置補正/ピッチ角算出処理の一例について説明する。まず、情報センター1から最後に受信した、車両Vの現在位置に近い所定の撮像地点(図の例では車両V後方のA地点)における地物輝度画像を、車両Vの現在位置における外界カメラ20から見える画像に視点変換することにより、車両Vの現在位置における地物輝度画像を作成する。そして、外界カメラ20により車両Vの現在位置で撮像された撮像画像(車載カメラ画像)と車両Vの現在位置における地物輝度画像とを予め設定された所定の領域(図の例では道路標識領域)でマッチング処理して視差を算出(演算)して、その視差に基づいて、車両Vの位置補正量を算出する。また、外界カメラ20により車両Vの現在位置で撮像された撮像画像と車両Vの現在位置における地物輝度画像とを予め設定された所定の領域(図の例では道路区画線領域)でマッチング処理して視差を算出(演算)して、その視差に基づいて、車両Vのピッチ角を算出する。   Hereinafter, an example of the position correction / pitch angle calculation processing of the position correction / pitch angle calculation processing unit 25g will be described with reference to FIG. First, the feature brightness image at a predetermined imaging point (A point behind the vehicle V in the example in the figure) received last from the information center 1 at the current position of the vehicle V is used as an external camera 20 at the current position of the vehicle V. The feature luminance image at the current position of the vehicle V is created by converting the viewpoint to an image that can be seen from the vehicle. Then, a predetermined image (in the example of the figure, a road sign region) in which a captured image (in-vehicle camera image) captured by the external camera 20 at the current position of the vehicle V and a feature luminance image at the current position of the vehicle V are set. ) To calculate (calculate) the parallax by performing the matching process, and calculate the position correction amount of the vehicle V based on the parallax. In addition, a matching process is performed between a captured image captured at the current position of the vehicle V by the external camera 20 and a feature luminance image at the current position of the vehicle V in a predetermined area (road lane line area in the example in the figure). Then, the parallax is calculated (calculated), and the pitch angle of the vehicle V is calculated based on the parallax.

以下、図11及び図12のフローチャートを参照しながら、移動体検出システムAの移動体検出制御について説明する。   Hereinafter, the moving body detection control of the moving body detection system A will be described with reference to the flowcharts of FIGS. 11 and 12.

最初に、車載ユニット2側の処理フローについて説明する。まず、ステップSA1では、外界カメラ20のカメラ画像や、位置検出センサ21の車両位置データ(自車位置データ)Pos0を取得する。続くステップSA2では、車両位置データPosを補正する。具体的には、車両位置の補正量のデータをΔPos、車両Vのピッチ角のデータをγとすると、車両位置データPosは、以下の式により算出される。尚、補正量ΔPos及びピッチ角γは、上記画像の視差に基づいて算出するものであり、初期値はゼロである。   First, the processing flow on the in-vehicle unit 2 side will be described. First, in step SA1, the camera image of the external camera 20 and the vehicle position data (own vehicle position data) Pos0 of the position detection sensor 21 are acquired. In subsequent step SA2, the vehicle position data Pos is corrected. Specifically, when the vehicle position correction amount data is ΔPos and the vehicle V pitch angle data is γ, the vehicle position data Pos is calculated by the following equation. The correction amount ΔPos and the pitch angle γ are calculated based on the parallax of the image, and the initial values are zero.

Pos=Pos0+f(ΔPos,γ)
続くステップSA3では、ステップSA1で取得した取得画像とステップSA2で補正した車両位置データPosを情報センター1に送信する。続くステップSA4では、車両が所定地点(A地点やB地点など)にある場合、地物輝度画像と地物距離画像を情報センター1から受信する。続くステップSA5では、その受信した地物輝度画像を車両Vの現在位置における外界カメラ20から見える画像に視点変換する。続くステップSA6では、取得画像とステップSA5で視点変換した視点変換画像により、移動体を検出する。具体的には、取得画像と視点変換画像を比較することにより、移動体を検出する。
Pos = Pos0 + f (ΔPos, γ)
In the subsequent step SA3, the acquired image acquired in step SA1 and the vehicle position data Pos corrected in step SA2 are transmitted to the information center 1. In the subsequent step SA4, when the vehicle is at a predetermined point (A point, B point, etc.), the feature luminance image and the feature distance image are received from the information center 1. In subsequent step SA5, the received feature luminance image is subjected to viewpoint conversion into an image seen from the external camera 20 at the current position of the vehicle V. In subsequent step SA6, the moving object is detected from the acquired image and the viewpoint conversion image subjected to the viewpoint conversion in step SA5. Specifically, the moving object is detected by comparing the acquired image and the viewpoint conversion image.

続くステップSA7では、取得画像に移動体が有るか否かを判定する。ステップSA7の判定結果がYESで有る場合はステップSA8に進む一方、その判定結果がNOの場合はステップSA13に進む。   In a subsequent step SA7, it is determined whether or not there is a moving object in the acquired image. When the determination result of step SA7 is YES, the process proceeds to step SA8, and when the determination result is NO, the process proceeds to step SA13.

ステップSA8では、移動体の地面との接地領域を抽出する。続くステップSA9では、その接地領域に対し車両Vの現在位置における地物距離画像を作成する。続くステップSA10では、その接地領域の地物距離画像により、移動体の接地領域までの距離を移動体までの距離として算出する。   In step SA8, a ground contact area with the ground of the moving body is extracted. In subsequent step SA9, a feature distance image at the current position of the vehicle V is created for the ground contact area. In subsequent step SA10, the distance to the ground contact area of the moving body is calculated as the distance to the mobile body from the feature distance image of the ground contact area.

続くステップSA11では、その移動体までの距離が所定距離未満であるか否かを判定する。ステップSA11の判定結果がYESで所定距離未満である場合はステップSA12に進む一方、その判定結果がNOで所定距離以上である場合はステップSA13に進む。   In subsequent step SA11, it is determined whether or not the distance to the moving body is less than a predetermined distance. If the determination result in step SA11 is YES and less than the predetermined distance, the process proceeds to step SA12. If the determination result is NO and the distance is greater than or equal to the predetermined distance, the process proceeds to step SA13.

ステップSA12では、警報出力を行う。ステップSA13では、ステップSA1で取得した取得画像と、地物輝度画像を車両Vの現在位置における外界カメラ20から見える画像に視点変換した視点変換画像を比較することにより、車両Vの位置補正量とピッチ角を算出する。続くステップSA14では、位置補正量データΔPosとピッチ角データγを記憶して、スタートにリターンする。尚、位置補正量データΔPosとピッチ角データγは、上記のように、位置検出センサ21の車両位置データPosの補正やブレーキ制御ユニット24のブレーキ制御などに用いられる。   In step SA12, an alarm is output. In step SA13, the position correction amount of the vehicle V is compared by comparing the acquired image acquired in step SA1 with the viewpoint conversion image obtained by converting the feature luminance image into an image seen from the external camera 20 at the current position of the vehicle V. The pitch angle is calculated. In the subsequent step SA14, the position correction amount data ΔPos and the pitch angle data γ are stored, and the process returns to the start. Note that the position correction amount data ΔPos and the pitch angle data γ are used for correction of the vehicle position data Pos of the position detection sensor 21 and brake control of the brake control unit 24 as described above.

次に、情報センター1側の処理フローについて説明する。まず、ステップSB1では、取得画像と車両位置データ(即ち、その取得画像の撮影位置データ)を車載ユニット2から受信する。続くステップSB2では、その車両位置データに基づいて、車両Vが所定地点にあるか否かを判定する。ステップSB2の判定結果がYESで所定地点にある場合はステップSB3に進む一方、その判定結果がNOで所定地点にない場合はステップSB14に進む。   Next, the processing flow on the information center 1 side will be described. First, in step SB1, an acquired image and vehicle position data (that is, shooting position data of the acquired image) are received from the in-vehicle unit 2. In subsequent step SB2, it is determined whether or not the vehicle V is at a predetermined point based on the vehicle position data. If the determination result in step SB2 is YES and the vehicle is at a predetermined point, the process proceeds to step SB3.

ステップSB3では、取得画像をその画像を撮影した際の車両V位置及びその撮影日時毎に取得画像データベース11に記憶する。続くステップSB4では、車両位置データに基づいて、複数の取得画像を取得画像データベース11から読み出す。具体的には、車両Vが所定地点にある場合、その所定地点近傍における2つの取得画像を読み出したり、その所定地点の取得画像とその所定地点の車両V後方の地点における取得画像を読み出したりする。続くステップSB5では、その複数の取得画像に基づいて、その所定地点の地物輝度画像を作成する。具体的には、複数の取得画像を比較することにより、移動体を抽出して、その取得画像からその移動体を削除することにより、その所定地点の地物輝度画像を作成する。   In step SB3, the acquired image is stored in the acquired image database 11 for each position of the vehicle V and the date and time when the acquired image is captured. In subsequent step SB4, a plurality of acquired images are read from the acquired image database 11 based on the vehicle position data. Specifically, when the vehicle V is at a predetermined point, two acquired images near the predetermined point are read out, or an acquired image at the predetermined point and an acquired image at a point behind the vehicle V at the predetermined point are read out. . In subsequent step SB5, a feature luminance image of the predetermined point is created based on the plurality of acquired images. Specifically, a moving object is extracted by comparing a plurality of acquired images, and the moving object is deleted from the acquired image, thereby generating a feature luminance image at the predetermined point.

続くステップSB6では、ステップSB5で作成した所定地点の地物輝度画像の領域属性データを作成する。続くステップSB7では、ステップSB5で作成した所定地点の地物輝度画像から新設又は撤去された地物を抽出する。具体的には、ステップSB5で作成した所定地点の現在の地物輝度画像とその所定地点の過去の地物輝度画像を比較することにより、新設又は撤去された地物を抽出する。続くステップSB8では、ステップSB5で作成した所定地点の地物輝度画像に新設又は撤去された地物が有るか否かを判定する。ステップSB8の判定結果がNOの場合はステップSB9に進む一方、その判定結果がYESで有る場合はステップSB10に進む。   In subsequent step SB6, region attribute data of the feature luminance image of the predetermined point created in step SB5 is created. In subsequent step SB7, the newly established or removed feature is extracted from the feature luminance image of the predetermined point created in step SB5. Specifically, by comparing the current feature luminance image of the predetermined point created in step SB5 with the past feature luminance image of the predetermined point, the newly established or removed feature is extracted. In subsequent step SB8, it is determined whether or not there is a feature newly added or removed in the feature luminance image of the predetermined point created in step SB5. If the determination result in step SB8 is NO, the process proceeds to step SB9, whereas if the determination result is YES, the process proceeds to step SB10.

ステップSB9では、地物輝度画像データベース12に所定地点の地物輝度画像が複数有るか否かを判定する。ステップSB9の判定結果がNOの場合はステップSB10に進む一方、その判定結果がYESで複数有る場合はステップSB11に進む。   In step SB9, it is determined whether or not there are a plurality of feature brightness images at a predetermined point in the feature brightness image database 12. If the determination result in step SB9 is NO, the process proceeds to step SB10. If the determination result is YES and there are a plurality of determination results, the process proceeds to step SB11.

ステップSB10では、ステップSB5で作成した所定地点の地物輝度画像とその領域属性データを地物輝度画像データベース12に記憶する。   In step SB10, the feature luminance image of the predetermined point created in step SB5 and its area attribute data are stored in the feature luminance image database 12.

ステップSB11では、車両位置データに基づいて、地物輝度画像とその領域属性データを地物輝度画像データベース12から読み出す。具体的には、車両Vが所定地点にある場合、その所定地点の地物輝度画像とその所定地点の車両V後方の地点における地物輝度画像を読み出す。   In step SB11, the feature luminance image and its area attribute data are read from the feature luminance image database 12 based on the vehicle position data. Specifically, when the vehicle V is at a predetermined point, a feature luminance image at the predetermined point and a feature luminance image at a point behind the vehicle V at the predetermined point are read.

続くステップSB12では、SB11で読み出した地物輝度画像とその領域属性データに基づいて、その所定地点の地物距離画像を作成する。続くステップSB13では、ステップSB12で作成した所定地点の地物距離画像を地物距離画像データに記憶する。   In the subsequent step SB12, a feature distance image of the predetermined point is created based on the feature luminance image read in SB11 and its region attribute data. In subsequent step SB13, the feature distance image of the predetermined point created in step SB12 is stored in the feature distance image data.

続くステップSB14では、車両位置データに基づいて、地物輝度画像(その領域属性データを含む)を地物輝度画像データベース12から、地物距離画像を地物距離画像データベース13から読み出す。具体的には、車両Vが所定地点にある場合、その所定地点の車両V後方の地点(例えば、A地点)における地物輝度画像及び地物距離画像を読み出したり、その所定地点の車両V後方と車両V前方の2地点(例えば、A地点及びB地点)における地物輝度画像及び地物距離画像を読み出したりする。続くステップSB15では、ステップSB14で読み出した地物輝度画像と地物距離画像を車載ユニット2に送信し、スタートにリターンする。   In subsequent step SB14, the feature luminance image (including the region attribute data) is read from the feature luminance image database 12 and the feature distance image is read from the feature distance image database 13 based on the vehicle position data. Specifically, when the vehicle V is at a predetermined point, a feature luminance image and a feature distance image at a point behind the vehicle V at the predetermined point (for example, point A) are read out, or the vehicle V behind the predetermined point And feature luminance images and feature distance images at two points ahead of the vehicle V (for example, point A and point B). In subsequent step SB15, the feature luminance image and the feature distance image read in step SB14 are transmitted to the in-vehicle unit 2, and the process returns to the start.

−効果−
以上により、本実施形態によれば、移動体抽出処理部25dにより、位置検出センサ21により検出された車両Vの現在位置の情報とデータベース11〜13により記憶された地物輝度画像、この地物輝度画像に対応する地物距離画像、その地物輝度画像の撮像位置の情報とに基づいて、その地物輝度画像を車両Vの現在位置から見える画像に視点変換することにより、車両Vの現在位置における地物輝度画像を作成するので、外界カメラ20により車両Vの現在位置で撮像された撮像画像と地物輝度画像とのずれを小さくすることができ、その差分処理の負担、ひいては、移動体検出及び移動体までの距離算出の処理負担を軽減することができる。
-Effect-
As described above, according to the present embodiment, the moving object extraction processing unit 25d uses the current position information of the vehicle V detected by the position detection sensor 21 and the feature luminance image stored in the databases 11 to 13, and this feature. Based on the feature distance image corresponding to the luminance image and the information on the imaging position of the feature luminance image, the feature luminance image is subjected to viewpoint conversion into an image that can be seen from the current position of the vehicle V. Since the feature luminance image at the position is created, the deviation between the captured image captured at the current position of the vehicle V by the external camera 20 and the feature luminance image can be reduced, and the burden of the difference processing, and hence the movement The processing load of body detection and distance calculation to the moving body can be reduced.

また、移動体距離算出処理部25eにより、車両Vの現在位置における地物距離画像に基づいて、移動体の接地部分までの距離をその移動体までの距離として算出するので、外界カメラ20が単一のものであっても、車両Vの傾きや地面の高さ位置などに影響されることなく、移動体までの距離を精度よく算出することができる。   Further, the moving body distance calculation processing unit 25e calculates the distance to the grounded portion of the moving body as the distance to the moving body based on the feature distance image at the current position of the vehicle V. Even a single device can accurately calculate the distance to the moving body without being affected by the inclination of the vehicle V, the height position of the ground, or the like.

また、移動体抽出処理部25dにより、異なる位置における複数の地物輝度画像を車両Vの現在位置から見える画像に視点変換して、その視点変換した各地物輝度画像の欠落領域を互いに補完することにより、車両Vの現在位置における1つの地物輝度画像を作成するので、欠落領域のない、車両Vの現在位置における地物輝度画像を作成することができ、移動体を精度よく抽出することができる。   In addition, the moving object extraction processing unit 25d performs viewpoint conversion of a plurality of feature luminance images at different positions into images that can be seen from the current position of the vehicle V, and complements the missing areas of the feature luminance images that have undergone the viewpoint conversion. Thus, since one feature luminance image at the current position of the vehicle V is created, it is possible to create a feature luminance image at the current position of the vehicle V without a missing region, and to accurately extract the moving object. it can.

また、データベース11〜13、地物輝度画像を作成する地物輝度画像作成処理部14a、及び地物距離画像を作成する地物距離画像作成処理部14dを情報センター1に設けているので、車両V側の移動体検出の処理負担を軽減することができる。   Since the information center 1 is provided with the database 11 to 13, the feature brightness image creation processing unit 14a for creating the feature brightness image, and the feature distance image creation processing unit 14d for creating the feature distance image, the vehicle It is possible to reduce the processing load of the V-side moving object detection.

また、情報センター1は、車両Vが予め設定された所定の送信位置にあるときに、データベース11〜13により記憶された地物輝度画像、地物距離画像、及びその地物輝度画像の撮像位置の情報を車両Vに送信するので、車両V側からその送信要求をすることなく、車両Vはその提供を受けることができる。   Further, when the vehicle V is at a predetermined transmission position set in advance, the information center 1 captures the feature luminance image, the feature distance image, and the feature luminance image stored by the databases 11 to 13. Therefore, the vehicle V can receive the information without requesting the transmission from the vehicle V side.

また、新設/撤去地物抽出処理部14bにより、地物輝度画像データベース12により記憶された地物輝度画像と、この地物輝度画像に対応する撮像画像を撮像した後に撮像された撮像画像に対応する、その地物輝度画像データベース12により記憶された地物輝度画像と同じ撮像位置における地物輝度画像とを差分処理して、その差分領域を新設又は撤去された地物として抽出して、その地物輝度画像データベース12により記憶された地物輝度画像を更新するので、新設又は撤去された地物を移動体として抽出することを抑制でき、移動体の誤検出を抑制することができる。   Further, the new / removed feature extraction processing unit 14b corresponds to the feature luminance image stored in the feature luminance image database 12 and the captured image captured after the captured image corresponding to the feature luminance image is captured. The feature luminance image stored in the feature luminance image database 12 and the feature luminance image at the same imaging position are subjected to differential processing, and the difference area is extracted as a new or removed feature, Since the feature brightness image stored by the feature brightness image database 12 is updated, it is possible to suppress the extraction of the newly installed or removed feature as a moving object, and to suppress erroneous detection of the moving object.

また、地物距離画像作成処理部14dにより、複数の地物輝度画像を予め設定された所定の領域でマッチング処理するので、精密な地物距離画像を作成することができ、移動体までの距離を精度よく算出することができる。   In addition, since the feature distance image creation processing unit 14d performs a matching process on a plurality of feature brightness images in a predetermined region set in advance, a precise feature distance image can be created, and the distance to the moving object Can be calculated with high accuracy.

また、地物距離画像作成処理部14dにより、複数の地物輝度画像のうちいずれかの地物輝度画像に対応する複数の地物距離画像を作成して、その複数の地物距離画像の距離情報を統計処理することにより、1つの地物距離画像を作成するので、精密な地物距離画像を作成することができ、移動体までの距離を精度よく算出することができる。   Further, the feature distance image creation processing unit 14d creates a plurality of feature distance images corresponding to any one of the feature brightness images among the plurality of feature brightness images, and the distance between the plurality of feature distance images. By statistically processing the information, one feature distance image is created, so that a precise feature distance image can be created, and the distance to the moving object can be calculated with high accuracy.

また、位置補正/ピッチ角算出処理部25gにより、外界カメラ20により車両Vの現在位置で撮像された撮像画像と車両Vの現在位置における地物輝度画像とをマッチング処理して視差を算出して、その視差に基づいて、車両Vの位置補正量及び車両Vのピッチ角を算出する。つまり、外界カメラ20の撮像画像を利用して、車両Vの位置補正量及び車両Vのピッチ角のうち少なくとも一方を算出することができる。   Further, the position correction / pitch angle calculation processing unit 25g calculates a parallax by performing a matching process on the captured image captured at the current position of the vehicle V by the external camera 20 and the feature luminance image at the current position of the vehicle V. The position correction amount of the vehicle V and the pitch angle of the vehicle V are calculated based on the parallax. That is, at least one of the position correction amount of the vehicle V and the pitch angle of the vehicle V can be calculated using the captured image of the external camera 20.

(その他の実施形態)
上記実施形態では、外界カメラ20により車両V前方の移動体を撮像するようになっているが、これに限らず、例えば、車両V側方の移動体を撮像するようにしてもよい。
(Other embodiments)
In the above embodiment, the external camera 20 images the moving body in front of the vehicle V. However, the present invention is not limited to this. For example, a moving object on the side of the vehicle V may be imaged.

また、上記実施形態では、車両Vの現在位置における地物輝度画像の全体に対応する、車両Vの現在位置における画素毎の地物距離画像を作成しているが、これに限らず、例えば、車両Vの現在位置における地物輝度画像のうち歩行者Pの接地部分に対応する、車両Vの現在位置における歩行者Pの接地部分の距離画像のみを作成してもよい。これにより、移動体検出及び移動体までの距離算出の処理負担を軽減することができる。   Moreover, in the said embodiment, although the feature distance image for every pixel in the present position of the vehicle V corresponding to the whole feature luminance image in the present position of the vehicle V is produced, it is not restricted to this, For example, Only the distance image of the ground contact portion of the pedestrian P at the current position of the vehicle V corresponding to the ground contact portion of the pedestrian P in the feature luminance image at the current position of the vehicle V may be created. Thereby, the processing load of a mobile body detection and the distance calculation to a mobile body can be reduced.

さらに、上記実施形態では、各データベース11〜13や地物輝度画像作成処理部14a、地物距離画像作成処理部14dなどを情報センター1に設けているが、これに限らず、例えば、車両Vに設けてもよい。このように車両Vに設けると、移動体の検出を車両V単独で行うことができる。   Furthermore, in the said embodiment, although each database 11-13, the feature brightness image creation process part 14a, the feature distance image creation process part 14d, etc. are provided in the information center 1, it is not restricted to this, For example, vehicle V May be provided. When the vehicle V is provided in this way, the moving object can be detected by the vehicle V alone.

さらにまた、上記実施形態では、取得画像データベース11により、外界カメラ20の撮像画像のうちその撮像位置が所定の撮像位置である撮像画像を記憶しているが、車載ユニット25の送信データ作成処理部25bにより、外界カメラ20の撮像画像のうちその撮像位置が所定の撮像位置である撮像画像を情報センター1に送信してもよい。   Furthermore, in the above-described embodiment, the acquired image database 11 stores a captured image whose captured position is a predetermined captured position among captured images of the external camera 20. The captured image whose imaging position is a predetermined imaging position among the captured images of the external camera 20 may be transmitted to the information center 1 by 25b.

また、本実施形態では、位置補正/ピッチ角算出処理部25gにより車両Vの現在位置における地物輝度画像を作成しているが、移動体抽出処理部25dにより作成された車両Vの現在位置における地物輝度画像を位置補正/ピッチ角算出処理部25gに入力してもよい。   Further, in the present embodiment, the feature luminance image at the current position of the vehicle V is created by the position correction / pitch angle calculation processing unit 25g, but at the current position of the vehicle V created by the moving object extraction processing unit 25d. The feature luminance image may be input to the position correction / pitch angle calculation processing unit 25g.

本発明は、実施形態に限定されず、その精神又は主要な特徴から逸脱することなく他の色々な形で実施することができる。   The present invention is not limited to the embodiments, and can be implemented in various other forms without departing from the spirit or main features thereof.

このように、上述の実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明の範囲は特許請求の範囲によって示すものであって、明細書には何ら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内のものである。   As described above, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The scope of the present invention is defined by the claims, and is not limited by the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

以上説明したように、本発明にかかる移動体検出システム及び移動体検出方法は、移動体検出の処理負担を軽減することが必要な用途等に適用できる。   As described above, the mobile object detection system and the mobile object detection method according to the present invention can be applied to applications that require reducing the processing load of mobile object detection.

本発明の実施形態に係る移動体検出システムのブロック図である。It is a block diagram of the mobile body detection system which concerns on embodiment of this invention. 移動体検出システムの車載ユニットを搭載した車両を示す概略上面図である。It is a schematic top view which shows the vehicle carrying the vehicle-mounted unit of a moving body detection system. 地物輝度画像作成処理の一例を説明する説明図である。It is explanatory drawing explaining an example of a feature luminance image creation process. 地物輝度画像作成処理の他の例を説明する説明図である。It is explanatory drawing explaining the other example of a feature luminance image creation process. 新設/撤去地物抽出処理の一例を説明する説明図である。It is explanatory drawing explaining an example of a new establishment / removal feature extraction process. 地物距離画像作成処理の一例を説明する説明図である。It is explanatory drawing explaining an example of a feature distance image creation process. 移動体抽出処理の一例を説明する説明図である。It is explanatory drawing explaining an example of a mobile body extraction process. 移動体抽出処理の他の例を説明する説明図である。It is explanatory drawing explaining the other example of a mobile body extraction process. 移動体距離算出処理の一例を説明する説明図である。It is explanatory drawing explaining an example of a mobile body distance calculation process. 位置補正/ピッチ角算出処理の一例を説明する説明図である。It is explanatory drawing explaining an example of a position correction / pitch angle calculation process. 移動体検出システムの移動体検出制御の一部を示すフローチャート図である。It is a flowchart figure which shows a part of mobile body detection control of a mobile body detection system. 移動体検出システムの移動体検出制御の一部を示すフローチャート図である。It is a flowchart figure which shows a part of mobile body detection control of a mobile body detection system.

A 移動体検出システム
P 歩行者(移動体)
V 車両
1 情報センター
11 取得画像データベース(画像記憶手段)
12 地物輝度画像データベース(画像記憶手段)
13 地物距離画像データベース(画像記憶手段)
14 サーバ
14a 地物輝度画像作成処理部(地物画像作成手段)
14b 新設/撤去地物抽出処理部(新設/撤去地物抽出手段)
14d 地物距離画像作成処理部(距離画像作成手段)
2 車載ユニット
20 外界カメラ(撮像手段)
21 位置検出センサ(位置検出手段)
25 制御ユニット
25d 移動体抽出処理部(移動体抽出手段)
25e 移動体距離算出処理部(移動体距離算出手段)
25g 位置補正/ピッチ角算出処理部(位置補正/ピッチ角算出処理手段)
A Moving object detection system P Pedestrian (moving object)
V Vehicle 1 Information Center 11 Acquired image database (image storage means)
12 Feature brightness image database (image storage means)
13 Feature distance image database (image storage means)
14 Server 14a Feature luminance image creation processing unit (feature image creation means)
14b New / removal feature extraction processing section (new / removal feature extraction means)
14d Feature distance image creation processing unit (distance image creation means)
2 In-vehicle unit 20 External camera (imaging means)
21 Position detection sensor (position detection means)
25 Control unit 25d Moving object extraction processing unit (moving object extraction means)
25e Moving object distance calculation processing unit (moving object distance calculating means)
25g Position correction / pitch angle calculation processing section (position correction / pitch angle calculation processing means)

Claims (11)

車両に搭載され、該車両の周囲を撮像する撮像手段と、
上記車両の現在位置を検出する位置検出手段と、
撮像画像から移動体を削除した地物画像と該地物画像に対応する距離画像と該地物画像の撮像位置の情報とを記憶する画像記憶手段と、
上記位置検出手段により検出された車両の現在位置の情報と上記画像記憶手段により記憶された地物画像、距離画像、及び撮像位置の情報とに基づいて、該地物画像を上記車両の現在位置から見える画像に視点変換することにより、上記車両の現在位置における地物画像を作成して、上記撮像手段により車両の現在位置で撮像された撮像画像と上記車両の現在位置における地物画像とを差分処理して差分領域を移動体として抽出する移動体抽出手段と、
少なくとも、上記車両の現在位置における上記移動体抽出手段により抽出された移動体の接地部分の距離画像を含む、上記車両の現在位置における距離画像を作成して、該距離画像に基づいて、上記移動体の接地部分までの距離を該移動体までの距離として算出する移動体距離算出手段とを備えていることを特徴とする移動体検出システム。
An imaging means mounted on the vehicle for imaging the surroundings of the vehicle;
Position detecting means for detecting the current position of the vehicle;
Image storage means for storing a feature image obtained by deleting a moving object from a captured image, a distance image corresponding to the feature image, and information on an imaging position of the feature image;
Based on the information on the current position of the vehicle detected by the position detection means and the information on the feature image, the distance image, and the imaging position stored by the image storage means, the feature image is converted into the current position of the vehicle. The feature image at the current position of the vehicle is created by converting the viewpoint to an image that can be seen from the image, and the captured image captured at the current position of the vehicle by the imaging means and the feature image at the current position of the vehicle are Mobile object extraction means for performing differential processing and extracting a difference area as a mobile object;
Creating a distance image at the current position of the vehicle including at least a distance image of the ground contact portion of the moving object extracted by the moving object extracting means at the current position of the vehicle, and moving the vehicle based on the distance image A moving body detection system comprising: a moving body distance calculating means for calculating a distance to a grounded portion of the body as a distance to the moving body.
請求項1記載の移動体検出システムにおいて、
上記移動体抽出手段は、異なる位置における複数の地物画像を上記車両の現在位置から見える画像に視点変換して、該視点変換した各地物画像の欠落領域を互いに補完することにより、上記車両の現在位置における1つの地物画像を作成するように構成されていることを特徴とする移動体検出システム。
The moving object detection system according to claim 1,
The moving body extraction means converts a plurality of feature images at different positions into images that can be seen from the current position of the vehicle, and complements the missing regions of the feature images that have undergone the viewpoint conversion. A moving object detection system configured to create one feature image at a current position.
請求項1記載の移動体検出システムにおいて、
上記移動体距離算出手段は、上記車両の現在位置における上記移動体の接地部分の距離画像のみを作成するように構成されていることを特徴とする移動体検出システム。
The moving object detection system according to claim 1,
The moving body detection system, wherein the moving body distance calculation means is configured to create only a distance image of a ground contact portion of the moving body at a current position of the vehicle.
請求項1記載の移動体検出システムにおいて、
上記地物画像を作成して、該地物画像を上記画像記憶手段に記憶させる地物画像作成手段と、
上記距離画像を作成して、該距離画像を上記画像記憶手段に記憶させる距離画像作成手段とをさらに備えており、
上記画像記憶手段、上記地物画像作成手段、及び上記距離画像作成手段は、上記車両の外部に設置されかつ上記車両との間で相互通信可能な情報センターに設けられていることを特徴とする移動体検出システム。
The moving object detection system according to claim 1,
A feature image creating means for creating the feature image and storing the feature image in the image storage means;
A distance image creating means for creating the distance image and storing the distance image in the image storage means;
The image storage means, the feature image creation means, and the distance image creation means are provided in an information center installed outside the vehicle and capable of mutual communication with the vehicle. Mobile object detection system.
請求項4記載の移動体検出システムにおいて、
上記移動体抽出手段及び上記移動体距離算出手段は、上記車両に搭載されており、
上記情報センターは、上記車両が予め設定された所定の位置にあるときに、上記画像記憶手段により記憶された地物画像、距離画像、及び撮像位置の情報を上記車両に送信するように構成されていることを特徴とする移動体検出システム。
The moving body detection system according to claim 4,
The moving body extracting means and the moving body distance calculating means are mounted on the vehicle,
The information center is configured to transmit the feature image, the distance image, and the imaging position information stored by the image storage unit to the vehicle when the vehicle is at a predetermined position set in advance. A moving object detection system.
請求項1記載の移動体検出システムにおいて、
上記画像記憶手段により記憶された地物画像と、該地物画像に対応する撮像画像を撮像した後に撮像された撮像画像に対応する、上記画像記憶手段により記憶された地物画像と同じ撮像位置における地物画像とを差分処理して、差分領域を新設又は撤去された地物として抽出して、上記画像記憶手段により記憶された地物画像を更新する新設/撤去地物抽出手段をさらに備えていることを特徴とする移動体検出システム。
The moving object detection system according to claim 1,
The same imaging position as the feature image stored by the image storage unit corresponding to the feature image stored by the image storage unit and the captured image captured after capturing the captured image corresponding to the feature image And a new / removed feature extracting means for updating the feature image stored in the image storage means by extracting a difference area from the feature image and extracting the difference area as a new or removed feature. A moving object detection system.
請求項1記載の移動体検出システムにおいて、
異なる位置における複数の地物画像をマッチング処理して視差を算出して、該視差に基づいて、上記複数の地物画像のうちいずれかの地物画像に対応する距離画像を作成して、上記距離画像を上記画像記憶手段に記憶させる距離画像作成手段をさらに備えていることを特徴とする移動体検出システム。
The moving object detection system according to claim 1,
A parallax is calculated by matching a plurality of feature images at different positions, a distance image corresponding to any one of the plurality of feature images is created based on the parallax, and A moving object detection system further comprising distance image creation means for storing a distance image in the image storage means.
請求項7記載の移動体検出システムにおいて、
上記距離画像作成手段は、上記複数の地物画像を予め設定された所定の領域でマッチング処理するように構成されていることを特徴とする移動体検出システム。
The mobile object detection system according to claim 7, wherein
The distance image creating means is configured to perform a matching process on the plurality of feature images in a predetermined area set in advance.
請求項7記載の移動体検出システムにおいて、
上記距離画像作成手段は、上記複数の地物画像のうちいずれかの地物画像に対応する複数の距離画像を作成して、該複数の距離画像の距離情報を統計処理することにより、1つの距離画像を作成するように構成されていることを特徴とする移動体検出システム。
The mobile object detection system according to claim 7, wherein
The distance image creating means creates a plurality of distance images corresponding to any one of the plurality of feature images, and statistically processes the distance information of the plurality of distance images, thereby obtaining one A moving object detection system configured to create a distance image.
請求項1記載の移動体検出システムにおいて、
上記撮像手段により車両の現在位置で撮像された撮像画像と該車両の現在位置における地物画像とをマッチング処理して視差を算出して、該視差に基づいて、上記車両の位置補正量及び該車両のピッチ角のうち少なくとも一方を算出する位置補正/ピッチ角算出手段をさらに備えていることを特徴とする移動体検出システム。
The moving object detection system according to claim 1,
A parallax is calculated by performing a matching process on a captured image captured at the current position of the vehicle by the imaging unit and a feature image at the current position of the vehicle, and based on the parallax, the position correction amount of the vehicle and the vehicle A moving body detection system further comprising position correction / pitch angle calculation means for calculating at least one of the pitch angles of the vehicle.
車両に搭載され、該車両の周囲を撮像する撮像手段と、
撮像画像から移動体を削除した地物画像と該地物画像に対応する距離画像と該地物画像の撮像位置の情報とを記憶する画像記憶手段とを設けておき、
上記車両の現在位置を検出する位置検出工程と、
上記位置検出工程により検出された車両の現在位置の情報と上記画像記憶手段により記憶された地物画像、距離画像、及び撮像位置の情報とに基づいて、該地物画像を上記車両の現在位置から見える画像に視点変換することにより、上記車両の現在位置における地物画像を作成して、上記撮像手段により車両の現在位置で撮像された撮像画像と上記車両の現在位置における地物画像とを差分処理して差分領域を移動体として抽出する移動体抽出工程と、
少なくとも、上記車両の現在位置における上記移動体抽出工程により抽出された移動体の接地部分の距離画像を含む、上記車両の現在位置における距離画像を作成して、該距離画像に基づいて、上記移動体の接地部分までの距離を該移動体までの距離として算出する移動体距離算出工程とを備えていることを特徴とする移動体検出方法。
An imaging means mounted on the vehicle for imaging the surroundings of the vehicle;
An image storage means for storing a feature image obtained by deleting the moving object from the captured image, a distance image corresponding to the feature image, and information on an imaging position of the feature image;
A position detecting step for detecting the current position of the vehicle;
Based on the information on the current position of the vehicle detected by the position detection step and the information on the feature image, the distance image, and the imaging position stored in the image storage means, the feature image is converted into the current position of the vehicle. The feature image at the current position of the vehicle is created by converting the viewpoint to an image that can be seen from the image, and the captured image captured at the current position of the vehicle by the imaging means and the feature image at the current position of the vehicle are A moving body extraction step of performing difference processing and extracting a difference area as a moving body;
Creating a distance image at the current position of the vehicle including at least a distance image of a ground contact portion of the moving object extracted by the moving object extraction step at the current position of the vehicle, and moving the vehicle based on the distance image A moving body detection method comprising: a moving body distance calculating step of calculating a distance to a grounded portion of the body as a distance to the moving body.
JP2009082889A 2009-03-30 2009-03-30 Moving object detection system and moving object detection method Expired - Fee Related JP5278108B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009082889A JP5278108B2 (en) 2009-03-30 2009-03-30 Moving object detection system and moving object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009082889A JP5278108B2 (en) 2009-03-30 2009-03-30 Moving object detection system and moving object detection method

Publications (2)

Publication Number Publication Date
JP2010237810A true JP2010237810A (en) 2010-10-21
JP5278108B2 JP5278108B2 (en) 2013-09-04

Family

ID=43092087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009082889A Expired - Fee Related JP5278108B2 (en) 2009-03-30 2009-03-30 Moving object detection system and moving object detection method

Country Status (1)

Country Link
JP (1) JP5278108B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012098199A (en) * 2010-11-04 2012-05-24 Aisin Aw Co Ltd Reference pattern information generation device, method, and program, and general-vehicle position specification apparatus
JP2013247514A (en) * 2012-05-25 2013-12-09 Canon Inc Image processor, image processing method and program
WO2014013545A1 (en) * 2012-07-17 2014-01-23 三菱電機株式会社 In-vehicle device and center device
JP2014085184A (en) * 2012-10-22 2014-05-12 Toyota Motor Corp Feature information gathering system, center, and feature information gathering method
JP2015049192A (en) * 2013-09-03 2015-03-16 日立Geニュークリア・エナジー株式会社 Position detection device of underwater mobile body
JP2015177442A (en) * 2014-03-17 2015-10-05 パイオニア株式会社 Information processing apparatus, information processing method, information processing program, and computer readable recording medium containing information processing program
CN105730338A (en) * 2014-12-26 2016-07-06 爱信精机株式会社 Parking assisting apparatus
JP2019045892A (en) * 2017-08-29 2019-03-22 ソニー株式会社 Information processing apparatus, information processing method, program and movable body
WO2023286810A1 (en) * 2021-07-16 2023-01-19 株式会社小糸製作所 Stationary object information using device, program, stationary object information using method, vehicle system, and stationary object information using system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184375A (en) * 1997-12-25 1999-07-09 Toyota Motor Corp Apparatus and method for digital map data processing
JP2003319383A (en) * 2002-04-24 2003-11-07 Equos Research Co Ltd On-vehicle image processing apparatus
JP2008040965A (en) * 2006-08-09 2008-02-21 Honda Motor Co Ltd Road surface estimation device
JP2008045974A (en) * 2006-08-14 2008-02-28 Fuji Heavy Ind Ltd Object-detecting apparatus
JP2010205039A (en) * 2009-03-04 2010-09-16 Daihatsu Motor Co Ltd Obstacle detection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184375A (en) * 1997-12-25 1999-07-09 Toyota Motor Corp Apparatus and method for digital map data processing
JP2003319383A (en) * 2002-04-24 2003-11-07 Equos Research Co Ltd On-vehicle image processing apparatus
JP2008040965A (en) * 2006-08-09 2008-02-21 Honda Motor Co Ltd Road surface estimation device
JP2008045974A (en) * 2006-08-14 2008-02-28 Fuji Heavy Ind Ltd Object-detecting apparatus
JP2010205039A (en) * 2009-03-04 2010-09-16 Daihatsu Motor Co Ltd Obstacle detection device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012098199A (en) * 2010-11-04 2012-05-24 Aisin Aw Co Ltd Reference pattern information generation device, method, and program, and general-vehicle position specification apparatus
JP2013247514A (en) * 2012-05-25 2013-12-09 Canon Inc Image processor, image processing method and program
JPWO2014013545A1 (en) * 2012-07-17 2016-06-23 三菱電機株式会社 In-vehicle device and center device
WO2014013545A1 (en) * 2012-07-17 2014-01-23 三菱電機株式会社 In-vehicle device and center device
JP5734521B2 (en) * 2012-07-17 2015-06-17 三菱電機株式会社 In-vehicle device and center device
JP2014085184A (en) * 2012-10-22 2014-05-12 Toyota Motor Corp Feature information gathering system, center, and feature information gathering method
JP2015049192A (en) * 2013-09-03 2015-03-16 日立Geニュークリア・エナジー株式会社 Position detection device of underwater mobile body
JP2015177442A (en) * 2014-03-17 2015-10-05 パイオニア株式会社 Information processing apparatus, information processing method, information processing program, and computer readable recording medium containing information processing program
CN105730338A (en) * 2014-12-26 2016-07-06 爱信精机株式会社 Parking assisting apparatus
JP2019045892A (en) * 2017-08-29 2019-03-22 ソニー株式会社 Information processing apparatus, information processing method, program and movable body
US11288860B2 (en) 2017-08-29 2022-03-29 Sony Corporation Information processing apparatus, information processing method, program, and movable object
JP7043755B2 (en) 2017-08-29 2022-03-30 ソニーグループ株式会社 Information processing equipment, information processing methods, programs, and mobiles
WO2023286810A1 (en) * 2021-07-16 2023-01-19 株式会社小糸製作所 Stationary object information using device, program, stationary object information using method, vehicle system, and stationary object information using system

Also Published As

Publication number Publication date
JP5278108B2 (en) 2013-09-04

Similar Documents

Publication Publication Date Title
JP5278108B2 (en) Moving object detection system and moving object detection method
US11315420B2 (en) Moving object and driving support system for moving object
CN106463051B (en) Traffic signal recognition device and traffic signal recognition method
JP5472142B2 (en) Map data generation device and driving support device
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
KR20170016473A (en) Methods and systems for generating route data
JP2014096135A (en) Moving surface boundary recognition device, mobile equipment control system using the same, moving surface boundary recognition method, and program for recognizing moving surface boundary
JP2011080845A (en) Method and apparatus for creating three-dimensional data
US10733464B2 (en) Method, system and device of obtaining 3D-information of objects
JP2010224930A (en) Road recognition device
JP6622664B2 (en) Self-vehicle position specifying device and self-vehicle position specifying method
JP5163165B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP6278790B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP2011027595A (en) Map data verification system
JP2007264712A (en) Lane detector
JP5544595B2 (en) Map image processing apparatus, map image processing method, and computer program
JP2007011994A (en) Road recognition device
JP2008309637A (en) Obstruction measuring method, obstruction measuring apparatus, and obstruction measuring system
JP2007334511A (en) Object detection device, vehicle, object detection method and program for object detection
JP2017117105A (en) Visibility determination device
JP2014130429A (en) Photographing device and three-dimensional object area detection program
JP2008033781A (en) Road surface gradient detection device and image display device
JP6370234B2 (en) MAP DATA GENERATION DEVICE, MAP DATA GENERATION METHOD, MAP DATA GENERATION COMPUTER PROGRAM, AND VEHICLE POSITION DETECTION DEVICE
WO2020113425A1 (en) Systems and methods for constructing high-definition map
CN116343165A (en) 3D target detection system, method, terminal equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120123

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120312

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130506

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5278108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees