JP5073461B2 - Vehicle perimeter monitoring system - Google Patents

Vehicle perimeter monitoring system Download PDF

Info

Publication number
JP5073461B2
JP5073461B2 JP2007308894A JP2007308894A JP5073461B2 JP 5073461 B2 JP5073461 B2 JP 5073461B2 JP 2007308894 A JP2007308894 A JP 2007308894A JP 2007308894 A JP2007308894 A JP 2007308894A JP 5073461 B2 JP5073461 B2 JP 5073461B2
Authority
JP
Japan
Prior art keywords
road surface
image
vehicle
unit
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007308894A
Other languages
Japanese (ja)
Other versions
JP2009135663A (en
Inventor
吉孝 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2007308894A priority Critical patent/JP5073461B2/en
Publication of JP2009135663A publication Critical patent/JP2009135663A/en
Application granted granted Critical
Publication of JP5073461B2 publication Critical patent/JP5073461B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両周辺監視システムに関し、詳細には、カメラによって撮影された原画像を俯瞰画像に変換処理するシステムの改良に関する。   The present invention relates to a vehicle periphery monitoring system, and more particularly to an improvement in a system that converts an original image taken by a camera into an overhead image.

車両の周辺を洩れなく監視するためには、少なくとも車両の前後および左右に計4つのセンサを設置する必要がある。   In order to monitor the surroundings of the vehicle without omission, it is necessary to install a total of four sensors at least in the front and rear and left and right sides of the vehicle.

そして、センサとして例えばミリ波レーダを用い、車両に近接する物体をミリ波レーダで検知する監視システム(特許文献1)や、センサとしてステレオカメラを用い、物体までの距離をステレオカメラの撮影画像に基づいて計測することで車両の周辺を監視するシステム(特許文献2)が知られている。
特開2004−142660号公報 特開2000−261787号公報
For example, a millimeter wave radar is used as a sensor, and a monitoring system (Patent Document 1) that detects an object close to the vehicle using a millimeter wave radar, or a stereo camera is used as a sensor, and the distance to the object is converted into a captured image of the stereo camera. A system (Patent Document 2) that monitors the periphery of a vehicle by measuring based on the above is known.
JP 2004-142660 A JP 2000-261787 A

ところで、上述した特許文献により開示されている先行技術は、ミリ波レーダやステレオカメラを用いて車両周辺の物体を検出する構成であるが、このようなレーダやステレオカメラは特殊なものであるため高価であり、これらレーダ等の部品コストが、車両周辺監視システムの全体の製造コストに反映されて、製品価格の上昇を招くという問題がある。   By the way, the prior art disclosed by the above-mentioned patent document is a configuration for detecting an object around the vehicle using a millimeter wave radar or a stereo camera, but such a radar or stereo camera is special. There is a problem that the cost of the parts such as the radar is reflected in the entire manufacturing cost of the vehicle periphery monitoring system, resulting in an increase in product price.

本発明は上記事情に鑑みなされたもので、車載用として市販等されている一般的なカメラを用いて、安価な車両周辺監視システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an inexpensive vehicle periphery monitoring system using a general camera that is commercially available for in-vehicle use.

本発明に係る車両周辺監視システムは、車載用の一般的なカメラを用いて得られた原画像を俯瞰画像に変換し、この俯瞰画像に基づいて車両周辺における路面以外の物体を検出することで、車両周辺監視システムを安価に提供するものである。   The vehicle periphery monitoring system according to the present invention converts an original image obtained using a general vehicle-mounted camera into an overhead image, and detects an object other than a road surface around the vehicle based on the overhead image. The vehicle periphery monitoring system is provided at a low cost.

すなわち、本発明に係る車両周辺監視システムは、車両の周辺のうち少なくとも一部を撮影するカメラと、前記カメラによって得られた原画像を俯瞰画像に変換処理する画像変換処理装置と、前記画像変換処理装置によって得られた前記俯瞰画像に基づいて、前記車両の周辺における路面以外の物体の有無を検出する物体検出処理装置と、前記画像変換処理装置によって得られた前記俯瞰画像を表示するとともに、前記物体検出処理装置によって得られた前記物体の、前記俯瞰画像中における表示部分を強調する表示を重畳して表示する画像表示装置と、を備え、前記物体検出処理装置は、前記俯瞰画像中における前記路面ではない領域を検出する非路面領域検出部と、前記俯瞰画像中における移動体ではない領域を検出する非移動体領域検出部と、前記非路面領域検出部によって得られた非路面領域と前記非移動体領域検出部によって得られた非移動体領域とに基づいて、路面でなく、かつ移動体でない静止体を前記物体として検出する静止体検出部と、を備えたことを特徴とする。 That is, the vehicle periphery monitoring system according to the present invention includes a camera that captures at least a part of the periphery of the vehicle, an image conversion processing device that converts an original image obtained by the camera into an overhead image, and the image conversion Based on the bird's-eye view image obtained by the processing device, an object detection processing device that detects the presence or absence of an object other than the road surface around the vehicle, and the bird's-eye view image obtained by the image conversion processing device are displayed. wherein the object obtained by the object detection apparatus, e Bei and an image display device for displaying by superimposing the display emphasizes the display portion during the overhead image, the object detecting apparatus, the overhead image in A non-road surface area detection unit that detects an area that is not a road surface in the vehicle, and a non-moving body area detection unit that detects an area that is not a mobile body in the overhead image. And a non-moving body region obtained by the non-road surface area detection unit and the non-moving body region obtained by the non-moving body region detection unit. And a stationary body detection unit that detects the above.

このように構成された本発明に係る車両周辺監視システムによれば、カメラで撮影して得られた原画像を、画像変換処理装置が変換処理によって俯瞰画像に変換し、物体検出処理装置が、得られた俯瞰画像に基づいて車両周辺の路面以外の物体を検出することにより、車両周辺の障害物などの物体を簡易に検出することができる。   According to the vehicle periphery monitoring system according to the present invention configured as described above, an image conversion processing device converts an original image obtained by photographing with a camera into a bird's-eye view image by conversion processing, and an object detection processing device By detecting an object other than the road surface around the vehicle based on the obtained bird's-eye view image, an object such as an obstacle around the vehicle can be easily detected.

したがって、本発明に係る車両周辺監視システムは、車載用として市販等されている一般的なカメラを用いているため、安価に提供することができる。   Therefore, the vehicle periphery monitoring system according to the present invention can be provided at low cost because it uses a general camera that is commercially available for in-vehicle use.

本発明に係る車両周辺監視システムによれば、車載用として市販等されている一般的なカメラを用いているため、安価に提供することができる。   According to the vehicle periphery monitoring system according to the present invention, since a general camera that is commercially available for in-vehicle use is used, it can be provided at low cost.

以下、図面を参照して本発明に係る車両周辺監視システム100の実施の形態について説明する。   Hereinafter, an embodiment of a vehicle periphery monitoring system 100 according to the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係る車両周辺監視システム100の構成を示すブロック図、図2は、図1に示したシステム100を、より具体的な構成によって表したブロック図、図3は、俯瞰映像に設定された窓エリアwを示す図、図4は、図2に示したシステム100の処理手順を示すフローチャートである。   FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring system 100 according to an embodiment of the present invention, FIG. 2 is a block diagram showing the system 100 shown in FIG. 1 with a more specific configuration, and FIG. The figure which shows the window area w set to the bird's-eye view image, FIG. 4 is a flowchart which shows the process sequence of the system 100 shown in FIG.

図示の車両周辺監視システム100は、図1に示すように、車両の四隅部にそれぞれに設置されて、この車両の周辺(車両の右サイド方向、左サイド方向、前方向、後方向)のうちそれぞれ少なくとも一部を撮影する4つのカメラ10と、これら4つのカメラ10によって得られた原画像をそれぞれ俯瞰画像に変換処理するとともに、得られた4つの俯瞰画像を、車両を中心として単一の俯瞰画像に合成処理する画像変換処理装置20と、画像変換処理装置20によって得られた俯瞰画像(合成して得られた単一の俯瞰画像。以下、同じ。)に基づいて、車両の周辺における障害物(路面以外の物体)の有無を検出する物体検出処理装置30と、画像変換処理装置20によって得られた俯瞰画像を表示するとともに、物体検出処理装置30によって得られた障害物の、俯瞰画像中における表示部分を強調する画像表示装置40と、を備えた構成である。   As shown in FIG. 1, the vehicle periphery monitoring system 100 shown in the figure is installed at each of the four corners of the vehicle, and the vehicle periphery (right side direction, left side direction, front direction, rear direction of the vehicle) Each of the four cameras 10 for photographing at least a part and the original images obtained by these four cameras 10 are converted into overhead images, and the obtained four overhead images are converted into a single centered on the vehicle. Based on the image conversion processing device 20 that performs composition processing on the bird's-eye view image, and the bird's-eye view image obtained by the image conversion processing device 20 (a single bird's-eye view image obtained by synthesis, the same applies hereinafter), The object detection processing device 30 that detects the presence or absence of an obstacle (an object other than the road surface) and the overhead image obtained by the image conversion processing device 20 are displayed on the object detection processing device 30. Of the resulting obstacle I, emphasizing the image display device 40 to display part in the overhead image, a configuration in which a.

ここで、物体検出処理装置30は、俯瞰画像中における路面ではない領域を検出する非路面領域検出部31と、俯瞰画像中における移動体ではない領域を検出する非移動体領域検出部35と、非路面領域検出部31によって得られた非路面領域と非移動体領域検出部35によって得られた非移動体領域とに基づいて、路面でなく、かつ移動体でない静止体を上記障害物として検出する静止体検出部39aと、俯瞰画像を階調数nの画像に変換するn階調画像変換部38と、n階調画像変換部38によって得られた階調数nの画像を、複数のフレーム間で画素ごとに比較して、車両の周辺における移動体を障害物(物体)として検出する移動体検出部39bと、を備えている。   Here, the object detection processing device 30 includes a non-road surface area detection unit 31 that detects a non-road area in the overhead image, a non-moving body area detection unit 35 that detects a non-moving area in the overhead image, Based on the non-road surface region obtained by the non-road surface region detection unit 31 and the non-moving body region obtained by the non-moving body region detection unit 35, a stationary body that is not a road surface and is not a moving body is detected as the obstacle. A stationary object detection unit 39a, an n-gradation image conversion unit 38 that converts an overhead image into an image with a gradation number n, and an image with a gradation number n obtained by the n-gradation image conversion unit 38. And a moving body detection unit 39b that detects a moving body in the vicinity of the vehicle as an obstacle (object) as compared with each pixel between frames.

さらに詳しくは、非路面領域検出部31は、特定の時点における俯瞰画像中の車両の周辺領域の輝度および色彩を、路面を表す基準値として予め算出するとともに、算出された基準値を記憶した路面基準値算出部32と、逐次の俯瞰画像中の車両の周辺領域の輝度および色彩を指標値として逐次算出する路面指標値算出部33と、路面指標値算出部33により算出された路面指標値と路面基準値算出部32により予め記憶された路面基準値とを比較して、逐次の俯瞰画像中の車両の周辺領域が非路面領域であるか否かを判定する非路面領域判定部34と、を備えている。   More specifically, the non-road surface area detection unit 31 calculates in advance the brightness and color of the surrounding area of the vehicle in the overhead view image at a specific time as a reference value representing the road surface, and stores the calculated reference value A reference value calculation unit 32, a road surface index value calculation unit 33 that sequentially calculates the brightness and color of the surrounding area of the vehicle in successive bird's-eye views as index values, and a road surface index value calculated by the road surface index value calculation unit 33 A non-road surface area determination unit 34 that compares the road surface reference value stored in advance by the road surface reference value calculation unit 32 and determines whether or not the surrounding area of the vehicle in the sequential bird's-eye view image is a non-road surface area; It has.

ここで、路面基準値算出部32は、車両の周囲環境(天候状態や昼夜など環境光の状況や、停止乃至走行しているときの路面の状況(舗装路か否か、舗装路や地面の色具合等の状況など))の変化を考慮して、適当な時間間隔で基準値の算出を繰り返し、基準値を更新していくものとする。   Here, the road surface reference value calculation unit 32 determines the surrounding environment of the vehicle (conditions of ambient light such as weather conditions and day and night, and the state of the road surface when the vehicle is stopped or running (whether it is a paved road, whether it is a paved road or ground surface). In consideration of changes in color conditions, etc.)), the calculation of the reference value is repeated at appropriate time intervals, and the reference value is updated.

非移動体領域検出部35は、逐次の俯瞰画像間の対応画素間で車両の周辺領域の輝度および色彩の指標値の差を算出する指標値差分算出部36と、指標値差分算出部36により算出された指標値差分に基づいて、逐次の俯瞰画像中の車両の周辺領域に移動体の有無を判定する非移動体判定部37と、を備えている。   The non-moving body region detection unit 35 includes an index value difference calculation unit 36 that calculates a difference between the brightness and color index values of the peripheral region of the vehicle between corresponding pixels between successive bird's-eye views, and an index value difference calculation unit 36. A non-moving body determination unit 37 that determines the presence / absence of a moving body in a peripheral area of the vehicle in successive bird's-eye views based on the calculated index value difference.

静止体検出部39aは、非路面領域判定部34により非路面と判定され、かつ非移動体判定部37により非移動体と判定された領域を、上述した静止体(静止した障害物)として検出する。   The stationary object detection unit 39a detects the area determined as a non-road surface by the non-road surface area determination unit 34 and determined as a non-moving object by the non-moving object determination unit 37 as the above-described stationary object (stationary obstacle). To do.

ここで、上述した図1に示した構成と、図2に示した具体的な構成との対応関係について説明する。   Here, the correspondence between the configuration shown in FIG. 1 and the specific configuration shown in FIG. 2 will be described.

すなわち、カメラ10は車載カメラとして一般的に用いられている単眼カメラ71,画像変換処理装置20は第1画像処理部72、路面基準値算出部32は第2画像処理部73、路面指標値算出部33は第3画像処理部74、非路面領域判定部34は第1画像認識部75、指標値差分算出部36は第3画像処理部74、非移動体判定部37は第1画像認識部75、静止体検出部39aは第1画像認識部75、n階調画像変換部38は第4画像処理部76、移動体検出部39bは第5画像処理部77および第2画像認識部78、画像表示装置40は画像表示部79、にそれぞれ対応している。   That is, the camera 10 is a monocular camera 71 generally used as an in-vehicle camera, the image conversion processing device 20 is a first image processing unit 72, the road surface reference value calculating unit 32 is a second image processing unit 73, and a road surface index value is calculated. The unit 33 is a third image processing unit 74, the non-road surface area determination unit 34 is a first image recognition unit 75, the index value difference calculation unit 36 is a third image processing unit 74, and the non-moving body determination unit 37 is a first image recognition unit. 75, the stationary object detection unit 39a is the first image recognition unit 75, the n-tone image conversion unit 38 is the fourth image processing unit 76, the moving object detection unit 39b is the fifth image processing unit 77 and the second image recognition unit 78, The image display device 40 corresponds to the image display unit 79.

なお、単眼カメラ71(カメラ10)は、上述したものでは4つであるが、車両200(図3)の周囲のほぼ全域を撮影できるものであれば4つに限るものではなく、1つ以上であればいくつであってもよい。   Note that the number of monocular cameras 71 (cameras 10) is four in the above-described one, but the number is not limited to four as long as the entire area around the vehicle 200 (FIG. 3) can be photographed. Any number can be used.

そして、第1画像処理部72は、単眼カメラ71の映像に基づいて、図3に示すような俯瞰映像(俯瞰画像)を生成する(図4におけるステップ1(S1))。   Then, the first image processing unit 72 generates an overhead view video (overhead image) as shown in FIG. 3 based on the video of the monocular camera 71 (step 1 (S1) in FIG. 4).

この俯瞰映像は、車両200の前後左右に設置された単眼カメラ71の映像(画像)に基づいて、車両200の上空から車両200の周辺を見た映像に変換処理するものである。   This bird's-eye view image is converted into an image in which the periphery of the vehicle 200 is viewed from above the vehicle 200 based on the images (images) of the monocular cameras 71 installed on the front, rear, left and right of the vehicle 200.

車両200の運転者等に視認させる画像表示部79への表示においては、例えば車両200自体を車両の平面図を模した絵としてスーパーインポーズ等により俯瞰映像に重畳表示することで、車両200に対する周辺の状況を運転者等に把握させることができる。   In the display on the image display unit 79 that is visually recognized by the driver or the like of the vehicle 200, for example, the vehicle 200 itself is superimposed and displayed on the overhead view image by superimpose as a picture imitating a plan view of the vehicle. The driver can grasp the surrounding situation.

なお、図3に示した表示レイアウトは一例に過ぎず、車両200の周辺の俯瞰の表示方法は他にも種々のものを適用することができるが、図3のような俯瞰映像の表示のポイントは以下の通りである。   The display layout shown in FIG. 3 is merely an example, and various other methods for displaying the bird's-eye view around the vehicle 200 can be applied. Is as follows.

すなわち、俯瞰映像は、画像処理の方法によりカメラ映像(原画像)の遠方領域はぼやける。したがって、そのぼやけた領域は表示映像として不要とする。   That is, in the bird's-eye view video, the far region of the camera video (original image) is blurred by the image processing method. Therefore, the blurred area is unnecessary as a display image.

次に、俯瞰映像に基づいて、第2画像処理部73において、窓エリアw(窓領域)の輝度および色彩の基準値を算出する。   Next, based on the bird's-eye view video, the second image processing unit 73 calculates the luminance and color reference values of the window area w (window area).

ここで、窓エリアwとは、図3の俯瞰映像において、車両の周辺領域に小さい窓(例えば、数10程度の画素エリア)を複数個(図3の例では24個(窓エリアw11,w12,…,w25,…,w43,…,w46))設定し(図4のS2)、これらの窓エリアw11〜w46の中の画素の輝度および色彩を取得する(図4のS3)。   Here, the window area w refers to a plurality of small windows (for example, several tens of pixel areas) in the peripheral area of the vehicle in the bird's-eye view image of FIG. 3 (24 areas (window areas w11 and w12 in the example of FIG. 3)). ,..., W25,..., W43,..., W46)) are set (S2 in FIG. 4), and the luminance and color of the pixels in these window areas w11 to w46 are acquired (S3 in FIG. 4).

輝度および色彩の取得は、例えば各窓エリア内に含まれる多数の画素の輝度値や色彩を表現する値で取得される。   For example, the luminance and the color are acquired with values representing the luminance values and colors of a large number of pixels included in each window area.

なお、ノイズなどの影響を低減するため、一例として数フレームの平均値で算出するのが好ましい。また、経時変化も考慮して適当な時間間隔で輝度および色彩の取得を更新する。   In order to reduce the influence of noise and the like, it is preferable to calculate with an average value of several frames as an example. In addition, the luminance and color acquisition is updated at appropriate time intervals in consideration of changes with time.

各窓エリアw11〜w46ごとに得られた輝度および色彩は、例えば各窓エリアw内に含まれる画素ごとの輝度および色彩について頻度の多いものを各窓エリアの基準値とし、この基準値を、各窓エリアw11〜w46に対応する路面の輝度および色彩の基準値として記憶する(図4のS4)。   For the luminance and color obtained for each window area w11 to w46, for example, the luminance and color of each pixel included in each window area w are frequently used as the reference value for each window area, and this reference value is The road surface brightness and color reference values corresponding to the window areas w11 to w46 are stored (S4 in FIG. 4).

なお、路面の状況によっては、俯瞰映像の各窓に対応する領域の輝度および色彩が全ての窓エリアw間で同一にはならない場合もあり(舗装部分と土の箇所など)、この場合は、窓エリアwごとに基準値は異なるものとなるため、各窓エリアwごとの基準値として、類似の輝度および色彩の多い順に基準値を複数個記憶して、それらを背景情報(車両の周辺の対応した輝度および色彩に対応した情報)として用いるのが好ましい。   Depending on the road surface, the brightness and color of the area corresponding to each window in the overhead view video may not be the same between all window areas w (such as pavement and soil), in this case, Since the reference values are different for each window area w, a plurality of reference values are stored as reference values for each window area w in descending order of similar luminance and color, and they are stored as background information (vehicle surroundings). It is preferably used as information corresponding to the corresponding luminance and color.

第3画像処理部74は、俯瞰映像のカメラ映像のフレーム間における輝度および色彩を算出し、各フレームに対応するこれらの値を、逐次の俯瞰画像(俯瞰映像を構成するフレーム)の指標値とする(図4のS6)。   The third image processing unit 74 calculates brightness and color between frames of the camera video of the overhead view video, and uses these values corresponding to each frame as index values of sequential overhead view images (frames constituting the overhead view video). (S6 in FIG. 4).

なお、カメラ映像におけるフレームは、通常は30フレーム/秒であるが、指標値演算の負荷を軽減させるために、15フレーム/秒で算出するのが好ましい。   The frame in the camera video is usually 30 frames / second, but is preferably calculated at 15 frames / second in order to reduce the load of index value calculation.

そして、第1画像認識部75が、窓エリアwごとに、かつフレームごとに算出された指標値を第2画像処理部73で記憶された基準値と比較し、基準値と同一の指標値を有する画素を除外する(図4のS7)。これにより、窓エリアwごとに、路面ではないと判定される非路面領域が検出される。   Then, the first image recognition unit 75 compares the index value calculated for each window area w and for each frame with the reference value stored in the second image processing unit 73, and determines the same index value as the reference value. Excluded pixels are excluded (S7 in FIG. 4). Thereby, the non-road surface area | region determined not to be a road surface is detected for every window area w.

さらに、第3画像処理部74は、フレーム間で指標値の差分を算出し、第1画像認識部75は、差分が0または0に近い値である領域を、フレーム間で差異の生じた領域、すなわち、車両200の周辺に輝度および色彩の変化のある領域が出現したことを判定する。   Further, the third image processing unit 74 calculates a difference in index value between frames, and the first image recognition unit 75 determines an area where the difference is 0 or a value close to 0 as an area where a difference occurs between frames. That is, it is determined that a region having changes in luminance and color has appeared around the vehicle 200.

ここで、車両が走行している場合には、上述した輝度および色彩の変化のある領域は、静止している障害物(静止体)か、または移動している障害物(移動体)かのいずれかであるが、移動体の検出は後の処理で行うため、上述した輝度および色彩の変化のある領域は静止した障害物と判定する(図4のS8)。   Here, when the vehicle is traveling, the above-described region where the luminance and the color change are the obstacle (stationary object) that is stationary or the obstacle (moving object) that is moving In any case, since the detection of the moving object is performed in a later process, the above-described region where the luminance and the color are changed is determined as a stationary obstacle (S8 in FIG. 4).

以上の作用により、静止体検出部39aである第1画像認識部75は、路面ではなく、かつ静止体(移動体でない)を検出し、その検出された静止体の存在位置を表す情報を画像表示部79に出力する。   By the above operation, the first image recognition unit 75 that is the stationary body detection unit 39a detects a stationary body (not a moving body) that is not a road surface, and displays information indicating the detected position of the stationary body as an image. The data is output to the display unit 79.

上述した静止体の検出処理において、演算量の負荷を軽減するために、後述する第2画像認識部78で算出された移動体の位置情報(俯瞰映像における座標:図4におけるS12)を用い、その領域は予め除外する(図4のS5)ようにしてもよい。   In the stationary object detection process described above, in order to reduce the load of calculation amount, the position information of the moving object (coordinates in the overhead view image: S12 in FIG. 4) calculated by the second image recognition unit 78 described later is used. The area may be excluded in advance (S5 in FIG. 4).

なお、以上の静止体の判定は、数フレーム間に亘って画像認識(例えば、突然に出現した輝度および色彩情報でなく、俯瞰を行っている中で定常的に存在しているものである等の判断)を行い、静止体と判定をするのが好ましい。   In addition, the above determination of a stationary object is an image recognition over several frames (for example, it is not a sudden appearance of luminance and color information, but is constantly present while performing an overhead view) It is preferable to determine that the object is stationary.

次に、第4画像処理部76は、俯瞰映像から色彩の情報を削除して無彩色のグレースケール(白黒のn階調)の映像を生成する(図4のS10)。これにより、カラーの俯瞰映像を用いた場合よりも、後段の第2画像認識部78での演算量を軽減させることができる。   Next, the fourth image processing unit 76 deletes the color information from the bird's-eye view video, and generates an achromatic gray scale (black and white n gradation) video (S10 in FIG. 4). Thereby, it is possible to reduce the amount of calculation in the second image recognition unit 78 in the subsequent stage, compared with the case where a color overhead view video is used.

なお、このn階調映像の階調数nは、第2画像認識部78の演算処理能力および所望とする移動体の検知精度に応じて適宜変更することができる。   Note that the number n of gradations of the n-gradation video can be appropriately changed according to the arithmetic processing capability of the second image recognition unit 78 and the desired detection accuracy of the moving body.

第5画像処理部77は、白黒n階調映像からフレーム間における動きのあるものを検出する(図4のS11)。具体的には、得られた階調数nの画像を、複数のフレーム間で画素ごとに比較して、車両200の周辺における移動する障害物(移動体)を物体として検出する。   The fifth image processing unit 77 detects a motion between frames from the black and white n-gradation video (S11 in FIG. 4). Specifically, the obtained image having the number of gradations n is compared for each pixel between a plurality of frames, and an obstacle (moving body) moving around the vehicle 200 is detected as an object.

ここで、車両200が停止している場合は、第5画像処理部77はフレーム間での画素値(輝度値)の変化が移動体の候補と判定し、その移動体の候補の領域の座標情報が第2画像認識部78に出力される(図4のS11)。   Here, when the vehicle 200 is stopped, the fifth image processing unit 77 determines that a change in pixel value (brightness value) between frames is a candidate for a moving object, and coordinates of the region of the candidate for the moving object. Information is output to the second image recognition unit 78 (S11 in FIG. 4).

一方、車両200が移動している場合は、第2画像認識部78は、複数のフレーム間で画素ごとの値の比較に先だち、車両200自体の移動によって生じる複数のフレーム間での対応画素の値を補正(または画素の位置情報を車両200の移動に伴って変更)すればよく、車両200の動き成分を補間することで車両200の停止時と同様に移動体の領域の位置情報(座標情報)を取得する(図4のS11)。   On the other hand, when the vehicle 200 is moving, the second image recognizing unit 78 compares the corresponding pixels between the plurality of frames generated by the movement of the vehicle 200 itself before comparing the values for each pixel between the plurality of frames. It is only necessary to correct the value (or change the pixel position information as the vehicle 200 moves), and by interpolating the motion component of the vehicle 200, the position information (coordinates) of the area of the moving body is the same as when the vehicle 200 is stopped. Information) is acquired (S11 in FIG. 4).

以上の作用により、動きのある障害物の候補の座標情報がひと通り得られ、これら障害物の候補に対応した座標情報に基づいて、第2画像認識部78は移動体の判定を行うが、ここで、単一または2以上の複数のフレームにおいて得られた座標情報の、フレーム間での変化(動き)を、第2画像認識部78が、統計処理によって分析することで、真の移動体であると判定した候補の座標(図4のS12)に限り、その移動体候補の領域の座標を出力する。   With the above operation, the coordinate information of the moving obstacle candidate is obtained, and the second image recognition unit 78 determines the moving object based on the coordinate information corresponding to the obstacle candidate. Here, the second image recognition unit 78 analyzes the change (motion) between the frames of coordinate information obtained in a single frame or a plurality of frames by a statistical process, so that a true moving object is obtained. Only the coordinates of the candidate determined to be (S12 in FIG. 4) are outputted.

なお、この移動体の座標情報は、前述した第3画像処理部74における演算負荷の軽減のためのマスク情報として与えられる(図4のS5)とともに、画像表示部79に出力される。   The coordinate information of the moving body is provided as mask information for reducing the calculation load in the third image processing unit 74 described above (S5 in FIG. 4) and is output to the image display unit 79.

以上の処理によって静止体および移動体の座標情報が入力された画像表示部79は、図3に示すように俯瞰画像を表示するとともに、第1画像認識部75で検出された静止体および第2画像認識部78で検出された移動体の、俯瞰画像中における表示部分を強調して表示し、運転者等に対して、その静止体および移動体の存在について注意を促す。   The image display unit 79 to which the coordinate information of the stationary body and the moving body is input by the above processing displays an overhead image as shown in FIG. 3 and also displays the stationary body and the second body detected by the first image recognition unit 75. The display part in the bird's-eye view image of the moving body detected by the image recognition unit 78 is displayed in an emphasized manner, and the driver or the like is cautioned about the presence of the stationary body and the moving body.

つまり、画像表示部79に表示として出力された俯瞰映像(車両200の模式表示を含む)に、移動体および静止体の座標情報から表示上該当する座標に、障害物(移動体および静止体)として明示する(図4のS9)。この明示方法としては、
(1)当該障害物に対応した領域を枠で囲む、
(2)当該障害物に対応した領域にアイコンを設置する、
(3)当該障害物に対応した領域に記号を表示する、
(4)当該障害物に対応した領域の色を他の領域の色とは異なる色とする、
(5)当該障害物に対応した領域を明滅させる、
等を適用することができる。
That is, an obstacle (moving body and stationary body) is displayed on the overhead view video (including a schematic display of the vehicle 200) output as a display on the image display unit 79 from the coordinate information of the moving body and stationary body to the corresponding coordinates on the display. (S9 in FIG. 4). As this explicit method,
(1) Surround the area corresponding to the obstacle with a frame,
(2) Place an icon in the area corresponding to the obstacle,
(3) Display a symbol in the area corresponding to the obstacle,
(4) The color of the area corresponding to the obstacle is different from the color of the other areas.
(5) blink the area corresponding to the obstacle,
Etc. can be applied.

また、本実施形態の車両周辺監視システム100が、図2に示すように、さらに警報音発報器80を備えるものとした構成では、画像表示部79に障害物の表示を行うだけでなく、警報音発報器80が音声やその他の警報音を発報することで、運転者等への注意喚起レベルをさらに高めるようにしてもよい。   Further, in the configuration in which the vehicle periphery monitoring system 100 of the present embodiment is further provided with an alarm sound generator 80 as shown in FIG. 2, not only the obstacle is displayed on the image display unit 79, The warning sound generator 80 may issue a voice or other warning sound to further increase the level of alerting the driver or the like.

以上のように、本実施形態に係る車両周辺監視システム100によれば、車載用として市販等されている一般的なカメラ10を用いているため、安価に提供することができる。   As described above, according to the vehicle periphery monitoring system 100 according to the present embodiment, since the general camera 10 that is commercially available for in-vehicle use is used, it can be provided at low cost.

すなわち、単眼カメラ71を用いることで、コスト的に有利な製品を提供でき、車両周辺の障害物を検知することで、運転者への安全運転の支援が可能となる。   That is, by using the monocular camera 71, it is possible to provide an advantageous product in terms of cost, and by detecting an obstacle around the vehicle, it is possible to assist the driver with safe driving.

なお、車載の一般的なカメラで得られた原画像に基づいて俯瞰画像を得る方法については、例えば特開2002−034035号公報等において既に公知の技術を適用すればよい。   As a method for obtaining a bird's-eye view image based on an original image obtained with a general vehicle-mounted camera, for example, a technique already known in Japanese Patent Application Laid-Open No. 2002-034035 may be applied.

本発明の実施形態に係る車両周辺監視システムの構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle periphery monitoring system which concerns on embodiment of this invention. 図1に示したシステムを、より具体的な構成によって表したブロック図である。FIG. 2 is a block diagram illustrating the system illustrated in FIG. 1 with a more specific configuration. 俯瞰映像に設定された窓エリアを示す図である。It is a figure which shows the window area set to the bird's-eye view image | video. 図2に示した車両周辺監視システムの処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the vehicle periphery monitoring system shown in FIG.

符号の説明Explanation of symbols

71 単眼カメラ
72 第1画像処理部
73 第2画像処理部
74 第3画像処理部
75 第1画像認識部
76 第4画像処理部
77 第5画像処理部
78 第2画像認識部
79 画像表示部
80 警報音発報器
100 車両周辺監視システム
71 monocular camera 72 first image processing unit 73 second image processing unit 74 third image processing unit 75 first image recognition unit 76 fourth image processing unit 77 fifth image processing unit 78 second image recognition unit 79 image display unit 80 Alarm sound generator 100 Vehicle periphery monitoring system

Claims (7)

車両の周辺のうち少なくとも一部を撮影するカメラと、
前記カメラによって得られた原画像を俯瞰画像に変換処理する画像変換処理装置と、
前記画像変換処理装置によって得られた前記俯瞰画像に基づいて、前記車両の周辺における路面以外の物体の有無を検出する物体検出処理装置と、
前記画像変換処理装置によって得られた前記俯瞰画像を表示するとともに、前記物体検出処理装置によって得られた前記物体の、前記俯瞰画像中における表示部分を強調する画像表示装置と、を備え、
前記物体検出処理装置は、
前記俯瞰画像中における前記路面ではない領域を検出する非路面領域検出部と、
前記俯瞰画像中における移動体ではない領域を検出する非移動体領域検出部と、
前記非路面領域検出部によって得られた非路面領域と前記非移動体領域検出部によって得られた非移動体領域とに基づいて、路面でなく、かつ移動体でない静止体を前記物体として検出する静止体検出部と、を備えたことを特徴とする車両周辺監視システム。
A camera for photographing at least a part of the periphery of the vehicle;
An image conversion processing device for converting an original image obtained by the camera into an overhead image;
An object detection processing device that detects the presence or absence of an object other than a road surface around the vehicle, based on the overhead image obtained by the image conversion processing device;
And displays the overhead image obtained by the image converter, Bei example and a highlight image display device a display portion in the object, the overhead in the image obtained by the object detecting apparatus,
The object detection processing device includes:
A non-road surface area detection unit for detecting an area that is not the road surface in the overhead view image;
A non-moving body region detection unit that detects a region that is not a moving body in the overhead view image;
Based on the non-road surface region obtained by the non-road surface region detection unit and the non-moving body region obtained by the non-moving body region detection unit, a stationary body that is not a road surface and is not a moving body is detected as the object. A vehicle periphery monitoring system comprising: a stationary body detection unit .
前記非路面領域検出部は、
特定の時点における前記俯瞰画像中の前記車両の周辺領域の輝度および色彩を前記路面を表す基準値として予め算出するとともに、算出された前記基準値を記憶した路面基準値算出部と、
逐次の前記俯瞰画像中の前記車両の周辺領域の輝度および色彩を指標値として逐次算出する路面指標値算出部と、
前記路面指標値算出部により算出された前記路面指標値と前記路面基準値算出部により予め記憶された前記路面基準値とを比較して、逐次の前記俯瞰画像中の前記車両の周辺領域が前記非路面領域であるか否かを判定する非路面領域判定部と、を備え、
前記非移動体領域検出部は、
逐次の前記俯瞰画像間で前記車両の周辺領域の輝度および色彩の指標値の差を算出する指標値差分算出部と、
前記指標値差分算出部により算出された指標値差分に基づいて、逐次の前記俯瞰画像中の前記車両の周辺領域に前記移動体の有無を判定する非移動体判定部と、を備え、
前記静止体検出部は、前記非路面領域判定部により非路面と判定され、かつ前記非移動体判定部により非移動体と判定された領域を、前記静止体として検出することを特徴とする請求項1に記載の車両周辺監視システム。
The non-road surface area detection unit is
A road surface reference value calculation unit that pre-calculates the brightness and color of the surrounding area of the vehicle in the overhead image at a specific time as a reference value representing the road surface, and stores the calculated reference value;
A road surface index value calculation unit that sequentially calculates the brightness and color of the surrounding area of the vehicle in the sequential overhead image as an index value;
The road surface index value calculated by the road surface index value calculation unit is compared with the road surface reference value stored in advance by the road surface reference value calculation unit. A non-road surface area determination unit that determines whether or not it is a non-road surface area,
The non-moving body region detecting unit is
An index value difference calculation unit that calculates a difference between brightness and color index values of the surrounding area of the vehicle between the sequential overhead images;
A non-moving body determining unit that determines the presence or absence of the moving body in a peripheral area of the vehicle in the sequential overhead image based on the index value difference calculated by the index value difference calculating unit;
The stationary body detection unit detects, as the stationary body, an area that is determined as a non-road surface by the non-road surface area determination unit and is determined as a non-moving body by the non-moving body determination unit. Item 4. The vehicle periphery monitoring system according to Item 1 .
前記俯瞰画像中の前記車両の周辺領域には、互いに異なる複数の小領域が窓領域として予め設定され、
前記路面基準値算出部は、前記複数の窓領域ごとに前記基準値を算出するとともに記憶し、
前記路面指標値算出部は、前記複数の窓領域ごとに前記指標値を算出し、
前記非路面領域判定部は、前記複数の窓領域ごとに前記非路面領域であるか否かを判定するものであることを特徴とする請求項2に記載の車両周辺監視システム。
In the peripheral area of the vehicle in the overhead image, a plurality of different small areas are preset as window areas,
The road surface reference value calculation unit calculates and stores the reference value for each of the plurality of window regions,
The road surface index value calculation unit calculates the index value for each of the plurality of window regions,
The vehicle periphery monitoring system according to claim 2, wherein the non-road surface area determination unit determines whether the plurality of window areas are the non-road surface area.
前記路面基準値算出部は、
前記路面基準値として、複数のフレームにおける前記対応領域ごとの前記基準値の平均値を算出することを特徴とする請求項2または3に記載の車両周辺監視システム。
The road surface reference value calculation unit
The vehicle periphery monitoring system according to claim 2 or 3, wherein an average value of the reference values for each of the corresponding areas in a plurality of frames is calculated as the road surface reference value.
前記物体検出処理装置は、
前記俯瞰画像を階調数nの画像に変換するn階調画像変換部と、
前記n階調画像変換部によって得られた階調数nの画像を、複数のフレーム間で画素ごとに比較して、前記車両の周辺における移動体を前記物体として検出する移動体検出部と、を備えたことを特徴とする請求項1から4に記載の車両周辺監視システム。
The object detection processing device includes:
An n-gradation image converter for converting the overhead image into an image having a gradation number n;
A moving body detection unit that compares the image of the number of gradations n obtained by the n-tone image conversion unit for each pixel between a plurality of frames, and detects a moving body around the vehicle as the object; vehicle environment monitoring system according to claim 1 or et 4, characterized in that with a.
前記移動体検出部は、前記車両自体の移動があるときは、前記複数のフレーム間で画素ごとに比較することに先だち、前記車両自体の移動によって生じる前記複数のフレーム間での対応画素の値を補正することを特徴とする請求項5に記載の車両周辺監視システム。 When the vehicle itself moves, the moving body detecting unit compares the values of corresponding pixels between the plurality of frames generated by the movement of the vehicle itself before comparing the pixels for each pixel between the plurality of frames. The vehicle periphery monitoring system according to claim 5, wherein the vehicle periphery monitoring system is corrected. 前記n階調画像変換部は、前記階調数nの画像を無彩色のグレースケールの画像に変換処理するものであることを特徴とする請求項5または6に記載の車両周辺監視システム。 7. The vehicle periphery monitoring system according to claim 5, wherein the n gradation image conversion unit converts the image having the number of gradations n into an achromatic gray scale image.
JP2007308894A 2007-11-29 2007-11-29 Vehicle perimeter monitoring system Expired - Fee Related JP5073461B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007308894A JP5073461B2 (en) 2007-11-29 2007-11-29 Vehicle perimeter monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007308894A JP5073461B2 (en) 2007-11-29 2007-11-29 Vehicle perimeter monitoring system

Publications (2)

Publication Number Publication Date
JP2009135663A JP2009135663A (en) 2009-06-18
JP5073461B2 true JP5073461B2 (en) 2012-11-14

Family

ID=40867135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007308894A Expired - Fee Related JP5073461B2 (en) 2007-11-29 2007-11-29 Vehicle perimeter monitoring system

Country Status (1)

Country Link
JP (1) JP5073461B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6027505B2 (en) * 2013-08-08 2016-11-16 本田技研工業株式会社 Vehicle lighting system
JP6252756B2 (en) * 2014-01-30 2017-12-27 株式会社富士通ゼネラル Image processing apparatus, driving support apparatus, navigation apparatus, and camera apparatus
JP6619927B2 (en) * 2014-10-24 2019-12-11 株式会社日立製作所 Calibration device
JP2017041125A (en) * 2015-08-20 2017-02-23 ソニー株式会社 Information processing device, information processing method, and program
KR101953796B1 (en) * 2015-12-23 2019-03-05 에스엘 주식회사 Apparatus and method for monitoring environment of vehicle

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4254045B2 (en) * 2000-10-17 2009-04-15 株式会社明電舎 Road stationary obstacle detection method
JP2004173048A (en) * 2002-11-21 2004-06-17 Auto Network Gijutsu Kenkyusho:Kk Onboard camera system
JP2005161973A (en) * 2003-12-02 2005-06-23 Nissan Motor Co Ltd Device and method for supporting driving operation
JP2006276964A (en) * 2005-03-28 2006-10-12 Nippon Seiki Co Ltd Display device for vehicle
JP4899424B2 (en) * 2005-11-04 2012-03-21 トヨタ自動車株式会社 Object detection device
JP4816923B2 (en) * 2006-03-01 2011-11-16 日産自動車株式会社 Vehicle peripheral image providing apparatus and method
JP2007235642A (en) * 2006-03-02 2007-09-13 Hitachi Ltd Obstruction detecting system

Also Published As

Publication number Publication date
JP2009135663A (en) 2009-06-18

Similar Documents

Publication Publication Date Title
JP5639283B2 (en) Vehicle periphery monitoring device
JP5706874B2 (en) Vehicle periphery monitoring device
JP5577398B2 (en) Vehicle periphery monitoring device
JP4267657B2 (en) Vehicle periphery monitoring device
EP2544449B1 (en) Vehicle perimeter monitoring device
US6531959B1 (en) Position detecting device
JP4482599B2 (en) Vehicle periphery monitoring device
EP2414776B1 (en) Vehicle handling assistant apparatus
US20110228980A1 (en) Control apparatus and vehicle surrounding monitoring apparatus
WO2005125208A1 (en) Monitor and vehicle periphery monitor
JP6015946B2 (en) Vehicle imaging device
WO2012029382A1 (en) Vehicle surroundings monitoring device
JP5073461B2 (en) Vehicle perimeter monitoring system
JP2010044561A (en) Monitoring device to be mounted on vehicle
KR20190019840A (en) Driver assistance system and method for object detection and notification
JP5937832B2 (en) In-vehicle camera exposure control system
JP2007323578A (en) Vehicle periphery monitoring device
JP5927110B2 (en) Vehicle external recognition device
WO2018042976A1 (en) Image generation device, image generation method, recording medium, and image display system
KR101491305B1 (en) Apparatus and method for detecting obstacle
KR101428094B1 (en) A system for offering a front/side image with a lane expression
JP5192007B2 (en) Vehicle periphery monitoring device
JP5345992B2 (en) Vehicle periphery monitoring device
JP5192009B2 (en) Vehicle periphery monitoring device
JP4715604B2 (en) Peripheral image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120807

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120822

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees