JPH07195978A - Vehicle surroundings display unit - Google Patents

Vehicle surroundings display unit

Info

Publication number
JPH07195978A
JPH07195978A JP5351836A JP35183693A JPH07195978A JP H07195978 A JPH07195978 A JP H07195978A JP 5351836 A JP5351836 A JP 5351836A JP 35183693 A JP35183693 A JP 35183693A JP H07195978 A JPH07195978 A JP H07195978A
Authority
JP
Japan
Prior art keywords
vehicle
image
area
synthesizing
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5351836A
Other languages
Japanese (ja)
Inventor
Katsunori Yamada
勝規 山田
Hiroshi Watanabe
博司 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP5351836A priority Critical patent/JPH07195978A/en
Publication of JPH07195978A publication Critical patent/JPH07195978A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To properly and visually recognize your own vehicle and obstacles around the vehicle even if the position of your own vehicle is slipped off from the visual field center of a camera. CONSTITUTION:Obstacles and parking areas which are hidden due to the image deformation of your own vehicle, are properly indicated by synthesizing an image the deformation of which has been corrected (coordinate transformation) in response to the position and direction of your own vehicle, and an image of other areas excluding your own vehicle, by a whole image synthesizing means 109 so as to be displayed wherein the aforesaid position and direction of your own vehicles outputted by a vehicle coordinate transformation means 105, a back ground area extracting means 107 and a vehicle area synthesizing means 108 after your own vehicle has been extracted from an image photographed by a vehicle extracting means 104.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は,駐車場等における自
車両およびその周囲の状態を撮像し,その自車両の輪
郭,その周囲状態や背景等を画像処理により抽出・合成
した画像を自車両に送信し,モニタ表示する車両周囲表
示装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention captures an image of a vehicle and its surroundings in a parking lot, and extracts and synthesizes the contour of the vehicle, its surroundings, background, etc. by image processing to produce an image of the vehicle. The present invention relates to a vehicle surroundings display device which is transmitted to a vehicle and displayed on a monitor.

【0002】[0002]

【従来の技術】従来における車両周囲表示装置として,
例えば,特開平4−123945号公報に開示されてい
る「車両安全確認システム」がある。これは,駐車場の
天井等に設置したカメラにより駐車スペースおよびその
周辺の様子を撮像し,この撮像画像を送信器から車両の
受信器に送信するようにして,駐車場における接触事故
の防止を図るものである。
2. Description of the Related Art As a conventional vehicle surrounding display device,
For example, there is a "vehicle safety confirmation system" disclosed in Japanese Patent Laid-Open No. 4-123945. This is to prevent contact accidents in the parking lot by capturing an image of the parking space and its surroundings with a camera installed on the ceiling of the parking lot and transmitting this captured image from the transmitter to the receiver of the vehicle. It is intended.

【0003】[0003]

【発明が解決しようとする課題】しかしながら,上記に
示されるような従来における車両周囲表示装置にあって
は,カメラと車両との位置の状態により,撮像画像上に
おける車両形状が異なってしまうことがある。例えば,
図29に示すように,立体物2901を上方から撮像し
た場合,(a)のように立体物2901の真上にカメラ
の視野中心2902がほぼ一致しているときには立体物
2901の形状を正確に捉えることができるが,(b)
や(c)に示すように立体物2901とカメラの視野中
心2902がずれている場合,真上から見た場合におけ
る(a)の画像と異なり,車両が歪んで見える。
However, in the conventional vehicle surroundings display device as described above, the vehicle shape on the captured image may differ depending on the state of the position of the camera and the vehicle. is there. For example,
As shown in FIG. 29, when the three-dimensional object 2901 is imaged from above, the shape of the three-dimensional object 2901 can be accurately determined when the visual field center 2902 of the camera is almost directly above the three-dimensional object 2901 as shown in (a). Can be captured, (b)
When the three-dimensional object 2901 and the visual field center 2902 of the camera are deviated as shown in (c) or (c), the vehicle appears distorted unlike the image in (a) when viewed from directly above.

【0004】このように,自車両は高さをもつ立体物で
あるため,2次元画像上においてカメラと自車両の位置
がずれることにより,車両形状の歪みが発生し,障害物
との距離があるにも関わらず,自車両と障害物とが重な
って見え,距離感が把握しにくいという問題点があっ
た。
As described above, since the host vehicle is a three-dimensional object having a height, the position of the camera and the host vehicle on the two-dimensional image is displaced, which causes distortion of the vehicle shape and the distance from the obstacle. Despite this, there was a problem that the vehicle and obstacles appeared to overlap and it was difficult to grasp the sense of distance.

【0005】この発明は,上記に鑑みてなされたもので
あって,カメラの視野中心に対して自車両の位置がずれ
た場合であっても,自車両およびその周囲の障害物を的
確に視認できるようにすることを目的とする。
The present invention has been made in view of the above, and accurately recognizes the own vehicle and obstacles around it even when the position of the own vehicle deviates from the center of the visual field of the camera. The purpose is to be able to.

【0006】[0006]

【課題を解決するための手段】上記の目的を達成するた
めに,請求項1に係る車両周囲表示装置は,撮影手段に
より上方から撮影した画像を送信手段を介して自車両の
受信手段に送信し,モニタ表示する車両周囲表示装置に
おいて,自車両が存在しない状態で撮影された画像を記
憶する第1の画像記憶手段と,自車両が存在する状態で
撮影された画像を記憶する第2の画像記憶手段と,前記
第1の画像記憶手段に記憶した撮影画像から車両領域を
抽出する車両領域抽出手段と,車両モデルに関する情報
と前記撮影手段の設置状態に関する情報を予めパラメー
タとして記憶しておくパラメータ記憶手段と,前記抽出
された車両領域を前記パラメータ記憶手段の各パラメー
タに基づいて車両上方からみた画像に変換する車両座標
変換手段と,該車両座標変換手段により変換された車両
領域を除く前記抽出された車両領域を前記第1の画像記
憶手段に記憶された画像を用いて補完する背景領域作成
手段と,前記車両座標変換手段による画像と前記背景領
域作成手段による画像とを合成する車両領域合成手段
と,前記車両領域合成手段による画像と,前記第2の画
像記憶手段に記憶された画像から前記車両領域を除いた
画像とを合成する全面画像合成手段とを具備するもので
ある。
In order to achieve the above object, the vehicle surrounding display device according to claim 1 transmits an image photographed from above by the photographing means to the receiving means of the own vehicle through the transmitting means. Then, in the vehicle surroundings display device for displaying on the monitor, the first image storage means for storing the image taken in the state where the own vehicle does not exist and the second image storage means for storing the image taken in the state where the own vehicle exists. An image storage unit, a vehicle region extraction unit that extracts a vehicle region from a captured image stored in the first image storage unit, information about a vehicle model, and information about an installation state of the imaging unit are stored in advance as parameters. Parameter storage means, vehicle coordinate conversion means for converting the extracted vehicle region into an image viewed from above the vehicle based on each parameter of the parameter storage means, and the vehicle Background area creating means for complementing the extracted vehicle area excluding the vehicle area converted by the coordinate converting means by using the image stored in the first image storing means, the image by the vehicle coordinate converting means, and the A vehicle area synthesizing means for synthesizing an image by the background area creating means, an image by the vehicle area synthesizing means, and an entire surface for synthesizing the image stored in the second image storage means with the vehicle area removed. And an image synthesizing means.

【0007】[0007]

【作用】この発明に係る車両周囲表示装置(請求項1)
は,撮影した画像から自車両を抽出し,該自車両の位置
や向きに応じて画像の歪み補正(座標変換)を実行した
画像と,自車両を含まない他の領域画像とを合成して表
示することにより,自車両の歪みによって隠れていた障
害物や駐車領域を的確に表示する。
A vehicle surroundings display device according to the present invention (claim 1)
Extracts the own vehicle from the captured image, combines the image that has been subjected to image distortion correction (coordinate conversion) according to the position and orientation of the own vehicle, and another area image that does not include the own vehicle. By displaying it, obstacles and parking areas hidden by the distortion of the vehicle are displayed accurately.

【0008】[0008]

【実施例】以下,この発明に係る車両周囲表示装置の一
実施例を添付図面に基づいて説明する。図1は,この発
明による車両周囲表示装置のシステム構成を示すブロッ
ク図であり,図において,101はTVカメラ等を用い
て監視対象とする領域の画像を入力する画像入力装置
(以下,カメラという:特許請求の範囲における撮影手
段である),102はカメラ101により入力された画
像を記憶する画像メモリ(A)(特許請求の範囲におけ
る第1の画像記憶手段である),103は撮像画像内に
おける車両の有無を検出する車両検出装置,104は撮
像画像から車両領域を抽出する車両抽出装置(特許請求
の範囲における車両領域抽出手段である)である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment of a vehicle surrounding display device according to the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a block diagram showing a system configuration of a vehicle surrounding display device according to the present invention. In the figure, 101 is an image input device (hereinafter referred to as a camera) for inputting an image of a region to be monitored using a TV camera or the like. : 102 is an image capturing unit in the claims), 102 is an image memory (A) for storing an image input by the camera 101 (first image storing unit in the claims), and 103 is a captured image A vehicle detection device for detecting the presence / absence of a vehicle in 104, 104 is a vehicle extraction device for extracting a vehicle region from a captured image (which is a vehicle region extraction means in the claims).

【0009】また,105は車両抽出装置104による
抽出画像と予め記憶してあるパラメータに基づいて撮影
された車両領域を上面から見た画像に変換する車両座標
変換装置(特許請求の範囲における車両座標変換手段で
ある),106は画像メモリ(A)102と車両検出装
置103からの入力に基づいて画像メモリ(A)102
における画像を記憶するか,あるいは記憶してある画像
を継続して記憶する画像メモリ(B)(特許請求の範囲
における第2の画像記憶手段である),107は車両抽
出装置104および画像メモリ(B)106からの入力
に基づいて必要な領域を選択抽出する背景領域抽出装置
(特許請求の範囲における背景領域作成手段である)で
ある。
Reference numeral 105 denotes a vehicle coordinate conversion device for converting an image of a vehicle region photographed based on an image extracted by the vehicle extraction device 104 and a parameter stored in advance into an image viewed from above (vehicle coordinates in claims). And 106 is an image memory (A) 102 based on inputs from the image memory (A) 102 and the vehicle detection device 103.
Image memory (B) (which is the second image storage means in the claims) for storing the image in FIG. 1 or for continuously storing the stored image, 107 is the vehicle extraction device 104 and the image memory ( B) A background area extracting device (which is a background area creating unit in the claims) that selectively extracts a necessary area based on an input from 106.

【0010】また,108は車両座標変換装置105お
よび背景領域抽出装置107からの入力に基づいて変換
後における車両領域を合成する車両領域合成装置(特許
請求の範囲における車両領域合成手段である),109
は画像メモリ(A)102と車両領域合成装置108か
らの入力に基づいて変換後の車両を含んだ全画面を合成
して作成する全画面合成装置(特許請求の範囲における
全面画像合成手段である),110は画像メモリ(A)
102と車両検出装置103と全画面合成装置109か
らの入力に基づいて合成画像を出力するか,入力画像を
出力するかを選択する出力選択装置,111は出力選択
装置110の出力を送信する送信装置(特許請求の範囲
における送信手段である),112は送信装置111の
出力を受信する受信装置(特許請求の範囲における受信
手段である),113は受信装置112の受信画像を表
示する表示装置である。
Reference numeral 108 denotes a vehicle area synthesizing device (which is a vehicle area synthesizing means in the claims) for synthesizing the vehicle areas after the conversion based on inputs from the vehicle coordinate transformation device 105 and the background region extraction device 107. 109
Is a full-screen synthesizing device for synthesizing and creating a full-screen including the converted vehicle based on inputs from the image memory (A) 102 and the vehicle-region synthesizing device 108 (a full-screen image synthesizing means in claims). ), 110 is an image memory (A)
An output selection device that selects whether to output a composite image or an input image based on inputs from the vehicle 102, the vehicle detection device 103, and the full-screen composition device 109, and 111 transmits the output of the output selection device 110 A device (which is a transmitting means in the claims), 112 is a receiving device (which is a receiving means in the claims) that receives the output of the transmitting device 111, and 113 is a display device that displays a received image of the receiving device 112. Is.

【0011】また,114は予め決めてある車両の高さ
を示す車両モデルとカメラ101の設置および撮像パラ
メータ等を記憶しておくためのパラメータ記憶装置(特
許請求の範囲におけるパラメータ記憶手段である)であ
る。
Reference numeral 114 denotes a parameter storage device (a parameter storage means in claims) for storing a vehicle model indicating a predetermined vehicle height, installation of the camera 101, imaging parameters, and the like. Is.

【0012】次に,動作について説明する。図2は,こ
の発明に係る車両周囲表示装置の処理動作の例を示すフ
ローチャートであり,図において,本処理が開始される
と,初期設定処理を実行する(S201)。この初期設
定は,例えば,駐車場の上方に下向きに取付けられたカ
メラ101を用いて,駐車場の撮像画像を画像メモリ
(A)102に入力する。また,初期設定では,撮像範
囲に移動物体がない状態で撮像される。
Next, the operation will be described. FIG. 2 is a flow chart showing an example of the processing operation of the vehicle surroundings display device according to the present invention. In the figure, when this processing is started, initialization processing is executed (S201). In this initial setting, for example, a camera 101 mounted downwardly above the parking lot is used to input a captured image of the parking lot into the image memory (A) 102. Further, in the initial setting, an image is captured without a moving object in the imaging range.

【0013】さらに,画像メモリ(A)102に入力し
た画像を画像メモリ(B)106に出力する。上記ステ
ップS201による処理画像の一部を図8に示す。次い
で,上記初期設定の後,画像を1枚入力する画像入力処
理を実行する(S202)。図9は,この画像入力処理
の例を示すもので,新しい画像を画像メモリ(A)10
2に,例えば,33msec間隔で入力する。なお,こ
の場合における画像の大きさは,例えば,横(HN)5
12×縦(VN)480画素とする。
Further, the image input to the image memory (A) 102 is output to the image memory (B) 106. FIG. 8 shows a part of the image processed in step S201. Next, after the above initial setting, an image input process for inputting one image is executed (S202). FIG. 9 shows an example of this image input processing, in which a new image is stored in the image memory (A) 10
2 is input at intervals of 33 msec, for example. The size of the image in this case is, for example, horizontal (HN) 5
12 × vertical (VN) 480 pixels.

【0014】次に,上記ステップS202の画像入力の
後,差分処理を実行する(S203)。この差分処理で
は,車両検出装置103において,画像メモリ(A)1
02内の画像f(x,y)と画像メモリ(B)106内
の画像g(x,y)に対して, Δf(xi,yj)=|f(xi,yj)−g(x,
y)| を算出する。図10は,この差分処理の例を示す画像で
あり,画像メモリ(A)102から画像メモリ(B)1
06を引き算し,設定値TH1より大きい値をもつ画素
の値を1,それ以外を0とする。
Next, after the image input in step S202, difference processing is executed (S203). In this difference processing, in the vehicle detection device 103, the image memory (A) 1
The image f (x, y) in 02 and the image g (x, y) in the image memory (B) 106 are Δf (xi, yj) = | f (xi, yj) -g (x,
y) | is calculated. FIG. 10 is an image showing an example of this difference processing, from the image memory (A) 102 to the image memory (B) 1
06 is subtracted, and the pixel value having a value larger than the set value TH1 is set to 1 and the other values are set to 0.

【0015】さらに,車両が存在するか否かを判断する
(S204)。ここでは,車両検出装置103により,
2値化された画像を走査して1が連続した領域毎にクラ
スタリング(後述)を実行し,該クラスタの含む画素が
予め設定した閾値TH2以上に該当する領域を車両であ
ると判断する。このステップS204において,車両が
存在すると判断したときには,車両抽出装置104によ
り2値化画像で車両であると判断された領域の画像メモ
リ(A)102内の画像領域を抽出する(S205)。
Further, it is determined whether or not there is a vehicle (S204). Here, by the vehicle detection device 103,
The binarized image is scanned, and clustering (described later) is executed for each region in which 1s are consecutive, and a region in which the pixels included in the cluster correspond to a threshold value TH2 set in advance or more is determined to be a vehicle. When it is determined in step S204 that a vehicle exists, the vehicle extraction device 104 extracts the image area in the image memory (A) 102 of the area determined to be the vehicle in the binarized image (S205).

【0016】次に,車両座標変換装置105により,図
3のフローチャートに示すような領域座標変換処理(後
述)を実行する(S206)。図15は,この座標変換
による変換処理前の車両領域画像,図16は,座標変換
処理後の車両領域画像である。ここでは,車両モデル
(図6参照)を用いて車両領域画像に高さ情報を付加
し,該高さ情報を用いて座標変換することにより,車両
を真上からみた画像に変換する。
Next, the vehicle coordinate conversion device 105 executes area coordinate conversion processing (described later) as shown in the flowchart of FIG. 3 (S206). FIG. 15 is a vehicle area image before conversion processing by this coordinate conversion, and FIG. 16 is a vehicle area image after coordinate conversion processing. Here, height information is added to the vehicle area image using the vehicle model (see FIG. 6), and coordinate conversion is performed using the height information to convert the vehicle into an image viewed from directly above.

【0017】さらに,背景領域抽出装置107により,
画像メモリ(B)106上における現在の車両領域を抽
出し,背景領域とする(S207)。図17は,この車
両領域の合成例を示す画面であり,画像メモリ(B)1
06内の車両領域にあたる座標の画素の輝度値をそのま
まの状態で背景画像として抽出する。該抽出された背景
画像は,車両に隠れていた障害物が含まれた画像とな
る。
Further, by the background area extraction device 107,
The current vehicle area on the image memory (B) 106 is extracted and set as the background area (S207). FIG. 17 is a screen showing an example of the composition of this vehicle area, and the image memory (B) 1
The brightness value of the pixel at the coordinates corresponding to the vehicle area in 06 is extracted as it is as a background image. The extracted background image becomes an image including an obstacle hidden in the vehicle.

【0018】続いて,車両領域合成装置108により上
記ステップS206で変換された車両画像と上記ステッ
プS207による背景領域とを合成して車両領域を作成
する(S208)。この合成方法は,背景領域の全座標
値で車両画像が変換後も存在する場合には,車両座標を
選択し,その座標値を画素値とする。また,車両画像が
ない場合には背景領域を選択する。この処理画面を図1
8に示す。ここでは,図16に示した変換後の車両領域
と,図17に示した抽出された背景画像とを合成する。
このとき,変換された車両領域の変換により輝度値がな
くなった座標に対して背景画像の同一座標の輝度値をあ
てはめる。これによって車両と障害物との関係がわかる
画像となる。
Then, the vehicle area synthesizing device 108 synthesizes the vehicle image converted in step S206 and the background area in step S207 to create a vehicle area (S208). In this synthesizing method, if the vehicle image is present after conversion with all the coordinate values of the background area, the vehicle coordinates are selected and the coordinate values are used as pixel values. If there is no vehicle image, the background area is selected. This processing screen is shown in Figure 1.
8 shows. Here, the converted vehicle area shown in FIG. 16 and the extracted background image shown in FIG. 17 are combined.
At this time, the brightness value of the same coordinates of the background image is applied to the coordinates of which the brightness values have disappeared due to the conversion of the converted vehicle area. This provides an image that shows the relationship between the vehicle and the obstacle.

【0019】次に,全画面合成装置109により上記ス
テップS208において合成された車両領域を画像メモ
リ(A)102内の画像に合成する(S209)。この
合成方法は,車両領域の全座標位置でその画素値を画像
メモリ(A)102の画素値と置き換える。その他の座
標位置では画像メモリ(A)102の画素値のままの状
態とする。この全画面合成による画面例を図19に示
す。
Next, the vehicle area combined in step S208 is combined with the image in the image memory (A) 102 by the full-screen combining device 109 (S209). This synthesizing method replaces the pixel value with the pixel value of the image memory (A) 102 at all coordinate positions of the vehicle area. At other coordinate positions, the pixel value of the image memory (A) 102 remains unchanged. FIG. 19 shows an example of a screen resulting from this full screen composition.

【0020】すなわち,図18に示した如く合成された
車両領域を画像メモリ(A)102の全画像に合成す
る。該合成された車両領域は画像メモリ(A)102の
車両領域と同じ領域なので,画像メモリ(A)102の
車両領域は上書きされて合成された車両領域が残る。こ
れによって,車両と障害物との位置関係が,自車両に隠
れることなく表示する(A部分)ことができる。
That is, the vehicle area combined as shown in FIG. 18 is combined with all the images in the image memory (A) 102. Since the combined vehicle area is the same as the vehicle area of the image memory (A) 102, the vehicle area of the image memory (A) 102 is overwritten and the combined vehicle area remains. As a result, the positional relationship between the vehicle and the obstacle can be displayed (part A) without being hidden by the own vehicle.

【0021】その後,出力選択装置110により車両の
存在する場合は全画面合成装置109による合成画像を
選択し,車両が存在しない場合には画像メモリ(A)1
02上の画像を選択し,これらの選択された画像を送信
装置111により電波を用いて受信装置112に送信す
る(S210)。
Thereafter, the output selection device 110 selects the composite image by the full-screen composition device 109 when the vehicle exists, and the image memory (A) 1 when the vehicle does not exist.
The images on 02 are selected, and the selected images are transmitted by the transmission device 111 to the reception device 112 using radio waves (S210).

【0022】一方,上記ステップS204において,車
両が存在しないと判断したときには,さらに,画像メモ
リ(B)106を更新するか否かを判断する(S21
1)。ここでは,画像メモリ(B)106においてクラ
スタリングされた画像内でクラスタの含む画素が設定閾
値TH3(TH3<TH2)より多いクラスタが存在す
る場合には,移動物体ありと判断して画像メモリ(B)
106の更新を行わない。
On the other hand, when it is determined in step S204 that there is no vehicle, it is further determined whether or not the image memory (B) 106 is updated (S21).
1). Here, when there is a cluster in which the pixels included in the cluster are larger than the set threshold value TH3 (TH3 <TH2) in the images clustered in the image memory (B) 106, it is determined that there is a moving object, and the image memory (B )
106 is not updated.

【0023】したがって,上記ステップS211におい
て,画像メモリ(B)106を更新しないと判断したと
きには,上記ステップS210の処理に移行し,画像メ
モリ(B)106を更新すると判断したときには,画像
メモリ(B)106の更新を実行した(S212)後,
上記ステップS210に移行して画像を送信する。
Therefore, in step S211, when it is determined that the image memory (B) 106 is not updated, the process proceeds to step S210, and when it is determined that the image memory (B) 106 is updated, the image memory (B) 106 is updated. ) After updating 106 (S212),
In step S210, the image is transmitted.

【0024】次に,図3に示したフローチャートに基づ
いて,上記ステップS206において実行する領域座標
変換処理について説明する。本処理が開始されると,ま
ず,図4に示すように,抽出された画像に対して,画像
中心401から抽出された車両領域402の探索を行
い,車両領域の座標の中心から最も離れた点(最遠点4
03)を検索する(S301)。この最遠点403にハ
フ変換(図12参照)を行い,構成する線分を算出す
る。上記処理による最遠点403の探索画像を図11,
車両エッジの検出例を図12に示す。このように,最遠
点403は抽出された車両画像の周囲に検出される。
Next, the area coordinate conversion processing executed in step S206 will be described with reference to the flow chart shown in FIG. When this process is started, first, as shown in FIG. 4, the vehicle region 402 extracted from the image center 401 is searched for in the extracted image, and the farthest from the center of the coordinates of the vehicle region. Point (farthest point 4
03) is searched (S301). A Hough transform (see FIG. 12) is performed on the farthest point 403 to calculate the line segment that constitutes the point. The search image of the farthest point 403 by the above processing is shown in FIG.
An example of vehicle edge detection is shown in FIG. In this way, the farthest point 403 is detected around the extracted vehicle image.

【0025】さらに,車両方向を算出する(S30
2)。ここでは,車両とクラスタされた2値化画像の領
域の重心を算出する。重心の位置座標(xg,yg)と
主軸を下記により求め,2値化された車両の向きを算出
する。図13は,この車両方向の算出例を示すものであ
り,車両領域を用いて車両の向きを算出し,重心を求
め,該重心を通る慣性の主軸を算出し,その主軸の方向
が車両の向きである。
Further, the vehicle direction is calculated (S30).
2). Here, the center of gravity of the binarized image area clustered with the vehicle is calculated. The position coordinates (xg, yg) of the center of gravity and the main axis are obtained by the following, and the binarized vehicle direction is calculated. FIG. 13 shows an example of calculation of this vehicle direction. The direction of the vehicle is calculated using the vehicle region, the center of gravity is calculated, the principal axis of inertia passing through the center of gravity is calculated, and the direction of the principal axis is the direction of the vehicle. It is the direction.

【0026】すなわち,車両領域抽出装置104により
抽出された領域をV(i,j)とすると,下記の数1と
なる。
That is, when the area extracted by the vehicle area extracting device 104 is V (i, j), the following expression 1 is obtained.

【0027】[0027]

【数1】 [Equation 1]

【0028】そして,重心の位置座標(xg,yg)
は, xg=m10/m00, yg=m10/m00・・(2) となる。
The position coordinates of the center of gravity (xg, yg)
Becomes xg = m 10 / m 00 , yg = m 10 / m 00 ··· (2).

【0029】さらに,V(i,j)を上記重心の位置座
標(xg,yg)が座標系の原点となるように平行移動
を行う。平行移動した画像をV2 (i,j)とすると, V2 (i,j)=V(i−xg,j−yg)・・(3) となる。
Further, V (i, j) is translated so that the position coordinates (xg, yg) of the center of gravity become the origin of the coordinate system. Assuming that the translated image is V 2 (i, j), then V 2 (i, j) = V (i-xg, j-yg) ... (3).

【0030】[0030]

【数2】 [Equation 2]

【0031】上記数2により,慣性の主軸の方程式は, i=j・tanθ0 ・・(5) となる。さらに,上記(3)式で行った平行移動の逆変
換を行い, i+xg=(j+yg)・tanθ0 ・・(6) となり,これが求める車両の向きを示す直線である。
From the above equation 2, the equation of the principal axis of inertia is i = j · tan θ 0 ··· (5). Further, the inverse transformation of the parallel movement performed by the above equation (3) is performed to obtain i + xg = (j + yg) · tan θ 0 ··· (6), which is a straight line indicating the desired vehicle direction.

【0032】上記ステップS302の処理を実行した
後,前後エッジの検出を実行する(S303)。ここで
は,図14に示すように,車両の向きの直線とハフ変換
により求められた線分の交点を求め,この交点のある線
分が車両前後のエッジを示す線分である。該線分が2本
ある場合には,車両前後のエッジ線であると判断する。
次に,図14に示すように前後エッジ線と交点のある線
分を側方エッジとする側方エッジの検出を実行する(S
304)。この場合,エッジ線と交点のある線分をハフ
変換で検出された線分群から選択する。その線分がボン
ネットあるいはトランクのエッジである。
After the processing of step S302 is executed, the front and rear edges are detected (S303). Here, as shown in FIG. 14, the intersection of the straight line of the vehicle direction and the line segment obtained by the Hough transform is obtained, and the line segment having this intersection is the line segment indicating the front and rear edges of the vehicle. If there are two such line segments, it is determined that they are front and rear edge lines of the vehicle.
Next, as shown in FIG. 14, detection of a side edge is performed in which a line segment having an intersection with the front and rear edge lines is a side edge (S).
304). In this case, a line segment that intersects the edge line is selected from the line segment group detected by the Hough transform. The line segment is the edge of the bonnet or trunk.

【0033】次に,車両の向きを算出する(S30
5)。すなわち,上記線分の長さを算出し,車両の前後
向きを推定する。線分は,カメラ位置と車両の高さから
見かけの長さは実際の長さと違っている。線分の始点と
終点との座標をモデル情報と下記(7)式を用いて変換
し,実際の長さを求める。また,車両のモデルは事前に
記憶しておく。なお,このモデルは,図6(後述)に示
されるような情報をもったものである。このモデル情報
のトランク,ボンネットの長さと算出された線分の長さ
の差を比較し,差の小さい方を選択し,車両の向きを推
定する。
Next, the direction of the vehicle is calculated (S30).
5). That is, the length of the line segment is calculated and the front-back direction of the vehicle is estimated. The apparent length of the line segment differs from the actual length due to the camera position and the height of the vehicle. The coordinates of the starting point and the ending point of the line segment are converted using the model information and the following equation (7) to find the actual length. The vehicle model is stored in advance. This model has information as shown in FIG. 6 (described later). The lengths of the trunk and bonnet in this model information are compared with the calculated lengths of the line segments, and the one with the smaller difference is selected to estimate the vehicle orientation.

【0034】以下,上記における処理を詳述する。図5
は,上記における画像から実空間変換を説明するための
ものである。画像f(x,y)において,(x1,y
1)の座標の地点からの高さがt2の場合,画像中心4
01を地上の座標の原点とすると,この(x1,y1)
は,地上の座標(x1,y1,t1)として下記(7)
により変換される。なお,カメラの焦点距離はf,俯角
は90°,画面サイズは縦a×横b,設置高さHとす
る。すなわち, (a/2xN ・(xN −x1))/f=x1/(H−t1) よって, X=(a/2xN ・f)・(xN −x)・(H−t1) Y=(b/2yN ・f)・(yN −y)・(H−t1)・・(7) となる。
The above processing will be described in detail below. Figure 5
Is for explaining the real space conversion from the image in the above. In the image f (x, y), (x1, y
When the height from the point of the coordinates of 1) is t2, the image center 4
If 01 is the origin of the coordinates on the ground, this (x1, y1)
Is the following (7) as the coordinates (x1, y1, t1) on the ground.
Is converted by. The focal length of the camera is f, the depression angle is 90 °, the screen size is vertical a × horizontal b, and the installation height is H. That, (a / 2x N · ( x N -x1)) / f = x1 / (H-t1) Thus, X = (a / 2x N · f) · (x N -x) · (H-t1) Y = become (b / 2y N · f) · (y N -y) · (H-t1) ·· (7).

【0035】また,図6は,車両モデルを示す説明図で
ある。このモデルは,y軸方向に一定幅Wをもち,1〜
12の特徴点の3次元座標をモデルとして予めパラメー
タ記憶装置114に記憶しておく。
FIG. 6 is an explanatory view showing a vehicle model. This model has a constant width W in the y-axis direction,
The three-dimensional coordinates of the twelve feature points are stored in the parameter storage device 114 in advance as a model.

【0036】次に,車両モデルの変換処理を実行する
(S306)。ここでは,判定された車両の向きと車両
前後のエッジ線とそれに接続された線分情報と,カメラ
101の設置パラメータから下記に示す関係式を用い
て,モデルを座標変換し,抽出された車両画像の各画素
に対して高さ情報を付加する。以下,この変換処理およ
び高さ情報の付加について詳述する。
Next, a vehicle model conversion process is executed (S306). Here, the model is subjected to coordinate conversion using the relational expression shown below from the determined direction of the vehicle, edge lines before and after the vehicle, line segment information connected thereto, and installation parameters of the camera 101, and the extracted vehicle is extracted. Height information is added to each pixel of the image. The conversion process and the addition of height information will be described in detail below.

【0037】〔車両モデル情報の実空間への変換〕画像
から得られた車両前後のエッジ線上の2点(x1,y
1,t1),(x2,y2,t1)を選択し,実空間に
上記(7)式を用いて変換する。なお,xは画像のX座
標,yは画像のY座標,t1は車両モデル変換で各画素
に付加した高さ情報である。そして,変換された2点
(x1,y1,t1),(x2,y2,t1)の座標を
用いて,車両のx座標に対する傾きθ1を求める。すな
わち, θ1=−(x2−x1)/(y2−y1)・・(8) により求める。
[Conversion of Vehicle Model Information to Real Space] Two points (x1, y) on the edge lines before and after the vehicle obtained from the image.
1, t1), (x2, y2, t1) are selected and converted into the real space using the above equation (7). Note that x is the X coordinate of the image, y is the Y coordinate of the image, and t1 is the height information added to each pixel by the vehicle model conversion. Then, using the coordinates of the converted two points (x1, y1, t1) and (x2, y2, t1), the inclination θ1 of the vehicle with respect to the x coordinate is obtained. That is, θ1 = − (x2−x1) / (y2−y1) · (8)

【0038】さらに,側方エッジ線上の2点からも同様
に車両の傾きθ2を求めることができる。この2つの傾
きを平均して用いることで,エッジ線検出時における誤
差の影響を少なくすることができる。
Further, the inclination θ2 of the vehicle can be similarly obtained from the two points on the side edge line. By averaging these two slopes and using them, it is possible to reduce the influence of an error in edge line detection.

【0039】車両前後のエッジ線と側方エッジ線の交点
を(x0,y0,t0)とすると,この座標の実空間座
標(x0,y0,t0)がモデルの特徴点と対応すると
すると,図6に示した車両モデルの特徴点のうち1,
2,11,12の何れかが対応することになる。このう
ちの何れが対応するかの選択は,車両前後のエッジ線の
どちら側の特徴点であるかと,車両の向きとで選択さ
れ,これを変換の基準とする。そして基準点が決定する
ことにより,傾きθを用いて,各特徴点を実空間上に座
標変換することができる。
If the intersection of the edge line before and after the vehicle and the side edge line is (x0, y0, t0), the real space coordinates (x0, y0, t0) of this coordinate correspond to the feature point of the model. Among the feature points of the vehicle model shown in 6,
Either 2, 11, or 12 corresponds. Which of these corresponds corresponds to which side of the edge line before and after the vehicle is the feature point and the direction of the vehicle, and this is used as the conversion reference. Then, by determining the reference point, it is possible to coordinate-convert each feature point in the real space using the inclination θ.

【0040】さらに,特徴点間で,高さ情報に変化があ
る場合,その特徴点間に画像変換用の補助座標を算出し
ておく。この補助座標の設定方法を以下に説明する。図
7は,この補助座標の設定方法を示す説明図である。歪
みが許容できると事前に判断した高さΔtを設定してお
く。この高さΔt毎に特徴点間を補間するように,実空
間における座標を下記式により算出する。すなわち,P
1(x1,y1,t1),P2(x2,y2,t2)と
すると,P1からnΔtだけ変化した補助座標(x3,
y3,t1+nΔt)は, x3=nΔt/(t2−t1)・(x2−x1) y3=nΔt/(t2−t1)・(y2−x1)・・(9) により求めることができる。
Further, when the height information changes between the characteristic points, auxiliary coordinates for image conversion are calculated between the characteristic points. The method of setting the auxiliary coordinates will be described below. FIG. 7 is an explanatory diagram showing a method of setting the auxiliary coordinates. The height Δt, which is determined in advance that the distortion is acceptable, is set. The coordinates in the real space are calculated by the following equations so that the feature points are interpolated for each height Δt. That is, P
1 (x1, y1, t1) and P2 (x2, y2, t2), the auxiliary coordinate (x3, which changes from P1 by nΔt).
y3, t1 + nΔt) can be obtained by x3 = nΔt / (t2-t1) · (x2-x1) y3 = nΔt / (t2-t1) · (y2-x1) ·· (9).

【0041】〔実空間座標の画像座標への変換〕この変
換は,上記変換式(7)の逆変換であり,以下の式とな
る。 x=xN −(2xN f/a(H−t1)・X y=yN −(2yN f/a(H−t1)・Y・・(10)
[Conversion of Real Space Coordinates to Image Coordinates] This conversion is an inverse conversion of the above conversion formula (7) and becomes the following formula. x = x N - (2x N f / a (H-t1) · X y = y N - (2y N f / a (H-t1) · Y ·· (10)

【0042】〔高さ情報の付加〕画像座標に変換された
特徴点および補助座標に囲まれた領域の座標は,その特
徴点および補助座標のもつ高さ情報の平均値に相当する
高さ情報を付加する。変換された特徴点および補助座標
(x1,y1,t1),(x2,y2,t1),(x
3,y3,t2),(x4,y4,t2)から,その中
に含まれる座標の高さ情報は, (t1+t2)/2・・(11) である。
[Addition of Height Information] The coordinates of the area surrounded by the feature points and the auxiliary coordinates converted into image coordinates are height information corresponding to the average value of the height information of the feature points and the auxiliary coordinates. Is added. The converted feature points and auxiliary coordinates (x1, y1, t1), (x2, y2, t1), (x
3, y3, t2) and (x4, y4, t2), the height information of the coordinates contained therein is (t1 + t2) / 2 ... (11).

【0043】上記ステップS306の処理を実行した
後,画像座標の変換処理を実行し(S307),リター
ンする。このステップS307では,車両領域画像の高
さ情報が付加された画像に対して,前記(7)式におい
て示した画像実空間変換と,次の実空間→画像変換式
(12)とを用いて画像座標変換を実行する。なお,こ
の実空間→画像変換は,高さのある物体を真上からみた
画像に変換するものである。実空間座標(X1,Y1,
t1)において,t1=0として,上記ステップS30
6のの変換を行った変換である。したがって,上記
(10)式より, x=xN −(2xN f/aH)・X y=yN −(2yN f/aH)・Y・・(12) となる。
After executing the process of step S306, the image coordinate conversion process is executed (S307), and the process returns. In step S307, the image real space conversion shown in the equation (7) and the following real space → image conversion equation (12) are used for the image to which the height information of the vehicle area image is added. Perform image coordinate transformation. Note that this real space-to-image conversion is to convert an object with a height into an image viewed from directly above. Real space coordinates (X1, Y1,
In t1), t1 = 0 is set, and the above step S30 is performed.
This is the conversion of the conversion of 6. Therefore, from equation (10), x = x N - a (2y N f / aH) · Y ·· (12) - (2x N f / aH) · X y = y N.

【0044】次に,クラスタリングについて説明する。
この発明におけるクラスタリングは,ステップS203
(図2参照)の差分処理により得られた2値画像の画素
値1の画素を隣接するグループ毎に分割してラベル(グ
ループ名)付けを行うものである。この処理手順を図2
0〜図28に示す例を用いて説明する。
Next, clustering will be described.
The clustering in this invention is performed in step S203.
Pixels having a pixel value of 1 in the binary image obtained by the difference processing (see FIG. 2) are divided into adjacent groups and labeled (group names). This processing procedure is shown in FIG.
This will be described with reference to the examples shown in FIGS.

【0045】〔手順1〕行番号k=0として,画素値1
をもつ画像を列番号L=0からL=9まで探索する。こ
の図20の場合,L=0で検出することができる。該検
出された画素の画素値を新しく1(ラベル)とする。L
を1づつ増加させて,その画素の画素値が1の場合には
(すなわち,1が連続しているかぎり)同じ1を画素値
として与える。画素値1が連続しなくなった場合,画素
に与える値を1増やす。この処理をLの最大まで行い,
次の手順2に進む。最後に与えたラベルは記憶してお
く。図20に示す画像にこの処理を行うと図21に示す
ようになる。
[Procedure 1] Pixel value 1 with line number k = 0
Search for images with column numbers from L = 0 to L = 9. In the case of FIG. 20, it is possible to detect when L = 0. The pixel value of the detected pixel is newly set to 1 (label). L
Is incremented by 1 and the same 1 is given as the pixel value when the pixel value of the pixel is 1 (that is, as long as 1 continues). When the pixel value 1 is no longer continuous, the value given to the pixel is incremented by 1. This process is performed up to the maximum of L,
Proceed to the next step 2. Remember the last label given. When this process is performed on the image shown in FIG. 20, the image becomes as shown in FIG.

【0046】〔手順2〕kの値を1つ増やし,画素値1
をもつ画像をL=0からL=9まで探索する。この図2
0の場合,L=1で検出することができる。該検出され
た画素に隣接してk−1行に画素値をもつ画素が存在す
るか検索する。複数画素が存在する場合,Lが小さい画
素の画素値をその画素の画素値として,以後1が連続す
る場合には,この値を新しく画素値として与える。さら
に,隣接していた他のラベルについては,同一ラベルに
置き直すために,変換テーブルに変更対象のラベルと変
更後のラベルを記入しておく。k=2にこの処理を行う
と図22に示すようになり,図23に示す変換テーブル
ができる。この処理をLの最大まで行い,手順3に移行
する。
[Procedure 2] The value of k is increased by 1, and the pixel value is 1
Search for images with L from L = 0 to L = 9. This Figure 2
In the case of 0, it can be detected with L = 1. It is searched whether or not there is a pixel having a pixel value in the k-1th row adjacent to the detected pixel. When there are a plurality of pixels, the pixel value of the pixel having a small L is set as the pixel value of the pixel, and when 1 continues thereafter, this value is newly given as the pixel value. Further, in order to replace the other adjacent labels with the same label, the label to be changed and the label after the change are written in the conversion table. When this process is performed when k = 2, the result is as shown in FIG. 22, and the conversion table shown in FIG. 23 is obtained. This processing is performed up to the maximum of L, and the procedure shifts to step 3.

【0047】〔手順3〕kが最大の値まで手順2を繰り
返し実行する。kが最大であれば,手順4に進む。
[Procedure 3] The procedure 2 is repeatedly executed until the maximum value of k. If k is the maximum, go to step 4.

【0048】〔手順4〕変換テーブルを用いて,隣接画
素のラベルを同一ラベルにする。変更後に変更対象が含
まれる場合には,その変更後を変更対象の変更後に置き
換える。図24に示す変換テーブルの例で説明すると,
変換対象4は変更後ラベル2に変換されるが,ラベル2
も変更対象であり,ラベル1に変換される。これを順番
に上から順次変換すると,ラベル2がラベル1に変換さ
れた後,ラベル4がラベル2に変換されるこになり,ラ
ベル2が残る。これを防止するために,図25に示すよ
うに変換テーブル内で最終的に変換されるべきラベルの
変更後に置き変えておく。
[Procedure 4] The labels of adjacent pixels are made the same label by using the conversion table. When the change target is included after the change, the change target is replaced after the change target is changed. Explaining with the example of the conversion table shown in FIG. 24,
The conversion target 4 is converted to the label 2 after the change, but the label 2
Is also a change target and is converted to label 1. When this is sequentially converted from the top, the label 2 is converted into the label 1, and then the label 4 is converted into the label 2, and the label 2 remains. In order to prevent this, as shown in FIG. 25, the label to be finally converted in the conversion table is replaced after the change.

【0049】また,図26に,図20に示した例にラベ
ル付けしたものを,図27に変換テーブルを,図28に
変換テーブルを用いてラベルを置き直したものをそれぞ
れ示す。図26に示した画像ができると,画素値1が連
結された領域へのラベル付けが終了したことになり,各
ラベルを用いて,該ラベルをもつ画素の数を計測するこ
とができる。
Further, FIG. 26 shows the label labeled in the example shown in FIG. 20, FIG. 27 shows the conversion table, and FIG. 28 shows the label rearranged using the conversion table. When the image shown in FIG. 26 is produced, labeling of the area where the pixel value 1 is connected is completed, and the number of pixels having the label can be measured using each label.

【0050】[0050]

【発明の効果】以上説明したように,この発明に係る車
両周囲表示装置(請求項1)によれば,撮影した画像か
ら自車両を抽出し,該自車両の位置や向きに応じて画像
の歪み補正(座標変換)を実行した画像と,自車両を含
まない他の領域画像とを合成して表示するようにしたた
め,カメラの視野中心に対して自車両の位置がずれた場
合であっても,自車両およびその周囲の障害物を的確に
視認することができる。
As described above, according to the vehicle surroundings display device (Claim 1) of the present invention, the own vehicle is extracted from the photographed image, and the image is displayed according to the position and direction of the own vehicle. Since the image subjected to the distortion correction (coordinate conversion) and the other region image not including the own vehicle are combined and displayed, it is possible that the position of the own vehicle deviates from the center of the visual field of the camera. Also, it is possible to accurately see the own vehicle and obstacles around it.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明に係る車両周囲表示装置のシステム構
成を示すブロック図である。
FIG. 1 is a block diagram showing a system configuration of a vehicle surrounding display device according to the present invention.

【図2】車両周囲表示装置の動作処理を示すフローチャ
ートである。
FIG. 2 is a flowchart showing an operation process of a vehicle surroundings display device.

【図3】領域画像変換処理を示すフローチャートであ
る。
FIG. 3 is a flowchart showing a region image conversion process.

【図4】実施例に用いる撮像画面例を示す説明図であ
る。
FIG. 4 is an explanatory diagram showing an example of an image pickup screen used in the embodiment.

【図5】実施例に用いる画像→実空間変換を示す説明図
である。
FIG. 5 is an explanatory diagram showing image-to-real space conversion used in the embodiment.

【図6】実施例に用いる車両モデル例を示す説明図であ
る。
FIG. 6 is an explanatory diagram showing an example of a vehicle model used in the embodiment.

【図7】実施例に用いる補助座標例を示す説明図であ
る。
FIG. 7 is an explanatory diagram showing an example of auxiliary coordinates used in the embodiment.

【図8】初期設定処理における画像メモリ(B)内の画
像例を示す説明図である。
FIG. 8 is an explanatory diagram showing an example of an image in an image memory (B) in an initial setting process.

【図9】画像入力処理における画像メモリ(A)内の画
面例を示す説明図である。
FIG. 9 is an explanatory diagram showing an example of a screen in an image memory (A) in an image input process.

【図10】差分処理を示す画像例である。FIG. 10 is an image example showing difference processing.

【図11】最遠点探索を示す画像例である。FIG. 11 is an image example showing the farthest point search.

【図12】車両エッジの検出を示す画像例である。FIG. 12 is an image example showing detection of a vehicle edge.

【図13】車両方向の算出を示す画像例である。FIG. 13 is an image example showing calculation of a vehicle direction.

【図14】前後および側方エッジの検出を示す画像例で
ある。
FIG. 14 is an image example showing detection of front and rear and side edges.

【図15】画像座標変換前を示す画像例である。FIG. 15 is an image example showing before image coordinate conversion.

【図16】画像座標変換後を示す画像例である。FIG. 16 is an image example showing an image after coordinate conversion.

【図17】背景抽出を示す画像例である。FIG. 17 is an image example showing background extraction.

【図18】車両領域の合成を示す画像例である。FIG. 18 is an image example showing composition of vehicle regions.

【図19】全画像合成を示す画像例である。FIG. 19 is an image example showing all-image combination.

【図20】クラスタリングに係る2値画像の例を示すマ
トリックスである。
FIG. 20 is a matrix showing an example of a binary image related to clustering.

【図21】クラスタリングに係る手順1を実行した例を
示すマトリックスである。
FIG. 21 is a matrix showing an example in which procedure 1 relating to clustering is executed.

【図22】クラスタリングに係る手順2を実行した例を
示すマトリックスである。
FIG. 22 is a matrix showing an example in which procedure 2 relating to clustering is executed.

【図23】クラスタリングに係る変換テーブル例(1)
を示す説明図である。
FIG. 23 is a conversion table example (1) related to clustering.
FIG.

【図24】クラスタリングに係る変換テーブル例(2)
を示す説明図である。
FIG. 24 is a conversion table example (2) related to clustering.
FIG.

【図25】クラスタリングに係る変換テーブル例(3)
を示す説明図である。
FIG. 25 is a conversion table example (3) related to clustering.
FIG.

【図26】クラスタリングに係るラベル付けした例を示
すマトリックスである。
FIG. 26 is a matrix showing an example of labeling related to clustering.

【図27】クラスタリングに係る変換テーブル例(4)
を示す説明図である。
FIG. 27 is a conversion table example (4) related to clustering.
FIG.

【図28】クラスタリングによりラベルを変換した画像
を示すマトリックスである。
FIG. 28 is a matrix showing an image in which labels are converted by clustering.

【図29】カメラと立体物の撮影位置の変化による撮影
画像の歪みを示す説明図である。
FIG. 29 is an explanatory diagram showing distortion of a captured image due to a change in a capturing position of a camera and a three-dimensional object.

【符号の説明】[Explanation of symbols]

101 画像入力装置 102 画像メモリ(A) 104 車両抽出装置 105 車両座標変換装置 106 画像メモリ(B) 108 車両領域合成装置 109 全画面合成装置 111 送信装置 112 受信装置 113 表示装置 114 パラメータ記憶装置 Reference Signs List 101 image input device 102 image memory (A) 104 vehicle extraction device 105 vehicle coordinate conversion device 106 image memory (B) 108 vehicle area composition device 109 full screen composition device 111 transmission device 112 reception device 113 display device 114 parameter storage device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/18 D J ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location H04N 7/18 DJ

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 撮影手段により上方から撮影した画像を
送信手段を介して自車両の受信手段に送信し,モニタ表
示する車両周囲表示装置において,自車両が存在しない
状態で撮影された画像を記憶する第1の画像記憶手段
と,自車両が存在する状態で撮影された画像を記憶する
第2の画像記憶手段と,前記第1の画像記憶手段に記憶
した撮影画像から車両領域を抽出する車両領域抽出手段
と,車両モデルに関する情報と前記撮影手段の設置状態
に関する情報を予めパラメータとして記憶しておくパラ
メータ記憶手段と,前記抽出された車両領域を前記パラ
メータ記憶手段の各パラメータに基づいて車両上方から
みた画像に変換する車両座標変換手段と,該車両座標変
換手段により変換された車両領域を除く前記抽出された
車両領域を前記第1の画像記憶手段に記憶された画像を
用いて補完する背景領域作成手段と,前記車両座標変換
手段による画像と前記背景領域作成手段による画像とを
合成する車両領域合成手段と,前記車両領域合成手段に
よる画像と,前記第2の画像記憶手段に記憶された画像
から前記車両領域を除いた画像とを合成する全面画像合
成手段とを具備することを特徴とする車両周囲表示装
置。
1. A vehicle periphery display device for transmitting an image photographed from above by a photographing means to a receiving means of a vehicle via a transmitting means and displaying the image on a monitor, and storing an image photographed in the absence of the vehicle. A first image storage means, a second image storage means for storing an image captured in the state where the vehicle is present, and a vehicle for extracting a vehicle area from the captured image stored in the first image storage means. Area extraction means, parameter storage means for storing in advance information regarding the vehicle model and information regarding the installation state of the photographing means as parameters, and the extracted vehicle area based on each parameter of the parameter storage means. The vehicle coordinate conversion means for converting into a visible image, and the extracted vehicle area excluding the vehicle area converted by the vehicle coordinate conversion means. By the background area creating means for complementing using the image stored in the image storing means, the vehicle area synthesizing means for synthesizing the image by the vehicle coordinate converting means and the image by the background area creating means, and the vehicle area synthesizing means. A vehicle surrounding display device comprising: an image and a full-screen image synthesizing unit for synthesizing the image stored in the second image storage unit and the image excluding the vehicle region.
JP5351836A 1993-12-30 1993-12-30 Vehicle surroundings display unit Pending JPH07195978A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5351836A JPH07195978A (en) 1993-12-30 1993-12-30 Vehicle surroundings display unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5351836A JPH07195978A (en) 1993-12-30 1993-12-30 Vehicle surroundings display unit

Publications (1)

Publication Number Publication Date
JPH07195978A true JPH07195978A (en) 1995-08-01

Family

ID=18419944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5351836A Pending JPH07195978A (en) 1993-12-30 1993-12-30 Vehicle surroundings display unit

Country Status (1)

Country Link
JP (1) JPH07195978A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997047840A1 (en) * 1996-06-14 1997-12-18 Hitachi, Ltd. Mechanical parking lot and parking control method therefor
JP2000337870A (en) * 1999-05-27 2000-12-08 Honda Motor Co Ltd Judgment apparatus for object
US6366221B1 (en) 2000-06-30 2002-04-02 Matsushita Electric Industrial Co., Ltd. Rendering device
JP2002314991A (en) * 2001-02-09 2002-10-25 Matsushita Electric Ind Co Ltd Image synthesizer
US6917693B1 (en) 1999-12-20 2005-07-12 Ford Global Technologies, Llc Vehicle data acquisition and display assembly
JP2010128732A (en) * 2008-11-27 2010-06-10 Japan Traffic Management Technology Association Apparatus for observing density in the number of vehicles and program for the same
CN110782686A (en) * 2018-07-30 2020-02-11 本田技研工业株式会社 Control device and computer-readable storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997047840A1 (en) * 1996-06-14 1997-12-18 Hitachi, Ltd. Mechanical parking lot and parking control method therefor
JP2000337870A (en) * 1999-05-27 2000-12-08 Honda Motor Co Ltd Judgment apparatus for object
US6917693B1 (en) 1999-12-20 2005-07-12 Ford Global Technologies, Llc Vehicle data acquisition and display assembly
US6366221B1 (en) 2000-06-30 2002-04-02 Matsushita Electric Industrial Co., Ltd. Rendering device
JP2002314991A (en) * 2001-02-09 2002-10-25 Matsushita Electric Ind Co Ltd Image synthesizer
JP2010128732A (en) * 2008-11-27 2010-06-10 Japan Traffic Management Technology Association Apparatus for observing density in the number of vehicles and program for the same
CN110782686A (en) * 2018-07-30 2020-02-11 本田技研工业株式会社 Control device and computer-readable storage medium

Similar Documents

Publication Publication Date Title
EP2437494B1 (en) Device for monitoring area around vehicle
JP4861574B2 (en) Driving assistance device
JP5208203B2 (en) Blind spot display device
JP3279479B2 (en) Video monitoring method and device
US8115611B2 (en) Vehicle-installed obstacle detecting system and method using image capturing and scanning
JP2004354257A (en) Calibration slippage correction device, and stereo camera and stereo camera system equipped with the device
JP4892965B2 (en) Moving object determination system, moving object determination method, and computer program
JP2003134508A (en) Information providing device for vehicle
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP2003150938A (en) Image recognizing device
JPH05114099A (en) Distance detector for vehicle
JPH06293236A (en) Travel environment monitoring device
JP2002064812A (en) Moving target tracking system
JP2012185540A (en) Image processing device, image processing method, and image processing program
JP3381351B2 (en) Ambient situation display device for vehicles
JP5083443B2 (en) Driving support device and method, and arithmetic device
JP2000293693A (en) Obstacle detecting method and device
JPH07195978A (en) Vehicle surroundings display unit
JP2009217832A (en) Method and device for automatically recognizing road sign in video image, and storage medium which stores program of road sign automatic recognition
JP2004312402A (en) System and apparatus for road monitoring
JP2004056497A (en) Image processing apparatus and method therefor, and vehicle supervision system
JP2008286648A (en) Distance measuring device, distance measuring system, and distance measuring method
JP4404047B2 (en) Obstacle collision determination system, determination apparatus, obstacle collision determination method, and computer program
JP2009077022A (en) Driving support system and vehicle
JP2004212658A (en) System and method for image display and image processor