JP2004040523A - Surveillance apparatus for vehicle surroundings - Google Patents
Surveillance apparatus for vehicle surroundings Download PDFInfo
- Publication number
- JP2004040523A JP2004040523A JP2002195449A JP2002195449A JP2004040523A JP 2004040523 A JP2004040523 A JP 2004040523A JP 2002195449 A JP2002195449 A JP 2002195449A JP 2002195449 A JP2002195449 A JP 2002195449A JP 2004040523 A JP2004040523 A JP 2004040523A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- monitoring device
- obstacle
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は車両周囲監視装置に関する。
【0002】
【従来技術】
従来の技術として、特開2002−29314号公報に開示された技術が知られている。
【0003】
上記従来技術は、車両に搭載されたカメラによって撮像した過去の画像から、現在の撮像領域では撮像できない画像を切り出し、切り出した過去の撮像画像を現在の画像に補完して表示することで、欠落部分の少ない画像を表示する技術が開示されている。
【0004】
【発明が解決しようとする課題】
しかしながら、従来の技術は、現在の画像に過去の画像を補完するようにしていたので、表示されている補完領域の画像が必ずしも現在の状況と一致しているとは限らず、車両周囲の現在の状態を正確に報知できない可能性があった。
【0005】
本発明は上記課題に鑑みて、車両周囲の現在の状態を正確に報知することができることを目的としている。
【0006】
【課題を解決するための手段】
本発明は上記課題を解決するために、第1時刻に撮像された第1画像と、前記第1時刻よりも時間が経過した第2時刻に撮像された第2画像とに基づいて、前記第1画像のうち、前記第2画像で撮像されない前記車両の第1周囲領域の画像を、前記第2画像に補完した第3画像を生成する画像補完手段と、
前記画像補完手段によって生成された第3画像を前記第1の視点よりも高い第2の視点からの表示画像に変換する画像変換手段と、
前記画像変換手段によって変換された表示画像を表示する表示手段と、
前記第1周囲領域に障害物が存在するかどうかを検出する障害物検出手段と、前記障害物検出手段によって第1周囲領域に障害物が検出された場合、障害物の存在を報知する報知手段とを備えることで上記目的を達成する。
【0007】
【発明の効果】
本発明によれば、第2画像に第1画像を補完した第3画像を、第2の視点からの表示画像に変換し、表示手段によって表示すると共に、第1周囲領域に障害物が検出された場合に、報知手段で報知することにしたので、現在の状態を正確に報知することができる。
【0008】
【発明の実施の形態】
以下、本発明の車両周囲監視装置の実施の形態を図1〜9を参照して詳細に説明する。
【0009】
図1は本発明の車両周囲監視装置の構成を示す図である。
【0010】
1は車両後部中央付近に配置された車載カメラであって、車両後方の定められた領域(一定領域)を所定の視点より撮像するCCDカメラである。ここでは説明の簡略化のため、車載カメラ1はピンホールカメラのようにレンズ収差のないものとして扱う。
【0011】
8は車両の速度を検出する車速センサであり、9は車両の舵角を検出する操舵角センサである。
【0012】
12は赤外線の送受光によって後述する補完領域に障害物が存在しているかどうかを検出するレーザレーダである。
車載カメラ1により撮像された画像と、車速センサ8により検出された車速と操舵角センサ9により検出された舵角と、レーザレーダ12により検出された障害物の有無は各々、バックモニタECU(エレクトリックコントロールユニット)2へと出力される。
【0013】
以下、バックモニタECU2について説明する。3は車載カメラ画像フレームメモリで、車載カメラ1が撮像した画像を所定のタイミング(以下、サンプルタイムと記す)で記録する。記録された画像は画像処理器A4へと出力される。
【0014】
画像処理器A4は、車載カメラ画像フレームメモリ3から出力された画像に対し、車載カメラ1よりも高い視点に配置した仮想カメラ位置から地面を撮像した画像(以下、仮想カメラ画像と記す。)となるように画素の並び替えを行う。ここでは仮想カメラ画像は、上空より真下を見下ろしたように画素を並び替えるものとする。
【0015】
この仮想カメラ画像は仮想カメラ画像フレームメモリ6へと出力される。
【0016】
仮想カメラ画像フレームメモリ6は、仮想カメラ画像を記録するもので、ここで記録された画像は画像合成器10へと出力される。画像合成器10では後述する合成処理が行われ、合成画像は表示画像フレームメモリ11で記録される。
【0017】
表示画像フレームメモリ11に記録された合成画像は、スーパーインポーザー15と画像処理器B5へとそれぞれ出力される。
【0018】
車速センサ8および操舵角センサ9からの出力に基づいて、マイコン13は前回のサンプルタイムと今回のサンプルタイムとの間での車両の移動位置・距離を算出する。この車両の移動位置・距離に基づいて、マイコン13は補完を行う領域を決定し、画像処理部B5へと出力する。
【0019】
画像処理器B5は、マイコン13から出力された補完領域の部分の画像を表示画像フレームメモリ11から出力された合成画像から切り出す処理を行う。この切り出された画像(以下、補完画像と記す。)は補完画像フレームメモリ7へと出力される。
【0020】
補完画像フレームメモリ7は画像処理器B5から出力された補完画像を記録する。仮想カメラ画像フレームメモリ6で記録された仮想カメラ画像および補完画像フレームメモリ7で記録された補完画像は画像合成器10へと出力される。
【0021】
画像合成器10は、仮想カメラ画像と補完画像とを1つの画像に合成する。合成された合成画像は表示画像フレームメモリ11へ記録され、記録された画像はスーパーインポーザー15へと出力される。
【0022】
14はマーカー発生器で、マイコン13の処理に基づき、様々なマーカーを発生させる。マーカー発生器14で発生させたマーカーはスーパーインポーザー15へと出力される。
【0023】
スーパーインポーザー15は、表示画像フレームメモリ11で記録された合成画像にマーカー発生器14で発生させたマーカーをインポーズしてバックモニタ用の表示画像を完成させる。
【0024】
18はシフトポジションがどの位置に選択されているかを検知するシフトポジションスイッチである。シフトポジションスイッチ18により検知されたシフトポジションの位置とスーパーインポーザー15による表示画像はカーナビゲーションECU(エレクトリックコントロールユニット)へと出力される。
【0025】
17はカーナビゲーションモジュールで、地図表示や交差点案内などの各種処理が行われ、ナビゲーション画像が作成される。作成されたナビゲーション画面は画像切替え器19へと出力される。
【0026】
画像切替え器19は、シフトポジションスイッチ18がリバース位置を選択されている場合は、スーパーインポーザー15より出力される表示画像を選択し、シフトポジションスイッチ18がリバース位置以外の場合にはカーナビゲーションモジュール17より出力されるナビゲーション画像を選択する。
【0027】
20はディスプレイで、車両室内のセンターコンソール付近に配置され、画像切替え器19により選択された画像を表示する。
【0028】
図2は画像処理器A4の処理のうち、画像を車両を中心とした視点aから車載カメラの視点a′に変換するための説明図である。図2において車両を中心としたワールド座標(x,y,z)は車両最後部中央で路面上を原点とし、車両左右方向がx軸で、助手席がx>0、車両前後方向がy軸で、後ろ方向がy>0、車両上下方向がz軸で、上方向がz>0とする。ここで車載カメラ1は、車載カメラ1のレンズ位置を(0,0,z0)とし、光軸はx軸周りのピッチ角をθp(上側が正)、z軸周りのヨー角及び光軸周りのロール角を0度とする。カメラ座標はカメラの(x′,y′,z′)レンズ中心を原点とし、y′軸はカメラ光軸で撮影を正とする。このときワールド座標からカメラ座標への座標変換の行列式は以下のとおりである。
【0029】
以上の変換式によって車両を中心とした視点aから車載カメラの視点a’に変換することができる。
【0030】
次に図3は画像処理器A4の処理のうち、上記で説明した車載カメラ1のカメラ座標(x′,y′,z′)から撮像面座標(x″,z″)への座標に変換するための説明図である。
図3において撮像面座標(x″,z″)は車載カメラ1の撮像面bの中心を原点O’とし、水平方向をx″軸、垂直方向をz″軸とする。カメラ座標から撮像面座標への座標変換は焦点距離をfとすると次式となる。
以上の変換式によってカメラ座標から撮像面座標に変換することができる。
【0031】
次に図4は画像処理器A4の処理のうち、車載カメラ1から撮像した画像を車載カメラ1よりも高い視点にある仮想カメラから真下の地面を撮像した仮想カメラ画像に変換する処理の説明図である。
【0032】
図4(A)においてディスプレイ20の表示領域に表示される画面の座標を(h,v)とする。表示領域の中心を原点とし、水平方向をh軸、垂直方向をv軸とする。この座標への変換方向は撮像面の座標(x″,z″)をワールド座標の地面上の座標系、すなわちz=0とした(x,y)座標で表す。式(1)より逆変換は、
となる。
【0033】
式(3)と式(2)及びz=0からx′,y′,z′を消去すると、
となり、(x″,z″)平面から(x,y)平面に変換できる。
【0034】
以上の変換式から、仮想カメラ画像に変換することができる。
【0035】
次に上記(x,y)平面の中から任意の範囲を画面上に表示させるための処理を説明する。 任意の範囲は、例えば図4(B)に示すように車両後部0.5[m]を含み、x軸が幅4[m]、y軸が幅3[m]のエリアとし、この任意の範囲を仮想カメラで撮影したものとして抽出し、図4(A)のような画面座標に変換する。状況に応じては上記抽出範囲を運転者が可変できるようにすれば、より利便性が向上する。
【0036】
図4(A)のディスプレイ20の表示領域は、補完領域の画像mと撮像画像nから成る。ここで仮想カメラフレームメモリ6の画素数を例えば水平を640画素、垂直を480画素とすると、(x,y)平面から(h,v)平面への変換式は次式となる。
ここで(h,v)平面における補完領域の画像の不等式v<f(h)を求める。撮像する範囲はカメラに近いほどx軸での幅が狭く、遠くなると広くなる。よって撮像面の左端のx″座標を−x″0、右端のx″座標をx″0とすると、この値より絶対値の大きい範囲が撮像されない補完領域の画像となるため、式(4)よりz″を消去しy<g(x)で表すと、
となる。
【0037】
これを式(5)によりh、vに変換するとv<f(h)は次式の通りとなる。
そしてサンプルタイムt1のタイミングで撮像し、以上の処理を行った画像が仮想カメラ画像フレームメモリ6に記録される。
【0038】
次に画像処理部B5の処理について図5を用いて説明する。
【0039】
サンプルタイムt1で撮像された画像の任意の点pが画面上では(h1,v1)に位置していたと仮定し、サンプルタイムt1から車両が左側方向となるサンプルタイムt2の(h2,v2)に後退した場合を説明する。
【0040】
操舵角θs (右操舵が正)、ホイールベースL、ステアリングギア比nとすると、左右後輪の中心の回転半径R(右旋回が正)は次式となる。
尚、旋回時にはタイヤの横滑りによる影響が車速の2乗で発生するが、本装置が使用されるのは約10[Km/H]以下の低速域であるため、この影響は無視できる。 更に車速をvとすると1周期の回転角は次式となる。
そして回転半径R、操舵角θ1及びリアオーバーハング−L0により次式の座標変換式が成立し、点pは(h1,v1)から(h2,v2)へ移動する。
前回のサンプルタイムt1で記録した表示画像フレームメモリ11の画素を式(10)により移動し、これを補完画像フレームメモリ7に記録する。
【0041】
画像合成器10では撮像画像nに関しては仮想カメラ画像フレームメモリ6で記録した仮想カメラの画像を用いて、補完領域の画像mに関しては補完画像用フレームメモリ7で記録した補完画像を用いて合成する。この合成画像はスーパーインポーザー15へ送られるとともに、次回のサンプルタイムt3での補完処理のために画像処理器へと出力される。
以上の処理により、車両に搭載されたカメラによって撮像した過去の画像から現在、撮像できない領域に画像を補完することができる。
【0042】
次に図6はレーザレーダ12で障害物を検出する検出方法についての説明図である。補完領域を検出範囲とするためにレーザレーダを車両の右後端部と左後端部に設置し、発射したレーザ光が物体に反射して戻るまでの時間で距離を計測する。またレーザ光を回転スキャンさせることで、検出物体の角度情報を得ることができる。
【0043】
(xL,0)に配置された左レーダが捕らえた障害物の距離LLと角度θLから障害物のワールド座標における位置(xr,yr)を次式で求める。
上記説明は左側の例であるが、右側の処理も同等に行う。ここでは一例としてレーザレーダの場合で説明したが、ミリ波レーダを使用してもよいし、また安価で小型であるという特徴を有するソナーを使用してもよい。
【0044】
次に図7を用いて、本実施の形態によって、ディスプレイ20に表示される画像について説明する。
【0045】
ディスプレイ20の表示領域には、自車両の後端を示す自車両マーカー21と、自車両の予想進路を示す予想進路マーカー22とが、車載カメラ1によって撮像された画像に加えて表示されている。
【0046】
まず図7に示したディスプレイ20の表示領域の右側を用いて、障害物が検出されていない場合について説明する。
【0047】
23は車載カメラ1によって撮像された現在(例えばサンプルタイムt2)の状況を示す現在画像で、24は前回のサンプルタイムt1に撮像された画像に基づいて、補完処理された補完画像であり、レーザレーダ12によって障害物が検出されていない場合には、この現在画像23と補完画像24とは、視認者には一つの繋がった画像として認識される。すなわち、視認者にとっては、現在画像23と補完画像24も車両周囲の現在の画像として認識される。なお、点線25は、現在画像23と補完画像24との境界を便宜的に示す線であり、実際のディスプレイ20には表示されていない。
【0048】
次にディスプレイ20の表示領域の左側を用いて、障害物が検出された場合について説明する。
【0049】
補完画像24は、過去の画像を用いて補完された画像であって、現在の画像ではないので、瞬間的に三輪車26が補完画像24が表示される車両周囲の領域へと移動してきた場合、この三輪車26の存在をディスプレイ20へと表示することができない。従って、レーザレーダ12によって障害物の存在を検出した場合には、補完画像24による表示画像部分に、ハッチング処理27を行うことで、現在画像23よりも強調した表示を行う。この表示を視認者が認識することで、補完画像24部分に障害物が存在することを報知することができ、車両周囲の状況を正確に報知することができる。視認者は、この報知に基づいて、目視による確認を行うことができる。
【0050】
以上説明したように本実施の形態においては、所定の視点から車載カメラ1によって撮像した画像を、所定の視点よりも高いカメラから撮像した画像に変換して、表示するようにしたので、視認者が車両周囲の状況を見易いという効果を有する。
【0051】
また、過去の画像から、現在の画像では表示できない補完領域を切り出し、この補完画像を現在の画像に合成すると共に、この合成画像を仮想カメラ位置の画像に変換しているので、ディスプレイ20に表示される画像が、表示領域の全領域に表示されることになり、違和感の少ない表示を行うことができるという効果を有する。
【0052】
また、補完領域に存在する障害物をレーザレーダ12で検出し、障害物が検出された場合には、補完領域にハッチング処理を行って表示し、障害物の存在を報知するようにしたので、車両周囲の状況を正確に報知することができるという効果を有する。
【0053】
以上説明した実施の形態では、障害物が存在した場合には、補完画像24にハッチング処理を行うようにしたが、「障害物がいます。目視して下さい。」というような文字表示を行ったり、障害物の存在をブザーによって警報音として発生させたりしてもよい。またハッチング処理に変えて補完画像を表示しない、すなわち黒色や白色の表示を行っても良い。また、障害物の存在を示す矢印を表示しても良い。
【0054】
また上述した実施の形態では、車載カメラ1をピンホールカメラとして説明したが、広角レンズなどを使用しても同様の効果が得られる。
【0055】
また、図8に示すように、撮像した画像内に存在する障害物、例えば駐車場に置かれたブロック28を検出し、マーカーを表示させるようにしてもよい。また、自車両の予想軌跡内に、障害物が存在する場合には、マーカーを赤色29として、強調させて表示してもよい。
【0056】
また、図9に示すように、撮像する画像内に存在する障害物が車両などの移動物体30である場合には、移動物体の移動方向をマーカー31によって表示させるようにしても良い。この場合には、前述に画像処理器A4によって、障害物の存在を検出するようにする。
【0057】
なお上述した実施の形態では、車載カメラによって車両後方を撮像するようにしたが、車両の前方や、側方などの周囲に用いても同様の効果を有することはいうまでもない。
【0058】
特許請求の範囲の構成要素と実施の形態の対応関係は次のとおりである。
すなわち、車載カメラ1が撮像手段を、画像処理器B5が画像補完手段を、画像処理器A4が画像変換手段を、画像合成器10が画像合成手段を、レーザレーダ12が障害物検出手段を、スーパーインポーザー15が重畳表示手段を、ディスプレイ20が表示手段を、スーパーインポーザー15およびディスプレイ20が報知手段を、ブザーが警報手段を、画像処理器A4が車両検出手段をそれぞれ構成する。尚、本発明の特徴的な機能を損なわない限り、各構成要素は上記構成に限定されるものではない。
【図面の簡単な説明】
【図1】本実施の形態において車両周囲監視装置の構成を示す図。
【図2】本実施の形態においてワールド座標からカメラ座標へ変換する説明図。
【図3】本実施の形態においてカメラ座標から撮像面座標へ変換する説明図。
【図4】本実施の形態において車載カメラで撮像した画像を車載カメラより高い視点に変換する説明図。
【図5】本実施の形態において過去の画像から現在、撮像できない領域に画像を補完する説明図。
【図6】本実施の形態においてレーザレーダによる障害物の検出方法の説明図。
【図7】本実施の形態においてディスプレイに撮像した補完領域内に存在する障害物をハッチングで強調させる説明図。
【図8】本実施の形態においてディスプレイに撮像した画像内に存在する障害物をマーカーで表示させる説明図。
【図9】本実施の形態においてディスプレイに撮像した画像内に存在する障害物の移動方向をマーカーで表示させる説明図。
【符号の説明】
1 ・・・車載カメラ
2 ・・・バックモニタECU
3 ・・・カメラ画像フレームメモリ
4 ・・・画像処理器A
5 ・・・画像処理器B
6 ・・・仮想カメラ画像フレームメモリ
7 ・・・補完画像フレームメモリ
8 ・・・車速センタ
9 ・・・操舵角センサ
10・・・画像合成器
11・・・表示画像フレームメモリ
12・・・レーザレーダ
13・・・マイコン
14・・・マーカー発生器
15・・・スーパーインポーザ
16・・・カーナビゲーションECU
17・・・カーナビゲーションモジュール
18・・・シフトポジションスイッチ
19・・・画像切替え機
20・・・ディスプレイ
21・・・自車両マーカー
22・・・予想進路マーカー
23・・・現在画像
24・・・補完画像
25・・・点線
26・・・三輪車
27・・・ハッチング
28・・・ブロック
29・・・赤色マーカー
30・・・移動物体
31・・・移動方向マーカー[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicle periphery monitoring device.
[0002]
[Prior art]
As a conventional technique, a technique disclosed in JP-A-2002-29314 is known.
[0003]
The above-described conventional technique is configured to cut out an image that cannot be picked up in a current image pickup area from a past image picked up by a camera mounted on a vehicle, and complement the cut-out past picked-up image with a current image to be displayed. A technique for displaying an image having a small portion is disclosed.
[0004]
[Problems to be solved by the invention]
However, in the conventional technology, the current image is supplemented with the past image, so that the displayed image of the complemented area does not always correspond to the current situation, and the current image around the vehicle is not always coincident with the current situation. May not be able to accurately report the status.
[0005]
The present invention has been made in view of the above circumstances, and has as its object to accurately notify a current state around a vehicle.
[0006]
[Means for Solving the Problems]
In order to solve the above problem, the present invention is based on a first image captured at a first time and a second image captured at a second time after a lapse of time from the first time. An image complementing unit that generates a third image in which an image of the first surrounding area of the vehicle, which is not captured in the second image, of the one image is complemented by the second image;
Image conversion means for converting a third image generated by the image complementing means into a display image from a second viewpoint higher than the first viewpoint;
Display means for displaying a display image converted by the image conversion means,
Obstacle detecting means for detecting whether an obstacle is present in the first surrounding area, and notifying means for notifying the presence of the obstacle when an obstacle is detected in the first surrounding area by the obstacle detecting means. The above object is achieved by providing the following.
[0007]
【The invention's effect】
According to the present invention, the third image obtained by complementing the first image with the second image is converted into a display image from the second viewpoint, displayed by the display means, and an obstacle is detected in the first surrounding area. In such a case, the notification is made by the notification means, so that the current state can be accurately notified.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of a vehicle periphery monitoring device of the present invention will be described in detail with reference to FIGS.
[0009]
FIG. 1 is a diagram showing a configuration of a vehicle periphery monitoring device according to the present invention.
[0010]
Reference numeral 1 denotes an in-vehicle camera arranged near the rear center of the vehicle, which is a CCD camera that captures an image of a predetermined area (constant area) behind the vehicle from a predetermined viewpoint. Here, for simplicity of description, the vehicle-mounted camera 1 is treated as having no lens aberration like a pinhole camera.
[0011]
[0012]
The image captured by the on-vehicle camera 1, the vehicle speed detected by the
[0013]
Hereinafter, the back monitor ECU 2 will be described.
[0014]
The image processor A4 captures the ground from a virtual camera position arranged at a higher viewpoint than the vehicle-mounted camera 1 with respect to the image output from the vehicle-mounted camera image frame memory 3 (hereinafter, referred to as a virtual camera image). The pixels are rearranged so that Here, it is assumed that the pixels of the virtual camera image are rearranged as if looking down from directly above the sky.
[0015]
This virtual camera image is output to the virtual camera
[0016]
The virtual camera
[0017]
The composite image recorded in the display
[0018]
Based on the outputs from the
[0019]
The image processor B <b> 5 performs a process of cutting out the image of the portion of the complementary region output from the
[0020]
The complementary image frame memory 7 records the complementary image output from the image processor B5. The virtual camera image recorded in the virtual camera
[0021]
The
[0022]
A
[0023]
The
[0024]
[0025]
A
[0026]
The
[0027]
Reference numeral 20 denotes a display, which is arranged near the center console in the vehicle compartment and displays an image selected by the
[0028]
FIG. 2 is an explanatory diagram for converting an image from the viewpoint a centering on the vehicle to the viewpoint a 'of the vehicle-mounted camera in the processing of the image processor A4. In FIG. 2, the world coordinates (x, y, z) centered on the vehicle have the origin on the road surface at the center of the rearmost portion of the vehicle, the x-axis is in the vehicle left-right direction, x> 0 in the passenger seat, and the y-axis is in the vehicle front-rear direction It is assumed that the rear direction is y> 0, the vertical direction of the vehicle is the z axis, and the upward direction is z> 0. Here, the on-vehicle camera 1 sets the lens position of the on-vehicle camera 1 to (0, 0, z 0 ), the optical axis is a pitch angle around the x-axis θp (the upper side is positive), the yaw angle around the z-axis, and the optical axis. The surrounding roll angle is set to 0 degree. The camera coordinates have the origin at the center of the (x ', y', z ') lens of the camera, and the y' axis is the camera optical axis and the image taking is positive. At this time, the determinant of the coordinate transformation from the world coordinates to the camera coordinates is as follows.
[0029]
With the above conversion formula, the viewpoint a centered on the vehicle can be converted to the viewpoint a 'of the vehicle-mounted camera.
[0030]
Next, FIG. 3 shows a process of converting the camera coordinates (x ', y', z ') of the on-vehicle camera 1 into the coordinates of the imaging plane coordinates (x ", z") in the processing of the image processor A4. FIG.
In FIG. 3, the coordinates of the imaging plane (x ″, z ″) are such that the center of the imaging plane b of the vehicle-mounted camera 1 is the origin O ′, the horizontal direction is the x ″ axis, and the vertical direction is the z ″ axis. The coordinate conversion from the camera coordinates to the imaging plane coordinates is given by the following equation, where f is the focal length.
With the above conversion formula, it is possible to convert from the camera coordinates to the imaging plane coordinates.
[0031]
Next, FIG. 4 is an explanatory diagram of a process of converting an image captured from the on-vehicle camera 1 into a virtual camera image capturing the ground immediately below from a virtual camera at a higher viewpoint than the on-vehicle camera 1 among the processes of the image processor A4. It is.
[0032]
In FIG. 4A, the coordinates of the screen displayed in the display area of the display 20 are (h, v). The center of the display area is the origin, the horizontal direction is the h-axis, and the vertical direction is the v-axis. The direction of conversion to these coordinates is represented by the coordinates (x ″, z ″) of the imaging surface in the world coordinate system on the ground, that is, (x, y) coordinates where z = 0. From equation (1), the inverse transform is
It becomes.
[0033]
Eliminating x ', y', z 'from equations (3) and (2) and z = 0 gives
Thus, the (x ″, z ″) plane can be converted to the (x, y) plane.
[0034]
From the above conversion formula, it is possible to convert to a virtual camera image.
[0035]
Next, a process for displaying an arbitrary range on the screen from the (x, y) plane will be described. The arbitrary range includes, for example, the rear portion 0.5 [m] of the vehicle as shown in FIG. 4B, the x-axis is an area having a width of 4 [m], and the y-axis is an area having a width of 3 [m]. The range is extracted as that captured by the virtual camera, and is converted into screen coordinates as shown in FIG. If the driver can change the extraction range depending on the situation, the convenience is further improved.
[0036]
The display area of the display 20 in FIG. 4A includes an image m of the complementary area and a captured image n. Here, assuming that the number of pixels of the virtual
Here, the inequality v <f (h) of the image of the complementary area on the (h, v) plane is obtained. The width of the x-axis becomes narrower as the camera is closer to the camera, and becomes wider as the camera is farther from the camera. Therefore, if the x-coordinate at the left end of the imaging surface is -x " 0 and the x-coordinate at the right end is x" 0 , a range having an absolute value larger than this value is an image of the complementary region that is not imaged. When z ″ is eliminated and y <g (x) is expressed,
It becomes.
[0037]
When this is converted into h and v by equation (5), v <f (h) becomes as follows.
Then, an image captured at the timing of the sample time t 1 and subjected to the above processing is recorded in the virtual camera
[0038]
Next, the processing of the image processing unit B5 will be described with reference to FIG.
[0039]
The arbitrary point p of the captured image on the screen at the sample time t 1 Suppose were located (h 1, v 1), the sampling time t 1 the vehicle is a sample time t 2 which is a left direction ( h 2 , v 2 ).
[0040]
Assuming the steering angle θ s (right steering is positive), the wheel base L, and the steering gear ratio n, the turning radius R of the center of the left and right rear wheels (right turning is positive) is as follows.
Note that, when turning, the effect of the side slip of the tire occurs at the square of the vehicle speed, but since this device is used in a low speed region of about 10 [Km / H] or less, this effect can be ignored. Further, assuming that the vehicle speed is v, the rotation angle in one cycle is given by the following equation.
The turning radius R, the coordinate conversion formula of the following equation is established by the steering angle theta 1 and rear overhang -L 0, the point p is moved to (h 1, v 1) from (h 2, v 2).
The pixel of the display
[0041]
The
Through the above processing, an image can be complemented from a past image captured by a camera mounted on a vehicle to an area that cannot be captured at present.
[0042]
Next, FIG. 6 is an explanatory diagram of a detection method for detecting an obstacle with the
[0043]
(X L, 0) Distance arranged obstacle left radar caught the L L and the angle θ position in world coordinates of the obstacle from the L (x r, y r) the calculated by the following equation.
The above description is an example on the left side, but the processing on the right side is performed similarly. Here, the case of a laser radar has been described as an example, but a millimeter-wave radar may be used, or a sonar having features of being inexpensive and compact may be used.
[0044]
Next, an image displayed on the display 20 according to the present embodiment will be described with reference to FIG.
[0045]
In the display area of the display 20, an own vehicle marker 21 indicating the rear end of the own vehicle and an expected course marker 22 indicating the expected course of the own vehicle are displayed in addition to the image captured by the on-vehicle camera 1. .
[0046]
First, a case where no obstacle is detected will be described using the right side of the display area of the display 20 shown in FIG.
[0047]
Reference numeral 23 denotes a current image indicating the current state (for example, sample time t 2 ) captured by the vehicle-mounted camera 1, and reference numeral 24 denotes a complementary image that has been subjected to a complementary process based on the image captured at the previous sample time t 1 . When no obstacle is detected by the
[0048]
Next, a case where an obstacle is detected using the left side of the display area of the display 20 will be described.
[0049]
Since the complementary image 24 is an image complemented using a past image and is not the current image, when the
[0050]
As described above, in the present embodiment, an image captured by the in-vehicle camera 1 from a predetermined viewpoint is converted into an image captured from a camera higher than the predetermined viewpoint, and is displayed. Has an effect that it is easy to see the situation around the vehicle.
[0051]
In addition, a complementary area that cannot be displayed in the current image is cut out from the past image, and the complementary image is combined with the current image, and the combined image is converted into an image at the virtual camera position. The image to be displayed is displayed in the entire display area, which has an effect that a display with less discomfort can be performed.
[0052]
In addition, the obstacle existing in the complementary area is detected by the
[0053]
In the above-described embodiment, when an obstacle is present, the supplementary image 24 is hatched. However, a character display such as “There is an obstacle. Alternatively, the presence of an obstacle may be generated as a warning sound by a buzzer. Further, instead of the hatching processing, the complementary image may not be displayed, that is, black or white may be displayed. Also, an arrow indicating the presence of an obstacle may be displayed.
[0054]
In the above-described embodiment, the in-vehicle camera 1 is described as a pinhole camera, but the same effect can be obtained by using a wide-angle lens or the like.
[0055]
As shown in FIG. 8, an obstacle existing in the captured image, for example, a block 28 placed in a parking lot may be detected and a marker may be displayed. Further, when an obstacle is present in the expected trajectory of the own vehicle, the marker may be highlighted as red 29.
[0056]
Further, as shown in FIG. 9, when the obstacle existing in the captured image is the moving object 30 such as a vehicle, the moving direction of the moving object may be displayed by the marker 31. In this case, the presence of the obstacle is detected by the image processor A4 as described above.
[0057]
In the above-described embodiment, the rear side of the vehicle is imaged by the on-vehicle camera. However, it goes without saying that the same effect can be obtained even when the vehicle is used in front of the vehicle or around the side.
[0058]
The correspondence between the components of the claims and the embodiments is as follows.
That is, the on-vehicle camera 1 is an imaging unit, the image processor B5 is an image complementing unit, the image processor A4 is an image converting unit, the
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a vehicle periphery monitoring device in the present embodiment.
FIG. 2 is an explanatory diagram for converting world coordinates into camera coordinates in the present embodiment.
FIG. 3 is an explanatory diagram for converting camera coordinates to imaging plane coordinates in the present embodiment.
FIG. 4 is an explanatory diagram for converting an image captured by a vehicle-mounted camera to a higher viewpoint than the vehicle-mounted camera in the embodiment.
FIG. 5 is an explanatory diagram for complementing an image from a past image to an area that cannot be captured at the present time in the present embodiment.
FIG. 6 is an explanatory diagram of a method for detecting an obstacle using a laser radar in the present embodiment.
FIG. 7 is an explanatory diagram in which an obstacle present in a complementary region imaged on a display is emphasized by hatching in the present embodiment;
FIG. 8 is an explanatory diagram of displaying an obstacle present in an image captured on a display by a marker in the present embodiment;
FIG. 9 is an explanatory diagram in which a moving direction of an obstacle present in an image captured on a display is displayed by a marker in the present embodiment.
[Explanation of symbols]
1 ... on-board camera 2 ... back monitor ECU
3 Camera
5 ... image processor B
6 virtual camera image frame memory 7 complementary
17
Claims (11)
前記撮像手段で、第1時刻に撮像された第1画像と、前記第1時刻よりも時間が経過した第2時刻に撮像された第2画像とに基づいて、前記第1画像のうち、前記第2画像で撮像されない前記車両の第1周囲領域の画像を、前記第2画像に補完した第3画像を生成する画像補完手段と、
前記画像補完手段によって生成された第3画像を前記第1の視点よりも高い第2の視点からの表示画像に変換する画像変換手段と、
前記画像変換手段によって変換された表示画像を表示する表示手段と、
前記第1周囲領域に障害物が存在するかどうかを検出する障害物検出手段と、
前記障害物検出手段によって第1周囲領域に障害物が検出された場合、障害物の存在を報知する報知手段とを備えたことを特徴とする車両周囲監視装置。Imaging means mounted on the vehicle to image a certain area around the vehicle from a first viewpoint;
The image capturing means includes a first image captured at a first time and a second image captured at a second time after a lapse of time from the first time. An image complementing unit configured to generate a third image obtained by complementing an image of the first surrounding area of the vehicle that is not captured by the second image with the second image;
Image conversion means for converting the third image generated by the image complementing means into a display image from a second viewpoint higher than the first viewpoint;
Display means for displaying a display image converted by the image conversion means,
Obstacle detection means for detecting whether an obstacle is present in the first surrounding area;
And a notifying unit for notifying the presence of the obstacle when the obstacle detecting unit detects an obstacle in the first surrounding area.
前記報知手段は前記障害物検出手段によって障害物が検出された場合に、前記表示画像に障害物の存在を示す障害物画像を重畳させる重畳表示手段を有することを特徴とする車両周囲監視装置。The vehicle surroundings monitoring device according to claim 1,
The vehicle surroundings monitoring device, wherein the notifying unit includes a superimposing display unit that superimposes an obstacle image indicating the presence of the obstacle on the display image when an obstacle is detected by the obstacle detecting unit.
前記重畳表示手段により重畳される障害物画像は、前記第3画像よりも強調された画像であることを特徴とする車両周囲監視装置。The vehicle surrounding monitoring device according to claim 2,
The obstacle surrounding image which is superimposed by the superimposing display means is an image which is emphasized more than the third image.
前記強調された画像はハッチング処理された画像であることを特徴とする車両周囲監視装置。The vehicle surrounding monitoring device according to claim 3,
A vehicle surroundings monitoring device, wherein the emphasized image is an image subjected to hatching processing.
前記強調された画像はマーカーであることを特徴とする車両周囲監視装置。The vehicle surrounding monitoring device according to claim 3,
The vehicle surroundings monitoring device, wherein the emphasized image is a marker.
前記強調された画像は、前記第1周囲領域の画像の表示を禁止することを特徴とする車両周囲監視装置。The vehicle surrounding monitoring device according to claim 3,
The vehicle surroundings monitoring device according to claim 1, wherein the highlighted image prohibits display of the image of the first surrounding area.
前記障害物検出手段は、レーザレーダ、ミリ波レーダ、ソナーの少なくとも1つであることを特徴とする車両周囲監視装置。The vehicle surroundings monitoring device according to any one of claims 1 to 6,
The vehicle surroundings monitoring device, wherein the obstacle detecting means is at least one of a laser radar, a millimeter-wave radar, and a sonar.
前記表示手段は、車両の予想進路線を表示することを特徴とする車両周囲監視装置。The vehicle surroundings monitoring device according to any one of claims 1 to 7,
The vehicle surroundings monitoring device, wherein the display means displays an expected course of the vehicle.
前記表示手段は、前記車両の一部を表示することを特徴とする車両周囲監視装置。The vehicle surrounding monitoring device according to any one of claims 1 to 8,
The vehicle surroundings monitoring device, wherein the display unit displays a part of the vehicle.
前記第2画像に基づいて、他車両を検出する車両検出手段を備え、
前記表示手段は、前記車両検出手段により他車両が検出された場合に、他車両を示すマーカーを表示することを特徴とした車両周囲監視装置。The vehicle periphery monitoring device according to any one of claims 1 to 9,
A vehicle detection unit that detects another vehicle based on the second image;
The vehicle surroundings monitoring device, wherein the display means displays a marker indicating another vehicle when the other vehicle is detected by the vehicle detection means.
前記報知手段は、前記障害物検出手段によって障害物が検出された場合に警報を行う警報手段を備えたことを特徴とする車両周囲監視装置。The vehicle surroundings monitoring device according to any one of claims 1 to 10,
The vehicle surroundings monitoring device, wherein the notifying unit includes an alarm unit that issues an alarm when an obstacle is detected by the obstacle detecting unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002195449A JP3988551B2 (en) | 2002-07-04 | 2002-07-04 | Vehicle perimeter monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002195449A JP3988551B2 (en) | 2002-07-04 | 2002-07-04 | Vehicle perimeter monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004040523A true JP2004040523A (en) | 2004-02-05 |
JP3988551B2 JP3988551B2 (en) | 2007-10-10 |
Family
ID=31703822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002195449A Expired - Lifetime JP3988551B2 (en) | 2002-07-04 | 2002-07-04 | Vehicle perimeter monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3988551B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004114976A (en) * | 2002-09-30 | 2004-04-15 | Aisin Seiki Co Ltd | Moving body periphery monitoring device |
JP2007069806A (en) * | 2005-09-08 | 2007-03-22 | Clarion Co Ltd | Obstacle detecting device for vehicle |
JP2007076425A (en) * | 2005-09-12 | 2007-03-29 | Aisin Aw Co Ltd | Parking support method and parking support device |
JP2007104373A (en) * | 2005-10-05 | 2007-04-19 | Alpine Electronics Inc | On-vehicle image displaying device |
JP2007142545A (en) * | 2005-11-15 | 2007-06-07 | Denso Corp | Vehicle periphery image processing apparatus and program |
JP2007158642A (en) * | 2005-12-05 | 2007-06-21 | Alpine Electronics Inc | Car-periphery image provider |
US20080198226A1 (en) * | 2007-02-21 | 2008-08-21 | Kosuke Imamura | Image Processing Device |
JP2009061962A (en) * | 2007-09-07 | 2009-03-26 | Denso Corp | Camera image display control device |
JP2015019271A (en) * | 2013-07-11 | 2015-01-29 | 株式会社デンソー | Image synthesizer for vehicle |
CN114067608A (en) * | 2020-08-06 | 2022-02-18 | 丰田自动车株式会社 | Vehicle-mounted detection device and detection method |
-
2002
- 2002-07-04 JP JP2002195449A patent/JP3988551B2/en not_active Expired - Lifetime
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004114976A (en) * | 2002-09-30 | 2004-04-15 | Aisin Seiki Co Ltd | Moving body periphery monitoring device |
JP2007069806A (en) * | 2005-09-08 | 2007-03-22 | Clarion Co Ltd | Obstacle detecting device for vehicle |
JP2007076425A (en) * | 2005-09-12 | 2007-03-29 | Aisin Aw Co Ltd | Parking support method and parking support device |
JP2007104373A (en) * | 2005-10-05 | 2007-04-19 | Alpine Electronics Inc | On-vehicle image displaying device |
JP4687411B2 (en) * | 2005-11-15 | 2011-05-25 | 株式会社デンソー | Vehicle peripheral image processing apparatus and program |
JP2007142545A (en) * | 2005-11-15 | 2007-06-07 | Denso Corp | Vehicle periphery image processing apparatus and program |
JP2007158642A (en) * | 2005-12-05 | 2007-06-21 | Alpine Electronics Inc | Car-periphery image provider |
US20080198226A1 (en) * | 2007-02-21 | 2008-08-21 | Kosuke Imamura | Image Processing Device |
US8330816B2 (en) * | 2007-02-21 | 2012-12-11 | Alpine Electronics, Inc. | Image processing device |
JP2009061962A (en) * | 2007-09-07 | 2009-03-26 | Denso Corp | Camera image display control device |
JP2015019271A (en) * | 2013-07-11 | 2015-01-29 | 株式会社デンソー | Image synthesizer for vehicle |
CN114067608A (en) * | 2020-08-06 | 2022-02-18 | 丰田自动车株式会社 | Vehicle-mounted detection device and detection method |
CN114067608B (en) * | 2020-08-06 | 2023-10-10 | 丰田自动车株式会社 | Vehicle-mounted detection device and detection method |
Also Published As
Publication number | Publication date |
---|---|
JP3988551B2 (en) | 2007-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5070809B2 (en) | Driving support device, driving support method, and program | |
JP4687411B2 (en) | Vehicle peripheral image processing apparatus and program | |
WO2011043006A1 (en) | Control device and vehicle surrounding monitoring device | |
JP5262976B2 (en) | In-vehicle display device | |
CN110786004B (en) | Display control device, display control method, and storage medium | |
JP2007104373A (en) | On-vehicle image displaying device | |
KR20090031997A (en) | Perimeter monitoring apparatus and image display method for vehicle | |
JP2010130646A (en) | Vehicle periphery checking system | |
JP2010183170A (en) | Display apparatus for vehicle | |
JP2006252389A (en) | Circumference-monitoring device | |
JP2006279752A (en) | Undervehicle image display controlling apparatus and its display controlling program | |
JP2004240480A (en) | Operation support device | |
JP2006268076A (en) | Driving assistance system | |
JPH09202180A (en) | On-board camera device | |
JPH0717328A (en) | Circumference recognition auxiliary device for vehicle | |
JP3988551B2 (en) | Vehicle perimeter monitoring device | |
JP2006054662A (en) | Drive support device | |
US8213683B2 (en) | Driving support system with plural dimension processing units | |
CN113060156B (en) | Vehicle surroundings monitoring device, vehicle surroundings monitoring method, and program | |
JP2009073250A (en) | Vehicle backsight display device | |
JP2006254318A (en) | Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method | |
JP2022023870A (en) | Display control device | |
JP2006236094A (en) | Obstacle recognition system | |
WO2016072300A1 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP2004252837A (en) | Vehicle periphery display device and vehicle periphery display program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070402 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20070402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070709 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100727 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3988551 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110727 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120727 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120727 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130727 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140727 Year of fee payment: 7 |
|
EXPY | Cancellation because of completion of term |