JP2004356869A - Vehicle surrounding image processing system - Google Patents

Vehicle surrounding image processing system Download PDF

Info

Publication number
JP2004356869A
JP2004356869A JP2003150999A JP2003150999A JP2004356869A JP 2004356869 A JP2004356869 A JP 2004356869A JP 2003150999 A JP2003150999 A JP 2003150999A JP 2003150999 A JP2003150999 A JP 2003150999A JP 2004356869 A JP2004356869 A JP 2004356869A
Authority
JP
Japan
Prior art keywords
bird
eye view
view image
image
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003150999A
Other languages
Japanese (ja)
Inventor
Manabu Ono
学 小野
Ichiro Yoshida
一郎 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2003150999A priority Critical patent/JP2004356869A/en
Publication of JP2004356869A publication Critical patent/JP2004356869A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To suitably provide a user with information for supporting the driving. <P>SOLUTION: In the vehicle surrounding image processing system 1, an illuminator 4 illuminates a photographing area covered by a rear camera 3, when the brightness of a picture taken by the rear camera 3 is not over a specified level. Even at night or in an indoor parking area with poor illumination, the illuminator 4 illuminates the photographing area covered by the rear camera 3 to raise the brightness of the picture taken by the rear camera 3, resulting in that it exceeds the specified level thereafter. This is enough to suitably generate and display a composite bird's-eye view picture, thus suitably providing a user with information for supporting the driving. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、車両周辺が撮影された画像を座標変換して鳥瞰図画像を生成し、過去の鳥瞰図画像と現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成して表示するように構成された車両周辺画像処理システムに関する。
【0002】
【従来の技術】
従来より、車両の後部に設置されている後方カメラにより車両後方の状況を撮影し、撮影された画像を座標変換して鳥瞰図(上空から見た平面図)画像を生成し、過去の鳥瞰図画像と現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成して表示するものがある(例えば特許文献1参照)。
【0003】
【特許文献1】
特開2002−87160号公報
【0004】
【発明が解決しようとする課題】
しかしながら、夜間や照明の暗い屋内駐車場などでは、後方カメラにより撮影された画像の輝度が小さくなる(暗くなる)ので、合成鳥瞰図画像を適切に生成して表示することが困難となり、運転を支援するための情報をユーザに適切に提供することができないという問題がある。また、ブレーキランプの点灯時に撮影された画像が座標変換されて生成された鳥瞰図画像と、ブレーキランプの非点灯時に撮影された画像が座標変換されて生成された鳥瞰図画像とが合成されると、輝度が大きい鳥瞰図画像と輝度が小さい鳥瞰図画像とが合成されることになるので、これらの鳥瞰図画像が合成された合成鳥瞰図画像において輝度の差に起因して縞模様が発生し、合成鳥瞰図画像が不自然なものとなり、この場合においても、運転を支援するための情報をユーザに適切に提供することができないという問題がある。
【0005】
本発明は、上記した事情に鑑みてなされたものであり、その目的は、車両周辺が撮影された画像を座標変換して鳥瞰図画像を生成し、過去の鳥瞰図画像と現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成して表示するものにおいて、運転を支援するための情報をユーザに適切に提供することができる車両周辺画像処理システムを提供することにある。
【0006】
【課題を解決するための手段】
請求項1に記載した車両周辺画像処理システムによれば、撮影手段が車両周辺を撮影すると、鳥瞰図画像生成手段は、撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成し、鳥瞰図画像記憶手段は、鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する。また、車両移動状態検出手段が車両の移動状態を検出すると、鳥瞰図画像移動手段は、車両移動状態検出手段により検出された車両の移動状態に基づいて鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させ、合成鳥瞰図画像生成手段は、鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、撮影手段により撮影された画像が鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する。このとき、輝度判定手段は、撮影手段により撮影された画像の輝度が所定レベル以上であるか否かを判定し、撮影手段により撮影された画像の輝度が所定レベル以上でない旨が検出されると、照明制御手段は、照明手段を動作させ、撮影手段により撮影される撮影領域を照明させる。
【0007】
これにより、夜間や照明の暗い屋内駐車場などであっても、撮影手段により撮影される撮影領域が照明手段により照明されることにより、これ以降、撮影手段により撮影された画像の輝度が所定レベル以上となるので、従来のものとは異なって、合成鳥瞰図画像を適切に生成して表示することができ、運転を支援するための情報をユーザに適切に提供することができる。
【0008】
また、このように撮影手段により撮影される撮影領域が照明手段により照明されることにより、ブレーキランプが非点灯時であっても、撮影された画像の輝度がブレーキランプの点灯時に撮影された画像の輝度と同等となり、これ以降、輝度の差がない鳥瞰図画像同士が合成されることになるので、従来のものとは異なって、これらの鳥瞰図画像が合成された合成鳥瞰図画像において輝度の差に起因して縞模様が発生することはなく、運転を支援するための情報をユーザに適切に提供することができる。
【0009】
請求項2に記載した車両周辺画像処理システムによれば、照明制御手段は、撮影手段により撮影された画像の輝度に応じて照明レベルを変化させて照明手段を動作させる。これにより、撮影手段により撮影される画像の輝度が常に一定となるように照明レベルを変化させることにより、より輝度の差がない見易い合成鳥瞰図画像を表示することができる。
【0010】
【発明の実施の形態】
以下、本発明の一実施例について、図面を参照して説明する。まず、図2は、車両周辺画像処理システムの構成を概略的に示している。車両周辺画像処理システム1は、車両2の後方の状況を撮影する後方カメラ3(本発明でいう撮影手段)と、後方カメラ3により撮影される撮影領域を照明する照明装置4(本発明でいう照明手段)と、車室5内の例えばダッシュボード上に配置された車載モニタ6(本発明でいう表示手段)と、画像処理を行う画像処理ユニット7とを備えて構成されている。この場合、照明装置4が照明する照明領域(図2中二点鎖線「P」にて示す領域)は、後方カメラ3が撮影する撮影領域(図2中二点鎖線「Q」にて示す領域)と同じであるか、僅かに大きくなるように構成されている。
【0011】
図1は、車両周辺画像処理システム1の機能ブロック図を示している。車両周辺画像処理システム1は、機能ブロックとして、システム全体の動作を制御するCPU8(本発明でいう車両移動状態検出手段、鳥瞰図画像移動手段、合成鳥瞰図画像生成手段、輝度判定手段および照明制御手段)と、後方カメラ3と、照明装置4と、鳥瞰図画像生成回路9(本発明でいう鳥瞰図画像生成手段)と、第1の画像メモリ10(本発明でいう鳥瞰図画像記憶手段)と、第2の画像メモリ11と、表示用画像メモリ12と、車載モニタ6と、ハンドル角信号入力回路13と、車速信号入力回路14と、ヨーレイト信号入力回路15と、超音波センサ信号入力回路16と、シフトポジション信号入力回路17とを備えて構成されている。
【0012】
鳥瞰図画像生成回路9は、後方カメラ3から画像が入力されると、入力された画像を座標変換して鳥瞰図画像を生成し、生成された鳥瞰図画像を第1の画像メモリ10に出力する。第1の画像メモリ10は、鳥瞰図画像生成回路9から鳥瞰図画像が入力されると、入力された鳥瞰図画像を現在の鳥瞰図画像として一時的に記憶する。
【0013】
第2の画像メモリ11は、第1の画像メモリ10から鳥瞰図画像が転送されると、転送された鳥瞰図画像を過去の鳥瞰図画像として記憶する。表示用画像メモリ12は、第1の画像メモリ10に記憶されている現在の鳥瞰図画像と第2の画像メモリ11に記憶されている過去の鳥瞰図画像とが合成された合成鳥瞰図画像を表示用画像として記憶する。車載モニタ6は、表示用画像メモリ12に表示用画像として記憶されている合成鳥瞰図画像を表示する。
【0014】
ハンドル角信号入力回路13は、ユーザのハンドル操作に関するデータをCPU8に入力させる。車速信号入力回路14は、車速に関するデータをCPU8に入力させる。ヨーレイト信号入力回路15は、車両2の旋回状況に関するデータをCPU8に入力させる。超音波センサ信号入力回路16は、車両2の周辺に存在する障害物の有無を検出し、障害物の有無に関するデータや障害物と車両2との間の距離などに関するデータをCPU8に入力させる。シフトポジション信号入力回路17は、ユーザのシフトレバー操作に関するデータをCPU8に入力させる。
【0015】
尚、上記した構成では、CPU8、鳥瞰図画像生成回路9、第1の画像メモリ10、第2の画像メモリ11、表示用画像メモリ12、ハンドル角信号入力回路13、車速信号入力回路14、ヨーレイト信号入力回路15、超音波センサ信号入力回路16およびシフトポジション信号入力回路17は、それらの全体または一部を一体化して1つのLSIで構成することも可能である。また、鳥瞰図画像を生成する専用の画像処理回路として鳥瞰図画像生成回路9を備える代わりに、CPU8がソフトウェア的に鳥瞰図画像を生成することも可能である。また、車載モニタ6は、ナビゲーション装置のディスプレイなどで兼用することも可能である。
【0016】
ここで、鳥瞰図画像生成回路9が鳥瞰図画像を生成する手順について簡単に説明する。尚、前提条件として、後方カメラ3は、オートフォーカス機能を有すると共に、その取付け高さや取付け角度が予め設定されているものとする。また、地面は、平面であることを計算上の前提条件としている。ここでは、後方カメラ3により撮影された画像を画素単位に分解し、車両2の後端を基準線として各画素までの距離および幅方向位置を算出し、各画素の鳥瞰変換後の位置座標を算出する。そして、算出された位置座標に基づいて各画素を再配置する。これにより、後方カメラ3により撮影された画像から鳥瞰図画像を生成することができる。
【0017】
尚、このようにして鳥瞰変換を行うことにより、鳥瞰図画像では、画素と画素との間に隙間が生じたり、画素と画素とが重なったりする場合が想定されるが、車両2を車庫入れするときなどでは、車載モニタ6に表示される画像が多少間引きされた様な画像であったとして、後方カメラ3により撮影された元々の画像(生の画像)が表示されるよりも、操作性が良いものである。
【0018】
次に、上記した構成の作用について、図3を参照して説明する。
CPU8は、後方カメラ3が撮影したことに伴って、後方カメラ3から画像が入力された旨を検出すると(ステップS1にて「YES」)、後方カメラ3により撮影された画像の輝度が所定レベル以上であるか否かを判定する(ステップS2)。この場合、所定レベルとは、これ以降に鳥瞰図画像を生成するのに適した(十分な)輝度であるか否かの指標となるものであり、予めCPU8に記憶されている値であっても良いし、ユーザが好みに応じて(ユーザが要求するレベルに応じて)任意に設定する値であっても良い。また、この場合、CPU8は、画像全体の輝度を一括して判定しても良いし、画像の複数箇所の輝度を平均化して判定しても良い。
【0019】
さて、CPU8は、後方カメラ3により撮影された画像の輝度が所定レベル以上である旨を検出すると(ステップS2にて「YES」)、第1の画像メモリ10、第2の画像メモリ11および表示用画像メモリ12を初期化すると共に、各種のパラメータを初期化する(ステップS3)。
【0020】
これに対して、CPU8は、後方カメラ3により撮影された画像の輝度が所定レベル以上でない旨を検出すると(ステップS2にて「NO」)、照明装置4を動作させ、後方カメラ3により撮影される撮影範囲を照明装置4により照明させる。この場合、CPU8は、後方カメラ3により撮影された画像の輝度に応じて照明レベルを変化させて照明させても良いし、照明レベルを常に一定にして照明させても良い。そして、CPU8は、このようにして後方カメラ3により撮影される撮影範囲を照明装置4により照明させた後に(ステップS4)、第1の画像メモリ10、第2の画像メモリ11および表示用画像メモリ12を初期化すると共に、各種のパラメータを初期化する(ステップS3)。
【0021】
次いで、CPU8は、後方カメラ3により撮影された画像が鳥瞰図画像生成回路9で座標変換されて鳥瞰図画像が生成され、鳥瞰図画像が第1の画像メモリ10に記憶された旨を検出すると(ステップS5にて「YES」)、鳥瞰図画像が第2の画像メモリ11に記憶されているか否かを判定する(ステップS6)。
【0022】
ここで、CPU8は、鳥瞰図画像が第2の画像メモリ11に記憶されている旨を検出すると(ステップS6にて「YES」)、ハンドル角信号入力回路13から入力されているデータ、車速信号入力回路14から入力されているデータ、ヨーレイト信号入力回路15から入力されているデータおよび超音波センサ信号入力回路16から入力されているデータに基づいて車両2が移動しているか否かを判定する(ステップS7)。
【0023】
次いで、CPU8は、車両2が移動している旨を検出すると(ステップS7にて「YES」)、第2の画像メモリ11から過去の鳥瞰図画像として記憶されている鳥瞰図画像を読出し(ステップS8)、読出された鳥瞰図画像を車両2の移動状態に基づいて回転移動または平行移動させる画像処理を行う(ステップS9)。このとき、CPU8は、車両2がカーブして移動していれば、第2の画像メモリ11に記憶されている鳥瞰図画像を回転移動させる画像処理を行うことになり、車両2が直進して移動していれば、第2の画像メモリ11に記憶されている鳥瞰図画像を平行移動させる画像処理を行うことになる。
【0024】
次いで、CPU8は、第1の画像メモリ10から現在の鳥瞰図画像として記憶されている鳥瞰図画像を読出し(ステップS10)、第2の画像メモリ11から読出されて画像処理が行われた過去の鳥瞰図画像と、第1の画像メモリ10から読出された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する(ステップS11)。
【0025】
そして、CPU8は、このようにして生成された合成鳥瞰図画像を表示用画像メモリ12に出力させて車載モニタ6に表示させ(ステップS12)、その合成鳥瞰図画像を第2の画像メモリ11に過去の鳥瞰図画像として記憶させ(ステップS13)、上記したステップS5に戻り、ステップS5以降の処理を繰返して行う。
【0026】
また、CPU8は、鳥瞰図画像が第2の画像メモリ11に記憶されていない旨を検出すると(ステップS6にて「NO」)、第1の画像メモリ10に現在の鳥瞰図画像として記憶されている鳥瞰図画像を第2の画像メモリ11に転送させ(ステップS14)、上記したステップS5に戻り、ステップS5以降の処理を繰返して行う。また、CPU8は、車両2が移動していない旨を検出すると(ステップS7にて「NO」)、第2の画像メモリ11から読出されて画像処理が行われた鳥瞰図画像と、第1の画像メモリ10から読出された鳥瞰図画像とを合成して合成鳥瞰図画像を生成することなく、第1の画像メモリ10に現在の鳥瞰図画像として記憶されている鳥瞰図画像をそのまま車両図形の後方の表示領域に表示させ(ステップS15)、上記したステップS5に戻り、ステップS5以降の処理を繰返して行う。
【0027】
以上に説明したように本実施例によれば、車両周辺画像処理システム1において、後方カメラ3により撮影された画像の輝度が所定レベル以上でないときには、後方カメラ3により撮影される撮影領域を照明装置4により照明するように構成したので、夜間や照明の暗い屋内駐車場などであっても、後方カメラ3により撮影される撮影領域が照明装置4により照明されることにより、これ以降、後方カメラ3により撮影された画像の輝度が所定レベル以上となり、合成鳥瞰図画像を適切に生成して表示することができ、運転を支援するための情報をユーザに適切に提供することができる。
【0028】
また、このように後方カメラ3により撮影される撮影領域が照明装置4により照明されることにより、ブレーキランプが非点灯時であっても、撮影された画像の輝度がブレーキランプの点灯時に撮影された画像の輝度と同等となり、これ以降、輝度の差がない鳥瞰図画像同士が合成されることになり、これらの鳥瞰図画像が合成された合成鳥瞰図画像において輝度の差に起因して縞模様が発生することはなく、運転を支援するための情報をユーザに適切に提供することができる。
【0029】
本発明は、上記した実施例にのみ限定されるものではなく、以下のように変形または拡張することができる。
ブレーキランプと照明装置とが直接連動するように構成し、合成鳥瞰図画像の表示機能を使用する場合において、ブレーキランプの点灯時には照明装置が自動的に動作を停止し、ブレーキランプの非点灯時には照明装置が自動的に動作するように構成しても良い。
【図面の簡単な説明】
【図1】本発明の一実施例を示す機能ブロック図
【図2】システムの全体構成を概略的に示す図
【図3】フローチャート
【符号の説明】
図面中、1は車両周辺画像処理システム、2は車両、3は後方カメラ(撮影手段)、4は照明装置(照明手段)、6は車載モニタ(表示手段)、8はCPU(車両移動状態検出手段、鳥瞰図画像移動手段、合成鳥瞰図画像生成手段、輝度判定手段、照明制御手段)、9は鳥瞰図画像生成回路(鳥瞰図画像生成手段)、10は第1の画像メモリ(鳥瞰図画像記憶手段)である。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention is configured to generate a bird's-eye view image by performing coordinate transformation on an image in which a periphery of a vehicle is photographed, and to generate and display a composite bird's-eye view image by combining a past bird's-eye view image and a current bird's-eye view image. The present invention relates to a vehicle peripheral image processing system.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a situation behind a vehicle is photographed by a rear camera installed at a rear part of the vehicle, a coordinate of the photographed image is converted to generate a bird's-eye view (a plan view viewed from the sky), and a past bird's-eye view image is generated. There is one that combines a current bird's-eye view image to generate and display a combined bird's-eye view image (for example, see Patent Document 1).
[0003]
[Patent Document 1]
JP-A-2002-87160
[Problems to be solved by the invention]
However, at night or in an indoor parking lot with dark lighting, the brightness of the image captured by the rear camera becomes low (darkens), so that it is difficult to appropriately generate and display a composite bird's-eye view image, and to assist driving. There is a problem that information for performing the operation cannot be appropriately provided to the user. Further, when a bird's-eye view image generated by performing coordinate conversion on an image captured when the brake lamp is lit and a bird's-eye view image generated by performing coordinate conversion on an image captured when the brake lamp is not lit are combined, Since a bird's-eye view image with high luminance and a bird's-eye view image with low luminance are combined, a stripe pattern occurs due to a difference in luminance in the composite bird's-eye view image obtained by combining these bird's-eye view images, and the composite bird's-eye view image is In this case, there is a problem that information for assisting driving cannot be appropriately provided to the user.
[0005]
The present invention has been made in view of the above circumstances, and an object of the present invention is to generate a bird's-eye view image by performing coordinate transformation on an image in which a periphery of a vehicle is photographed, and to combine a past bird's-eye view image with a current bird's-eye view image. It is an object of the present invention to provide a vehicle peripheral image processing system which can appropriately provide a user with information for assisting driving in generating and displaying a composite bird's-eye view image.
[0006]
[Means for Solving the Problems]
According to the vehicle periphery image processing system described in claim 1, when the photographing means photographs the periphery of the vehicle, the bird's-eye view image generating means generates a bird's-eye view image by performing coordinate transformation on the image photographed by the photographing means. The storage unit stores the bird's-eye view image generated by the bird's-eye view image generation unit. When the vehicle moving state detecting means detects the moving state of the vehicle, the bird's-eye view image moving means detects the past bird's-eye view stored in the bird's-eye view image storing means based on the moving state of the vehicle detected by the vehicle moving state detecting means. The image is rotated or translated, and the combined bird's-eye view image generating means is coordinate-transformed by the bird's-eye view image generating means into a past bird's-eye view image rotated or translated by the bird's-eye view image moving means and an image taken by the photographing means. And a current bird's-eye view image generated as described above to generate a composite bird's-eye view image. At this time, the luminance determining unit determines whether the luminance of the image photographed by the photographing unit is equal to or higher than a predetermined level, and when it is detected that the luminance of the image photographed by the photographing unit is not higher than the predetermined level. The lighting control means operates the lighting means to illuminate a shooting area shot by the shooting means.
[0007]
Thus, even at night or in an indoor parking lot where the lighting is dark, the photographing area photographed by the photographing means is illuminated by the lighting means. As described above, unlike the related art, the synthesized bird's-eye view image can be appropriately generated and displayed, and information for assisting driving can be appropriately provided to the user.
[0008]
Further, since the photographing area photographed by the photographing means is illuminated by the illuminating means, even when the brake lamp is not lit, the brightness of the photographed image can be reduced when the brake lamp is lit. Since the bird's-eye view images having no difference in luminance will be combined thereafter, unlike the conventional one, the difference in luminance in the combined bird's-eye view image in which these bird's-eye view images are combined is different from the conventional one. As a result, a stripe pattern does not occur, and information for assisting driving can be appropriately provided to the user.
[0009]
According to the vehicle peripheral image processing system described in claim 2, the lighting control means operates the lighting means by changing the lighting level according to the luminance of the image photographed by the photographing means. Thus, by changing the illumination level so that the luminance of the image photographed by the photographing means is always constant, it is possible to display an easy-to-view synthesized bird's-eye view image with no more difference in luminance.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. First, FIG. 2 schematically shows a configuration of the vehicle periphery image processing system. The vehicle peripheral image processing system 1 includes a rear camera 3 (photographing means in the present invention) for photographing a situation behind the vehicle 2 and an illumination device 4 (illumination in the present invention) for illuminating a photographing area photographed by the rear camera 3. It is configured to include an illumination unit), an in-vehicle monitor 6 (display unit according to the present invention) arranged on a dashboard, for example, in a vehicle cabin 5, and an image processing unit 7 for performing image processing. In this case, an illumination area illuminated by the illumination device 4 (an area indicated by a two-dot chain line "P" in FIG. 2) is an imaging area to be imaged by the rear camera 3 (an area indicated by a two-dot chain line "Q" in FIG. 2). ) Or slightly larger.
[0011]
FIG. 1 shows a functional block diagram of the vehicle peripheral image processing system 1. The vehicle peripheral image processing system 1 has, as functional blocks, a CPU 8 that controls the operation of the entire system (vehicle moving state detecting means, bird's-eye view image moving means, synthetic bird's-eye view image generating means, luminance determining means, and lighting control means). A rear camera 3, an illuminating device 4, a bird's-eye view image generating circuit 9 (a bird's-eye view image generating means according to the present invention), a first image memory 10 (a bird's-eye view image storing means according to the present invention), and a second Image memory 11, display image memory 12, in-vehicle monitor 6, steering wheel signal input circuit 13, vehicle speed signal input circuit 14, yaw rate signal input circuit 15, ultrasonic sensor signal input circuit 16, shift position And a signal input circuit 17.
[0012]
When an image is input from the rear camera 3, the bird's-eye view image generation circuit 9 generates a bird's-eye view image by performing coordinate conversion on the input image, and outputs the generated bird's-eye view image to the first image memory 10. When a bird's-eye view image is input from the bird's-eye view image generation circuit 9, the first image memory 10 temporarily stores the input bird's-eye view image as a current bird's-eye view image.
[0013]
When the bird's-eye view image is transferred from the first image memory 10, the second image memory 11 stores the transferred bird's-eye view image as a past bird's-eye view image. The display image memory 12 displays a combined bird's-eye view image in which a current bird's-eye view image stored in the first image memory 10 and a past bird's-eye view image stored in the second image memory 11 are combined. To be stored. The in-vehicle monitor 6 displays a composite bird's-eye view image stored in the display image memory 12 as a display image.
[0014]
The handle angle signal input circuit 13 causes the CPU 8 to input data relating to the user's handle operation. The vehicle speed signal input circuit 14 causes the CPU 8 to input data relating to the vehicle speed. The yaw rate signal input circuit 15 causes the CPU 8 to input data relating to the turning state of the vehicle 2. The ultrasonic sensor signal input circuit 16 detects the presence or absence of an obstacle existing around the vehicle 2 and causes the CPU 8 to input data on the presence or absence of the obstacle and data on the distance between the obstacle and the vehicle 2. The shift position signal input circuit 17 causes the CPU 8 to input data relating to the operation of the shift lever by the user.
[0015]
In the above configuration, the CPU 8, the bird's-eye view image generation circuit 9, the first image memory 10, the second image memory 11, the display image memory 12, the steering wheel angle signal input circuit 13, the vehicle speed signal input circuit 14, the yaw rate signal The input circuit 15, the ultrasonic sensor signal input circuit 16, and the shift position signal input circuit 17 can be configured as one LSI by integrating all or a part of them. Further, instead of including the bird's-eye view image generation circuit 9 as a dedicated image processing circuit for generating a bird's-eye view image, the CPU 8 can generate the bird's-eye view image by software. Further, the in-vehicle monitor 6 can also be used as a display of a navigation device.
[0016]
Here, a procedure in which the bird's-eye view image generation circuit 9 generates a bird's-eye view image will be briefly described. As a precondition, it is assumed that the rear camera 3 has an autofocus function, and its mounting height and mounting angle are set in advance. In addition, the ground is assumed to be a plane as a calculation precondition. Here, the image taken by the rear camera 3 is decomposed in pixel units, the distance to each pixel and the width direction position are calculated using the rear end of the vehicle 2 as a reference line, and the position coordinates of each pixel after bird's-eye conversion are calculated. calculate. Then, each pixel is rearranged based on the calculated position coordinates. Thereby, a bird's-eye view image can be generated from an image captured by the rear camera 3.
[0017]
By performing the bird's-eye view conversion in this manner, in the bird's-eye view image, it is assumed that a gap may occur between pixels or the pixels may overlap with each other. At times, it is assumed that the image displayed on the in-vehicle monitor 6 is an image that is somewhat thinned out, and the operability is lower than the original image (raw image) captured by the rear camera 3 is displayed. Good thing.
[0018]
Next, the operation of the above configuration will be described with reference to FIG.
When the CPU 8 detects that an image has been input from the rear camera 3 in response to the image being captured by the rear camera 3 (“YES” in step S1), the brightness of the image captured by the rear camera 3 is reduced to a predetermined level. It is determined whether or not this is the case (step S2). In this case, the predetermined level is an index indicating whether or not the luminance is suitable (sufficient) for generating a bird's-eye view image thereafter, and may be a value stored in the CPU 8 in advance. It may be a value that is arbitrarily set by the user according to his / her preference (in accordance with the level requested by the user). In this case, the CPU 8 may determine the brightness of the entire image at once, or may average and determine the brightness of a plurality of locations of the image.
[0019]
When the CPU 8 detects that the brightness of the image captured by the rear camera 3 is equal to or higher than a predetermined level ("YES" in step S2), the first image memory 10, the second image memory 11, and the display The initialization image memory 12 and various parameters are initialized (step S3).
[0020]
On the other hand, when the CPU 8 detects that the brightness of the image captured by the rear camera 3 is not higher than the predetermined level (“NO” in step S2), the CPU 8 activates the illumination device 4 and captures the image by the rear camera 3. The illumination range is illuminated by the illumination device 4. In this case, the CPU 8 may change the illumination level in accordance with the luminance of the image captured by the rear camera 3 to perform the illumination, or may make the illumination level constantly constant to perform the illumination. After illuminating the photographing range photographed by the rear camera 3 with the illuminating device 4 (step S4), the CPU 8 stores the first image memory 10, the second image memory 11, and the display image memory. 12 and various parameters are initialized (step S3).
[0021]
Next, the CPU 8 detects that the image captured by the rear camera 3 is coordinate-transformed by the bird's-eye view image generation circuit 9 to generate a bird's-eye view image, and that the bird's-eye view image is stored in the first image memory 10 (step S5). Is "YES"), it is determined whether or not the bird's-eye view image is stored in the second image memory 11 (step S6).
[0022]
Here, when the CPU 8 detects that the bird's-eye view image is stored in the second image memory 11 (“YES” in step S6), the data input from the steering wheel angle signal input circuit 13 and the vehicle speed signal input It is determined whether the vehicle 2 is moving based on the data input from the circuit 14, the data input from the yaw rate signal input circuit 15, and the data input from the ultrasonic sensor signal input circuit 16 ( Step S7).
[0023]
Next, when detecting that the vehicle 2 is moving (“YES” in step S7), the CPU 8 reads the bird's-eye view image stored as the past bird's-eye view image from the second image memory 11 (step S8). Then, image processing for rotating or translating the read bird's-eye view image based on the moving state of the vehicle 2 is performed (step S9). At this time, if the vehicle 2 is moving in a curve, the CPU 8 performs image processing for rotating and moving the bird's-eye view image stored in the second image memory 11, and the vehicle 2 moves straight and moves. If so, image processing is performed to translate the bird's-eye view image stored in the second image memory 11 in parallel.
[0024]
Next, the CPU 8 reads the bird's-eye view image stored as the current bird's-eye view image from the first image memory 10 (step S10), and reads the past bird's-eye view image read from the second image memory 11 and subjected to image processing. And the current bird's-eye view image read from the first image memory 10 to generate a combined bird's-eye view image (step S11).
[0025]
Then, the CPU 8 outputs the synthesized bird's-eye view image generated in this way to the display image memory 12 and displays it on the in-vehicle monitor 6 (step S12). The synthesized bird's-eye view image is stored in the second image memory 11 in the past. The image is stored as a bird's-eye view image (step S13), the process returns to step S5, and the processes after step S5 are repeated.
[0026]
Further, when detecting that the bird's-eye view image is not stored in the second image memory 11 (“NO” in step S6), the CPU 8 stores the bird's-eye view image stored in the first image memory 10 as the current bird's-eye view image. The image is transferred to the second image memory 11 (step S14), the process returns to step S5, and the processes after step S5 are repeated. When detecting that the vehicle 2 is not moving (“NO” in step S7), the CPU 8 reads the bird's-eye view image read from the second image memory 11 and subjected to the image processing, and the first image The bird's-eye view image stored in the first image memory 10 as the current bird's-eye view image is directly displayed in the display area behind the vehicle figure without generating a combined bird's-eye view image by combining the bird's-eye view image read from the memory 10. It is displayed (step S15), the process returns to step S5, and the processes after step S5 are repeated.
[0027]
As described above, according to the present embodiment, in the vehicle peripheral image processing system 1, when the brightness of the image captured by the rear camera 3 is not equal to or higher than the predetermined level, the photographic area captured by the rear camera 3 is illuminated. Since the illumination device 4 is used to illuminate, the illuminating device 4 illuminates the shooting area captured by the rear camera 3 even at night or in an indoor parking lot where the illumination is dark. As a result, the brightness of the captured image becomes equal to or higher than a predetermined level, the synthesized bird's-eye view image can be appropriately generated and displayed, and information for assisting driving can be appropriately provided to the user.
[0028]
In addition, since the photographing area photographed by the rear camera 3 is illuminated by the illumination device 4 as described above, even when the brake lamp is not lit, the luminance of the photographed image is photographed when the brake lamp is lit. After that, bird's-eye view images having no difference in luminance are combined, and a stripe pattern is generated due to the difference in luminance in the combined bird's-eye view image obtained by combining these bird's-eye view images. Therefore, information for assisting driving can be appropriately provided to the user.
[0029]
The present invention is not limited to the above-described embodiment, but can be modified or expanded as follows.
When the brake lamp and the lighting device are configured to be directly linked to each other and the display function of the composite bird's-eye view image is used, the lighting device automatically stops operating when the brake lamp is turned on, and is turned off when the brake lamp is not turned on. The device may be configured to operate automatically.
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing an embodiment of the present invention. FIG. 2 is a diagram schematically showing the entire configuration of a system. FIG. 3 is a flowchart.
In the drawings, 1 is a vehicle peripheral image processing system, 2 is a vehicle, 3 is a rear camera (photographing means), 4 is an illuminating device (illuminating means), 6 is an on-vehicle monitor (display means), and 8 is a CPU (vehicle moving state detection). Means, bird's-eye view image moving means, synthetic bird's-eye view image generating means, luminance determining means, lighting control means), 9 is a bird's-eye view image generating circuit (bird's-eye view image generating means), and 10 is a first image memory (bird's-eye view image storing means). .

Claims (2)

車両周辺を撮影する撮影手段と、
前記撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成する鳥瞰図画像生成手段と、
前記鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する鳥瞰図画像記憶手段と、
車両の移動状態を検出する車両移動状態検出手段と、
前記車両移動状態検出手段により検出された車両の移動状態に基づいて前記鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させる鳥瞰図画像移動手段と、
前記鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、前記撮影手段により撮影された画像が前記鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する合成鳥瞰図画像生成手段とを備えた車両周辺画像処理システムであって、
前記撮影手段により撮影された画像の輝度が所定レベル以上であるか否かを判定する輝度判定手段と、
前記撮影手段により撮影される撮影領域を照明する照明手段と、
前記撮影手段により撮影された画像の輝度が所定レベル以上でない旨が前記輝度判定手段により検出されたときに、前記照明手段を動作させる照明制御手段とを備えたことを特徴とする車両周辺画像処理システム。
Photographing means for photographing around the vehicle;
Bird's-eye view image generating means for generating a bird's-eye view image by performing coordinate conversion on an image shot by the shooting means,
Bird's-eye view image storage means for storing a bird's-eye view image generated by the bird's-eye view image generation means,
Vehicle moving state detecting means for detecting a moving state of the vehicle;
A bird's-eye view image moving means for rotating or translating a past bird's-eye view image stored in the bird's-eye view image storage means based on the moving state of the vehicle detected by the vehicle moving state detecting means,
A past bird's-eye view image rotated or translated by the bird's-eye view image moving means is combined with a current bird's-eye view image generated by performing coordinate transformation on the image photographed by the photographing means by the bird's-eye view image generating means. A vehicle-surrounding image processing system comprising a synthetic bird's-eye view image generating means for generating a synthetic bird's-eye view image,
Brightness determination means for determining whether the brightness of the image captured by the imaging means is equal to or higher than a predetermined level,
Illuminating means for illuminating a photographing area photographed by the photographing means;
And a lighting control means for operating the lighting means when the brightness determination means detects that the brightness of the image shot by the shooting means is not higher than a predetermined level. system.
請求項1に記載した車両周辺画像処理システムにおいて、
前記照明制御手段は、前記撮影手段により撮影された画像の輝度に応じて照明レベルを変化させて前記照明手段を動作させることを特徴とする車両周辺画像処理システム。
The vehicle peripheral image processing system according to claim 1,
The vehicle peripheral image processing system according to claim 1, wherein the lighting control means operates the lighting means by changing a lighting level in accordance with a luminance of an image photographed by the photographing means.
JP2003150999A 2003-05-28 2003-05-28 Vehicle surrounding image processing system Pending JP2004356869A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003150999A JP2004356869A (en) 2003-05-28 2003-05-28 Vehicle surrounding image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003150999A JP2004356869A (en) 2003-05-28 2003-05-28 Vehicle surrounding image processing system

Publications (1)

Publication Number Publication Date
JP2004356869A true JP2004356869A (en) 2004-12-16

Family

ID=34046643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003150999A Pending JP2004356869A (en) 2003-05-28 2003-05-28 Vehicle surrounding image processing system

Country Status (1)

Country Link
JP (1) JP2004356869A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243464A (en) * 2006-03-07 2007-09-20 Aisin Aw Co Ltd Method and device for supporting parking
WO2011108039A1 (en) * 2010-03-02 2011-09-09 パナソニック株式会社 Obstacle detection device, obstacle detection system provided therewith, and obstacle detection method
KR101223480B1 (en) 2011-09-20 2013-01-17 엘지전자 주식회사 Mobile robot and controlling method of the same
CN103660948A (en) * 2012-09-19 2014-03-26 罗伯特·博世有限公司 Method and device for adjusting display brightness of vehicle display screen

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243464A (en) * 2006-03-07 2007-09-20 Aisin Aw Co Ltd Method and device for supporting parking
WO2011108039A1 (en) * 2010-03-02 2011-09-09 パナソニック株式会社 Obstacle detection device, obstacle detection system provided therewith, and obstacle detection method
KR101223480B1 (en) 2011-09-20 2013-01-17 엘지전자 주식회사 Mobile robot and controlling method of the same
CN103660948A (en) * 2012-09-19 2014-03-26 罗伯特·博世有限公司 Method and device for adjusting display brightness of vehicle display screen
CN103660948B (en) * 2012-09-19 2018-11-06 罗伯特·博世有限公司 Method and apparatus for the display brightness for adjusting vehicle displays

Similar Documents

Publication Publication Date Title
US8553081B2 (en) Apparatus and method for displaying an image of vehicle surroundings
US8009977B2 (en) On-vehicle lighting apparatus
WO2002104032A1 (en) Peripheral image processor of vehicle and recording medium
US9199536B2 (en) On-vehicle display device and on-vehicle display program
JP5064201B2 (en) Image display system and camera output control method
JP2011151666A (en) Device, system and method for acquiring parameter, and program
JP2002019556A (en) Monitoring system
JP5592138B2 (en) Image generation apparatus, image display system, and image generation method
JP2004254219A (en) Vehicular surrounding image processing apparatus and program, and recording medium
JP4927647B2 (en) Vehicle periphery monitoring device
JP2001076298A (en) On-vehicle display device
JP2017220876A (en) Periphery monitoring device
JP2006252269A (en) Wide area image generator, vehicle periphery monitoring device and wide area image generation method
JP2004173048A (en) Onboard camera system
JP2004155395A (en) Vehicle surrounding image processing device
JP3961969B2 (en) Vehicle periphery image processing system
JP2005223605A (en) Image processing method, image processing system and image processor
JP2006160194A (en) Parking support device
JP2002087160A (en) Vehicular surrounding image processing device and recording medium
JP5208790B2 (en) Image processing apparatus, image processing method, and program
JP5338374B2 (en) Display device for vehicle and display method for vehicle
JP2004356869A (en) Vehicle surrounding image processing system
JP2007088577A (en) Vehicle surrounding image processing system
JP2009124377A (en) Vehicle periphery image processing apparatus and vehicle perimeter status presentation method
JP2013172378A (en) Image processing device and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070806

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071004

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20071115

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20071207