JP2003143597A - Vehicle surrounding picture processor and recording medium - Google Patents

Vehicle surrounding picture processor and recording medium

Info

Publication number
JP2003143597A
JP2003143597A JP2001342081A JP2001342081A JP2003143597A JP 2003143597 A JP2003143597 A JP 2003143597A JP 2001342081 A JP2001342081 A JP 2001342081A JP 2001342081 A JP2001342081 A JP 2001342081A JP 2003143597 A JP2003143597 A JP 2003143597A
Authority
JP
Japan
Prior art keywords
image
bird
eye view
vehicle
view image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001342081A
Other languages
Japanese (ja)
Other versions
JP3850271B2 (en
Inventor
Katsuyuki Imanishi
勝之 今西
Hirohiko Yanagawa
博彦 柳川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc filed Critical Denso Corp
Priority to JP2001342081A priority Critical patent/JP3850271B2/en
Publication of JP2003143597A publication Critical patent/JP2003143597A/en
Application granted granted Critical
Publication of JP3850271B2 publication Critical patent/JP3850271B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle surrounding picture processor and a recording medium, which enable suitable processing of the picture of the surrounding of a vehicle by using a vehicle signal and using techniques of picture processing. SOLUTION: In a step 110, it is discriminated whether the vehicle speed is lower than prescribed or not. In a step 120, data of a picture photographed by a camera 1 is inputted. In a step 130, a steering angle signal is inputted from a steering angle sensor 6. In a step 140, a yaw rate signal is inputted from a yaw rate sensor 7. In a step 150, an ultrasonic signal is inputted from a ultrasonic sensor 8. In a step 160, a bird's-eye view picture is generated. In a step 200, it is discriminated whether the vehicle is running straight or not. In a step 210, the curving center and the curving angle of the vehicle are obtained by the steering angle and the yaw rate. In a step 220, the bird's-eye view picture is rotated. In a step 280, a new second bird's-eye view picture and the moved bird's-eye view picture are composited to generate a composite bird's-eye view picture.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば車両の周辺
を撮影してモニタに表示できる車両周辺画像処理装置及
び記録媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle periphery image processing apparatus and a recording medium capable of photographing the periphery of a vehicle and displaying it on a monitor.

【0002】[0002]

【従来の技術】従来より、車両の後方の様子を表示する
装置として、車両の後部に取り付けたカメラの画像を、
そのままモニタに出力する表示装置が知られている。こ
の表示装置では、車両後方の状態が有る程度分かるが、
自車両とモニタに表示されている対象物(例えば駐車
枠)の画像の相対位置関係が分かりに難いという問題が
ある。
2. Description of the Related Art Conventionally, as an apparatus for displaying the state of the rear of a vehicle, an image of a camera attached to the rear of the vehicle is
2. Description of the Related Art A display device is known which outputs the information to a monitor as it is. With this display, you can see how far behind the vehicle is,
There is a problem that it is difficult to understand the relative positional relationship between the image of the subject vehicle (for example, a parking frame) displayed on the monitor.

【0003】また、これとは別に、特開平10−211
849号公報には、後方カメラで撮影した画像(後方カ
メラ画像)を鳥瞰図に変換し、自車両をその中に表示す
るという技術が提案されている。
Separately from this, Japanese Patent Laid-Open No. 10-111
Japanese Patent No. 849 proposes a technique of converting an image captured by a rear camera (rear camera image) into a bird's-eye view and displaying the own vehicle therein.

【0004】[0004]

【発明が解決しようとする課題】この技術の場合には、
鳥瞰図の中に自車両を示すので、画像に表示された対象
物と自車両の位置関係は、撮影した画像をそのままモニ
タに表示するものより分かり易くなっているが、カメラ
の現在の視野の外にあるものは表示できないという別の
問題があった。
In the case of this technique,
Since the own vehicle is shown in the bird's-eye view, the positional relationship between the target object and the own vehicle displayed in the image is easier to understand than the one in which the captured image is displayed on the monitor as it is, but outside the current visual field of the camera. There was another problem that I couldn't display what was in.

【0005】そのため、例えば車両を後退させて駐車枠
に入れるような場合には、カメラの視野外に出た駐車枠
を表示できないので、依然として、車両を駐車枠に入れ
る操作が容易ではないという問題があった。これに対し
て、既に本願発明者らにより、車両後部に取り付けたカ
メラから、車両後方の画像を撮影し、画像処理でこれら
を上から見た鳥瞰画像に変換し、変換した画像の時間的
変化から車両の動きを算出して、カメラの視野外に消え
て行く画像領域を算出し、更に現時刻の変換画像を貼り
付けて(合成画像を作成し)、従来より広い範囲を表示
する技術が開発されている。
Therefore, for example, when the vehicle is retracted and put in the parking frame, the parking frame outside the field of view of the camera cannot be displayed, so that it is still not easy to put the vehicle in the parking frame. was there. On the other hand, the inventors of the present application have already taken images of the rear of the vehicle from a camera attached to the rear of the vehicle, converted these into bird's-eye-view images viewed from above by image processing, and temporal changes in the converted images. There is a technology to display a wider range than before by calculating the movement of the vehicle from, calculating the image area that disappears outside the field of view of the camera, and pasting the converted image at the current time (creating a composite image). Being developed.

【0006】この新しい技術では、例えば画像処理によ
る動きベクトルから、カーブ中の自車両の動きを検出
し、鳥瞰図画像に用いることが可能であるが、路面の画
像模様が少ない場合には誤差が発生する可能性があり、
また、動きベクトルを算出するための計算量が多くなる
という課題があった。
With this new technique, it is possible to detect the movement of the vehicle in the curve from the motion vector obtained by image processing and use it for the bird's-eye view image. However, if the image pattern on the road surface is small, an error occurs. Could be
In addition, there is a problem that the amount of calculation for calculating the motion vector increases.

【0007】この対策として、画像処理を用いずに、ヨ
ーレイト信号や車速信号等の車両信号を用いることが考
えられるが、車種によっては極低速の車速信号が得られ
ない車両があり、必ずしも十分ではない。また、これと
は別に、上述した画像処理を、例えばシフトがバックギ
ヤのタイミングで開始する場合には、その開始時点から
のカメラ画像しか得られないので、モニタに表示する画
像のデータが少ないという問題もあった。
As a countermeasure against this, it is conceivable to use a vehicle signal such as a yaw rate signal or a vehicle speed signal without using image processing. However, there is a vehicle that cannot obtain an extremely low speed vehicle speed signal depending on the type of vehicle, which is not always sufficient. Absent. In addition to this, when the above-described image processing is started at the timing of the back gear, for example, only the camera image from the start time can be obtained, so that the amount of image data displayed on the monitor is small. There was also.

【0008】本発明は、前記課題を解決するためになさ
れたものであり、車両信号を用いたり画像処理の技術を
用いることにより、好適に車両の周囲の画像を処理する
ことができる車両周辺画像処理装置及び記録媒体を提供
することを目的とする。
The present invention has been made in order to solve the above-mentioned problems, and it is possible to preferably process an image around the vehicle by using a vehicle signal or an image processing technique. An object is to provide a processing device and a recording medium.

【0009】[0009]

【課題を解決するための手段及び発明の効果】(1)請
求項1の発明は、車両周辺の画像を撮影する撮影手段
(例えばカメラ)と、画像を表示する表示手段(例えば
モニタ)とを備えた車両に対して、撮影手段により撮影
された画像を処理して表示手段に表示する車両周辺画像
処理装置に関するものである。
[Means for Solving the Problems and Effects of the Invention] (1) The invention of claim 1 includes a photographing means (for example, a camera) for photographing an image of the surroundings of a vehicle and a display means (for example, a monitor) for displaying the image. The present invention relates to a vehicle peripheral image processing device that processes an image captured by an image capturing unit and displays the image on a display unit of a provided vehicle.

【0010】本発明では、撮影手段により撮影した画像
を、例えば撮影手段を視点として投影した地上面座標系
のデータに変換して鳥瞰図画像の画像データを順次作成
する。これにより、画像は、例えばカメラで撮影したま
まの歪んだ画像ではなく、地面の上方より見たような見
やすい鳥瞰図画像となる。
In the present invention, an image photographed by the photographing means is converted into data of the ground plane coordinate system projected from the photographing means, for example, to sequentially create image data of bird's eye view images. As a result, the image is not a distorted image as it was captured by a camera, but a bird's-eye view image that is easy to see as seen from above the ground.

【0011】そして、車両の移動状態に対応して、(例
えば前回得られた鳥瞰図画像や前回の合成鳥瞰図画像の
様な)第1鳥瞰図画像を移動させて移動後鳥瞰図画像の
画像データを作成し、この移動後鳥瞰図画像の画像デー
タと、(第1鳥瞰図画像より)新しい第2鳥瞰図画像の
画像データとを合成して合成鳥瞰図画像の画像データを
作成する。
Then, the first bird's-eye view image (such as the bird's-eye view image obtained last time or the previous synthetic bird's-eye view image) is moved in accordance with the moving state of the vehicle to create image data of the moved bird's-eye view image. The image data of the post-movement bird's-eye view image and the image data of the new second bird's-eye view image (from the first bird's-eye view image) are combined to create the image data of the combined bird's-eye view image.

【0012】つまり、車両が移動するにつれて、例えば
カメラの視野が変化するので、当然、撮影した時間が異
なる第1鳥瞰図画像と第2鳥瞰図画像では、画像のずれ
(撮影された部分の違い)が発生する。そこで、第2鳥
瞰図画像に、そのずれの部分(即ち過去に視野内であっ
たが現在視野から消えている部分)の移動後鳥瞰図画像
を適宜加味することにより、モニタ等にカメラの視野か
ら消えた部分を表示するのである。
In other words, as the vehicle moves, for example, the field of view of the camera changes. Therefore, naturally, the first bird's-eye view image and the second bird's-eye view image having different shooting times have image shifts (differences between the shot parts). Occur. Therefore, the second bird's-eye view image disappears from the camera's field of view on the monitor or the like by appropriately adding the moved bird's-eye view image of the shifted portion (that is, the part that was in the field of view in the past but disappears from the current field of view). The part that is displayed is displayed.

【0013】特に本発明では、車両が所定の速度以下の
低速である場合には、車速信号以外の他の車両信号又は
異なる撮影時間に対応する鳥瞰図画像間の画像データに
基づいて、車両の移動状態を推定して、移動後鳥瞰図画
像を作成するので、常に正確な合成鳥瞰図画像を作成す
ることができる。
In particular, in the present invention, when the vehicle is at a low speed equal to or lower than a predetermined speed, the movement of the vehicle is based on other vehicle signals other than the vehicle speed signal or image data between bird's-eye view images corresponding to different photographing times. Since the state is estimated and the bird's-eye view image after movement is created, an accurate combined bird's-eye view image can always be created.

【0014】つまり、上述した様に、車種によっては極
低速の車速信号が得られない車両(又は低速では車速信
号の精度が低下する車両)があるので、本発明では、車
両が低速の場合には車速信号を用いずに、その他の車両
信号や画像処理の技術により、車両の移動量を求めて、
移動後鳥瞰図画像を作成するのである。これにより、低
速の場合でも正確な合成鳥瞰図画像を作成してモニタ等
に表示することができる。
That is, as described above, there is a vehicle in which an extremely low speed vehicle speed signal cannot be obtained (or a vehicle in which the accuracy of the vehicle speed signal decreases at a low speed) depending on the vehicle type. Therefore, in the present invention, when the vehicle speed is low, Calculates the amount of movement of the vehicle by using other vehicle signals and image processing technology, without using the vehicle speed signal,
After moving, a bird's-eye view image is created. As a result, an accurate synthetic bird's-eye view image can be created and displayed on a monitor or the like even at low speeds.

【0015】尚、車速信号を用いないで移動後鳥瞰図画
像を作成する手法としては、後述する様に、画像の時間
的変化から車両の動きを算出して移動後鳥瞰図画像を作
成したり、ハンドル角及びヨーレイト等の車両信号を用
いて移動後鳥瞰図画像を作成する手法を採用できる。
As a method of creating a post-movement bird's-eye view image without using a vehicle speed signal, as will be described later, the movement of the vehicle is calculated from the temporal change of the image to create the post-movement bird's-eye view image, or the steering wheel. A method of creating a post-movement bird's-eye view image using vehicle signals such as corner and yaw rate can be adopted.

【0016】(2)請求項2の発明では、車両が直線状
態か回転状態かを判定して、車両の移動状態を推定す
る。車両が直進状態又は回転状態では、後述する様に、
車両の移動状態を推定する手法が多少異なるので、ここ
では、車両の移動状態を直進か回転かで区別している。
(2) According to the second aspect of the present invention, the moving state of the vehicle is estimated by determining whether the vehicle is in the straight state or the rotating state. When the vehicle is in a straight traveling state or a rotating state, as will be described later,
Since the method of estimating the moving state of the vehicle is slightly different, the moving state of the vehicle is distinguished here between straight traveling and rotation.

【0017】(3)請求項3の発明では、車両が直進状
態であると判定された場合には、異なる撮影時間に対応
する鳥瞰図画像間の画像データに基づいて、車両の移動
状態を推定して、移動後鳥瞰図画像を作成する。車両が
直進状態である場合には、異なる撮影時間に対応する鳥
瞰図画像も同様に一定方向に移動するので、両鳥瞰図画
像の移動状態を画像処理(例えば両画像のマッチング処
理)により求めれば、車両の移動状態を求めることがで
きる。よって、車両の移動状態に基づいて移動後鳥瞰図
画像を作成することができる。
(3) In the invention of claim 3, when it is determined that the vehicle is in a straight traveling state, the moving state of the vehicle is estimated based on the image data between the bird's-eye view images corresponding to different photographing times. To create a bird's-eye view image after movement. When the vehicle is in a straight-ahead state, the bird's-eye view images corresponding to different shooting times also move in a fixed direction, so if the moving state of both bird's-eye view images is obtained by image processing (for example, matching processing of both images), the vehicle It is possible to obtain the movement state of the. Therefore, the post-movement bird's-eye view image can be created based on the movement state of the vehicle.

【0018】(4)請求項4の発明では、車両が直進状
態であると判定された場合には、異なる時間における当
該車両と周囲の物体との距離のデータから、車両の移動
状態を推定して、移動後鳥瞰図画像を作成する。車両が
直進状態である場合には、例えば超音波センサにより検
出した周囲の固定物(例えば他の車両や壁)との距離の
変化が車両の移動距離である。従って、この移動距離に
基づいて、移動後鳥瞰図画像を作成することができる。
(4) According to the invention of claim 4, when it is determined that the vehicle is in a straight traveling state, the moving state of the vehicle is estimated from data of distances between the vehicle and surrounding objects at different times. To create a bird's-eye view image after movement. When the vehicle is in a straight traveling state, a change in the distance from a surrounding fixed object (for example, another vehicle or a wall) detected by the ultrasonic sensor is the moving distance of the vehicle. Therefore, the post-movement bird's-eye view image can be created based on this movement distance.

【0019】(5)請求項5の発明では、車両が回転状
態であると判定された場合には、ハンドル角及びヨーレ
イトに基づいて、車両の移動状態を推定して、移動後鳥
瞰図画像を作成する。車両が回転状態である場合には、
ハンドル角やヨーレイトが分かれば、車両がどれほど回
転移動したかが分かる。よって、車両の回転移動量に基
づいて、鳥瞰図画像を回転移動させることにより、移動
後鳥瞰図画像を作成することができる。
(5) In the invention of claim 5, when it is determined that the vehicle is in a rotating state, the moving state of the vehicle is estimated based on the steering wheel angle and the yaw rate, and a post-movement bird's eye view image is created. To do. If the vehicle is spinning,
If you know the steering wheel angle and yaw rate, you can see how much the vehicle has rotated. Therefore, the moved bird's-eye view image can be created by rotationally moving the bird's-eye view image based on the rotational movement amount of the vehicle.

【0020】(6)請求項6の発明は、車両周辺の画像
を撮影する撮影手段と、画像を表示する表示手段とを備
えた車両に対して、撮影手段により撮影された画像を処
理して表示手段に表示する車両周辺画像処理装置に関す
るものである。そして、撮影手段により撮影された画像
に基づいて作成された第1鳥瞰図画像を記憶し、第1鳥
瞰図画像を車両の移動状態に応じて移動させて移動後鳥
瞰図画像を作成し、第1鳥瞰図画像より後に撮影されて
作成された第2鳥瞰図画像と、移動後鳥瞰図画像とを合
成して、合成鳥瞰図画像を作成する。
(6) According to the invention of claim 6, a vehicle equipped with a photographing means for photographing an image of the surroundings of the vehicle and a display means for displaying the image is processed by the image photographed by the photographing means. The present invention relates to a vehicle peripheral image processing device displayed on display means. Then, the first bird's-eye view image created based on the image taken by the imaging means is stored, and the first bird's-eye view image is moved according to the moving state of the vehicle to create the moved bird's-eye view image, and the first bird's-eye view image. The second bird's-eye view image photographed and created later and the moved bird's-eye view image are combined to create a combined bird's-eye view image.

【0021】特に本発明では、異なる撮影時間に対応す
る鳥瞰図画像間の画像データに基づいて、車両の移動状
態を推定することが困難な場合には、車両と周囲の物体
との距離を検出する距離検出手段による信号に基づい
て、車両の移動状態を推定して、移動後鳥瞰図画像を作
成する。
Particularly in the present invention, when it is difficult to estimate the moving state of the vehicle based on the image data between the bird's-eye view images corresponding to different photographing times, the distance between the vehicle and the surrounding objects is detected. The moving state of the vehicle is estimated based on the signal from the distance detecting means, and a post-movement bird's-eye view image is created.

【0022】つまり、例えば後方に他の車両等があり路
面の画像を撮影できない場合(従って路面の画像から移
動状態が分からない場合)には、例えば超音波センサに
より検出した固定物との距離の変化が車両の移動距離で
あると考えられるので、この移動距離に基づいて、移動
後鳥瞰図画像を作成することができる。よって、正確な
合成鳥瞰図画像をモニタ等に表示することができる。
That is, for example, when another vehicle or the like is behind and cannot take an image of the road surface (thus, when the moving state is not known from the image of the road surface), for example, the distance to the fixed object detected by the ultrasonic sensor Since the change is considered to be the travel distance of the vehicle, the post-movement bird's-eye view image can be created based on this travel distance. Therefore, an accurate combined bird's-eye view image can be displayed on the monitor or the like.

【0023】(7)請求項7の発明は、車両と周囲の物
体との距離を、超音波センサにより検出することを例示
したものである。 (8)請求項8の発明は、車両周辺の画像を撮影する撮
影手段と、画像を表示する表示手段とを備えた車両に対
して、撮影手段により撮影された画像を処理して表示手
段に表示する車両周辺画像処理装置に関するものであ
る。そして、撮影手段によって撮影された画像に基づい
て作成された第1鳥瞰図画像を記憶し、第1鳥瞰図画像
を車両の移動状態に応じて移動させて、移動後鳥瞰図画
像を作成し、第1鳥瞰図画像より後に撮影されて作成さ
れた第2鳥瞰図画像と、移動後鳥瞰図画像とを合成し
て、合成鳥瞰図画像を作成する。
(7) The invention of claim 7 exemplifies that the distance between the vehicle and the surrounding objects is detected by an ultrasonic sensor. (8) According to the invention of claim 8, for a vehicle provided with a photographing means for photographing an image of the surroundings of the vehicle and a display means for displaying the image, the image photographed by the photographing means is processed and displayed on the display means. The present invention relates to a vehicle peripheral image processing device for displaying. Then, the first bird's-eye view image created based on the image taken by the imaging means is stored, the first bird's-eye view image is moved in accordance with the moving state of the vehicle, and the post-movement bird's-eye view image is created to create the first bird's-eye view image. The second bird's-eye view image taken after the image and created and the moved bird's-eye view image are combined to create a combined bird's-eye view image.

【0024】特に本発明では、車両が所定の速度以下の
低速である場合には、少なくとも鳥瞰図画像作成手段、
移動後鳥瞰図画像作成手段、及び合成鳥瞰図画像作成手
段の処理を開始する。つまり、上述した様に、画像処理
を、例えばシフトがバックギヤのタイミングで開始する
場合には、その開始時点からのカメラ画像しか得られな
いので、本発明では、停車の可能性のある様な低速にな
った場合には、画像処理を開始する。これにより、例え
ばバックで駐車を開始する様な場合には、それ以前の時
点における車両の周囲の画像をも表示することができ、
駐車の操作の際に非常に便利である。
In particular, in the present invention, at least the bird's-eye view image creating means, when the vehicle is at a low speed equal to or lower than a predetermined speed,
After the movement, the processes of the bird's-eye view image creating means and the composite bird's-eye view image creating means are started. In other words, as described above, when the image processing is started at the timing of the back gear, for example, only the camera image from the start time is obtained, so in the present invention, the low speed that may cause the vehicle to stop is low. If, the image processing is started. With this, for example, when starting parking in the back, it is possible to display an image of the surroundings of the vehicle at a time before that,
It is very convenient for parking operation.

【0025】(9)請求項9の発明では、第1鳥瞰図画
像として、今回の合成鳥瞰図画像より前に作成した合成
鳥瞰図画像を用いる。これにより、モニタには、過去に
撮影した画像の鳥瞰図画像(車両の移動に合わせて移動
させた画像)を逐次加えた連続した合成鳥瞰図画像を表
示することができる。
(9) In the invention of claim 9, as the first bird's-eye view image, the combined bird's-eye view image created before the current combined bird's-eye view image is used. As a result, a continuous composite bird's-eye view image to which the bird's-eye view images (images moved according to the movement of the vehicle) of images taken in the past are sequentially added can be displayed on the monitor.

【0026】(10)請求項10の発明では、合成鳥瞰
図画像は、第2鳥瞰図画像を表示する表示領域以外に、
移動後鳥瞰図画像を加入した画像である。本発明は、合
成鳥瞰図画像の形成方法を例示したものである。これに
より、車両の周囲の画像を連続して表示することができ
る。
(10) According to the tenth aspect of the invention, the combined bird's-eye view image is displayed in a region other than the display area for displaying the second bird's-eye view image.
It is an image to which a bird's-eye view image after movement is added. The present invention exemplifies a method of forming a synthetic bird's-eye view image. Thereby, images around the vehicle can be continuously displayed.

【0027】つまり、例えばカメラにより現在撮影され
ている画像は、第2鳥瞰図画像としてモニタに表示可能
であるので、それ以前のモニタから消えてしまう画像
を、移動後鳥瞰図画像として第2鳥瞰図画像の表示領域
以外に加えることにより、カメラの視野から消えた過去
の周囲の状況をもモニタに表示することができる。
That is, for example, the image currently taken by the camera can be displayed on the monitor as the second bird's-eye view image. Therefore, an image disappearing from the monitor before that is used as the second bird's-eye view image after the movement. By adding to the area other than the display area, it is possible to display the past surrounding situation that has disappeared from the field of view of the camera on the monitor.

【0028】尚、合成鳥瞰図画像に用いる第2鳥瞰図画
像として、通常、最新の鳥瞰図画像が用いられる。 (11)請求項11の発明では、表示手段に合成鳥瞰図
画像を表示する場合には、自車両を示す画像を加えて表
示する。
The latest bird's-eye view image is usually used as the second bird's-eye view image used for the composite bird's-eye view image. (11) According to the eleventh aspect of the invention, when the combined bird's-eye view image is displayed on the display means, the image showing the own vehicle is additionally displayed.

【0029】本発明では、車両の周囲の状況を示す合成
鳥瞰図画像に自車両を示す画像を加えて表示することに
より、自車両と例えば駐車枠との位置関係が明瞭となる
ので、車両の操作が容易になる。尚、例えばカメラは車
両の所定位置に固定されているので、例えばモニタの画
面における自車両の位置は常に一定である。従って、モ
ニタの画面の決まった位置に自車両を表示することがで
き、更には、モニタの画面上に予めプリント等により車
両を記載してもよい。
In the present invention, by displaying the combined bird's-eye view image showing the situation around the vehicle with the image showing the own vehicle, the positional relationship between the own vehicle and, for example, the parking frame becomes clear, so that the operation of the vehicle can be performed. Will be easier. Note that, for example, since the camera is fixed at a predetermined position on the vehicle, the position of the vehicle on the monitor screen is always constant. Therefore, the own vehicle can be displayed at a predetermined position on the screen of the monitor, and the vehicle may be described in advance on the screen of the monitor by printing or the like.

【0030】また、カメラの視野角も通常は一定である
ので、自車両だけでなく、モニタの画面に、カメラの視
野角(左右の範囲)も表示してもよい。 (12)請求項12の発明は、上述した車両周辺画像処
理装置による処理を実行させる手段を記憶している記録
媒体である。
Since the viewing angle of the camera is usually constant, the viewing angle (left and right range) of the camera may be displayed not only on the host vehicle but also on the monitor screen. (12) The invention of claim 12 is a recording medium storing means for executing the process by the vehicle peripheral image processing device described above.

【0031】つまり、上述した車両周辺画像処理装置の
処理を実行させることができる例えばプログラム等の手
段を記憶したものであれば、特に限定はない。例えば記
録媒体としては、マイクロコンピュータとして構成され
る電子制御装置、マイクロチップ、フロッピィディス
ク、ハードディスク、光ディスク等の各種の記録媒体が
挙げられる。
That is, there is no particular limitation as long as it stores a means such as a program that can execute the processing of the vehicle peripheral image processing apparatus described above. Examples of the recording medium include various recording media such as an electronic control device configured as a microcomputer, a microchip, a floppy disk, a hard disk, and an optical disk.

【0032】[0032]

【発明の実施の形態】以下に、本発明の車両周辺画像処
理装置及び記録媒体の実施の形態の例(実施例)を説明
する。 (実施例) a)本実施例の基本的なシステム構成を図1及び図2を
用いて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, an example (embodiment) of an embodiment of a vehicle peripheral image processing apparatus and a recording medium of the present invention will be described. (Example) a) The basic system configuration of the present example will be described with reference to FIGS. 1 and 2.

【0033】図1に示す様に、本実施例の車両周辺画像
処理装置は、自動車の後部に配置されたカメラ(例えば
CCDカメラ)1と、ダッシュボードに配置された車載
モニタ(例えば液晶ディスプレイ)3と、車速を検出す
る車速センサ5と、ハンドル角を検出するハンドル角セ
ンサ6と、ヨーレイトを検出するヨーレイトセンサ7
と、車両に周囲の障害物を検出する超音波センサ8と、
画像処理を行う画像処理ユニット9を備えている。
As shown in FIG. 1, the vehicle peripheral image processing apparatus of this embodiment has a camera (for example, a CCD camera) 1 arranged at the rear part of an automobile and an in-vehicle monitor (for example, a liquid crystal display) arranged on a dashboard. 3, a vehicle speed sensor 5 for detecting a vehicle speed, a steering wheel angle sensor 6 for detecting a steering wheel angle, and a yaw rate sensor 7 for detecting a yaw rate.
And an ultrasonic sensor 8 for detecting obstacles around the vehicle,
An image processing unit 9 for performing image processing is provided.

【0034】前記画像処理ユニット9は、図2に示す様
に、マイクロコンピュータを主要部とする画像データの
処理を行う電子装置であり、カメラ1で撮影した画像デ
ータの座標変換を行って鳥瞰図画像を作成する座標変換
部(鳥瞰図変換回路)11と、作成された鳥瞰図画像の
画像データを一時的に蓄える画像メモリAと、画像メモ
リAの鳥瞰図画像を移動(例えば回転移動)して合成す
る等の画像処理などの演算を行うCPU13と、モニタ
3に表示する鳥瞰図画像のデータを記憶する画像メモリ
Bとを備えている。
As shown in FIG. 2, the image processing unit 9 is an electronic device mainly including a microcomputer for processing image data. The image processing unit 9 performs coordinate conversion of image data taken by the camera 1 to obtain a bird's eye view image. A coordinate conversion unit (bird's-eye view conversion circuit) 11 for creating the image, an image memory A for temporarily storing image data of the created bird's-eye view image, and a bird's-eye view image in the image memory A are moved (for example, rotationally moved) to be combined. CPU 13 for performing calculations such as image processing and image memory B for storing bird's-eye view image data displayed on monitor 3.

【0035】前記画像処理ユニット9には、ハンドル角
信号を入力する車速信号入力回路15と、車速信号を入
力する車速信号入力回路17と、ヨーレイト信号を入力
するヨーレイト信号入力回路19と、超音波センサ8か
らの超音波信号を入力する超音波信号入力回路21が接
続され、各信号はCPU13に入力される。
The image processing unit 9 has a vehicle speed signal input circuit 15 for inputting a steering wheel angle signal, a vehicle speed signal input circuit 17 for inputting a vehicle speed signal, a yaw rate signal input circuit 19 for inputting a yaw rate signal, and an ultrasonic wave. An ultrasonic signal input circuit 21 for inputting an ultrasonic signal from the sensor 8 is connected, and each signal is input to the CPU 13.

【0036】ここで、画像メモリBに記憶する鳥瞰図画
像の画像データとは、後述する様に、2回目の処理以降
は、合成鳥瞰図画像の画像データである。つまり、前回
(例えば時刻Tに)カメラ1にて撮影され、その画像デ
ータに基づいて作成された鳥瞰図画像(第1鳥瞰図画
像)を移動させた鳥瞰図画像(移動後鳥瞰図画像)と、
新たに(例えば時刻T+1に)カメラ1にて撮影され、
その画像データに基づいて作成された鳥瞰図画像(第2
鳥瞰図画像)とを合成した鳥瞰図画像(合成鳥瞰図画
像)の画像データである。
Here, the image data of the bird's-eye view image stored in the image memory B is the image data of the synthetic bird's-eye view image after the second processing, as described later. In other words, a bird's-eye view image (post-movement bird's-eye view image) obtained by moving the bird's-eye view image (first bird's-eye view image) captured by the camera 1 last time (for example, at time T) and created based on the image data,
Newly (for example, at time T + 1) taken by camera 1,
Bird's-eye view image created based on the image data (second
And a bird's-eye view image).

【0037】尚、画像処理ユニット3は、カメラ1と一
体の構造となっていてもよく、画像処理ユニット9内の
各構成は、一部又は全体で一体化してLSIで構成して
もよい。い。 b)次に、本実施例における画像処理の手順等を、図3
〜図6に基づいて説明する。
The image processing unit 3 may have a structure integrated with the camera 1, and each of the components in the image processing unit 9 may be partially or wholly integrated into an LSI. Yes. b) Next, referring to FIG.
~ It demonstrates based on FIG.

【0038】ここでは、車両を後退(バック)させて駐
車枠内に入れる場合を例に挙げる。 最初に、カメラ1から入力された画像を、鳥瞰図変換
回路11で上空から見た鳥瞰図画像に変換し、画像メモ
リAに保存する手順を説明する。まず、カメラ1から出
力される原画像(出力画像)を、図3(a)に示すが、
この原画像は、車両の後部の上部に配置されたカメラ1
により、地上に描かれた駐車枠及びその周囲を撮影した
画像であるので、自車両(従ってカメラ1)と駐車枠の
各線の位置との距離などに応じて、本来矩形である駐車
枠が歪んで表示されている。
Here, the case where the vehicle is moved backward (back) and put in the parking frame is taken as an example. First, a procedure for converting an image input from the camera 1 into a bird's-eye view image viewed from the sky by the bird's-eye view conversion circuit 11 and storing the image in the image memory A will be described. First, the original image (output image) output from the camera 1 is shown in FIG.
This original image is taken by the camera 1 placed at the upper rear part of the vehicle.
Is an image of the parking frame drawn on the ground and its surroundings, the originally rectangular parking frame is distorted depending on the distance between the vehicle (and therefore camera 1) and the position of each line of the parking frame. Is displayed.

【0039】よって、後ににて詳述する様に、原画像
の画像データを座標変換して、図3(b)に示す様な歪
みのない鳥瞰図画像を作成し、この鳥瞰図画像の画像デ
ータを画像メモリAに記憶する。 次に、前記カメラ1で撮影された原画像を鳥瞰図画像
に変換する手順を説明する。尚、この手順は、以下に説
明する様に、従来技術(例えば特開平10−21184
9号公報)を利用できる。
Therefore, as described later in detail, the image data of the original image is subjected to coordinate conversion to create a bird's-eye view image without distortion as shown in FIG. 3B, and the image data of this bird's-eye view image is converted into image data. It is stored in the image memory A. Next, a procedure for converting an original image captured by the camera 1 into a bird's-eye view image will be described. It should be noted that, as will be described below, this procedure is performed by a conventional technique (for example, Japanese Unexamined Patent Publication No. 10-21184).
No. 9) can be used.

【0040】ここでは、通常の透視変換の逆の処理を行
うことにより、地上平面における画像(例えば駐車枠)
の位置を鳥瞰図として求める。具体的には、図4に示す
様に、地上の画像の位置データをカメラ位置Rからの焦
点距離fにあるスクリーン平面Tに投影するときの透視
変換を実行する。
Here, an image on the ground plane (for example, a parking frame) is obtained by performing the reverse processing of the normal perspective transformation.
Position is obtained as a bird's-eye view. Specifically, as shown in FIG. 4, perspective transformation is performed when the position data of the image on the ground is projected on the screen plane T at the focal length f from the camera position R.

【0041】詳しくは、カメラ1は、Z軸上の点R
(0,0,H)に位置し、見下ろし角τで地上面(xy
座標面)における画像をモニタしているとする。従っ
て、ここでは、下記式(1)に示す様にして、スクリー
ン平面T上の2次元座標(α、β)を、地上面上の座標
(鳥瞰図座標)に変換(逆の透視変換)できる。
Specifically, the camera 1 has a point R on the Z axis.
It is located at (0,0, H) and has a top-down angle τ with a ground surface (xy
It is assumed that the image on the coordinate plane) is being monitored. Therefore, here, the two-dimensional coordinates (α, β) on the screen plane T can be converted into the coordinates (bird's-eye view coordinates) on the ground plane (inverse perspective conversion) as shown in the following formula (1).

【0042】[0042]

【数1】 [Equation 1]

【0043】つまり、上記式(1)を用いることによ
り、投影画像データを(鳥瞰図画像を示す)モニタ3の
画面に対応した画像データに変換してモニタ表示するこ
とができる。 次に、自車両がカーブ中の場合の画像処理の手順につ
いて説明する。
That is, by using the above equation (1), the projected image data can be converted into image data corresponding to the screen of the monitor 3 (showing a bird's-eye view image) and displayed on the monitor. Next, a procedure of image processing when the vehicle is on a curve will be described.

【0044】ここでは、ハンドル角とヨーレイトを用い
て画像処理を行う。ハンドル角θh[°]と回転半径X
C[m]は逆比例の関係にあり、変換係数K[m・°]
を用いれば、下記式(2)より算出できる。尚、直進で
ハンドル角θh[°]が0°のとき、XC[m]は無限
大となる。 XC[m]=K[m・°]/tan(θh)[°] ・・・・(2) 図5に示す様に、ヨーレイトセンサ7から得られるヨー
レイトが回転角θ[°]であり、後進時の自車両の回転
中心は、後輪車軸上(カメラ1からの距離YC[m])
にあるとすると、車両は、カーブ中の回転中心位置が
(XC、YC)にて、回転角θ[°]移動したことにな
る。
Here, image processing is performed using the steering wheel angle and the yaw rate. Handle angle θh [°] and turning radius X
C [m] is inversely proportional, and conversion coefficient K [m · °]
Can be calculated by the following formula (2). In addition, when the steering wheel angle θh [°] is 0 ° when traveling straight, XC [m] becomes infinite. XC [m] = K [m. °] / tan (θh) [°] (2) As shown in FIG. 5, the yaw rate obtained from the yaw rate sensor 7 is the rotation angle θ [°], The center of rotation of the host vehicle during reverse travel is on the rear wheel axle (distance YC [m] from camera 1)
Therefore, the vehicle has moved by the rotation angle θ [°] when the rotation center position in the curve is (XC, YC).

【0045】そして、この回転中心位置及び回転角を用
い、画像メモリBの画像(前回の合成鳥瞰図画像)を移
動させる。尚、まだ合成が実施されていない初回のみ
は、画像メモリBには画像メモリAと同様な鳥瞰図画像
の画像データが記憶されている。
Then, using this rotation center position and rotation angle, the image in the image memory B (the previous synthetic bird's-eye view image) is moved. Note that the image data of the bird's-eye view image similar to the image memory A is stored in the image memory B only for the first time when the composition is not performed yet.

【0046】つまり、画像メモリBに記憶された前回の
合成鳥瞰図画像の画像データを、CPU13の内部メモ
リに転送し、前記回転中心位置(XC、YC)及び回転
角θを用いて、鳥瞰図画像を回転移動する。この回転移
動を行うための変換式を、下記式(3)に示すが、この
変換式を用いたCPU13の内部処理により、回転角θ
にて移動させた移動後の座標(XB、YB)に対して、
移動前の対応する点(XA、YA)を算出し、(XA、
YA)の画素値を(XB、YB)のアドレスメモリに保
存する。 XA=XB・COSθ+YB・SINθ ・・・(3) YA=YB・COSθ−XB・SINθ 但し、(XA、YA):移動前の座標 (XB、YB):移動後の座標 そして、全ての座標についてこれらの演算を行うことに
より、画像メモリBに記憶された鳥瞰図画像(時刻Tに
おける合成鳥瞰図画像)から、移動後の鳥瞰図画像(時
刻Tにおける移動後鳥瞰図画像)を作成する。
That is, the image data of the previous combined bird's-eye view image stored in the image memory B is transferred to the internal memory of the CPU 13, and the bird's-eye view image is formed using the rotation center position (XC, YC) and the rotation angle θ. Move to rotate. A conversion formula for performing this rotational movement is shown in the following formula (3). The rotation angle θ is determined by the internal processing of the CPU 13 using this conversion formula.
For the coordinates (XB, YB) after movement,
The corresponding point (XA, YA) before movement is calculated, and (XA, YA)
The pixel value of (YA) is stored in the address memory of (XB, YB). XA = XB · COSθ + YB · SINθ (3) YA = YB · COSθ−XB · SINθ However, (XA, YA): coordinates before movement (XB, YB): coordinates after movement And for all coordinates By performing these calculations, the bird's-eye view image after movement (the bird's-eye view image after movement at time T) is created from the bird's-eye view image (composite bird's-eye view image at time T) stored in the image memory B.

【0047】それとともに、新たにカメラ1により撮影
した画像に基づいて作成した鳥瞰図画像、即ち、現在の
鳥瞰図画像(時刻T+1における第2鳥瞰図画像)を、
新たに画像メモリAよりCPU13に転送する。よっ
て、CPU13では、第2鳥瞰図画像を時刻Tと位置関
係が対応する位置(移動後鳥瞰図画像との画像のずれが
生じない位置)に書き込み、それによって、移動後鳥瞰
図画像と第2鳥瞰図画像とを合成した合成鳥瞰図画像の
画像データを作成する。
At the same time, the bird's-eye view image created based on the image newly captured by the camera 1, that is, the current bird's-eye view image (the second bird's-eye view image at time T + 1),
It is newly transferred from the image memory A to the CPU 13. Therefore, the CPU 13 writes the second bird's-eye view image at a position having a positional relationship with the time T (a position where the image does not deviate from the post-movement bird's-eye view image), whereby the post-movement bird's-eye view image and the second bird's-eye view image are written. The image data of the synthetic bird's-eye view image is synthesized.

【0048】そして、この合成鳥瞰図画像を画像メモリ
Bに記憶して、その合成鳥瞰図画像をモニタ3に表示す
るのである。尚、合成鳥瞰図画像を作成する際には、自
車両の位置やカメラ1の視野角の画像なども加入して画
像メモリBに記憶し、その合成鳥瞰図画像をモニタ3の
画面に表示してもよいが、自車両の位置やカメラ1の視
野角の画像などは画像メモリBに記憶せずに、モニタ3
に画像メモリBに記憶した合成鳥瞰図画像を描画する際
に、自車両の位置やカメラ1の視野角の画像など加えて
描画してもよい。
The composite bird's-eye view image is stored in the image memory B, and the composite bird's-eye view image is displayed on the monitor 3. When creating the synthetic bird's-eye view image, the image of the position of the vehicle or the viewing angle of the camera 1 is also added and stored in the image memory B, and the synthetic bird's-eye view image is displayed on the screen of the monitor 3. However, the position of the vehicle and the image of the viewing angle of the camera 1 are not stored in the image memory B, but the monitor 3
When the synthetic bird's-eye view image stored in the image memory B is drawn, the image of the position of the vehicle and the view angle of the camera 1 may be added and drawn.

【0049】次に、自車両が直進中の場合の処理の手
順について説明する。ハンドル角が0°で走行中の場合
には、車両は前進又は後進中であり、車両の移動は直線
移動となる。車両の速度が例えば5km/h以下の極低
速の場合には、車種(従って車速センサ5)によって
は、車速信号が入力しないか入力しても不正確なことが
ある。
Next, the procedure of processing when the vehicle is traveling straight ahead will be described. When the vehicle is traveling at a steering wheel angle of 0 °, the vehicle is moving forward or backward, and the vehicle moves linearly. When the vehicle speed is extremely low, for example, 5 km / h or less, the vehicle speed signal may not be input or may be inaccurate even if the vehicle speed signal is input, depending on the vehicle type (the vehicle speed sensor 5).

【0050】従って、ここでは、低速である場合には車
速信号を用いずに、画像処理による動きベクトルにより
車両の移動量を求める。例えば時刻Tの鳥瞰図画像から
時刻T+1の鳥瞰図画像に変化した場合、両鳥瞰図画像
のマッチングをとって画像の動きベクトルの大きさVを
求める。
Therefore, here, when the vehicle speed is low, the moving amount of the vehicle is obtained from the motion vector by image processing without using the vehicle speed signal. For example, when the bird's-eye view image at time T is changed to the bird's-eye view image at time T + 1, both bird's-eye view images are matched to obtain the magnitude V of the motion vector of the image.

【0051】ここで、前記マッチングの手法を説明する
が、画像処理における従来の各種の手法を採用できる。
例えば画像A、Bの所定の(マッチング用の)領域を、
図6に示す様に、複数の細かい領域(ピクセル)に分割
し、各画像A、Bのピクセルの一致する程度が最も高い
ものを検出し、一致するピクセルの位置関係から、画像
Aと画像Bの位置関係(即ち画像Aがどれだけ移動した
か)を求めることができる。
Here, the matching method will be described, but various conventional methods in image processing can be adopted.
For example, a predetermined (matching) area of images A and B is
As shown in FIG. 6, the image A and the image B are divided into a plurality of fine regions (pixels), and a pixel having the highest degree of coincidence between the pixels of the images A and B is detected. The positional relationship (i.e., how much the image A has moved) can be obtained.

【0052】具体的には、図6に示す様に、各ピクセル
における例えば図形の明るさ(色彩でもよい)の程度を
数字で示す場合を考えると、ここでは、画像Aの下3列
のピクセルの明るさと、画像Bの上3列のピクセルの明
るさとが一致する。従って、この場合には、画像Aは、
1列のピクセルの幅だけ図の上下方向に移動して、画像
Bと一致すると見なすことができる。この場合は、車両
が図の下方に移動したことにより、画像Bの図形が上方
に移動したように見える。
Specifically, as shown in FIG. 6, considering the case where the degree of brightness (or color) of a figure in each pixel is represented by a numeral, here, the pixels in the lower three columns of the image A are considered. And the brightness of the pixels in the top three columns of image B match. Therefore, in this case, the image A is
It can be regarded as coincident with the image B by moving in the vertical direction of the figure by the width of one column of pixels. In this case, the figure in image B appears to have moved upward because the vehicle has moved downward in the figure.

【0053】従って、下記式(4)に示す様に、動きベ
クトルの大きさV分だけ、鳥瞰図画像を平行移動させる XA=XB ・・・(4) YA=YB−V 但し、(XA、YA):移動前の座標 (XB、YB):移動後の座標 そして、以後は、前記の回転移動と同様に、全ての座
標についてこれらの演算を行うことにより、画像メモリ
Bに記憶された鳥瞰図画像から、移動後の鳥瞰図画像を
作成し、それとともに、新たにカメラ1により撮影した
画像に基づいて作成した鳥瞰図画像を、新たに画像メモ
リAよりCPU13に転送し、これらを合成して合成鳥
瞰図画像の画像データを作成する。
Therefore, as shown in the following equation (4), the bird's-eye view image is moved in parallel by the magnitude V of the motion vector XA = XB (4) YA = YB-V where (XA, YA ): Coordinates before movement (XB, YB): Coordinates after movement And thereafter, similar to the above rotational movement, by performing these calculations for all coordinates, the bird's eye view image stored in the image memory B. From the above, a bird's-eye view image after the movement is created, and at the same time, a bird's-eye view image created based on the image newly captured by the camera 1 is newly transferred from the image memory A to the CPU 13, and these are combined to form a combined bird's-eye view image. Image data is created.

【0054】そして、この合成鳥瞰図画像を画像メモリ
Bに記憶して、その合成鳥瞰図画像をモニタ3に表示す
るのである。 次に、後ろに障害物がある場合の処理の手順について
説明する。後ろに障害物がある場合には、画像処理の動
きベクトルで自車両の移動量を算出することができな
い。つまり、動きベクトルは、路面の画像に対してその
動きを求めているので、後ろに他の車両が駐車している
ために路面が見えない場合などには、正しい動きベクト
ルを求めることができない。
Then, the composite bird's-eye view image is stored in the image memory B, and the composite bird's-eye view image is displayed on the monitor 3. Next, a procedure of processing when there is an obstacle behind is described. If there is an obstacle behind, the movement amount of the host vehicle cannot be calculated using the motion vector of image processing. That is, since the motion vector requires the motion of the image of the road surface, the correct motion vector cannot be obtained when the road surface cannot be seen because another vehicle is parked behind.

【0055】この場合には、超音波センサ8の信号を用
い、その検出距離の変位から移動量を算出することがで
きる。例えば超音波センサ8の信号が前回C1(m)、
今回C2(m)となった場合には、下記式(5)によ
り、その移動量を求めることができる(但し、直進の場
合)。 XA=XB ・・・(5) YA=YB−(C1−C2) 但し、(XA、YA):移動前の座標 (XB、YB):移動後の座標 これにより、移動前と移動後の座標の対応関係が分かる
ので、この対応関係に基づいて前回の合成鳥瞰図画像を
移動させて移動後鳥瞰図画像を求めることができる。
In this case, the movement amount can be calculated from the displacement of the detection distance using the signal of the ultrasonic sensor 8. For example, the signal from the ultrasonic sensor 8 is C1 (m) last time,
If C2 (m) is reached this time, the amount of movement can be calculated by the following equation (5) (however, when traveling straight). XA = XB (5) YA = YB- (C1-C2) However, (XA, YA): Coordinates before movement (XB, YB): Coordinates after movement Accordingly, coordinates before and after movement Since the correspondence relationship of is understood, the post-movement bird's-eye view image can be obtained by moving the previous combined bird's-eye view image based on this correspondence relationship.

【0056】次に、画像処理を開始するタイミングつ
いて説明する。上述したカメラ1による画像の撮影から
合成鳥瞰図画像の作成までの処理は、例えば駐車時の様
に、車両が所定の低速(例えば10km/h)以下にな
った場合に開始する。
Next, the timing of starting the image processing will be described. The above-described processing from capturing an image by the camera 1 to creating a composite bird's-eye view image is started when the vehicle is at a predetermined low speed (for example, 10 km / h) or less, such as when parked.

【0057】これにより、例えばバックギヤに入れるた
めに車両が停止したときには、その直前の前進時の履歴
の合成鳥瞰図画像ができているので、現時点にてカメラ
1で撮影しただけの場合と比べて、車両周囲の多くの画
像を表示することができる。 c)次に、前記画像処理ユニット9等にて行われる処理
を、図7のフローチャートに基づいて説明する。
As a result, when the vehicle stops, for example, to shift to the back gear, a composite bird's-eye view image of the history of forward movement just before that is made, so that compared to the case where the camera 1 is just taking a picture at this time, Many images around the vehicle can be displayed. c) Next, the processing performed by the image processing unit 9 and the like will be described with reference to the flowchart of FIG.

【0058】図7に示す様に、まず、ステップ100に
て、車速センサ7からの車速信号を読み込む。続くステ
ップ110では、車速が所定の低速(例えば10km/
h)以下か否かを判定する。ここで肯定判断されるとス
テップ120に進み、一方否定判断されると前記ステッ
プ100に戻る。
As shown in FIG. 7, first, at step 100, the vehicle speed signal from the vehicle speed sensor 7 is read. In the following step 110, the vehicle speed is a predetermined low speed (for example, 10 km /
h) It is determined whether or not the following. If an affirmative judgment is made here, the routine proceeds to step 120, while if a negative judgment is made, the routine returns to step 100.

【0059】ステップ120では、カメラ1で撮影した
画像のデータを入力する。続くステップ130では、ハ
ンドル角センサ6からハンドル角信号を入力する。続く
ステップ140では、ヨーレイトセンサ7からヨーレイ
ト信号を入力する。
At step 120, the data of the image taken by the camera 1 is input. In the following step 130, a steering wheel angle signal is input from the steering wheel angle sensor 6. In the following step 140, the yaw rate signal is input from the yaw rate sensor 7.

【0060】続くステップ150では、超音波センサ8
から超音波信号を入力する。続くステップ160では、
カメラ1で撮影した画像の座標変換(前記鳥瞰図変換)
を行って、鳥瞰図画像を作成する。続くステップ170
では、前記鳥瞰図画像を画像メモリAに記憶する。
In the following step 150, the ultrasonic sensor 8
Input the ultrasonic signal from. In the following step 160,
Coordinate conversion of images taken by the camera 1 (the bird's-eye view conversion)
To create a bird's eye view image. Continued Step 170
Then, the bird's-eye view image is stored in the image memory A.

【0061】続くステップ180では、今回の処理が初
回の処理か否かを判定する。ここで肯定判断されるとス
テップ190に進み、一方否定判断されるとステップ2
00に進む。ステップ190では、初回の処理であるの
で、画像メモリAに記憶した画像データを、画像メモリ
Bにも記憶し、前記ステップ100に戻る。尚、画像メ
モリBに記憶された鳥瞰図画像は、そのままモニタ3に
表示される(図8(a)参照)。一方、ステップ200
では、初回の処理ではないので、車両が直進状態か否か
を、ハンドル角が0°か否かによって判定する。ここで
直進状態であると判定されるとステップ230に進み、
一方回転状態であると判定されるとステップ210に進
む。
In the following step 180, it is determined whether or not the current process is the first process. If an affirmative judgment is made here, the routine proceeds to step 190, while if a negative judgment is made, the routine proceeds to step 2
Go to 00. In step 190, since it is the first process, the image data stored in the image memory A is also stored in the image memory B, and the process returns to step 100. The bird's-eye view image stored in the image memory B is displayed on the monitor 3 as it is (see FIG. 8A). On the other hand, step 200
Since this is not the first time processing, it is determined whether the vehicle is in a straight traveling state by whether the steering wheel angle is 0 °. If it is determined that the vehicle is traveling straight ahead, the process proceeds to step 230,
On the other hand, if it is determined to be in the rotating state, the process proceeds to step 210.

【0062】ステップ210では、車両が回転状態であ
るので、前記にて説明した手順に従って画像の処理を
行う。具体的には、ハンドル角、ヨーレイトにより、車
両の回転中心及び回転角を求める。続くステップ220
では、前記ステップ210で求めた回転中心、回転角を
用い、前記式(4)に基づいて、鳥瞰図画像を回転す
る。つまり、画像メモリBに記憶されている鳥瞰図画像
(前回の合成鳥瞰図画像が記憶されている場合にはその
合成鳥瞰図画像)を回転させて、移動後鳥瞰図画像を作
成する。
In step 210, since the vehicle is in a rotating state, the image processing is performed according to the procedure described above. Specifically, the rotation center and the rotation angle of the vehicle are obtained from the steering wheel angle and the yaw rate. Continued Step 220
Then, the bird's-eye view image is rotated based on the equation (4) using the rotation center and the rotation angle obtained in step 210. That is, the bird's-eye view image stored in the image memory B (the composite bird's-eye view image when the previous combined bird's-eye view image is stored) is rotated to create the moved bird's-eye view image.

【0063】続くステップ280では、新たに撮影され
て画像メモリAに記憶された(時刻T+1における)第
2鳥瞰図画像を、画像メモリAから読み、その第2鳥瞰
図画像と移動後鳥瞰図画像とを合成して合成鳥瞰図画像
を作成する。具体的には、新たな(第2鳥瞰図画像に対
応する)カメラ視野の外に、今回の車両の移動によりカ
メラ視野外となった部分、即ち、移動後鳥瞰図画像の一
部(詳しくは第2鳥瞰図画像と重なる部分は除いたも
の)を書き込むようにして、合成鳥瞰図画像を作成す
る。
In the following step 280, the second bird's-eye view image (at time T + 1) newly captured and stored in the image memory A is read from the image memory A, and the second bird's-eye view image and the moved bird's-eye view image are combined. Then, a composite bird's-eye view image is created. Specifically, a part outside the new camera view (corresponding to the second bird's-eye view image) outside the camera view due to the movement of the vehicle this time, that is, a part of the moved bird's-eye view image (see the second view in detail). A composite bird's-eye view image is created by writing (excluding the portion overlapping the bird's-eye view image).

【0064】続くステップ290では、合成鳥瞰図画像
を、画像メモリBに記憶する。続くステップ300で
は、車両を示す画像や視野角を示す画像などを加味し
て、画像メモリBに記憶した合成鳥瞰図画像をモニタ3
に表示し(図8(b)参照)、一旦本処理を終了する。
In the following step 290, the composite bird's-eye view image is stored in the image memory B. In the following step 300, the combined bird's-eye view image stored in the image memory B is added to the monitor 3 in consideration of the image showing the vehicle, the image showing the viewing angle, and the like.
Is displayed (see FIG. 8B), and this processing is once terminated.

【0065】一方、前記ステップ200にて肯定判断さ
れて進むステップ230では、車両が直進状態であるの
で、超音波センサ8からの信号に基づいて、障害物との
距離が1.5m以下であるかを判定する。ここで否定判
断されるとステップ240に進み、一方肯定判断される
とステップ250に進む。
On the other hand, in step 230 where the affirmative determination is made in step 200, the vehicle is in a straight traveling state, so the distance from the obstacle is 1.5 m or less based on the signal from the ultrasonic sensor 8. To determine. If a negative decision is made here, the routine proceeds to step 240, while if an affirmative decision is made, the routine proceeds to step 250.

【0066】ステップ240では、車両後方には近くに
障害物が無いので、画像メモリAと画像メモリBとの画
像データから動きベクトルを求める処理を行う。続くス
テップ260では、動きベクトルの大きさから、画像
(前回の合成鳥瞰図画像)の移動量を求める。
At step 240, since there is no obstacle near the rear of the vehicle, the process of obtaining the motion vector from the image data of the image memory A and the image memory B is performed. In the following step 260, the amount of movement of the image (previous synthetic bird's-eye view image) is obtained from the size of the motion vector.

【0067】続くステップ270では、画像(前回の合
成鳥瞰図画像)を、前記移動量の分だけ平行移動させて
移動後鳥瞰図画像を作成し、前記ステップ280〜30
0の処理に進んで、モニタ3に新たな合成鳥瞰図画像を
表示し(図8(c)参照)、一旦本処理を終了する。
In the following step 270, the image (previous synthetic bird's-eye view image) is translated in parallel by the amount of movement to create a post-movement bird's-eye view image.
In step 0, a new synthetic bird's-eye view image is displayed on the monitor 3 (see FIG. 8C), and this process ends.

【0068】一方、前記ステップ230にて肯定判断さ
れて進むステップ250では、障害物との距離が1.5
m以下と近いので、即ち、車両後方の路面の鳥瞰図画像
から移動量を求めることができないので、超音波センサ
8による障害物の検出距離の変位量からの車両の移動量
を求める。
On the other hand, in step 250, when the affirmative decision is made in step 230, the distance to the obstacle is 1.5.
Since it is close to m or less, that is, the movement amount cannot be obtained from the bird's-eye view image of the road surface behind the vehicle, the movement amount of the vehicle is obtained from the displacement amount of the obstacle detection distance by the ultrasonic sensor 8.

【0069】続くステップ260では、車両の移動量は
画像(前回の合成鳥瞰図画像)の移動量と方向が反対と
して、画像の移動量を決定し、前記ステップ270〜3
00の処理に進んで、モニタ3に新たな合成鳥瞰図画像
を表示し、一旦本処理を終了する。
In the following step 260, the moving amount of the vehicle is determined to have the opposite direction to the moving amount of the image (previous synthetic bird's-eye view image), and the moving amount of the image is determined.
Then, the process proceeds to the process of 00, a new synthetic bird's-eye view image is displayed on the monitor 3, and this process is once terminated.

【0070】以後同様な処理を、新たにカメラ1で撮影
された画像が取り込まれる毎に実施する。つまり、順
次、合成鳥瞰図画像を作成して記憶するとともに、その
合成鳥瞰図画像を車両の移動に応じて移動させて移動後
鳥瞰図画像を作成し、その移動後鳥瞰図画像と新たな第
2鳥瞰図画像とを合成して新たな合成鳥瞰図画像として
モニタ3に表示する処理を繰り返してゆく。これによ
り、モニタ3には、図8に示す様な連続した画像が表示
される。
Thereafter, the same processing is carried out each time an image newly taken by the camera 1 is captured. That is, the synthetic bird's-eye view image is sequentially created and stored, and the synthetic bird's-eye view image is moved in accordance with the movement of the vehicle to create the moved bird's-eye view image, and the moved bird's-eye view image and the new second bird's-eye view image are stored. Is repeated and displayed on the monitor 3 as a new combined bird's-eye view image. As a result, a continuous image as shown in FIG. 8 is displayed on the monitor 3.

【0071】d)この様に、本実施例では、車両が所定
の速度以下の低速である場合(例えば10km/h)に
は、車速信号以外の他の車両信号(ハンドル角及びヨー
レイト)や、異なる撮影時間に対応する鳥瞰図画像間の
画像データに基づいて、車両の移動状態を推定して、移
動後鳥瞰図画像を作成するので、車速信号が得られない
車種や低速では車速信号が不正確になる車種の場合で
も、常に精度の高い合成鳥瞰図画像を作成して、モニタ
3に表示することができる。
D) As described above, in this embodiment, when the vehicle is at a low speed below a predetermined speed (for example, 10 km / h), other vehicle signals (steering wheel angle and yaw rate) other than the vehicle speed signal, The moving state of the vehicle is estimated based on the image data between the bird's-eye view images corresponding to different shooting times, and the bird's-eye view image after movement is created. Even in the case of the following vehicle types, it is possible to always create a highly accurate synthetic bird's-eye view image and display it on the monitor 3.

【0072】また、本実施例では、例えば後方に他の車
両等があり路面の画像を撮影できない場合(従って路面
の画像から移動状態が分からない場合)には、超音波セ
ンサ8により検出した障害物との距離の変化を車両の移
動距離とみなして、この移動距離に基づいて、移動後鳥
瞰図画像を作成することができる。よって、その様な場
合でも、正確な合成鳥瞰図画像をモニタ3に表示するこ
とができる。
Further, in the present embodiment, for example, when there is another vehicle or the like behind and it is not possible to take an image of the road surface (hence, the moving state cannot be known from the image of the road surface), the obstacle detected by the ultrasonic sensor 8 is detected. By considering the change in the distance to the object as the moving distance of the vehicle, the post-moving bird's-eye view image can be created based on this moving distance. Therefore, even in such a case, an accurate combined bird's-eye view image can be displayed on the monitor 3.

【0073】更に、本実施例では、合成鳥瞰図画像等を
作成する画像処理の開始のタイミングを、停車の可能性
のある様な低速になった場合(例えば10km/h)と
しているので、例えばバックで駐車を開始する様な場合
には、それ以前の時点における車両の周囲の画像をも表
示することができ、駐車の操作の際に非常に便利であ
る。
Furthermore, in the present embodiment, the timing of the start of the image processing for creating the composite bird's-eye view image and the like is set to a low speed (for example, 10 km / h) where there is a possibility that the vehicle will stop. When parking is started with, the image of the surroundings of the vehicle at a time before that can be displayed, which is very convenient for parking operation.

【0074】尚、本発明は前記実施例になんら限定され
るものではなく、本発明を逸脱しない範囲において種々
の態様で実施しうることはいうまでもない。 (1)例えば前記実施例では、車両周辺画像処理装置に
ついて述べたが、この装置による処理を実行させる手段
を記憶している記録媒体も、本発明の範囲である。
It is needless to say that the present invention is not limited to the above-mentioned embodiments and can be carried out in various modes without departing from the present invention. (1) For example, the vehicle peripheral image processing apparatus has been described in the above embodiments, but a recording medium storing means for executing processing by this apparatus is also within the scope of the present invention.

【0075】(2)例えば記録媒体としては、マイクロ
コンピュータとして構成される電子制御装置、マイクロ
チップ、フロッピィディスク、ハードディスク、光ディ
スク等の各種の記録媒体が挙げられる。つまり、上述し
た車両周辺画像処理装置の処理を実行させることができ
る例えばプログラム等の手段を記憶したものであれば、
特に限定はない。
(2) Examples of the recording medium include various recording media such as an electronic control unit configured as a microcomputer, a microchip, a floppy disk, a hard disk, and an optical disk. That is, as long as it stores a means such as a program that can execute the processing of the vehicle peripheral image processing device described above,
There is no particular limitation.

【図面の簡単な説明】[Brief description of drawings]

【図1】 実施例の車両周辺画像処理装置の主要構成を
示す説明図である。
FIG. 1 is an explanatory diagram illustrating a main configuration of a vehicle peripheral image processing device according to an embodiment.

【図2】 実施例の車両周辺画像処理装置の電気的構成
を示す説明図である。
FIG. 2 is an explanatory diagram showing an electrical configuration of a vehicle peripheral image processing device of the embodiment.

【図3】 実施例の車両周辺画像処理装置により用いら
れる画像を示し、(a)はカメラにより撮影された画像
の説明図、(b)は鳥瞰図画像を示す説明図である。
3A and 3B show images used by the vehicle peripheral image processing apparatus of the embodiment, FIG. 3A is an explanatory view of an image captured by a camera, and FIG. 3B is an explanatory view showing a bird's-eye view image.

【図4】 実施例の車両周辺画像処理装置による座標変
換の際の位置関係を示す説明図である。
FIG. 4 is an explanatory diagram showing a positional relationship at the time of coordinate conversion by the vehicle peripheral image processing device of the embodiment.

【図5】 実施例の車両周辺画像処理装置による車両の
回転時の移動量を求めるための手法を示す説明図であ
る。
FIG. 5 is an explanatory diagram showing a method for obtaining a movement amount of the vehicle during rotation by the vehicle periphery image processing apparatus according to the embodiment.

【図6】 実施例の車両周辺画像処理装置による車両の
直進時の移動量を求めるための手法を示す説明図であ
る。
FIG. 6 is an explanatory diagram showing a method for obtaining a movement amount of a vehicle when the vehicle is traveling straight ahead by the vehicle periphery image processing apparatus according to the embodiment.

【図7】 実施例の車両周辺画像処理装置の処理を示す
フローチャートである。
FIG. 7 is a flowchart showing the processing of the vehicle peripheral image processing device of the embodiment.

【図8】 実施例の車両周辺画像処理装置により表示さ
れるモニタ画像を示
FIG. 8 shows a monitor image displayed by the vehicle periphery image processing apparatus according to the embodiment.

【符号の説明】[Explanation of symbols]

1…カメラ 3…車載モニタ(モニタ) 5…車速センサ 6…ハンドル角センサ 7…ヨーレイトセンサ 8…超音波センサ 9…画像処理ユニット 1 ... Camera 3 ... In-vehicle monitor (monitor) 5 ... Vehicle speed sensor 6 ... Handle angle sensor 7 ... Yaw rate sensor 8 ... Ultrasonic sensor 9 ... Image processing unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 柳川 博彦 愛知県刈谷市昭和町1丁目1番地 株式会 社デンソー内 Fターム(参考) 3D020 BA05 BC03 BE03 5C054 FD01 FE12 FE19 GA01 GA02 GA04 GB01 GB15 HA30    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Hirohiko Yanagawa             1-1, Showa-cho, Kariya city, Aichi stock market             Inside the company DENSO F-term (reference) 3D020 BA05 BC03 BE03                 5C054 FD01 FE12 FE19 GA01 GA02                       GA04 GB01 GB15 HA30

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 車両周辺の画像を撮影する撮影手段と、
画像を表示する表示手段とを備えた車両に対して、前記
撮影手段により撮影された画像を処理して前記表示手段
に表示する車両周辺画像処理装置において、 前記撮影手段により撮影された画像に基づいて作成され
た第1鳥瞰図画像を記憶する鳥瞰図画像記憶手段と、 前記第1鳥瞰図画像を、前記車両の移動状態に応じて移
動させて、移動後鳥瞰図画像を作成する移動後鳥瞰図画
像作成手段と、 前記第1鳥瞰図画像より後に撮影されて作成された第2
鳥瞰図画像と、前記移動後鳥瞰図画像とを合成して、合
成鳥瞰図画像を作成する合成鳥瞰図画像作成手段と、 を備えるとともに、 前記車両が所定の速度以下の低速である場合には、車速
信号以外の他の車両信号又は異なる撮影時間に対応する
鳥瞰図画像間の画像データに基づいて、前記車両の移動
状態を推定して、前記移動後鳥瞰図画像を作成すること
を特徴とする車両周辺画像処理装置。
1. A photographing means for photographing an image of a periphery of a vehicle,
A vehicle peripheral image processing device for processing an image captured by the image capturing unit and displaying the image on the display unit for a vehicle including a display unit displaying an image, based on the image captured by the image capturing unit. A bird's-eye view image storage unit for storing the first bird's-eye view image created by the above; and a moved bird's-eye view image creation unit for moving the first bird's-eye view image according to the moving state of the vehicle to create a moved bird's-eye view image. , A second image created after the first bird's-eye view image
A bird's-eye view image and a post-moving bird's-eye view image are combined to create a combined bird's-eye view image, and a combined bird's-eye view image creating unit is provided, and when the vehicle is at a low speed equal to or lower than a predetermined speed, other than a vehicle speed signal. A vehicle periphery image processing apparatus, which estimates the moving state of the vehicle based on another vehicle signal or image data between bird's-eye view images corresponding to different photographing times to create the moved bird's-eye view image. .
【請求項2】 前記車両が直線状態か回転状態かを判定
して、前記車両の移動状態を推定することを特徴とする
前記請求項1に記載の車両周辺画像処理装置。
2. The vehicle peripheral image processing apparatus according to claim 1, wherein the moving state of the vehicle is estimated by determining whether the vehicle is in a straight state or a rotating state.
【請求項3】 前記車両が直進状態であると判定された
場合には、異なる撮影時間に対応する鳥瞰図画像間の画
像データに基づいて、前記車両の移動状態を推定して、
前記移動後鳥瞰図画像を作成することを特徴とする前記
請求項1又は2に記載の車両周辺画像処理装置。
3. When it is determined that the vehicle is in a straight traveling state, the moving state of the vehicle is estimated based on image data between bird's-eye view images corresponding to different photographing times,
The vehicle peripheral image processing device according to claim 1 or 2, wherein the post-movement bird's-eye view image is created.
【請求項4】 前記車両が直進状態であると判定された
場合には、異なる時間における当該車両と周囲の物体と
の距離のデータから、前記車両の移動状態を推定して、
前記移動後鳥瞰図画像を作成することを特徴とする前記
請求項1又は2に記載の車両周辺画像処理装置。
4. When it is determined that the vehicle is in a straight traveling state, a moving state of the vehicle is estimated from data of distances between the vehicle and surrounding objects at different times,
The vehicle peripheral image processing device according to claim 1 or 2, wherein the post-movement bird's-eye view image is created.
【請求項5】 前記車両が回転状態であると判定された
場合には、ハンドル角及びヨーレイトに基づいて、前記
車両の移動状態を推定して、前記移動後鳥瞰図画像を作
成することを特徴とする前記請求項1又は2に記載の車
両周辺画像処理装置。
5. When the vehicle is determined to be in a rotating state, the moving state of the vehicle is estimated based on the steering wheel angle and the yaw rate, and the post-moving bird's-eye view image is created. The vehicle peripheral image processing device according to claim 1 or 2, wherein
【請求項6】 車両周辺の画像を撮影する撮影手段と、
画像を表示する表示手段とを備えた車両に対して、前記
撮影手段により撮影された画像を処理して前記表示手段
に表示する車両周辺画像処理装置において、 前記撮影手段により撮影された画像に基づいて作成され
た第1鳥瞰図画像を記憶する鳥瞰図画像記憶手段と、 前記第1鳥瞰図画像を、前記車両の移動状態に応じて移
動させて、移動後鳥瞰図画像を作成する移動後鳥瞰図画
像作成手段と、 前記第1鳥瞰図画像より後に撮影されて作成された第2
鳥瞰図画像と、前記移動後鳥瞰図画像とを合成して、合
成鳥瞰図画像を作成する合成鳥瞰図画像作成手段と、 を備えるとともに、 異なる撮影時間に対応する鳥瞰図画像間の画像データに
基づいて、前記車両の移動状態を推定することが困難な
場合には、前記車両と周囲の物体との距離を検出する距
離検出手段による信号に基づいて、前記車両の移動状態
を推定して、前記移動後鳥瞰図画像を作成することを特
徴とする車両周辺画像処理装置。
6. A photographing means for photographing an image around the vehicle,
A vehicle peripheral image processing device for processing an image captured by the image capturing unit and displaying the image on the display unit for a vehicle including a display unit displaying an image, based on the image captured by the image capturing unit. A bird's-eye view image storage unit for storing the first bird's-eye view image created by the above; and a moved bird's-eye view image creation unit for moving the first bird's-eye view image according to the moving state of the vehicle to create a moved bird's-eye view image. , A second image created after the first bird's-eye view image
The bird's-eye view image and the moved bird's-eye view image are combined to create a composite bird's-eye view image creating means, and the vehicle is based on image data between the bird's-eye view images corresponding to different shooting times. When it is difficult to estimate the moving state of the vehicle, the moving state of the vehicle is estimated based on a signal from a distance detecting unit that detects the distance between the vehicle and an object around the moving bird's-eye view image. An image processing apparatus for a vehicle periphery, which is characterized in that:
【請求項7】 前記車両と周囲の物体との距離を、超音
波センサにより検出することを特徴とする前記請求項4
又は6に記載の車両周辺画像処理装置。
7. The ultrasonic sensor detects a distance between the vehicle and a surrounding object.
Alternatively, the vehicle peripheral image processing device according to Item 6.
【請求項8】 車両周辺の画像を撮影する撮影手段と、
画像を表示する表示手段とを備えた車両に対して、前記
撮影手段により撮影された画像を処理して前記表示手段
に表示する車両周辺画像処理装置において、 前記撮影手段によって撮影された画像に基づいて作成さ
れた第1鳥瞰図画像を記憶する鳥瞰図画像記憶手段と、 前記第1鳥瞰図画像を、前記車両の移動状態に応じて移
動させて、移動後鳥瞰図画像を作成する移動後鳥瞰図画
像作成手段と、 前記第1鳥瞰図画像より後に撮影されて作成された第2
鳥瞰図画像と、前記移動後鳥瞰図画像とを合成して、合
成鳥瞰図画像を作成する合成鳥瞰図画像作成手段と、 を備えるとともに、 前記車両が所定の速度以下の低速である場合には、少な
くとも前記鳥瞰図画像作成手段、移動後鳥瞰図画像作成
手段、及び合成鳥瞰図画像作成手段の処理を開始するこ
とを特徴とする車両周辺画像処理装置。
8. A photographing means for photographing an image around the vehicle,
In a vehicle peripheral image processing device for processing an image captured by the image capturing unit and displaying the image on the display unit for a vehicle including a display unit displaying an image, based on the image captured by the image capturing unit. A bird's-eye view image storage unit that stores the first bird's-eye view image created by the above; , A second image created after the first bird's-eye view image
A bird's-eye view image and a post-moving bird's-eye view image are combined to create a combined bird's-eye view image, and a composite bird's-eye view image creating unit is provided. A vehicle peripheral image processing device, characterized in that the processing of the image creating means, the moved bird's-eye view image creating means, and the combined bird's-eye view image creating means is started.
【請求項9】 前記第1鳥瞰図画像として、今回の合成
鳥瞰図画像より前に作成した合成鳥瞰図画像を用いるこ
とを特徴とする前記請求項1〜8のいずれかに記載の車
両周辺画像処理装置。
9. The vehicle peripheral image processing device according to claim 1, wherein a synthetic bird's-eye view image created before the current synthetic bird's-eye view image is used as the first bird's-eye view image.
【請求項10】 前記合成鳥瞰図画像は、前記第2鳥瞰
図画像を表示する表示領域以外に、前記移動後鳥瞰図画
像を加入した画像であることを特徴とする前記請求項1
〜9のいずれかに記載の車両周辺画像処理装置。
10. The composite bird's-eye view image is an image to which the post-movement bird's-eye view image is added, in addition to the display area for displaying the second bird's-eye view image.
10. The vehicle peripheral image processing device according to any one of 9 to 10.
【請求項11】 前記表示手段に前記合成鳥瞰図画像を
表示する場合には、自車両を示す画像を加えて表示する
ことを特徴とする前記請求項1〜10のいずれかに記載
の車両周辺画像処理装置。
11. The vehicle peripheral image according to claim 1, wherein when the composite bird's-eye view image is displayed on the display means, an image showing the own vehicle is additionally displayed. Processing equipment.
【請求項12】 前記請求項1〜11のいずれかに記載
の車両周辺画像処理装置による処理を実行させる手段を
記憶していることを特徴とする記録媒体。
12. A recording medium storing means for executing processing by the vehicle peripheral image processing device according to claim 1.
JP2001342081A 2001-11-07 2001-11-07 Vehicle periphery image processing apparatus and recording medium Expired - Fee Related JP3850271B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001342081A JP3850271B2 (en) 2001-11-07 2001-11-07 Vehicle periphery image processing apparatus and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001342081A JP3850271B2 (en) 2001-11-07 2001-11-07 Vehicle periphery image processing apparatus and recording medium

Publications (2)

Publication Number Publication Date
JP2003143597A true JP2003143597A (en) 2003-05-16
JP3850271B2 JP3850271B2 (en) 2006-11-29

Family

ID=19156001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001342081A Expired - Fee Related JP3850271B2 (en) 2001-11-07 2001-11-07 Vehicle periphery image processing apparatus and recording medium

Country Status (1)

Country Link
JP (1) JP3850271B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006129021A (en) * 2004-10-28 2006-05-18 Denso Corp Parking support system
JP2006151370A (en) * 2004-10-28 2006-06-15 Denso Corp Vehicle peripheral view support system
JP2006268076A (en) * 2005-03-22 2006-10-05 Sanyo Electric Co Ltd Driving assistance system
US7272477B2 (en) 2005-11-04 2007-09-18 Denso Corporation Vehicle parking assisting system and method
US7545956B2 (en) 2005-08-12 2009-06-09 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006129021A (en) * 2004-10-28 2006-05-18 Denso Corp Parking support system
JP2006151370A (en) * 2004-10-28 2006-06-15 Denso Corp Vehicle peripheral view support system
JP4724522B2 (en) * 2004-10-28 2011-07-13 株式会社デンソー Vehicle periphery visibility support system
JP2006268076A (en) * 2005-03-22 2006-10-05 Sanyo Electric Co Ltd Driving assistance system
US7545956B2 (en) 2005-08-12 2009-06-09 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
US7272477B2 (en) 2005-11-04 2007-09-18 Denso Corporation Vehicle parking assisting system and method
DE102006051976B4 (en) * 2005-11-04 2013-09-05 Denso Corporation Vehicle parking assistance process

Also Published As

Publication number Publication date
JP3850271B2 (en) 2006-11-29

Similar Documents

Publication Publication Date Title
JP4156214B2 (en) Vehicle periphery image processing apparatus and recording medium
JP7461720B2 (en) Vehicle position determination method and vehicle position determination device
JP4863791B2 (en) Vehicle peripheral image generation apparatus and image switching method
JP3778849B2 (en) Vehicle periphery image processing apparatus and recording medium
JP4940168B2 (en) Parking space recognition device
US6539288B2 (en) Vehicle rendering device for generating image for drive assistance
TWI468647B (en) Obstacle detection system and obstacle detection method thereof
CN110176038B (en) Method, system and storage medium for calibrating camera of vehicle
EP3708466B1 (en) Parking assistance device and parking assistance method
CN102163331A (en) Image-assisting system using calibration method
CN109447901B (en) Panoramic imaging method and device
JP2009211624A (en) Driving support device, driving support method, and computer program
JP2007102798A (en) Vehicle circumference monitoring system
JP2004120661A (en) Moving object periphery monitoring apparatus
US8860810B2 (en) Method and device for extending a visibility area
JP3796417B2 (en) Vehicle peripheral image processing apparatus and recording medium
JP4071463B2 (en) Vehicle periphery image processing apparatus
JP2009071659A (en) Parking assistance system
JP3395393B2 (en) Vehicle periphery display device
JP3850271B2 (en) Vehicle periphery image processing apparatus and recording medium
JP3900415B2 (en) Vehicle peripheral image processing apparatus, program, and recording medium
CN113808013A (en) Method and device for generating aerial view point image
JP2006252577A (en) Map data generating apparatus
JP5518407B2 (en) Obstacle detection device for vehicle
JP3813085B2 (en) Vehicle periphery image processing apparatus and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060829

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3850271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100908

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100908

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110908

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110908

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120908

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120908

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130908

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees