JP2002087160A - Vehicular surrounding image processing device and recording medium - Google Patents

Vehicular surrounding image processing device and recording medium

Info

Publication number
JP2002087160A
JP2002087160A JP2000281907A JP2000281907A JP2002087160A JP 2002087160 A JP2002087160 A JP 2002087160A JP 2000281907 A JP2000281907 A JP 2000281907A JP 2000281907 A JP2000281907 A JP 2000281907A JP 2002087160 A JP2002087160 A JP 2002087160A
Authority
JP
Japan
Prior art keywords
image
bird
eye view
vehicle
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000281907A
Other languages
Japanese (ja)
Other versions
JP3521859B2 (en
Inventor
Hirohiko Yanagawa
博彦 柳川
Haruhiko Ogiso
治比古 小木曽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2000281907A priority Critical patent/JP3521859B2/en
Publication of JP2002087160A publication Critical patent/JP2002087160A/en
Application granted granted Critical
Publication of JP3521859B2 publication Critical patent/JP3521859B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicular surrounding image processing device and a recording medium capable of depicting by assuming a part out of a visual field of a camera. SOLUTION: In a step 100, a shift position is judged whether in back or not. In a step 110, a bird's-eye view image is produced by transforming the coordinate of a taken image. In a step 120, a coincident area is extracted of two successive images. In a step 140, before depicting, a part previously depicted on a screen B is shifted only by a moving area, thereby ensuring a depiction area. In a step 140, an image of the moving area is depicted in the depiction are ensured in a step 150. In a step 160, the depiction indicating own vehicle and visual field angle is conducted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば車両の後方
を撮影してモニタに表示できる車両周辺画像処理装置及
び記録媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle peripheral image processing apparatus and a recording medium capable of photographing the rear of a vehicle and displaying the photographed image on a monitor.

【0002】[0002]

【従来の技術】従来より、車両の後方の様子を表示する
装置として、車両の後部に取り付けたカメラの画像を、
そのままモニタに出力する表示装置が知られている。こ
の表示装置では、車両後方の状態が有る程度分かるが、
自車両とモニタに表示されている対象物(例えば駐車
枠)の画像の相対位置関係が分かりに難いという問題が
ある。
2. Description of the Related Art Conventionally, as a device for displaying a state behind a vehicle, an image of a camera attached to a rear portion of the vehicle has been used.
There is known a display device that directly outputs a signal to a monitor. In this display device, the state behind the vehicle can be known to a certain extent,
There is a problem that it is difficult to understand the relative positional relationship between the image of the subject vehicle (for example, a parking frame) displayed on the monitor and the host vehicle.

【0003】また、これとは別に、特願平1−2118
49号公報には、後方カメラで撮影した画像(後方カメ
ラ画像)を鳥瞰図に変換し、自車両をその中に表示する
という技術が提案されている。
[0003] Apart from this, Japanese Patent Application No. Hei 1-2118
No. 49 proposes a technique in which an image captured by a rear camera (rear camera image) is converted into a bird's-eye view, and the host vehicle is displayed therein.

【0004】[0004]

【発明が解決しようとする課題】この技術の場合には、
鳥瞰図の中に自車両を示すので、画像に表示された対象
物と自車両の位置関係は、撮影した画像をそのままモニ
タに表示するものより分かり易くなっているが、カメラ
の現在の視野の外にあるものは表示できないという別の
問題があった。
In the case of this technique,
Since the own vehicle is shown in the bird's-eye view, the positional relationship between the target object displayed in the image and the own vehicle is easier to understand than displaying the captured image as it is on the monitor. There was another problem that some of the items could not be displayed.

【0005】よって、例えば車両を後退させて駐車枠に
入れるような場合には、カメラの視野外に出た駐車枠を
表示できないので、依然として、車両を駐車枠に入れる
操作が容易ではないという問題があった。本発明は、前
記課題を解決するためになされたものであり、例えばカ
メラの視野の外に出た部分を推定して描画することがで
きる車両周辺画像処理装置及び記録媒体を提供すること
を目的とする。
[0005] Therefore, for example, when the vehicle is moved backward into the parking frame, the parking frame that is out of the field of view of the camera cannot be displayed, so that the operation of inserting the vehicle into the parking frame is still not easy. was there. The present invention has been made to solve the above problems, and has as its object to provide, for example, a vehicle peripheral image processing apparatus and a recording medium that can estimate and draw a part that is out of the field of view of a camera. And

【0006】[0006]

【課題を解決するための手段及び発明の効果】(1)請
求項1の発明は、車両周辺の画像を撮影する撮影手段
(例えばカメラ)と、画像を表示する表示手段(例えば
モニタ)とを備えた車両に対して、撮影手段により撮影
された画像を処理して表示手段に表示する車両周辺画像
処理装置に関するものである。
Means for Solving the Problems and Effects of the Invention (1) According to the first aspect of the present invention, a photographing means (for example, a camera) for photographing an image around the vehicle and a display means (for example, a monitor) for displaying the image are provided. The present invention relates to a vehicle peripheral image processing apparatus that processes an image photographed by photographing means for a vehicle provided and displays the processed image on a display means.

【0007】本発明では、撮影手段により撮影した画像
を、撮影手段を視点として投影した地上面座標系のデー
タに変換して鳥瞰図画像を生成する。これにより、画像
は、例えばカメラで撮影したままの歪んだ画像ではな
く、地面の上方より見たような見やすい鳥瞰図画像とな
る。次に、この様にして生成した第1鳥瞰図画像と、そ
れより後に生成した第2鳥瞰図画像とを比較し、その一
致領域と不一致領域とを判別する。そして、この判別に
より得られた不一致領域を、第2鳥瞰図画像に加味して
合成画像を作成し、この合成画像を、表示手段に表示で
きるように処理して、表示手段に表示する。
In the present invention, a bird's-eye view image is generated by converting an image photographed by the photographing means into data of a ground plane coordinate system projected from the photographing means as a viewpoint. Thus, the image is not a distorted image captured by a camera, for example, but an easy-to-view bird's-eye view image as viewed from above the ground. Next, the first bird's-eye view image generated in this manner is compared with a second bird's-eye view image generated after the first bird's-eye view image, and a matching area and a non-matching area are determined. Then, a non-coincidence area obtained by this determination is added to the second bird's-eye view image to create a composite image, the composite image is processed so as to be displayed on the display unit, and displayed on the display unit.

【0008】つまり、車両が移動するにつれて、例えば
カメラの視野が変化するので、当然、(撮影した時間が
異なる)第1鳥瞰図画像と第2鳥瞰図画像では、画像の
ずれである不一致領域(第1鳥瞰図画像では表示されて
いるが、第2鳥瞰図画像では消えている部分)が生ず
る。
That is, as the vehicle moves, for example, the field of view of the camera changes. Therefore, the first bird's-eye view image and the second bird's-eye view image (during different photographing times) naturally have a mismatched area (first A portion which is displayed in the bird's-eye view image but disappears in the second bird's-eye view image) occurs.

【0009】そこで、本発明では、第1鳥瞰図画像と第
2鳥瞰図画像の画像のずれを検出し、第2鳥瞰図画像に
そのずれの部分(過去に表示されていた部分)の画像を
加味することにより、車両の周囲の状況をより明確に把
握することができる。この様に、本発明では、例えばカ
メラの現在の視野から外れた領域を表示できるので、例
えばバックで駐車する場合に、その操作が極めて容易に
なるという効果を奏する。
Therefore, in the present invention, a shift between the image of the first bird's-eye view image and the image of the second bird's-eye view image is detected, and the image of the shifted portion (the portion displayed in the past) is added to the second bird's-eye view image. Thereby, the situation around the vehicle can be grasped more clearly. As described above, according to the present invention, for example, an area that is out of the current field of view of the camera can be displayed, so that, for example, when parking in the back, the operation is extremely easy.

【0010】(2)請求項2の発明では、撮影手段によ
り撮影される画像は、例えば車両後部配置されたカメラ
により撮影された車両の後方の画像である。従って、例
えば車両をバックで駐車枠に入れる場合には、駐車枠と
車両との位置関係がよく分かるので、容易に駐車ができ
るという効果がある。
(2) According to the second aspect of the invention, the image photographed by the photographing means is, for example, an image behind the vehicle photographed by a camera arranged at the rear of the vehicle. Therefore, for example, when the vehicle is put in the parking frame in the back, the positional relationship between the parking frame and the vehicle can be easily understood, so that there is an effect that parking can be easily performed.

【0011】また、撮影手段により、車両の側方も撮影
できる場合には、バックで幅寄せする際に、側方の状況
がよく分かるので、容易に幅寄せを行うことができる。
更に、撮影手段により撮影される画像としては、車両の
後方以外に、車両の前方が挙げられる。この場合、車両
の側方も撮影できる場合には、前進で幅寄せする際に、
側方の状況がよく分かるので、容易に幅寄せを行うこと
ができる。
When the side of the vehicle can be photographed by the photographing means, the side can be easily understood because the situation of the side can be easily understood when the side is moved by the back.
Further, the image photographed by the photographing means includes, in addition to the rear of the vehicle, the front of the vehicle. In this case, if the side of the vehicle can be photographed,
Since the situation on the side can be understood well, the width can be easily adjusted.

【0012】(3)請求項3の発明では、鳥瞰図画像生
成手段は、車線(例えば駐車枠)を示す画像を抽出して
鳥瞰図画像を生成する。つまり、鳥瞰図画像を生成する
場合には、撮影した画像全体を鳥瞰図画像に変換しても
よいが、(例えば白線で示される)車線だけを例えば2
値化処理することにより抽出して表示してもよい。この
場合には、車線だけを処理すれば良いので、画像処理の
負担が軽減されるという効果がある。
(3) According to the third aspect of the invention, the bird's-eye view image generating means extracts an image indicating a lane (for example, a parking frame) to generate a bird's-eye view image. That is, when generating a bird's-eye view image, the entire captured image may be converted to a bird's-eye view image, but only the lanes (for example, indicated by white lines)
It may be extracted and displayed by performing a value conversion process. In this case, since only the lane needs to be processed, the load of image processing is reduced.

【0013】また、例えば車両を車線で囲まれた駐車枠
に入れる場合には、駐車枠の位置だけを認識できればよ
く、他の画像があるとかえって見づらいという点もある
ので、車線だけを抽出した方が、車両の操作が容易にな
るという利点がある。 (4)請求項4の発明では、第1鳥瞰図画像と第2鳥瞰
図画像とは、時間的に連続した鳥瞰図画像である。
For example, when a vehicle is put in a parking frame surrounded by lanes, only the position of the parking frame needs to be recognized, and it is difficult to see if there is another image. Therefore, only the lanes are extracted. There is an advantage that the operation of the vehicle is easier. (4) In the invention of claim 4, the first bird's-eye view image and the second bird's-eye view image are temporally continuous bird's-eye view images.

【0014】この場合、第1鳥瞰図画像と第2鳥瞰図画
像との画像のずれは僅かであるので、一致領域及び不一
致領域の検出が容易である。また、第2鳥瞰図画像に不
一致領域を加味する場合でも、画像間のつながりに違和
感がなく好適である。 (5)請求項5の発明では、表示処理手段は、合成画像
の画像データを、表示手段に表示するための座標変換を
行う。
In this case, since the difference between the image of the first bird's-eye view image and the image of the second bird's-eye view image is slight, it is easy to detect the coincident area and the non-coincidence area. Further, even when a non-coincidence area is added to the second bird's-eye view image, the connection between the images is preferable because there is no sense of incongruity. (5) According to the fifth aspect of the invention, the display processing means performs coordinate transformation for displaying the image data of the composite image on the display means.

【0015】つまり、鳥瞰図画像を例えばモニタに表示
するためには、そのサイズの調節などが必要であるの
で、モニタに好適に表示できる様に必要な処理を行う。 (6)請求項6の発明では、表示手段に合成画像を表示
する場合には、自車両を示す画像を加えて表示する。
That is, in order to display a bird's-eye view image on, for example, a monitor, it is necessary to adjust the size of the image. Therefore, necessary processing is performed so that the image can be suitably displayed on the monitor. (6) According to the sixth aspect of the present invention, when displaying the composite image on the display means, an image indicating the own vehicle is additionally displayed.

【0016】本発明では、車両の周囲の状況を示す合成
画像に自車両を示す画像を加えて表示することにより、
自車両と例えば駐車枠との位置関係が明瞭となるので、
車両の操作が容易になる。尚、例えばカメラは車両の所
定位置に固定されているので、例えばモニタの画面にお
ける自車両の位置は常に一定である。従って、モニタの
画面の決まった位置に自車両を表示することができ、更
には、モニタの画面上に予めプリント等により車両を記
載してもよい。
According to the present invention, by displaying an image showing the own vehicle in addition to a composite image showing the situation around the vehicle,
Since the positional relationship between your vehicle and the parking frame, for example, becomes clear,
Operation of the vehicle becomes easy. Since the camera is fixed at a predetermined position of the vehicle, for example, the position of the host vehicle on the screen of the monitor is always constant. Therefore, the host vehicle can be displayed at a fixed position on the monitor screen, and the vehicle may be described in advance by printing or the like on the monitor screen.

【0017】また、カメラの視野角も通常は一定である
ので、自車両だけでなく、モニタの画面に、カメラの視
野角(左右の範囲)も表示してもよい。 (7)請求項7の発明は、上述した車両周辺画像処理装
置による処理を実行させる手段を記憶している記録媒体
である。
Since the viewing angle of the camera is usually constant, the viewing angle (left and right ranges) of the camera may be displayed not only on the own vehicle but also on the monitor screen. (7) A recording medium according to a seventh aspect of the present invention is a recording medium storing means for executing the processing by the above-described vehicle peripheral image processing device.

【0018】つまり、上述した車両周辺画像処理装置の
処理を実行させることができる例えばプログラム等の手
段を記憶したものであれば、特に限定はない。例えば記
録媒体としては、マイクロコンピュータとして構成され
る電子制御装置、マイクロチップ、フロッピィディス
ク、ハードディスク、光ディスク等の各種の記録媒体が
挙げられる。
That is, there is no particular limitation as long as it stores means such as a program capable of executing the processing of the above-described vehicle peripheral image processing apparatus. For example, examples of the recording medium include various recording media such as an electronic control unit configured as a microcomputer, a microchip, a floppy disk, a hard disk, and an optical disk.

【0019】[0019]

【発明の実施の形態】以下に、本発明の車両周辺画像処
理装置及び記録媒体の実施の形態の例(実施例)を説明
する。 (実施例1) a)本実施例の基本的なシステム構成を図1及び図2を
用いて説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments (embodiments) of a vehicle peripheral image processing apparatus and a recording medium according to the present invention will be described. First Embodiment a) A basic system configuration of the present embodiment will be described with reference to FIGS.

【0020】図1に示す様に、本実施例の車両周辺画像
処理装置は、自動車の後部に配置されたカメラ(例えば
CCDカメラ)1と、ダッシュボードに配置された車載
モニタ(例えば液晶ディスプレイ)3と、画像処理を行
う画像処理ユニット5を備えている。
As shown in FIG. 1, a vehicle peripheral image processing apparatus according to this embodiment includes a camera (for example, a CCD camera) 1 disposed at the rear of an automobile and a vehicle-mounted monitor (for example, a liquid crystal display) disposed on a dashboard. 3 and an image processing unit 5 for performing image processing.

【0021】前記画像処理ユニット5は、図2に示す様
に、マイクロコンピュータを主要部とする画像データの
処理を行う電子装置であり、機能的に、カメラ1で撮影
した画像データの座標変換を行って鳥瞰図画像を生成す
る座標変換部11と、時間的に連続した2つの鳥瞰図画
像を取り込んでその比較を行うマッチング部13と、そ
の2つの鳥瞰図画像の不一致部分からカメラ1の視野か
ら外れた領域を推定する領域推定部15と、モニタ3に
表示する画像を描画する描画部17とを備えている。
The image processing unit 5 is, as shown in FIG. 2, an electronic device for processing image data mainly including a microcomputer. The image processing unit 5 functionally performs coordinate conversion of image data captured by the camera 1. And a matching unit 13 that takes in two temporally continuous bird's-eye view images and compares the two bird's-eye view images, and deviates from the field of view of the camera 1 from a mismatched portion between the two bird's-eye view images. An area estimating unit 15 for estimating an area and a drawing unit 17 for drawing an image to be displayed on the monitor 3 are provided.

【0022】尚、画像処理ユニット3は、カメラ1と一
体の構造となっていてもよい。 b)次に、本実施例における画像処理の手順等を、図3
〜図5に基づいて説明する。ここでは、車両を後退(バ
ック)させて駐車枠内に入れる場合を例に挙げる。
Incidentally, the image processing unit 3 may be integrated with the camera 1. b) Next, the image processing procedure and the like in the present embodiment will be described with reference to FIG.
This will be described with reference to FIG. Here, a case where the vehicle is moved backward (back) and put into the parking frame will be described as an example.

【0023】まず、カメラ1から出力される画像(出
力画像)を、図3(a)左図に示す。この画像は、車両
の後部の上部に配置されたカメラ1により、地上に描か
れた駐車枠及びその周囲を撮影した画像であるので、自
車両(従ってカメラ1)と駐車枠の各線の位置との距離
などに応じて、本来矩形である駐車枠が歪んで表示され
ている。
First, an image (output image) output from the camera 1 is shown in the left diagram of FIG. Since this image is an image of the parking frame drawn on the ground and its surroundings taken by the camera 1 arranged at the upper part of the rear part of the vehicle, the position of each line of the own vehicle (therefore, the camera 1) and the parking frame is determined. The originally rectangular parking frame is displayed distorted in accordance with the distance of the vehicle.

【0024】次に、図3(a)左図の画像を、後に
にて詳述する様に、座標変換して鳥瞰図画像を生成し、
更に、その鳥瞰図画像に、自車両の位置やカメラ1の視
野角の画像を加入して合成し、その合成画像を、図3
(b)右図に示す様に、モニタ5の画面に表示する。
Next, a bird's-eye view image is generated by performing coordinate transformation on the image shown on the left side of FIG.
Further, an image of the position of the own vehicle and the viewing angle of the camera 1 is added to the bird's-eye view image and synthesized, and the synthesized image is formed as shown in FIG.
(B) Display on the screen of the monitor 5 as shown in the right figure.

【0025】つまり、カメラ1の取り付け高さや、取り
付け角度、視野角は既知であるため、カメラ1の出力画
像を座標変換部11にて座標変換(周知の鳥瞰図変換)
し、図3(a)右図に示す様な鳥瞰図画像とする。 このカメラ1で撮影した画像を鳥瞰図画像に変換して
モニタ5に表示する処理は、以下に説明する様に、従来
技術(例えば特開平10−211849号公報)を利用
できる。
That is, since the mounting height, mounting angle, and viewing angle of the camera 1 are known, the output image of the camera 1 is subjected to coordinate conversion by the coordinate conversion unit 11 (known bird's-eye view conversion).
Then, a bird's-eye view image as shown in the right diagram of FIG. The process of converting the image captured by the camera 1 into a bird's-eye view image and displaying the image on the monitor 5 can use a conventional technique (for example, Japanese Patent Application Laid-Open No. H10-211849) as described below.

【0026】ここでは、通常の透視変換の逆の処理を行
うことにより、地上平面における画像(例えば駐車枠)
の位置を鳥瞰図として求める。具体的には、図4に示す
様に、地上の画像の位置データをカメラ位置Rからの焦
点距離fにあるスクリーン平面Tに投影するときの透視
変換を実行する。
Here, an image (for example, a parking frame) on the ground plane is obtained by performing the reverse process of the normal perspective transformation.
Is obtained as a bird's eye view. Specifically, as shown in FIG. 4, a perspective transformation is performed when projecting the position data of the ground image onto a screen plane T at a focal distance f from the camera position R.

【0027】詳しくは、カメラ1は、Z軸上の点R
(0,0,H)に位置し、見下ろし角τで地上面(xy
座標面)における画像をモニタしているとする。従っ
て、ここでは、下記式(1)に示す様にして、スクリー
ン平面T上の2次元座標(α、β)を、地上面上の座標
(鳥瞰図座標)に変換(逆の透視変換)できる。
More specifically, the camera 1 has a point R on the Z axis.
Located at (0,0, H), and looking down on the ground surface (xy
It is assumed that an image on the coordinate plane) is being monitored. Therefore, here, the two-dimensional coordinates (α, β) on the screen plane T can be converted into coordinates on the ground surface (bird's eye view coordinates) (reverse perspective transformation) as shown in the following equation (1).

【0028】[0028]

【数1】 (Equation 1)

【0029】つまり、上記式(1)を用いることによ
り、投影画像データを(鳥瞰図画像を示す)モニタ5の
画面に対応した画像データに変換してモニタ表示するこ
とができる。 次に、車両がバックして駐車枠に近づくと、図3
(b)左図及び図3(c)左図に示す様に、車両に近い
部分は、カメラ1の視野から徐々に外れてしまうが、こ
のとき、マッチング部13にて、時間的に連続した2つ
の鳥瞰図画像を取り込んで比較を行う。
That is, by using the above equation (1), the projection image data can be converted into image data corresponding to the screen of the monitor 5 (showing a bird's-eye view image) and displayed on the monitor. Next, when the vehicle comes back and approaches the parking frame, FIG.
(B) As shown in the left diagram and the left diagram in FIG. 3 (c), the portion close to the vehicle gradually deviates from the field of view of the camera 1, but at this time, the matching unit 13 continues in time. Two bird's-eye view images are captured and compared.

【0030】例えば図5(a)、図5(b)に連続した
(画像Aから画像Bに変化した)鳥瞰図画像を示すが、
後述する様にして、画像Aと画像Bのマッチングを取る
ことにより、2つの画像で完全に一致する領域(一致領
域)を抽出することができる。
For example, FIGS. 5A and 5B show continuous bird's-eye view images (changed from image A to image B).
As will be described later, by matching the image A and the image B, it is possible to extract an area (matching area) that completely matches the two images.

【0031】尚、画像Bは、画像Aより車両が駐車枠に
近づいている画像であるので、駐車枠の一部がカットさ
れている。よって、領域推定部15では、画像が一致し
ない領域(不一致領域)のうち、カメラ1側のV字状の
領域を、車両の移動により画像が移動した領域(移動領
域)であると推定する。
Since the image B is an image in which the vehicle is closer to the parking frame than the image A, a part of the parking frame is cut. Therefore, the region estimating unit 15 estimates the V-shaped region on the camera 1 side among the regions where the images do not match (mismatch region) as the region where the image has moved due to the movement of the vehicle (moving region).

【0032】そして、画像Bに、画像Aのうちの移動領
域を合成することにより、図5(c)に示す様に、カメ
ラ1の視野外の車両枠(合成領域)をも表示した合成画
像を作成することができる。ここで、画像Aと画像Bの
マッチングの手法を説明するが、画像処理における従来
の各種の手法を採用できる。
Then, by synthesizing the moving area of the image A with the image B, as shown in FIG. 5C, a synthesized image in which a vehicle frame (synthesized area) outside the field of view of the camera 1 is also displayed. Can be created. Here, a method of matching the image A and the image B will be described, but various conventional methods in image processing can be adopted.

【0033】例えば画像A、Bの所定の(マッチング用
の)領域を、図6に示す様に、複数の細かい領域(ピク
セル)に分割し、各画像A、Bのピクセルの一致する程
度が最も高いものを検出し、一致するピクセルの位置関
係から、画像Aと画像Bの位置関係(即ち画像Aがどれ
だけ移動したか)を求めることができる。
For example, a predetermined (matching) area of the images A and B is divided into a plurality of small areas (pixels) as shown in FIG. A tall object can be detected, and the positional relationship between the image A and the image B (that is, how much the image A has moved) can be obtained from the positional relationship between the matching pixels.

【0034】具体的には、図6に示す様に、各ピクセル
における例えば図形の明るさ(色彩でもよい)の程度を
数字で示す場合を考えると、ここでは、画像Aの下3列
のピクセルの明るさと、画像Bの上3列のピクセルの明
るさとが一致する。従って、この場合には、画像Aは、
1列のピクセルの幅だけ図の上下方向に移動して、画像
Bと一致すると見なすことができる。この場合は、車両
が図の下方に移動したことにより、画像Bの図形が上方
に移動したように見える。
Specifically, as shown in FIG. 6, consider the case where the degree of brightness (or color) of a figure at each pixel is indicated by a number. And the brightness of the upper three rows of pixels of the image B match. Therefore, in this case, the image A is
It can be considered that it moves in the vertical direction of the figure by the width of one column of pixels and matches the image B. In this case, the figure of the image B appears to move upward due to the vehicle moving downward in the figure.

【0035】つまり、画像Aと画像Bとを比較する場合
には、両画像を細かい領域に区分し、その分割した細か
い領域のうち多くの領域で一致する場合(一致の程度が
高い場合)には、一致する部分が同じ画像であると見な
すものである。従って、画像Aと画像Bにおいて、一致
する部分がずれている場合には、画像が移動することに
よりずれたと見なすことができ、その移動量や移動方向
も求めることができる。
That is, when comparing the image A and the image B, the two images are divided into small regions, and when the two regions match each other in many regions (when the degree of coincidence is high). Indicates that the matching part is the same image. Therefore, if the coincident portion is shifted between the image A and the image B, it can be considered that the image is shifted due to the movement, and the movement amount and the movement direction can be obtained.

【0036】尚、同様に、左右方向及び斜め方向の移動
量も求めることができる。 次に、この合成画像をモニタ3に表示する場合には、
図3(b)右図及び図3(c)右図に示す様に、描画部
17により、上述した合成画像を描画するとともに、車
両の位置とカメラ1の視野角の画像も合成して描画す
る。
Similarly, the amount of movement in the left-right direction and the diagonal direction can be obtained. Next, when displaying this composite image on the monitor 3,
As shown in the right diagram of FIG. 3B and the right diagram of FIG. 3C, the drawing unit 17 draws the above-described composite image, and also combines and draws the image of the vehicle position and the viewing angle of the camera 1. I do.

【0037】この場合、カメラ1は車両に固定されて一
定であるので、モニタ3の画面の同じ位置(例えば表示
画面中央の上部)に表示すればよい。 c)次に、前記画像処理ユニット5等にて行われる処理
を、図7のフローチャートに基づいて説明する。
In this case, since the camera 1 is fixed to the vehicle and is fixed, it may be displayed at the same position on the screen of the monitor 3 (for example, at the upper center of the display screen). c) Next, the processing performed by the image processing unit 5 and the like will be described with reference to the flowchart of FIG.

【0038】図7に示す様に、まず、ステップ100に
て、シフト位置がバックであるか否かを判定する。ここ
で肯定判断されるとステップ110に進み、一方否定判
断されるとステップ170に進む。尚、シフト位置は、
シフト位置検出センサ(図示せず)からの信号や、他の
電子制御装置からの信号により検出することができる。
As shown in FIG. 7, first, at step 100, it is determined whether or not the shift position is the reverse position. If an affirmative determination is made here, the process proceeds to step 110, while if a negative determination is made, the process proceeds to step 170. The shift position is
It can be detected by a signal from a shift position detection sensor (not shown) or a signal from another electronic control unit.

【0039】ステップ170では、以前に描画したカメ
ラの視野外の領域の画像を消去し、即ち、現在のカメラ
の画像(鳥瞰図画像)のみを表示し、前記ステップ10
0に戻る。一方、ステップ110では、カメラ1で撮影
した画像の座標変換(前記鳥瞰図変換)を行って、鳥瞰
図画像を得る。
In step 170, the image of the area outside the field of view of the camera which was previously drawn is erased, that is, only the current camera image (bird's eye view image) is displayed.
Return to 0. On the other hand, in step 110, a coordinate conversion of the image captured by the camera 1 (the bird's-eye view conversion) is performed to obtain a bird's-eye view image.

【0040】続くステップ120では、連続した2つの
鳥瞰図画像の中で、一致する領域を抽出する。例えば図
5の画像Aと画像Bとから、一致する領域を抽出する。
続くステップ130では、現在のカメラ1の視野から外
れる移動領域を抽出する。
In the following step 120, a coincident region is extracted from two successive bird's-eye view images. For example, a matching area is extracted from the image A and the image B in FIG.
In the following step 130, a moving area that deviates from the current field of view of the camera 1 is extracted.

【0041】続くステップ140では、後に画面Aの移
動領域を画面Bのカメラ視野の外に描画するのである
が、描画する前に、既に画面Bに描画されている部分を
移動領域だけ(画面Bの下方に)ずらせることにより、
描画領域を確保する。続くステップ150では、例えば
図5(c)に示す様に、前記ステップ130にて確保し
た描画領域に移動領域の画像を描画する(合成画像を作
成する)。
In the following step 140, the moving area of the screen A is drawn later out of the field of view of the camera on the screen B, but before drawing, the part already drawn on the screen B is limited to only the moving area (screen B). Down)
Allocate a drawing area. In the subsequent step 150, as shown in FIG. 5C, for example, an image of the moving area is drawn in the drawing area secured in the step 130 (a composite image is created).

【0042】続くステップ160では、例えば図3
(c)右図に示す様に、自車両及び視野角を示すV字状
の線の描画を行い、一旦本処理を終了する。 d)この様に、本実施例では、カメラで撮影した画像を
鳥瞰図画像に変換するとともに、時間的に連続した鳥瞰
図画像の一致領域を抽出して、その両鳥瞰図画像のずれ
部分である移動領域を検出する。
In the following step 160, for example, FIG.
(C) As shown in the right figure, a V-shaped line indicating the host vehicle and the viewing angle is drawn, and the process is temporarily terminated. d) As described above, in the present embodiment, the image captured by the camera is converted into a bird's-eye view image, the coincidence region between the temporally continuous bird's-eye view images is extracted, and the moving region which is a shift portion between the bird's-eye view images is extracted. Is detected.

【0043】そして、現在の画像を示す鳥瞰図画像に移
動領域を合成して合成画像を作成するとともに、合成画
像をモニタ5の画面に表示する場合には、自車両及び視
野角の画像を加えている。つまり、本実施例では、車両
が移動する際にカメラ視野から外れた領域を推定し、合
成することによって、通常はカメラ視野外となる表示で
きない部分も含めて表示することができるので、自車両
と駐車枠との位置関係が明瞭に把握できる。そのため、
バックで駐車する操作などが、極めて容易になるという
顕著な効果を奏する。 (実施例2)次に、実施例2について説明するが、前記
実施例1と同様な箇所の説明は省略する。
When the moving area is combined with the bird's-eye view image showing the current image to create a combined image, and when the combined image is displayed on the screen of the monitor 5, the image of the own vehicle and the viewing angle are added. I have. That is, in the present embodiment, when the vehicle moves, the region outside the camera's field of view is estimated and synthesized, so that it is possible to display a part that cannot be displayed normally outside the camera's field of view. The positional relationship between the car and the parking frame can be clearly understood. for that reason,
There is a remarkable effect that the operation of parking at the back becomes extremely easy. (Embodiment 2) Next, Embodiment 2 will be described, but description of the same parts as in Embodiment 1 will be omitted.

【0044】本実施例は、駐車枠や車止めのみを抽出し
て描画し、その背景の画像は省略するものである。図8
のフローチャートに示す様に、まず、ステップ200に
て、シフト位置がバックであるか否かを判定する。ここ
で肯定判断されるとステップ210に進み、一方否定判
断されるとステップ280に進む。
In this embodiment, only the parking frame and the vehicle stop are extracted and drawn, and the background image is omitted. FIG.
As shown in the flowchart of FIG. 7, first, at step 200, it is determined whether or not the shift position is the reverse position. If the determination is affirmative, the process proceeds to step 210, while if the determination is negative, the process proceeds to step 280.

【0045】ステップ280では、以前に描画したカメ
ラの視野外の領域の画像を消去しする。一方、ステップ
210では、カメラで撮影した画像から、駐車枠及び車
止めの画像を、2値化処理により抽出する。
In step 280, the previously drawn image in the area outside the field of view of the camera is erased. On the other hand, in step 210, the image of the parking frame and the car stop is extracted from the image taken by the camera by binarization processing.

【0046】尚、ここでは、駐車枠及び車止めは、白色
で塗られており、アスファルトの黒色の地面から容易に
分離可能だとする。続くステップ220では、2値化処
理した画像を鳥瞰図変換して、駐車枠及び車止めの鳥瞰
図画像を生成する。ここでは、背景は、単一の色彩とす
る。
Here, it is assumed that the parking frame and the car stop are painted in white and can be easily separated from the black ground of asphalt. In the following step 220, the binarized image is converted into a bird's-eye view to generate a bird's-eye view image of a parking frame and a car stop. Here, the background is a single color.

【0047】続くステップ230では、連続した2つの
鳥瞰図画像の中で、一致する領域を抽出する。続くステ
ップ240では、現在のカメラ1の視野から外れる移動
領域を抽出する。
In the following step 230, a coincident area is extracted from two consecutive bird's-eye view images. In the following step 240, a moving area that is out of the current field of view of the camera 1 is extracted.

【0048】続くステップ250では、描画する前に、
既に画面Bに描画されている部分を移動領域だけ(画面
Bの下方に)ずらせることにより、描画領域を確保す
る。続くステップ260では、前記ステップ250にて
確保した描画領域に移動領域の画像を描画する(合成画
像を作成する)。
In the following step 250, before drawing,
By shifting the part already drawn on the screen B only by the moving area (below the screen B), a drawing area is secured. In the following step 260, an image of the moving area is drawn in the drawing area secured in step 250 (a composite image is created).

【0049】続くステップ270では、自車両及び視野
角を示すV字状の線の描画を行い、一旦本処理を終了す
る。本実施例においても、前記実施例1と同様な効果を
奏するが、特に本実施例では、撮影した画像全体を鳥瞰
図変換して表示するのではなく、自車両や視野角以外
に、例えば駐車枠や車止めのみの様に、運転に必要なも
ののみを表示するようにしている。
In the following step 270, a V-shaped line indicating the own vehicle and the viewing angle is drawn, and the present process is ended once. In this embodiment, the same effects as those of the first embodiment can be obtained. However, in this embodiment, in particular, the entire captured image is not converted into a bird's-eye view and displayed. Only those that are necessary for driving, such as a car or a car stop, are displayed.

【0050】これにより、画像処理の負担が軽減される
とともに、モニタ3における画像表示も見やすくなっ
て、車両の操作が容易になるという利点がある。尚、本
発明は前記実施例になんら限定されるものではなく、本
発明を逸脱しない範囲において種々の態様で実施しうる
ことはいうまでもない。
As a result, there is an advantage that the burden of the image processing is reduced, and the image display on the monitor 3 is easy to see, so that the operation of the vehicle is facilitated. It should be noted that the present invention is not limited to the above-described embodiment at all, and it goes without saying that the present invention can be implemented in various modes without departing from the present invention.

【0051】(1)例えば前記実施例1、2では、車両
周辺画像処理装置について述べたが、この装置による処
理を実行させる手段を記憶している記録媒体も、本発明
の範囲である。例えば記録媒体としては、マイクロコン
ピュータとして構成される電子制御装置、マイクロチッ
プ、フロッピィディスク、ハードディスク、光ディスク
等の各種の記録媒体が挙げられる。
(1) For example, in the first and second embodiments, the vehicle peripheral image processing apparatus has been described. However, a recording medium storing means for executing processing by this apparatus is also within the scope of the present invention. For example, examples of the recording medium include various recording media such as an electronic control unit configured as a microcomputer, a microchip, a floppy disk, a hard disk, and an optical disk.

【0052】つまり、上述した車両周辺画像処理装置の
処理を実行させることができる例えばプログラム等の手
段を記憶したものであれば、特に限定はない。 (2)また、前記実施例1において、駐車枠や車止めの
画像は、単に撮影した画像を座標変換して表示するだけ
ではなく、カメラで撮影した画像から、車両の操作の目
印になる駐車枠や車止めの画像を抽出し、その駐車枠や
車止めの色彩や色の濃淡等で強調した画像とすることが
望ましい。
That is, there is no particular limitation as long as it stores means such as a program which can execute the processing of the above-described vehicle peripheral image processing apparatus. (2) In the first embodiment, the image of the parking frame or the parking lot is not simply displayed by transforming the coordinates of the photographed image, but also the parking frame serving as a mark of the operation of the vehicle from the image photographed by the camera. It is desirable to extract an image of a car or a car stop and to enhance the image by the color or shade of the parking frame or the car stop.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 実施例1の車両周辺画像処理装置の主要構成
を示す説明図である。
FIG. 1 is an explanatory diagram illustrating a main configuration of a vehicle peripheral image processing device according to a first embodiment.

【図2】 実施例1の車両周辺画像処理装置の電気的構
成を示す説明図である。
FIG. 2 is an explanatory diagram illustrating an electrical configuration of the vehicle peripheral image processing apparatus according to the first embodiment.

【図3】 実施例1の車両周辺画像処理装置による処理
の手順を示す説明図である。
FIG. 3 is an explanatory diagram illustrating a procedure of a process performed by the vehicle peripheral image processing apparatus according to the first embodiment.

【図4】 実施例1の車両周辺画像処理装置による座標
変換の際の位置関係を示す説明図である。
FIG. 4 is an explanatory diagram showing a positional relationship at the time of coordinate conversion by the vehicle peripheral image processing device of the first embodiment.

【図5】 実施例1の車両周辺画像処理装置による処理
の手順を示す説明図である。
FIG. 5 is an explanatory diagram illustrating a procedure of a process performed by the vehicle peripheral image processing device according to the first embodiment;

【図6】 実施例1の車両周辺画像処理装置の画像の移
動量を求めるための手順を示す説明図である。
FIG. 6 is an explanatory diagram illustrating a procedure for obtaining an image movement amount of the vehicle peripheral image processing device according to the first embodiment;

【図7】 実施例1の車両周辺画像処理装置の処理を示
すフローチャートである。
FIG. 7 is a flowchart illustrating a process of the vehicle peripheral image processing device according to the first embodiment.

【図8】 実施例2の車両周辺画像処理装置の処理を示
すフローチャートである。
FIG. 8 is a flowchart illustrating a process performed by the vehicle peripheral image processing device according to the second embodiment.

【符号の説明】[Explanation of symbols]

1…カメラ 3…車載モニタ(モニタ) 5…画像処理ユニット 11…座標変換部 13…マッチング部 15…領域推定部 17…描画部 DESCRIPTION OF SYMBOLS 1 ... Camera 3 ... In-vehicle monitor (monitor) 5 ... Image processing unit 11 ... Coordinate conversion part 13 ... Matching part 15 ... Area estimation part 17 ... Drawing part

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 AA10 BA04 BA09 BA11 EA18 EA19 EA27 FA02 5B057 AA06 AA16 BA02 CA13 CB13 CD01 CE08 DA16 DC32  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B050 AA10 BA04 BA09 BA11 EA18 EA19 EA27 FA02 5B057 AA06 AA16 BA02 CA13 CB13 CD01 CE08 DA16 DC32

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 車両周辺の画像を撮影する撮影手段と、
画像を表示する表示手段とを備えた車両に対して、前記
撮影手段により撮影された画像を処理して前記表示手段
に表示する車両周辺画像処理装置において、 前記撮影手段により撮影した画像を、前記撮影手段を視
点として投影した地上面座標系のデータに変換して鳥瞰
図画像を生成する鳥瞰図画像生成手段と、 前記鳥瞰図画像生成手段により生成された第1鳥瞰図画
像と、それより後に撮影されて生成された第2鳥瞰図画
像とを比較して、その一致領域と不一致領域とを判別す
る領域判別手段と、 前記領域判別手段により判別された不一致領域を、前記
第2鳥瞰図画像に加味して合成画像を作成する合成画像
作成手段と、 前記合成画像を、前記表示手段に表示する表示処理手段
と、 を備えたことを特徴とする車両周辺画像処理装置。
A photographing means for photographing an image around a vehicle;
For a vehicle having a display unit for displaying an image, a vehicle peripheral image processing device that processes an image captured by the imaging unit and displays the processed image on the display unit, wherein the image captured by the imaging unit is A bird's-eye view image generating means for generating a bird's-eye view image by converting the data into data of a ground plane coordinate system projected with the photographing means as a viewpoint; a first bird's-eye view image generated by the bird's-eye view image generating means; Comparing the obtained second bird's-eye view image with the second bird's-eye view image, and comparing the non-coincidence area determined by the area discriminating means with the second bird's-eye view image. And a display processing means for displaying the composite image on the display means.
【請求項2】 前記撮影手段により撮影される画像は、
車両の後方の画像であることを特徴とする前記請求項1
に記載の車両周辺画像処理装置。
2. An image photographed by the photographing means,
2. The image according to claim 1, wherein the image is a rear image of the vehicle.
A vehicle peripheral image processing apparatus according to claim 1.
【請求項3】 前記鳥瞰図画像生成手段は、車線を示す
画像を抽出して鳥瞰図画像を生成することを特徴とする
前記請求項1又は2に記載の車両周辺画像処理装置。
3. The vehicle peripheral image processing device according to claim 1, wherein the bird's-eye view image generating means extracts a picture indicating a lane to generate a bird's-eye view image.
【請求項4】 前記第1鳥瞰図画像と第2鳥瞰図画像と
は、時間的に連続した鳥瞰図画像であることを特徴とす
る前記請求項1〜3のいずれかに記載の車両周辺画像処
理装置。
4. The vehicle peripheral image processing apparatus according to claim 1, wherein the first bird's-eye view image and the second bird's-eye view image are temporally continuous bird's-eye view images.
【請求項5】 前記表示処理手段は、前記合成画像の画
像データを、前記表示手段に表示するための座標変換を
行うことを特徴とする前記請求項1〜4のいずれかに記
載の車両周辺画像処理装置。
5. The vehicle periphery according to claim 1, wherein the display processing unit performs coordinate transformation for displaying the image data of the composite image on the display unit. Image processing device.
【請求項6】 前記表示手段に前記合成画像を表示する
場合には、自車両を示す画像を加えて表示することを特
徴とする前記請求項1〜5のいずれかに記載の車両周辺
画像処理装置。
6. The vehicle peripheral image processing according to claim 1, wherein when displaying the composite image on the display unit, an image indicating the own vehicle is added and displayed. apparatus.
【請求項7】 前記請求項1〜6のいずれかに記載の車
両周辺画像処理装置による処理を実行させる手段を記憶
していることを特徴とする記録媒体。
7. A recording medium storing means for executing processing by the vehicle peripheral image processing apparatus according to any one of claims 1 to 6.
JP2000281907A 2000-09-18 2000-09-18 Vehicle peripheral image processing device and recording medium Expired - Fee Related JP3521859B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000281907A JP3521859B2 (en) 2000-09-18 2000-09-18 Vehicle peripheral image processing device and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000281907A JP3521859B2 (en) 2000-09-18 2000-09-18 Vehicle peripheral image processing device and recording medium

Publications (2)

Publication Number Publication Date
JP2002087160A true JP2002087160A (en) 2002-03-26
JP3521859B2 JP3521859B2 (en) 2004-04-26

Family

ID=18766497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000281907A Expired - Fee Related JP3521859B2 (en) 2000-09-18 2000-09-18 Vehicle peripheral image processing device and recording medium

Country Status (1)

Country Link
JP (1) JP3521859B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006621A (en) * 2001-06-20 2003-01-10 Denso Corp Vehicle periphery image processor and recording medium
JP2004114976A (en) * 2002-09-30 2004-04-15 Aisin Seiki Co Ltd Moving body periphery monitoring device
JP2005142657A (en) * 2003-11-04 2005-06-02 Denso Corp Apparatus for controlling display of surrounding of vehicle
JP2006146760A (en) * 2004-11-24 2006-06-08 Aisin Seiki Co Ltd Image transformation method and image transformation system
EP1701306A1 (en) 2005-03-09 2006-09-13 Sanyo Electric Co., Ltd. Driving support system
JP2006268076A (en) * 2005-03-22 2006-10-05 Sanyo Electric Co Ltd Driving assistance system
WO2009057410A1 (en) * 2007-10-30 2009-05-07 Nec Corporation Road marking image processing device, road marking image processing method, and program
JP2010085186A (en) * 2008-09-30 2010-04-15 Aisin Seiki Co Ltd Calibration device for on-vehicle camera
KR100966288B1 (en) 2009-01-06 2010-06-28 주식회사 이미지넥스트 Around image generating method and apparatus
US8184160B2 (en) 2007-01-11 2012-05-22 Sanyo Electric Co., Ltd. Image processor, driving assistance system, and out-of-position detecting method
US8269848B2 (en) 2004-11-24 2012-09-18 Aisin Seiki Kabushiki Kaisha Camera calibration method and camera calibration device
US8446471B2 (en) 2009-12-31 2013-05-21 Industrial Technology Research Institute Method and system for generating surrounding seamless bird-view image with distance interface
KR20150123094A (en) * 2014-04-24 2015-11-03 현대모비스 주식회사 Operating method of around view system
JP2022145651A (en) * 2021-03-19 2022-10-04 株式会社デンソー System and method for assisting driver in maneuvering vehicle

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4637408B2 (en) * 2001-06-20 2011-02-23 株式会社デンソー Vehicle periphery image processing apparatus and recording medium
JP2003006621A (en) * 2001-06-20 2003-01-10 Denso Corp Vehicle periphery image processor and recording medium
JP2004114976A (en) * 2002-09-30 2004-04-15 Aisin Seiki Co Ltd Moving body periphery monitoring device
JP2005142657A (en) * 2003-11-04 2005-06-02 Denso Corp Apparatus for controlling display of surrounding of vehicle
JP4679816B2 (en) * 2003-11-04 2011-05-11 株式会社デンソー Vehicle periphery display control device
JP2006146760A (en) * 2004-11-24 2006-06-08 Aisin Seiki Co Ltd Image transformation method and image transformation system
US8269848B2 (en) 2004-11-24 2012-09-18 Aisin Seiki Kabushiki Kaisha Camera calibration method and camera calibration device
EP1701306A1 (en) 2005-03-09 2006-09-13 Sanyo Electric Co., Ltd. Driving support system
US7365653B2 (en) 2005-03-09 2008-04-29 Sanyo Electric Co., Ltd. Driving support system
JP2006268076A (en) * 2005-03-22 2006-10-05 Sanyo Electric Co Ltd Driving assistance system
US8184160B2 (en) 2007-01-11 2012-05-22 Sanyo Electric Co., Ltd. Image processor, driving assistance system, and out-of-position detecting method
WO2009057410A1 (en) * 2007-10-30 2009-05-07 Nec Corporation Road marking image processing device, road marking image processing method, and program
US8503728B2 (en) 2007-10-30 2013-08-06 Nec Corporation Road marking image processing device, road marking image processing method, and program
JP5206687B2 (en) * 2007-10-30 2013-06-12 日本電気株式会社 Road marking image processing apparatus, road marking image processing method and program
JP2010085186A (en) * 2008-09-30 2010-04-15 Aisin Seiki Co Ltd Calibration device for on-vehicle camera
US8928753B2 (en) 2009-01-06 2015-01-06 Imagenext Co., Ltd. Method and apparatus for generating a surrounding image
CN102271966A (en) * 2009-01-06 2011-12-07 株式会社伊美吉内柯斯特 Method and apparatus for generating a surrounding image
KR100966288B1 (en) 2009-01-06 2010-06-28 주식회사 이미지넥스트 Around image generating method and apparatus
WO2010079912A1 (en) * 2009-01-06 2010-07-15 주식회사 이미지넥스트 Method and apparatus for generating a surrounding image
US8446471B2 (en) 2009-12-31 2013-05-21 Industrial Technology Research Institute Method and system for generating surrounding seamless bird-view image with distance interface
KR20150123094A (en) * 2014-04-24 2015-11-03 현대모비스 주식회사 Operating method of around view system
KR102159353B1 (en) 2014-04-24 2020-09-23 현대모비스 주식회사 Operating method of around view system
JP2022145651A (en) * 2021-03-19 2022-10-04 株式会社デンソー System and method for assisting driver in maneuvering vehicle

Also Published As

Publication number Publication date
JP3521859B2 (en) 2004-04-26

Similar Documents

Publication Publication Date Title
KR100550299B1 (en) Peripheral image processor of vehicle and recording medium
US8233045B2 (en) Method and apparatus for distortion correction and image enhancing of a vehicle rear viewing system
US8947533B2 (en) Parameter determining device, parameter determining system, parameter determining method, and recording medium
JP2002359838A (en) Device for supporting driving
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
EP2414776B1 (en) Vehicle handling assistant apparatus
CN101808236A (en) Vehicle periphery displaying apparatus
JP3521859B2 (en) Vehicle peripheral image processing device and recording medium
JP2010136289A (en) Device and method for supporting drive
JP2009206747A (en) Ambient condition monitoring system for vehicle, and video display method
JP2006268076A (en) Driving assistance system
US10733464B2 (en) Method, system and device of obtaining 3D-information of objects
JP3301421B2 (en) Vehicle surrounding situation presentation device
US9849835B2 (en) Operating a head-up display of a vehicle and image determining system for the head-up display
JP2008085710A (en) Driving support system
JP4826355B2 (en) Vehicle surrounding display device
JP2005217883A (en) Method for detecting flat road area and obstacle by using stereo image
JP2010218058A (en) Device and method for supporting driving
JP3677458B2 (en) Vehicle peripheral image display device
JPH0948282A (en) Indirect visual confirmation device for vehicle
JP6855254B2 (en) Image processing device, image processing system, and image processing method
JP6274936B2 (en) Driving assistance device
JP2010148058A (en) Device and method for driving support
JP2009214790A (en) Apparatus and method for imaging, and apparatus and method for processing image
JP4810919B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040202

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110220

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140220

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees