JP2002034035A - Image converting method and on-vehicle circumference monitoring device - Google Patents

Image converting method and on-vehicle circumference monitoring device

Info

Publication number
JP2002034035A
JP2002034035A JP2000213883A JP2000213883A JP2002034035A JP 2002034035 A JP2002034035 A JP 2002034035A JP 2000213883 A JP2000213883 A JP 2000213883A JP 2000213883 A JP2000213883 A JP 2000213883A JP 2002034035 A JP2002034035 A JP 2002034035A
Authority
JP
Japan
Prior art keywords
image
vehicle
camera
data
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000213883A
Other languages
Japanese (ja)
Inventor
Hirotaka Iwano
博隆 岩野
Toru Oki
透 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2000213883A priority Critical patent/JP2002034035A/en
Publication of JP2002034035A publication Critical patent/JP2002034035A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an on-vehicle circumference monitoring device using an image converting method, by which a bird's-eye view which is free of sense of incongruity can be produced, even by means of a single-lens camera. SOLUTION: This on-vehicle circumference monitoring device produces bird' s-eye view, by converting an actual image taken with an actual camera 2 oriented to look an object from a certain direction into a virtual image taken with a virtual camera 3, oriented virtually to view the object from another direction and displays the view. The actual camera 2 is a digital animation camera 20, which is mounted on a vehicle 8 and photographs the circumference of the vehicle 8, and the vehicle 8 is provided with a speed detecting device 21 which detects the speed of its own vehicle 8, an image information processor 22 which produces the bird's-eye view by converting the actual image taken with the actual camera 2 into the virtual image taken with the virtual camera 3, and a display device 24 which displays bird's-eye view. The image information processor 22 produces the bird's-eye view, by computing height information contained in the actual image taken with the camera 2, based on the speed information obtained by means of the speed detecting device 21.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ある方向から撮影
対象物を見るように配設された実カメラによって撮影さ
れた実画像を別の方向から撮影対象物を見るように仮想
的に配設された仮想カメラによって撮影された仮想画像
に変換する画像変換方法及びこれを用いた車載周囲監視
装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention virtually arranges a real image photographed by a real camera arranged so as to look at a photographing object from one direction so as to look at the photographing object from another direction. The present invention relates to an image conversion method for converting an image into a virtual image captured by a virtual camera, and an in-vehicle surrounding monitoring apparatus using the method.

【0002】[0002]

【従来の技術】従来から、図1に示すように、ある方向
から撮影対象面1を見るように配設された実カメラ2に
よって撮影された実画像を別の方向から撮影対象面1を
見るように仮想的に配設された仮想カメラ3によって撮
影された仮想画像に変換する画像変換方法が知られてい
る。この画像変換方法は、例えば、車両の後部の死角領
域を撮像して、俯瞰図を作成する車載周囲監視装置に用
いられている。
2. Description of the Related Art Conventionally, as shown in FIG. 1, a real image taken by a real camera 2 arranged so as to look at a photographing target surface 1 from one direction is viewed from another direction. As described above, there is known an image conversion method of converting a virtual image taken by a virtual camera 3 arranged virtually. This image conversion method is used, for example, in an in-vehicle periphery monitoring device that captures a blind spot area at the rear of a vehicle and creates an overhead view.

【0003】[0003]

【発明が解決しようとする課題】この種の画像変換によ
る俯瞰図を作成する場合に、問題となるのは、画像変換
によってどの程度の歪みが生じるかということである。
When creating a bird's-eye view by this type of image conversion, the problem is how much distortion is caused by the image conversion.

【0004】そこで、まず、撮影対象面1を平面と考え
て、どの程度の歪みが生じるかを考察することにする。
[0004] First, assuming that the imaging target surface 1 is a flat surface, the degree of distortion will be considered.

【0005】図1において、実カメラ2の撮影光軸O1
と仮想カメラ3の撮影光軸O2とは撮影対象面(X−Y
平面)1の原点Oに一致し、撮影光軸O1と撮影光軸O
2とは撮影対象面1に直交するY−Z平面内に位置し、
撮影光軸O1とZ軸との為す俯角をθr、撮影光軸O2
とZ軸との為す俯角をθi、原点Oから実カメラ1の撮
影レンズ中心までの距離をRr、原点Oから仮想カメラ
3の撮影レンズ中心までの距離をRiとする。そして、
両カメラ2、3は原点Oに焦点を合わせて撮影している
ものとする。すなわち、原点Oが両カメラ2、3によっ
てピントぼけしないよう撮像されるものとする。また、
frは実カメラ2の焦点距離、fiは仮想カメラ3の焦点距
離である。
In FIG. 1, a photographing optical axis O1 of the real camera 2 is shown.
And the shooting optical axis O2 of the virtual camera 3 correspond to the shooting target plane (X-Y
Coincides with the origin O of the (plane) 1 and the imaging optical axis O1 and the imaging optical axis O
2 is located in a YZ plane orthogonal to the imaging target surface 1,
The depression angle between the photographing optical axis O1 and the Z axis is θr, and the photographing optical axis O2
Θi, the distance from the origin O to the center of the taking lens of the real camera 1 is Rr, and the distance from the origin O to the center of the taking lens of the virtual camera 3 is Ri. And
It is assumed that the two cameras 2 and 3 shoot images while focusing on the origin O. That is, it is assumed that the origin O is imaged by the cameras 2 and 3 so that the camera is not out of focus. Also,
fr is the focal length of the real camera 2, and fi is the focal length of the virtual camera 3.

【0006】実カメラ2によって撮影された実画像(Xr,
Yr)を、仮想カメラ3によって撮影された仮想画像(Xi,Y
i)に変換するのに以下の方法を用いる。
A real image (Xr,
Yr) is converted to a virtual image (Xi, Y
The following method is used to convert to i).

【0007】まず、実画像(Xr,Yr)をxy平面に射影し、
そのxy平面に射影された射影画像を仮想カメラ3で撮像
するとして(Xi,Yi)平面への写像を作成する。
First, the real image (Xr, Yr) is projected on the xy plane,
Assuming that the projected image projected on the xy plane is captured by the virtual camera 3, a mapping to the (Xi, Yi) plane is created.

【0008】これによって、撮像情報の中に三次元情報
を含まないとした場合の画像歪みの量を評価することが
できる。
Thus, the amount of image distortion when three-dimensional information is not included in the imaging information can be evaluated.

【0009】図1の条件のもとで、以下に記載する式を
得た。 x=Rr・Xr・sin(θr)/(-Yr・cos(θr)+frsin(θr)) (1) y=Rr・Yr/(-Yr・cos(θr)+frsin(θr)) Xi=fi・Rr・Xr・sin(θr)/(-Ri・Yr・cos(θr)+Rr・Yr・cos(θi)+fr・Ri・sin(θr))(2) Yi=fi・Rr・Yr・sin(θi)/(-Ri・Yr・cos(θi)+Rr・Yr・cos(θi)+fr・Ri・sin(θr)) 式(1)は、実カメラ2の実画像をxy平面に射影するとき
の変換式であり、式(2)はそれに基づいて仮想カメラ3
の仮想画像に変換する式である。
Under the conditions shown in FIG. 1, the following equation was obtained. x = Rr ・ Xr ・ sin (θr) / (-Yr ・ cos (θr) + frsin (θr)) (1) y = Rr ・ Yr / (-Yr ・ cos (θr) + frsin (θr)) Xi = fi ・ Rr ・ Xr ・ sin (θr) / (-Ri ・ Yr ・ cos (θr) + Rr ・ Yr ・ cos (θi) + fr ・ Ri ・ sin (θr)) (2) Yi = fi ・ Rr ・ Yr・ Sin (θi) / (− Ri ・ Yr ・ cos (θi) + Rr ・ Yr ・ cos (θi) + fr ・ Ri ・ sin (θr)) Equation (1) expresses the real image of the real camera 2 in the xy plane. Equation (2) is based on this, and the virtual camera 3
This is an expression for converting to a virtual image.

【0010】しかし、この式(2)そのままを用いると、
実カメラ2の実画像の画素分の個数しか仮想カメラ3の
仮想画像へ変換されないので、画像変換において面積が
拡大される領域では隙間ができる。そこで、式(2)の逆
変換を行って式(3)を導き、仮想カメラ3の画素を実カ
メラ2の実画像内に対応させることによって、隙間のな
い画像を得ることにする。 Xr=fr・Ri・Xi・sin(θi)/(Ri・Yi・cos(θr)-Rr・Yi・cos(θi)+fi・Rr・sin(θi)) (3) Yr=fr・Ri・Yi・sin(θr)/(Ri・Yi・cos(θr)-Rr・Yi・cos(θi)+fi・Rr・sin(θi)) すなわち、実カメラ2と仮想カメラ3とでは、撮影対象
面1に対して、実カメラ2と仮想カメラ3との俯角θ
r、θiが異なるので、実カメラ2によって撮影された
画像を仮想カメラ3によって撮影された仮想画像に変換
する際に画像面積が拡大される拡大領域ができ、この拡
大領域では、実カメラの画素に対応しない画素が発生す
る。
However, if this equation (2) is used as it is,
Since only the number of pixels of the real image of the real camera 2 is converted into the virtual image of the virtual camera 3, a gap is formed in a region where the area is enlarged in the image conversion. Therefore, the inverse transformation of the equation (2) is performed to derive the equation (3), and the pixel of the virtual camera 3 is made to correspond to the real image of the real camera 2 to obtain an image without gaps. Xr = fr ・ Ri ・ Xi ・ sin (θi) / (Ri ・ Yi ・ cos (θr) -Rr ・ Yi ・ cos (θi) + fi ・ Rr ・ sin (θi)) (3) Yr = fr ・ Ri ・Yi · sin (θr) / (Ri · Yi · cos (θr) −Rr · Yi · cos (θi) + fi · Rr · sin (θi)) In other words, the real camera 2 and the virtual camera 3 1, the depression angle θ between the real camera 2 and the virtual camera 3
Since r and θi are different, there is an enlarged area where the image area is enlarged when an image captured by the real camera 2 is converted into a virtual image captured by the virtual camera 3. Are generated.

【0011】そこで、実画像から仮想画像に変換して画
像面積が拡大される拡大領域では、仮想画像から実画像
に逆変換するときには画像面積が縮小されるという逆変
換の性質を利用して、仮想カメラ3の各画素を実カメラ
2の各画素に対応させ、これを用いて実画像から仮想画
像に画像変換した際に隙間のない画像を作成することに
する。
Therefore, in the enlarged area where the image area is enlarged by converting the real image to the virtual image, the inverse conversion property that the image area is reduced when inversely converting the virtual image to the real image is used. Each pixel of the virtual camera 3 is made to correspond to each pixel of the real camera 2, and an image without gaps is created when the image is converted from a real image to a virtual image using the pixels.

【0012】図2は実カメラ2によって、実カメラ(デ
ジタルカメラ)2を用い、俯角θrを45度、距離Rr
を約150cmとし、部屋の床を撮影対象面1に設定し
て撮影したものである。また、実カメラ2の焦点距離f
rはデジタルカメラのカタログ値を用いた。実カメラ2
の画素サイズは、一般的な値として10μmとした。
FIG. 2 shows an example in which the real camera 2 uses the real camera (digital camera) 2 to set the depression angle θr at 45 degrees and the distance Rr.
Is set to about 150 cm, and the floor of the room is set as the photographing target surface 1 and photographed. Also, the focal length f of the real camera 2
For r, a catalog value of a digital camera was used. Real camera 2
Has a general value of 10 μm.

【0013】床4’には、カレンダー4があり、その右
横にゴミ箱5が置かれている。この画像を適当なパラメ
ータを用いて画像変換することによって図3に示す俯瞰
図が得られる。この図3は、真上から見た図(θi=90°)
に変換されている。仮想カメラ3の距離Riは、全体が見
えるように設定した。
On the floor 4 ', there is a calendar 4, on the right side of which a trash can 5 is placed. By converting this image using an appropriate parameter, an overhead view shown in FIG. 3 is obtained. FIG. 3 is a view seen from directly above (θi = 90 °).
Has been converted to. The distance Ri of the virtual camera 3 was set so that the entirety could be seen.

【0014】図2に示すように台形であった床のメッシ
ュは画像変換によって図3に示すように四角形になって
おり、式(2)、式(3)を用いて適切に変換されていること
が理解できる。
The trapezoidal floor mesh as shown in FIG. 2 has been transformed into a quadrilateral as shown in FIG. 3 by image conversion, and has been appropriately converted using equations (2) and (3). I can understand.

【0015】ここで、これを例えば、車両のバックアイ
カメラとしての利用を考えた場合、横にあるゴミ箱5は
画像を通して得られる周囲状況の理解をかえって妨げる
可能性がある。ゴミ箱5の蓋は実際の位置より外に開い
ており、直感的には理解できず、ゴミ箱5の接地面の位
置しか信用できないことになる。
Here, for example, when considering the use as a back-eye camera of a vehicle, there is a possibility that the trash can 5 on the side may obstruct the understanding of the surrounding situation obtained through the image. Since the lid of the trash can 5 is opened outside the actual position, it cannot be intuitively understood, and only the position of the grounding surface of the trash can 5 can be trusted.

【0016】簡単な平面間の変換のみでは理解しやすい
画像を得にくく、横の物体をきちんと再現するために
は、各画素ごとに実カメラ2との距離が示されている距
離マップが必要と感じられる。
It is difficult to obtain an easy-to-understand image only by simple conversion between planes. In order to properly reproduce a horizontal object, a distance map indicating the distance to the real camera 2 for each pixel is required. felt.

【0017】すなわち、この画像変換方法によれば、地
面上のペイント等の平面的な撮影対象に関しては、違和
感なくほぼ忠実な俯瞰図を作成することができる。
In other words, according to this image conversion method, an almost faithful bird's-eye view can be created without any discomfort for a two-dimensional object such as paint on the ground.

【0018】しかしながら、立体的な撮影対象について
は、画像変換を行うと俯瞰図として歪んだ図形となり、
画像変換によって違和感なく俯瞰図を作成することが困
難である。
However, a three-dimensional object to be photographed becomes a distorted figure as a bird's-eye view when image conversion is performed.
It is difficult to create a bird's-eye view without discomfort by image conversion.

【0019】特に、車両の後部の左右に障害物がある場
合、その障害物の位置が俯瞰図を表示する表示装置(モ
ニター)の画面上で特定しづらく、車載周囲監視装置の
実用化を図るうえで、克服すべき問題点となっている。
In particular, when there are obstacles on the left and right of the rear part of the vehicle, it is difficult to identify the position of the obstacle on the screen of a display device (monitor) that displays a bird's-eye view, and the practical use of an on-vehicle surrounding monitoring device is aimed at. This is a problem to be overcome.

【0020】この問題は、撮影対象と実カメラの3次元
的な位置関係を知ることによって解消されるが、これに
は、レンジファインダ装置等が必要となり、これらの装
置は、多眼カメラを用いたステレオ視による方法が中心
で、高価で大がかりなものとなるという問題がある。
This problem can be solved by knowing the three-dimensional positional relationship between the object to be photographed and the real camera. However, this requires a range finder device or the like. There is a problem that the method is mainly based on stereo vision, which is expensive, and is expensive.

【0021】本発明は、上記の事情に鑑みて為されたも
ので、単眼のカメラでも違和感のない俯瞰図を作成でき
る画像変換方法及びこの画像変換方法を用いた車両周囲
監視装置を提供することにある。
The present invention has been made in view of the above circumstances, and provides an image conversion method capable of creating a bird's-eye view without a sense of incongruity even with a single-lens camera, and a vehicle surrounding monitoring apparatus using the image conversion method. It is in.

【0022】[0022]

【課題を解決するための手段】請求項1に記載の画像変
換方法は、ある方向から撮影対象物を見るように配設さ
れた実カメラによって撮影された実画像を別の方向から
前記撮影対象物を見るように仮想的に配設された仮想カ
メラによって撮影された仮想画像に変換する画像変換方
法において、車両への前記実カメラの設置データと前記
実カメラの光学特性データとに基づき前記撮影対象物が
前記実カメラに対して相対移動することによって得られ
た動画情報を解析して画像の三次元情報を取得すること
を特徴とする画像変換方法。
According to a first aspect of the present invention, there is provided an image conversion method, comprising: converting an actual image taken by a real camera arranged so as to view an object to be photographed from a certain direction; In an image conversion method for converting a virtual image photographed by a virtual camera virtually arranged to look at an object, the photographing is performed based on installation data of the real camera on a vehicle and optical characteristic data of the real camera. An image conversion method characterized by analyzing moving image information obtained by moving an object relative to the real camera to obtain three-dimensional information of an image.

【0023】請求項2に記載の画像変換装置は、ある方
向から撮影対象物を見るように配設された実カメラによ
って撮影された実画像を別の方向から前記撮影対象物を
見るように仮想的に配設された仮想カメラによって撮影
された仮想画像に変換して俯瞰図を作成して表示する車
載周囲監視装置において、前記実カメラが車両に搭載さ
れて前記車両の周囲を撮像するデジタル式動画カメラで
あり、前記車両は自車両の車速を検出する車速検知装置
と、前記実カメラによって撮影された実画像を前記仮想
カメラによって撮影された仮想画像に変換して俯瞰図を
作成する画像情報処理装置と、前記俯瞰図を表示する表
示装置とを備え、前記画像情報処理装置は前記車速検知
装置によって得られた車速情報に基づき前記実カメラに
よって撮影された実画像に含まれている高さ情報を演算
して前記俯瞰図を作成することを特徴とする。
According to a second aspect of the present invention, there is provided an image conversion apparatus which converts a real image taken by a real camera arranged to look at a photographing object from a certain direction so as to look at the photographing object from another direction. In an in-vehicle surrounding monitoring device that converts a virtual image taken by a virtual camera arranged in a vehicle and creates and displays a bird's-eye view, a digital type in which the real camera is mounted on a vehicle and images the surroundings of the vehicle A video camera, wherein the vehicle is a vehicle speed detection device that detects a vehicle speed of the own vehicle, and image information that creates a bird's-eye view by converting a real image taken by the real camera into a virtual image taken by the virtual camera. A processing device and a display device for displaying the overhead view, wherein the image information processing device is photographed by the real camera based on vehicle speed information obtained by the vehicle speed detection device. And calculates the height information included in the image, characterized in that to create the overhead view.

【0024】請求項3に記載の車載周囲監視装置は、前
記車両はハンドルの舵角を検出する舵角検知装置を備
え、舵角検知装置によって得られた舵角情報と前記車速
検知装置によって得られた車速情報とに基づき車両旋回
時に前記実カメラによって撮像された実画像に含まれて
いる高さ情報を演算して前記俯瞰図を作成することを特
徴とする。
According to a third aspect of the present invention, the vehicle is provided with a steering angle detecting device for detecting a steering angle of a steering wheel, wherein the vehicle obtains steering angle information obtained by the steering angle detecting device and the vehicle speed detecting device. The overhead view is created by calculating height information included in a real image captured by the real camera when the vehicle turns, based on the obtained vehicle speed information.

【0025】請求項4に記載の車載周囲監視装置は、前
記車両は、前記車両停止時に前記画像情報処理装置によ
って処理された画像を一時的に保存しかつ前記表示装置
に表示させるための画像バッファー・セレクタ装置を備
えていることを特徴とする。
The vehicle surrounding monitoring device according to claim 4, wherein the vehicle temporarily stores an image processed by the image information processing device when the vehicle stops and displays the image on the display device. -It is characterized by having a selector device.

【0026】請求項5に記載の車載周囲監視装置は、前
記画像バッファー・セレクタ装置は、車両静止中に前記
実カメラの撮像領域内への物体進入に基づく画像変化を
検出して前記実カメラで撮影された画像を前記表示装置
に表示させることを特徴とする。
According to a fifth aspect of the present invention, in the on-vehicle surrounding monitoring apparatus, the image buffer selector detects an image change based on an object approaching into an image pickup area of the real camera while the vehicle is stationary, and detects the change in the real camera. The captured image is displayed on the display device.

【0027】請求項6に記載の車載周囲監視装置は、前
記画像情報処理装置には、前記車両中心から前記撮像領
域までの中心までの距離データと前記車両に対する前記
実カメラの設置データと前記実カメラの画素サイズデー
タと焦点距離データとがあらかじめ準備され、該画像情
報処理装置は前記デジタル式動画カメラによって撮像さ
れた動画像に基づきオプティカルフロー検出を行って画
面全体のオプティカルフローマップを生成するオプティ
カルフローマップ生成手段と、該オプティカルフローマ
ップと前記各データと前記車速とに基づき各画素毎に実
空間での高さ情報を演算して高さ情報マップを生成する
高さ情報マップ生成手段と、前記高さ情報マップと前記
動画像のデジタルデータとから前記俯瞰図を作成する作
成手段とを備えていることを特徴とする。
According to a sixth aspect of the present invention, in the vehicle surroundings monitoring apparatus, the image information processing apparatus includes a distance data from the center of the vehicle to the center of the image pickup area, an installation data of the real camera with respect to the vehicle, and the real data. The pixel size data and the focal length data of the camera are prepared in advance, and the image information processing apparatus performs optical flow detection based on a moving image captured by the digital moving image camera to generate an optical flow map of the entire screen. Flow map generation means, height information map generation means for calculating height information in real space for each pixel based on the optical flow map, the data and the vehicle speed, to generate a height information map, A creating unit for creating the overhead view from the height information map and the digital data of the moving image; And wherein the Rukoto.

【0028】請求項7に記載の車載周囲監視装置は、前
記画像情報処理装置には、前記実カメラの前記車両に対
する設置データと前記実カメラの画素サイズデータと焦
点距離データとがあらかじめ準備され、該画像情報処理
装置は前記デジタル式動画カメラによって撮像された動
画像に基づきオプティカルフロー検出を行って画面全体
のオプティカルフローマップを生成するオプティカルフ
ローマップ生成手段と、前記オプティカルマップと前記
車速と前記各データとから回転半径と回転方向とを求め
る回転半径演算手段と、該回転半径演算手段により得ら
れた回転半径情報と前記オプティカルフローマップと前
記各データとに基づき前記車両の回転半径に対して直交
する接線と前記実カメラの光軸との為すズレ角を演算す
るズレ角演算手段と、前記オプティカルフローマップと
前記各データと前記回転半径演算手段と前記ズレ角演算
手段によって得られたズレ角と前記車速とに基づき各画
素毎に実空間での高さ情報を演算して高さ情報マップを
生成する高さ情報マップ生成手段と、前記高さ情報マッ
プと前記動画像のデジタルデータとから前記俯瞰図を作
成する作成手段とを備えていることを特徴とする。
According to a seventh aspect of the present invention, in the vehicle surrounding monitoring apparatus, the image information processing apparatus prepares, in advance, installation data of the real camera with respect to the vehicle, pixel size data of the real camera, and focal length data, The image information processing apparatus performs an optical flow detection based on a moving image captured by the digital video camera to generate an optical flow map of the entire screen, an optical flow map generating unit, the optical map, the vehicle speed, and each of the above. A turning radius calculating means for obtaining a turning radius and a turning direction from the data, a turning radius information orthogonal to the turning radius of the vehicle based on the turning radius information obtained by the turning radius calculating means, the optical flow map and the data; Angle calculating means for calculating a shift angle between a tangent line to be formed and the optical axis of the real camera Calculating height information in a real space for each pixel based on the optical flow map, the respective data, the shift angle obtained by the turning radius calculator and the shift angle calculator, and the vehicle speed. It is characterized by comprising height information map generating means for generating an information map, and generating means for generating the overhead view from the height information map and the digital data of the moving image.

【0029】請求項8に記載の車載周囲監視装置は、前
記車両はハンドルの舵角を検出する舵角検知装置を備
え、前記画像情報処理装置には、前記実カメラの前記車
両に対する設置データと前記実カメラの画素サイズデー
タと、焦点距離データと、前記車両の回転半径に対して
直交する接線と前記実カメラの光軸との為すズレ角と舵
角とのズレ角関係データとがあらかじめ準備され、該画
像情報処理装置は前記デジタル式動画カメラによって撮
像された動画像に基づきオプティカルフロー検出を行っ
て画面全体のオプティカルフローマップを生成するオプ
ティカルフローマップ生成手段と、該舵角検知装置の舵
角に基づき得られた前記ズレ角データと前記車速と前記
各データと前記オプティカルフローマップとに基づき各
画素毎に実空間での高さ情報を演算して高さ情報マップ
を生成する高さ情報マップ生成手段と、前記高さ情報マ
ップと前記動画像のデジタルデータとから前記俯瞰図を
作成する作成手段とを備えていることを特徴とする。
The vehicle surroundings monitoring device according to claim 8, wherein the vehicle is provided with a steering angle detecting device for detecting a steering angle of a steering wheel, and the image information processing device includes a setting data of the actual camera with respect to the vehicle. Pixel size data of the actual camera, focal length data, and deviation angle relation data between a deviation angle and a steering angle between a tangent perpendicular to the turning radius of the vehicle and the optical axis of the real camera are prepared in advance. The image information processing apparatus performs an optical flow detection based on a moving image captured by the digital moving image camera to generate an optical flow map of the entire screen, and a steering device of the steering angle detection device. Based on the deviation angle data obtained based on the angle, the vehicle speed, the data, and the optical flow map, each pixel in real space is Height information map generating means for calculating height information to calculate height information map, and creating means for creating the overhead view from the height information map and the digital data of the moving image. Features.

【0030】請求項9に記載の車載周囲監視装置は、前
記車両が、前記車両停止時に前記画像情報処理装置によ
って処理された画像を一時的に保存しかつ前記表示装置
に表示させるための画像バッファー・セレクタ装置を備
え、前記画像情報処理装置には前記オプティカルフロー
マップに基づき車両静止中のオプティカルフローマップ
と車両走行中のオプティカルフローマップとを比較して
有意な画像変化を検出して前記画像バッファー・セレク
タ装置に画像変化検知信号を送信する画像変化検知手段
が設けられ、前記画像バッファー・セレクタ装置は、前
記画像変化検知信号に基づき前記車両静止中の画像と前
記静止直前に得られた仮想画像とを切り換えて前記表示
装置に送信することを特徴とする。
The image monitoring apparatus according to claim 9, wherein the vehicle temporarily stores an image processed by the image information processing device when the vehicle stops and displays the image on the display device. A selector device, wherein the image information processing device compares the optical flow map when the vehicle is stationary with the optical flow map while the vehicle is running based on the optical flow map, detects a significant image change, and detects the image buffer. An image change detecting means for transmitting an image change detection signal to the selector device, wherein the image buffer selector device is configured to control the image while the vehicle is stationary and the virtual image obtained immediately before the stop based on the image change detection signal; And transmitting to the display device.

【0031】請求項10に記載の車載周囲監視装置は、
前記設置データが前記実カメラの前記車両への取り付け
高さと地面に対する俯角と、前記実カメラの光軸中心線
上での前記地面から前記実カメラまでの距離とに関する
データであることを特徴とする。
According to a tenth aspect of the present invention, there is provided
The installation data is data relating to a mounting height of the real camera to the vehicle, a depression angle with respect to the ground, and a distance from the ground to the real camera on the optical axis center line of the real camera.

【0032】[0032]

【発明の実施の形態】(実画像に基づく3次元情報取得
の原理) (直線運動)図4は座標系を自車に固定して自車の運動
を周囲の相対運動に置き換えて表現した場合に、実カメ
ラ2によって移動する物体を撮像する状態を示すモデル
図である。図4に示すように、ある高さの直方形物体6
がxz表面上をz軸方向に移動しているものとし、ある時
刻t1で実線で示す位置にあり、時刻t2で破線で示す
位置にあるものとする。ここで、符号a、bはその直方形
物体の角点を示す。
DESCRIPTION OF THE PREFERRED EMBODIMENTS (Principle of Acquiring Three-Dimensional Information Based on Real Image) (Linear Motion) FIG. 4 shows a case where the coordinate system is fixed to the own vehicle and the motion of the own vehicle is replaced with the relative motion of the surroundings. FIG. 3 is a model diagram showing a state in which a moving object is imaged by the real camera 2. As shown in FIG. 4, a rectangular object 6 having a certain height
Is moving in the z-axis direction on the xz surface, is at a position shown by a solid line at a certain time t1, and is at a position shown by a broken line at a time t2. Here, the symbols a and b indicate the corner points of the rectangular object.

【0033】このとき、時刻t1時に実カメラ2によっ
て撮像された実画像が図5に示すものであるとする。こ
の図5において、符号7は直方形物体6の実画像、符号
8は画面を示す。時刻t2時には直方形物体6は実カメ
ラ2に近づき、画面8の上側から下側に向かって移動す
ることになるから、時刻t2時に実カメラ2によって撮
像された実画像7は図6に示すようなものとなる。直方
形物体6が実カメラ2に近づくに従ってその実画像7も
大きくなる。
At this time, it is assumed that the real image taken by the real camera 2 at the time t1 is as shown in FIG. In FIG. 5, reference numeral 7 denotes a real image of the rectangular object 6, and reference numeral 8 denotes a screen. At time t2, the rectangular object 6 approaches the real camera 2 and moves from the upper side to the lower side of the screen 8, so that the real image 7 captured by the real camera 2 at time t2 is as shown in FIG. It becomes something. As the rectangular object 6 approaches the real camera 2, the real image 7 also becomes larger.

【0034】実画像7は、時刻t1から時刻t2までの
間に、破線で示す位置から実線で示す位置に移動し、こ
れによって、画面8上で角点a、角点bは角点a’、b’
に移動する。この角点a、bの移動方向とその大きさを
示すベクトルA、ベクトルBは動画を扱うときにオプテ
ィカルフロー(OF)ベクトルと呼ばれている。
The real image 7 moves from the position shown by the broken line to the position shown by the solid line between the time t1 and the time t2, whereby the corner points a and b on the screen 8 become the corner points a '. , B '
Go to Vectors A and B indicating the moving directions and the magnitudes of the corner points a and b are called optical flow (OF) vectors when handling moving images.

【0035】このOFベクトルは平面xz内の位置のみなら
ず高さにも依存する。従って、このOFベクトルの量を解
析することによって、物体の高さを評価できる。ここで
は、動画の1フレームの間に実画像7が動いたときの量
をOFベクトルと定義する。すなわち、1フレーム時間を
単位時間と考える。
This OF vector depends not only on the position in the plane xz but also on the height. Therefore, the height of the object can be evaluated by analyzing the amount of the OF vector. Here, the amount when the real image 7 moves during one frame of the moving image is defined as an OF vector. That is, one frame time is considered as a unit time.

【0036】図4において、撮影対象面1から実カメラ
2の撮影レンズの中心までの高さをHとする。俯角を
θ、原点Oからその撮影レンズの中心までの距離をR
r、実カメラ2の焦点距離をfとし、長方形物体6の点
(x,z,h)の点の実画像の点(x,y)への射影は以下の関係
式で与えられる。
In FIG. 4, the height from the photographing target surface 1 to the center of the photographing lens of the real camera 2 is H. The depression angle is θ, and the distance from the origin O to the center of the taking lens is R.
r, the focal length of the real camera 2 is f, and the point of the rectangular object 6
The projection of the point (x, z, h) onto the point (x, y) of the real image is given by the following relational expression.

【0037】 X=2fxsin[θ]/(-h+2H+hcos[2θ]+zsin[2θ]) (1.1) Y=f(hcos[θ]+zsin[θ])/(cos[θ](z+Hcot[θ])+(-h+H)sin[θ]) (1.2) この式(1.1)、(1.2)のいずれにも、高さ情報hが含まれ
ている。
X = 2fxsin [θ] / (− h + 2H + hcos [2θ] + zsin [2θ]) (1.1) Y = f (hcos [θ] + zsin [θ]) / (cos [θ] ( z + Hcot [θ]) + (− h + H) sin [θ]) (1.2) Both of the expressions (1.1) and (1.2) include the height information h.

【0038】この逆変換式を下記に記す。This inverse conversion equation is described below.

【0039】 x=(h-H)XX/(YYcos[θ]-fsin[θ]) (2.1) y=cos[θ](fh-HYYcot[θ])+(h-H)YYsin[θ]/(YYcos[θ]-fsin[θ]) (2.2) 物体6の点(x,z,h)が平行移動(Δx,Δz,0)のみの場合
を考える。このとき、画面内のOFベクトルQ(ΔX,ΔY)
は式(1.1)(1.2)を微分することによって得られる。
X = (hH) XX / (YYcos [θ] -fsin [θ]) (2.1) y = cos [θ] (fh-HYYcot [θ]) + (hH) YYsin [θ] / (YYcos [ θ] -fsin [θ]) (2.2) Consider a case where the point (x, z, h) of the object 6 is only translation (Δx, Δz, 0). At this time, the OF vector Q (ΔX, ΔY) in the screen
Is obtained by differentiating equations (1.1) and (1.2).

【0040】 ΔX=(2fsin[θ]/(-h+2H+hcos[2θ]+zsin[2θ]))Δx+(-4fxcos[θ]sin[θ]2 /(-h+2H+hcos[2θ]+zsin[2θ])2)Δz (3.1) ΔY=(-4f(h-H)sin[θ]2/(-h+2H+hcos[2θ]+zsin[2θ])2)Δz (3.2) ただし、実際の動画像を用いたOFベクトルの測定の場
合、離散的な画像を用いるので、(3.1)、(3.2)の微分量
に対して誤差が生じて補正しなければならない場合があ
り得るが、解像度が十分に高くてかつ高速撮影するもの
として、その誤差はないものと仮定する。
ΔX = (2fsin [θ] / (− h + 2H + hcos [2θ] + zsin [2θ])) Δx + (− 4fxcos [θ] sin [θ] 2 / (− h + 2H + hcos [2θ ] + zsin [2θ]) 2 ) Δz (3.1) ΔY = (-4f (hH) sin [θ] 2 / (-h + 2H + hcos [2θ] + zsin [2θ]) 2 ) Δz (3.2) However, in the case of the measurement of the OF vector using an actual moving image, since a discrete image is used, there may be a case where an error occurs with respect to the differential amount of (3.1) and (3.2), and correction may be necessary. It is assumed that the resolution is sufficiently high and high-speed shooting is performed without any error.

【0041】この条件のもとでは、1フレームの間に物
体が(Δx,Δz,0)移動したとすると、式(3.1)、(3.2)
によってOFベクトルQ(ΔX、ΔY)が与えられる。
Under this condition, assuming that the object moves (Δx, Δz, 0) during one frame, equations (3.1) and (3.2)
Gives an OF vector Q (ΔX, ΔY).

【0042】車両に実カメラ2を搭載して、車両後部を
撮像するバックアイカメラでは、実カメラ2が直方形物
体6に対して移動することになるが、実カメラ2と直方
形物体6との移動関係は相対的なので、式(3.1)、(3.2)
を基本に用いることができる。
In the back-eye camera that mounts the real camera 2 on the vehicle and captures an image of the rear part of the vehicle, the real camera 2 moves with respect to the rectangular object 6. Since the movement relation is relative, equations (3.1) and (3.2)
Can be basically used.

【0043】直線運動を仮定して、画面上の点(X,Y)に
着目すると、この点(x,y)は実空間上で式(2.1)(2.2)
を満たす点(x,z,h)に対応している。いま、自車が直線
運動をして1フレームの間に(0,-Δz,0)移動したとす
ると、直方形物体6は(0,+Δz,0)移動したことにな
る。このΔzは車速センサから得られる既知の値である
とする。このとき、OFベクトルQ(ΔX,ΔY)は式(2.
1)、(2.2)、式(3.1)(3.2)により、 ΔX=(Xcos[θ](-Ycos[θ]+fsin[θ])/f(h-H))Δz (4.1) ΔY=(-(Ycos[θ]-fsin[θ])2/f(h-H))Δz (4.2) で与えられる。
Focusing on a point (X, Y) on the screen assuming a linear motion, this point (x, y) is expressed in real space by the following equations (2.1) and (2.2).
(X, z, h). Now, assuming that the own vehicle moves linearly and moves (0, −Δz, 0) during one frame, the rectangular object 6 has moved (0, + Δz, 0). This Δz is a known value obtained from the vehicle speed sensor. At this time, the OF vector Q (ΔX, ΔY) is calculated by the equation (2.
From (1), (2.2), and equations (3.1) and (3.2), ΔX = (Xcos [θ] (-Ycos [θ] + fsin [θ]) / f (hH)) Δz (4.1) ΔY = (-( Ycos [θ] -fsin [θ]) 2 / f (hH)) Δz (4.2).

【0044】よって、式(4.1)、(4.2)にから高さhがそ
れぞれ求められる。
Accordingly, the height h is obtained from the equations (4.1) and (4.2).

【0045】 h=(ΔXfH-ΔzXYcos[θ]2+ΔzfXcos[θ]sin[θ])/ΔXf (5.1) h=(ΔYfH-ΔzY2cos[θ]2+2ΔzfYcos[θ]sin[θ]-Δzf2sin[θ]2)/ΔYf (5.2) この2つの式のhの値は本来一致するはずであるが、実
際にはOFベクトルの計測誤差等があるので一致せず、平
均化、周囲画素の値を用いた平滑化、高速演算を実行す
るための仮想平面を作って、この仮想平面からの差分を
見る等の各種の工夫が必要である。
H = (ΔXfH−ΔzXYcos [θ] 2 + ΔzfXcos [θ] sin [θ]) / ΔXf (5.1) h = (ΔYfH−ΔzY 2 cos [θ] 2 + 2ΔzfYcos [θ] sin [θ] -Δzf 2 sin [θ] 2 ) / ΔYf (5.2) Although the values of h in these two equations should originally match, they do not match because there is an error in the measurement of the OF vector, etc. It is necessary to make various measures such as creating a virtual plane for performing smoothing and high-speed operation using the value of, and viewing the difference from this virtual plane.

【0046】例えば、式(4.1)および(4.2)には変数Yに
関連した共通項があるので、これを消去することによっ
て、式(5.1)、(5.2)を一つの方程式にまとめる工夫が考
えられる。
For example, the formulas (4.1) and (4.2) have a common term related to the variable Y. By eliminating this, it is possible to consider formulating the formulas (5.1) and (5.2) into one equation. Can be

【0047】式(5.1)、(5.2)をその方程式を解いた場
合、求める高さは、 h=H+(ΔYX2cos[θ]2/ΔX2f)Δz (6) となる。
When the equations (5.1) and (5.2) are solved by the equations, the height to be obtained is h = H + (ΔYX 2 cos [θ] 2 / ΔX 2 f) Δz (6)

【0048】このように、原則的に車速Δzが得られる
と、単眼撮影による動画像を用いて直方形状物体6の高
さ情報を得ることが可能である。一般に、撮影対象の三
次元情報を得ることが原理的に可能である。(回転運
動)図7に示すように、自車8がハンドルを一定角度に
保って、等角速度で回転運動しているものとする。実カ
メラ2もこれに伴って回転運動する。自車8の回転中心
OOから撮像領域9の中心(原点O)までの回転半径
(距離)をrとする。図8に拡大して示すように、円運
動している実カメラ2の撮像領域9のz軸方向と回転軌
道の接線方向とは必ずしも一致しない。すなわち、実カ
メラ2の光軸と回転半径と直交する接線とは必ずしも一
致せず、光軸と接線との間には軸ズレがあり、これを軸
ズレ角θzと定義する。この軸ズレ角θzは、車両8の自
転中心位置、カメラの設置条件によって一意的に決定さ
れる。
As described above, when the vehicle speed Δz is obtained in principle, it is possible to obtain the height information of the rectangular object 6 using a moving image obtained by monocular photographing. In general, it is possible in principle to obtain three-dimensional information of a photographing target. (Rotating Motion) As shown in FIG. 7, it is assumed that the own vehicle 8 is rotating at a constant angular velocity while keeping the steering wheel at a constant angle. The real camera 2 also rotates with this. The rotation radius (distance) from the rotation center OO of the vehicle 8 to the center (origin O) of the imaging area 9 is defined as r. As shown in an enlarged manner in FIG. 8, the z-axis direction of the imaging area 9 of the real camera 2 that is performing a circular motion does not always match the tangential direction of the rotation trajectory. That is, the optical axis of the real camera 2 does not always coincide with the tangent line orthogonal to the rotation radius, and there is an axis deviation between the optical axis and the tangent line, which is defined as an axis deviation angle θz. The axis deviation angle θz is uniquely determined by the rotation center position of the vehicle 8 and the installation conditions of the camera.

【0049】実空間上での点(x,z,h)が回転によりどの
ように移動するかを考える。なお、高さhは変化しない
と仮定する。
Consider how the point (x, z, h) in the real space moves due to rotation. It is assumed that the height h does not change.

【0050】車両が各速度ω(単位時間はフレームレー
トとする)で回転していると仮定すると、xz平面の原点
Oは量r・ω移動する。この量r・ωは車両が単位時間に
移動する距離とほぼ同じであるが一致はしない。また、
平面xz上の各点(x,z)の回転中心ooからの距離roは次式
で与えられる。
Assuming that the vehicle is rotating at each speed ω (the unit time is a frame rate), the origin O of the xz plane moves by an amount r · ω. This amount r · ω is almost the same as the distance that the vehicle travels per unit time, but does not match. Also,
The distance ro of each point (x, z) on the plane xz from the rotation center oo is given by the following equation.

【0051】 ro=(r2+x2+z2+2r(xcos[θz]+zsin[θz]))1/2 (7) ここで、点(x,z)の移動速度はro.ωとなる。この速度ベ
クトルをXY平面に射影することによりOFベクトルが得ら
れる。実際の撮像では時間に対して離散的な画像が得ら
れるため、観測されるOFベクトルは直線的であり、円弧
の長さを示すro・ωとはわずかに異なり、現実の演算に
はいくらかの補正が必要になると思われる。以下の議論
では、十分に早く撮像され、理想的な解析が可能である
として、微分して得られる速度ベクトルを元に基礎的な
式を構築する。
Ro = (r 2 + x 2 + z 2 + 2r (xcos [θz] + zsin [θz])) 1/2 (7) Here, the moving speed of the point (x, z) is ro.ω Becomes By projecting this velocity vector onto the XY plane, an OF vector can be obtained. Observed OF vectors are linear and slightly different from ro · ω, which indicates the length of an arc, since actual imaging results in a discrete image with respect to time. Correction may be required. In the following discussion, it is assumed that an image is captured sufficiently quickly and ideal analysis is possible, and a basic expression is constructed based on a velocity vector obtained by differentiation.

【0052】車は静止し地面が反対方向に回転すると考
えて、図9に示すように作図する。このとき点(x,z)の
運動による変位量(Δx,Δz)を求めると以下のよう表記
される。なお、その図9において、符号αは回転中心O
Oと実空間上での変位した点(x+Δx、z+Δz)と
を結ぶ線分と回転中心OOと原点Oとを結ぶ線分の為す
角度である。
Assuming that the car is stationary and the ground rotates in the opposite direction, the drawing is made as shown in FIG. At this time, the displacement (Δx, Δz) due to the movement of the point (x, z) is obtained as follows. In FIG. 9, the symbol α is the rotation center O.
This is the angle formed by the line connecting O and the displaced point (x + Δx, z + Δz) in the real space, and the line connecting the rotation center OO and the origin O.

【0053】 Δx=-ω(z+rsin[θz]) (8.1) Δz=ω(x+rcos[θz]) (8.2) この式(8.1)(8.2)、式(2.1)、(2.2)、(3.1)(3.2)よ
り、画像内の点(X,Y)のOFベクトルQ’(ΔX,ΔY)は、以
下の式で求められる。
Δx = −ω (z + rsin [θz]) (8.1) Δz = ω (x + rcos [θz]) (8.2) This equation (8.1) (8.2), equation (2.1), (2.2), From (3.1) and (3.2), the OF vector Q ′ (ΔX, ΔY) of the point (X, Y) in the image can be obtained by the following equation.

【0054】 ΔX=Xωcos[θ]((-h+H)X+rcos[θz](-Ycos[θ]+fsin[θ]))/f(h-H)+1/(h-H)( ω(sin[θ]((-h+H)Y+frsin[θz])-cos[θ](fh-HYcot[θ]+rYsin[θz]))) (9.1) ΔY=-1/f(h-H)(ω(Ycos[θ]-fsin[θ])((h-H)X+rcos[θz](Ycos[θ]-fsin[θ]) )) (9.2) 上記式は、車両回転運動時のOFベクトルQ’(ΔX,ΔY)
の基本方程式である。この式は、直線運動の式(4.1)、
(4.2)に対応している。
ΔX = Xωcos [θ] ((− h + H) X + rcos [θz] (− Ycos [θ] + fsin [θ])) / f (h−H) + 1 / (hH) (ω (sin [θ] ((-h + H) Y + frsin [θz])-cos [θ] (fh-HYcot [θ] + rYsin [θz]))) (9.1) ΔY = -1 / f (hH ) (ω (Ycos [θ] -fsin [θ]) ((hH) X + rcos [θz] (Ycos [θ] -fsin [θ]))) (9.2) Vector Q '(ΔX, ΔY)
Is the basic equation. This equation is the linear motion equation (4.1),
It corresponds to (4.2).

【0055】次に、高さ情報hを求める場合について考
える。
Next, a case where the height information h is obtained will be considered.

【0056】(ハンドルの舵角情報と車速情報とが与え
られている場合)車両の大きさ、ハンドル特性から原理
的に回転の半径r、角速度ω、ズレ角度θzは求められ
る。すると、未知変数は高さhのみとなり、式(9.1)、
(9.2)から高さhがそれぞれ独立に求められる。この独
立に求められた高さhは測定誤差がなければ互いに等し
くなるはずである。
(When steering wheel angle information and vehicle speed information are given) The radius of rotation r, angular speed ω, and deviation angle θz can be obtained in principle from the size of the vehicle and the characteristics of the steering wheel. Then, the only unknown variable is the height h, and the equation (9.1),
The height h is obtained independently from (9.2). The independently determined heights h should be equal to each other if there is no measurement error.

【0057】その高さhは下記式(10.1)、(10.2)によっ
て求められる。
The height h is obtained by the following equations (10.1) and (10.2).

【0058】 h=(fHΔX+ω(-rXYcos[θ]2cos[θz]+fsin[θ](HY+frsin[θz])+cos[θ](HX2+f HYcot[θ]+frXcos[θz]sin[θ]-frYsin[θz])))/((f2+X2)ωcos[θ]+f(ΔX+Yωs in[θ])) (10.1) h=H-rωcos[θz](Ycos[θ]-fsin[θ])2/(fΔY+XYωcos[θ]-YXωsin[θ]) (10.2) (回転運動時に車速情報のみが与えられている場合)車
両が円運動をしていると仮定すると、車速は角速度と回
転半径の積に対応する。実際は得られる車速が車の重心
の速度なのか内輪あるいは外輪の速度なのか、前輪ある
いは後輪の速さなのかは車の設計に依存するので、個々
の車両毎に考えるべきであるが、車両の設計が明らかな
らば、撮像領域9の原点Oの速度に変換することが可能
である。その原点Oへの変換後の速度をvとすると、 v=r・ω (11) この式(11)と式(9.1)、(9.2)により3連立方程式が成
立する。一方、未知変数はω、r、θz、hの4つであ
り、式が1個足りないので、この方程式を解いて高さh
を求めることができない。
H = (fHΔX + ω (−rXYcos [θ] 2 cos [θz] + fsin [θ] (HY + frsin [θz]) + cos [θ] (HX 2 + f HYcot [θ] + frXcos [ θz] sin [θ] -frYsin [θz]))) / ((f 2 + X 2 ) ωcos [θ] + f (ΔX + Yωs in [θ])) (10.1) h = H-rωcos [θz] (Ycos [θ] -fsin [θ]) 2 / (fΔY + XYωcos [θ] -YXωsin [θ]) (10.2) (When only vehicle speed information is given at the time of rotational movement) Vehicle speed corresponds to the product of angular speed and radius of gyration. In fact, whether the obtained vehicle speed is the speed of the center of gravity of the car, the speed of the inner wheel or the outer wheel, or the speed of the front wheel or the rear wheel depends on the design of the car, so it should be considered for each individual vehicle, but If the design is clear, it is possible to convert to the speed of the origin O of the imaging region 9. Assuming that the velocity after the conversion to the origin O is v, v = r · ω (11) The simultaneous equations are established by the equation (11) and the equations (9.1) and (9.2). On the other hand, there are four unknown variables, ω, r, θz, and h, and there is not enough formula.
Can not ask.

【0059】ここで、半径rと軸角度θzの関係を考える
と、図10に示すように回転中心OOと実カメラ2の距
離Rr、実カメラ2の地面からの高さ、俯角θから一意
的に定まる。そこで、車両8の設計図によって図10に
示すwが与えられるとすると、θzは、 w=rsin[θz] (12) で与えられる。
Here, considering the relationship between the radius r and the axis angle θz, as shown in FIG. 10, the distance Rr between the rotation center OO and the real camera 2, the height of the real camera 2 from the ground, and the depression angle θ are unique. Is determined. Therefore, if w shown in FIG. 10 is given by the design drawing of the vehicle 8, θz is given by w = rsin [θz] (12).

【0060】ここで、wは車両中心OO’から原点Oま
での距離、図10において、raは回転中心OOから車
両中心OO’までの距離、θzは回転中心OOと原点O
とを結ぶ線分と原点OOと車両中心OO’とを結ぶ線分
との為す角度でもある。
Here, w is the distance from the vehicle center OO 'to the origin O, in FIG. 10, ra is the distance from the rotation center OO to the vehicle center OO', and θz is the rotation center OO and the origin O.
, And a line connecting the origin OO and the vehicle center OO ′.

【0061】これらの式(11)、(12)、式(10.1)、(10.2)
を用いて、高さhについて方程式を解けば、高さhを原
理的に求めることができる。
These equations (11) and (12), equations (10.1) and (10.2)
Is used to solve the equation for the height h, the height h can be obtained in principle.

【0062】この式は4次方程式になり、この4次方程
式の解法アルゴリズムは公知である。この方程式の係数
は非常に煩雑で、簡単に表すことができないので、式の
みを後記付1.1〜付1.6に記載するにとどめる。
This equation becomes a quartic equation, and the algorithm for solving the quaternary equation is known. Since the coefficients of this equation are very complicated and cannot be easily expressed, only the equations will be described in Appendix 1.1 to Appendix 1.6 below.

【0063】また、別の手法として、直接高さhを求め
ず、最初に回転半径rを求め、その後この回転半径rか
ら高さhを求めることもできる。
As another method, the height h can be obtained from the rotation radius r first, and then the height h can be obtained from the rotation radius r without directly obtaining the height h.

【0064】その回転半径rは、以下の式によって求め
られる。
The radius of gyration r is obtained by the following equation.

【0065】 ar(r2-w2)1/2+(r2-w2)1/2+cr+d=0 (13.1) a=fvY2ΔXcos[θ]2- fvXYΔYcos[θ]2-2f2vYΔXcos[θ]sin[θ]+ f2vXΔYcos[θ]sin[θ]+f3vΔXsin[θ]2 (13.2) b=f2v2Y2cos[θ]3-2f3v2Ycos[θ]2sin[θ]+ fv2Y3cos[θ]2sin[θ]+ f4v2cos[θ]sin[θ]2- 2f2v2Y2cos[θ]sin[θ]2+f3v2Ysin[θ]3 (13.3) c=-f3HvΔYcos[θ]-f2vwYΔYcos[θ]+ f2HvYΔYcos[θ]cot[θ]+f3vwΔYsin[θ] (13.4) d=-2f2Hv2XYcos[θ]2-fv2wXY2cos[θ]2+ fHv2XY2cos[θ]2cot[θ]+ f3Hv2Xcos[θ]sin[θ]+ 2f2v2wXYcos[θ]sin[θ]-f3v2wXsin[θ]2 (13.5) この式を解くことにより、回転半径rが求まれば、式(1
1)および式(12)からその他の値も求まり、式(10.1)、
(10.2)等を用いて3次元情報を評価できる。なお、この
非線形方程式の一般的な解析解はすでに明らかになって
おり、a、b、c、dの数値が分かれば代入するだけで求ま
る。
Ar (r 2 -w 2 ) 1/2 + (r 2 -w 2 ) 1/2 + cr + d = 0 (13.1) a = fvY 2 ΔXcos [θ] 2 -fvXYΔYcos [θ] 2- 2f 2 vYΔXcos [θ] sin [θ] + f 2 vXΔYcos [θ] sin [θ] + f 3 vΔXsin [θ] 2 (13.2) b = f 2 v 2 Y 2 cos [θ] 3 -2f 3 v 2 Ycos [θ] 2 sin [θ ] + fv 2 Y 3 cos [θ] 2 sin [θ] + f 4 v 2 cos [θ] sin [θ] 2 - 2f 2 v 2 Y 2 cos [θ] sin [ θ] 2 + f 3 v 2 Ysin [θ] 3 (13.3) c = -f 3 HvΔYcos [θ] -f 2 vwYΔYcos [θ] + f 2 HvYΔYcos [θ] cot [θ] + f 3 vwΔYsin [θ] (13.4) d = -2f 2 Hv 2 XYcos [θ ] 2 -fv 2 wXY 2 cos [θ] 2 + fHv 2 XY 2 cos [θ] 2 cot [θ] + f 3 Hv 2 Xcos [θ] sin [θ] + 2f 2 v 2 wXYcos [θ] sin [ θ] -f 3 v 2 wXsin [θ] 2 (13.5) By solving this equation, if the radius of gyration r is obtained, the equation (1
Other values are also obtained from 1) and Equation (12), and Equation (10.1),
Three-dimensional information can be evaluated using (10.2) and the like. The general analytical solution of this nonlinear equation has already been clarified, and if the numerical values of a, b, c, and d are known, it can be obtained simply by substituting.

【0066】このように、高さhを直接求めるにして
も、回転半径rから順番に式を解いて高さhを求めるに
しても、画像情報処理により車速のみから、3次元情報
を得ることができる。(舵角のみが与えられた場合)舵
角のみを与えることは、原理的には円運動する車両の回
転半径が既知であることに対応する。すなわち、撮像中
心Oと回転中心OOの距離rやずれ角度θzが既知の変数
である。
As described above, whether the height h is directly obtained or the height h is obtained by solving the equation in order from the turning radius r, it is possible to obtain three-dimensional information only from the vehicle speed by image information processing. Can be. Giving only the steering angle (when only the steering angle is given) corresponds in principle to the fact that the radius of gyration of a circularly moving vehicle is known. That is, the distance r and the deviation angle θz between the imaging center O and the rotation center OO are known variables.

【0067】一方、角速度ωは未知の変数である。従っ
て、式(9.1)、(9.2)において、高さh、角速度ωを未知
変数として連立方程式を解く。この2つの式は、共に角
速度ωの一次関数であり、かつ、角速度ωを含まない定
数項が無い。従って、ΔX/ΔYは角速度ωに依存しない
高さhのみの関数となる。
On the other hand, the angular velocity ω is an unknown variable. Therefore, in equations (9.1) and (9.2), simultaneous equations are solved with the height h and the angular velocity ω as unknown variables. These two equations are both linear functions of the angular velocity ω, and there is no constant term that does not include the angular velocity ω. Therefore, ΔX / ΔY is a function of only the height h independent of the angular velocity ω.

【0068】ΔX、ΔYを独立とした場合と、その比をd
とした場合とでそれぞれ以下の式が得られる。
When ΔX and ΔY are independent, the ratio is d
And the following equations are obtained respectively.

【0069】 h=(-HXYΔXcos[θ]+HX2ΔYcos[θ]+ rY2ΔXcos[θ]2cos[θz]-rXYΔYcos[θ]2cos[θz]- fHYΔYcos[θ]cot[θ]+fHXΔXsin[θ]- fHYΔYsin[θ]-2frYΔXcos[θ]cos[θz]sin[θ]+ frXΔYcos[θ]cos[θz]sin[θ]+ f2rΔXcos[θz]sin[θ]2+ fHYΔYcos[θ]sin[θz]-f2rΔYsin[θ]sin[θz])/ (-XYΔXcos[θ]-f2ΔYcos[θ]+X2ΔYcos[θ]+ fXΔXsin[θ]-fYΔYsin[θ]) (14.1) h=(-HX2cos[θ]+dHXYcos[θ]+ rXYcos[θ]2cos[θz]-drY2cos[θ]2cos[θz]+ fHYcos[θ]cot[θ]-dfHXsin[θ]+ fHYsin[θ]-frXcos[θ]cos[θz]sin[θ]+ 2dfrYcos[θ]cos[θz]sin[θ]- df2rcos[θz]sin[θ]2-frYcos[θ]sin[θz]+ f2rsin[θ]sin[θz])/(f2cos[θ]- X2cos[θ]+dXYcos[θ]-dfXsin[θ]+fYsin[θ]) (但し d=ΔX/ΔY) (14.2) この式には角速度ωや速度vが含まれず、未知変数がな
いので、舵角のみが与えられた場合でも、3次元情報の
取得が可能であることを示している。(直線連動と回転
運動との関係)直線運動を仮定した場合、その車速、す
なわち、物体の一点が1フレームに移動する距離をΔz
とすることによって、高さhが式(5.1)、(5.2)、(6)の
形式で表現されることが示された。
H = (− HXYΔXcos [θ] + HX 2 ΔYcos [θ] + rY 2 ΔXcos [θ] 2 cos [θz] −rXYΔYcos [θ] 2 cos [θz] − fHYΔYcos [θ] cot [θ] + fHXΔXsin [θ]-fHYΔYsin [θ] -2frYΔXcos [θ] cos [θz] sin [θ] + frXΔYcos [θ] cos [θz] sin [θ] + f 2 rΔXcos [θz] sin [θ] 2 + fHYΔYcos θ] sin [θz] -f 2 rΔYsin [θ] sin [θz]) / (-XYΔXcos [θ] -f 2 ΔYcos [θ] + X 2 ΔYcos [θ] + fXΔXsin [θ] -fYΔYsin [θ]) (14.1) h = (-HX 2 cos [θ] + dHXYcos [θ] + rXYcos [θ] 2 cos [θz] -drY 2 cos [θ] 2 cos [θz] + fHYcos [θ] cot [θ]- dfHXsin [θ] + fHYsin [θ] -frXcos [θ] cos [θz] sin [θ] + 2dfrYcos [θ] cos [θz] sin [θ]-df 2 rcos [θz] sin [θ] 2 -frYcos [ θ] sin [θz] + f 2 rsin [θ] sin [θz]) / (f 2 cos [θ]-X 2 cos [θ] + dXYcos [θ] -dfXsin [θ] + fYsin [θ]) ( However, d = ΔX / ΔY) (14.2) This equation does not include the angular velocity ω or the velocity v, and there are no unknown variables. Therefore, even if only the steering angle is given, it is possible to acquire three-dimensional information. Is shown. (Relationship between linear interlocking and rotational motion) When linear motion is assumed, the vehicle speed, that is, the distance that one point of an object moves in one frame is Δz.
It has been shown that the height h is represented by the formulas (5.1), (5.2), and (6).

【0070】これら以外にも、各種の形式の解があると
考えられる、直線運動と回転運動とは、 v=Δz=r・ω (15.1) r→∞ (15.2) ω→0 (15.3) θz→0 (15.4) の変換関係で結ばれていると考えられる。
It is considered that there are various types of solutions other than the above. The linear motion and the rotational motion are as follows: v = Δz = r · ω (15.1) r → ∞ (15.2) ω → 0 (15.3) θz It is thought that they are connected by the conversion relation of → 0 (15.4).

【0071】実際に回転運動の基本方程式(9.1)、(9.
2)にこの変換を施すと、直線移動の式(4.1)、(4.2)を
導くことができる。
The basic equations (9.1) and (9.
When this transformation is applied to 2), equations (4.1) and (4.2) for linear movement can be derived.

【0072】また、高さhを求める式についても、式(1
0.1)、(10.2)にこの変換を施すと、式(5.1)、(5.2)を導
くことができる。従って、無限大の取り扱いを注意深く
行うことによって、直線運動と回転運動の演算をシーム
レスに行うことができる。
The formula for calculating the height h is also given by the formula (1)
By applying this transformation to (0.1) and (10.2), equations (5.1) and (5.2) can be derived. Therefore, by carefully handling infinity, the calculation of the linear motion and the rotational motion can be performed seamlessly.

【0073】ではまず、速さのみが与えられた場合につ
いて考察する。
First, consider the case where only the speed is given.

【0074】速さのみが与えられた場合、式中に回転に
関する情報が入らないので、数学的に有意な解を求める
ことに傾注するのみでよい。ひるがえって、回転半径r
を求める場合、式(13.1)に直線運動時のOFベクトル(Δ
X,ΔY)を代入すると、rの解は∞になるハズである。従
って、式(13.1)を解く場合に解が発散しないような変数
変換等の工夫をしなければならなくなる。また、(ΔX,
ΔY)に測定誤差が含まれることを考えると、解が発散す
る付近では解に含まれる誤差も大きくなる可能性があ
る。そこで、各種工夫が必要になり、例えば、この問題
を扱わずに回避する場合には、演算を行う前に回転およ
び直進運動の判定を行い、いずれかの方程式を利用する
ような工夫が必要になるかもしれない。ただし、突然扱
う式が変わるため、時系列で不連続な変換をしない工夫
も必要となるであろう。なおこの判定については、z軸
上のOFベクトルの統計処理が有効であろうし、あるいは
式(13.1)を解析し判定式を導出することも可能であろ
う。例えば、直線運動時のOFベクトル式(4.1)、(4.2)
を式(13.2)に代入すると、a=0となるので、これを判定
式に用いることも可能である。
If only the speed is given, no information on rotation is included in the equation, so it is only necessary to focus on finding a mathematically significant solution. In contrast, the turning radius r
Is obtained, the equation (13.1) gives the OF vector (Δ
(X, ΔY), the solution of r is ズ. Therefore, when solving the equation (13.1), it is necessary to take measures such as variable conversion so that the solution does not diverge. Also, (ΔX,
Considering that the measurement error is included in ΔY), the error included in the solution may increase near the divergence of the solution. Therefore, various contrivances are required.For example, in order to avoid this problem without dealing with it, it is necessary to judge rotation and rectilinear motion before performing calculations, and to use any one of the equations. Might be. However, because the formulas to be handled suddenly change, some means of avoiding discontinuous conversion in time series will be required. For this determination, statistical processing of the OF vector on the z-axis would be effective, or it would be possible to derive a determination equation by analyzing equation (13.1). For example, OF vector equation (4.1), (4.2) in linear motion
By substituting into Equation (13.2), a = 0, so this can be used in the determination equation.

【0075】一方、舵角のみが与えられた場合の式(14.
1)、(14.2)を同様に変形しても、直線運動時の高さh
を求める式は得られない。式(14.1)、(14.2)の分母に
距離rが無いので、距離rを発散させると、分子の項のみ
が発散し、解が存在しなくなるためである。これはもと
をたどれば、式(9.1)、(9.2)からΔX/ΔYを計算したと
きの方程式に問題があり、距離rを発散させると、 ΔX/ΔY=(rXYcos[θ]2+f(h-H)Ysin[θ]+cos[θ] (f2h+hx2-HX2-fHYcot[θ]-frXsin[θ]))/ ((Ycos[θ]-fsin[θ]) (hX-HX+rYcos[θ]-frsin[θ])) (16.1) (ΔX/ΔY)x→∞=Xcos[θ]/(Ycos[θ]-fsin[θ]) (16.2) となり、式(16.2)に見られるように、高さhを含まない
方程式になるからである。直線運動の式(4.1)、(4.2)
に同様な処理を施しても同じ式(16.2)が得られる。逆に
言えば、直線運動している場合のOFベクトルの縦横比は
hに依存しないことが理解できる。すなわち、こうした
一連の演算においては、OFベクトルの絶対値が重要にな
ってくることを示唆している。
On the other hand, when only the steering angle is given, the equation (14.
1) Even if (14.2) is similarly deformed, the height h during linear motion
Is not obtained. This is because there is no distance r in the denominator of the equations (14.1) and (14.2), and when the distance r is diverged, only the numerator term diverges and no solution exists. If this is traced back, there is a problem in the equation when ΔX / ΔY is calculated from Equations (9.1) and (9.2). When the distance r is diverged, ΔX / ΔY = (rXYcos [θ] 2 + f (hH) Ysin [θ] + cos [θ] (f 2 h + hx 2 -HX 2 -fHYcot [θ] -frXsin [θ])) / ((Ycos [θ] -fsin [θ]) (hX -HX + rYcos [θ] -frsin [θ])) (16.1) (ΔX / ΔY) x → ∞ = Xcos [θ] / (Ycos [θ] -fsin [θ]) (16.2) ), The equation does not include the height h. Equations for linear motion (4.1), (4.2)
The same equation (16.2) can be obtained by applying the same processing to Conversely, the aspect ratio of the OF vector when performing linear motion is
It can be understood that it does not depend on h. That is, in such a series of calculations, it is suggested that the absolute value of the OF vector becomes important.

【0076】まとめると、全ての情報がそろっている場
合には式(10.1)、(10.2)を用いてあらゆる運動状態下
で3次元情報を取得可能である。また、速さ情報だけが
分かっている場合にも、式(13.1)〜(13.5)を評価する
ことにより、回転半径rを取得でき、最終的に式(10.
1)、(10.2)を利用することによって、3次元情報が得ら
れることが分かる。
In summary, if all the information is available, it is possible to acquire three-dimensional information under any motion state by using equations (10.1) and (10.2). Even when only the speed information is known, the turning radius r can be obtained by evaluating the expressions (13.1) to (13.5), and finally, the expression (10.
It can be seen that three-dimensional information can be obtained by using (1) and (10.2).

【0077】ただし、直線運動状態において式(13.1)
〜(13.5)がセンシティブになると思われるので、直線運
動時の方程式の併用も考慮する必要がある。一方、舵角
のみが与えられている条件では、回転運動している場合
のみ式(14.1)、(14.2)を用いて高さhを求めることが
できるが、直線運動をしているときには同方式では3次
元情報を評価できない。直線運動を仮定しても、そのた
めの基本式(4.1)、(4.2)から、車速情報なしでは高さ
hを求めることができない。 (回転方向)これまで、左方向に回転する車両8をモデ
ル化し、各種の評価を行った。ここでは、右回転の場合
について考える。
However, in the linear motion state, the equation (13.1)
Since (13.5) seems to be sensitive, it is necessary to consider the use of equations for linear motion. On the other hand, under the condition that only the steering angle is given, the height h can be obtained using the equations (14.1) and (14.2) only when the vehicle is rotating, but the same method is used when the vehicle is performing a linear motion. Cannot evaluate 3D information. Even if linear motion is assumed, the height h cannot be obtained without vehicle speed information from the basic equations (4.1) and (4.2) for that. (Rotation direction) The vehicle 8 rotating to the left has been modeled and various evaluations have been made. Here, the case of clockwise rotation is considered.

【0078】実カメラ2の座標系は固定したいので、右
回転系と左回転系では式の符号が一部変わり、残念なが
ら同じ式をそのまま使えず別の式を準備する必要があ
る。
Since the coordinate system of the real camera 2 is desired to be fixed, the sign of the expression is partially changed between the right rotation system and the left rotation system, and unfortunately the same expression cannot be used as it is and another expression must be prepared.

【0079】なお、式の切り替えについては、画面のOF
ベクトルと車速情報から決定できる。すなわち、画面全
体の平均のOFベクトルが左右どちらに向かっているかと
いうことと、車速の正負の情報とから回転方向の判断が
可能となる。
Note that the switching of formulas is performed by using OF
It can be determined from the vector and the vehicle speed information. That is, it is possible to determine the rotation direction based on whether the average OF vector of the entire screen is to the left or right, and information on the positive or negative of the vehicle speed.

【0080】式を組み立てるときに、座標軸の取り方に
は各種の方法が考えられるが、ここでは、図13に基づ
いて考える。x−z軸については左回転の場合と統一性を
持たせ、角度αやθzは正の値とする。車両8の回転の
角速度ωは図11中の矢印方向への回転を正とする。こ
のとき、直進運動時の方程式(1)-(6)は変化しない。
When assembling the formula, various methods can be considered for obtaining the coordinate axes. Here, the method will be described with reference to FIG. The x-z axis is unified with the case of the left rotation, and the angles α and θz are positive values. The angular velocity ω of the rotation of the vehicle 8 is defined as positive in the rotation in the direction of the arrow in FIG. At this time, the equations (1) to (6) during the linear motion do not change.

【0081】一方、回転運動の式(7)、(8.1)、(8.2)
は、 ro=(r2+x2+z2+-2r(xcos[θz]-zsin[θz]))1/2 (17) ΔX=ω(z+rsin[θz]) (18.1) Δz=-xω+rωcos[θz] (18.2) となる。
On the other hand, the equations (7), (8.1) and (8.2)
Is ro = (r 2 + x 2 + z 2 + -2r (xcos [θz] -zsin [θz])) 1/2 (17) ΔX = ω (z + rsin [θz]) (18.1) Δz = -xω + rωcos [θz] (18.2)

【0082】その結果、回転運動時の基本の連立方程式
(9.1)、(9.2)に対応する式は、 ΔX=Xωcos[θ]((h-H)X+rcos[θz](-Ycos[θ]+fsin[θ]))/f(h-H)+ 1/(-h+H)(ω(sin[θ]((-h+H)Y+frsin[θz])- cos[θ](fh-HYcot[θ]+rYsin[θ]))) (19.1) ΔY=-1/f(h-H)(ω(Ycos[θ]-fsin[θ]) ((-h+H)X+rcos[θz](Ycos[θ]-fsin[θ]))) (19.2) となる。
As a result, the basic simultaneous equations during rotational motion
The equations corresponding to (9.1) and (9.2) are: ΔX = Xωcos [θ] ((hH) X + rcos [θz] (− Ycos [θ] + fsin [θ])) / f (hH) + 1 / (-h + H) (ω (sin [θ] ((-h + H) Y + frsin [θz])-cos [θ] (fh-HYcot [θ] + rYsin [θ]))) (19.1) ΔY = -1 / f (hH) (ω (Ycos [θ] -fsin [θ]) ((-h + H) X + rcos [θz] (Ycos [θ] -fsin [θ]))) (19.2 ).

【0083】この式を用いて、それぞれの条件に対応し
た解を求める。
Using this equation, a solution corresponding to each condition is obtained.

【0084】全ての情報が与えられたときに高さhを求
める式を、それぞれ独立に求めると、 h=(-fHΔX+ ω(rXYcos[θ]2cos[θz]+fsin[θ](HY+frsin[θz])+ cos[θ](HX2+fHYcot[θ]- fr(Xcos[θz]sin[θ]+Ysin[θz]))))/ (-fΔX+(f2+X2)ωcos[θ]+fYωsin[θ]) (20.1) あるいは h=H+rωcos[θz](Ycos[θ]-fsin[θ])2/(XYωcos[θ]-f(ΔY+Xωsin[θ])) (20.2) となる。
When expressions for obtaining the height h when all information is given are obtained independently, h = (− fHΔX + ω (rXYcos [θ] 2 cos [θz] + fsin [θ] (HY + frsin [θz]) + cos [θ] (HX 2 + fHYcot [θ]-fr (Xcos [θz] sin [θ] + Ysin [θz]))))) / (-fΔX + (f 2 + X 2 ) ωcos [θ] + fYωsin [θ]) (20.1) or h = H + rωcos [θz] (Ycos [θ] -fsin [θ]) 2 / (XYωcos [θ] -f (ΔY + Xωsin [θ])) (20.2).

【0085】これは式(10.1)、(10.2)に対応してい
る。
This corresponds to equations (10.1) and (10.2).

【0086】車速のみが与えられた場合、先に論じたよ
うに、直接高さhを求める方法はここでは論じない。
Given only the vehicle speed, the method for directly determining the height h, as discussed above, is not discussed here.

【0087】しかし、高さhの4次方程式を求めてみる
と、左回転でも右回転でも付1に記載した式と同じにな
り、実際の計算において、左右の判断をする必要がな
い。
However, when a quartic equation of height h is obtained, the equation becomes the same as that described in Appendix 1 for both left and right rotations, and it is not necessary to judge left and right in actual calculations.

【0088】従って、直接高さhを求める手法を用いれ
ば、条件判断をしなくて良いため、その式自体の煩雑さ
をいとわなければ有利である。
Therefore, if a method for directly obtaining the height h is used, no condition judgment is required, and it is advantageous if the expression itself is not complicated.

【0089】一方、回転半径rを求めて、式(20.1)、(2
0.2)を使って3次元情報を得る場合は、下記式を解くこ
とになる。
On the other hand, the radius of gyration r is obtained and the equations (20.1) and (2
To obtain three-dimensional information using 0.2), the following equation is solved.

【0090】 ar(r2-w2)1/2+b(r2-w2)1/2+cr+d=0 (21.1) a=fvY2ΔXcos[θ]2-fvXYΔYcos[θ]2- 2f2vYΔXcos[θ]sin[θ]+f2vXΔYcos[θ]sin[θ]+ f3vΔXsin[θ]2 (21.2) b=-f2v2Y2cos[θ]3+2f3v2Ycos[θ]2sin[θ]- fv2Y3cos[θ]2sin[θ]-f4v2cos[θ]sin[θ]2+ 2f2v2Y2cos[θ]sin[θ]2-f3v2Ysin[θ]3 (21.3) c=f3HvΔYcos[θ]+f2vwYΔYcos[θ]- f2HvYΔYcos[θ]cot[θ]-f3vwΔYsin[θ] (21.4) d=-2f2Hv2XYcos[θ]2-fv2wXY2cos[θ]2+ fHv2XY2cos[θ]2cot[θ]+f3Hv2Xcos[θ]sin[θ]+ 2f2v2wXYcos[θ]sin[θ]-f3v2wXsin[θ]2 (21.5) 舵角のみが与えられた場合、式(14.1)、(14.2)に対応
する式は以下の式である。
Ar (r 2 -w 2 ) 1/2 + b (r 2 -w 2 ) 1/2 + cr + d = 0 (21.1) a = fvY 2 ΔXcos [θ] 2 -fvXYΔYcos [θ] 2 -2f 2 vYΔXcos [θ] sin [θ] + f 2 vXΔYcos [θ] sin [θ] + f 3 vΔXsin [θ] 2 (21.2) b = -f 2 v 2 Y 2 cos [θ] 3 + 2f 3 v 2 Ycos [θ] 2 sin [θ]-fv 2 Y 3 cos [θ] 2 sin [θ] -f 4 v 2 cos [θ] sin [θ] 2 + 2f 2 v 2 Y 2 cos [θ] sin [θ] 2 -f 3 v 2 Ysin [θ] 3 (21.3) c = f 3 HvΔYcos [θ] + f 2 vwYΔYcos [θ]-f 2 HvYΔYcos [θ] cot [θ] -f 3 vwΔYsin [θ ] (21.4) d = -2f 2 Hv 2 XYcos [θ] 2 -fv 2 wXY 2 cos [θ] 2 + fHv 2 XY 2 cos [θ] 2 cot [θ] + f 3 Hv 2 Xcos [θ] sin [θ] + 2f 2 v 2 wXYcos [θ] sin [θ] -f 3 v 2 wXsin [θ] 2 (21.5) If only the steering angle is given, the equations corresponding to equations (14.1) and (14.2) Is the following equation.

【0091】 h=(-rY(YΔX-XΔY)cos[θ]2cos[θz]+ cos[θ](-HXYΔX+HX2ΔY+fHYΔYcot[θ]- frXΔYcos[θz]sin[θ]-frYΔYsin[θz])+ f(-frΔXcos[θz]sin[θ]2+rYΔXcos[θz]sin[2θ]+ sin[θ](HXΔX+HYΔY+frΔYsin[θz])))/ ((-XYΔX+f2ΔY+X2ΔY)cos[θ]+f(XΔX+YΔY)sin[θ]) (22.1) =(rY(X-dY)cos[θ]2cos[θz]+cos[θ](HX2-dHXY+ fHYcot[θ]-frXcos[θz]sin[θ]-frYsin[θz])+ f(-dfrcos[θz]sin[θ]2+drYcos[θz]sin[2θ]+ sin[θ](dHX+HY+frsin[θz])))/ ((f2+X(X-dY))cos[θ]+f(dX+Y)sin[θ]) (但し d=ΔX/ΔY) (22.2) 以上、右回転と左回転とで式が微妙に変化する場合があ
るので、舵角情報がない場合には、先に述べたように画
像情報処理からその検出を行う必要がある。
[0091] h = (- rY (YΔX- XΔY) cos [θ] 2 cos [θz] + cos [θ] (- HXYΔX + HX 2 ΔY + fHYΔYcot [θ] - frXΔYcos [θz] sin [θ] -frYΔYsin [θz]) + f (-frΔXcos [θz] sin [θ] 2 + rYΔXcos [θz] sin [2θ] + sin [θ] (HXΔX + HYΔY + frΔYsin [θz]))) / ((-XYΔX + f 2 ΔY + X 2 ΔY) cos [θ] + f (XΔX + YΔY) sin [θ]) (22.1) = (rY (X-dY) cos [θ] 2 cos [θz] + cos [θ] (HX 2 -dHXY + fHYcot [θ] -frXcos [θz] sin [θ] -frYsin [θz]) + f (-dfrcos [θz] sin [θ] 2 + drYcos [θz] sin [2θ] + sin [θ] ( dHX + HY + frsin [θz] ))) / ((f 2 + X (X-dY)) cos [θ] + f (dX + Y) sin [θ]) ( where d = ΔX / ΔY) (22.2 As described above, since the expression may slightly change between right rotation and left rotation, if there is no steering angle information, it is necessary to detect it from image information processing as described above.

【0092】これらの原理的考察から、車速情報、実カ
メラ2の高さ、実カメラ2の俯角、実カメラ2の光学特
性データ(焦点距離データ、画素サイズデータ)、撮像
領域の中心位置Oから車両8の中心位置OO’までの距
離wが分かれば、原理的に3次元情報の取得が可能であ
る。
From these theoretical considerations, the vehicle speed information, the height of the real camera 2, the depression angle of the real camera 2, the optical characteristic data (focal length data, pixel size data) of the real camera 2, and the center position O of the imaging area If the distance w to the center position OO 'of the vehicle 8 is known, three-dimensional information can be acquired in principle.

【0093】また、ハンドルの舵角情報を加工処理した
実カメラ2の光軸(視線軸)と接線の為すズレ角θz、
回転半径rが与えられることにより、より一層簡単に3
次元情報を取得できることも明らかとなった。
Further, a deviation angle θz between a tangent and the optical axis (line of sight) of the real camera 2 which has processed the steering angle information of the steering wheel,
Given the radius of gyration r, 3
It became clear that dimensional information could be obtained.

【0094】一方、車速情報が失われると、実カメラ2
の光軸(視線軸)と接線の為すズレ角θz、回転半径r
が既知であっても、直線運動の場合の3次元情報を取得
することが不可能であることが分かった。
On the other hand, when the vehicle speed information is lost, the actual camera 2
Angle θz between the optical axis (line of sight) and the tangent, and the radius of gyration r
Is known, it is impossible to obtain three-dimensional information in the case of linear motion.

【0095】以下に本発明の詳細な実施の形態を説明す
る。 (発明の実施の形態1)図12は本発明の実施の形態1
のブロック図である。その図12において、20は実カ
メラ2としての動画カメラ、21は車速検知装置、22
は画像情報処理装置、23は画像バッファー・セレクタ
装置、24は表示装置(モニタ装置)、25は舵角検知
装置である。動画カメラ20は車両8に搭載されて車両
8の周囲を撮像するデジタル式のものである。車速検知
センサ21は車両8の車速を検出し、画像情報処理装置
22は、動画カメラ20によって撮影された実画像を仮
想カメラによって撮影された仮想画像に変換して俯瞰図
を作成する機能を有する。画像バッファーセレクタ装置
23は、車両停止時に画像情報処理装置22によって処
理された画像を一時的に保存しかつ表示装置24に表示
させる機能を有する。
Hereinafter, a detailed embodiment of the present invention will be described. (Embodiment 1) FIG. 12 shows Embodiment 1 of the present invention.
It is a block diagram of. In FIG. 12, reference numeral 20 denotes a moving image camera as the real camera 2, 21 denotes a vehicle speed detection device, 22
Denotes an image information processing device, 23 denotes an image buffer / selector device, 24 denotes a display device (monitor device), and 25 denotes a steering angle detecting device. The moving image camera 20 is a digital type that is mounted on the vehicle 8 and captures an image around the vehicle 8. The vehicle speed detection sensor 21 detects the vehicle speed of the vehicle 8, and the image information processing device 22 has a function of converting a real image captured by the video camera 20 into a virtual image captured by the virtual camera to create an overhead view. . The image buffer selector device 23 has a function of temporarily storing an image processed by the image information processing device 22 when the vehicle stops, and displaying the image on the display device 24.

【0096】これは、車両が静止している場合には、画
像情報処理装置22によって高さ情報を取得できないか
らであり、車両停止中にも、俯瞰図を違和感なく表示さ
せるために、車両の静止直前に処理された仮想画像を画
像バッファー・セレクタ装置23に保存して、表示装置
24に送信させることにしたものである。
This is because the height information cannot be obtained by the image information processing device 22 when the vehicle is stationary. In order to display the bird's-eye view without discomfort even when the vehicle is stopped, The virtual image processed just before the stillness is stored in the image buffer / selector device 23 and transmitted to the display device 24.

【0097】なお、車両の停止中に動画カメラ20の撮
像領域内への物体進入に基づく画像変化を検出して、動
画カメラ20によって撮影された実画像を表示装置24
に表示させる。また、車両停止中に、動画カメラ20が
起動された場合にも、動画カメラ20によって撮影され
た実画像を表示装置24に表示させる。
While the vehicle is stopped, an image change due to the entry of an object into the image pickup area of the video camera 20 is detected, and the actual image captured by the video camera 20 is displayed on the display device 24.
To be displayed. In addition, even when the video camera 20 is activated while the vehicle is stopped, the actual image captured by the video camera 20 is displayed on the display device 24.

【0098】画像情報処理装置22は、図13に示す処
理ブロックに従って、動画カメラ20によって撮影され
た実画像に含まれている高さ情報を演算して、俯瞰図を
作成する。ここでは、動画カメラ20の車両8に対する
設置データ(車両への取り付け高さデータ、地面に対す
る俯角データ)、動画カメラ20の画素サイズデータ、
動画カメラ20の焦点距離データ、ズレ角度データ、回
転半径、回転方向データがあらかじめ準備されているも
のとする。すなわち、そのデータベース群には、撮像領
域の回転半径と舵角との相関関係テーブル、回転接線に
対する光軸の為す角(ズレ角)θzと舵角との相関関係
テーブル、カメラの高さ、俯角、焦点距離、画素サイズ
の情報が保存されている。
The image information processing device 22 calculates the height information included in the actual image captured by the moving image camera 20 according to the processing blocks shown in FIG. Here, installation data of the video camera 20 with respect to the vehicle 8 (height data attached to the vehicle, depression angle data with respect to the ground), pixel size data of the video camera 20,
It is assumed that focal length data, deviation angle data, rotation radius, and rotation direction data of the video camera 20 are prepared in advance. That is, the database group includes a correlation table between the rotation radius of the imaging region and the steering angle, a correlation table between the angle (deviation angle) θz made by the optical axis with respect to the rotation tangent and the steering angle, the camera height, the depression angle , Focal length, and pixel size information are stored.

【0099】画像情報処理装置22は、動画像に基づき
オプティカルフロー検出を行って、画面全体のオプティ
カルフローマップを作成するオプティカルフローマップ
生成手段22aを有する。
The image information processing apparatus 22 has an optical flow map generating means 22a for detecting an optical flow based on a moving image and creating an optical flow map of the entire screen.

【0100】また、画像情報処理装置22は、データベ
ース群に基づき自車舵角情報から撮像領域と車体の相対
位置、回転半径、回転方向を求める。
Further, the image information processing device 22 obtains the relative position, the turning radius, and the turning direction of the imaging area and the vehicle body from the own vehicle steering angle information based on the database group.

【0101】画像情報処理装置22は、それらの各デー
タと車速とに基づき、各画素毎に実際の空間での高さ情
報を演算し、高さ情報マップを生成する高さ情報マップ
生成手段22bを有する。この高さ情報マップの生成に
は、例えば、式(10.1)、(10.2)、(20.1)、(20.2)を用
いる。
The image information processing device 22 calculates height information in an actual space for each pixel based on the data and the vehicle speed, and generates a height information map generating means 22b for generating a height information map. Having. For generating the height information map, for example, equations (10.1), (10.2), (20.1), and (20.2) are used.

【0102】この画像情報処理装置22は、高さ情報マ
ップとデジタル画像データとから任意の俯瞰図を作成す
る作成手段22cを有し、この俯瞰図データは画像バッ
ファー・セレクタ装置23に送られる。
The image information processing apparatus 22 has a creating means 22 c for creating an arbitrary overhead view from the height information map and the digital image data. The overhead view data is sent to the image buffer selector 23.

【0103】この画像情報処理装置22には、また、自
車静止中の画像変化を検知するため、画像変化検知手段
22dを有する。この画像変化検知手段22dはオプテ
ィカルフローマップに基づき有意な画像変化を検知して
画像変化検知信号を生成し、この画像変化検知信号を画
像バッファー・セレクタ装置24に送信する。
The image information processing device 22 also has image change detecting means 22d for detecting an image change while the vehicle is stationary. The image change detecting means 22d detects a significant image change based on the optical flow map, generates an image change detection signal, and transmits the image change detection signal to the image buffer selector 24.

【0104】画像バッファー・セレクタ装置23はその
画像変化検知信号に基づき車両静止中の実画像と車両静
止直前に得られた仮想画像とを切り換えて表示装置24
に送信する。 (発明の実施の形態2)図14は発明の実施の形態2の
ブロック図を示している。この発明の実施の形態2で
は、舵角検知装置25は設けられていない。
The image buffer selector 23 switches between a real image while the vehicle is stationary and a virtual image obtained immediately before the vehicle is stationary based on the image change detection signal, and displays the image.
Send to (Embodiment 2) FIG. 14 is a block diagram showing Embodiment 2 of the invention. In the second embodiment of the present invention, the steering angle detecting device 25 is not provided.

【0105】この発明の実施の形態2では、画像情報処
理装置22は車両の回転半径r、軸ズレ角度θzを演算
する。
In the second embodiment of the present invention, the image information processing device 22 calculates the turning radius r and the axis deviation angle θz of the vehicle.

【0106】画像情報処理装置22は、オプティカルフ
ロー検出を行って、画面全体からオプティカルフローマ
ップを作成する。次に、画像情報処理装置22は、あら
かじめ準備されているデータ群としての撮像領域の中心
と車体中心との相対距離w、カメラの設置データと、オ
プティカルフローマップとに基づき回転半径演算手段2
2eにより回転半径、回転方向を演算する。これには、
例えば、式(13.1)〜(13.5)及び式(21.1)、(21.2)を用い
る。
The image information processing apparatus 22 performs optical flow detection and creates an optical flow map from the entire screen. Next, the image information processing device 22 calculates the relative radius w between the center of the imaging area and the center of the vehicle as a data group prepared in advance, the camera installation data, and the turning radius calculation means 2 based on the optical flow map.
The rotation radius and the rotation direction are calculated by 2e. This includes
For example, equations (13.1) to (13.5) and equations (21.1) and (21.2) are used.

【0107】次に、画像情報処理装置22は、それらの
各データと回転半径情報と車速とに基づきズレ角演算手
段22fによりズレ角θzを演算する。そして、画像情
報処理装置22は、オプティカルフローマップと回転半
径情報とズレ角と各データとから各画素毎に実際の空間
での高さ情報を演算し、高さ情報マップを生成する。こ
の高さ情報マップと実画像とから所望の俯瞰図を作成す
る。また、車両停止中はオプティカルフローマップに基
づいて、画像変化検知信号を生成する。
Next, the image information processing device 22 calculates the shift angle θz by the shift angle calculating means 22f based on the data, the turning radius information and the vehicle speed. Then, the image information processing device 22 calculates height information in an actual space for each pixel from the optical flow map, the rotation radius information, the deviation angle, and each data, and generates a height information map. A desired overhead view is created from the height information map and the actual image. While the vehicle is stopped, an image change detection signal is generated based on the optical flow map.

【0108】画像バッファー・セレクタ装置24はその
画像変化検知信号に基づき車両静止中の実画像と車両静
止直前に得られた仮想画像とを切り換えて表示装置に送
信する。 (発明の実施の形態3)図15は発明の実施の形態3の
ブロック図を示している。画像情報処理装置22は、オ
プティカルフロー検出を行って、画面全体からオプティ
カルフローマップを作成する。次に、画像情報処理装置
22は車速と撮像領域の中心と車体中心との相対距離w
とカメラの設置データと、オプティカルフローマップと
に基づき高さ情報を直接演算する。これには、下記に示
す式(付1.1)〜(付1.6)を用いる。その後の処理は、発
明の実施の形態1、発明の実施の形態2と同じであるの
でその詳細な説明は省略する。 付録1 速度だけがあたえられたときの高さを求める方
程式 ah4+bh3+ch2+dh1+e=0 (付1.1) a=((-XYΔX+f2ΔY+X2ΔY)cos[θ]+f(XΔX+YΔY)sin[θ])2 (付1.2) b=-Csc[θ] ((-XYΔX+f2ΔY+X2ΔY)cos[θ]+f(XΔX+YΔY)sin[θ]) (f(2HXΔX+fwΔY+3HYΔY)- f(2HXΔX+fwΔY+HYΔY)cos[2θ]+ (-2HXYΔX+f2HΔY+2HX2ΔY-fwYΔY)sin[2θ]) (付1.3) c=-f2v2Y4Xcos[θ]6+ 2fv2Y3(2f2-Y2)cos[θ]5sin[θ]+2f3cos[θ]sin[θ]3 (w2ΔX(-2YΔX+XΔY)+v2Y(-f2+2Y2)sin[θ]2)+ Y2cos[θ]4 (w2(YΔX-XΔY)2-v2(6f4-8f2Y2+Y4)sin[θ]2)+ 2fYcos[θ]3sin[θ](-w2(2Y2ΔX2-3XYΔXΔY+X2ΔY2)+ 2V2(f4-3f2Y2+Y4)sin[θ]2)+cos[θ]2 (6H2X2Y2ΔX2-12H2X3YΔXΔY+6fHwXY2ΔXΔY+ f4H2ΔY2+6f2H2X2ΔY2+6H2X4ΔY2-2f3HwYΔY2- 6fHwX2YΔY2+6f2H2Y2ΔY2+f2w2Y2ΔY2+2fHYΔY (-3HXYΔX+2f2HΔY+3HX2ΔY-fwYΔY)cot[θ]+ f2H2Y2ΔY2cot[θ]2+ 6f2w2Y2ΔX2sin[θ]2-6f2w2XYΔXΔYsin[θ]2+ f2w2X2ΔY2sin[θ]2-f6v2sin[θ]4+ 8f4v2Y2sin[θ]4-6f2v2Y4sin[θ]4)+ f(f(6H2X2ΔX2+6fHwXΔXΔY+12H2XYΔXΔY+ f2w2ΔY2+6fHwYΔY2+6H2Y2ΔY2)sin[θ]2+ f3w2ΔX2sin[θ]4- f3v2Y2sin[θ]6+(-6H2X2YΔX2+3f2H2XΔXΔY+ 6H2X3ΔXΔY-6fHwXYΔXΔY-6H2XY2ΔXΔY+ 2f3HwΔY2+3fHwX2ΔY2+3f2H2YΔY2- f2w2YΔY2+6H2X2YΔY2-3fHwY2ΔY2) sin[2θ]) (付1.4) d=-2(v2Y3(-6f3H-5f2wY+3fHY2+wY3) cos[θ]5sin[θ]+v2Y4cos[θ]5cot[θ] (-fHYcos[θ]+(4f2H+fwY-HY2)sin[θ])- fYcos[θ]3sin[θ] (2Hw2(2Y2ΔX2-3XYΔXΔY+X2ΔY2)+ V2(f4H+10f3wY+ 2f2HY2-10fwY3-4HY4)sin[θ]2)+ f2cos[θ]4(Hw2(YΔX-XΔY)2+v2(4f4H+10f3wY- 2f2HY2-5fwY3-HY4)sin[θ]2)+ cos[θ]2(2H3X2Y2ΔX2+2f2H3XYΔXΔY- 4H3X3YΔXΔY+3fH2wXY2ΔXΔY+f2H3X2ΔY2+ 2H3X4ΔY2+f3H2wYΔY2-3fH2wX2YΔY2+ 3f2H3Y2ΔY2+f2Hw2Y2ΔY2+fH2YΔY (-3HXYΔX+f2HΔY+3HX2ΔY-2fwYΔY)cot[θ]+ f2H3Y2ΔY2cot[θ]2+6f2Hw2Y2ΔX2sin[θ]2- 6f2Hw2XYΔXΔYsin[θ]2+f2Hw2X2ΔY2sin[θ]2+ 5f5v2wYsin[θ]4+3f4Hv2Y2sin[θ]4- 10f3v2wY3sin[θ]4-6f2Hv2Y4sin[θ]4)+f2 sin[θ]2(H(2H2X2ΔX2+3fHwXΔXΔY+4H2XYΔXΔY+ f2w2ΔY2+3fHwYΔY2+2H2Y2ΔY2)+ f2Hw2ΔX2sin[θ]2-f2v2Y(fw+HY)sin[θ]4)+ fcos[θ]sin[θ](H(-4H2X2Y2ΔX2+f2H2XΔXΔY+ 4H2X3ΔXΔY-6fHwXYΔXΔY-4H2XY2ΔXΔY+ f3HwΔY2+3fHwX2ΔY2+f2H2YΔY2- 2f2w2YΔY2+4H2X2YΔY2-3fHwY2ΔY2)- 2f2Hw2ΔX(2YΔX-XΔY)sin[θ]2- f2v2(f3w+f2HY-5fwY2-4HY3)sin[θ]4)) (付1.5) e=-v2Y4cos[θ]6(6f2H2+10fHwY+2H2Y2+ w2Y2-2HY(2fH+wY)cot[θ]+H2Y2cot[θ]2)+ 2v2Y3(2f3H2+10f2HwY+f(4H2+3w2)Y2+HwY3) cos[θ]5sin[θ]+ 2f3cos[θ]sin[θ]3(H2w2ΔX(-2YΔX+XΔY)+ v2Y(3f2w2+5fHwY+2H2Y2)sin[θ]2)+2fY cos[θ]3sin[θ](-H2w2(2Y2ΔX2-3XYΔXΔY+X2ΔY2)+ v2Y(5f3Hw+4f2H2Y+ 10f2w2Y+10fHwY2+2H2Y3)sin[θ]2)- Y2cos[θ]4(-H2w2(YΔX-XΔY)2+ v2(f4H2+20f3HwY+12f2H2Y2+ 15f2w2Y2+10fHwY3+H2Y4)sin[θ]2)+ cos[θ]2(H4X2Y2ΔX2+2f2H4XYΔXΔY-2H4X3YΔXΔY+ 2fH3wXY2ΔXΔY+H4X4ΔY2+2f3H3wYΔY2- 2fH3wX2YΔY2+2f2H4Y2ΔY2+f2H2w2Y2ΔY2- 2fH3YΔY(HXYΔX-HX2ΔY+fwYΔY)cot[θ]+ f2H4Y2ΔY2cot[θ]2+ 6f2H2w2Y2ΔX2sin[θ]2-6f2H2w2XYΔXΔYsin[θ]2+ f2H2w2X2ΔY2sin[θ]2-2f5Hv2wYsin[θ]4- 2f4H2v2Y2sin[θ]4-15f4v2w2Y2sin[θ]4- 20f3Hv2wY3sin[θ]4-6f2H2v2Y4sin[θ]4)+ f(fH2(HXΔX+fwΔY+HYΔY)2sin[θ]2+ f3H2w2ΔX2sin[θ]4-f3v2(fw+HY)2sin[θ]6+ H2(-H2X2YΔX2+H2X3ΔXΔY- 2fHwXYΔXΔY-H2XY2ΔXΔY+fHwX2ΔY2- f2w2YΔY2+H2X2YΔY2-fHwY2ΔY2) sin[2θ]) (付1.6)
The image buffer selector 24 switches between a real image while the vehicle is stationary and a virtual image obtained immediately before the vehicle is stationary based on the image change detection signal and transmits the switched image to the display device. (Embodiment 3) FIG. 15 is a block diagram of Embodiment 3 of the present invention. The image information processing device 22 performs optical flow detection and creates an optical flow map from the entire screen. Next, the image information processing device 22 determines the vehicle speed, the relative distance w between the center of the imaging area and the center of the vehicle body.
The height information is directly calculated based on the camera installation data and the optical flow map. For this, the following equations (Appendix 1.1) to (Appendix 1.6) are used. Subsequent processing is the same as in the first embodiment and the second embodiment of the invention, and a detailed description thereof will be omitted. Appendix 1 Equation for finding height when only speed is given ah 4 + bh 3 + ch 2 + dh 1 + e = 0 (Appendix 1.1) a = ((-XYΔX + f 2 ΔY + X 2 ΔY) cos [θ] + f (XΔX + YΔY) sin [θ]) 2 (Appendix 1.2) b = -Csc [θ] ((-XYΔX + f 2 ΔY + X 2 ΔY) cos [θ] + f (XΔX + YΔY ) sin [θ]) (f (2HXΔX + fwΔY + 3HYΔY)-f (2HXΔX + fwΔY + HYΔY) cos [2θ] + (-2HXYΔX + f 2 HΔY + 2HX 2 ΔY-fwYΔY) sin [2θ]) 1.3) c = -f 2 v 2 Y 4 Xcos [θ] 6 + 2fv 2 Y 3 (2f 2 -Y 2 ) cos [θ] 5 sin [θ] + 2f 3 cos [θ] sin [θ] 3 ( w 2 ΔX (-2YΔX + XΔY) + v 2 Y (-f 2 + 2Y 2 ) sin [θ] 2 ) + Y 2 cos [θ] 4 (w 2 (YΔX-XΔY) 2 -v 2 (6f 4 -8f 2 Y 2 + Y 4 ) sin [θ] 2 ) + 2fYcos [θ] 3 sin [θ] (-w 2 (2Y 2 ΔX 2 -3XYΔXΔY + X 2 ΔY 2 ) + 2V 2 (f 4 -3f 2 Y 2 + Y 4 ) sin [θ] 2 ) + cos [θ] 2 (6H 2 X 2 Y 2 ΔX 2 -12H 2 X 3 YΔXΔY + 6fHwXY 2 ΔXΔY + f 4 H 2 ΔY 2 + 6f 2 H 2 X 2 ΔY 2 + 6H 2 X 4 ΔY 2 -2f 3 HwYΔY 2 - 6fHwX 2 YΔY 2 + 6f 2 H 2 Y 2 ΔY 2 + f 2 w 2 Y 2 ΔY 2 + 2fHYΔY (-3HXYΔX + 2f 2 HΔY + 3HX 2 ΔY-fwYΔY) cot [θ] + f 2 H 2 Y 2 ΔY 2 cot [θ] 2 + 6f 2 w 2 Y 2 ΔX 2 sin [θ] 2 -6f 2 w 2 XYΔXΔYsin [ ] 2 + f 2 w 2 X 2 ΔY 2 sin [θ] 2 -f 6 v 2 sin [θ] 4 + 8f 4 v 2 Y 2 sin [θ] 4 -6f 2 v 2 Y 4 sin [θ] 4 ) + f (f (6H 2 X 2 ΔX 2 + 6fHwXΔXΔY + 12H 2 XYΔXΔY + f 2 w 2 ΔY 2 + 6fHwYΔY 2 + 6H 2 Y 2 ΔY 2 ) sin [θ] 2 + f 3 w 2 ΔX 2 sin [θ ] 4 - f 3 v 2 Y 2 sin [θ] 6 + (- 6H 2 X 2 YΔX 2 + 3f 2 H 2 XΔXΔY + 6H 2 X 3 ΔXΔY-6fHwXYΔXΔY-6H 2 XY 2 ΔXΔY + 2f 3 HwΔY 2 + 3fHwX 2 ΔY 2 + 3f 2 H 2 YΔY 2 - f 2 w 2 YΔY 2 + 6H 2 X 2 YΔY 2 -3fHwY 2 ΔY 2) sin [2θ]) ( with 1.4) d = -2 (v 2 Y 3 (-6f 3 H-5f 2 wY + 3fHY 2 + wY 3 ) cos [θ] 5 sin [θ] + v 2 Y 4 cos [θ] 5 cot [θ] (-fHYcos [θ] + (4f 2 H + fwY-HY 2 ) sin [θ])-fYcos [θ] 3 sin [θ] (2Hw 2 (2Y 2 ΔX 2 -3XYΔXΔY + X 2 ΔY 2 ) + V 2 (f 4 H + 10f 3 wY + 2f 2 HY 2 -10fwY 3 -4HY 4 ) sin [θ] 2 ) + f 2 cos [θ] 4 (Hw 2 (YΔX-XΔY) 2 + v 2 (4f 4 H + 10f 3 wY- 2f 2 HY 2 -5fwY 3 -HY 4 ) sin [θ] 2) + cos [θ] 2 (2H 3 X 2 Y 2 ΔX 2 + 2f 2 H 3 XYΔXΔY- 4H 3 X 3 YΔXΔY + 3fH 2 wXY 2 ΔXΔY + f 2 H 3 X 2 ΔY 2 + 2H 3 X 4 ΔY 2 + f 3 H 2 wYΔY 2 -3fH 2 wX 2 YΔY 2 + 3f 2 H 3 Y 2 ΔY 2 + f 2 Hw 2 Y 2 Δ Y 2 + fH 2 YΔY (-3HXYΔX + f 2 HΔY + 3HX 2 ΔY-2fwYΔY) cot [θ] + f 2 H 3 Y 2 ΔY 2 cot [θ] 2 + 6f 2 Hw 2 Y 2 ΔX 2 sin [θ ] 2 - 6f 2 Hw 2 XYΔXΔYsin [θ] 2 + f 2 Hw 2 X 2 ΔY 2 sin [θ] 2 + 5f 5 v 2 wYsin [θ] 4 + 3f 4 Hv 2 Y 2 sin [θ] 4 - 10f 3 v 2 wY 3 sin [θ] 4 -6f 2 Hv 2 Y 4 sin [θ] 4 ) + f 2 sin [θ] 2 (H (2H 2 X 2 ΔX 2 + 3fHwXΔXΔY + 4H 2 XYΔXΔY + f 2 w 2 ΔY 2 + 3fHwYΔY 2 + 2H 2 Y 2 ΔY 2 ) + f 2 Hw 2 ΔX 2 sin [θ] 2 -f 2 v 2 Y (fw + HY) sin [θ] 4 ) + fcos [θ] sin [θ ] (H (-4H 2 X 2 Y 2 ΔX 2 + f 2 H 2 XΔXΔY + 4H 2 X 3 ΔXΔY-6fHwXYΔXΔY-4H 2 XY 2 ΔXΔY + f 3 HwΔY 2 + 3fHwX 2 ΔY 2 + f 2 H 2 YΔY 2 - 2f 2 w 2 YΔY 2 + 4H 2 X 2 YΔY 2 -3fHwY 2 ΔY 2) - 2f 2 Hw 2 ΔX (2YΔX-XΔY) sin [θ] 2f 2 v 2 (f 3 w + f 2 HY-5fwY 2 -4HY 3 ) sin [θ] 4 )) (Appendix 1.5) e = -v 2 Y 4 cos [θ] 6 (6f 2 H 2 + 10fHwY + 2H 2 Y 2 + w 2 Y 2 -2HY (2fH + wY ) cot [θ] + H 2 Y 2 cot [θ] 2 ) + 2v 2 Y 3 (2f 3 H 2 + 10f 2 HwY + f (4H 2 + 3w 2 ) Y 2 + HwY 3 ) cos [θ] 5 sin [θ] + 2f 3 cos [θ] sin [θ] 3 (H 2 w 2 ΔX (-2YΔX + XΔY) + v 2 Y (3f 2 w 2 + 5fHwY + 2H 2 Y 2) sin [θ] 2) + 2fY cos [θ] 3 sin [θ] (- H 2 w 2 (2Y 2 ΔX 2 -3XYΔXΔY + X 2 ΔY 2) + v 2 Y (5f 3 Hw + 4f 2 H 2 Y + 10f 2 w 2 Y + 10fHwY 2 + 2H 2 Y 3 ) sin [θ] 2 )-Y 2 cos [θ] 4 (-H 2 w 2 (YΔX-XΔY) 2 + v 2 (f 4 H 2 + 20f 3 HwY + 12f 2 H 2 Y 2 + 15f 2 w 2 Y 2 + 10fHwY 3 + H 2 Y 4) sin [θ] 2) + cos [θ] 2 (H 4 X 2 Y 2 ΔX 2 + 2f 2 H 4 XYΔXΔY-2H 4 X 3 YΔXΔY + 2fH 3 wXY 2 ΔXΔY + H 4 X 4 ΔY 2 + 2f 3 H 3 wYΔY 2 - 2fH 3 wX 2 YΔY 2 + 2f 2 H 4 Y 2 ΔY 2 + f 2 H 2 w 2 Y 2 ΔY 2 - 2fH 3 YΔY (HXYΔX-HX 2 ΔY + fwYΔY) cot [θ] + f 2 H 4 Y 2 ΔY 2 cot [θ] 2 + 6f 2 H 2 w 2 Y 2 ΔX 2 sin [θ] 2 -6f 2 H 2 w 2 XYΔXΔYsin [θ] 2 + f 2 H 2 w 2 X 2 ΔY 2 sin [θ] 2 -2f 5 Hv 2 wYsin [θ] 4 - 2f 4 H 2 v 2 Y 2 sin [θ] 4 - 15f 4 v 2 w 2 Y 2 sin [θ] 4 - 20f 3 Hv 2 wY 3 sin [θ] 4 -6f 2 H 2 v 2 Y 4 sin [θ] 4) + f (fH 2 (HXΔX + fwΔY + HYΔY) 2 sin [θ] 2 + f 3 H 2 w 2 ΔX 2 sin [θ] 4 -f 3 v 2 (fw + HY) 2 sin [θ] 6 + H 2 (-H 2 X 2 YΔX 2 + H 2 X 3 ΔXΔY- 2fHwXYΔXΔY-H 2 XY 2 ΔXΔY + fHwX 2 ΔY 2 - f 2 w 2 YΔY 2 + H 2 X 2 YΔY 2 -fHwY 2 ΔY 2) sin [2θ ]) (Appendix 1.6)

【0109】[0109]

【発明の効果】本発明は、以上説明したように、単眼カ
メラを用いた場合でも車両情報を用いることによって画
像の3次元情報を生成し、違和感のない自然な俯瞰図を
形成することができ、コンパクトな車載周囲監視装置を
製造できるという効果を奏する。
According to the present invention, as described above, even when a monocular camera is used, three-dimensional information of an image can be generated by using vehicle information, and a natural bird's-eye view without a sense of discomfort can be formed. This has the effect that a compact in-vehicle surrounding monitoring device can be manufactured.

【0110】更に、カメラも1個で良いので、その設
置、調整等の繁雑な作業も低減できる。
Furthermore, since only one camera is required, complicated operations such as installation and adjustment can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 画像変換の原理を説明するための模式図であ
る。
FIG. 1 is a schematic diagram for explaining the principle of image conversion.

【図2】 図1に示す実カメラによって撮像された実画
像の一例を示す図である。
FIG. 2 is a diagram showing an example of a real image captured by the real camera shown in FIG.

【図3】 図2に示す実画像を高さ情報を考慮せずに仮
想画像に変換した一例を示す図である。
FIG. 3 is a diagram showing an example in which the real image shown in FIG. 2 is converted into a virtual image without considering height information.

【図4】 実画像に基づく三次元情報の取得の原理を説
明するための模式図である。
FIG. 4 is a schematic diagram for explaining the principle of acquiring three-dimensional information based on an actual image.

【図5】 或時刻に図4に示す実カメラによって撮像さ
れた実画像を示す図である。
FIG. 5 is a diagram showing a real image captured by the real camera shown in FIG. 4 at a certain time;

【図6】 或時刻とは別の時刻に図4に示す実カメラに
よって撮像された実画像を示す図である。
6 is a diagram showing a real image captured by the real camera shown in FIG. 4 at a time different from a certain time.

【図7】 車両の旋回と撮像領域と実カメラの光軸との
関係を説明するための模式図である。
FIG. 7 is a schematic diagram for explaining the relationship between the turning of the vehicle, the imaging area, and the optical axis of the real camera.

【図8】 図7に示す車両と撮像領域との関係を説明す
るための部分拡大図である。
8 is a partially enlarged view for explaining the relationship between the vehicle shown in FIG. 7 and an imaging area.

【図9】 図8に示す撮像領域の拡大図である。FIG. 9 is an enlarged view of the imaging region shown in FIG.

【図10】 車速情報が与えられたときに、高さ情報を
演算する原理を説明するための模式図である。
FIG. 10 is a schematic diagram for explaining the principle of calculating height information when vehicle speed information is given.

【図11】 車両の回転方向が右回転のときに、高さ情
報を演算する原理を説明するための模式図である。
FIG. 11 is a schematic diagram for explaining the principle of calculating height information when the rotation direction of the vehicle is clockwise.

【図12】 本発明の実施の形態1に係わる車載周囲監
視装置のブロック回路図である。
FIG. 12 is a block circuit diagram of the on-vehicle surroundings monitoring device according to the first embodiment of the present invention.

【図13】 図12に示す車載周囲監視装置の詳細ブロ
ック図である。
13 is a detailed block diagram of the on-vehicle periphery monitoring device shown in FIG.

【図14】 本発明の実施の形態2に係わる車載周囲監
視装置の詳細ブロック図である。
FIG. 14 is a detailed block diagram of an in-vehicle surroundings monitoring apparatus according to Embodiment 2 of the present invention.

【図15】 本発明の実施の形態3に係わる車載周囲監
視装置の詳細ブロック図である。
FIG. 15 is a detailed block diagram of an in-vehicle surroundings monitoring apparatus according to Embodiment 3 of the present invention.

【符号の説明】[Explanation of symbols]

2 実カメラ 3 仮想カメラ 8 車両 20 デジタル式動画カメラ 21 車速検知装置 22 画像情報処理装置 2 Real camera 3 Virtual camera 8 Vehicle 20 Digital video camera 21 Vehicle speed detection device 22 Image information processing device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/20 G06T 7/20 B 5L096 15/00 100 15/00 100A G08G 1/16 G08G 1/16 D H04N 13/00 H04N 13/00 Fターム(参考) 3D020 BA20 BC13 BD10 BE03 5B080 BA05 GA21 5C054 AA01 AA05 CA04 CC05 EA01 EA05 FA01 FA02 FC01 FD03 HA30 5C061 AA21 AB03 AB08 AB17 5H180 AA01 CC04 LL01 LL02 LL08 5L096 AA09 BA04 CA02 FA62 HA03──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 7/20 G06T 7/20 B 5L096 15/00 100 15/00 100A G08G 1/16 G08G 1/16 D H04N 13/00 H04N 13/00 F-term (reference) 3D020 BA20 BC13 BD10 BE03 5B080 BA05 GA21 5C054 AA01 AA05 CA04 CC05 EA01 EA05 FA01 FA02 FC01 FD03 HA30 5C061 AA21 AB03 AB08 AB17 5H180 AA01 CC04 LL01 LL09 A0309

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 ある方向から撮影対象物を見るように配
設された実カメラによって撮影された実画像を別の方向
から前記撮影対象物を見るように仮想的に配設された仮
想カメラによって撮影された仮想画像に変換する画像変
換方法において、 車両への前記実カメラの設置データと前記実カメラの光
学特性データとに基づき前記撮影対象物が前記実カメラ
に対して相対移動することによって得られた動画情報を
解析して画像の三次元情報を取得することを特徴とする
画像変換方法。
1. A real camera, which is photographed by a real camera arranged so as to look at an object to be photographed from a certain direction, by a virtual camera virtually arranged so as to look at the object to be photographed from another direction. An image conversion method for converting a captured virtual image into a captured virtual image, wherein the object to be captured is moved relative to the real camera based on installation data of the real camera on a vehicle and optical characteristic data of the real camera. An image conversion method characterized in that the obtained moving image information is analyzed to obtain three-dimensional information of the image.
【請求項2】 ある方向から撮影対象物を見るように配
設された実カメラによって撮影された実画像を別の方向
から前記撮影対象物を見るように仮想的に配設された仮
想カメラによって撮影された仮想画像に変換して俯瞰図
を作成して表示する車載周囲監視装置において、 前記実カメラが車両に搭載されて前記車両の周囲を撮像
するデジタル式動画カメラであり、前記車両は自車両の
車速を検出する車速検知装置と、前記実カメラによって
撮影された実画像を前記仮想カメラによって撮影された
仮想画像に変換して俯瞰図を作成する画像情報処理装置
と、前記俯瞰図を表示する表示装置とを備え、前記画像
情報処理装置は前記車速検知装置によって得られた車速
情報に基づき前記実カメラによって撮影された実画像に
含まれている高さ情報を演算して前記俯瞰図を作成する
ことを特徴とする車載周囲監視装置。
2. A real image taken by a real camera arranged to view an object to be photographed from one direction by a virtual camera virtually arranged to observe the object to be photographed from another direction. An in-vehicle periphery monitoring device that converts an image into a captured virtual image to create and display an overhead view, wherein the real camera is a digital video camera that is mounted on a vehicle and captures an image of the periphery of the vehicle. A vehicle speed detection device that detects a vehicle speed of the vehicle, an image information processing device that converts a real image taken by the real camera into a virtual image taken by the virtual camera to create a bird's-eye view, and displays the bird's-eye view A display device to perform, the image information processing device is based on the vehicle speed information obtained by the vehicle speed detection device based on the height information contained in the real image captured by the real camera Vehicle surroundings monitoring apparatus characterized by creating the bird's-eye view and calculated.
【請求項3】 前記車両はハンドルの舵角を検出する舵
角検知装置を備え、舵角検知装置によって得られた舵角
情報と前記車速検知装置によって得られた車速情報とに
基づき車両旋回時に前記実カメラによって撮像された実
画像に含まれている高さ情報を演算して前記俯瞰図を作
成することを特徴とする請求項2に記載の車載周囲監視
装置。
3. The vehicle according to claim 1, further comprising a steering angle detecting device for detecting a steering angle of a steering wheel, and at the time of turning the vehicle based on steering angle information obtained by the steering angle detecting device and vehicle speed information obtained by the vehicle speed detecting device. The in-vehicle periphery monitoring device according to claim 2, wherein the overhead view is created by calculating height information included in a real image captured by the real camera.
【請求項4】 前記車両は、前記車両停止時に前記画像
情報処理装置によって処理された画像を一時的に保存し
かつ前記表示装置に表示させるための画像バッファー・
セレクタ装置を備えていることを特徴とする請求項2又
は請求項3に記載の車載周囲監視装置。
4. An image buffer for temporarily storing an image processed by the image information processing device when the vehicle stops and displaying the image on the display device.
The in-vehicle periphery monitoring device according to claim 2 or 3, further comprising a selector device.
【請求項5】 前記画像バッファー・セレクタ装置は、
車両静止中に前記実カメラの撮像領域内への物体進入に
基づく画像変化を検出して前記実カメラで撮影された画
像を前記表示装置に表示させることを特徴とする請求項
4に記載の車載周囲監視装置。
5. The image buffer / selector device according to claim 1,
The vehicle-mounted vehicle according to claim 4, wherein an image change based on an object approaching into an imaging area of the real camera is detected while the vehicle is stationary, and an image captured by the real camera is displayed on the display device. Ambient monitoring device.
【請求項6】 前記画像情報処理装置には、前記車両中
心から前記撮像領域までの中心までの距離データと前記
車両に対する前記実カメラの設置データと前記実カメラ
の画素サイズデータと焦点距離データとがあらかじめ準
備され、該画像情報処理装置は前記デジタル式動画カメ
ラによって撮像された動画像に基づきオプティカルフロ
ー検出を行って画面全体のオプティカルフローマップを
生成するオプティカルフローマップ生成手段と、該オプ
ティカルフローマップと前記各データと前記車速とに基
づき各画素毎に実空間での高さ情報を演算して高さ情報
マップを生成する高さ情報マップ生成手段と、前記高さ
情報マップと前記動画像のデジタルデータとから前記俯
瞰図を作成する作成手段とを備えていることを特徴とす
る請求項2に記載の車載周囲監視装置。
6. The image information processing apparatus according to claim 1, further comprising: distance data from the center of the vehicle to the center of the imaging area; installation data of the real camera with respect to the vehicle; pixel size data of the real camera; and focal length data. Is prepared in advance, the image information processing apparatus performs an optical flow detection based on a moving image captured by the digital video camera to generate an optical flow map of the entire screen, and the optical flow map And height information map generating means for calculating height information in a real space for each pixel based on the data and the vehicle speed to generate a height information map, and the height information map and the moving image 3. A creating means for creating the overhead view from digital data. In-vehicle surrounding monitoring device.
【請求項7】 前記画像情報処理装置には、前記実カメ
ラの前記車両に対する設置データと前記実カメラの画素
サイズデータと焦点距離データとがあらかじめ準備さ
れ、該画像情報処理装置は前記デジタル式動画カメラに
よって撮像された動画像に基づきオプティカルフロー検
出を行って画面全体のオプティカルフローマップを生成
するオプティカルフローマップ生成手段と、前記オプテ
ィカルマップと前記車速と前記各データとから回転半径
と回転方向とを求める回転半径演算手段と、該回転半径
演算手段により得られた回転半径情報と前記各データと
に基づき前記車両の回転半径に対して直交する接線と前
記実カメラの光軸との為すズレ角を演算するズレ角演算
手段と、前記オプティカルフローマップと前記各データ
と前記回転半径演算手段と前記ズレ角演算手段によって
得られたズレ角と前記車速とに基づき各画素毎に実空間
での高さ情報を演算して高さ情報マップを生成する高さ
情報マップ生成手段と、前記高さ情報マップと前記動画
像のデジタルデータとから前記俯瞰図を作成する作成手
段とを備えていることを特徴とする請求項2に記載の車
載周囲監視装置。
7. The image information processing apparatus prepares in advance installation data of the real camera with respect to the vehicle, pixel size data and focal length data of the real camera, and the image information processing apparatus Optical flow map generating means for performing optical flow detection based on a moving image captured by a camera to generate an optical flow map of the entire screen, and a turning radius and a turning direction from the optical map, the vehicle speed, and the data, and The turning radius calculation means to be determined, and a deviation angle between a tangent perpendicular to the turning radius of the vehicle and the optical axis of the real camera based on the turning radius information obtained by the turning radius calculation means and the data. Deviation angle calculating means for calculating, the optical flow map, the respective data, and the turning radius calculating means. Height information map generating means for calculating height information in a real space for each pixel based on a shift angle obtained by the step and the shift angle calculating means and the vehicle speed, and generating a height information map; The in-vehicle periphery monitoring device according to claim 2, further comprising: a creating unit configured to create the overhead view from a height information map and digital data of the moving image.
【請求項8】 前記車両はハンドルの舵角を検出する舵
角検知装置を備え、前記画像情報処理装置には、前記実
カメラの前記車両に対する設置データと前記実カメラの
画素サイズデータと、焦点距離データと、前記車両の回
転半径に対して直交する接線と前記実カメラの光軸との
為すズレ角と舵角とのズレ角関係データとがあらかじめ
準備され、該画像情報処理装置は前記デジタル式動画カ
メラによって撮像された動画像に基づきオプティカルフ
ロー検出を行って画面全体のオプティカルフローマップ
を生成するオプティカルフローマップ生成手段と、該舵
角検知装置の舵角に基づき得られた前記ズレ角データと
前記車速と前記各データと前記オプティカルフローマッ
プとに基づき各画素毎に実空間での高さ情報を演算して
高さ情報マップを生成する高さ情報マップ生成手段と、
前記高さ情報マップと前記動画像のデジタルデータとか
ら前記俯瞰図を作成する作成手段とを備えていることを
特徴とする請求項2に記載の車載周囲監視装置。
8. The vehicle according to claim 1, further comprising a steering angle detecting device for detecting a steering angle of a steering wheel, wherein the image information processing device includes: setting data of the real camera with respect to the vehicle; pixel size data of the real camera; Distance data and deviation angle relation data between a deviation angle and a steering angle between a tangent perpendicular to the turning radius of the vehicle and the optical axis of the real camera are prepared in advance, and the image information processing apparatus is Optical flow map generating means for performing optical flow detection based on a moving image captured by a moving image camera to generate an optical flow map of the entire screen, and the deviation angle data obtained based on the steering angle of the steering angle detection device The height information in the real space is calculated for each pixel based on the vehicle speed, the data, the data, and the optical flow map to generate a height information map. Means for generating height information map,
The in-vehicle periphery monitoring device according to claim 2, further comprising: a creating unit configured to create the overhead view from the height information map and the digital data of the moving image.
【請求項9】 前記車両は、前記車両停止時に前記画像
情報処理装置によって処理された画像を一時的に保存し
かつ前記表示装置に表示させるための画像バッファー・
セレクタ装置を備え、前記画像情報処理装置には前記オ
プティカルフローマップに基づき車両静止中のオプティ
カルフローマップと車両走行中のオプティカルフローマ
ップとを比較して有意な画像変化を検出して前記画像バ
ッファー・セレクタ装置に画像変化検知信号を送信する
画像変化検知手段が設けられ、前記画像バッファー・セ
レクタ装置は、前記画像変化検知信号に基づき前記車両
静止中の画像と前記静止直前に得られた仮想画像とを切
り換えて前記表示装置に送信することを特徴とする請求
項6又は請求項8のいずれか1項に記載の車載周囲監視
装置。
9. An image buffer for temporarily storing an image processed by the image information processing device when the vehicle is stopped and displaying the image on the display device.
A selector device, the image information processing device compares the optical flow map while the vehicle is stationary with the optical flow map while the vehicle is running based on the optical flow map, detects a significant image change, and detects the image buffer Image change detection means for transmitting an image change detection signal to the selector device is provided, the image buffer selector device, based on the image change detection signal, the vehicle stationary image and the virtual image obtained immediately before the still image 9. The in-vehicle surroundings monitoring device according to claim 6, wherein the information is switched and transmitted to the display device.
【請求項10】 前記設置データが前記実カメラの前記
車両への取り付け高さと地面に対する俯角と、前記実カ
メラの光軸中心線上での前記地面から前記実カメラまで
の距離とに関するデータであることを特徴とする請求項
6ないし請求項9のいずれか1項に記載の車載周囲監視
装置。
10. The installation data is data relating to a mounting height of the real camera to the vehicle, a depression angle with respect to the ground, and a distance from the ground to the real camera on the optical axis center line of the real camera. The in-vehicle surroundings monitoring device according to any one of claims 6 to 9, wherein:
JP2000213883A 2000-07-14 2000-07-14 Image converting method and on-vehicle circumference monitoring device Pending JP2002034035A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000213883A JP2002034035A (en) 2000-07-14 2000-07-14 Image converting method and on-vehicle circumference monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000213883A JP2002034035A (en) 2000-07-14 2000-07-14 Image converting method and on-vehicle circumference monitoring device

Publications (1)

Publication Number Publication Date
JP2002034035A true JP2002034035A (en) 2002-01-31

Family

ID=18709563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000213883A Pending JP2002034035A (en) 2000-07-14 2000-07-14 Image converting method and on-vehicle circumference monitoring device

Country Status (1)

Country Link
JP (1) JP2002034035A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009083632A (en) * 2007-09-28 2009-04-23 Denso Corp Moving object detecting device
JP2010015346A (en) * 2008-07-03 2010-01-21 Alpine Electronics Inc Surroundings monitoring apparatus
KR20120043564A (en) * 2010-10-26 2012-05-04 엘지전자 주식회사 Information displaying apparatus and method thereof
CN113155147A (en) * 2012-06-05 2021-07-23 苹果公司 Virtual camera for 3D maps

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0717328A (en) * 1993-06-30 1995-01-20 Mitsubishi Motors Corp Circumference recognition auxiliary device for vehicle
JPH07117561A (en) * 1993-10-27 1995-05-09 Sharp Corp On-vehicle monitoring camera device
JPH0848198A (en) * 1994-08-08 1996-02-20 Nissan Motor Co Ltd Periphery monitoring device for vehicle
JPH10222679A (en) * 1997-02-04 1998-08-21 Toyota Motor Corp Vehicle image processor
JP2000177513A (en) * 1998-12-16 2000-06-27 Toyota Autom Loom Works Ltd Backing vehicle up assisting device and vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0717328A (en) * 1993-06-30 1995-01-20 Mitsubishi Motors Corp Circumference recognition auxiliary device for vehicle
JPH07117561A (en) * 1993-10-27 1995-05-09 Sharp Corp On-vehicle monitoring camera device
JPH0848198A (en) * 1994-08-08 1996-02-20 Nissan Motor Co Ltd Periphery monitoring device for vehicle
JPH10222679A (en) * 1997-02-04 1998-08-21 Toyota Motor Corp Vehicle image processor
JP2000177513A (en) * 1998-12-16 2000-06-27 Toyota Autom Loom Works Ltd Backing vehicle up assisting device and vehicle

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009083632A (en) * 2007-09-28 2009-04-23 Denso Corp Moving object detecting device
JP2010015346A (en) * 2008-07-03 2010-01-21 Alpine Electronics Inc Surroundings monitoring apparatus
KR20120043564A (en) * 2010-10-26 2012-05-04 엘지전자 주식회사 Information displaying apparatus and method thereof
KR101667722B1 (en) 2010-10-26 2016-10-28 엘지전자 주식회사 Information displaying apparatus and method thereof
CN113155147A (en) * 2012-06-05 2021-07-23 苹果公司 Virtual camera for 3D maps

Similar Documents

Publication Publication Date Title
CN106799993B (en) Streetscape acquisition method and system and vehicle
JP4422777B2 (en) Moving body posture detection device
US20180160045A1 (en) Method and device of image processing and camera
JP5613041B2 (en) Camera device, image processing system, and image processing method
JP2011182236A (en) Camera calibration apparatus
US20130155205A1 (en) Image processing device, imaging device, and image processing method and program
JP2008131177A (en) Correcting device for on-board camera, correcting method, and production method for vehicle using same correcting method
CN105681674A (en) Image stabilizing method and compound image stabilizing system based on mechanical image stabilizing and electronic image stabilizing
CN111489288B (en) Image splicing method and device
CN103517061B (en) A kind of display control method of terminal equipment and device
CN105205459B (en) A kind of recognition methods of characteristics of image vertex type and device
EP2851868A1 (en) 3D Reconstruction
JP3957888B2 (en) Imaging apparatus and captured image composition method
CN111899276A (en) SLAM method and system based on binocular event camera
EP3275173B1 (en) Image capture system with motion compensation
CN109147058A (en) Initial method and device and storage medium for the fusion of vision inertial navigation information
TWI501193B (en) Computer graphics using AR technology. Image processing systems and methods
JP2002034035A (en) Image converting method and on-vehicle circumference monitoring device
US10266116B2 (en) Method and device for displaying a front-view of a vehicle's surrounding and respective vehicle
JPH07218251A (en) Method and device for measuring stereo image
US20080252746A1 (en) Method and apparatus for a hybrid wide area tracking system
CN110415329B (en) Three-dimensional modeling device and calibration method applied to same
WO2017057426A1 (en) Projection device, content determination device, projection method, and program
JP5731801B2 (en) Image processing apparatus for vehicle and image processing method for vehicle
JP2005063012A (en) Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101026