JPH11339012A - Image processor for vehicle - Google Patents

Image processor for vehicle

Info

Publication number
JPH11339012A
JPH11339012A JP10146046A JP14604698A JPH11339012A JP H11339012 A JPH11339012 A JP H11339012A JP 10146046 A JP10146046 A JP 10146046A JP 14604698 A JP14604698 A JP 14604698A JP H11339012 A JPH11339012 A JP H11339012A
Authority
JP
Japan
Prior art keywords
vehicle
image processing
image
white line
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10146046A
Other languages
Japanese (ja)
Inventor
Jun Koreishi
純 是石
Ryota Shirato
良太 白▲土▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP10146046A priority Critical patent/JPH11339012A/en
Publication of JPH11339012A publication Critical patent/JPH11339012A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To make sure to follow a white line even when an image processor is used for an automatic parking device, a parking guiding device, etc., by setting the image processing area based on measured run amount of a vehicle. SOLUTION: Images of the ambient environment of a vehicle which are picked up by a side camera C1 and a rear camera C2 provided on the vehicle are stored in an image memory 3 with a window set at a part of an image pickup screen by a window setting part 9. A white line processing part 4 performs image processing that extracts a white line which exists in the ambient environment of the vehicle and whose position does not change relatively to the vehicle with running of the vehicle. In such a case, a vehicle run amount calculating part 6 calculates the run amount of the vehicle according to a measurement result of a wheel speed sensor 2 and sets the window to the image pickup screen after the vehicle travels based on the vehicle travel amount. It is possible to perform automatic parking and driving by a driver while always recognizing the accurate position its own vehicle by repeating such processing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、道路や駐車場の白
線などを抽出するための車両用画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for a vehicle for extracting a white line of a road or a parking lot.

【0002】[0002]

【従来の技術】従来の車両用画像処理装置として、例え
ば特開平5−303625号公報に示すようなものがあ
る。この車両用画像処理装置は、道路上の白線を抽出す
る白線抽出装置であり、画像中に存在する白線に沿って
連続的に設定された複数のウインドウ内に対し所定の画
像処理を行い白線を抽出する画像処理手段と、その画像
処理手段で抽出された白線の幅方向の中心位置を算出す
るウインドウ座標算出手段と、該算出された中心位置を
記憶保持するウインドウ座標記憶手段とを備える。そし
て、そのウインドウ座標記憶手段に格納された白線の中
心位置情報に基づいて、その白線の中心位置に次の画像
におけるウインドウの中心を合わせるようにしてウイン
ドウを設定することにより、ウインドウ設定に伴う処理
量の削減を図り、処理時間の短縮を図ろうとしている。
2. Description of the Related Art As a conventional image processing apparatus for a vehicle, for example, there is one as disclosed in Japanese Patent Application Laid-Open No. Hei 5-303625. This vehicular image processing device is a white line extracting device that extracts a white line on a road, performs predetermined image processing on a plurality of windows that are continuously set along a white line existing in an image, and generates a white line. Image processing means for extraction, window coordinate calculation means for calculating the center position in the width direction of the white line extracted by the image processing means, and window coordinate storage means for storing and holding the calculated center position. Then, based on the center position information of the white line stored in the window coordinate storage unit, the window is set so that the center of the window in the next image is aligned with the center position of the white line, thereby performing the processing associated with the window setting. It is trying to reduce the amount and shorten the processing time.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の車両用画像処理装置にあっては、道路を直進
して走行するときのように、撮像画面内の白線の位置の
変動が比較的小さいときは白線の追従は可能であるが、
車両用画像処理装置を自動駐車装置や駐車誘導装置にお
いて駐車位置情報のモニタリングなどに使用する場合に
は、車庫枠の白線に対し自車両の位置と姿勢が大きく変
わることにより撮像画面での白線の位置と姿勢が大きく
変動するため、その白線を追従するのが困難であるとい
う問題点があった。
However, in such a conventional image processing apparatus for a vehicle, a change in the position of a white line in an imaging screen is relatively small, such as when traveling straight on a road. When it is small, it can follow the white line,
When an image processing device for a vehicle is used for monitoring parking position information in an automatic parking device or a parking guidance device, the position and orientation of the own vehicle greatly changes with respect to the white line of the garage frame, so that the white line on the imaging screen is changed. Since the position and orientation greatly fluctuate, there is a problem that it is difficult to follow the white line.

【0004】さらに、自車両の位置と姿勢が大きく変動
することによりカメラの視野から一度白線が外れてしま
った場合には、再び白線がカメラ視野内に入っても全く
追従できなくなるとう問題点があった。
[0004] Further, if the white line once deviates from the field of view of the camera due to large fluctuations in the position and attitude of the vehicle, there is a problem that even if the white line enters the field of view of the camera again, it cannot be followed at all. there were.

【0005】本発明の目的は、道路上や駐車場の白線な
どに対して自車両の位置と姿勢が大きく変動するような
場合であっても、例えば自動駐車装置や駐車誘導装置な
どに使用するような場合であっても、白線の追従を確実
に行うことができる車両用画像処理装置を提供すること
にある。
An object of the present invention is to use the present invention in, for example, an automatic parking system or a parking guidance system, even when the position and posture of the vehicle fluctuate greatly with respect to a road or a white line in a parking lot. An object of the present invention is to provide a vehicular image processing device that can reliably follow a white line even in such a case.

【0006】[0006]

【課題を解決するための手段】実施の形態を示す図1を
使用して、括弧内にその対応する要素の符号をつけて本
発明を以下に説明する。上記目的を達成するために、請
求項1の発明は、車両に備えられ車両の周囲環境を撮像
する撮像手段(C1、C2)と、撮像手段(C1、C
2)により撮像された撮像画面の一部において画像処理
を行うための画像処理領域を設定する画像処理領域設定
手段(9)と、車両の周囲環境に存在し車両の移動に伴
い車両と相対的に位置が変化しかつ車両の移動面とは相
対的に位置が変化しない対象物を抽出するために画像処
理領域設定手段(9)により設定された画像処理領域に
おいて画像処理を行う画像処理手段(3、4)とを備え
た車両用画像処理装置に適用され、車両の移動面上の移
動量を計測する車両移動量計測手段(2、6)をさらに
備え、画像処理領域設定手段(9)が車両の移動後の画
像処理領域を車両移動量計測手段(2、6)により計測
された車両の移動量に基づいて設定するようにしたもの
である。請求項2の発明は、請求項1記載の車両用画像
処理装置において、車両の移動後に設定された画像処理
領域を画像処理することにより抽出された対象物の位置
関係に基づき、移動後の車両の位置を認識するようにし
たものである。請求項3の発明は、請求項1記載の車両
用画像処理装置において、撮像手段を複数の撮像装置
(C1、C2)からなるものとし、画像処理領域設定手
段(9)を車両移動量計測手段(2、6)により計測さ
れた車両の移動量に基づいて車両移動後の画像処理領域
を設定すべき撮像装置を複数の撮像装置(C1、C2)
の中から一つ選択するようにしたものである。請求項4
の発明は、請求項1記載の車両用画像処理装置におい
て、車両が移動面上の所定の位置にあるときの該移動面
上の所定の位置を基準座標とし撮像装置の撮像画面を撮
像画面座標とし基準座標と撮像画面座標とを車両移動量
計測手段(2、6)により計測された所定の位置からの
車両の移動量を考慮して相互に座標変換する座標変換手
段(5、7)をさらに備えるようにし、座標変換手段
(5、7)が撮像画面上で抽出された対象物の撮像画面
座標上の座標を基準座標に座標変換するようにしたもの
である。請求項5の発明は、請求項4記載の車両用画像
処理装置において、画像処理領域設定手段(9)が基準
座標上において抽出された対象物を含む領域を設定し、
その後車両が移動した場合、該領域を座標変換手段
(5、7)により撮像画面座標に座標変換することによ
り撮像画面上の画像処理領域を設定するようにしたもの
である。請求項6の発明は、車両に備えられ車両の周囲
環境を撮像する撮像手段(C1、C2)と、撮像手段
(C1、C2)により撮像された撮像画面の一部におい
て画像処理を行うための画像処理領域を設定する画像処
理領域設定手段(9)と、車両の周囲環境に存在し車両
の移動に伴い車両と相対的に位置が変化しかつ車両の移
動面とは相対的に位置が変化しない対象物を抽出するた
めに画像処理領域設定手段(9)により設定された画像
処理領域において画像処理を行う画像処理手段(3、
4)とを備えた車両用画像処理装置に適用され、車両の
進むべき軌道を設定する車両軌道設定手段と、軌道上の
1以上の各点における車両の位置情報に基づき画像処理
領域をどのように設定するかを予め計画する軌道計画手
段(8)とをさらに備えるようにしたものである。請求
項7の発明は、請求項6記載の車両用画像処理装置にお
いて、撮像手段を複数の撮像装置(C1、C2)からな
るようにし、軌道計画手段(8)による計画に、複数の
撮像装置(C1、C2)のどの撮像装置を選択するかの
計画を含むようにしたものである。
DETAILED DESCRIPTION OF THE INVENTION The present invention will be described below with reference to the embodiment shown in FIG. In order to achieve the above object, the invention according to claim 1 includes an imaging unit (C1, C2) provided in a vehicle for imaging an environment around the vehicle, and an imaging unit (C1, C2)
An image processing area setting means (9) for setting an image processing area for performing image processing on a part of the imaging screen imaged in 2); and an image processing area setting means (9) existing in a surrounding environment of the vehicle and moving relative to the vehicle as the vehicle moves. Image processing means for performing image processing in the image processing area set by the image processing area setting means (9) in order to extract an object whose position changes and the position does not change relatively to the moving surface of the vehicle 3 and 4), and further includes a vehicle movement amount measuring means (2, 6) for measuring a movement amount on a moving surface of the vehicle, and an image processing area setting means (9). Is to set the image processing area after the movement of the vehicle based on the movement amount of the vehicle measured by the vehicle movement amount measuring means (2, 6). According to a second aspect of the present invention, in the vehicle image processing apparatus according to the first aspect, the vehicle after the movement is based on the positional relationship of the object extracted by performing image processing on the image processing area set after the movement of the vehicle. Is recognized. According to a third aspect of the present invention, in the image processing apparatus for a vehicle according to the first aspect, the imaging unit includes a plurality of imaging devices (C1, C2), and the image processing region setting unit (9) is a vehicle movement amount measurement unit. A plurality of imaging devices (C1, C2) for setting an image processing area after moving the vehicle based on the movement amount of the vehicle measured by (2, 6)
One of them is selected. Claim 4
The invention according to claim 1, wherein in the image processing apparatus for a vehicle according to claim 1, when the vehicle is at a predetermined position on the moving surface, a predetermined position on the moving surface is set as a reference coordinate, and an imaging screen of the imaging device is set as an imaging screen coordinate. Coordinate conversion means (5, 7) for mutually transforming the reference coordinates and the imaging screen coordinates in consideration of the movement amount of the vehicle from a predetermined position measured by the vehicle movement amount measurement means (2, 6); In addition, the coordinate conversion means (5, 7) converts the coordinates of the object extracted on the imaging screen on the imaging screen coordinates into reference coordinates. According to a fifth aspect of the present invention, in the image processing apparatus for a vehicle according to the fourth aspect, the image processing area setting means (9) sets an area including the target object extracted on the reference coordinates,
Thereafter, when the vehicle moves, the image processing area on the imaging screen is set by performing coordinate conversion of the area into the imaging screen coordinates by the coordinate conversion means (5, 7). According to a sixth aspect of the present invention, an image pickup means (C1, C2) provided in the vehicle for picking up an image of the environment around the vehicle, and an image processing device for performing image processing on a part of the image picked up by the image pickup means (C1, C2). An image processing area setting means (9) for setting an image processing area; a position existing in a surrounding environment of the vehicle, the position of which changes relative to the vehicle as the vehicle moves, and the position of which changes relative to the moving surface of the vehicle Image processing means (3, 3) for performing image processing in the image processing area set by the image processing area setting means (9) in order to extract an object not to be processed;
4) a vehicle trajectory setting means for setting a trajectory to which the vehicle should travel, and an image processing area based on vehicle position information at one or more points on the trajectory. And a trajectory planning means (8) for planning in advance whether to set the trajectory. According to a seventh aspect of the present invention, in the image processing apparatus for a vehicle according to the sixth aspect, the image pickup means includes a plurality of image pickup apparatuses (C1, C2), and the plurality of image pickup apparatuses are included in the plan by the track planning means (8). This includes a plan for selecting which imaging device (C1, C2) to select.

【0007】なお、上記課題を解決するための手段項で
は、分かりやすく説明するため実施の形態の図と対応づ
けたが、これにより本発明が実施の形態に限定されるも
のではない。
[0007] In the means for solving the above-mentioned problems, correspondence is made with the drawings of the embodiment for easy understanding, but the present invention is not limited to the embodiment.

【0008】[0008]

【発明の効果】本発明は、以上説明したように構成して
いるので、次のような効果を奏する。請求項1の発明に
よれば、画像処理領域(ウインドウ領域)を、計測され
た車両の移動量に基づいて設定するようにしているの
で、例えば、自動駐車装置において、車庫枠の白線に対
し自車両の位置と姿勢が大きく変わっても、白線を確実
に追従することができる。また、自車両の位置と姿勢が
大きく変動することにより白線がカメラの視野から一度
外れてしまった場合でも、再び白線がカメラ視野内に入
った場合に確実に追従することができる。請求項2の発
明によれば、移動後の車両の位置を正確に認識すること
ができる。請求項3の発明によれば、複数の異なるカメ
ラを使う場合に、1台のカメラの視野から白線が外れて
も、他のどのカメラの視野に入っているかを容易に判断
することができ、確実に白線を追従することができる。
請求項4の発明によれば、座標変換の手法を使用するこ
とにより、基準とされた座標上で抽出された白線を容易
に認識することができる。請求項5の発明によれば、座
標変換の手法を使用することにより、基準とされた座標
上で設定された画像処理領域(ウインドウ領域)を、容
易に撮像画面上に設定できる。請求項6の発明によれ
ば、車両の軌道が予め分かっている場合に、予め画像処
理領域(ウインドウ領域)を設定することができるの
で、効率的で無駄のない画像処理制御の戦略が立てられ
る。請求項7の発明によれば、車両の軌道が予め分かっ
ていて複数のカメラを使用する場合に、軌道の途中の経
路で白線がどのカメラの視野内に入るかを予め計算で求
められるので、効率的で無駄のない画像処理制御の戦略
が立てられる。
Since the present invention is configured as described above, it has the following effects. According to the first aspect of the present invention, the image processing area (window area) is set based on the measured movement amount of the vehicle. Even if the position and the attitude of the vehicle change greatly, the white line can be reliably followed. Further, even when the white line once deviates from the field of view of the camera due to a large change in the position and attitude of the own vehicle, it is possible to reliably follow the white line again when it enters the field of view of the camera. According to the invention of claim 2, it is possible to accurately recognize the position of the vehicle after moving. According to the invention of claim 3, when a plurality of different cameras are used, even if the white line deviates from the field of view of one camera, it is possible to easily determine which of the other cameras is in the field of view, The white line can be reliably followed.
According to the fourth aspect of the present invention, the white line extracted on the reference coordinate can be easily recognized by using the coordinate conversion technique. According to the fifth aspect of the present invention, the image processing area (window area) set on the reference coordinates can be easily set on the imaging screen by using the coordinate conversion technique. According to the invention of claim 6, when the trajectory of the vehicle is known in advance, an image processing area (window area) can be set in advance, so that a strategy for efficient and efficient image processing control can be established. . According to the invention of claim 7, when the trajectory of the vehicle is known in advance and a plurality of cameras are used, it is possible to calculate in advance which of the cameras the white line falls within the visual field of the route in the middle of the trajectory, An efficient and lean image processing control strategy is established.

【0009】[0009]

【発明の実施の形態】本実施の形態の車両用画像処理装
置は、車両に取り付けられた2台のカメラで撮像した画
像を処理し、道路や駐車場などに引かれた白線などを抽
出し、自動駐車装置などに利用される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A vehicular image processing apparatus according to this embodiment processes images taken by two cameras attached to a vehicle and extracts white lines drawn on a road or a parking lot. Used for automatic parking equipment.

【0010】図1は、本発明の車両用画像処理装置の一
実施の形態の構成を示す図である。1は本車両用画像処
理装置の制御を行う制御装置であり、マイクロプロセッ
サやその周辺回路から構成され、所定のプログラムが実
行される。C1は車両の側方に設けられたカメラであ
り、C2は車両の後方に設けられたカメラである。カメ
ラC1、C2は、車両の周囲環境を撮像するための撮像
装置で例えばCCDなどにより構成される。2は、車両
の移動量を計測するために左右両後輪に設けられた車輪
速センサである。
FIG. 1 is a diagram showing a configuration of an embodiment of a vehicle image processing apparatus according to the present invention. Reference numeral 1 denotes a control device that controls the image processing apparatus for a vehicle, and includes a microprocessor and peripheral circuits, and executes a predetermined program. C1 is a camera provided on the side of the vehicle, and C2 is a camera provided behind the vehicle. The cameras C1 and C2 are image pickup devices for picking up an image of the environment around the vehicle, and are constituted by, for example, a CCD. Reference numeral 2 denotes wheel speed sensors provided on both left and right rear wheels for measuring a moving amount of the vehicle.

【0011】制御装置1は、カメラC1、C2により撮
像された画像データを格納する画像メモリ3を有する。
また、制御装置1は各機能に対応した所定のプログラム
を実効するもので、図1に示すよな機能ブロックから構
成される。4は画像メモリ3の画像データの画像処理を
行って白線抽出を行うための白線処理部である。5はカ
メラ1、2における画面上のウインドウ領域を計算する
ためのウインドウ座標算出部である。6は車輪速センサ
2の計測結果より車両移動量を算出する車両移動量算出
部である。車両移動量算出部6は車輪速センサ2より検
出された後車輪の角速度およびあらかじめ入力された車
輪径やトレッドなどから車両の移動量を算出する。7
は、車両座標系での座標を計算するための車両座標算出
部である。8は、車両の軌道を生成するための軌道計画
部である。9は、撮像画面中にウインドウを設定するた
めのウインドウ設定部である。
The control device 1 has an image memory 3 for storing image data captured by the cameras C1 and C2.
Further, the control device 1 executes a predetermined program corresponding to each function, and is composed of functional blocks as shown in FIG. Reference numeral 4 denotes a white line processing unit for performing image processing of the image data in the image memory 3 and extracting white lines. Reference numeral 5 denotes a window coordinate calculator for calculating a window area on the screen in the cameras 1 and 2. Reference numeral 6 denotes a vehicle movement amount calculation unit that calculates the vehicle movement amount from the measurement result of the wheel speed sensor 2. The vehicle moving amount calculating unit 6 calculates the moving amount of the vehicle from the angular velocity of the rear wheel detected by the wheel speed sensor 2 and the wheel diameter, tread, and the like input in advance. 7
Is a vehicle coordinate calculator for calculating coordinates in the vehicle coordinate system. Reference numeral 8 denotes a trajectory planning unit for generating a trajectory of the vehicle. Reference numeral 9 denotes a window setting unit for setting a window in the imaging screen.

【0012】次に、本実施の形態において使用する座標
系の定義と関係式について説明する。図2は、車両Aを
上から見た場合の平面図である。側方にはカメラC1が
設けられ、後方にはカメラC2が設けられている。車両
の後車軸中心Vを原点に取った車両座標系をΣVとす
る。側方カメラC1は、車両座標系ΣVのYV軸方向にl
1およびXV軸方向にw1の距離の所に設けられ、後方カ
メラC2は、車両座標系ΣVのYV軸方向にl2およびXV
軸方向にw2の距離の所に設けられている。図3は、車
両Aを後方から見た図である。図3に示すようにカメラ
C1のレンズ中心を原点に取ったカメラ座標系をΣC1
する。カメラC1は所定の高さh1の位置に設けられ、
角度θ1で路面を撮像する方向に傾けられている。図4
は、車両Aの後部を右側方から見た図である。図4に示
すようにカメラC2のレンズ中心を原点に取ったカメラ
座標系をΣC2とする。カメラC2は所定の高さh2の位
置に設けられ、角度θ2で路面を撮像する方向に傾けら
れている。
Next, the definition of the coordinate system and the relational expressions used in the present embodiment will be described. FIG. 2 is a plan view when the vehicle A is viewed from above. A camera C1 is provided on the side, and a camera C2 is provided on the rear. The vehicle coordinate system taking the axle center V to the origin after the vehicle and sigma V. Lateral camera C1 is, l to Y V axis direction of the vehicle coordinate system sigma V
1 and X V-axis direction is provided at a distance of w 1, the rear camera C2, the vehicle coordinate system sigma V of Y V axis direction l 2 and X V
Axially disposed at a distance of w 2. FIG. 3 is a view of the vehicle A as viewed from the rear. The camera coordinate system taking the lens center of the camera C1 to the origin as shown in FIG. 3 and sigma C1. The camera C1 is provided at a position of a predetermined height h 1,
Are inclined in a direction to image a road surface at an angle theta 1. FIG.
Is a view of the rear part of the vehicle A viewed from the right side. The camera coordinate system taking the lens center of the camera C2 to the origin as shown in FIG. 4 and sigma C2. The camera C2 is provided at a position of a predetermined height h 2, are inclined in a direction to image a road surface at an angle theta 2.

【0013】図5は、車両座標系ΣVとカメラ座標系Σ
C1から見た対象物Pの位置の関係を示す図である。車両
座標系ΣVから見た対象物Pの位置Vr=[VX、VY、V
Z]Tと側方カメラ座標系ΣC1から見た対象物Pの位置
C1r=[C1X、C1Y、C1Z]Tの関係は次の第(1)式
で与えられる。
FIG. 5 shows a vehicle coordinate system { V and a camera coordinate system}.
FIG. 4 is a diagram illustrating a relationship between positions of an object P viewed from C1 . Position of the object P viewed from the vehicle coordinate system Σ V V r = [V X , V Y, V
Z] T and the position of the object P viewed from the side camera coordinate system C1
Relationship C1 r = [C1 X, C1 Y, C1 Z] T is given by the following equation (1).

【数1】 ここでVC1は次の第(2)式、(Equation 1) Here, V PC1 is the following equation (2):

【数2】 VC1は次の第(3)式で与えられる。(Equation 2) VR C1 is given by the following equation (3).

【数3】 第(1)式のVrを次の第(1A)式のように置き換え
ると、
(Equation 3) Replacing the first formula (1) V r as follows first (1A) equation,

【数4】 第(1)式は次の第(4)式の形で表される。(Equation 4) Equation (1) is expressed in the form of the following equation (4).

【数5】 ただし、VC1は第(5)式で表される。(Equation 5) However, V TC1 is represented by the following equation (5).

【数6】 この第(5)式が車両座標系ΣVと側方カメラ座標系Σ
C1の間の幾何的な関係を示した式である。なお、上述の
各式における太字r、R、P、Tはベクトルを表してい
るが、説明文中の対応する太字でないr、R、P、Tに
ついても同じベクトルを示す。以下の説明においても同
様である。
(Equation 6) This equation (5) is the vehicle coordinate system Σ V and the side camera coordinate system Σ
It is an expression showing a geometric relationship between C1 . Although the bold characters r, R, P, and T in the above equations represent vectors, the same vectors are also used for the corresponding non-bold characters r, R, P, and T in the description. The same applies to the following description.

【0014】上記と同様にして、車両座標系ΣVから見
た対象物Pの位置Vr=[VX、VY、VZ]Tと後方カメ
ラ座標系ΣC2から見た対象物Pの位置C2r=[C2X、C2
Y、C2Z]Tの関係は次の第(6)式で与えられる。
[0014] in the same manner as described above, the position V r = the object P viewed from the vehicle coordinate system Σ V [V X, V Y , V Z] T and the rear camera coordinate system sigma C2 of the object P viewed Position C2 r = [ C2 X, C2
Y, C2 Z] T is given by the following equation (6).

【数7】 ここでVC2は次の第(7)式、(Equation 7) Here, V PC2 is expressed by the following equation (7):

【数8】 VC2は次の第(3)式で与えられる。(Equation 8) V R C2 is given by the following equation (3).

【数9】 第(6)式のVrを前述の第(1A)式と同じように置
き換えると、第(6)式は次の第(9)式の形で表され
る。
(Equation 9) Replacing equation (6) of V r like first (1A) equation described above, equation (6) can be expressed in the form of the following first equation (9).

【数10】 ただし、VC2は第(10)式で表される。(Equation 10) Here, V TC2 is expressed by the following equation (10).

【数11】 この第(10)式が車両座標系ΣVと後方カメラ座標系
ΣC2の間の幾何的な関係を示した式である。
[Equation 11] The first (10) is an expression showing the geometric relationship between the vehicle coordinate system sigma V and the rear camera coordinate system sigma C2.

【0015】次に、カメラ座標系ΣCと撮影(撮像)画
面座標系の関係を説明する。図6はカメラ座標系ΣC
撮影画面座標系の関係を図示したものである。fはカメ
ラレンズの焦点距離である。この図より、側方カメラC
1の撮影画面上の対象物の位置C1p=[C1x、C1y]T
の各要素は、側方カメラ座標系ΣC1から見た対象物Pの
位置C1r=[C1X、C1Y、C1Z]Tの各要素を使用して
次の第(11)式、第(12)式により与えられる。こ
こでf1はカメラC1のレンズの焦点距離である。
[0015] Next, the relationship between the camera coordinate system sigma C and photographing (imaging) the screen coordinate system. 6 illustrates the relationship between the camera coordinate system sigma C shooting screen coordinate system. f is the focal length of the camera lens. From this figure, the side camera C
The position of the object C1p = [ C1x , C1y ] T on the shooting screen 1
Each element of the next first using elements of the lateral position of the object P viewed from the camera coordinate system Σ C1 C1 r = [C1 X , C1 Y, C1 Z] T (11) equation, the It is given by equation (12). Where f 1 is the focal length of the lens of the camera C1.

【数12】 (Equation 12)

【数13】 同様にして、後方カメラC2の撮影画面上の対象物の位
C2p=[C2x、C2y]Tの各要素は、後方カメラ座標
系ΣC2から見た対象物Pの位置C2r=[C2X、C2Y、C2
Z]Tの各要素を使用して次の第(13)式、第(1
4)式により与えられる。ここでf2はカメラC2のレ
ンズの焦点距離である。
(Equation 13) Similarly, each element of the position C2 p = [C2 x, C2 y] T of the object on the imaging screen of the rear camera C2, the position of the object P viewed from the rear camera coordinate system sigma C2 C2 r = [ C2 X, C2 Y, C2
Z] Using each element of T , the following equation (13),
It is given by equation 4). Here f 2 is the focal length of the lens of the camera C2.

【数14】 [Equation 14]

【数15】 (Equation 15)

【0016】次に車両が移動したときに移動前の車両座
標系ΣV(t0)と移動後の車両座標系ΣV(t1)の関係につい
て考察する。図7はその関係を説明する図である。車両
Aが時刻t=t0からt=t1で図7のように移動して
V(t0)V(t1)=[Δx(t0;t1)、Δy(t0
1)、0]Tほど車両座標系ΣVの原点が移動してVZ軸
周りに反時計回りにΔθ(t0;t1)旋回したとき車両
座標系ΣV(t0)とΣV(t1)の関係は第(15)式で与えら
れる。ここでV(t0)V(t1)は次の第(16)式、V ( t0)
V(t1)は第(17)式で表される。
Next, the relationship between the vehicle coordinate system ΣV (t0) before the movement and the vehicle coordinate system ΣV (t1) after the movement is considered. FIG. 7 is a diagram illustrating the relationship. Vehicle A moves from time t = t 0 to t = t 1 as shown in FIG.
V (t0) P V (t1 ) = [Δx (t 0; t 1), Δy (t 0;
t 1), 0] T as the vehicle coordinate system sigma origin Δθ counterclockwise around V Z-axis by the movement of the V (t 0; t 1) vehicle coordinate system when pivoted Σ V (t0) and sigma V The relationship of (t1) is given by Expression (15). Here, V (t0) P V (t1) is the following equation (16): V ( t0)
R V (t1) is expressed by equation (17).

【数16】 (Equation 16)

【数17】 [Equation 17]

【数18】 前述と同様にして次の第(18)式が成立する。ただ
し、V(t0)V(t1)は第(19)式で表される。
(Equation 18) The following equation (18) is established in the same manner as described above. Here, V (t0) TV (t1) is expressed by the following equation (19).

【数19】 [Equation 19]

【数20】 (Equation 20)

【0017】次に、車両の移動量の計測について説明す
る。車両の移動量は、左右両後輪に装着した車輪速セン
サ2により左右の車輪の角速度を検出し、以下のように
して求められる。左右の車輪の角速度をそれぞれu
l(t)、ur(t)とし、左右の車輪径をRl、Rr、ト
レッドをTとするとき車両の並進速度s(t)および角
速度ω(t)は次の第(20)式および第(21)式で
与えられる。 s(t)=(Rr・ur(t)+Rl・ul(t))/2 ・・・・(20) ω(t)=(Rr・ur(t)−Rl・ul(t))/T ・・・・(21) 時刻t=t0における位置をP(t0)=[0,0,0,
0]Tとすると、時刻t=t0+τにおける位置P(t0
+τ)は第(22)式で与えられる。
Next, measurement of the amount of movement of the vehicle will be described. The amount of movement of the vehicle is determined as follows by detecting the angular velocities of the left and right wheels by the wheel speed sensors 2 mounted on the left and right rear wheels. Set the angular velocity of the left and right wheels to u
l (t), and u r (t), the left and right wheel diameter R l, R r, translational speed s of the vehicle when the tread and T (t) and the angular velocity omega (t) following the are (20) It is given by the equation and the equation (21). s (t) = (R r · u r (t) + R l · u l (t)) / 2 ···· (20) ω (t) = (R r · u r (t) -R l · u l (t)) / T (21) The position at time t = t 0 is defined as P (t 0 ) = [0,0,0,
0] T, the position P (t 0 at time t = t 0 + τ
+ Τ) is given by equation (22).

【数21】 この第(22)式をt=t0からt=t1まで繰り返すこ
とでV(t0)V(t1)およびΔθ(t0;t1)が求められ
る。すなわち、時刻t0の車両座標系ΣV(t0)から見た時
刻t1における車両Aの後車軸中心Vの移動量および車
体の回転角が分かる。
(Equation 21) The expression (22) V (t0) by repeated from t = t 0 to t = t 1 to P V (t1) and Δθ (t 0; t 1) is obtained. That is, the movement amount and the vehicle body rotational angle of the axle center V after the vehicle A is found at time t 1 as seen from the vehicle coordinate system at time t 0 Σ V (t0).

【0018】次に、側方カメラC1の画面上で[C1x、
C1y]T上にある道路面上の対象点Pの車両座標系ΣV
どの位置Vr=[VX、VY、0]Tにあるかを求める。第
(11)式および第(12)式よりカメラ座標系では第
(23)式および(24)式が成立する。
Next, on the screen of the side camera C1, [ C1x ,
C1 y] which position in the vehicle coordinate system sigma V of the target point P on the road surface that is on T V r = [V X, determine whether in V Y, 0] T. From equations (11) and (12), equations (23) and (24) hold in the camera coordinate system.

【数22】 (Equation 22)

【数23】 第(4)式、第(5)式、第(23)式、第(24)式
より次の第(25)式が成立する。
(Equation 23) From the expressions (4), (5), (23), and (24), the following expression (25) is established.

【数24】 第(25)式について両辺を比較すると次の第(26)
式、第(27)式、第(28)式が得られる。
(Equation 24) Comparing both sides with respect to equation (25), the following equation (26)
Expressions (27) and (28) are obtained.

【数25】 (Equation 25)

【数26】 (Equation 26)

【数27】 第(28)式よりC1Zが得られ、それを第(26)式、
第(27)式に代入してVr=[VX、VY、0]Tが求め
られる。
[Equation 27] From equation (28), C1Z is obtained.
V r = [V X, V Y, 0] is substituted into the equation (27) is T determined.

【0019】次に、時刻t=t0において車両座標系ΣV
から見た位置がVr=[VX、VY、0]Tにあった対象が
時刻t=t1V(t0)V(t1)=[Δx(t0;t1)、Δ
y(t0;t1)、0]Tほど車両座標系ΣVの原点が移動
してVZ軸周りに反時計回りにΔθ(t0;t1)旋回し
たとき対象の側方カメラC1の画面上の位置
C1(t 1)x、C1(t1)y]Tを考える。第(4)式および
第(18)式より次の第(29)式が成立し、
Next, at time t = t 0 , the vehicle coordinate system Σ V
Viewed from position V r = [V X, V Y, 0] V (t0) to a target the time t = t 1 to T P V (t1) = [ Δx (t 0; t 1), Δ
y (t 0; t 1) , 0] T as the vehicle coordinate system Σ origin Δθ counterclockwise around V Z-axis by the movement of the V (t 0; t 1) subject to lateral camera C1 when turning consider the position on the screen of the [C1 (t 1) x, C1 (t1) y] T. From the expressions (4) and (18), the following expression (29) is established,

【数28】 C1(t1)r=[C1(t1)X、C1(t1)Y、C1(t1)Z]Tが求め
られ、第(11)式および第(12)式より
C1(t1)x、C1(t1)y]Tが求められる。なお、第(2
9)式において[VC1-1V(t0)V(t1)-1は次の
第(30)式で表される。
[Equation 28] C1 (t1) r = [ C1 (t1) X, C1 (t1) Y, C1 (t1) Z] T is obtained, and [ C1 (t1) x, C1 is obtained from the equations (11) and (12). (t1) y] T is obtained. Note that the second (2)
9) [V T C1] -1 [V (t0) T V (t1)] in Formula -1 can be expressed by the equation (30) below.

【数29】 (Equation 29)

【0020】後方カメラC2についても同様にして第
(9)式、第(18)式より次の第(31)式が成立
し、
Similarly, for the rear camera C2, the following Expression (31) is established from Expressions (9) and (18).

【数30】 C2(t1)r=[C2(t1)X、C2(t1)Y、C2(t1)Z]Tが求め
られ、第(11)式および第(12)式より
C2(t1)x、C2(t1)y]Tが求められる。なお、第(3
1)式において[VC2-1V(t0)V(t1)-1は次の
第(32)式で表される。
[Equation 30] C2 (t1) r = [ C2 (t1) X, C2 (t1) Y, C2 (t1) Z] T is obtained, and [ C2 (t1) x, C2 (t1) (t1) y] T is obtained. In addition, (3
1) [V T C2] -1 [V (t0) T V (t1)] in Formula -1 can be expressed by the equation (32) below.

【数31】 (Equation 31)

【0021】以上の準備を踏まえた上で、次に本実施の
形態の特徴的な部分である車両の移動量に基づいてウイ
ンドウ設定を行うアルゴリズムを図8および図9に示す
フローチャートで説明する。図8は、自動駐車開始時点
で車両の軌道があらかじめ分かっている場合に軌道の各
地点において複数のカメラのどれで画像処理を行うか大
局的な計画を立てるフローチャートである。図9は、計
測された車両の移動量に基づいてウインドウの設定領域
を算出するためのアルゴリズムである。図8および図9
のフローチャートは、図1における制御装置1において
実行される。
Based on the above preparation, an algorithm for setting a window based on the amount of movement of the vehicle, which is a characteristic part of the present embodiment, will be described with reference to flowcharts shown in FIGS. FIG. 8 is a flowchart for making a global plan as to which of a plurality of cameras performs image processing at each point of the track when the track of the vehicle is known in advance at the time of starting automatic parking. FIG. 9 is an algorithm for calculating the window setting area based on the measured movement amount of the vehicle. 8 and 9
Is executed by the control device 1 in FIG.

【0022】まず最初に、図8に従って軌道の各地点に
おいてどのカメラの画像処理を行うかを計画するアルゴ
リズムを説明する。自動駐車を想定した場合、運転者は
まず自分が入庫したい車庫の前に車両を停止してから自
動駐車開始ボタンを押す。本ルーチンはこの開始ボタン
が押されることによりスタートする。
First, an algorithm for planning which camera performs image processing at each point on the trajectory according to FIG. 8 will be described. Assuming automatic parking, the driver first stops the vehicle in front of the garage to which the driver wants to enter, and then presses the automatic parking start button. This routine starts when this start button is pressed.

【0023】ステップS10では、側方カメラC1で撮
像された画像が画像メモリ3に取り込まれる。側方カメ
ラC1には図10に示すような駐車場の白線11が写っ
ているとする。ステップS20において、取り込まれた
画像全体に対してsobelフィルタ等を用いてエッジ
抽出を行う。ステップS30では、図10に示すように
1組の対辺が平行な台形のウインドウ領域を初期設定
し、ステップS40で、ウインドウ内で検出対象となる
全ての直線上の画素の濃度値の和を算出し、制御装置1
内の不図示のメモリ上にテーブルを作成する。ステップ
S50で、テーブル中の最大値を検出する。ステップS
60で、検出された最大値に対応する直線をエッジ直線
として最も確度が高い直線として選び、その直線上のウ
インドウ境界上の2点[C1siC11]および[C1
eiC12](i=1〜2)を結んだ方向に所定の濃度
値以上の画素の探索を行い、その画素が途切れた点を車
庫枠の白線の端点とする(図11)。ステップS70
で、ステップS60で求められた白線の端点を車両座標
系ΣVに変換する。図12は、車両座標系ΣVにおける白
線11およびその端点を示す図である。ステップS60
で求められたその端点のカメラ画面上の上端の座標が[
C1uiC1ui]、下端の座標が[C1liC1li](i=
1〜2)のとき、図12に示す白線の端点の車両座標系
ΣVでの位置VuiVuiVui、0]TおよびVli
VliVli、0]Tは前述した第(26)式〜第(2
8)式で与えられる。
In step S10, the image taken by the side camera C1 is taken into the image memory 3. It is assumed that a white line 11 of the parking lot is shown in the side camera C1 as shown in FIG. In step S20, edge extraction is performed on the entire captured image using a sobel filter or the like. In step S30, a set of trapezoidal window regions having a pair of opposite sides parallel to each other is initially set as shown in FIG. 10, and in step S40, the sum of density values of pixels on all straight lines to be detected in the window is calculated. And control device 1
A table is created on a memory (not shown) in the table. In step S50, the maximum value in the table is detected. Step S
60, select the straight line corresponding to the detected maximum value as a straight line most probable as the edge straight, the straight line on two points on the window border of [C1 x si, C1 y 1 ] and [C1 x
ei, C1 y 2] (i = 1~2) carries out the search of the predetermined concentration value or more pixels in a direction connecting the to the point at which the pixel is interrupted and end points of the white line of the garage frame (Figure 11). Step S70
In, converts the white line endpoints determined in step S60 to the vehicle coordinate system sigma V. Figure 12 is a diagram illustrating a white line 11 and its end point in the vehicle coordinate system sigma V. Step S60
The coordinates of the upper end on the camera screen of the end point obtained in
C1 x ui , C1 y ui ], and the coordinates of the lower end are [ C1 x li , C1 y li ] (i =
When 1-2), the position of the vehicle coordinate system sigma V end point of the white line shown in FIG. 12 V P ui [V X ui , V Y ui, 0] T and V P li [
V X li , V Y li , 0] T is the above-mentioned equation (26) to (2)
8) It is given by the equation.

【0024】このようにして車両座標系ΣVと白線との
位置関係が認識されると、ステップS80で、自動駐車
するための車両Aの目標軌道が演算され設定される。こ
の自動駐車のための目標軌道の設定については公知な手
法を使用するものとし、ここではその説明を省略する。
[0024] In this way positional relationship between the vehicle coordinate system sigma V and the white line is recognized, in step S80, the target trajectory of the vehicle A for automatic parking is set are computed. A known method is used for setting the target trajectory for the automatic parking, and the description thereof is omitted here.

【0025】次に白線の端点の車両座標系ΣVでの位置V
uiVuiVui、0]TおよびVliVli
Vli、0]T が軌道上の各点において側方カメラC1
の画面上で存在する位置[C1(t1)ui
C1(t1)uiT、[C1(t1)liC1(t1)uiTおよび後
方カメラC2の画面上で存在する位置[C2(t1)ui
C2(t1)uiT、[C2(t1)liC2(t1)uiTを考え
る。軌道上の各点は設定された目標軌道の形状等に応じ
て所定の基準により予め決定されるが、運転者が任意に
設定するようにしてもよい。
The next position V of the vehicle coordinate system Σ V of the white line of the end point
P ui [ V X ui , V Y ui , 0] T and V P li [ V X li ,
V Y li , 0] T is the side camera C1 at each point on the trajectory.
Position [ C1 (t1) x ui ,
C1 (t1) yui ] T , [ C1 (t1) xli , C1 (t1) yui ] T and a position [ C2 (t1) xui , existing on the screen of the rear camera C2.
Consider C2 (t1) yui ] T , [ C2 (t1) xli , C2 (t1) yui ] T. Each point on the track is determined in advance by a predetermined reference according to the shape of the set target track or the like, but may be arbitrarily set by the driver.

【0026】ステップS90において、車両Aが軌道上
のある点に位置する場合に、上述したように第(29)
式および第(31)式よりC1(t1)ui=[C1(t1)ui
C1(t 1)uiC1(t1)uiTおよびC1(t1)li=[
C1(t1)liC1(t1)liC1(t1)liT が求めら
れ、第(11)式および第(12)式より
C1(t1)uiC1 (t1)uiT、[C1(t1)liC1(t1)
uiTが求められる。同様にして、第(30)式およ
び第(32)式よりC2(t1)ui=[C2(t1)uiC2(t1)
uiC2(t1)uiTおよびC2(t1)li
C2(t1)liC2(t1)liC2(t1)liT が求め
ら、第(11)式および第(12)式より
C2(t1)uiC2(t1)uiT、[C2 (t1)liC2(t1)
uiTが求められる。
In step S90, when the vehicle A is located at a certain point on the track, the vehicle (A)
From equation (31) and equation (31), C1 (t1) rui = [ C1 (t1) Xui ,
C1 (t 1) Y ui, C1 (t1) Z ui] T and C1 (t1) r li = [
C1 (t1) Xli , C1 (t1) Yli , C1 (t1) Zli ] T are obtained, and [ C1 (t1) xui , C1 (t1) are obtained from the equations (11) and (12 ). yui ] T , [ C1 (t1) xli , C1 (t1)
yui ] T is required. Similarly, from Expressions (30) and (32), C2 (t1) rui = [ C2 (t1) Xui , C2 (t1)
Y ui , C2 (t1) Z ui ] T and C2 (t1) r li =
[C2 (t1) X li, C2 (t1) Y li, C2 (t1) Z li] T is calculated et al, the (11) and a second (12) than [C2 (t1) x ui, C2 (t1 ) y ui ] T , [ C2 (t1) xli , C2 (t1)
yui ] T is required.

【0027】ステップS100で、ステップS90で求
めた[C1(t1)uiC1(t1)uiT、[C1(t1)li
C1(t1)uiT が側方カメラC1の撮像画面上の範囲
C1x|≦M1かつ|C1y|≦N1 に存在するかを調べ
る。同様にして[C2(t1)uiC2 (t1)uiT、[
C2(t1)liC2(t1)uiTが後方カメラC2の撮像画
面上の範囲|C2x|≦M2かつ|C2y|≦N2 に存在す
るかも調べる。ステップS110では、端点の4点のい
ずれも側方カメラC1の撮像画面内に存在しなければ車
庫枠の白線は側方カメラC1上に写っていないことにな
るので、そのときは側方カメラC1の画像では画像処理
は行わないとし、その旨の情報を目標軌道のデータエリ
アに格納する。同様に、端点の4点のいずれも後方カメ
ラC2の撮像画面内に存在しなければ車庫枠の白線は後
方カメラC2上に写っていないことになるので、そのと
きは後方カメラC2の画像の画像処理は行わないとし、
その旨の情報を目標軌道のデータエリアに格納する。
In step S100, [ C1 (t1) xui , C1 (t1) yui ] T obtained in step S90, [ C1 (t1) xli ,
C1 (t1) y ui] T imaging screen in the range of the lateral cameras C1 | determine present in ≦ N 1 | C1 x | ≦ M 1 and | C1 y. Similarly, [ C2 (t1) xui , C2 (t1) yui ] T , [
C2 (t1) x li, C2 (t1) y ui] T range on the imaging screen of the rear camera C2 | C2 x | ≦ M 2 and | C2 y | even if present in ≦ N 2 examined. In step S110, if none of the four end points is present in the imaging screen of the side camera C1, the white line of the garage frame does not appear on the side camera C1. It is assumed that no image processing is performed on the image of (1), and information to that effect is stored in the data area of the target trajectory. Similarly, if none of the four end points is present in the image screen of the rear camera C2, the white line of the garage frame is not shown on the rear camera C2. No processing,
The information to that effect is stored in the data area of the target trajectory.

【0028】ステップS120では、軌道上の設定され
た各点において上記の判定がすべて終わっているかを判
断し、終わっている場合は処理を終了し、終わっていな
い場合はステップS90に戻り処理を繰り返す。
In step S120, it is determined whether or not all the above determinations have been completed at each set point on the trajectory. If the determination has been completed, the process is terminated. If not, the process returns to step S90 and repeats the process. .

【0029】以上のような画像処理を行う、行わないの
判断を軌道上の適当にサンプリングした各点について行
い、それぞれのカメラについて画像処理を行う、行わな
いのダイヤグラムを作成して計画を立てる。このよう
に、車両の走行軌道の大局的な画像処理の計画を立てる
ことにより、複数のカメラを使用する場合でも1個の制
御装置1を効率的に割り当てることにより有効な資源活
用ができる。
The determination as to whether or not to perform image processing as described above is made for each appropriately sampled point on the trajectory, and a diagram for performing or not performing image processing for each camera is created and a plan is made. In this way, by making a plan for global image processing of the traveling trajectory of the vehicle, even when a plurality of cameras are used, effective resource utilization can be achieved by efficiently allocating one control device 1.

【0030】次に図9に従って、計測された車両の移動
量に基づいてウインドウの設定領域を算出するためのア
ルゴリズムを説明する。白線の端点の車両座標系ΣV
の位置VuiVuiVui、0]TおよびV
liVliVli、0]Tは図8のアルゴリズムのステ
ップS10〜S70までで求められるた内容と同一であ
るので、このフローチャートでは、その端点をもとにウ
インドウを設定する方法から説明する。
Next, an algorithm for calculating the window setting area based on the measured vehicle movement will be described with reference to FIG. Position in the vehicle coordinate system sigma V of the white line of the end point V P ui [V X ui, V Y ui, 0] T and V P
li [V X li, V Y li, 0] because T is the same as the contents required in up to step S10~S70 of the algorithm of FIG. 8, in this flow chart, a method of setting the window on the basis of the end points It will be explained first.

【0031】設定されたウインドウの様子を図13に示
す。白線の端点VuiVuiVu i、0]TおよびV
liVliVli、0]T を結ぶ単位ベクトルVi
第(33)式で与えられる。
FIG. 13 shows the state of the set window.
You. End of white lineVPui[VXui,VYu i, 0]TandVP
li[VXli,VYli, 0]T Unit vector connectingVeiIs
It is given by equation (33).

【数32】 Viに垂直な単位ベクトルViは次の第(34)式で与
えられる。
(Equation 32) V e i perpendicular unit vectors V f i is given by the equation (34) below.

【数33】 したがって、図13に示すような幅d、hほど拡大した
ウインドウ領域12、13の端点VqiVri
VsiVtiの位置ベクトルVqiVriVsiV
ti はそれぞれ次の第(35)式、第(36)式、第
(37)式、第(38)式で与えられる。
[Equation 33] Therefore, as shown in FIG. 13, the end points V Pqi , V Pri ,
V P si, position vector V r qi of V P ti, V r ri, V r si, V r
ti is given by the following equations (35), (36), (37), and (38), respectively.

【数34】 (Equation 34)

【数35】 (Equation 35)

【数36】 [Equation 36]

【数37】 ステップS200では、これらの式よりウインドウ領域
12、13の端点VqiVriVsiVtiを求めウ
インドウ領域12、13を設定する。以上のように車両
座標系ΣVすなわち道路面上の座標系から見てウインド
ウ領域12、13を設定することが本発明の特徴の一つ
である。
(37) In step S200, the end point V P qi window regions 12 and 13 than those of formula, setting the V P ri, V P si, window regions 12 and 13 determine the V P ti. It is a feature of the present invention to set the window regions 12 and 13 as viewed from the coordinate system on the vehicle coordinate system sigma V That road surface as described above.

【0032】ここで、ウインドウ領域12、13の幅d
については、例えば隣の駐車場に駐車している車両の横
エッジ成分を検出しないような幅に設定することによ
り、車両の横エッジはウインドウ領域に入ることはない
ので車両の横エッジを白線のエッジと誤認識することは
なくなる。
Here, the width d of the window regions 12 and 13
For example, by setting the width so that the lateral edge component of the vehicle parked in the adjacent parking lot is not detected, the lateral edge of the vehicle does not enter the window area, so the lateral edge of the vehicle is indicated by a white line. It will not be erroneously recognized as an edge.

【0033】次に、ステップS210で、車輪速センサ
2により検出された車輪の角速度等により車両の移動量
の演算を行う。左右の車輪の角速度をそれぞれu
l(t)、ur(t)とし、左右の車輪径をRl、Rr、ト
レッドをTとするとき上述したように時刻t=t0にお
ける位置をP(t0)=[0,0,0,0]Tとすると、
時刻t=t0+τにおける位置P(t0+τ)は第(2
2)式で与えられるので、第(22)式をt=t0から
t=t1まで繰り返すことでV(t0)V(t1)およびΔθ
(t0;t1)が求められる。ステップS220で、ステ
ップS210の結果および図8のアルゴリズムで求めた
結果より画像処理を行うカメラを選択する。
Next, in step S210, the amount of movement of the vehicle is calculated based on the wheel angular velocity detected by the wheel speed sensor 2. Set the angular velocity of the left and right wheels to u
and l (t), u r ( t), the left and right wheel diameter R l, R r, P ( t 0) the position at time t = t 0, as described above when the tread and T = [0, 0,0,0] T
The position P (t 0 + τ) at time t = t 0 + τ is the second position (2
Since it is given by the expression (2), the expression (22) is repeated from t = t 0 to t = t 1 to obtain V (t0) PV (t1) and Δθ
(T 0 ; t 1 ) is obtained. In step S220, a camera on which image processing is to be performed is selected based on the result of step S210 and the result obtained by the algorithm of FIG.

【0034】ステップS230において、選択したカメ
ラCjについて、第(29)式あるいは第(30)式よ
りウインドウ領域12、13の端点VqiVriV
siVtiについてCj(t1)qi=[Cj(t1)qiCj(t1)
qiCj(t1)qiTCj(t1)ri=[Cj(t1)ri
Cj(t1)riCj(t1)riTCj(t1)si=[Cj(t1)
siCj(t1)siCj(t1)siTCj(t1)ti=[
Cj(t1)tiCj(t1)tiCj(t1)tiTを求め、カメ
ラ座標系に変換する。次にステップS240において、
第(11)式および第(12)式あるいは第(13)式
および第(14)式よりカメラCjの撮像画面上の座標
Cj(t1)qiCj(t1)qiT、[Cj(t1)riCj (t1)
riT、[Cj(t1)siCj(t1)siT
Cj(t1)tiCj(t1)tiTを求め、撮影画面座標系
に変換する。これらの端点が囲むウインドウ設定領域1
2A、13Aは図14に示すように不等辺四角形となる
ので、ステップS250において、処理の効率化を図る
ために、図15に示すようにこの不等辺四角形を囲む台
形をウインドウ領域12B、13Bに設定する。
[0034] In step S230, the Camera C j selected, the (29) or second (30) end point V P qi window regions 12 and 13 from the equation, V P ri, V P
si, Cj (t1) for V P ti r qi = [Cj (t1) X qi, Cj (t1)
Y qi , Cj (t1) Z qi ] T , Cj (t1) r ri = [ Cj (t1) X ri ,
Cj (t1) Yri , Cj (t1) Zri ] T , Cj (t1) rsi = [ Cj (t1) X
si , Cj (t1) Ysi , Cj (t1) Zsi ] T , Cj (t1) rti = [
Cj (t1) Xti , Cj (t1) Yti , and Cj (t1) Zti ] T are obtained and converted into a camera coordinate system. Next, in step S240,
From the expressions (11) and (12) or the expressions (13) and (14), the coordinates [ Cj (t1) xqi , Cj (t1) yqi ] T , [ Cj (t1) xqi ] on the imaging screen of the camera Cj are obtained. Cj (t1) x ri , Cj (t1)
y ri ] T , [ Cj (t1) xsi , Cj (t1) ysi ] T ,
[ Cj (t1) xti , Cj (t1) yti ] T is obtained, and is converted into a shooting screen coordinate system. Window setting area 1 surrounded by these endpoints
Since 2A and 13A are trapezoids as shown in FIG. 14, in step S250, trapezoids surrounding the trapezoids are set in the window regions 12B and 13B as shown in FIG. Set.

【0035】ステップS260で、ウインドウ12B、
13B内で検出対象となる全ての直線上の画素の濃度値
の和を算出し、制御装置1内のメモリ上にテーブルを作
成した後、ステップS270で、テーブル中の最大値を
検出する。検出された最大値に対応する直線がエッジ直
線として最も確度が高い直線である。そして、ステップ
S280で、所定の濃度値以上の画素の追跡を行い、そ
の画素が途切れた点を車庫枠の白線の端点とする。ステ
ップS290で、その端点のカメラ画面上の上端の座標
が[Cj(t1)uiCj(t1)ui]、下端の座標が[Cj(t1)
liCj(t1)li](i=1〜2)のとき第(26)式
〜第(28)式より白線の端点の車両座標系ΣV(t1)
の位置V(t1)uiV(t1)uiV(t1)ui、0]Tおよび
V(t1)liV(t1)liV(t1)li、0]Tを求める。
In step S260, the window 12B,
After calculating the sum of the density values of all the pixels on the straight line to be detected in 13B and creating a table on the memory in the control device 1, in step S270, the maximum value in the table is detected. The straight line corresponding to the detected maximum value is the straight line having the highest accuracy as the edge straight line. Then, in step S280, tracking of pixels having a predetermined density value or more is performed, and the point where the pixel is interrupted is set as the end point of the white line of the garage frame. In step S290, the coordinates of the upper end of the end point on the camera screen are [ Cj (t1) xui , Cj (t1) yui ], and the coordinates of the lower end are [ Cj (t1).
xli , Cj (t1) yli ] (i = 1 to 2 ) , the position V (t1) in the vehicle coordinate system ΣV (t1) of the end point of the white line according to the expressions (26) to (28 ). P ui [ V (t1) X ui , V (t1) Y ui , 0] T and
V (t1) Pli [ V (t1) Xli , V (t1) Yli , 0] T is obtained.

【0036】ステップS300で、得られたV(t1)ui
V(t1)uiV(t1)ui、0]TおよびV(t1)li
V(t1)liV(t1)li、0]Tをもとに車両Aが目標点
に到達したかどうかを判断し、目標点に到達していない
場合はステップS310に進む。ステップS310で
は、車両Aを目標軌道に沿って所定量駆動する。そし
て、ステップS200に戻って同じ処理を繰り返す。ス
テップS310での車両Aの駆動は不図示の駆動装置に
より駆動される。ステップS300で目標点に達したと
判断された場合は処理を終了する。
In step S300, the obtained V (t1) P ui
[ V (t1) X ui , V (t1) Y ui , 0] T and V (t1) P li [
Based on V (t1) Xli , V (t1) Yli , 0] T , it is determined whether or not the vehicle A has reached the target point. If the vehicle A has not reached the target point, the process proceeds to step S310. In step S310, the vehicle A is driven by a predetermined amount along the target track. Then, returning to step S200, the same processing is repeated. The driving of the vehicle A in step S310 is driven by a driving device (not shown). If it is determined in step S300 that the target point has been reached, the process ends.

【0037】以上の処理を整理してみると次のようにな
る。まず自動駐車すべき白線で描かれた車庫枠の前に車
両を停止する。次に、側方カメラで白線を撮像し白線の
位置を認識する。この場合、車両が現在停止している点
の地面の点を基準座標として、その基準座標上において
自車両と白線の位置関係を正確に認識する。これには、
撮影画面座標系とカメラ座標系、カメラ座標系と車両座
標系との関係に基づき座標変換をして求める。現時点で
は、基準座標系と車両座標系は一致している。次に、基
準座標系において認識された白線の周りの所定範囲を画
像処理すべきウインドウに対応する範囲とする。
The above processing is summarized as follows. First, the vehicle is stopped before the garage frame drawn by the white line to be automatically parked. Next, the white line is imaged by the side camera, and the position of the white line is recognized. In this case, the point on the ground where the vehicle is currently stopped is set as the reference coordinates, and the positional relationship between the vehicle and the white line is accurately recognized on the reference coordinates. This includes
It is obtained by performing coordinate conversion based on the relationship between the photographing screen coordinate system and the camera coordinate system and between the camera coordinate system and the vehicle coordinate system. At this time, the reference coordinate system and the vehicle coordinate system match. Next, a predetermined range around the white line recognized in the reference coordinate system is set as a range corresponding to a window on which image processing is to be performed.

【0038】次に、所定の手法で求められた自動駐車の
軌道に沿って車両が移動すると、あるいはドライバーの
運転により車両が移動すると、その車両の移動量を後車
輪の車輪速センサにより求める。この車両の移動量に基
づき、上記に設定されたウインドウがカメラの撮影画面
上においてどのように移動するかが予測できる。この予
測は、車両移動量に基づく基準座標系と移動した車両の
車両座標系の関係、および車両座標系とカメラ座標系、
カメラ座標系と撮影画面座標系との関係に基づき座標変
換をして予測することができる。すなわち、車両が移動
した後、カメラの撮影画面上において、白線が含まれて
いると思われるウインドウがどのように移動するかが予
測される。
Next, when the vehicle moves along the automatic parking trajectory obtained by a predetermined method, or when the vehicle moves by the driver's operation, the amount of movement of the vehicle is obtained by the wheel speed sensor of the rear wheel. Based on the moving amount of the vehicle, it is possible to predict how the window set above moves on the photographing screen of the camera. This prediction is based on the relationship between the reference coordinate system based on the amount of vehicle movement and the vehicle coordinate system of the moved vehicle, the vehicle coordinate system and the camera coordinate system,
Prediction can be performed by performing coordinate conversion based on the relationship between the camera coordinate system and the shooting screen coordinate system. That is, after the vehicle moves, it is predicted how the window that seems to include the white line moves on the photographing screen of the camera.

【0039】この移動予測後のウインドウにおいて、画
像処理を行い白線の抽出を行う。白線が抽出されると、
撮影画面上の白線の座標から、撮影画面座標系とカメラ
座標系、カメラ座標系と車両座標系、車両座標系と基準
座標系の関係に基づき座標変換し、基準座標系において
車両と白線の位置関係が正確に認識できる。車輪速セン
サに基づいて得られた車両の移動量はいわば仮の車両の
移動量で、この画像処理により求められた白線と車両の
位置関係が正確な車両の移動データとなる。このような
処理を繰り返すことにより、自車両の正確な位置を常に
認識しながら、自動駐車やドライバーによる運転を行う
ことができる。
In the window after the movement prediction, image processing is performed to extract a white line. When the white line is extracted,
From the coordinates of the white line on the shooting screen, coordinate conversion is performed based on the relationship between the shooting screen coordinate system and the camera coordinate system, the camera coordinate system and the vehicle coordinate system, the relationship between the vehicle coordinate system and the reference coordinate system, and the position of the vehicle and the white line in the reference coordinate system. Relationships can be accurately recognized. The moving amount of the vehicle obtained based on the wheel speed sensor is a so-called moving amount of the temporary vehicle, and the positional relationship between the white line and the vehicle obtained by this image processing becomes accurate moving data of the vehicle. By repeating such processing, automatic parking or driving by a driver can be performed while always recognizing the exact position of the host vehicle.

【0040】以上のようにして、画像処理をすべきウイ
ンドウ領域の設定を、自車両の移動量に基づいて算出し
設定するようにしたため、車庫枠の白線に対し自車両の
位置と姿勢が大きく変わっても、白線を確実に追従する
ことができ、自車両の正確な位置を常に認識することが
できる。また、自車両の位置と姿勢が大きく変動するこ
とにより白線がカメラの視野から一度外れてしまった場
合でも、再び白線がカメラ視野内に入った場合に確実に
追従することができる。
As described above, the setting of the window area to be subjected to the image processing is calculated and set based on the moving amount of the own vehicle, so that the position and the posture of the own vehicle are large with respect to the white line of the garage frame. Even if it changes, the white line can be reliably followed, and the exact position of the vehicle can always be recognized. Further, even when the white line once deviates from the field of view of the camera due to a large change in the position and attitude of the own vehicle, it is possible to reliably follow the white line again when it enters the field of view of the camera.

【0041】さらに、複数の異なるカメラを使う場合
に、1台のカメラの視野から白線が外れても、他のどの
カメラの視野に入っているかを容易に判断することがで
き、確実に白線を追従することができる。さらに、車両
の軌道が予め分かっている場合であって複数のカメラを
使用する場合、軌道の途中の経路で対象物がどのカメラ
の視野内に入るかを予め計算で求められるので、効率的
で無駄のない画像処理制御の戦略が立てられる。さら
に、連続的に取り込まれた画像から白線を追跡する必要
がないので、通常は別の画像処理を行い、要所要所で白
線の処理行うようなタイムシェアリングが可能なので画
像処理装置の限られた資源を有効に活用することもでき
る。
Further, when a plurality of different cameras are used, even if the white line deviates from the field of view of one camera, it can be easily determined which of the other cameras is in the field of view, and the white line can be reliably detected. Can follow. Further, when the trajectory of the vehicle is known in advance and a plurality of cameras are used, it is possible to calculate in advance which of the cameras is within the field of view of the object along the route along the trajectory, which is efficient. A lean image processing control strategy is established. In addition, since it is not necessary to track white lines from continuously captured images, usually, separate image processing is performed, and time sharing such as processing white lines at necessary places is possible, so image processing devices are limited. Resources can be used effectively.

【0042】なお、上記の実施の形態では車両の移動量
の計測に車輪速センサを用いた例で説明をしたが、この
内容に限定する必要はない。例えば、車輪速センサとヨ
ーレートセンサを組み合わせて用いてもよいし、その他
の方法でもよい。すなわち、車両の回転角を含む移動量
が検出できるような手法であればどのような内容であっ
てもよい。
Although the above embodiment has been described with reference to the example in which the wheel speed sensor is used to measure the amount of movement of the vehicle, the present invention is not limited to this. For example, a combination of a wheel speed sensor and a yaw rate sensor may be used, or another method may be used. In other words, any content may be used as long as the amount of movement including the rotation angle of the vehicle can be detected.

【0043】また、上記の実施の形態では駐車場の車庫
枠の白線の抽出を例に説明したが、駐車場あるいは道路
上の白線に限る必要はない、画像処理をして検出できる
ような対象物であればどのようなものでもよい。例え
ば、ガードレールや特定の段差のようなものでも、本発
明は適用できる。
In the above-described embodiment, the extraction of the white line of the garage frame of the parking lot has been described as an example. However, the present invention is not limited to the white line on the parking lot or on the road. Any object can be used. For example, the present invention can be applied to a device such as a guardrail or a specific step.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の車両用画像処理装置の一実施の形態の
構成を示す図である。
FIG. 1 is a diagram showing a configuration of an embodiment of a vehicle image processing apparatus according to the present invention.

【図2】車両を上から見た場合の平面図である。FIG. 2 is a plan view when the vehicle is viewed from above.

【図3】車両を後方から見た図である。FIG. 3 is a view of the vehicle as viewed from behind.

【図4】車両の後部を右側方から見た図である。FIG. 4 is a right side view of a rear portion of the vehicle.

【図5】車両座標系ΣVとカメラ座標系ΣC1から見た対
象物Pの位置の関係を示す図である。
5 is a diagram showing the relationship between the position of the object P viewed from the vehicle coordinate system sigma V and the camera coordinate system sigma C1.

【図6】カメラ座標系ΣCと撮影画面座標系の関係を示
した図である。
6 is a diagram showing the relationship between the camera coordinate system and sigma C shooting screen coordinate system.

【図7】移動前の車両座標系ΣV(t0)と移動後の車両座
標系ΣV(t1)の関係を説明する図である。
FIG. 7 is a diagram illustrating a relationship between a vehicle coordinate system ΣV (t0) before movement and a vehicle coordinate system ΣV (t1) after movement.

【図8】自動駐車開始時点で複数のカメラのどれで画像
処理を行うか大局的な計画を立てるフローチャートであ
る。
FIG. 8 is a flowchart for making a global plan as to which of a plurality of cameras performs image processing at the start of automatic parking.

【図9】計測された車両の移動量に基づいてウインドウ
の設定領域を算出するためフローチャートである。
FIG. 9 is a flowchart for calculating a window setting area based on a measured vehicle movement amount.

【図10】カメラに写された白線および初期ウインドウ
を示す図である。
FIG. 10 is a diagram showing a white line and an initial window captured by a camera.

【図11】カメラに写された抽出された車庫枠の白線の
端点を示す図である。
FIG. 11 is a diagram showing an end point of a white line of an extracted garage frame captured by a camera.

【図12】車両座標系ΣVにおける白線およびその端点
を示す図である。
12 is a diagram illustrating a white line and its end point in the vehicle coordinate system sigma V.

【図13】車両座標系において設定されたウインドウの
様子を示す図である。
FIG. 13 is a diagram showing a state of a window set in a vehicle coordinate system.

【図14】撮影画面座標系に設定されたウインドウの様
子を示す図である。
FIG. 14 is a diagram illustrating a state of a window set in a shooting screen coordinate system.

【図15】処理の効率化を図るために台形状に設定され
たウインドウを説明する図である。
FIG. 15 is a diagram illustrating a window set in a trapezoidal shape in order to increase processing efficiency.

【符号の説明】[Explanation of symbols]

1 制御装置 2 車輪速センサ 3 画像メモリ 4 白線処理部 5 ウインドウ座標算出部 6 車両移動量算出部 7 車両座標算出部 8 軌道計画部 9 ウインドウ設定部 11 白線 12、13 ウインドウ A 車両 C1、C2 カメラ REFERENCE SIGNS LIST 1 control device 2 wheel speed sensor 3 image memory 4 white line processing unit 5 window coordinate calculation unit 6 vehicle movement amount calculation unit 7 vehicle coordinate calculation unit 8 trajectory planning unit 9 window setting unit 11 white line 12, 13 window A vehicle C1, C2 camera

フロントページの続き (51)Int.Cl.6 識別記号 FI H04N 7/18 H04N 7/18 J // G06T 7/20 G06F 15/70 410 Continued on the front page (51) Int.Cl. 6 Identification symbol FI H04N 7/18 H04N 7/18 J // G06T 7/20 G06F 15/70 410

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】車両に備えられ車両の周囲環境を撮像する
撮像手段と、 前記撮像手段により撮像された撮像画面の一部におい
て、画像処理を行うための画像処理領域を設定する画像
処理領域設定手段と、 車両の周囲環境に存在し、車両の移動に伴い車両と相対
的に位置が変化しかつ車両の移動面とは相対的に位置が
変化しない対象物を抽出するために、前記画像処理領域
設定手段により設定された画像処理領域において画像処
理を行う画像処理手段とを備えた車両用画像処理装置に
おいて、 車両の前記移動面上の移動量を計測する車両移動量計測
手段をさらに備え、 前記画像処理領域設定手段は、車両の移動後の前記画像
処理領域を、前記車両移動量計測手段により計測された
車両の移動量に基づいて設定することを特徴とする車両
用画像処理装置。
1. An image pickup device provided in a vehicle for picking up an image of an environment around the vehicle, and an image processing region setting for setting an image processing region for performing image processing in a part of an image picked up by the image pickup device. Means for extracting an object existing in the surrounding environment of the vehicle, the position of which changes relative to the vehicle as the vehicle moves, and the position of which does not change relative to the moving surface of the vehicle. An image processing device for performing image processing in an image processing area set by the area setting means, the vehicle image processing apparatus further comprising: a vehicle movement amount measurement means for measuring a movement amount of the vehicle on the moving surface; The image processing area setting means sets the image processing area after the movement of the vehicle based on the movement amount of the vehicle measured by the vehicle movement amount measurement means. Equipment.
【請求項2】請求項1記載の車両用画像処理装置におい
て、 車両の移動後に設定された前記画像処理領域を画像処理
することにより抽出された対象物の位置関係に基づき、
移動後の車両の位置を認識することを特徴とする車両用
画像処理装置。
2. The image processing apparatus for a vehicle according to claim 1, wherein the image processing area set after the movement of the vehicle is image-processed based on a positional relationship of an object extracted.
An image processing apparatus for a vehicle, which recognizes a position of a vehicle after moving.
【請求項3】請求項1記載の車両用画像処理装置におい
て、 前記撮像手段は複数の撮像装置からなり、 前記画像処理領域設定手段は、前記車両移動量計測手段
により計測された車両の移動量に基づいて、車両移動後
の前記画像処理領域を設定すべき撮像装置を前記複数の
撮像装置の中から一つ選択することを特徴とする車両用
画像処理装置。
3. An image processing apparatus for a vehicle according to claim 1, wherein said image pickup means comprises a plurality of image pickup apparatuses, and said image processing area setting means comprises a movement amount of the vehicle measured by said vehicle movement amount measurement means. An image processing apparatus for a vehicle, wherein one of the plurality of image capturing apparatuses for setting the image processing area after the vehicle is moved is selected based on the following.
【請求項4】請求項1記載の車両用画像処理装置におい
て、 車両が前記移動面上の所定の位置にあるときの該移動面
上の所定の位置を基準座標とし、前記撮像装置の撮像画
面を撮像画面座標とし、前記基準座標と前記撮像画面座
標とを、前記車両移動量計測手段により計測された前記
所定の位置からの車両の移動量を考慮して相互に座標変
換する座標変換手段をさらに備え、 前記座標変換手段は、前記撮像画面上で抽出された対象
物の前記撮像画面座標上の座標を前記基準座標に座標変
換することを特徴とする車両用画像処理装置。
4. The image processing apparatus for a vehicle according to claim 1, wherein a predetermined position on the moving surface when the vehicle is at a predetermined position on the moving surface is set as a reference coordinate, and an image pickup screen of the image pickup device is provided. A coordinate conversion means for mutually transforming the reference coordinates and the imaging screen coordinates in consideration of the movement amount of the vehicle from the predetermined position measured by the vehicle movement amount measurement means. The image processing apparatus for a vehicle, further comprising: the coordinate conversion unit converting the coordinates of the target object extracted on the imaging screen on the imaging screen coordinates into the reference coordinates.
【請求項5】請求項4記載の車両用画像処理装置におい
て、 前記画像処理領域設定手段は、前記基準座標上において
前記抽出された対象物を含む領域を設定し、その後車両
が移動した場合、該領域を前記座標変換手段により前記
撮像画面座標に座標変換することにより前記撮像画面上
の画像処理領域を設定することを特徴とする車両用画像
処理装置。
5. The image processing apparatus for a vehicle according to claim 4, wherein the image processing area setting means sets an area including the extracted object on the reference coordinates, and thereafter, when the vehicle moves. An image processing apparatus for a vehicle, wherein an image processing area on the imaging screen is set by performing coordinate conversion of the area into the imaging screen coordinates by the coordinate conversion means.
【請求項6】車両に備えられ車両の周囲環境を撮像する
撮像手段と、 前記撮像手段により撮像された撮像画面の一部におい
て、画像処理を行うための画像処理領域を設定する画像
処理領域設定手段と、 車両の周囲環境に存在し、車両の移動に伴い車両と相対
的に位置が変化しかつ車両の移動面とは相対的に位置が
変化しない対象物を抽出するために、前記画像処理領域
設定手段により設定された画像処理領域において画像処
理を行う画像処理手段とを備えた車両用画像処理装置に
おいて、 車両の進むべき軌道を設定する車両軌道設定手段と、 前記軌道上の1以上の各点における車両の位置情報に基
づき、前記画像処理領域をどのように設定するかを予め
計画する軌道計画手段とを備えることを特徴とする車両
用画像処理装置。
6. An image pickup means provided in a vehicle for picking up an image of an environment around the vehicle, and an image processing area setting for setting an image processing area for performing image processing in a part of an image screen picked up by the image pickup means. Means for extracting an object existing in the surrounding environment of the vehicle, the position of which changes relative to the vehicle with the movement of the vehicle, and the position of which does not change relative to the moving surface of the vehicle. An image processing apparatus for a vehicle, comprising: an image processing unit configured to perform image processing in an image processing area set by an area setting unit; a vehicle trajectory setting unit configured to set a trajectory of a vehicle; A trajectory planning means for planning in advance how to set the image processing area based on vehicle position information at each point.
【請求項7】請求項6記載の車両用画像処理装置におい
て、 前記撮像手段は複数の撮像装置からなり、 前記軌道計画手段による計画は、前記複数の撮像装置の
どの撮像装置を選択するかの計画を含むことを特徴とす
る車両用画像処理装置。
7. The image processing apparatus for a vehicle according to claim 6, wherein said image pickup means comprises a plurality of image pickup apparatuses, and the planning by said trajectory planning means determines which one of said plurality of image pickup apparatuses is to be selected. An image processing device for a vehicle, comprising a plan.
JP10146046A 1998-05-27 1998-05-27 Image processor for vehicle Pending JPH11339012A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10146046A JPH11339012A (en) 1998-05-27 1998-05-27 Image processor for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10146046A JPH11339012A (en) 1998-05-27 1998-05-27 Image processor for vehicle

Publications (1)

Publication Number Publication Date
JPH11339012A true JPH11339012A (en) 1999-12-10

Family

ID=15398887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10146046A Pending JPH11339012A (en) 1998-05-27 1998-05-27 Image processor for vehicle

Country Status (1)

Country Link
JP (1) JPH11339012A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001180403A (en) * 1999-12-24 2001-07-03 Toyota Autom Loom Works Ltd Steering support device
JP2006175918A (en) * 2004-12-21 2006-07-06 Aisin Seiki Co Ltd Parking auxiliary device
JP2011168258A (en) * 2010-02-22 2011-09-01 Honda Motor Co Ltd Parking support device
JP2016014549A (en) * 2014-07-01 2016-01-28 Ihi運搬機械株式会社 Vehicle position calculation device
JP2017010078A (en) * 2015-06-16 2017-01-12 日産自動車株式会社 Road surface sign detection apparatus and road surface sign detection method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001180403A (en) * 1999-12-24 2001-07-03 Toyota Autom Loom Works Ltd Steering support device
JP2006175918A (en) * 2004-12-21 2006-07-06 Aisin Seiki Co Ltd Parking auxiliary device
JP4604703B2 (en) * 2004-12-21 2011-01-05 アイシン精機株式会社 Parking assistance device
JP2011168258A (en) * 2010-02-22 2011-09-01 Honda Motor Co Ltd Parking support device
JP2016014549A (en) * 2014-07-01 2016-01-28 Ihi運搬機械株式会社 Vehicle position calculation device
JP2017010078A (en) * 2015-06-16 2017-01-12 日産自動車株式会社 Road surface sign detection apparatus and road surface sign detection method

Similar Documents

Publication Publication Date Title
JP5966747B2 (en) Vehicle travel control apparatus and method
US7659835B2 (en) Method and apparatus for recognizing parking slot by using bird's eye view and parking assist system using the same
JP2020064046A (en) Vehicle position determining method and vehicle position determining device
JP6045888B2 (en) In-vehicle image processing device
JP4793324B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
US7295684B2 (en) Image-based object detection apparatus and method
US20090052742A1 (en) Image processing apparatus and method thereof
US20170259830A1 (en) Moving amount derivation apparatus
CN110088801B (en) Driving region detection device and driving assistance system
US20200090347A1 (en) Apparatus for estimating movement information
JP2003178309A (en) Moving amount estimating device
JP4256992B2 (en) Obstacle detection device
JP3897337B2 (en) Road shoulder detection apparatus and method
JP3911983B2 (en) Rear monitoring device
US20220153259A1 (en) Autonomous parking systems and methods for vehicles
JPH11339012A (en) Image processor for vehicle
JP2004185425A (en) Lane mark recognition method and device
CN112241717B (en) Front vehicle detection method, and training acquisition method and device of front vehicle detection model
JP3985610B2 (en) Vehicle traveling path recognition device
JP6886136B2 (en) Alignment device, alignment method and computer program for alignment
JP4106163B2 (en) Obstacle detection apparatus and method
JP3736044B2 (en) Road white line detector
JP4462533B2 (en) Road lane detection device
JP7380443B2 (en) Partial image generation device and computer program for partial image generation
JP4492592B2 (en) Vehicle detection device, navigation device, vehicle detection program, and vehicle detection method