JP2940366B2 - Object tracking recognition device - Google Patents

Object tracking recognition device

Info

Publication number
JP2940366B2
JP2940366B2 JP5306725A JP30672593A JP2940366B2 JP 2940366 B2 JP2940366 B2 JP 2940366B2 JP 5306725 A JP5306725 A JP 5306725A JP 30672593 A JP30672593 A JP 30672593A JP 2940366 B2 JP2940366 B2 JP 2940366B2
Authority
JP
Japan
Prior art keywords
specific point
vehicle
recognition
road
recognition target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP5306725A
Other languages
Japanese (ja)
Other versions
JPH07162846A (en
Inventor
弘 下浦
健二 天目
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP5306725A priority Critical patent/JP2940366B2/en
Priority to US08/301,434 priority patent/US5638116A/en
Publication of JPH07162846A publication Critical patent/JPH07162846A/en
Priority to US08/731,582 priority patent/US5739848A/en
Priority to US08/996,090 priority patent/US6285393B1/en
Application granted granted Critical
Publication of JP2940366B2 publication Critical patent/JP2940366B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/80Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
    • Y02T10/84Data processing systems or methods, management, administration

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、車両に搭載された車載
カメラで車両の周囲を撮像し、撮像された画像に基づい
て道路の周辺の物体を追従認識するための装置に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for capturing an image of the periphery of a vehicle with an on-vehicle camera mounted on the vehicle, and following and recognizing an object around a road based on the captured image.

【0002】[0002]

【従来の技術】車載カメラによって車両の前方や後方を
撮像し、撮像された画像中の物体を認識するための技術
が種々提案されている。例えば、車両の前方を車載カメ
ラで撮像し、撮像された画像を画像処理して前方の他車
両を認識することができれば、他車両が異常接近したと
きには、ステアリングやブレーキを自動的に動作させる
ことによって、自動的に事故を回避できる。また、道路
標識を認識することができれば、この認識された道路標
識に対応する情報を、ナビゲーション装置におけるいわ
ゆる経路誘導のために用いることができる。
2. Description of the Related Art Various techniques have been proposed for capturing images of the front and rear of a vehicle using a vehicle-mounted camera and recognizing an object in the captured image. For example, if an in-vehicle camera captures an image of the front of the vehicle, and if the captured image can be image-processed to recognize another vehicle in front, the steering and brakes are automatically operated when another vehicle approaches abnormally. Can automatically avoid an accident. If the road sign can be recognized, the information corresponding to the recognized road sign can be used for so-called route guidance in the navigation device.

【0003】車載カメラによって撮像される物体を画像
認識する場合、画面中における物体の位置が刻々と変化
する。このように画面中で移動していく物体を画像認識
する場合に、画面中における物体の挙動を推定し、この
推定結果を利用して、撮像された画面から物体を含む画
像部分を切り出し、この切り出された画像に関して画像
認識処理を行う必要がある。
When recognizing an image of an object captured by a vehicle-mounted camera, the position of the object on the screen changes every moment. When an image of an object moving on the screen is recognized as described above, the behavior of the object on the screen is estimated, and an image portion including the object is cut out from the captured screen using the estimation result. It is necessary to perform an image recognition process on the clipped image.

【0004】ところで、前記のように画面中における物
体の挙動を推定するには、車両の速度等を知ることは勿
論、さらに道路(道路車両座標系)に対する車載カメラ
の姿勢を表す車載カメラの姿勢パラメータを正確に求め
ておかなければならない。車載カメラの姿勢パラメータ
についての発明者の現在の研究では、後に実施例で説明
するように、姿勢パラメータの算出に当たり、道路の中
央分離線や路側帯の境界線等の道路平行線を2本求め、
前記車載カメラによって撮像される画面内において道路
平行線が交わって消失する点である道路消失点を求める
ことができれば、前記2本の道路平行線及び道路消失点
に基づいて車載カメラの姿勢パラメータを算出できるこ
とが分かっている(特願平5−223357号で特許出
願済)。
In order to estimate the behavior of an object on a screen as described above, it is necessary to know not only the speed of the vehicle, but also the posture of the vehicle-mounted camera with respect to the road (road vehicle coordinate system). The parameters must be determined exactly. In the present study of the attitude parameter of the on-vehicle camera, as will be described later in the embodiment, in calculating the attitude parameter, two road parallel lines such as a center separation line of a road and a boundary line of a road side zone are obtained. ,
If a road vanishing point, which is a point where road parallel lines intersect and disappear in a screen imaged by the on-vehicle camera, can be obtained, the attitude parameter of the on-vehicle camera is determined based on the two road parallel lines and the road vanishing point. It is known that it can be calculated (a patent application has been filed in Japanese Patent Application No. 5-223357).

【0005】[0005]

【発明が解決しようとする課題】しかし、車載カメラの
視野には、車両、歩行者、道路標識等種々の物体が入っ
たり出たりするので、画像認識処理を行うには、その前
提としてある処理周期で車載カメラの視野に入った物体
が、次の処理周期で車載カメラの視野にある物体と同一
のものであるかどうかを確実に把握できるようにしてお
かなければならない。
However, various objects such as vehicles, pedestrians, and road signs enter and exit from the field of view of the on-vehicle camera. It must be ensured that an object that enters the field of view of the on-vehicle camera in the cycle is identical to an object that is in the field of view of the on-board camera in the next processing cycle.

【0006】このためには、物体の位置や位置の変化、
位置検出の誤差、物体が静止しているか移動しているか
の区別、物体のパターン等を考慮して、物体を追従して
いくことができる追従認識処理を実現する必要がある。
しかもこの追従認識処理は、車両の走行中に、車載カメ
ラで撮像しながら行う処理であるため、迅速性が要求さ
れる。
[0006] For this purpose, the position of the object or a change in the position,
It is necessary to realize a tracking recognition process capable of following an object in consideration of a position detection error, a distinction whether the object is stationary or moving, a pattern of the object, and the like.
In addition, the following recognition process is a process that is performed while the vehicle is running while capturing an image with the on-board camera, and therefore requires quickness.

【0007】そこで、本発明の目的は、上述の技術的課
題を解決し、車両に搭載された車載カメラで車両の周囲
を撮像し、撮像された画像に基づいて道路の周辺の物体
を効率よく追従認識することができる対称物の追従認識
装置を提供することである。
Therefore, an object of the present invention is to solve the above-mentioned technical problems, to capture an image of the periphery of a vehicle with an on-vehicle camera mounted on the vehicle, and to efficiently detect objects around the road based on the captured image. An object of the present invention is to provide a symmetric object follow-up recognition device capable of following-up recognition.

【0008】[0008]

【課題を解決するための手段及び作用】(1)前記の目的
を達成するための請求項記載の対象物の追従認識装置
は、車載カメラによって車両の前方又は後方を撮像し
て、処理周期ごとにディジタル画像信号に変換する画像
処理手段と、画像処理手段から得られる変換画像に基づ
いて、画面内の1つ又は複数の認識対象物の輪郭を抽出
し、各認識対象物に対応して、その位置が決まれば認識
対象物の位置が決定されるという1つ又は複数の特定点
の画面上の座標を決定し、特定点の周辺の画像の特徴と
ともにメモリに登録する登録手段と、画面上の座標が決
定され登録手段により登録された特定点の座標を、車載
カメラの姿勢パラメータを用いて、特定点の空間的な位
置に変換する空間座標変換手段と、空間座標変換手段に
より変換された特定点の空間的な位置と、各種センサか
らの信号に基づいて車両の位置を検出する位置検出処理
装置の出力データに含まれる車両の走行距離データと方
位データとから、後の処理周期における特定点の空間的
な位置を求め、この位置に対応する特定点の画面上の座
標を推定する推定手段と、画像処理手段から、後の処理
周期における変換画像が得られた場合に、推定手段によ
り推定された画面上の座標の周辺の誤差範囲内で、同一
の特定点が存在するかどうかを判定する判定手段とを備
え、判定手段により同一の特定点が存在すると判定され
た場合は、その特定点の空間的な位置を求めることによ
り認識対象物を追従し、判定手段により同一の特定点
が、当該認識対象物について存在しないと判定された場
合は、当該認識対象物に対応する登録を抹消するもので
る。
Means and operation for solving the problems] (1) follow-up recognition apparatus of claim 1 object according to an end of, by imaging the front or rear of the vehicle by the onboard camera, processing cycle Image processing means for converting a digital image signal into a digital image signal, and extracting an outline of one or a plurality of recognition objects in the screen based on the converted image obtained from the image processing means. Registering means for determining coordinates on the screen of one or more specific points that determine the position of the object to be recognized when the position is determined, and registering the coordinates in a memory together with features of an image around the specific points; The coordinates of the specific point, the coordinates of which are determined and registered by the registration means, are converted by the spatial coordinate conversion means for converting the coordinates of the specific point into the spatial position of the specific point using the posture parameters of the on-vehicle camera. Specific point From the spatial position and the traveling distance data and the azimuth data of the vehicle included in the output data of the position detection processing device that detects the position of the vehicle based on signals from various sensors, the space of a specific point in a later processing cycle Estimating means for determining a typical position and estimating coordinates on the screen of a specific point corresponding to this position, and estimating means when a converted image in a later processing cycle is obtained from the image processing means. Determining means for determining whether or not the same specific point exists within an error range around coordinates on the screen; and when the determining means determines that the same specific point exists, the determination of the specific point is performed. The recognition target is tracked by obtaining the spatial position, and when the same specific point is determined not to exist for the recognition target by the determination unit, the registration corresponding to the recognition target is deleted. <br/> in what Apply predicates Oh.

【0009】前記の対象物の追従認識装置によれば、変
換画像における各認識対象物に対応した1つ又は複数の
特定点の座標をメモリに登録しておき、前記登録された
特定点の座標を、当該処理周期における車載カメラの姿
勢パラメータを用いて、特定点の空間的な位置に変換す
る。そして、この特定点の空間的な位置と、位置検出処
理装置の出力データに含まれる車両の走行距離データと
方位データとから、後の処理周期における特定点の空間
的な位置を予測し、この位置に対応する特定点の画面上
の座標を推定し、後の処理周期における変換画像が得ら
れた場合に、前記推定された画面上の座標の周辺の誤差
範囲内で、同一の特定点が存在するかどうかを判定す
る。画面上の座標の周辺の誤差範囲内という限られた場
所で特定点を探索すればよいので、処理時間が少なくて
済む。同一の特定点が存在すると判定された場合は、そ
の特定点の空間的な位置を求めることにより認識対象物
を追従し、存在しないと判定された場合は、当該認識対
象物に対応する登録を抹消することにより、認識対象物
の追従を効率よく行える。
According to the object tracking recognition apparatus, the coordinates of one or more specific points corresponding to each recognition object in the converted image are registered in the memory, and the registered coordinates are stored in the memory.
The coordinates of the specific point are converted into the spatial position of the specific point using the posture parameters of the on-vehicle camera in the processing cycle. Then, from the spatial position of the specific point, the traveling distance data and the direction data of the vehicle included in the output data of the position detection processing device, the spatial position of the specific point in a later processing cycle is predicted. The coordinates of the specific point corresponding to the position on the screen are estimated, and when a converted image is obtained in a later processing cycle, the same specific point is within the error range around the estimated coordinates on the screen. Determine if it exists. Limited space within the error range around the coordinates on the screen
Since it is only necessary to search for a specific point at a place,
I'm done. When it is determined that the same specific point exists, the recognition target is followed by obtaining the spatial position of the specific point. When it is determined that the specific point does not exist, the recognition target is determined.
By deleting the registration corresponding to the elephant, the tracking of the recognition target can be performed efficiently.

【0010】(2) 各認識対象物に対応して1つ又は複数の特定点の情
報をメモリに登録しておく際に、各認識対象物を見分け
るためのパターン情報も登録しておけば、さらに確実に
追従をすることができる(請求項)。(3) また、後の処理周期における特定点の空間的な位置
を予測する場合に、認識対象物が移動している場合のあ
ることを考慮して特定点の空間的な位置と、その前の処
理周期で決定された特定点の空間的な位置とから特定点
の空間位置変化を求め、この変化に基づいて特定点に係
る認識対象物が静止しているか、一定速度で移動してい
るかを判定してもよい(請求項)。(4) なお、前記変化が求められない場合(例えば最初の
処理である場合)は、認識対象物は静止しているとみな
して処理をしてもよく(請求項)、同一の特定点が存
在しなかったと判定された場合には、判定手段は、前記
誤差範囲を超えたより広い範囲内で、同一の特定点が存
在するかどうかを、登録された特定点の周辺の画像の特
徴に基づき判定してもよい(請求項)。
(2) When registering information of one or more specific points in the memory corresponding to each recognition target, if pattern information for distinguishing each recognition target is also registered, It is possible to follow more reliably (claim 4 ). (3) Also, when predicting the spatial position of a specific point in a later processing cycle, the spatial position of the specific point and the spatial The spatial position of the specific point is determined from the spatial position of the specific point determined in the processing cycle of the above, and based on this change, whether the recognition target object relating to the specific point is stationary or moving at a constant speed May be determined (claim 5 ). (4) If the change is not obtained (for example, the first processing), the processing may be performed assuming that the object to be recognized is stationary (Claim 7 ). If it is determined that there is no, the determination unit determines whether the same specific point exists within a wider range beyond the error range, based on the characteristics of the image around the registered specific point. The determination may be made based on claim 8 .

【0011】[0011]

【実施例】以下では、本発明の一実施例に係る画像認識
システムについて詳細に説明する。 (1) 画像認識処理システムの概要 以下で説明する画像認識処理システムは、車両に搭載さ
れた車載カラーカメラで車両の周囲を撮像し、撮像され
た画像に基づいて道路の周辺の物体を追従認識するため
の装置である。認識される物体は、例えば、歩行者、信
号機、道路標識、道路の表面に描かれた道路表示及び走
行中の道路と立体交差している高架道路等の道路施設並
びに他車両等である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image recognition system according to one embodiment of the present invention will be described in detail. (1) Overview of Image Recognition Processing System The image recognition processing system described below captures the surroundings of a vehicle with an in-vehicle color camera mounted on the vehicle, and performs tracking recognition of objects around the road based on the captured images. It is a device for performing. Recognized objects are, for example, pedestrians, traffic lights, road signs, road markings drawn on the surface of roads, road facilities such as elevated roads that cross over roads that are running, and other vehicles.

【0012】画像認識処理システムは、次の−の4
つの処理を実行することによって、車載カラーカメラで
撮像された画像から物体を認識する。なお、、及び
の各処理に関しては、必ずしも車載カラーカメラが用
いられる必要はない。 直線候補点抽出処理 道路消失点算出処理 車載カメラの姿勢パラメータ算出処理 物体追従認識処理 直線候補点抽出処理とは、車載カラーカメラによって撮
像された画像中の車両の進行方向に沿った直線部分
(「道路平行線」という)を構成する点を抽出する処理
である。直線部分には、道路の両側部、道路上の白線や
黄線、中央分離帯、路側帯、前方の車両の輪郭線、道路
標識の輪郭線等がある。
The image recognition processing system has the following -4
By executing the two processes, the object is recognized from the image captured by the in-vehicle color camera. It should be noted that the in-vehicle color camera need not always be used for the and processes. Line candidate point extraction processing Road vanishing point calculation processing In-vehicle camera attitude parameter calculation processing Object tracking recognition processing Straight line candidate point extraction processing refers to a straight line portion along the traveling direction of a vehicle in an image captured by an in-vehicle color camera. This is a process of extracting points that make up a parallel road. The straight part includes both sides of the road, a white line and a yellow line on the road, a median strip, a road side zone, an outline of a vehicle ahead, an outline of a road sign, and the like.

【0013】道路消失点算出処理とは、自車両が走行し
ている道路の左右のエッジが交わり画面上で消失する点
を演算する処理である。具体的には、直線候補点抽出処
理によって抽出された直線候補点に基づいて算出され
る。車載カメラの姿勢パラメータ算出処理とは、道路に
対する車載カメラの姿勢等を求めるための処理である。
この処理には、道路消失点算出処理によって得られた道
路消失点及び道路平行線が利用される。
The road vanishing point calculation process is a process of calculating a point at which the left and right edges of the road on which the vehicle is traveling intersect and vanish on the screen. Specifically, it is calculated based on the line candidate points extracted by the line candidate point extraction process. The on-board camera attitude parameter calculation processing is processing for obtaining the attitude of the on-board camera with respect to the road.
In this process, the road vanishing point and the road parallel line obtained by the road vanishing point calculation process are used.

【0014】物体追従認識処理とは、車載カメラで撮像
された画像中の物体を画像認識し追従するための処理で
ある。物体追従認識処理では、その位置が決まれば物体
の位置がほぼ決定されるという1つ又は複数の特定点を
決めて物体ごとに登録しておき、その物体を追従する際
に、特定点の変化する位置を前記の車載カメラの姿勢パ
ラメータ等に基づいて推定し、その推定位置の中で、登
録された特定点と同じ特定点があるかどうかを画像デー
タに基づいて探し出す処理が行われる。この場合、物体
は移動していたり、静止していたりするが、それぞれに
ついて、特定点の位置が前記の車載カメラの姿勢パラメ
ータ等に基づいて推定される。
The object tracking recognition process is a process for recognizing and following an object in an image captured by a vehicle-mounted camera. In the object tracking recognition processing, one or more specific points, at which the position of the object is substantially determined once the position is determined, are determined and registered for each object, and when the object is tracked, the change of the specific point is determined. A process of estimating the position to be performed is performed based on the posture parameter of the on-vehicle camera, and searching for a specific point that is the same as the registered specific point based on the image data. In this case, the object may be moving or stationary, but for each of them, the position of the specific point is estimated based on the posture parameters of the on-vehicle camera.

【0015】このような画像認識処理システムによれ
ば、自車両の周囲の物体を認識することができる。その
ため、認識結果を車両のステアリングやブレーキの自動
制御に利用することにより、車両の自動運転への途がひ
らかれ、車両の安全な運行に寄与できる。また、道路標
識や信号機を認識すれば、目的地までの経路誘導をする
ときに、役立てることができる。
According to such an image recognition processing system, objects around the own vehicle can be recognized. Therefore, by utilizing the recognition result for the automatic control of the steering and the brake of the vehicle, the way to the automatic driving of the vehicle is opened, which can contribute to the safe operation of the vehicle. Recognition of a road sign or a traffic light can be useful when guiding a route to a destination.

【0016】以下では、まず、画像認識処理システムの
構成について説明する。そして、前記−の直線候補
点抽出処理、道路消失点算出処理、車載カメラの姿勢パ
ラメータ算出処理及び物体追従認識処理について順に説
明する。 (2) 画像認識処理システムの構成 図1は、画像認識処理システムの電気的構成を示すブロ
ック図である。この画像認識処理システムは、車両の周
辺の物体を画像認識するための画像認識処理装置1を備
えている。この画像認識処理装置1には、車両の現在位
置及び車両の進行方位を検出して道路地図とともに表示
装置に表示するための位置検出処理装置2が接続されて
いる。
First, the configuration of the image recognition processing system will be described below. The negative line candidate point extraction processing, road vanishing point calculation processing, posture parameter calculation processing of the on-vehicle camera, and object tracking recognition processing will be described in order. (2) Configuration of Image Recognition Processing System FIG. 1 is a block diagram showing an electrical configuration of the image recognition processing system. This image recognition processing system includes an image recognition processing device 1 for recognizing an image of an object around a vehicle. The image recognition processing device 1 is connected to a position detection processing device 2 for detecting the current position of the vehicle and the traveling direction of the vehicle and displaying the current position and the traveling direction of the vehicle on a display device together with a road map.

【0017】画像認識処理装置1は、車両の例えば前方
部や車室内に取り付けられた車載カラーカメラ11を備
えている。この車載カラーカメラ11は、車両の前方を
撮像するものである。車載カラーカメラ11のほかに、
又は車載カラーカメラ11に代えて、車両の後方や車両
の側方を撮像できる別の車載カメラが備えられていても
よい。
The image recognition processing device 1 includes an in-vehicle color camera 11 mounted in, for example, a front portion of a vehicle or a vehicle interior. The in-vehicle color camera 11 captures an image of the front of the vehicle. In addition to the in-vehicle color camera 11,
Alternatively, instead of the in-vehicle color camera 11, another in-vehicle camera capable of capturing an image of the rear of the vehicle or the side of the vehicle may be provided.

【0018】車載カラーカメラ11は、撮像した画面の
各点をカラー表現したアナログ電気信号を出力する。こ
のアナログ信号は、画像処理回路13において、アナロ
グ/ディジタル変換等の処理を受けて、画像データに変
換される。この画像データは、マイクロコンピュータ等
を含む画像認識処理部15に入力される。画像認識処理
部15には、RAM(ランダム・アクセス・メモリ)等
を有する記憶部17が接続されている。また、画像認識
処理部15には、位置検出処理装置2から支援情報が与
えらる。
The on-vehicle color camera 11 outputs an analog electric signal representing each point of the captured image in color. The analog signal is subjected to processing such as analog / digital conversion in the image processing circuit 13 and is converted into image data. This image data is input to an image recognition processing unit 15 including a microcomputer and the like. A storage unit 17 having a RAM (random access memory) and the like is connected to the image recognition processing unit 15. The image recognition processing unit 15 is provided with support information from the position detection processing device 2.

【0019】位置検出処理装置2は、車両の走行距離を
検出するための距離センサ(例えば車輪速センサ)21
及び車両の進行方位を検出するための方位センサ(例え
ばジャイロ)22を備えている。これらのセンサ21及
び22の出力は、センサ処理回路23において処理され
ることにより、走行距離データ及び現在方位データに変
換される。これらのデータが、マイクロコンピュータ等
を内部に含む位置検出処理部25に入力され、位置検出
処理部25は、センサ処理回路23から入力されるデー
タに基づいて、車両の現在位置データ等を算出する。
The position detection processor 2 includes a distance sensor (for example, a wheel speed sensor) 21 for detecting the traveling distance of the vehicle.
And a direction sensor (for example, a gyro) 22 for detecting the traveling direction of the vehicle. Outputs of these sensors 21 and 22 are processed by a sensor processing circuit 23 to be converted into travel distance data and current direction data. These data are input to the position detection processing unit 25 including a microcomputer and the like, and the position detection processing unit 25 calculates the current position data of the vehicle based on the data input from the sensor processing circuit 23. .

【0020】位置検出処理部25には、道路地図を記憶
した道路地図メモリ27と、RAM等を有する記憶部2
8と、CRT(陰極線管)や液晶表示パネルからなる表
示器29とが接続されている。道路地図メモリ27は、
例えば、CD−ROMで構成されている。位置検出部2
5は、算出された現在位置データに基づいて道路地図メ
モリ27を検索し、現在位置の周辺の道路地図を読み出
す。この道路地図は、表示器29に表示され、車両の現
在位置を表すマークも道路地図上に重ねて表示される。
The position detection processing unit 25 includes a road map memory 27 storing a road map and a storage unit 2 having a RAM and the like.
8 and a display 29 composed of a CRT (cathode ray tube) or a liquid crystal display panel are connected. The road map memory 27
For example, it is composed of a CD-ROM. Position detector 2
5 searches the road map memory 27 based on the calculated current position data, and reads a road map around the current position. This road map is displayed on the display device 29, and a mark indicating the current position of the vehicle is also displayed on the road map.

【0021】位置検出処理部25は、画像認識処理装置
1の画像認識処理部15に、道路地図データ、現在方位
データ、現在位置データ及び走行距離データを、支援情
報として与える。これらのデータの他に、単位時間当た
り又は単位走行距離当たりの進行方位の変化量を表す方
位変化データを画像認識処理部15に与えることもあ
る。 (3) 直線候補点抽出処理 次に、直線候補点抽出処理について説明する。
The position detection processing unit 25 provides road map data, current azimuth data, current position data and travel distance data to the image recognition processing unit 15 of the image recognition processing device 1 as support information. In addition to these data, azimuth change data representing the amount of change in the traveling azimuth per unit time or per unit traveling distance may be given to the image recognition processing unit 15. (3) Straight Line Candidate Point Extraction Processing Next, straight line candidate point extraction processing will be described.

【0022】図2は、車載カラーカメラ11によって撮
像された画像例を示す図である。ただし手前の車両の運
転席は、想像しやすいように後に書き入れたものであ
る。車両の前方に向けられた車載カラーカメラ11によ
って撮像される画像中の道路の路側付近には、路側白線
43が設けられている。また、道路の側部には、路側帯
44が設けられている。画面中において、走行中の道路
が消失する箇所が、道路消失点NPである。46,4
7,48は、前方又は側方を走行する他車両である。
FIG. 2 is a diagram showing an example of an image picked up by the in-vehicle color camera 11. However, the driver's seat of the vehicle in the foreground is written later for easy imagination. A roadside white line 43 is provided near the roadside of the road in an image captured by the in-vehicle color camera 11 directed forward of the vehicle. A roadside belt 44 is provided on the side of the road. In the screen, the point where the running road disappears is the road vanishing point NP. 46,4
7, 48 are other vehicles traveling forward or sideways.

【0023】直線候補点抽出処理では、車載カラーカメ
ラ11で撮像された画像を、水平走査方向DHに沿って
画面の上端から下端まで走査する。この走査は、車載カ
ラーカメラ11から画像認識処理部15を通って記憶部
17に記憶された画像データを順に読み出すようにして
実行される。そして、水平走査方向DHに沿って画面を
構成する各画素を走査したときに、色度若しくは輝度又
はその両方が安定している安定状態と、色度若しくは輝
度又はその両方が大きく変化する不安定状態との間で遷
移したことに基づいて直線候補点を検出する。安定状態
及び不安定状態は、それぞれ、次のようにして検出され
る。
In the straight line candidate point extraction processing, the image captured by the in-vehicle color camera 11 is scanned from the upper end to the lower end of the screen along the horizontal scanning direction DH. This scanning is executed by sequentially reading out the image data stored in the storage unit 17 from the in-vehicle color camera 11 through the image recognition processing unit 15. Then, when each pixel constituting the screen is scanned along the horizontal scanning direction DH, a stable state in which chromaticity or luminance or both are stable, and an unstable state in which chromaticity or luminance or both greatly change. A line candidate point is detected based on the transition to the state. The stable state and the unstable state are respectively detected as follows.

【0024】例えば、車載カラーカメラが、赤(R)、
緑(G)及び青(B)に対応した3原色信号を出力する
ものであるとする。この3原色信号は色調を表す信号で
ある。色調とは、色度と輝度とを合わせて表現した量で
ある。この場合、記憶部17には、RGBの3原色画像
データが記憶されることになる。水平走査方向DHに沿
った走査線上の任意の点におけるR、G、Bの各画像デ
ータをそれぞれr(t),g(t) ,b(t) とする。tは、
処理周期を表し、水平走査方向DHに沿った走査線上の
1つの点に対応する。
For example, when the on-vehicle color camera is red (R),
It is assumed that three primary color signals corresponding to green (G) and blue (B) are output. These three primary color signals are signals representing a color tone. The color tone is a quantity expressed by combining chromaticity and luminance. In this case, the storage unit 17 stores the RGB primary color image data. Each of the R, G, and B image data at an arbitrary point on the scanning line along the horizontal scanning direction DH is represented by r (t), g (t), and b (t). t is
It represents a processing cycle and corresponds to one point on a scanning line along the horizontal scanning direction DH.

【0025】この場合に、不安定状態は、例えば下記
(1) 式で定義される判定値P(t) に対して、下記(2) 式
が成立することに基づいて検出される。m1は定数、j
1 ,j 2 及びj3 は重み付けのための定数である。例え
ば、Rデータは明るさの変化に対する変動が大きいので
定数j1 は比較的大きな値とされ、Bデータは明るさの
変化に対する変動が小さいので定数j3 は比較的小さな
値とされる。
In this case, the unstable state is, for example,
For the judgment value P (t) defined by the equation (1), the following equation (2) is used.
Is detected based on the following. m1 is a constant, j
1, J TwoAnd jThreeIs a constant for weighting. example
For example, since the R data has a large variation with respect to a change in brightness,
Constant j1Is a relatively large value, and the B data
Constant jThreeIs relatively small
Value.

【0026】 P(t) =j1 |r(t) −r(t-1) |+j2 |g(t) −g(t-1) | +j3 |b(t) −b(t-1) | (1) P(t) >m1 (2) 水平走査方向DHに沿って隣接する2つの処理対象点の
色調の変化の絶対値の線形和が、所定の定数m1よりも
大きい場合に、色調が大きな変化を示していることが検
出される。隣接する処理対象点は、必ずしも隣接する2
つの画素とは限らず、ある所定数の画素間隔で処理対象
点を設定してもよい。
P (t) = j 1 | r (t) −r (t−1) | + j 2 | g (t) −g (t−1) | + j 3 | b (t) −b (t− 1) | (1) P (t)> m1 (2) When the linear sum of the absolute values of the color tone changes of two processing target points adjacent in the horizontal scanning direction DH is larger than a predetermined constant m1 , It is detected that the color tone shows a large change. Neighboring processing target points are not necessarily adjacent two points.
The processing target point is not limited to one pixel and may be set at a certain predetermined number of pixel intervals.

【0027】一方、色調の安定状態は、前記(1) 式の判
定値P(t) に対して、下記(3) 式が一定個数(例えば1
0個)以上の連続する処理対象点に関して成立すること
に基づいて検出される。n1は定数である(ただし、n
1<m1)。 P(t) <n1 (3) すなわち、水平走査方向DHに隣接する2つの処理対象
点の色調の変化の絶対値の線形和が、所定の定数n1よ
りも小さい状態が、一定個数の処理対象点に関して続い
ている場合に、色調が安定していることが検出される。
On the other hand, the stable state of the color tone is determined by the following equation (3) with respect to the judgment value P (t) of the above equation (1) by a certain number (for example, 1
0) or more consecutive processing target points. n1 is a constant (however, n1
1 <m1). P (t) <n1 (3) That is, a state in which the linear sum of the absolute values of the color tone changes of the two processing target points adjacent in the horizontal scanning direction DH is smaller than a predetermined constant n1 is a certain number of processing targets. If so, it is detected that the color tone is stable.

【0028】このようにして、車載カラーカメラ11で
撮像された画像が水平走査方向に沿って走査され、走査
線上における色調の変化の程度が調べられる。そして、
色調が安定している安定状態と、色調が不安定な不安定
状態とが切り換わる処理対象点が、直線候補点として検
出される。図3は、上のようにして得られた直線候補点
11,P12,・・・・;P21,P22,・・・・を結ぶことによっ
て得られる直線部分を図示した図である。すなわち、道
路の両側部、路側白線43、及び他車両46,47,4
8の輪郭が、直線部分L1,L2,・・・・として図示され
ている。
In this manner, the image picked up by the in-vehicle color camera 11 is scanned in the horizontal scanning direction, and the degree of change in color tone on the scanning line is checked. And
The processing target point where the stable state in which the color tone is stable and the unstable state in which the color tone is unstable is detected as a straight line candidate point. FIG. 3 is a diagram illustrating a straight line portion obtained by connecting the straight line candidate points P 11 , P 12 ,..., P 21 , P 22 ,. . That is, both sides of the road, the roadside white line 43, and the other vehicles 46, 47, 4
8 are shown as straight line portions L1, L2,....

【0029】なお、この図はあくまでも道路消失点の説
明のための仮想的な図であって、実際に直線部分の表示
された画像を求めるわけではない。 (4) 道路消失点算出処理 道路消失点算出処理は、前記直線候補点抽出処理によっ
て得られた直線候補点を用いて、図3に示される道路消
失点NPを求める処理である。図3から明らかなよう
に、道路消失点を求める処理は、直線候補点P11
12,・・・・;P21,P 22,・・・・を連結する直線の交点を
求める処理にほかならない。
This figure is based on the theory of road vanishing points.
This is a virtual diagram for clarity, and actually shows the straight line part
It does not mean that the image is obtained. (4) Road vanishing point calculation process
The road candidate shown in FIG.
This is a process for obtaining a goal NP. As is clear from FIG.
In addition, the process of obtaining the road vanishing point is performed by selecting the straight line candidate point P11,
P12, ... ・ ; Ptwenty one, P twenty twoThe intersection of the straight lines connecting the
This is nothing but the process you want.

【0030】この道路消失点算出処理では、直線候補点
の座標列に対して、Hough変換処理を2回繰り返して施
すことによって道路消失点の初期値を求める。そしてそ
れ以後は、時間のかかるHough変換処理をすることな
く、簡単な方法で道路消失点を定期的に更新していく。
まず、Hough変換について概説する。図4(a) 及び図4
(b) はHough変換を説明するための図である。図4(a)
に示すように、複数の点(xi ,yi )(ただし、i=
1,2,3,・・・・)が直線x=ay+bの上に存在して
いれば、任意のiに対して、xi =ayi +bが成立す
る。この式を(a,b)を変数とみなしてab座標平面
で考えると、この座標平面での直線の式は、b=−yi
a+xi となる。全てのiについてのab平面上におけ
るグラフ化は、図4(b) に示されている。すなわち、複
数のiに対応した複数の直線群は、ある一点(a0 ,b
0 )を通る。これは、複数の点(xi ,yi )がいずれ
も1つの直線上に存在していることの当然の帰結であ
る。
In this road vanishing point calculation process, the initial value of the road vanishing point is obtained by repeating the Hough transform process twice on the coordinate sequence of the straight line candidate point. After that, the road vanishing point is periodically updated by a simple method without performing the time-consuming Hough conversion process.
First, the Hough transform will be outlined. FIG. 4 (a) and FIG.
(b) is a diagram for explaining the Hough transform. Fig. 4 (a)
As shown in FIG. 5, a plurality of points (x i , y i ) (where i =
..) Exist on the straight line x = ay + b, x i = ay i + b holds for any i. When this equation is considered on the ab coordinate plane by regarding (a, b) as variables, the equation of a straight line on this coordinate plane is b = −y i
a a + x i. A graph on the ab plane for all i is shown in FIG. That is, a plurality of straight line groups corresponding to a plurality of i are located at a certain point (a 0 , b
0 ). This is a natural consequence of the fact that the plurality of points (x i , y i ) all exist on one straight line.

【0031】そこで、ab座標平面を十分に細かな格子
升目に区画し、(xi ,yi )に対応する直線がある格
子升目を通過するものであるときに、その格子升目の計
数を1だけ増やす。この操作を全ての(xi ,yi )関
して行う操作がHough変換である。前記の場合、
(a0 ,b0 )の点の格子升目の計数値が最大となるは
ずである。そこでab座標平面上で計数値が最大の格子
升目を求めれば、(a0 ,b0 )が求まる。したがっ
て、複数の点(xi ,yi )を通る直線の方程式は、x
=a 0 y+b0 として定めることができる。このよう
に、Hough変換は、画像処理の分野において、複数の点
(xi ,yi )を通る直線を求める際に用いられる。
Therefore, the ab coordinate plane is set to a sufficiently fine grid.
Partition into the square, (xi, YiCase with straight line corresponding to)
When passing through a child cell, the total of that cell
Increase the number by one. This operation is performed for all (xi, Yi) Seki
The operation to be performed is Hough transform. In the above case,
(A0, B0The count value of the grid cell at point) is the largest
It is. Therefore, the grid with the largest count value on the ab coordinate plane
If you ask for a square, (a0, B0) Is obtained. Accordingly
And a plurality of points (xi, Yi) Is x
= A 0y + b0Can be defined as like this
In addition, the Hough transform is used in the field of image processing in several points.
(Xi, Yi) Is used to determine a straight line passing through

【0032】図5はHough変換を2回繰り返して道路消
失点を求めるための処理を説明するための図である。図
5(a) には車載カラーカメラ11によって撮像された画
面に対応した座標平面であるxy座標平面が示されてお
り、図5(b) には1回目のHough変換における変換座標
(第1の変換座標)平面であるab座標平面が示されて
おり、図5(c) には2回目のHough変換における変換座
標(第2の変換座標)平面であるmn座標平面が示され
ている。
FIG. 5 is a diagram for explaining a process for obtaining the road vanishing point by repeating the Hough transform twice. FIG. 5A shows an xy coordinate plane which is a coordinate plane corresponding to a screen imaged by the in-vehicle color camera 11, and FIG. 5B shows the transformed coordinates (first coordinates) in the first Hough transform. FIG. 5C shows an mn coordinate plane which is a transformed coordinate (second transformed coordinate) plane in the second Hough transform.

【0033】図5(a) に示すように、直線候補点P11
12,・・・・;P21,P22,;P31,P32,・・・・がそれぞ
れ属する直線L1,L2,L3は、道路消失点(x0
0)で交わると考えられる。座標(x0 ,y0 )を通
る直線の方程式は、下記(4)式のとおりである。なお、
Cは定数である。 x=C(y−y0 )+x0 =Cy+(x0 −Cy0 ) (4) そこで、a=C、b=x0 −Cy0 とおくと、変換式x
=ay+bが得られ、a,bの関係は下記(5) 式で表さ
れる。
As shown in FIG. 5A, the straight line candidate points P 11 ,
P 12, ····; P 21, P 22,; P 31, P 32, the straight line L1, L2, L3 which ... belongs respectively, the road vanishing point (x 0,
y 0 ). The equation of a straight line passing through the coordinates (x 0 , y 0 ) is as the following equation (4). In addition,
C is a constant. x = C (y−y 0 ) + x 0 = Cy + (x 0 −Cy 0 ) (4) Then, if a = C and b = x 0 −Cy 0 , the conversion equation x
= Ay + b, and the relationship between a and b is represented by the following equation (5).

【0034】 b=−ay0 +x0 (5) 直線候補点P11,P12,・・・・;P21,P22,;P31,P
32,・・・・の座標に対してHough変換を施した場合、ab
座標平面では、複数の直線L1,L2,L3に対応し
て、計数値が極大値をとる格子升目が複数個得られるは
ずである。しかし、直線L1,L2,L3は一点
(x0 ,y0 )で交わるのであるから、極大値をとる格
子升目D1 ,D2 ,D3 は、前記(5) 式の直線上になけ
ればならない(図5(b) 参照)。
B = −ay 0 + x 0 (5) Line candidate points P 11 , P 12 ,... P 21 , P 22 , P 31 , P
When the Hough transform is performed on the coordinates of 32 ,.
On the coordinate plane, a plurality of grid cells whose count values take the maximum value should be obtained corresponding to the plurality of straight lines L1, L2, and L3. However, since the straight lines L1, L2, and L3 intersect at one point (x 0 , y 0 ), the grid cells D 1 , D 2 , and D 3 that have the maximum value must be on the straight line of the above equation (5). No (see Fig. 5 (b)).

【0035】そこで、極大値をとる格子升目D1
2 ,D3 の座標に対して、下記(6) 式の変換式を用い
て、2回目のHough変換をmn座標平面上に行う。 b=ma+n (6) ab座標平面において計数値が極大となる格子升目
1 ,D2 ,D3 は(5) 式の直線上にあるから、mn座
標平面では、m=−y0 、n=x0 に対応した格子升目
の計数値が最大となる。これにより、xy座標平面にお
ける道路消失点nPの座標(x0 ,y0 )を求めること
ができる。
Therefore, the grid cells D 1 ,
The second Hough transform is performed on the mn coordinate plane for the coordinates of D 2 and D 3 using the conversion formula of the following expression (6). b = ma + n (6) Since the grid cells D 1 , D 2 , and D 3 at which the count value is maximal on the ab coordinate plane are on the straight line of the equation (5), m = −y 0 , n on the mn coordinate plane = X 0 , the count value of the grid cell becomes the maximum. Thereby, the coordinates (x 0 , y 0 ) of the road vanishing point nP on the xy coordinate plane can be obtained.

【0036】このようにして求められた道路消失点と道
路平行線とは、Hough変換処理を2回行って求めたもの
であるが、Hough変換処理をするには処理時間が多くか
かるので、車両走行中、毎回Hough変換処理をして求め
る訳にはいかない。そこで、2回目以後では、多少精度
が低下しても、簡単に素早く道路消失点と道路平行線と
を求める方法を採用する。
The road vanishing point and the road parallel line obtained in this way are obtained by performing the Hough transform twice, but the Hough transform takes a long processing time. It is not always possible to perform the Hough conversion processing every time during traveling. Therefore, after the second time, a method of easily and quickly finding a road vanishing point and a road parallel line even if the accuracy is slightly reduced is adopted.

【0037】図6(a),(b) は、この簡易な道路消失点算
出方法を説明する原理図であり、車載カラーカメラ11
によって撮像された画像に基づいて直線候補点を抽出
し、この画面に、前回の周期で求められた道路平行線を
仮想的に当てはめ(図6(a) 参照)、それらの道路平行
線の近傍にある直線候補点をそれぞれ数点特定する。そ
れから、これらの特定された数点a1 ,b1 ,c1 ;a
1 ,b1 ,c1 を通る新しい道路平行線L1 ,L2 を算
出して(図6(b) 参照)、今回の周期での道路平行線と
し、それらの道路平行線の幾何学的交点を求めて本周期
での道路消失点とする。以下同様の手順を繰り返し行
い、道路平行線及び道路消失点を更新していく。
FIGS. 6A and 6B are principle diagrams for explaining this simple road vanishing point calculation method.
Line candidate points are extracted based on the image captured by the above, and the road parallel lines obtained in the previous cycle are virtually applied to this screen (see FIG. 6 (a)), and the neighborhood of those road parallel lines is determined. , Several straight line candidate points are specified. Then, these identified points a 1 , b 1 , c 1 ; a
New road parallel lines L 1 , L 2 passing through 1 , b 1 , c 1 are calculated (see FIG. 6 (b)), and the road parallel lines in the current cycle are calculated. Intersections are determined and used as road vanishing points in this cycle. Hereinafter, the same procedure is repeated to update the road parallel line and the road vanishing point.

【0038】このように、前述したようなHough変換処
理を繰り返すのではなく、前回で処理結果を参照しなか
ら簡単な計算をして、道路消失点を求めることができる
ので、処理周期ごとに迅速確実に、道路消失点を求め更
新していくことができる。 (5) 車載カメラの姿勢パラメータ算出処理 この処理では、道路に対する車載カメラ11の姿勢を表
す姿勢パラメータを求める。姿勢パラメータには、鉛直
軸まわりの回転角であるヨー角、車両の進行方向まわり
の回転角であるロール角、水平面に沿うとともに進行方
向と直交している方向のまわりの回転角であるピッチ
角、及び道路に平行な所定の基準線からの車載カメラの
横ずれ距離(道路に対する横方向の相対位置)が含まれ
る。
As described above, the road vanishing point can be obtained by performing a simple calculation without referring to the processing result at the previous time, instead of repeating the Hough conversion processing as described above. The road vanishing point can be obtained and updated quickly and reliably. (5) Attitude Parameter Calculation Process of In-Vehicle Camera In this process, an attitude parameter representing the attitude of the in-vehicle camera 11 with respect to the road is obtained. The attitude parameters include a yaw angle that is a rotation angle around a vertical axis, a roll angle that is a rotation angle around a traveling direction of a vehicle, and a pitch angle that is a rotation angle around a direction along a horizontal plane and orthogonal to the traveling direction. , And the lateral displacement distance of the onboard camera from a predetermined reference line parallel to the road (lateral position relative to the road).

【0039】車載カメラ11は、所定の姿勢で正確に車
両に取り付けるが、取付け誤差の発生は回避できない。
そこで、車載カメラの姿勢パラメータ算出処理では、車
載カメラ11の車両に対する取付け姿勢も併せて算出さ
れる。まず、座標系について説明する。道路車両座標系
XYZと、車載カメラ座標系X′Y′Z′とを定義す
る。道路車両座標系XYZの原点に車両があるものと
し、車両の進行方向に沿った方向にY軸をとり(車両の
進行方向を+Yとする)、Y軸方向に対して右方向にX
軸をとる。また、道路に対する鉛直方向にZ軸をとる。
道路車両座標系XYZは、車両の進行方向に沿った方向
がY軸となる点で車両に固定されているといえるが、Z
軸が車両のピッチやロールによらずに鉛直方向にとられ
るので、道路に固定されているともいえる。その意味で
は折衷的な座標系である。車載カメラ座標系と道路車両
座標系とは原点を共有している。車載カメラ11の撮像
面は、XZ平面にほぼ平行で原点から距離F(Fは車載
カメラ11のレンズの焦点距離)のところにあるものと
する。
Although the on-vehicle camera 11 is accurately mounted on the vehicle in a predetermined posture, occurrence of mounting errors cannot be avoided.
Therefore, in the posture parameter calculation process of the vehicle-mounted camera, the mounting posture of the vehicle-mounted camera 11 with respect to the vehicle is also calculated. First, the coordinate system will be described. A road vehicle coordinate system XYZ and an in-vehicle camera coordinate system X′Y′Z ′ are defined. It is assumed that the vehicle is at the origin of the road vehicle coordinate system XYZ, the Y axis is taken in the direction along the traveling direction of the vehicle (the traveling direction of the vehicle is + Y), and X is
Take the axis. In addition, the Z axis is set in a direction perpendicular to the road.
The road vehicle coordinate system XYZ can be said to be fixed to the vehicle at a point where the direction along the traveling direction of the vehicle is the Y axis.
Since the axis is set vertically regardless of the pitch and roll of the vehicle, it can be said that the axis is fixed to the road. In that sense, it is an eclectic coordinate system. The onboard camera coordinate system and the road vehicle coordinate system share the origin. The imaging surface of the vehicle-mounted camera 11 is assumed to be substantially parallel to the XZ plane and at a distance F (F is the focal length of the lens of the vehicle-mounted camera 11) from the origin.

【0040】X,Y,Z軸のまわりの回転角をそれぞれ
ピッチ角θ、ロール角φ、ヨー角ψとし、いずれも右ね
じの方向を正方向とする。このとき、車載カメラの取付
け誤差又は車両の旋回に伴う車載カメラの座標系の変換
式は、下記(7) 式で与えられる。ただし、車載カメラ1
1のレンズの主軸方向にY′軸をとり、撮像面と平行に
X′軸及びZ′軸をとるものとする。
The rotation angles around the X, Y, and Z axes are a pitch angle θ, a roll angle φ, and a yaw angle そ れ ぞ れ, respectively, and the direction of the right-hand thread is the positive direction. At this time, the conversion formula of the coordinate system of the on-board camera accompanying the mounting error of the on-board camera or the turning of the vehicle is given by the following equation (7). However, in-vehicle camera 1
It is assumed that the Y 'axis is taken in the main axis direction of one lens, and the X' axis and the Z 'axis are taken parallel to the imaging surface.

【0041】[0041]

【数1】 (Equation 1)

【0042】各回転角が微小であれば、前記(7) 式は、
下記(8) 式の近似式に変形できる。
If each rotation angle is small, the above equation (7)
It can be transformed into the following approximate expression (8).

【0043】[0043]

【数2】 (Equation 2)

【0044】点P(X,Y,Z)が撮像面上の点p′
(x′,y′)に投影されるとき、次式が成立する。た
だし、座標(x′,y′)は撮像面上における2次元座
標である。x′軸は車載カメラ座標系のX′軸方向にと
られ、y′軸は車載カメラ座標系のZ′軸方向にとられ
ている。 x′=F・X′/Y′ (9) y′=F・Z′/Y′ (10) したがって、前記(7) 式並びに前記(9) 式及び(10)式よ
り、下記(11)式及び(12)式が得られる。
A point P (X, Y, Z) is a point p 'on the imaging surface.
When projected on (x ', y'), the following equation holds. Here, the coordinates (x ′, y ′) are two-dimensional coordinates on the imaging surface. The x 'axis is set in the X'-axis direction of the on-board camera coordinate system, and the y' axis is set in the Z'-axis direction of the on-board camera coordinate system. x '= F.X' / Y '(9) y' = F.Z '/ Y' (10) Therefore, from the above equation (7) and the above equations (9) and (10), the following (11) The equation and the equation (12) are obtained.

【0045】 x′=F(R11X+R12Y+R13Z)/(R21X+R22Y+R23Z) (11) y′=F(R31X+R32Y+R33Z)/(R21X+R22Y+R23Z) (12) 特に前記(8) 式の近似が成り立つときは、下記(13)式及
び(14)式が得られる。
[0045] x '= F (R 11 X + R 12 Y + R 13 Z) / (R 21 X + R 22 Y + R 23 Z) (11) y' = F (R 31 X + R 32 Y + R 33 Z) / (R 21 X + R 22 Y + R 23 Z) (12) In particular, when the approximation of the above equation (8) holds, the following equations (13) and (14) are obtained.

【0046】 x′=F(X+ψY−φZ)/(−ψX+Y+θZ) (13) y′=F(φX−θY+Z)/(−ψX+Y+θZ) (14) 一方、車載カメラの姿勢パラメータは、ピッチ角θ、ロ
ール角φ及びヨー角ψに関して、それぞれ次のように分
割される。 ピッチ角θ:(道路に対する車両のピッチ角θ0 )+
(車両に対する車載カメラ11の取付けピッチ角θ1 ) ロール角φ:(道路に対する車両のロール角φ0 )+
(車両に対する車載カメラ11の取付けロール角φ1 ) ヨー角 ψ:車両に対する車載カメラ11の取付けヨー
角ψ1 なお、ヨー角ψに道路に対する車両のヨー角ψ0 が含ま
れていないのは、前述のように道路車両座標系のY軸を
車両の進行方向にとったからである。
X ′ = F (X + ΔY−φZ) / (− ΔX + Y + θZ) (13) y ′ = F (φX−θY + Z) / (− ΔX + Y + θZ) (14) On the other hand, the attitude parameters of the on-vehicle camera are pitch angle θ, The roll angle φ and the yaw angle ψ are divided as follows. Pitch angle θ: (Pitch angle θ 0 of vehicle with respect to road) +
(Mounting pitch angle θ 1 of vehicle-mounted camera 11 with respect to vehicle) Roll angle φ: (Roll angle φ 0 of vehicle with respect to road) +
(Mounting roll angle φ 1 of vehicle-mounted camera 11 with respect to vehicle) Yaw angle ψ: Mounting yaw angle 車載1 of vehicle-mounted camera 11 with respect to vehicle Note that yaw angle ψ does not include yaw angle ψ 0 of vehicle with respect to road. This is because the Y-axis of the road vehicle coordinate system is set in the traveling direction of the vehicle as described above.

【0047】いま、車両が道路に対してψ0 の角度をな
す方向に走行しているものとし、道路は十分遠くまで直
線であるものとする。また、道路バンクの傾きは無視で
きるとする。そして、道路消失点の撮像面への写像点の
座標が(x0 ,y0 )であるとする。この写像点の座標
は、前記の道路消失点算出処理によって求められた道路
消失点にほかならない。
[0047] Now, the vehicle is assumed to be traveling in a direction forming an angle of [psi 0 relative to the road, the road is assumed to be linear far enough. It is also assumed that the inclination of the road bank can be ignored. Then, it is assumed that the coordinates of the mapping point of the road vanishing point on the imaging surface are (x 0 , y 0 ). The coordinates of the mapping point are nothing but the road vanishing point obtained by the road vanishing point calculation process.

【0048】この写像点の座標x0 ,y0 と、車載カメ
ラの姿勢パラメータであるピッチ角θ、ロール角φ及び
ヨー角ψとの関係を求めるには、前記(11)式、(12)式
に、Y 0 =∞を代入すればよい。 x0 =R12F/R220 =R32F/R22 ここで、車両が道路に対してψ0 の角度をなす方向に走
行しているので、ψ→ψ0 +ψ1 とおく。道路に対する
車両のロール角φ0 、ピッチ角θ0 、車載カメラ11の
取付け角φ1 ,θ1 が微小であるとすれば、 R12≒ sin(ψ0 +ψ1 ) R22≒1 R32≒(φ0 +φ1 ) sin(ψ0 +ψ1 ) −(θ0 +θ1 )cos (ψ0 +ψ1 ) という近似が成り立つ。したがって、下記(15)式及び(1
6)式が得られる。
The coordinates x of this mapping point0, Y0And a car turtle
Pitch angle θ, roll angle φ
To determine the relationship with the yaw angle ψ, the above equations (11) and (12) are used.
And Y 0= ∞ may be substituted. x0= R12F / Rtwenty two y0= R32F / Rtwenty two Here, the vehicle0Running at an angle of
Ψ → ψ0+ Ψ1far. Against the road
Roll angle φ of vehicle0, Pitch angle θ0Of the on-board camera 11
Mounting angle φ1, Θ1Is small, R12≒ sin (ψ0+ Ψ1) Rtwenty two≒ 1 R32≒ (φ0+ Φ1) Sin (ψ0+ Ψ1) − (Θ0+ Θ1) Cos (ψ0+ Ψ1) Holds. Therefore, the following equation (15) and (1
6) is obtained.

【0049】 x0 ≒ sin(ψ0 +ψ1 )F (15) y0 ≒{( φ0 +φ1 )sin (ψ0 +ψ1 ) −( θ0 +θ1 ) cos(ψ0 +ψ1 ) }F (16) さらに、ψ0 ,ψ1 が微小であるとすれば、下記の(17)
(18)式を得る。 x0 =(ψ0 +ψ1 )F=ψF (17) y0 =−(θ0 +θ1 )F=−θF (18) これらの(17)(18)式は、道路消失点の撮像面上の座標
(x0 ,y0 )を求めれば、道路に対する車載カメラの
姿勢パラメータであるピッチ角θ(=θ0 +θ1)及び
ヨー角ψ(=ψ0 +ψ1 )を求めることができることを
示している。
X 0 ≒ sin (ψ 0 + ψ 1 ) F (15) y 0 φ (φ 0 + φ 1 ) sin (ψ 0 + ψ 1 ) − (θ 0 + θ 1 ) cos (ψ 0 + ψ 1 )} F (16) Further, if ψ 0 and ψ 1 are minute, the following (17)
Equation (18) is obtained. x 0 = (ψ 0 + ψ 1 ) F = ψF (17) y 0 = − (θ 0 + θ 1 ) F = −θF (18) These equations (17) and (18) are obtained on the image plane of the road vanishing point. (X 0 , y 0 ), the pitch angle θ (= θ 0 + θ 1 ) and the yaw angle ψ (= ψ 0 + 姿勢1 ), which are the attitude parameters of the on-vehicle camera with respect to the road, can be obtained. ing.

【0050】一方、姿勢パラメータには、ピッチ角θ、
ヨー角ψ以外に、ロール角φと道路に平行な所定の基準
線からの車載カメラの横ずれ距離Aとがあるので、これ
らのロール角φと横ずれ距離Aとを求めなければならな
い。これには、撮像面上の道路平行線の位置、形状を利
用する。道路平行線の高さZは、道路から車載カメラ1
1までの高さがhである場合、−hとなる。また、道路
に平行な基準線に対する車載カメラ11の道路の法線方
向へのずれをAとすると、車両が道路とψ0 ずれた方向
に走行していれば、下記(19)式が成り立つ。ここで、Y
軸を車両の進行方向に沿った方向にとり、Y軸方向に対
して直角方向にX軸をとっていることは、前に述べたと
おりである。
On the other hand, the posture parameters include the pitch angle θ,
In addition to the yaw angle ψ, since there is a roll angle φ and a lateral displacement distance A of the vehicle-mounted camera from a predetermined reference line parallel to the road, the roll angle φ and the lateral displacement distance A must be obtained. For this purpose, the position and shape of the road parallel line on the imaging plane are used. The height Z of the parallel road is determined by the on-board camera 1
If the height to 1 is h, then -h. Further, when the displacement in the normal direction of the road-vehicle camera 11 with respect to a reference line parallel to the road and A, vehicle if traveling on the road and [psi 0 offset direction, the following equation (19) holds. Where Y
As described above, the axis is set in a direction along the traveling direction of the vehicle, and the X axis is set in a direction perpendicular to the Y axis direction.

【0051】 X=A/cosψ0 +Y tanψ0 ≒A+Yψ0 (19) したがって、前記(11)式及び(12)式は、下記(20)式及び
(21)式にそれぞれ書き換えられる。
[0051] X = A / cosψ 0 + Y tanψ 0 ≒ A + Yψ 0 (19) Therefore, the equation (11) and (12), the following equation (20) and
(21), respectively.

【0052】[0052]

【数3】 (Equation 3)

【0053】ただし、前記(11)式及び(12)式のψは、ψ
1 とおいた。これより、Yを消去すると、撮像面上の道
路平行線を表わす式である下記(22)式を得る。
However, ψ in the above equations (11) and (12) is
1 Thus, when Y is deleted, the following equation (22), which is an equation representing a road parallel line on the imaging surface, is obtained.

【0054】[0054]

【数4】 (Equation 4)

【0055】もし、道路平行線が2本得られ、これらの
間隔Bが既知であれば、前記(22)式と同様な下記(23)及
び(24)式並びに(25)式が得られる。ただし、係数a,b
及びAに付した添字「1」,「2」は、それが付与され
た係数が2本の道路平行線のそれぞれに対応するもので
あることを表す。
If two road parallel lines are obtained and their distance B is known, the following equations (23), (24) and (25) similar to the above equation (22) are obtained. Where coefficients a and b
And the suffixes “1” and “2” added to A indicate that the coefficients assigned to them correspond to each of the two road parallel lines.

【0056】[0056]

【数5】 (Equation 5)

【0057】前記(23)式及び(24)式のうち、a1 , a2
に関する式を利用して解くと、下記(26)式、(27)式及び
(28)式が得られ、それぞれA1 , A2 及びφが求まる。
In the formulas (23) and (24), a 1 and a 2
Equation (26), Equation (27) and
Equation (28) is obtained, and A 1 , A 2 and φ are obtained, respectively.

【0058】[0058]

【数6】 (Equation 6)

【0059】なお、前記(23)(24)式において、θ,φ,
ψ0 ,ψ1 は微小であるとしたので、これらの2次の成
分(θ2 ,θφ等)を無視すれば、 a1 =(A1 +φh)/(φA1 −h) a2 =(A2 +φh)/(φA2 −h) が得られる。これらの式を解いて、A1 ,A2 を求める
ことができる。
In the above equations (23) and (24), θ, φ,
Since ψ 0 and ψ 1 are minute, if these secondary components (θ 2 , θ φ, etc.) are ignored, a 1 = (A 1 + φh) / (φA 1 -h) a 2 = ( A 2 + φh) / (φA 2 -h) is obtained. By solving these equations, A 1 and A 2 can be obtained.

【0060】 A1 =−(a1 +φ)h/(1−φa1 ) A2 =−(a2 +φ)h/(1−φa2 ) これらの式は、ロール角φが分かっていれば、横ずれ距
離A1 ,A2 を近似的に求めることができることを示し
ている。特に、車両が真っ直ぐに走行していてロール角
φ0 を無視すると、下記の(29)(30)式が得られる。
A 1 = − (a 1 + φ) h / (1−φa 1 ) A 2 = − (a 2 + φ) h / (1−φa 2 ) These equations are obtained if the roll angle φ is known. And the lateral displacement distances A 1 and A 2 can be approximately obtained. In particular, when the vehicle ignoring roll angle phi 0 have straight traveling, the (29) (30) below is obtained.

【0061】 A1 =−(a1 +φ1 )h/(1−φ1 1 ) (29) A2 =−(a2 +φ1 )h/(1−φ1 2 ) (30) さてここで、実際の直線道路で車両を走らせてみて、道
路消失点(x0 ,y0)のデータを求めてみる。そして
これらのデータを前記(17),(18)式に代入すれば、車両
に対する車載カメラのヨー角ψやピッチ角θを求めるこ
とができる。
A 1 = − (a 1 + φ 1 ) h / (1−φ 1 a 1 ) (29) A 2 = − (a 2 + φ 1 ) h / (1−φ 1 a 2 ) (30) Here, a vehicle is driven on an actual straight road, and data of a road vanishing point (x 0 , y 0 ) is obtained. By substituting these data into the equations (17) and (18), the yaw angle ψ and the pitch angle θ of the vehicle-mounted camera with respect to the vehicle can be obtained.

【0062】ここで、道路に対する車両のロール角φ0
やピッチ角θ0 は、それ自体は検出することができない
が、平均値「0」でばらつくノイズとして把握できる。
つまり、十分に長い時間にわたるロール角φ及びピッチ
角θの各平均値をとれば、この平均値のなかには道路に
対する車両のロール角φ0 やピッチ角θ0 は0になると
考えてもよい。さらに、道路に対する車両のヨー角ψ0
については、車両が道路と平行に走行するならば、これ
も平均値「0」でばらつくノイズとしてもよいが、正確
に求めようとすれば、位置検出処理装置2から与えられ
る道路地図データ及び車両の現在方位データから求めて
もよい。すなわち、車両が走行中の道路の方向が道路地
図データから判り、車両の実際の進行方向が現在方位デ
ータから判る。そのため、道路の方位に対する実際の進
行方向の差を、道路に対する車両のヨー角ψ0 とすれば
よい。
Here, the roll angle φ 0 of the vehicle with respect to the road is
And the pitch angle θ 0 cannot be detected by themselves, but can be grasped as noise that varies with the average value “0”.
That is, if the average values of the roll angle φ and the pitch angle θ over a sufficiently long time are taken, it may be considered that the roll angle φ 0 and the pitch angle θ 0 of the vehicle with respect to the road are 0 in the average values. Further, the yaw angle of the vehicle with respect to the road ψ 0
If the vehicle travels in parallel with the road, this may also be noise that varies with the average value “0”, but if it is desired to obtain it accurately, the road map data and vehicle May be obtained from the current azimuth data. That is, the direction of the road on which the vehicle is traveling is known from the road map data, and the actual traveling direction of the vehicle is known from the current direction data. Therefore, the difference between the actual traveling direction and the azimuth of the road may be set to the yaw angle ψ 0 of the vehicle with respect to the road.

【0063】したがって、道路消失点(x0 ,y0 )の
データを多数とって平均化すると、θ0 は前記のように
零、ψ0 は前記のように零又は一定値であると考えられ
るので、車両に対する車載カメラ11の取付けヨー角ψ
1 や、取付けピッチ角θ1 を求めることができる。ま
た、ヨー角ψ0 やピッチ角θ0 の平均値からのずれであ
る標準偏差も求めることができる。
Therefore, when a large number of data of road vanishing points (x 0 , y 0 ) are taken and averaged, it is considered that θ 0 is zero as described above and ψ 0 is zero or a constant value as described above. Therefore, the mounting yaw angle of the vehicle-mounted camera 11 with respect to the vehicle ψ
1 and the mounting pitch angle θ 1 can be obtained. Further, a standard deviation which is a deviation from the average value of the yaw angle ψ 0 and the pitch angle θ 0 can also be obtained.

【0064】さらに、走行中の撮像面上の道路平行線の
係数a又はbを求める。もし、道路平行線の間隔Bが分
かっていれば、A1 に関する2次方程式である前記(26)
式を解いてA1 を求めることができる。また(27)式から
2 を求めることができ、(28)式からロール角φを求め
ることができる。なお、間隔Bには、例えば道路の幅や
道路の白線の間隔を用いることができる。これらの間隔
は、道路地図データに記入しておけば道路地図データか
ら取得できる。
Further, the coefficient a or b of the road parallel line on the imaging plane during traveling is determined. If you know the distance B of the road parallel lines, it is a quadratic equation for A 1 above (26)
A 1 can be obtained by solving the equation. Also, A 2 can be obtained from equation (27), and the roll angle φ can be obtained from equation (28). As the interval B, for example, the width of a road or the interval between white lines of a road can be used. These intervals can be obtained from the road map data by filling in the road map data.

【0065】前述したように、データを多数とって平均
化するので、φ0 の平均値も前記のように零であると考
えられる。したがって、車両走行する車載カメラ11の
取付けロール角φ1 を求めることができる。また、ロー
ル角φ0 の平均値からのずれである標準偏差も求めるこ
とができる。以上のようにして、取付けヨー角ψ1 、ピ
ッチ角θ1 及びロール角φ1 と、ヨー角ψ0 、ピッチ角
θ0 及びロール角φ0 の信頼性を示す指標である標準偏
差とを求めることができ、一度求めた取付け角の値は、
以後の走行においても使用することができる。このよう
に、車両を走らせて取付けヨー角ψ1 、ピッチ角θ1
びロール角φ1 並びにヨー角ψ0 、ピッチ角θ0 及びロ
ール角φ0 の標準偏差を求める処理を「初期処理」とい
う。
As described above, since a large number of data are taken and averaged, the average value of φ 0 is considered to be zero as described above. Therefore, it is possible to obtain the mounting roll angle phi 1 of the vehicle-mounted camera 11 to the vehicle running. Further, a standard deviation which is a deviation from the average value of the roll angle φ 0 can be obtained. As described above, the installation yaw angle ψ 1 , the pitch angle θ 1 and the roll angle φ 1, and the standard deviation which is an index indicating the reliability of the yaw angle ψ 0 , the pitch angle θ 0 and the roll angle φ 0 are obtained. Once obtained, the value of the mounting angle is
It can also be used in subsequent runs. Thus, mounting the yaw angle [psi 1 running a vehicle, pitch angle theta 1 and the roll angle phi 1 and the yaw angle [psi 0, the process for obtaining the standard deviation of the pitch angle theta 0 and the roll angle phi 0 as "initial process" .

【0066】図7−図11は、初期処理が終わった後に
行われる車載カメラの姿勢パラメータ算出処理のために
画像認識処理部15において実行される処理を説明する
ためのフローチャートである。この処理は、初期処理が
終わった車両の走行中に例えば一定距離ずつ走行するご
とに行われるものであって、処理実行回数を表わすパラ
メータを以下、処理周期t(t=1,2,3,…)と表
現する。
FIGS. 7 to 11 are flowcharts for explaining the processing executed in the image recognition processing section 15 for the posture parameter calculation processing of the vehicle-mounted camera performed after the completion of the initial processing. This process is performed each time the vehicle has completed the initial process, for example, every time the vehicle travels by a certain distance. A parameter representing the number of times the process is executed is hereinafter referred to as a process cycle t (t = 1, 2, 3, 3). …).

【0067】図7は、車載カメラのヨー角の算出処理を
説明するためのフローチャートである。システムを立ち
上げた後ステップS1では、車載カメラ11で撮像され
た1枚の画像の画像データを記憶部17に格納する。ス
テップS2では位置検出処理装置2からの支援データを
取り込む。そして、ステップS3では、車両が交差点等
でカーブ走行しているかどうか判定する。カーブ走行の
判定は、位置検出処理装置2から取り込まれる車両の進
行方位の変化率が一定値(例えば0.1°/処理周期)
を越えたかどうかで判断する。車両がカーブを走行して
いるときは、遠心力のために道路に対する車両のロール
角φ0 が異常に大きくなるおそれがあるので、姿勢パラ
メータの算出は不可能であるものとしてステップS22
に進む。
FIG. 7 is a flowchart for explaining the process of calculating the yaw angle of the vehicle-mounted camera. After starting the system, in step S 1, the image data of one image picked up by the vehicle-mounted camera 11 is stored in the storage unit 17. In step S2, support data from the position detection processing device 2 is fetched. Then, in step S3, it is determined whether the vehicle is traveling on a curve at an intersection or the like. The determination of the curve traveling is performed when the rate of change of the traveling direction of the vehicle taken in from the position detection processing device 2 is a constant value (for example, 0.1 ° / processing cycle).
Is determined by whether or not it has been exceeded. When the vehicle is traveling on a curve, the roll angle φ 0 of the vehicle with respect to the road may become abnormally large due to the centrifugal force.
Proceed to.

【0068】なお、車両の速度が一定範囲内(例えば、
100km/h以内)であるかどうか、車両の加減速度が一
定値(例えば0.1g)未満であるかどうかを、姿勢パ
ラメータの算出の条件として用いてもよい。車両の速度
が一定範囲内にない場合には、車体に振動が生じたりし
て、道路に対する車両の姿勢パラメータが大きく振れる
る可能性があり、車両の減速度が一定値以上の場合に
は、道路に対する車両のピッチ角θ0 が異常に大きくな
る可能性があるからである。
When the vehicle speed is within a certain range (for example,
(Within 100 km / h) and whether the acceleration / deceleration of the vehicle is less than a certain value (for example, 0.1 g) may be used as conditions for calculating the posture parameter. If the speed of the vehicle is not within a certain range, the vehicle body may vibrate, and the posture parameter of the vehicle with respect to the road may greatly fluctuate.If the deceleration of the vehicle is equal to or more than a certain value, This is because the pitch angle θ 0 of the vehicle with respect to the road may be abnormally large.

【0069】カーブ走行していないと判定された場合
は、既に述べた道路消失点の簡易算出方法を適用して、
左右2本の道路平行線が求まるかどうかを判断し(ステ
ップS4−S6)、左右2本の道路平行線が求まれば、
それらの直線の交点から、道路消失点(x0 ,y0 )を
求める(ステップS9)。そして、前記(17)(18)式を用
いて、車載カメラの道路に対するヨー角ψを求める(ス
テップS10)。このとき車載カメラの車体に対するヨ
ー角ψ1 は、前述したように初期処理で求められている
ので、ヨー角ψを求めれば車両の道路に対するヨー角ψ
0 を知ることができる。このヨー角ψ0 は、処理周期t
において撮像画面から観測されたヨー角であるという意
味で、以後観測値ψ0t′ということにする。
If it is determined that the vehicle is not traveling on a curve, the simple calculation method of the vanishing point of the road described above is applied.
It is determined whether two road parallel lines on the left and right are determined (steps S4-S6).
From the intersection of these straight lines, obtaining a road vanishing point (x 0, y 0) (step S9). Then, the yaw angle に 対 す る of the on-vehicle camera with respect to the road is obtained by using the equations (17) and (18) (step S10). Yaw angle [psi 1 relative to the vehicle body at this time vehicle camera, since a need in the initial process as described above, the yaw angle with respect to the road of the vehicle by obtaining the yaw angle [psi [psi
You can know 0 . This yaw angle ψ 0 is equal to the processing cycle t
In the following, it is referred to as an observed value ψ 0t ′ in the sense that it is the yaw angle observed from the imaging screen.

【0070】ステップS11では、1つ前の処理周期に
おけるヨー角の採用値ψ0t-1が求められているかどうか
判定する。ここで、「採用値」の意味について説明する
と、車載カメラの姿勢パラメータとして採用するヨー角
ψ0 は、できるだけ誤差が少ないほうがよいという当然
の要求がある。しかし、観測値をそのまま採用すると、
観測値は基本的に画面から得られる情報なので、渋滞し
ていて直ぐ前に車両が存在する場合や、道路平行線が鎖
線である場合には、道路平行線も道路消失点も得られな
い場合がある。そこで、ヨー角ψ0 の過去の履歴を考慮
した値を漸化式(例えば下記(31)式)によって求めてこ
れを「推定値」とし、これらの観測値と推定値とのいず
れか信頼できるほう、又はいずれもそれなりに信頼でき
れば両者の重み付き平均を採用するようにする。この採
用された値がここでいう「採用値」なのである。
In step S11, it is determined whether or not the adopted value ψ 0t-1 of the yaw angle in the immediately preceding processing cycle has been obtained. Here, to explain the meaning of "the adopted value", the yaw angle ψ 0 to adopt as attitude parameters of the vehicle-mounted camera, there is of course the requirement that it is as much as possible better error is small. However, if we take the observations as they are,
Observed values are basically information obtained from the screen, so if there is a vehicle in front of traffic congestion or if the parallel road is a dashed line, neither the parallel road nor the vanishing point can be obtained There is. Therefore, a value in consideration of the past history of the yaw angle ψ 0 is obtained by a recurrence formula (for example, the following formula (31)), and this is set as an “estimated value”. Or if both are reasonably reliable, a weighted average of the two is employed. This adopted value is the “adopted value” here.

【0071】ステップS11で、1つ前の処理周期にお
けるヨー角の採用値ψ0t-1が求められていなければ、こ
のときは、観測値ψ0t′を採用値ψ0tとする(ステップ
S12)。ステップS11で1つ前の処理周期における
ヨー角の採用値ψ0t-1が求められていれば、現処理周期
のヨー角の採用値ψ0tを求める(ステップS13)。こ
の方法を詳しく説明すると、次のようになる。
In step S11, if the adopted value ψ 0t-1 of the yaw angle in the immediately preceding processing cycle is not found, the observed value ψ 0t 'is set to the adopted value ψ 0t (step S12). . Long as it employs value [psi 0t-1 the yaw angle is calculated in step S11 in the preceding processing period, obtaining the adoption values [psi 0t of the yaw angle of the current processing cycle (step S13). The details of this method are as follows.

【0072】まず、走行している道路が真っ直ぐで道路
方位が変化しない場合(この判断は例えば道路地図デー
タに基づいてすることができる)は、処理周期t−1か
らtまでの間の道路に対する車両のヨー角の変化量は、
位置検出処理装置2から得られる処理周期t−1からt
までの間の車両の方位の変化量Δψ0tと一致する。すな
わち1つ前の処理周期の採用値ψ0t-1を使えば、次の漸
化式により、現処理周期の推定値ψ0t″を得ることがで
きる。
First, when the road on which the vehicle is traveling is straight and the road direction does not change (this determination can be made based on, for example, road map data), the road for the road between the processing periods t-1 and t is not processed. The amount of change in the yaw angle of the vehicle is
Processing cycles t-1 to t obtained from the position detection processing device 2
Up to Δt . That is, if the adopted value ψ 0t−1 of the immediately preceding processing cycle is used, an estimated value ψ 0t ″ of the current processing cycle can be obtained by the following recurrence formula.

【0073】 ψ0t″=ψ0t-1+Δψ0t (31) もし、1処理周期前の採用値ψ0t-1が求まっていなけれ
ば、採用値が求まっている処理周期(t−aとする)の
採用値ψ0t-aと処理周期t−aからtまでの間の車両の
方位の変化量Δψ0tとを用いて、式 ψ0t″=ψ0t-a+Δψ0t (a=2,3,4,…) (32) によって現処理周期の推定値ψ0t″を得る。
Ψ 0t ″ = ψ 0t−1 + Δψ 0t (31) If the adopted value ψ 0t−1 one processing cycle ago has not been determined, the processing cycle in which the adopted value is determined (referred to as ta). Using the adopted value ψ 0t-a and the change amount Δ 方位 0t of the azimuth of the vehicle from the processing cycle ta to t, the formula ψ 0t ″ = ψ 0t-a + Δψ 0t (a = 2, 3, 4,...) (32) to obtain the estimated value { 0t} of the current processing cycle.

【0074】もし道路の方位が変われば、上の式は成り
立たないので、その代わりに前処理周期で得られた採用
値と観測値との差を用いて修正した次のいずれかの漸化
式を用いることとする。 ψ0t″=ψ0t-1+Δψ0t−(ψ0t-1′−ψ0t-1) (33) ψ0t″=ψ0t-a+Δψ0t−(ψ0t-a′−ψ0t-a) (34) この式の意味は、過去における採用値と観測値との差を
加味することによって、前回外れた推測分を今回補正す
るものである。前回推測が外れたのは、道路の方位が変
化したのが原因と考えられるからである。
If the direction of the road changes, the above formula does not hold. Instead, one of the following recurrence formulas corrected using the difference between the adopted value obtained in the preprocessing cycle and the observed value is used. Shall be used. ψ 0t ″ = ψ 0t−1 + Δψ 0t − (ψ 0t-1 ′ −ψ 0t-1 ) (33) ψ 0t ″ = ψ 0t-a + Δψ 0t − (ψ 0t-a ′ -ψ 0t-a ) ( 34) The meaning of this equation is to correct the estimated value that deviated from the previous time this time by taking into account the difference between the past adopted value and the observed value. The reason that the estimation was incorrect last time is probably because the direction of the road has changed.

【0075】なお、上式を用いず、道路地図メモリ27
に記憶されている道路地図データから得られる道路方位
の変化分ΔψMtを考慮して、 ψ0t″=ψ0t-1+Δψ0t−ΔψMt (35) ψ0t″=ψ0t-a+Δψ0t−ΔψMt (36) を用いることもできる。ここで、ΔψMtのMは道路地図
データの意味である。
The above equation is not used and the road map memory 27 is used.
Ψ 0t ″ = ψ 0t−1 + Δψ 0t −Δψ Mt (35) ψ 0t ″ = ψ 0t-a + Δψ 0t − in consideration of the change Δψ Mt in the road direction obtained from the road map data stored in Δψ Mt (36) can also be used. Here, M of Δψ Mt means road map data.

【0076】ステップS14では、以上のようにして求
められた推定値ψ0t″と観測値ψ0t′とを比較する。そ
してステップS15で、この差が一定の範囲内にあるか
どうかをチェックする。この「一定範囲」の選び方は、
例えば処理周期当たり0.3°である。一定の範囲内に
あれば、推定値ψ0t″、観測値ψ0t′のいずれもそれな
りの信頼性があると見て、両者の重み付き平均をとっ
て、処理周期tにおける採用値ψ 0tとする(ステップS
16)。
In step S14, the search is performed as described above.
Estimated value ψ0t″ And observations ψ0t′. So
Then, in step S15, is this difference within a certain range?
Check if. How to choose this "fixed range"
For example, 0.3 ° per processing cycle. Within a certain range
If present, estimate ψ0t″, Observations ψ0t′ Is neither
The weighted average of the two.
And the adopted value in the processing cycle t 0t(Step S
16).

【0077】 αψ0t′+(1−α)ψ0t″→ψ0t (37) ここで重みαは、例えば経験的に決められた定数であ
る。一定の範囲内になければ、過去の時点でのステップ
S15での判断を調べ、一定の範囲内にないという判断
が一定数回P、すなわち一定距離以上続いていれば、ス
テップS18からS19に行き、観測値ψ0t′を、処理
周期tにおける採用値ψ0tとする。この理由は、範囲内
にないという判断が一定回数以上続けば、採用値が累積
誤差のため真の値から大きく外れ、信頼できなくなって
いると判断できるからである。
[0077] The αψ 0t '+ (1-α ) ψ 0t "→ ψ 0t (37) wherein the weight alpha, for example, empirically-determined constants. If within a certain range, at an earlier point in time In step S15, if the determination that the value is not within the predetermined range has continued for a certain number of times P, that is, a predetermined distance or more, the process goes from step S18 to S19, and the observation value ψ 0t ′ is determined in the processing cycle t. The adopted value is set to ψ0t , because if the determination that the adopted value is not within the range is continued for a certain number of times or more, the adopted value greatly deviates from the true value due to the accumulated error, and it can be determined that the reliability becomes unreliable.

【0078】一定の範囲にないという判断がまだP回続
いていなければ、まだ前に得られた採用値ψ0tに信頼性
があるとして推定値ψ0t″を、処理周期tにおける採用
値ψ 0tとする(ステップS20)。以上を要約すると、
システムを起動してから、最初の処理周期t=1では、
観測値ψ0t′をこの処理周期のヨー角ψ0tとする。以後
の処理周期では、観測値ψ 0t′と漸化式により求められ
た推定値ψ0t″との差が一定の範囲内にあるかどうかチ
ェックし、一定の範囲内にあれば観測値ψ0t′と推定値
ψ0t″との重み付き平均をとってそれをヨー角ψ0t
し、一定の範囲内になければ、一定の範囲内にない状態
が一定回数の処理周期以上連続していれば、観測値
ψ0t′をヨー角ψ0tとし、一定の範囲内にない状態がま
だ一定回数の処理周期連続していなければ、推定値
ψ0t″をヨー角ψ0tとする。
It is determined that the value is not within the predetermined range for P times
If not, the recruitment value obtained previously ψ0tReliable
There is an estimate ψ0t”In the processing cycle t
Value ψ 0t(Step S20). To summarize the above,
After starting the system, in the first processing cycle t = 1,
Observed valueψ0t′ Is the yaw angle of this processing cycle ψ0tAnd Since
In the processing cycle of 0t'And the recurrence formula
Estimate ψ0tCheck whether the difference from ″ is within a certain range.
And if it is within a certain range, the observed value 観 測0t′ And estimated value
ψ0tTake the weighted average with ″0tWhen
If it is not within a certain range, it is not within a certain range
If is continuous for more than a certain number of processing cycles, the observed value
ψ0t′ To the yaw angle ψ0tState that is not within a certain range
If the number of processing cycles is not continuous, the estimated value
ψ0t″ Is the yaw angle0tAnd

【0079】そして、以上のようにして得られたヨー角
ψ0tを用いて道路消失点のx座標を下記(38)式により修
正する(ステップS21)。 x0 =(ψ0t+ψ1 )F (38) なお、前述の消失点の簡易算出処理において、左右2本
の道路平行線が求まらなければ、ヨー角の観測値ψ0t
を求めることができない。そこで、左右2本の道路平行
線が求まっていない場合は、前処理周期のヨー角の採用
値ψ0t-1が求まっているかどうか判定し(ステップS
7)、求まっていれば、下記(39)式の漸化式により、現
処理周期の採用値ψ0tを得る(ステップS8)。
Using the yaw angle ψ 0t obtained as described above, the x coordinate of the road vanishing point is corrected by the following equation (38) (step S21). x 0 = (ψ 0t + ψ 1 ) F (38) In the above-described simple vanishing point calculation processing, if the left and right two road parallel lines are not found, the observed value of the yaw angle ψ 0t
Can not ask. Therefore, if the two left and right road parallel lines have not been determined, it is determined whether or not the adopted value ψ 0t-1 of the yaw angle in the preprocessing cycle has been determined (step S).
7) If obtained, the adopted value 採用0t of the current processing cycle is obtained by the recurrence formula of the following formula (39) (step S8).

【0080】 ψ0t=ψ0t-1+Δψ0t (39) もし道路の方位が変われば、上の式は成り立たないの
で、その代わりに前処理周期で得られた採用値と観測値
との差を用いて修正した次のいずれかの漸化式(40)(41)
を用いることは、前述のとおりである。 ψ0t=ψ0t-1+Δψ0t−(ψ0t-1′−ψ0t-1) (40) ψ0t=ψ0t-a+Δψ0t−(ψ0t-a′−ψ0t-a) (41) ステップS7で、前処理周期のヨー角の採用値ψ0t-1
求まっていなければ、ステップS22に進む。ステップ
S22では、ヨー角ψ0tの算出はせずに処理を終了す
る。
Ψ 0t = ψ 0t-1 + Δψ 0t (39) If the direction of the road changes, the above equation does not hold. Instead, the difference between the adopted value obtained in the preprocessing cycle and the observed value is calculated. Any of the following recurrence formulas (40) (41) modified using
Is used as described above. ψ 0t = ψ 0t-1 + Δψ 0t-0t-1 '-ψ 0t-1 ) (40) ψ 0t = ψ 0t-a + Δψ 0t-0t-a ' -ψ 0t-a ) (41) If the adopted value ステ ッ プ 0t-1 of the yaw angle in the preprocessing cycle has not been determined in step S7, the process proceeds to step S22. In step S22, the process ends without calculating the yaw angle ψ 0t .

【0081】次に、車載カメラのピッチ角の算出処理を
フローチャート(図9)を用いて説明する。この処理で
は、システムを立ち上げた後、カーブ走行していないと
判定された場合に、車載カメラ11で撮像された画像の
画像データに基づいて、消失点の簡易算出処理を行っ
て、左右の道路平行線の候補点を探し出し、それぞれの
傾きをチェックして左右2本の道路平行線が求まるかど
うかを判断する(ステップS32)。左右2本の道路平
行線が求まれば、それらの直線の様子から、道路消失点
(x0 ,y0 )を求め、下記(42)式 y0 =−(θ0 +θ1 )F=−θF (42) を用いて、車載カメラの道路に対するピッチ角θを求め
る(ステップS33)。このとき車載カメラの車体に対
するピッチ角θ1 は、前述したように初期処理で求めら
れているので、ピッチ角θを求めれば車両の道路に対す
るピッチ角θ0 を知ることができる。このピッチ角θ0
は、処理周期tにおいて撮像画面から観測されたピッチ
角であるという意味で、以後θ0tと書く。
Next, the process of calculating the pitch angle of the vehicle-mounted camera will be described with reference to a flowchart (FIG. 9). In this process, when it is determined that the vehicle is not traveling on a curve after the system is started up, a simple calculation process of a vanishing point is performed based on the image data of the image captured by the on-vehicle camera 11, and the left and right are calculated. The candidate points of the road parallel line are searched out, and their inclinations are checked to determine whether two left and right road parallel lines are obtained (step S32). When the two road parallel lines on the left and right sides are obtained, the vanishing point of the road (x 0 , y 0 ) is obtained from the state of the straight lines, and the following equation (42) y 0 = − (θ 0 + θ 1 ) F = − The pitch angle θ of the vehicle-mounted camera with respect to the road is determined using θF (42) (step S33). Pitch angle theta 1 with respect to the vehicle body at this time vehicle camera, since a need in the initial processing, as described above, it is possible to know the pitch angle theta 0 with respect to the road of the vehicle by obtaining the pitch angle theta. This pitch angle θ 0
Is a pitch angle observed from the imaging screen in the processing cycle t, and is hereinafter written as θ 0t .

【0082】もし、左右いずれか1本の道路平行線しか
求まらなければ(ステップS34)、道路消失点
(x0 ,y0 )を求めることはできないので、図7−図
11の処理で求めた車両のヨー角の採用値ψ0tを用い
て、道路消失点のx座標を逆に算出する(ステップS3
5)。そして、このx座標値x0 と1本の道路平行線と
から、道路消失点のy座標を推定し、ピッチ角θ0tを求
める(ステップS36)。
If only one of the left and right road parallel lines is obtained (step S34), the road vanishing point (x 0 , y 0 ) cannot be obtained, so the processing shown in FIGS. The x-coordinate of the road vanishing point is calculated in reverse using the obtained adopted value 採用0t of the yaw angle of the vehicle (step S3).
5). Then, the y coordinate of the road vanishing point is estimated from the x coordinate value x 0 and one road parallel line, and the pitch angle θ 0t is obtained (step S36).

【0083】この算出方法を詳述すると、図7−図11
の処理で求めた車両のヨー角の採用値ψ0tを用いて、次
式 x0t=(ψ0t+ψ1 )F (43) からx0tを求め、このx0tをx座標とするy軸に平行な
直線と、前記1本の道路平行線との交点を道路消失点
(x0t,y0t)とする。そして、このy座標値y0tを式 y0t=−(θ0t+θ1 )F (44) に当てはめてピッチ角θ0tを求めるのである。
The calculation method will be described in detail with reference to FIGS.
X 0t is obtained from the following equation x 0t = (ψ 0t + ψ 1 ) F (43) using the adopted value of the yaw angle ψ 0t of the vehicle obtained in the above processing, and the y-axis having the x 0t as the x coordinate is obtained. The intersection of the parallel straight line and the one road parallel line is defined as a road vanishing point (x 0t , y 0t ). Then, the pitch angle θ 0t is determined by applying the y coordinate value y 0t to the expression y 0t = − (θ 0t + θ 1 ) F (44).

【0084】そして、ステップS33又はステップS3
6で求められたピッチ角θ0tが、初期処理で求められた
ピッチ角θ0 の平均値(=0)からの標準偏差以内に収
まっているかどうかを調べる(ステップS37)。収ま
っていれば、求めたピッチ角θ0tをピッチ角の採用値と
する(ステップS38)。収まっていなければ、求めた
ピッチ角θ0tの信頼性なしと判断して、ピッチ角の採用
値を0とする(ステップS39)。0とする理由を説明
すると、前述したとおり車両がピッチするときは加減速
するときであるが、加減速時でも、加速のみ減速のみと
いうことは考えられず、ピッチ角の平均値はいつも0で
あると見ることができるからである。
Then, step S33 or step S3
It is checked whether or not the pitch angle θ 0t obtained in 6 is within the standard deviation from the average value (= 0) of the pitch angle θ 0 obtained in the initial processing (step S37). If the pitch angle is within the range, the obtained pitch angle θ 0t is set as the adopted value of the pitch angle (step S38). If not, it is determined that the obtained pitch angle θ 0t is not reliable, and the adopted value of the pitch angle is set to 0 (step S39). Explaining the reason why it is set to 0, as described above, when the vehicle pitches, it is time to accelerate or decelerate. However, even during acceleration or deceleration, it is not considered that only acceleration only decelerates, and the average value of the pitch angle is always 0. Because it can be seen that there is.

【0085】なお、左右いずれの道路平行線も求まらな
い場合、すなわちステップS34で“NO”と判断され
た場合には、ピッチ角の採用値を0とする。次に、車載
カメラの横ずれ距離の算出処理を説明する。図10は、
車載カメラの横ずれ距離の算出処理を説明するためのフ
ローチャートである。この処理では、システムを立ち上
げた後、カーブ走行していないと判定された場合に、車
載カメラ11で撮像された画像の画像データに基づい
て、簡易な道路消失点算出処理を行って、左右の道路平
行線の候補点を探し出し、それぞれの傾きをチェックし
て左右2本の道路平行線が求まるかどうかを判断する
(ステップS42)。もし、2本の道路平行線が求まれ
ば、道路平行線の傾きa1t, a2tと車載カメラの取付け
ロール角φ1 を使って、前記(29)(30)式に相当する式 A1t=−(a1t+φ1 )h/(1−φ1 1t) (45) A2t=−(a2t+φ1 )h/(1−φ1 2t) (46) によって、道路に平行な所定の基準線からの車載カメラ
の横ずれ距離Aを得ることができる(ステップS4
3)。ただし、車両が真っ直ぐに走行しているのでロー
ル角φ0 は無視した。
If neither the left nor the right road parallel line is obtained, that is, if "NO" is determined in the step S34, the adopted value of the pitch angle is set to 0. Next, a description will be given of a process of calculating the lateral displacement distance of the vehicle-mounted camera. FIG.
It is a flowchart for demonstrating the calculation process of the lateral shift distance of a vehicle-mounted camera. In this process, if it is determined that the vehicle is not traveling on a curve after the system is started, a simple road vanishing point calculation process is performed based on the image data of the image captured by the on-vehicle camera 11, and Then, the candidate points of the road parallel lines are searched for, and their inclinations are checked to determine whether two road parallel lines on the left and right sides are obtained (step S42). If two road parallel lines are obtained, the expression A 1t corresponding to the above-mentioned expressions (29) and (30) is obtained using the inclinations a 1t and a 2t of the road parallel lines and the mounting roll angle φ 1 of the vehicle-mounted camera. = − (A 1t + φ 1 ) h / (1−φ 1 a 1t ) (45) A 2t = − (a 2t + φ 1 ) h / (1−φ 1 a 2t ) (46) The lateral displacement distance A of the vehicle-mounted camera from a predetermined reference line can be obtained (step S4).
3). However, the vehicle has ignored the roll angle φ 0 is because it is straight running.

【0086】さらに前の処理周期で2本の道路平行線の
横ずれ距離At-1 が求まっているかどうかを判断する
(ステップS44)。求まっていれば、前の処理周期の
横ずれ距離At-1 を使って次の漸化式 A1t=A1,t-1 +Lψ0t (47) A2t=A2,t-1 +Lψ0t (48) により今処理周期の横ずれ距離At を求める(ステップ
S45)。ここでLは1処理周期に車両が走行した距離
であり、位置検出処理装置2からの支援データに基づい
て決められる。ψ0tは、道路に対する車両のヨー角の採
用値である。
Further, it is determined whether or not the lateral deviation distance At -1 between the two parallel roads has been determined in the previous processing cycle (step S44). If it has been obtained, before lateral distance A following recurrence formula using t-1 A 1t = A 1 processing cycle, t-1 + Lψ 0t ( 47) A 2t = A 2, t-1 + Lψ 0t ( Request lateral distance a t now processing cycle by 48) (step S45). Here, L is the distance traveled by the vehicle in one processing cycle, and is determined based on the support data from the position detection processing device 2. ψ 0t is the adopted value of the yaw angle of the vehicle with respect to the road.

【0087】そしてステップS43で道路平行線から求
められた横ずれ距離A1t,A2tと比較し(ステップS4
6)、一定範囲内にあるかどうかを判断する(ステップ
S47)。一定範囲内にあればステップS43で道路平
行線から求められた横ずれ距離A1t,A2tを採用し(ス
テップS49)、一定範囲内になければステップS45
で漸化式から求められた横ずれ距離A1t,A2tを採用す
る(ステップS48)。
Then, it is compared with the lateral displacement distances A 1t and A 2t obtained from the road parallel lines in step S43 (step S4).
6) It is determined whether it is within a certain range (step S47). If it is within a certain range, the lateral shift distances A 1t and A 2t obtained from the road parallel line in step S43 are adopted (step S49).
The lateral displacement distances A 1t and A 2t obtained from the recurrence formula are adopted (step S48).

【0088】もし、ステップS50で1本のみ道路平行
線の算出が可能であれば、その1本の道路平行線につい
て、道路平行線の傾きa1tと車載カメラの取付けロール
角φ 1 を使って、 A1t=−(a1t+φ1 )h/(1−φ1 1t) (49) により、横ずれ距離Aを求める(ステップS51)。そ
して前の処理周期で1本の道路平行線の横ずれ距離A
t-1 が求まっているかどうかを判断する(ステップS5
2)。求まっていれば、前の処理周期の横ずれ距離A
t-1 を使って次の漸化式 A1t=A1,t-1 +Lψ0t (50) により今処理周期の横ずれ距離At を求める(ステップ
S53)。
If only one road is parallel to the road in step S50
If it is possible to calculate the line,
And the inclination a of the road parallel line1tAnd rolls for mounting on-vehicle cameras
Angle φ 1Using, A1t=-(A1t+ Φ1) H / (1-φ1a1tThe lateral displacement distance A is obtained by (49) (step S51). So
And the lateral displacement distance A of one road parallel line in the previous processing cycle
t-1Is determined (step S5).
2). If found, the lateral displacement distance A of the previous processing cycle
t-1And the following recurrence formula A1t= A1, t-1+ Lψ0t According to (50), the lateral shift distance A of the processing cycle is nowt(Step
S53).

【0089】そしてステップS51で道路平行線から求
められた横ずれ距離A1t,A2tと比較し(ステップS5
4)、一定範囲内にあるかどうかを判断する(ステップ
S55)。一定範囲内にあればステップS43で道路平
行線から求められた横ずれ距離A1tを採用し(ステップ
S57)、一定範囲内になければステップS53で漸化
式から求められた横ずれ距離A1tを採用する(ステップ
S56)。
Then, it is compared with the lateral displacement distances A 1t and A 2t obtained from the road parallel lines in step S51 (step S5).
4) It is determined whether it is within a certain range (step S55). If it is within a certain range, the lateral shift distance A 1t obtained from the road parallel line is used in step S43 (step S57), and if it is not within the predetermined range, the lateral shift distance A 1t obtained from the recurrence formula is used in step S53. (Step S56).

【0090】なお、フローチャートに示していないが、
他の1本の道路平行線については、横ずれ距離Aは直接
求めることができないので、前の処理周期で横ずれ距離
Aが求まっているかどうかを判断し、求まっていれば、
前の処理周期の横ずれ距離A t-1 を使って次の漸化式 At =At-1 +Lψ0t (51) により今処理周期の横ずれ距離At を求める。前の処理
周期で横ずれ距離Aが求まっていなければ、その「他の
1本の道路平行線」については、横ずれ距離Aを求める
ことをあきらめて、処理を終了する。
Although not shown in the flowchart,
For the other road parallel line, the lateral shift distance A is directly
Since it cannot be obtained, the lateral shift distance in the previous processing cycle
Judge whether A is found, and if it is found,
Side shift distance A of previous processing cycle t-1And the following recurrence formula At= At-1+ Lψ0t According to (51), the lateral shift distance A of the processing cycle istAsk for. Previous processing
If the lateral displacement distance A is not found in the cycle,
For one road parallel line, determine the lateral displacement distance A
Give up and end the process.

【0091】もし、ステップS50で、道路平行線が全
く得られなかったら、図11のステップS61に進み、
前の処理周期で1本の道路平行線の横ずれ距離A1,t-1
が求まっているかどうか判定し、道路平行線が求まって
いれば前記漸化式を用いて横ずれ距離Aを算出し、求ま
っていない場合は横ずれ距離Aを算出しない(ステップ
S61−S63)。
If no parallel road is obtained in step S50, the flow advances to step S61 in FIG.
In the previous processing cycle, the lateral displacement distance A 1, t-1 of one road parallel line
Is determined, the lateral displacement distance A is calculated using the recurrence formula if the road parallel line has been determined, and if not, the lateral displacement distance A is not calculated (steps S61-S63).

【0092】また、他の1本の道路平行線についても、
横ずれ距離A2,t-1 が求まっているかどうか判定し、道
路平行線が求まっていれば前記漸化式を用いて横ずれ距
離Aを算出し、求まっていない場合は、横ずれ距離Aを
算出しない(ステップS64−S66)。以上のような
処理をすることによって、車載カメラ11の姿勢パラメ
ータθ,φ及びψ、並びに横ずれ距離Aが求まる。これ
らの姿勢パラメータは、次に説明する物体追従認識処理
において活用される。 (6) 物体追従認識処理 物体追従認識処理は、車載カメラ11によって撮像され
た画像中の道路標識、道路上の表示、歩行者、他車両等
の一定種類の物体(この処理では、以下「認識対象物」
という)を追従認識するための処理である。この画像認
識に当たっては、車載カメラの姿勢パラメータや位置検
出処理装置2から与えられる支援情報が用いられる。
[0092] Also, regarding another one road parallel line,
It is determined whether or not the lateral displacement distance A2 , t-1 has been determined. If the road parallel line has been determined, the lateral displacement distance A is calculated using the recurrence formula. If not, the lateral displacement distance A is not calculated. (Steps S64 to S66). By performing the processing described above, the posture parameters θ, φ, and ψ of the vehicle-mounted camera 11 and the lateral displacement distance A are obtained. These posture parameters are used in an object tracking recognition process described below. (6) Object Tracking Recognition Processing The object tracking recognition processing is performed by a certain type of object such as a road sign, a display on a road, a pedestrian, or another vehicle in an image captured by the vehicle-mounted camera 11 (hereinafter, “recognition”). Object"
This is a process for following recognition. In this image recognition, the posture parameters of the vehicle-mounted camera and the support information given from the position detection processing device 2 are used.

【0093】以下では、まず道路標識や道路上の表示等
の静止認識対象物の追従認識について説明し、その後に
他車両のような移動認識対象物の追従認識について説明
する。なお、認識対象物を追従するときは、認識対象物
について特定された1又は複数の点(以下「特定点」と
いう)に注目することにする。 (6-1) 静止認識対象物の追従認識 カメラ姿勢パラメータ算出処理の説明において用いた前
記(13)式及び(14)式を変形して、撮像面の点(x′,
y′)、カメラ姿勢パラメータψ,φ,θ及び変数Zが
既知であるものとしてX,Yについて解くと次の(61)式
が得られる。
In the following, first, the following recognition of a still object to be recognized such as a road sign or a display on a road will be described, and then the following recognition of a moving object such as another vehicle will be described. Note that when following the recognition target, attention is paid to one or more points specified for the recognition target (hereinafter, referred to as “specific points”). (6-1) Tracking recognition of a still recognition target object The above equations (13) and (14) used in the description of the camera posture parameter calculation process are modified to obtain points (x ′,
y '), the camera attitude parameters ψ, φ, θ and the variable Z are known and the following equation (61) is obtained by solving for X and Y.

【0094】[0094]

【数7】 (Equation 7)

【0095】したがって、処理周期tにおいて、特定点
の座標(xt ′,yt ′)が得られ、カメラ姿勢パラメ
ータと車両からみた特定点の高さ方向の位置Z(一定
値。特定点が接地点であればその高さはカメラの高さだ
け低いもの−hとなる)が既知であれば、道路から見た
特定点の位置(Xt ,Yt )を、前記(61)式によって求
めることができる。
Therefore, in the processing cycle t, the coordinates (x t ′, y t ′) of the specific point are obtained, and the camera attitude parameters and the position Z (constant value. If it is known that the height of the ground point is -h, which is lower by the height of the camera), the position ( Xt , Yt ) of the specific point viewed from the road is calculated by the above equation (61). You can ask.

【0096】ところで、各変数やパラメータは時間の関
数であり、時間経過とともに変化する。処理周期tから
処理周期t+1の間の車両の走行距離データをLt+1
方位変化データ(位置検出処理装置2から方位変化デー
タが与えられる場合には、それをそのまま用いることが
できる。)をΔψt+1 とすると、処理周期t+1の特定
点の位置(Xt+1 ,Yt+1 )は、次式で与えられる。
Incidentally, each variable or parameter is a function of time, and changes with time. The traveling distance data of the vehicle between the processing cycle t and the processing cycle t + 1 is represented by L t + 1 ,
Assuming that the azimuth change data (when the azimuth change data is provided from the position detection processing device 2, it can be used as it is) Δψ t + 1 , the position (X t + 1) of the specific point in the processing cycle t + 1 , Y t + 1 ) is given by the following equation.

【0097】[0097]

【数8】 (Equation 8)

【0098】この(62)式の右辺のベクトルの Lt+1 sinΔψt+1 , −Lt+1 cosΔψt+1 という項は、車両が移動したために、認識対象物とカメ
ラとの距離がどれだけ近づいたのかを表し、右辺の2×
2行列は、カメラのヨー角の変化に基づくカメラの視野
の回転を表している。
The terms L t + 1 sin Δψ t + 1 , −L t + 1 cos Δψ t + 1 of the vector on the right side of the equation (62) indicate that the distance between the object to be recognized and the camera is Shows how close you are, 2x on the right
The two matrices represent the rotation of the camera's field of view based on changes in the camera's yaw angle.

【0099】前記(62)式の(Xt+1 ,Yt+1 )及びカメ
ラ姿勢パラメータψt+1 ,φt+1 ,θt+1 を、前記(13)
(14)式に代入することによって、処理周期t+1におけ
る特定点の画面上での位置(xt+1 ′,yt+1 ′)を推
定することができる。 xt+1 ′=F(Xt+1 +ψt+1 t+1 −φt+1 Z) /(−ψt+1 t+1 +Yt+1 +θt+1 Z) (63) yt+1 ′=F(φt+1 t+1 −θt+1 t+1 +Z) /(−ψt+1 t+1 +Yt+1 +θt+1 Z) (64) つまり、処理周期tにおける特定点の位置が判れば、処
理周期t+1においてその特定点が画面上のどの位置に
移動するかを、カメラ姿勢パラメータなどに基づいて推
定できる。そのため、時々刻々と撮像される画面からあ
る認識対象物を追従する場合に、推定された位置の周辺
の領域の画像を切り出してその中で特定点を探索し、特
定点があればこの特定点に係る認識対象物の認識処理を
行えばよいので、認識処理時間を節約することができ
る。
The (X t + 1 , Y t + 1 ) of the equation (62) and the camera attitude parameters ψ t + 1 , φ t + 1 , θ t + 1 are obtained by the above-mentioned equation (13).
By substituting into the equation (14), the position (x t + 1 ′, y t + 1 ′) of the specific point on the screen in the processing cycle t + 1 can be estimated. x t + 1 ′ = F (X t + 1 + ψ t + 1 Y t + 1 −φ t + 1 Z) / (− ψ t + 1 X t + 1 + Y t + 1 + θ t + 1 Z) (63 ) y t + 1 ′ = F (φ t + 1 X t + 1 −θ t + 1 Y t + 1 + Z) / (− ψ t + 1 X t + 1 + Y t + 1 + θ t + 1 Z) ( 64) That is, if the position of the specific point in the processing cycle t is known, it is possible to estimate to which position on the screen the specific point moves in the processing cycle t + 1 based on the camera posture parameter and the like. Therefore, when following a certain recognition target from a screen that is imaged every moment, an image of an area around the estimated position is cut out, and a specific point is searched for therein. Since it is sufficient to perform the recognition processing of the recognition target according to the above, the recognition processing time can be saved.

【0100】推定された位置の周辺の画像切出し範囲
は、推定された画面上の位置である推定値と、実際に認
識された特定点の位置である実際値との誤差を考慮して
定められる。具体的に説明するとまず、処理周期tにお
ける推定値を( Et ′, E t ′)とし、実際値を(
Mt ′, Mt ′)と表す。さらに、平均操作をav
eと表し、分散操作をvarと表し、標準偏差をstd
と表し、平方根操作をsqrtと表すと、下記の式が得
られる。
Image cut-out range around estimated position
The estimated value, which is the estimated position on the screen, is
Considering the error with the actual value that is the position of the identified specific point
Determined. Specifically, first, in the processing cycle t,
Estimate (Ext′,Ey t′) And the actual value is (
Mxt′,Myt'). In addition, the average operation is av
e, variance operation is represented by var, and standard deviation is std.
When the square root operation is expressed as sqrt, the following equation is obtained.
Can be

【0101】 var(x) =ave(x−ave(x) )2 std(x) =sqrt(var(x) ) x= Et ′− Mt ′ var(y) =ave(y−ave(y) )2 std(y) =sqrt(var(y) ) y= Et ′− Mt ′ したがって、画面上の位置のx軸及びy軸方向の各誤差
は、例えば、kを定数としてk・std(x) 、k・st
d(y) として求めることができる。そこで、この範囲
(以下「誤差範囲σ」という)を画像切出し範囲とすれ
ば、特定点を含む画像を切り出すことができる。
[0101] var (x) = ave (x -ave (x)) 2 std (x) = sqrt (var (x)) x = E x t '- M x t' var (y) = ave (y- ave (y)) 2 std ( y) = sqrt (var (y)) y = E y t '- M y t' Therefore, the error of the x-axis and y-axis position on the screen, for example, k Where k · std (x) and k · st
d (y). Therefore, if this range (hereinafter referred to as “error range σ”) is set as an image cutout range, an image including a specific point can be cut out.

【0102】なお、定数kを、車両の走行速度、方位変
化、姿勢パラメータの信頼度等に基づいて可変設定する
ようにしておけば、誤差範囲σをより適切に設定でき
る。具体的には、車両の走行速度が一定値(例えば10
0km/h)以下の場合は定数kは一定、以上の場合には定
数kを車両の走行速度にほぼ比例するように設定しても
よい。また、車両の進行方位の単位時間当たり又は単位
走行距離当たりの変化量が一定値(例えば0.1°)以
上のときに、この方位変化量にほぼ比例するように前記
定数kの値を設定してもよい。また、誤差範囲σは認識
すべき認識対象物の種類ごとに変化させてもよく、認識
対象物の種類によらずに共通の誤差範囲σを用いてもよ
い。
If the constant k is variably set based on the running speed of the vehicle, the change in azimuth, the reliability of the posture parameter, and the like, the error range σ can be set more appropriately. Specifically, the traveling speed of the vehicle is a constant value (for example, 10
0 km / h) or less, the constant k may be set to be constant, and if it is more than 0 km / h, the constant k may be set so as to be substantially proportional to the running speed of the vehicle. Further, when the amount of change in the heading of the vehicle per unit time or per unit traveling distance is equal to or more than a fixed value (for example, 0.1 °), the value of the constant k is set so as to be substantially proportional to the amount of change in heading. May be. Further, the error range σ may be changed for each type of the recognition target to be recognized, or a common error range σ may be used regardless of the type of the recognition target.

【0103】なお、(61)式,(62)式, (63)式,(64)式
誤差を含むものであるとして、カルマンフィルタ等を用
いて、走行距離、方位変化の誤差、姿勢パラメータの推
定誤差、画面上の位置(x′,y′)の推定値と実際値
との差等から、フィタリングにより、特定点の位置
(X,Y,Z)を時々刻々推定したりすることもでき
る。図12は、前方の静止認識対象物である道路標識の
処理周期tにおける特定点Pt (xt ,yt )及びその
次の処理周期t+1における推定位置の近傍の誤差範囲
σ1 を図示したもので、実際に次の処理周期t+1にな
れば、特定点Pt+1(xt+1 ′,yt+1 ′)は、図13
に示すように誤差範囲σ1 の中に見出すことができるこ
とを示している。
It is assumed that Equations (61) , (62), (63), and (64) include errors, and a Kalman filter or the like is used to estimate the mileage, the azimuth change error, and the attitude parameter estimation error. From the difference between the estimated value of the position (x ', y') on the screen and the actual value, etc., the position (X, Y, Z) of the specific point can be estimated every moment by filtering. FIG. 12 illustrates an error range σ 1 near the specific point P t (x t , y t ) in the processing cycle t of the road sign, which is the object to be recognized for stillness, and the estimated position in the next processing cycle t + 1. When the next processing cycle t + 1 actually occurs, the specific point P t + 1 (x t + 1 ′, y t + 1 ′) becomes
As shown in FIG. 7, it can be found within the error range σ 1 .

【0104】このようにして、例えば、道路標識や信号
機のような静止認識対象物を時々刻々と追従して認識す
る場合に、前記の方法で探索範囲を限ることによって、
認識対象物の追従処理の迅速化を図ることができる。 (6-2) 移動認識対象物の追従認識 移動認識対象物を追従して認識する場合には、前記(62)
式の変換式を用いることができない。そこで前記(62)式
に代えて、移動認識対象物の位置の時間的な変化を考慮
した下記(65)式を用いる。
In this way, for example, when a still object to be recognized, such as a road sign or a traffic light, is to be tracked and recognized every moment, the search range is limited by the above-described method.
The tracking process of the recognition target can be speeded up. (6-2) Tracking recognition of a movement recognition target When tracking and recognizing a movement recognition target, the (62)
Expression conversion formula cannot be used. Therefore, instead of the above equation (62), the following equation (65) taking into account the temporal change of the position of the movement recognition target object is used.

【0105】[0105]

【数9】 (Equation 9)

【0106】(65)式を前記(62)式と比較すると、右辺の
ベクトルにそれぞれ (Xt −Xt-1 )−Lt sinΔψt , (66) (Yt −Yt-1 )+Lt cosΔψt (67) という項が加わっている。(Xt −Xt-1 )及び(Yt
−Yt-1 )は、前回の処理周期から今回の処理周期まで
の車両から見た認識対象物の見かけの移動距離、 Lt sinΔψt , −Lt cosΔψt は、前回の処理周期から今回の処理周期までの車両の移
動距離となるから、これらの差である前記(66)(67)式
は、前回の処理周期から今回の処理周期までの認識対象
物の正味の移動距離となる。
[0106] (65) If the comparison with the (62) formula formula, each vector of the right side (X t -X t-1) -L t sinΔψ t, (66) (Y t -Y t-1) + L The term t cosΔψ t (67) is added. (X t -X t-1) and (Y t
−Y t−1 ) is the apparent moving distance of the recognition target object viewed from the vehicle from the previous processing cycle to the current processing cycle, and L t sin Δψ t , −L t cos Δψ t is the current distance from the previous processing cycle. Thus, the difference between these two equations (66) and (67) is the net movement distance of the recognition target object from the previous processing cycle to the current processing cycle.

【0107】ところで、(65)式は、次回の処理周期での
認識対象物の位置を求めるのに、前回の処理周期から今
回の処理周期までの認識対象物の移動距離を、今回の処
理周期から次回の処理周期までの認識対象物の移動距離
と等しいと考え、この移動距離を考慮した式となってい
る。したがって、前回の処理周期から今回の処理周期ま
での認識対象物の位置の時間的な変化が分かれば、(65)
式を使ってその認識対象物を追従認識することができ
る。なお、前回の処理周期から今回の処理周期までの認
識対象物の移動距離が、今回の処理周期から次回の処理
周期までの認識対象物の移動距離と等しいと考えている
のは、移動認識対象物の速度が急変しないことを前提と
しているが、移動認識対象物が車両であればこの前提は
十分に成り立っている。
By the way, in order to obtain the position of the object to be recognized in the next processing cycle, the equation (65) indicates that the moving distance of the object to be recognized from the previous processing cycle to the current processing cycle is determined by the current processing cycle. It is considered that the distance is equal to the movement distance of the recognition target object from the first processing cycle to the next processing cycle, and the formula takes into account this movement distance. Therefore, if the temporal change of the position of the recognition target object from the previous processing cycle to the current processing cycle is known, (65)
The recognition target object can be tracked and recognized using the equation. It is considered that the movement distance of the recognition object from the previous processing cycle to the current processing cycle is equal to the movement distance of the recognition object from the current processing cycle to the next processing cycle. Although it is assumed that the speed of the object does not suddenly change, this assumption is sufficiently satisfied if the movement recognition target is a vehicle.

【0108】図12は、前方の移動認識物である車両の
処理周期tにおける特定点Ot (x t ,yt )及びその
次の処理周期t+1における誤差範囲σ2 を図示したも
ので、実際に次の処理周期t+1になれば、特定点O
t+1 は、図13に示すように誤差範囲σ2 の中に見出す
ことができることを示している。 (6-3) 認識処理部の処理 次に、認識対象物の追従認識のために認識処理部15が
実行する処理を説明する。
FIG. 12 is a view showing a vehicle which is a moving recognition object ahead.
Specific point O in processing cycle tt(X t, Yt) And its
Error range σ in next processing cycle t + 1TwoIs also shown
Therefore, when the next processing cycle t + 1 actually occurs, the specific point O
t + 1Is the error range σ as shown in FIG.TwoFind in
Indicates that it can be done. (6-3) Processing of the recognition processing unit Next, the recognition processing unit 15 performs tracking recognition of the recognition target object.
The processing to be executed will be described.

【0109】認識処理部15は、追従認識処理のため
に、記憶部17に、認識対象物を登録するための認識対
象物登録テーブル(表1参照)、及び特定点登録テーブ
ル(表2参照)を持っている。
The recognition processing unit 15 stores a recognition target object registration table (see Table 1) and a specific point registration table (see Table 2) for registering a recognition target object in the storage unit 17 for follow-up recognition processing. have.

【0110】[0110]

【表1】 [Table 1]

【0111】表1の認識対象物登録テーブルは、車載カ
メラ11によって車両の前方又は後方を撮像して、処理
周期ごとに画像信号に変換し、この変換画像に基づいて
認識される、画面内の1つ又は複数の認識対象物を登録
しておくためのテーブルであって、認識対象物番号、登
録の有無、パターン情報、動静情報、特定点の数、特定
点へのポインタの各項目を備えている。
The recognition object registration table in Table 1 captures an image of the front or rear of the vehicle by the on-board camera 11, converts the image into an image signal in each processing cycle, and is recognized based on the converted image. A table for registering one or a plurality of recognition targets, which includes items of a recognition target number, presence / absence of registration, pattern information, movement information, the number of specific points, and a pointer to a specific point. ing.

【0112】「認識対象物番号」は、シーケンシャルな
番号1,2,3,…が付与されていて、各番号と、各認
識対象物とが対応する。「パターン情報」は、認識対象
物の種類(乗用車、バス、道路標識、歩行者等)、大き
さ(横幅、全長、高さ等)、認識対象物内部の色調(例
えば認識対象物内に含まれるすべての画素、又は輪郭画
像の重心等の幾何学的な関係から決められる代表的な画
素のRGBの3原色画像データr,g,b、又はそれら
の平均値。前記(1) 式の値でもよい)を記録するもの
で、認識対象物の特徴を示すものである。この特徴は、
認識対象物のパターン認識によって得られる。パターン
認識は、例えば標準となるテンプレートをいくつも用意
し、認識対称物の特定点の位置情報等から、実際の認識
対象物の大きさに縮尺調整し、画面上の2次元位置に仮
想設定して認識対象物の輪郭にテンプレートを重ね合わ
せ、両者の一致度を定量的に測定して最も一致するもの
を選ぶことによって得られる(参照;長尾真著「パター
ン情報処理」第4.3節,コロナ社昭和58年3月10
日初版発行)。カラーのデータを用いる場合には、濃度
だけでなく、色度のデータも利用できるので、認識確率
を高めることができる。
The "recognition object number" is given a sequential number 1, 2, 3,..., And each number corresponds to each recognition object. “Pattern information” includes the type of the recognition target (passenger car, bus, road sign, pedestrian, etc.), size (width, total length, height, etc.), color tone inside the recognition target (for example, included in the recognition target). RGB primary color image data r, g, b of all the pixels or representative pixels determined from the geometric relationship such as the center of gravity of the contour image, or their average value. May be recorded), and indicates the characteristics of the recognition target object. This feature
It is obtained by pattern recognition of the recognition target. For pattern recognition, for example, a number of standard templates are prepared, the scale is adjusted to the size of the actual object to be recognized based on the position information of the specific point of the object to be recognized, etc., and virtually set at the two-dimensional position on the screen. By superimposing the template on the outline of the object to be recognized, quantitatively measuring the degree of coincidence between the two, and selecting the one that matches the most (see; Makoto Nagao, “Pattern Information Processing”, section 4.3, Corona Company March 10, 1983
First edition published on each day). When color data is used, not only density but also chromaticity data can be used, so that the recognition probability can be increased.

【0113】「動静情報」は、認識対象物が静止してい
るか、動いているか、不明かを区別する3通りの情報で
ある。「特定点の数」は、認識対象物について設定され
た特定点の数をいう。ここで、特定点の選び方を説明す
ると、例えば図14に示すような前方画像が得られたと
き、この画像を処理して図15に示すような認識対象物
の大きさに合わせた輪郭を抽出し、その輪郭上のいずれ
かの点、例えば輪郭の角の点を特定点に設定する。前記
輪郭としては、認識対象物と外界との境界、認識対象物
内部の境界(例えばガラスとボディーとの境界)、認識
対象物の影の輪郭等を選ぶことができる。具体的には、
図14の画像を走査して、走査線1本1本ごとに色調
(例えばRGB平均値)の変化する点を見付け、それら
の点同士をつなぐことにより輪郭を抽出し、輪郭の角の
点を設定するとよい。
[0113] "Motion information" is three kinds of information for distinguishing whether a recognition target is stationary, moving, or unknown. The “number of specific points” refers to the number of specific points set for the recognition target. Here, a method of selecting a specific point will be described. For example, when a forward image as shown in FIG. 14 is obtained, this image is processed to extract a contour according to the size of the recognition target as shown in FIG. Then, any point on the contour, for example, a corner point of the contour is set as a specific point. As the contour, a boundary between the recognition target and the outside world, a boundary inside the recognition target (for example, a boundary between glass and body), a contour of a shadow of the recognition target, and the like can be selected. In particular,
The image in FIG. 14 is scanned to find points where the color tone (for example, RGB average value) changes for each scanning line, and an outline is extracted by connecting those points. It is good to set.

【0114】なお、特定点は前記のように輪郭の角に限
定されるものではなく、認識対象物の輪郭内部の中心
(例えば車両であればランプやナンバープレートの中
心、道路標識であれば標識の中心)に設定したりするこ
とも可能である。しかし認識対象物が前方の他車両であ
る場合に、タイヤの輪郭の下二隅の点を設定すれば、そ
の高さが既知の値(−h)となるという利点がある。
Note that the specific point is not limited to the corner of the contour as described above, but may be a center within the contour of the object to be recognized (for example, the center of a lamp or a license plate for a vehicle, a sign for a road sign). At the center). However, when the object to be recognized is another vehicle ahead, setting the two lower corner points of the tire contour has the advantage that the height becomes a known value (-h).

【0115】「特定点へのポインタ」は、特定点登録テ
ーブルへのポインタをいう。
"Pointer to specific point" refers to a pointer to a specific point registration table.

【0116】[0116]

【表2】 [Table 2]

【0117】表2の特定点登録テーブルは、認識対象物
について設定された特定点の詳細情報を記憶しているテ
ーブルであって、特定点ごとに、特定点の存在の有無、
特定点の空間位置(X,Y,Z)、空間位置変化、特定
点の周辺画像の特徴の各項目を備えている。「特定点の
空間位置(X,Y,Z)」は、前記(61)式によって求め
られる特定点の道路車両座標系XYZにおける空間位置
座標(X,Y,Z)をいう。
The specific point registration table of Table 2 is a table that stores detailed information on specific points set for the recognition target object.
Each item includes a spatial position (X, Y, Z) of a specific point, a spatial position change, and features of a peripheral image of the specific point. The “spatial position (X, Y, Z) of the specific point” refers to the spatial position coordinates (X, Y, Z) of the specific point in the road vehicle coordinate system XYZ obtained by the above equation (61).

【0118】「空間位置変化」とは、前の処理周期の画
面と比較した道路から見た特定点の空間位置の変化をい
い、前記空間位置座標(X,Y,Z)の変化(ΔX,Δ
Y,ΔZ)から車両の移動距離を差し引いて求められ
る。空間位置変化が不明のときは、不明を表すため、例
えばオールビットを1として登録する。「特定点の周辺
画像の特徴」とは、前の処理周期の画面の特定点と本処
理周期の画面の特定点との同一性を確認するための情報
である。図16(a) は、他車両の左後輪の端の特定点Q
1 及び一定の範囲D1 、並びに左バックライトの中の特
定点Q2 及び一定の範囲D2 を示す図であり、同図(b)
は、一定の範囲D1 及びこの中の特定点Q1 を切り出し
た図であり、同図(c) は、一定の範囲D2 及びこの中の
特定点Q2 を切り出した図である。同図(b) と(c) を比
較すると、特定点の周辺画像の特徴が、色調等の点で明
らかに異なっているので、これらの特定点Q1 ,Q2
同一でないことが分かる。
"Spatial position change" refers to a change in the spatial position of a specific point viewed from the road as compared with the screen in the previous processing cycle, and a change (ΔX, Δ
Y, ΔZ) and is obtained by subtracting the travel distance of the vehicle. When the change in the spatial position is unknown, for example, all bits are registered as 1 to indicate the unknown. The “characteristics of the peripheral image of the specific point” is information for confirming the identity between the specific point on the screen in the previous processing cycle and the specific point on the screen in the main processing cycle. FIG. 16A shows a specific point Q at the end of the left rear wheel of another vehicle.
1 and a certain range D 1, and a diagram showing a specific point Q 2 and a certain range D 2 in the left backlight, Fig (b)
Is a view cut out a specific point to Q 1 in a certain range D 1 and this, FIG. (C) are views cut out a specific point Q 2 in a certain range D 2, and this. Comparing FIGS. 7B and 7C, it can be seen that the specific points Q 1 and Q 2 are not the same because the features of the peripheral images at the specific points are clearly different in terms of color tone and the like.

【0119】そこで、特定点の同一性を確認するための
情報として、特定点から一定の範囲D内に含まれるすべ
ての画素、又は輪郭画像の重心等の幾何学的な関係から
決められる代表的な画素のRGBの3原色画像データ
r,g,bを採用する。しかし、これに限られるもので
はなく、それらの画素の3原色画像データr,g,bの
面積分値∫D rdS,∫D gdS,∫D bdS(∫dS
は面積分を表わす)で表してもよい。また、それらの線
形和P P=j1 |∫D rdS|+j2 |∫D gdS|+j3 |∫D bdS| で表してもよい。特定点が輪郭の上に乗っているとき
は、輪郭を構成する画素の3原色画像データr,g,b
で表してもよいし、それらの画素の3原色画像データ
r,g,bの線積分値で表してもよいし、それらの線形
和で表してもよい。特定点として輪郭の内部の点を選ん
だときは、特定点から一定の範囲内に含まれ、かつ輪郭
の(外部でなく)内部の画素の3原色画像データr,
g,bで表してもよいし、それらの画素の3原色画像デ
ータr,g,bの面積分値で表してもよいし、それらの
線形和で表してもよい。これらの情報が一致するか、違
っていても許容範囲内であれば、前の処理周期の画面の
特定点と本処理周期の画面の特定点とは同じ特定点であ
ると判断することができる。
Thus, as information for confirming the identity of a specific point, a representative point determined from geometrical relationships such as all pixels included within a certain range D from the specific point or the center of gravity of the contour image is used. The three primary color image data r, g, b of RGB of the pixel are adopted. However, it is not limited thereto, three primary color image data r of these pixels, g, b of the surface integral value ∫ D rdS, ∫ D gdS, ∫ D bdS (∫dS
Represents an area). Also, their linear sum P P = j 1 | ∫ D rdS | + j 2 | ∫ D gdS | + j 3 | may be represented by | ∫ D BDS. When the specific point is on the contour, the three primary color image data r, g, b of the pixels constituting the contour
, May be represented by a line integral value of the three primary color image data r, g, b of those pixels, or may be represented by a linear sum thereof. When a point inside the contour is selected as a specific point, the three primary color image data r, which are included within a certain range from the specific point and are inside (not outside) the contour.
It may be represented by g, b, may be represented by an area value of the three primary color image data r, g, b of those pixels, or may be represented by a linear sum thereof. If these pieces of information match or differ from each other and are within the allowable range, it can be determined that the specific point on the screen in the previous processing cycle and the specific point on the screen in this processing cycle are the same specific point. .

【0120】次に、図17−図21のフローチャートを
参照して、認識対象物の追従認識処理の手順を説明す
る。この処理は、初期処理が終わった後の車両の走行中
に、一定距離又は一定時間走行するごとに行われるもの
である。まず、車載カメラ11で撮像された画像データ
を取得し(図17、ステップS71)、すでに「(5) 車
載カメラの姿勢パラメータ算出処理」で述べたように車
載カメラの姿勢パラメータを算出する(ステップS7
2)。
Next, referring to the flowcharts of FIGS. 17 to 21, the procedure of the tracking recognition processing of the recognition target will be described. This process is performed every time the vehicle travels for a certain distance or for a certain time during the running of the vehicle after the completion of the initial processing. First, image data captured by the in-vehicle camera 11 is acquired (FIG. 17, step S71), and the posture parameters of the in-vehicle camera are calculated as already described in “(5) Attitude parameter calculation processing of in-vehicle camera” (step S71). S7
2).

【0121】そして、表1の認識対象物登録テーブル
と、表2の特定点登録テーブルとを参照する。まず、認
識対象物登録テーブルに認識対象物が最低1つ登録され
ているかどうかを調べ(ステップS73)、登録されて
いるならば、ステップS81以下に進む。初めて取得す
る画面であれば、何も登録されていないので、そのとき
はステップS75に進み、画像データに基づいて画面内
のすべての画像の輪郭を抽出し、画像パターンをそれぞ
れ認識する。この場合、どのような目的で車両を誘導す
るのかにより、認識対象となる認識対象物を限定しても
よい。例えば、車両の安全な運行を目的とするときは移
動認識対象物のみを認識対象としてもよいし、また、位
置検出処理装置2の表示部29に経路誘導情報を表示し
て目的地までの経路誘導を行うときは、道路標識や信号
機のような静止認識対象物のみを認識対象としてもよ
い。
Then, the recognition target registration table in Table 1 and the specific point registration table in Table 2 are referred to. First, it is checked whether at least one recognition target is registered in the recognition target registration table (step S73). If the recognition target is registered, the process proceeds to step S81 and subsequent steps. If it is the first acquisition screen, nothing is registered. In that case, the process proceeds to step S75, where the contours of all the images in the screen are extracted based on the image data, and the image patterns are respectively recognized. In this case, the object to be recognized may be limited depending on the purpose of guiding the vehicle. For example, when the purpose is to operate the vehicle safely, only the movement recognition target object may be set as the recognition target. Alternatively, the route guidance information is displayed on the display unit 29 of the position detection processing device 2 so that the route to the destination is displayed. When performing guidance, only stationary recognition targets such as road signs and traffic lights may be set as recognition targets.

【0122】もし、自動車、道路標識、歩行者等をそれ
ぞれ認識できたならば、各認識対象物にシーケンス番号
を割当て、登録有無の欄にそれぞれ「登録あり」の符号
を認識対象物登録テーブルに書き込む。さらにそれらの
パターン情報を書き込み(ステップS76)、動静情報
を「不明」として登録する(ステップS77)。また抽
出された画像の輪郭に基づいて特定点を設定してその数
を登録する(ステップS78)。
If a car, a road sign, a pedestrian, and the like can be respectively recognized, a sequence number is assigned to each recognition target, and a sign of “registered” is entered in the column of “registration” in the recognition target registration table. Write. Furthermore, the pattern information is written (step S76), and the movement information is registered as "unknown" (step S77). Further, specific points are set based on the outline of the extracted image, and the number is registered (step S78).

【0123】次に、特定点の空間位置座標(X,Y,
Z)と、「特定点の周辺画像の特徴」を登録し(ステッ
プS79)、前の処理周期と比較した特定点の空間位置
変化を不明として登録し(ステップS80)、スタート
に戻る。空間位置変化を不明とするのは、前の処理周期
では画像データが得られていないので、空間位置変化を
求めることはできないからである。
Next, the spatial position coordinates (X, Y,
Z) and the "characteristics of the peripheral image of the specific point" are registered (step S79), and the spatial position change of the specific point compared with the previous processing cycle is registered as unknown (step S80), and the process returns to the start. The reason why the spatial position change is unknown is that the spatial position change cannot be obtained because no image data has been obtained in the previous processing cycle.

【0124】次の処理周期において、認識対象物が登録
されているならば、ステップS74からステップS81
に進み、認識対象物登録テーブルの動静情報をチェック
する。まず、動静情報が「静止」である認識対象物を参
照する。図18は、動静情報が「静止」である認識対象
物を処理するフローチャートであり、この処理によれ
ば、動静情報が「静止」である認識対象物を参照し(ス
テップS91)、もしあれば登録フラグをオフとする
(ステップS93)。この登録フラグは、認識対象物の
中の特定点を追従できているかどうかを表わすフラグで
ある。すなわち、前の処理画面と今回の処理画面との間
で、認識対象物の中の1点でも特定点が追従できていれ
ば、その認識対象物については、登録フラグはオンにさ
れる。
In the next processing cycle, if the object to be recognized is registered, steps S74 to S81 are performed.
To check the movement information in the recognition object registration table. First, reference is made to a recognition target whose movement information is “still”. FIG. 18 is a flowchart for processing a recognition target whose moving / moving information is “still”. According to this processing, a recognition target whose moving / moving information is “still” is referred to (step S91). The registration flag is turned off (step S93). This registration flag is a flag indicating whether or not a specific point in the recognition target object can be followed. That is, if at least one specific point in the recognition target can be followed between the previous processing screen and the current processing screen, the registration flag is turned on for the recognition target.

【0125】そして参照された認識対象物について、特
定点登録テーブルを使って特定点を参照する(ステップ
S94)。特定点があれば、1つの特定点について、前
記(61)式に従って、本周期の特定点の位置(X,Y,
Z)を推定し、これに基づいて、本周期における画面上
での特定点の位置(x′,y′)を前記(63)式及び(64)
式に従って推定する(ステップS96)。そして、新し
い画像データから認識対象物を認識し、パターン情報を
調べ、特定点を調べ周辺画像の特徴を調べる(ステップ
S97)。この場合、特定点を調べるのに、登録が確認
されている認識対称物の輪郭情報とその内部をマスクし
た画像データのみを使用することにより、処理時間の短
縮を図ることができる。そして車両の走行速度、進行方
向の変化、及び姿勢パラメータの信頼度を参照し、前述
したように推定位置の誤差範囲σの大きさを求め、この
誤差範囲σの中に前記特定点があるかどうかを、周辺画
像の特徴の異動をチェックしながら探索する(ステップ
S98)。この探索に際しては、探索範囲を誤差範囲σ
の中に限ることとしたので、特定点の探索時間を短くす
ることができるという利点がある。ここで周辺画像の特
徴のチェック基準を述べると、特定点が認識対象物の画
像の輪郭線上に設定されている場合は、輪郭線の方向が
ほぼ一致し、かつ、輪郭線の両側の画像の特徴がほぼ一
致することである。特定点が認識対象物の画像の輪郭線
の一方の側に設定されている場合は、輪郭線の一方の側
の画像の特徴がほぼ一致することである。
Then, for the referenced recognition target, a specific point is referenced using a specific point registration table (step S94). If there is a specific point, the position (X, Y,
Z) is estimated, and based on this, the position (x ′, y ′) of the specific point on the screen in the main cycle is calculated using the above-described formulas (63) and (64).
It is estimated according to the equation (step S96). Then, the recognition target is recognized from the new image data, the pattern information is checked, the specific point is checked, and the feature of the peripheral image is checked (step S97). In this case, the processing time can be shortened by using only the outline information of the recognized symmetric object whose registration has been confirmed and the image data in which the inside thereof has been masked to check the specific point. Then, referring to the reliability of the traveling speed, the change in the traveling direction, and the attitude parameter of the vehicle, the magnitude of the error range σ of the estimated position is obtained as described above, and whether the specific point exists in the error range σ A search is made as to whether or not the feature of the peripheral image has been changed (step S98). In this search, the search range is set to the error range σ
, There is an advantage that the search time for a specific point can be shortened. Here, a check criterion of the feature of the peripheral image is described. When a specific point is set on the contour of the image of the recognition target object, the directions of the contours are almost the same, and the images on both sides of the contour are The features are almost the same. When the specific point is set on one side of the outline of the image of the recognition target, the features of the image on one side of the outline are almost the same.

【0126】もし周辺画像の特徴の等しい特定点、又は
周辺画像の特徴が許容範囲内に入っている特定点が存在
すれば(ステップS99)、登録フラグをオンにし(ス
テップS100)、その特定点の空間位置座標(X,
Y,Z)、空間位置変化、周辺画像の特徴を特定点登録
テーブルの上で新しい値に更新する(ステップS10
1)。そして、当該特定点の空間位置変化が一定範囲内
に納まっているかどうかを調べる(ステップS10
2)。この一定範囲は、認識対象物が動いているか静止
しているかを判定するためのもので、例えばX,Y,Z
空間の原点を中心とする球又は回転楕円体とすることが
できる。球又は回転楕円体の半径は、実際に車両を走行
させて、種々の認識対象物についてこの処理を行って最
も妥当な値を求めればよい。納まっていない場合は、当
該認識対象物の動静情報を「移動」に変更する(ステッ
プS103)。
If there is a specific point having the same characteristic of the peripheral image or a specific point having the characteristic of the peripheral image within the allowable range (step S99), the registration flag is turned on (step S100), and the specific point is set. Spatial position coordinates (X,
(Y, Z), spatial position change, and features of the peripheral image are updated to new values on the specific point registration table (step S10).
1). Then, it is checked whether or not the change in the spatial position of the specific point falls within a certain range (step S10).
2). This fixed range is for determining whether the recognition target is moving or stationary, and for example, X, Y, Z
It can be a sphere or spheroid centered on the origin of space. The most appropriate value for the radius of the sphere or spheroid may be obtained by actually running the vehicle and performing this processing for various recognition targets. If not, the motion information of the recognition target object is changed to “movement” (step S103).

【0127】なお、ステップS99で、誤差範囲σの中
に特定点が存在しない場合、特定点の空間位置座標等を
特定点登録テーブルの上で更新しないで、ステップS9
4に戻っているが、これに代えて、探索された特定点の
位置(x′,y′)が画面内に存在する限り、この位置
(x′,y′)を使って空間位置座標等を求めることに
より、特定点登録テーブルの内容を更新してもよい。
If the specific point does not exist in the error range σ in step S99, the spatial position coordinates and the like of the specific point are not updated on the specific point registration table, and the process proceeds to step S9.
4, but instead, as long as the position (x ', y') of the searched specific point exists in the screen, the position (x ', y') is used to determine spatial position coordinates and the like. , The content of the specific point registration table may be updated.

【0128】また、ステップS99で、誤差範囲σの中
に特定点が存在しない場合、特定点の空間位置座標等を
特定点登録テーブルの上で更新しないで、ステップS9
4に戻っているが、これに代えて、前記(63)式及び(64)
式に従って推定された特定点の位置(x′,y′)が画
面内に存在する限り、この位置(x′,y′)を特定点
の位置とみなし、この位置を使って空間位置座標等を求
めることにより、特定点登録テーブルの内容を更新して
もよい。
If the specific point does not exist in the error range σ in step S99, the spatial position coordinates and the like of the specific point are not updated on the specific point registration table, and the process proceeds to step S9.
4, but instead of this, the equations (63) and (64)
As long as the position (x ', y') of the specific point estimated according to the equation exists in the screen, the position (x ', y') is regarded as the position of the specific point, and the position is used as a spatial position coordinate. , The content of the specific point registration table may be updated.

【0129】また、ステップS98で、誤差範囲σの中
の特定点を探索するときに、誤差範囲σ自体が、他の認
識対象物の後ろにマスクされてしまったときは、誤差範
囲σの中の探索をしても特定点見つからないので、誤
差範囲σの中を探索するまでもなく、前記(63)式及び(6
4)式に従って推定された特定点の位置(x′,y′)を
特定点の位置とみなして追従を続行することが望まし
い。なお、マスクされたかどうかの事実は、特定点登録
テーブルの空間位置座標(X,Y,Z)を使って判定す
ることができる。
In step S98, when searching for a specific point in the error range σ, if the error range σ itself is masked behind another recognition target, the error range σ Since no specific point is found even when the search is performed, it is not necessary to search within the error range σ.
It is desirable that the position (x ', y') of the specific point estimated according to the expression (4) is regarded as the position of the specific point, and the tracking is continued. The fact of whether or not the mask has been made can be determined using the spatial position coordinates (X, Y, Z) of the specific point registration table.

【0130】当該認識対象物の特定点のすべてについて
以上の処理をすると、ステップS104に進み、登録フ
ラグがオンになっているかどうかを調べ(ステップS1
04)、オンになっていれば、当該認識対象物のパター
ン情報を調べて、認識対象物の種類や色調が認識対象物
登録テーブルのパターン情報と一致するかどうか判定す
る(ステップS105)。一致するか、許容範囲内に収
まっていれば、当該認識対象物の追従に成功したとし
て、ステップS91に戻り、静止している他の認識対象
物について同様の処理を繰り返す。
When the above processing has been performed for all the specific points of the recognition object, the flow advances to step S104 to check whether or not the registration flag is turned on (step S1).
04) If it is turned on, the pattern information of the recognition target is checked to determine whether the type or color tone of the recognition target matches the pattern information in the recognition target registration table (step S105). If they match or fall within the permissible range, it is determined that the tracking of the target object has succeeded, and the process returns to step S91 to repeat the same process for another stationary target object.

【0131】登録フラグがオンになっていない場合は、
新しい画像では、当該認識対象物の特定点が推定位置の
誤差範囲σの中にまったく存在しなかったということで
あるので、当該認識対象物を見失ったと判断しその登録
を抹消する(ステップS106)。また、当該認識対象
物のパターン情報の相違が許容範囲内に収まっていない
場合も、当該認識対象物を見失ったと判断しその登録を
抹消する(ステップS106)。
If the registration flag is not turned on,
In the new image, it is determined that the specific point of the object to be recognized did not exist at all in the error range σ of the estimated position. Therefore, it is determined that the object to be recognized has been lost, and the registration is deleted (step S106). . Also, when the difference in the pattern information of the recognition target object does not fall within the allowable range, it is determined that the recognition target object has been lost, and the registration thereof is deleted (step S106).

【0132】すべての静止認識対象物について処理が終
われば、図19の、動静情報が「移動」である認識対象
物を処理するフローに進む。この処理によれば、動静情
報が「移動」である各認識対象物を参照し(ステップS
111)、もし移動認識対象物があれば登録フラグ、移
動フラグをオフとする(ステップS113)。この移動
フラグは、認識対象物が移動しているか静止しているか
を表わすフラグである。
When the processing has been completed for all still recognition objects, the flow proceeds to the flow of FIG. 19 for processing the recognition objects whose movement information is “movement”. According to this processing, each recognition target whose movement information is “movement” is referred to (Step S).
111), if there is a movement recognition object, the registration flag and the movement flag are turned off (step S113). This movement flag is a flag indicating whether the recognition target is moving or stationary.

【0133】認識対象物について、特定点登録テーブル
を参照して特定点を取り出す(ステップS114)。特
定点があれば、前記(65)式により、移動する特定点の2
次元位置を推定し(ステップS116)、新しい画像デ
ータから認識対象物を認識し、パターン情報、特定点、
周辺画像の特徴を調べ(ステップS117)、特定点が
推定点の周りの誤差範囲σの中にあるかどうか探索する
(ステップS118)。この探索に際しては、探索範囲
を誤差範囲σの中に限ることとしたので、探索時間を短
くすることができるという利点がある。誤差範囲σの中
に周辺画像の特徴が同じであるが、相違していても許容
範囲内に収まっている特定点が存在すれば(ステップS
119)、登録フラグをオンにし(ステップS12
0)、その特定点の空間位置座標(X,Y,Z)、空間
位置変化、周辺画像の特徴を特定点登録テーブルの上で
新しいデータに更新する(ステップS121)。そし
て、当該特定点の空間位置変化が一定範囲内、例えば
X,Y,Z空間の原点を中心とする球内に納まっている
かどうかを調べ(ステップS122)、納まっていない
場合は、移動フラグをオンにする(ステップS12
3)。
With respect to the object to be recognized, a specific point is extracted with reference to the specific point registration table (step S114). If there is a specific point, according to the above equation (65), two
The dimension position is estimated (step S116), the recognition target is recognized from the new image data, and the pattern information, the specific point,
The feature of the peripheral image is checked (step S117), and it is searched whether the specific point is within the error range σ around the estimated point (step S118). In this search, since the search range is limited to the error range σ, there is an advantage that the search time can be shortened. If there is a specific point in the error range σ where the features of the peripheral images are the same but different but within the allowable range (step S
119), the registration flag is turned on (step S12)
0), the spatial position coordinates (X, Y, Z), spatial position change, and characteristics of the peripheral image of the specific point are updated to new data on the specific point registration table (step S121). Then, it is checked whether or not the change in the spatial position of the specific point is within a certain range, for example, within a sphere centered at the origin of the X, Y, and Z spaces (step S122). Turn on (step S12
3).

【0134】当該認識対象物の特定点のすべてについ
て、以上の処理をすると、ステップS124に進み、登
録フラグがオンになっているかどうかを調べ(ステップ
S124)、オンになっていれば、当該認識対象物のパ
ターン情報を調べて、認識対象物登録テーブルのパター
ン情報と比較する(ステップS125)。同じである
か、類似していれば、移動フラグがオンになっているか
どうかを調べる(ステップS126)。移動フラグがオ
ンになっていなければ、当該認識対象物は動いていなか
ったと判断できるので、動静情報を「静止」に変更する
が、移動フラグがオンになっていれば、当該認識対象物
は依然として動いていると判断できるので、動静情報を
変更せず、いずれの場合も当該認識対象物の追従に成功
したとして、ステップS111に戻り、移動している他
の認識対象物について同様の処理を繰り返す。
When the above processing is performed for all the specific points of the object to be recognized, the flow advances to step S124 to check whether or not the registration flag is turned on (step S124). The pattern information of the object is checked and compared with the pattern information of the recognition object registration table (step S125). If they are the same or similar, it is checked whether the movement flag is on (step S126). If the movement flag is not turned on, it can be determined that the recognition target object has not moved, so the movement information is changed to “still”, but if the movement flag is on, the recognition target object is still Since it can be determined that the object is moving, the movement information is not changed, and in any case, the tracking of the object to be recognized is determined to be successful, the process returns to step S111, and the same processing is repeated for the other object to be moved. .

【0135】ステップS124で登録フラグがオンにな
っていない場合は、新しい画像では、当該認識対象物の
特定点が推定位置の誤差範囲σの中にまったく存在しな
かったということであるので、当該認識対象物を見失っ
たと判断しその登録を抹消する(ステップS128)。
また、当該認識対象物のパターン情報が違っていても、
当該認識対象物を見失ったと判断しその登録を抹消する
(ステップS128)。
If the registration flag is not turned on in step S124, it means that the specific point of the object to be recognized did not exist at all in the error range σ of the estimated position in the new image. It is determined that the object to be recognized has been lost, and its registration is deleted (step S128).
Also, even if the pattern information of the recognition target object is different,
It is determined that the recognition target object has been lost, and the registration is deleted (step S128).

【0136】すべての移動する認識対象物について処理
が終われば、図20の、動静情報が「不明」である認識
対象物を処理するフローチャートに移る。この処理によ
れば、動静情報が「不明」である各認識対象物を参照し
(ステップS131)、もしあれば不明の認識対象物が
あれば、移動フラグをオフとする(ステップS13
3)。そして、一時記憶データ(特定点の空間位置等を
一時記憶するデータ)をクリアし(ステップS13
4)、認識対象物について、特定点登録テーブルを参照
して特定点の有無を調べる(ステップS135)。特定
点があれば、その特定点が静止していると仮定して、前
記(61)式により、静止する特定点の2次元位置を推定す
る(ステップS137)。特定点が静止していると仮定
するのは、この処理が動静情報が「不明」である認識対
象物を対象としているので、とりあえずは特定点が静止
しているとして前記(61)式により推定位置を求め、静止
する認識対象物の追従を試みようとしたからである。そ
して、新しい画像データから認識対象物を認識し、パタ
ーン情報、特定点、特定点の周辺画像の特徴を調べ(ス
テップS138)、調べた特定点が誤差範囲σの中にあ
るかどうか探索する(ステップS139)。
When the processing has been completed for all the moving recognition objects, the flow moves to the flowchart of FIG. 20 for processing the recognition objects whose movement information is “unknown”. According to this process, each recognition target whose movement information is "unknown" is referred to (step S131). If there is any unknown recognition target, the movement flag is turned off (step S13).
3). Then, the temporary storage data (data for temporarily storing the spatial position and the like of the specific point) is cleared (step S13).
4) The presence / absence of a specific point is checked for the recognition target object with reference to the specific point registration table (step S135). If there is a specific point, it is assumed that the specific point is stationary, and the two-dimensional position of the specific point to be stationary is estimated by the equation (61) (step S137). Since it is assumed that the specific point is stationary, since this processing is performed on a recognition target whose movement information is `` unknown '', it is estimated by the above equation (61) that the specific point is stationary for the time being. This is because the position is determined and an attempt is made to follow the stationary recognition target object. Then, the recognition target is recognized from the new image data, the pattern information, the specific point, and the features of the peripheral image of the specific point are checked (step S138), and it is searched whether the checked specific point is within the error range σ (step S138). Step S139).

【0137】誤差範囲σの中に周辺画像の特徴が同一で
あるか、よく似ている特定点が存在すれば(ステップS
140)、静止する特定点を特定することに成功したと
いうことになり、その特定点の空間位置座標(X,Y,
Z)、空間位置変化、周辺画像の特徴を記憶部17の中
にある所定のバッファ領域に一時記憶する(ステップS
141)。そして、当該特定点の空間位置変化が一定範
囲内に納まっているかどうかを調べ(ステップS14
2)、納まっていない場合は、移動フラグをオンにする
(ステップS143)。
If there is a specific point in the error range σ where the features of the peripheral images are the same or very similar (step S
140), which means that the specific point at which the still point has been stopped has been successfully specified, and the spatial position coordinates (X, Y,
Z), changes in spatial position, and features of the peripheral image are temporarily stored in a predetermined buffer area in the storage unit 17 (step S).
141). Then, it is determined whether or not the change in the spatial position of the specific point falls within a certain range (step S14).
2) If not, the moving flag is turned on (step S143).

【0138】当該認識対象物の特定点のすべてについ
て、以上の処理をすると、ステップS144に進み、当
該認識対象物のパターン情報を調べて、認識対象物登録
テーブルのパターン情報と比較する(ステップS14
5)。同じか、又は類似していれば、一時記憶された特
定点の前記空間位置座標(X,Y,Z)、空間位置変
化、周辺画像の特徴を特定点登録テーブルに登録する
(ステップS145)。そして、移動フラグがオンにな
っているかどうかを調べ(ステップS146)、オンに
なっていなければ当該認識対象物の動静情報を「静止」
にし(ステップS147)、オンになっていれば当該認
識対象物の動静情報を「移動」にする(ステップS14
8)。
After performing the above processing for all the specific points of the recognition target, the process proceeds to step S144, where the pattern information of the recognition target is checked and compared with the pattern information of the recognition target registration table (step S14).
5). If they are the same or similar, the spatial position coordinates (X, Y, Z) of the temporarily stored specific point, the spatial position change, and the feature of the peripheral image are registered in the specific point registration table (step S145). Then, it is checked whether or not the movement flag is turned on (step S146), and if not, the movement information of the recognition target object is “still”.
(Step S147), and if it is turned on, the movement information of the recognition target object is set to “move” (Step S14).
8).

【0139】さらに、ステップS140で誤差範囲σの
中に新しい画像の特定点が存在しないか、又はステップ
S144でパターン情報が一致しない場合は、当該認識
対象物の登録を抹消するのではなく、当該認識対象物の
情報をワークエリアに記憶させ(ステップS149)、
図21のフローチャートに進む。図21の処理では、ワ
ークエリアに記憶された認識対象物に対して、もう一度
認識処理(一種の敗者復活処理)を行う。
Further, when there is no specific point of the new image in the error range σ in step S140, or when the pattern information does not match in step S144, the registration of the object to be recognized is not deleted. The information of the recognition target is stored in the work area (step S149),
Proceed to the flowchart in FIG. In the processing of FIG. 21, the recognition processing (a kind of loser resurrection processing) is performed again on the recognition target stored in the work area.

【0140】この処理を行う意味を説明すると、次のよ
うになる。この処理の処理対象は、図17のステップS
77で動静情報が「不明」とされ、かつ図20のステッ
プS137の静止する認識対象物の追従にも失敗してい
る認識対象物である。つまり、本処理の対象である認識
対象物は、移動するものであり、かつ、認識対象物の運
動特性が未知のものである。よって、移動認識対象物の
位置の時間的な変化を考慮した前記(65)式を用いること
ができない。そこで、図21の処理では、誤差範囲σを
推定してその中で特定点を探索するのをあきらめ、探索
の範囲を画面全体に広げることとした。これにより、認
識対象物が予期しない位置にあってもかなりの精度でそ
の認識対象物をとらえることが期待できる。
The meaning of performing this processing will be described as follows. The processing target of this processing is step S in FIG.
At 77, the motion information is “unknown” and the recognition target object that has failed to follow the stationary recognition object at step S137 in FIG. That is, the recognition target object to be processed is a moving object, and the motion characteristics of the recognition target object are unknown. Therefore, it is not possible to use the above equation (65) in which the temporal change of the position of the movement recognition target is considered. Therefore, in the process of FIG. 21, it is determined that the error range σ is estimated and a search for a specific point is abandoned, and the search range is extended to the entire screen. As a result, even if the recognition target is at an unexpected position, it can be expected that the recognition target can be captured with considerable accuracy.

【0141】まず、ワークエリアに記憶された認識対象
物のデータを参照する(ステップS151)。次に画面
内の認識対象物の認識を行って、特定点を画面から探索
する(ステップS153)。そして周辺画像の特徴をチ
ェックしながら、ワークエリアに記憶された認識対象物
の特定点が、画面の中にすべて存在するかどうか判定す
る(ステップS154)。認識対象物の特定点がすべて
存在するのであれば(ステップS154)、当該認識対
象物のパターン情報の一致不一致を判断する(ステップ
S155)。パターン情報が一致していれば、認識対象
物の追従に成功したとして、特定点の空間位置座標
(X,Y,Z)、空間位置変化、周辺画像の特徴を特定
点登録テーブルに登録し(ステップS157)、当該認
識対象物の動静情報を「移動」にする(ステップS15
8)。移動にする理由は、もし静止しているとしたら、
図18や図20の処理で認識対象物の追従に成功してい
るはずだから、移動の場合しか考えられないからであ
る。なお、認識対象物の特定点が1点でも欠けたとき、
又は当該認識対象物のパターン情報が一致しないとき
は、ステップS156においてその認識対象物の登録を
抹消する。特定点が1点でも欠けたときは、登録を抹消
するのは、認識ミスを起こす可能性が高いためである。
First, the data of the recognition target stored in the work area is referred to (step S151). Next, a recognition target in the screen is recognized, and a specific point is searched from the screen (step S153). Then, while checking the features of the peripheral image, it is determined whether or not all the specific points of the recognition target stored in the work area exist in the screen (step S154). If all the specific points of the recognition target exist (step S154), it is determined whether the pattern information of the recognition target matches or not (step S155). If the pattern information matches, it is determined that the tracking of the recognition target has succeeded, and the spatial position coordinates (X, Y, Z) of the specific point, the spatial position change, and the characteristics of the peripheral image are registered in the specific point registration table ( (Step S157), the movement information of the recognition target object is set to “move” (step S15).
8). The reason for moving is that if you ’re stationary,
This is because the tracking of the recognition target object must have succeeded in the processing of FIGS. 18 and 20, and only the case of movement can be considered. In addition, when even one specific point of the recognition target object is missing,
Alternatively, when the pattern information of the recognition target does not match, the registration of the recognition target is deleted in step S156. If even one specific point is missing, the registration is deleted because there is a high possibility that a recognition error will occur.

【0142】ワークエリアに記憶された認識対象物のす
べてについて、前述の処理をして終了すれば、画像デー
タの中に未だ認識されていない認識対象物があるかどう
かを探索し(ステップS159)、新たな認識対象物が
あれば(ステップS160)図17のステップS76に
進み、そのパターン情報を書き込み(ステップS7
6)、動静情報を「不明」として登録し(ステップS7
7)、特定点を設定してその数を登録し(ステップS7
8)、特定点の空間位置座標(X,Y,Z)と、「特定
点の周辺画像の特徴」を特定点登録テーブルに登録し
(ステップS79)、前の処理周期と比較した特定点の
空間位置変化を不明として登録する。
If the above-described processing is completed for all the recognition targets stored in the work area, it is searched whether there is any recognition target that has not yet been recognized in the image data (step S159). If there is a new object to be recognized (step S160), the flow advances to step S76 in FIG. 17 to write the pattern information (step S7).
6) Register the movement information as "unknown" (step S7)
7) Set a specific point and register the number (step S7)
8) The spatial position coordinates (X, Y, Z) of the specific point and the "characteristics of the peripheral image of the specific point" are registered in the specific point registration table (step S79), and the specific point is compared with the previous processing cycle. Register the spatial position change as unknown.

【0143】新たな認識対象物がなければ(ステップS
160)、図17の「リターン」へ進む。
If there is no new object to be recognized (step S
160), and proceed to “return” in FIG.

【0144】[0144]

【発明の効果】以上のように請求項1記載の発明によれ
ば、車両の周辺に存在する各認識対象物に対応して特定
点という概念を導入し、その特定点の空間的な位置を求
メモリに登録しておき、車両の走行等に基づく特定点
の空間的な位置の変化を予測し、この近傍の誤差範囲の
内から、後の画面で、同一の特定点が存在するかどうか
を判定することとした。
According to the invention of claim 1 Symbol placement as the foregoing, introduces the concept of a specific point corresponding to each recognition object existing around the vehicle, the spatial position of the specific point Is calculated in the memory, and a change in the spatial position of the specific point based on the traveling of the vehicle or the like is predicted. It was decided whether or not.

【0145】したがって、認識対象物を追従することが
できる。また、画面上の誤差範囲内という限られた場所
で特定点を探索すればよいので処理時間も少なくて済
む。請求項記載の発明によれば、後の処理周期におけ
る特定点の空間的な位置を予測する場合に、認識対象物
の挙動を推定した上で特定点の空間的な位置の変化を予
測するので、認識対象物が移動している場合であっても
認識対象物を効率よく追従することができる。
Therefore, the object to be recognized can be followed. Further, since it is sufficient to search for a specific point in a limited place within the error range on the screen, the processing time can be reduced. According to the fifth aspect of the invention, when predicting the spatial position of a specific point in a later processing cycle, the behavior of the recognition target is estimated, and then the change in the spatial position of the specific point is predicted. Therefore, even when the recognition target is moving, the recognition target can be efficiently followed.

【0146】請求項記載の発明によれば、特定点を探
索できなかったときには、前記誤差範囲を超えたより広
い範囲内で、同一の特定点が存在するかどうかを判定す
るので、処理時間の増大を防ぐことができる。
According to the eighth aspect of the invention, when a specific point cannot be searched, it is determined whether or not the same specific point exists within a wider range than the error range. An increase can be prevented.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例が適用された画像認識処理シ
ステムの構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image recognition processing system to which an embodiment of the present invention has been applied.

【図2】車載カメラによって撮像された画像例を示す図
である。
FIG. 2 is a diagram illustrating an example of an image captured by a vehicle-mounted camera.

【図3】図2の画像から直線候補点を結ぶことによって
得られる直線部分を抽出した図である。
FIG. 3 is a diagram extracting a straight line portion obtained by connecting straight line candidate points from the image of FIG. 2;

【図4】Hough変換を説明するための図である。FIG. 4 is a diagram for explaining Hough transform.

【図5】Hough変換処理を2回繰り返して道路消失点を
求めるための処理を説明するための図である。
FIG. 5 is a diagram illustrating a process for obtaining a road vanishing point by repeating a Hough transform process twice.

【図6】道路消失点の簡易算出方法を説明するための図
である。
FIG. 6 is a diagram for explaining a simple calculation method of a road vanishing point.

【図7】車載カメラのヨー角算出処理を説明するための
フローチャートである。
FIG. 7 is a flowchart illustrating a yaw angle calculation process of the vehicle-mounted camera.

【図8】車載カメラのヨー角算出処理を説明するための
フローチャート(図7の続き)である。
8 is a flowchart (continued from FIG. 7) for explaining the yaw angle calculation processing of the vehicle-mounted camera.

【図9】車載カメラのピッチ角算出処理を説明するため
のフローチャートである。
FIG. 9 is a flowchart illustrating a pitch angle calculation process of the vehicle-mounted camera.

【図10】車載カメラの横ずれ距離算出処理を説明する
ためのフローチャートである。
FIG. 10 is a flowchart illustrating a lateral displacement distance calculation process of the vehicle-mounted camera.

【図11】車載カメラの横ずれ距離算出処理を説明する
ためのフローチャート(図10の続き)である。
11 is a flowchart (continued from FIG. 10) for explaining the lateral displacement distance calculation processing of the vehicle-mounted camera.

【図12】前方の認識対象物に定義された特定点及びそ
の推定位置の近傍の誤差範囲σを示す図である。
FIG. 12 is a diagram showing a specific point defined on a recognition object ahead and an error range σ near an estimated position thereof.

【図13】実際に次の処理周期で特定点が誤差範囲σの
中に見出されたことを示す図である。
FIG. 13 is a diagram showing that a specific point is actually found in the error range σ in the next processing cycle.

【図14】車載カメラによって撮像される前方画像例を
示す図である。
FIG. 14 is a diagram illustrating an example of a front image captured by a vehicle-mounted camera.

【図15】図14の画像を処理して認識対象物の輪郭を
抽出し、その輪郭の角又は内部に特定点に設定した状態
を示す図である。
FIG. 15 is a diagram illustrating a state in which the image of FIG. 14 is processed to extract a contour of the recognition target object, and a specific point is set at a corner or inside the contour.

【図16】図16(a) は、他車両の左後輪の端の特定点
1 及び一定の範囲D1 、並びに左バックライトの中の
特定点Q2 及び一定の範囲D2 を示す図であり、同図
(b)は、一定の範囲D1 及びこの中の特定点Q1 を切り
出した図であり、同図(c) は、一定の範囲D2 及びこの
中の特定点Q2 を切り出した図である。
[16] FIG. 16 (a) shows, the specific point Q 1 and a certain range D 1 of the end of the left rear wheel of the other vehicle, as well as the specific point Q 2 and a certain range D 2 in the left backlight FIG.
(b) is a view cut out a specific point to Q 1 in a certain range D 1 and this, FIG. (c) is a view obtained by cutting out specific point Q 2 in a certain range D 2 and this is there.

【図17】認識対象物の追従認識処理の手順を説明する
フローチャートである。
FIG. 17 is a flowchart illustrating a procedure of a tracking recognition process of a recognition target object.

【図18】認識対象物の追従認識処理の手順を説明する
フローチャート(図17の続き)である。
FIG. 18 is a flowchart (continuation of FIG. 17) for explaining the procedure of the tracking recognition processing of the recognition target object.

【図19】認識対象物の追従認識処理の手順を説明する
フローチャート(図18の続き)である。
FIG. 19 is a flowchart (continuation of FIG. 18) for explaining the procedure of the tracking recognition processing of the recognition target object.

【図20】認識対象物の追従認識処理の手順を説明する
フローチャート(図19の続き)である。
20 is a flowchart (continued from FIG. 19) illustrating the procedure of the tracking recognition processing of the recognition target object.

【図21】認識対象物の追従認識処理の手順を説明する
フローチャート(図20の続き)である。
21 is a flowchart (continuation of FIG. 20) for explaining the procedure of the tracking recognition processing of the recognition target object.

【符号の説明】[Explanation of symbols]

1 画像認識処理装置 2 位置検出処理装置 11 車載カラーカメラ 13 画像処理回路 15 認識処理部 17 記憶部 21 距離センサ 22 方位センサ 25 位置検出処理部 27 道路地図メモリ 28 記憶部 29 表示部 Reference Signs List 1 image recognition processing device 2 position detection processing device 11 in-vehicle color camera 13 image processing circuit 15 recognition processing unit 17 storage unit 21 distance sensor 22 direction sensor 25 position detection processing unit 27 road map memory 28 storage unit 29 display unit

フロントページの続き (58)調査した分野(Int.Cl.6,DB名) H04N 7/18 B60R 21/00 B60K 31/00 G06T 7/20 Continuation of front page (58) Fields investigated (Int. Cl. 6 , DB name) H04N 7/18 B60R 21/00 B60K 31/00 G06T 7/20

Claims (9)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】車両に搭載された車載カメラで車両の周囲
を撮像し、撮像された画像に基づいて車両が走行する道
路周辺の物体を追従認識するための装置であって、 車載カメラによって車両の前方又は後方を撮像して、処
理周期ごとにディジタル画像信号に変換する画像処理手
段と、 画像処理手段から得られる変換画像に基づいて、画面内
の1つ又は複数の認識対象物の輪郭を抽出し、各認識対
象物に対応して、その位置が決まれば認識対象物の位置
が決定されるという1つ又は複数の特定点の画面上の座
標を決定し、特定点の周辺の画像の特徴とともにメモリ
に登録する登録手段と、 画面上の座標が決定され登録手段により登録された特定
点の座標を、車載カメラの姿勢パラメータを用いて、特
定点の空間的な位置に変換する空間座標変換手段と、 空間座標変換手段により変換された特定点の空間的な位
置と、各種センサからの信号に基づいて車両の位置を検
出する位置検出処理装置の出力データに含まれる車両の
走行距離データと方位データとから、後の処理周期にお
ける特定点の空間的な位置を予測し、この位置に対応す
る特定点の画面上の座標を推定する推定手段と、 画像処理手段から、後の処理周期における変換画像が得
られた場合に、推定手段により推定された画面上の座標
の周辺の誤差範囲内で、同一の特定点が存在するかどう
かを判定する判定手段とを備え、 判定手段により同一の特定点が存在すると判定された場
合は、その特定点の空間的な位置を求めることにより認
識対象物を追従し、判定手段により同一の特定点が、当
該認識対象物について存在しないと判定された場合は、
当該認識対象物に対応する登録を抹消することを特徴と
する対象物の追従認識装置。
An apparatus for capturing an image of the periphery of a vehicle with a vehicle-mounted camera mounted on the vehicle and following and recognizing an object around a road on which the vehicle travels based on the captured image. Image processing means for capturing an image of the front or rear of the object and converting the digital image signal into digital image signals at each processing cycle. Based on the converted image obtained from the image processing means, an outline of one or a plurality of recognition targets in the screen is displayed. Extracting, corresponding to each recognition target, determining the coordinates of one or more specific points on the screen that the position of the recognition target is determined if the position is determined, and determining the coordinates of the image around the specific point. Registration means for registering in the memory together with the feature; spatial coordinates for determining coordinates on the screen and converting the coordinates of the specific point registered by the registration means into the spatial position of the specific point using the attitude parameter of the vehicle-mounted camera. conversion And a step, the spatial position of the specific point converted by the spatial coordinate conversion means, and the traveling distance data of the vehicle included in the output data of the position detection processing device that detects the position of the vehicle based on signals from various sensors. Estimating means for predicting the spatial position of a specific point in a later processing cycle from the azimuth data and estimating coordinates on the screen of the specific point corresponding to this position; and And determining means for determining whether or not the same specific point exists within an error range around coordinates on the screen estimated by the estimation means when the converted image is obtained. When it is determined that the specific point exists, the recognition target is followed by obtaining the spatial position of the specific point, and the same specific point does not exist for the recognition target by the determination unit. If it is constant,
A tracking and recognizing device for an object, wherein registration corresponding to the object to be recognized is deleted.
【請求項2】認識対象物に複数の特定点が存在する場合
に、前記判定手段により誤差範囲内に少なくとも1つの
特定点が存在すると判定された場合は、その認識対象物
を追従し、誤差範囲内にいずれの特定点も存在しないと
判定された場合は、その認識対象物に対応する登録を抹
消することを特徴とする請求項記載の対象物の追従認
識装置。
2. When a plurality of specific points are present in a recognition target object, and when the determination means determines that at least one specific point exists within an error range, the recognition target object is followed and the error is tracked. If it is determined that there is no any particular point in the range, follow-up recognition apparatus of claim 1 object, wherein the unregistering corresponding to the recognition object.
【請求項3】認識対象物に複数の特定点が存在する場合
に、前記判定手段により誤差範囲内にすべての特定点が
存在すると判定された場合のみ、その認識対象物を追従
し、誤差範囲内にいずれかの特定点が存在しないと判定
された場合は、その認識対象物に対応する登録を抹消す
ることを特徴とする請求項記載の対象物の追従認識装
置。
3. When a plurality of specific points are present in a recognition target, the recognition target is followed only when the determination means determines that all the specific points exist within the error range. either if the specific point is determined that there is no follow-up recognition apparatus of claim 1 object, wherein the unregistering corresponding to the recognition object within.
【請求項4】前記登録手段に、各認識対象物を見分ける
ためのパターン情報も登録しておき、 判定手段により同一の特定点が存在すると判定された場
合は、さらに登録手段に登録されたパターン情報との一
致をも判定して、一致しないと判定された場合は、当該
認識対象物に対応する登録を抹消することを特徴とする
請求項記載の対象物の追従認識装置。
4. Registering pattern information for discriminating each object to be recognized in the registering means, and when the determining means determines that the same specific point exists, the pattern information registered in the registering means is further registered. It determines also consistent with the information, if it is determined that they do not match, follow-up recognition device of the object of claim 1, wherein the unregistering corresponding to the recognition object.
【請求項5】前記の推定手段は、空間座標変換手段によ
り変換された特定点の空間的な位置と、その前の処理周
期で決定された特定点の空間的な位置とから特定点の空
間位置変化を求め、この変化が一定範囲内にあれば、特
定点に係る認識対象物は静止していると判定し、この変
化が一定範囲外にあれば、特定点に係る認識対象物は移
動していると判定し、 特定点に係る認識対象物が移動していると判定された場
合には、後の処理周期における特定点の空間的な位置を
求めるときには、この特定点の位置変化を考慮して特定
点の空間的な位置を求めるものである請求項記載の対
象物の追従認識装置。
5. The method according to claim 1, wherein the estimating unit calculates a spatial position of the specific point based on a spatial position of the specific point converted by the spatial coordinate converting unit and a spatial position of the specific point determined in a preceding processing cycle. The position change is obtained, and if the change is within a certain range, the recognition target object relating to the specific point is determined to be stationary.If the change is outside the certain range, the recognition target object relating to the specific point moves. When it is determined that the recognition target object related to the specific point is moving, when determining the spatial position of the specific point in a later processing cycle, the position change of the specific point is determined. follow-up recognition device of the spatial position and requests the claim 1 object of the description of a particular point in consideration.
【請求項6】前記推定手段は、認識対象物に複数の特定
点が存在する場合に、少なくとも1つの特定点について
前記位置変化が一定範囲外にあれば、特定点に係る認識
対象物は移動していると判定し、すべての特定点につい
て前記位置変化が一定範囲内にあれば、識対象物は静止
していると判定する請求項記載の対象物の追従認識装
置。
6. When a plurality of specific points are present in the object to be recognized, if the position change of at least one of the specific points is out of a predetermined range, the estimating means moves the object to be recognized at the specific point. The tracking and recognizing device for an object according to claim 5 , wherein the object is determined to be stationary, and if the position change is within a certain range for all the specific points, the object to be recognized is determined to be stationary.
【請求項7】前記推定手段は、前の処理周期で特定点の
空間的な位置が求められていない場合には、認識対象物
は静止しているとみなして特定点の空間的な位置を求め
るものである請求項記載の対象物の追従認識装置。
7. When the spatial position of a specific point has not been determined in the previous processing cycle, the estimating means determines that the recognition target is stationary and determines the spatial position of the specific point. The apparatus for recognizing and following an object according to claim 1, wherein the apparatus is for obtaining the object.
【請求項8】判定手段により、前記誤差範囲内で、同一
の特定点が存在しなかったと判定された場合には、判定
手段は、前記誤差範囲を超えたより広い範囲内で、同一
の特定点が存在するかどうかを、登録された特定点の周
辺の画像の特徴に基づき判定するものである請求項
載の対象物の追従認識装置。
8. When the determining means determines that the same specific point does not exist within the error range, the determining means determines the same specific point within a wider range exceeding the error range. the but whether present, follow-up recognition apparatus of claim 1 object according is to determine based on the feature of the image around the specific points registered.
【請求項9】判定手段により同一の特定点が、前記広い
範囲内で当該認識対象物について存在しないと判定され
た場合は、当該認識対象物に対応する登録を抹消するこ
とを特徴とする請求項記載の対象物の追従認識装置。
9. The method according to claim 1, wherein when the determination unit determines that the same specific point does not exist for the recognition target within the wide range, the registration corresponding to the recognition target is deleted. Item 10. A tracking and recognizing device for an object according to Item 8 .
JP5306725A 1993-09-08 1993-12-07 Object tracking recognition device Expired - Lifetime JP2940366B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP5306725A JP2940366B2 (en) 1993-12-07 1993-12-07 Object tracking recognition device
US08/301,434 US5638116A (en) 1993-09-08 1994-09-07 Object recognition apparatus and method
US08/731,582 US5739848A (en) 1993-09-08 1996-10-16 Object recognition apparatus and method
US08/996,090 US6285393B1 (en) 1993-09-08 1997-12-22 Object recognition apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5306725A JP2940366B2 (en) 1993-12-07 1993-12-07 Object tracking recognition device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP00341599A Division JP3304905B2 (en) 1999-01-08 1999-01-08 Object tracking recognition device

Publications (2)

Publication Number Publication Date
JPH07162846A JPH07162846A (en) 1995-06-23
JP2940366B2 true JP2940366B2 (en) 1999-08-25

Family

ID=17960555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5306725A Expired - Lifetime JP2940366B2 (en) 1993-09-08 1993-12-07 Object tracking recognition device

Country Status (1)

Country Link
JP (1) JP2940366B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2749419B1 (en) * 1996-05-31 1998-08-28 Sagem METHOD AND DEVICE FOR IDENTIFYING AND LOCATING FIXED OBJECTS ALONG A ROUTE
JP3774448B2 (en) * 2003-06-16 2006-05-17 株式会社日立製作所 In-vehicle image processing device
JP2006232112A (en) * 2005-02-25 2006-09-07 Mazda Motor Corp Obstacle recognizing device for vehicle
JP2008109486A (en) * 2006-10-26 2008-05-08 Auto Network Gijutsu Kenkyusho:Kk On-vehicle imaging system and imaging apparatus
JP5182930B2 (en) * 2008-02-05 2013-04-17 矢崎エナジーシステム株式会社 Traffic accident analysis apparatus, traffic accident analysis method, and program
CN103473757B (en) * 2012-06-08 2016-05-25 株式会社理光 Method for tracing object in disparity map and system
US8831290B2 (en) * 2012-08-01 2014-09-09 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection
JP5886809B2 (en) * 2013-09-27 2016-03-16 富士重工業株式会社 Outside environment recognition device
JP6213359B2 (en) * 2014-04-16 2017-10-18 株式会社デンソー Drive recorder and acceleration correction program for drive recorder

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2829934B2 (en) * 1990-03-30 1998-12-02 マツダ株式会社 Mobile vehicle environment recognition device
JPH04207361A (en) * 1990-11-30 1992-07-29 Fujitsu Ltd Image tracking device

Also Published As

Publication number Publication date
JPH07162846A (en) 1995-06-23

Similar Documents

Publication Publication Date Title
CN113034960B (en) Object change detection system for updating precise route map and method thereof
US6285393B1 (en) Object recognition apparatus and method
CN102208012B (en) Landscape coupling reference data generation system and position measuring system
JP4328692B2 (en) Object detection device
US8452103B2 (en) Scene matching reference data generation system and position measurement system
US20110228101A1 (en) Method and device for determining calibration parameters of a camera
JP2002197469A (en) Device for detecting traffic lane
US10846546B2 (en) Traffic signal recognition device
JP2021117048A (en) Change point detector and map information delivery system
JP3296055B2 (en) Distance detection device using in-vehicle camera
JP2940366B2 (en) Object tracking recognition device
JP4296287B2 (en) Vehicle recognition device
JP3304905B2 (en) Object tracking recognition device
JPH0727541A (en) Measuring device for road shape and vehicle position
US10916034B2 (en) Host vehicle position estimation device
JP2870372B2 (en) Object recognition device
US10982967B2 (en) Method and device for fast detection of repetitive structures in the image of a road scene
JP3358247B2 (en) Road vanishing point calculation method
JP4375549B2 (en) Vehicle positioning device
KR102368262B1 (en) Method for estimating traffic light arrangement information using multiple observation information
US11477371B2 (en) Partial image generating device, storage medium storing computer program for partial image generation and partial image generating method
JP3333223B2 (en) Roadway recognition device for mobile vehicles
JP2544898B2 (en) In-vehicle camera attitude parameter calculator
JP3081788B2 (en) Local positioning device
JP3517999B2 (en) Vehicle recognition device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 11

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 11

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 14

EXPY Cancellation because of completion of term