JPH09294280A - Stereoscopic image processing unit - Google Patents

Stereoscopic image processing unit

Info

Publication number
JPH09294280A
JPH09294280A JP8105882A JP10588296A JPH09294280A JP H09294280 A JPH09294280 A JP H09294280A JP 8105882 A JP8105882 A JP 8105882A JP 10588296 A JP10588296 A JP 10588296A JP H09294280 A JPH09294280 A JP H09294280A
Authority
JP
Japan
Prior art keywords
image
camera
input
image processing
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8105882A
Other languages
Japanese (ja)
Other versions
JP3446471B2 (en
Inventor
Tomoko Shimomura
倫子 下村
Kazunori Noso
千典 農宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP10588296A priority Critical patent/JP3446471B2/en
Publication of JPH09294280A publication Critical patent/JPH09294280A/en
Application granted granted Critical
Publication of JP3446471B2 publication Critical patent/JP3446471B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To attain high speed processing by receiving an image alternately from a first half and a latter half of a scanning line with respect to each scanning line of video signals from two cameras. SOLUTION: Cameras A, B are tilted in a direction so that optical axes are in crossing with a front side in the image pickup direction so that an image of an object is picked up to a first half of a scanning line of a pickup image by the camera A and an image of the object is picked up to a latter half of a scanning line of a pickup image by the camera B. The camera A is selected at the start of input for each scanning line and the camera B is selected when the input comes in the middle of the scanning line by a camera selector control section so as to receive an image while the image of the camera A is used for the first half of the scanning line and the image of the camera B is used for the latter half of the scanning line. Two images are entered for an image input time for one image by receiving the image with the arrangement of the cameras as above. Thus, the image input time is decreased, the capacity of the required image memory is reduced and stereo image processing to be conducted after image input is reduced.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、ステレオ画像処理
を行うステレオ画像処理装置に係わり、特にステレオ画
像の入力方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a stereo image processing apparatus for performing stereo image processing, and more particularly to a stereo image input method.

【0002】[0002]

【従来の技術】従来のステレオ画像処理装置のステレオ
画像入力方法としては、カメラから出力される映像信号
を規定の規格(例えばNTSC)の水平・垂直同期信号
をもとに1フィールドずつ交互に入力する方法がある。
2. Description of the Related Art As a stereo image input method of a conventional stereo image processing apparatus, a video signal output from a camera is alternately input field by field based on a horizontal / vertical sync signal of a prescribed standard (for example, NTSC). There is a way to do it.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、このよ
うな従来のステレオ画像の入力方法にあっては、次のよ
うな問題がある。2台のカメラから入力が一系統しかな
い1台の画像処理装置へステレオ画像を入力する方法に
おいては、従来のステレオ画像処理装置では、図33に示
すように1フィールド毎に2台カメラの画像入力を交互
に切り換えて画像を入力していた。この場合、撮像した
2枚の画像間で1フィールド分の時間と走査位置のずれ
が発生し、且つ、全画像入力時間が2フィールド分を要
するため長くかかってしまう。
However, such a conventional stereo image input method has the following problems. In a method of inputting a stereo image to one image processing apparatus having only one input system from two cameras, in the conventional stereo image processing apparatus, as shown in FIG. The image was input by switching the input alternately. In this case, a time difference for one field and a scanning position are generated between the two captured images, and the total image input time is long because it requires two fields.

【0004】また、2枚の画像間の時間差をなくすた
め、図34に示すように1主走査ライン(以降、特に断り
のない限り走査ラインと省略して表す)毎に2台のカメ
ラから交互に入力する方法もあるが、この方法では一方
のカメラから1走査ライン分の映像信号を入力すると同
時に、他方のカメラからも同じ走査ライン上の1走査ラ
イン分の映像信号が出力されてしまうために、メモリ上
に格納される2枚の画像は互いに走査ラインの垂直方向
(副走査ライン方向)に1走査ライン分の位置ずれのあ
る画像となってしまう。そのため、2枚の画像間で撮像
面の走査ラインの垂直方向、即ち、後述する視差が生じ
る方向と直角の方向に前者の入力方法よりも大きなずれ
が生じることになる。精度が要求されるステレオ画像処
理においては視差方向以外の位置の差のない同時刻に撮
像された映像を必要とするため、上記の従来の画像入力
方法を用いた画像処理装置では正確なステレオ画像処理
を行うことは困難である。
Further, in order to eliminate the time difference between the two images, as shown in FIG. 34, one main scanning line (hereinafter, abbreviated as a scanning line unless otherwise specified) is alternated from two cameras. There is also a method of inputting a video signal for one scanning line from one camera, but at the same time, a video signal for one scanning line on the same scanning line is output from the other camera. In addition, the two images stored in the memory become images having a positional shift of one scanning line in the vertical direction of the scanning lines (sub-scanning line direction). Therefore, a larger deviation than the former input method occurs between the two images in the vertical direction of the scanning line on the imaging surface, that is, in the direction perpendicular to the direction in which parallax described below occurs. Since stereoscopic image processing that requires accuracy requires images captured at the same time with no difference in position other than the parallax direction, an accurate stereoscopic image is obtained in the image processing apparatus using the above-described conventional image input method. It is difficult to process.

【0005】これらのステレオ画像の入力方法とは別
に、1フレーム(または1フィールド)分の画像を一旦
確保するためのメモリ付のカメラを使用することで、時
間差、視差方向以外の位置の差の無い2枚の画像を入力
する方法もあるが、この方法では、メモリ付きのカメラ
を用意する必要があり、且つ、入力時間が少なくとも1
フレーム分を要するため、高速処理が困難であるという
欠点がある。
In addition to these stereo image input methods, by using a camera with a memory for temporarily securing an image for one frame (or one field), a time difference and a position difference other than the parallax direction can be eliminated. There is also a method of inputting two images that do not exist, but with this method, it is necessary to prepare a camera with a memory and the input time is at least 1
There is a drawback that high-speed processing is difficult because it requires frames.

【0006】本発明は、このような従来の問題点に着目
してなされたもので、画像の入力時間を短縮しつつ、高
精度なステレオ画像処理が可能な画像入力方法を備えた
ステレオ画像処理装置を提供することを目的としてい
る。
The present invention has been made in view of such conventional problems, and stereo image processing provided with an image input method capable of performing highly accurate stereo image processing while shortening the image input time. The purpose is to provide a device.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するた
め、請求項1に記載の発明は、第1のカメラと第2のカ
メラを光軸が特定の水平平面内に含まれるように並設し
たステレオカメラにより対象物を撮像し、前記第1およ
び第2のカメラが撮像した映像信号の走査ライン前半部
に対しては、前記第1のカメラから得られる前記対象物
を含む領域の映像信号を入力する一方、走査ライン後半
部に対しては、前記第2のカメラから得られる前記領域
に対応する前記対象物を含む領域の映像信号を入力し、
これら入力した映像信号に基づいてステレオ画像処理を
行うようにした。
In order to achieve the above object, in the invention described in claim 1, the first camera and the second camera are arranged side by side so that the optical axis is included in a specific horizontal plane. The object is imaged by the stereo camera, and the video signal of the area including the object obtained from the first camera is obtained with respect to the first half of the scanning line of the video signal imaged by the first and second cameras. On the other hand, to the latter half of the scanning line, the video signal of the area including the object corresponding to the area obtained from the second camera is input,
Stereo image processing is performed based on these input video signals.

【0008】請求項2に記載の発明は、ステレオ画像入
力を行うステレオ画像処理装置において、光軸が特定の
水平平面内に含まれるように第1および第2のカメラを
並列に配設して対象物を撮像する撮像手段と、前記第1
および第2のカメラからの映像信号の走査ライン前半部
に対しては、前記第1のカメラから得られる前記対象物
を含む領域の映像信号を選択する一方、走査ライン後半
部に対しては、前記第2のカメラから得られる前記領域
に対応した前記対象物を含む領域の映像信号を選択して
切り換える映像切り換え手段と、該映像信号切り換え手
段から出力された映像信号を記憶する画像記憶手段と、
該画像記憶手段に記憶された画像に対してステレオ画像
処理を施すステレオ画像処理手段と、を備えるようにし
た。
According to a second aspect of the present invention, in a stereo image processing apparatus for inputting a stereo image, the first and second cameras are arranged in parallel so that the optical axis is included in a specific horizontal plane. Image pickup means for picking up an image of an object; and the first
And for the first half of the scanning line of the video signal from the second camera, the video signal of the region including the object obtained from the first camera is selected, while for the latter half of the scanning line, Video switching means for selecting and switching a video signal of an area including the object corresponding to the area obtained from the second camera, and image storage means for storing the video signal output from the video signal switching means. ,
Stereo image processing means for performing stereo image processing on the image stored in the image storage means.

【0009】請求項3に記載の発明は、前記ステレオ画
像処理手段は、前記画像記憶手段に記憶された画像に基
づいて、撮像された対象物までの距離情報を算出するも
のとした。請求項4に記載の発明は、前記映像切り換え
手段は、前記第1および第2のカメラからの映像信号
を、(1)前記走査ラインの前半部および後半部共に前
記対象物が含まれるように、走査ラインの前半部を一方
のカメラからの映像信号に、後半部を他方のカメラから
の映像信号に切り換える場合と、(2)走査ラインの全
体に渡り、どちらか一方のカメラからの映像信号に固定
する場合と、のどちらか一方の状態を選択して前記カメ
ラからの映像信号を前記画像記憶手段に入力するように
し、前記(2)の場合に単眼画像に対する画像処理を行
う単眼画像処理手段を含むようにした。
According to a third aspect of the present invention, the stereo image processing means calculates distance information to the imaged object on the basis of the image stored in the image storage means. According to a fourth aspect of the present invention, the video switching means includes the video signals from the first and second cameras so that (1) both the first half and the second half of the scanning line include the object. , The case where the first half of the scanning line is switched to the video signal from one camera and the latter half is switched to the video signal from the other camera, and (2) the video signal from either camera over the entire scanning line. Either one of the case of fixing the image to the fixed state and the state of selecting the state to input the video signal from the camera to the image storage means, and performing the image processing on the monocular image in the case of (2). Included means.

【0010】請求項5に記載の発明は、前記単眼画像処
理手段は、前記切り換え手段により選択されたどちらか
一方のカメラだけの画像に基づいて、撮像方向前方の標
識の内容を認識するものとした。請求項6に記載の発明
は、前記第1および第2のカメラは、前記特定の水平平
面内でカメラの光軸をカメラ前方で交差するように傾け
て配設するようにした。
According to a fifth aspect of the present invention, the monocular image processing means recognizes the content of the sign ahead of the imaging direction based on the image of only one of the cameras selected by the switching means. did. According to a sixth aspect of the present invention, the first and second cameras are arranged such that the optical axes of the cameras are tilted so as to intersect in front of the camera within the specific horizontal plane.

【0011】請求項7に記載の発明は、前記第1および
第2のカメラは、該特定の水平面内で前記カメラの光軸
がほぼ平行になるように配設し、各カメラの映像信号の
走査ライン前半部または後半部のどちらか片方のみに対
象物が含まれるように撮像すると共に、前記第1および
第2のカメラのうち一方のカメラの映像信号のみ走査ラ
インの半周期分遅延させて画像記憶手段に入力するよう
にした。
According to a seventh aspect of the present invention, the first and second cameras are arranged such that the optical axes of the cameras are substantially parallel within the specific horizontal plane, and the video signals of the cameras are An image is picked up so that the object is included in only one of the first half or the second half of the scanning line, and only the video signal of one of the first and second cameras is delayed by a half cycle of the scanning line. The input is made in the image storage means.

【0012】請求項8に記載の発明は、前記特定の水平
平面に代えて特定の垂直平面とすると共に、各カメラの
主走査方向を該垂直平面に一致させるようにした。請求
項9に記載の発明は、前記第1および第2のカメラから
の映像信号をデジタル信号に変換するA/D変換手段を
備え、該A/D変換手段による映像信号のサンプリング
間隔を、該カメラの副走査方向より主走査方向が短くな
るように設定するようにした。
According to an eighth aspect of the present invention, the specific horizontal plane is replaced with a specific vertical plane, and the main scanning direction of each camera is made to coincide with the vertical plane. According to a ninth aspect of the present invention, there is provided A / D conversion means for converting the video signals from the first and second cameras into digital signals, and the sampling interval of the video signals by the A / D conversion means is The main scanning direction is set to be shorter than the sub scanning direction of the camera.

【0013】請求項10に記載の発明は、前記第1およ
び第2のカメラにより撮像した撮像画像の水平方向、垂
直方向の少なくとも一方の方向に対し、前記画像記憶手
段に入力する映像信号を制限するようにした。請求項1
1に記載の発明は、前記第1および第2のカメラからの
映像信号は、所定の走査ライン数毎に前記画像記憶手段
に入力するようにした。
According to a tenth aspect of the present invention, the video signal input to the image storage means is restricted with respect to at least one of the horizontal direction and the vertical direction of the picked-up images picked up by the first and second cameras. I decided to do it. Claim 1
In the invention described in item 1, the video signals from the first and second cameras are input to the image storage means for each predetermined number of scanning lines.

【0014】請求項12に記載の発明は、前記第1およ
び第2のカメラからの映像信号は、所定の走査ライン数
だけを前記画像記憶手段に入力するようにした。
According to a twelfth aspect of the present invention, the video signals from the first and second cameras are input to the image storage means by a predetermined number of scanning lines.

【0015】[0015]

【発明の効果】請求項1に記載の発明によれば、図1に
示すように2台のカメラからの映像信号の各走査ライン
に対して、走査ラインの前半部および後半部で交互に画
像を取り込むことにより、1枚の画像(1フィールド)
分の入力時間で2台のカメラからの2枚分の画像入力が
可能となるため、画像入力時間が短縮されると共に必要
とする画像メモリの容量が削減され、画像入力後に行う
ステレオ画像処理を軽減することができ、以て、処理の
高速化を図ることができる。
According to the first aspect of the present invention, as shown in FIG. 1, for each scanning line of video signals from two cameras, images are alternately displayed in the first half and the second half of the scanning line. By capturing, one image (one field)
Since two images can be input from two cameras in a minute input time, the image input time is shortened, the required image memory capacity is reduced, and stereo image processing performed after the image input is performed. Therefore, the processing speed can be increased.

【0016】請求項2に記載の発明によれば、撮像手段
からの映像信号を映像切り換え手段により切り換えて画
像記録手段に記録し、ステレオ画像処理用の画像を生成
することにより、1枚の画像(1フィールド)分の入力
時間で2台のカメラからの2枚分の画像入力が可能とな
るため、画像入力時間が短縮されると共に必要とする画
像メモリの容量が削減され、画像入力後に行うステレオ
画像処理を軽減することができ、以て、処理の高速化を
図ることができる。
According to the second aspect of the present invention, a video signal from the image pickup means is switched by the video switching means to be recorded in the image recording means, and an image for stereo image processing is generated to generate one image. Since it is possible to input images for two images from two cameras in the input time for (one field), the image input time is shortened and the required image memory capacity is reduced, and the image input is performed after the image input. The stereo image processing can be reduced, and thus the processing speed can be increased.

【0017】請求項3に記載の発明によれば、入力した
ステレオ画像を、該ステレオ画像中に撮像されている対
象物までの距離の算出に用いることにより、高速に且つ
精度よく距離を算出することができる。請求項4に記載
の発明によれば、図2に示すように両カメラからの映像
の記録対象部分を切り換えることで、高速な入力が可能
なステレオ画像処理と、広角な撮像範囲を有する単眼画
像処理とを選択して行うことができ、処理の目的に応じ
てフレキシブルな画像入力を行うことができる。
According to the third aspect of the invention, the input stereo image is used to calculate the distance to the object imaged in the stereo image, whereby the distance is calculated at high speed and with high accuracy. be able to. According to the invention described in claim 4, as shown in FIG. 2, by switching the recording target portions of the images from both cameras, stereo image processing capable of high-speed input and monocular image having a wide-angle imaging range Processing can be selected and performed, and flexible image input can be performed according to the purpose of processing.

【0018】請求項5に記載の発明によれば、撮像方向
前方の標識を一方のカメラからの撮像画像を用いて認識
することにより、撮像方向前方の標識は勿論、カメラ近
傍の標識に対しても撮像する画角に収めることができ、
より詳細な標識のパターンを検出することができる。以
て、標識内容の認識精度をより向上させることができ
る。
According to the fifth aspect of the invention, by recognizing the sign ahead of the imaging direction by using the image picked up from one camera, not only the sign ahead of the imaging direction but also the sign near the camera is recognized. Can also be included in the angle of view for imaging,
More detailed labeling patterns can be detected. Thus, the recognition accuracy of the sign content can be further improved.

【0019】請求項6に記載の発明によれば、カメラの
光軸をカメラ前方で交差するように傾斜させることによ
り、両カメラからの入力画像に対する実質的な画角を拡
げることができ、例えば、道路標識等の対象物をより近
接した位置で撮影することができるため、該道路標識を
より正確に識別することができる。請求項7に記載の発
明によれば、図3に示すように両カメラの光軸を平行に
して配設することにより、光軸の傾斜角度が変化するこ
とに起因する測距誤差がほぼ無視できる程度にまで低減
するため、実質的に消失点の検出を行う必要性をなくす
ことができ、距離測定の処理が軽減されて高速化を図る
ことができる。
According to the sixth aspect of the invention, by tilting the optical axes of the cameras so as to intersect in front of the cameras, it is possible to widen a substantial angle of view with respect to input images from both cameras. Since an object such as a road sign can be photographed at a closer position, the road sign can be identified more accurately. According to the invention described in claim 7, by arranging the optical axes of both cameras in parallel as shown in FIG. 3, the distance measurement error caused by the change of the inclination angle of the optical axes is almost ignored. Since it is reduced to the extent possible, it is possible to substantially eliminate the need to detect the vanishing point, reduce the distance measurement processing, and increase the speed.

【0020】請求項8に記載の発明によれば、図3に示
すように両カメラを垂直面上に配設することにより、得
られるステレオ画像において、対象物が大きく移動する
方向に大きい画角を設定すことができるため、自車両の
前方車両を対象物とするような場合、対象物までの距離
を精度よく求めることができる。請求項9に記載の発明
によれば、図4に示すように各カメラからの映像信号の
入力サンプリング間隔を細かくすることで、より詳細な
画像情報を得ることができ、例えば対象物までの距離を
測定する際に、精度良く距離を算出することができる。
According to the invention described in claim 8, by disposing both cameras on a vertical plane as shown in FIG. 3, in a stereo image obtained, a large angle of view in the direction in which the object largely moves. Therefore, when the vehicle ahead of the host vehicle is the target object, the distance to the target object can be accurately obtained. According to the invention described in claim 9, by making the input sampling interval of the video signal from each camera fine as shown in FIG. 4, more detailed image information can be obtained, for example, the distance to the object. It is possible to calculate the distance with high accuracy when measuring.

【0021】請求項10に記載の発明によれば、図5に
示すように画像記録手段に入力する映像信号を制限する
ことにより、画像メモリを節約することができると共に
画像処理の計算負担をより軽減することができ、処理の
高速化を図ることができる。請求項11に記載の発明に
よれば、垂直方向のライン入力を1ライン毎に交互に行
うことで、画像メモリを節約することができ、且つ、2
枚の画像間のマッチング処理をより高速に行うことがで
きると共に、画像処理を開始するタイミングを早めるこ
とができるため、画像入力時間を含む画像処理全体の処
理時間をより短縮することができる。
According to the tenth aspect of the present invention, by limiting the video signal input to the image recording means as shown in FIG. 5, the image memory can be saved and the calculation load of the image processing can be further reduced. Therefore, the processing speed can be increased. According to the eleventh aspect of the present invention, the image memory can be saved by performing the line input in the vertical direction alternately for each line, and
Since the matching process between the images can be performed at a higher speed and the timing of starting the image processing can be advanced, the processing time of the entire image processing including the image input time can be further shortened.

【0022】請求項12に記載の発明によれば、1フィ
ールドの後半の数ラインの入力を行わないことで、画像
メモリを節約することができると共に、画像処理を開始
するタイミングを早めることができるため、画像入力時
間も含む画像処理全体の処理時間をより短縮することが
できる。
According to the twelfth aspect of the present invention, by not inputting the last several lines of one field, the image memory can be saved and the timing of starting the image processing can be advanced. Therefore, it is possible to further reduce the processing time of the entire image processing including the image input time.

【0023】[0023]

【発明の実施の形態】以下に本発明の実施の形態を図に
基づいて説明する。まず、各実施の形態に共通するステ
レオ画像を用いた距離算出方法について説明する。図6
は2台のカメラの撮像方向の水平平面上で、各カメラの
光軸がカメラ前方で交差するように、カメラの向きをそ
れぞれ内側に傾けた場合のステレオ画像を用いた距離算
出方法を示した図である。この構成におけるカメラから
対象物までの距離Zの算出式を(1)式に示す。 Z=F×D/|(XB −XVB)−(XA −XVA)| (1) ここで、Fは焦点距離で、Dは各カメラの光軸間距離
(眼間距離)を表している。また、XVAはカメラAによ
る画像A上の消失点位置,XA は画像A上の対象物の位
置で、同様にXB はカメラBによる画像B上の対象物の
位置,XVBは画像B上の消失点位置である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below with reference to the drawings. First, a distance calculation method using a stereo image common to each embodiment will be described. FIG.
Shows a distance calculation method using stereo images when the directions of the cameras are tilted inward so that the optical axes of the cameras intersect on the horizontal plane in the imaging direction of the two cameras. It is a figure. The equation for calculating the distance Z from the camera to the object in this configuration is shown in equation (1). Z = F × D / | (X B −X VB ) − (X A −X VA ) | (1) where F is the focal length, and D is the distance between the optical axes (eye distance) of each camera. It represents. Further, X VA is the vanishing point position on the image A by the camera A, X A is the position of the object on the image A, X B is the position of the object on the image B by the camera B, and X VB is the image. It is the vanishing point position on B.

【0024】図6に示すように2台のカメラの光軸が平
行でない場合には、2枚の画像上の消失点および両画像
に対応した対象物のエッジ位置をそれぞれ求め、各画像
上で消失点から対応するエッジ位置までの距離を求め、
その距離の差を視差としてカメラから対象物までの距離
Zを(1)式により求めることができる。次に、これら
のカメラによるステレオ画像の入力方法を具体的に説明
する。図1に示すように、まず、カメラAによる撮像画
像の走査ライン前半部とカメラBによる撮像画像の走査
ライン後半部に対象物が撮像されるように、光軸を撮像
方向前方で交差させる方向に各カメラを傾斜させる。そ
して、2台のカメラをこのような傾斜させた配置とした
まま、図7に示すように後述するカメラセレクタ制御部
で1走査ライン毎の入力の開始時にカメラAを選択し、
入力が走査ラインの中間にきた時点でカメラBを選択す
ることで、走査ラインの前半部でカメラAの画像を、走
査ラインの後半部でカメラBの画像を切り換えつつ、画
像を入力する。
When the optical axes of the two cameras are not parallel as shown in FIG. 6, the vanishing point on the two images and the edge position of the object corresponding to both images are obtained respectively, and on each image. Find the distance from the vanishing point to the corresponding edge position,
The distance Z from the camera to the object can be calculated by the equation (1) using the difference in the distance as the parallax. Next, a method of inputting a stereo image by these cameras will be specifically described. As shown in FIG. 1, first, a direction in which the optical axes intersect in the front of the imaging direction so that the object is imaged in the first half of the scanning line of the image captured by camera A and the second half of the scanning line of the image captured by camera B. Tilt each camera to. Then, with the two cameras arranged in such an inclined state, the camera A is selected at the start of input for each scanning line by the camera selector control unit described later as shown in FIG.
By selecting the camera B at the time when the input comes in the middle of the scanning line, the image is input while switching the image of the camera A in the first half of the scanning line and the image of the camera B in the second half of the scanning line.

【0025】このようなカメラの配置で画像を入力する
ことで、1枚分の画像入力時間で2枚の画像を入力する
ことができる。このときのカメラからの1走査ライン分
の出力時間は常に一定である。仮に1走査ラインの前半
部しか入力しない場合でも、カメラが1走査ラインの後
半部を出力し終わるまで入力側は次の走査ラインの入力
を待たなければならない。この入力方法は、その待ち時
間を有効に利用し、1走査ラインの前後半で入力対象の
カメラを切り換えながら画像を入力することで、画像入
力時間を半減することを可能としたものである。
By inputting images with such a camera arrangement, two images can be input in the image input time for one image. The output time for one scanning line from the camera at this time is always constant. Even if only the first half of one scan line is input, the input side must wait for the input of the next scan line until the camera finishes outputting the second half of one scan line. This input method makes it possible to reduce the image input time by half by effectively utilizing the waiting time and inputting an image while switching the cameras to be input in the first half and the second half of one scanning line.

【0026】しかし、この入力方法では図8,図9に示
すように撮像面の水平方向の画角、即ち、2つのカメラ
で共通に撮影されるステレオ画像処理が可能な画像の画
角が、単一のカメラの画角の半分になってしまうが、対
象物がその画角範囲内に収まっている場合には、該範囲
外の画角はもともと距離認識には不要な画角であるた
め、先行車検出等の処理の効率化を図ることができる。
つまり、カメラAの左半分とカメラBの右半分の撮像領
域に対する不必要な画像入力を省略するため、画像入力
時間を短縮することができると共に、画像メモリを節約
することができる。
However, in this input method, as shown in FIGS. 8 and 9, the angle of view in the horizontal direction of the image pickup surface, that is, the angle of view of an image which can be stereoscopically imaged commonly by two cameras is Although it is half the angle of view of a single camera, if the object is within that angle of view range, the angle of view outside that range is originally an angle of view unnecessary for distance recognition. It is possible to improve the efficiency of processing such as detection of a preceding vehicle.
That is, unnecessary image input to the left half of the camera A and the right half of the camera B is omitted, so that the image input time can be shortened and the image memory can be saved.

【0027】また、図1のカメラAの右半分とカメラB
の左半分に撮像されている対象物以外の部分は、単眼処
理用の画像として利用することもできる。つまり、処理
内容に応じて入力画像領域を切り換えることで、1組の
ステレオカメラを用いて、ステレオ画像処理と単眼画像
処理の両方を選択的に行うことができる。例えば、図2
に示すように入力画像領域を切り換えると、 入力方法1:ステレオ画像処理による正面の先行車まで
の距離認識 入力方法2:路肩(例えば標識認識なども可能)と隣接
レーンの物体認識 入力方法3:路肩と前方の認識 入力方法4:隣接レーンと前方の認識 を行うことが可能となる。このときのステレオカメラの
配置は、各カメラが互いに内側に傾いているため、図8
に示すように同じ画角のレンズを用いた単眼カメラ1台
の約1.5 倍の画角の画像を入力するこが可能となる。通
常、広角レンズは周囲が歪むため画像処理が行いにく
い。しかし、図1に示すようなステレオカメラにおいて
は、標準レンズ等の標準的な画角のレンズを用いている
ため撮像画像の歪みは少ない。つまり、このステレオカ
メラを用いることで高速画像入力が可能なステレオ画像
処理が行えることに加えて、広い画角が要求される単眼
処理に対してもより確実に行うことができる。
The right half of camera A and camera B in FIG.
The part other than the target imaged in the left half of can be used as an image for monocular processing. That is, by switching the input image area according to the processing content, it is possible to selectively perform both the stereo image processing and the monocular image processing by using one set of stereo cameras. For example, FIG.
When the input image area is switched as shown in, input method 1: recognition of the distance to the preceding vehicle in front by stereo image processing input method 2: road shoulder (for example, sign recognition is also possible) and object recognition of adjacent lanes input method 3: Recognition of road shoulder and front Input method 4: It becomes possible to recognize front of adjacent lane. At this time, the stereo cameras are arranged as shown in FIG.
As shown in, it is possible to input an image with a field angle about 1.5 times that of a single-lens camera that uses a lens with the same field angle. Normally, a wide-angle lens is distorted around its periphery, and thus it is difficult to perform image processing. However, in the stereo camera as shown in FIG. 1, since a lens having a standard angle of view such as a standard lens is used, distortion of a captured image is small. That is, by using this stereo camera, stereo image processing capable of high-speed image input can be performed, and monocular processing that requires a wide angle of view can be performed more reliably.

【0028】これにより、例えば自車両の前方正面を走
行する先行車までの距離認識を行いながら、必要時に応
じて斜め前方に存在する道路標識や隣接レーン上の走行
車を認識する等の車載用としての前方向の画像処理が可
能となる。図10はアナログ信号として出力されるカメ
ラからの映像信号をデジタル化する様子を示した図であ
る。対象物を撮像したときのカメラからの映像信号は、
一定の時間内で1走査ライン毎にアナログ信号で出力さ
れる。画像の入力側では、このアナログ信号を特定のサ
ンプリング間隔でA/D変換した後に画像メモリに入力
する。
Thus, for example, while recognizing a distance to a preceding vehicle traveling in front of the host vehicle, a vehicle sign for recognizing a road sign diagonally ahead or a traveling vehicle on an adjacent lane as necessary is displayed. Image processing in the forward direction is possible. FIG. 10 is a diagram showing a state in which a video signal output from a camera as an analog signal is digitized. The video signal from the camera when the object is imaged is
An analog signal is output for each scanning line within a fixed time. On the image input side, this analog signal is A / D converted at a specific sampling interval and then input to the image memory.

【0029】このように、各走査ライン毎に画像信号を
デジタル化してメモリに入力する操作を、図11に示す
ように走査ライン数分繰り返すことで1枚の画像入力を
行う。通常、このサンプリング間隔は、例えばカメラの
CCD(Charge Coupled device)等の撮像素子における
撮像面の縦横比から決定される。尚、通常のCCDの撮
像面の縦横比は3:4である。
As described above, the operation of digitizing the image signal for each scanning line and inputting it to the memory is repeated for the number of scanning lines to input one image. Usually, this sampling interval is determined from the aspect ratio of the image pickup surface of the image pickup device such as CCD (Charge Coupled device) of the camera. The aspect ratio of the image pickup surface of a normal CCD is 3: 4.

【0030】NTSC方式の場合では1フィールド内に
240 本の走査ラインを入力するので、1走査ライン分の
画像信号を320 (=240 ×4/3)回サンプリングして
デジタル化することになる。そして、1走査ライン毎に
カメラより送られる画像信号をデジタル化して入力する
操作を、垂直方向の走査ライン数分(NTSC方式の場
合240 回)行うことで、1枚の画像の入力を行うことが
できる。例えば、このサンプリングの間隔を狭くして、
1走査ライン中のサンプリング回数を前記320回の2倍
(640回)にすると、図10に示すように、垂直方向の
分解能や撮像範囲は変えることなく、水平方向の分解能
を2倍に向上させることができる。
In the case of NTSC system, within one field
Since 240 scanning lines are input, the image signal for one scanning line is sampled 320 (= 240 × 4/3) times and digitized. Then, the operation of digitizing and inputting the image signal sent from the camera for each scanning line is performed by the number of scanning lines in the vertical direction (240 times in the case of the NTSC system) to input one image. You can For example, by narrowing the sampling interval,
When the number of samplings within one scanning line is doubled (320 times) from the above 320 times, the horizontal resolution is doubled without changing the vertical resolution or the imaging range, as shown in FIG. be able to.

【0031】図12には撮像面上の分解能と画像メモリ
内の1画素の大きさの関係を示した。画像メモリ内の1
画素が実際の撮像面に対してどの程度の大きさに相当す
るかは、主に、1走査ライン分の画像信号のサンプリン
グ間隔、つまり、撮像面上の1走査ライン分の画像信号
を水平方向に何分割してデジタル化するかによって定ま
る。この分割された一つ一つの画像信号の値が画像メモ
リ上の1画素毎の輝度値となる。
FIG. 12 shows the relationship between the resolution on the image pickup surface and the size of one pixel in the image memory. 1 in image memory
How much a pixel corresponds to the actual image pickup surface is mainly determined by the sampling interval of the image signal for one scanning line, that is, the image signal for one scanning line on the image pickup surface in the horizontal direction. It depends on how many divisions are made into digital. The value of each of the divided image signals becomes the brightness value for each pixel on the image memory.

【0032】図13は、最も一般的なステレオ画像処理
による距離算出方法を示す図である。カメラから対象物
までの距離Zは(2)式に示す幾何学的な計算により求
められる。 Z=F×D/|XB −XA | (2) (2)式の分母にあたるXA −XB は視差である。
A ,XB の値は、画像メモリに保持されたデジタル画
像上において、2枚の画像間の対応する対象物のエッジ
位置を求め、その位置をカメラの撮像面上の位置に換算
することにより算出する。画像メモリ上の位置からカメ
ラの撮像面上の位置への換算は次の要領で行う。
FIG. 13 is a diagram showing a distance calculation method by the most general stereo image processing. The distance Z from the camera to the object is obtained by the geometrical calculation shown in the equation (2). Z = F × D / | X B -X A | (2) (2) corresponds to the formula of the denominator X A -X B is disparity.
For the values of X A and X B , find the edge position of the corresponding object between the two images on the digital image stored in the image memory, and convert the position to the position on the imaging surface of the camera. Calculate by Conversion from the position on the image memory to the position on the imaging surface of the camera is performed as follows.

【0033】例えば、図12に示すように、撮像素子の
水平方向の幅が10mmで前述のサンプリング数が1走査
ライン内で100 回であれば、画像メモリ上の1画素の大
きさが撮像面上の0.1 mmに相当する。このことから、
A −XB が画像メモリ上で5画素であれば、XA −X
B の値は0.5 mmと換算される。また、(2)式におい
て、カメラの焦点距離Fと眼間距離D(2台のカメラの
光軸間距離)を固定値とすると、距離Zの精度は視差X
A −XB の分解能で決定されることになる。
For example, as shown in FIG. 12, if the horizontal width of the image pickup element is 10 mm and the number of samplings is 100 times in one scanning line, the size of one pixel on the image memory corresponds to the image pickup surface. It corresponds to the upper 0.1 mm. From this,
If X A -X B is a 5 pixel on the image memory, X A -X
The value of B is converted to 0.5 mm. Further, in equation (2), if the focal length F of the camera and the inter-eye distance D (the distance between the optical axes of the two cameras) are fixed values, the accuracy of the distance Z is the parallax X.
It will be determined by the resolution of A− X B.

【0034】この理由を図14を用いて説明する。画像
処理で行う2枚の画像間のマッチング結果が1画素ずれ
ると、撮像面上の1画素の大きさが小さい場合は誤差も
小さいが、1画素の大きさが大きい場合には誤差も大き
くなる。例えば、焦点距離Fが20mm、眼間距離Dが10
0 mmで、撮像面の水平方向の幅が10mmのステレオカ
メラを用いて距離Zが1000mmの位置に存在する対象物
を認識する場合において、水平方向の画像信号を100 回
サンプリングして入力した画像と、水平方向の画像信号
を10回サンプリングして入力した画像を用いて認識した
ときの距離Zの測定精度を比較してみる。
The reason for this will be described with reference to FIG. If the matching result between the two images performed in the image processing shifts by one pixel, the error is small if the size of one pixel on the imaging surface is small, but the error is large if the size of one pixel is large. . For example, the focal length F is 20 mm and the interocular distance D is 10
An image input by sampling the image signal in the horizontal direction 100 times when recognizing an object existing at a distance Z of 1000 mm using a stereo camera with a horizontal width of 0 mm and an image pickup surface of 10 mm. And the accuracy of measurement of the distance Z when the horizontal image signal is sampled 10 times and recognized using an input image.

【0035】1000mm先の物体を認識した場合、(2)
式より、撮像面上の視差が2mmとなる(XA −XB
F×D/Z=20×100 /1000=2)。100 回サンプリン
グして入力した画像の場合は、1画素の大きさが撮像面
上の0.1 mmに相当するので、メモリに保持されたデジ
タル画像上での視差は20画素となる。一方、10回サンプ
リングして入力した画像の場合は、1画素の大きさが撮
像面上の1mmに相当するので、視差は2画素となる。
When an object 1000 mm ahead is recognized, (2)
From the formula, the parallax on the imaging surface is 2 mm (X A −X B =
F × D / Z = 20 × 100/1000 = 2). In the case of an image that is sampled 100 times and input, the size of one pixel corresponds to 0.1 mm on the imaging surface, so the parallax on the digital image stored in the memory is 20 pixels. On the other hand, in the case of an image sampled 10 times and input, the size of one pixel corresponds to 1 mm on the imaging surface, so the parallax is two pixels.

【0036】ここで、それぞれの画像において視差が1
画素ずれた場合を考えると、100 回サンプリングの場合
では視差が19画素となるため距離が1052mm{=20×10
0 /(19 ×0.1)}となり、10回サンプリングの場合では
視差が1画素となるため距離が2000mm{=20×100 /
(1×1) }となる。このように、前者の誤差が52mm
であるのに対し、後者の誤差は1000mmにも達する。
Here, the parallax is 1 in each image.
Considering the case of pixel shift, in the case of 100 samplings, the parallax is 19 pixels, so the distance is 1052 mm {= 20 × 10
0 / (19 × 0.1)}, and in the case of sampling 10 times, the parallax is 1 pixel, so the distance is 2000 mm {= 20 × 100 /
(1 × 1)}. In this way, the former error is 52 mm
On the other hand, the latter error reaches 1000 mm.

【0037】そのため、距離測定精度に大きな影響を及
ぼす視差の生じる水平方向のサンプリング間隔をより細
かく設定することが望ましく、これにより、画像の入力
時間や撮像範囲等の入力に関する他の部分に影響を及ぼ
すことなく測定する距離の精度を向上させることができ
る。一般的にステレオ画像処理において、より高い精度
が要求される場合に視差方向の分解能を上げるため、図
15(a) に示すレンズの画角θ1 から図15(b) に示す
ように小さいレンズの画角θ2 に設定する対応策がある
が、撮像範囲が狭くなる問題点がある。そこで、図1に
示す配置のステレオカメラは、視差の生じる方向を撮像
面の水平方向に合わせているため、カメラから走査ライ
ン毎に出力される映像信号をより細かくサンプリングす
る。このようにしてデジタル化することで、視差方向に
垂直な方向の分解能は変化させずに、視差方向の分解能
を向上させることができる。この方法においてはカメラ
のレンズを交換する必要はなく、撮像範囲が変化するこ
とはない。また、1走査ラインの入力時間は不変であ
り、且つ、入力走査ライン数は一定であるため画像全体
の入力時間も不変である。即ち、撮像範囲や入力時間を
変えることなく、精度良く距離を算出できるステレオ画
像を得ることができる。
Therefore, it is desirable to set the sampling interval in the horizontal direction in which the parallax, which has a great influence on the distance measurement accuracy, to be set more finely, and this affects other portions related to the input such as the image input time and the image pickup range. The accuracy of the measured distance can be improved without affecting. Generally, in stereo image processing, in order to improve the resolution in the parallax direction when higher accuracy is required, from the angle of view θ 1 of the lens shown in FIG. 15 (a) to a small lens as shown in FIG. 15 (b). there are countermeasures to set the angle of view theta 2, but there is a problem that the imaging range becomes narrower. Therefore, in the stereo camera having the arrangement shown in FIG. 1, since the direction in which parallax occurs is aligned with the horizontal direction of the image pickup surface, the video signal output from the camera for each scanning line is more finely sampled. By digitizing in this way, the resolution in the parallax direction can be improved without changing the resolution in the direction perpendicular to the parallax direction. In this method, it is not necessary to replace the lens of the camera and the imaging range does not change. Further, the input time of one scanning line is unchanged, and the input time of the entire image is also unchanged because the number of input scanning lines is constant. That is, it is possible to obtain a stereo image in which the distance can be accurately calculated without changing the imaging range or the input time.

【0038】そのため、ステレオ画像処理の認識対象物
が、視差方向に広い画角を必要としない場合であれば、
前記2台のカメラの入力を水平走査ラインの前後半で切
り換えながら入力する方法に加え、サンプリング間隔を
細かく設定することで、ステレオ画像を高速に入力する
ことができ、該ステレオ画像により精度良く距離を求め
ることができる。
Therefore, if the object to be recognized in the stereo image processing does not require a wide angle of view in the parallax direction,
In addition to the method of inputting while switching the inputs of the two cameras in the first half and the second half of the horizontal scanning line, by setting the sampling interval finely, a stereo image can be input at high speed, and the stereo image can be accurately distanced. Can be asked.

【0039】また、認識対象のエッジが、視差方向に対
して垂直な方向にある程度十分な長さを有している場
合、各カメラからの画像間でそのエッジの対応が取れる
程度に画像を間引いても、対象物の認識および距離認識
を行なうことができる。例えば、1走査ライン毎に画像
を入力して画像を間引くと共に、該走査ラインの前後半
で2台のカメラの入力を切り換えることにより、撮像さ
れた2枚の画像に対して同じ位置の走査ラインを1つの
走査ライン上に入力することができ、画像メモリが節約
され、より高速なステレオ画像処理用の画像入力が可能
となる。加えて、画像データを間引いて入力するため、
視差の算出のために行う2枚の画像間のマッチングの計
算量も低減されるので、画像処理全体に要する時間を短
縮することができる。
If the edge to be recognized has a sufficient length in the direction perpendicular to the parallax direction, the images are thinned out to the extent that the edges of the images from the cameras can be matched. However, it is possible to recognize the object and the distance. For example, by inputting an image for each scanning line and thinning out the image, and switching the input of two cameras in the former and latter half of the scanning line, the scanning line at the same position with respect to two captured images. Can be input on one scan line, which saves image memory and enables faster image input for stereo image processing. In addition, because the image data is thinned out and input,
Since the calculation amount of matching between two images for calculating parallax is also reduced, the time required for the entire image processing can be shortened.

【0040】図16(a) は、各カメラからの出力を切り
換えつつ、1走査ライン毎に入力したときの画像入力お
よび画像処理開始のタイミングを示すタイミングチャー
トである。全走査ライン入力した場合は、図16(b) に
示す画像データが画像メモリに入力されることになる
が、1走査ライン毎に画像データを入力して画像を間引
くことにより図16(c) に示すように入力される画像デ
ータ量が半減する。
FIG. 16 (a) is a timing chart showing the timing of image input and image processing start when input is made for each scanning line while switching the output from each camera. When all the scanning lines are input, the image data shown in FIG. 16 (b) will be input to the image memory. However, by inputting the image data for each scanning line and thinning out the image, the image data shown in FIG. As shown in, the amount of input image data is halved.

【0041】通常、カメラからの画像信号は、所定の規
格でカメラに入力される水平・垂直同期信号に基づいて
出力される。具体的には、カメラが画像出力を開始する
タイミングは、カメラが出力の開始を表す垂直同期信号
を待ち、その垂直同期信号を受け取った時点から規定の
走査ライン数分の画像信号を出力する。一方、カメラか
ら出力された画像の入力側では、カメラからの画像信号
の入力を途中で止めることも可能である。この場合、入
力を止めた時点で画像入力側は入力以外の他の処理(例
えば画像処理等)を行なうことができるため、画像入力
時間だけでなく画像処理全体の処理時間を短縮すること
ができる。
Normally, the image signal from the camera is output based on the horizontal / vertical synchronizing signals input to the camera according to a predetermined standard. Specifically, at the timing at which the camera starts image output, the camera waits for a vertical synchronization signal indicating the start of output, and outputs the image signals for the specified number of scanning lines from the time when the vertical synchronization signal is received. On the other hand, on the input side of the image output from the camera, it is possible to stop the input of the image signal from the camera on the way. In this case, since the image input side can perform processing other than input (for example, image processing) when the input is stopped, not only the image input time but also the entire image processing time can be shortened. .

【0042】次に、前記のステレオ画像を入力する方法
を先行車の検出、距離算出、および標識の認識に用いた
第1の実施の形態について説明する。図17に本実施の
形態に係るステレオ画像処理装置の構成を示した。ここ
では、まず概略を説明する。撮像した光学画像を電気的
な画像信号として出力する2台のカメラA,Bの光軸
が、カメラ撮像面の水平方向に視差ができるように路面
に平行な平面上に含まれるようにすると共に、光軸がそ
れぞれ撮像方向の前方で交差するように傾斜させて配設
する。これらのカメラから出力される映像信号をカメラ
セレクタ制御部171 に入力し、該カメラセレクタ制御部
171 においてどちらか一方のカメラからの映像信号のみ
を選択してA/D変換部172 に出力する。このA/D変
換部172 では、入力された映像信号を基準クロック生成
部173 で生成する基準クロック信号に基づいて所定のサ
ンプリング間隔でデジタル化する。
Next, a first embodiment in which the method for inputting the stereo image is used for detecting a preceding vehicle, calculating a distance, and recognizing a sign will be described. FIG. 17 shows the configuration of the stereo image processing apparatus according to this embodiment. Here, the outline will be described first. The optical axes of the two cameras A and B that output the captured optical image as an electrical image signal are included in a plane parallel to the road surface so that parallax can be generated in the horizontal direction of the camera imaging plane. , Are arranged so as to be inclined so that the optical axes intersect each other in the front in the imaging direction. The video signals output from these cameras are input to the camera selector control unit 171, and the camera selector control unit 171
In 171 only the video signal from one of the cameras is selected and output to the A / D converter 172. The A / D converter 172 digitizes the input video signal at a predetermined sampling interval based on the reference clock signal generated by the reference clock generator 173.

【0043】そして、HD信号生成部174 は、基準クロ
ック生成部173 により生成される基準クロックが1走査
ラインの出力分送られる毎に、2台のカメラそれぞれに
水平方向の映像信号の出力開始タイミングを知らせる水
平同期信号を出力する。また、VD信号生成部175 によ
り前記水平同期信号が1フィールド内に出力する走査ラ
イン数分送られる毎に、2台のカメラそれぞれに1フィ
ールド分の画像の出力開始タイミングを知らせる垂直同
期信号を出力する。
Then, the HD signal generation unit 174 outputs the horizontal video signal output start timing to each of the two cameras every time the reference clock generated by the reference clock generation unit 173 is sent by the output of one scanning line. Output a horizontal sync signal. Also, every time the VD signal generator 175 sends the horizontal synchronizing signal for the number of scanning lines to be output within one field, a vertical synchronizing signal for notifying the output start timing of the image for one field is output to each of the two cameras. To do.

【0044】これらの同期信号を基に、カメラA,Bか
ら出力される映像信号を基準クロック毎にデジタル化し
て得られる合計2枚のデジタル画像を2つの画像メモリ
176a,176b により一時的に記憶すると共に、それらの画
像メモリ176a,176b への書き込み許可信号とメモリ上の
アドレス位置の指定を、画像メモリ制御部176 により基
準クロック毎に制御する。
Based on these synchronization signals, a total of two digital images obtained by digitizing the video signals output from the cameras A and B for each reference clock are stored in two image memories.
The memory 176a, 176b temporarily stores the write permission signal to the image memories 176a, 176b and the designation of the address position on the memory by the image memory controller 176 for each reference clock.

【0045】さらに、対象物検出部177 により、2つの
画像メモリのどちらか一方に記憶された画像中から対象
物のエッジ位置を求め、求めた対象物のエッジと対応す
るエッジを対応点探索部178 により他方の画像から探索
する。そして、2枚の画像間の互いに最も類似度の高い
範囲の座標と2台のカメラの焦点距離と2台のカメラの
位置関係をもとに、距離算出部179 により三角測量の原
理でカメラから対象物までの距離を求める。
Further, the object detecting section 177 obtains the edge position of the object from the image stored in either one of the two image memories, and finds the edge corresponding to the obtained edge of the object by the corresponding point searching section. 178 to search from the other image. Then, based on the coordinates of the range of highest similarity between the two images, the focal lengths of the two cameras, and the positional relationship between the two cameras, distance calculation unit 179 calculates the distance from the cameras based on the principle of triangulation. Find the distance to the object.

【0046】かかる構成のステレオ画像処理装置を用い
てステレオ画像を入力し、先行車の検出、先行車までの
距離算出、および標識の認識処理を行うフローチャート
を図18に示した。本実施の形態は、通常は図2(a) に
示す入力方法1を用いてステレオ画像を入力しつつ前方
の先行車までの距離を認識し、必要に応じて図2(c)に
示す入力方法3により入力画像を片方のカメラだけに切
り替え、該選択されたカメラからの画像を用いて道路標
識を認識するものである。
FIG. 18 is a flowchart showing a process of inputting a stereo image using the stereo image processing apparatus having the above-mentioned configuration, detecting the preceding vehicle, calculating the distance to the preceding vehicle, and recognizing the sign. In this embodiment, normally, the stereo image is input using the input method 1 shown in FIG. 2 (a), the distance to the preceding vehicle in front is recognized, and if necessary, the input shown in FIG. 2 (c) is performed. According to the method 3, the input image is switched to only one of the cameras and the image from the selected camera is used to recognize the road sign.

【0047】図19には、カメラ搭載車と先行車(対象
物)とカメラの配置、および、設定した絶対座標系を示
した。2台のカメラA,Bは、それぞれカメラAからの
撮像画像の水平方向前半部とカメラBからの撮像画像の
水平方向後半部に先行車が映出するようにカメラをそれ
ぞれ傾斜させて設置する。このような構成のステレオカ
メラを用いて、前記図6で説明したステレオ画像を用い
た距離認識方法に基づき、先行車までの距離を算出す
る。
FIG. 19 shows the arrangement of the vehicle equipped with the camera, the preceding vehicle (object) and the camera, and the set absolute coordinate system. The two cameras A and B are installed such that the cameras are inclined so that the preceding vehicle appears in the first half of the image captured by the camera A in the horizontal direction and the second half of the image captured by the camera B in the horizontal direction. . Using the stereo camera having such a configuration, the distance to the preceding vehicle is calculated based on the distance recognition method using the stereo image described in FIG.

【0048】まず、ステレオ画像処理による距離認識方
法について説明する。図20は無限遠点である消失点の
求め方を説明する図である。ここでは前記ステレオカメ
ラを搭載した自車両の左右に存在する白線の撮像画像上
における直線の式を求め、これらの交点を消失点とする
(ステップ1、以降S1と記す。)。これは、撮像画像
上でのステレオカメラに近い位置においては、左右の白
線は互いに離れた位置に存在するが、遠方の白線ほど白
線の間隔は狭まり、無限遠方においては2本の白線は交
わるようになることから、白線が交わる位置が消失点と
なる。
First, a distance recognition method by stereo image processing will be described. FIG. 20 is a diagram for explaining how to obtain the vanishing point which is the point at infinity. Here, a straight line expression on the picked-up image of the white lines existing on the left and right of the vehicle equipped with the stereo camera is obtained, and these intersections are set as vanishing points (step 1, hereinafter referred to as S1). This is because at the position close to the stereo camera on the captured image, the left and right white lines exist at positions distant from each other, but the farther the white line is, the narrower the white line interval becomes, and the two white lines intersect at infinity. Therefore, the position where the white lines intersect becomes the vanishing point.

【0049】次に、左右の白線の検出方法を説明する。
概略的には、取り付けたステレオカメラの位置と焦点距
離により計算できる撮像画像内の白線部分にウィンドウ
を作成し、このウィンドウ内を微分処理等を施して得ら
れるエッジ画像を用いて、例えば直線を検出対象とした
Hough 変換により、ウィンドウ内の白線を表す直線の式
を求める(S2)。
Next, a method for detecting the left and right white lines will be described.
In general, create a window in the white line part in the captured image that can be calculated from the position and focal length of the attached stereo camera, and use the edge image obtained by subjecting this window to differential processing, for example, a straight line Targeted for detection
By the Hough transform, a straight line expression representing a white line in the window is obtained (S2).

【0050】このウィンドウ位置の具体的な求め方を図
21を用いて説明する。ウィンドウ位置は白線が検出で
きそうなおよその位置で良いので、微小である各カメラ
の傾き角は無視することにする。いま、焦点距離がFの
レンズをもつカメラAを路面からの高さがhの位置に配
設し、該カメラAにより撮像することを考えると、撮像
方向に前方Z' の位置に存在する白線は、撮像面の中心
からXC 軸方向にh・F/Z' の位置に撮像されると計
算できる。また、YC 軸方向の位置は、道幅をWとし、
カメラAが道路のほぼ中央に位置していると仮定する
と、撮像面の中央から、2W・F/Z' の位置に白線が
撮像されると計算できる。この位置の画像メモリ上の位
置への変換は、撮像面上の1画素に対する大きさが判明
すれば求めることができる。
A specific method of obtaining the window position will be described with reference to FIG. Since the window position may be an approximate position where a white line is likely to be detected, the minute tilt angle of each camera is ignored. Now, considering that a camera A having a lens with a focal length of F is arranged at a height h from the road surface and an image is taken by the camera A, a white line existing at a position Z'forward in the image pickup direction is considered. Can be calculated when imaged at a position of h · F / Z ′ in the X C axis direction from the center of the imaging surface. Also, for the position in the Y C axis direction, the road width is W,
Assuming that the camera A is located substantially in the center of the road, it can be calculated that a white line is imaged at a position of 2W · F / Z ′ from the center of the imaging surface. The conversion of this position into the position on the image memory can be obtained if the size for one pixel on the imaging surface is known.

【0051】このような方法で白線検出のためのウィン
ドウの位置を決定し、その位置で左右の白線の直線式を
求め、これらの交差点からカメラAからの画像Aに対す
る消失点(XVA,YVA)を求める。また、カメラBから
の画像Bについても同様に、消失点(XVB,YVB)を求
める。これらの消失点はカメラの取付位置により決定さ
れるため、初期設定時に1度だけ求めればよい。
The position of the window for detecting the white line is determined by such a method, the linear expression of the left and right white lines is obtained at that position, and the vanishing point (X VA , Y) for the image A from the camera A is calculated from these intersections. VA ). Similarly, with respect to the image B from the camera B, the vanishing point (X VB , Y VB ) is similarly obtained. Since these vanishing points are determined by the mounting position of the camera, they need only be obtained once at the time of initial setting.

【0052】次に、詳細を後述する標識の有無を判断し
(S3)、標識が無いと判断したときは先行車位置を検
出する(S4)。先行車は2本の白線の間に挟まれた位
置に長い水平エッジを有するものとして判断できるた
め、該水平エッジを画像A,Bのどちらかを用いて検出
する。この先行車の位置の検出には、まず、消失点の検
出と同様な方法で白線を検出し、該検出された白線の間
に挟まれた位置に存在する水平エッジを、画面上で下か
ら上に向けて探索する。図22に示すように、水平エッ
ジがあるしきい値以上で、且つ、ある程度の長さをもつ
場合、その水平エッジが先行車による水平エッジと認識
することにより先行車を検出する。
Next, the presence or absence of a sign whose details will be described later is judged (S3), and when it is judged that there is no sign, the position of the preceding vehicle is detected (S4). Since the preceding vehicle can be determined to have a long horizontal edge at a position sandwiched between the two white lines, the horizontal edge is detected by using one of the images A and B. To detect the position of the preceding vehicle, first, a white line is detected by a method similar to the detection of the vanishing point, and the horizontal edges existing between the detected white lines are detected from the bottom on the screen. Search upwards. As shown in FIG. 22, when the horizontal edge is equal to or larger than a certain threshold and has a certain length, the horizontal edge is recognized as the horizontal edge of the preceding vehicle, and the preceding vehicle is detected.

【0053】次に、2枚の画像A,B間での対応点の求
め方を図23を用いて説明する。これは検出された画像
A内の先行車の位置に、所定の大きさのウィンドウを設
定し、このウィンドウ内の画像をテンプレートとしてマ
ッチング処理を行う(S5)。即ち、このテンプレート
と最も類似度の高い画像の位置を画像Bより求める。こ
のときの類似度の計算は、例えば正規化相関法を用いて
行えばよい。画像Aより抽出したテンプレートの各画素
の輝度値をAij、画像Bより抽出した画像の輝度値をB
ijとすると、正規化相関法による互いの画像の類似度は
(3)式により算出することができる。
Next, how to find the corresponding points between the two images A and B will be described with reference to FIG. This sets a window of a predetermined size at the position of the preceding vehicle in the detected image A, and performs matching processing using the image in this window as a template (S5). That is, the position of the image having the highest degree of similarity with this template is obtained from the image B. The calculation of the degree of similarity at this time may be performed using, for example, the normalized correlation method. The brightness value of each pixel of the template extracted from the image A is A ij , and the brightness value of the image extracted from the image B is B ij .
If ij , the degree of similarity between the images by the normalized correlation method can be calculated by the equation (3).

【0054】[0054]

【数1】 [Equation 1]

【0055】(3)式の値が高いほど類似度が高くな
る。そこで、画像Bより抽出する画像の位置を変化さ
せ、(3)式を用いて前記テンプレートと画像Bの各位
置の画像との類似度を算出することを繰り返し行い、図
24に示すように最も類似度の高い位置XB を求める。
そして、距離算出に必要となる視差を、画像Aの消失点
VAと画像A内に設定したウィンドウの位置XA との距
離(XVA−XA )と、画像Bの消失点XVBと正規化相関
法により求めた最も類似度の高い位置のウィンドウの位
置XB との距離(XVB−XB )との差(XVB−XB )−
(XVA−XA )の絶対値により求める(S6)。
The higher the value of equation (3), the higher the degree of similarity. Therefore, the position of the image to be extracted from the image B is changed, and the similarity between the template and the image at each position of the image B is repeatedly calculated using the equation (3), and as shown in FIG. A position X B having a high degree of similarity is obtained.
Then, the parallax required for distance calculation, the distance between the position X A of the window set in the vanishing point X VA and image A of the image A and (X VA -X A), a vanishing point X VB of the image B the difference between the distance between the position X B of the window position with the highest similarity as determined by the normalized correlation method (X VB -X B) (X VB -X B) -
Determined by the absolute value of (X VA -X A) (S6 ).

【0056】この値は画素単位であるので、用いたカメ
ラの撮像面の大きさと水平方向のサンプリング間隔を基
に1画素に相当する撮像面上の長さを算出し、この長さ
を基に画素単位で求められた視差を撮像面上の長さに換
算する。この視差を算出した後、(1)式を用いて先行
車までの距離を算出する(S7)。
Since this value is in pixel units, the length on the image pickup surface corresponding to one pixel is calculated based on the size of the image pickup surface of the camera used and the horizontal sampling interval, and based on this length. The parallax obtained in pixel units is converted into the length on the image pickup surface. After calculating this parallax, the distance to the preceding vehicle is calculated using the equation (1) (S7).

【0057】図25は本実施の形態におけるステレオ画
像の入力方式と、従来の入力方式とを比較したタイムチ
ャートである。通常の画像入力方式においては、1フレ
ーム1の第1フィールドで画像Aを入力し、第2フィー
ルドで画像Bを入力する。そして、フレーム2の第1フ
ィールドにおいて、該入力した画像A,Bを処理するこ
とを繰り返し行う。
FIG. 25 is a time chart comparing the stereo image input method according to the present embodiment with the conventional input method. In the normal image input method, the image A is input in the first field of one frame 1 and the image B is input in the second field. Then, in the first field of frame 2, processing of the input images A and B is repeated.

【0058】一方、本実施の形態においては、フレーム
1の第1フィールドで画像A,Bを入力し、第2フィー
ルドで該入力した画像A,Bを処理することを繰り返し
行う。これにより、画像の入力時間を半減させることが
でき、さらに画像の処理時間が1フィールド以下であれ
ば、1フレーム内で入力画像に対する処理を終了させる
ことが可能となる。また、この配置のステレオカメラを
用いることにより、撮像面の水平方向を視差方向とほぼ
一致させ、画像信号をデジタル化する際のサンプリング
間隔を狭くすることにより、対象物(例えば先行車)ま
での距離を精度良く求めることができる。
On the other hand, in this embodiment, the images A and B are input in the first field of the frame 1 and the input images A and B are processed in the second field repeatedly. As a result, the image input time can be halved, and if the image processing time is one field or less, the processing on the input image can be completed within one frame. Also, by using the stereo camera with this arrangement, the horizontal direction of the image pickup surface is made substantially coincident with the parallax direction, and the sampling interval at the time of digitizing the image signal is narrowed, so that the object (for example, the preceding vehicle) The distance can be calculated accurately.

【0059】次に標識認識について図26を用いて説明
する。図26はステレオ画像処理用の画像から標識の存
在を認識する方法を説明している。この標識認識は、例
えば標識を検出したときだけ行うようにし、通常は距離
認識を行うようにする。これにより距離認識の処理速度
が低下することを極力抑制しつつ標識認識を行うことが
できる。
Next, the sign recognition will be described with reference to FIG. FIG. 26 illustrates a method of recognizing the presence of a sign from an image for stereo image processing. This sign recognition is performed, for example, only when the sign is detected, and normally distance recognition is performed. As a result, it is possible to perform sign recognition while suppressing the processing speed of distance recognition from decreasing as much as possible.

【0060】標識が存在しない通常時の入力画像は、例
えば図26(a) に示すようなステレオ画像処理用の画像
となる。距離認識用の画像は図26(b) に示すように、
1台のカメラの半分の画角だけを使用しているため、自
車両近傍(斜め横)の標識は認識することができない
が、前方の標識の存在を認識することはできる。また、
広角レンズを使用して画角を拡げることにより、遠方の
標識から自車両近傍の標識まで撮像することもできる
が、広角レンズを使用すると撮像画像にレンズによる歪
みが生じるため、画像処理段階で精度よく距離を算出す
ることが困難となり好ましくない。
An input image in the normal state in which no marker is present is an image for stereo image processing as shown in FIG. 26 (a), for example. The image for distance recognition is as shown in Fig. 26 (b).
Since only half the angle of view of one camera is used, it is not possible to recognize a sign near the vehicle (oblique sideways), but it is possible to recognize the presence of a sign ahead. Also,
By using a wide-angle lens to widen the angle of view, you can image from a distant sign to a sign near your vehicle, but using a wide-angle lens causes distortion in the captured image due to the lens, so accuracy is increased at the image processing stage. It is not preferable because it is difficult to calculate the distance well.

【0061】この標識は、撮像画像上において路面の白
線上に存在しているように撮像される。前述のステレオ
画像処理時に検出した白線の検出結果をもとに、図26
(c)に示すように画像の左端での白線位置(y座標)を
求め、その白線位置に予め定めた大きさの標識認識用の
ウィンドウを設定する。このウィンドウ内に長い縦エッ
ジの存在が確認されたときに標識があると判断する。こ
のときの画像メモリに取り込まれた画像は、図26(d)
に示すように標識の存在は検出されても標識内容を判断
するには撮像された標識が小さ過ぎる。そこで、標識の
存在が検出されてから自車両が数m進んだ後、入力対象
を左斜め前方を入力するカメラBだけに切り換え、図2
(c) に示す入力方法3で1回画像を入力する(S8)。
このとき入力される画像の一例を図27(a) に示した。
この画像には標識が大きく撮像されており、図26(d)
に示す画像より十分詳細な情報が得られるため、標識内
容を認識するには好適である。
This sign is picked up as if it were on the white line of the road surface in the picked-up image. Based on the white line detection result detected during the stereo image processing described above, FIG.
As shown in (c), a white line position (y coordinate) at the left end of the image is obtained, and a window for sign recognition having a predetermined size is set at the white line position. When it is confirmed that a long vertical edge exists in this window, it is judged that there is a sign. The image captured in the image memory at this time is shown in FIG.
Even if the presence of the label is detected, the imaged label is too small to judge the content of the label as shown in FIG. Then, after the presence of the sign is detected and the host vehicle travels a few meters, the input target is switched to only the camera B that inputs diagonally forward left,
An image is input once by the input method 3 shown in (c) (S8).
An example of the image input at this time is shown in FIG. 27 (a).
A large image of the sign is captured in this image, as shown in FIG. 26 (d).
Since it is possible to obtain sufficiently detailed information from the image shown in (4), it is suitable for recognizing the contents of the sign.

【0062】図27(a) に示す撮像画像から標識内容を
認識するには、まず、撮像画像から円を検出する(S
9)。これは、例えば円を認識対象としたHough 変換を
用いることにより検出することができる。そして、標識
内容は図27(b) に示す円の内部の画像と、図27(c)
の予め用意した標識内容を表すテンプレートとの類似度
を求め、この類似度が最も高いテンプレートをその標識
内容と判断する(S10)。尚、この類似度は、例えば
前述の正規化相関法により求めることができる。
In order to recognize the contents of the sign from the captured image shown in FIG. 27 (a), first, a circle is detected from the captured image (S
9). This can be detected, for example, by using the Hough transform with a circle as a recognition target. The contents of the sign are the image inside the circle shown in Fig. 27 (b) and Fig. 27 (c).
Then, the degree of similarity with the template representing the previously prepared sign content is calculated, and the template with the highest degree of similarity is determined as the sign content (S10). The degree of similarity can be obtained by, for example, the above-described normalized correlation method.

【0063】このように、本実施の形態におけるステレ
オカメラは、斜め前方を撮像するため、遠方の標識を認
識することができると共に、自車両近傍の標識を大きく
撮像することができ、より確実な標識認識を行うことが
できる。次に、ステレオ画像処理による先行車までの距
離認識だけを行う場合において、より高速、且つ確実に
先行車までの距離認識を行う第2の実施の形態を説明す
る。
As described above, since the stereo camera according to the present embodiment images the diagonally forward direction, it is possible to recognize a distant sign and a large image of a sign near the own vehicle, which is more reliable. Mark recognition can be performed. Next, a second embodiment will be described in which, when only the distance to the preceding vehicle is recognized by stereo image processing, the distance to the preceding vehicle is surely recognized at a higher speed.

【0064】図28にステレオカメラを搭載した自車
両, 先行車(対象物), ステレオカメラの配置, および
それらを説明するために設定した世界座標系を示した。
このステレオカメラの配置は、撮像面の水平方向が路面
に対して垂直となるように、第1の実施の形態における
ステレオカメラの配置を90度回転させたものである。
そのため、2台のカメラA,Bは、それぞれカメラAに
よる撮像画像の水平方向前半部とカメラBによる撮像画
像の水平方向後半部に先行車が映出するようにそれぞれ
傾斜させる。そして先行車の認識は、この90度回転し
たステレオ画像を用いて前述と同様な方法で求める。
FIG. 28 shows an own vehicle equipped with a stereo camera, a preceding vehicle (object), an arrangement of stereo cameras, and a world coordinate system set for explaining them.
This stereo camera arrangement is obtained by rotating the arrangement of the stereo cameras in the first embodiment by 90 degrees so that the horizontal direction of the imaging surface is perpendicular to the road surface.
Therefore, the two cameras A and B are respectively tilted so that the preceding vehicle appears in the horizontal first half of the image captured by the camera A and the horizontal second half of the image captured by the camera B. Then, the recognition of the preceding vehicle is obtained by the same method as described above using the stereo image rotated by 90 degrees.

【0065】次に、カメラを90度回転することによる
効果を説明する。図28に示した世界座標系において、
先行車は路面に平行な方向(X軸方向)に平行な長いエ
ッジを持つことが多い。そこで、視差はできるだけ長い
エッジを対象とした方が2枚のマッチングをとり易いた
め、路面に垂直な方向(Y軸方向)に作る方がよい。ま
た、先行車はX軸方向に大きく動くことはあるが、Y軸
方向に大きく動くことはないため、このY軸方向の画角
は狭くても構わない。
Next, the effect of rotating the camera by 90 degrees will be described. In the world coordinate system shown in FIG. 28,
The preceding vehicle often has a long edge parallel to the direction parallel to the road surface (X-axis direction). Therefore, since it is easier to match the two parallaxes with the edge as long as possible, it is better to make the parallax in the direction perpendicular to the road surface (Y-axis direction). Further, although the preceding vehicle may move largely in the X-axis direction, but not in the Y-axis direction, the angle of view in the Y-axis direction may be narrow.

【0066】ところで、前述の第1の実施の形態におけ
るステレオ画像では、撮像面の水平方向の画角は垂直方
向の画角の2/3となっていた。そこで、Y軸方向には
画角が狭くても距離認識には十分であるので、本実施の
形態においてはY軸方向に撮像面の水平方向を合わせる
ようにする。つまり、図28に示すようにステレオカメ
ラを90度回転させた位置に配設する。先行車の移動の
特徴として、車両に対して左右方向に大きく移動する傾
向があり、本実施の形態のような配置とすると、先行車
の動きの大きな方向(左右方向)と画角の広い方向とを
一致させることができるために、広範囲に動く先行車を
より確実に認識できるようになる。
By the way, in the stereo image according to the first embodiment, the horizontal field angle of the image pickup surface is ⅔ of the vertical field angle. Therefore, even if the angle of view is narrow in the Y-axis direction, it is sufficient for distance recognition. Therefore, in the present embodiment, the horizontal direction of the imaging surface is aligned with the Y-axis direction. That is, as shown in FIG. 28, the stereo camera is arranged at a position rotated by 90 degrees. A feature of the movement of the preceding vehicle is that it tends to move greatly in the left-right direction with respect to the vehicle. With the arrangement as in this embodiment, the direction in which the preceding vehicle moves greatly (the left-right direction) and the direction with a wide angle of view Since and can be matched, it becomes possible to more reliably recognize a preceding vehicle moving in a wide range.

【0067】また、車両のエッジは左右方向に長く、そ
の長いエッジを用いて視差計算ができるために先行車認
識の精度と確実性が向上する。さらに、先行車はある程
度長いエッジを有すると考えられるので、撮像した画像
を間引いても2枚の画像のマッチングを十分行うことが
できる。そこで、図16に示した方式を用い、2台のカ
メラ間で同じ位置の走査ラインを、例えば1走査ライン
おきに入力することにより画像を間引き、且つ、先行車
の一部が撮像範囲に残るような部分まで入力したところ
で、フィールド後半の数走査ラインの入力を強制的に中
止するようにして画像の入力を制限する。
The edge of the vehicle is long in the left-right direction, and parallax calculation can be performed using the long edge, so that the accuracy and certainty of recognizing the preceding vehicle are improved. Further, since the preceding vehicle is considered to have a somewhat long edge, it is possible to sufficiently match the two images even if the captured images are thinned out. Therefore, using the method shown in FIG. 16, the scanning lines at the same position between the two cameras are input, for example, every other scanning line to thin out the images, and a part of the preceding vehicle remains in the imaging range. When such a portion is input, the input of the image is restricted by forcibly stopping the input of several scanning lines in the latter half of the field.

【0068】先行車認識ではこのような画像入力ができ
るため、画像メモリを節約することができ、且つ、画像
入力時間を短縮できる。また、このような画像入力を行
うと、図29に示すようにメモリ内の画像が視差方向に
対して垂直な方向に圧縮されるため、2枚の画像のマッ
チングを行うときに用いるテンプレートの大きさが小さ
くなり、1回の類似度の計算量が減少し、マッチング処
理を高速に行うことができるようになる。つまり、画像
入力時間の短縮だけではなく認識処理時間も短縮するこ
とができる。
Since such an image can be input in the preceding vehicle recognition, the image memory can be saved and the image input time can be shortened. Further, when such an image is input, the image in the memory is compressed in the direction perpendicular to the parallax direction as shown in FIG. 29, and thus the size of the template used when matching two images is performed. Becomes smaller, the amount of calculation of the degree of similarity once decreases, and the matching processing can be performed at high speed. That is, not only the image input time but also the recognition processing time can be shortened.

【0069】図30は、本実施の形態における画像入力
方式を用いた場合のタイムチャートを示している。従来
方式は図25に示した方式と同様に、フレーム1の第1
および第2フィールドでカメラA,Bにより画像入力を
それぞれ行い、フレーム2の第1フィールドで入力した
画像の処理を行うことを繰り返すものである。一方、本
実施の形態における入力方式(1) においては、フレーム
1の第1フィールドでカメラA,Bからの画像を入力す
ると共に画像後半部の不要な部分の入力を強制的に中止
する。これにより、入力時間が1フィールド未満とする
ことができる。そして、第2フィールドにおいて、第1
フィールドで入力した画像を処理する。これを繰り返し
行う。このような入力方式(1) を用いることで、画像の
入力時間を従来方式の半分以下に抑えることができる。
また、入力画像の処理時間が1フィールド以下であれば
1フレーム内での処理も可能となり、さらに入力方式
(2) に示すように、画像後半部の入力を中止したり画像
を間引きながら入力することにより、本来の画像入力時
間の途中で入力を打ち切り、且つ、画像処理の時間が次
の画像入力の待ち時間内でできるようであれば、実時間
処理も可能となる。
FIG. 30 shows a time chart when the image input method according to the present embodiment is used. The conventional method is the same as the method shown in FIG.
And the images are input by the cameras A and B in the second field and the processing of the image input in the first field of the frame 2 is repeated. On the other hand, in the input method (1) in the present embodiment, the images from the cameras A and B are input in the first field of the frame 1 and the input of the unnecessary portion of the latter half of the image is forcibly stopped. This allows the input time to be less than one field. Then, in the second field, the first
Process the image entered in the field. This is repeated. By using such an input method (1), the image input time can be suppressed to less than half that of the conventional method.
Also, if the processing time of the input image is one field or less, processing within one frame is also possible.
As shown in (2), by stopping the input of the latter half of the image or inputting while thinning out the image, the input is aborted in the middle of the original image input time, and the image processing time is Real-time processing is possible if it can be done within the waiting time.

【0070】このように、90度傾けたステレオカメラ
を用いて画像信号のサンプリング間隔を狭くした上で、
水平走査ラインの前後半でカメラを切り換えながら入力
し、且つ、画像を撮像面の垂直方向に間引いて入力する
方式を用いてステレオ画像を入力することで、先行車に
対する距離認識を高速、且つ高精度に行うことができ
る。
As described above, after narrowing the sampling interval of the image signal by using the stereo camera tilted by 90 degrees,
By inputting while switching the camera in the first and second halves of the horizontal scanning line, and by inputting a stereo image using a method of thinning out the image in the vertical direction of the imaging surface, distance recognition for the preceding vehicle is high speed and high. Can be done with precision.

【0071】次に、2台のカメラの光軸を平行にして配
設する第3の実施の形態について説明する。本実施の形
態における構成を図31に示した。本実施の形態におけ
る構成は、第1の実施の形態における構成のHD信号生
成部174 と同等な機能を有するHD信号生成部174aから
の水平同期信号より半周期遅延させた水平同期信号を生
成する遅延HD信号生成部174bを備えている。
Next, a third embodiment in which the optical axes of two cameras are arranged in parallel will be described. The configuration of this embodiment is shown in FIG. The configuration according to the present embodiment generates a horizontal synchronization signal that is delayed by a half cycle from the horizontal synchronization signal from the HD signal generation unit 174a having the same function as the HD signal generation unit 174 of the configuration according to the first embodiment. The delayed HD signal generation unit 174b is provided.

【0072】具体的には、図3に示すように、2台のカ
メラの走査ラインの前半部に距離を測定する対象物が映
出するように撮像し、一方のカメラは前記HD信号生成
部174aにより生成する水平同期信号で通常の画像を出力
し、そのカメラの1つの走査ラインの入力が中間にきた
時点で画像処理部側から、他方のカメラへ水平方向の出
力開始を知らせる信号を送る。これにより各カメラの光
軸を平行に配設したステレオカメラにおいても、1枚の
画像入力時間で2枚分の画像入力を行うことができる。
Specifically, as shown in FIG. 3, images are picked up so that the object whose distance is to be measured is projected in the first half of the scanning lines of the two cameras, and one of the cameras picks up the HD signal generator. A normal image is output by the horizontal synchronization signal generated by the 174a, and when the input of one scanning line of the camera comes to the middle, the image processing unit side sends a signal to the other camera to start the horizontal output. . As a result, even in a stereo camera in which the optical axes of the cameras are arranged in parallel, two images can be input in one image input time.

【0073】尚、2台のカメラが水平面内に含まれるよ
うに配設した場合においても、例えばカメラの走査ライ
ン前半部に対象物を捉えることにより同様に処理を行う
ことができる。ここで、第1および第2の実施の形態に
おける画像入力方式を用いた場合は、カメラの光軸をそ
れぞれ撮像方向前方で交差するように内側に傾斜させて
いるため、ステレオ画像処理により消失点を算出する必
要がある。
Even when the two cameras are arranged so as to be included in the horizontal plane, the same processing can be performed by capturing the object in the first half of the scanning line of the cameras. Here, when the image input methods of the first and second embodiments are used, since the optical axes of the cameras are inclined inward so as to intersect in the front in the imaging direction, the vanishing point is lost by the stereo image processing. Needs to be calculated.

【0074】前述の先行車認識では、路面上の白線を基
に消失点の位置を求めることが可能であるが、処理対象
によっては消失点の位置を求めることが困難な場合もあ
る。このような場合に本実施の形態における画像入力方
法は有効である。また、カメラを平行に設置することに
よる効果として、消失点を検出する必要がなくなるだけ
でなく、次のような利点もある。
In the preceding vehicle recognition described above, it is possible to find the position of the vanishing point based on the white line on the road surface, but it may be difficult to find the position of the vanishing point depending on the processing target. In such a case, the image input method according to the present embodiment is effective. Further, as the effect of installing the cameras in parallel, not only is it unnecessary to detect the vanishing point, but there are the following advantages.

【0075】即ち、カメラを傾斜させた場合のステレオ
画像処理は、カメラが固定されている場合は初期設定時
に消失点を求めることで、カメラを平行とした場合と同
じ精度での距離認識が可能であるが、走行する車にカメ
ラを搭載する場合など、視差方向にカメラの角度が動く
場合に、多少距離測定の精度が低下することがある。図
32を用いてこの精度が低下する原理を説明する。簡単
のため、図32(a)に示すように片方のカメラの光軸321
を消失点322 とレンズ中心323 を結ぶ線と同じ位置と
する。この配置のカメラの光軸321 がレンズ中心323 を
回転中心としてα度傾くと消失点の位置が変化すること
になる。例えば、前記先行車認識では初期設定時に消失
点XVA, XVBを求め、この消失点の位置は一定であると
仮定している。しかし、(2)式を用いて距離算出する
際、この2つの消失点の差XVB−XVAが変化すると距離
認識結果に影響を及ぼすことになる。即ち、図32(a)
に示す場合は、消失点の差XVB−XVAはF・tan θとな
り、図32(b) に示す場合は、消失点の差XVB−XVA
F・tan (θ−α)+F・tan αとなるため、カメラが
α度傾くと(4)式に示すだけ消失点の差が変化するこ
とになる。 F・tan θ−(F・tan (θ−α)+F・tan α) =F・tan (θ−α)・tan θ・tan α (4) 先行車認識の場合、通常αは微少(0.1 度以下)であ
り、レンズから対象物までの距離は眼間距離に対して十
分大きいので、θは大きな値ではない。例えば、眼間距
離100 mmで、1m程度前方の先行車が映出するように
カメラを設定すると、2台のカメラの光軸のなす角θは
6度程度となる(tan 6 °=100/1000 )。仮に、Fを10
mmとすると、α度カメラが動いたことによる視差のず
れは、0.00002 mm程度となる。いま、撮像面の大きさ
を4.8 mmとし、1走査ラインを256画素にサンプリン
グすると仮定すると、1画素の大きさは0.018 mmに相
当する。つまり、この視差のずれである0.000002mmは
0.001 画素に相当することになる。
That is, in the stereo image processing when the camera is tilted, when the camera is fixed, the vanishing point is obtained at the time of initial setting, so that distance recognition can be performed with the same accuracy as when the cameras are parallel. However, when the camera is mounted on a traveling car and the angle of the camera moves in the parallax direction, the accuracy of distance measurement may be slightly reduced. The principle of the decrease in accuracy will be described with reference to FIG. For the sake of simplicity, the optical axis 321 of one camera is
Is the same position as the line connecting the vanishing point 322 and the lens center 323. The position of the vanishing point changes when the optical axis 321 of the camera of this arrangement is inclined by α degrees with the lens center 323 as the center of rotation. For example, in the preceding vehicle recognition, vanishing points X VA and X VB are determined at the time of initial setting, and it is assumed that the position of these vanishing points is constant. However, when calculating the distance using the equation (2), if the difference X VB −X VA between the two vanishing points changes, the distance recognition result will be affected. That is, FIG. 32 (a)
In the case of FIG. 32, the vanishing point difference X VB −X VA becomes F · tan θ, and in the case of FIG. 32 (b), the vanishing point difference X VB −X VA is F · tan (θ−α) + F.・ Because tan α, the difference in vanishing points changes as shown in Eq. (4) when the camera tilts α degrees. F ・ tan θ- (F ・ tan (θ-α) + F ・ tan α) = F ・ tan (θ-α) ・ tan θ ・ tan α (4) In the case of preceding vehicle recognition, α is usually small (0.1 degree). Since the distance from the lens to the object is sufficiently larger than the interocular distance, θ is not a large value. For example, if the camera is set so that a preceding vehicle ahead of about 1 m is projected at an eye distance of 100 mm, the angle θ formed by the optical axes of the two cameras is about 6 degrees (tan 6 ° = 100 / 1000). Assuming that F is 10
In mm, the shift in parallax due to the movement of the α degree camera is about 0.00002 mm. Now, assuming that the size of the image pickup surface is 4.8 mm and one scanning line is sampled at 256 pixels, the size of one pixel corresponds to 0.018 mm. In other words, 0.000002mm which is the difference of this parallax
This is equivalent to 0.001 pixels.

【0076】このことから、前記設定での先行車認識で
あれば、カメラの設置角度の変化による消失点の差の変
化は無視できる程度の微少な値であるため、消失点を毎
回求める必要はない。しかし、この0.001 画素程度の誤
差が大きく影響するような処理に対しては消失点を毎回
求める必要がある。以上説明してきたように、本実施の
形態によれば、2台のカメラの光軸を平行に配設した場
合においても、前記第1および第2の実施の形態に示す
利点を備えたステレオ画像の入力を行なうことができる
と共に、消失点の検出が不要となり、且つ、カメラが走
行車両のように移動する場合に、カメラを傾けて設置し
た場合より高精度な距離認識を行うことができる。
From this fact, if the preceding vehicle is recognized with the above setting, the change in the difference of the vanishing points due to the change of the installation angle of the camera is a negligible value, and thus it is not necessary to obtain the vanishing point every time. Absent. However, it is necessary to obtain the vanishing point every time for the processing that the error of about 0.001 pixels has a great influence. As described above, according to this embodiment, even when the optical axes of two cameras are arranged in parallel, a stereo image having the advantages shown in the first and second embodiments is provided. In addition, it is not necessary to detect the vanishing point, and when the camera moves like a traveling vehicle, distance recognition can be performed with higher accuracy than when the camera is tilted.

【図面の簡単な説明】[Brief description of drawings]

【図1】 請求項1に係る発明の概要を説明するための
図。
FIG. 1 is a diagram for explaining an outline of the invention according to claim 1.

【図2】 映像信号の切り換えて画像記録手段に入力す
る方法の4パターンを示した図。
FIG. 2 is a diagram showing four patterns of a method of switching a video signal and inputting it to an image recording means.

【図3】 請求項6に係る発明の概要を説明するための
図。
FIG. 3 is a diagram for explaining the outline of the invention according to claim 6;

【図4】 請求項7に係る発明の概要を説明するための
図。
FIG. 4 is a diagram for explaining an outline of the invention according to claim 7;

【図5】 請求項8〜請求項10に係る発明の概要を説
明するための図。
FIG. 5 is a diagram for explaining the outline of the invention according to claims 8 to 10.

【図6】 基本的な距離算出のためのステレオ画像処理
方法を説明する図。
FIG. 6 is a diagram illustrating a stereo image processing method for basic distance calculation.

【図7】 走査ラインの前半および後半でカメラの入力
を切り換えて入力することを説明する図。
7A and 7B are views for explaining switching between camera inputs in the first half and the second half of a scanning line for inputting.

【図8】 1台のカメラの画角と2台のカメラを傾けて
配設したときの画角を示す図。
FIG. 8 is a diagram showing an angle of view of one camera and an angle of view when the two cameras are tilted.

【図9】 各カメラからの画像に対するステレオ画像領
域を示す図。
FIG. 9 is a diagram showing a stereo image area for an image from each camera.

【図10】 サンプリング間隔に対する画像の状態を説
明する図。
FIG. 10 is a diagram illustrating a state of an image with respect to a sampling interval.

【図11】 アナログの画像信号をデジタルの画像信号
に変換した画像を説明する図。
FIG. 11 is a diagram illustrating an image obtained by converting an analog image signal into a digital image signal.

【図12】 撮像面上の分解能と画像メモリ内の1画素
の大きさを示す図。
FIG. 12 is a diagram showing the resolution on the imaging surface and the size of one pixel in the image memory.

【図13】 一般的なステレオ画像処理による距離算出
方法を示す図。
FIG. 13 is a diagram showing a distance calculation method by general stereo image processing.

【図14】 カメラの焦点距離Fと眼間距離Dを一定と
したときの距離Zの測定精度と視差の分解能との関係を
示す図。
FIG. 14 is a diagram showing the relationship between the measurement accuracy of the distance Z and the resolution of parallax when the focal length F and the interocular distance D of the camera are constant.

【図15】 撮像範囲と対象物の測定精度との関係を示
す図。
FIG. 15 is a diagram showing a relationship between an imaging range and measurement accuracy of an object.

【図16】 各カメラからの画像入力タイミングの関係
とそのとき入力される画像を示す図。
FIG. 16 is a diagram showing a relationship of image input timing from each camera and an image input at that time.

【図17】 第1の実施の形態におけるステレオ画像処
理装置のブロック構成図。
FIG. 17 is a block configuration diagram of a stereo image processing apparatus according to the first embodiment.

【図18】 第1の実施の形態における先行車までの距
離算出および標識認識処理のフローチャート図。
FIG. 18 is a flowchart of distance calculation and sign recognition processing to a preceding vehicle in the first embodiment.

【図19】 第1の実施の形態における撮像方法とその
とき得られる画像とを示す図。
FIG. 19 is a diagram showing an imaging method according to the first embodiment and an image obtained at that time.

【図20】 消失点の算出方法を説明する図。FIG. 20 is a diagram illustrating a method of calculating a vanishing point.

【図21】 ウィンドウ位置の設定方法を説明するため
のカメラの取付位置を示した図。
FIG. 21 is a diagram showing a mounting position of a camera for explaining a method of setting a window position.

【図22】 先行車位置の検出方法を説明する図。FIG. 22 is a diagram illustrating a method of detecting the position of a preceding vehicle.

【図23】 撮像した2枚の画像間での対応点の求め方
を説明する図。
FIG. 23 is a diagram illustrating how to find corresponding points between two captured images.

【図24】 類似度の最も高い画像切取り位置を示す
図。
FIG. 24 is a diagram showing an image cutout position with the highest degree of similarity.

【図25】 第1の実施の形態における画像入力および
画像処理のタイミングを示すタイミングチャート。
FIG. 25 is a timing chart showing the timing of image input and image processing according to the first embodiment.

【図26】 標識の認識方法を説明する図。FIG. 26 is a diagram illustrating a method of recognizing a sign.

【図27】 標識認識時における標識内容の認識方法を
説明する図。
FIG. 27 is a diagram illustrating a method of recognizing the content of a sign when recognizing the sign.

【図28】 第2の実施の形態における撮像方法を示す
図。
FIG. 28 is a diagram showing an imaging method according to the second embodiment.

【図29】 視差を検出する方向に長いエッジを多く含
む場合の処理を示す図。
[Fig. 29] Fig. 29 is a diagram illustrating processing in the case where many long edges are included in the direction in which parallax is detected.

【図30】 第2の実施の形態における画像入力と画像
処理のタイミングを示すタイミングチャート。
FIG. 30 is a timing chart showing the timing of image input and image processing according to the second embodiment.

【図31】 第3の実施の形態におけるステレオ画像処
理装置のブロック構成図。
FIG. 31 is a block configuration diagram of a stereo image processing device according to a third embodiment.

【図32】 視差方向にカメラの角度が変化する場合に
距離測定精度が低下することを説明する図。
[Fig. 32] Fig. 32 is a diagram for describing that the distance measurement accuracy decreases when the camera angle changes in the parallax direction.

【図33】 従来の画像入力方法を説明する図。FIG. 33 is a diagram illustrating a conventional image input method.

【図34】 従来の他の画像入力方法を説明する図。FIG. 34 is a diagram illustrating another conventional image input method.

【符号の説明】[Explanation of symbols]

171 カメラセレクタ制御部 172 A/D変換部 174,174a,174b HD信号生成部 175 VD信号生成部 176 画像メモリ 177 対象物検出部 178 対応点検索部 179 距離算出部 171 Camera selector control unit 172 A / D conversion unit 174,174a, 174b HD signal generation unit 175 VD signal generation unit 176 Image memory 177 Target object detection unit 178 Corresponding point search unit 179 Distance calculation unit

【手続補正書】[Procedure amendment]

【提出日】平成8年6月21日[Submission date] June 21, 1996

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0054[Correction target item name] 0054

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0054】[0054]

【数1】 [Equation 1]

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】第1のカメラと第2のカメラを光軸が特定
の水平平面内に含まれるように並設したステレオカメラ
により対象物を撮像し、前記第1および第2のカメラが
撮像した映像信号の走査ライン前半部に対しては、前記
第1のカメラから得られる前記対象物を含む領域の映像
信号を入力する一方、走査ライン後半部に対しては、前
記第2のカメラから得られる前記領域に対応する前記対
象物を含む領域の映像信号を入力し、これら入力した映
像信号に基づいてステレオ画像処理を行うことを特徴と
するステレオ画像処理装置。
1. An object is imaged by a stereo camera in which a first camera and a second camera are arranged side by side so that an optical axis is included in a specific horizontal plane, and the first and second cameras take images. The video signal of the area including the object obtained from the first camera is input to the first half of the scanning line of the video signal, while the second camera is input to the second half of the scanning line. A stereo image processing apparatus, wherein a video signal of an area including the object corresponding to the obtained area is input, and stereo image processing is performed based on the input video signal.
【請求項2】ステレオ画像入力を行うステレオ画像処理
装置において、 光軸が特定の水平平面内に含まれるように第1および第
2のカメラを並列に配設して対象物を撮像する撮像手段
と、 前記第1および第2のカメラからの映像信号の走査ライ
ン前半部に対しては、前記第1のカメラから得られる前
記対象物を含む領域の映像信号を選択する一方、走査ラ
イン後半部に対しては、前記第2のカメラから得られる
前記領域に対応した前記対象物を含む領域の映像信号を
選択して切り換える映像切り換え手段と、 該映像信号切り換え手段から出力された映像信号を記憶
する画像記憶手段と、 該画像記憶手段に記憶された画像に対してステレオ画像
処理を施すステレオ画像処理手段と、を備えた請求項1
に記載のステレオ画像処理装置。
2. A stereo image processing apparatus for inputting a stereo image, wherein image pickup means for picking up an object by arranging first and second cameras in parallel so that an optical axis is included in a specific horizontal plane. With respect to the first half of the scanning line of the video signal from the first and second cameras, the second half of the scanning line is selected while selecting the video signal of the region including the object obtained from the first camera. With respect to, the video switching means for selecting and switching the video signal of the area including the object corresponding to the area obtained from the second camera, and storing the video signal output from the video signal switching means And a stereo image processing means for performing stereo image processing on the image stored in the image storage means.
The stereo image processing device according to.
【請求項3】前記ステレオ画像処理手段は、前記画像記
憶手段に記憶された画像に基づいて、撮像された対象物
までの距離情報を算出するものである請求項1または請
求項2に記載のステレオ画像処理装置。
3. The stereo image processing means calculates the distance information to the imaged object on the basis of the image stored in the image storage means. Stereo image processing device.
【請求項4】前記映像切り換え手段は、前記第1および
第2のカメラからの映像信号を、(1)前記走査ライン
の前半部および後半部共に前記対象物が含まれるよう
に、走査ラインの前半部を一方のカメラからの映像信号
に、後半部を他方のカメラからの映像信号に切り換える
場合と、(2)走査ラインの全体に渡り、どちらか一方
のカメラからの映像信号に固定する場合と、のどちらか
一方の状態を選択して前記カメラからの映像信号を前記
画像記憶手段に入力するようにし、前記(2)の場合に
単眼画像に対する画像処理を行う単眼画像処理手段を含
むようにした請求項1〜請求項3のいずれか1つに記載
のステレオ画像処理装置。
4. The video switching means outputs the video signals from the first and second cameras so that (1) the object is included in both the first half and the second half of the scan line. When switching the first half to the video signal from one camera and switching the second half to the video signal from the other camera, and (2) when fixing the video signal from either camera over the entire scanning line. One of the two states is selected so that the video signal from the camera is input to the image storage means, and a monocular image processing means for performing image processing on the monocular image in the case of (2) is included. The stereo image processing apparatus according to claim 1, wherein the stereo image processing apparatus is a stereo image processing apparatus.
【請求項5】前記単眼画像処理手段は、前記切り換え手
段により選択されたどちらか一方のカメラだけの画像に
基づいて、撮像方向前方の標識の内容を認識するもので
ある請求項4に記載のステレオ画像処理装置。
5. The monocular image processing means is for recognizing the content of a sign ahead of the imaging direction based on the image of only one of the cameras selected by the switching means. Stereo image processing device.
【請求項6】前記第1および第2のカメラは、前記特定
の水平平面内でカメラの光軸をカメラ前方で交差するよ
うに傾けて配設した請求項1〜請求項5のいずれか1つ
に記載のステレオ画像処理装置。
6. The first and second cameras are arranged so as to be tilted so that the optical axes of the cameras intersect in the front of the camera within the specific horizontal plane. Stereo image processing device according to item 3.
【請求項7】前記第1および第2のカメラは、該特定の
水平面内で前記カメラの光軸がほぼ平行になるように配
設し、各カメラの映像信号の走査ライン前半部または後
半部のどちらか片方のみに対象物が含まれるように撮像
すると共に、前記第1および第2のカメラのうち一方の
カメラの映像信号のみ走査ラインの半周期分遅延させて
画像記憶手段に入力するようにした請求項1〜3に記載
のステレオ画像処理装置。
7. The first and second cameras are arranged such that the optical axes of the cameras are substantially parallel in the specific horizontal plane, and the first half or the second half of the scanning line of the video signal of each camera. Of the first camera and the second camera, the video signal of one of the first and second cameras is delayed by a half cycle of the scanning line and input to the image storage means. The stereo image processing apparatus according to claim 1, wherein
【請求項8】前記特定の水平平面に代えて特定の垂直平
面とすると共に、各カメラの主走査方向を該垂直平面に
一致させるようにした請求項1〜請求項3,請求項7の
いずれか1つに記載のステレオ画像処理装置。
8. A specific vertical plane is used instead of the specific horizontal plane, and the main scanning direction of each camera is made to coincide with the vertical plane. The stereo image processing device according to any one of the above.
【請求項9】前記第1および第2のカメラからの映像信
号をデジタル信号に変換するA/D変換手段を備え、該
A/D変換手段による映像信号のサンプリング間隔を、
該カメラの副走査方向より主走査方向が短くなるように
設定した請求項1〜請求項8のいずれか1つに記載のス
テレオ画像処理装置。
9. An A / D conversion means for converting the video signals from the first and second cameras into a digital signal, wherein the sampling interval of the video signal by the A / D conversion means is
9. The stereo image processing apparatus according to claim 1, wherein the main scanning direction is set shorter than the sub scanning direction of the camera.
【請求項10】前記第1および第2のカメラにより撮像
した撮像画像の水平方向、垂直方向の少なくとも一方の
方向に対し、前記画像記憶手段に入力する映像信号を制
限するようにした請求項1〜請求項9のいずれか1つに
記載のステレオ画像処理装置。
10. A video signal input to said image storage means is restricted in at least one of a horizontal direction and a vertical direction of a picked-up image picked up by said first and second cameras. ~ The stereo image processing device according to claim 9.
【請求項11】前記第1および第2のカメラからの映像
信号は、所定の走査ライン数毎に前記画像記憶手段に入
力するようにした請求項10に記載のステレオ画像処理
装置。
11. The stereo image processing apparatus according to claim 10, wherein the video signals from the first and second cameras are input to the image storage means for each predetermined number of scanning lines.
【請求項12】前記第1および第2のカメラからの映像
信号は、所定の走査ライン数だけを前記画像記憶手段に
入力するようにした請求項10または請求項11に記載
のステレオ画像処理装置。
12. The stereo image processing apparatus according to claim 10, wherein the video signals from the first and second cameras are input to the image storage means by a predetermined number of scanning lines. .
JP10588296A 1996-04-25 1996-04-25 Stereo image processing device Expired - Fee Related JP3446471B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10588296A JP3446471B2 (en) 1996-04-25 1996-04-25 Stereo image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10588296A JP3446471B2 (en) 1996-04-25 1996-04-25 Stereo image processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003126534A Division JP3709879B2 (en) 2003-05-01 2003-05-01 Stereo image processing device

Publications (2)

Publication Number Publication Date
JPH09294280A true JPH09294280A (en) 1997-11-11
JP3446471B2 JP3446471B2 (en) 2003-09-16

Family

ID=14419313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10588296A Expired - Fee Related JP3446471B2 (en) 1996-04-25 1996-04-25 Stereo image processing device

Country Status (1)

Country Link
JP (1) JP3446471B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261830A (en) * 1999-03-10 2000-09-22 Technol Res Assoc Of Medical & Welfare Apparatus Stereoscopic video image pickup device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261830A (en) * 1999-03-10 2000-09-22 Technol Res Assoc Of Medical & Welfare Apparatus Stereoscopic video image pickup device

Also Published As

Publication number Publication date
JP3446471B2 (en) 2003-09-16

Similar Documents

Publication Publication Date Title
JP6717534B2 (en) Stereo support with rolling shutter
US7139424B2 (en) Stereoscopic image characteristics examination system
JP5615441B2 (en) Image processing apparatus and image processing method
US6385334B1 (en) System and method for adjusting stereo camera
US5602584A (en) Apparatus for producing a panoramic image using a plurality of optical systems
JP3709879B2 (en) Stereo image processing device
JP3349121B2 (en) Stereo camera mounting structure
JPH05114099A (en) Distance detector for vehicle
JPS59182688A (en) Stereoscopic processor
JP5365387B2 (en) Position detection device
JPH10269362A (en) Object recognition method and device therefor
JP3562250B2 (en) Leading vehicle detection device
US11509813B2 (en) Image processing device
JP3384278B2 (en) Distance measuring device
JPH10240934A (en) Object extractor
JP2002099902A (en) Image processing device for measuring three-dimensional information of object through binocular stereoscopic vision, its method, and storage medium with measurement program stored therein
JP3516118B2 (en) Object recognition method and object recognition device
JP4248212B2 (en) Stereo image processing apparatus and stereo image processing method
JP3446471B2 (en) Stereo image processing device
JPH06274788A (en) Number plate reading device
JPH09145368A (en) Moving and tracing method for object by stereoscopic image
CN115943636A (en) Processing device and vehicle-mounted camera device
JPH10283478A (en) Method for extracting feature and and device for recognizing object using the same method
JP2809348B2 (en) 3D position measuring device
JP3419968B2 (en) Image recognition device and method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees