JPH0528246A - Three-dimensional object recognition device - Google Patents
Three-dimensional object recognition deviceInfo
- Publication number
- JPH0528246A JPH0528246A JP3180908A JP18090891A JPH0528246A JP H0528246 A JPH0528246 A JP H0528246A JP 3180908 A JP3180908 A JP 3180908A JP 18090891 A JP18090891 A JP 18090891A JP H0528246 A JPH0528246 A JP H0528246A
- Authority
- JP
- Japan
- Prior art keywords
- polyhedron
- projection
- error
- feature
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】この発明は、一般に3次元物体認
識装置に関し、特に、撮像における誤差を考慮に入れ
て、撮像された画像に基づいて、より正確に3次元形状
データを生成できる3次元物体認識装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates generally to a three-dimensional object recognition device, and more particularly to a three-dimensional object data recognition system capable of more accurately generating three-dimensional shape data on the basis of an imaged image in consideration of an error. The present invention relates to an object recognition device.
【0002】[0002]
【従来の技術】従来より、画像処理の技術分野では、3
次元の状況または物体を撮像装置を用いて撮像し、得ら
れた画像に基づいて3次元の状況または物体をデータに
より表現する手法が知られている。3次元の物体認識
は、たとえば、自立走行型移動ロボットの走行環境地図
データの作成,3次元の物体を識別するための識別デー
タの作成など、広い応用分野を有している。2. Description of the Related Art Conventionally, in the technical field of image processing, 3
A method is known in which a three-dimensional situation or object is imaged using an imaging device, and a three-dimensional situation or object is represented by data based on the obtained image. The three-dimensional object recognition has a wide application field, for example, creation of traveling environment map data of a self-supporting mobile robot and creation of identification data for identifying a three-dimensional object.
【0003】画像に基づいて、3次元の状況または物体
を復元するためには、従来から点投影の原理が適用され
ている。点投影では、3次元空間中におかれた物体の各
点は、投影中心点に基づいて投影面または画面上に投影
される。撮像された画像の画面上の1点は、3次元空間
中の1点、または画面上の点と撮像装置の投影中心点と
を結ぶ直線に相当する。To restore a three-dimensional situation or object based on an image, the principle of point projection has been conventionally applied. In point projection, each point of an object placed in a three-dimensional space is projected on a projection surface or screen based on the projection center point. One point on the screen of the captured image corresponds to one point in the three-dimensional space or a straight line connecting the point on the screen and the projection center point of the imaging device.
【0004】しかしながら、実際の撮像装置は、理想的
な点投影を実現することができない。たとえば、理想的
な点投影では投影された点の位置が連続的に変化し得る
が、これに対し、実際の撮像装置では、投影された点の
位置は、画素の位置によって決定される離散的な値によ
り表わされる。これに加えて、理想的な点投影では、撮
像装置の焦点距離および設置された位置などが正確に知
ることができるが、現実の撮像装置ではこれらのパラメ
ータを正確に知ることができない。すなわち、現実の撮
像装置ではこれらのパラメータが推定により与えられ
る。さらには、現実の撮像装置では、さまざまな原因に
よって生じるノイズが存在することも指摘される。However, an actual image pickup device cannot realize ideal point projection. For example, in an ideal point projection, the position of the projected point may change continuously, whereas in an actual imaging device, the position of the projected point is a discrete point determined by the position of the pixel. Is represented by a value. In addition to this, in ideal point projection, the focal length and the installed position of the image pickup apparatus can be accurately known, but the actual image pickup apparatus cannot accurately know these parameters. That is, in an actual image pickup device, these parameters are given by estimation. Furthermore, it is pointed out that in an actual image pickup apparatus, there are noises caused by various causes.
【0005】撮像装置のパラメータの推定は、高精度で
あることが望ましい。従来の推定方法では、3次元空間
におかれた複数個の指標が撮影され、画面上での投影位
置と設置位置との関係から撮像装置のパラメータが推定
されていた。It is desirable that the estimation of the parameters of the image pickup device be highly accurate. In the conventional estimation method, a plurality of indexes placed in a three-dimensional space are photographed, and the parameters of the imaging device are estimated from the relationship between the projected position on the screen and the installation position.
【0006】パラメータの推定を高精度で行なうために
は、指標を3次元空間において高精度で設置しかつ固定
する必要がある。これに加えて、推定時点の状態を保存
するため、撮像装置の防振および固定などの処置が必要
となる。その結果、パラメータ推定の手続きが煩雑とな
っている。一般に、3次元データの復元精度は、高精度
であることが望ましく、他方、撮像装置のパラメータは
低精度であることが実用的である。In order to estimate the parameters with high accuracy, it is necessary to set and fix the index with high accuracy in the three-dimensional space. In addition to this, in order to save the state at the time of estimation, it is necessary to take measures such as image stabilization and fixing of the imaging device. As a result, the parameter estimation procedure is complicated. Generally, it is desirable that the restoration accuracy of the three-dimensional data is high, while it is practical that the parameters of the image pickup device are low.
【0007】撮像装置のパラメータの推定精度の低下
は、復元結果の精度の低下をもたらす。復元結果の精度
の低下を防ぐためには、同一の物体を異なった位置から
異なった方向で繰返し撮像することが有効である。撮像
された個々の画像に基づいて復元結果をぞれそれ求め、
それらの交差部分から復元結果全体の精度を向上させる
手法が考えられる。このような復元結果の統合方法にも
いくつかの問題がある。A decrease in the estimation accuracy of the parameters of the image pickup device causes a decrease in the accuracy of the restoration result. In order to prevent a decrease in the accuracy of the restoration result, it is effective to repeatedly image the same object from different positions in different directions. Each of the restoration results is obtained based on each imaged image,
A method of improving the accuracy of the entire restoration result from these intersections can be considered. There are some problems in the method of integrating the restoration results.
【0008】たとえば、使用する画像にノイズが存在す
る場合、ノイズに由来する復元結果と実在する物体の復
元結果とが混在して得られる。原理的には、復元された
形状において両者を区別することができない。このこと
は、交差しない復元形状が、ノイズに由来した復元物体
に限らないことを意味する。ノイズが潜在的に存在する
実画像を対象とした場合、最終的な復元結果にノイズが
残されており、正しい結果が失われる可能性がある。For example, when the image to be used has noise, the restoration result derived from the noise and the restoration result of the actual object are obtained in a mixed manner. In principle, the two cannot be distinguished in the restored shape. This means that the restored shape that does not intersect is not limited to the restored object derived from noise. When a real image in which noise is potentially present is targeted, noise may remain in the final restoration result, and the correct result may be lost.
【0009】画像中にノイズが存在しない場合でも、3
次元空間において広範囲に移動しながら順次撮像し、得
られた画像から復元した3次元データを1つの3次元地
図に重ね合わせると、そのような場合では、各画像の視
野が限られるために、どの視野も空間的に交差しない状
況では、交差部分が存在しないことになる。Even if there is no noise in the image, 3
When three-dimensional data reconstructed from the obtained images are superposed on a single three-dimensional map by sequentially capturing images while moving over a wide range in a three-dimensional space, in such a case, the field of view of each image is limited. In a situation where the fields of view also do not intersect spatially, there is no intersection.
【0010】その他、撮像装置の制約から、3次元空間
中で撮像装置を移動させながら複数の異なった方向およ
び位置から順次撮像し、撮像順に画像を処理する場合が
ある。そこでは、撮像順に形状が復元され、復元結果の
交差判定が行なわれる。交差する復元結果だけが3次元
地図へ順次配置される方法が採用される場合では、復元
結果の交差判定順序により、3次元地図の結果が異なる
ことが問題となる(Set Membership A
pproch to the Propagation
of Uncertain Geometric I
nformation,A.Sabater,F.Th
omas,Proc.of the 1991 IEE
E Int.Conf.on Robotice an
d Automation,Apr.1991)。この
点について、以下に、図17を参照して簡単に説明す
る。In addition, due to the limitation of the image pickup device, there are cases where the image pickup device is sequentially moved in a three-dimensional space from a plurality of different directions and positions, and the images are processed in the image pickup order. There, the shapes are restored in the order of imaging, and the intersection determination of the restoration results is performed. When a method is adopted in which only the restored results that intersect are sequentially arranged on the 3D map, the result of the 3D map may be different depending on the order of intersection determination of the restored results (Set Membership A
proch to the Propagation
of Uncertain Geometric I
nformation, A.N. Sabater, F.M. Th
mas, Proc. of the 1991 IEEE
E Int. Conf. on Robotic an
d Automation, Apr. 1991). This point will be briefly described below with reference to FIG.
【0011】図17は、従来技術において交差判定の順
序の違いによって復元結果が異なることを示す模式図で
ある。図17を参照して、ここでは、異なった4つの位
置P1ないしP4から同一の被写体が撮像され、画像I
1ないしI4が得られるものと仮定する。第1の処理順
序では、画像I1およびI2に基づいて形状61が復元
される。形状61と画像I3とから、形状62が復元さ
れる。形状62と画像I4とから形状63が復元され
る。同様に、第2の処理順序では、画像I3およびI4
に基づいて形状64が復元される。形状64と画像I2
とから形状65が復元される。形状65と画像I1とか
ら形状66が復元される。FIG. 17 is a schematic diagram showing that the restoration result is different depending on the difference in the order of intersection determination in the conventional technique. Referring to FIG. 17, here, the same subject is imaged from four different positions P1 to P4, and an image I
Suppose that 1 to 14 are obtained. In the first processing order, the shape 61 is restored based on the images I1 and I2. The shape 62 is restored from the shape 61 and the image I3. The shape 63 is restored from the shape 62 and the image I4. Similarly, in the second processing order, images I3 and I4
The shape 64 is restored based on Shape 64 and image I2
The shape 65 is restored from and. The shape 66 is restored from the shape 65 and the image I1.
【0012】したがって、第1および第2の処理順序に
従う処理から2つの形状63および66が復元されるの
であるが、従来の交差処理の手法ではこれらの形状63
および66が一致していなかった。言い換えると、処理
順序により復元された形状が異なっており、パラメータ
に基づく誤差とは別の処理順序に基づく誤差が生じてい
た。Therefore, although the two shapes 63 and 66 are restored from the processing according to the first and second processing orders, these shapes 63 are restored by the conventional cross processing method.
And 66 did not match. In other words, the restored shape is different depending on the processing order, and an error based on the processing order different from the error based on the parameter occurs.
【0013】[0013]
【発明が解決しようとする課題】図16は、投影面(ま
たは画面)上の画素に対応する点が存在し得る、3次元
空間内の領域を示す模式図である。図16を参照して、
この図では2つの位置P1およびP2からの点投影が仮
定されている。位置P1からの点投影では、画面IR上
の1つの画素PRの点投影中心点FRからの投影領域が
示される。位置P2からの点投影では、画面IL上の画
素PLの点投影中心点FLからの投影領域が示される。
2つの投影領域の重複部分を求めることにより、交点O
1,O2,O3およびO4からなる四角形(3次元空間
内では6面体)が得られる。FIG. 16 is a schematic diagram showing a region in a three-dimensional space where points corresponding to pixels on the projection plane (or screen) may exist. Referring to FIG.
In this figure, point projections from two positions P1 and P2 are assumed. In the point projection from the position P1, the projection area from the point projection center point FR of one pixel PR on the screen IR is shown. In the point projection from the position P2, the projection area from the point projection center point FL of the pixel PL on the screen IL is shown.
By finding the overlapping part of the two projected areas, the intersection point O
A quadrangle (a hexahedron in the three-dimensional space) consisting of 1, O2, O3 and O4 is obtained.
【0014】したがって、2つの点投影に基づいて、画
素PRおよびPLに対応する点が、実際の3次元空間に
おいて交点O1ないしO4により決定される6面体内に
存在することが予測される。しかしながら、従来の手法
では、上記の6面体に代えて、楕円体または正規分布を
利用した推定がなされている(Geometrical
Fusion Method for Multi−
Sensor Ronotic Systems,Y.
Nakamura,Y.Xu,Proc.ofthe
1991IEEE Int. Conf.on Rob
oticeand Automation,Apr.1
991)。Therefore, based on the two point projections, it is predicted that the points corresponding to the pixels PR and PL are present in the hexahedron determined by the intersection points O1 to O4 in the actual three-dimensional space. However, in the conventional method, estimation using an ellipsoid or a normal distribution is performed instead of the above-mentioned hexahedron (Geometrical).
Fusion Method for Multi-
Sensor Ronotic Systems, Y.M.
Nakamura, Y .; Xu, Proc. ofthe
1991 IEEE Int. Conf. on Rob
otice and Automation, Apr. 1
991).
【0015】したがって、図16に示すように、曲線E
1またはE2により示されるような3次元空間における
楕円体が、画素PRおよびPLの存在し得る領域として
得られる。しかしながら、これらの楕円体E1およびE
2は、交点O1ないしO4により規定される6面体と比
較すると、形状が異なっている。すなわち、楕円体E1
は、上述の6面体に内接するものとして得られるので、
画素PRおよびPLに対応する点が3次元空間内で存在
し得る領域が残される(図中の斜線部)ことになる。Therefore, as shown in FIG. 16, the curve E
An ellipsoid in three-dimensional space as indicated by 1 or E2 is obtained as a possible region of pixels PR and PL. However, these ellipsoids E1 and E
2 has a different shape compared to the hexahedron defined by the intersection points O1 to O4. That is, the ellipsoid E1
Is obtained by inscribed in the above-mentioned hexahedron,
A region where the points corresponding to the pixels PR and PL may exist in the three-dimensional space is left (hatched portion in the figure).
【0016】一方、楕円体E2は、前述の6面体に外接
するものとして得られるので、6面体の全領域を含んで
いるが、現実には画素に対応する点が存在し得ない領域
をも含んでいる。On the other hand, the ellipsoid E2 is obtained as the one circumscribing the above-mentioned hexahedron, and therefore includes the entire area of the hexahedron, but in reality there are areas where points corresponding to pixels cannot exist. Contains.
【0017】また、現実には投影中心点の位置データ、
すなわち焦点距離データに誤差が含まれることがしばし
ば生じる。たとえば、位置P2における投影中心点FL
がFL′に存在するとき、画素PLに対応する点の投影
領域が図中点線で示されるように変化する。したがっ
て、交点O1′ないしO4′により規定される6面体領
域が、画素PRおよびPLに対応する点の存在し得る領
域として得られる。したがって、投影中心点の位置デー
タに含まれる誤差をも考慮に入れると、図16に示した
楕円体E3を推定する必要が生じる。In reality, the position data of the projection center point,
That is, the focal length data often contains an error. For example, the projection center point FL at the position P2
Exists in FL ', the projection area of the point corresponding to the pixel PL changes as shown by the dotted line in the figure. Therefore, the hexahedral region defined by the intersections O1 'to O4' is obtained as a region where the points corresponding to the pixels PR and PL can exist. Therefore, when the error included in the position data of the projection center point is also taken into consideration, it becomes necessary to estimate the ellipsoid E3 shown in FIG.
【0018】図16に示した楕円体E1,E2およびE
3と交点O1ないしO4によって規定された6面体とを
比較してわかるように、画素PRおよびPLに対応する
点が3次元空間内で存在し得ると推定される領域が異な
っている。したがって、画素に対応する点が存在し得る
領域が3次元空間内において正確にかつ無駄なく表現で
きていないので、被写体の正確な3次元データを得るこ
とができなかった。The ellipsoids E1, E2 and E shown in FIG.
As can be seen by comparing 3 and the hexahedron defined by the intersections O1 to O4, the regions in which it is estimated that the points corresponding to the pixels PR and PL can exist in the three-dimensional space are different. Therefore, an area in which a point corresponding to a pixel may exist cannot be accurately and efficiently expressed in a three-dimensional space, and accurate three-dimensional data of a subject cannot be obtained.
【0019】この発明は、上記のような課題を解決する
ためになされたもので、3次元物体認識装置において、
撮像における誤差を考慮に入れて、撮像された画像に基
づいてより正確に3次元形状データをを生成することを
目的とする。The present invention has been made to solve the above problems, and in a three-dimensional object recognition apparatus,
It is an object of the present invention to more accurately generate three-dimensional shape data based on a captured image in consideration of an error in image capturing.
【0020】[0020]
【課題を解決するための手段】この発明にかかる3次元
物体認識装置は、同一の3次元被写体を第1の複数の異
なった位置から撮像し、第1の複数の画像信号を発生す
る撮像手段と、撮像手段が有する誤差を規定する誤差デ
ータを設定する誤差設定手段と、第1の複数の画像信号
に応答して、第1の複数の画像間で対応する第3の複数
の特徴点を検出する特徴点検出手段と、誤差設定手段に
より設定された誤差データに応答して、特徴点検出手段
によって検出された対応する特徴点が3次元空間におい
て存在し得る領域を規定するための特徴多面体データを
生成する特徴多面体生成手段と、撮像面上に撮像画素領
域の広さに基づいて、第1の複数の異なった位置から撮
像手段が共通に撮像できる視野の領域を規定するための
視野多面体データを生成する視野多面体生成手段と、特
徴多面体データおよび視野多面体データに応答して、被
写体の3次元形状データを生成する3次元形状データ生
成手段とを含む。A three-dimensional object recognition apparatus according to the present invention is an image pickup means for picking up an image of the same three-dimensional object from a plurality of first different positions to generate a first plurality of image signals. And an error setting unit that sets error data that defines an error that the image capturing unit has, and a third plurality of characteristic points that correspond between the first plurality of images in response to the first plurality of image signals. A feature polyhedron for defining a region in which a corresponding feature point detected by the feature point detecting unit can exist in a three-dimensional space in response to the feature point detecting unit for detecting and the error data set by the error setting unit. A characteristic polyhedron generating means for generating data, and a visual field polyhedron for defining an area of a visual field that can be commonly imaged by the imaging means from a first plurality of different positions based on the width of the imaging pixel area on the imaging surface. data Including a field polyhedron generating means generate, in response to the characteristic polyhedron data and the field-polyhedron data and the three-dimensional shape data generating means for generating three-dimensional shape data of the object.
【0021】[0021]
【作用】この発明における3次元物体認識装置では、特
徴多面体データおよび視野多面体データから被写体の3
次元形状データが生成されるので、より正確な3次元形
状データが得られる。In the three-dimensional object recognizing device according to the present invention, the object 3 is detected from the feature polyhedron data and the field polyhedron data.
Since the three-dimensional shape data is generated, more accurate three-dimensional shape data can be obtained.
【0022】[0022]
【実施例】図2は、この発明の一実施例を示す3次元物
体認識装置のハードウェアのブロック図である。図2を
参照して、この3次元物体認識装置は、左右2台の撮像
用カメラ11および12を備えたステレオカメラ装置1
と、右側の画像データIRをストアする画像メモリ2R
と、左側の画像データILをストアする画像メモリ2L
と、画像データIRおよびILに基づいて演算処理を行
なう演算処理装置3と、演算処理により得られる3次元
データをストアする3次元地図メモリ4と、必要に応じ
3次元形状を表示するCRT5とを含む。ステレオカメ
ラ装置1は、カメラ11により撮像された映像信号をデ
ジタル信号に変換するA/D変換器13と、カメラ12
により撮像された映像信号をデジタル信号に変換するA
/D変換器14とを含む。FIG. 2 is a hardware block diagram of a three-dimensional object recognition apparatus showing an embodiment of the present invention. With reference to FIG. 2, this three-dimensional object recognition device is a stereo camera device 1 including two left and right imaging cameras 11 and 12.
And an image memory 2R for storing the image data IR on the right side
And an image memory 2L for storing the left image data IL
An arithmetic processing unit 3 for performing arithmetic processing based on the image data IR and IL; a three-dimensional map memory 4 for storing the three-dimensional data obtained by the arithmetic processing; and a CRT 5 for displaying a three-dimensional shape if necessary. Including. The stereo camera device 1 includes an A / D converter 13 that converts a video signal captured by the camera 11 into a digital signal, and a camera 12
A to convert the video signal captured by
/ D converter 14 is included.
【0023】図1は、図2に示した演算処理装置3のブ
ロック図である。図1を参照して、演算処理装置3は、
ステレオカメラ装置1によって撮像された画像データI
RおよびILに基づいて画像内の特徴点を検出する特徴
点検出回路31と、特徴点を示す画素が3次元空間内に
おいて存在し得る領域を示す特徴多面体を生成する特徴
多面体生成回路32と、生成された特徴多面体を統合す
る特徴多面体統合回路33と、ステレオカメラ装置1に
よる撮像における各種のパラメータの設定およびその誤
差を設定する回路34と、撮像面上の撮像画素領域によ
って決定される視野多面体を生成する視野多面体生成回
路35と、生成された視野多面体を統合する視野多面体
統合回路36と、統合された特徴多面体および視野多面
体に基づいて被写体の3次元形状を復元する3次元形状
復元回路37とを含む。FIG. 1 is a block diagram of the arithmetic processing unit 3 shown in FIG. With reference to FIG. 1, the arithmetic processing unit 3 is
Image data I captured by the stereo camera device 1
A feature point detection circuit 31 that detects a feature point in an image based on R and IL; a feature polyhedron generation circuit 32 that generates a feature polyhedron indicating an area in which a pixel indicating the feature point can exist in a three-dimensional space; A feature polyhedron integration circuit 33 that integrates the generated feature polyhedrons, a circuit 34 that sets various parameters in the imaging by the stereo camera device 1 and their errors, and a visual field polyhedron determined by an imaging pixel area on the imaging surface. A visual field polyhedron generating circuit 35, a visual field polyhedron integrating circuit 36 that integrates the generated visual field polyhedrons, and a three-dimensional shape restoring circuit 37 that restores the three-dimensional shape of the subject based on the integrated feature polyhedron and visual field polyhedron. Including and
【0024】図3は、図1に示した3次元物体認識装置
の動作を簡単に説明するための模式図である。動作につ
いて簡単に説明すると、ステレオカメラ装置1がn個の
位置P1ないしPnに移動され、各位置において被写体
が撮像される。したがって、たとえば位置P1における
撮像により、左右のカメラから画像ILおよびIRが得
られる。左右の画像ILおよびIRに基づいて特徴多面
体PG1が演算により生成される。これに加えて、撮像
面上の撮像素子領域の広さに基づいて視野多面体VG1
が演算により得られる。他の位置P2ないしPnで得ら
れる画像についても同様の処理を施すことにより、特徴
多面体PG2ないしPGnおよび視野多面体VG2ない
しVGnが得られる。FIG. 3 is a schematic diagram for briefly explaining the operation of the three-dimensional object recognition device shown in FIG. To briefly describe the operation, the stereo camera device 1 is moved to the n positions P1 to Pn, and the subject is imaged at each position. Therefore, the images IL and IR are obtained from the left and right cameras by, for example, imaging at the position P1. A feature polyhedron PG1 is generated by calculation based on the left and right images IL and IR. In addition to this, the viewing polyhedron VG1 is based on the size of the image pickup device area on the image pickup surface.
Is obtained by calculation. Similar polynomials PG2 to PGn and visual field polyhedrons VG2 to VGn are obtained by performing similar processing on images obtained at other positions P2 to Pn.
【0025】上記の処理により得られた特徴多面体デー
タPG1ないしPGnおよび視野多面体データVG1な
いしVGnを演算処理することにより、被写体の3次元
形状データが生成される。尚、上記の説明は、3次元物
体認識装置における処理の概念を説明するものであり、
処理の順序を示すものでない。すなわち、特徴多面体デ
ータおよび視野多面体データは、実施例では累積的に処
理されるものであり、必ずしも図3に示すように並列処
理が行なわれるとは限らない。By subjecting the characteristic polyhedron data PG1 to PGn and the visual field polyhedron data VG1 to VGn obtained by the above processing to arithmetic processing, three-dimensional shape data of the object is generated. The above description is for explaining the concept of processing in the three-dimensional object recognition device.
It does not indicate the order of processing. That is, the feature polyhedron data and the visual field polyhedron data are cumulatively processed in the embodiment, and the parallel processing is not necessarily performed as shown in FIG.
【0026】図4および図5は、図1に示した演算処理
装置における処理のフローチャートである。図1,図4
および図5を参照して、以下に三次元物体認識装置の処
理について説明する。4 and 5 are flowcharts of the processing in the arithmetic processing unit shown in FIG. 1 and 4
The processing of the three-dimensional object recognition device will be described below with reference to FIG.
【0027】まず、ステップ41において、パラメータ
の設定および誤差の設定が行なわれる。これらの設定
は、たとえばキーボードなどの入力装置を用いて行なわ
れる。First, in step 41, parameter setting and error setting are performed. These settings are made using an input device such as a keyboard.
【0028】図7は、ステレオカメラ装置1におけるパ
ラメータの例を示すパラメータ図である。図7を参照し
て、X,YおよびZ軸により3次元空間が規定される。
i番目の位置Piに置かれたステレオカメラ装置1のパ
ラメータの例が示される。右側のカメラ11は、点投影
における投影中心点として焦点FRを有する。焦点FR
から焦点距離fR離れた位置に投影画面IRが置かれ
る。同様に、左側のカメラ12は、投影中心としての焦
点FLを有する。焦点FLから焦点距離fL離れた位置
に投影画面ILが置かれる。2つのカメラ11および1
2の中心軸間の間隔が距離bとして与えられる。また位
置Piについての誤差αが与えられる。FIG. 7 is a parameter diagram showing an example of parameters in the stereo camera device 1. With reference to FIG. 7, a three-dimensional space is defined by the X, Y and Z axes.
An example of parameters of the stereo camera device 1 placed at the i-th position Pi is shown. The camera 11 on the right side has a focal point FR as a projection center point in point projection. Focus FR
The projection screen IR is placed at a position away from the focal length fR. Similarly, the left camera 12 has a focal point FL as a projection center. The projection screen IL is placed at a position away from the focus FL by the focal length fL. Two cameras 11 and 1
The distance between the two central axes is given as the distance b. Further, the error α for the position Pi is given.
【0029】上記のパラメータは一例を挙げたものであ
り、さらには、ステレオカメラ装置1の左右の首振り角
度,カメラ11および12の投影画面IRおよびILの
投影画面の大きさ(広さ),その他のパラメータ、およ
びそれらに関する誤差が図4に示したステップ41にお
いて設定される。なお、図7に示すように、ステレオカ
メラ装置1の位置は、回転を伴って移動されることが指
摘される。その他に、他のパラメータも必要に応じ変更
され得る。The above parameters are only examples, and further, the left and right swing angles of the stereo camera device 1, the sizes (width) of the projection screens IR and IL of the projection screens IR and IL of the cameras 11 and 12, Other parameters and their associated errors are set in step 41 shown in FIG. Note that, as shown in FIG. 7, it is pointed out that the position of the stereo camera device 1 is moved with rotation. In addition, other parameters can be changed as needed.
【0030】ステップ42において、ステレオカメラ装
置1の位置Piが設定される。たとえば、図3に示すよ
うにステレオカメラ装置1が位置P1に置かれ、被写体
が2つのカメラ11および12により撮像される(ステ
ップ43)。したがって、画像データIRおよびILが
得られる。In step 42, the position Pi of the stereo camera device 1 is set. For example, as shown in FIG. 3, the stereo camera device 1 is placed at the position P1 and the subject is imaged by the two cameras 11 and 12 (step 43). Therefore, the image data IR and IL are obtained.
【0031】ステップ44において、画像データIRお
よびILに基づいて画像内の特徴点が検出され、対応す
る特徴点対が検出される。このステップにおけるより詳
細な処理は、図6のフローチャートにおいて示される。In step 44, the feature points in the image are detected based on the image data IR and IL, and the corresponding feature point pairs are detected. More detailed processing in this step is shown in the flowchart of FIG.
【0032】図6を参照して、ステップ441におい
て、画像処理により、画像IR,ILごとに濃淡の変化
が検出される。次に、ステップ442において、画像I
R,ILごとに、濃淡変化点近傍においてウィンドウが
設定される。Referring to FIG. 6, in step 441, a change in shading is detected for each of images IR and IL by image processing. Next, in step 442, the image I
A window is set for each of R and IL in the vicinity of the gradation change point.
【0033】ステップ443において、画像IR,IL
間で、類似の濃淡変化を有するウィンドウ対を検出す
る。さらには、ステップ444において、検出されたそ
れぞれのウィンドウにおける濃淡最大類似点を対応する
特徴点として認識する。In step 443, the images IR, IL
In between, window pairs with similar shade changes are detected. Further, in step 444, the maximum grayscale similarity in each detected window is recognized as a corresponding feature point.
【0034】上記の特徴点検出処理は、一例を示してお
り、従来から知られている他の特徴点検出処理を適用す
ることも可能であることが指摘される。It is pointed out that the above-described feature point detection processing is an example, and that it is possible to apply other conventionally known feature point detection processing.
【0035】他の方法として、たとえば、特徴点検出処
理は、各画像についてMoravec Operato
rを用いて画像処理することにより行なわれる。処理の
結果、特徴点の検出および画面上での各特徴点の位置が
決定する。対応点検出は、上記の処理結果と上記の処理
以前の画像データとを参照して、テンプレートマッチン
グの手法を用いることにより行なわれる。片方の画面で
の特徴点の位置を基準として、その周囲の領域を元の画
像から切出し、小画像(テンプレート)を作成する。そ
のテンプレートと最も類似する部分を反対の画像から検
出するようテンプレートマッチングの手法が適用され
る。その結果、特徴点の対応付けが完了する。As another method, for example, the feature point detection processing is performed by Moravec Operato for each image.
This is performed by image processing using r. As a result of the processing, the feature points are detected and the position of each feature point on the screen is determined. Corresponding point detection is performed by referring to the above processing result and the image data before the above processing and using a template matching method. Based on the position of the feature point on one screen, the surrounding area is cut out from the original image to create a small image (template). A template matching technique is applied to detect the most similar part of the template from the opposite image. As a result, the association of the feature points is completed.
【0036】次に、図4に示したステップ45におい
て、1つの特徴点画素対PRj,PLjが選択される。
続いて、ステップ46および47において焦点距離f1
およびf2がそれぞれ選択され、ステップ48において
特徴多面体PGjが生成される。これらのステップ4
6,47および48における処理の詳細は図8および図
9を参照して以下に説明される。Next, in step 45 shown in FIG. 4, one feature point pixel pair PRj, PLj is selected.
Then, in steps 46 and 47, the focal length f1
And f2 are respectively selected, and the feature polyhedron PGj is generated in step 48. These step 4
Details of the processing at 6, 47 and 48 are described below with reference to FIGS. 8 and 9.
【0037】図8は、特徴多面体の生成原理を示す模式
図である。図8を参照して、左側の画面IL上の画素P
Lが、焦点FLを投影中心として3次元空間内に投影さ
れる。一方、右側の投影画面IR上の画素PRが、焦点
FRを投影中心として3次元空間に向け投影される。画
素PLの画面IL上の各頂点はL1,L2,L3および
L4により示される。画素PRの画面IR上の各頂点は
R1,R2,R3およびR4により示される。したがっ
て、3次元空間内において、画素PLおよびPRに対応
する点が存在し得る領域が、6つの面を有する特徴多面
体PGとして得られる。すなわち、特徴多面体PGは、
左右の点投影により得られる重なった投影領域として、
交点O1ないしO8により規定される。特徴多面体PG
は、ステレオカメラ系のパラメータおよび画素の位置が
誤差により変動すると、該当する投影線の向きと位置が
変動し、したがって特徴多面体PGが移動および変形す
る。FIG. 8 is a schematic diagram showing the principle of generating a characteristic polyhedron. Referring to FIG. 8, a pixel P on the left screen IL
L is projected in the three-dimensional space with the focus FL as the projection center. On the other hand, the pixel PR on the right projection screen IR is projected toward the three-dimensional space with the focus FR as the projection center. The respective vertices of the pixel PL on the screen IL are indicated by L1, L2, L3 and L4. Each vertex of the pixel PR on the screen IR is indicated by R1, R2, R3 and R4. Therefore, a region where points corresponding to the pixels PL and PR can exist in the three-dimensional space is obtained as the characteristic polyhedron PG having six faces. That is, the feature polyhedron PG is
As overlapping projection areas obtained by left and right point projection,
It is defined by the intersections O1 to O8. Features polyhedron PG
When the parameter of the stereo camera system and the position of the pixel change due to an error, the direction and position of the corresponding projection line change, and therefore the feature polyhedron PG moves and deforms.
【0038】ステレオカメラ系のパラメータおよび特徴
点対の位置の真値が不明ではあるが、真値の存在範囲を
設定した誤差を考慮に入れることにより、8本の投影線
は各パラメータの誤差範囲に応じて3次元空間内を移動
する。その結果、パラメータの誤差を考慮に入れた6面
体の移動および変形範囲が決定できる。Although the true value of the stereo camera system parameter and the position of the feature point pair is unknown, the eight projection lines are set to the error range of each parameter by taking into account the error in setting the existence range of the true value. Moves in the three-dimensional space according to. As a result, the movement and deformation range of the hexahedron can be determined in consideration of the parameter error.
【0039】図9は、焦点距離の誤差を考慮に入れた場
合の特徴多面体の生成を示す模式図である。焦点距離の
誤差を考慮に入れる場合、ここでは図9に示すように便
宜上焦点距離の誤差を投影画面の位置の変化としてとら
れている(投影中心を点Oとして固定している)。図9
(A)は生成される特徴多面体の側面図を示し、一方、
図9(B)は生成される特徴多面体の平面図を示す。FIG. 9 is a schematic diagram showing the generation of the characteristic polyhedron when the error of the focal length is taken into consideration. When the error of the focal length is taken into consideration, here, as shown in FIG. 9, the error of the focal length is taken as a change in the position of the projection screen for convenience (the projection center is fixed as point O). Figure 9
(A) shows a side view of the generated feature polyhedron, while
FIG. 9B shows a plan view of the generated feature polyhedron.
【0040】図9では、焦点距離の設定された誤差を考
慮に入れて、左右のカメラにおける投影画面が焦点距離
f1およびf2に置かれているものとしている。すなわ
ち、図9(B)からわかるように、投影中心点ORおよ
びOLから距離f1の位置に投影画面IR1およびIL
1が置かれる。また、投影中心点ORおよびOLから距
離f2の位置に、投影画面IR2およびIL2が置かれ
る。距離f1およびf2は、ステップ41において設定
された焦点距離に関する誤差に基づいて決定される。す
なわち、距離f1は誤差を考慮に入れたときの最小の焦
点距離であり、一方、距離f2は誤差を考慮に入れたと
きの最大の焦点距離である。In FIG. 9, it is assumed that the projection screens of the left and right cameras are placed at the focal lengths f1 and f2, taking into account the set error of the focal length. That is, as can be seen from FIG. 9 (B), the projection screens IR1 and IL are located at a distance f1 from the projection center points OR and OL.
1 is placed. Further, projection screens IR2 and IL2 are placed at positions f2 away from projection center points OR and OL. The distances f1 and f2 are determined based on the error regarding the focal length set in step 41. That is, the distance f1 is the minimum focal length when the error is taken into consideration, while the distance f2 is the maximum focal length when the error is taken into consideration.
【0041】なお、図9において、Y軸は高さ方向を示
し、Z軸は奥行き方向を示している。左右のカメラの投
影中心点OLおよびORは、X軸上に置かれており、そ
れらは輻輳せず、各カメラの投影軸CLおよびCRはZ
軸に平行しているものと仮定する。これに加えて、画素
の形状は長方形と仮定する。対応する画素の位置は、Y
方向の位置が両画面において等しく、画素の上下端の座
標をy1,y1+1とする。右側の画面の画素の左右端
の座標をxr,xr+1、左側の画面の画素の左右端の
座標をxl,xl+1とする。In FIG. 9, the Y axis indicates the height direction and the Z axis indicates the depth direction. The projection center points OL and OR of the left and right cameras are placed on the X axis, they do not converge, and the projection axes CL and CR of each camera are Z.
Assume parallel to the axis. In addition, the pixel shape is assumed to be rectangular. The position of the corresponding pixel is Y
The positions in the directions are the same on both screens, and the coordinates of the upper and lower ends of the pixels are y1 and y1 + 1. The coordinates of the left and right ends of the pixels on the right screen are xr and xr + 1, and the coordinates of the left and right ends of the pixels on the left screen are xl and xl + 1.
【0042】次に、図9(A)および(B)を参照し
て、誤差を考慮に入れた特徴多面体の生成処理について
説明する。各画素の頂点と投影中心点OL,ORとをそ
れぞれ結ぶ投影線が特徴多面体の稜線を示す。図9
(B)では、左側のカメラの投影中心点OLと焦点距離
f1における投影位置xl,xl+1とを結ぶ投影線を
それぞれL1,L3とし、焦点距離f2における投影位
置xl,xl+1とを結ぶ投影線をそれぞれL2,L4
とする。誤差を考慮に入れることにより、焦点距離がf
1からf2に移動するので、投影線L1はL2へ、投影
線L3はL4へ移動する。一方、右側のカメラの投影中
心点ORと焦点距離f1における投影位置xr,xr+
1とを結ぶ投影線をそれぞれR1,R3とし、焦点距離
f2における投影位置xr,xr+1とを結ぶ投影線を
それぞれR2,R4とする。焦点距離がf1からf2へ
移動するに伴い、投影線R1はR2へ、投影線R3はR
4へ移動する。Next, with reference to FIGS. 9 (A) and 9 (B), a process for generating a feature polyhedron in which an error is taken into consideration will be described. A projection line connecting the apex of each pixel and the projection center points OL and OR represents the ridgeline of the feature polyhedron. Figure 9
In (B), the projection lines connecting the projection center point OL of the left camera and the projection positions xl and xl + 1 at the focal length f1 are defined as L1 and L3, respectively, and the projection lines connecting the projection positions xl and xl + 1 at the focal length f2 are defined. L2 and L4 respectively
And By taking the error into account, the focal length is f
Since it moves from 1 to f2, the projection line L1 moves to L2 and the projection line L3 moves to L4. On the other hand, the projection position xr, xr + at the projection center point OR of the right camera and the focal length f1
Let R1 and R3 be the projection lines that connect with 1 and R2 and R4 that are the projection lines that connect with the projection positions xr and xr + 1 at the focal length f2. As the focal length moves from f1 to f2, the projection line R1 goes to R2 and the projection line R3 goes to R2.
Move to 4.
【0043】さらには、図9(A)に示すように、カメ
ラの投影中心点Oと焦点距離f1における投影位置y
l,yl+1とを結ぶ投影線をそれぞれP1,P3と
し、焦点距離f2における投影位置yl,yl+1とを
結ぶ投影線をそれぞれP2,P4とする。焦点距離がf
1からf2へ移動するに伴い、投影線P1はP2へ、投
影線P3はP4へ位置を変える。その結果、焦点距離f
1の場合に該当する画素から復元される6面体は、投影
線L3およびR1の交点A1と、投影線L1およびR1
の交点B1と、投影線L1およびR3の交点C1と、投
影線L3およびR1の交点D1とによって示される。一
方、側面図では、6面体は、投影線P1上の点A11
と、投影線P1上の点B11と、投影線P1上の点C1
1と、投影線P3上の点C12と、投影線P3上の点B
12と、投影線P3上の点A12とによって示される。Further, as shown in FIG. 9A, the projection position y at the projection center point O of the camera and the focal length f1.
Projection lines connecting 1 and yl + 1 are defined as P1 and P3, respectively, and projection lines connecting projection positions yl and yl + 1 at the focal length f2 are defined as P2 and P4, respectively. Focal length is f
As it moves from 1 to f2, the projection line P1 changes its position to P2, and the projection line P3 changes its position to P4. As a result, the focal length f
The hexahedron restored from the pixel corresponding to the case of 1 is the intersection A1 of the projection lines L3 and R1 and the projection lines L1 and R1.
B1 of the projection lines, C1 of the projection lines L1 and R3, and D1 of the projection lines L3 and R1. On the other hand, in the side view, the hexahedron is the point A11 on the projection line P1.
, A point B11 on the projection line P1 and a point C1 on the projection line P1
1, a point C12 on the projection line P3, and a point B on the projection line P3
12 and a point A12 on the projection line P3.
【0044】距離f2に置かれた投影画面上の画素によ
って復元される6面体は、図9(B)では、投影線L4
およびR2の交点A2と、投影線L2およびR2の交点
B2と、投影線L2およびR4の交点C2と、投影線L
4およびR4の交点D2とによって示される。また、図
9(A)では、6面体は、投影線P2上の点A21と、
投影線P2上の点B21と、投影線P2上の点C21
と、投影線P4上の点C22と、投影線P4上の点B2
2と、投影線P4上の点A22とによって示される。The hexahedron restored by the pixels on the projection screen placed at the distance f2 is the projection line L4 in FIG. 9B.
And an intersection A2 of R2, an intersection B2 of projection lines L2 and R2, an intersection C2 of projection lines L2 and R4, and a projection line L
4 and the intersection D2 of R4. Further, in FIG. 9A, the hexahedron is a point A21 on the projection line P2,
A point B21 on the projection line P2 and a point C21 on the projection line P2
And a point C22 on the projection line P4 and a point B2 on the projection line P4.
2 and a point A22 on the projection line P4.
【0045】焦点距離における誤差を考慮に入れると、
ステレオカメラ系による多面体は、上記の2つの6面体
を挟む範囲を移動/変形する。この2つの6面体に外接
する多面体を図4に示したステップ48において特徴多
面体PGjとして生成する。すなわち、特徴多面体PG
jとして、上記の2つの6面体の表面と、対応する頂点
を結んだ稜線で張られる表面とからなる12面体が決定
される。Taking into account the error in the focal length,
The polyhedron based on the stereo camera system moves / deforms in a range sandwiching the above two hexahedrons. A polyhedron circumscribing these two hexahedrons is generated as a characteristic polyhedron PGj in step 48 shown in FIG. That is, the feature polyhedron PG
As j, a dodecahedron consisting of the surfaces of the above two hexahedra and the surface stretched by the ridgeline connecting the corresponding vertices is determined.
【0046】図9(B)において特徴多面体PGjは、
面A1B1C1D1と、面A1A2D2D1と、面A1
A2B2B1と、面A2B2C2D2と、面C1D1D
2C2と、面B1C1C2B2とを含む。したがって、
特徴多面体PGjは、これらの6面と、線分A1B1
と、線分B1B2と、線分B2C2と、線分C2D2
と、線分D2D1と、線分D1A1とによって形成さ
れ、XZ平面に垂直な6面を有する。In FIG. 9B, the feature polyhedron PGj is
Surface A1B1C1D1, Surface A1A2D2D1, Surface A1
A2B2B1, surface A2B2C2D2, and surface C1D1D
2C2 and surface B1C1C2B2. Therefore,
The feature polyhedron PGj has these six faces and the line segment A1B1.
, Line segment B1B2, line segment B2C2, and line segment C2D2
, And a line segment D2D1 and a line segment D1A1 and has six faces perpendicular to the XZ plane.
【0047】上記の説明では、焦点距離の誤差を考慮に
入れて特徴多面体PGjが生成されたが、他のパラメー
タの誤差を考慮に入れて、類似の方法により特徴多面体
を生成することができることも指摘される。図4に示し
たステップ49において、特徴多面体の統合処理が行な
われる。生成された特徴多面体PGjの統合は図1に示
した特徴多面体統合回路33において行なわれる。In the above description, the feature polyhedron PGj is generated in consideration of the error of the focal length, but it is also possible to generate the feature polyhedron by a similar method in consideration of the errors of other parameters. be pointed out. In step 49 shown in FIG. 4, the feature polyhedron integration process is performed. The generated feature polyhedrons PGj are integrated in the feature polyhedron integration circuit 33 shown in FIG.
【0048】ステップ49において、特徴多面体生成回
路32において生成された特徴多面体を3次元地図に配
置する。特徴多面体生成回路32では、焦点距離の誤差
だけでなく、他のパラメータにおける誤差をも考慮に入
れて特徴多面体が生成されており、生成された特徴多面
体を3次元地図に配置することにより、統合された特徴
多面体を累積的に生成する。図4に示した処理の例で
は、焦点距離の誤差を考慮に入れた特徴多面体のみにつ
いて説明しており、したがってここではそれに基づく特
徴多面体PGjの統合のみが説明されている。多面体の
統合処理については後で詳しく説明する。In step 49, the feature polyhedron generated by the feature polyhedron generating circuit 32 is placed on the three-dimensional map. In the feature polyhedron generating circuit 32, the feature polyhedron is generated in consideration of not only the error of the focal length but also the error of other parameters. The generated feature polyhedra are cumulatively generated. In the example of the process shown in FIG. 4, only the feature polyhedron taking into account the error of the focal length is described, and therefore, only the integration of the feature polyhedron PGj based on it is described here. The polyhedral integration processing will be described in detail later.
【0049】図5を参照して、ステップ50においてす
べての特徴点画素対PRj,PLj(j=1,2,…
m)についてステップ45ないし49の処理がなされた
かどうかが判定される。処理が終了していないとき、ス
テップ45に戻り、別の特徴点画素対が選択され、特徴
多面体生成および生成された多面体の累積的統合処理が
繰返し行なわれる(ステップ46ないし49)。その結
果、m個のすべての特徴点画素対について特徴多面体が
生成され、それらの統合が行なわれる。最終的に、統合
された特徴多面体PGが累積的に得られる。Referring to FIG. 5, in step 50, all feature point pixel pairs PRj, PLj (j = 1, 2, ...).
It is determined whether or not steps 45 to 49 have been performed for m). When the process is not completed, the process returns to step 45, another feature point pixel pair is selected, and the feature polyhedron generation and the cumulative integration process of the generated polyhedra are repeated (steps 46 to 49). As a result, feature polyhedra are generated for all m feature point pixel pairs and their integration is performed. Finally, the integrated feature polyhedron PG is cumulatively obtained.
【0050】ステップ51において、ステレオカメラ装
置1のi番目の位置Piにおける視野多面体VGiが生
成される。この生成処理は、図1に示した視野多面体生
成回路35において行なわれる。In step 51, the view polyhedron VGi at the i-th position Pi of the stereo camera device 1 is generated. This generation processing is performed in the visual field polyhedron generation circuit 35 shown in FIG.
【0051】図10は、視野多面体の生成原理を示す模
式図である。図10(A)はステレオカメラ系の視野多
面体の側面図を示し、図10(B)はその平面図を示
す。Y軸は高さ方向を示し、Z軸は奥行き方向を示す。
左右のカメラの投影中心点OL,ORは、X軸上に設定
し、輻輳せず、各カメラの投影軸CL,CRはZ軸に平
行に配置される。図10(A)では、投影画面がIPに
より示され、図10(B)では、左画面がIL,右画面
がIRにより示される。ここでいう投影画面は、撮像に
関与する撮像素子が配置されている領域に相当する。2
つのカメラの焦点距離をfとして、2つの画面はXY平
面から平行に距離f離れたところに置かれる。図10
(A)において、画面IPの上下端をI5,I6とす
る。図10(B)において、左画面ILの左右端をそれ
ぞれI1,I2とし、右画面IRの左右端をI3,I4
とする。FIG. 10 is a schematic diagram showing the principle of generating a visual field polyhedron. FIG. 10 (A) shows a side view of the viewing polyhedron of the stereo camera system, and FIG. 10 (B) shows its plan view. The Y axis indicates the height direction, and the Z axis indicates the depth direction.
The projection center points OL and OR of the left and right cameras are set on the X axis so that they do not converge and the projection axes CL and CR of the cameras are arranged parallel to the Z axis. In FIG. 10A, the projection screen is indicated by IP, in FIG. 10B, the left screen is indicated by IL and the right screen is indicated by IR. The projection screen here corresponds to an area in which an image pickup element involved in image pickup is arranged. Two
With the focal length of one camera being f, the two screens are placed at a distance f from the XY plane in parallel. Figure 10
In (A), the upper and lower ends of the screen IP are set to I5 and I6. In FIG. 10B, the left and right edges of the left screen IL are I1 and I2, and the left and right edges of the right screen IR are I3 and I4.
And
【0052】ステレオカメラ系の全視野の境界面は、図
10(A)および(B)に示す各カメラの投影中心点O
L,ORおよびOと画面の各端部とを結ぶ投影面とな
る。図10(A)では、画面の視野は、I5とOとを結
ぶ投影面P1から、I6とOとを結ぶ投影面P2までの
範囲である。図10(B)において、左側のカメラの視
野は、I1とOLとを結ぶ投影面PL1から、I2とO
Lとを結ぶ投影面PL2までの範囲である。右側のカメ
ラの視野は、I3とOLとを結ぶ投影面PR1から、I
4とOLとを結ぶ投影面PR2までの範囲である。The boundary surface of the entire field of view of the stereo camera system is the projection center point O of each camera shown in FIGS. 10 (A) and 10 (B).
The projection plane connects L, OR, and O with each end of the screen. In FIG. 10A, the field of view of the screen is a range from a projection plane P1 connecting I5 and O to a projection plane P2 connecting I6 and O. In FIG. 10B, the field of view of the left camera is I2 and O from the projection plane PL1 that connects I1 and OL.
It is a range up to the projection plane PL2 connecting with L. The field of view of the right camera is I from the projection plane PR1 connecting I3 and OL.
It is a range up to the projection plane PR2 connecting 4 and OL.
【0053】ステレオカメラの全視野は、2つのカメラ
の両画面全体の視野が交差する部分である。図10
(B)での該当部分は、投影面PL2とPR1との交差
部分Pより前面で、かつ投影面PL2とPR1とによっ
て挟まれた部分である。図10(A)では、線分EFの
前面で、かつ投影面P1およびP2によって挟まれた部
分である。The full field of view of the stereo camera is the part where the fields of view of both screens of the two cameras intersect. Figure 10
The relevant part in (B) is a part in front of the intersection P between the projection planes PL2 and PR1 and sandwiched between the projection planes PL2 and PR1. In FIG. 10 (A), it is the front surface of the line segment EF and the portion sandwiched by the projection planes P1 and P2.
【0054】ステレオカメラ系のパラメータが誤差によ
り変動すると、視野の多面体を構成する投影面の位置や
向きが変動するために、視野多面体はそれに応じて移動
/変形する。ステレオカメラ系のパラメータの真値は不
明であるが、パラメータの誤差を考慮に入れて、視野多
面体の存在領域を次のように決定する。なお、以下の例
では、パラメータの一例として焦点距離を選び、その誤
差を考慮に入れた視野多面体の生成について説明する。When the parameters of the stereo camera system fluctuate due to an error, the position and orientation of the projection plane forming the polyhedron of the visual field fluctuate, so that the visual field polyhedron moves / deforms accordingly. Although the true values of the parameters of the stereo camera system are unknown, the existence area of the viewing polyhedron is determined as follows in consideration of the error of the parameters. In the following example, the focal length is selected as an example of the parameter, and the generation of the visual field polyhedron in consideration of the error will be described.
【0055】図11は、焦点距離の誤差を考慮に入れた
場合の視野多面体の生成を示す模式図である。図11
(A)は、パラメータの誤差による変動を見込んだステ
レオカメラ系の視野多面体の側面図であり、図11
(B)は、その平面図を示す。Y軸は高さ方向を示し、
Z軸は奥行き方向を示す。2つのカメラの投影中心点O
L,ORは、X軸上に設定し、輻輳せず、各カメラの投
影軸CL,CRはZ軸に平行に設定する。FIG. 11 is a schematic diagram showing the generation of the visual field polyhedron when the error of the focal length is taken into consideration. 11
FIG. 11A is a side view of the visual field polyhedron of the stereo camera system in which variations due to parameter errors are expected, and FIG.
(B) shows the top view. Y-axis shows the height direction,
The Z axis indicates the depth direction. Projection center point O of two cameras
L and OR are set on the X axis without congestion, and the projection axes CL and CR of each camera are set parallel to the Z axis.
【0056】図11(A)では、投影画面をIPにより
示し、図11(B)では、左画面をIL,右画面をIR
により示し、2つの画面はXY平面と平行に配置され
る。図11(A)において、焦点距離f1に置かれた画
面の上下端をそれぞれI51,I61とし、焦点距離f
2に置いた画面の上下端をそれぞれI52,I62とす
る。図11(B)では、焦点距離f1に置いた左画面の
上下端をそれぞれI11,I21とし、右画面の上下端
をI31,I41とする。また、焦点距離f2に置いた
左画面の上下端をI12,I22とし、右画面の上下端
をI32,I42とする。In FIG. 11A, the projection screen is shown by IP, and in FIG. 11B, the left screen is IL and the right screen is IR.
, The two screens are arranged parallel to the XY plane. In FIG. 11A, the upper and lower edges of the screen placed at the focal length f1 are I51 and I61, respectively, and the focal length f
The upper and lower ends of the screen placed at 2 are designated as I52 and I62, respectively. In FIG. 11B, upper and lower ends of the left screen placed at the focal length f1 are I11 and I21, respectively, and upper and lower ends of the right screen are I31 and I41, respectively. The upper and lower ends of the left screen placed at the focal length f2 are I12 and I22, and the upper and lower ends of the right screen are I32 and I42.
【0057】投影画面の大きさが一定の場合、ステレオ
カメラ系の焦点距離が増加すれば、カメラの全視野は狭
くなる。図11(A)において、カメラの焦点距離がf
1のとき、カメラの視野は、投影中心点OとI51とを
結ぶ投影面P1から、投影中心点OとI61とを結ぶ投
影面P2までの範囲である。焦点距離がf2に変わる
と、投影中心点OとI52とを結ぶ投影面P3から、投
影中心点OとI62とを結ぶ投影面P4までの範囲に変
わる。When the size of the projection screen is constant, if the focal length of the stereo camera system increases, the total field of view of the camera becomes narrower. In FIG. 11A, the focal length of the camera is f
When 1, the field of view of the camera is in a range from a projection plane P1 connecting the projection center points O and I51 to a projection plane P2 connecting the projection center points O and I61. When the focal length changes to f2, the range changes from the projection plane P3 connecting the projection center points O and I52 to the projection plane P4 connecting the projection center points O and I62.
【0058】図11(B)では、カメラの焦点距離がf
1のとき、左カメラの全視野は、投影中心点OLとI1
1とを結ぶ投影面L1から、投影中心点OLとI21と
を結ぶ投影面L2までの範囲である。焦点距離がf2に
変わると、投影中心点OLとI12とを結ぶ投影面L3
から、投影中心点OLとI22とを結ぶ投影面L4まで
の範囲に変わる。右カメラの全視野は、投影中心点OR
とI31とを結ぶ投影面R1から、投影中心点ORとI
41とを結ぶ投影面R2までの範囲である。焦点距離が
f2に変わると、投影中心点ORとI32とを結ぶ投影
面R3から、投影中心点ORとI42とを結ぶ投影面R
4までの範囲に変わる。In FIG. 11B, the focal length of the camera is f
When 1, the total field of view of the left camera is the projection center points OL and I1.
It is the range from the projection plane L1 connecting 1 to the projection plane L2 connecting the projection center point OL and I21. When the focal length changes to f2, the projection plane L3 connecting the projection center point OL and I12
To the projection plane L4 connecting the projection center point OL and I22. The entire field of view of the right camera is the projection center point OR
And I31 from the projection plane R1 connecting the projection center points OR and I
41 is a range up to the projection plane R2 connecting with 41. When the focal length changes to f2, the projection plane R3 connecting the projection center points OR and I32 to the projection plane R connecting the projection center points OR and I42.
It changes to the range up to 4.
【0059】2つのカメラの焦点距離がf1の場合、2
つのカメラの全視野の交差部分(ステレオカメラ系の全
視野)を図11(B)において示すと、投影面R1とL
2との交差部分P3より前面で、かつ投影面R1とL2
とによって挟まれた部分である。図11(A)では、該
当部分は線分ABより前面で、かつ投影面P1とP2と
によって挟まれた部分となる。2つのカメラの焦点距離
がf2の場合、2つのカメラの全視野の交差部分(ステ
レオカメラ系の全視野)を図11(B)において示す
と、投影面R3とL4との交差部分P4より前面で、か
つ投影面R3とL4とによって挟まれた部分である。図
11(A)では、該当部分は線分CDより前面で、かつ
投影面P3とP4とによって挟まれた部分となる。各カ
メラの焦点距離の増加に伴い、ステレオカメラ系の全視
野が狭くなる。If the focal lengths of the two cameras are f1, then 2
FIG. 11B shows an intersection of all fields of view of the two cameras (full field of view of the stereo camera system).
2, which is in front of the intersection P3 with the projection planes R1 and L2.
It is the part sandwiched between and. In FIG. 11A, the relevant portion is a front surface of the line segment AB and is a portion sandwiched by the projection planes P1 and P2. In the case where the focal lengths of the two cameras are f2, the intersection of the total fields of view of the two cameras (the total field of view of the stereo camera system) is shown in FIG. 11B, and is in front of the intersection P4 between the projection planes R3 and L4. And is a portion sandwiched by the projection planes R3 and L4. In FIG. 11 (A), the relevant portion is a portion in front of the line segment CD and sandwiched by the projection planes P3 and P4. As the focal length of each camera increases, the total field of view of the stereo camera system becomes narrower.
【0060】焦点距離の誤差を考慮に入れると、図11
に示すように投影画面の位置がf1からf2の範囲で等
価的に変化することになる。この誤差に伴い、ステレオ
カメラ系の視野多面体は、上記の2つの5面体を挟む範
囲で移動/変形する。したがって、これらの範囲のう
ち、誤差により全視野がどのように変形した場合でも、
常に覆う部分をパラメータの誤差を考慮に入れた視野多
面体として生成する。ここでは、焦点距離f2のステレ
オカメラ系の全視野Vに相当する。Considering the error of the focal length, FIG.
As shown in, the position of the projection screen changes equivalently in the range from f1 to f2. Due to this error, the visual field polyhedron of the stereo camera system moves / deforms within a range sandwiching the above two pentahedrons. Therefore, no matter how the entire field of view is deformed due to error in these ranges,
The part that is always covered is generated as a visual field polyhedron that takes into account the parameter error. Here, it corresponds to the entire visual field V of the stereo camera system with the focal length f2.
【0061】上記の例では、焦点距離の誤差を考慮に入
れた場合の視野多面体の生成について説明したが、他の
パラメータの誤差を考慮に入れた場合でも、同様に視野
多面体を生成することができる。すなわち、各パラメー
タの誤差を考慮に入れて視野多面体をそれぞれ生成す
る。In the above example, the generation of the visual field polyhedron when the error of the focal length is taken into consideration has been described. However, even when the error of the other parameters is taken into consideration, the visual field polyhedron can be similarly generated. it can. That is, the visual field polyhedron is generated in consideration of the error of each parameter.
【0062】次に、図5に示したステップ52におい
て、視野多面体の統合処理が行なわれる。視野多面体の
統合処理は、図1に示した視野多面体統合回路36にお
いて行なわれる。前述のように、視野多面体生成回路3
5では、様々なパラメータの誤差を考慮に入れて視野多
面体が生成されているので、生成されたすべての視野多
面体の統合処理が行なわれる。図5に示した処理の例で
は、焦点距離の誤差を考慮に入れて視野多面体が生成さ
れているので、焦点距離の誤差を考慮に入れて生成され
た視野多面体の累積的統合処理が行なわれる。以下に、
ステップ49および52における統合処理の一例につい
て簡単に説明する。Next, in step 52 shown in FIG. 5, a field polyhedron integration process is performed. The integration processing of the visual field polyhedron is performed in the visual field polyhedron integration circuit 36 shown in FIG. As described above, the visual field polyhedron generating circuit 3
In 5, since the visual field polyhedron is generated in consideration of the errors of various parameters, the integrated processing of all the generated visual field polyhedrons is performed. In the example of the processing shown in FIG. 5, since the visual field polyhedron is generated in consideration of the error of the focal length, the cumulative integration processing of the visual field polyhedrons generated in consideration of the error of the focal distance is performed. .. less than,
An example of the integration process in steps 49 and 52 will be briefly described.
【0063】図1に示した特徴多面体統合回路33およ
び視野多面体統合回路36では、処理すべき多面体の個
数が多く、これに加えて、各多面体が有する面の数が多
い。したがって、多面体相互における交差判定が難し
く、その結果、処理に時間を要するだけでなく、処理結
果を記憶するのに莫大なメモリ容量を有することにもな
る。このような現実的な問題を回避するため、多面体の
統合処理において以下のような8−分木記述による手法
が利用される。8−分木記述についての詳細は、文献
(Oct−trees and their use
in representing three−dim
entional objects,C.L.Jack
ins,S.L.Tanimoto,Comput.G
raphics Image Processin
g.,vo 1.14,1980)において詳しく説明
されているが、ここでは図12ないし図15を参照して
簡単に説明する。8−分木記述を利用することにより、
3次元地図内の6面体の組合せと3次元配置とを効率よ
く記述することができる。多面体の交差回数の管理は、
3次元地図内で8−分木を構成する6面体ごとに数値を
持たせるようにし、数値の記録および更新により実現す
る。In the feature polyhedron integration circuit 33 and the visual field polyhedron integration circuit 36 shown in FIG. 1, the number of polyhedra to be processed is large, and in addition, the number of faces of each polyhedron is large. Therefore, it is difficult to determine intersections between polyhedrons, and as a result, not only time is required for processing, but also a huge memory capacity is required to store the processing results. In order to avoid such a practical problem, the following 8-branch tree description method is used in the polyhedral integration processing. For more information on 8-branch tree descriptions, see the Oct-trees and therir use.
in presenting three-dim
mental objects, C.I. L. Jack
ins, S.S. L. Tanimoto, Comput. G
graphics Image Process
g. , Vo 1.14, 1980), which will now be briefly described with reference to FIGS. By using the 8-branch tree description,
It is possible to efficiently describe the combination of hexahedra and the three-dimensional arrangement in the three-dimensional map. Management of the number of intersections of polyhedra
A numerical value is given to each hexahedron forming an 8-branch tree in the three-dimensional map, and this is realized by recording and updating the numerical values.
【0064】3次元地図全体を覆う1つの大きな6面体
をX,YおよびZ軸に沿い2分割すると、8個の6面体
に分割できる。8分割された6面体の3次元空間での位
置は、元の6面体と8分割した6面体との相対的な位置
関係を参照して復元できる。6面体の再帰的分割と、分
割前の6面体と分割後の小さな6面体との相対位置の関
係から、3次元地図内の任意の位置に任意の形状で3次
元空間を占有する立体を、大小の6面体の3次元配列と
して表現することができる。If one large hexahedron covering the entire three-dimensional map is divided into two along the X, Y and Z axes, it can be divided into eight hexahedrons. The position of the 8-divided hexahedron in the three-dimensional space can be restored by referring to the relative positional relationship between the original hexahedron and the 8-divided hexahedron. From the relationship between the recursive division of a hexahedron and the relative positions of the hexahedron before division and the small hexahedron after division, a solid that occupies a three-dimensional space with an arbitrary shape in an arbitrary position in a three-dimensional map It can be expressed as a three-dimensional array of large and small hexahedra.
【0065】特徴多面体および視野多面体を大小の6面
体の3次元配列として表現したとき、該当する多面体が
持つ数値を常に1増加すれば、すべての多面体の処理終
了後に3次元地図内にある6面体の持つ数値は、各多面
体の交差回数を示す。When the feature polyhedron and the visual field polyhedron are expressed as a three-dimensional array of large and small hexahedra, if the numerical value of the corresponding polyhedron is always incremented by 1, the hexahedron in the three-dimensional map after the processing of all the polyhedra is completed. The numerical value of has the number of intersections of each polyhedron.
【0066】6面体の再帰的分割や、各6面体の数値の
更新などの処理は、配置する多面体と3次元地図内にあ
る6面体との包合関係で再帰的に決まる。このことを図
面を用いて簡単に説明する。Processing such as recursive division of a hexahedron and updating of numerical values of each hexahedron is recursively determined by the inclusion relation between the polyhedron to be placed and the hexahedron in the three-dimensional map. This will be briefly described with reference to the drawings.
【0067】図12ないし図15は、8−分木記述処理
における2つの多面体間の関係の例をそれぞれ示す模式
図である。図12は、処理対象となる多面体Pの中に3
次元地図内の6面体Cが完全に含まれた状態で存在する
ことを示す。図13は、処理対象となる多面体Pと6面
体Cとが完全に離れた状態を示す。図14は、処理対象
となる多面体Pと6面体Cとか一部交差した状態を示
す。12 to 15 are schematic diagrams showing examples of the relationship between two polyhedra in the 8-branch tree description process. FIG. 12 shows three polyhedrons P to be processed.
It is shown that the hexahedron C in the three-dimensional map exists in a completely included state. FIG. 13 shows a state in which the polyhedron P to be processed and the hexahedron C are completely separated. FIG. 14 shows a state in which the polyhedron P to be processed and the hexahedron C partially intersect.
【0068】図12の場合では、該当する6面体Cが持
つカウント値を1つ増加するその後、多面体Pを対象と
した6面体Cへの処理が停止する。In the case of FIG. 12, the count value of the corresponding hexahedron C is incremented by 1, and then the processing of the polyhedron P to the hexahedron C is stopped.
【0069】図13の場合では、該当する6面体Cが有
するカウント値をそのまま保存する。その後、多面体P
を対象とした6面体Cへの処理が停止する。In the case of FIG. 13, the count value of the corresponding hexahedron C is stored as it is. After that, polyhedron P
The process for the hexahedron C targeted for is stopped.
【0070】図14の場合では、図12および図13の
いずれでもない場合に相当する。13の場合では、該当
する6面体Cを8分割する(図15)。8分割したすべ
ての小さな6面体が有するカウント値は、分割前の6面
体Cが有するカウント値とする。その後、8分割したす
べての6面体ごとに、多面体Pとの包合関係が求めら
れ、包合結果に応じた処理を繰返し実行する。The case of FIG. 14 corresponds to the case where neither FIG. 12 nor FIG. In the case of 13, the corresponding hexahedron C is divided into eight (FIG. 15). The count values of all the small hexahedrons divided into eight are the count values of the hexahedron C before division. After that, the inclusion relation with the polyhedron P is obtained for each of all the hexahedrons, and the process according to the inclusion result is repeatedly executed.
【0071】したがって、6面体が有するカウント値を
最初に0に初期設定しておけば、個々の多面体に対して
上記の包合判定処理がすべて終了した時点において存在
する大小の6面体は、それまでに3次元地図に配置した
6面体をすべて交差判定して得られた交差回数に相当す
るカウント値をそれぞれ有している。特徴多面体のため
の統合処理では、特徴多面体を対象としてこの処理が繰
返され、したがって、6面体が有するカウント値は特徴
多面体の交差回数に相当する。同様にして、視野多面体
についても上記の処理を繰返すことにより、6面体が有
するカウント値が視野多面体の交差回数を示すことにな
る。その結果、特徴多面体および視野多面体の各々につ
いて、3次元空間内での交差回数が求められる。Therefore, if the count value of the hexahedron is initially set to 0, the large and small hexahedrons existing at the time when the above-described inclusion determination processing for all polyhedrons are completed are Each of them has a count value corresponding to the number of intersections obtained by determining the intersections of all the hexahedra arranged on the three-dimensional map. In the integration process for the feature polyhedron, this process is repeated for the feature polyhedron, and thus the count value of the hexahedron corresponds to the number of intersections of the feature polyhedron. In the same manner, by repeating the above process for the visual field polyhedron, the count value of the hexahedron indicates the number of intersections of the visual field polyhedron. As a result, the number of intersections in the three-dimensional space is obtained for each of the feature polyhedron and the view polyhedron.
【0072】図5に示したステップ53において、図3
に示したすべての位置P1ないしPnについて上記の処
理が行なわれたか否かが判定される。すべての位置につ
いて処理が終了していないとき、ステップ42に戻り、
上記の処理が繰返し行なわれる。すべての位置について
上記の処理が行なわれた後、処理がステップ54に進
む。In step 53 shown in FIG.
It is determined whether or not the above process is performed for all the positions P1 to Pn shown in FIG. When the processing is not completed for all the positions, the process returns to step 42,
The above process is repeated. After the above processing is performed for all positions, the processing proceeds to step 54.
【0073】ステップ54において、以上の処理で得ら
れたデータを基に3次元形状の復元が行なわれる。すな
わち、特徴多面体の統合により得られた3次元地図およ
びその地図に配置された多面体の交差情報および交差回
数と、視野多面体の統合処理により得られた3次元地図
およびその地図に配置した多面体の交差情報および交差
回数とを参照して、すべての特徴多面体の存在確率とそ
の確率の信頼度とを算出する。指定した3次元空間内の
位置での多面体交差回数は、3次元地図において該当す
る位置を占める多面体が有するカウント値から知ること
ができる。In step 54, the three-dimensional shape is restored based on the data obtained by the above processing. That is, the intersection information and the number of intersections of the three-dimensional map and the polyhedron arranged on the map obtained by the integration of the feature polyhedron, and the intersection of the three-dimensional map obtained by the integration processing of the view polyhedron and the polyhedron arranged on the map. By referring to the information and the number of intersections, the existence probabilities of all the feature polyhedra and the reliability of the probabilities are calculated. The number of polyhedron intersections at the designated position in the three-dimensional space can be known from the count value of the polyhedron occupying the corresponding position in the three-dimensional map.
【0074】3次元地図で特徴多面体が存在しない部分
は、該当部分が撮影されていないか、または物体が存在
しない撮像部分であることを示す。両者の区別は、視野
多面体統合回路36から出力される3次元地図の該当部
分のデータから判断することができる。さらに、特徴多
面体が存在する場合でも、観測回数によって観測結果に
関する信頼性が異なる。たとえば、物体の存在確率は、
特徴多面体の交差回数と視野多面体の交差回数との比率
から、その確率の信頼度は観測回数から計算する。結果
的に、形状復元回路37では、特徴多面体統合回路33
において生成した3次元地図に存在確率と信頼度の情報
を付与した3次元地図を作成する。この3次元地図を基
に、存在確率と信頼度の設定に応じて特徴多面体を復元
形状として統合し、最終的な3次元地図データを生成す
る。The part where the feature polyhedron does not exist in the three-dimensional map indicates that the part is not imaged or the imaged part where the object does not exist. The distinction between the two can be determined from the data of the corresponding portion of the three-dimensional map output from the visual field polyhedron integration circuit 36. Furthermore, even if the feature polyhedron exists, the reliability of the observation result varies depending on the number of observations. For example, the existence probability of an object is
From the ratio of the number of intersections of the feature polyhedron and the number of intersections of the field polyhedron, the reliability of the probability is calculated from the number of observations. As a result, in the shape restoration circuit 37, the feature polyhedron integration circuit 33
A three-dimensional map is created by adding information on the existence probability and the reliability to the three-dimensional map generated in (3). Based on this three-dimensional map, the feature polyhedrons are integrated as a restored shape in accordance with the existence probability and reliability setting, and final three-dimensional map data is generated.
【0075】図5に示したステップ55において、図2
に示したCRT5の画面上に復元された3次元形状が表
示され、3次元形状データが3次元地図メモリ4内にス
トアされる。なお、上記の実施例では、撮像装置として
2台のカメラを有するステレオカメラ装置1を使用した
が、カメラの台数は2台に限らないことが指摘される。
すなわち、1台のカメラで複数の位置から撮像すること
によっても同様の処理を行なうことができる。また、上
記の実施例では、データの処理が累積的に行なわれてい
るが、データを並列的に準備し、これらを一括して処理
することも可能であることが指摘される。In step 55 shown in FIG. 5, in FIG.
The restored three-dimensional shape is displayed on the screen of the CRT 5 shown in FIG. 3, and the three-dimensional shape data is stored in the three-dimensional map memory 4. Although the stereo camera device 1 having two cameras is used as the imaging device in the above-described embodiment, it is pointed out that the number of cameras is not limited to two.
That is, the same processing can be performed by capturing images from a plurality of positions with one camera. Further, in the above embodiment, the processing of the data is performed cumulatively, but it is pointed out that it is possible to prepare the data in parallel and process them all at once.
【0076】以上の処理により、次のような利点が得ら
れる。まず、投影画面上の特徴点画素の復元形状を多面
体により表現することで、撮像装置が持つ構造的な誤差
を考慮することができる。したがって、撮像パラメータ
の誤差に応じて誤差を多面体の変形および移動として表
現できる。その結果、従来3次元位置情報の復元方法で
不可能であった撮像装置のパラメータ推定のための煩雑
な処理を省略することができる。By the above processing, the following advantages can be obtained. First, by expressing the restored shape of the feature point pixel on the projection screen by a polyhedron, it is possible to consider the structural error of the imaging device. Therefore, the error can be expressed as deformation and movement of the polyhedron according to the error of the imaging parameter. As a result, it is possible to omit the complicated processing for estimating the parameters of the image pickup apparatus, which has been impossible with the conventional three-dimensional position information restoration method.
【0077】また、撮像装置のパラメータの誤差の推定
は、パラメータの高精度な推定を行なうことなく容易に
できる。さらに、推定パラメータの誤差をある範囲に維
持するために、撮像装置の固定および防振対策などが不
要となるので、撮影姿勢および位置の変化を伴う撮像装
置をも使用することができる。Further, the parameter error of the image pickup device can be easily estimated without performing the highly accurate estimation of the parameter. Further, in order to maintain the error of the estimation parameter within a certain range, it is not necessary to fix the image pickup device and take measures against image stabilization, so that it is possible to use the image pickup device that involves changes in the shooting posture and position.
【0078】図17に示した従来の手法では、判定結果
が特徴多面体の処理順序によって変動していたが、上記
の実施例では、処理順序に依存しないことが指摘され
る。すなわち、上記の実施例では、特徴多面体および視
野多面体をすべて3次元地図に配置した後に形状復元処
理が行なわれるので、復元結果が特徴多面体の配置処理
の順序に依存することがなく、信頼性のある最終結果が
得られる。さらに、すべての多面体の配置後に、特徴多
面体の存在確率とその信頼度を算出するために、撮影状
況を反映した最終結果が得られる。In the conventional method shown in FIG. 17, the determination result varies depending on the processing order of the feature polyhedron, but it is pointed out that the above embodiment does not depend on the processing order. That is, in the above-described embodiment, the shape restoration processing is performed after the feature polyhedron and the visual field polyhedron are all arranged on the three-dimensional map, so that the restoration result does not depend on the order of the arrangement processing of the feature polyhedron, and the reliability is high. Some final result is obtained. Furthermore, after arranging all the polyhedra, in order to calculate the existence probability of the feature polyhedron and its reliability, a final result reflecting the imaging situation is obtained.
【0079】すなわち、投影面上の画素に対応する点が
3次元空間内において存在する可能性のある領域を点投
影を利用して多面体により表現したので、撮像における
誤差を考慮に入れても、正確に3次元形状データを生成
することができる。That is, since a region in which a point corresponding to a pixel on the projection plane may exist in a three-dimensional space is expressed by a polyhedron using point projection, even if an error in image pickup is taken into consideration, It is possible to accurately generate three-dimensional shape data.
【0080】[0080]
【発明の効果】以上のように、この発明によれば、特徴
多面体データおよび視野多面体データに基づいて3次元
形状データが生成されるので、撮像における誤差を考慮
に入れて、より正確に3次元形状データを生成すること
のできる3次元物体認識装置が得られた。As described above, according to the present invention, since three-dimensional shape data is generated based on the feature polyhedron data and the visual field polyhedron data, the three-dimensional shape can be more accurately taken into consideration by taking an error in imaging into consideration. A three-dimensional object recognition device capable of generating shape data has been obtained.
【図1】図2に示した演算処理装置のブロック図であ
る。FIG. 1 is a block diagram of an arithmetic processing unit shown in FIG.
【図2】この発明の一実施例を示す3次元物体認識装置
のブロック図である。FIG. 2 is a block diagram of a three-dimensional object recognition device showing an embodiment of the present invention.
【図3】図2に示した3次元物体認識装置の動作を簡単
に説明する模式図である。FIG. 3 is a schematic diagram briefly explaining an operation of the three-dimensional object recognition device shown in FIG.
【図4】図1に示した演算処理装置における処理のフロ
ーチャートである。FIG. 4 is a flowchart of processing in the arithmetic processing device shown in FIG.
【図5】図1に示した演算処理装置における処理のフロ
ーチャートである。5 is a flowchart of processing in the arithmetic processing apparatus shown in FIG.
【図6】図4に示した特徴点検出処理のフローチャート
である。6 is a flowchart of the feature point detection process shown in FIG.
【図7】ステレオカメラ装置におけるパラメータの例を
示すパラメータ図である。FIG. 7 is a parameter diagram showing an example of parameters in the stereo camera device.
【図8】特徴多面体の生成原理を示す模式図である。FIG. 8 is a schematic diagram showing a principle of generating a characteristic polyhedron.
【図9】焦点距離の誤差を考慮に入れた場合の特徴多面
体の生成を示す模式図である。FIG. 9 is a schematic diagram showing generation of a characteristic polyhedron when the error of the focal length is taken into consideration.
【図10】視野多面体の生成原理を示す模式図である。FIG. 10 is a schematic diagram showing the principle of generating a visual field polyhedron.
【図11】焦点距離の誤差を考慮に入れた場合の視野多
面体の生成を示す模式図である。FIG. 11 is a schematic diagram showing generation of a visual field polyhedron when the error of the focal length is taken into consideration.
【図12】8−分木記述処理における2つの多面体間の
関係の例を示す模式図である。FIG. 12 is a schematic diagram showing an example of a relationship between two polyhedra in 8-branch tree description processing.
【図13】8−分木記述処理における2つの多面体間の
関係の別の例を示す模式図である。FIG. 13 is a schematic diagram showing another example of the relationship between two polyhedra in 8-branch tree description processing.
【図14】8−分木記述処理における2つの多面体間の
関係のさらに別の例を示す模式図である。FIG. 14 is a schematic diagram showing still another example of the relationship between two polyhedra in the 8-branch tree description processing.
【図15】8−分木記述処理における2つの多面体間で
一部交差が生じたときの例を示す模式図である。FIG. 15 is a schematic diagram showing an example when a partial intersection occurs between two polyhedra in the 8-branch tree description processing.
【図16】投影面上の画素に対応する点が存在し得る3
次元空間内の領域を示す模式図である。FIG. 16: There may be points corresponding to pixels on the projection plane 3
It is a schematic diagram which shows the area | region in dimensional space.
【図17】従来技術において交差処理の順序によって異
なった復元結果が得られることを示す模式図である。FIG. 17 is a schematic diagram showing that different restoration results can be obtained depending on the order of crossing processing in the conventional technique.
1 ステレオカメラ装置 3 演算処理装置 4 3次元地図メモリ 31 特徴点検出回路 32 特徴多面体生成回路 33 特徴多面体統合回路 34 パラメータ設定誤差設定回路 35 視野多面体生成回路 36 視野多面体統合回路 37 3次元形状復元回路 DESCRIPTION OF SYMBOLS 1 stereo camera device 3 arithmetic processing device 4 3D map memory 31 feature point detection circuit 32 feature polyhedron generation circuit 33 feature polyhedron integration circuit 34 parameter setting error setting circuit 35 view polyhedron integration circuit 37 view polyhedron integration circuit 37 3D shape restoration circuit
Claims (1)
った位置から撮像し、第1の複数の画像信号を発生する
撮像手段を含み、 前記撮像手段は、撮像面上に配設された第2の複数の撮
像画素を備えており、 前記撮像手段が有する誤差を規定する誤差データを設定
する誤差設定手段と、 前記第1の複数の画像信号に応答して、前記第1の複数
の画像間で対応する第3の複数の特徴点を検出する特徴
点検出手段と、 前記誤差設定手段により設定された誤差データに応答し
て、前記特徴点検出手段によって検出された対応する特
徴点が3次元空間において存在し得る領域を規定するた
めの特徴多面体データを生成する特徴多面体生成手段
と、 前記撮像面上の撮像画素領域の広さに基づいて、前記第
1の複数の異なった位置から前記撮像手段が共通に撮像
できる視野の領域を規定するための視野多面体データを
生成する視野多面体生成手段と、 特徴多面体データおよび視野多面体データに応答して、
前記被写体の3次元形状データを生成する3次元形状デ
ータ生成手段とを含む、3次元物体認識装置。Claim: What is claimed is: 1. An image pickup means for picking up an image of the same three-dimensional subject from a plurality of first different positions to generate a first plurality of image signals, wherein the image pickup means is an image pickup device. An error setting unit that includes a second plurality of image pickup pixels arranged on the surface, and sets error data that defines an error of the image pickup unit; and in response to the first plurality of image signals. A characteristic point detecting means for detecting a corresponding third characteristic point among the first plurality of images; and a characteristic point detecting means for detecting the characteristic data in response to the error data set by the error setting means. A feature polyhedron generating unit that generates feature polyhedron data for defining a region in which the corresponding feature points may exist in a three-dimensional space; and the first based on the size of the image pickup pixel region on the image pickup surface. In several different positions In response to the characteristic polyhedron data and the visual field polyhedron data, the visual field polyhedron generating means for generating the visual field polyhedron data for defining the area of the visual field that can be commonly imaged by the imaging means,
A three-dimensional object recognition device, comprising: three-dimensional shape data generation means for generating three-dimensional shape data of the subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3180908A JPH0528246A (en) | 1991-07-22 | 1991-07-22 | Three-dimensional object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3180908A JPH0528246A (en) | 1991-07-22 | 1991-07-22 | Three-dimensional object recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0528246A true JPH0528246A (en) | 1993-02-05 |
Family
ID=16091403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3180908A Pending JPH0528246A (en) | 1991-07-22 | 1991-07-22 | Three-dimensional object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0528246A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001338279A (en) * | 2000-05-30 | 2001-12-07 | Mitsubishi Electric Corp | Three-dimensional form-measuring apparatus |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62284479A (en) * | 1986-06-02 | 1987-12-10 | Hitachi Ltd | Device for recognizing stereoscopic shape of object |
JPS63197280A (en) * | 1987-02-12 | 1988-08-16 | Matsushita Electric Ind Co Ltd | Picture recognizing device |
-
1991
- 1991-07-22 JP JP3180908A patent/JPH0528246A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62284479A (en) * | 1986-06-02 | 1987-12-10 | Hitachi Ltd | Device for recognizing stereoscopic shape of object |
JPS63197280A (en) * | 1987-02-12 | 1988-08-16 | Matsushita Electric Ind Co Ltd | Picture recognizing device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001338279A (en) * | 2000-05-30 | 2001-12-07 | Mitsubishi Electric Corp | Three-dimensional form-measuring apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019170164A1 (en) | Depth camera-based three-dimensional reconstruction method and apparatus, device, and storage medium | |
US11748906B2 (en) | Gaze point calculation method, apparatus and device | |
EP3401815B1 (en) | Determining an architectural layout | |
CN111750820B (en) | Image positioning method and system | |
US11615552B2 (en) | Crossing point detector, camera calibration system, crossing point detection method, camera calibration method, and recording medium | |
CN108898676B (en) | Method and system for detecting collision and shielding between virtual and real objects | |
US6031941A (en) | Three-dimensional model data forming apparatus | |
Zhang et al. | 3D dynamic scene analysis: a stereo based approach | |
US8355565B1 (en) | Producing high quality depth maps | |
Micusik et al. | Structure from motion with wide circular field of view cameras | |
US6438507B1 (en) | Data processing method and processing device | |
JP5713159B2 (en) | Three-dimensional position / orientation measurement apparatus, method and program using stereo images | |
JP2004334819A (en) | Stereo calibration device and stereo image monitoring device using same | |
JP2005308553A (en) | Three-dimensional image measuring device and method | |
US20110235898A1 (en) | Matching process in three-dimensional registration and computer-readable storage medium storing a program thereof | |
US20200294269A1 (en) | Calibrating cameras and computing point projections using non-central camera model involving axial viewpoint shift | |
JP2000163590A (en) | Conversion device and method for three-dimensional model | |
CN113538587A (en) | Camera coordinate transformation method, terminal and storage medium | |
JP2000011172A (en) | Method and device for generating virtual environment and recording medium recording virtual environment generation program | |
JP2018044943A (en) | Camera parameter set calculation device, camera parameter set calculation method and program | |
KR102361133B1 (en) | Method for acquiring distance to at least one object located in omni-direction of vehicle and vision device using the same | |
Tezaur et al. | A new non-central model for fisheye calibration | |
JP2001101419A (en) | Method and device for image feature tracking processing and three-dimensional data preparing method | |
JP4389663B2 (en) | Image processing method and image processing apparatus | |
EP3352136B1 (en) | Crossing point detector, camera calibration system, crossing point detection method, camera calibration method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 19950314 |