JPH11351843A - Apparatus and method of generating three-dimensional picture - Google Patents

Apparatus and method of generating three-dimensional picture

Info

Publication number
JPH11351843A
JPH11351843A JP19791698A JP19791698A JPH11351843A JP H11351843 A JPH11351843 A JP H11351843A JP 19791698 A JP19791698 A JP 19791698A JP 19791698 A JP19791698 A JP 19791698A JP H11351843 A JPH11351843 A JP H11351843A
Authority
JP
Japan
Prior art keywords
target object
information
image
pixels
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP19791698A
Other languages
Japanese (ja)
Inventor
Takeomi Suzuki
武臣 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP19791698A priority Critical patent/JPH11351843A/en
Publication of JPH11351843A publication Critical patent/JPH11351843A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To construct three dimensional picture data of an object, using a plurality of recorded pictures by a digital camera, etc., to compose pictures as seen from arbitrary points of view and direction other than at recording. SOLUTION: From a plurality of recorded pictures composed of digitized pixels seen from a plurality of points of view 1, 2,..., i, the position information of an object shown by these pixels is obtd. to construct three dimensional picture data. A plurality of pictures G1, G2,..., Gi composed of pixels holder color data are generated by recording an object from desired no. of points of view V1, V2,..., Vi wherein the view point position and azimuth of records are selected so that the part of the object to be represented as a composite picture is included in any one of the pictures and an identical part of the object to be faithfully represented is included in two or more as many as possible pictures among these pictures.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[発明の属する技術分野]本発明は、色情
報を保持する画素を単位として構成される画像を用い
て、対象物体の3次元的な形状と色のデータを構築する
手段と方法、ならびにそのデータから任意の視点及び方
位から観察した時の対象物体の画像を合成する手段と方
法に関する。
[0001] The present invention relates to a means and a method for constructing three-dimensional shape and color data of a target object using an image constituted by pixels holding color information. The present invention also relates to means and a method for synthesizing an image of a target object when observed from an arbitrary viewpoint and azimuth from the data.

【0002】[従来の技術]3次元物体を数値データと
して構成しかつそれを表示する効果的な手段として従来
所謂ポリゴン技術が広く使われている。これを用いるに
は物体を表現するポリゴンの多数の頂点座標を何らかの
方法で取得せねばならず、それは一般には容易ではない
ため様々な工夫がされてきた。またこれら頂点の間は単
純な平面などで近似されるため、相当多数のポリゴン頂
点を生成しない限り、表現される画像は実体とは異なる
所が多くなり易い。従って現実の物体の3次元的な様相
を忠実に画像として表現するのは容易に一般に行える状
況ではない。
[Prior Art] Conventionally, a so-called polygon technique has been widely used as an effective means for constructing and displaying a three-dimensional object as numerical data. To use this, it is necessary to obtain the coordinates of a large number of vertices of a polygon representing an object by some method, and since it is generally not easy, various measures have been taken. Further, since these vertices are approximated by a simple plane or the like, the image to be expressed tends to be different from the actual one unless a large number of polygon vertices are generated. Therefore, it is not easy to generally express the three-dimensional aspect of a real object as an image.

【0003】[発明が解決しようとする課題]本発明
は、ディジタルカメラなどにより得られる複数の記録画
像を用いて、容易に対象物体の3次元的様子を数値デー
タとして構築し、更にこれより任意の位置から見た対象
物体の画像を合成し表示しようとするものである。
[0003] The present invention is to easily construct a three-dimensional state of a target object as numerical data by using a plurality of recorded images obtained by a digital camera or the like, and to further construct an arbitrary three-dimensional state. Is intended to synthesize and display an image of the target object viewed from the position of.

【0004】[課題を解決するための手段]本発明で
は、まず対象物体を任意の複数の視点(図1のV1、V
2、V3、...Vi)から記録した、色データを保持
する画素からなる複数の画像(図1のG1,G
2,...Gi)を生成する。この際、合成画像として
表現したい対象物体の部分がいずれかの画像に含まれる
よう、記録の視点位置および方位を選び、またこれらの
画像の中では3次元形状を忠実に表現しようとする対象
物体の同一部分が2以上出来るだけ多数の画像の中に含
まれるようにする。
[Means for Solving the Problems] In the present invention, the target object is first viewed from a plurality of arbitrary viewpoints (V1, V1 in FIG. 1).
2, V3,. . . Vi), a plurality of images (G1, G2 in FIG. 1) composed of pixels holding color data.
2,. . . Gi). At this time, the viewpoint position and orientation of the recording are selected so that the portion of the target object to be expressed as a composite image is included in any of the images, and the target object to be faithfully represented in the three-dimensional shape in these images is selected. Are included in as many images as possible.

【0005】ここで説明を分かりやすくするため、まず
図1において、2つの画像G1およびG2について説明
する。 この場合、対象物体Oの一点pが画像G1の中
では画素p1として、画像G2の中では画素p2として
記録されているとする。ここでもし記録時のカメラの視
点(結像の射影の中心点)V1およびV2の座標、及び
カメラの撮像レンズの主軸ならびにこれに直交する画像
面内の位置の基準となる互いに直交する2つの基準軸の
3方位(以降これをカメラの方位、あるいは記録の方位
と言う)の座標が既知であれば、カメラの方位に対して
の直線p1−V1およびp2−V2の方位(すなわちV
1−pおよびV2−pの方位)は画素p1、p2の画像
中における位置座標から定まるので、カメラの結像距離
(十分カメラから離れている対象物体に対しては撮像レ
ンズの焦点距離)と画素の大きさが分かっていれば、図
1において三角形p−V1−V2−pについての三角測
量の原理からpの3次元位置座標が計算できる。
[0005] To make the description easier to understand, first, two images G1 and G2 will be described with reference to FIG. In this case, it is assumed that one point p of the target object O is recorded as a pixel p1 in the image G1 and as a pixel p2 in the image G2. Here, the coordinates of the viewpoints (center points of the projection of the image) V1 and V2 of the camera at the time of recording, and the two axes orthogonal to each other, which serve as a reference for the principal axis of the imaging lens of the camera and the position in the image plane orthogonal to this. If the coordinates of three directions of the reference axis (hereinafter referred to as the camera direction or the recording direction) are known, the directions of the straight lines p1-V1 and p2-V2 with respect to the camera direction (ie, V
Since the orientations of 1-p and V2-p) are determined from the position coordinates of the pixels p1 and p2 in the image, the imaging distance of the camera (the focal length of the imaging lens for a target object sufficiently far from the camera) and If the size of the pixel is known, the three-dimensional position coordinates of p can be calculated from the principle of triangulation for the triangle p-V1-V2-p in FIG.

【0006】ところでこの様に、pの3つの未知数から
なる3次元位置座標を求めるのに利用できる条件は、2
次元的な画像中における画素p1、p2の位置座標値各
2、合わせて4つの値が満足されるための4条件とな
る。すなわち未知数の数よりも条件式の数が過剰である
ため常に厳密に満たされる訳にはいかない。このため実
際には、条件式の誤差が最小になるように、例えば最小
二乗法によって、pの位置座標を定める必要がある。
As described above, the conditions that can be used to determine the three-dimensional position coordinates consisting of three unknown values of p are 2
There are four conditions for satisfying four values in total, two for each position coordinate value of the pixels p1 and p2 in the two-dimensional image. That is, since the number of conditional expressions is excessive compared with the number of unknowns, it cannot always be strictly satisfied. Therefore, in practice, it is necessary to determine the position coordinates of p by, for example, the least square method so that the error of the conditional expression is minimized.

【0007】この事は同時に、これまで既知であるとし
てきたカメラの視点や方位、更には画像毎のカメラの結
像距離、或いは撮像レンズ固有の結像の歪み係数などが
未知である場合でも、もし対象物体の同一点を表わすと
して画像の間で対応付けられる画素の組み合わせ(以降
これを対応画素セットと呼ぶ)が十分に得られれば、p
の位置座標だけでなくこれらの新たな未知数も同時に求
められる事を意味する。この事はまた、2つの画像の間
で言えるのみではなく、更に多数の画像の間であっても
未知数を決めるのに必要以上の独立な条件式の数が得ら
れれば常に出来る事である。
At the same time, even if the viewpoint and orientation of the camera, which have been known so far, furthermore, the imaging distance of the camera for each image, or the distortion coefficient of the imaging lens inherent in the imaging lens, etc., is unknown. If a sufficient combination of pixels (hereinafter referred to as a corresponding pixel set) corresponding between the images as representing the same point of the target object is obtained, p
Means that these new unknowns as well as the position coordinates of are obtained at the same time. This can be said not only between two images but also between a large number of images as long as the number of independent conditional expressions more than necessary to determine the unknown is obtained.

【0008】例えば2つの画像の場合、画像記録時のカ
メラの視点、方位、結像距離も未知であるとし、必要最
小限の独立な対応画素セットをN組みとすれば、未知数
の数は、カメラの視点と方位は相対的なものであるの
で、一方のカメラの視点を直交座標系の原点とし、その
カメラの方位に座標軸をとれば、もう一方のカメラの視
点について3、そのカメラの方位について3、結像距離
については各画像に各1、計2x1=2、対応画素セッ
トに係わる対象物体中の点の位置座標について各3、計
Nx3、総計3N+8となるのに対し、条件式の数は対
応画素セットについて各4、計Nx4となるから、3N
+8=4Nより、N=8となる。独立な対応画素セット
が9以上得られて条件式が過剰になった場合には、最小
二乗法によって、これら未知数が求められる。すなわち
条件式の誤差の2乗をすべての条件式について加えた値
が最小になるように上記の未知数を選べばよい。なお、
撮像レンズの結像歪みの係数(必要に応じた次数までの
複数の係数)なども、十分な数の独立な対応画素セット
が得られれば、未知数として同様に求められる。
For example, in the case of two images, the viewpoint, azimuth, and imaging distance of the camera at the time of image recording are also unknown, and if the minimum necessary independent corresponding pixel sets are N sets, the number of unknowns becomes Since the viewpoint and the direction of the camera are relative, if the viewpoint of one camera is set as the origin of the orthogonal coordinate system and the coordinate axis is set to the direction of the camera, the viewpoint of the other camera becomes 3 and the direction of the camera , 3 for the imaging distance, 2 for each image, 2 × 1 = 2, and 3 for the position coordinates of the point in the target object related to the corresponding pixel set, 3 × N × 3, for a total of 3N + 8. Since the number is 4 for each corresponding pixel set, a total of N × 4, 3N
From + 8 = 4N, N = 8. When nine or more independent corresponding pixel sets are obtained and the conditional expressions become excessive, these unknowns are obtained by the least squares method. That is, the above unknowns may be selected so that the value obtained by adding the square of the error of the conditional expression for all conditional expressions is minimized. In addition,
The coefficients of the imaging distortion of the imaging lens (a plurality of coefficients up to the required order) and the like are also obtained as unknowns if a sufficient number of independent corresponding pixel sets are obtained.

【0009】かくしてこれら画像の間で対応画素セット
として対応付けをされた画素については、その画素が表
わす対象物体の点の3次元的位置が確定する。もし対象
物体が滑らかな表面からなると仮定すると、これら位置
の確定した点の間の表面を平面あるいは適当な曲面と仮
定する事で、位置の確定した点の間にあるまだ位置の知
られていない点の3次元的位置も近似的に算定できる。
従ってこれら画像のすべての画素について、その画素が
係わる対象物体の点の3次元的位置とその色の情報が決
定される。
[0009] With respect to the pixels associated as a corresponding pixel set among these images, the three-dimensional position of the point of the target object represented by the pixel is determined. If the target object is assumed to consist of a smooth surface, by assuming that the surface between these fixed points is a plane or a suitable curved surface, the position between the fixed points is not known yet. The three-dimensional position of the point can also be approximately calculated.
Therefore, for all the pixels of these images, the information on the three-dimensional position and the color of the point of the target object to which the pixel relates is determined.

【0010】ところで上記の方法で得られた対象物体の
3次元情報がどれだけ現実に近いかは、どれだけ多くの
対応画素セットが抽出出来るかに依存する。しかし画像
間の画素の対応関係は、単に画像中の特徴的な点を探す
だけでは、コンピュータプログラムによって画像を解析
して求めるかあるいは目視によって求めるかに係わら
ず、常に十分に得られる訳ではない。
By the way, how close the three-dimensional information of the target object obtained by the above method is to reality depends on how many corresponding pixel sets can be extracted. However, the correspondence between pixels between images is not always sufficiently obtained simply by searching for characteristic points in the image, regardless of whether the image is obtained by analyzing the image using a computer program or by visual observation. .

【0011】本発明では、かかる問題を改善するため、
画像中に存在する特徴的な線(直線あるいは曲線)を利
用する。これは例えば、人間の着用する衣服にある模様
や皺、あるいは箱などの表面の折れ目、照明の具合で生
じる陰影、カメラの視点と対象物体との位置関係から生
じる対象物体の輪郭線などとして画像中には多数存在
し、かつ対象物体の同じ部分を表わすとして画像間で、
例えば目視によって、容易に対応付けられるものが多い
(このうち、輪郭線はやや事情が異なるが、これについ
ては後に別に説明する)。
In the present invention, in order to improve such a problem,
A characteristic line (straight line or curve) existing in the image is used. For example, patterns and wrinkles in clothes worn by humans, folds on the surface of boxes and the like, shadows caused by lighting conditions, contour lines of the target object resulting from the positional relationship between the camera's viewpoint and the target object, etc. There are many in the image and between the images as representing the same part of the object,
For example, there are many things that can be easily associated with each other by visual inspection (out of these, the outline is slightly different, but this will be described separately later).

【0012】しかしこれらの線の殆どにおいて、線とし
ては画像間で対応するのは明白であっても、その線のど
の部分(画素)が対応する線のどの部分(画素)に対応
するかは直ちには判断できない。本発明によると、以下
の様にして、線の間の対応関係から、その線に属する画
素の間の対応関係を求める事が出来、従ってそれらが新
たな対応画素セットとして、3次元的位置を確定する対
象物体の点を増やす事に寄与する。
However, in most of these lines, although it is obvious that the lines correspond between the images, it is not clear which part (pixel) of the line corresponds to which part (pixel) of the corresponding line. I cannot judge it immediately. According to the present invention, the correspondence between the pixels belonging to the line can be obtained from the correspondence between the lines in the following manner, and therefore, the three-dimensional positions are determined as a new corresponding pixel set. This contributes to increasing the number of points of the target object to be determined.

【0013】まず、既に述べた様に、画像中の特徴的な
点を調べて対応画素セットを出来るだけ多く抽出し、そ
れら対応画素セットに係わる3次元的位置座標を求める
と同時に、これら画像の記録時の視点と方位の座標等を
求める。もしあらかじめ何らかの方法で既にその視点方
位等が解っている画像では、これを割愛出来る。一旦画
像記録の視点方位(その他、結像距離など対象物体の点
の位置座標を決めるに必要な数値も含めて)が定まる
と、図2に示すように、対応関係がある二つの線から画
素の対応関係を求める事ができる。
First, as described above, characteristic points in an image are examined to extract as many corresponding pixel sets as possible, and three-dimensional position coordinates relating to the corresponding pixel sets are obtained, and at the same time, these images are obtained. Find the coordinates of the viewpoint and azimuth at the time of recording. If the image is already known in some way or the like, the view direction can be omitted. Once the viewpoint orientation of the image recording (including the numerical values necessary for determining the position coordinates of the point of the target object such as the imaging distance) is determined, as shown in FIG. Can be determined.

【0014】即ち、図2に示される様に、対応関係があ
る二つの線、画像G3のs3および画像G4のs4、の
うち一方の線s3に含まれる画素をps3、ps3が表
わす対象物体の点をpoとして、ps3、画像G3の視
点V3、Po、画像G4の視点V4を含む平面Lを考え
る。この時、poに対応するs4中の画素ps4は当然
平面Lに含まれる。もともとpoはps3に対応するの
であるからs4とLとの交点にある画素ps4がps3
に対応した画素である事がわかる。このような画素の対
応関係は原理上当該線のどの画素についても適応できる
ので、これら線の中から必要なだけ多数の対応画素セッ
トを得る事ができる。
That is, as shown in FIG. 2, pixels included in one of the two lines s3 of the image G3 and s4 of the image G4, which correspond to each other, are represented by ps3 and ps3, respectively. Assuming that a point is po, a plane L including ps3, viewpoints V3 and Po of the image G3, and viewpoint V4 of the image G4 is considered. At this time, the pixel ps4 in s4 corresponding to po is naturally included in the plane L. Since po originally corresponds to ps3, the pixel ps4 at the intersection of s4 and L is ps3.
It can be seen that the pixel corresponds to. Since such a correspondence relationship of pixels can be applied to any pixel on the line in principle, it is possible to obtain as many corresponding pixel sets as necessary from these lines.

【0015】なを、この様にして対応画素が精度良く定
まるには、平面Lと線s3、s4とが十分な角度を持っ
て交わる事が必要である。またs3またはs4が2回以
上Lと交差しない事も望ましい。2回以上交差するとき
は、交差が1回となるよう、線を細かく区切って対応画
素を求めるか、あるいは周囲の別の画像情報を使って対
応画素を特定する必要が生じる。
In order for the corresponding pixel to be determined with high accuracy in this way, it is necessary that the plane L intersects the lines s3 and s4 at a sufficient angle. It is also desirable that s3 or s4 does not cross L twice or more. When crossing two or more times, it is necessary to determine the corresponding pixel by finely dividing the line so as to make one crossing, or to specify the corresponding pixel using other surrounding image information.

【0016】この方法の特徴は、従来の画像間の相関関
数の解析から画素に係わる3次元的位置情報を得る場合
とは違って、両画像の記録の視点が近接している必要は
ない。画像の相関法では、視点が離れ過ぎると画像の構
図が異なりすぎて有効な相関関数を得難くなるが、ここ
では両画像の視点が大きく離れていても差し支えない。
A feature of this method is that unlike the conventional case where three-dimensional position information relating to pixels is obtained from analysis of a correlation function between images, it is not necessary that the viewpoints of recording both images are close to each other. In the image correlation method, if the viewpoints are too far apart, the composition of the image is too different, making it difficult to obtain an effective correlation function. However, here, the viewpoints of both images may be far apart.

【0017】これら画像の特徴的な線の中、輪郭線はそ
の性質が異なる。輪郭線が表面の折れ目と一致するな
ど、対象物体の他の構造的な特徴線と一致する場合は上
述と同じく扱えるので別として、表面の湾曲とそれを見
る視点との位置関係から生じる輪郭線は、これに対応す
る対象物体の構造上あるいは模様上の線を持たない。従
って、この様な輪郭線に対応する明確な線を他の画像の
中に得るのは困難である。
Among the characteristic lines of these images, the contour lines have different properties. If the contour line matches another structural feature line of the target object, such as a fold on the surface, it can be handled in the same way as described above. Apart from that, a contour generated from the positional relationship between the surface curvature and the viewpoint from which it is viewed The line does not have a corresponding structural or pattern line of the target object. Therefore, it is difficult to obtain a clear line corresponding to such a contour line in another image.

【0018】しかし画像記録時の視点の位置関係から決
まる画像の構図を考慮すると、その輪郭線を形成する対
象物体上の点列のおよその位置を他の画像の中に推測す
るのは十分に出来る事が多い。この様な場合、そのおよ
その位置に人為的に線を設定し、本発明ではこれを該輪
郭線におよそ対応する特別の対応線として以下のように
利用する、もともとこの様な輪郭線は、対象物体表面を
真横から眺めてその面の形状を明確に捕らえたものであ
るので、これより表面の3次元的位置情報を得ることは
大いに有効である。
However, considering the composition of the image determined from the positional relationship of the viewpoints at the time of image recording, it is not enough to estimate the approximate position of the point sequence on the target object forming the outline in another image. There are many things you can do. In such a case, a line is artificially set at the approximate position, and in the present invention, this is used as a special corresponding line approximately corresponding to the outline as follows. Obtaining the three-dimensional position information of the surface is very effective because the shape of the surface of the target object is clearly captured when viewed from the side.

【0019】この様な輪郭線s5(図3)に対応する特
別な対応線s6(図3)は、およその対応関係を示すも
のであって正確なものではない。そこで、これ以外から
得られた対応画素セットだけを用いて対象物体の点の3
次元位置情報をまず求める。次にこれら3次元位置の解
った点を滑らかに繋ぐ対象物体表面の近似曲面を考え、
さらにこの曲面が、当該特別な対応線s6に対応する対
象物体上の線so6の近傍(たとえばあらかじめ定めら
れた距離誤差の範囲内)において、該輪郭線s5の属す
る画像G5(図3)の記録時の視点V5(図3)から見
た時、該輪郭線s5を形成する様に曲面を条件付けるの
である。
The special correspondence line s6 (FIG. 3) corresponding to such a contour line s5 (FIG. 3) shows an approximate correspondence and is not accurate. Therefore, using only the corresponding pixel sets obtained from other points, the points of the target object
First, dimensional position information is obtained. Next, consider an approximated surface of the target object surface that smoothly connects these three-dimensional positions,
Furthermore, in the vicinity of the line so6 on the target object corresponding to the special corresponding line s6 (for example, within a range of a predetermined distance error), the recording of the image G5 (FIG. 3) to which the contour line s5 belongs is performed. When viewed from the time point V5 (FIG. 3), the curved surface is conditioned so as to form the contour line s5.

【0020】即ち、図3において、該輪郭線s5に属す
る画素ps5と視点V5を結ぶ直線と該曲面とが、対応
線s6を視点V6に関して該曲面上に投影した線so6
の近傍で接する事を曲面に条件付ける。この時の接点p
o5の位置は、必ずしもso6上には無く、その近傍の
既に3次元位置の定まった対象物体の点群を該曲面が通
ると言う条件も含めて、上述の諸条件が最も良く適合す
るように該曲面を最適化する事で、例えばあらかじめ定
められた次数の3次元座標変数の多項式で曲面を表現し
その各項の係数を最小2乗法によって最適化すること
で、定められる。このようにして、該輪郭線s5上の画
素ps5を随意選択することで、それらに対応するpo
5の位置が、対応する対象物体上の点の3次元位置とし
て決定され、またpo5に対応するs6の近傍の画素p
s6pがps5に対応する画素として得られる。
That is, in FIG. 3, a straight line connecting the pixel ps5 belonging to the contour line s5 and the viewpoint V5 and the curved surface correspond to a line so6 obtained by projecting the corresponding line s6 on the curved surface with respect to the viewpoint V6.
Condition that the surface touches in the vicinity of. Contact point p at this time
The position of o5 is not necessarily on so6, and the above-mentioned conditions are best adapted including the condition that the curved surface passes through a point group of the target object in the vicinity of which the three-dimensional position has already been determined. By optimizing the curved surface, for example, it is determined by expressing the curved surface with a polynomial of a three-dimensional coordinate variable of a predetermined order and optimizing the coefficient of each term by the least square method. In this way, by arbitrarily selecting the pixel ps5 on the contour line s5, the corresponding po
5 is determined as the three-dimensional position of the corresponding point on the target object, and the pixel p near s6 corresponding to po5
s6p is obtained as a pixel corresponding to ps5.

【0021】勿論、正確さは劣る事になるが、上述の方
法を簡略化して、およその対応関係を意味する線s6を
位置の確定的な対応線として、これまでの対応線セット
と同じく扱うのも良い。
Of course, the accuracy is inferior, but the above method is simplified, and the line s6, which means an approximate correspondence, is treated as a definite position correspondence line in the same way as the corresponding line set up to now. Is also good.

【0022】以上より、3次元位置座標の解った多数の
対象物体の点が得られる。これらの情報は、そのまま3
次元ポリゴンモデルの頂点座標として、従来技術による
対象物体のモデル化とその表示に使う事ができる。
From the above, many points of the target object whose three-dimensional position coordinates are known can be obtained. These information are
The coordinates of the vertices of the three-dimensional polygon model can be used for modeling and displaying the target object according to the related art.

【0023】更に一般的に言えば、記録画像をあらかじ
め対象物体の形状に応じて複数の領域に分割しておき、
これらの3次元位置座標の情報から、各領域毎に、対象
物体を平面あるいは曲面として、例えば直交座標系の座
標変数の多項式で近似し、その多項式の係数としてこれ
ら情報を保持し、対象物体の表示に用い事が出来る。こ
の場合、各記録画像毎に3次元モデルが形成出来るが、
当然ながら対象物体の全ての側面を一つの画像が記録し
ているとは限らない。このため、上記画像を記録した時
の視点および方位とは異なる所からの対象物体の画像を
合成しようとする場合、これら複数の記録画像から、画
素の3次元位置情報ばかりでなく、色情報も寄せ集める
必要が生じる。
More generally, the recorded image is divided into a plurality of areas in advance according to the shape of the target object.
From the information of these three-dimensional position coordinates, for each region, the target object is approximated as a plane or a curved surface by, for example, a polynomial of a coordinate variable in a rectangular coordinate system, and the information is held as a coefficient of the polynomial, and the information is held. Can be used for display. In this case, a three-dimensional model can be formed for each recorded image.
Of course, one image does not necessarily record all the sides of the target object. For this reason, when it is intended to synthesize an image of the target object from a place different from the viewpoint and azimuth at the time of recording the image, not only the three-dimensional position information of the pixels but also the color information is obtained from the plurality of recorded images. There is a need to gather.

【0024】ところで、各画像では、その記録時の条件
が異なる為、対象物体の同一点であっても互いに異なっ
た色情報で記録されるのが普通である。その為、上記の
画像合成に際して、色情報の調整が望ましい。その方法
として、本発明では、上述の画像の分割領域毎に、それ
に対応する対象物体の部分の同じ部分あるいはそれと同
じ色を有する部分を有する他の画像の分割領域との間で
それぞれの画素の色を比較し、それらが同じ色に表示さ
れるよう、調整する。その為に、まず互いに色を調整す
る複数の領域を選び出し、その各領域から色を合わせる
べき画素あるいは画素群を選定する。つぎにこれらの画
素の色情報から、平均操作などにより、基準とする色を
決定し、これに合わせて各領域の例えばRGB値の調整
係数を算出する。そして各領域の画素をこの係数で補正
する。補正された色情報は各画素の新たな色情報とし
て、補正された画像などの形でこれを保持して画像合成
に利用しても良いし、あるいは、調整係数の形で保持し
て画像合成時に色を補正しても良い。
By the way, since each image has different conditions at the time of recording, it is usual that the same point of the target object is recorded with mutually different color information. Therefore, it is desirable to adjust the color information in the above-described image synthesis. As a method, in the present invention, for each of the above-described divided regions of the image, each pixel is divided between the corresponding portion of the target object and the divided region of another image having a portion having the same color as that of the target object. Compare the colors and adjust them so they appear in the same color. For this purpose, first, a plurality of regions whose colors are to be mutually adjusted are selected, and a pixel or a pixel group to be matched in color is selected from each region. Next, a reference color is determined from the color information of these pixels by an averaging operation or the like, and an adjustment coefficient of, for example, an RGB value of each region is calculated in accordance with the reference color. Then, the pixels in each area are corrected with this coefficient. The corrected color information may be held as a new color information of each pixel in the form of a corrected image or the like and used for image synthesis, or may be held in the form of an adjustment coefficient and used for image synthesis. At times, the color may be corrected.

【0025】[発明の実施の形態]画像生成手段として
は、半導体撮像素子を用いたディジタルカメラを使用す
るのが最も直接的かつ容易である。その画像出力は既に
画素単位にディジタル化された色情報になっているの
で、これをコンピュータに入力し、上述の処理をコンピ
ュータプログラムで実行する。実際の処理の過程には様
々な変形が考えられるが、以下にその一例を述べる。
[Embodiment of the Invention] It is most direct and easy to use a digital camera using a semiconductor image sensor as an image generating means. Since the image output is color information already digitized in pixel units, this is input to a computer, and the above processing is executed by a computer program. Various modifications are conceivable in the actual process, and one example will be described below.

【0026】まず、入力された画像各々について、対象
物体を面(一般には曲面)で近似するのに備えて、画像
中の物体を構成する面毎に適宜境界線を設定すること
で、画像を領域に分割する。これは、コンピュータの表
示装置に該画像を表示し、境界線の主要点をポインティ
ングデバイスで指定する事でおこなわれる。その際、境
界線にはそれに隣接する面(あるいは領域)が互いにど
のような位置関係にあるのか(連続しているのか、ある
いは一方の面が他方を隠しているのかなど)の情報を保
持させる。
First, for each input image, a boundary line is appropriately set for each surface constituting the object in the image in preparation for approximating the target object with a surface (generally, a curved surface). Divide into regions. This is performed by displaying the image on a display device of a computer and designating a main point of the boundary line with a pointing device. At that time, the boundary line holds information on the positional relationship between the adjacent surfaces (or regions) (whether they are continuous or whether one surface hides the other). .

【0027】つぎに、画像の間を比較して、対象物体の
特徴的な同一点が2つ以上の画像に記録されているのを
目視によって探し、それらの点をポインティングデバイ
スで指定する事で、それらの画素座標を対応画素セット
としてテーブルに保持する。もし対象物体の同一点が3
つ以上の画素に対応する時は、2つの画素ずつ、一部の
画素を重複させて、対応画素セットとして保持するとよ
い。画像間の相関関数を用いた解析などによってこの作
業を自動的に行ってもよい。
Next, by comparing the images, it is visually determined that the same characteristic point of the target object is recorded in two or more images, and these points are designated by a pointing device. Are stored in the table as the corresponding pixel set. If the same point on the target object is 3
When it corresponds to more than one pixel, it is preferable that some pixels are overlapped every two pixels and held as a corresponding pixel set. This work may be automatically performed by analysis using a correlation function between images.

【0028】つぎに、画像の間を比較して、対象物体の
特徴的な同一線が2つ以上の画像に記録されているのを
目視によって探し、それらの主要点をポインティングデ
バイスで指定する事で、それらの画素座標を対応線セッ
トとして テーブルに保持する。もし対象物体の同一線
が3つ以上の画像の線に対応する時は、2つの線ずつ、
一部の線を重複させて、対応線セットとして保持すると
よい。画像中のコントラストの解析や画像間の相関関数
の計算などによってこの作業を自動的に行ってもよい。
この際、対応線セットが、上述の輪郭線に係わる特別の
ものであるときはその線を識別出来るよう、情報を付加
する。
Next, a comparison is made between the images to visually check that two or more characteristic lines of the target object are recorded in two or more images, and their principal points are designated by a pointing device. Then, those pixel coordinates are stored in the table as a corresponding line set. If the same line of the target object corresponds to three or more image lines, two lines at a time
Some lines may be overlapped and held as a corresponding line set. This operation may be automatically performed by analyzing the contrast in the images, calculating the correlation function between the images, and the like.
At this time, if the corresponding line set is a special one related to the above-mentioned contour line, information is added so that the line can be identified.

【0029】つぎに、上で得られた対応画素セットを用
いて、その画素に係わる対象物体の点の3次元位置座標
と、これら画像を記録した時のカメラの位置と方位の座
標、結像距離などを、既に述べた方法によって求める
(これらの値の中、既知のものがあれば、あらかじめそ
れを入力しておく)。
Next, using the corresponding pixel set obtained above, the three-dimensional position coordinates of the point of the target object relating to the pixel, the coordinates of the position and orientation of the camera when these images were recorded, and the image formation The distance and the like are obtained by the method described above (if any of these values is known, enter it in advance).

【0030】つぎに、上で得られたカメラの位置と方位
の座標、結像距離などをもちいて、輪郭線に係わる特別
の対応線セットを除く対応線セットから、既に述べた方
法によって、新たな対応画素セットを生成し、それに係
わる対象物体の点の3次元位置座標をもとめる。
Next, using the camera position and azimuth coordinates obtained above, the image forming distance, and the like, a new corresponding line set other than the special corresponding line set relating to the contour line is newly obtained by the method described above. A corresponding pixel set is generated, and the three-dimensional position coordinates of the point of the target object relating thereto are obtained.

【0031】つぎに、輪郭線に係わる特別の対応線セッ
トに属する画素の3次元位置座標を、既に述べた様に、
これまでに得られた位置の知られた対象物体の点の間を
曲面で近似する方法で求める。この曲面は、ここの例で
は、分割された画像の領域毎に生成される。
Next, as described above, the three-dimensional position coordinates of the pixels belonging to the special corresponding line set relating to the contour are calculated as follows.
The distance between the points of the target object whose position is known so far is obtained by a method of approximating with a curved surface. In this example, this curved surface is generated for each region of the divided image.

【0032】ここで、分割領域毎に生成される曲面は、
その領域に属する上記対応点セットと対応線セットとの
みから決定される場合だけとしない。各領域はその境界
線で他の領域と接しているので、隣の領域の曲面との3
次元的な位置関係(互いの隠蔽関係や互いの連続関係)
を考慮する。すなわち、当該曲面はその領域に属する上
記対応点セットと対応線セットから得られる3次元位置
情報に加えて、周囲の領域の曲面の状態に左右される境
界条件にも合わせて最適化される。この最適化において
は、各曲面を直交座標系の座標変数の多項式あるいはそ
の変形で近似する。
Here, the curved surface generated for each divided area is
It is not limited to the case where it is determined only from the corresponding point set and the corresponding line set belonging to the area. Since each region is in contact with another region at its boundary line, it is 3
Dimensional positional relationship (mutual concealment relationship or mutual continuity relationship)
Consider. That is, the curved surface is optimized according to the boundary conditions that depend on the state of the curved surface in the surrounding region, in addition to the three-dimensional position information obtained from the corresponding point set and the corresponding line set belonging to the region. In this optimization, each curved surface is approximated by a polynomial of a coordinate variable in a rectangular coordinate system or its modification.

【0033】この曲面の最適化は次のように、逐次法に
よって全ての記録画像の全ての領域の曲面について行わ
れる。まず最初は全ての領域の面を適当な平面として近
似式を定める。次に各領域の曲面一つずつについて、上
述の最適化を行う。全ての領域についてこの最適化が一
巡すると、各曲面にはそれまでに得られたそれぞれの近
似式を用いて、また最初から各領域の曲面一つずつにつ
いて、上述の最適化を繰り返す。そしてこの最適化の繰
り返しを、あらかじめ決められた誤差範囲に全ての曲面
の最適化がおさまるまで行う。なお、これらの一部の曲
面について平面に限定して近似し計算の簡素化を行う事
もできる。
The optimization of the curved surface is performed on the curved surface in all the areas of all the recorded images by the sequential method as follows. First, an approximate expression is determined using the planes of all the regions as appropriate planes. Next, the above-described optimization is performed for each curved surface in each region. When this optimization has been completed for all the regions, the above-described optimization is repeated for each curved surface using the respective approximate expressions obtained so far and for each curved surface of each region from the beginning. Then, the optimization is repeated until all the curved surfaces are within the predetermined error range. Note that some of these curved surfaces can be approximated by limiting them to planes to simplify the calculation.

【0034】こうして、対象物体の多数の点の3次元位
置情報が得られると同時に、各記録画像毎に曲面で近似
された3次元モデルが生成される。既に述べたように、
この結果をそのまま従来の3次元ポリゴンモデルの頂点
データとして用いる事ができる。その場合、対応点セッ
トと対応線セットから得られる対象物体の点の3次元位
置情報に加えて、曲面近似からこれらの点の間の点の3
次元位置情報も加えて、より一層の緻密なデータとする
ことも出来る。
In this way, three-dimensional position information of many points of the target object is obtained, and a three-dimensional model approximated by a curved surface is generated for each recording image. As already mentioned,
The result can be used as it is as the vertex data of the conventional three-dimensional polygon model. In this case, in addition to the three-dimensional position information of the point of the target object obtained from the corresponding point set and the corresponding line set, three-dimensional information of points between these points is obtained from the surface approximation.
In addition to the dimensional position information, more precise data can be obtained.

【0035】ここでは、生成された曲面モデルを直接使
って、簡単に3次元画像を合成する。それにはコンピュ
ータと以下の処理を行うコンピュータプログラム、およ
び結果を表示するための表示装置を用いる。すなわち、
生成された記録画像毎の3次元モデルのうち適当な一つ
を選んで、これより、任意の視点と方位における対象物
体の画像を光線追跡により合成する。これは、合成画像
の各画素を、それに対応する光線を視点より発して、当
該モデルの中から得る事により行われる。もしそれに失
敗した場合は、順次別の記録画像の3次元モデルの中
を、画素が見つかるか或いは全ての3次元モデルを調べ
尽くすかまで行う。画素の色情報については、既に述べ
たように、各領域毎に即ち各曲面毎に調整する。かくし
て得られた合成画を表示装置に表示する。
Here, a three-dimensional image is easily synthesized by directly using the generated curved surface model. For this purpose, a computer, a computer program for performing the following processing, and a display device for displaying a result are used. That is,
An appropriate one of the generated three-dimensional models for each recorded image is selected, and an image of the target object at an arbitrary viewpoint and azimuth is synthesized by ray tracing. This is performed by obtaining each pixel of the composite image from the model by emitting a corresponding ray from the viewpoint. If that fails, the process is repeated until pixels are found in the three-dimensional model of another recorded image or until all the three-dimensional models have been examined. As described above, the color information of the pixel is adjusted for each region, that is, for each curved surface. The composite image thus obtained is displayed on a display device.

【0036】[0036]

【発明の効果】本発明によると、ディジタルカメラなど
による複数の記録画像から、極めて多数の対象物体の3
次元位置情報を取得する事が可能となり、物体の緻密な
3次元モデルを生成でき、これより、任意の視点および
方位における画像を合成できる。この方法は記録画像に
含まれるすべての対象物体に等しく適応出来るので、比
較的少数の画像を記録するだけで広い範囲に渡る物体な
いし風景の3次元モデルを一括して生成することも可能
となる。
According to the present invention, an extremely large number of target objects can be obtained from a plurality of images recorded by a digital camera or the like.
It is possible to acquire dimensional position information, and to generate a precise three-dimensional model of the object, and thereby to synthesize an image at an arbitrary viewpoint and azimuth. Since this method can be equally applied to all target objects included in a recorded image, it is possible to collectively generate a three-dimensional model of an object or a landscape over a wide range only by recording a relatively small number of images. .

【図面の簡単な説明】[Brief description of the drawings]

【図1】対象物体とその複数の記録画像を生成する際の
視点と方位等の関係を示す図である。
FIG. 1 is a diagram illustrating a relationship between a target object, a viewpoint, an orientation, and the like when generating a plurality of recorded images thereof.

【図2】対象物体上の1つの特徴線とこれの画像におけ
る対応線セット、およびそれらに含まれる画素の対応関
係を説明する図である。
FIG. 2 is a diagram illustrating a correspondence between one feature line on a target object, a corresponding line set in an image thereof, and pixels included therein.

【図3】対象物体の輪郭線から生成される特別な対応線
セットにおいて画素の対応関係を説明する図である。
FIG. 3 is a diagram illustrating pixel correspondence in a special correspondence line set generated from a contour of a target object.

【符号の説明】[Explanation of symbols]

O 対象物体 O5、O6 対象物体の像 G1、G2、G3、...、Gi 複数の画像 V1、V2、V3、...、Vi 複数の画像の記録
の視点 p 対象物体上の点 p1、p2 pに対応する画像中の画素 so 対象物体上の特徴線 s3、s4 soに対応する対応線セットの線 po soに属する対象物体上の点 ps3、ps4 poに対応する画像中の画素(対応
画素セットの画素) L ps3、V3、po、V4を通る平面 s5、s6 対象物体の輪郭線から生成される特別な
対応線セットの線。s5は対象物体の輪郭線、s6はそ
れにおよそ対応する線 so6 s6に対応する対象物体上の線 ps5 s5に属する画素 po5 ps5、V5を通る直線が対象物体の表面に
接する点 D ps5、V5、V6を通る平面による対象物体の
断面 ps6 ps5、V5、V6を通る平面とs6との交
点 po6 ps6に対応する対象物体上の点 so6p s5に対応する対象物体上の線 s6p so6pに対応する画像中の線
O Target object O5, O6 Image of target object G1, G2, G3,. . . , Gi a plurality of images V1, V2, V3,. . . , Vi View points for recording a plurality of images p Pixels in the image corresponding to points p1, p2 p on the target object so So feature lines s3, s4 on the target object Targets belonging to the corresponding line set line po so corresponding to so Pixels in the image corresponding to the points ps3, ps4 po on the object (pixels of the corresponding pixel set) Ls3, V3, po, V4 A plane passing through V4, a special correspondence line set generated from the contour of the target object Line. s5 is a contour line of the target object, s6 is a line sos6 corresponding to the approximate line so6 s6 A line on the target object corresponding to s6 ps5 A pixel D5 belonging to a pixel po5 ps5, V5 belonging to s5 and a point Dps5, V5, Cross section of the target object by a plane passing through V6 ps6 Intersection of s6 with a plane passing through ps5, V5, V6 po6 Point on the target object corresponding to ps6 so6p In the image corresponding to line s6p so6p on the target object corresponding to s5 Line

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】対象物体の各点のディジタル値化された色
情報からなる画素を構成単位とする画像を生成する画像
生成手段によって生成された複数の視点ならびに方位に
おける対象物体の複数の記録画像から、対象物体の同一
点を記録する複数の画素を計算あるいは目視によって抽
出してこれらを対応画素セットとして取得保持し、この
対応画素セットを複数取得してこれら対応画素セットを
基に、これら記録画像の一部または全部の画素それぞれ
に対応する上記対象物体の点の3次元位置座標に関する
情報を取得すると共に、各該画像を記録した際の撮像の
視点ならびに方位の座標、あるいは各該画像を記録した
際の撮像レンズの結像距離、あるいは該撮像レンズの結
像歪みの係数等に関する情報を取得するのを可能とする
手段から成る装置およびその情報取得方法。
1. A plurality of recorded images of a target object at a plurality of viewpoints and orientations generated by an image generating means for generating an image in which pixels composed of digitalized color information of each point of the target object are formed as constituent units. A plurality of pixels that record the same point of the target object are calculated or visually extracted, acquired and held as a corresponding pixel set, and a plurality of the corresponding pixel sets are acquired, and based on these corresponding pixel sets, these recordings are performed. While acquiring information on the three-dimensional position coordinates of the point of the target object corresponding to each of a part or all of the pixels of the image, the coordinates of the viewpoint and azimuth of the imaging at the time of recording each image, or each of the images An apparatus comprising means for enabling acquisition of information regarding the imaging distance of an imaging lens when recording, or the coefficient of imaging distortion of the imaging lens, etc. The information acquisition method called.
【請求項2】対象物体の各点のディジタル値化された色
情報からなる画素を構成単位とする画像を生成する画像
生成手段によって生成された複数の視点ならびに方位に
おける対象物体の複数の記録画像から、対象物体の同一
点を記録する複数の画素を計算あるいは目視によって抽
出してこれらを対応画素セットとして取得保持し、この
対応画素セットを複数取得してこれら対応画素セットを
基に、これら記録画像の一部の画素それぞれに対応する
上記対象物体の点の3次元位置座標に関する情報を取得
し、更に同時に各該画像を記録した際の撮像の視点なら
びに方位の座標、あるいは各該画像を記録した際の撮像
レンズの結像距離、あるいは該撮像レンズの結像歪みの
係数等を取得し、あるいはこれら各該画像を記録した際
の撮像の視点ならびに方位の座標、あるいは各該画像を
記録した際の撮像レンズの結像距離、あるいは該撮像レ
ンズの結像歪みの係数等の全部又は一部についてはあら
かじめ他の測定手段等によって取得し、更に上記対象物
体の複数の画像において、対象物体の同一部分を記録す
る複数の曲線的あるいは直線的画素集団を計算あるいは
目視によって抽出してこれらを対応線セットとして取得
保持し、この対応線セットを1ないし複数個取得してこ
れらと上記視点ならびに方位の情報とを用いて、各該対
応線セットのうちの一つの線の中の任意の画素に対し、
これに対象物体の同一点を表わすものとして対応する同
じ対応線セットの中の他の線の中の画素を計算によって
取得し、これら互いに対応する画素を新たな対応画素セ
ットとして保持し、これらの新たな対応画素セットを各
対応線セット毎に必要かつ可能な数だけ取得保持し、こ
れらの新たな対応画素セットから得られるそれらの画素
に対応する対象物体の点の3次元位置座標に関する情報
と、最初から対応画素セットとして取得保持された画素
に係わる対象物体の点の3次元位置座標に関する情報と
を併せて、より緻密な上記対象物体の3次元的な形状を
得る手段を有する装置および上記対応線セット内の画素
に対応する対象物体の点の3次元位置座標に関する情報
を得る方法。
2. A plurality of recorded images of a target object at a plurality of viewpoints and azimuths generated by an image generating means for generating an image in which pixels composed of digital value color information of each point of the target object are formed as constituent units. A plurality of pixels that record the same point of the target object are calculated or visually extracted, acquired and held as a corresponding pixel set, and a plurality of the corresponding pixel sets are acquired, and based on these corresponding pixel sets, these recordings are performed. Acquires information on the three-dimensional position coordinates of the point of the target object corresponding to each of some pixels of the image, and simultaneously records the coordinates of the viewpoint and azimuth of the imaging when each of the images is recorded, or records each of the images The imaging distance of the imaging lens at the time of acquisition, or the coefficient of imaging distortion of the imaging lens, or the like, or the viewpoint of imaging when each of these images is recorded. The coordinates of the azimuth, or the imaging distance of the imaging lens when each image is recorded, or all or part of the imaging distortion coefficient of the imaging lens, etc., is obtained in advance by other measuring means, etc. In the plurality of images of the target object, a plurality of curvilinear or linear pixel groups that record the same portion of the target object are calculated or visually extracted, acquired and held as a corresponding line set, and Or using a plurality of these and the viewpoint and the azimuth information, for any pixel in one of the corresponding line sets,
Pixels in other lines in the same corresponding line set corresponding to representing the same point of the target object are obtained by calculation, and these mutually corresponding pixels are held as a new corresponding pixel set, and A necessary and possible number of new corresponding pixel sets are acquired and held for each corresponding line set, and information on the three-dimensional position coordinates of points of the target object corresponding to those pixels obtained from these new corresponding pixel sets is obtained. An apparatus having means for obtaining a more precise three-dimensional shape of the target object, together with information on three-dimensional position coordinates of a point of the target object relating to pixels acquired and held as a corresponding pixel set from the beginning, and A method for obtaining information on three-dimensional position coordinates of a point of a target object corresponding to a pixel in a corresponding line set.
【請求項3】請求項2にかかわる装置および方法におい
て、上記対応線セットの中、対象物体の輪郭線とそれに
およそ対応する線とからなる対応線セットの全部或いは
一部については、請求項2の記載にかかわらず、対象物
体を近似する面を当該対応線セットの中の対象物体の輪
郭線が属する画像の記録の視点から見た時、当該対応線
セットの中の該輪郭線におよそ対応する線に対応する対
象物体上の線の近傍で、該輪郭線を形成するよう対象物
体を近似する面を条件付ける事で、該輪郭線の画素に対
応する対象物体の点の3次元位置を取得し、かつこの対
象物体の点に対応する該輪郭線におよそ対応する線の近
傍の画素を得る事により、より一層正確な対象物体の3
次元形状の情報を得る事を特徴とする装置および方法。
3. An apparatus and method according to claim 2, wherein all or a part of the corresponding line set consisting of the contour line of the target object and a line substantially corresponding thereto is included in the corresponding line set. Regardless of the description, when the surface approximating the target object is viewed from the viewpoint of recording of the image to which the contour of the target object in the corresponding line set belongs, the surface roughly corresponds to the contour in the corresponding line set. In the vicinity of a line on the target object corresponding to the line to be formed, by conditioning a surface approximating the target object so as to form the contour, the three-dimensional position of a point of the target object corresponding to a pixel of the contour is determined. Acquiring and obtaining pixels in the vicinity of a line approximately corresponding to the contour line corresponding to the point of the target object, a more accurate 3
Apparatus and method for obtaining dimensional shape information.
【請求項4】請求項1あるいは請求項2あるいは請求項
3の装置あるいは方法において、上記複数の記録画像を
あらかじめ対象物体の形状に応じて複数の領域に分割し
て、その領域毎に対象物体の形状を曲面(平面を含む)
で近似する事とし、その分割の境界線に、該境界線で互
いに接する領域の部分に対応する対象物体の部分の間の
3次元的位置関係を規定する境界条件を付与し、請求項
1あるいは請求項2あるいは請求項3の装置あるいは方
法によって得られる対象物体の点の3次元位置情報と、
請求項3に係わる時はその輪郭線形成に関する条件と、
当該境界条件とを併せて、該領域における近似曲面を最
適化するのを特徴とする装置および方法。
4. The apparatus or method according to claim 1, wherein the plurality of recorded images are divided into a plurality of regions in advance according to the shape of the target object, and the target object Curved shape (including plane)
And a boundary condition that defines a three-dimensional positional relationship between portions of the target object corresponding to portions of the region that are in contact with each other at the boundary is given to the boundary of the division, Three-dimensional position information of a point of the target object obtained by the apparatus or the method of claim 2 or 3;
In the case of claim 3, the condition relating to the contour line formation;
An apparatus and method for optimizing an approximated curved surface in the region in combination with the boundary condition.
【請求項5】請求項1あるいは請求項2あるいは請求項
3あるいは請求項4の装置あるいは方法によって得られ
た情報等を用いて、対象物体を記録した際の視点ならび
に方位以外を含めた任意の視点ならびに方位から見た際
の該対象物体の画像を合成する手段からなる装置および
その合成方法において、上記情報取得に用いる複数の記
録画像をあらかじめ対象物体の形状に応じて複数の領域
に分割し、その領域毎に上記情報を用いて対象物体の表
面を平面あるいは曲面で近似し、更に上記領域毎に、対
応する対象物体上の部分の同じ部分あるいはそれと同じ
色を有する部分を有する他の一つあるいは複数の画像の
中の領域と互いの画素の色情報を比較する事で、それぞ
れの領域に属する画素の色を調整して、上記複数の画像
の画素情報を複合して用いて一つの画像を合成するのを
特徴とする装置およびその合成方法。
5. Using the information or the like obtained by the apparatus or method according to claim 1, 2, 3, or 4, and using the information or the like obtained by recording the target object, any information other than the viewpoint and azimuth when recording the target object. In an apparatus and a method for synthesizing an image of the target object viewed from the viewpoint and the azimuth, a plurality of recorded images used for acquiring the information are divided into a plurality of regions in advance according to the shape of the target object. The surface of the target object is approximated by a plane or a curved surface using the information for each of the regions, and another region having the same portion of the corresponding portion on the target object or a portion having the same color as the corresponding portion on the target object is provided for each of the regions. By comparing the color information of each pixel with the region in one or more images, the color of the pixels belonging to each region is adjusted, and the pixel information of the plurality of images is combined. Apparatus and methods for its synthesis and wherein to synthesize a single image by using Te.
JP19791698A 1998-06-10 1998-06-10 Apparatus and method of generating three-dimensional picture Pending JPH11351843A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19791698A JPH11351843A (en) 1998-06-10 1998-06-10 Apparatus and method of generating three-dimensional picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19791698A JPH11351843A (en) 1998-06-10 1998-06-10 Apparatus and method of generating three-dimensional picture

Publications (1)

Publication Number Publication Date
JPH11351843A true JPH11351843A (en) 1999-12-24

Family

ID=16382411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19791698A Pending JPH11351843A (en) 1998-06-10 1998-06-10 Apparatus and method of generating three-dimensional picture

Country Status (1)

Country Link
JP (1) JPH11351843A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7538774B2 (en) 2003-06-20 2009-05-26 Nippon Telegraph And Telephone Corporation Virtual visual point image generating method and 3-d image display method and device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7538774B2 (en) 2003-06-20 2009-05-26 Nippon Telegraph And Telephone Corporation Virtual visual point image generating method and 3-d image display method and device

Similar Documents

Publication Publication Date Title
US7257249B2 (en) Discrete linear space sampling method and apparatus for generating digital 3D models
CN105026997B (en) Optical projection system, semiconductor integrated circuit and image correcting method
JP4392507B2 (en) 3D surface generation method
US6396495B1 (en) Producing image data in a virtual set
US5727093A (en) Image processing method and apparatus therefor
JP2000163590A (en) Conversion device and method for three-dimensional model
WO2010004466A1 (en) Three dimensional mesh modeling
JP2003203220A (en) Three-dimensional image processing method, three- dimensional image processor, there-dimensional image processing system and three-dimensional image processing program
JP2000137815A (en) New viewpoint image generating method
JP2008217243A (en) Image creation device
JPH04102178A (en) Object model input device
JP2001084362A (en) Method and device for estimating light source direction and three-dimensional shape and recording medium
JPH11351843A (en) Apparatus and method of generating three-dimensional picture
JP3784104B2 (en) Image synthesizer
JPH09237346A (en) Method for composing partial stereoscopic model and method for preparing perfect stereoscopic model
Knyaz et al. Approach to Accurate Photorealistic Model Generation for Complex 3D Objects
JPH06249627A (en) Method and instrument for measuring shape by stereographic method
JP4017351B2 (en) 3D model generation apparatus and 3D model generation program
JPH05233826A (en) Method and device for changing lighting direction of image and method and device for synthesizing images
EP0596518A2 (en) Method of and apparatus for determining data representing 3-dimensional object from perspective view
JPH04218708A (en) Inspection of object using image pick-up means
JP2001324310A (en) Method, device and system for preparing three- dimensional data
JP2001084380A (en) Method and device for estimating light source direction and recording medium
JP2001033224A (en) Apparatus and method for generating three-dimensional image
JP2004252815A (en) Image display device, its method and program