JP4456029B2 - 3D information restoration device for rotating body - Google Patents

3D information restoration device for rotating body Download PDF

Info

Publication number
JP4456029B2
JP4456029B2 JP2005095040A JP2005095040A JP4456029B2 JP 4456029 B2 JP4456029 B2 JP 4456029B2 JP 2005095040 A JP2005095040 A JP 2005095040A JP 2005095040 A JP2005095040 A JP 2005095040A JP 4456029 B2 JP4456029 B2 JP 4456029B2
Authority
JP
Japan
Prior art keywords
dimensional
projection
image
circle
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005095040A
Other languages
Japanese (ja)
Other versions
JP2006277293A (en
Inventor
和夫 松藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2005095040A priority Critical patent/JP4456029B2/en
Publication of JP2006277293A publication Critical patent/JP2006277293A/en
Application granted granted Critical
Publication of JP4456029B2 publication Critical patent/JP4456029B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本発明は、回転体の三次元情報復元装置に関し、特に、陶器などの回転体からなる物体を所定方向から撮影することによって得られた1枚の二次元画像に基づいて、もとの物体の三次元情報を復元する技術に関する。   The present invention relates to a three-dimensional information restoration apparatus for a rotating body, and in particular, based on a single two-dimensional image obtained by photographing an object made of a rotating body such as pottery from a predetermined direction. The present invention relates to a technique for restoring three-dimensional information.

コンピュータの性能向上により、物体を三次元画像として取り扱う手法は既に一般化してきており、CG分野をはじめ、産業界の様々な分野において、三次元画像データが利用されている。しかしながら、三次元画像は、あくまでもコンピュータ内部の仮想空間上で定義される画像であり、現実の社会で用いられている印刷物やディスプレイ画面上では、あくまでも二次元画像として取り扱われることになる。このため、コンピュータの内部では、三次元画像データが用意されている場合でも、最終的には、これを二次元画像データに変換して出力するのが一般的である。   Due to the improvement in computer performance, methods for handling an object as a three-dimensional image have already been generalized, and three-dimensional image data is used in various fields of the industry including the CG field. However, the three-dimensional image is an image defined in the virtual space inside the computer to the last, and is handled as a two-dimensional image on the printed matter and the display screen used in the real society. Therefore, even if 3D image data is prepared inside the computer, it is generally converted to 2D image data and finally output.

また、三次元物体を通常の方法で写真撮影した場合も、写真上には二次元画像としての情報のみが記録されることになる。したがって、我々が日常的に手にする印刷物などには、二次元画像として表現された物体が掲載されることになる。   In addition, when a photograph of a three-dimensional object is taken by a normal method, only information as a two-dimensional image is recorded on the photograph. Therefore, an object expressed as a two-dimensional image is printed on a printed matter that we regularly obtain.

このような事情から、物体の二次元画像データに基づいて、もとの三次元画像情報を復元する技術が提案されている。たとえば、下記の特許文献1,2には、同一の物体を異なる方向から撮影した複数の二次元画像に基づいて、当該物体の仮想三次元画像を生成する技術が開示されている。また、下記の特許文献3には、二次元画像上の物体像の表面テクスチャの周波数成分を解析することにより、もとの物体表面の微小領域の傾きを推測し、三次元形状を復元する技術が開示されている。
特開2002−016945号公報 特開2003−331262号公報 特開平5−264244号公報
Under such circumstances, a technique for restoring original three-dimensional image information based on two-dimensional image data of an object has been proposed. For example, Patent Documents 1 and 2 listed below disclose techniques for generating a virtual three-dimensional image of an object based on a plurality of two-dimensional images obtained by photographing the same object from different directions. Patent Document 3 below discloses a technique for estimating the inclination of a minute area on the surface of an original object by restoring the frequency component of the surface texture of the object image on the two-dimensional image and restoring the three-dimensional shape. Is disclosed.
JP 2002-016945 A Japanese Patent Laid-Open No. 2003-331262 JP-A-5-264244

上述したとおり、物体の二次元画像データに基づいて、もとの三次元画像情報を復元する技術は、既にいくつもの手法が知られている。しかしながら、これらの多くは、同一の物体を異なる撮影条件で撮影した複数枚の二次元画像を必要とする手法であり、1枚の二次元画像に基づいた復元を行うことはできない。このため、雑誌やカタログなどの印刷物に掲載された1枚の写真に基づいて、もとの物体の三次元情報を復元するような用途には、前掲特許文献に開示された手法を適用することはできない。   As described above, several techniques have already been known for restoring the original three-dimensional image information based on the two-dimensional image data of the object. However, many of these are methods that require a plurality of two-dimensional images obtained by photographing the same object under different photographing conditions, and cannot be restored based on a single two-dimensional image. For this reason, the method disclosed in the above-mentioned patent document should be applied to a use in which the three-dimensional information of the original object is restored based on a single photograph published in a printed matter such as a magazine or a catalog. I can't.

もちろん、1枚の二次元画像に基づいて、もとの物体の三次元情報を復元する手法もいくつか提案されているが、熟練した作業者による手作業に負う処理が多く、商業ベースで実用的な手法には至っていない。   Of course, several methods have been proposed to restore the original 3D information based on a single 2D image. However, there are many manual processes by skilled workers, which are practical on a commercial basis. It has not reached a practical method.

そこで本発明は、物体の二次元画像を1枚だけ用いて、しかも比較的容易な作業負担で、当該物体の三次元情報を復元することが可能な装置を提供することを目的とする。   Accordingly, an object of the present invention is to provide an apparatus that can restore three-dimensional information of an object using only one two-dimensional image of the object and with a relatively easy work load.

(1) 本発明の第1の態様は、回転体からなる物体を所定方向から撮影することによって得られた二次元画像に基づいて、もとの物体の三次元情報を復元する回転体の三次元情報復元装置において、
回転体からなる物体を所定の撮影条件で撮影することにより得られた物体像を含む二次元画像を入力する二次元画像入力手段と、
撮影条件の1つとして与えられる「視点と投影面との距離f」を示す情報を入力する撮影条件入力手段と、
入力した二次元画像上の物体像に含まれる2組の円弧状特徴部の位置および形状と、視点と投影面との距離fと、に基づいて、撮影条件の1つである光軸Lの位置を決定し、光軸Lに直交する所定の投影面Sと、この投影面Sから光軸Lに沿って距離fだけ離れた場所に位置する視点Eと、を投影条件として決定する投影条件決定手段と、
入力した二次元画像の中心点が視点Eから投影面Sに下した垂線の足Gに一致するように、投影面S上に入力した二次元画像を配置した状態で、物体像の片側側面の輪郭線CCsideを抽出する輪郭線抽出手段と、
三次元座標系における投影面S,視点E,輪郭線CCsideの位置を示す情報に基づいて、視点Eを基準として投影面Sへ透視投影することにより、輪郭線CCsideが得られるような物体の三次元情報を、当該物体が回転体であるという条件を考慮することにより作成する三次元情報作成手段と、
を設けるようにしたものである。
(1) The first aspect of the present invention is a third-order rotator that restores three-dimensional information of an original object based on a two-dimensional image obtained by photographing an object made of the rotator from a predetermined direction. In the original information restoration device,
Two-dimensional image input means for inputting a two-dimensional image including an object image obtained by photographing an object made of a rotating body under predetermined photographing conditions;
Photographing condition input means for inputting information indicating “distance f between viewpoint and projection plane” given as one of photographing conditions;
Based on the position and shape of the two sets of arc-shaped features included in the input object image on the two-dimensional image and the distance f between the viewpoint and the projection plane, the optical axis L that is one of the imaging conditions Projection conditions for determining a position and determining, as projection conditions, a predetermined projection plane S orthogonal to the optical axis L and a viewpoint E located at a distance f from the projection plane S along the optical axis L A determination means;
With the input two-dimensional image arranged on the projection surface S so that the center point of the input two-dimensional image coincides with the foot G of the perpendicular line drawn from the viewpoint E to the projection surface S, the one side surface of the object image is displayed. Contour extracting means for extracting the contour CCside;
Based on the information indicating the positions of the projection plane S, the viewpoint E, and the contour line CCside in the three-dimensional coordinate system, by performing perspective projection on the projection plane S with the viewpoint E as a reference, the tertiary of the object that can obtain the contour line CCside Three-dimensional information creating means for creating original information by considering the condition that the object is a rotating body;
Is provided.

(2) 本発明の第2の態様は、上述の第1の態様に係る回転体の三次元情報復元装置において、
投影条件決定手段を、
XYZ三次元座標系において、光軸Lの位置を定義するパラメータと、Z軸に直交する第1の平面に含まれZ軸上に中心点をもつ第1の参照円を定義するパラメータと、Z軸に直交する第2の平面に含まれZ軸上に中心点をもつ第2の参照円を定義するパラメータと、をオペレータの指示に基づいて設定するパラメータ設定部と、
XYZ三次元座標系上に、光軸Lに直交する所定の投影面Sと、この投影面Sから光軸Lに沿って距離fだけ離れた場所に位置する視点Eと、を定義し、第1の参照円および第2の参照円を、視点Eを基準として投影面Sへ透視投影し、投影面S上に第1の円投影像および第2の円投影像を求める透視投影演算部と、
入力した二次元画像の中心点が視点Eから投影面Sに下した垂線の足Gに一致するように、投影面S上にこの二次元画像を配置し、この二次元画像上に第1の円投影像および第2の円投影像を重畳した状態をディスプレイ画面上に表示する重畳表示部と、
重畳表示部による表示において、物体像の第1の円弧状特徴部と第1の円投影像の全部もしくは一部とが所定精度で一致し、物体像の第2の円弧状特徴部と第2の円投影像の全部もしくは一部とが所定精度で一致したことを示す一致確認が得られたときに、透視投影演算部が定義している投影面Sおよび視点Eを、投影条件となる投影面Sおよび視点Eと決定する条件決定部と、
によって構成したものである。
(2) According to a second aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the first aspect described above,
Projection condition determination means
In the XYZ three-dimensional coordinate system, a parameter that defines the position of the optical axis L, a parameter that defines a first reference circle that is included in a first plane orthogonal to the Z axis and that has a center point on the Z axis, and Z A parameter setting unit that sets a parameter that defines a second reference circle that is included in a second plane orthogonal to the axis and that has a center point on the Z axis, based on an instruction from the operator;
On the XYZ three-dimensional coordinate system, a predetermined projection plane S orthogonal to the optical axis L and a viewpoint E located at a distance f from the projection plane S along the optical axis L are defined. A perspective projection computing unit that perspectively projects the reference circle of 1 and the second reference circle onto the projection plane S with the viewpoint E as a reference, and obtains a first circle projection image and a second circle projection image on the projection plane S; ,
The two-dimensional image is arranged on the projection plane S so that the center point of the input two-dimensional image coincides with the foot G of the perpendicular line drawn from the viewpoint E to the projection plane S, and the first two-dimensional image is displayed on the two-dimensional image. A superimposed display unit that displays a superimposed state of the circle projection image and the second circle projection image on the display screen;
In the display by the superimposed display unit, the first arc-shaped feature of the object image and the whole or a part of the first circular projection image coincide with each other with a predetermined accuracy, and the second arc-shaped feature of the object image and the second arc-shaped feature The projection plane S and the viewpoint E defined by the perspective projection calculation unit are projected as projection conditions when a coincidence confirmation indicating that all or a part of the circle projection image of the circle coincides with a predetermined accuracy is obtained. A condition determining unit that determines the surface S and the viewpoint E;
It is constituted by.

(3) 本発明の第3の態様は、上述の第1の態様に係る回転体の三次元情報復元装置において、
三次元情報作成手段を、
輪郭線抽出手段によって抽出された輪郭線CCside上に所定間隔で複数n個の参照点PPを定義する参照点定義部と、
各参照点PPに対応する対応点Pを、「XYZ三次元座標系上において、Z軸に直交する所定平面に含まれ、Z軸上に中心点をもち、対応点Pを通る構造円Cを定義し、この構造円Cについての対応点Pにおける接線ベクトルTを求め、この接線ベクトルTを視点Eを基準として投影面Sへ透視投影することにより投影面S上に得られる二次元ベクトルTTが、参照点PPにおける輪郭線CCsideの接線となる」という条件を満足する点として求め、複数n個の構造円Cを定義する構造円定義部と、
構造円Cの集合に基づいて、回転体からなる物体の表面データを作成し、これを三次元情報として出力する表面データ作成部と、
によって構成したものである。
(3) According to a third aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the first aspect described above,
Three-dimensional information creation means
A reference point defining unit for defining a plurality of n reference points PP at predetermined intervals on the contour line CCside extracted by the contour line extracting means;
Corresponding points P corresponding to the respective reference points PP are defined as “a structural circle C included in a predetermined plane orthogonal to the Z axis on the XYZ three-dimensional coordinate system, having a center point on the Z axis, and passing through the corresponding point P. A two-dimensional vector TT obtained on the projection plane S is obtained by obtaining a tangent vector T at the corresponding point P with respect to the structural circle C, and perspectively projecting the tangent vector T onto the projection plane S with the viewpoint E as a reference. , A tangent of the contour line CCside at the reference point PP ”, a structural circle definition part that defines a plurality of n structural circles C,
Based on the set of structural circles C, a surface data creation unit that creates surface data of an object made of a rotating body and outputs this as 3D information;
It is constituted by.

(4) 本発明の第4の態様は、上述の第1の態様に係る回転体の三次元情報復元装置において、
投影条件決定手段を、
XYZ三次元座標系において、光軸Lの位置を定義するパラメータと、Z軸に直交する第1の平面に含まれZ軸上に中心点をもつ第1の参照円を定義するパラメータと、Z軸に直交する第2の平面に含まれZ軸上に中心点をもつ第2の参照円を定義するパラメータと、をオペレータの指示に基づいて設定するパラメータ設定部と、
XYZ三次元座標系上に、光軸Lに直交する所定の投影面Sと、この投影面Sから光軸Lに沿って距離fだけ離れた場所に位置する視点Eと、を定義し、第1の参照円および第2の参照円を、視点Eを基準として投影面Sへ透視投影し、投影面S上に第1の円投影像および第2の円投影像を求める透視投影演算部と、
入力した二次元画像の中心点が視点Eから投影面Sに下した垂線の足Gに一致するように、投影面S上にこの二次元画像を配置し、この二次元画像上に第1の円投影像および第2の円投影像を重畳した状態をディスプレイ画面上に表示する重畳表示部と、
重畳表示部による表示において、物体像の第1の円弧状特徴部と第1の円投影像の全部もしくは一部とが所定精度で一致し、物体像の第2の円弧状特徴部と第2の円投影像の全部もしくは一部とが所定精度で一致したことを示す一致確認が得られたときに、透視投影演算部が定義している投影面Sおよび視点Eを、投影条件となる投影面Sおよび視点Eと決定する条件決定部と、
によって構成し、
三次元情報作成手段を、
輪郭線抽出手段によって抽出された輪郭線CCside上に所定間隔で複数n個の参照点PPを定義する参照点定義部と、
各参照点PPに対応する対応点Pを、「XYZ三次元座標系上において、Z軸に直交する所定平面に含まれ、Z軸上に中心点をもち、対応点Pを通る構造円Cを定義し、この構造円Cについての対応点Pにおける接線ベクトルTを求め、この接線ベクトルTを視点Eを基準として投影面Sへ透視投影することにより投影面S上に得られる二次元ベクトルTTが、参照点PPにおける輪郭線CCsideの接線となる」という条件を満足する点として求め、複数n個の構造円Cを定義する構造円定義部と、
構造円Cの集合に基づいて、回転体からなる物体の表面データを作成し、これを三次元情報として出力する表面データ作成部と、
によって構成したものである。
(4) According to a fourth aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the first aspect described above,
Projection condition determination means
In the XYZ three-dimensional coordinate system, a parameter that defines the position of the optical axis L, a parameter that defines a first reference circle that is included in a first plane orthogonal to the Z axis and that has a center point on the Z axis, and Z A parameter setting unit that sets a parameter that defines a second reference circle that is included in a second plane orthogonal to the axis and that has a center point on the Z axis, based on an instruction from the operator;
On the XYZ three-dimensional coordinate system, a predetermined projection plane S orthogonal to the optical axis L and a viewpoint E located at a distance f from the projection plane S along the optical axis L are defined. A perspective projection computing unit that perspectively projects the reference circle of 1 and the second reference circle onto the projection plane S with the viewpoint E as a reference, and obtains a first circle projection image and a second circle projection image on the projection plane S; ,
The two-dimensional image is arranged on the projection plane S so that the center point of the input two-dimensional image coincides with the foot G of the perpendicular line drawn from the viewpoint E to the projection plane S, and the first two-dimensional image is displayed on the two-dimensional image. A superimposed display unit that displays a superimposed state of the circle projection image and the second circle projection image on the display screen;
In the display by the superimposed display unit, the first arc-shaped feature of the object image and the whole or a part of the first circular projection image coincide with each other with a predetermined accuracy, and the second arc-shaped feature of the object image and the second arc-shaped feature The projection plane S and the viewpoint E defined by the perspective projection calculation unit are projected as projection conditions when a coincidence confirmation indicating that all or a part of the circle projection image of the circle coincides with a predetermined accuracy is obtained. A condition determining unit that determines the surface S and the viewpoint E;
Composed by
Three-dimensional information creation means
A reference point defining unit for defining a plurality of n reference points PP at predetermined intervals on the contour line CCside extracted by the contour line extracting means;
Corresponding points P corresponding to the respective reference points PP are defined as “a structural circle C included in a predetermined plane orthogonal to the Z axis on the XYZ three-dimensional coordinate system, having a center point on the Z axis, and passing through the corresponding point P. A two-dimensional vector TT obtained on the projection plane S is obtained by obtaining a tangent vector T at the corresponding point P with respect to the structural circle C, and perspectively projecting the tangent vector T onto the projection plane S with the viewpoint E as a reference. , A tangent to the contour line CCside at the reference point PP ”, a structural circle definition part that defines a plurality of n structural circles C,
Based on the set of structural circles C, a surface data creation unit that creates surface data of an object made of a rotating body and outputs this as 3D information;
It is constituted by.

(5) 本発明の第5の態様は、上述の第1〜第4の態様に係る回転体の三次元情報復元装置において、
撮影条件入力手段が、撮影に用いたカメラの焦点距離を「視点と投影面との距離f」を示す情報として入力するようにしたものである。
(5) According to a fifth aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the first to fourth aspects described above,
The imaging condition input means inputs the focal length of the camera used for imaging as information indicating “distance f between viewpoint and projection plane”.

(6) 本発明の第6の態様は、上述の第1〜第4の態様に係る回転体の三次元情報復元装置において、
撮影条件入力手段が、撮影に用いたカメラの画角を「視点と投影面との距離f」を示す情報として入力するようにしたものである。
(6) According to a sixth aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the first to fourth aspects described above,
The imaging condition input means inputs the angle of view of the camera used for imaging as information indicating “distance f between viewpoint and projection plane”.

(7) 本発明の第7の態様は、上述の第1〜第4の態様に係る回転体の三次元情報復元装置において、
投影条件決定手段が、物体像に含まれる「物体の下端面に対応する部分」および「物体の上端面に対応する部分」を、それぞれ円弧状特徴部として用いるようにしたものである。
(7) According to a seventh aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the first to fourth aspects described above,
The projection condition determining means uses the “part corresponding to the lower end surface of the object” and the “part corresponding to the upper end surface of the object” included in the object image as arc-shaped features.

(8) 本発明の第8の態様は、上述の第1〜第4の態様に係る回転体の三次元情報復元装置において、
輪郭線抽出手段が、二次元画像上で行われたオペレータによるトレース操作の軌跡に基づいて、輪郭線を抽出する処理を行うようにしたものである。
(8) According to an eighth aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the first to fourth aspects described above,
The contour line extracting means performs processing for extracting a contour line based on the trace of the trace operation performed by the operator on the two-dimensional image.

(9) 本発明の第9の態様は、上述の第1〜第4の態様に係る回転体の三次元情報復元装置において、
輪郭線抽出手段が、二次元画像を構成する個々の画素の画素値の差に基づいて、輪郭線を自動抽出する処理を行うようにしたものである。
(9) According to a ninth aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the first to fourth aspects described above,
The contour line extracting means performs a process of automatically extracting the contour line based on the difference between the pixel values of the individual pixels constituting the two-dimensional image.

(10) 本発明の第10の態様は、上述の第9の態様に係る回転体の三次元情報復元装置において、
自動抽出された輪郭線に対して、二次元画像上で行われたオペレータによるトレース操作の軌跡に基づく補正を施し、補正後の輪郭線を抽出する処理を行うことを特徴とする回転体の三次元情報復元装置。
(10) According to a tenth aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the ninth aspect described above,
A tertiary body of a rotating body characterized in that the automatically extracted contour line is subjected to correction based on the trace operation trace performed by the operator on the two-dimensional image, and the corrected contour line is extracted. Original information restoration device.

(11) 本発明の第11の態様は、上述の第2または第4の態様に係る回転体の三次元情報復元装置において、
パラメータ設定部が、光軸Lを定義するパラメータとして、光軸LとXY平面とのなす角度θ、および光軸LとXY平面との交点ξの位置を用いるようにしたものである。
(11) According to an eleventh aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the second or fourth aspect described above,
The parameter setting unit uses the angle θ between the optical axis L and the XY plane and the position of the intersection ξ between the optical axis L and the XY plane as parameters that define the optical axis L.

(12) 本発明の第12の態様は、上述の第11の態様に係る回転体の三次元情報復元装置において、
パラメータ設定部が、角度θを増減させる設定操作について「円投影像の形状補正」を行うための操作である旨の提示を行い、交点ξの位置を変動させる設定操作について「円投影像の位置補正」を行うための操作である旨の提示を行うようにしたものである。
(12) According to a twelfth aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the eleventh aspect described above,
The parameter setting unit presents that the setting operation for increasing / decreasing the angle θ is an operation for performing “shape correction of the circular projection image”, and the setting operation for changing the position of the intersection ξ “the position of the circular projection image” It is presented that the operation is for performing “correction”.

(13) 本発明の第13の態様は、上述の第2または第4の態様に係る回転体の三次元情報復元装置において、
パラメータ設定部が、第1の参照円を常にXY平面上の円とし、第2の参照円を平面「Z=D」上の円とし、各参照円を定義するパラメータとして、第1の参照円の半径および第2の参照円の半径、ならびにDの値を用いるようにしたものである。
(13) According to a thirteenth aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the second or fourth aspect described above,
The parameter setting unit always sets the first reference circle as a circle on the XY plane, sets the second reference circle as a circle on the plane “Z = D”, and sets each reference circle as a parameter. , The radius of the second reference circle, and the value of D are used.

(14) 本発明の第14の態様は、上述の第13の態様に係る回転体の三次元情報復元装置において、
パラメータ設定部が、第1の参照円の半径および第2の参照円の半径を増減させる設定操作について「円投影像のサイズ補正」を行うための操作である旨の提示を行い、値Dを増減させる設定操作について「2つの円投影像の相対位置補正」を行うための操作である旨の提示を行うようにしたものである。
(14) According to a fourteenth aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the thirteenth aspect described above,
The parameter setting unit presents that the setting operation for increasing or decreasing the radius of the first reference circle and the radius of the second reference circle is an operation for performing “size correction of the circular projection image”, and sets the value D to The setting operation to increase / decrease is presented as an operation for performing “relative position correction of two circular projection images”.

(15) 本発明の第15の態様は、上述の第13または第14の態様に係る回転体の三次元情報復元装置において、
物体像に含まれる「物体の下端面に対応する部分」を第1の円弧状特徴部とし、物体像に含まれる「物体の上端面に対応する部分」を第2の円弧状特徴部とするようにしたものである。
(15) According to a fifteenth aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the thirteenth or fourteenth aspect described above,
The “part corresponding to the lower end surface of the object” included in the object image is the first arc-shaped feature, and the “part corresponding to the upper end surface of the object” included in the object image is the second arc-shaped feature. It is what I did.

(16) 本発明の第16の態様は、上述の第15の態様に係る回転体の三次元情報復元装置において、
輪郭線抽出手段が、第1の円投影像上の1点と第2の円投影像上の1点とを両端点とする輪郭線CCsideを抽出するようにしたものである。
(16) According to a sixteenth aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the fifteenth aspect,
The contour line extracting means extracts a contour line CCside having one point on the first circle projection image and one point on the second circle projection image as both end points.

(17) 本発明の第17の態様は、上述の第3または第4の態様に係る回転体の三次元情報復元装置において、
構造円定義部が、
参照点PPにおける輪郭線CCsideの接線ベクトルTTを、その先端点QQを定めることにより、2点PP/QQを結ぶ投影面S上の線分として定義し、対応点Pにおける構造円Cの接線ベクトルTを、その先端点Qを定めることにより、2点P/Qを結ぶXYZ三次元座標系上の線分として定義し、
「対応点Pおよび先端点Qを、視点Eを基準として投影面Sへ透視投影することにより得られる点が、それぞれ参照点PPおよび先端点QQに一致する」という条件を用いて、対応点PのXYZ三次元座標系上の座標値を求める演算を行うようにしたものである。
(17) According to a seventeenth aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the third or fourth aspect described above,
The structural circle definition part
The tangent vector TT of the contour line CCside at the reference point PP is defined as a line segment on the projection plane S connecting the two points PP / QQ by defining the tip point QQ, and the tangent vector of the structural circle C at the corresponding point P T is defined as a line segment on an XYZ three-dimensional coordinate system connecting two points P / Q by defining the tip point Q.
Using the condition that “the points obtained by perspective-projecting the corresponding point P and the tip point Q onto the projection plane S with the viewpoint E as the reference coincide with the reference point PP and the tip point QQ, respectively”, the corresponding point P The calculation for obtaining the coordinate value on the XYZ three-dimensional coordinate system is performed.

(18) 本発明の第18の態様は、上述の第17の態様に係る回転体の三次元情報復元装置において、
構造円定義部が、
XYZ三次元座標系上における対応点Pの座標値(xp,yp,h)および先端点Qの座標値(xq,yq,h)をそれぞれ未知数として定義し、
投影面S上に定義されたαβ二次元座標系上における参照点PPの既知座標値(αpp,βpp)および先端点QQの既知座標値(αqq,βqq)を、XYZ三次元座標系上における投影面Sの位置情報を利用することにより、それぞれXYZ三次元座標系上の座標値(xpp,ypp,zpp)および(xqq,yqq,zqq)に変換する演算を行い、
接線ベクトルTが構造円Cの対応点Pにおける接線であることを示す第1の条件式
−xp/yp=(yq−yp)/(xq−xp) に、
参照点PPおよび先端点QQが、対応点Pおよび先端点Qを、既知座標値(xe,ye,ze)によってその位置が定義される視点Eを基準として投影面Sへ透視投影することにより得られる点であることを示す第2の条件式
xp=((h−ze)・(xpp−xe))/(zpp−ze)+xe
yp=((h−ze)・(ypp−ye))/(zpp−ze)+ye
xq=((h−ze)・(xqq−xe))/(zqq−ze)+xe
yq=((h−ze)・(yqq−ye))/(zqq−ze)+ye
を代入し、得られた方程式を解くことにより未知数hの値を算出し、算出したhの値を第2の条件式に代入することにより、座標値xp,ypを求め、「Z=h」平面上に、半径R=(xp+yp1/2をもった構造円Cを定義するようにしたものである。
(18) According to an eighteenth aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the seventeenth aspect described above,
The structural circle definition part
Define the coordinate value (xp, yp, h) of the corresponding point P and the coordinate value (xq, yq, h) of the tip point Q on the XYZ three-dimensional coordinate system as unknowns,
Projecting the known coordinate values (αpp, βpp) of the reference point PP and the known coordinate values (αqq, βqq) of the tip point QQ on the XYZ three-dimensional coordinate system defined on the αβ two-dimensional coordinate system defined on the projection plane S By using the position information of the surface S, an operation for converting into coordinate values (xpp, ypp, zpp) and (xqq, yqq, zqq) on the XYZ three-dimensional coordinate system is performed,
The first conditional expression −xp / yp = (yq−yp) / (xq−xp) indicating that the tangent vector T is a tangent at the corresponding point P of the structural circle C
The reference point PP and the tip point QQ are obtained by perspectively projecting the corresponding point P and the tip point Q onto the projection plane S with the viewpoint E defined by the known coordinate values (xe, ye, ze) as a reference. Xp = ((h−ze) · (xpp−xe)) / (zpp−ze) + xe
yp = ((h-ze). (ypp-ye)) / (zpp-ze) + ye
xq = ((h-ze). (xqq-xe)) / (zqq-ze) + xe
yq = ((h-ze). (yqq-ye)) / (zqq-ze) + ye
And the value of the unknown h is calculated by solving the obtained equation, and the calculated value of h is substituted into the second conditional expression to obtain the coordinate values xp and yp, and “Z = h” A structural circle C having a radius R = (xp 2 + yp 2 ) 1/2 is defined on the plane.

(19) 本発明の第19の態様は、上述の第4の態様に係る回転体の三次元情報復元装置において、
構造円定義部が、一致確認が得られた時点でパラメータ設定部に設定されているパラメータによって定義される第1の参照円および第2の参照円を、構造円の一部として定義し、合計(n+2)個の構造円を定義するようにしたものである。
(19) According to a nineteenth aspect of the present invention, in the three-dimensional information restoration apparatus for a rotating body according to the fourth aspect described above,
The structural circle definition unit defines the first reference circle and the second reference circle defined by the parameters set in the parameter setting unit at the time when the coincidence confirmation is obtained as a part of the structural circle, and the total (N + 2) structural circles are defined.

(20) 本発明の第20の態様は、上述の第1〜第20の態様に係る回転体の三次元情報復元装置を、コンピュータによって構成することができるようなコンピュータプログラムを用意し、配布できるようにしたものである。   (20) According to the twentieth aspect of the present invention, a computer program can be prepared and distributed so that the three-dimensional information restoration apparatus for a rotating body according to the first to twentieth aspects described above can be configured by a computer. It is what I did.

本発明に係る三次元情報復元装置では、適用対象となる三次元物体を回転体に限定し、この回転体の特性を利用した処理を行うようにしたため、物体の二次元画像を1枚だけ用いて、しかも比較的容易な作業負担で、当該物体の三次元情報を復元することが可能になる。   In the three-dimensional information restoration apparatus according to the present invention, the three-dimensional object to be applied is limited to a rotating body, and processing using the characteristics of the rotating body is performed, so only one two-dimensional image of the object is used. In addition, the three-dimensional information of the object can be restored with a relatively easy work load.

以下、本発明を図示する実施形態に基づいて説明する。上述したとおり、本発明の特徴は、1枚の二次元画像のみに基づいて、もとの物体についての三次元情報を復元する点にある。そのため、発明では、その適用対象を、回転体からなる物体に限定している。これは、そもそも二次元画像には、奥行きを示す直接的な情報が含まれていないので、1枚の二次元画像のみに基づいて、任意の立体形状をもった物体の三次元情報を復元することが非常に困難なためである。もとの物体を回転体に限定すれば、この回転体に固有の特性(すなわち、三次元形状のいたるところに円が現れるという特性)を利用して、三次元形状を推定するための手がかりが得られることになる。   Hereinafter, the present invention will be described based on the illustrated embodiments. As described above, the feature of the present invention is that three-dimensional information about the original object is restored based on only one two-dimensional image. Therefore, in the invention, the application target is limited to an object made of a rotating body. This is because, in the first place, the two-dimensional image does not include direct information indicating the depth, so that the three-dimensional information of the object having an arbitrary three-dimensional shape is restored based on only one two-dimensional image. This is because it is very difficult. If the original object is limited to a rotating body, there is a clue to estimate the 3D shape by using the characteristic inherent to this rotating body (that is, the characteristic that a circle appears everywhere in the 3D shape). Will be obtained.

本発明によって三次元情報を復元するプロセスは、投影条件を決定する前半段階と、三次元情報を作成する後半段階とに大別される。そこで、以下、§1において前半段階を説明し、§2において後半段階を説明することにする。また、§3では、本発明の全体手順を述べ、§4では、本発明に係る復元装置の基本構成を述べることにする。   The process of restoring three-dimensional information according to the present invention is roughly divided into a first half stage for determining projection conditions and a second half stage for creating three-dimensional information. Therefore, hereinafter, the first half stage will be described in §1, and the second half stage will be described in §2. Also, §3 describes the overall procedure of the present invention, and §4 describes the basic configuration of the restoration device according to the present invention.

<<< §1.前半段階:投影条件の決定 >>>
前半段階の目的は投影条件を決定することにある。その基本原理を説明するために、まず、三次元物体を所定方向から撮影することによって二次元画像が得られた場合に、この二次元画像と三次元物体との幾何学的な関係を述べておく。
<<< §1. First half: Determination of projection conditions >>>
The purpose of the first half is to determine the projection conditions. In order to explain the basic principle, when a two-dimensional image is obtained by photographing a three-dimensional object from a predetermined direction, the geometric relationship between the two-dimensional image and the three-dimensional object is described. deep.

図1は、このような幾何学的な関係を示す斜視図である。図の左側には、XYZ三次元座標系の座標軸が示されているが、ここでは、回転体からなる三次元物体10が、XY平面上に置かれており、しかも、この回転体の中心軸がZ軸に一致するものとして、以下の説明を行うことにする。図には、説明の便宜上、陶器の壺が三次元物体10として描かれている。この壺は回転体であるので、底面および上面は、いずれもZ軸に垂直な平面に含まれ、Z軸上に中心点をもつ円を形成することになる。特に底面は、XY平面に含まれ、座標系の原点Oを中心点とする円になる。   FIG. 1 is a perspective view showing such a geometric relationship. The coordinate axis of the XYZ three-dimensional coordinate system is shown on the left side of the figure, but here, the three-dimensional object 10 made of a rotating body is placed on the XY plane, and the central axis of this rotating body. The following description will be made on the assumption that “Z” coincides with the Z axis. In the figure, a pottery pot is depicted as a three-dimensional object 10 for convenience of explanation. Since this ridge is a rotating body, the bottom surface and the top surface are both included in a plane perpendicular to the Z axis, and form a circle having a center point on the Z axis. In particular, the bottom surface is included in the XY plane and becomes a circle centered on the origin O of the coordinate system.

一方、投影面S上には、この三次元物体10を所定方向から撮影することによって得られた二次元画像(2点U1,U2を対角点とする矩形状の画像)が形成されており、この二次元画像内には物体像20が含まれている。ここで、右側に描かれた点Eは視点を示しており、投影面S上の物体像20は、三次元物体10を、視点Eを基準として投影面Sへ透視投影することにより得られた投影像ということになる。ここで、視点Eから投影面Sに下した垂線(一点鎖線で示す)を光軸Lと呼び、この垂線の足を点Gと呼ぶことにする。また、投影面S上には、図示のとおり、αβ二次元座標系が定義されているものとし、投影面S上の任意の点は、座標値(α,β)で示されるものとする。   On the other hand, on the projection surface S, a two-dimensional image (rectangular image having two points U1 and U2 as diagonal points) obtained by photographing the three-dimensional object 10 from a predetermined direction is formed. The object image 20 is included in the two-dimensional image. Here, the point E drawn on the right side indicates the viewpoint, and the object image 20 on the projection plane S is obtained by perspectively projecting the three-dimensional object 10 onto the projection plane S with the viewpoint E as a reference. This is a projected image. Here, a perpendicular line (shown by an alternate long and short dash line) drawn from the viewpoint E to the projection plane S is called an optical axis L, and a leg of this perpendicular line is called a point G. Further, as shown in the figure, an αβ two-dimensional coordinate system is defined on the projection surface S, and an arbitrary point on the projection surface S is represented by a coordinate value (α, β).

図2は、図1に示す投影面Sの平面図である。投影面S上に得られる二次元画像は、2点U1,U2を対角点とする矩形状の画像となっており、背景上に、壺の形をした物体像20が配置されている。ここで述べる実施形態の場合、この二次元画像の輪郭を構成する矩形の上下両辺は、XY平面に平行となっている。点Gは、この矩形状の二次元画像の中心点であるが、必ずしも壺の中心に位置する点になるわけではない(もっとも、通常、カメラによる撮影時には、被写体が画面の中央に配置されるような配慮がなされるので、二次元画像の中心点Gは、壺の中心近傍に位置することが多いと思われる)。この二次元画像上の任意の点Mは、座標値M(αm,βm)で表されることになる。   FIG. 2 is a plan view of the projection plane S shown in FIG. The two-dimensional image obtained on the projection surface S is a rectangular image with the two points U1 and U2 as diagonal points, and an object image 20 in the shape of a bowl is arranged on the background. In the case of the embodiment described here, the upper and lower sides of the rectangle constituting the contour of the two-dimensional image are parallel to the XY plane. The point G is the center point of this rectangular two-dimensional image, but it is not necessarily the point located at the center of the eyelid (although usually, the subject is placed at the center of the screen when shooting with the camera). Therefore, it is likely that the center point G of the two-dimensional image is located near the center of the eyelid). An arbitrary point M on the two-dimensional image is represented by a coordinate value M (αm, βm).

実は、カメラで三次元物体10を所定方向から撮影したときに得られる像は、基本的に、図1に示されている投影面S上へ、三次元物体10を透視投影することによって得られる二次元画像ということになる。ここで、光軸Lは、撮影に用いたカメラの光学系の光軸に一致し、点Gは、撮影によって得られた二次元画像の中心点になる。また、視点Eと点G間の距離fは、撮影に用いたカメラの焦点距離と一致する。したがって、写真撮影によって得られた二次元画像は、理論的には、図1に示すような所定の投影条件の下で、投影面S上に得られた投影像と等価になる。   Actually, an image obtained when the three-dimensional object 10 is photographed from a predetermined direction with a camera is basically obtained by perspectively projecting the three-dimensional object 10 onto the projection plane S shown in FIG. This is a two-dimensional image. Here, the optical axis L coincides with the optical axis of the optical system of the camera used for photographing, and the point G becomes the center point of the two-dimensional image obtained by photographing. The distance f between the viewpoint E and the point G matches the focal length of the camera used for shooting. Therefore, a two-dimensional image obtained by photography is theoretically equivalent to a projection image obtained on the projection plane S under a predetermined projection condition as shown in FIG.

本発明の目的は、図2に示すような物体像20(たとえば、写真画像)に基づいて、もとの三次元物体10の三次元情報を復元することにある。もちろん、図2に示す物体像20は、単なる二次元画像であり、奥行きに関する直接的な情報は全く含まれていない。ただ、物体像20のもとになった三次元物体10が回転体であるという条件に着目すると、物体像20の中には、奥行きに関する間接的な情報が含まれていることになる。本発明は、この間接的な情報を手がかりに、もとの三次元物体10の三次元情報を復元しようとするものである。   An object of the present invention is to restore the three-dimensional information of the original three-dimensional object 10 based on an object image 20 (for example, a photographic image) as shown in FIG. Of course, the object image 20 shown in FIG. 2 is merely a two-dimensional image and does not include any direct information about the depth. However, paying attention to the condition that the three-dimensional object 10 that is the basis of the object image 20 is a rotating body, the object image 20 includes indirect information about the depth. The present invention intends to restore the three-dimensional information of the original three-dimensional object 10 using this indirect information as a clue.

この§1で述べる前半段階の目的は、図1に示す投影条件を決定することにある。ここで決定する投影条件は、三次元物体10の位置を基準としたときの投影面Sの位置(向きも含めた広義の位置)と、視点Eの位置である。図1に示す投影系の場合、投影面Sおよび視点EのXYZ三次元座標系上での位置が一意に決定できれば、原点O上に配置されている三次元物体10を投影して得られる物体像20の形状および大きさは、一意に定まることになる。逆に言えば、投影面Sの位置が変われば、得られる物体像20の形状および大きさは変化することになる。また、投影面Sの位置だけが定まっても、視点Eの位置が変われば、やはり得られる物体像20の形状および大きさは変化することになる。したがって、原点O上に配置されている三次元物体10に基づいて、ある特定の物体像20が得られるための投影条件は、投影面Sおよび視点Eの位置ということになる。   The purpose of the first half stage described in Section 1 is to determine the projection conditions shown in FIG. The projection conditions determined here are the position of the projection plane S (a broad position including the orientation) when the position of the three-dimensional object 10 is used as a reference, and the position of the viewpoint E. In the case of the projection system shown in FIG. 1, if the positions of the projection plane S and the viewpoint E on the XYZ three-dimensional coordinate system can be uniquely determined, the object obtained by projecting the three-dimensional object 10 arranged on the origin O The shape and size of the image 20 are uniquely determined. In other words, if the position of the projection plane S changes, the shape and size of the obtained object image 20 will change. Even if only the position of the projection surface S is determined, if the position of the viewpoint E changes, the shape and size of the obtained object image 20 will also change. Therefore, the projection conditions for obtaining a specific object image 20 based on the three-dimensional object 10 arranged on the origin O are the positions of the projection plane S and the viewpoint E.

そこで、この前半段階では、図2に示すような物体像20の撮影時の投影条件(投影面Sおよび視点Eの位置)を、当該物体像20に含まれている情報に基づいて決定する処理を行う。この処理は、別言すれば、撮影時のカメラの位置や向きを推定する処理ということができる。   Therefore, in this first half stage, a process for determining projection conditions (positions of the projection plane S and the viewpoint E) at the time of photographing the object image 20 as shown in FIG. I do. In other words, this process can be said to be a process of estimating the position and orientation of the camera at the time of shooting.

図3は、図1に示す投影系の正面図である。ここで、床面XYは、XYZ三次元座標系におけるXY平面であり、図の右方向がY軸の方向となっている。回転体からなる三次元物体10は、その中心軸がZ軸位置にくるように、床面XY上に配置されている。この例の場合、投影面Sは、図の紙面に直交する面となっているため、図面上は1本の線で示されている。投影面S上に描かれた太線部分は、物体像20の形成位置を示している。この物体像20は、三次元物体10を、視点Eを基準として投影面Sへ透視投影することにより得られた投影像になる。   FIG. 3 is a front view of the projection system shown in FIG. Here, the floor surface XY is an XY plane in the XYZ three-dimensional coordinate system, and the right direction in the figure is the Y-axis direction. The three-dimensional object 10 made of a rotating body is arranged on the floor surface XY so that the center axis thereof is at the Z-axis position. In the case of this example, the projection surface S is a surface orthogonal to the paper surface of the drawing, and therefore is indicated by a single line on the drawing. A thick line portion drawn on the projection surface S indicates a position where the object image 20 is formed. The object image 20 is a projection image obtained by perspectively projecting the three-dimensional object 10 onto the projection plane S with the viewpoint E as a reference.

一点鎖線で示す光軸Lは、視点Eから投影面Sへ下ろした垂線に一致し、撮影時のカメラの光軸に相当する。逆に言えば、投影面Sは、常に、光軸Lに直交する平面として定義されることになる。上述したとおり、光軸Lと投影面Sとの交点Gは、撮影により得られた矩形状二次元画像の中心点になる。ここでは、説明の便宜上、光軸Lを更に伸ばし、XY平面との交点をξとし、XY平面となす角を仰角θと呼ぶ。なお、本願において、投影面Sや光軸Lについての「位置」とは、その向きも含めた広義の意味に用いており、たとえば、交点ξの位置が同じでも、仰角θが変化すれば、光軸Lの位置も変化することになる。   The optical axis L indicated by the alternate long and short dash line coincides with a perpendicular drawn from the viewpoint E to the projection plane S and corresponds to the optical axis of the camera at the time of photographing. In other words, the projection plane S is always defined as a plane orthogonal to the optical axis L. As described above, the intersection point G between the optical axis L and the projection surface S is the center point of the rectangular two-dimensional image obtained by photographing. Here, for convenience of explanation, the optical axis L is further extended, the intersection with the XY plane is denoted by ξ, and the angle formed with the XY plane is denoted by the elevation angle θ. In the present application, the “position” with respect to the projection plane S and the optical axis L is used in a broad sense including its direction. For example, even if the position of the intersection ξ is the same, if the elevation angle θ changes, The position of the optical axis L also changes.

この図3から明らかなように、投影面S上に形成される物体像20の形状や大きさは、投影面Sの位置(別言すれば、光軸Lの位置)および視点Eの位置に依存する。たとえば、図示のような壺の場合、光軸Lの仰角θを大きくとれば、壺を上から覗き込むような撮影像が得られることになり、物体像20の縦方向の寸法は縮むことになる。視点Eの位置を投影面Sに近づけても、同様に物体像20の縦方向の寸法は縮む。もっとも、三次元物体10が任意形状の物体であった場合、物体像20の情報のみから、投影面Sおよび視点Eの位置を推定することは極めて困難である。   As is clear from FIG. 3, the shape and size of the object image 20 formed on the projection surface S are the position of the projection surface S (in other words, the position of the optical axis L) and the position of the viewpoint E. Dependent. For example, in the case of the eyelid shown in the figure, if the elevation angle θ of the optical axis L is increased, a photographed image in which the eyelid is viewed from above can be obtained, and the vertical dimension of the object image 20 is reduced. Become. Even if the position of the viewpoint E is brought close to the projection plane S, the vertical dimension of the object image 20 is similarly reduced. However, when the three-dimensional object 10 is an object having an arbitrary shape, it is extremely difficult to estimate the positions of the projection plane S and the viewpoint E from only the information of the object image 20.

そこで、本願発明者は、三次元物体10が回転体である、との前提をおけば、物体像20の情報のみから、投影面Sおよび視点Eの位置を推定することが可能になるのではないか、との着想を得た。前述したとおり、回転体には、三次元形状のいたるところに円が現れるという固有の特性がある。たとえば、図4は、Z軸を回転軸とした壺の形をもった三次元物体10の斜視図であるが、この壺の下端面の輪郭には円Cbottomが現れており、上端面の輪郭には円Ctopが現れている。このような固有の特性は、投影面S上の物体像20上にも表れる。もちろん、物体像20は投影像であるため、円Cbottomや円Ctopは、楕円状の投影像として現れることになるが、この楕円状の投影像の位置や形状は、投影面Sおよび視点Eの位置を推定する貴重な情報を与えてくれる。   Therefore, if the inventor assumes that the three-dimensional object 10 is a rotating body, the position of the projection plane S and the viewpoint E can be estimated from only the information of the object image 20. I got the idea that it wasn't there. As described above, the rotating body has an inherent characteristic that a circle appears everywhere in the three-dimensional shape. For example, FIG. 4 is a perspective view of the three-dimensional object 10 having the shape of a ridge with the Z axis as a rotation axis. A circle Cbottom appears on the contour of the lower end surface of the heel, and the contour of the upper end surface is shown. The circle Ctop appears. Such unique characteristics also appear on the object image 20 on the projection plane S. Of course, since the object image 20 is a projection image, the circle Cbottom and the circle Ctop appear as an elliptical projection image. The position and shape of the elliptical projection image are the projection plane S and the viewpoint E. Gives valuable information to estimate the location.

ここで、三次元物体10上の円Cを、投影面S上に投影した場合に、どのような幾何学図形が得られるかを考察してみる。図5は、XYZ三次元座標系上の円Cを、投影面S上に平行投影して得られる投影像C′(円を投影して得られる像なので、円投影像と呼ぶ)を示す斜視図であり、図6は、同じくXYZ三次元座標系上の円Cを、投影面S上に透視投影して得られる投影像CC(こちらも円投影像と呼ぶ)を示す斜視図である。いずれも、投影面S上に、二次元の円投影像が得られる点は同じであるが、両者では投影方法が異なるため、得られる円投影像の形状は互いに異なるものになる。   Here, what kind of geometric figure can be obtained when the circle C on the three-dimensional object 10 is projected onto the projection plane S will be considered. FIG. 5 is a perspective view showing a projection image C ′ obtained by parallel projecting the circle C on the XYZ three-dimensional coordinate system onto the projection plane S (referred to as a circle projection image because it is obtained by projecting a circle). FIG. 6 is a perspective view showing a projection image CC (also referred to as a circular projection image) obtained by perspectively projecting the circle C on the XYZ three-dimensional coordinate system onto the projection plane S. In either case, the two-dimensional circular projection image is obtained on the projection plane S in the same way, but since the projection methods are different between the two, the shapes of the obtained circular projection images are different from each other.

まず、図5に示す平行投影では、投影方向を示すベクトルVが定められ、このベクトルVに平行な方向に投影が行われることになる。図に破線で示す投影線は、いずれもベクトルVに平行な直線になる。たとえば、太陽光線のような平行光線によって地面の上に物体の影が形成されるような場合、地面に形成された影は、物体の平行投影像ということになる。円Cの平行投影像は幾何学的な楕円になるので、図示の例においても、円投影像C′は幾何学的な楕円ということになる。   First, in the parallel projection shown in FIG. 5, a vector V indicating the projection direction is determined, and projection is performed in a direction parallel to the vector V. The projection lines indicated by broken lines in the figure are all straight lines parallel to the vector V. For example, when a shadow of an object is formed on the ground by parallel rays such as sunlight, the shadow formed on the ground is a parallel projection image of the object. Since the parallel projection image of the circle C is a geometric ellipse, the circle projection image C ′ is also a geometric ellipse in the illustrated example.

これに対して、図6に示す透視投影では、基準となる視点Eが定められ、この視点Eから物体を透視する方向に投影が行われることになる。図に破線で示す投影線は、いずれも視点Eを通る直線になる。人間の肉眼観察によって網膜上に形成される像や、カメラによる撮影像は、物体の透視投影像ということになる。円Cの透視投影像は必ずしも幾何学的な楕円にはならず、多くの場合、歪んだ楕円となる。図示の例においても、円投影像CCは幾何学的な楕円ではなく、歪みを生じた楕円となる。   On the other hand, in the perspective projection shown in FIG. 6, a reference viewpoint E is determined, and projection is performed from the viewpoint E in the direction of seeing through the object. The projection lines indicated by broken lines in the figure are all straight lines passing through the viewpoint E. An image formed on the retina by the human naked eye observation or a photographed image by the camera is a perspective projection image of the object. The perspective projection image of the circle C is not necessarily a geometric ellipse, and in many cases is a distorted ellipse. Also in the illustrated example, the circular projection image CC is not a geometric ellipse, but a distorted ellipse.

本発明によって取り扱われる二次元画像は、カメラによって撮影された画像であり、図6に示すように、物体を透視投影することにより得られる画像である。したがって、図4に示す円Cbottomや円Ctopについての円投影像は、幾何学的な楕円ではなく、歪んだ楕円となる。逆に言えば、この円投影像の歪みの中にも、投影条件に関する何らかの情報が含まれていることになる。本発明では、この円投影像の形状、大きさ、位置、そして歪みの程度などの情報を利用して、投影面Sおよび視点Eの位置を推定する処理を行う。その原理を、図7を参照しながら説明しよう。   The two-dimensional image handled by the present invention is an image taken by a camera, and is an image obtained by perspectively projecting an object as shown in FIG. Therefore, the circular projection image of the circle Cbottom and the circle Ctop shown in FIG. 4 is not a geometric ellipse but a distorted ellipse. In other words, some information regarding the projection condition is included in the distortion of the circular projection image. In the present invention, processing for estimating the positions of the projection plane S and the viewpoint E is performed using information such as the shape, size, position, and degree of distortion of the circular projection image. The principle will be described with reference to FIG.

図7は、本発明により投影面Sおよび視点Eの位置を決定する手法の基本原理を示すための投影系の正面図である。この図における主たる構成要素は、図3に示す各構成要素と同じである。すなわち、床面XYは、XYZ三次元座標系におけるXY平面であり、図の右方向がY軸の方向となっている。1本の直線で示されている投影面Sは、図の紙面に直交する平面である。一点鎖線で示す光軸Lは、視点Eから投影面Sへ下ろした垂線に一致し(点Gは垂線の足)、撮影時のカメラの光軸に相当する。投影面Sは、この光軸Lに直交する平面となる。また、点ξは、光軸LとXY平面との交点であり、仰角θは、光軸LとXY平面とのなす角である。   FIG. 7 is a front view of the projection system for illustrating the basic principle of the method for determining the positions of the projection plane S and the viewpoint E according to the present invention. The main components in this figure are the same as the components shown in FIG. That is, the floor surface XY is an XY plane in the XYZ three-dimensional coordinate system, and the right direction in the figure is the Y-axis direction. A projection plane S indicated by one straight line is a plane orthogonal to the drawing sheet. The optical axis L indicated by the alternate long and short dash line coincides with the vertical line drawn from the viewpoint E to the projection plane S (the point G is a vertical leg) and corresponds to the optical axis of the camera at the time of photographing. The projection surface S is a plane orthogonal to the optical axis L. A point ξ is an intersection between the optical axis L and the XY plane, and an elevation angle θ is an angle formed by the optical axis L and the XY plane.

この図7には、三次元物体10は示されていない。これは、本発明を実施する初期段階では、まだ三次元物体10に関する具体的な形状情報が何ら得られていないためである。ただ、本発明の適用対象は、回転体からなる物体に限定されるため、ここに示す例の場合、三次元物体10は、XYZ三次元座標系におけるZ軸を中心軸とする回転体であり、床面XY上に配置されている、という最小限の情報は得られている。また、図7には、投影面Sおよび視点Eが所定位置に描かれているが、この段階では、まだ投影面Sおよび視点Eの位置は定まっておらず、図示した投影面Sおよび視点Eは仮のものである。   In FIG. 7, the three-dimensional object 10 is not shown. This is because no specific shape information about the three-dimensional object 10 has been obtained at the initial stage of implementing the present invention. However, since the application target of the present invention is limited to an object made of a rotating body, in the example shown here, the three-dimensional object 10 is a rotating body having the Z axis as the central axis in the XYZ three-dimensional coordinate system. The minimum information of being arranged on the floor surface XY is obtained. In FIG. 7, the projection plane S and the viewpoint E are drawn at predetermined positions. At this stage, the positions of the projection plane S and the viewpoint E are not yet determined, and the projection plane S and the viewpoint E shown in the figure are not yet determined. Is provisional.

さて、この図7に示すような仮想空間上で、2つの参照円を定義してみる。第1の参照円Cbottomは、図4に示す三次元物体10の下端面の輪郭円Cbottomに相当するものであり、第2の参照円Ctopは、同じく図4に示す三次元物体10の上端面の輪郭円Ctopに相当するものである。もちろん、実際の三次元物体10の具体的な三次元情報は、この段階では何ら得られていないので、第1の参照円Cbottomの半径Rbottomの値、第2の参照円Ctopの半径Rtopの値、両参照円の距離Dの値は、この時点ではデタラメなものであってかまわない。ただ、三次元物体10は、XYZ三次元座標系におけるZ軸を中心軸とする回転体であり、床面XY上に配置されている、という最小限の情報に基づいて、両参照円Cbottom,Ctopは、いずれもZ軸に直交する平面に含まれ、Z軸上に中心点をもつ円となるようにしておく。ここで、第1の参照円Cbottomは、三次元物体10の下端面の輪郭円に相当するものであるから、床面XY上の円となるようにしておき、第2の参照円Ctopは、「Z=D」なる式で定義される平面(以下、「Z=D」平面という)上の円となるようにしておく。   Now, let us define two reference circles on the virtual space as shown in FIG. The first reference circle Cbottom corresponds to the contour circle Cbottom of the lower end surface of the three-dimensional object 10 shown in FIG. 4, and the second reference circle Ctop is the upper end surface of the three-dimensional object 10 also shown in FIG. Corresponds to the contour circle Ctop. Of course, since no specific three-dimensional information of the actual three-dimensional object 10 is obtained at this stage, the value of the radius Rbottom of the first reference circle Cbottom and the value of the radius Rtop of the second reference circle Ctop. The distance D between both reference circles may be flawless at this point. However, based on the minimum information that the three-dimensional object 10 is a rotating body having the Z axis as the central axis in the XYZ three-dimensional coordinate system and is arranged on the floor XY, both reference circles Cbottom, Ctop is included in a plane perpendicular to the Z axis, and is a circle having a center point on the Z axis. Here, since the first reference circle Cbottom corresponds to the contour circle of the lower end surface of the three-dimensional object 10, the first reference circle Cbottom is made to be a circle on the floor surface XY, and the second reference circle Ctop is A circle on a plane defined by the expression “Z = D” (hereinafter referred to as “Z = D” plane) is used.

ここで、図7に示すとおり、第1の参照円Cbottomおよび第2の参照円Ctopについて、視点Eを基準とした投影面Sへの透視投影を行うと、投影面S上には、第1の円投影像CCbottomおよび第2の円投影像CCtopが得られる。図では、これら円投影像を、投影面Sを示す直線上に太線として描いてある。これら円投影像が、歪んだ楕円になることは、既に述べたとおりである。   Here, as shown in FIG. 7, when the first reference circle Cbottom and the second reference circle Ctop are perspective-projected onto the projection surface S with the viewpoint E as a reference, the first reference circle Cbottom and the second reference circle Ctop are projected on the projection surface S. , And a second circular projection image CCtop are obtained. In the figure, these circular projection images are drawn as thick lines on a straight line indicating the projection plane S. As described above, these circular projection images become distorted ellipses.

ここで、与えられた二次元画像(三次元物体10の撮影画像)を投影面S上に貼り付ける。このとき、この二次元画像の中心点が、視点Eから投影面Sに下した垂線の足Gに一致するように位置合わせを行うようにする。そして、この貼り付けた二次元画像上に、第1の円投影像CCbottomおよび第2の円投影像CCtopを重ねて配置すると、たとえば、図8に示すような結果が得られる。点Gは、この二次元画像の中心点となっており、光軸Lは、点Gを通り投影面Sに直交する直線になる。   Here, the given two-dimensional image (a photographed image of the three-dimensional object 10) is pasted on the projection plane S. At this time, the alignment is performed so that the center point of the two-dimensional image coincides with the foot G of the perpendicular line drawn from the viewpoint E to the projection plane S. Then, when the first circle projection image CCbottom and the second circle projection image CCtop are arranged on the pasted two-dimensional image so as to overlap, for example, a result as shown in FIG. 8 is obtained. The point G is the center point of this two-dimensional image, and the optical axis L is a straight line passing through the point G and orthogonal to the projection plane S.

この二次元画像上には、三次元物体10に対応する物体像20が含まれているが、現時点では、この物体像20と、各円投影像CCbottom ,CCtopとの間には、何ら相関関係は見られない。前述したとおり、第1の参照円Cbottomが、図4に示す三次元物体10の下端面の輪郭円Cbottomに相当するものであり、第2の参照円Ctopが、同じく図4に示す三次元物体10の上端面の輪郭円Ctopに相当するものであるとすれば、本来であれば、第1の円投影像CCbottomは、物体像20に含まれる「物体の下端面に対応する部分21(第1の円弧状特徴部と呼ぶ)に一致し、第2の円投影像CCtopは、物体像20に含まれる「物体の上端面に対応する部分22(第2の円弧状特徴部と呼ぶ)」に一致しなければならない。   On the two-dimensional image, an object image 20 corresponding to the three-dimensional object 10 is included, but at present, there is no correlation between the object image 20 and each of the circular projection images CCbottom and CCtop. Is not seen. As described above, the first reference circle Cbottom corresponds to the contour circle Cbottom of the lower end surface of the three-dimensional object 10 shown in FIG. 4, and the second reference circle Ctop is the same as the three-dimensional object shown in FIG. 10, the first circular projection image CCbottom is originally “the portion 21 corresponding to the lower end surface of the object (first The second circular projection image CCtop corresponds to “a portion 22 corresponding to the upper end surface of the object (referred to as a second arcuate feature)” included in the object image 20. Must match.

ところが、図8に示すように、何ら一致が見られない結果が得られたのは、図7に示す投影系において、投影面Sおよび視点Eの位置、第1の参照円Cbottomの半径Rbottomの値、第2の参照円Ctopの半径Rtopの値、両参照円の距離Dの値がデタラメなものであったからに他ならない。もちろん、本発明を実施する初期段階では、これらの位置や値に関する情報はほとんど得られていないので(投影像20を観察することにより、大まかな情報は得ることができるかもしれないが)、この初期段階では、これらの位置や値として、デタラメなものを設定せざるを得ない。しかしながら、図8に示すような重畳表示の結果を検討すれば、当初はデタラメな設定を行っていたこれらの情報に対して、最終的な一致が得られる方向への修正を施すことが可能になる。   However, as shown in FIG. 8, the result in which no coincidence was found was obtained in the projection system shown in FIG. 7 in the positions of the projection plane S and the viewpoint E, the radius Rbottom of the first reference circle Cbottom. This is because the value, the value of the radius Rtop of the second reference circle Ctop, and the value of the distance D between both reference circles are frank. Of course, in the initial stage of carrying out the present invention, information on these positions and values is hardly obtained (although rough information may be obtained by observing the projection image 20), In the initial stage, these positions and values must be set to be frank. However, if the result of the superimposed display as shown in FIG. 8 is examined, it is possible to perform correction in a direction in which a final match can be obtained with respect to these pieces of information that were initially set to be frank. Become.

たとえば、図8に示す具体例の場合、両円投影像CCbottom,CCtopの形状に着目すると、いずれも各円弧状特徴部21,22に比べ、上下方向に細った形状をしていることがわかる。これは、現時点で設定されている投影条件における仰角θが、実際の撮影条件における仰角よりも小さすぎることを意味している。すなわち、図8に示す物体像20は、実際には、図7に示す光軸Lの方向よりも更に上方から見下ろすような急な仰角で撮影された像であることが認識できる。したがって、この場合は、仰角θを増加させる方向への修正を施せばよい。   For example, in the case of the specific example shown in FIG. 8, when attention is paid to the shapes of the bi-circular projection images CCbottom and CCtop, it can be seen that each has a shape that is narrower in the vertical direction than the respective arc-shaped features 21 and 22. . This means that the elevation angle θ under the currently set projection conditions is too small than the elevation angle under actual imaging conditions. That is, it can be recognized that the object image 20 shown in FIG. 8 is actually an image taken at a steep elevation angle that looks down from above the direction of the optical axis L shown in FIG. Therefore, in this case, it is only necessary to correct the direction in which the elevation angle θ is increased.

また、図8に示す具体例の場合、第1の円投影像CCbottomのサイズ(横幅)は、ほぼ第1の円弧状特徴部21のサイズに一致するが、第2の円投影像CCtopのサイズは、第2の円弧状特徴部22のサイズに比べて大きすぎることがわかる。これは、半径Rbottomの設定値はほぼ適正値であるが、半径Rtopの設定値は大きすぎることを意味している。したがって、この場合は、半径Rtopの設定値を減少させる方向への修正を施せばよい。   In the case of the specific example shown in FIG. 8, the size (horizontal width) of the first circular projection image CCbottom substantially matches the size of the first arcuate feature 21, but the size of the second circular projection image CCtop. Is too large compared to the size of the second arcuate feature 22. This means that the setting value of the radius Rbottom is almost appropriate, but the setting value of the radius Rtop is too large. Therefore, in this case, it is only necessary to make a correction in a direction to decrease the set value of the radius Rtop.

一方、位置に関するずれに着目すると、図8に示す具体例の場合、両円投影像CCbottom,CCtopの位置は、各円弧状特徴部21,22の位置に対して右側にずれている。これは、現時点で設定されている投影条件における光軸Lの位置(図8に示す点Gの位置)が、実際の撮影時の位置よりも左側にずれていることを意味している。したがって、この場合は、図7に示す交点ξの位置を紙面垂直方向にずらす修正を施せばよい。   On the other hand, paying attention to the position-related displacement, in the case of the specific example shown in FIG. This means that the position of the optical axis L (the position of the point G shown in FIG. 8) under the currently set projection conditions is shifted to the left from the actual photographing position. Therefore, in this case, a correction may be made to shift the position of the intersection point ξ shown in FIG.

また、図8に示す具体例の場合、第1の円投影像CCbottomと第2の円投影像CCtopとが接近しすぎていることがわかる。これは、図7に示すDの設定値が小さすぎることを意味している。したがって、この場合は、Dの設定値を増加させる方向への修正を施せばよい。   Further, in the specific example shown in FIG. 8, it can be seen that the first circular projection image CCbottom and the second circular projection image CCtop are too close. This means that the set value of D shown in FIG. 7 is too small. Therefore, in this case, it is only necessary to correct the direction in which the set value of D is increased.

ここで、投影面Sおよび視点Eの決定に関与するパラメータが、投影面S上に得られる円投影像にどのような影響を与えるかを検討してみる。まず、光軸Lの仰角θは、上述の例で述べたとおり、ほぼ楕円形となる円投影像の太り具合(真円度)を支配するパラメータということができる。すなわち、仰角θを大きく設定すればするほど、参照円を真上近くから見下ろす状態となるため、円投影像は円に近くなる。逆に、仰角θを小さく設定すればするほど、円投影像は潰れた状態になる。このように、光軸Lの仰角θは、直観的に円投影像の形状に結びついたパラメータということができる。   Here, it will be examined how the parameters involved in the determination of the projection plane S and the viewpoint E affect the circular projection image obtained on the projection plane S. First, as described in the above example, the elevation angle θ of the optical axis L can be said to be a parameter that governs the thickness (roundness) of a circular projection image that is substantially elliptical. That is, as the elevation angle θ is set to be larger, the reference circle is looked down from directly above, so that the circle projection image becomes closer to a circle. Conversely, the smaller the elevation angle θ is set, the more the circular projection image is crushed. Thus, the elevation angle θ of the optical axis L can be said to be a parameter intuitively linked to the shape of the circular projection image.

一方、光軸LとXY平面との交点ξの位置は、上述の例で述べたとおり、円投影像の位置を支配するパラメータということができる。すなわち、投影面S上で円投影像を上下左右に移動させたい場合には、交点ξの位置をXY平面上で移動させればよい。   On the other hand, the position of the intersection ξ between the optical axis L and the XY plane can be said to be a parameter governing the position of the circular projection image as described in the above example. That is, when it is desired to move the circular projection image vertically and horizontally on the projection plane S, the position of the intersection ξ may be moved on the XY plane.

次に、光軸Lの回転角φなるものを考えてみよう。図9は、図7に示す投影系の上面図であり、Z軸は原点Oにおいて紙面に垂直な軸になる。2組の参照円Cbottom,Ctopは、この図9においては、いずれも完全な円として描かれる。図には、この2組の参照円Cbottom,Ctopを、Y軸に沿った光軸Lyに基づいて投影面Sy上に透視投影した場合と、W軸に沿った光軸Lwに基づいて投影面Sw上に透視投影した場合とが描かれている。ここで、点Gy,Gwは、各光軸と各投影面との交点であり、W軸はXY平面上でY軸を原点Oを基準として回転角φだけ回転させた軸である。図から容易に想像できるとおり、投影面Sy上に得られる円投影像と、投影面Sw上に得られる円投影像とは、全く同じものになる。これは、参照円Cbottom,Ctopの代わりに、回転体からなる三次元物体を、中心軸がZ軸上にくるように配置した場合も同様である。すなわち、回転体を投影する限り、光軸Lの回転角φというパラメータは、投影像に何ら影響を与えないパラメータということになり、本発明では考慮する必要のないパラメータである。   Next, consider the rotation angle φ of the optical axis L. 9 is a top view of the projection system shown in FIG. 7, and the Z axis is an axis perpendicular to the paper surface at the origin O. FIG. The two sets of reference circles Cbottom and Ctop are both drawn as perfect circles in FIG. In the figure, the two pairs of reference circles Cbottom and Ctop are projected on the projection surface Sy based on the optical axis Ly along the Y axis, and the projection surface based on the optical axis Lw along the W axis. A case of perspective projection on Sw is depicted. Here, the points Gy and Gw are intersections between the optical axes and the projection planes, and the W axis is an axis obtained by rotating the Y axis on the XY plane by the rotation angle φ with respect to the origin O. As can be easily imagined from the figure, the circular projection image obtained on the projection surface Sy and the circular projection image obtained on the projection surface Sw are exactly the same. The same applies to a case where a three-dimensional object made of a rotating body is arranged so that the central axis is on the Z axis instead of the reference circles Cbottom and Ctop. That is, as long as the rotating body is projected, the parameter of the rotation angle φ of the optical axis L is a parameter that does not affect the projected image and is a parameter that does not need to be considered in the present invention.

続いて、光軸L上における投影面Sの位置というパラメータを考えてみる。図10は、この光軸L上における投影面Sの位置が投影像に与える影響を説明する投影系の正面図であり、図3に示す投影系における投影面Sを投影面S′の位置まで移動させた状態を示している。投影面は常に光軸に直交する平面であるので、投影面S′は投影面Sに平行な平面となり、光軸Lに対する交点が点Gから点G′へと移動したことになる。この場合、各投影面SおよびS′上に得られる三次元物体10の投影像を比較すると、両者は相似形になることがわかる。別言すれば、このパラメータは、投影面上に得られる投影像全体の倍率を左右するパラメータということになる。   Next, consider the parameter of the position of the projection surface S on the optical axis L. FIG. 10 is a front view of the projection system for explaining the influence of the position of the projection plane S on the optical axis L on the projection image. The projection plane S in the projection system shown in FIG. 3 is moved to the position of the projection plane S ′. The moved state is shown. Since the projection plane is always a plane orthogonal to the optical axis, the projection plane S ′ is a plane parallel to the projection plane S, and the intersection point with respect to the optical axis L has moved from the point G to the point G ′. In this case, when the projection images of the three-dimensional object 10 obtained on the projection planes S and S ′ are compared, it can be seen that they are similar. In other words, this parameter is a parameter that determines the magnification of the entire projection image obtained on the projection plane.

結局、本発明を実施する上では、この光軸L上における投影面Sの位置というパラメータも考慮する必要はない。なぜなら、実用上、本発明の適用対象として与えられる二次元画像は、任意の倍率で拡大もしくは縮小された画像であり、撮影時の透視投影像のサイズそのままではないからである。与えられた二次元画像が、撮影時の透視投影像に対して、どの程度の倍率をもった画像であるかは、通常、不明であるので、光軸L上における投影面Sの位置というパラメータを正確に定めることは意味のないことである。したがって、このパラメータは、任意に設定してかまわない。たとえば、交点ξから所定のデフォルト距離だけ離れた位置に点Gがくるように、投影面Sの定義を行うように予め決めておけば足りる。実際の演算処理上、投影像全体の倍率のファクターは、各参照円の半径Rbottom,Rtopおよび両参照円の距離Dの値に組み込まれるファクターということになる。   After all, in implementing the present invention, it is not necessary to consider the parameter of the position of the projection surface S on the optical axis L. This is because, in practice, a two-dimensional image given as an application target of the present invention is an image enlarged or reduced at an arbitrary magnification, and is not the same as the size of a perspective projection image at the time of photographing. Since it is usually unknown how much magnification a given two-dimensional image has with respect to a perspective projection image at the time of shooting, a parameter called the position of the projection surface S on the optical axis L It is meaningless to determine exactly. Therefore, this parameter may be set arbitrarily. For example, it is sufficient to determine in advance that the projection plane S is defined such that the point G is located at a position away from the intersection point ξ by a predetermined default distance. In actual calculation processing, the factor of the magnification of the entire projected image is a factor incorporated in the values of the radius Rbottom and Rtop of each reference circle and the distance D of both reference circles.

最後に、投影面Sと視点Eとの距離fなるパラメータを考えてみる。この距離fは、前述したとおり、撮影時に用いたカメラの焦点距離に対応するものであり、望遠レンズを用いた撮影を行えば焦点距離fは大きくなり、広角レンズを用いた撮影を行えば焦点距離fは小さくなる。カメラの焦点距離fは、カメラの画角(撮影範囲に入る角度)と同義のファクターであり、焦点距離fが大きくなればなるほど画角は狭くなり、焦点距離fが小さくなればなるほど画角は広くなる。たとえば、図7において、距離fが大きくなると、視点Eは投影面Sから離れた位置にくることになり、破線で示されている2本の投影線のなす角度はより小さくなる。逆に、距離fが小さくなると、視点Eは投影面Sに近づいた位置にくることになり、破線で示されている2本の投影線のなす角度はより大きくなる。   Finally, consider a parameter called the distance f between the projection surface S and the viewpoint E. As described above, this distance f corresponds to the focal length of the camera used at the time of photographing. The focal length f increases when photographing using a telephoto lens, and the focal point occurs when photographing using a wide-angle lens. The distance f becomes smaller. The focal length f of the camera is a factor that is synonymous with the angle of view of the camera (the angle within the shooting range). The larger the focal length f, the narrower the angle of view, and the smaller the focal length f, Become wider. For example, in FIG. 7, when the distance f increases, the viewpoint E comes to a position away from the projection plane S, and the angle formed by two projection lines indicated by broken lines becomes smaller. On the contrary, when the distance f becomes smaller, the viewpoint E comes to a position closer to the projection plane S, and the angle formed by the two projection lines indicated by the broken line becomes larger.

実は、この距離fなるパラメータは、投影面S上に得られる投影像の位置、大きさ、形状を支配する複雑なパラメータとなる。したがって、図7において、距離fの値を変化させると、投影面S上に得られる各円投影像CCbottom,CCtopの位置、大きさ、形状がともに変化することになる。このように、投影面Sと視点Eとの距離fなるパラメータは、かなり取り扱いにくいパラメータである。そこで、本発明では、この距離fを可変のパラメータとして取り扱わず、撮影条件の1つとして与えられる既知量として取り扱うことにした。前述したとおり、三次元物体10の撮影を一般的なカメラで行った場合、投影面Sと視点Eとの距離fは、このカメラの焦点距離に対応する値となる。したがって、撮影時に用いたカメラの焦点距離のデータが残っていれば、距離fを既知量として与えることができる。   Actually, this parameter f is a complex parameter that governs the position, size, and shape of the projected image obtained on the projection plane S. Therefore, in FIG. 7, when the value of the distance f is changed, the positions, sizes, and shapes of the respective circular projection images CCbottom and CCtop obtained on the projection plane S are changed. Thus, the parameter of the distance f between the projection surface S and the viewpoint E is a parameter that is very difficult to handle. Therefore, in the present invention, the distance f is not handled as a variable parameter, but is handled as a known amount given as one of the imaging conditions. As described above, when the three-dimensional object 10 is shot with a general camera, the distance f between the projection surface S and the viewpoint E is a value corresponding to the focal length of the camera. Therefore, if data on the focal length of the camera used at the time of shooting remains, the distance f can be given as a known amount.

また、上述したとおり、カメラの焦点距離fは、カメラの画角と同義のファクターであり、撮影時に用いたカメラの画角の情報が残されていれば、距離fを算出することが可能である。すなわち、カメラの画角は、通常、図1に示すような投影面S上に得られる二次元画像の対角点U1,U2を視点Eから見たときの視差角として与えられるので、2点U1,U2間の実寸に基づいて、距離fを算出することが可能になる。   Further, as described above, the focal length f of the camera is a factor that is synonymous with the angle of view of the camera, and the distance f can be calculated if information on the angle of view of the camera used during shooting remains. is there. That is, the angle of view of the camera is normally given as a parallax angle when the diagonal points U1 and U2 of the two-dimensional image obtained on the projection plane S as shown in FIG. The distance f can be calculated based on the actual size between U1 and U2.

以上、投影面Sおよび視点Eの決定に関与するいくつかのパラメータについて検討したが、結局、図7に示す投影系において、幾何学的な条件を決定するために考慮すべきパラメータは、「光軸Lの位置」であることがわかる。ここで、光軸Lについての「位置」とは、前述したとおり、その向きも含めた広義の意味であり、具体的には、交点ξのXY平面上での位置と、仰角θによって決定される。光軸Lの回転角φについては、図9の上面図で説明したとおり、考慮する必要はない。また、光軸L上における投影面Sの位置というパラメータも、図10を用いて説明したとおり、単に、投影像全体の倍率を左右するパラメータであるので考慮する必要はない(任意の値に設定してかまわない)。一方、距離fは、撮影条件の1つとして与えられる既知量として取り扱うことができる。かくして、「光軸Lの位置」(仰角θと交点ξ)が決定できれば、図7に示す投影系における投影面Sおよび視点Eを決定することができる。   As described above, several parameters related to the determination of the projection plane S and the viewpoint E are examined. Eventually, in the projection system shown in FIG. 7, the parameters to be considered for determining the geometric condition are “light It can be seen that “the position of the axis L”. Here, as described above, the “position” with respect to the optical axis L has a broad meaning including its orientation, and is specifically determined by the position of the intersection ξ on the XY plane and the elevation angle θ. The The rotation angle φ of the optical axis L need not be considered as described in the top view of FIG. Further, as described with reference to FIG. 10, the parameter of the position of the projection surface S on the optical axis L is simply a parameter that influences the magnification of the entire projection image, and does not need to be considered (set to an arbitrary value). It does n’t matter) On the other hand, the distance f can be handled as a known amount given as one of the photographing conditions. Thus, if the “position of the optical axis L” (elevation angle θ and intersection ξ) can be determined, the projection plane S and viewpoint E in the projection system shown in FIG. 7 can be determined.

すなわち、まず、交点ξを通り、仰角θをなす光軸Lを定め(回転角φは考慮する必要がないので、たとえば、YZ平面に含まれる直線として光軸Lを定義すればよい)、この光軸L上の任意の位置に点Gを定め(たとえば、予め所定距離dを定めておき、交点ξからdだけ隔たった位置に点Gを定義すればよい)、この点Gにおいて光軸Lに直交する平面として投影面Sを一意に定めることができる。更に、既知量として与えられた距離fを利用して、点Gから距離fだけ隔たった光軸L上の点として、視点Eを一意に定めることができる。   That is, first, an optical axis L that passes through the intersection ξ and forms an elevation angle θ is determined (the rotation angle φ does not need to be taken into account, so the optical axis L may be defined as a straight line included in the YZ plane, for example). A point G is determined at an arbitrary position on the optical axis L (for example, a predetermined distance d may be determined in advance, and the point G may be defined at a position separated from the intersection ξ by d). The projection plane S can be uniquely determined as a plane orthogonal to the. Furthermore, using the distance f given as a known amount, the viewpoint E can be uniquely determined as a point on the optical axis L that is separated from the point G by the distance f.

一方、図7に示す第1の参照円Cbottomは、原点Oを中心としたXY平面上の円であるから、その半径Rbottomを定義するだけで一意に定まる。また、第2の参照円Ctopは、Z軸上の点を中心とした「Z=D」平面上の円であるから、その半径Rtopと距離Dを定義するだけで一意に定まる。かくして、2つの参照円を決定するファクターは、Rbottom,Rtop,Dという3つの値ということになる。   On the other hand, since the first reference circle Cbottom shown in FIG. 7 is a circle on the XY plane centered on the origin O, it is uniquely determined only by defining its radius Rbottom. Further, since the second reference circle Ctop is a circle on the “Z = D” plane centered on a point on the Z axis, it is uniquely determined only by defining the radius Rtop and the distance D. Thus, the factors that determine the two reference circles are the three values Rbottom, Rtop, and D.

以上のことから、図7に示す投影系において、2つの参照円Cbottom,Ctopについての円投影像を投影面S上に得る際に設定すべきパラメータは、交点ξの位置,仰角θ,半径Rbottom,半径Rtop,距離Dなる5つのパラメータということになる。この5つのパラメータの設定を変えることにより、図8に例示したような投影面S上に得られる円投影像CCbottom,CCtopの形状、大きさ、位置を変化させることができる。   From the above, in the projection system shown in FIG. 7, the parameters to be set when obtaining the circular projection images of the two reference circles Cbottom and Ctop on the projection plane S are the position of the intersection ξ, the elevation angle θ, and the radius Rbottom. , Radius Rtop and distance D. By changing the settings of these five parameters, the shapes, sizes, and positions of the circular projection images CCbottom and CCtop obtained on the projection plane S as illustrated in FIG. 8 can be changed.

図11は、これら5つのパラメータが、円投影像CCbottom,CCtopに与える影響を整理して示した図である。まず、第1のパラメータである「光軸Lの仰角θ」は、既に述べたとおり、両方の円投影像CCbottom,CCtopの形状(真円度)を支配する因子となる。また、第2のパラメータである「交点ξの位置」は、両方の円投影像CCbottom,CCtopの投影面S上での位置を支配する因子となる。更に、第3および第4のパラメータである「半径Rbottom,Rtop」は、円投影像CCbottom,CCtopの大きさを支配する因子となり、第5のパラメータである「距離D」は、円投影像CCbottom,CCtopの相互位置関係(上下方向に関する両者の距離)を支配する因子となる。   FIG. 11 is a diagram showing the effects of these five parameters on the circular projection images CCbottom and CCtop. First, as described above, the first parameter “elevation angle θ of the optical axis L” is a factor that governs the shapes (roundness) of both circular projection images CCbottom and CCtop. Further, the “position of the intersection ξ” that is the second parameter is a factor that governs the position of both the circular projection images CCbottom and CCtop on the projection plane S. Further, the “radius Rbottom, Rtop” as the third and fourth parameters is a factor governing the size of the circular projection images CCbottom, CCtop, and the “distance D” as the fifth parameter is the circular projection image CCbottom. , CCtop is a factor governing the mutual positional relationship (the distance between the two in the vertical direction).

これら5つのパラメータが、それぞれ上述のような特徴をもった因子であることを考慮すれば、初期段階(上記各パラメータをデタラメに設定した段階)では、たとえば、図8に示すような重畳表示が得られたとしても、第1の円投影像CCbottomを第1の円弧状特徴部21に一致させ、第2の円投影像CCtopを第2の円弧状特徴部22に一致させる方向へ、各パラメータの設定値を修正することが可能である。   Considering that these five parameters are factors having the characteristics as described above, for example, at the initial stage (the stage where the above parameters are set to the parameters), for example, a superimposed display as shown in FIG. Even if it is obtained, each parameter is set so that the first circular projection image CCbottom matches the first arcuate feature 21 and the second circle projection image CCtop matches the second arcuate feature 22. It is possible to correct the set value.

図12は、このような一致が得られた状態を示す平面図である。このように、一致が得られた状態になったということは、その時点における5つのパラメータの設定値によって定まる投影系が、物体像20を得るための撮影時の投影系に一致したことを意味する。たとえば、重畳表示が一致した時点の5つのパラメータの設定値によって、図7に示すような投影系が決定されたとすると、この図7に示す投影系は、図3に示すような実際の撮影時の投影系に一致していることになる。   FIG. 12 is a plan view showing a state in which such a match is obtained. In this way, the fact that a match is obtained means that the projection system determined by the set values of the five parameters at that time coincides with the projection system at the time of shooting for obtaining the object image 20. To do. For example, if the projection system as shown in FIG. 7 is determined by the set values of the five parameters at the time when the superimposed display matches, the projection system shown in FIG. This is consistent with the projection system.

もっとも、本発明では、光軸L上における投影面Sの位置というパラメータ(投影像全体の倍率を左右するパラメータ)を任意の値に設定しているため、厳密に言えば、投影面Sの位置は撮影時の位置とは異なっている。したがって、図7の投影系を前提として、投影面S上の物体像20に基づいてもとの物体10の三次元情報を復元すると、復元された三次元画像の大きさは、もとの三次元物体10の大きさとは一致しない。しかしながら、これは単なる像の倍率の問題であり、そもそも与えられた二次元画像自体の倍率が、通常は、撮影時における投影像の正しい倍率にはなっていないので(たとえば、写真として二次元画像が与えられた場合、この写真の引き伸ばし倍率によって、物体像20の大きさは変わってしまう)、実用上の問題は全く生じない。   However, in the present invention, since the parameter of the position of the projection surface S on the optical axis L (the parameter that affects the magnification of the entire projection image) is set to an arbitrary value, strictly speaking, the position of the projection surface S Is different from the position at the time of shooting. Therefore, if the three-dimensional information of the original object 10 is restored based on the object image 20 on the projection surface S on the assumption of the projection system of FIG. 7, the size of the restored three-dimensional image is the original cubic It does not match the size of the original object 10. However, this is merely a problem of image magnification, and since the magnification of the given two-dimensional image itself is not usually the correct magnification of the projected image at the time of shooting (for example, a two-dimensional image as a photograph) ), The size of the object image 20 changes depending on the enlargement magnification of the photograph), and no practical problem occurs.

なお、図8に示す例からもわかるとおり、投影面S上に重畳表示される円投影像CCbottom,CCtopは、楕円状の閉曲線になるが、物体像20上の円弧状特徴部21,22は、必ずしも閉曲線にはならない。たとえば、図8に示す例の場合、物体の上端面に対応する円弧状特徴部22は、いわゆる壺の口の部分であるため、閉曲線として認識することができ、円投影像CCtopの全体に対しての一致確認を行うことができる。ところが、物体の下端面に対応する円弧状特徴部21は、裏側部分が隠れてしまっているため、円投影像CCbottomに対する一致確認は、手前側の一部分についてのみ行うことになる。   As can be seen from the example shown in FIG. 8, the circular projection images CCbottom and CCtop superimposed and displayed on the projection surface S are elliptical closed curves, but the arc-shaped features 21 and 22 on the object image 20 are , It does not necessarily become a closed curve. For example, in the case of the example shown in FIG. 8, the arc-shaped feature 22 corresponding to the upper end surface of the object is a so-called phlegm mouth portion, so that it can be recognized as a closed curve, and the entire circular projection image CCtop can be recognized. Can be confirmed. However, since the back side portion of the arc-shaped feature portion 21 corresponding to the lower end surface of the object is hidden, confirmation of matching with the circular projection image CCbottom is performed only for a portion on the near side.

また、実用上、両者の一致確認は、所定精度で行えば十分である。壺などの回転体陶器の場合、ロクロを用いて制作されるのが一般的であるので、上端面や下端面は、かなり真円に近いものになる。しかし、三次元物体10が、工芸作品である以上、上端面や下端面は完全な真円にはならない。また、与えられた二次元画像の解像度が低い場合、物体像20上の円弧状特徴部を目視できる精度も限られてくる。したがって、実用上は、これらの点を考慮して、オペレータが許容範囲内の精度で両者が重なったと判断した時点で、一致の判定を下してかまわない。   Further, in practice, it is sufficient that the matching between the two is performed with a predetermined accuracy. In the case of rotating earthenware such as pots, it is common to make them using lokuro, so the top and bottom surfaces are very close to a perfect circle. However, as long as the three-dimensional object 10 is a craft, the upper end surface and the lower end surface are not completely perfect circles. In addition, when the resolution of a given two-dimensional image is low, the accuracy with which the arc-shaped feature on the object image 20 can be viewed is limited. Therefore, in practical use, when these points are considered and the operator determines that the two overlap each other with an accuracy within an allowable range, the determination of coincidence may be made.

<<< §2.後半段階:三次元情報の作成 >>>
続いて、本発明の後半段階の基本原理を説明する。上述した前半段階の目的は、図7に示すような投影条件、すなわち、投影面Sおよび視点Eを決定することにあり、図12に示すような画面上での一致判定が得られた時点で、この目的は達成させられたことになる。この時点で、投影面S上には、与えられた二次元画像が配置されており、この二次元画像の中心点は、点G(光軸の位置)に一致している。また、図7に示されている参照円CbottomおよびCtopは、それぞれ復元しようとしている三次元物体10の下端面および上端面の輪郭に一致している。逆に言えば、§1で述べた前半段階が終了した段階では、復元対象となる三次元物体10の上下両端面に関する情報しか得られていないことになる。§2で述べる後半段階の目的は、この上下両端面の間に存在する三次元情報を作成することである。
<<< §2. Second half: Creation of 3D information >>>
Next, the basic principle of the latter half of the present invention will be described. The purpose of the first half stage described above is to determine the projection conditions as shown in FIG. 7, that is, the projection plane S and the viewpoint E, and when the coincidence determination on the screen as shown in FIG. 12 is obtained. This objective has been achieved. At this time, the given two-dimensional image is arranged on the projection surface S, and the center point of the two-dimensional image coincides with the point G (the position of the optical axis). Further, the reference circles Cbottom and Ctop shown in FIG. 7 respectively coincide with the contours of the lower end surface and the upper end surface of the three-dimensional object 10 to be restored. In other words, only the information about the upper and lower end surfaces of the three-dimensional object 10 to be restored is obtained at the stage where the first half stage described in §1 is completed. The purpose of the second half stage described in §2 is to create three-dimensional information existing between the upper and lower end faces.

この後半段階の最初に行うプロセスは、投影面S上に配置されている物体像20の片側側面の輪郭線を抽出するプロセスである。具体的には、図12に示す図において、物体像20として示されている壺の上面と下面とを結ぶ右側面の輪郭線もしくは左側面の輪郭線を抽出する処理を行うことになる。図13は、この壺の右側面の輪郭線CCside(太線で示す)を抽出した状態を示す図である。この輪郭線CCsideは、円投影像CCtop,CCbottom間を連結する線ということになる。物体像20は、基本的に回転体の投影像であるため、原理的には、右側面の輪郭線と左側面の輪郭線とは鏡像の関係になるので、いずれか一方のみを抽出すれば十分である。もちろん、精度を高めるため、両方の輪郭線を抽出した上で、両者の鏡像関係を考慮した平均輪郭線を求めるようなことも可能である。   The process performed at the beginning of the latter half is a process of extracting the contour line on one side surface of the object image 20 arranged on the projection surface S. Specifically, in the diagram shown in FIG. 12, processing is performed to extract the right side outline or the left side outline connecting the upper surface and the lower surface of the eyelid shown as the object image 20. FIG. 13 is a diagram illustrating a state in which a contour line CCside (indicated by a thick line) on the right side surface of the bag is extracted. This contour line CCside is a line connecting the circular projection images CCtop and CCbottom. Since the object image 20 is basically a projection image of a rotating body, in principle, the right-side contour line and the left-side contour line have a mirror image relationship, so if only one of them is extracted. It is enough. Of course, in order to improve accuracy, it is possible to obtain an average contour line considering both mirror images after extracting both contour lines.

輪郭線CCsideを抽出する最も直接的な方法は、二次元画像上で行われたオペレータによるトレース操作の軌跡に基づいて、輪郭線を抽出する方法である。たとえば、図12に示すように、投影面S上に物体像20を配置した状態をディスプレイ画面上に表示し(円投影像CCtop,CCbottomの重畳表示は必ずしも必要ではない)、何らかの入力デバイスを利用して、オペレータに物体像20の片側側面の輪郭線をトレースする操作を行わせ、その軌跡の座標値を逐次記録してゆけばよい。このとき、トレースが完了した部分を太線で表示するなどの方法をとれば、オペレータにトレース操作の経過をリアルタイムで提示することができ、トレース操作完了時には、ディスプレイ画面上に図13に示すような画像が表示されることになる。図示の例では、投影面S上に、αβ二次元座標系が定義されており、抽出された輪郭線CCsideは、(α,β)の形式の座標値をもった点の集合からなるデータとして定義される。   The most direct method for extracting the contour line CCside is a method for extracting a contour line based on the trace of the trace operation performed by the operator on the two-dimensional image. For example, as shown in FIG. 12, the state in which the object image 20 is arranged on the projection surface S is displayed on the display screen (the superimposed display of the circular projection images CCtop and CCbottom is not always necessary), and some input device is used. Then, the operator may perform an operation of tracing the contour line on one side surface of the object image 20 and sequentially record the coordinate values of the locus. At this time, if a method such as displaying a portion where the trace is completed with a thick line is taken, the progress of the trace operation can be presented to the operator in real time, and when the trace operation is completed, the display screen as shown in FIG. An image will be displayed. In the illustrated example, an αβ two-dimensional coordinate system is defined on the projection plane S, and the extracted contour line CCside is data consisting of a set of points having coordinate values in the form of (α, β). Defined.

一方、輪郭線CCsideの抽出作業を、コンピュータによって自動的に実行させることも可能である。図12に示すような二次元画像は、αβ二次元座標系上の画素配列によって構成されており、物体像20は、個々の画素の画素値によって表現されていることになる。そこで、この二次元画像を構成する個々の画素の画素値の差(背景部分と壺部分の差)に基づいて、コンピュータに輪郭線CCsideを自動抽出する処理を実行させることができる。このような輪郭線の自動抽出の技術は既に公知の技術であるため、ここでは詳しい説明は省略する。   On the other hand, it is also possible to automatically execute the contour CCside extraction operation by a computer. A two-dimensional image as shown in FIG. 12 is configured by a pixel array on an αβ two-dimensional coordinate system, and the object image 20 is expressed by pixel values of individual pixels. Therefore, it is possible to cause the computer to execute a process of automatically extracting the contour line CCside based on the difference between the pixel values of the individual pixels constituting the two-dimensional image (difference between the background portion and the heel portion). Since such a technique for automatically extracting the contour line is a known technique, a detailed description thereof is omitted here.

さて、こうして、投影面S上に配置された物体像20の片側側面の輪郭線CCsideが抽出できたら、この二次元の輪郭線CCsideの情報を利用して、三次元情報の復元を行う。すなわち、図7に示すように、既に前半段階のプロセスにより投影面Sおよび視点Eが定まっているので、視点Eを基準として投影面Sへの透視投影を行うことにより、投影面S上に二次元の輪郭線CCsideが得られるような回転体の三次元情報を、XYZ三次元座標系上のZ軸を中心とする位置に作成するのである。   Now, when the contour line CCside of the one side surface of the object image 20 arranged on the projection surface S can be extracted in this way, the information of the two-dimensional contour line CCside is used to restore the three-dimensional information. That is, as shown in FIG. 7, since the projection plane S and the viewpoint E have already been determined by the process in the first half, by performing perspective projection onto the projection plane S with the viewpoint E as a reference, two projections on the projection plane S are obtained. The three-dimensional information of the rotator so that the three-dimensional contour line CCside can be obtained is created at a position about the Z axis on the XYZ three-dimensional coordinate system.

たとえば、図14に示すように、XYZ三次元座標系上に、三次元の輪郭線Csideを求めることができたとしよう。この図14に示す三次元の輪郭線Csideは、図13に示す二次元の輪郭線CCsideに対応するものであり、三次元の輪郭線Csideを、視点Eを基準として投影面Sへ透視投影すると、投影面S上に二次元の輪郭線CCsideが得られる、という幾何学的な関係にある。この図14に示す三次元の輪郭線Csideは、視点Eから壺を観察したときに輪郭線として把握できる線であり、三次元の形状をもった壺にとっては、その側面上に描かれた1本の線にすぎない。このような三次元の輪郭線Csideを定義することができれば、この輪郭線Csideに接する円C1〜Cnを図示のように定義することにより、この壺の三次元形状を示すワイヤーフレームが形成され、このワイヤーフレームに基づいて三次元情報を作成することが可能になる。   For example, assume that a three-dimensional contour Cside can be obtained on an XYZ three-dimensional coordinate system as shown in FIG. The three-dimensional contour line Cside shown in FIG. 14 corresponds to the two-dimensional contour line CCside shown in FIG. 13, and the three-dimensional contour line Cside is perspectively projected onto the projection plane S with the viewpoint E as a reference. The geometric relationship is that a two-dimensional contour line CCside is obtained on the projection plane S. The three-dimensional contour line Cside shown in FIG. 14 is a line that can be grasped as a contour line when observing the eyelid from the viewpoint E, and for the eyelid having a three-dimensional shape, 1 drawn on the side surface thereof. It's just a book line. If such a three-dimensional contour Cside can be defined, by defining the circles C1 to Cn in contact with the contour Cside as shown in the figure, a wire frame indicating the three-dimensional shape of the heel is formed. Three-dimensional information can be created based on this wire frame.

このワイヤーフレームを構成する個々の円C1〜Cnは、復元する物体の三次元構造を定める円になるため、ここでは「構造円」と呼ぶことにする。図14には、参照円Cbottomと参照円Ctopとの間に、n個の構造円C1,C2,C3,…,Ci,…,Cnが定義された状態が示されている。これらの構造円C1〜Cnは、いずれもZ軸に直交する所定平面に含まれ、Z軸上に中心点をもった円である。なお、実用上は、参照円Cbottom,Ctopも、構造円の一部として取り扱い、合計(n+2)個の構造円によって、復元対象となる物体の三次元情報を定義するのが好ましい。ここで、参照円Cbottom,Ctopの半径Rbottom,Rtopの値は、§1で述べた前半段階のプロセスで既に定まっているが、n個の構造円C1,C2,C3,…,Ci,…,Cnについての半径R1,R2,R3,…,Ri,…,Rnは、それぞれ各構造円が輪郭線Csideに接するという条件によって定められることになる。   Since the individual circles C1 to Cn constituting the wire frame are circles that define the three-dimensional structure of the object to be restored, they are referred to as “structural circles” here. FIG. 14 shows a state where n structural circles C1, C2, C3,..., Ci,..., Cn are defined between the reference circle Cbottom and the reference circle Ctop. These structural circles C1 to Cn are all included in a predetermined plane orthogonal to the Z axis and have a center point on the Z axis. In practice, it is preferable that the reference circles Cbottom and Ctop are also handled as part of the structure circle, and the three-dimensional information of the object to be restored is defined by a total of (n + 2) structure circles. Here, the values of the radii Rbottom and Rtop of the reference circles Cbottom and Ctop are already determined in the first half process described in §1, but the n structural circles C1, C2, C3,. The radius R1, R2, R3,..., Ri,..., Rn for Cn is determined by the condition that each structural circle is in contact with the contour line Cside.

ところで、図13に示す二次元の輪郭線CCsideから、図14に示す三次元の輪郭線Csideを直接的に求めることはできない。なぜなら、XYZ三次元座標系上に輪郭線Csideを定義するためには三次元の情報が必要であるのに対して、投影面S上で求めた輪郭線CCsideには二次元の情報しか含まれていないからである。別言すれば、XYZ三次元座標系上に既知の三次元図形が存在する場合、投影面Sと視点Eさえ定めれば、この三次元図形に対して透視投影を行うことにより、投影面S上に当該三次元図形の二次元投影像を求めることは可能である。しかしながら、逆に、投影面S上に既知の二次元図形が存在する場合、視点Eを定めたとしても、当該視点Eを基準とした透視投影によって当該二次元図形が得られるような三次元図形を、XYZ三次元座標系上に一義的に求めることはできないのである。   Incidentally, the three-dimensional contour Cside shown in FIG. 14 cannot be obtained directly from the two-dimensional contour CCside shown in FIG. This is because, in order to define the contour Cside on the XYZ three-dimensional coordinate system, three-dimensional information is required, whereas the contour CCside obtained on the projection plane S contains only two-dimensional information. Because it is not. In other words, when a known three-dimensional figure exists on the XYZ three-dimensional coordinate system, the projection plane S can be obtained by performing perspective projection on the three-dimensional figure as long as the projection plane S and the viewpoint E are determined. It is possible to obtain a two-dimensional projection image of the three-dimensional figure on the top. However, conversely, when a known two-dimensional figure exists on the projection surface S, even if the viewpoint E is determined, the three-dimensional figure can be obtained by perspective projection based on the viewpoint E. Cannot be uniquely determined on the XYZ three-dimensional coordinate system.

ただ、本発明の場合、復元対象となる元の物体が回転体である、という大前提があるため、この大前提を条件に組み入れることにより、図13に示す二次元の輪郭線CCsideから、図14に示す三次元の輪郭線Csideを求めることが可能になる。以下、その原理と具体的な手順を説明する。   However, in the case of the present invention, since there is a major premise that the original object to be restored is a rotating body, by incorporating this major premise into the condition, the two-dimensional contour CCside shown in FIG. The three-dimensional contour line Cside shown in FIG. The principle and specific procedure will be described below.

いま、図15の斜視図に示されているように、XYZ三次元座標系上に回転体からなる三次元物体10(壺)が配置されているものとしよう。ここで、この壺の中心軸はZ軸に一致し、下端面がXY平面に一致するものとしよう。別言すれば、図示の壺は、原点Oを中心として、床面XY上に置かれていることになる。そして、図のように視点Eおよび光軸Lを定め、この壺を所定の投影面Sに透視投影したとすると、投影面S上には、たとえば、図16に示すような物体像20が得られることになる。ここで、投影面Sは、光軸Lに直交する任意の平面である。   Now, as shown in the perspective view of FIG. 15, it is assumed that a three-dimensional object 10 (10) made of a rotating body is arranged on an XYZ three-dimensional coordinate system. Here, it is assumed that the central axis of the ridge coincides with the Z axis and the lower end surface coincides with the XY plane. In other words, the illustrated basket is placed on the floor XY with the origin O as the center. Then, if the viewpoint E and the optical axis L are defined as shown in the figure, and this eyelid is perspective-projected on a predetermined projection surface S, an object image 20 as shown in FIG. 16 is obtained on the projection surface S, for example. Will be. Here, the projection surface S is an arbitrary plane orthogonal to the optical axis L.

前述の輪郭線抽出のプロセスでは、図16に示されている物体像20の右側側面について、二次元の輪郭線CCsideが抽出される。図15に破線で示す三次元の輪郭線Csideは、この二次元の輪郭線CCsideに対応した輪郭線であり、視点Eから眺めたときに、この壺の最も右側として観察される位置を示す線ということができる。上述したとおり、投影面Sと視点Eさえ定めれば、三次元の輪郭線Csideから二次元の輪郭線CCsideを求めることはできるが、その逆はできない。   In the contour line extraction process described above, a two-dimensional contour line CCside is extracted from the right side surface of the object image 20 shown in FIG. A three-dimensional contour Cside indicated by a broken line in FIG. 15 is a contour corresponding to the two-dimensional contour CCside, and is a line indicating a position observed as the rightmost side of the eyelid when viewed from the viewpoint E. It can be said. As described above, as long as the projection plane S and the viewpoint E are determined, the two-dimensional contour CCside can be obtained from the three-dimensional contour Cside, but the reverse is not possible.

そこで、図15に示すように、この壺10の任意の高さhの位置に構造円Cを定義する。この構造円Cは、「Z=h」平面に含まれ、Z軸上に中心点をもった円であり、その半径Rは、この壺10の高さhの位置における半径に等しい。この構造円Cと三次元の輪郭線Csideとの交点位置に点Pを定義する。この点PのX座標値をxp、Y座標値をypとすれば、点Pは、(xp,yp,h)なる三次元座標値で示される点ということになる。一方、この点Pに対応する投影面S上での投影点を点PPとすれば、図16に示されているとおり、点PPは二次元の輪郭線CCside上の1点ということになる。ここで、投影面S上に、図示のように、αβ二次元座標系を定義し、点PPのα座標値をαpp、β座標値をβppとすれば、点PPは、(αpp,βpp)なる二次元座標値で示される点ということになる。   Therefore, as shown in FIG. 15, a structural circle C is defined at an arbitrary height h of the ridge 10. This structural circle C is included in the “Z = h” plane and has a center point on the Z axis, and its radius R is equal to the radius at the height h of the ridge 10. A point P is defined at the intersection position between the structural circle C and the three-dimensional outline Cside. If the X coordinate value of this point P is xp and the Y coordinate value is yp, the point P is a point indicated by a three-dimensional coordinate value (xp, yp, h). On the other hand, if the projection point on the projection plane S corresponding to the point P is a point PP, the point PP is one point on the two-dimensional contour line CCside as shown in FIG. Here, if an αβ two-dimensional coordinate system is defined on the projection plane S as shown in the figure, and the α coordinate value of the point PP is αpp and the β coordinate value is βpp, the point PP is (αpp, βpp) This is a point indicated by the two-dimensional coordinate value.

ここでも、やはり、点P(xp,yp,h)から点PP(αpp,βpp)を求めることはできるが、逆に、点PP(αpp,βpp)から点P(xp,yp,h)を一義的に求めることはできない。点PPと点Pとの間には、「視点Eと点PPとを結ぶ直線上に点Pが位置する」という関係が成り立つが、投影面S上の物体像20では、奥行きの情報が失われているので、点Pがこの直線上のどこに存在する点であるかを特定することができないのである。換言すれば、失われた奥行きの情報をカバーすることができる何らかの情報があれば、点Pの位置を特定することが可能になる。   Again, the point PP (αpp, βpp) can be obtained from the point P (xp, yp, h), but conversely, the point P (xpp, yp, h) is obtained from the point PP (αpp, βpp). It cannot be determined uniquely. The relationship that the point P is located on the straight line connecting the viewpoint E and the point PP is established between the point PP and the point P, but the depth information is lost in the object image 20 on the projection plane S. Therefore, it is impossible to specify where the point P exists on this straight line. In other words, if there is any information that can cover the lost depth information, the position of the point P can be specified.

そこで前述したように、図15に示す壺10が回転体である、という大前提となる条件を考慮してみる。本願発明者は、この「元の三次元物体が回転体である」という条件を付加することによって、失われた奥行きの情報をカバーできることを見出したのである。   Therefore, as described above, consider the main premise that the cage 10 shown in FIG. 15 is a rotating body. The inventor of the present application has found that the information on the lost depth can be covered by adding the condition that “the original three-dimensional object is a rotating body”.

そのために、まず、図15に示すように、構造円Cについて、点Pにおける接線ベクトルTなるものを定義する。このような接線ベクトルTを定義するには、図示のように先端点Qを定めてやればよい。接線ベクトルTは、構造円Cの接線であるから、当然、「Z=h」平面に含まれるベクトルとなり、線分P/Qは「Z=h」平面に含まれることになる。したがって、先端点Qは、(xq,yq,h)なる三次元座標値で示される点になる。一方、視点Eを基準として、この接線ベクトルTに対応する投影面S上での投影ベクトルを求めれば、図16に示すように、投影ベクトルTTが得られる。このような投影ベクトルTTを定義するには、やはり先端点QQを定めてやればよい。この先端点QQは、先端点Qを投影面S上に投影した投影点となり、(αqq,βqq)なる二次元座標値で示される点になる。   For this purpose, first, as shown in FIG. 15, a structural circle C that is a tangent vector T at a point P is defined. In order to define such a tangent vector T, a tip point Q may be determined as shown in the figure. Since the tangent vector T is a tangent to the structural circle C, it is naturally a vector included in the “Z = h” plane, and the line segment P / Q is included in the “Z = h” plane. Therefore, the tip point Q is a point indicated by a three-dimensional coordinate value (xq, yq, h). On the other hand, if a projection vector on the projection plane S corresponding to the tangent vector T is obtained with the viewpoint E as a reference, a projection vector TT is obtained as shown in FIG. In order to define such a projection vector TT, the tip point QQ may be determined. The tip point QQ is a projection point obtained by projecting the tip point Q on the projection plane S, and is a point indicated by a two-dimensional coordinate value (αqq, βqq).

結局、図15に示す接線ベクトルTが、XYZ三次元座標系上で定義される三次元ベクトルであるのに対して、図16に示す投影ベクトルTTは、αβ二次元座標系上で定義される二次元ベクトルということになり、線分PP/QQは、投影面Sに含まれることになる。ここで留意すべき点は、図16に示す投影ベクトルTTは、点PPにおける輪郭線CCsideの接線になる、という点である。   After all, the tangent vector T shown in FIG. 15 is a three-dimensional vector defined on the XYZ three-dimensional coordinate system, whereas the projection vector TT shown in FIG. 16 is defined on the αβ two-dimensional coordinate system. This means a two-dimensional vector, and the line segment PP / QQ is included in the projection plane S. The point to be noted here is that the projection vector TT shown in FIG. 16 is a tangent to the contour line CCside at the point PP.

その理由は、図15の斜視図において、点Pにおける壺10の接面を考えてみれば容易に理解できる。すなわち、1枚の平面を点Pの位置において、壺10に接触させたとすれば、接線ベクトルTは、当然、この接面上に含まれる。ここで、図16に示す投影図上で、この接面がどのように見えるかを考えてみる。図15に破線で示す輪郭線Csideが、図16の投影図上では輪郭線CCsideに対応することになるので、図15に示す点Pにおいて壺10に接触する接面は、図16の投影図上では点PPにおいて輪郭線CCsideに接する接線に対応することになる。接線ベクトルTは、接面に含まれるベクトルであるから、その投影像である投影ベクトルTTは、この接面に対応する直線に含まれるベクトルということになり、結局、点PPにおける輪郭線CCsideの接線ということになる。したがって、投影ベクトルTTも、接線ベクトルTTと呼ぶことができる。   The reason can be easily understood by considering the contact surface of the flange 10 at the point P in the perspective view of FIG. That is, if one plane is brought into contact with the ridge 10 at the position of the point P, the tangent vector T is naturally included on this tangent plane. Now, consider how this tangent surface looks on the projection shown in FIG. The contour line Cside indicated by a broken line in FIG. 15 corresponds to the contour line CCside in the projection view of FIG. 16, so that the contact surface that contacts the ridge 10 at the point P shown in FIG. Above, it corresponds to the tangent line that touches the contour line CCside at the point PP. Since the tangent vector T is a vector included in the tangent plane, the projection vector TT that is a projection image thereof is a vector included in a straight line corresponding to the tangent plane, and eventually the contour line CCside at the point PP is It will be tangent. Therefore, the projection vector TT can also be called a tangent vector TT.

図17は、図15に示す三次元の接線ベクトルTと図16に示す二次元の接線ベクトルTTとの位置関係を示す斜視図である。ここで、接線ベクトルTは、構造円Cに点Pにおいて接触する三次元の接線ベクトルであり、接線ベクトルTTは、輪郭線CCsideに点PPにおいて接触する二次元の接線ベクトルということになる。   FIG. 17 is a perspective view showing the positional relationship between the three-dimensional tangent vector T shown in FIG. 15 and the two-dimensional tangent vector TT shown in FIG. Here, the tangent vector T is a three-dimensional tangent vector that contacts the structural circle C at the point P, and the tangent vector TT is a two-dimensional tangent vector that contacts the contour CCside at the point PP.

前述したとおり、図17において、「点Pを、視点Eを基準として投影面S上へ投影すると、点PPが得られる」という投影条件のみを用いたとすると、二次元座標しかもたない点PP(αpp,βpp)に基づいて、三次元座標をもつ対応点P(xp,yp,h)を求めることはできない。しかしながら、「壺10が回転体である」という前提下で成り立つ「投影ベクトルTとTTとの関係」を条件として加えることにより、点PP(αpp,βpp)に対応する対応点P(xp,yp,h)を求めることが可能になる。   As described above, in FIG. 17, if only the projection condition that “the point PP is obtained by projecting the point P onto the projection surface S with the viewpoint E as a reference” is used, the point PP (2 having only two-dimensional coordinates is used. Based on αpp, βpp), the corresponding point P (xp, yp, h) having three-dimensional coordinates cannot be obtained. However, by adding as a condition “relationship between projection vector T and TT” that is established under the premise that “壺 10 is a rotating body”, corresponding point P (xp, yp) corresponding to point PP (αpp, βpp) , H).

すなわち、点PPに対応する対応点Pは、「XYZ三次元座標系上において、Z軸に直交する所定平面に含まれ、Z軸上に中心点をもち、対応点Pを通る構造円Cを定義し、この構造円Cについての対応点Pにおける接線ベクトルTを求め、この接線ベクトルTを視点Eを基準として投影面Sへ透視投影することにより投影面S上に得られる二次元ベクトルTTが、点PPにおける輪郭線CCsideの接線となる」という条件を付加することにより求めることができるようになる。ここで、点PPにおける輪郭線CCsideの接線ベクトルTTを、その先端点QQを定めることにより、2点PP/QQを結ぶ投影面S上の線分として定義し、対応点Pにおける構造円Cの接線ベクトルTを、その先端点Qを定めることにより、2点P/Qを結ぶXYZ三次元座標系上の線分として定義すれば、上記付加条件は、「対応点Pおよび先端点Qを、視点Eを基準として投影面Sへ透視投影することにより得られる点が、それぞれ点PPおよび点QQに一致する」という条件に言い換えることができる。   That is, the corresponding point P corresponding to the point PP is “a structural circle C included in a predetermined plane orthogonal to the Z axis on the XYZ three-dimensional coordinate system, having a center point on the Z axis, and passing through the corresponding point P. A two-dimensional vector TT obtained on the projection plane S is obtained by obtaining a tangent vector T at the corresponding point P with respect to the structural circle C, and perspectively projecting the tangent vector T onto the projection plane S with the viewpoint E as a reference. , A tangent to the contour line CCside at the point PP ”can be added. Here, the tangent vector TT of the contour line CCside at the point PP is defined as a line segment on the projection plane S connecting the two points PP / QQ by defining the tip point QQ, and the structure circle C of the corresponding point P is defined. If the tangent vector T is defined as a line segment on the XYZ three-dimensional coordinate system connecting the two points P / Q by defining the tip point Q, the additional condition is that “the corresponding point P and the tip point Q are In other words, the points obtained by perspective projection onto the projection surface S with the viewpoint E as a reference coincide with the points PP and QQ, respectively.

続いて、上述した原理により、二次元座標しかもたない点PP(αpp,βpp)に基づいて、三次元座標をもつ対応点P(xp,yp,h)を演算により求めることができることを、図18〜図20に掲載された式を用いて説明する。   Subsequently, according to the principle described above, the corresponding point P (xp, yp, h) having three-dimensional coordinates can be obtained by calculation based on the point PP (αpp, βpp) having only two-dimensional coordinates. 18 to 20 will be used for explanation.

まず、XYZ三次元座標系における構造円Cの方程式は、図18(a) に示すように、式(1) および式(2) で表される。ここで、Rは、構造円Cの半径であり、hは、図17に示すように、構造円Cの配置位置(高さ)を示す値である。次に、式(1) をYについて解いた後、両辺をXで微分すると、図18(b) に示す式(3) が得られる。ここで、微分値dY/dXは、構造円C上の座標値(X,Y,h)なる点における構造円Cの接線の「Z=h」平面内での向きを示す値ということになる。したがって、接線ベクトルTの「Z=h」平面内での向きは、対応点P(xp,yp,h)のXY座標値を式(3) に代入し、更に、対応点Pが構造円C上の1点である条件を示す式「xp+yp=R」を適用することにより、図18(c) に示すような式(4) として与えられる。一方、接線ベクトルTが、2点P(xp,yp,h),Q(xq,yq,h)を両端点とする線分によって表されることを考慮すると、この接線ベクトルTの「Z=h」平面内での向きは、式(5) のように表現することも可能である。そこで、式(4) の右辺と式(5) の右辺とを等しいとおくことにより、図18(c) の最下行に示されているように、
−xp/yp=(yq−yp)/(xq−xp) なる式(6) が得られる。
この式(6) は、接線ベクトルTが構造円C上の点Pにおける接線であることを示す条件式ということになる。
First, the equation of the structural circle C in the XYZ three-dimensional coordinate system is expressed by equations (1) and (2) as shown in FIG. Here, R is the radius of the structural circle C, and h is a value indicating the arrangement position (height) of the structural circle C as shown in FIG. Next, after solving equation (1) for Y, both sides are differentiated by X to obtain equation (3) shown in FIG. 18 (b). Here, the differential value dY / dX is a value indicating the direction in the “Z = h” plane of the tangent of the structural circle C at the point of the coordinate value (X, Y, h) on the structural circle C. . Therefore, the orientation of the tangent vector T in the “Z = h” plane is obtained by substituting the XY coordinate value of the corresponding point P (xp, yp, h) into the equation (3), and the corresponding point P By applying the expression “xp 2 + yp 2 = R 2 ” indicating the condition which is the above one point, the expression (4) as shown in FIG. On the other hand, considering that the tangent vector T is represented by a line segment having two points P (xp, yp, h) and Q (xq, yq, h) as both end points, “Z = The orientation in the “h” plane can also be expressed as in equation (5). Therefore, by setting the right side of equation (4) and the right side of equation (5) equal, as shown in the bottom row of FIG. 18 (c),
-Xp / yp = (yq-yp) / (xq-xp) The following formula (6) is obtained.
This expression (6) is a conditional expression indicating that the tangent vector T is a tangent at the point P on the structure circle C.

続いて、図17に破線で示す投影線Lp,Lqの方程式を考える。その前に、投影面S上の点PP(αpp,βpp)および点QQ(αqq,βqq)の座標値は、αβ二次元座標系上の座標値なので、これをXYZ三次元座標系上の座標値に変換しておくようにする。投影面SのXYZ三次元座標系上での位置は、既に§1で述べた前半段階において決定されており、投影面SをXYZを用いた方程式で表すことができる。したがって、この投影面S上に定義されたαβ二次元座標系上の座標値を、XYZ三次元座標系上の座標値に変換する処理は、単純な座標変換演算として行うことができ、2点PP(αpp,βpp)およびQQ(αqq,βqq)は、2点PP(xpp,ypp,zpp)およびQQ(xqq,yqq,zqq)に変換できる。   Next, consider the equations of the projection lines Lp and Lq indicated by broken lines in FIG. Before that, since the coordinate values of the point PP (αpp, βpp) and the point QQ (αqq, βqq) on the projection plane S are coordinate values on the αβ two-dimensional coordinate system, these are the coordinates on the XYZ three-dimensional coordinate system. Try to convert it to a value. The position of the projection plane S on the XYZ three-dimensional coordinate system has already been determined in the first half stage described in §1, and the projection plane S can be expressed by an equation using XYZ. Therefore, the process of converting the coordinate value on the αβ two-dimensional coordinate system defined on the projection plane S into the coordinate value on the XYZ three-dimensional coordinate system can be performed as a simple coordinate conversion operation. PP (αpp, βpp) and QQ (αqq, βqq) can be converted into two-point PP (xpp, ypp, zpp) and QQ (xqq, yqq, zqq).

さて、図17に示す投影線Lpは、3点E(xe,ye,ze)、PP(xpp,ypp,zpp)、P(xp,yp,h)を通る直線であるが、これを2点E(xe,ye,ze)およびPP(xpp,ypp,zpp)を通る直線として捉え、三次元空間上の2点を通る直線の方程式を適用すると、図19(d) に示す3本の式(7-1) ,(7-2) ,(7-3) で表すことができる。ここで、tは媒介変数である。一方、図17に示す投影線Lqは、3点E(xe,ye,ze)、QQ(xqq,yqq,zqq)、Q(xq,yq,h)を通る直線であるが、これを2点E(xe,ye,ze)およびQQ(xqq,yqq,zqq)を通る直線として捉え、三次元空間上の2点を通る直線の方程式を適用すると、図19(d) に示す3本の式(8-1) ,(8-2) ,(8-3) で表すことができる。ここで、sは媒介変数である。   The projected line Lp shown in FIG. 17 is a straight line passing through three points E (xe, ye, ze), PP (xpp, ypp, zpp), and P (xp, yp, h). When the equation of a straight line passing through two points in a three-dimensional space is applied as a straight line passing through E (xe, ye, ze) and PP (xpp, ypp, zpp), three equations shown in FIG. It can be expressed as (7-1), (7-2), (7-3). Here, t is a parameter. On the other hand, the projection line Lq shown in FIG. 17 is a straight line passing through three points E (xe, ye, ze), QQ (xqq, yqq, zqq), and Q (xq, yq, h). If the equation of a straight line passing through two points in a three-dimensional space is applied as a straight line passing through E (xe, ye, ze) and QQ (xqq, yqq, zqq), three equations shown in FIG. It can be expressed by (8-1), (8-2), (8-3). Here, s is a parameter.

また、点P(xp,yp,h)は、「Z=h」平面と投影線Lpとの交点であるから、式(7-3) にZ=hを代入して、tについて解くと、図19(e) に示すように、
t=(h−ze)/(zpp−ze)
なる式(9) が得られ、同様に、点Q(xq,yq,h)は、「Z=h」平面と投影線Lqとの交点であるから、式(8-3) にZ=hを代入して、sについて解くと、図19(e) に示すように、
s=(h−ze)/(zqq−ze)
なる式(10)が得られる。そこで、式(7-1) ,(7-2) に、X=xp,Y=yp,式(9) で求めたtをそれぞれ代入し、式(8-1) ,(8-2) に、X=xq,Y=yq,式(10)で求めたsをそれぞれ代入すると、図19(e) の下段に示す4本の式(11-1),(11-2),(11-3),(11-4)が得られることになる。これらの式は、点P(xp,yp,h)および点Q(xq,yq,h)を、視点E(xe,ye,ze)を基準として投影面S上に投影すると、それぞれ点PP(xpp,ypp,zpp)およびQQ(xqq,yqq,zqq)が得られることを示す式である。
Since the point P (xp, yp, h) is an intersection of the “Z = h” plane and the projection line Lp, substituting Z = h into the equation (7-3) and solving for t As shown in FIG.
t = (h-ze) / (zpp-ze)
Similarly, since the point Q (xq, yq, h) is an intersection of the “Z = h” plane and the projection line Lq, Z = h in the equation (8-3) is obtained. Substituting and solving for s, as shown in FIG.
s = (h-ze) / (zqq-ze)
The following formula (10) is obtained. Therefore, substituting X = xp, Y = yp, and t calculated in equation (9) into equations (7-1) and (7-2), respectively, and into equations (8-1) and (8-2) , X = xq, Y = yq, and substituting s obtained in equation (10), respectively, the four equations (11-1), (11-2), (11- 3) and (11-4) will be obtained. These expressions are obtained by projecting a point P (xp, yp, h) and a point Q (xq, yq, h) onto the projection plane S with the viewpoint E (xe, ye, ze) as a reference, respectively. xpp, ypp, zpp) and QQ (xqq, yqq, zqq) are obtained.

これら4本の式(11-1),(11-2),(11-3),(11-4)を、接線ベクトルTが構造円C上の点Pにおける接線であることを示す条件式(6) に代入すると、図20(f) に示す式(12)が得られる。この式(12)に含まれている変数のうち、xpp,ypp,zppは、点PPの座標値として既知量であり、xqq,yqq,zqqは、点QQの座標値として既知量であり、xe,ye,zeは視点Eの座標値として既知量であるので、未知数hを求めることができる。こうして既知となったhを、式(11-1),(11-2)に代入すれば、未知数であったxp,ypを求めることができる。かくして、二次元座標しかもたない点PP(αpp,βpp)に基づいて、三次元座標をもつ対応点P(xp,yp,h)を演算により求めることができる。また、構造円Cの半径Rは、図20(g) に示すように、R=(xp+yp1/2なる式を用いて算出することができる。 These four expressions (11-1), (11-2), (11-3), and (11-4) are conditional expressions indicating that the tangent vector T is a tangent at the point P on the structure circle C. Substituting into (6) yields equation (12) shown in FIG. 20 (f). Among the variables included in the equation (12), xpp, ypp, zpp are known quantities as the coordinate values of the point PP, xqq, yqq, zqq are known quantities as the coordinate values of the point QQ, Since xe, ye, and ze are known quantities as the coordinate values of the viewpoint E, the unknown number h can be obtained. By substituting h that has become known in this way into equations (11-1) and (11-2), xp and yp that were unknowns can be obtained. Thus, the corresponding point P (xp, yp, h) having three-dimensional coordinates can be obtained by calculation based on the point PP (αpp, βpp) having only two-dimensional coordinates. Further, the radius R of the structural circle C can be calculated using an equation R = (xp 2 + yp 2 ) 1/2 as shown in FIG.

結局、図17に示す投影面S上において、輪郭線CCside上に任意の参照点PPを定義すれば、上述した演算により、これに対応する対応点Pが求まることになり、この対応点Pを通る構造円Cを定めることができる。そこで、輪郭線CCside上に所定間隔で複数n個の参照点PPを定義し、各参照点PPについて、それぞれ対応点Pを求め、各対応点Pについてそれぞれ構造円Cを定義するようにすれば、図14の斜視図に示すように、XYZ三次元座標系に複数n個の構造円C1〜Cnを定義することができる。更に、§1の前半段階で求めた参照円Cbottom,Ctopを構造円として付加すれば、合計(n+2)個の構造円を定義することができる。これら構造円の集合に基づいて、回転体からなる物体の表面データを作成し、これを三次元情報として出力するようにすれば、目的とする三次元物体が復元できたことになる。   After all, if an arbitrary reference point PP is defined on the contour line CCside on the projection plane S shown in FIG. 17, the corresponding point P corresponding to this is obtained by the above-described calculation. A structural circle C can be defined. Therefore, if a plurality of n reference points PP are defined on the contour line CCside at predetermined intervals, the corresponding points P are obtained for each reference point PP, and the structural circle C is defined for each corresponding point P. As shown in the perspective view of FIG. 14, a plurality of n structural circles C1 to Cn can be defined in the XYZ three-dimensional coordinate system. Furthermore, if reference circles Cbottom and Ctop obtained in the first half of §1 are added as structural circles, a total of (n + 2) structural circles can be defined. If the surface data of an object made of a rotating body is created based on a set of these structural circles and is output as three-dimensional information, the target three-dimensional object can be restored.

多数の構造円Cの集合に基づいて、物体の表面データを作成するには、たとえば、図21に示すように、上下に隣接する構造円間に微小な四角形を定義し、多数の四角形の集合によりポリゴン構造体を定義すればよい。図21には、第i番目の構造円Ciと、第(i+1)番目の構造円Ci+1との間に多数の四角形を定義した例が示されている。具体的には、各構造円Ci,Ci+1の円周をそれぞれK等分して、円周上にそれぞれK個の分割点(図では黒点で示す。裏側は省略した。)を定義し、隣接する分割点同士を図示のように連結して多数の四角形を定義すればよい。実際には、隣接する2つの構造円の距離や、隣接する2つの分割点の距離は、微小な値に設定されるので、こうして得られた多数の四角形は、いずれも微小な四角形になり、復元すべき三次元物体は、これら微小な四角形の集合体として表現されることになる。   In order to create surface data of an object based on a set of a large number of structural circles C, for example, as shown in FIG. The polygon structure may be defined by FIG. 21 shows an example in which a large number of squares are defined between the i-th structural circle Ci and the (i + 1) -th structural circle Ci + 1. Specifically, the circumference of each of the structural circles Ci and Ci + 1 is divided into K equal parts, and K division points (shown by black dots in the figure. The back side is omitted) are defined on the circumference and adjacent to each other. What is necessary is just to define many squares by connecting the dividing points to perform like illustration. Actually, the distance between the two adjacent structural circles and the distance between the two adjacent dividing points are set to very small values, so that the large number of squares thus obtained are all small squares, The three-dimensional object to be restored is expressed as an aggregate of these small squares.

<<< §3.本発明の全体手順 >>>
これまで、本発明に係る三次元情報復元の基本原理を、前半段階(§1)と後半段階(§2)とに分けて説明した。ここでは、この基本原理に基づく復元処理の全体手順を通して説明する。
<<< §3. Overall procedure of the present invention >>
So far, the basic principle of the three-dimensional information restoration according to the present invention has been described in the first half (§1) and the second half (§2). Here, the overall procedure of the restoration process based on this basic principle will be described.

図22は、本発明に係る三次元情報復元処理の全体手順を示す流れ図である。なお、本発明はコンピュータを利用して実施することを前提としたものであり、この手順の各ステップはいずれもコンピュータを利用して行われることになる。   FIG. 22 is a flowchart showing the entire procedure of the three-dimensional information restoration process according to the present invention. It should be noted that the present invention is premised on implementation using a computer, and each step of this procedure is performed using a computer.

はじめに、ステップS1において、処理対象となる二次元画像の入力が行われる。この二次元画像は、回転体からなる物体を所定の撮影条件で撮影することによって得られた画像であり、たとえば、図2に示すような物体像20が含まれた二次元画像が写真として与えられた場合、スキャナなどの画像入力装置を用いて、この写真上の二次元画像をデジタルデータとしてコンピュータの記憶装置に取り込む処理が行われる。もちろん、既にデジタル化されている二次元画像が与えられた場合は、これをそのままコンピュータの記憶装置に取り込む処理を行えばよい。たとえば、デジタルカメラで撮影された画像や、製版用に既にデジタル化されている画像などが与えられた場合は、与えられたデジタルデータをそのままコンピュータに取り込めばよい。二次元画像の取り込み倍率は任意でかまわない。これは、図10を参照しながら§1で述べたとおり、投影面Sの光軸L上の位置を任意に設定することになるため、倍率のファクターを考慮する必要がないからである。   First, in step S1, a two-dimensional image to be processed is input. This two-dimensional image is an image obtained by photographing an object made of a rotating body under a predetermined photographing condition. For example, a two-dimensional image including an object image 20 as shown in FIG. 2 is given as a photograph. In such a case, the image input device such as a scanner is used to process the two-dimensional image on the photograph as digital data into the storage device of the computer. Of course, when a two-dimensional image that has already been digitized is given, a process of importing it into the storage device of the computer may be performed. For example, when an image taken with a digital camera or an image that has already been digitized for plate making is given, the given digital data may be taken into the computer as it is. The two-dimensional image capture magnification may be arbitrary. This is because, as described in section 1 with reference to FIG. 10, the position of the projection surface S on the optical axis L is arbitrarily set, so that it is not necessary to consider the factor of magnification.

なお、前述した基本原理は、与えられた二次元画像が、図1に示すような透視投影によって三次元画像10を所定の投影面S上に投影して得られた投影像であることを前提としており、視点Eから投影面Sに下した垂線の足G(別言すれば、光軸Lと投影面Sとの交点G)の位置が、二次元画像の中心点になっている必要がある。一般的なカメラを用いて物体の撮影を行った場合、光軸Lは撮影視野の中心点になるように調整されているため、撮影された二次元画像はこの条件を満たすことになる。   The basic principle described above is based on the premise that the given two-dimensional image is a projection image obtained by projecting the three-dimensional image 10 onto a predetermined projection plane S by perspective projection as shown in FIG. The position of the perpendicular foot G (in other words, the intersection point G of the optical axis L and the projection surface S) from the viewpoint E to the projection surface S needs to be the center point of the two-dimensional image. is there. When an object is photographed using a general camera, the optical axis L is adjusted to be the center point of the photographing field of view, so the photographed two-dimensional image satisfies this condition.

ただ、デジタルカメラでは、手ぶれ補正などを行うために、撮像面に配置されたCCDの一部の画素のみを用いて画像形成を行う機能をもったものがあり、このような機能をもったカメラで撮影された二次元画像に対しては、光軸Lが二次元画像の中心点となるような補正を施すのが好ましい。また、撮影後にトリミングを施して切り出された二次元画像の場合も、撮影時の光軸Lが中心点から外れてしまうので、トリミング前の状態に戻す補正を施すのが好ましい。もっとも、実用上は、点Gが二次元画像の中心点から多少ずれていたとしても、それほど大きな誤差は生じないので、このような補正を行わなくても、大きな支障は生じない。   However, some digital cameras have a function of forming an image using only some of the pixels of the CCD arranged on the imaging surface in order to perform camera shake correction, and the like. It is preferable to perform correction so that the optical axis L becomes the center point of the two-dimensional image. Also, in the case of a two-dimensional image cut out by trimming after shooting, the optical axis L at the time of shooting deviates from the center point, so it is preferable to perform correction to return to the state before trimming. However, in practical use, even if the point G is slightly deviated from the center point of the two-dimensional image, a very large error does not occur. Therefore, even if such correction is not performed, no great trouble occurs.

また、図1に示す実施形態では、二次元画像の輪郭を構成する矩形の上下両辺は、XY平面に平行となっていたため、図2に示す画像上、壺の物体像20は正しい向きに配置されている。通常、床に置かれた物体を撮影する場合、カメラを横もしくは縦に構えて撮影するのが一般的であり、この一般的な方法で撮影された二次元画像であれば、その輪郭を構成する矩形の上下両辺は、XY平面に平行となり、壺の物体像20は正しい向きになる。しかしながら、カメラを斜め45°に構えて撮影したような二次元画像の場合、壺の物体像20は、傾いた状態で写っていることになるので、予め回転補正を行っておくのが好ましい。もっとも、実用上は、二次元画像を肉眼で観察したときに違和感が生じない向きに物体像20が配置されていれば、撮影時のカメラの位置が多少傾いていたとしても、大きな支障は生じない。   Further, in the embodiment shown in FIG. 1, since the upper and lower sides of the rectangle constituting the outline of the two-dimensional image are parallel to the XY plane, the object image 20 of the eyelid is arranged in the correct orientation on the image shown in FIG. Has been. Usually, when shooting an object placed on the floor, it is common to hold the camera horizontally or vertically, and if it is a two-dimensional image shot by this general method, its outline is composed. The upper and lower sides of the rectangle to be parallel are parallel to the XY plane, so that the eyelid object image 20 is in the correct orientation. However, in the case of a two-dimensional image taken with the camera held at an angle of 45 °, the eyelid object image 20 appears in an inclined state, so it is preferable to perform rotation correction in advance. However, in practice, if the object image 20 is arranged in a direction that does not cause a sense of incongruity when a two-dimensional image is observed with the naked eye, even if the position of the camera at the time of shooting is slightly tilted, a great trouble occurs. Absent.

次のステップS2において、距離fの入力が行われる。この距離fとは、「視点と投影面との距離」を示すパラメータであり、図1に示す投影系では、視点Eと点Gとの間の距離になる。§1で述べたとおり、この距離fは、投影面S上の物体像の形状、大きさ、位置を支配するパラメータになるため、本発明では可変パラメータとせず、予め固定パラメータとして入力することにしている。この距離fは、物体の撮影時における撮影条件の1つとして与えられるパラメータであり、撮影条件を示すデータとして既知情報である必要がある。別言すれば、本発明によって二次元の物体像から当該物体の三次元情報を復元するためには、当該物体の撮影環境における距離fを示す情報を何らかの形で取得する必要がある。   In the next step S2, the distance f is input. This distance f is a parameter indicating “distance between the viewpoint and the projection plane”, and is the distance between the viewpoint E and the point G in the projection system shown in FIG. As described in §1, the distance f is a parameter that governs the shape, size, and position of the object image on the projection surface S. Therefore, in the present invention, the distance f is not set as a variable parameter but is input as a fixed parameter in advance. ing. This distance f is a parameter given as one of shooting conditions at the time of shooting an object, and needs to be known information as data indicating the shooting conditions. In other words, in order to restore the three-dimensional information of the object from the two-dimensional object image according to the present invention, it is necessary to acquire information indicating the distance f in the photographing environment of the object in some form.

既に述べたとおり、物体の撮影を一般的なカメラで行った場合、投影面Sと視点Eとの距離fは、このカメラの焦点距離に対応する値となるので、撮影時に用いたカメラの焦点距離のデータが残っていれば、距離fを示す情報が残っていることになる。また、ステップS2で入力する値は、必ずしも距離fそのものを示すデータである必要はなく、距離fを何らかの形で示すことができるデータであればよい。たとえば、撮影時に用いたカメラの画角の情報が残されていれば、距離fを算出することが可能であるので、ステップS2では、この画角の情報を入力するようにしてもかまわない。なお、撮影時の情報が全く残されていない場合であっても、ステップS1で入力した二次元画像を解析することによって、撮影時の焦点距離fの推定値を求めることができるのであれば、この推定値を距離fとして利用することも可能である。   As described above, when an object is photographed with a general camera, the distance f between the projection plane S and the viewpoint E is a value corresponding to the focal length of the camera, and thus the focus of the camera used at the time of photographing. If the distance data remains, information indicating the distance f remains. Further, the value input in step S2 does not necessarily need to be data indicating the distance f itself, and may be data that can indicate the distance f in some form. For example, if the information on the angle of view of the camera used at the time of photographing remains, the distance f can be calculated. Therefore, in step S2, the information on the angle of view may be input. Even if no information is left at the time of shooting, if the estimated value of the focal length f at the time of shooting can be obtained by analyzing the two-dimensional image input in step S1, It is also possible to use this estimated value as the distance f.

一般に、プロのカメラマンは、写真撮影を行う際に、個々の写真ごとに撮影条件をメモしておくことが多い。メモ対象となる撮影条件には、通常、日付、照明環境、露出値、シャッター速度などの値とともに、用いたカメラの機種やレンズの型番などを示す情報、すなわち、撮影時に用いたカメラの焦点距離を示す情報が含まれている。したがって、雑誌やカタログに掲載された陶器などの商用写真には、焦点距離を示す情報が残っていることが多い。もちろん、本発明の実施を前提として写真撮影を行うのであれば、撮影に用いたカメラの焦点距離や画角の情報を意図的に残しておけばよい。また、最近のデジタルカメラでは、これらのデータを撮影画像データとともに自動的に記録する機能を備えたものもある。このようなデジタルカメラから撮影画像を読み出すと、画像データとともに撮影条件を示すデータが付加された状態で読み出されることになるので、ステップS1の手順とステップS2の手順とが、同時に実行されることになる。   In general, professional photographers often take note of shooting conditions for each photo when taking a photo. The shooting conditions that are subject to the memo usually include information such as date, lighting environment, exposure value, shutter speed, and other information such as the model of the camera used and the model number of the lens, that is, the focal length of the camera used during shooting. Is included. Therefore, commercial photographs such as ceramics published in magazines and catalogs often contain information indicating the focal length. Of course, if a photograph is taken on the premise of implementation of the present invention, information on the focal length and the angle of view of the camera used for photographing may be left intentionally. In addition, some recent digital cameras have a function of automatically recording these data together with photographed image data. When a photographed image is read out from such a digital camera, the data indicating the photographing condition is added together with the image data. Therefore, the procedure of step S1 and the procedure of step S2 are executed simultaneously. become.

続いて、ステップS3において、投影面Sと視点Eとを決定する処理が行われる。これは、§1で述べた前半段階のプロセスの最終的な目的というべき処理であり、§2で述べた後半段階のプロセスを行う上で必要な投影系を定義する意味をもつ。オペレータにとっては、ステップS1,S2の処理がコンピュータへの単なるデータ入力処理であるのに対して、このステップS3の処理は、ディスプレイ上に表示された画像を見ながら、試行錯誤を繰り返す処理ということになる。すなわち、§1で詳述したとおり、オペレータは、図8に示すような重畳表示(物体像20と2組の円投影像CCbottom,CCtopとを重ねた表示)を画面上で見ながら、図11に示す各パラメータの設定を調整する操作を行い、円投影像CCbottom,CCtopを、物体像20の各円弧状特徴部21,22に一致させるよう作業する。   Subsequently, in step S3, processing for determining the projection plane S and the viewpoint E is performed. This is a process that should be the final purpose of the first-stage process described in §1, and has a meaning of defining a projection system necessary for performing the second-stage process described in §2. For the operator, the process of steps S1 and S2 is a simple data input process to the computer, whereas the process of step S3 is a process of repeating trial and error while viewing the image displayed on the display. become. That is, as described in detail in §1, the operator looks at the superimposed display (display in which the object image 20 and the two sets of the circular projection images CCbottom and CCtop are superimposed) as shown in FIG. The circular projection images CCbottom and CCtop are operated so as to coincide with the arcuate features 21 and 22 of the object image 20 by adjusting the setting of each parameter shown in FIG.

この作業は試行錯誤による作業ということになるが、本発明では、距離fというパラメータを既知の固定パラメータとして入力することにしたため、オペレータの調整対象となるパラメータは、図11に示されているとおり、光軸Lの仰角θ,交点ξの位置,半径Rbottom,半径Rtop,距離Dという5つのパラメータに集約される。しかもこれらの各パラメータを変化させたときに、重畳表示されている画面上でどのような変化が生じるかが予測できるので、オペレータによるパラメータの修正作業は、行き当たりばったりの作業ではなく、目標に着実に近づくような系統だった作業ということになる。   Although this work is a work by trial and error, in the present invention, since the parameter called the distance f is input as a known fixed parameter, the parameters to be adjusted by the operator are as shown in FIG. , The elevation angle θ of the optical axis L, the position of the intersection ξ, the radius Rbottom, the radius Rtop, and the distance D are summarized. Moreover, it is possible to predict what changes will occur on the superimposed display when each of these parameters is changed, so the operator's parameter correction work is not a random work but a target. It is a systematic work that approaches steadily.

なお、円投影像CCbottom,CCtopと、円弧状特徴部21,22との一致は、必ずしも完全一致が必要とされるものではなく、オペレータが所定精度での一致が得られたと判定できれば、それで十分である。オペレータは、ステップS1で入力された二次元画像の解像度や、復元対象となる三次元情報に必要な精度などを考慮した上で、どの程度の精度で一致が見られたときに、一致指示を与えるべきかを判断すればよい。   Note that the coincidence between the circular projection images CCbottom and CCtop and the arcuate features 21 and 22 is not necessarily a perfect coincidence, and it is sufficient if the operator can determine that a coincidence with a predetermined accuracy is obtained. It is. The operator gives a match instruction when the match is found with a certain degree of accuracy in consideration of the resolution of the two-dimensional image input in step S1 and the accuracy required for the three-dimensional information to be restored. You just have to decide what to give.

また、前述の実施形態では、オペレータが自己の判断で一致指示を与えることになっているが、一致判定をコンピュータに委ねることも可能である。具体的には、何らかのパターン認識プログラムにより、コンピュータ自身に円弧状特徴部21,22をパターン認識する機能をもたせておき、円投影像CCbottom,CCtopと、円弧状特徴部21,22との形状、大きさ、位置の誤差を定量的に判断させ、この誤差が所定の許容範囲内に収まった時点で、一致判定がなされるようにしておけばよい。この場合、オペレータは、コンピュータによる一致判定がなされるまで、パラメータを修正する作業を行えばよい。   In the above-described embodiment, the operator gives a matching instruction by his / her own judgment, but it is also possible to leave the matching judgment to the computer. Specifically, the computer itself has a function of recognizing the arc-shaped features 21 and 22 by some pattern recognition program, and the shapes of the circular projection images CCbottom and CCtop and the arc-shaped features 21 and 22 The size and position errors may be determined quantitatively, and the coincidence determination may be made when the errors fall within a predetermined allowable range. In this case, the operator may perform the operation of correcting the parameters until the coincidence determination is made by the computer.

なお、§1で述べた例では、物体の下端面に対応する部分を第1の円弧状特徴部21とし、物体の上端面に対応する部分を第2の円弧状特徴部22とし、図12に示すように、壺の上下両端面位置に、円投影像CCbottom,CCtopを一致させる作業を行っていたが、物体像20の円弧状特徴部は、必ずしも上端面や下端面に限定されるものではない。前述の実施形態で例示した図に示されている壺の場合、上端面や下端面に円弧状特徴部が顕著に現れているが、もとの三次元物体10が回転体であるため、実際には、種々の位置に円弧状特徴部が現れる可能性がある。たとえば、壺のくびれたネックの部分などにも円弧状特徴部は現れるであろうし、物体表面に環状の模様が施されていた場合には、この模様部分を円弧状特徴部として把握することも可能である。   In the example described in §1, the portion corresponding to the lower end surface of the object is the first arcuate feature 21 and the portion corresponding to the upper end surface of the object is the second arcuate feature 22, and FIG. As shown in FIG. 3, the circular projection images CCbottom and CCtop are matched with the positions of the upper and lower end faces of the heel. However, the arc-shaped feature portion of the object image 20 is not necessarily limited to the upper end face or the lower end face. is not. In the case of the kite illustrated in the drawings exemplified in the above-described embodiment, the arc-shaped feature portion appears remarkably on the upper end surface and the lower end surface. However, since the original three-dimensional object 10 is a rotating body, May have arcuate features at various locations. For example, an arc-shaped feature may appear in the neck portion of the neck, etc., and if the object surface has an annular pattern, it can be recognized as an arc-shaped feature. Is possible.

したがって、本発明を実施する上で、円投影像を一致させる相手方となる円弧状特徴部は、必ずしも上端面や下端面に限定されるものではない。また、上述の実施形態では、2組の円投影像を2組の円弧状特徴部に一致させる例を示したが、3組以上の円投影像を3組以上の円弧状特徴部に一致させるようにしてもかまわない。すなわち、一致照合の対象が1組だけでは、投影面Sおよび視点Eを一義的に定めることはできないが、一致照合の対象が2組以上あれば、投影面Sおよび視点Eを一義的に定めることができるのである。結局、このステップS3では、ステップS1で入力した二次元画像上の物体像に含まれる少なくとも2組の円弧状特徴部の位置および形状と、ステップS2で入力した距離fと、に基づいて、物体撮影時の撮影条件の1つである光軸Lの位置を決定し、この光軸Lに直交する所定の投影面Sと、この投影面Sから光軸Lに沿って距離fだけ離れた場所に位置する視点Eと、を投影条件として決定する処理が行われればよい。   Therefore, in carrying out the present invention, the arcuate feature portion that is the counterpart to match the circular projection images is not necessarily limited to the upper end surface or the lower end surface. In the above-described embodiment, an example in which two sets of circular projection images are matched with two sets of arc-shaped features is shown. However, three or more sets of circular projection images are matched with three or more sets of arc-shaped features. It doesn't matter if you do. In other words, the projection plane S and the viewpoint E cannot be uniquely determined if only one set of coincidence matching is performed, but if there are two or more sets of matching verification, the projection plane S and the viewpoint E are uniquely determined. It can be done. Eventually, in this step S3, based on the position and shape of at least two sets of arc-shaped features included in the object image on the two-dimensional image input in step S1, and the distance f input in step S2, the object The position of the optical axis L, which is one of the imaging conditions at the time of imaging, is determined, a predetermined projection plane S orthogonal to the optical axis L, and a location separated from the projection plane S by the distance f along the optical axis L It is only necessary to perform processing for determining the viewpoint E positioned at the position as the projection condition.

もっとも、実用上は、§1の実施形態で例示したとおり、物体の上端面および下端面を円弧状特徴部として、2組の一致照合を行うのが最も好ましい。3組以上の一致照合を行うと、オペレータの作業が煩雑になり、2組の一致照合で十分である。また、多くの物体は、その上端面および下端面に円弧状特徴部が現れやすい。もちろん、円錐形や球のような特殊な形状をもった物体の場合、上端面や下端面が円にはならないこともあるが、陶器の壺や花器などの一般的な物体の場合、上端面および下端面に円弧状特徴部が現れる。また、上端面と下端面とは、最も距離が離れた照合対象であり、投影条件を決定する精度を高める上でも、上端面および下端面を用いた一致照合を行うのが好ましい。   However, in practice, as exemplified in the embodiment of §1, it is most preferable to perform two sets of matching verification using the upper end surface and the lower end surface of the object as arcuate features. When three or more sets of matching verification are performed, the operator's work becomes complicated, and two sets of matching verification are sufficient. In many objects, arc-shaped features tend to appear on the upper and lower end surfaces. Of course, in the case of an object with a special shape such as a cone or a sphere, the upper end surface and the lower end surface may not be a circle, but in the case of a general object such as a pottery basket or a vase, the upper end surface An arc-shaped feature appears on the lower end surface. Further, the upper end surface and the lower end surface are collation targets that are farthest apart from each other, and it is preferable to perform coincidence collation using the upper end surface and the lower end surface in order to improve the accuracy of determining the projection condition.

以上述べたステップS1〜S3の手順が、§1で述べた前半段階のプロセスに相当する。続いて行われるステップS4,S5の手順が、§2で述べた後半段階のプロセスということになる。   The procedure of steps S1 to S3 described above corresponds to the first half process described in §1. The subsequent steps S4 and S5 are the latter-stage process described in §2.

まず、ステップS4において、輪郭線CCsideの抽出が行われる。これは、図13に示すように、投影面S上に配置された二次元画像に含まれる物体像20の片側側面の輪郭線CCsideを抽出する処理である。この手順での処理対象となる二次元画像は、もちろん、ステップS1で入力した二次元画像であり、画像の中心点が点Gにくるように配置されている。ここで、点Gは、ステップS3で決定された視点Eから投影面Sに下した垂線の足Gであり、物体像20の撮影時の光軸Lの位置に相当する。輪郭線抽出を、投影面S上で行うのは、抽出された輪郭線CCsideが、投影面S上に定義されたαβ二次元座標系上に定義された曲線となるようにするためである。したがって、抽出された輪郭線CCsideは、(α,β)なる座標値をもった点の集合として表現される。   First, in step S4, the outline CCside is extracted. This is a process of extracting the contour line CCside on one side surface of the object image 20 included in the two-dimensional image arranged on the projection surface S as shown in FIG. The two-dimensional image to be processed in this procedure is, of course, the two-dimensional image input in step S1, and is arranged so that the center point of the image is at point G. Here, the point G is a perpendicular foot G dropped from the viewpoint E determined in step S3 to the projection plane S, and corresponds to the position of the optical axis L when the object image 20 is captured. The reason why the contour line is extracted on the projection plane S is that the extracted contour line CCside is a curve defined on the αβ two-dimensional coordinate system defined on the projection plane S. Therefore, the extracted contour line CCside is expressed as a set of points having the coordinate values (α, β).

§2で述べたとおり、この輪郭線抽出は、図12に示すような画像をディスプレイ上に表示した状態で、オペレータに輪郭線をなぞるトレース操作を行わせ、このトレース操作の軌跡を輪郭線CCsideとして抽出する処理によって行うことができるし、二次元画像を構成する個々の画素の画素値の差に基づいて、コンピュータに輪郭線を自動抽出する処理によって行うこともできる。   As described in §2, this contour extraction is performed by causing the operator to perform a trace operation for tracing the contour line in a state where an image as shown in FIG. 12 is displayed on the display. Or a process of automatically extracting a contour line on a computer based on a difference in pixel values of individual pixels constituting a two-dimensional image.

なお、コンピュータによる自動抽出を行う際には、必要に応じて、自動抽出された輪郭線に対して、オペレータによるトレース操作の軌跡に基づく補正を施し、補正後の輪郭線を正式な輪郭線として抽出するようにするのが好ましい。たとえば、図23に示すような正面形状をもった三次元物体10を、斜め上方から撮影したため、図の一点鎖線で囲った部分についての物体像20の輪郭が、右上に示した図の実線部分のようになってしまった場合を考えよう。この場合、画素値の差に基づいて、コンピュータが輪郭線抽出を行うと、背景部分の画素と壺部分の画素との境界線が輪郭線として抽出されることになるため、得られた輪郭線CCsideは、右上図に示す実線のようになる。すなわち、本来は、この壺のベース部分にくびれが生じているのであるが、撮影時の仰角θが大きいと、自動抽出された輪郭線CCsideには、このくびれ部分の情報が失われてしまう。   When performing automatic extraction by a computer, if necessary, the automatically extracted contour line is corrected based on the trace operation trace by the operator, and the corrected contour line is used as a formal contour line. It is preferable to extract. For example, since a three-dimensional object 10 having a front shape as shown in FIG. 23 is photographed obliquely from above, the outline of the object image 20 with respect to the part surrounded by the alternate long and short dash line in FIG. Let's consider the case where In this case, when the computer extracts the contour line based on the difference in pixel values, the boundary line between the background portion pixel and the heel portion pixel is extracted as the contour line. CCside is as shown by the solid line in the upper right diagram. In other words, the neck portion of the heel is originally constricted. However, if the elevation angle θ at the time of photographing is large, information on the constricted portion is lost in the automatically extracted contour line CCside.

そこで、このような場合には、、オペレータによるトレース操作の軌跡に基づく補正を施すようにする。物体像20上には、壺表面の陰影や絵柄の情報も含まれているので、オペレータは、これらの情報から、本来はベース部分にくびれが生じていることを認識することができ、本来の側面部の輪郭線の位置、すなわち、図に破線で示す位置を把握することができる。そこで、自動抽出された輪郭線CCsideの該当区間を、この破線で示す位置に修正することができるように、破線に沿ったトレース操作を行うようにすればよい。コンピュータは、オペレータから与えられた修正入力に基づいて、輪郭線CCsideを修正する処理を行うことができる。   Therefore, in such a case, correction based on the trace of the trace operation by the operator is performed. Since the object image 20 includes shading surface shading and pattern information, the operator can recognize from the information that the neck portion is originally constricted. The position of the contour line of the side surface, that is, the position indicated by the broken line in the figure can be grasped. Therefore, the trace operation along the broken line may be performed so that the corresponding section of the automatically extracted contour line CCside can be corrected to the position indicated by the broken line. The computer can perform a process of correcting the contour line CCside based on the correction input given by the operator.

最後のステップS5において、三次元情報の作成処理が行われる。この処理は、ステップS3で決定された投影面Sおよび視点E、ならびにステップS4で抽出された輪郭線CCsideの位置を示す情報に基づいて、元の物体の三次元情報を作成する処理ということができる。この処理の基本概念は、視点Eを基準として投影面Sへ透視投影することにより、輪郭線CCsideが得られるような物体の三次元情報を、当該物体が回転体であるという条件を考慮した演算により求める、ということになる。具体的には、ステップS4で抽出された輪郭線CCside上に所定間隔で複数個の参照点PPを定義し、個々の参照点PPに対応する対応点Pを求め、この対応点Pを通る構造円Cを定義し、この構造円Cの集合に基づいて、回転体からなる物体の表面データを作成し、これを三次元情報として出力する処理が行われる。   In the final step S5, a process for creating three-dimensional information is performed. This process is a process of creating three-dimensional information of the original object based on the projection plane S and viewpoint E determined in step S3 and information indicating the position of the contour line CCside extracted in step S4. it can. The basic concept of this processing is to calculate the three-dimensional information of an object such that a contour line CCside is obtained by perspective projection onto the projection plane S with the viewpoint E as a reference, taking into account the condition that the object is a rotating body It means that it asks by. Specifically, a plurality of reference points PP are defined at predetermined intervals on the contour line CCside extracted in step S4, corresponding points P corresponding to the individual reference points PP are obtained, and the structure passing through the corresponding points P A process of defining a circle C, creating surface data of an object made of a rotating body based on the set of structural circles C, and outputting the data as three-dimensional information is performed.

ここで、1つの参照点PPと、これに対応する対応点Pおよび構造円Cとの関係は、「XYZ三次元座標系上において、Z軸に直交する所定平面に含まれ、Z軸上に中心点をもち、対応点Pを通る構造円Cを定義し、この構造円Cについての対応点Pにおける接線ベクトルTを求め、この接線ベクトルTを視点Eを基準として投影面Sへ透視投影することにより投影面S上に得られる二次元ベクトルTTが、参照点PPにおける輪郭線CCsideの接線となる」という条件を満足する関係であり、参照点PPから対応点Pおよび構造円Cを求める演算は、上記条件に基づく演算ということになる。この演算の具体的な手法は、既に§2で述べたとおりである。   Here, the relationship between one reference point PP and the corresponding point P and structural circle C corresponding thereto is “included in a predetermined plane orthogonal to the Z axis on the XYZ three-dimensional coordinate system, and on the Z axis. A structural circle C having a center point and passing through the corresponding point P is defined, a tangent vector T at the corresponding point P with respect to the structural circle C is obtained, and the tangent vector T is perspectively projected onto the projection plane S with the viewpoint E as a reference. The two-dimensional vector TT obtained on the projection surface S is a tangent to the contour line CCside at the reference point PP, and the calculation for obtaining the corresponding point P and the structural circle C from the reference point PP. Is an operation based on the above conditions. The specific method of this calculation is as already described in §2.

§2で述べた実施形態では、図21に示すように、各構造円の間に多数の微小四角形を定義し、多数の微小四角形によって物体の表面情報を表現しているが、もちろん、最終的に復元対象となる物体情報として出力する三次元情報の表現形式は、このような微小四角形の集合に限定されるものではなく、たとえば、微小三角形の集合でもよいし、その他のポリゴン表現でもかまわない。また、図14に示すように、多数の構造円の集合体は、それ自身が三次元物体のワイヤーフレーム表示となっているので、構造円の集合体自身を、復元対象となる物体の三次元情報として出力してもかまわない。もちろん、この構造円に、更に縦方向のワイヤーを加えたワイヤーフレーム表示を作成して出力することも可能である。   In the embodiment described in §2, as shown in FIG. 21, a large number of minute squares are defined between the structural circles, and the surface information of the object is expressed by the number of minute squares. The representation format of the three-dimensional information output as the object information to be restored is not limited to such a set of minute quadrilaterals. For example, a set of minute triangles or other polygon representations may be used. . Further, as shown in FIG. 14, the aggregate of many structural circles itself is a wire frame display of a three-dimensional object, so that the aggregate of the structural circle itself is represented by the three-dimensional object to be restored. It may be output as information. Of course, it is also possible to create and output a wire frame display in which a longitudinal wire is further added to this structural circle.

<<< §4.本発明に係る復元装置の基本構成 >>>
最後に、本発明に係る回転体の三次元情報復元装置の基本構成を、図24のブロック図を参照しながら説明する。なお、ここでは、本発明に係る復元装置の構成要素を、個々の機能ブロックとして捉えた説明を行うが、実際には、図24に示されている復元装置は、コンピュータに専用のプログラムを組み込むことにより実現される装置であり、個々のブロックとして示されている構成要素は、プログラムの個々の機能によって実現される要素ということになる。
<<< §4. Basic configuration of restoration apparatus according to the present invention >>
Finally, the basic configuration of the rotating body three-dimensional information restoration apparatus according to the present invention will be described with reference to the block diagram of FIG. Note that here, description will be made assuming that the constituent elements of the restoration device according to the present invention are regarded as individual functional blocks, but in reality, the restoration device shown in FIG. 24 incorporates a dedicated program into the computer. The components shown as individual blocks are elements realized by the individual functions of the program.

図示のとおり、この復元装置は、二次元画像入力手段100,撮影条件入力手段200,投影条件決定手段300,輪郭線抽出手段400,三次元情報作成手段500によって構成され、回転体からなる物体を所定方向から撮影することによって得られた二次元画像に基づいて、もとの物体の三次元情報を復元する装置である。ここで、各手段100〜500は、それぞれ図22に示す流れ図におけるステップS1〜S5を実行するための構成要素になっている。   As shown in the figure, this restoration apparatus is constituted by a two-dimensional image input means 100, an imaging condition input means 200, a projection condition determination means 300, a contour line extraction means 400, and a three-dimensional information creation means 500. This is a device that restores the three-dimensional information of the original object based on a two-dimensional image obtained by photographing from a predetermined direction. Here, each of the means 100 to 500 is a component for executing steps S1 to S5 in the flowchart shown in FIG.

まず、二次元画像入力手段100は、回転体からなる物体を所定の撮影条件で撮影することにより得られた物体像を含む二次元画像を入力する機能を有する。具体的には、二次元画像が写真などの物理的な媒体として与えられる場合には、スキャナ装置などによって入力手段100を構成することができる。また、二次元画像がデジタルデータとして与えられる場合には、このようなデジタルデータをコンピュータに取り込む機能をもった一般的なデータ入力装置によって入力手段100を構成することができる。もちろん、デジタルデータは、通信回線を経由したオンラインで取り込むこともできる。   First, the two-dimensional image input unit 100 has a function of inputting a two-dimensional image including an object image obtained by photographing an object made of a rotating body under predetermined photographing conditions. Specifically, when a two-dimensional image is provided as a physical medium such as a photograph, the input unit 100 can be configured by a scanner device or the like. When a two-dimensional image is given as digital data, the input means 100 can be configured by a general data input device having a function of taking such digital data into a computer. Of course, digital data can also be captured online via a communication line.

一方、撮影条件入力手段200は、撮影条件の1つとして与えられる「視点と投影面との距離f」を示す情報を入力する機能を有する。一般に、撮影条件と呼ばれる情報には、照明環境、露出値、シャッター速度、カメラの焦点距離や画角など、種々の情報が含まれるが、入力手段200によって入力する必要がある撮影条件は、「視点と投影面との距離f」を示す情報のみである。前述したとおり、この距離fを示す情報としては、撮影に用いたカメラの焦点距離や画角を示す情報を用いることができる。これらの情報をオペレータに手作業で入力させる場合には、たとえば、マウスやキーボードなどの一般的な入力機器によって入力手段200を構成することができる。また、これらの情報をデジタルカメラなどから取り込むのであれば、デジタルデータをコンピュータに取り込む機能をもった一般的なデータ入力装置によって入力手段200を構成することができる。もちろん、この距離fを示す情報を、通信回線を経由したオンラインで取り込んでもよい。   On the other hand, the photographing condition input unit 200 has a function of inputting information indicating “distance f between the viewpoint and the projection plane” given as one of photographing conditions. In general, information called photographing conditions includes various information such as illumination environment, exposure value, shutter speed, camera focal length and angle of view. The photographing conditions that need to be input by the input unit 200 are “ It is only the information indicating the distance “f” between the viewpoint and the projection plane. As described above, as the information indicating the distance f, information indicating the focal length and angle of view of the camera used for photographing can be used. When the operator manually inputs such information, for example, the input unit 200 can be configured by a general input device such as a mouse or a keyboard. Further, if such information is taken from a digital camera or the like, the input means 200 can be constituted by a general data input device having a function of taking digital data into a computer. Of course, the information indicating the distance f may be captured online via a communication line.

実際、デジタルカメラから二次元画像と距離fを示す情報との双方を取り込む場合、入力手段100,200は、同一のデータ取込装置(デジタルカメラからの情報をコンピュータに取り込む装置)によって構成することができる。なお、§3で述べたとおり、距離fとしては、必ずしも撮影時の正確な値を入力する必要はなく、二次元画像入力手段100に与える二次元画像を解析することによって得られた推定値を用いてもかまわない。この場合、撮影条件入力手段200は、オペレータやデジタルカメラなどから与えられる距離fの値を入力する代わりに、二次元画像を解析して距離fを推定する機能をもった解析装置から与えられる推定値を距離fとして入力すればよい。   Actually, when both the two-dimensional image and the information indicating the distance f are captured from the digital camera, the input means 100 and 200 are configured by the same data capturing device (device that captures information from the digital camera into the computer). Can do. As described in §3, it is not always necessary to input an accurate value at the time of photographing as the distance f, and an estimated value obtained by analyzing a two-dimensional image given to the two-dimensional image input unit 100 is used. You can use it. In this case, the imaging condition input means 200, instead of inputting the value of the distance f given from an operator, a digital camera, or the like, is estimated from an analysis device having a function of analyzing the two-dimensional image and estimating the distance f. A value may be input as the distance f.

こうして、入力手段100で入力された二次元画像と、入力手段200で入力された距離fを示す情報は、投影条件決定手段300へと与えられる。投影条件決定手段300は、図22のステップS3の処理を実行する機能をもった構成要素であり、その目的は、所定の投影面Sと視点Eとを決定することにある。ここで決定された投影面Sおよび視点Eの位置は、倍率のファクターを考慮していないため、必ずしも撮影時のものと完全に一致するわけではないが、倍率のファクターを除けば、撮影時の投影条件に合致したものとなる。   Thus, the two-dimensional image input by the input unit 100 and the information indicating the distance f input by the input unit 200 are given to the projection condition determination unit 300. The projection condition determining means 300 is a component having the function of executing the process of step S3 in FIG. 22, and its purpose is to determine a predetermined projection plane S and viewpoint E. The positions of the projection plane S and the viewpoint E determined here do not necessarily coincide completely with those at the time of photographing because the factors of magnification are not taken into consideration. However, except for the factors of magnification, the positions at the time of photographing are not necessarily included. The projection conditions are met.

この投影条件決定手段300で行われる処理の基本原理は、§1で詳述したとおりであり、その骨子は、図8に示すような画面をオペレータに提示し、オペレータにパラメータの修正操作を行わせ、照合対象の一致確認がなされた時点で設定されていたパラメータに基づいて、投影面Sと視点Eとを決定することにある。具体的には、投影条件決定手段300は、二次元画像入力手段100から与えられた二次元画像上の物体像に含まれる2組の円弧状特徴部の位置および形状と、撮影条件入力手段200から与えられた距離fと、に基づいて、撮影条件の1つである光軸Lの位置を決定し、この光軸Lに直交する所定の投影面Sと、この投影面Sから光軸Lに沿って距離fだけ離れた場所に位置する視点Eと、を投影条件として決定する処理を行うことになる。   The basic principle of the processing performed by the projection condition determining means 300 is as described in detail in §1, and the outline of the processing is to present the screen as shown in FIG. 8 to the operator and perform the parameter correction operation to the operator. In other words, the projection plane S and the viewpoint E are determined based on the parameters set at the time when the collation target is confirmed. Specifically, the projection condition determination unit 300 includes the positions and shapes of the two sets of arc-shaped features included in the object image on the two-dimensional image given from the two-dimensional image input unit 100, and the imaging condition input unit 200. The position of the optical axis L, which is one of the imaging conditions, is determined on the basis of the distance f given from, a predetermined projection plane S orthogonal to the optical axis L, and the optical axis L from the projection plane S. And a viewpoint E positioned at a location separated by a distance f along the projection line is determined as a projection condition.

このような基本原理に基づく処理を実行するため、この投影条件決定手段300は、図示のように、重畳表示部310,透視投影演算部320,パラメータ設定部330,条件決定部340なる4つの構成要素を備えている。これら各構成要素の個々の機能については後述する。   In order to execute the processing based on such a basic principle, the projection condition determining means 300 has four configurations including a superimposing display section 310, a perspective projection calculating section 320, a parameter setting section 330, and a condition determining section 340 as shown in the figure. It has elements. The individual functions of these components will be described later.

輪郭線抽出手段400は、こうして投影条件決定手段300により決定された投影面Sと視点Eとを用いて、二次元画像入力手段100から与えられた二次元画像を、投影面S上に配置し、この二次元画像に含まれる物体像20の片側側面の輪郭線CCsideを抽出する処理を行う構成要素である。このとき、二次元画像は、その中心点が視点Eから投影面Sに下した垂線の足G(別言すれば、光軸Lと投影面Sとの交点)に一致するように配置される。   The contour line extracting unit 400 arranges the two-dimensional image given from the two-dimensional image input unit 100 on the projection plane S using the projection plane S and the viewpoint E thus determined by the projection condition determining unit 300. This is a component that performs processing for extracting the contour line CCside on one side surface of the object image 20 included in the two-dimensional image. At this time, the two-dimensional image is arranged so that the center point thereof coincides with the foot G of the perpendicular line that descends from the viewpoint E to the projection plane S (in other words, the intersection of the optical axis L and the projection plane S). .

この輪郭線抽出手段400において実施される処理は、既に述べたとおり、二次元画像上で行われたオペレータによるトレース操作の軌跡に基づいて輪郭線を抽出する処理として行うことも可能であるし、二次元画像を構成する個々の画素の画素値の差に基づいて輪郭線を自動抽出する処理として行うことも可能である。また、§3で述べたように、自動抽出された輪郭線に対して、二次元画像上で行われたオペレータによるトレース操作の軌跡に基づく補正を施し、補正後の輪郭線を抽出する処理として行うことも可能である。実際には、このような処理を行うための専用プログラムが用意されることになる。この処理の結果、輪郭線抽出手段400からは、たとえば、図13に太線で示すような輪郭線CCsideの情報が出力される。   As already described, the processing performed in the contour line extraction unit 400 can be performed as processing for extracting a contour line based on the trace of the trace operation performed by the operator on the two-dimensional image. It is also possible to perform the process of automatically extracting the contour line based on the difference between the pixel values of the individual pixels constituting the two-dimensional image. In addition, as described in §3, as a process of performing the correction based on the trace of the trace operation performed by the operator on the two-dimensional image with respect to the automatically extracted outline, and extracting the corrected outline It is also possible to do this. Actually, a dedicated program for performing such processing is prepared. As a result of this processing, the contour line extraction unit 400 outputs information on the contour line CCside as indicated by a thick line in FIG.

なお、§1で述べた実施形態のように、物体像20に含まれる「物体の下端面に対応する部分」を第1の円弧状特徴部21とし、「物体の上端面に対応する部分」を第2の円弧状特徴部22とする場合には、第1の円投影像CCbottom上の1点と第2の円投影像CCtop上の1点とを両端点とする輪郭線CCsideを抽出するようにすればよい。   Note that, as in the embodiment described in §1, the “part corresponding to the lower end surface of the object” included in the object image 20 is the first arc-shaped feature 21, and “the part corresponding to the upper end surface of the object” Is the second arcuate feature 22, a contour line CCside having both points on one point on the first circular projection image CCbottom and one point on the second circular projection image CCtop is extracted. You can do that.

三次元情報作成手段500は、投影条件決定手段300によって決定された投影面Sおよび視点Eと、輪郭線抽出手段400によって抽出された輪郭線CCsideと、に基づいて、もとの物体の三次元情報を作成する機能をもった構成要素である。すなわち、三次元座標系上において、視点Eを基準として投影面Sへ透視投影することにより、輪郭線CCsideが得られるような物体の三次元情報を演算によって求める処理が行われる。このとき、もとの物体が回転体であるという条件設定を行うことにより、二次元画像上で失われていた奥行きの情報をカバーすることになる。   Based on the projection plane S and viewpoint E determined by the projection condition determination unit 300 and the contour line CCside extracted by the contour line extraction unit 400, the three-dimensional information creation unit 500 generates a three-dimensional information of the original object. It is a component with a function to create information. In other words, on the three-dimensional coordinate system, by performing perspective projection on the projection plane S with the viewpoint E as a reference, processing for obtaining three-dimensional information of an object from which a contour line CCside can be obtained is performed. At this time, by setting the condition that the original object is a rotating body, the depth information lost on the two-dimensional image is covered.

このような基本原理に基づく処理を実行するため、この三次元情報作成手段500は、図示のように、参照点定義部510,構造円定義部520,表面データ作成部530なる3つの構成要素を備えている。これら各構成要素の個々の機能については後述する。   In order to execute the processing based on such a basic principle, the three-dimensional information creation unit 500 includes three components, that is, a reference point definition unit 510, a structural circle definition unit 520, and a surface data creation unit 530, as illustrated. I have. The individual functions of these components will be described later.

続いて、投影条件決定手段300内に示された個々の構成要素について説明する。まず、パラメータ設定部330は、XYZ三次元座標系において、光軸Lの位置を定義するパラメータと、Z軸に直交する第1の平面に含まれZ軸上に中心点をもつ第1の参照円を定義するパラメータと、Z軸に直交する第2の平面に含まれZ軸上に中心点をもつ第2の参照円を定義するパラメータと、をオペレータの指示に基づいて設定する機能をもった構成要素である。もちろん、オペレータは随時、これらのパラメータの設定値を修正する入力を行うことになるので、パラメータ設定部330は、このようなパラメータの設定値を修正する入力を受け付け、設定値を修正する機能を有している。   Next, individual components shown in the projection condition determining unit 300 will be described. First, in the XYZ three-dimensional coordinate system, the parameter setting unit 330 is a parameter that defines the position of the optical axis L, and a first reference that is included in a first plane orthogonal to the Z axis and that has a center point on the Z axis. A function for setting a parameter for defining a circle and a parameter for defining a second reference circle included in a second plane perpendicular to the Z axis and having a center point on the Z axis based on an instruction from the operator. Component. Of course, since the operator performs input to correct the setting values of these parameters as needed, the parameter setting unit 330 receives an input to correct such parameter setting values and has a function of correcting the setting values. Have.

§1で述べた例では、光軸Lの位置を定義するパラメータとして、光軸LとXY平面とのなす角度θ、および光軸LとXY平面との交点ξの位置を用いている。また、第1の参照円Cbottomを常にXY平面上の円とし、第2の参照円Ctopを平面「Z=D」上の円としているので、各参照円を定義するパラメータとしては、第1の参照円の半径Rbottomおよび第2の参照円の半径Rtop、ならびにDの値を用いている。結局、図11に示すように、θ,ξの位置,Rbottom,Rtop,Dなる5つのパラメータの設定が行われることになり、オペレータは、パラメータ設定部330に対して、これら5つのパラメータを設定するための指示を入力することになる。   In the example described in §1, the angle θ between the optical axis L and the XY plane and the position of the intersection ξ between the optical axis L and the XY plane are used as parameters that define the position of the optical axis L. Also, since the first reference circle Cbottom is always a circle on the XY plane and the second reference circle Ctop is a circle on the plane “Z = D”, the parameters defining each reference circle are the first The reference circle radius Rbottom, the second reference circle radius Rtop, and the value of D are used. Eventually, as shown in FIG. 11, the five parameters of θ, ξ position, Rbottom, Rtop, and D are set, and the operator sets these five parameters in the parameter setting unit 330. Instructions to do so.

実用上は、これら5つのパラメータにそれぞれデフォルトとなる初期設定値を定めておき、最初の段階では、パラメータ設定部330内には、この初期設定値が自動的に設定され、オペレータの指示に基づいて、各パラメータの値が修正されるようにしておけばよい。オペレータには、たとえば、図8に示すような重畳表示が提示され、オペレータは、このような表示画面上で、照合対象となる円投影像と円弧状特徴部とが一致するように、各パラメータを修正する指示を入力する操作を行うことになる。   In practice, initial default values for these five parameters are set as defaults. In the first stage, the initial setting values are automatically set in the parameter setting unit 330, and are based on instructions from the operator. Thus, the value of each parameter may be corrected. For example, a superimposed display as shown in FIG. 8 is presented to the operator, and the operator sets each parameter so that the circular projection image to be collated and the arcuate feature portion coincide on the display screen. An operation for inputting an instruction to correct the image is performed.

ここで、個々のパラメータには、図11に示すとおり、円投影像の形状、大きさ、位置に対して特定の影響を与える役割が与えられている。そこで、実用上は、オペレータに対して、各パラメータの役割を提示するようにするのが好ましい。たとえば、角度θを増減させる設定操作については、「円投影像の形状補正」を行うための操作である旨の提示を行い、交点ξの位置を変動させる設定操作については、「円投影像の位置補正」を行うための操作である旨の提示を行えばよい。同様に、第1の参照円の半径Rbottomおよび第2の参照円の半径Rtopを増減させる設定操作については、「各円投影像のサイズ補正」を行うための操作である旨の提示を行い、値Dを増減させる設定操作について「2つの円投影像の相対位置補正」を行うための操作である旨の提示を行えばよい。   Here, as shown in FIG. 11, each parameter is given a role that has a specific influence on the shape, size, and position of the circular projection image. Therefore, in practice, it is preferable to present the role of each parameter to the operator. For example, a setting operation for increasing / decreasing the angle θ is presented as an operation for performing “shape correction of a circular projection image”, and for a setting operation for changing the position of the intersection ξ, What is necessary is just to show that it is operation for performing "position correction." Similarly, the setting operation for increasing / decreasing the radius Rbottom of the first reference circle and the radius Rtop of the second reference circle is presented as an operation for performing “size correction of each circle projection image”. The setting operation for increasing / decreasing the value D may be presented as an operation for performing “relative position correction of two circular projection images”.

実用上、個々のパラメータを修正する操作は、ディスプレイ画面上に各パラメータを修正するための操作ツマミやダイアルを表示し、オペレータにこれらを動かす操作入力を行わせることになる。そこで、たとえば、円投影像の形状を補正するための操作ツマミには、「円投影像の形状補正」なる提示を行い、オペレータがこの操作ツマミを操作することにより、パラメータθの値を増減するような設定修正が行われるようにしておけばよい。同様に、円投影像の大きさを補正するための操作ツマミ(円投影像CCbottom用と、円投影像CCtop用との2組を設けておく)には、「円投影像のサイズ補正」なる提示を行い、オペレータがこの操作ツマミを操作することにより、パラメータRbottomおよびRtopの値を増減するような設定修正が行われるようにしておけばよい。交点ξの位置を変動させるための操作ツマミや、値Dを増減させるための操作ツマミについても同様である。オペレータは、これらの操作ツマミを用いることにより、直観的な操作で、各パラメータ値の修正を行い、円投影像と円弧状特徴部とを一致させる作業を行うことができる。   In practice, an operation for correcting individual parameters is to display operation knobs and dials for correcting each parameter on the display screen and allow the operator to perform an operation input for moving these parameters. Therefore, for example, the operation knob for correcting the shape of the circular projection image is presented as “Circular correction of the shape of the circular projection image”, and the operator operates the operation knob to increase or decrease the value of the parameter θ. It suffices to make such a setting correction. Similarly, the operation knob for correcting the size of the circle projection image (two sets of the circle projection image CCbottom and the circle projection image CCtop are provided) is “circle projection image size correction”. It is only necessary to make a setting correction so as to increase or decrease the values of the parameters Rbottom and Rtop by presenting and operating the operation knob by the operator. The same applies to the operation knob for changing the position of the intersection ξ and the operation knob for increasing or decreasing the value D. By using these operation knobs, the operator can correct each parameter value by an intuitive operation, and can perform an operation of matching the circular projection image with the arcuate feature portion.

透視投影演算部320は、現時点でパラメータ設定部330に設定されている各パラメータの値に基づいて、円投影像CCbottom,CCtopを演算する機能を果たす構成要素であり、実際には、所定のアルゴリズムに基づいて、そのような演算を実行するプログラムによって実現される構成要素である。上述の実施形態の場合、パラメータ設定部330に設定されるθ,ξの位置,Rbottom,Rtop,Dなる5つのパラメータは、結局、光軸Lの位置、第1の参照円Cbottomの位置、第2の参照円Ctopの位置を示す情報ということになる。   The perspective projection calculation unit 320 is a component that performs the function of calculating the circular projection images CCbottom and CCtop based on the values of the parameters currently set in the parameter setting unit 330. In practice, a predetermined algorithm Is a component realized by a program that executes such an operation. In the case of the above-described embodiment, the five parameters such as θ, ξ position, Rbottom, Rtop, and D set in the parameter setting unit 330 are as follows. This is information indicating the position of the second reference circle Ctop.

そこで、透視投影演算部320は、XYZ三次元座標系上に、まず、光軸Lに直交する所定の投影面Sを定義する。既に述べたとおり、本発明では倍率のファクターを考慮しなくてよいので、投影面Sは光軸Lに対して直交する平面であればどの位置に定義してもかまわない。したがって、たとえば、所定の距離dを予め定めておき、交点ξから距離dだけ隔たった位置に投影面Sを定義する処理を行えばよい。また、撮影条件入力手段200からは、距離fの値が与えられるので、この投影面Sから光軸Lに沿って距離fだけ離れた場所に、視点Eを一義的に定義することができる。   Therefore, the perspective projection calculation unit 320 first defines a predetermined projection plane S orthogonal to the optical axis L on the XYZ three-dimensional coordinate system. As already described, since the magnification factor does not need to be considered in the present invention, the projection plane S may be defined at any position as long as it is a plane orthogonal to the optical axis L. Therefore, for example, a predetermined distance d may be determined in advance, and a process of defining the projection plane S at a position separated from the intersection ξ by the distance d may be performed. Further, since the value of the distance f is given from the photographing condition input means 200, the viewpoint E can be uniquely defined at a place away from the projection plane S along the optical axis L by the distance f.

また、透視投影演算部320には、第1の参照円Cbottomの位置および第2の参照円Ctopの位置を示す情報が与えられるので、第1の参照円Cbottomおよび第2の参照円Ctopを、視点Eを基準として投影面Sへ透視投影し、投影面S上に第1の円投影像CCbottomおよび第2の円投影像CCtopを求める演算を行うことができる。   Further, since the perspective projection calculation unit 320 is provided with information indicating the position of the first reference circle Cbottom and the position of the second reference circle Ctop, the first reference circle Cbottom and the second reference circle Ctop are It is possible to perform an operation of performing perspective projection on the projection surface S with the viewpoint E as a reference, and obtaining the first circle projection image CCbottom and the second circle projection image CCtop on the projection surface S.

こうして、透視投影演算部320において求められた投影面Sおよび視点Eの位置を示す情報と、第1の円投影像CCbottomおよび第2の円投影像CCtopの形状および位置を示す情報は、重畳表示部310へ与えられる。この重畳表示部310は、二次元画像入力手段100から与えられた二次元画像を投影面S上に配置し、この二次元画像上に第1の円投影像Cbottomおよび第2の円投影像Ctopを重畳した状態をディスプレイ画面上に表示する機能をもった構成要素である。このとき、二次元画像は、その中心点が視点Eから投影面Sに下した垂線の足Gに一致するような位置にくるように配置される。   Thus, the information indicating the positions of the projection plane S and the viewpoint E obtained by the perspective projection calculation unit 320 and the information indicating the shapes and positions of the first circular projection image CCbottom and the second circular projection image CCtop are superimposed and displayed. To the unit 310. The superimposed display unit 310 arranges the two-dimensional image given from the two-dimensional image input means 100 on the projection plane S, and the first circle projection image Cbottom and the second circle projection image Ctop are placed on the two-dimensional image. Is a component having a function of displaying a state in which is superimposed on the display screen. At this time, the two-dimensional image is arranged so that its center point coincides with the foot G of the perpendicular line drawn from the viewpoint E to the projection plane S.

もちろん、オペレータが、パラメータ設定部330に対して、パラメータ値を修正する指示を与えれば、パラメータ設定部330内のパラメータ設定値は変化することになり、透視投影演算部320による演算結果も変化することになり、重畳表示部310による表示内容も変化することになる。オペレータは、ディスプレイ画面上に出力された重畳表示部310による表示結果(たとえば、図8に示すような表示結果)を見ながら、第1の円投影像CCbottomと第1の円弧状特徴部21とが一致し、第2の円投影像CCbottomと第2の円弧状特徴部21とが一致するように、パラメータ設定部330に対してパラメータの修正指示を与える作業を行い、その作業結果が、逐次、ディスプレイ画面上に反映されることになる。   Of course, if the operator gives an instruction to the parameter setting unit 330 to correct the parameter value, the parameter setting value in the parameter setting unit 330 changes, and the calculation result by the perspective projection calculation unit 320 also changes. As a result, the display content of the superimposed display unit 310 also changes. The operator observes the display result (for example, the display result as shown in FIG. 8) by the superimposed display unit 310 output on the display screen, and the first circular projection image CCbottom and the first arcuate feature unit 21. So that the second circular projection image CCbottom and the second arcuate feature portion 21 coincide with each other, and a parameter correction instruction is given to the parameter setting unit 330. Will be reflected on the display screen.

条件決定部340は、この重畳表示部310による表示において、物体像の第1の円弧状特徴部21と第1の円投影像CCbottomの全部もしくは一部とが所定精度で一致し、物体像の第2の円弧状特徴部22と第2の円投影像CCtopの全部もしくは一部とが所定精度で一致したことを示す一致指示がオペレータから与えられたときに、その時点で透視投影演算部320が定義している投影面Sおよび視点Eを、最終的な投影条件となる投影面Sおよび視点Eとして決定する機能を果たす。たとえば、ディスプレイ画面上に、図12に示すような一致状態が得られた場合に、オペレータは、条件決定部340に対して一致指示を与える操作を行えばよい。   In the display by the superimposition display unit 310, the condition determination unit 340 matches the first arcuate feature 21 of the object image with all or a part of the first circular projection image CCbottom with a predetermined accuracy. When the operator gives a coincidence instruction indicating that the second arcuate feature 22 and the whole or a part of the second circular projection image CCtop coincide with each other with a predetermined accuracy, the perspective projection calculation unit 320 at that time. Fulfills the function of determining the projection plane S and the viewpoint E defined by H. as the projection plane S and the viewpoint E as final projection conditions. For example, when a matching state as shown in FIG. 12 is obtained on the display screen, the operator may perform an operation for giving a matching instruction to the condition determining unit 340.

かくして、オペレータからの一致指示が与えられると、条件決定部340から、投影面Sおよび視点Eを示す情報(たとえば、XYZ三次元座標系上において、投影面Sを示す平面の式と視点Eの座標値)が、投影条件決定手段300の出力として与えられることになる。なお、§3で述べたとおり、物体像の第1の円弧状特徴部および第2の円弧状特徴部としては、必ずしも「物体の下端面に対応する部分」および「物体の上端面に対応する部分」を用いる必要はなく、どの部分を一致対象となる円弧状特徴部とするかは、オペレータの判断に委ねられる。また、§4で述べたように、一致判定をオペレータに委ねる代わりに、所定のアルゴリズムで一致判定を自動的に行うようにしてもよい。この場合、条件決定部340は、自らの判断で一致判定を行うことになるので、オペレータからの一致指示を入力する必要はない。   Thus, when a coincidence instruction is given from the operator, information indicating the projection plane S and the viewpoint E (for example, the plane expression indicating the projection plane S and the viewpoint E on the XYZ three-dimensional coordinate system) is received from the condition determination unit 340. Coordinate value) is given as an output of the projection condition determining means 300. Note that, as described in §3, the first arc-shaped feature portion and the second arc-shaped feature portion of the object image do not necessarily correspond to “the portion corresponding to the lower end surface of the object” and “the upper end surface of the object. It is not necessary to use “parts”, and it is left to the operator to decide which part is the arcuate feature to be matched. Further, as described in §4, instead of leaving the match determination to the operator, the match determination may be automatically performed by a predetermined algorithm. In this case, the condition determination unit 340 performs the matching determination by its own determination, and therefore it is not necessary to input a matching instruction from the operator.

最後に、三次元情報作成手段500内に示された個々の構成要素について説明する。まず、参照点定義部510は、輪郭線抽出手段400によって抽出された輪郭線CCside上に所定間隔で複数n個の参照点PPを定義する機能を果たす構成要素である。ここでnの値は、最終的に得られる三次元復元画像の解像度を左右する値になるので、解像度の高い復元画像を得たい場合には、nの値を大きく設定すればよい。参照点PPの間隔は任意に設定すればよいが、たとえば、輪郭線CCsideの全長を(n+1)等分し、個々の等分点を参照点PPとすれば、合計n個の参照点PP1〜PPnを得ることができる。§2で述べた実施形態の場合、各参照点PPは、αβ二次元座標系上の点として定義されるので、(αpp,βpp)なる二次元の座標値をもった点となるが、前述したとおり、XYZ三次元座標系上に定義された投影面Sの位置を考慮した座標変換を行うことにより、(xpp,ypp,zpp)なる三次元の座標値をもった点に変換される。   Finally, the individual components shown in the three-dimensional information creation unit 500 will be described. First, the reference point definition unit 510 is a component that performs a function of defining a plurality of n reference points PP at predetermined intervals on the contour line CCside extracted by the contour line extraction unit 400. Here, the value of n is a value that influences the resolution of the finally obtained three-dimensional restored image. Therefore, when it is desired to obtain a restored image with a high resolution, the value of n may be set large. The interval between the reference points PP may be arbitrarily set. For example, if the total length of the contour line CCside is equally divided into (n + 1) and each equal dividing point is set as the reference point PP, a total of n reference points PP1 to PP1. PPn can be obtained. In the case of the embodiment described in §2, each reference point PP is defined as a point on the αβ two-dimensional coordinate system, and thus has a two-dimensional coordinate value of (αpp, βpp). As described above, by performing coordinate conversion in consideration of the position of the projection plane S defined on the XYZ three-dimensional coordinate system, the point is converted into a point having a three-dimensional coordinate value of (xpp, ypp, zpp).

構造円定義部520は、図17に示すように、参照点PPに対応する対応点Pを求め、この対応点Pを通る構造円Cを定義する演算を行う構成要素である。上述したとおり、参照点定義部510では、複数n個の参照点PP1〜PPnが定義されるので、この構造円定義部520では、複数n個の構造円C1〜Cnが定義されることになる。参照点PPから構造円Cを求める演算は、「XYZ三次元座標系上において、Z軸に直交する所定平面に含まれ、Z軸上に中心点をもち、対応点Pを通る構造円Cを定義し、この構造円Cについての対応点Pにおける接線ベクトルTを求め、この接線ベクトルTを視点Eを基準として投影面Sへ透視投影することにより投影面S上に得られる二次元ベクトルTTが、参照点PPにおける輪郭線CCsideの接線となる」という条件を示す式を用いることにより行うことができる。   As shown in FIG. 17, the structural circle definition unit 520 is a component that calculates a corresponding point P corresponding to the reference point PP and performs an operation to define a structural circle C that passes through the corresponding point P. As described above, since the reference point defining unit 510 defines a plurality of n reference points PP1 to PPn, the structural circle defining unit 520 defines a plurality of n structural circles C1 to Cn. . The calculation for obtaining the structural circle C from the reference point PP is as follows: “In the XYZ three-dimensional coordinate system, a structural circle C included in a predetermined plane orthogonal to the Z axis, having a center point on the Z axis, and passing through the corresponding point P A two-dimensional vector TT obtained on the projection plane S is obtained by obtaining a tangent vector T at the corresponding point P with respect to the structural circle C, and perspectively projecting the tangent vector T onto the projection plane S with the viewpoint E as a reference. , Which is a tangent to the contour line CCside at the reference point PP ”.

具体的な演算式は、図18〜図20に示したとおりである。この演算は、結局、次のように集約される。まず、図17に示すように、XYZ三次元座標系上における対応点Pの座標値(xp,yp,h)および先端点Qの座標値(xq,yq,h)をそれぞれ未知数として定義する。   Specific arithmetic expressions are as shown in FIGS. This operation is eventually summarized as follows. First, as shown in FIG. 17, the coordinate value (xp, yp, h) of the corresponding point P and the coordinate value (xq, yq, h) of the tip point Q on the XYZ three-dimensional coordinate system are defined as unknowns.

一方、投影面S上には、参照点PP(αpp,βpp)が定義されている。この参照点PPの座標値(αpp,βpp)は、参照点定義部510から与えられた座標値であり、既知の値ということになる。また、この参照点PPにおいて輪郭線CCsideの接線を定義することができるので、この接線上に接線ベクトルTTを定義する。接線ベクトルTTは、その先端点QQの位置を投影面S上に定めることにより定義できる。ここで、ベクトルTTの長さは任意でかまわないので、先端点QQは、参照点PPにおける輪郭線CCsideの接線上の任意の1点として定義することができ、定義を行った時点で、その座標値(αqq,βqq)は既知の値となる。   On the other hand, on the projection surface S, reference points PP (αpp, βpp) are defined. The coordinate values (αpp, βpp) of the reference point PP are coordinate values given from the reference point definition unit 510 and are known values. Further, since the tangent line of the contour line CCside can be defined at the reference point PP, the tangent vector TT is defined on the tangent line. The tangent vector TT can be defined by determining the position of the tip point QQ on the projection plane S. Here, since the length of the vector TT may be arbitrary, the tip point QQ can be defined as an arbitrary point on the tangent line of the contour line CCside at the reference point PP. The coordinate values (αqq, βqq) are known values.

次に、投影面S上に定義されたαβ二次元座標系上における参照点PPの既知座標値(αpp,βpp)および先端点QQの既知座標値(αqq,βqq)を、XYZ三次元座標系上における投影面Sの位置情報を利用することにより、それぞれXYZ三次元座標系上の座標値(xpp,ypp,zpp)および(xqq,yqq,zqq)に変換する演算を行う。当然、座標値xpp,ypp,zpp,xqq,yqq,zqqは既知の値となる。   Next, the known coordinate values (αpp, βpp) of the reference point PP and the known coordinate values (αqq, βqq) of the tip point QQ on the αβ two-dimensional coordinate system defined on the projection plane S are converted into an XYZ three-dimensional coordinate system. By using the position information of the projection plane S on the upper side, calculations for converting into coordinate values (xpp, ypp, zpp) and (xqq, yqq, zqq) on the XYZ three-dimensional coordinate system are performed. Naturally, the coordinate values xpp, ypp, zpp, xqq, yqq, zqq are known values.

続いて、接線ベクトルTが構造円Cの対応点Pにおける接線であることを示す条件式を求めると、図18に示すように、以下のような式(6) が得られる。
−xp/yp=(yq−yp)/(xq−xp) (6)
Subsequently, when a conditional expression indicating that the tangent vector T is a tangent at the corresponding point P of the structural circle C is obtained, the following expression (6) is obtained as shown in FIG.
-Xp / yp = (yq-yp) / (xq-xp) (6)

一方、参照点PPおよび先端点QQが、対応点Pおよび先端点Qを、既知座標値(xe,ye,ze)によってその位置が定義されている視点Eを基準として投影面Sへ透視投影することにより得られる点であることを示す条件式を求めると、図19に示すように、以下のような4本の式が得られる。
xp=((h−ze)・(xpp−xe))/(zpp−ze)+xe (11-1)
yp=((h−ze)・(ypp−ye))/(zpp−ze)+ye (11-2)
xq=((h−ze)・(xqq−xe))/(zqq−ze)+xe (11-3)
yq=((h−ze)・(yqq−ye))/(zqq−ze)+ye (11-4)
On the other hand, the reference point PP and the tip point QQ perspective-project the corresponding point P and the tip point Q onto the projection plane S with the viewpoint E whose position is defined by the known coordinate values (xe, ye, ze) as a reference. When the conditional expression indicating that the point is obtained by this is obtained, the following four expressions are obtained as shown in FIG.
xp = ((h-ze). (xpp-xe)) / (zpp-ze) + xe (11-1)
yp = ((h-ze). (ypp-ye)) / (zpp-ze) + ye (11-2)
xq = ((h-ze). (xqq-xe)) / (zqq-ze) + xe (11-3)
yq = ((h-ze). (yqq-ye)) / (zqq-ze) + ye (11-4)

そこで、この4本の式を式(6) に代入すると、図20に示すように、未知数としてhのみを含んだ方程式(12)が得られるので、この方程式を解くことにより、未知数hの値を算出することができる。そして、算出したhの値を上記式(11-1)および(11-2)に代入することにより、未知数であった座標値xp,ypを求めることができ、「Z=h」平面上に、半径R=(xp+yp1/2をもった構造円Cを定義することができる。 Therefore, by substituting these four equations into equation (6), as shown in FIG. 20, equation (12) containing only h as an unknown is obtained. By solving this equation, the value of unknown h is obtained. Can be calculated. Then, by substituting the calculated value of h into the above formulas (11-1) and (11-2), the unknown coordinate values xp, yp can be obtained, and on the “Z = h” plane. , A structure circle C having a radius R = (xp 2 + yp 2 ) 1/2 can be defined.

なお、構造円定義部520は、上述の手順で定義された複数n個の構造円C1〜Cnに加えて、オペレータから一致指示が与えられた時点でパラメータ設定部330に設定されているパラメータによって定義される第1の参照円Cbottomおよび第2の参照円Ctopを、構造円の一部として定義し、合計(n+2)個の構造円を定義することも可能である。この場合は、図14に示すように、構造円C1〜Cnに加えて、参照円Cbottomおよび参照円Ctopによって復元物体が表現されることになる。   In addition to the plurality of n structural circles C1 to Cn defined in the above-described procedure, the structural circle defining unit 520 uses the parameters set in the parameter setting unit 330 when a matching instruction is given from the operator. It is also possible to define the first reference circle Cbottom and the second reference circle Ctop to be defined as a part of the structure circle, and to define a total of (n + 2) structure circles. In this case, as shown in FIG. 14, in addition to the structural circles C1 to Cn, the restored object is represented by the reference circle Cbottom and the reference circle Ctop.

最後の表面データ作成部530は、こうして得られた構造円Cの集合に基づいて、回転体からなる物体の表面データを作成し、これを三次元情報として出力する機能をもった構成要素である。具体的には、たとえば、図21に示すような手法により、復元対象となる三次元物体の表面データを多数のポリゴンで表現すればよい。もちろん、§3で述べたように、ワイヤーフレームのデータとして三次元情報の出力を行うことも可能である。   The final surface data creation unit 530 is a component having a function of creating surface data of an object made of a rotating body based on the set of structural circles C thus obtained and outputting this as 3D information. . Specifically, for example, the surface data of the three-dimensional object to be restored may be expressed by a large number of polygons by a technique as shown in FIG. Of course, as described in §3, it is also possible to output three-dimensional information as wireframe data.

三次元物体を所定方向から撮影することによって二次元画像が得られた場合に、この二次元画像と三次元物体との幾何学的な関係を示す斜視図である。FIG. 3 is a perspective view showing a geometric relationship between a two-dimensional image and a three-dimensional object when a two-dimensional image is obtained by photographing the three-dimensional object from a predetermined direction. 図1に示す投影面Sの平面図である。It is a top view of the projection surface S shown in FIG. 図1に示す投影系の正面図である。It is a front view of the projection system shown in FIG. Z軸を回転軸とした壺の形をもった三次元物体10の斜視図である。1 is a perspective view of a three-dimensional object 10 having a ridge shape with a Z axis as a rotation axis. FIG. XYZ三次元座標系上の円Cを、投影面S上に平行投影して得られる円投影像C′を示す斜視図である。3 is a perspective view showing a circle projection image C ′ obtained by parallel projecting a circle C on an XYZ three-dimensional coordinate system onto a projection plane S. FIG. XYZ三次元座標系上の円Cを、投影面S上に透視投影して得られる円投影像CCを示す斜視図である。3 is a perspective view showing a circular projection image CC obtained by perspectively projecting a circle C on an XYZ three-dimensional coordinate system onto a projection plane S. FIG. 本発明により投影面Sおよび視点Eの位置を決定する手法の基本原理を示すための投影系の正面図である。It is a front view of the projection system for showing the basic principle of the method of determining the position of projection plane S and viewpoint E by the present invention. 図7に示されている投影面S上に、撮影された二次元画像と円投影像CCbottom ,CCtopとを重畳表示した状態を示す平面図である。It is a top view which shows the state which superimposed and displayed the imaged two-dimensional image and circular projection image CCbottom, CCtop on the projection surface S shown by FIG. 図7に示す投影系の上面図である。FIG. 8 is a top view of the projection system shown in FIG. 7. 光軸L上における投影面Sの位置が投影像に与える影響を説明する投影系の正面図である。It is a front view of the projection system explaining the influence which the position of the projection surface S on the optical axis L has on the projection image. 図7に示す投影系における5つのパラメータが、円投影像CCbottom,CCtopに与える影響を整理して示した図である。It is the figure which arranged and showed the influence which five parameters in the projection system shown in Drawing 7 have on circular projection images CCbottom and CCtop. 図8に示す重畳表示に対して、図11に示す5つのパラメータの設定値を修正することにより、各円投影像CCbottom,CCtopを、各円弧状特徴部21,22に合致させた状態を示す平面図である。8 shows a state in which the circular projection images CCbottom and CCtop are made to match the respective arc-shaped feature portions 21 and 22 by correcting the set values of the five parameters shown in FIG. 11 with respect to the superimposed display shown in FIG. It is a top view. 投影面S上に表示された物体像20について、左側側面の輪郭線CCsideを抽出した状態を示す平面図である。It is a top view which shows the state which extracted the contour line CCside of the left side surface about the object image 20 displayed on the projection surface S. FIG. 多数の構造円C1,C2,C3,…,Ci,…,Cnを定義することによって三次元情報を復元する状態を示す斜視図である。It is a perspective view which shows the state which decompress | restores three-dimensional information by defining many structural circles C1, C2, C3, ..., Ci, ..., Cn. XYZ三次元座標系上の物体10の表面に定義された構造円Cと、その接線ベクトルTを示す斜視図である。It is a perspective view which shows the structure circle C defined on the surface of the object 10 on an XYZ three-dimensional coordinate system, and its tangent vector T. FIG. 図15に示す物体10および接線ベクトルTの投影面S上への投影像を示す平面図である。FIG. 16 is a plan view showing a projection image of the object 10 and the tangent vector T shown in FIG. 15 on a projection plane S. 図15に示す三次元の接線ベクトルTと図16に示す二次元の接線ベクトルTTとの位置関係を示す斜視図である。FIG. 17 is a perspective view showing a positional relationship between the three-dimensional tangent vector T shown in FIG. 15 and the two-dimensional tangent vector TT shown in FIG. 16. 図17に示す点PPに基づいて点Pを求める演算の原理を説明するための第1の数式説明図である。FIG. 18 is a first mathematical formula explanatory diagram for explaining the principle of calculation for obtaining a point P based on the point PP shown in FIG. 17. 図17に示す点PPに基づいて点Pを求める演算の原理を説明するための第2の数式説明図である。FIG. 18 is a second mathematical expression explanatory diagram for explaining the principle of calculation for obtaining a point P based on the point PP shown in FIG. 17. 図17に示す点PPに基づいて点Pを求める演算の原理を説明するための第3の数式説明図である。FIG. 18 is a third mathematical formula explanatory diagram for explaining the principle of calculation for obtaining a point P based on the point PP shown in FIG. 17. 多数の構造円の集合に基づいて、復元物体の表面データを作成する手法の一例を示す斜視図である。It is a perspective view which shows an example of the method of producing the surface data of a restored object based on the collection of many structural circles. 本発明に係る三次元情報復元処理の全体手順を示す流れ図である。It is a flowchart which shows the whole procedure of the three-dimensional information restoration process which concerns on this invention. 自動抽出された輪郭線CCsideに対して手作業による修正処理を行う概念を示す図である。It is a figure which shows the concept which performs the correction process by manual operation with respect to the outline CCside extracted automatically. 本発明に係る回転体の三次元情報復元装置の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the three-dimensional information restoration apparatus of the rotary body which concerns on this invention.

符号の説明Explanation of symbols

10…三次元物体(壺)
20…物体像(壺の投影像)
21…第1の円弧状特徴部(物体の下端面に対応する部分)
22…第2の円弧状特徴部(物体の上端面に対応する部分)
100…二次元画像入力手段
200…撮影条件入力手段
300…投影条件決定手段
310…重畳表示部
320…透視投影演算部
330…パラメータ設定部
340…条件決定部
400…輪郭線抽出手段
500…三次元情報作成手段
510…参照点定義部
520…構造円定義部
530…表面データ作成部
C…XYZ三次元座標系上の円/構造円
Cbottom …壺の下端面の輪郭円/第1の参照円
Ctop …壺の上端面の輪郭円/第2の参照円
Cside…輪郭線CCsideに対応する物体上の線
C′…円Cを平行投影することにより得られる投影像
CC…円Cを透視投影することにより得られる投影像
CCbottom…第1の円投影像
CCtop…第2の円投影像
CCside…物体像20の片側側面から抽出された輪郭線
C1,C2,C3,…,Ci,…,Cn…個々の構造円
D…両参照円の距離
E…視点
f…視点と投影面との距離
G,G′…視点から投影面に下した垂線の足
h…構造円Cの配置位置(高さ)
L,Ly,Lw…光軸
Lp,Lq…投影線
M…二次元画像上の任意の点
O…XYZ三次元座標系の原点
P…参照点PPに対応する対応点
PP…輪郭線CCside上に定義された参照点
Q…接線ベクトルTの先端点
QQ…接線ベクトルTTの先端点
R…構造円Cの半径
Rbottom…第1の参照円Cbottomの半径
Rtop…第2の参照円Ctopの半径
R1,R2,R3,…,Ri,…,Rn…各構造円の半径
S,Sy,Sw,S′…投影面
S1〜S5…流れ図の各ステップ
T…構造円C上の点Pに定義された三次元接線ベクトル
TT…輪郭線CCside上の参照点PPに定義された二次元接線ベクトル
U1,U2…二次元画像の対角点
V…投影方向を示すベクトル
W…XY平面上の任意軸
X,Y,Z…三次元座標系の各座標軸
xe,ye,ze…視点Eの座標値
xp,yp…対応点Pの座標値
xq,yq…先端点Qの座標値
xpp,ypp,zpp…参照点PPのXYZ三次元座標系上の座標値
xqq,yqq,zqq…先端点QQのXYZ三次元座標系上の座標値
α,β…投影面S上に定義された二次元座標系の各座標軸
αm,βm…点Mの座標値
αpp,βpp…参照点PPのαβ二次元座標系上の座標値
αqq,βqq…先端点QQのαβ二次元座標系上の座標値
θ…光軸Lの仰角
ξ…光軸LとXY平面との交点
φ…光軸Lの回転角
10 ... Three-dimensional object (壺)
20 ... Object image (projection image of cocoon)
21 ... 1st circular-arc-shaped characteristic part (part corresponding to the lower end surface of an object)
22 ... 2nd circular-arc-shaped characteristic part (part corresponding to the upper end surface of an object)
DESCRIPTION OF SYMBOLS 100 ... Two-dimensional image input means 200 ... Imaging condition input means 300 ... Projection condition determination means 310 ... Superimposition display part 320 ... Perspective projection calculation part 330 ... Parameter setting part 340 ... Condition determination part 400 ... Contour line extraction means 500 ... Three-dimensional Information creation means 510 ... reference point definition unit 520 ... structural circle definition unit 530 ... surface data creation unit C ... circle on the XYZ three-dimensional coordinate system / structural circle Cbottom ... contour circle on the lower end surface of the bowl / first reference circle Ctop ... the contour circle of the top surface of the eyelid / second reference circle Cside ... the line C 'on the object corresponding to the contour CCside ... the projection image CC obtained by parallel projection of the circle C ... the perspective projection of the circle C Projected image CCbottom obtained by the following: first circular projected image CCtop second curved projected image CCside contour lines C1, C2, C3,..., Ci,. Structure circle D Distance G, G '... arrangement position of the foot h ... structure circle C of a perpendicular line which beat the projection plane from the viewpoint of the distance E ... viewpoint f ... viewpoint of both the reference circle and the projection surface (height)
L, Ly, Lw ... optical axes Lp, Lq ... projection line M ... arbitrary point O on two-dimensional image ... origin P of XYZ three-dimensional coordinate system ... corresponding point PP corresponding to reference point PP ... on contour line CCside Defined reference point Q ... tip point QQ of tangent vector T ... tip point R of tangent vector TT ... radius Rbottom of structural circle C ... radius Rtop of first reference circle Cbottom ... radius R1, second reference circle Ctop R2, R3, ..., Ri, ..., Rn ... radius S, Sy, Sw, S '... projection planes S1 to S5 ... steps T of the flow chart ... third order defined at point P on the structure circle C Original tangent vector TT ... Two-dimensional tangent vector U1, U2 defined at reference point PP on contour CCside ... Diagonal point V of two-dimensional image ... Vector indicating projection direction W ... Arbitrary axes X and Y on XY plane , Z ... coordinate axes xe, ye, ze ... coordinate value xp of viewpoint E in the three-dimensional coordinate system yp ... coordinate value xq, yq of corresponding point P ... coordinate value xpp, ypp, zpp of tip point Q ... coordinate value xqq, yqq, zqq of reference point PP on XYZ three-dimensional coordinate system XYZ three-dimensional of tip point QQ Coordinate values α, β on the coordinate system, each coordinate axis αm, βm, coordinate value αpp, βpp of the two-dimensional coordinate system defined on the projection plane S, coordinates on the αβ two-dimensional coordinate system of the reference point PP Values αqq, βqq: Coordinate value of tip point QQ on αβ two-dimensional coordinate system θ: Elevation angle of optical axis L ξ: Intersection φ between optical axis L and XY plane φ: Rotation angle of optical axis L

Claims (20)

回転体からなる物体を所定方向から撮影することによって得られた二次元画像に基づいて、もとの物体の三次元情報を復元する復元装置であって、
回転体からなる物体を所定の撮影条件で撮影することにより得られた物体像を含む二次元画像を入力する二次元画像入力手段と、
前記撮影条件の1つとして与えられる「視点と投影面との距離f」を示す情報を入力する撮影条件入力手段と、
前記二次元画像上の物体像に含まれる2組の円弧状特徴部の位置および形状と、前記距離fと、に基づいて、前記撮影条件の1つである光軸Lの位置を決定し、前記光軸Lに直交する所定の投影面Sと、この投影面Sから前記光軸Lに沿って前記距離fだけ離れた場所に位置する視点Eと、を投影条件として決定する投影条件決定手段と、
前記二次元画像の中心点が前記視点Eから前記投影面Sに下した垂線の足Gに一致するように、前記投影面S上に前記二次元画像を配置した状態で、前記物体像の片側側面の輪郭線CCsideを抽出する輪郭線抽出手段と、
三次元座標系における前記投影面S,前記視点E,前記輪郭線CCsideの位置を示す情報に基づいて、前記視点Eを基準として前記投影面Sへ透視投影することにより、前記輪郭線CCsideが得られるような物体の三次元情報を、当該物体が回転体であるという条件を考慮することにより作成する三次元情報作成手段と、
を備えることを特徴とする回転体の三次元情報復元装置。
A restoration device that restores three-dimensional information of an original object based on a two-dimensional image obtained by photographing an object made of a rotating body from a predetermined direction,
Two-dimensional image input means for inputting a two-dimensional image including an object image obtained by photographing an object made of a rotating body under predetermined photographing conditions;
Shooting condition input means for inputting information indicating “distance f between viewpoint and projection plane” given as one of the shooting conditions;
Based on the position and shape of the two sets of arc-shaped features included in the object image on the two-dimensional image and the distance f, the position of the optical axis L that is one of the imaging conditions is determined, Projection condition determining means for determining a predetermined projection plane S orthogonal to the optical axis L and a viewpoint E positioned at a distance f from the projection plane S along the optical axis L by the distance f. When,
One side of the object image in a state where the two-dimensional image is arranged on the projection plane S so that the center point of the two-dimensional image coincides with the foot G of the perpendicular line drawn from the viewpoint E to the projection plane S. Contour extracting means for extracting a side contour CCside;
Based on the information indicating the positions of the projection plane S, the viewpoint E, and the contour line CCside in a three-dimensional coordinate system, the contour line CCside is obtained by performing perspective projection on the projection plane S with the viewpoint E as a reference. 3D information creating means for creating such 3D information of an object by considering the condition that the object is a rotating body,
A three-dimensional information restoring apparatus for a rotating body, comprising:
請求項1に記載の三次元情報復元装置において、
投影条件決定手段が、
XYZ三次元座標系において、光軸Lの位置を定義するパラメータと、Z軸に直交する第1の平面に含まれZ軸上に中心点をもつ第1の参照円を定義するパラメータと、Z軸に直交する第2の平面に含まれZ軸上に中心点をもつ第2の参照円を定義するパラメータと、をオペレータの指示に基づいて設定するパラメータ設定部と、
前記XYZ三次元座標系上に、前記光軸Lに直交する所定の投影面Sと、この投影面Sから前記光軸Lに沿って前記距離fだけ離れた場所に位置する視点Eと、を定義し、前記第1の参照円および前記第2の参照円を、前記視点Eを基準として前記投影面Sへ透視投影し、前記投影面S上に第1の円投影像および第2の円投影像を求める透視投影演算部と、
前記二次元画像の中心点が前記視点Eから前記投影面Sに下した垂線の足Gに一致するように、前記投影面S上に前記二次元画像を配置し、前記二次元画像上に前記第1の円投影像および前記第2の円投影像を重畳した状態をディスプレイ画面上に表示する重畳表示部と、
前記重畳表示部による表示において、物体像の第1の円弧状特徴部と前記第1の円投影像の全部もしくは一部とが所定精度で一致し、物体像の第2の円弧状特徴部と前記第2の円投影像の全部もしくは一部とが所定精度で一致したことを示す一致確認が得られたときに、前記透視投影演算部が定義している投影面Sおよび視点Eを、投影条件となる投影面Sおよび視点Eと決定する条件決定部と、
を有することを特徴とする回転体の三次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 1,
Projection condition determination means
In the XYZ three-dimensional coordinate system, a parameter that defines the position of the optical axis L, a parameter that defines a first reference circle that is included in a first plane orthogonal to the Z axis and that has a center point on the Z axis, and Z A parameter setting unit that sets a parameter that defines a second reference circle that is included in a second plane orthogonal to the axis and that has a center point on the Z axis, based on an instruction from the operator;
On the XYZ three-dimensional coordinate system, a predetermined projection plane S orthogonal to the optical axis L, and a viewpoint E located at a position separated from the projection plane S along the optical axis L by the distance f. The first reference circle and the second reference circle are perspectively projected onto the projection plane S with the viewpoint E as a reference, and the first circle projection image and the second circle are projected onto the projection plane S. A perspective projection calculation unit for obtaining a projection image;
The two-dimensional image is arranged on the projection plane S so that the center point of the two-dimensional image coincides with a foot G of a perpendicular line drawn from the viewpoint E to the projection plane S, and the two-dimensional image is placed on the two-dimensional image. A superimposed display unit that displays a superimposed state of the first circular projection image and the second circular projection image on a display screen;
In the display by the superimposed display unit, the first arc-shaped feature portion of the object image and all or a part of the first circular projection image coincide with each other with a predetermined accuracy, and the second arc-shaped feature portion of the object image Projecting the projection plane S and the viewpoint E defined by the perspective projection calculation unit when a match confirmation indicating that all or a part of the second circular projection image matches with a predetermined accuracy is obtained. A condition determining unit for determining a projection plane S and a viewpoint E as conditions;
A three-dimensional information restoration apparatus for a rotating body characterized by comprising:
請求項1に記載の三次元情報復元装置において、
三次元情報作成手段が、
輪郭線抽出手段によって抽出された輪郭線CCside上に所定間隔で複数n個の参照点PPを定義する参照点定義部と、
各参照点PPに対応する対応点Pを、「XYZ三次元座標系上において、Z軸に直交する所定平面に含まれ、Z軸上に中心点をもち、対応点Pを通る構造円Cを定義し、この構造円Cについての対応点Pにおける接線ベクトルTを求め、この接線ベクトルTを視点Eを基準として投影面Sへ透視投影することにより投影面S上に得られる二次元ベクトルTTが、参照点PPにおける輪郭線CCsideの接線となる」という条件を満足する点として求め、複数n個の構造円Cを定義する構造円定義部と、
前記構造円Cの集合に基づいて、回転体からなる物体の表面データを作成し、これを三次元情報として出力する表面データ作成部と、
を有することを特徴とする回転体の三次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 1,
Three-dimensional information creation means
A reference point defining unit for defining a plurality of n reference points PP at predetermined intervals on the contour line CCside extracted by the contour line extracting means;
Corresponding points P corresponding to the respective reference points PP are defined as “a structural circle C included in a predetermined plane orthogonal to the Z axis on the XYZ three-dimensional coordinate system, having a center point on the Z axis, and passing through the corresponding point P. A two-dimensional vector TT obtained on the projection plane S is obtained by obtaining a tangent vector T at the corresponding point P with respect to the structural circle C, and perspectively projecting the tangent vector T onto the projection plane S with the viewpoint E as a reference. , A tangent of the contour line CCside at the reference point PP ”, a structural circle definition part that defines a plurality of n structural circles C,
Based on the set of structural circles C, create surface data of an object made of a rotating body, and output this as three-dimensional information;
A three-dimensional information restoration apparatus for a rotating body characterized by comprising:
請求項1に記載の三次元情報復元装置において、
投影条件決定手段が、
XYZ三次元座標系において、光軸Lの位置を定義するパラメータと、Z軸に直交する第1の平面に含まれZ軸上に中心点をもつ第1の参照円を定義するパラメータと、Z軸に直交する第2の平面に含まれZ軸上に中心点をもつ第2の参照円を定義するパラメータと、をオペレータの指示に基づいて設定するパラメータ設定部と、
前記XYZ三次元座標系上に、前記光軸Lに直交する所定の投影面Sと、この投影面Sから前記光軸Lに沿って前記距離fだけ離れた場所に位置する視点Eと、を定義し、前記第1の参照円および前記第2の参照円を、前記視点Eを基準として前記投影面Sへ透視投影し、前記投影面S上に第1の円投影像および第2の円投影像を求める透視投影演算部と、
前記二次元画像の中心点が前記視点Eから前記投影面Sに下した垂線の足Gに一致するように、前記投影面S上に前記二次元画像を配置し、前記二次元画像上に前記第1の円投影像および前記第2の円投影像を重畳した状態をディスプレイ画面上に表示する重畳表示部と、
前記重畳表示部による表示において、物体像の第1の円弧状特徴部と前記第1の円投影像の全部もしくは一部とが所定精度で一致し、物体像の第2の円弧状特徴部と前記第2の円投影像の全部もしくは一部とが所定精度で一致したことを示す一致確認が得られたときに、前記透視投影演算部が定義している投影面Sおよび視点Eを、投影条件となる投影面Sおよび視点Eと決定する条件決定部と、
を有し、
三次元情報作成手段が、
輪郭線抽出手段によって抽出された輪郭線CCside上に所定間隔で複数n個の参照点PPを定義する参照点定義部と、
各参照点PPに対応する対応点Pを、「XYZ三次元座標系上において、Z軸に直交する所定平面に含まれ、Z軸上に中心点をもち、対応点Pを通る構造円Cを定義し、この構造円Cについての対応点Pにおける接線ベクトルTを求め、この接線ベクトルTを視点Eを基準として投影面Sへ透視投影することにより投影面S上に得られる二次元ベクトルTTが、参照点PPにおける輪郭線CCsideの接線となる」という条件を満足する点として求め、複数n個の構造円Cを定義する構造円定義部と、
前記構造円Cの集合に基づいて、回転体からなる物体の表面データを作成し、これを三次元情報として出力する表面データ作成部と、
を有することを特徴とする回転体の三次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 1,
Projection condition determination means
In the XYZ three-dimensional coordinate system, a parameter that defines the position of the optical axis L, a parameter that defines a first reference circle that is included in a first plane orthogonal to the Z axis and that has a center point on the Z axis, and Z A parameter setting unit that sets a parameter that defines a second reference circle that is included in a second plane orthogonal to the axis and that has a center point on the Z axis, based on an instruction from the operator;
On the XYZ three-dimensional coordinate system, a predetermined projection plane S orthogonal to the optical axis L, and a viewpoint E located at a position separated from the projection plane S along the optical axis L by the distance f. The first reference circle and the second reference circle are perspectively projected onto the projection plane S with the viewpoint E as a reference, and the first circle projection image and the second circle are projected onto the projection plane S. A perspective projection calculation unit for obtaining a projection image;
The two-dimensional image is arranged on the projection plane S so that the center point of the two-dimensional image coincides with a foot G of a perpendicular line drawn from the viewpoint E to the projection plane S, and the two-dimensional image is placed on the two-dimensional image. A superimposed display unit that displays a superimposed state of the first circular projection image and the second circular projection image on a display screen;
In the display by the superimposed display unit, the first arc-shaped feature portion of the object image and all or a part of the first circular projection image coincide with each other with a predetermined accuracy, and the second arc-shaped feature portion of the object image Projecting the projection plane S and the viewpoint E defined by the perspective projection calculation unit when a match confirmation indicating that all or a part of the second circular projection image matches with a predetermined accuracy is obtained. A condition determining unit for determining a projection plane S and a viewpoint E as conditions;
Have
Three-dimensional information creation means
A reference point defining unit for defining a plurality of n reference points PP at predetermined intervals on the contour line CCside extracted by the contour line extracting means;
Corresponding points P corresponding to the respective reference points PP are defined as “a structural circle C included in a predetermined plane orthogonal to the Z axis on the XYZ three-dimensional coordinate system, having a center point on the Z axis, and passing through the corresponding point P. A two-dimensional vector TT obtained on the projection plane S is obtained by obtaining a tangent vector T at the corresponding point P with respect to the structural circle C, and perspectively projecting the tangent vector T onto the projection plane S with the viewpoint E as a reference. , A tangent of the contour line CCside at the reference point PP ”, a structural circle definition part that defines a plurality of n structural circles C,
Based on the set of structural circles C, create surface data of an object made of a rotating body, and output this as three-dimensional information;
A three-dimensional information restoration apparatus for a rotating body characterized by comprising:
請求項1〜4のいずれかに記載の三次元情報復元装置において、
撮影条件入力手段が、撮影に用いたカメラの焦点距離を「視点と投影面との距離f」を示す情報として入力することを特徴とする回転体の三次元情報復元装置。
In the three-dimensional information restoration apparatus according to any one of claims 1 to 4,
A three-dimensional information restoration apparatus for a rotating body, wherein the photographing condition input means inputs the focal length of the camera used for photographing as information indicating "distance f between the viewpoint and the projection plane".
請求項1〜4のいずれかに記載の三次元情報復元装置において、
撮影条件入力手段が、撮影に用いたカメラの画角を「視点と投影面との距離f」を示す情報として入力することを特徴とする回転体の三次元情報復元装置。
In the three-dimensional information restoration apparatus according to any one of claims 1 to 4,
A three-dimensional information restoration apparatus for a rotating body, wherein the photographing condition input means inputs the angle of view of the camera used for photographing as information indicating "distance f between viewpoint and projection plane".
請求項1〜4のいずれかに記載の三次元情報復元装置において、
投影条件決定手段が、物体像に含まれる「物体の下端面に対応する部分」および「物体の上端面に対応する部分」を、それぞれ円弧状特徴部として用いることを特徴とする回転体の三次元情報復元装置。
In the three-dimensional information restoration apparatus according to any one of claims 1 to 4,
The projection condition determining means uses the “part corresponding to the lower end surface of the object” and the “part corresponding to the upper end surface of the object” included in the object image as arcuate features, respectively. Original information restoration device.
請求項1〜4のいずれかに記載の三次元情報復元装置において、
輪郭線抽出手段が、二次元画像上で行われたオペレータによるトレース操作の軌跡に基づいて、輪郭線を抽出する処理を行うことを特徴とする回転体の三次元情報復元装置。
In the three-dimensional information restoration apparatus according to any one of claims 1 to 4,
A three-dimensional information restoration apparatus for a rotating body, wherein the contour extraction means performs a process of extracting a contour based on a trace operation trace performed by an operator performed on a two-dimensional image.
請求項1〜4のいずれかに記載の三次元情報復元装置において、
輪郭線抽出手段が、二次元画像を構成する個々の画素の画素値の差に基づいて、輪郭線を自動抽出する処理を行うことを特徴とする回転体の三次元情報復元装置。
In the three-dimensional information restoration apparatus according to any one of claims 1 to 4,
A three-dimensional information restoration apparatus for a rotating body, wherein the contour extraction means performs a process of automatically extracting a contour based on a difference between pixel values of individual pixels constituting a two-dimensional image.
請求項9に記載の三次元情報復元装置において、
自動抽出された輪郭線に対して、二次元画像上で行われたオペレータによるトレース操作の軌跡に基づく補正を施し、補正後の輪郭線を抽出する処理を行うことを特徴とする回転体の三次元情報復元装置。
The three-dimensional information restoration device according to claim 9,
A tertiary body of a rotating body characterized in that the automatically extracted contour line is subjected to correction based on the trace operation trace performed by the operator on the two-dimensional image, and the corrected contour line is extracted. Original information restoration device.
請求項2または4に記載の三次元情報復元装置において、
パラメータ設定部が、光軸Lを定義するパラメータとして、光軸LとXY平面とのなす角度θ、および光軸LとXY平面との交点ξの位置を用いることを特徴とする回転体の三次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 2 or 4,
The parameter setting unit uses the angle θ formed between the optical axis L and the XY plane and the position of the intersection ξ between the optical axis L and the XY plane as parameters defining the optical axis L. Original information restoration device.
請求項11に記載の三次元情報復元装置において、
パラメータ設定部が、角度θを増減させる設定操作について「円投影像の形状補正」を行うための操作である旨の提示を行い、交点ξの位置を変動させる設定操作について「円投影像の位置補正」を行うための操作である旨の提示を行うことを特徴とする回転体の三次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 11,
The parameter setting unit presents that the setting operation for increasing / decreasing the angle θ is an operation for performing “shape correction of the circular projection image”, and the setting operation for changing the position of the intersection ξ “the position of the circular projection image” A three-dimensional information restoration apparatus for a rotator, which presents that the operation is for performing “correction”.
請求項2または4に記載の三次元情報復元装置において、
パラメータ設定部が、第1の参照円を常にXY平面上の円とし、第2の参照円を平面「Z=D」上の円とし、各参照円を定義するパラメータとして、第1の参照円の半径および第2の参照円の半径、ならびにDの値を用いることを特徴とする回転体の三次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 2 or 4,
The parameter setting unit always sets the first reference circle as a circle on the XY plane, sets the second reference circle as a circle on the plane “Z = D”, and sets each reference circle as a parameter. And a radius of the second reference circle, and a value of D are used.
請求項13に記載の三次元情報復元装置において、
パラメータ設定部が、第1の参照円の半径および第2の参照円の半径を増減させる設定操作について「円投影像のサイズ補正」を行うための操作である旨の提示を行い、値Dを増減させる設定操作について「2つの円投影像の相対位置補正」を行うための操作である旨の提示を行うことを特徴とする回転体の三次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 13,
The parameter setting unit presents that the setting operation for increasing or decreasing the radius of the first reference circle and the radius of the second reference circle is an operation for performing “size correction of the circular projection image”, and sets the value D to A three-dimensional information restoration apparatus for a rotating body, which presents that the setting operation to increase / decrease is an operation for performing “relative position correction of two circular projection images”.
請求項13または14に記載の三次元情報復元装置において、
物体像に含まれる「物体の下端面に対応する部分」を第1の円弧状特徴部とし、物体像に含まれる「物体の上端面に対応する部分」を第2の円弧状特徴部とすることを特徴とする回転体の三次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 13 or 14,
The “part corresponding to the lower end surface of the object” included in the object image is the first arc-shaped feature, and the “part corresponding to the upper end surface of the object” included in the object image is the second arc-shaped feature. A three-dimensional information restoration apparatus for a rotating body.
請求項15に記載の三次元情報復元装置において、
輪郭線抽出手段が、第1の円投影像上の1点と第2の円投影像上の1点とを両端点とする輪郭線CCsideを抽出することを特徴とする回転体の三次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 15,
The contour extraction means extracts a contour CCside having both ends of one point on the first circle projection image and one point on the second circle projection image, and the three-dimensional information of the rotating body Restore device.
請求項3または4に記載の三次元情報復元装置において、
構造円定義部が、
参照点PPにおける輪郭線CCsideの接線ベクトルTTを、その先端点QQを定めることにより、2点PP/QQを結ぶ投影面S上の線分として定義し、対応点Pにおける構造円Cの接線ベクトルTを、その先端点Qを定めることにより、2点P/Qを結ぶXYZ三次元座標系上の線分として定義し、
「前記対応点Pおよび前記先端点Qを、視点Eを基準として投影面Sへ透視投影することにより得られる点が、それぞれ前記参照点PPおよび前記先端点QQに一致する」という条件を用いて、対応点PのXYZ三次元座標系上の座標値を求める演算を行うことを特徴とする回転体の三次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 3 or 4,
The structural circle definition part
The tangent vector TT of the contour line CCside at the reference point PP is defined as a line segment on the projection plane S connecting the two points PP / QQ by defining the tip point QQ, and the tangent vector of the structural circle C at the corresponding point P T is defined as a line segment on an XYZ three-dimensional coordinate system connecting two points P / Q by defining the tip point Q.
Using the condition that “the points obtained by perspective projection of the corresponding point P and the tip point Q onto the projection plane S with the viewpoint E as a reference coincide with the reference point PP and the tip point QQ, respectively”. A three-dimensional information restoration apparatus for a rotating body, which performs a calculation for obtaining a coordinate value of the corresponding point P on an XYZ three-dimensional coordinate system.
請求項17に記載の三次元情報復元装置において、
構造円定義部が、
XYZ三次元座標系上における対応点Pの座標値(xp,yp,h)および先端点Qの座標値(xq,yq,h)をそれぞれ未知数として定義し、
投影面S上に定義されたαβ二次元座標系上における参照点PPの既知座標値(αpp,βpp)および先端点QQの既知座標値(αqq,βqq)を、XYZ三次元座標系上における投影面Sの位置情報を利用することにより、それぞれXYZ三次元座標系上の座標値(xpp,ypp,zpp)および(xqq,yqq,zqq)に変換する演算を行い、
接線ベクトルTが構造円Cの対応点Pにおける接線であることを示す第1の条件式
−xp/yp=(yq−yp)/(xq−xp) に、
参照点PPおよび先端点QQが、対応点Pおよび先端点Qを、既知座標値(xe,ye,ze)によってその位置が定義される視点Eを基準として投影面Sへ透視投影することにより得られる点であることを示す第2の条件式
xp=((h−ze)・(xpp−xe))/(zpp−ze)+xe
yp=((h−ze)・(ypp−ye))/(zpp−ze)+ye
xq=((h−ze)・(xqq−xe))/(zqq−ze)+xe
yq=((h−ze)・(yqq−ye))/(zqq−ze)+ye
を代入し、得られた方程式を解くことにより未知数hの値を算出し、算出したhの値を前記第2の条件式に代入することにより、座標値xp,ypを求め、「Z=h」平面上に、半径R=(xp+yp1/2をもった構造円Cを定義することを特徴とする回転体の三次元情報復元装置。
The three-dimensional information restoration device according to claim 17,
The structural circle definition part
Define the coordinate value (xp, yp, h) of the corresponding point P and the coordinate value (xq, yq, h) of the tip point Q on the XYZ three-dimensional coordinate system as unknowns,
Projecting the known coordinate values (αpp, βpp) of the reference point PP and the known coordinate values (αqq, βqq) of the tip point QQ on the XYZ three-dimensional coordinate system defined on the αβ two-dimensional coordinate system defined on the projection plane S By using the position information of the surface S, an operation for converting into coordinate values (xpp, ypp, zpp) and (xqq, yqq, zqq) on the XYZ three-dimensional coordinate system is performed,
The first conditional expression −xp / yp = (yq−yp) / (xq−xp) indicating that the tangent vector T is a tangent at the corresponding point P of the structural circle C
The reference point PP and the tip point QQ are obtained by perspectively projecting the corresponding point P and the tip point Q onto the projection plane S with the viewpoint E defined by the known coordinate values (xe, ye, ze) as a reference. Xp = ((h−ze) · (xpp−xe)) / (zpp−ze) + xe
yp = ((h-ze). (ypp-ye)) / (zpp-ze) + ye
xq = ((h-ze). (xqq-xe)) / (zqq-ze) + xe
yq = ((h-ze). (yqq-ye)) / (zqq-ze) + ye
And the value of the unknown h is calculated by solving the obtained equation, and the calculated value of h is substituted into the second conditional expression to obtain the coordinate values xp and yp, and “Z = h A three-dimensional information restoration apparatus for a rotating body, characterized by defining a structural circle C having a radius R = (xp 2 + yp 2 ) 1/2 on a plane.
請求項4に記載の三次元情報復元装置において、
構造円定義部が、一致確認が得られた時点でパラメータ設定部に設定されているパラメータによって定義される第1の参照円および第2の参照円を、構造円の一部として定義し、合計(n+2)個の構造円を定義することを特徴とする回転体の三次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 4,
The structural circle definition unit defines the first reference circle and the second reference circle defined by the parameters set in the parameter setting unit at the time when the coincidence confirmation is obtained as a part of the structural circle, and the total A rotating body three-dimensional information restoration apparatus characterized by defining (n + 2) structural circles.
請求項1〜19のいずれかに記載の回転体の三次元情報復元装置としてコンピュータを機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as the three-dimensional information restoration apparatus for a rotating body according to any one of claims 1 to 19.
JP2005095040A 2005-03-29 2005-03-29 3D information restoration device for rotating body Expired - Fee Related JP4456029B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005095040A JP4456029B2 (en) 2005-03-29 2005-03-29 3D information restoration device for rotating body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005095040A JP4456029B2 (en) 2005-03-29 2005-03-29 3D information restoration device for rotating body

Publications (2)

Publication Number Publication Date
JP2006277293A JP2006277293A (en) 2006-10-12
JP4456029B2 true JP4456029B2 (en) 2010-04-28

Family

ID=37212000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005095040A Expired - Fee Related JP4456029B2 (en) 2005-03-29 2005-03-29 3D information restoration device for rotating body

Country Status (1)

Country Link
JP (1) JP4456029B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5075182B2 (en) * 2009-10-20 2012-11-14 楽天株式会社 Image processing apparatus, image processing method, and image processing program
US8570343B2 (en) * 2010-04-20 2013-10-29 Dassault Systemes Automatic generation of 3D models from packaged goods product images
CN104126157B (en) * 2013-02-21 2016-01-20 三菱电机株式会社 Interference checking device and numerical control device
JP6746860B2 (en) * 2016-03-31 2020-08-26 前田建設工業株式会社 Marking support device and marking support method
CN109949405B (en) * 2019-02-22 2022-09-13 安徽省川佰科技有限公司 Multi-dimensional data linkage analysis system based on tilt modeling
KR102249769B1 (en) * 2019-12-06 2021-05-12 주식회사 모빌테크 Estimation method of 3D coordinate value for each pixel of 2D image and autonomous driving information estimation method using the same
EP4066749A4 (en) * 2021-02-05 2022-11-30 Shenzhen Institutes of Advanced Technology Chinese Academy of Sciences Soft apparatus for opening eyelids and method therefor
CN114413805B (en) * 2021-10-29 2024-03-26 中国航发西安动力控制科技有限公司 Three-dimensional cam digital measurement method based on three-dimensional vector and two-dimensional vector conversion
CN114048567A (en) * 2021-11-15 2022-02-15 江苏徐工工程机械研究院有限公司 Vane intersecting line of impeller machine, design method of vane, and vane of impeller machine

Also Published As

Publication number Publication date
JP2006277293A (en) 2006-10-12

Similar Documents

Publication Publication Date Title
JP4456029B2 (en) 3D information restoration device for rotating body
JP3954211B2 (en) Method and apparatus for restoring shape and pattern in 3D scene
TWI387936B (en) A video conversion device, a recorded recording medium, a semiconductor integrated circuit, a fish-eye monitoring system, and an image conversion method
EP3018632B1 (en) Automated texture mapping and animation from images
CN104735293B (en) Image correcting apparatus image correcting method and recording medium
CN111199579B (en) Method, device, equipment and medium for building three-dimensional model of target object
CN101000461B (en) Method for generating stereoscopic panorama by fish eye image
US6529626B1 (en) 3D model conversion apparatus and method
US8269766B2 (en) Method for generating three-dimensional shape data, apparatus for generating three-dimensional shape data, and three-dimensional shape data generating program
US20130249901A1 (en) Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces
JP4010754B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
Courteille et al. Towards shape from shading under realistic photographic conditions
JP5842541B2 (en) 3D portrait creation device
JP2010287174A (en) Furniture simulation method, device, program, recording medium
WO2006049147A1 (en) 3d shape estimation system and image generation system
JP2016099235A (en) Normally placed image processing system and structure maintenance management business system
JP4835243B2 (en) Image composition apparatus and image composition program
JP5363878B2 (en) Stereo image photographing apparatus and method thereof
JP2002525746A (en) Method for combining computer models of two surfaces in three-dimensional space
JP2017059041A (en) Image processing device, image processing method, and program
JP2008224323A (en) Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program
CN110363806A (en) A method of three-dimensional space modeling is carried out using black light projection feature
JP3429400B2 (en) Modeling system
JP2003070021A (en) Portable three-dimensional data input apparatus and stereoscopic model generating apparatus
Skabek et al. Comparison of photgrammetric techniques for surface reconstruction from images to reconstruction from laser scanning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees