JPH05181980A - Method and device for three-dimensional shape restoration - Google Patents

Method and device for three-dimensional shape restoration

Info

Publication number
JPH05181980A
JPH05181980A JP4143181A JP14318192A JPH05181980A JP H05181980 A JPH05181980 A JP H05181980A JP 4143181 A JP4143181 A JP 4143181A JP 14318192 A JP14318192 A JP 14318192A JP H05181980 A JPH05181980 A JP H05181980A
Authority
JP
Japan
Prior art keywords
target object
image data
dimensional shape
reflection map
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4143181A
Other languages
Japanese (ja)
Other versions
JP3198617B2 (en
Inventor
Shigeru Arisawa
繁 有沢
Masahiro Fujita
雅博 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP14318192A priority Critical patent/JP3198617B2/en
Publication of JPH05181980A publication Critical patent/JPH05181980A/en
Application granted granted Critical
Publication of JP3198617B2 publication Critical patent/JP3198617B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To obtain the three-dimensional shape restoring method which can accurately restore even sudden variation of the surface of an object body when image data for restoring the three-dimensional shape of the object body are generated by using shadow information regarding two-dimensional brightness image data obtained by picking up an image of the object body. CONSTITUTION:A function block which carries out the three-dimensional shape restoring method detects the edge of two-dimensional brightness image data I(x, y) (16) and calculates parameters (k) and (m) indicating the smoothness of the surface of the object body from the edge (17). Those parameters are used to determine reflection map parameters (p) and (q) as the shadow information for accurately restoring the three-dimensional shape (27 and 29) and the reflection map parameters (p) and (q) are used to generate image data for restoring the three-dimensional shape of the object body (30).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は3次元形状を有する対象
物体を撮像した二次元輝度画像データからその対象物体
の3次元形状を復元する画像データを生成する三次元形
状復元方法とその装置に関するものであり,特に,3次
元形状を有する対象物体を撮像した二次元輝度画像デー
タについてその陰影情報を用いて,短時間かつ正確に,
対象物体の3次元形状を復元する画像データを生成する
三次元形状復元方法とその装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional shape restoring method and apparatus for generating image data for restoring a three-dimensional shape of a target object from two-dimensional luminance image data of a target object having a three-dimensional shape. In particular, the 2D luminance image data of a target object having a 3D shape is used in a short time and accurately by using its shadow information.
The present invention relates to a three-dimensional shape restoration method and apparatus for generating image data for restoring a three-dimensional shape of a target object.

【0002】[0002]

【従来の技術】たとえば,ファクトリ・オートメーショ
ン(FA),産業用ロボットなどにおいては,ロボット
のハンド把持状態を認識するため,CCDカメラなどの
撮像手段で撮像した2次元画像データを入手し,その2
次元画像データについて特徴抽出などの画像処理を行っ
て,もとのロボットのハンドの把持状態を復元すること
が試みられている。
2. Description of the Related Art For example, in factory automation (FA), industrial robots, etc., in order to recognize the hand gripping state of a robot, two-dimensional image data picked up by an image pickup means such as a CCD camera is obtained.
Attempts have been made to restore the original gripped state of the robot hand by performing image processing such as feature extraction on three-dimensional image data.

【0003】このような,3次元形状を有する対象物体
の2次元画像データからその3次元形状を復元する画像
データを生成する際,2つの問題に遭遇する。第1の問
題は,奥行情報が欠落した2次元画像データからいかに
正確に対象物体の3次元形状を復元する画像データを生
成するかという問題である。第2の問題は,非常に多量
の2次元画像データから,いかに高速に3次元形状を復
元する画像データを生成するかという問題である。この
問題は,産業用ロボットなどにおいて,その三次元形状
復元結果を実時間で使用するという観点から特に問題と
なる。この問題については,多量の画像データを高速に
処理可能な高速な情報処理装置,たとえば,ディジタル
シグナルプロセッサ(DSP)などを用いる方法が知ら
れている。
Two problems are encountered when generating image data for restoring the three-dimensional shape from the two-dimensional image data of a target object having such a three-dimensional shape. The first problem is how to accurately generate the image data for restoring the three-dimensional shape of the target object from the two-dimensional image data lacking the depth information. The second problem is how to quickly generate image data for reconstructing a three-dimensional shape from a very large amount of two-dimensional image data. This problem is particularly problematic for industrial robots, etc. from the viewpoint of using the three-dimensional shape restoration result in real time. Regarding this problem, a method using a high-speed information processing device capable of processing a large amount of image data at high speed, for example, a digital signal processor (DSP) is known.

【0004】前者の問題を解決する試みとしては,数学
的に,直交する2次元座標系のパラメータx,yにおけ
る輝度を示す2次元関数f(x,y)で示される画像デ
ータを対数変換する方法が知られている(たとえば,C
Q出版,「インターフェース」,1988年10月号,
第172〜182ページ参照)。しかしながら,この方
法はその画像処理が複雑であり,処理時間がかかるた
め,実時間性の観点から適用が難しい。また,3次元形
状を有する対象物体を正確に復元する画像データを得る
ことが難しいという問題に遭遇している。
In an attempt to solve the former problem, mathematically, the image data represented by a two-dimensional function f (x, y) indicating the brightness at the parameters x and y of the orthogonal two-dimensional coordinate system is logarithmically transformed. Methods are known (eg C
Q Publishing, "Interface", October 1988 issue,
Pp. 172-182). However, this method is difficult to apply from the viewpoint of real-time processing because the image processing is complicated and takes a long processing time. Further, there is a problem that it is difficult to obtain image data that accurately reconstructs a target object having a three-dimensional shape.

【0005】その他の試みとしては,対象物体の陰影情
報からその3次元形状を示す画像データを生成する方法
(「Shape from Shading」) が試みられている。この陰
影情報から3次元形状画像データを生成する方法は,3
次元形状を微分するとその表面が計算でき,その表面か
ら反射地図を用いて変換すると陰影情報になることを逆
に行って,陰影情報から対象物体の表面の方向を求め,
さらに求めた表面を積分することにより,3次元形状を
復元しようとするものである。対象物体の表面に垂直な
方向に法線ベクトルを考え,対象物体の表面にある角度
で照明光を照射し,その反射光を照明光とは異なる他の
角度で観察した場合,具体的には,ビデオカメラなどで
撮像した場合に用いる地図であり,照明条件,対象物体
の表面の状態,観察者の位置をパラメータとして表され
る地図を示す。つまり,図10に示すように,手段61
において二次元輝度画像データから対象物体の形状の傾
きを算出し,このとき陰影情報として用いる適切な反射
地図パラメータ:p,q(またはマッピングパラメー
タ:f,g)を推定し,この反射地図パラメータ:p,
qを積分手段62において積分してもとの対象物体の3
次元形状を復元する画像を生成する。その具体的な装置
構成としては,図11に示すように,対象物体を撮像す
るビデオカメラ71,撮像した画像データをディジタル
値に変換するアナログ/ディジタル変換部72,変換し
た二次元輝度画像データを記憶するビデオRAM73,
後述する画像処理を行うワークステーション75,その
結果を表示するCRT76,および,ユーザーが希望す
る指令を入力するキーボード77からなる装置となる。
As another attempt, a method (“Shape from Shading”) of generating image data showing the three-dimensional shape of a target object from shadow information has been tried. The method of generating three-dimensional shape image data from this shadow information is 3
The surface can be calculated by differentiating the dimensional shape, and when the surface is converted using a reflection map, it becomes the shadow information, and the direction of the surface of the target object is obtained from the shadow information.
Furthermore, the surface thus obtained is integrated to restore the three-dimensional shape. Considering a normal vector in the direction perpendicular to the surface of the target object, illuminating the surface of the target object with illumination light at a certain angle, and observing the reflected light at another angle different from the illumination light, specifically, , Which is a map used when imaged by a video camera or the like, and shows a map in which the lighting conditions, the state of the surface of the target object, and the position of the observer are used as parameters. That is, as shown in FIG.
In, the inclination of the shape of the target object is calculated from the two-dimensional luminance image data, and at this time, appropriate reflection map parameters: p, q (or mapping parameters: f, g) used as shadow information are estimated, and the reflection map parameters: p,
3 of the original target object is obtained by integrating q in the integrating means 62.
Generate an image that restores the three-dimensional shape. As a specific device configuration, as shown in FIG. 11, a video camera 71 for picking up a target object, an analog / digital converter 72 for converting the picked-up image data into a digital value, and the converted two-dimensional luminance image data are provided. Video RAM 73 for storing,
The device comprises a work station 75 for performing image processing, which will be described later, a CRT 76 for displaying the result, and a keyboard 77 for inputting a command desired by the user.

【0006】一般に,陰影情報から対象物体の形状の表
面を計算することは明確に行うことはできない。そこ
で,形状の表面が滑らかであるとして,表面の連続性を
仮定して正則化を図った三次元形状復元方法が試みられ
ている。対象物体の3次元形状を復元するに際しては,
上述した照明条件,対象物体の表面の状態,観察者の位
置が問題となる。一方,これら照明条件,対象物体の表
面の状態,観察者の位置が決定されると,面の傾きで輝
度が決定できる。x,y,z座標系において,δx,δ
yの変化に対して,z方向の変化が,x方向にpδx傾
き,y方向にqδy傾いたとき,後述する式20で表さ
れるパラメータp,qを反射地図パラメータとして輝度
R(p,q)を求めることができる。このために使用す
る地図を反射地図と呼ぶ。対象物体についてビデオカメ
ラ71などで撮像した2次元輝度データをI(x,y)
とし,反射地図における輝度データをR(p(x,
y),q(x,y))としたとき, I(x,y)=R(p(x,y),q(x,y)) =Rs(f,g) を満足する反射地図パラメータ:p,q,または,マッ
ピングパラメータ:f,gを決定すればよい。反射地図
パラメータ:p,qとマッピングパラメータ:f,gと
の関連は後述する。
In general, it is not possible to explicitly calculate the surface of the shape of the target object from the shadow information. Therefore, a three-dimensional shape restoration method has been attempted, assuming that the surface of the shape is smooth and assuming the continuity of the surface for regularization. When restoring the three-dimensional shape of the target object,
The above-mentioned illumination conditions, the state of the surface of the target object, and the position of the observer are problems. On the other hand, when these illumination conditions, the state of the surface of the target object, and the position of the observer are determined, the brightness can be determined by the inclination of the surface. δx, δ in the x, y, z coordinate system
When the change in the z direction is tilted by pδx in the x direction and qδy is tilted in the y direction with respect to the change in y, the brightness R (p, q is defined as parameters p and q represented by Expression 20 described later. ) Can be asked. The map used for this is called a reflection map. The two-dimensional luminance data of the target object captured by the video camera 71 or the like is I (x, y).
And the luminance data on the reflection map is R (p (x,
y), q (x, y)), I (x, y) = R (p (x, y), q (x, y)) = Rs (f, g) : P, q or mapping parameters: f, g may be determined. The relationship between the reflection map parameters: p, q and the mapping parameters: f, g will be described later.

【0007】マッピングパラメータ:f,gについて述
べる。図3および図4は立体投影法による座標系を示す
ものであり,半径1の球の上に接する平面を考え,球の
下端の極と球のある面との交点とを結ぶ線の延長が上記
平面と交わる点の位置をマッピングパラメータ:f,g
で表し,球の中心と球面のある点とを結ぶ線の延長が上
記平面と交わる点の位置を反射地図パラメータ:p,q
で表す。そうすると,これらパラメータf,g,p,q
との間には下記の関係式が成り立つ。 f2 +q2 =22 f=2p/〔1+(1+p2+q21/2 〕 g=2q/〔1+(1+p2+q21/2 〕 p=4f/(4−f2 −q2 ) q=4g/(4−f2 −q2 ) 2次元空間における座標(x,y)に対する輝度I
(x,y)に対して、マッピングパラメータ:f,gに
対する輝度をRs (f,g)とすると,輝度Rsは, Rs(f,g)=R(p(x,y)q(x,y)) になる。したがって,マッピングパラメータ:f,gを
用いて対象物体の3次元形状の全ての面の傾きを表現す
ることが可能になる。もちろん,反射地図パラメータ:
p,qを用いて対象物体の3次元形状の全ての面の傾き
を表現することもできる。
Mapping parameters: f and g will be described. 3 and 4 show the coordinate system by the stereoscopic projection method. Considering a plane contacting a sphere with a radius of 1, the extension of the line connecting the pole at the lower end of the sphere and the intersection of the plane with the sphere Mapping position of a point intersecting with the above plane: f, g
, The position of the point where the extension of the line connecting the center of the sphere and a point on the sphere intersects the plane is the reflection map parameter: p, q
It is represented by. Then, these parameters f, g, p, q
The following relational expression holds between and. f 2 + q 2 = 2 2 f = 2p / [1+ (1 + p 2 + q 2 ) 1/2 ] g = 2q / [1+ (1 + p 2 + q 2 ) 1/2 ] p = 4f / (4-f 2 -q 2) q = 4g / (4 -f 2 -q 2) coordinates in two-dimensional space (x, luminance with respect to y) I
For (x, y), if the brightness for the mapping parameter: f, g is R s (f, g), the brightness Rs is Rs (f, g) = R (p (x, y) q (x , Y)). Therefore, it becomes possible to express the inclinations of all the surfaces of the three-dimensional shape of the target object using the mapping parameters: f and g. Of course, the reflection map parameters:
It is also possible to express the inclinations of all the three-dimensional shapes of the target object using p and q.

【0008】上述した陰影情報から対象物体の3次元形
状を復元した画像データを生成する方法を数式を用いて
整理する。ビデオカメラ71で対象物体を撮像したとき
得られる2次元輝度画像データは,直交2次元座標系に
おける任意の位置(x,y)における輝度データI
(x,y)として表される。対象物体の3次元形状表面
の曲率の変化率の度合es は,式1に示すようにマッピ
ングパラメータ:f,gを用いて表すことができる。
The method of generating the image data in which the three-dimensional shape of the target object is restored from the above-mentioned shadow information will be summarized using mathematical expressions. The two-dimensional luminance image data obtained when the target object is imaged by the video camera 71 is the luminance data I at an arbitrary position (x, y) in the orthogonal two-dimensional coordinate system.
It is represented as (x, y). The degree of change e s of the curvature of the three-dimensional surface of the target object can be represented by using mapping parameters f and g as shown in Expression 1.

【数1】 ただし,fx , gx はx方向のマッピングパラメータで
あり,fy , gy はy方向のマッピングパラメータであ
る。対象物体を撮像するとき,撮像された輝度情報は照
明などの明るさの影響を大きく受ける。対象物体を撮像
した2次元画像データの明るさへの忠実度ei を式2に
示す。
[Equation 1] However, fx and gx are mapping parameters in the x direction, and fy and gy are mapping parameters in the y direction. When capturing an image of a target object, the captured brightness information is greatly affected by the brightness of the lighting or the like. Equation 2 shows the fidelity e i to the brightness of the two-dimensional image data of the target object.

【数2】 ただし,I(x,y)はx,y平面における輝度データ
であり,Rs(f,g)はマッピングパラメータf,g
に対する輝度である。
[Equation 2] However, I (x, y) is the luminance data on the x, y plane, and Rs (f, g) is the mapping parameter f, g.
Is the brightness for.

【0009】式1および式2はいずれも一般的な連続式
であるから,ディジタル信号処理に適する離散的な式に
直すと,対象物体の三次元形状の表面の曲率の変化率の
離散的な度合es は下記式になる。
Since both Equations 1 and 2 are general continuous equations, if they are rewritten as discrete equations suitable for digital signal processing, the rate of change of the curvature of the surface of the three-dimensional shape of the target object will be discrete. The degree e s is given by the following formula.

【数3】 対象物体を撮像した2次元画像の明るさへの離散的な忠
実度ei は下記式になる。
[Equation 3] The discrete fidelity to the brightness of the two-dimensional image of the target object e i is given by the following equation.

【数4】 [Equation 4]

【0010】ここで,対象物体の3次元形状を正確に復
元するマッピングパラメータ:f,gを決定する判別値
としてのエネルギーを示すエネルギーパラメータeを下
記式で表す。 e=Sij+λ・rij ただし,Sijは式3に示したマッピングパラメータにつ
いての値であり,rijは式4に示した忠実度を示すパラ
メータであり,λは評価係数である。この式において,
エネルギーパラメータeを最小,たとえば,0または少
なくともほぼ0にするマッピングパラメータ:f,gを
求めればよい。このエネルギーパラメータeの値を最小
にするには、式5および式6に示すように,エネルギー
パラメータeをマッピングパラメータ:fkl, g klでそ
れぞれ偏微分して,それらの最小値(0またはほぼ0)
を求めればよい。
Here, the energy parameter e indicating the energy as the discriminant value for determining the mapping parameters f and g for accurately restoring the three-dimensional shape of the target object is expressed by the following formula. e = S ij + λ · r ij However, S ij is a value for the mapping parameter shown in Expression 3, r ij is a parameter indicating the fidelity shown in Expression 4, and λ is an evaluation coefficient. In this formula,
Mapping parameters: f, g that minimize the energy parameter e, for example, 0 or at least almost 0, may be obtained. In order to minimize the value of this energy parameter e, as shown in Equation 5 and Equation 6, the energy parameter e is partially differentiated by the mapping parameters: f kl, g kl , and their minimum value (0 or almost 0)
You should ask.

【数5】 [Equation 5]

【数6】 [Equation 6]

【0011】式5および式6において,マッピングパラ
メータ:f,gの頭にバーを付けた,中心位置i,jの
周囲にマッピングパラメータ:f,gについての平均マ
ッピングパラメータは式7および式8で表される。
In equations (5) and (6), the average mapping parameters for the mapping parameters (f, g) around the center positions i, j in which the bar is added to the heads of the mapping parameters (f, g) are shown in equations (7) and (8). expressed.

【数7】 [Equation 7]

【数8】 [Equation 8]

【0012】また,一般的には式5および式6は下記式
で表される。
In general, equations 5 and 6 are expressed by the following equations.

【数9】 [Equation 9]

【数10】 [Equation 10]

【0013】図12および図13を参照して,対象物体
の2次元輝度画像データについての陰影情報を用いる従
来の三次元形状復元方法および三次元形状復元装置につ
いて述べる。この三次元形状復元装置は,CCDを有す
るカラー・ビデオ・カメラ81、カラーテレビ82およ
びビデオテープ記録再生装置(VTR)83,これらに
接続された画像処理装置90,および,パーソナル・コ
ンピュータ84を有する。画像処理装置90は,カラー
・ビデオ・カメラ81,カラーテレビ82またはVTR
83からの二次元画像データを入力して対象物体の3次
元形状を復元する画像データを生成する。その画像デー
タがパーソナル・コンピュータ84に出力されてパーソ
ナル・コンピュータ84からCRT表示装置などにその
対象物体の3次元形状が表示される。カラー・ビデオ・
カメラ81などからは対象物体を撮像したカラー2次元
輝度画像データが画像処理装置90に出力される。ただ
し,この例示においてはカラーについては考慮の対象と
はしない。
With reference to FIGS. 12 and 13, a conventional three-dimensional shape restoration method and a three-dimensional shape restoration apparatus using shadow information about two-dimensional luminance image data of a target object will be described. This three-dimensional shape restoring device has a color video camera 81 having a CCD, a color television 82 and a video tape recording / reproducing device (VTR) 83, an image processing device 90 connected to them, and a personal computer 84. .. The image processing device 90 includes a color video camera 81, a color television 82 or a VTR.
The two-dimensional image data from 83 is input to generate image data for restoring the three-dimensional shape of the target object. The image data is output to the personal computer 84, and the three-dimensional shape of the target object is displayed on the CRT display device or the like from the personal computer 84. Color video
Color two-dimensional luminance image data obtained by imaging the target object is output from the camera 81 or the like to the image processing device 90. However, color is not considered in this example.

【0014】2次元画像データから対象物体の3次元形
状を復元する画像データを生成する画像処理装置90
は,カラー・ビデオ・カメラ81などからのカラー2次
元輝度画像データを入力するインターフェースとしての
画像入力部901と、入力した2次元画像データをアナ
ログ信号からディジタル信号に変換するA/D変換部9
02,ディジタル信号に変換された2次元画像データを
記憶する画像データ記憶部903と,画像処理装置90
の全体の制御を司る制御部905と、2次元ディジタル
画像データをディジタル画像演算処理する画像データ演
算部906と,このデ画像データ演算部906の演算結
果が3次元復元画像データして適切か否かを判断する復
元画像データ判断部907,および,画像データ演算部
906において復元され一旦画像データ記憶部903に
記憶された3次元形状画像データ像をパーソナル・コン
ピュータ84などの外部装置に出力する画像データ出力
部904とから構成されている。
An image processing apparatus 90 for generating image data for restoring the three-dimensional shape of a target object from the two-dimensional image data.
Is an image input unit 901 as an interface for inputting color two-dimensional luminance image data from the color video camera 81 and the like, and an A / D conversion unit 9 for converting the input two-dimensional image data from an analog signal to a digital signal.
02, an image data storage unit 903 for storing two-dimensional image data converted into a digital signal, and an image processing device 90
Control unit 905 that controls the overall control of the image data, an image data calculation unit 906 that performs digital image calculation processing of two-dimensional digital image data, and whether the calculation result of the de-image data calculation unit 906 is appropriate as three-dimensional restored image data. An image to be output to an external device such as a personal computer 84, which is a restored image data determination unit 907 that determines whether or not, and a three-dimensional shape image data image that is restored in the image data calculation unit 906 and temporarily stored in the image data storage unit 903. And a data output unit 904.

【0015】この三次元形状復元装置の画像処理装置9
0は,上述した数式の演算を実行する図13に図解する
機能ブロックに従って,2次元画像データについての陰
影情報から対象物体の3次元形状を示す画像データを生
成する。図13に示した機能ブロックおよび上記数式を
参照して,図12に示した三次元形状復元装置内の画像
処理装置90の動作を述べる。画像データ入力手段10
5は,たとえば,ビデオカメラ81で撮像した対象物体
の2次元輝度画像データI(x,y)を入力する。マッ
ピングパラメータ生成手段101はマッピングパラメー
タ:f,gを生成する。平均マッピングパラメータ演算
手段102は式7および式8に従って,マッピングパラ
メータ生成手段101で生成したマッピングパラメー
タ:f,gの平均を計算する。さらに,平均マッピング
パラメータ演算手段102は式5および式6の右辺第1
項に示す,マッピングパラメータの偏差を計算する。輝
度演算手段104はマッピングパラメータ:f,gに対
する輝度Rsを演算する。輝度微分演算手段103は,
マッピングパラメータ:f,gに対する輝度Rsについ
て,式5および式6に従って偏微分して輝度の偏微分
値,∂Rs/∂f,∂Rs/∂gを算出する。
The image processing device 9 of this three-dimensional shape restoration device
0 generates image data showing the three-dimensional shape of the target object from the shadow information about the two-dimensional image data according to the functional block illustrated in FIG. The operation of the image processing device 90 in the three-dimensional shape restoration device shown in FIG. 12 will be described with reference to the functional blocks shown in FIG. 13 and the above mathematical expressions. Image data input means 10
5 inputs, for example, two-dimensional luminance image data I (x, y) of the target object imaged by the video camera 81. The mapping parameter generation means 101 generates mapping parameters: f and g. The average mapping parameter calculation means 102 calculates the average of the mapping parameters f and g generated by the mapping parameter generation means 101 according to equations 7 and 8. Further, the average mapping parameter calculation means 102 uses the first
Calculate the deviation of the mapping parameters shown in Section. The brightness calculation means 104 calculates the brightness Rs for the mapping parameters f and g. The brightness differential calculating means 103
Mapping parameters: Partial differentiation of the brightness Rs with respect to f and g according to Expression 5 and Expression 6 to calculate partial differential values of brightness, ∂Rs / ∂f, and ∂Rs / ∂g.

【0016】減算手段106は,2次元輝度画像データ
I(x,y)からマッピングパラメータ:f,gに対す
る輝度Rs(f,g)を減じる。すなわち,減算手段1
06は輝度偏差ΔI=I(x,y)−Rs(f,g)を
計算する。乗算手段107は,輝度偏差ΔI=I(x,
y)−Rs(f,g)に輝度偏微分結果∂Rs/∂f,
∂Rs/∂gを乗じる。さらに乗算手段108は,乗算
手段107の乗算結果に評価係数2λを乗じる。これに
より,式5および式6の右辺第2項が計算される。減算
手段109は,平均マッピングパラメータ演算手段10
2で演算した式5および式6の右辺第1項に示す結果か
ら,乗算手段108における演算結果である式5および
式6の右辺第2項に示す結果を減じる。その結果,減算
手段109の出力は,式5および式6に示す結果とな
る。判断手段110は減算手段109の演算結果が,対
象物体の3次元形状を復元するに適した値を示す,0ま
たはほぼ0であるか否かを判断する。もし,判断手段1
10において,適切な結果が得られたと判断された場合
は,反射地図処理手段113において,上記マッピング
パラメータ:f,gとパラメータp,qとの関係式に基
づいてパラメータp,qを算出する。積分手段114は
求められたパラメータp,qを積分して対象物体の3次
元形状を復元する画像データに変換する。減算手段10
9の結果がほぼ0とならず,判断手段110における判
断結果が否定された場合は,遅延手段111において所
定時間遅延された後,再度,マッピングパラメータ生成
手段101においてマッピングパラメータ:f,gを更
新して上述した演算および判定を反復する。
The subtracting means 106 subtracts the brightness Rs (f, g) for the mapping parameters f, g from the two-dimensional brightness image data I (x, y). That is, the subtraction means 1
06 calculates the brightness deviation ΔI = I (x, y) −Rs (f, g). The multiplication means 107 has a luminance deviation ΔI = I (x,
y) −Rs (f, g) to the luminance partial differentiation result ∂Rs / ∂f,
Multiply by ∂Rs / ∂g. Further, the multiplication means 108 multiplies the multiplication result of the multiplication means 107 by the evaluation coefficient 2λ. As a result, the second term on the right side of Expressions 5 and 6 is calculated. The subtraction unit 109 is the average mapping parameter calculation unit 10
From the result shown in the first term on the right side of Expressions 5 and 6 calculated in 2, the result shown in the second term on the right side of Expressions 5 and 6 which is the calculation result in the multiplication means 108 is subtracted. As a result, the output of the subtracting means 109 becomes the results shown in Expression 5 and Expression 6. The determination means 110 determines whether or not the calculation result of the subtraction means 109 is 0 or almost 0, which indicates a value suitable for restoring the three-dimensional shape of the target object. If the judgment means 1
When it is determined in 10 that an appropriate result is obtained, the reflection map processing means 113 calculates the parameters p and q based on the relational expression between the mapping parameters f and g and the parameters p and q. The integrating means 114 integrates the obtained parameters p and q and converts them into image data for restoring the three-dimensional shape of the target object. Subtraction means 10
When the result of 9 is not almost 0 and the judgment result of the judgment means 110 is negative, the delay means 111 delays for a predetermined time, and then the mapping parameter generation means 101 updates the mapping parameters: f and g again. Then, the above calculation and determination are repeated.

【0017】[0017]

【発明が解決しようとする課題】図12および図13に
示した三次元形状復元方法およびその装置においては,
判断手段110から遅延手段111を介してマッピング
パラメータ生成手段101に戻るフィードバックルー
プ,および,判断手段110から直接マッピングパラメ
ータ生成手段101に戻るフィードバックループを有し
ており,判断手段110において減算手段109の結果
が対象物体の3次元形状を復元するのに充分な結果が得
られないと判断されたとき,マッピングパラメータ:
f,gを更新して繰り返し収束演算を行うから,対象物
体の三次元形状復元処理時間が長くなるという問題があ
る。その結果,実時間性を満足させることができないと
いう問題に遭遇している。実時間性を満足させるには相
当高速で動作するDSPなどの高価格の装置を必要と
し,価格的に新たな問題を惹起させるという側面を有し
ている。また、上記三次元形状復元方法は,その前提と
して,対象物体の面が滑らかであると仮定して演算処理
している。したがって,対象物体の形状が急激に変化す
るようにな形状を持つ対象物体を復元しようとした場
合,復元された形状はもとの急激な変化を持つ表面とし
ては復元されず,なだらかな面を持つ形状として復元さ
れ,対象物体の三次元形状復元の正確さに欠けるという
問題に遭遇している。
In the three-dimensional shape restoration method and apparatus shown in FIGS. 12 and 13,
The determination means 110 has a feedback loop that returns to the mapping parameter generation means 101 via the delay means 111, and a feedback loop that returns from the determination means 110 directly to the mapping parameter generation means 101. When it is determined that the result is not sufficient to reconstruct the 3D shape of the target object, the mapping parameters:
Since f and g are updated and the convergence calculation is repeated, there is a problem that the three-dimensional shape restoration processing time of the target object becomes long. As a result, we have encountered the problem of not being able to satisfy real-time performance. In order to satisfy the real-time property, a high-priced device such as a DSP that operates at a considerably high speed is required, which has the aspect of causing new problems in terms of price. The three-dimensional shape restoration method is premised on the assumption that the surface of the target object is smooth to perform the arithmetic processing. Therefore, when attempting to restore a target object that has a shape such that the shape of the target object changes abruptly, the restored shape is not restored as the original surface with a sudden change, and a smooth surface is We have encountered a problem that the shape is restored as it has and the accuracy of the three-dimensional shape restoration of the target object is lacking.

【0018】さらに,従来の三次元形状復元方法におい
ては,図14および図15に示したように,陰影情報か
ら対象物体の3次元形状を復元する画像データを生成す
る際,遮蔽輪郭の部分の法線の傾きを初期値として与え
て,その値を固定して対象物体の表面の傾きを求めてい
る。しかしながら,特に,自然画の場合などにおいて
は,遮蔽輪郭の法線を正確に求めることが難しく,初期
値自体に誤差が含まれており,対象物体の3次元形状を
復元する画像データを正確に得ることが難しいという問
題に遭遇している。
Further, in the conventional three-dimensional shape restoring method, as shown in FIGS. 14 and 15, when generating image data for restoring the three-dimensional shape of the target object from the shadow information, the occluded contour portion The slope of the normal is given as an initial value, and that value is fixed to obtain the slope of the surface of the target object. However, especially in the case of a natural image, it is difficult to accurately obtain the normal line of the occlusion contour, and the initial value itself contains an error, so that the image data for restoring the three-dimensional shape of the target object can be accurately obtained. I am running into the problem of being difficult to obtain.

【0019】したがって,本発明は,上述した対象物体
の三次元形状復元処理時間を短縮して実時間性を満足さ
せる三次元形状復元方法および三次元形状復元装置を提
供することを目的とする。また本発明は,対象物体の形
状表面が必ずしも滑らかでない場合にも正確にそ3次元
形状を復元する画像データを生成することを可能とする
三次元形状復元方法および三次元形状復元装置を提供す
ることを目的とする。さらに本発明は,陰影情報から対
象物体の3次元形状を復元する画像データを生成する
際,初期値として与える法線ベクトルに多少の誤差が含
まれていても,その誤差の影響を取り除きながら,正確
に対象物体の3次元形状を復元可能な三次元形状復元方
法および三次元形状復元装置を提供することを目的とす
る。
Therefore, it is an object of the present invention to provide a three-dimensional shape restoring method and a three-dimensional shape restoring apparatus that shorten the three-dimensional shape restoring processing time of the above-mentioned target object and satisfy the real-time property. Further, the present invention provides a three-dimensional shape restoring method and a three-dimensional shape restoring apparatus capable of accurately generating image data for restoring the three-dimensional shape even when the shape surface of the target object is not necessarily smooth. The purpose is to Further, according to the present invention, when the image data for reconstructing the three-dimensional shape of the target object is generated from the shadow information, even if the normal vector given as the initial value includes some error, the influence of the error is removed, An object of the present invention is to provide a three-dimensional shape restoring method and a three-dimensional shape restoring apparatus that can accurately restore the three-dimensional shape of a target object.

【0020】[0020]

【課題を解決するための手段】上記問題を解決するた
め,本発明によれば,対象物体を撮像した二次元輝度画
像データについての陰影情報を用いて上記対象物体の三
次元形状を復元する画像データを生成する三次元形状復
元方法であって,上記二次元輝度画像データから上記対
象物体の形状の面の滑らかさを検出し,この滑らかさを
用いて対象物体の形状の復元状態を判別し,この判別結
果が適切な値を示す陰影情報を用いて上記対象物体の3
次元形状を復元する画像データを生成する第1の三次元
形状復元方法が提供される。本発明によれば,上記三次
元形状復元方法を実施する装置が提供される。この第1
の三次元形状復元装置は,対象物体の二次元輝度画像デ
ータを提供する手段と,上記二次元輝度画像データにつ
いて上記対象物体の陰影を示す反射地図パラメータを算
出する手段と,隣接する反射地図パラメータの差の二乗
を算出する手段と,反射地図パラメータに対する輝度を
算出する手段と,前記反射地図パラメータに対する輝度
についての反射地図パラメータに対する微分結果を算出
する手段と,上記二次元輝度画像データから上記対象物
体の形状の滑らかさを算出する手段と,上記二次元輝度
画像と上記反射地図パラメータに対する輝度との差を算
出しこの差に上記反射地図パラメータに対する輝度の微
分結果を乗じこの乗算結果と,上記隣接する反射地図パ
ラメータの差の二乗に上記滑らかさを示すパラメータを
乗じた結果とを加算して判別値を算出する手段と,上記
判別値が最小か否かを判断する手段と上記判断手段で上
記判別値が最小と判断されたとき,その時の反射地図パ
ラメータから上記対象物体の3次元形状を示す画像デー
タを生成する手段とを有する。なお,上記反射地図パラ
メータに代えてマッピングパラメータを用いてもよい。
In order to solve the above problems, according to the present invention, an image for reconstructing the three-dimensional shape of the target object using shadow information about two-dimensional luminance image data of the target object is captured. A three-dimensional shape restoration method for generating data, wherein the smoothness of the surface of the shape of the target object is detected from the two-dimensional luminance image data, and the restoration state of the shape of the target object is determined using this smoothness. , 3 of the target object by using the shadow information that shows the appropriate determination result
A first three-dimensional shape restoration method for generating image data for restoring a three-dimensional shape is provided. According to the present invention, there is provided an apparatus for performing the above three-dimensional shape restoration method. This first
The three-dimensional shape restoration device of, the means for providing the two-dimensional luminance image data of the target object, the means for calculating the reflection map parameter indicating the shadow of the target object for the two-dimensional luminance image data, and the adjacent reflection map parameters. Means for calculating the square of the difference, a means for calculating the brightness for the reflection map parameter, a means for calculating a differential result for the reflection map parameter with respect to the reflection map parameter, and the object from the two-dimensional brightness image data. A means for calculating the smoothness of the shape of the object, a difference between the two-dimensional luminance image and the luminance with respect to the reflection map parameter, and the product of the difference and the multiplication result of the luminance with respect to the reflection map parameter. The result obtained by multiplying the square of the difference between adjacent reflection map parameters by the parameter indicating the smoothness is added. And calculating the discriminant value, determining whether the discriminant value is minimum, and determining the discriminant value by the determining means, when the discriminant value is determined to be the minimum, the three-dimensional shape of the target object is calculated from the reflection map parameter at that time. And means for generating image data showing the shape. A mapping parameter may be used instead of the reflection map parameter.

【0021】また本発明によれば,対象物体を撮像した
二次元輝度画像データについての陰影情報を用いて上記
対象物体の三次元形状を復元する画像データを生成する
三次元形状復元方法であって,陰影情報である反射地図
パラメータの初期値の誤差を補償して,対象物体の形状
の復元状態を判別し,この判別結果が適切な値を示す陰
影情報を用いて上記対象物体の3次元形状を復元する画
像データを生成する第2の三次元形状復元方法が提供さ
れる。本発明によれば,上記三次元形状復元方法を実施
する装置が提供される。この第2の三次元形状復元装置
は,対象物体の二次元輝度画像データを提供する手段
と,上記二次元輝度画像データについて上記対象物体の
陰影を示す反射地図パラメータを算出する手段と,反射
地図パラメータの初期値を設定する手段と,この反射地
図パラメータの初期値を上記算出された反射地図パラメ
ータを用いて補正する手段と,隣接する反射地図パラメ
ータの差の二乗を算出する手段と,反射地図パラメータ
に対する輝度を算出する手段と,前記反射地図パラメー
タに対する輝度についての反射地図パラメータに対する
微分結果を算出する手段と,上記二次元輝度画像と上記
反射地図パラメータに対する輝度との差を算出しこの差
に上記反射地図パラメータに対する輝度の微分結果を乗
じこの乗算結果と,上記反射地図パラメータの差の二乗
と加算して判別値を算出する手段と,上記判別値が最小
か否かを判断する手段と上記判断手段で上記判別値が最
小と判断されたとき,その時の反射地図パラメータから
上記対象物体の3次元形状を示す画像データを生成する
手段とを有する。
Further, according to the present invention, there is provided a three-dimensional shape restoring method for generating image data for restoring the three-dimensional shape of the target object by using the shadow information about the two-dimensional luminance image data of the target object. , Compensating for the error of the initial value of the reflection map parameter, which is the shadow information, and determining the restoration state of the shape of the target object, and using the shadow information whose determination result shows an appropriate value, the three-dimensional shape of the target object. A second three-dimensional shape restoration method for generating image data for restoring the image is provided. According to the present invention, there is provided an apparatus for performing the above three-dimensional shape restoration method. The second three-dimensional shape restoration device provides means for providing two-dimensional luminance image data of a target object, means for calculating a reflection map parameter indicating a shadow of the target object for the two-dimensional luminance image data, and a reflection map. Means for setting an initial value of the parameter, means for correcting the initial value of the reflection map parameter using the reflection map parameter calculated above, means for calculating a square of a difference between adjacent reflection map parameters, and a reflection map Means for calculating the brightness for the parameter, means for calculating a differential result for the reflection map parameter with respect to the brightness for the reflection map parameter, and a difference between the two-dimensional brightness image and the brightness for the reflection map parameter, and the difference This multiplication result obtained by multiplying the above-mentioned reflection map parameter by the luminance differentiation result and the above reflection map parameter A means for calculating a discriminant value by adding to the square of the difference, a means for determining whether or not the discriminant value is the minimum, and, when the discriminant value is determined by the determining means to be the minimum, the above-mentioned reflection map parameter is used to calculate the discriminant value. And means for generating image data showing the three-dimensional shape of the target object.

【0022】さらに本発明によれば,対象物体を撮像し
た二次元輝度画像データについての陰影情報を用いて上
記対象物体の三次元形状を復元する画像データを生成す
る三次元形状復元方法であって,上記対象物体の3次元
形状を復元するための判別式に上記対象物体の連続性を
付加して上記対象物体の形状の復元状態を判別し,この
判別結果が適切な値を示す陰影情報を用いて上記対象物
体の3次元形状を復元する画像データを生成する第3の
三次元形状復元方法が提供される。本発明によれば,上
記三次元形状復元方法を実施する装置が提供される。こ
の装置は,対象物体の二次元輝度画像データを提供する
手段と,上記二次元輝度画像データについて上記対象物
体の陰影を示す反射地図パラメータを算出する手段と,
上記対象物体の表面の連続性を示す値を算出する手段
と,隣接する反射地図パラメータの差の二乗を算出する
手段と,反射地図パラメータに対する輝度を算出する手
段と,前記反射地図パラメータに対する輝度についての
反射地図パラメータに対する微分結果を算出する手段
と,上記二次元輝度画像と上記反射地図パラメータに対
する輝度との差を算出しこの差に上記反射地図パラメー
タに対する輝度の微分結果を乗じこの乗算結果と,上記
反射地図パラメータの差の二乗と,上記対象物体の表面
の連続性を示す値とを加算して判別値を算出する手段
と,上記判別値が最小か否かを判断する手段と,上記判
断手段で上記判別値が最小と判断されたとき,その時の
反射地図パラメータから上記対象物体の3次元形状を示
す画像データを生成する手段とを有する。
Further, according to the present invention, there is provided a three-dimensional shape restoring method for generating image data for restoring the three-dimensional shape of the target object using the shadow information about the two-dimensional luminance image data of the target object. , The continuity of the target object is added to the discriminant for restoring the three-dimensional shape of the target object to determine the restored state of the shape of the target object, and the shadow information indicating an appropriate value is obtained as the result of this determination. A third three-dimensional shape restoration method is provided that is used to generate image data that restores the three-dimensional shape of the target object. According to the present invention, there is provided an apparatus for performing the above three-dimensional shape restoration method. This apparatus comprises means for providing two-dimensional luminance image data of a target object, means for calculating a reflection map parameter indicating a shadow of the target object for the two-dimensional luminance image data,
Regarding the means for calculating the value indicating the continuity of the surface of the target object, the means for calculating the square of the difference between adjacent reflection map parameters, the means for calculating the brightness for the reflection map parameters, and the brightness for the reflection map parameters. Means for calculating a differential result with respect to the reflection map parameter, and a difference between the two-dimensional luminance image and the luminance with respect to the reflection map parameter, and the multiplication result obtained by multiplying the difference by the differential result with respect to the reflection map parameter, A means for calculating a discriminant value by adding the square of the difference between the reflection map parameters and a value indicating the continuity of the surface of the target object; a means for determining whether the discriminant value is minimum; When the discriminating value is judged to be the minimum by the means, the image data showing the three-dimensional shape of the target object is generated from the reflection map parameter at that time. And a stage.

【0023】[0023]

【作用】本発明の第1の三次元形状復元方法において
は,陰影情報を示す反射地図パラメータ(またはマッピ
ングパラメータ)についての輝度を求め、その輝度と対
象物体を撮像した元の入力値に基いて前記物体の滑らか
さと面の傾きを規定し、その面の傾きから3次元形状に
復元する。対象物体の形状の滑らかさをパラメータとし
て,滑らかである部分と滑らかでない部分とを識別して
対象物体の3次元形状を復元する画像データを生成す
る。上記本発明の第1の三次元形状復元装置は上記三次
元形状復元方法を実施する。
In the first three-dimensional shape restoration method of the present invention, the brightness for the reflection map parameter (or mapping parameter) indicating the shadow information is obtained, and based on the brightness and the original input value obtained by imaging the target object. The smoothness of the object and the inclination of the surface are defined, and the inclination of the surface is restored to a three-dimensional shape. Using the smoothness of the shape of the target object as a parameter, a smooth portion and a non-smooth portion are identified to generate image data for restoring the three-dimensional shape of the target object. The first three-dimensional shape restoration device of the present invention implements the three-dimensional shape restoration method.

【0024】第2の三次元形状復元方法においては,反
射地図パラメータの初期値に誤差が存在しても,その誤
差を収斂演算でなくしていく。それにより,多少の誤差
を含む初期反射地図パラメータを用いても,対象物体の
3次元形状を正確に復元する画像データが生成できる。
上記本発明の第2の三次元形状復元装置は上記三次元形
状復元方法を実施する。
In the second three-dimensional shape restoring method, even if there is an error in the initial value of the reflection map parameter, the error is eliminated by the convergence calculation. As a result, image data that accurately restores the three-dimensional shape of the target object can be generated using the initial reflection map parameter that includes some error.
The second three-dimensional shape restoration device of the present invention implements the three-dimensional shape restoration method.

【0025】本発明の第3の三次元形状復元方法におい
ては,対象物体の3次元形状を正確に復元する反射地図
パラメータを決定する判別値を演算する項に,対象物体
の表面の連続性を示すパラメータを付加する。これによ
り,対象物体の表面の連続性を考慮した正確な2次元形
状を復元する画像データが得られる。
In the third three-dimensional shape restoring method of the present invention, the continuity of the surface of the target object is added to the term for calculating the discriminant value that determines the reflection map parameter for accurately restoring the three-dimensional shape of the target object. Add the parameters shown. As a result, image data for restoring an accurate two-dimensional shape in consideration of the continuity of the surface of the target object can be obtained.

【0026】[0026]

【実施例】本発明の三次元形状復元方法および三次元形
状復元装置の第1実施例を述べる。図1は本発明の三次
元形状復元装置の第1実施例の構成を示すブロック図、
図2は本発明の第1実施例の機能ブロック図である。三
次元形状復元装置1Aは,対象物体を撮像してカラー2
次元画像データを発生するCCDを有するカラービデオ
カメラ5,カラービデオカメラ5からの2次元輝度画像
データを表示するカラーテレビ6,VTR7,画像処理
装置2A,および,パーソナル・コンピュータ15を有
する。カラービデオカメラ5,カラーテレビ6,および
/または,VTR7は,対象物体の2次元画像データを
出力する2次元輝度画像データ出力手段4として機能す
るが,2次元輝度画像データ出力手段4としては,これ
らのいずれか1つがあればよい。あるいは,これら例示
した装置ではなく,予めメモリに記憶した2次元輝度画
像データを出力する手段であってもよい。本発明におい
ては,カラーは直接関係しないので,以下の記述におい
て,カラーについては言及しないものとする。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the three-dimensional shape restoring method and the three-dimensional shape restoring apparatus of the present invention will be described. FIG. 1 is a block diagram showing the configuration of a first embodiment of a three-dimensional shape restoration device of the present invention,
FIG. 2 is a functional block diagram of the first embodiment of the present invention. The three-dimensional shape restoration device 1A captures an image of a target object and displays the color 2
It has a color video camera 5 having a CCD for generating three-dimensional image data, a color television 6 for displaying two-dimensional luminance image data from the color video camera 5, a VTR 7, an image processing device 2A, and a personal computer 15. The color video camera 5, the color television 6, and / or the VTR 7 functions as the two-dimensional luminance image data output means 4 for outputting the two-dimensional image data of the target object. Any one of these is sufficient. Alternatively, instead of these exemplified devices, a unit for outputting the two-dimensional luminance image data stored in the memory in advance may be used. In the present invention, since color is not directly related, color will not be referred to in the following description.

【0027】画像処理装置2Aは,画像入力部8,A/
D変換部9,画像データ記憶部10,画像データ出力部
14,制御部11,画像データ演算部12,復元画像デ
ータ判断部13,および,滑らかさパラメータ演算処理
部3Aを有する。この回路構成は図12に示した画像処
理装置90に類似した構成であり,図1と図12と対比
して述べると,それぞれ,図1に示した画像入力部8は
図12に示した画像入力部901に対応し,A/D変換
部9はA/D変換部902に対応し,画像データ記憶部
10は画像データ記憶部903に対応し,画像データ出
力部14は画像データ出力部904に対応し,制御部1
1は制御部905に対応し,画像データ演算部12は画
像データ演算部906に対応し,復元画像データ判断部
13は復元画像データ判断部907に対応している。図
1に示した三次元形状復元装置1Aには,図12に示し
た三次元形状復元装置には存在しない滑らかさパラメー
タ演算処理部3Aが付加されている。画像処理装置2A
で復元された3次元画像データがパーソナル・コンピュ
ータ15に出力されて,たとえば,CRT表示装置に対
象物体の3次元形状が表示される。あるいは,復元され
た3次元形状画像データから,たとえは,産業用ロボッ
トのハンドの把持状態を認識する。
The image processing apparatus 2A includes an image input unit 8, A /
It has a D conversion unit 9, an image data storage unit 10, an image data output unit 14, a control unit 11, an image data calculation unit 12, a restored image data judgment unit 13, and a smoothness parameter calculation processing unit 3A. This circuit configuration is similar to that of the image processing apparatus 90 shown in FIG. 12, and when described in comparison with FIGS. 1 and 12, the image input unit 8 shown in FIG. Corresponding to the input unit 901, the A / D conversion unit 9 corresponds to the A / D conversion unit 902, the image data storage unit 10 corresponds to the image data storage unit 903, and the image data output unit 14 corresponds to the image data output unit 904. Corresponding to the control unit 1
1 corresponds to the control unit 905, the image data calculation unit 12 corresponds to the image data calculation unit 906, and the restored image data determination unit 13 corresponds to the restored image data determination unit 907. The 3D shape restoration device 1A shown in FIG. 1 is provided with a smoothness parameter calculation processing section 3A which does not exist in the 3D shape restoration device shown in FIG. Image processing device 2A
The three-dimensional image data reconstructed in (1) is output to the personal computer 15, and the three-dimensional shape of the target object is displayed on the CRT display device, for example. Alternatively, for example, the grasped state of the hand of the industrial robot is recognized from the restored three-dimensional shape image data.

【0028】図2は図1に示した三次元形状復元装置1
A内の画像処理装置2Aの処理内容を示す機能ブロック
図である。本実施例においては,式5および式6に該当
する判別式に代えて,式11に示す判別式を用いる。そ
の詳細は後述する。図2に示した画像処理装置2Aは,
マッピングパラメータ生成手段19,マッピングパラメ
ータ差の二乗演算手段20,マッピングパラメータ:
f,gに対する輝度Rs(f,g)を演算する輝度演算
手段22,輝度演算手段22において算出された輝度R
sをマッピングパラメータ:f,gで偏微分する輝度微
分演算手段21,減算手段23,乗算手段24,乗算手
段25,減算手段26,判断手段27,遅延手段28,
反射地図処理手段29,および,積分手段30を有す
る。画像処理装置2Aはさらに,エッジ検出手段16,
滑らかさパラメータ決定手段17,および,評価係数補
正手段18を有する。
FIG. 2 is a three-dimensional shape restoration device 1 shown in FIG.
3 is a functional block diagram showing processing contents of an image processing apparatus 2A in A. FIG. In this embodiment, the discriminants shown in Formula 11 are used instead of the discriminants corresponding to Formulas 5 and 6. The details will be described later. The image processing device 2A shown in FIG.
Mapping parameter generation means 19, mapping parameter difference square calculation means 20, mapping parameters:
Luminance calculation means 22 for calculating the luminance Rs (f, g) for f and g, and the luminance R calculated by the luminance calculation means 22.
Luminance differentiating means 21, a subtracting means 23, a multiplying means 24, a multiplying means 25, a subtracting means 26, a judging means 27, a delay means 28, which partially differentiates s with mapping parameters: f and g.
It has a reflection map processing means 29 and an integrating means 30. The image processing apparatus 2A further includes the edge detection means 16,
It has smoothness parameter determining means 17 and evaluation coefficient correcting means 18.

【0029】図1に示した画像処理装置2A内の構成要
素と,図2に示した機能ブロック内の手段とを対応させ
る。画像入力部8は2次元画像データ出力手段31に対
応し,制御部11および画像データ演算部12が協働し
てマッピングパラメータ生成手段19,マッピングパラ
メータ差の二乗演算手段20,輝度演算手段22,輝度
微分演算手段21,減算手段23,乗算手段24,乗算
手段25,減算手段26,および,遅延手段28に対応
する。また,制御部11と画像データ演算部12とが反
射地図処理手段29および積分手段30に対応する。復
元画像データ判断部13が判断手段27に対応してい
る。また上述した図2に示した機能ブロックにおける手
段は,従来技術として図13を参照して述べた手段に対
応している。ただし,後述するように,マッピングパラ
メータ差の二乗演算手段20は平均マッピングパラメー
タ演算手段102とは異なる。図1に示したA/D変換
部9および画像データ記憶部10は図2に示した機能ブ
ロックには表されていない。
The components in the image processing apparatus 2A shown in FIG. 1 are made to correspond to the means in the functional block shown in FIG. The image input unit 8 corresponds to the two-dimensional image data output unit 31, and the control unit 11 and the image data calculation unit 12 cooperate to create a mapping parameter generation unit 19, a mapping parameter difference square calculation unit 20, a brightness calculation unit 22, It corresponds to the luminance differential operation means 21, the subtraction means 23, the multiplication means 24, the multiplication means 25, the subtraction means 26, and the delay means 28. Further, the control unit 11 and the image data calculation unit 12 correspond to the reflection map processing unit 29 and the integrating unit 30. The restored image data determination unit 13 corresponds to the determination means 27. The means in the functional block shown in FIG. 2 described above corresponds to the means described with reference to FIG. 13 as the prior art. However, as will be described later, the mapping parameter difference square calculation means 20 is different from the average mapping parameter calculation means 102. The A / D conversion unit 9 and the image data storage unit 10 shown in FIG. 1 are not represented by the functional blocks shown in FIG.

【0030】本実施例において付加された滑らかさパラ
メータ演算処理部3Aは,エッジ検出手段16,パラメ
ータ決定手段17,および,評価係数補正手段18に対
応する。なお,図13に示した判断手段110からマッ
ピングパラメータ生成手段101に負帰還するループ
が,図2に示した機能ブロックにおいては,存在しない
ことに留意されたい。つまり,図2に示した三次元形状
復元処理ブロックにおいては,判断手段27からマッピ
ングパラメータ生成手段19への負帰還ループは存在せ
ず,このループにおける反復演算は行わない。
The smoothness parameter calculation processing section 3A added in this embodiment corresponds to the edge detecting means 16, the parameter determining means 17, and the evaluation coefficient correcting means 18. It should be noted that the loop for performing negative feedback from the determination means 110 shown in FIG. 13 to the mapping parameter generation means 101 does not exist in the functional block shown in FIG. That is, in the three-dimensional shape restoration processing block shown in FIG. 2, there is no negative feedback loop from the determination means 27 to the mapping parameter generation means 19, and the iterative calculation in this loop is not performed.

【0031】以下,図1および図2に示した三次元形状
復元装置の動作を詳述する。対象物体について,たとえ
ば,カラービデオカメラ5で撮像した2次元輝度画像デ
ータI(x,y)が2次元画像データ出力手段31に入
力され,A/D変換部9でディジタル値に変換され,画
像データ記憶部10に記憶される。以下,2次元輝度画
像データI(x,y)はディジタル信号処理される。マ
ッピングパラメータ生成手段19は図3および図4に示
した反射地図座標系におけるマッピングパラメータ:
f,gを算出する。マッピングパラメータ差の二乗演算
手段20は式7および式8に示すマッピングパラメー
タ:f,gの平均を算出する。さらに,平均マッピング
パラメータ演算手段20は式11の右辺の第1項および
第2項に示すマッピングパラメータ:f,gの差の2
乗,つまり, (fi+1,j −fi,j 2 /4+(fi,j+1 −fi,j 2 /4 (gi+1,j −gi,j 2 /4+(gi,j+1 −gi,j 2 /4 を計算する。輝度演算手段22はマッピングパラメー
タ:f,gに対する輝度Rs(f,g)を算出する。こ
の輝度Rs(f,g)は下記式で表される。 Rs (f,g)=R(p(x,y),q(x,y)) 輝度微分演算手段21は輝度Rsに対するマッピングパ
ラメータ:f,gの偏微分∂Rs/∂f,∂Rs/∂g
を求める。
The operation of the three-dimensional shape restoring device shown in FIGS. 1 and 2 will be described in detail below. Regarding the target object, for example, the two-dimensional luminance image data I (x, y) captured by the color video camera 5 is input to the two-dimensional image data output means 31, converted into a digital value by the A / D conversion unit 9, and the image is obtained. It is stored in the data storage unit 10. Hereinafter, the two-dimensional luminance image data I (x, y) is digital signal processed. The mapping parameter generating means 19 is a mapping parameter in the reflection map coordinate system shown in FIGS. 3 and 4:
Calculate f and g. The mapping parameter difference square calculation means 20 calculates the average of the mapping parameters: f and g shown in Expressions 7 and 8. Further, the average mapping parameter calculation means 20 uses the difference 2 between the mapping parameters f and g shown in the first term and the second term on the right side of Expression 11.
Multiplication, i.e., (f i + 1, j -f i, j) 2/4 + (f i, j + 1 -f i, j) 2/4 (g i + 1, j -g i, j) 2 / 4 + (g i, j + 1 -g i, j) to calculate the 2/4. The brightness calculation means 22 calculates the brightness Rs (f, g) for the mapping parameters: f, g. The brightness Rs (f, g) is represented by the following formula. R s (f, g) = R (p (x, y), q (x, y)) The brightness differential calculating means 21 is a partial differential ∂Rs / ∂f, ∂Rs of the mapping parameter: f, g for the brightness Rs. / ∂g
Ask for.

【0032】エッジ検出手段16は,2次元画像データ
出力手段31から出力される2次元輝度画像データI
(x,y)を2次元方向,つまり,x方向およびy方向
について微分して,輝度のエッジを検出する。滑らかさ
パラメータ決定手段17はそのエッジ検出手段16にお
ける微分値についてx方向の滑らかさを示すパラメータ
i,j と,y方向の滑らかさを示すパラメータmi,j
を決定する。x方向の滑らかさを示すパラメータki,j
の決定方法としては,エッジ検出手段16で計算したx
方向の微分値が大きければ滑らかさが小さいと考えてパ
ラメータki,j を小さくし,x方向の微分値が小さいと
滑らかである考えてパラメータki,j を大きくする。y
方向の滑らかさを示すパラメータmi,j の決定方法も上
記同様とする。
The edge detecting means 16 has the two-dimensional luminance image data I output from the two-dimensional image data output means 31.
The (x, y) is differentiated with respect to the two-dimensional direction, that is, the x direction and the y direction, and the edge of the luminance is detected. The smoothness parameter determining means 17 determines the parameter k i, j indicating the smoothness in the x direction and the parameter m i, j indicating the smoothness in the y direction for the differential value in the edge detecting means 16. Parameter k i, j indicating smoothness in the x direction
X is calculated by the edge detecting means 16.
If the differential value in the direction is large, it is considered that the smoothness is small, and the parameter k i, j is made small, and if the differential value in the x direction is small, the parameter k i, j is considered to be smooth and the parameter k i, j is made large. y
The method for determining the parameter m i, j indicating the smoothness of the direction is the same as above.

【0033】上述した演算結果を用いて,減算手段2
3,乗算手段24,乗算手段25,減算手段26および
乗算手段32が,式11に示す演算を行う。減算手段2
3は輝度偏差ΔI=I(x,y)−Rs(fi,j ,g
i,j )を算出する。乗算手段24は,輝度偏差ΔI=I
(x,y)−Rs(fi,j ,gi,j )に輝度微分演算手
段21で計算した∂Rs/∂f,∂Rs/∂gを掛け
る。乗算手段25は乗算手段24の結果に,評価係数λ
を乗ずる。これにより,式11の右辺第3項の値が得ら
れる。乗算手段32はマッピングパラメータ差の二乗演
算手段20で演算した上記マッピングパラメータの差の
二乗演算結果に,滑らかさパラメータ決定手段17で算
出した滑らかさパラメータki,j およびmi,j を乗ず
る。その結果,式11における右辺の第2項および第2
項の計算結果が得られる。加算手段26は乗算手段25
からの演算結果と乗算手段32からの演算結果を加算す
る。その結果,エネルギーeを示す判別式11で示した
結果が得られる。判別式11は式5および式6に対応し
ており,判別式11で示す結果が0またはほぼ0に近い
ときのマッピングパラメータ:f,gをもちいて対象物
体の3次元形状を復元する画像データが規定されること
を意味する。
Subtracting means 2 using the above calculation results
3, the multiplying means 24, the multiplying means 25, the subtracting means 26, and the multiplying means 32 perform the calculation shown in Expression 11. Subtraction means 2
3 is the luminance deviation ΔI = I (x, y) −Rs (fi , j , g
i, j ) is calculated. The multiplication means 24 has a luminance deviation ΔI = I
(X, y) -Rs (f i, j , g i, j ) is multiplied by ∂Rs / ∂f and ∂Rs / ∂g calculated by the brightness differential calculating means 21. The multiplication means 25 adds the evaluation coefficient λ to the result of the multiplication means 24.
Ride. As a result, the value of the third term on the right side of Expression 11 is obtained. The multiplying means 32 multiplies the smoothing parameter difference square calculation result calculated by the mapping parameter difference square calculating means 20 by the smoothness parameters k i, j and m i, j calculated by the smoothness parameter determining means 17. As a result, the second term and the second term on the right side of Expression 11 are
The calculation result of the term is obtained. The adding means 26 is the multiplying means 25.
And the calculation result from the multiplication means 32 are added. As a result, the result shown by the discriminant 11 indicating the energy e is obtained. The discriminant 11 corresponds to the equations 5 and 6, and image data for reconstructing the three-dimensional shape of the target object by using the mapping parameters f and g when the result shown by the discriminant 11 is 0 or nearly 0. Means that is specified.

【0034】判断手段27は判別式11に示す加算手段
26の出力結果が最小値を示すか否かを判断する。式1
1で示す結果が最小値であると判断した場合は,判断手
段27は反射地図処理手段29および積分手段30を駆
動して,従来と同様,反射地図処理手段29においてマ
ッピングパラメータ:f,gから上述した関係式に基づ
いて反射地図パラメータp,qを算出し,積分手段30
において算出された反射地図パラメータ:p,qについ
て積分して,希望する対象物体の3次元形状を復元する
画像データを生成させる。
The judging means 27 judges whether or not the output result of the adding means 26 shown in the discriminant equation 11 shows the minimum value. Formula 1
When it is judged that the result shown by 1 is the minimum value, the judging means 27 drives the reflection map processing means 29 and the integrating means 30 and the reflection map processing means 29 uses the mapping parameters: f and g as in the conventional case. The reflection map parameters p and q are calculated based on the above-mentioned relational expression, and the integrating means 30
The reflection map parameters: p and q calculated in 3 are integrated to generate image data that restores the desired three-dimensional shape of the target object.

【0035】判断手段27において,式11で示す加算
手段26の出力結果がまだ最終値とは判定されないとき
は,遅延手段28において一定時間遅延後,たとえば,
ビデオ信号の1フレーム分の時間の後,マッピングパラ
メータ生成手段19においてマッピングパラメータ:
f,gを更新して,上述した処理を行わせる。
When the judging means 27 has not judged that the output result of the adding means 26 expressed by the equation 11 is still the final value, the delay means 28 delays for a predetermined time, for example,
After the time for one frame of the video signal, the mapping parameter generating means 19 sets the mapping parameters:
f and g are updated and the above-mentioned processing is performed.

【0036】なお,図2に示すように,滑らかさパラメ
ータ決定手段17において滑らかさを示す滑らかさパラ
メータki,j およびmi,j が算出されたとき,これらの
滑らかさパラメータを用いて,判別式11に示す評価係
数λを補正し,補正評価係数λを乗算手段25に出力し
て乗算処理を行う一方,乗算手段32における滑らかさ
パラメータki,j およびmi,j の乗算を省略してもよ
い。
As shown in FIG. 2, when the smoothness parameter determining means 17 calculates smoothness parameters k i, j and m i, j indicating smoothness, these smoothness parameters are used to an assessment factor λ shown in discriminant 11 corrects, omitted while performing multiplication processing and outputs the correction evaluation coefficient λ in multiplication means 25, smoothness parameter k i in multiplication means 32, j and m i, the multiplication of j You may.

【0037】以上述べたように,本実施例においては,
滑らかさパラメータパラメータki,j およびmi,j を導
入して,対象物体の3次元形状の表面が急激に変化する
場合でも,正しく対象物体の2次元形状の復元処理を行
うことができる。また上述したように,図2に示した構
成においては,図13に示した判断手段110からマッ
ピングパラメータ生成手段101に到る負帰還ループに
相当するループが存在しないことに留意されたい。つま
り,本実施例では、ある物体の2次元画像のx方向及び
y方向の輝度を微分し、その微分値に基づいて、x方向
及びy方向の滑らかさを決定し,その結果を用いて適切
に判別することにより,収束が迅速になり,反復演算に
起因する演算時間が長くなることが回避できる。
As described above, in this embodiment,
By introducing the smoothness parameter parameters k i, j and m i, j , the two-dimensional shape of the target object can be correctly restored even when the surface of the three-dimensional shape of the target object changes abruptly. Also, as described above, it should be noted that in the configuration shown in FIG. 2, there is no loop corresponding to the negative feedback loop from the determination means 110 shown in FIG. 13 to the mapping parameter generation means 101. That is, in the present embodiment, the brightness in the x direction and the y direction of the two-dimensional image of a certain object is differentiated, the smoothness in the x direction and the y direction is determined based on the differentiated value, and the result is used appropriately. By discriminating in (1), convergence can be speeded up and it is possible to avoid a long calculation time due to iterative calculation.

【0038】本発明の三次元形状復元方法および三次元
形状復元装置の第2実施例を述べる。この実施例は,図
14および図15を参照して述べた,陰影情報から3次
元形状に復元する際に遮蔽輪郭の部分の法線の傾きを初
期値として与えるときに初期値の誤差に起因する対象物
体の3次元形状復元の不正確さを改善する。図5は第2
実施例としての三次元形状復元装置の構成ずであり,図
6は図5に示した三次元形状復元装置の機能ブロック図
であり,図7は第2実施例としての三次元形状復元方法
の処理を示すフローチャートである。
A second embodiment of the three-dimensional shape restoring method and the three-dimensional shape restoring apparatus of the present invention will be described. This embodiment is caused by the error of the initial value, which is described with reference to FIGS. 14 and 15, when the inclination of the normal line of the occluding contour is given as the initial value when restoring the three-dimensional shape from the shadow information. The inaccuracy of the three-dimensional shape restoration of the target object is improved. FIG. 5 is the second
6 is a functional block diagram of the three-dimensional shape restoring device shown in FIG. 5, and FIG. 7 shows a three-dimensional shape restoring method as a second embodiment. It is a flowchart which shows a process.

【0039】図5に示した三次元形状復元装置1Bは図
1に示した三次元形状復元装置1Aとほぼ同じ構成をし
ており,対応する構成要素は同じ符号を付してある。図
5に示した三次元形状復元装置1Bは,図1に示した画
像処理装置2Aに代えて画像処理装置2Bとしている
が,画像処理装置2Aとの違いは,画像処理装置2A内
の滑らかさパラメータ演算処理部3Aに代えて,マッピ
ングパラメータ初期誤差分演算部3Bを設けた点にあ
る。図6に示した機能ブロックも,図2に示した機能ブ
ロックに対応しているが,図6においては,初期値設定
手段36,減算手段37,初期値誤差定義手段35,マ
ッピングパラメータの差の二乗演算手段34,乗算手段
38,加算手段33が設けられている点が異なる。
The three-dimensional shape restoration device 1B shown in FIG. 5 has almost the same structure as the three-dimensional shape restoration device 1A shown in FIG. 1, and the corresponding components are designated by the same reference numerals. The three-dimensional shape restoration device 1B shown in FIG. 5 is an image processing device 2B in place of the image processing device 2A shown in FIG. 1, but the difference from the image processing device 2A is that the smoothness in the image processing device 2A. The point is that a mapping parameter initial error component calculator 3B is provided in place of the parameter calculator 3A. The functional block shown in FIG. 6 also corresponds to the functional block shown in FIG. 2, but in FIG. 6, the initial value setting means 36, the subtracting means 37, the initial value error defining means 35, and the mapping parameter difference The difference is that the square calculation means 34, the multiplication means 38, and the addition means 33 are provided.

【0040】図7に示すフローチャートを参照して,第
2実施例の三次元形状復元方法の処理内容の概要を述べ
る。 ステップ1:図3および図4を図解して述べたように,
光源と2次元陰影画像とを結ぶ光軸を基準にした座標系
の、光軸の回転方向に対する2次元陰影画像の法線の回
転角度を第1の角度として規定し、光線軸と法線との成
す角度を第2の角度として規定する。 ステップ2:これら第1および第2の角度に基いて目標
とする画像情報が得られるか否かを判断する。 ステップ3:目標とする画像情報が得られると判断した
場合には、2次元陰影画像から対象物体の3次元形状を
復元す画像データを生成し,処理を終了する。 ステップ4:目標とする画像情報が得られないと判断し
た場合には、第1の角度の更新を行い、ステップ2の処
理に戻る。
The outline of the processing contents of the three-dimensional shape restoration method of the second embodiment will be described with reference to the flowchart shown in FIG. Step 1: As illustrated and described in FIGS. 3 and 4,
The rotation angle of the normal line of the two-dimensional shadow image with respect to the rotation direction of the optical axis in the coordinate system based on the optical axis connecting the light source and the two-dimensional shadow image is defined as the first angle, and the ray axis and the normal line are defined. The angle formed by is defined as the second angle. Step 2: Based on these first and second angles, it is determined whether the target image information can be obtained. Step 3: When it is determined that the target image information can be obtained, image data for restoring the three-dimensional shape of the target object from the two-dimensional shadow image is generated, and the process ends. Step 4: When it is determined that the target image information cannot be obtained, the first angle is updated, and the process returns to step 2.

【0041】本実施例においては,2次元陰影情報から
3次元形状復元画像データを生成する際に、誤差を定義
する項(パラメータ):ti,j を加えて繰り返し演算
し,誤差を考慮した3次元形状の復元を行う。つまり,
誤差を定義するパラメータti,j ,点(i,j)におけ
る面の滑らかさを定義する量Si,j ,および,陰影の忠
実度をri,j とすると,それぞれ下記式で表される。
In the present embodiment, when the three-dimensional shape restored image data is generated from the two-dimensional shadow information, the term (parameter) defining the error: t i, j is added and iteratively calculated to consider the error. Restore the three-dimensional shape. That is,
Letting the parameter t i, j that defines the error, the quantity S i, j that defines the smoothness of the surface at the point (i, j), and the fidelity of the shadow be r i, j , they are respectively expressed by the following equations. It

【数12】 ただし,Fi,j はマッピングパラメータfの初期値であ
り,Gi,j はマッピングパラメータgの初期値である。
[Equation 12] However, F i, j is the initial value of the mapping parameter f, and G i, j is the initial value of the mapping parameter g.

【数13】 [Equation 13]

【数14】 [Equation 14]

【0042】3次元形状を復元するための最小にすべき
評価パラメータeは下記式15で表される。
The evaluation parameter e to be minimized to restore the three-dimensional shape is expressed by the following equation 15.

【数15】 ただし,λ2 は評価係数である。評価パラメータeの最
小値が希望する対象物体の3次元形状復元する画像デー
タを与えるから,式15の値が最小値,0またはほぼ0
になる条件を求める。そのため,式15をマッピングパ
ラメータ:f,gで偏微分した下記式16および式17
を繰り返し演算する。
[Equation 15] However, λ 2 is an evaluation coefficient. Since the minimum value of the evaluation parameter e gives the image data for reconstructing the desired three-dimensional shape of the target object, the value of Expression 15 is the minimum value, 0 or almost 0.
The condition that becomes. Therefore, the following Equation 16 and Equation 17 obtained by partially differentiating Equation 15 with mapping parameters: f and g
Is repeatedly calculated.

【数16】 [Equation 16]

【数17】 ただし,式16および式17における平均マッピングパ
ラメータは下記式で表される。
[Equation 17] However, the average mapping parameter in Expression 16 and Expression 17 is expressed by the following expression.

【数18】 [Equation 18]

【数19】 [Formula 19]

【0043】このように計算すると、初期値として与え
た法線の傾きにわずかな誤差が含まれても、初期値に含
まれる誤差の影響を取り除きながら、正しい3次元形状
に復元することが可能になる。図6に示した機能ブロッ
クにおいて,初期値設定手段36が式12に示したマッ
ピングパラメータの初期値Fi,j ,Gi,j を設定する。
平均マッピングパラメータ演算手段20Bが,式18お
よび式19に示した平均マッピングパラメータ演算処理
を行う。初期値誤差定義手段35が式12に示した演算
を行う。マッピングパラメータの差の二乗演算手段34
が式13に示した演算を行う。減算手段23が式14で
示した輝度偏差を算出する。乗算手段38においてその
二乗を演算し,第1のい評価係数λ1を乗ずる。乗算手
段24,加算手段33,乗算手段25,初期値設定手段
36が式17および式18に示した演算を行う。判断手
段27が初期値設定手段36の出力を判定する。判断手
段27の判定後の処理は上述した第1実施例と同様であ
る。
According to the above calculation, even if a slight error is included in the inclination of the normal line given as the initial value, it is possible to restore the correct three-dimensional shape while removing the influence of the error included in the initial value. become. In the functional block shown in FIG. 6, the initial value setting means 36 sets the initial values F i, j and G i, j of the mapping parameters shown in Expression 12.
The average mapping parameter calculation means 20B performs the average mapping parameter calculation processing shown in Expression 18 and Expression 19. The initial value error defining means 35 performs the calculation shown in Expression 12. Mapping parameter difference square calculation means 34
Performs the calculation shown in Expression 13. The subtraction means 23 calculates the brightness deviation shown in Expression 14. The multiplication means 38 calculates the square and multiplies it by the first evaluation coefficient λ1. The multiplying means 24, the adding means 33, the multiplying means 25, and the initial value setting means 36 perform the calculations shown in Expressions 17 and 18. The judging means 27 judges the output of the initial value setting means 36. The processing after the determination by the determination means 27 is the same as that in the first embodiment described above.

【0044】本実施例では、式12に示すように,マッ
ピングパラメータ生成手段19からのマッピングパラメ
ータ:f,gと初期値設定手段36からのマッピングパ
ラメータの初期値Fi,j ,Gi,j との差を算出する初期
値誤差定義手段35を用い,式15の判別式を用いるこ
とにより,初期値設定手段36から与えられるマッピン
グパラメータ:f,gの初期値Fi,j ,Gi,j に法線の
傾きがやや誤差を含む場合においても、その誤差の影響
を取り除きながら、3次元形状に復元することができ
る。従って、本実施例では、特に,自然画像にように初
期値として与えた法線の傾きに誤差が含まれていても、
誤差の影響を取り除きながら、正しい3次元形状に復元
することが可能になる。
In the present embodiment, as shown in Expression 12, the mapping parameter: f, g from the mapping parameter generating means 19 and the initial value F i, j , G i, j of the mapping parameter from the initial value setting means 36. By using the initial value error definition means 35 for calculating the difference between the initial value error definition means 35 and the discriminant of the expression 15, the initial values F i, j , G i, G i, of the mapping parameters f, g given from the initial value setting means 36 are used . Even when j has a slight inclination in the normal line, it is possible to restore the three-dimensional shape while removing the influence of the error. Therefore, in the present embodiment, in particular, even if the inclination of the normal line given as the initial value includes an error as in a natural image,
It becomes possible to restore the correct three-dimensional shape while removing the influence of the error.

【0045】本発明の三次元形状復元方法および三次元
形状復元装置の第3実施例について述べる。図8は第3
実施例の説明に用いる座標系を示す図であり,図9は第
3実施例の三次元形状復元装置の構成図である。図8に
示すように,x,y,z座標系において3次元形状を持
つ対象物体が存在している。この対象物体の表面を表す
関数を Z=z(x,y,) とし,対象物体の表面のx方向の傾きpとし,y方向の
傾きをqとすると,これらの傾きは式20で表される。
A third embodiment of the three-dimensional shape restoring method and the three-dimensional shape restoring apparatus of the present invention will be described. FIG. 8 is the third
It is a figure which shows the coordinate system used for description of Example, and FIG. 9 is a block diagram of the three-dimensional shape restoration apparatus of 3rd Example. As shown in FIG. 8, there is a target object having a three-dimensional shape in the x, y, z coordinate system. If the function representing the surface of the target object is Z = z (x, y,), the slope p in the x direction of the surface of the target object is p, and the slope in the y direction is q, these slopes are expressed by Equation 20. It

【数20】 図8に示す対象物体の表面のポイント1とポイント2と
の高さは上記p,qの定義式20から,下記式で表され
[Equation 20] The heights of points 1 and 2 on the surface of the target object shown in FIG. 8 are expressed by the following equations from the definition equation 20 of p and q above.

【数21】 [Equation 21]

【0046】もし,ポイント1とポイント2とが同じ点
であったとしたら,いかなる閉ループを通っても平面が
連続であれば,下記式が成立する。
If point 1 and point 2 are the same point, the following formula is established if the plane is continuous even if it passes through any closed loop.

【数22】 したがって,下記式が成立する。[Equation 22] Therefore, the following formula is established.

【数23】 ストークスの定理を用いると下記式で表される。[Equation 23] Using the Stokes theorem, it is expressed by the following equation.

【数24】 式24における記号Sは任意の閉ループの領域なので,
下記式が成立する。
[Equation 24] Since the symbol S in Equation 24 is an arbitrary closed loop region,
The following formula is established.

【数25】 逆に式25が成立すれば,式23が成立することが明ら
かである。このように,3次元平面が連続であるという
十分条件は,式25が成立することに帰結する。
[Equation 25] On the contrary, if Expression 25 holds, it is clear that Expression 23 holds. Thus, the sufficient condition that the three-dimensional plane is continuous results in the expression 25 being satisfied.

【0047】対象物体を撮像した点(i,j)における
二次元輝度画像データI(x.y)と,反射地図におけ
る輝度データR(pi,j ,qi,j )とすると,対象物体
の3次元形状を復元する画像データを求める問題は,上
述したように,式26を満足するに反射地図パラメータ
(pi,j ,qi,j )を求める問題に帰結する。
If the two-dimensional luminance image data I (x.y) at the point (i, j) where the target object is imaged and the luminance data R (p i, j , q i, j ) in the reflection map are given, the target object As described above, the problem of obtaining the image data for reconstructing the three-dimensional shape of the above results in the problem of obtaining the reflection map parameters (p i, j , q i, j ) so as to satisfy the expression 26.

【数26】 [Equation 26]

【0048】ところが,式26だけでは反射地図パラメ
ータ(pi,j ,qi,j )は解けない。そこで,上述した
ように,対象物体の表面の傾きが滑らかに変化するとい
う仮定をおく必要がある。さらに上記のように考察した
対象物体の表面の連続性を考慮する必要がある。ここ
で,対象物体の形状の傾きの変化に対する制約パラメー
タSi,j ,表面の連続性に対する制約パラメータ
i,j ,および,二次元輝度画像データに対する忠実度
i,j を 下記式27で表す。
However, the reflection map parameter (p i, j , q i, j ) cannot be solved only by the equation 26. Therefore, as described above, it is necessary to make an assumption that the inclination of the surface of the target object changes smoothly. Furthermore, it is necessary to consider the continuity of the surface of the target object considered as described above. Here, the constraint parameter S i, j for the change in the inclination of the shape of the target object, the constraint parameter C i, j for the surface continuity, and the fidelity r i, j for the two-dimensional luminance image data are expressed by the following equation 27. Represent

【数27】 このときのエネルギーeを下記式で表す。[Equation 27] The energy e at this time is represented by the following formula.

【数28】 [Equation 28]

【0049】上述したように,このエネルギーeが最小
になる条件を求めることが,対象物体の3次元形状を復
元する画像データを表す反射地図パラメータ(p,q)
を求めることに帰結する。そのため,上述したように,
エネルギーeをマッピングパラメータ:f,gで偏微分
する。その演算式を式29および式30に示す。
As described above, the condition for minimizing this energy e is to obtain the reflection map parameters (p, q) representing the image data for reconstructing the three-dimensional shape of the target object.
Result in seeking. Therefore, as mentioned above,
The energy e is partially differentiated with mapping parameters: f and g. The arithmetic expressions are shown in Expression 29 and Expression 30.

【数29】 [Equation 29]

【数30】 ここで,[Equation 30] here,

【数31】 とおくと,下記式で示す演算を繰り返すとエネルギーe
を最小にする反射地図パラメータ(p,q)を求めるこ
とができる。
[Equation 31] Putting it another way, if the calculation shown in the following equation is repeated, the energy e
The reflection map parameter (p, q) that minimizes can be obtained.

【数32】 [Equation 32]

【数33】 式32および式33における頭にバーをつけた平均反射
地図パラメータp,qは下記式で表される。
[Expression 33] The average reflection map parameters p and q with a bar at the head in Expressions 32 and 33 are expressed by the following expressions.

【数34】 [Equation 34]

【数35】 [Equation 35]

【0050】エネルギーeを最小にする反射地図パラメ
ータ(p,q)が求められた後,その値を積分すれば対
象物体の3次元形状を示す画像データを得ることができ
る。このように,第3実施例においては,適切な反射パ
ラメータ(p,q)を求める判別式として示すエネルギ
ー関数eに対象物体の表面の連続性を満たす付加項をつ
けて判別することにより,実在する対象物体の3次元形
状を正確に復元することができる。
After the reflection map parameters (p, q) that minimize the energy e are obtained, the values are integrated to obtain image data showing the three-dimensional shape of the target object. As described above, in the third embodiment, the energy function e shown as a discriminant for obtaining an appropriate reflection parameter (p, q) is discriminated by adding an additional term that satisfies the continuity of the surface of the target object to discriminate. The three-dimensional shape of the target object can be accurately restored.

【0051】図9は上述した第3実施例の三次元形状復
元方法を遂行する機能ブロック図である。この機能ブロ
ックの全体は,反射地図パラメータ生成手段41,平均
反射地図パラメータ演算手段42,乗算手段43,反射
地図パラメータ差・和演算手段44,乗算手段45,輝
度微分手段46,輝度算出手段47,エネルギー計算手
段48,判別手段49,減算手段50,乗算手段51,
加算手段52,加算手段53,乗算手段54,スイッチ
手段55,遅延手段56,積分手段57を有している。
この第3実施例についても,上記第1および第2の実施
例として図1および図5を参照して述べたように,三次
元形状復元装置の構成が存在するが,その基本的な差異
は,上述した画像データ前処理部3Aおよび誤差分演算
部3Bに代えて,上述した判別式としてのエネルギー関
数eに対象物体の連続性を満たす付加項をつける部分が
異なるだけであるから,その三次元形状復元装置の構成
は省略した。
FIG. 9 is a functional block diagram for performing the three-dimensional shape restoring method of the third embodiment described above. The entire functional block includes reflection map parameter generation means 41, average reflection map parameter calculation means 42, multiplication means 43, reflection map parameter difference / sum calculation means 44, multiplication means 45, brightness differentiating means 46, brightness calculation means 47, Energy calculation means 48, discrimination means 49, subtraction means 50, multiplication means 51,
It has an addition means 52, an addition means 53, a multiplication means 54, a switch means 55, a delay means 56, and an integration means 57.
Also in the third embodiment, as described with reference to FIGS. 1 and 5 as the first and second embodiments, there is the configuration of the three-dimensional shape restoring device, but the basic difference is In place of the image data preprocessing unit 3A and the error amount computing unit 3B described above, only the part that adds an additional term that satisfies the continuity of the target object to the energy function e as the discriminant described above is different. The configuration of the original shape restoring device is omitted.

【0052】図9に示した機能ブロックのそれぞれは下
記に述べる処理を行う。反射地図パラメータ生成手段4
1は初期反射地図パラメータ:p0 ,q0 を入力して反
射地図パラメータ:p,qを生成する。平均反射地図パ
ラメータ演算手段42は,式34および式35に従っ
て,反射地図パラメータ:p,qの平均を算出する。乗
算手段43は,平均反射地図パラメータ演算手段42で
算出した平均反射地図パラメータに評価係数λ1 を乗ず
る。これにより,式32および式33の右辺,〔〕内の
第1項の演算が行われる。反射地図パラメータ差・和演
算手段44は,式32および式33における右辺の〔〕
内の第2項の部分演算を行う。乗算手段45は,反射地
図パラメータ差・和演算手段44の演算結果に評価係数
λ2 /2を乗じて, 式32および式33における右辺の
〔〕内の第2項の演算を行う。輝度演算手段47は反射
地図パラメータ:p,qに対する輝度Rs(p,q)を
算出する。輝度微分演算手段46は,輝度演算手段47
で算出した輝度Rs(p,q)を反射地図パラメータ:
p,qで偏微分して,∂R/∂p,∂R/∂qを算出す
る。減算手段50は,式32および式33の右辺の〔〕
内の第3項に示す輝度偏差ΔI=二次元輝度画像データ
I(x,y)−輝度Rsを算出する。乗算手段51は,
この輝度偏差ΔI=I(x,y)−Rsに輝度微分演算
手段46からの輝度偏微分結果∂R/∂p,∂R/∂q
を乗じて,式32および式33の右辺の〔〕内の第3項
の値を得る。加算手段52は,乗算手段51からの結果
に乗算手段45からの結果を加算する。加算手段53は
加算手段52の加算結果に乗算手段43の乗算結果を加
算する。これにより,式32および式33における右辺
の〔〕内に示す値が計算される。乗算手段54は,加算
手段53の加算結果に,評価係数1/(λ1 +λ2 )を
乗ずる。これにより,式32および式33に基づく演算
が行われることになる。
Each of the functional blocks shown in FIG. 9 performs the processing described below. Reflection map parameter generation means 4
1 inputs initial reflection map parameters: p 0 , q 0 to generate reflection map parameters: p, q. The average reflection map parameter calculation means 42 calculates the average of the reflection map parameters: p and q according to the equations 34 and 35. The multiplying means 43 multiplies the average reflection map parameter calculated by the average reflection map parameter calculating means 42 by the evaluation coefficient λ 1 . As a result, the calculation of the first term in [] on the right side of Expressions 32 and 33 is performed. The reflection map parameter difference / sum calculation means 44 uses [] on the right side of the equations 32 and 33.
The partial operation of the second term is performed. Multiplying means 45 multiplies an assessment factor lambda 2/2 of the calculation result of the reflection map parameter difference-sum operation unit 44 performs calculation of the second term in the right side of Formula 32 and Formula 33 []. The brightness calculation means 47 calculates the brightness Rs (p, q) for the reflection map parameters: p, q. The brightness differential calculating means 46 is a brightness calculating means 47.
The brightness Rs (p, q) calculated in step S3 is used as a reflection map parameter:
Partial differentiation is performed with p and q to calculate ∂R / ∂p and ∂R / ∂q. The subtraction means 50 uses [] on the right side of Expressions 32 and 33.
The luminance deviation ΔI = two-dimensional luminance image data I (x, y) −luminance Rs shown in the third term of the above is calculated. The multiplication means 51 is
This brightness deviation ΔI = I (x, y) −Rs is added to the brightness partial differentiation result ∂R / ∂p, ∂R / ∂q from the brightness differential calculating means 46
Multiply by to obtain the value of the third term in [] on the right side of Expressions 32 and 33. The adding means 52 adds the result from the multiplying means 51 to the result from the multiplying means 45. The addition means 53 adds the multiplication result of the multiplication means 43 to the addition result of the addition means 52. As a result, the values shown in [] on the right side of Expressions 32 and 33 are calculated. The multiplication means 54 multiplies the addition result of the addition means 53 by the evaluation coefficient 1 / (λ 1 + λ 2 ). As a result, the calculation based on the equations 32 and 33 is performed.

【0053】エネルギー計算手段48は,式28に規定
するエネルギーeを計算する。判断手段49は,エネル
ギー計算手段48で計算したエネルギーeが最小値だあ
るか否かを判定する。そして,エネルギーeが最小値で
あると判断したときは,その結果をスイッチ手段55を
介して,積分手段57に出力し,上記演算で得られた反
射地図パラメータ:p,qに基づいて対象物体の3次元
形状を復元する画像データを生成させる。判断手段49
においてエネルギーeが最小を示すものでないと判断さ
れた時は,乗算手段54の演算結果は,遅延手段56に
おいて所定時間遅延されて,再び,反射地図パラメータ
生成手段41において反射地図パラメータ:p,qの更
新が行われ,上述した演算が反復される。遅延手段56
における遅延時間は,たとえ,ビデオ信号の1フレーム
分に相当する遅延時間である。
The energy calculating means 48 calculates the energy e defined in equation 28. The determination means 49 determines whether or not the energy e calculated by the energy calculation means 48 is the minimum value. When it is determined that the energy e is the minimum value, the result is output to the integrating means 57 via the switch means 55, and the target object is calculated based on the reflection map parameters: p and q obtained by the above calculation. The image data for restoring the three-dimensional shape of is generated. Judgment means 49
When it is determined that the energy e does not indicate the minimum value, the calculation result of the multiplication means 54 is delayed by the delay means 56 for a predetermined time, and again the reflection map parameter: p, q in the reflection map parameter generation means 41. Is updated, and the above-mentioned calculation is repeated. Delay means 56
The delay time at is a delay time corresponding to one frame of the video signal.

【0054】第1〜第3実施例の機能ブロックの相互関
係について触れておく。図9に示した機能ブロック図
も,上述した図2または図6に示した機能ブロックに類
似している。ただし,図9においては,図2および図6
に示したマッピングパラメータ:f,gに代えて,反射
地図パラメータ:p,qを用いて表現している。たとえ
ば,図9に示した手段と図6に示した手段との対応関係
を示すと下記になる。 図9における手段 図6における手段 反射地図パラメータ生成手段41 マッピングパラメータ生成手段19 平均反射地図パラメータ演算手段42 平均マッピングパラメータ演算手段 20B 反射地図パラメータ差・和演算手段 マッピングパラメータの差の二乗演算 44 手段34 輝度微分演算手段46 輝度微分演算手段21 輝度演算手段47 輝度演算手段22 減算手段50 減算手段23 乗算手段51 乗算手段24 加算手段52,53 加算手段33 乗算手段54 乗算手段25 判断手段49 判断手段27 遅延手段56 遅延手段28 積分手段57 積分手段30 表現形態が異なり,演算処理内容なとが必ずしも一致し
ていないので完全な対応関係は成立しないが,大きな機
能ブロックとして考察した場合,ある程度の対応関係に
はある。図2に示した機能ブロックと図6に示した機能
ブロックとも上記同様に対応関係がある。同様に,図2
に示した機能ブロックと図9に示した機能ブロックとも
対応関係がある。
The mutual relation of the functional blocks of the first to third embodiments will be touched upon. The functional block diagram shown in FIG. 9 is also similar to the functional block shown in FIG. 2 or 6 described above. However, in FIG. 9, FIG.
In place of the mapping parameters: f and g shown in (1), reflection map parameters: p and q are used for the expression. For example, the correspondence between the means shown in FIG. 9 and the means shown in FIG. 6 is as follows. Means in FIG . 9 Means in FIG. 6 Reflection map parameter generation means 41 Mapping parameter generation means 19 Average reflection map parameter calculation means 42 Average mapping parameter calculation means 20B Reflection map parameter difference / sum calculation means Mapping parameter difference square calculation 44 Means 34 Brightness differential calculation means 46 Brightness differential calculation means 21 Brightness calculation means 47 Brightness calculation means 22 Subtraction means 50 Subtraction means 23 Multiplication means 51 Multiplication means 24 Addition means 52, 53 Addition means 33 Multiplication means 54 Multiplication means 25 Judgment means 49 Judgment means 27 Delay means 56 Delay means 28 Integrator means 57 Integrator means 30 Since the expression forms are different and the arithmetic processing contents do not necessarily match, a perfect correspondence relationship is not established, but when considered as a large functional block, a certain correspondence relationship Is in The functional block shown in FIG. 2 and the functional block shown in FIG. Similarly, FIG.
There is also a correspondence relationship between the functional block shown in FIG. 9 and the functional block shown in FIG.

【0055】以上の第1〜第3実施例は,(a)対象物
体の形状に急激な変化がある場合にもその変化を正確に
対象物体の3次元形状を復元可能な三次元形状復元方法
およびその装置,(b)マッピングパラメータ:f,g
の初期値が誤差が存在してもその誤差の影響を受けずに
正確に対象物体の3次元形状を復元可能な三次元形状復
元方法およびその装置,(c)判別式として用いるエネ
ルギーeに対象物体の表面の連続性を満足する付加項を
設けてさらに正確に対象物体の3次元形状を復元可能な
三次元形状復元方法およびその装置を,それぞれ個別に
述べた。本発明の三次元形状復元方法および三次元形状
復元装置はこれら第1〜第3実施例を適切に組み合わせ
た種々の実施例をとることができる。これらの実施例に
おいて,対応関係を上記のように例示したように,共通
処理手段が存在するので,共通処理手段は当然その演算
を共通に処理する。
The above-described first to third embodiments are (a) a three-dimensional shape restoration method capable of accurately restoring the three-dimensional shape of the target object even when the shape of the target object changes abruptly. And its device, (b) mapping parameters: f, g
3D shape restoration method and apparatus capable of accurately restoring the 3D shape of a target object without being affected by the error even if there is an error in the initial value of, and (c) energy e used as a discriminant The three-dimensional shape restoration method and apparatus that can more accurately restore the three-dimensional shape of the target object by providing additional terms that satisfy the continuity of the surface of the object have been described individually. The three-dimensional shape restoring method and the three-dimensional shape restoring apparatus of the present invention can take various embodiments by appropriately combining these first to third embodiments. In these embodiments, since the common processing means is present as described above as an example of the correspondence relationship, the common processing means naturally processes the calculation in common.

【0056】[0056]

【発明の効果】以上述べたように,本発明によれば,対
象物体の3次元形状に急激な変化が存在する場合であっ
ても正確にその3次元形状を復元する画像データを生成
することかできる。また本発明によれば,マッピングパ
ラメータの初期値に誤差を含んでいても,その誤差を修
正しながら対象物体の3次元形状を復元する画像データ
を生成することができ,マッピングパラメータの初期値
設定に多大の労力を要しないという利点が有する。さら
に本発明によれば,対象物体の連続性を考慮して,対象
物体の実在性の富む3次元形状を復元する画像データを
生成することができる。本発明の三次元形状復元方法お
よび三次元形状復元装置は短時間で対象物体の3次元形
状を復元する画像データを生成することができ,実時間
性を満足する3次元形状復元画像データを提供できる。
さらに本発明の三次元形状復元方法によれば,DSPな
どの高速信号処理装置を必ずしも必要とせず,低価格で
信号処理装置が対象物体の3次元形状を復元する画像デ
ータを提供できる。
As described above, according to the present invention, it is possible to generate image data that accurately restores a three-dimensional shape of a target object even when there is a rapid change in the three-dimensional shape. You can Further, according to the present invention, even if the initial value of the mapping parameter includes an error, it is possible to generate image data that restores the three-dimensional shape of the target object while correcting the error, and set the initial value of the mapping parameter. It has the advantage that it does not require much labor. Further, according to the present invention, it is possible to generate the image data that restores the highly realistic three-dimensional shape of the target object in consideration of the continuity of the target object. The three-dimensional shape restoration method and the three-dimensional shape restoration device of the present invention can generate image data for restoring the three-dimensional shape of a target object in a short time, and provide three-dimensional shape restored image data satisfying real-time property. it can.
Further, according to the three-dimensional shape restoration method of the present invention, a high-speed signal processing device such as a DSP is not necessarily required, and it is possible to provide image data in which the signal processing device restores the three-dimensional shape of the target object at low cost.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の三次元形状復元装置の第1実施例の構
成図である。
FIG. 1 is a configuration diagram of a first embodiment of a three-dimensional shape restoration device of the present invention.

【図2】本発明の三次元形状復元方法の第1実施例の処
理内容,および,図1に示した三次元形状復元装置の動
作を機能ブロックとして示した図である。
FIG. 2 is a diagram showing, as functional blocks, processing contents of a first embodiment of a three-dimensional shape restoring method of the present invention and an operation of the three-dimensional shape restoring device shown in FIG.

【図3】本発明の陰影情報を用いて三次元形状を復元す
る方法において適用する陰影情報を示すマッピングパラ
メータの座標系の断面図である。
FIG. 3 is a cross-sectional view of a coordinate system of mapping parameters showing shadow information applied in the method for restoring a three-dimensional shape using shadow information of the present invention.

【図4】本発明の陰影情報を用いて三次元形状を復元す
る方法において適用する陰影情報を示すマッピングパラ
メータの座標系の斜視図である。
FIG. 4 is a perspective view of a coordinate system of mapping parameters showing shadow information applied in the method for restoring a three-dimensional shape using shadow information of the present invention.

【図5】本発明の三次元形状復元装置の第2実施例の構
成図である。
FIG. 5 is a configuration diagram of a second embodiment of a three-dimensional shape restoration device of the present invention.

【図6】本発明の三次元形状復元方法の第2実施例の処
理内容,および,図5に示した三次元形状復元装置の動
作を機能ブロックとして示した図である。
FIG. 6 is a diagram showing, as functional blocks, processing contents of a second embodiment of a three-dimensional shape restoring method of the present invention and operation of the three-dimensional shape restoring device shown in FIG.

【図7】第2実施例の三次元形状復元方法の処理を示す
フローチャートである。
FIG. 7 is a flowchart showing the processing of the three-dimensional shape restoration method of the second embodiment.

【図8】本発明の三次元形状復元装置の第2実施例の構
成図である。
FIG. 8 is a configuration diagram of a second embodiment of the three-dimensional shape restoration device of the present invention.

【図9】本発明の三次元形状復元方法の第2実施例の処
理内容,および,図5に示した三次元形状復元装置の動
作を機能ブロックとして示した図である。
FIG. 9 is a diagram showing, as functional blocks, processing contents of a second embodiment of a three-dimensional shape restoring method of the present invention and operation of the three-dimensional shape restoring device shown in FIG.

【図10】従来の陰影情報から対象物体の3次元形状を
復元する画像データを生成するブロック構成図である。
FIG. 10 is a block configuration diagram for generating image data for restoring a three-dimensional shape of a target object from conventional shadow information.

【図11】図10の三次元形状復元方法を実現する従来
の三次元形状復元装置の構成図である。
11 is a configuration diagram of a conventional three-dimensional shape restoration device that realizes the three-dimensional shape restoration method of FIG.

【図12】従来の三次元形状復元装置の構成図である。FIG. 12 is a configuration diagram of a conventional three-dimensional shape restoration device.

【図13】従来の三次元形状復元方法および三次元形状
復元装置の機能ブロック図である。
FIG. 13 is a functional block diagram of a conventional three-dimensional shape restoration method and three-dimensional shape restoration device.

【図14】従来の陰影情報から3次元形状を復元するに
際して,遮蔽輪郭部分の法線を示す平面図である。
FIG. 14 is a plan view showing a normal line of a shielding contour portion when a three-dimensional shape is restored from conventional shadow information.

【図15】図14に示した遮蔽輪郭の斜視図である。FIG. 15 is a perspective view of the shielding contour shown in FIG.

【符号の説明】[Explanation of symbols]

1A,1B・・三次元形状復元装置 2A,2B・・画像処理装置 3A・・滑らかさパラメータ演算処理部 3B・・マッピングパラメータ誤差分演算部 4・・2次元輝度画像データ出力手段 5・・カラービデオカメラ 6・・カラーテレビ
7・・VTR 8・・画像入力部 9・・A/D変換部 10・・画像データ記憶部 11・・制御部 12・・画像データ演算部 13・・復元画像データ
判断部 14・・画像データ出力部 15・・パーソナル・コ
ンピュータ 16・・エッジ検出手段 17・・滑らかさパラメ
ータ決定手段 18・・評価係数補正手段 19・・マッピングパラ
メータ生成手段 20・・マッピングパラメータ差の二乗演算手段 20B・・平均マッピングパラメータ演算手段 21・・輝度微分演算手段 22・・輝度演算手段 23・・減算手段 24・・乗算手段 25・・乗算手段 26・・加算手段 27・・判断手段 28・・遅延手段 29・・反射地図処理手段 30・・積分手段 31・・2次元画像データ出力手段 32・・乗算手段 33・・加算手段 34・・マッピングパラメータの差の二乗演算手段 35・・初期値誤差定義手段 36・・初期値設定手段 37・・減算手段 38・・乗算手段 41・・反射地図パラメータ生成手段 42・・平均反射地図パラメータ演算手段 43・・乗算手段 44・・反射地図パラメータ
差・和演算手段 45・・乗算手段 46・・輝度微分演算手
段 47・・輝度演算手段 48・・エネルギー計算
手段 49・・判断手段 50・・減算手段 51・・乗算手段 52・・加算手段 53・・加算手段 54・・乗算手段 56・・遅延手段 57・・積分手段
1A, 1B ··· Three-dimensional shape restoration device 2A, 2B · · Image processing device 3A · · Smoothness parameter arithmetic processing unit 3B · · Mapping parameter error amount arithmetic unit 4 · · 2D luminance image data output means 5 · · Color Video camera 6. Color TV
7 ... VTR 8 ... Image input unit 9 ... A / D conversion unit 10 ... Image data storage unit 11 ... Control unit 12 ... Image data calculation unit 13 ... Restored image data determination unit 14 ... Image data Output unit 15 Personal computer 16 Edge detection unit 17 Smoothness parameter determination unit 18 Evaluation coefficient correction unit 19 Mapping parameter generation unit 20 Mapping parameter difference square calculation unit 20B Average Mapping parameter calculating means 21. Brightness differential calculating means 22. Brightness calculating means 23. Subtracting means 24. Multiplying means 25. Multiplying means 26 .. Addition means 27 .. Judging means 28 .. Delaying means 29 .. Reflection map processing means 30-Integration means 31-Two-dimensional image data output means 32-Multiplication means 33-Adding means 34- Squared difference calculation means 35 for the difference in the wrapping parameters 35 Initial value error definition means 36 Initial value setting means 37 Subtraction means 38 Multiplication means 41 Reflection map parameter generation means 42 Average reflection map parameter calculation Means 43. Multiplication means 44. Reflection map parameter difference / sum calculation means 45. Multiplication means 46. Brightness differential calculation means 47. Brightness calculation means 48. Energy calculation means 49. Judgment means 50. Means 51. Multiplication means 52. Addition means 53. Addition means 54. Multiplication means 56 .. Delay means 57 .. Integration means

【数11】 [Equation 11]

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】対象物体を撮像した二次元輝度画像データ
についての陰影情報を用いて上記対象物体の三次元形状
を復元する画像データを生成する三次元形状復元方法で
あって,上記二次元輝度画像データから上記対象物体の
形状の面の滑らかさを検出し,この滑らかさを用いて対
象物体の形状の復元状態を判別し,この判別結果が適切
な値を示す陰影情報を用いて上記対象物体の3次元形状
を復元する画像データを生成する三次元形状復元方法。
1. A three-dimensional shape restoration method for generating image data for restoring a three-dimensional shape of a target object by using shadow information about two-dimensional luminance image data obtained by capturing an image of the target object. The smoothness of the surface of the shape of the target object is detected from the image data, the restoration state of the shape of the target object is discriminated using this smoothness, and the discrimination result shows an appropriate value. A three-dimensional shape restoring method for generating image data for restoring a three-dimensional shape of an object.
【請求項2】対象物体の二次元輝度画像データを提供す
る手段と,上記二次元輝度画像データについて上記対象
物体の陰影を示す反射地図パラメータを算出する手段
と,隣接する反射地図パラメータの差の二乗を算出する
手段と,反射地図パラメータに対する輝度を算出する手
段と,前記反射地図パラメータに対する輝度についての
反射地図パラメータに対する微分結果を算出する手段
と,上記二次元輝度画像データから上記対象物体の形状
の滑らかさを算出する手段と,上記二次元輝度画像と上
記反射地図パラメータに対する輝度との差を算出しこの
差に上記反射地図パラメータに対する輝度の微分結果を
乗じこの乗算結果と,上記隣接する反射地図パラメータ
の差の二乗に上記滑らかさを示すパラメータを乗じた結
果とを加算して判別値を算出する手段と,上記判別値が
最小か否かを判断する手段と上記判断手段で上記判別値
が最小と判断されたとき,その時の反射地図パラメータ
から上記対象物体の3次元形状を示す画像データを生成
する手段とを有する三次元形状復元装置。
2. A means for providing two-dimensional luminance image data of a target object, a means for calculating a reflection map parameter indicating a shadow of the target object for the two-dimensional luminance image data, and a difference between adjacent reflection map parameters. Means for calculating the square, means for calculating the brightness for the reflection map parameter, means for calculating a differential result for the reflection map parameter with respect to the reflection map parameter, and shape of the target object from the two-dimensional brightness image data. Means for calculating the smoothness of the two-dimensional luminance image and the difference between the two-dimensional luminance image and the luminance with respect to the reflection map parameter, the difference is multiplied by the differential result of the luminance with respect to the reflection map parameter, and the multiplication result and the adjacent reflection Discriminant value by adding the square of the difference of map parameters and the result of multiplying the parameter indicating the smoothness Image data showing the three-dimensional shape of the target object from the reflection map parameter at that time when the judgment value is judged to be the minimum by the calculating means, the judgment means for judging whether the judgment value is the minimum, and the judgment means. And a three-dimensional shape restoration device having a means for generating.
【請求項3】対象物体を撮像した二次元輝度画像データ
についての陰影情報を用いて上記対象物体の三次元形状
を復元する画像データを生成する三次元形状復元方法で
あって,陰影情報である反射地図パラメータの初期値の
誤差を補償して,対象物体の形状の復元状態を判別し,
この判別結果が適切な値を示す陰影情報を用いて上記対
象物体の3次元形状を復元する画像データを生成する三
次元形状復元方法。
3. A three-dimensional shape restoration method for generating image data for restoring the three-dimensional shape of the target object using the shadow information about the two-dimensional luminance image data obtained by imaging the target object, which is shadow information. Compensate the error of the initial value of the reflection map parameter, determine the restoration state of the shape of the target object,
A three-dimensional shape restoration method for generating image data for restoring the three-dimensional shape of the target object by using the shadow information indicating the determination result having an appropriate value.
【請求項4】対象物体の二次元輝度画像データを提供す
る手段と,上記二次元輝度画像データについて上記対象
物体の陰影を示す反射地図パラメータを算出する手段
と,反射地図パラメータの初期値を設定する手段と,こ
の反射地図パラメータの初期値を上記算出された反射地
図パラメータを用いて補正する手段と,隣接する反射地
図パラメータの差の二乗を算出する手段と,反射地図パ
ラメータに対する輝度を算出する手段と,前記反射地図
パラメータに対する輝度についての反射地図パラメータ
に対する微分結果を算出する手段と,上記二次元輝度画
像と上記反射地図パラメータに対する輝度との差を算出
しこの差に上記反射地図パラメータに対する輝度の微分
結果を乗じこの乗算結果と,上記反射地図パラメータの
差の二乗と加算して判別値を算出する手段と,上記判別
値が最小か否かを判断する手段と上記判断手段で上記判
別値が最小と判断されたとき,その時の反射地図パラメ
ータから上記対象物体の3次元形状を示す画像データを
生成する手段とを有する三次元形状復元装置。
4. A means for providing two-dimensional luminance image data of a target object, a means for calculating a reflection map parameter indicating a shadow of the target object with respect to the two-dimensional luminance image data, and an initial value of the reflection map parameter. Means, a means for correcting the initial value of this reflection map parameter using the reflection map parameter calculated above, a means for calculating the square of the difference between adjacent reflection map parameters, and a luminance for the reflection map parameter. Means, a means for calculating a differentiation result of the luminance with respect to the reflection map parameter with respect to the reflection map parameter, and a difference between the two-dimensional luminance image and the luminance with respect to the reflection map parameter, and the difference with respect to the luminance for the reflection map parameter. Multiply this differential result by adding the squared difference of the reflection map parameters When the determination value is determined to be the minimum by the means for calculating another value, the determination means for determining whether the determination value is the minimum, and the determination means, the three-dimensional shape of the target object is calculated from the reflection map parameter at that time. A three-dimensional shape restoration device having means for generating image data shown.
【請求項5】対象物体を撮像した二次元輝度画像データ
についての陰影情報を用いて上記対象物体の三次元形状
を復元する画像データを生成する三次元形状復元方法で
あって,上記対象物体の3次元形状を復元するための判
別式に上記対象物体の連続性を付加して上記対象物体の
形状の復元状態を判別し,この判別結果が適切な値を示
す陰影情報を用いて上記対象物体の3次元形状を復元す
る画像データを生成する三次元形状復元方法。
5. A three-dimensional shape restoration method for generating image data for restoring a three-dimensional shape of the target object using shadow information about two-dimensional luminance image data obtained by capturing the image of the target object. The continuity of the target object is added to the discriminant for restoring the three-dimensional shape to determine the restored state of the shape of the target object, and the target object is determined by using the shadow information in which the determination result shows an appropriate value. 3D shape restoration method for generating image data for restoring 3D shape of
【請求項6】対象物体の二次元輝度画像データを提供す
る手段と,上記二次元輝度画像データについて上記対象
物体の陰影を示す反射地図パラメータを算出する手段
と,上記対象物体の表面の連続性を示す値を算出する手
段と,隣接する反射地図パラメータの差の二乗を算出す
る手段と,反射地図パラメータに対する輝度を算出する
手段と,前記反射地図パラメータに対する輝度について
の反射地図パラメータに対する微分結果を算出する手段
と,上記二次元輝度画像と上記反射地図パラメータに対
する輝度との差を算出しこの差に上記反射地図パラメー
タに対する輝度の微分結果を乗じこの乗算結果と,上記
反射地図パラメータの差の二乗と,上記対象物体の表面
の連続性を示す値とを加算して判別値を算出する手段
と,上記判別値が最小か否かを判断する手段と,上記判
断手段で上記判別値が最小と判断されたとき,その時の
反射地図パラメータから上記対象物体の3次元形状を示
す画像データを生成する手段とを有する三次元形状復元
装置。
6. A means for providing two-dimensional luminance image data of a target object, a means for calculating a reflection map parameter indicating a shadow of the target object for the two-dimensional luminance image data, and continuity of the surface of the target object. Is calculated, a means for calculating the square of the difference between adjacent reflection map parameters, a means for calculating the brightness for the reflection map parameter, and a differential result for the reflection map parameter with respect to the brightness for the reflection map parameter. A means for calculating, a difference between the two-dimensional luminance image and the luminance with respect to the reflection map parameter is calculated, and the difference is multiplied by a differential result of the luminance with respect to the reflection map parameter. The multiplication result is squared with a difference between the reflection map parameter. And a means for calculating a discriminant value by adding a value indicating the continuity of the surface of the target object, A three-dimensional shape having means for determining whether or not the determination value is determined by the determination means, and means for generating image data indicating the three-dimensional shape of the target object from the reflection map parameter at that time. Restoration device.
JP14318192A 1991-10-30 1992-05-08 Three-dimensional shape restoration method and device Expired - Fee Related JP3198617B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14318192A JP3198617B2 (en) 1991-10-30 1992-05-08 Three-dimensional shape restoration method and device

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP31161291 1991-10-30
JP3-311612 1991-11-06
JP31841991 1991-11-06
JP3-318419 1991-11-06
JP14318192A JP3198617B2 (en) 1991-10-30 1992-05-08 Three-dimensional shape restoration method and device

Publications (2)

Publication Number Publication Date
JPH05181980A true JPH05181980A (en) 1993-07-23
JP3198617B2 JP3198617B2 (en) 2001-08-13

Family

ID=27318581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14318192A Expired - Fee Related JP3198617B2 (en) 1991-10-30 1992-05-08 Three-dimensional shape restoration method and device

Country Status (1)

Country Link
JP (1) JP3198617B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7078688B2 (en) 2003-08-27 2006-07-18 Hitachi High-Technologies Corporation Shape measuring device and shape measuring method
WO2006077710A1 (en) * 2005-01-19 2006-07-27 Matsushita Electric Industrial Co., Ltd. Image conversion method, texture mapping method, image conversion device, server client system, and image conversion program
JP2010526295A (en) * 2007-04-24 2010-07-29 株式会社ソニー・コンピュータエンタテインメント Scanning 3D objects using a video camera and TV monitor
US7889908B2 (en) 2005-03-16 2011-02-15 Hitachi High-Technologies Corporation Method and apparatus for measuring shape of a specimen
CN113099210A (en) * 2021-03-31 2021-07-09 东莞中国科学院云计算产业技术创新与育成中心 Three-dimensional image restoration method and device, computer equipment and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7078688B2 (en) 2003-08-27 2006-07-18 Hitachi High-Technologies Corporation Shape measuring device and shape measuring method
WO2006077710A1 (en) * 2005-01-19 2006-07-27 Matsushita Electric Industrial Co., Ltd. Image conversion method, texture mapping method, image conversion device, server client system, and image conversion program
US7379618B2 (en) 2005-01-19 2008-05-27 Matsushita Electric Industrial Co., Ltd. Image conversion method, texture mapping method, image conversion device, server-client system, and image conversion program
US7889908B2 (en) 2005-03-16 2011-02-15 Hitachi High-Technologies Corporation Method and apparatus for measuring shape of a specimen
JP2010526295A (en) * 2007-04-24 2010-07-29 株式会社ソニー・コンピュータエンタテインメント Scanning 3D objects using a video camera and TV monitor
CN113099210A (en) * 2021-03-31 2021-07-09 东莞中国科学院云计算产业技术创新与育成中心 Three-dimensional image restoration method and device, computer equipment and storage medium
CN113099210B (en) * 2021-03-31 2023-01-10 东莞中国科学院云计算产业技术创新与育成中心 Three-dimensional image restoration method and device, computer equipment and storage medium

Also Published As

Publication number Publication date
JP3198617B2 (en) 2001-08-13

Similar Documents

Publication Publication Date Title
JP3954211B2 (en) Method and apparatus for restoring shape and pattern in 3D scene
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
EP1303839B1 (en) System and method for median fusion of depth maps
US6816187B1 (en) Camera calibration apparatus and method, image processing apparatus and method, program providing medium, and camera
JP5297403B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium
KR101410273B1 (en) Method and apparatus for environment modeling for ar
CN102289803A (en) Image Processing Apparatus, Image Processing Method, and Program
WO2005043466A1 (en) Estimation system, estimation method, and estimation program for estimating object state
WO2000036564A9 (en) Creating a three-dimensional model from two-dimensional images
JP5901447B2 (en) Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program
WO2021169704A1 (en) Method, device and apparatus for determining depth of gesture, and storage medium
JP2002008040A (en) Three-dimensional information detecting device and three-dimensional information detecting method
JP3668769B2 (en) Method for calculating position / orientation of target object and method for calculating position / orientation of observation camera
CN114981845A (en) Image scanning method and device, equipment and storage medium
JPH1079029A (en) Stereoscopic information detecting method and device therefor
JP3198617B2 (en) Three-dimensional shape restoration method and device
JP3614709B2 (en) Landscape image index method, apparatus, and recording medium recording landscape image index program
CN115861547A (en) Model surface sample line generation method based on projection
JP2014149582A (en) Transformation matrix estimation device, transformation matrix estimation method, and program
WO2021169705A1 (en) Method, apparatus and device for processing gesture depth information, and storage medium
CN113140031B (en) Three-dimensional image modeling system and method and oral cavity scanning equipment applying same
JP3577202B2 (en) Video production equipment
JP3180430B2 (en) 3D shape restoration method
JPH09138865A (en) Three-dimensional shape data processor
JPH0498367A (en) Three-dimensional shape generation system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees