JPH11211440A - Three-dimensional shape restoring device and method, and computer readable storage medium having three-dimensional restoring program recorded thereon - Google Patents

Three-dimensional shape restoring device and method, and computer readable storage medium having three-dimensional restoring program recorded thereon

Info

Publication number
JPH11211440A
JPH11211440A JP10014131A JP1413198A JPH11211440A JP H11211440 A JPH11211440 A JP H11211440A JP 10014131 A JP10014131 A JP 10014131A JP 1413198 A JP1413198 A JP 1413198A JP H11211440 A JPH11211440 A JP H11211440A
Authority
JP
Japan
Prior art keywords
normal vector
luminance
dimensional shape
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10014131A
Other languages
Japanese (ja)
Other versions
JP3940484B2 (en
Inventor
Ikuo Jinriyou
郁夫 神涼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu FIP Corp
Original Assignee
Fujitsu FIP Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu FIP Corp filed Critical Fujitsu FIP Corp
Priority to JP01413198A priority Critical patent/JP3940484B2/en
Publication of JPH11211440A publication Critical patent/JPH11211440A/en
Application granted granted Critical
Publication of JP3940484B2 publication Critical patent/JP3940484B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To precisely restore the three-dimensional shape in a short time on the basis of luminance information from an image data obtained by photographing a three-dimensional target. SOLUTION: A color image data obtained by photographing a target having a three-dimensional shape is fetched by an image fetching part 24, a normal vector detecting part 26 divides the target into, for example, minute planes of picture element unit, and detects the normal vector of each minute plane on the basis of luminance information. A three-dimensional shape restoring part 50 calculates the three-dimensional data of the target on the basis of the normal vector group, and restores and displays it. The normal vector detecting part 26 divides the normal vector of the minute lane in the target to be photographed into a light source directional vector vertical component and a vector horizontal component orthogonal to the light source direction. The vertical component is proportional to the luminance of the minute plane, and the horizontal component is determined from the tangential direction of the equivalence line of the luminance.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、三次元形状を有する対
象物を撮影したカラー画像から対象物の三次元形状デー
タを作成してコンピュータグラフィックスにより復元す
るための三次元形状復元装置及び方法並びに三次元形状
復元プログラムを記録したコンピュータ読取り可能な記
録媒体に関し、特に、三次元対象物のカラー画像から変
換した輝度画像に基づいて短時間でかつ正確に対象物の
三次元形状を復元するための三次元形状復元装置及び方
法並びに三次元形状復元プログラムを記録したコンピュ
ータ読取り可能な記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional shape restoring apparatus and method for creating three-dimensional shape data of an object from a color image of the object having a three-dimensional shape and restoring the data by computer graphics. In addition, the present invention relates to a computer-readable recording medium on which a three-dimensional shape restoration program is recorded, and in particular, to quickly and accurately restore a three-dimensional shape of an object based on a luminance image converted from a color image of the three-dimensional object. And a computer-readable recording medium on which a three-dimensional shape restoring program is recorded.

【0002】[0002]

【従来の技術】近年、デジタルカメラやデジタルビデオ
等の普及に伴い、撮影した画像データをパーソナルコン
ピュータに取り込んでプレゼンテーション等に利用する
ことが盛んに行われている。この場合、撮影した画像デ
ータからパーソナルコンピュータ上で三次元形状データ
を生成することができれば、コンピュータグラフィック
スによって撮影した対象物を復元することができ、撮影
画像データの利用範囲が大幅に拡大する。
2. Description of the Related Art In recent years, with the spread of digital cameras, digital videos, and the like, photographed image data is taken into a personal computer and used for presentations and the like. In this case, if the three-dimensional shape data can be generated on the personal computer from the captured image data, the object captured by the computer graphics can be restored, and the use range of the captured image data is greatly expanded.

【0003】従来、三次元形状を持つ対象物を撮影した
画像データのうちの輝度情報をもとに、対象物の三次元
形状を復元する方法は、一般に「Shape From Shading」
問題として知られており、各種のアプローチが試みられ
ている。この復元方法としては、例えば特性曲線展開法
と弛緩法が代表的なものとしてある。特性曲線展開法
は、Hornにより定式化され、画像の照明の方程式、即
ち、面の傾きに関する非線形1階微分方程式を特性曲線
に沿って解くことによって三次元形状情報を得るという
方法である。具体的には、画面上の任意の点を中心とし
て明暗の差がもっとも大きくなる点を順次結ぶことで特
性曲線を求める。この特性曲線と反射率分布図により特
性曲線上での面の傾きを求め、三次元形状を再構成す
る。
Conventionally, a method of restoring the three-dimensional shape of an object based on luminance information of image data obtained by photographing the object having the three-dimensional shape is generally called “Shape From Shading”.
Known as the problem, various approaches have been attempted. Typical examples of the restoration method include a characteristic curve expansion method and a relaxation method. The characteristic curve development method is a method formulated by Horn to obtain three-dimensional shape information by solving an illumination equation of an image, that is, a non-linear first-order differential equation relating to a surface inclination along a characteristic curve. Specifically, a characteristic curve is obtained by sequentially connecting points where the difference in brightness is the largest around an arbitrary point on the screen. The inclination of the surface on the characteristic curve is obtained from the characteristic curve and the reflectance distribution map, and the three-dimensional shape is reconstructed.

【0004】弛緩法は、外縁線拘束と滑らか拘束による
方法である。曲面体の外縁線、即ち見かけ上の輪郭線上
では、面の法線ベクトルは視線に直交するという初期条
件を用いて、画素近傍の2乗誤差及び反射関数と観測さ
れる画像の輝度との2乗誤差の和を最小にするように、
画素数に比例した連立方程式をガウス・ザイデルの繰り
返し法によって面の傾きを解く方法である。
The relaxation method is a method based on outer edge line constraint and smooth constraint. On the outer edge of the curved body, that is, on the apparent contour, the normal vector of the surface is squared with the square error near the pixel and the reflection function and the luminance of the observed image using the initial condition that the normal vector is orthogonal to the line of sight. To minimize the sum of the squared errors,
This is a method of solving the surface inclination of a simultaneous equation proportional to the number of pixels by the Gauss-Seidel iterative method.

【0005】換言すると、弛緩法は、物体の輪郭線上で
は、面の傾きが輪郭線の接線の傾きにより決定できるこ
とを利用し、これを境界条件として形状全体の面の傾き
を求めて三次元形状を再構成する。
In other words, the relaxation method utilizes the fact that the inclination of the surface can be determined by the inclination of the tangent of the outline on the contour line of the object, and using this as the boundary condition, the inclination of the surface of the entire shape is determined to obtain the three-dimensional shape. Reconfigure.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の撮影画像の輝度情報に基づいて三次元形状を
復元する方法は、次のような問題がある。まず特性曲線
展開法においては、特性曲線に沿って解を求めるため、
特性曲線が得られない部分においては解を求めることが
できない。また、特性曲線の開始点では、近似的に面の
傾きを人為的に与える必要があるが、この際の誤差が全
体の復元形状に影響を与えやすい。
However, the conventional method of restoring a three-dimensional shape based on luminance information of a photographed image has the following problems. First, in the characteristic curve expansion method, to find a solution along the characteristic curve,
A solution cannot be obtained in a portion where the characteristic curve cannot be obtained. At the starting point of the characteristic curve, it is necessary to approximately give the surface inclination artificially, but an error at this time tends to affect the entire restored shape.

【0007】また弛緩法においては、自然画像などでは
見かけ上の輪郭線を正確に求めることは難しく、初期条
件に誤差が含まれやすい。また、画素数に比例した連立
方程式を繰り返し法によって解くため、処理に時間を要
する。本発明は、このような従来の問題点に鑑みてなさ
れたもので、三次元対象物を撮影した画像データから、
輝度情報に基づいて短時間で且つ正確に三次元形状を復
元することのできる三次元形状復元装置及び方法並びに
三次元形状復元プログラムを記録したコンピュータ読取
り可能な記録媒体を提供することを目的とする。
In the relaxation method, it is difficult to accurately determine an apparent contour in a natural image or the like, and an error is likely to be included in an initial condition. Further, since simultaneous equations proportional to the number of pixels are solved by an iterative method, a long time is required for processing. The present invention has been made in view of such a conventional problem, and based on image data obtained by photographing a three-dimensional object,
It is an object of the present invention to provide a three-dimensional shape restoring device and method capable of restoring a three-dimensional shape accurately and in a short time based on luminance information, and a computer-readable recording medium recording a three-dimensional shape restoring program. .

【0008】[0008]

【課題を解決するための手段】図1は本発明の原理説明
図である。本発明の三次元形状復元装置は、図1(A)
のように、三次元形状を有する対象物を撮影したカラー
画像データを取り込む画像取込部24と、対象物を例え
ば画素単位の微小面に分割し輝度情報に基づいて各微小
面の法線ベクトルを抽出する法線ベクトル抽出部26、
及び法線ベクトル群に基づいて対象物の三次元形状デー
タを算出して復元表示する三次元形状復元部50で構成
される。
FIG. 1 is a diagram illustrating the principle of the present invention. FIG. 1A shows a three-dimensional shape restoration apparatus according to the present invention.
And an image capturing unit 24 that captures color image data obtained by capturing an object having a three-dimensional shape, and divides the object into minute surfaces in, for example, pixel units, and normal vectors of each minute surface based on luminance information. Normal vector extraction unit 26 for extracting
And a three-dimensional shape restoring unit 50 for calculating and restoring and displaying three-dimensional shape data of the object based on the normal vector group.

【0009】本発明にあっては、図1(B)のように、
撮影する対象物体66における微小面70の法線ベクト
ル72を、視線方向68のベクトル垂直成分76と視線
方向に直交する面78のベクトル水平成分74に分解
し、垂直成分76は微小面の輝度に比例し、水平成分7
4は輝度の等値線の接線方向から決定するものである。
法線ベクトル検出部26は、カラー取込画像を輝度画像
に変換する輝度画像変換部28、輝度画像に基づき各微
小面の法線ベクトルの水平成分を抽出する水平成分抽出
部30、輝度画像に基づき各微小面の法線ベクトルの垂
直成分を抽出する垂直成分算出部32、及び各微小面の
法線ベクトルの水平成分と垂直成分により正規化された
法線ベクトルを算出する法線ベクトル正規化部48を備
える。
In the present invention, as shown in FIG.
The normal vector 72 of the minute surface 70 of the target object 66 to be photographed is decomposed into a vector vertical component 76 in the line-of-sight direction 68 and a vector horizontal component 74 of a surface 78 orthogonal to the line-of-sight direction. Proportional and horizontal component 7
No. 4 is determined from the tangent direction of the luminance contour.
The normal vector detection unit 26 includes a luminance image conversion unit 28 that converts a color capture image into a luminance image, a horizontal component extraction unit 30 that extracts a horizontal component of a normal vector of each minute surface based on the luminance image, A vertical component calculation unit 32 that extracts a vertical component of a normal vector of each minute surface based on the normal vector normalization that calculates a normal vector normalized by a horizontal component and a vertical component of the normal vector of each minute surface A part 48 is provided.

【0010】水平成分抽出部30で抽出する法線ベクト
ルの水平成分74は、図1(B)の対象物66の視線方
向68に直交する面に投影した単位ベクトル長(大きさ
1.0)の成分であり、垂直成分抽出部32で抽出する
法線ベクトルの垂直成分76は、対象物の輝度に比例し
た視線方向の成分である。水平成分抽出部30は、輝度
画像を平滑化する輝度画像平滑部34、平滑化した輝度
画像の画素輝度値を任意の刻み幅で丸め込んで輝度コン
ター画像(輝度等高線画像)に変換する輝度コンター変
換部36、輝度コンター画像に基づき任意の刻み幅で輝
度等値線線を生成する輝度等値線生成部38、輝度等値
線上での微小領域の各面について法線ベクトルの水平成
分を算出する水平成分算出部40を備える。
The horizontal component 74 of the normal vector extracted by the horizontal component extraction unit 30 is a unit vector length (a size of 1.0) projected on a plane orthogonal to the viewing direction 68 of the object 66 in FIG. The vertical component 76 of the normal vector extracted by the vertical component extraction unit 32 is a component in the line-of-sight direction proportional to the luminance of the target object. The horizontal component extraction unit 30 includes a luminance image smoothing unit 34 for smoothing the luminance image, and a luminance contour conversion for rounding the pixel luminance value of the smoothed luminance image by an arbitrary step width to convert it into a luminance contour image (luminance contour image). Unit 36, a luminance contour line generating unit 38 that generates a luminance contour line at an arbitrary step width based on the luminance contour image, and calculates a horizontal component of a normal vector for each surface of a small area on the luminance contour line A horizontal component calculator 40 is provided.

【0011】輝度等値線生成部38は、例えばコンター
画像上で輝度値が変化する画素を探索して追跡開始点と
し、この追跡開始点を中心に所定回りに周囲の8画素を
調べ、着目した画素の輝度値が追跡開始点と同じで、次
に着目する画素の輝度値が追跡開始点より大きい場合、
現在の着目画素を次の追跡開始点とし、複数の追跡開始
点を結んで輝度等値線を生成する。
The luminance contour generating unit 38 searches for a pixel whose luminance value changes on the contour image, for example, as a tracking start point, and examines eight surrounding pixels around the tracking start point in a predetermined direction. If the luminance value of the pixel is the same as the tracking start point, and the luminance value of the pixel of interest next is greater than the tracking start point,
The current pixel of interest is set as the next tracking start point, and a plurality of tracking start points are connected to generate a luminance contour line.

【0012】水平成分算出部40は、微小面を通る輝度
等値線の接線ベクトルを生成し、接線ベクトルを90度
回転して法線ベクトルの水平成分を求める。この場合、
微小面が存在する面形状が凸面であった場合、輝度等値
線の接線ベクトルを輝度の暗くなる方向に90度回転し
て法線ベクトルの水平成分を求める。また微小面が存在
する面形状が凹面であった場合には、逆に輝度等値線の
接線ベクトルを輝度の明るくなる方向に90度回転して
法線ベクトルの水平成分を求める。
The horizontal component calculation unit 40 generates a tangent vector of a luminance isoline passing through a minute surface, and obtains a horizontal component of a normal vector by rotating the tangent vector by 90 degrees. in this case,
When the surface shape on which the minute surface exists is a convex surface, the horizontal component of the normal vector is obtained by rotating the tangent vector of the luminance isoline by 90 degrees in a direction in which the luminance becomes dark. On the other hand, when the surface shape on which the minute surface exists is concave, the tangent vector of the luminance isovalue line is rotated 90 degrees in the direction in which the luminance becomes brighter, and the horizontal component of the normal vector is obtained.

【0013】垂直成分抽出部32は、法線ベクトルの垂
直成分を、平滑化した輝度画像の各微小面の輝度値に比
例した値として算出する。具体的には、カラー画像を撮
影した際の視線方向、撮像方向等の撮影条件を入力する
撮影条件入力部42、視線方向に対する処理対象物の面
角度と輝度値との関係を定義した反射テーブルを作成す
る反射テーブル作成部44、及び輝度画像の各微小面の
輝度値による反射テーブルの参照で、各面の法線ベクト
ルの垂直成分を算出する垂直成分算出部46を備える。
The vertical component extraction unit 32 calculates the vertical component of the normal vector as a value proportional to the luminance value of each minute surface of the smoothed luminance image. Specifically, a photographing condition input unit 42 for inputting photographing conditions such as a line-of-sight direction and a photographing direction when a color image is photographed, a reflection table defining a relationship between a surface angle of a processing target object with respect to the line-of-sight direction and a luminance value. And a vertical component calculation unit 46 that calculates the vertical component of the normal vector of each surface by referring to the reflection table based on the luminance value of each minute surface of the luminance image.

【0014】反射テーブル生成部44は、面角度θに比
例する輝度値Bを格納した線形反射テーブルを生成し、
垂直成分算出部46は、輝度画像の各微小面の輝度Bs
に所定のスケール係数Kを乗じて線形反射テーブルの輝
度値Bに変換し、この輝度値Bによる線形反射テーブル
の参照で対応する面角度θを求め、長さ1の法線ベクト
ルの垂直成分Nzを Nz=sinθ により算出する。
The reflection table generation unit 44 generates a linear reflection table storing a luminance value B proportional to the surface angle θ,
The vertical component calculator 46 calculates the brightness Bs of each minute surface of the brightness image.
Is multiplied by a predetermined scale coefficient K to convert to a luminance value B of a linear reflection table, and a corresponding surface angle θ is obtained by referring to the linear reflection table based on the luminance value B, and a vertical component Nz of a normal vector of length 1 is obtained. Is calculated by Nz = sin θ.

【0015】また反射テーブル生成部44は、面角度θ
に比例する輝度値Bを格納した線形反射テーブルに加
え、更に、線形反射テーブルの面角度θに対する輝度値
Bの関係を対象物の材質、光源の種類等に基づき変形し
た非線形反射テーブルを生成する。この場合、垂直成分
算出部46は、平滑化された輝度画像の各微小面の輝度
Bsに所定のスケール係数Kを乗じて反射テーブルの輝
度値Bを求め、次にテーブル輝度値Bにより非線形反射
テーブルを参照して面角度θを求め、法線ベクトルの垂
直成分Nzを算出する。
The reflection table generator 44 calculates the surface angle θ.
In addition to the linear reflection table storing the luminance value B proportional to the linear reflection table, a non-linear reflection table in which the relationship of the luminance value B to the surface angle θ of the linear reflection table is modified based on the material of the object, the type of the light source, and the like is generated. . In this case, the vertical component calculation unit 46 obtains the brightness value B of the reflection table by multiplying the brightness Bs of each minute surface of the smoothed brightness image by a predetermined scale coefficient K, and then obtains the nonlinear reflection by the table brightness value B. The plane angle θ is obtained by referring to the table, and the vertical component Nz of the normal vector is calculated.

【0016】垂直成分算出部46で使用するスケール係
数Kとしては、同じ面角度θにおける反射テーブルの輝
度値Bと撮影画像の輝度値Bsとの比率 K=(B/Bs) を算出する。例えば、光源方向に直交する面角度90度
における反射テーブルの輝度最大値Bmax と撮影画像の
輝度値Bsmaxとの比率 K=(Bmax /Bsmax) を算出する。
As the scale factor K used in the vertical component calculator 46, a ratio K = (B / Bs) between the luminance value B of the reflection table and the luminance value Bs of the photographed image at the same surface angle θ is calculated. For example, a ratio K = (Bmax / Bsmax) between the maximum luminance value Bmax of the reflection table and the luminance value Bsmax of the captured image at a surface angle of 90 degrees perpendicular to the light source direction is calculated.

【0017】法線ベクトル正規化部48は、単位ベクト
ル長(大きさ1)の水平成分(Nx,Ny)と垂直成分
(Nz)の合成で得られる法線ベクトルを、単位ベクト
ル長(大きさ1.0)の法線ベクトルに正規化する。即
ち、法線ベクトル正規化部48は、垂直成分Nzに基づ
いて単位ベクトル長の法線ベクトルを合成するための正
規化水平成分HLを HL=√(1−Nz2 ) として算出する。
The normal vector normalizing section 48 converts a normal vector obtained by combining the horizontal component (Nx, Ny) and the vertical component (Nz) of the unit vector length (size 1) into the unit vector length (size 1.0). That is, the normal vector normalizing unit 48 calculates a normalized horizontal component HL for synthesizing a normal vector having a unit vector length based on the vertical component Nz as HL = √ (1−Nz 2 ).

【0018】次に正規化水平成分HLの単位ベクトル長
1.0に対する比率(HL/1.0)を、法線ベクトル
の水平成分(Nx,Ny)の各々に乗じて正規化水平成
分(Nnx,Nny)を Nxn=Nx・(HL/1.0) Nyn=Ny・(HL/1.0) として求め、法線ベクトルを正規化する。
Next, the ratio (HL / 1.0) of the normalized horizontal component HL to the unit vector length of 1.0 is multiplied by each of the horizontal components (Nx, Ny) of the normal vector to obtain a normalized horizontal component (Nnx). , Nny) as Nxn = Nx · (HL / 1.0) Nyn = Ny · (HL / 1.0) to normalize the normal vector.

【0019】図1(A)の三次元形状復元部50は、正
規化された法線ベクトルを積分することで対象範囲の三
次元形状を生成する積分処理部51、及び三次元形状を
復元結果として表示する復元表示部52を備える。積分
処理部51は、視線方向に直交する基準面を設定し、対
象物体の任意の微小面を初期位置として基準面上の投影
微小面までの視線方向の高さを初期値として設定し、初
期位置の微小面に隣接する他の微小面の高さ方向の変異
を、法線ベクトルに基づく面の傾きから求めて高さの初
期値に加算することで、基準面からの高さを順次算出し
て三次元形状データを生成する。
A three-dimensional shape restoring unit 50 shown in FIG. 1A integrates a normalized normal vector to generate a three-dimensional shape of a target range, and a result of restoring the three-dimensional shape. The display unit 52 includes a restoration display unit 52 for displaying as a message. The integration processing unit 51 sets a reference plane orthogonal to the line-of-sight direction, sets a height in the line-of-sight direction to a projected micro-plane on the reference plane with an arbitrary micro-plane of the target object as an initial position, and sets an initial value. Calculate the height from the reference plane sequentially by calculating the height variation of the other minute planes adjacent to the minute plane from the inclination of the plane based on the normal vector and adding it to the initial height value. To generate three-dimensional shape data.

【0020】更に、取り込んだカラー画像に対し三次元
形状を復元する画像範囲を選択する画像範囲選択部25
を設ける。画像範囲選択部25は、各画素データの選択
回数をラベル番号に使用して選択範囲をラベリングす
る。画像範囲選択部25は、例えば対象物に含まれる任
意のカラー画素を指定し、指定画素のカラー画素値に対
し所定の許容範囲のカラー画素値をもち且つ指定画素に
連続する画素を選択する。
Further, an image range selection unit 25 for selecting an image range for restoring a three-dimensional shape from the captured color image.
Is provided. The image range selection unit 25 labels the selection range using the number of selections of each pixel data as a label number. The image range selection unit 25 specifies, for example, an arbitrary color pixel included in the object, and selects a pixel that has a color pixel value within a predetermined allowable range with respect to the color pixel value of the specified pixel and is continuous with the specified pixel.

【0021】また本発明は、三次元形状復元方法を提供
するもので、三次元形状を有する対象物を撮影したカラ
ー画像データを取り込む画像取込過程;対象物を微小面
に分割し、輝度情報に基づいて各微小面の法線ベクトル
を抽出する法線ベクトル抽出過程;法線ベクトル群に基
づいて対象物の三次元形状データを算出して復元表示す
る三次元形状復元過程;を備えたことを特徴とする。
The present invention also provides a three-dimensional shape restoring method, in which an image capturing step of capturing color image data of an object having a three-dimensional shape is performed; A normal vector extraction step of extracting a normal vector of each minute surface based on the image; a three-dimensional shape restoring step of calculating and restoring and displaying three-dimensional shape data of the object based on the normal vector group It is characterized by.

【0022】三次元形状復元過程の法線ベクトル検出過
程は、カラー取込画像を輝度画像に変換する輝度画像変
換過程;輝度画像に基づき各微小面の法線ベクトルの水
平成分を抽出する水平成分抽出過程;輝度画像に基づき
各微小面の法線ベクトルの垂直成分を抽出する垂直成分
抽出過程;各微小面の法線ベクトルの水平成分と垂直成
分により正規化された法線ベクトルを算出する法線ベク
トル正規化過程;を備える。
The normal vector detection process in the three-dimensional shape restoration process includes a brightness image conversion process of converting a color captured image into a brightness image; a horizontal component for extracting a horizontal component of a normal vector of each minute surface based on the brightness image. Extraction process; Vertical component extraction process for extracting the vertical component of the normal vector of each minute surface based on the luminance image; Method of calculating the normal vector normalized by the horizontal and vertical components of the normal vector of each minute surface A line vector normalizing step.

【0023】また三次元形状復元過程は、正規化された
法線ベクトルを積分することで対象範囲の三次元形状を
生成する積分処理過程;三次元形状を復元結果として表
示する復元表示過程;を備える。これ以外の点は、三次
元形状復元装置と同じである。
The three-dimensional shape restoration process includes an integration process of generating a three-dimensional shape of a target range by integrating a normalized normal vector; and a restoration display process of displaying the three-dimensional shape as a restoration result. Prepare. Other points are the same as those of the three-dimensional shape restoration device.

【0024】更に、本発明は、三次元形状復元プログラ
ムを記憶したコンピュータ読取り可能な記録媒体を提供
するもので、三次元形状を有する対象物を撮影したカラ
ー画像データを取り込む画像取込部、対象物を微小面に
分割し、輝度情報に基づいて各微小面の法線ベクトルを
抽出する法線ベクトル抽出部、及び法線ベクトル群に基
づいて対象物の三次元形状データを算出して復元表示す
る三次元形状復元部を備えたことを特徴とする。
Further, the present invention provides a computer-readable recording medium storing a three-dimensional shape restoring program. The image capturing part captures color image data of an object having a three-dimensional shape. A normal vector extraction unit that divides an object into minute surfaces and extracts the normal vector of each minute surface based on luminance information, and calculates and restores the three-dimensional shape data of the object based on the normal vector group A three-dimensional shape restoring unit that performs

【0025】ここで法線ベクトル検出部は、カラー取込
画像を輝度画像に変換する輝度画像変換部、輝度画像を
平滑化する輝度画像平滑部、輝度画像に基づき各微小面
の法線ベクトルの水平成分を抽出する水平成分抽出部、
輝度画像に基づき各微小面の法線ベクトルの垂直成分を
抽出する垂直成分抽出部、微小領域の各面の法線ベクト
ルの水平成分と垂直成分により正規化された法線ベクト
ルを算出する法線ベクトル正規化部を備える。
Here, the normal vector detecting section includes a luminance image converting section for converting the color captured image into a luminance image, a luminance image smoothing section for smoothing the luminance image, and a normal vector detection section for each minute surface based on the luminance image. A horizontal component extraction unit that extracts a horizontal component,
A vertical component extracting unit that extracts a vertical component of a normal vector of each minute surface based on a luminance image, and a normal that calculates a normal vector normalized by a horizontal component and a vertical component of the normal vector of each surface of the minute region. A vector normalization unit is provided.

【0026】また三次元形状復元部は、正規化された法
線ベクトルを積分することで対象範囲の三次元形状を生
成する積分処理部、及び三次元形状を復元結果として表
示する復元表示部を備える。これ以外の点は、三次元形
状復元装置と同じである。
The three-dimensional shape restoration unit includes an integration processing unit that generates a three-dimensional shape of the target range by integrating the normalized normal vector, and a restoration display unit that displays the three-dimensional shape as a restoration result. Prepare. Other points are the same as those of the three-dimensional shape restoration device.

【0027】[0027]

【発明の実施の形態】<目次> 1.装置構成と機能 2.画像取込みと範囲選択 3.法線ベクトル水平成分の抽出 4.法線ベクトル垂直成分の抽出 5.法線ベクトルの正規化 6.三次元形状の復元 1.装置構成と機能 図2は本発明による三次元形状復元装置のハードウェア
構成のブロック図である。図2において、本発明の三次
元形状復元装置は、例えばPC/AT互換器等のコンピ
ュータ装置を用いた処理装置10を有し、処理装置10
に対し処理対象とするカラー画像を入力するための撮像
装置として、例えばデジタルカメラ装置12、ビデオカ
メラ装置14、イメージスキャナ装置16を設けてい
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS <Table of Contents> 1. Device configuration and function 2. Image capture and range selection 3. Extraction of horizontal component of normal vector 4. Extraction of normal vector vertical component Normalization of normal vector Reconstruction of three-dimensional shape FIG. 2 is a block diagram of the hardware configuration of the three-dimensional shape restoration device according to the present invention. In FIG. 2, the three-dimensional shape restoration apparatus of the present invention has a processing device 10 using a computer device such as a PC / AT compatible device.
For example, a digital camera device 12, a video camera device 14, and an image scanner device 16 are provided as image pickup devices for inputting a color image to be processed.

【0028】デジタルカメラ装置12、ビデオカメラ装
置14及びイメージスキャナ装置16の処理装置10と
のインタフェースは、例えばSCSIもしくはRS23
2C等が使用される。PC/AT互換器を使用した処理
装置10は、例えば32メガバイト以上の主メモリ18
を備えている。処理装置10はデジタルカメラ装置1
2、ビデオカメラ装置14またはイメージスキャナ装置
16からカラー画像データを取り込み、カラー画像デー
タに含まれる任意の対象物(又は対象範囲)について、
輝度画像に変換した後に対象物を構成する例えば画素単
位となる微小面ごとの面の法線ベクトルを求め、求めた
法線ベクトル群を作り出す形状を逆に求めることで、対
象物の三次元形状データを生成し、対象物を復元表示さ
せる。
The interface of the digital camera device 12, the video camera device 14, and the image scanner device 16 with the processing device 10 is, for example, SCSI or RS23.
2C or the like is used. The processing device 10 using the PC / AT compatible has a main memory 18 of, for example, 32 megabytes or more.
It has. The processing device 10 is a digital camera device 1
2. Capture color image data from the video camera device 14 or the image scanner device 16 and, for any target (or target range) included in the color image data,
After converting to a luminance image, the normal vector of each surface, for example, a minute surface that is a pixel unit, which constitutes the object, is obtained, and the shape that creates the obtained normal vector group is obtained in reverse, thereby obtaining the three-dimensional shape of the object. Generate data and restore the object.

【0029】処理装置10に続いては3Dアクセラレー
タ20が設けられ、処理装置10で微小面の法線ベクト
ル群から作り出された三次元形状データを入力して、コ
ンピュータグラフィックスの手法により、任意の視線方
向から見た対象物の画像をディスプレイ22上に復元表
示させる。図3は図2の処理装置10にインストールさ
れた三次元形状復元ソフトウェアによって実現される本
発明の三次元形状復元処理の機能ブロック図である。
The processing device 10 is followed by a 3D accelerator 20. The processing device 10 receives three-dimensional shape data generated from a group of normal vectors of a minute surface and inputs the three-dimensional shape data to an arbitrary device by a computer graphics technique. The image of the object viewed from the line of sight is restored and displayed on the display 22. FIG. 3 is a functional block diagram of the three-dimensional shape restoration processing of the present invention realized by the three-dimensional shape restoration software installed in the processing device 10 of FIG.

【0030】図3において、本発明の三次元形状復元装
置は、画像取込部24、画像範囲選択部25、法線ベク
トル抽出部26及び形状復元部50で構成されている。
画像取込部24はデジタルカメラ装置12、ビデオカメ
ラ装置14またはイメージスキャナ装置16から例えば
RGBカラー画像データを取り込む。画像範囲選択部2
5は、画像取込部24で取り込んだカラー画像の中の三
次元形状の復元を行う画像範囲の選択するためのラベリ
ングを行う。法線ベクトル抽出部26は、対象物を構成
している微小面ごとの面の法線ベクトルを求めるため、
カラー画像の輝度情報に着目し、微小面の法線ベクトル
を水平成分と垂直成分に分けて抽出する。
Referring to FIG. 3, the three-dimensional shape restoring device of the present invention comprises an image capturing unit 24, an image range selecting unit 25, a normal vector extracting unit 26, and a shape restoring unit 50.
The image capturing unit 24 captures, for example, RGB color image data from the digital camera device 12, the video camera device 14, or the image scanner device 16. Image range selection unit 2
Reference numeral 5 performs labeling for selecting an image range in which a three-dimensional shape in a color image captured by the image capturing unit 24 is to be restored. The normal vector extraction unit 26 obtains the normal vector of each of the minute surfaces constituting the object,
Focusing on the luminance information of the color image, a normal vector of a minute surface is extracted by dividing it into a horizontal component and a vertical component.

【0031】ここで、対象物の微小面の法線ベクトルを
分解した水平成分と垂直成分は図4のように定められて
いる。図4は、対象物66に光源方向69から光を照射
し、視線方向68から対象物を撮像している。この対象
物66上のある微小面70に着目すると、微小面70の
面方向に直交する外側に法線ベクトル72が設定され
る。
Here, the horizontal component and the vertical component obtained by decomposing the normal vector of the minute surface of the object are determined as shown in FIG. 4 irradiates the object 66 with light from a light source direction 69 and captures an image of the object from a line-of-sight direction 68. Focusing on a certain minute surface 70 on the object 66, a normal vector 72 is set outside the minute surface 70 orthogonal to the surface direction.

【0032】本発明にあっては、法線ベクトル72を水
平成分74と垂直成分76に分解して抽出する。水平成
分74は、対象物66に対する視線方向68に対し直交
する面78に平行なベクトル成分である。また垂直成分
76は、対象物66に対する視線方向68に平行なベク
トル成分である。ここで三次元座標(X,Y,Z)とし
て視線方向68に直交する面78を二次元座標(X,
Y)平面とし、視線方向68をZ軸方向としている。こ
のため、法線ベクトル72の大きさをNとすると、水平
成分74は(Nx,Ny)で表され、垂直成分76は
(Nz)で表される。
In the present invention, the normal vector 72 is decomposed into a horizontal component 74 and a vertical component 76 and extracted. The horizontal component 74 is a vector component parallel to a plane 78 orthogonal to the viewing direction 68 with respect to the object 66. The vertical component 76 is a vector component parallel to the viewing direction 68 with respect to the target 66. Here, a plane 78 orthogonal to the line-of-sight direction 68 is defined as a three-dimensional coordinate (X, Y, Z) by a two-dimensional coordinate (X, Y, Z).
Y) The plane is set, and the line-of-sight direction 68 is set as the Z-axis direction. Therefore, assuming that the magnitude of the normal vector 72 is N, the horizontal component 74 is represented by (Nx, Ny), and the vertical component 76 is represented by (Nz).

【0033】再び図3を参照するに、法線ベクトル抽出
部26にあっては、図4に示した法線ベクトル72の垂
直成分76は微小面70の輝度値の大きさに比例してい
ると考え、また水平成分74は対象物66上で輝度の等
値線を考え、微小面70を通る輝度等値線の接線方向に
より決定する。このように法線ベクトルを水平成分と垂
直成分に分解して抽出するため、法線ベクトル抽出部2
6には輝度画像変換部28が設けられ、これに続いて水
平成分抽出部30と垂直成分抽出部32が設けられてい
る。
Referring again to FIG. 3, in the normal vector extraction unit 26, the vertical component 76 of the normal vector 72 shown in FIG. The horizontal component 74 is determined by the tangential direction of the luminance isolines passing through the minute surface 70, considering the luminance isolines on the object 66. Since the normal vector is decomposed into a horizontal component and a vertical component and extracted as described above, the normal vector extracting unit 2
6 is provided with a luminance image conversion unit 28, followed by a horizontal component extraction unit 30 and a vertical component extraction unit 32.

【0034】水平成分抽出部30は、輝度画像平滑部3
4、輝度コンター変換部36、輝度等値線生成部38及
び水平成分算出部40で構成される。一方、垂直成分抽
出部32は、光源方向及び撮影方向を設定する撮影条件
入力部42、反射テーブル作成部44及び垂直成分算出
部46で構成される。更に法線ベクトル抽出部26には
法線ベクトル正規化部48が設けられる。法線ベクトル
正規化部48は、後の説明で明らかにするように、水平
成分抽出部30における法線ベクトルの水平成分が大き
さ1の単位ベクトル成分として求められており、これに
対し垂直成分が実際の輝度値に比例した正しいベクトル
の大きさとして求められていることから、垂直成分に基
づいて水平成分を、大きさ1の単位ベクトル長となる法
線ベクトルの水平成分となるように垂直成分に基づいて
正規化する。
The horizontal component extracting section 30 is provided with a luminance image smoothing section 3.
4, a luminance contour converter 36, a luminance iso-line generator 38, and a horizontal component calculator 40. On the other hand, the vertical component extraction unit 32 includes a shooting condition input unit 42 for setting a light source direction and a shooting direction, a reflection table creation unit 44, and a vertical component calculation unit 46. Further, the normal vector extraction unit 26 is provided with a normal vector normalization unit 48. As will be described later, the normal vector normalization unit 48 obtains the horizontal component of the normal vector in the horizontal component extraction unit 30 as a unit vector component having a size of 1, and the vertical component Is calculated as the correct vector magnitude proportional to the actual luminance value, so that the horizontal component based on the vertical component is changed so that it becomes the horizontal component of the normal vector having a unit vector length of magnitude 1. Normalize based on components.

【0035】法線ベクトル抽出部26に続いて設けられ
た形状復元部50には積分処理部51と復元表示部52
が設けられる。積分処理部51は、法線ベクトル抽出部
26で抽出された対象物の各微小面の法線ベクトル群を
作り出す三次元形状を逆に求める積分処理を行い、対象
物の三次元形状データを生成する。復元表示部52は積
分処理部51で求められた対象物の三次元形状データに
任意の視線方向を設定することで二次元表示データを作
成し、読取りカラー画像から得られたRGBデータを使
用したコンピュータグラフィックスにより、対象物を復
元してディスプレイに表示する。
The shape restoration unit 50 provided following the normal vector extraction unit 26 includes an integration processing unit 51 and a restoration display unit 52.
Is provided. The integration processing unit 51 performs integration processing to reversely obtain a three-dimensional shape that generates a normal vector group of each minute surface of the object extracted by the normal vector extraction unit 26, and generates three-dimensional shape data of the object. I do. The restoration display unit 52 creates two-dimensional display data by setting an arbitrary line-of-sight direction to the three-dimensional shape data of the object obtained by the integration processing unit 51, and uses the RGB data obtained from the read color image. The object is restored using computer graphics and displayed on the display.

【0036】図5,図6には、図3に示した本発明の三
次元形状復元装置の処理手順に従った処理画像を示して
いる。まず図5(A)は図3の画像取込部24で適宜の
撮像装置から取り込まれたカラー取込画像54であり、
右手を握った拳の撮影画像54を取り込んでいる。この
カラー取込画像54は、図3の法線ベクトル抽出部26
に設けている輝度画像変換部28により、図5(B)の
ような輝度変換画像56に変換される。
FIGS. 5 and 6 show processed images according to the processing procedure of the three-dimensional shape restoration apparatus of the present invention shown in FIG. First, FIG. 5A is a color captured image 54 captured from an appropriate imaging device by the image capturing unit 24 in FIG.
The captured image 54 of the fist holding the right hand is captured. This color capture image 54 is the same as the normal vector extraction unit 26 shown in FIG.
Is converted into a luminance conversion image 56 as shown in FIG. 5B.

【0037】この輝度変換画像56は、更に図3の輝度
コンター変換部36及び輝度等値線生成部38の処理に
より、図5(C)のような輝度等値線画像58が生成さ
れる。この輝度等値線画像58は、輝度変換画像56に
おける同一輝度の画素を結んだ線の集合である。続いて
図3の法線ベクトル抽出部26に設けている水平成分算
出部40によって抽出された水平成分の集合である図6
(D)のような法線ベクトル水平成分抽出画像60が図
5(C)の輝度等値線画像58に基づいて求められる。
The luminance conversion image 56 is further processed by the luminance contour converter 36 and the luminance contour generator 38 shown in FIG. 3 to generate a luminance contour image 58 as shown in FIG. 5C. The luminance contour image 58 is a set of lines connecting pixels of the same luminance in the luminance conversion image 56. FIG. 6 is a set of horizontal components extracted by the horizontal component calculation unit 40 provided in the normal vector extraction unit 26 of FIG.
A normal vector horizontal component extraction image 60 as shown in FIG. 5D is obtained based on the luminance iso-line image 58 in FIG.

【0038】一方、図3の垂直成分抽出部32におい
て、図5(B)の輝度変換画像56の輝度情報に基づ
き、図6(E)のような各微小面についての法線ベクト
ル垂直成分抽出画像62が求められる。尚、図6(D)
の法線ベクトル水平成分抽出画像60は、図3の法線ベ
クトル正規化部48において垂直成分に基づいて正規化
したベクトル水平成分となっている。
On the other hand, the vertical component extraction unit 32 shown in FIG. 3 extracts a normal vector vertical component for each minute surface as shown in FIG. 6E based on the luminance information of the luminance conversion image 56 shown in FIG. An image 62 is determined. FIG. 6 (D)
The extracted normal vector horizontal component image 60 is a vector horizontal component that has been normalized based on the vertical component by the normal vector normalization unit 48 in FIG.

【0039】このようにして図6(D)の法線ベクトル
水平成分抽出画像60及び図6(E)の法線ベクトル垂
直成分抽出画像62が得られると、この法線ベクトル群
について図3の形状復元部50に設けている積分処理部
51で、法線ベクトル群を作り出す三次元形状を逆に求
める積分処理を行って対象物の三次元形状データを生成
し、この三次元形状データに基づき復元表示部52で図
6(F)のような三次元形状復元画像64を生成して表
示する。この三次元形状復元画像64は、図5(A)の
正面から見たカラー取込画像54の対象物について、視
線方向を斜め方向に設定して復元表示している。
When the normal vector horizontal component extraction image 60 of FIG. 6 (D) and the normal vector vertical component extraction image 62 of FIG. 6 (E) are obtained in this manner, the normal vector group of FIG. An integration processing unit 51 provided in the shape restoration unit 50 performs integration processing for obtaining a three-dimensional shape for creating a normal vector group in reverse to generate three-dimensional shape data of the object, and based on the three-dimensional shape data. The restoration display unit 52 generates and displays a three-dimensional shape restoration image 64 as shown in FIG. In the three-dimensional shape restored image 64, the object of the color captured image 54 viewed from the front in FIG.

【0040】図7は図3に示した本発明の三次元形状復
元装置の処理手順のフローチャートである。まずステッ
プS1で、デジタルカメラ装置12、ビデオカメラ装置
14またはイメージスキャナ装置16で撮像したカラー
画像を画像取込部24によって取り込む。次にステップ
S2で、取り込んだカラー画像を対象に画像範囲選択部
25で任意の対象範囲を選択して1以上の値を使用した
ラベル番号によるラベリングを行う。
FIG. 7 is a flowchart of the processing procedure of the three-dimensional shape restoring apparatus of the present invention shown in FIG. First, in step S1, a color image captured by the digital camera device 12, the video camera device 14, or the image scanner device 16 is captured by the image capturing unit 24. Next, in step S2, an arbitrary target range is selected by the image range selection unit 25 for the captured color image, and labeling is performed using a label number using one or more values.

【0041】ここでカラー取込画像に対する対象範囲の
選択は、ユーザが必要に応じて自由に行うことができ、
また特に必要がなければ全範囲をラベリングして選択し
てもよい。また対象範囲を選択する際に、復元対象とし
ない部分についてはユーザが任意にラベル番号0を設定
することで、本発明による三次元形状の復元処理から除
外し、本発明による三次元形状の復元処理が終了した後
の後処理で補足的に三次元形状を補うようにしてもよ
い。
Here, the user can freely select the target range for the color captured image as needed.
If not particularly required, the entire range may be labeled and selected. Also, when selecting the target range, the user can arbitrarily set a label number 0 for a part that is not to be restored, so that the part is excluded from the three-dimensional shape restoration processing according to the present invention, and the three-dimensional shape restoration according to the present invention is performed. The three-dimensional shape may be supplemented by post-processing after the processing is completed.

【0042】次にステップS3で、取り込んだカラー画
像を輝度画像変換部28によって輝度画像に変換し、更
に、ステップS4で輝度画像を平滑化する。この輝度画
像の平滑化は、自然画像等では人間の目で見ると同一色
と認識されても、輝度値としての数値で見ると極端に値
が異なる部分があり、この輝度値の急激な変化が三次元
形状の復元時にはノイズとして悪影響を及ぼすことか
ら、極端な輝度値のずれを無くすために平滑化する。
Next, in step S3, the captured color image is converted into a luminance image by the luminance image conversion unit 28, and further, in step S4, the luminance image is smoothed. In the smoothing of this luminance image, even if it is recognized as the same color by human eyes in a natural image or the like, there is a part where the value is extremely different when viewed as a numerical value as a luminance value. However, when the three-dimensional shape is restored, it has an adverse effect as noise, so that smoothing is performed to eliminate an extreme shift in the luminance value.

【0043】次にステップS4で、輝度画像に基づき微
小面を構成する画素の法線ベクトルの水平成分を抽出す
る。この水平成分の抽出は、輝度コンター画像に変換し
た後に、輝度等値線を生成し、最終的に輝度等値線を接
線ベクトルに基づき水平成分も算出する。続いてステッ
プS6で、輝度画像の微小面に対応した各画素の法線ベ
クトルの垂直成分を抽出する。この法線ベクトルの垂直
成分の抽出は、光源方向及び撮影方向等の撮影条件を入
力し、対象物について輝度と微小面の面角度との対応関
係を定義する反射テーブルを作成し、取込画像の画素輝
度値による反射テーブルの参照で法線ベクトルの垂直成
分も算出する。
Next, in step S4, a horizontal component of a normal vector of a pixel forming a micro surface is extracted based on the luminance image. In the extraction of the horizontal component, a luminance contour line is generated after conversion into a luminance contour image, and finally the horizontal component is calculated based on the tangent vector. Subsequently, in step S6, the vertical component of the normal vector of each pixel corresponding to the minute surface of the luminance image is extracted. The extraction of the vertical component of the normal vector is performed by inputting shooting conditions such as a light source direction and a shooting direction, creating a reflection table for defining a correspondence relationship between luminance and a surface angle of a minute surface for an object, and acquiring a captured image. Also, the vertical component of the normal vector is calculated by referring to the reflection table based on the pixel luminance value.

【0044】次にステップS7で、対象物を構成する各
画素の法線ベクトルの水平成分と垂直成分により正規化
された大きさ1の法線ベクトルを算出する。具体的に
は、垂直成分に基づき、大きさ1の法線ベクトルに対応
した水平成分を求める。このようにして対象物の各微小
面に対応した画素の法線ベクトル群が抽出できたなら
ば、ステップS8で、正規化された法線ベクトル群を作
り出す微小面の形状を逆に求める積分処理により三次元
形状データを作成し、ステップS9で、任意の視線方向
の設定により作成された三次元形状データから二次元形
状データを生成し、且つステップS1で取り込んだカラ
ー画像の対応するカラー画素値を使用して対象物を復元
表示する。
Next, in step S7, a normal vector of magnitude 1 normalized by the horizontal and vertical components of the normal vector of each pixel constituting the object is calculated. Specifically, a horizontal component corresponding to a normal vector having a magnitude of 1 is obtained based on the vertical component. If the normal vector group of the pixel corresponding to each minute surface of the object can be extracted in this way, in step S8, an integration process for inversely finding the shape of the minute surface that produces the normalized normal vector group In step S9, two-dimensional shape data is generated from the three-dimensional shape data created by setting an arbitrary line-of-sight direction, and the corresponding color pixel value of the color image captured in step S1 To restore the object.

【0045】次に図3及び図7に示した本発明の三次元
形状復元処理の詳細を説明する。 2.画像取込みと範囲選択 図3のデジタルカメラ装置12にあっては、撮影した画
像を内蔵したメモリやミニディスク等の記憶装置に格納
している。またビデオカメラ装置14は撮影した画像を
テープに格納している。更に紙やフィルム等に記録され
た画像はイメージスキャナ装置16で読み取ることで、
電子化されたカラー画像データとすることができる。
Next, the details of the three-dimensional shape restoration processing of the present invention shown in FIGS. 3 and 7 will be described. 2. Image Capture and Range Selection In the digital camera device 12 shown in FIG. 3, a captured image is stored in a storage device such as a built-in memory or a mini disk. The video camera device 14 stores the captured image on a tape. Further, the image recorded on paper or film is read by the image scanner 16 so that
It can be digitized color image data.

【0046】このようなデジタルカメラ装置12、ビデ
オカメラ装置14またはイメージスキャナ装置16から
のカラー画像データは、画像取込部24が例えば図5
(A)のようなカラー取込画像として取り込み、取込結
果は例えば図8のようなRGBテーブル82に格納され
る。RGBテーブル82は一例として(4×4)ドット
の画素P11〜P44を例にとっており、例えば画素P
14のようにR成分84,G成分85,B成分86のR
GB画素値を格納している。
The color image data from the digital camera device 12, the video camera device 14, or the image scanner device 16 is supplied to the image capturing unit 24 as shown in FIG.
The image is captured as a color captured image as shown in FIG. 8A, and the captured result is stored in, for example, an RGB table 82 as shown in FIG. The RGB table 82 exemplifies (4 × 4) dot pixels P11 to P44 as an example.
14, the R component 84, the G component 85, and the B component 86
Stores GB pixel values.

【0047】R成分84,G成分85,B成分86は各
々8ビットデータであり、0〜255の値をとる。更に
有効フラグ88が設けられ、ビット1をセットすること
でRGB画素値を有効とし、ビット0をセットすること
でRBG画素値を無効とする。この有効フラグ88は、
テーブルに格納されている値が処理上意味があるか否か
を示し、有効フラグ88が有効となっている画素につい
てのみ処理を行うことで全体での処理速度の向上を図っ
ている。
Each of the R component 84, the G component 85, and the B component 86 is 8-bit data, and takes a value of 0 to 255. Further, a valid flag 88 is provided, and by setting bit 1, the RGB pixel value is valid, and by setting bit 0, the RGB pixel value is invalid. This valid flag 88
The value stored in the table indicates whether or not the processing is significant. The processing is performed only on the pixels for which the validity flag 88 is valid, thereby improving the overall processing speed.

【0048】図8のRGBテーブル82の場合、画像読
み込み時に有効フラグ88は全て有効となっており、後
に説明する対象範囲を選択した場合には、対象範囲内は
有効、対象範囲外は無効となる。この図8のRGBテー
ブル82のように取り込まれたカラー画像データは、図
3の画像範囲選択部25に与えられ、三次元形状の復元
対象とする対象範囲の選択が行われる。
In the case of the RGB table 82 shown in FIG. 8, the valid flags 88 are all valid at the time of image reading, and when a target range described later is selected, the validity within the target range is invalid and the validity outside the target range is invalid. Become. The color image data fetched as in the RGB table 82 in FIG. 8 is provided to the image range selection unit 25 in FIG. 3 to select a target range for a three-dimensional shape restoration target.

【0049】図9のフローチャートは、図3の画像範囲
選択部25による対象範囲選択処理のフローチャートで
あり、カラー画像上の任意の画素を指定することで自動
的に対象範囲を選択することができる。即ち、ステップ
S1でカラー画像上の任意の画素を指定すると、ステッ
プS2で、指定された画素の画素値、即ちRGB値を基
準に任意の許容幅αに含まれるRGB値を持つ画素の
内、指定された画素に連続する画素を選択し、ステップ
S3で図10に示すようなラベルテーブル90に登録す
る。
The flowchart of FIG. 9 is a flowchart of the target range selection processing by the image range selection unit 25 of FIG. 3. The target range can be automatically selected by specifying an arbitrary pixel on the color image. . That is, when an arbitrary pixel on the color image is specified in step S1, in step S2, a pixel value of the specified pixel, that is, a pixel having an RGB value included in an arbitrary allowable width α based on the RGB value, A pixel following the designated pixel is selected and registered in a label table 90 as shown in FIG. 10 in step S3.

【0050】図10のラベルテーブル90は、画素P1
1〜P44ごとにラベル値として使用する選択回数92
と有効フラグ88を設けている。有効フラグ88は画像
読み込み時は全て無効となっている。選択回数92は初
期状態にあっては「0」であり、図9の選択処理により
対象範囲の画素として選択されると、選択回数92の値
が「0」から「1」となる。また選択回数92は、複数
回選択された場合には選択回数の累積値が格納される。
The label table 90 shown in FIG.
Number of selections 92 used as label values for each of 1 to P44
And a valid flag 88 are provided. The valid flags 88 are all invalid when reading an image. The number of selections 92 is “0” in the initial state, and the value of the number of selections 92 changes from “0” to “1” when selected as a pixel in the target range by the selection processing of FIG. When the number of selections 92 is plural, the cumulative value of the number of selections is stored.

【0051】この結果、ラベルテーブル90に登録され
た選択回数92の値が「1」以上の領域について有効フ
ラグ88がビット1にセットされて有効となり、対象範
囲としての選択が行われる。例えば図5(A)のカラー
取込画像54を例にとると、図9のステップS1でカラ
ー取込画像54の中の手の部分の任意の「肌色」の画素
を指定すると、指定した肌色画素に対し所定の許容範囲
±αをもつ他の連続する画素の選択が自動的に行われ、
手の部分となる肌色領域を対象範囲として選択すること
ができる。
As a result, the validity flag 88 is set to bit 1 for the area in which the value of the number of selections 92 registered in the label table 90 is “1” or more, and the area becomes valid, and the target range is selected. For example, taking the color capture image 54 of FIG. 5A as an example, if an arbitrary “skin color” pixel of the hand portion in the color capture image 54 is specified in step S1 of FIG. The selection of other consecutive pixels having a predetermined tolerance ± α for the pixel is automatically performed,
It is possible to select a skin color region that is a hand portion as the target range.

【0052】ここで図9の選択処理にあっては、任意の
画素を指定することによる対象範囲の自動選択を例にと
っているが、これ以外の選択処理として多角形、直線等
により任意の閉ループ形状をディスプレイ上で設定し、
この閉ループ形状に囲まれる領域の内側に含まれる画素
を対象範囲として選択するようにしてもよい。 3.法線ベクトル水平成分の抽出 図3の法線ベクトル抽出部26にあっては、まず輝度画
像変換部28で取り込んだカラー画像を輝度画像に変換
している。図11は本発明における輝度画像変換処理の
フローチャートである。まずステップS1で、図10の
ように作成したラベルテーブル90の参照により対象範
囲を認識し、対象範囲の画素について、図8のRGBテ
ーブル82から画素値を抽出する。
Here, in the selection process of FIG. 9, the automatic selection of the target range by designating an arbitrary pixel is taken as an example. Set on the display,
Pixels included inside the region surrounded by the closed loop shape may be selected as the target range. 3. Extraction of Normal Vector Horizontal Component In the normal vector extraction unit 26 of FIG. 3, first, the color image captured by the luminance image conversion unit 28 is converted into a luminance image. FIG. 11 is a flowchart of a luminance image conversion process according to the present invention. First, in step S1, the target range is recognized by referring to the label table 90 created as shown in FIG. 10, and pixel values of the pixels in the target range are extracted from the RGB table 82 in FIG.

【0053】続いてステップS2で、0.0〜1.0の
値を持つ正規化輝度値Yと、0〜255の階調値を持つ
輝度値ynを次式により算出する。 Y =0.299 R+0.587 ・G+0.114 ・B (1) Yn=Y・255 (2) この輝度値への変換式は、RGBカラー空間からYIQ
原色系への変換式として知られたY信号への変換式と同
じである。ステップS2で正規化輝度値Yと輝度値Yn
の算出が済むと、ステップS3で図12のように輝度テ
ーブル94に登録し、ステップS4で全対象範囲の画素
について処理を繰り返す。
Subsequently, in step S2, a normalized luminance value Y having a value of 0.0 to 1.0 and a luminance value yn having a gradation value of 0 to 255 are calculated by the following equations. Y = 0.299 R + 0.587 G + 0.114 B (1) Yn = Y · 255 (2) The conversion formula to this luminance value is obtained from the RGB color space by YIQ.
This is the same as the conversion formula for the Y signal known as the conversion formula for the primary color system. In step S2, the normalized luminance value Y and the luminance value Yn
After the calculation is completed, it is registered in the luminance table 94 as shown in FIG. 12 in step S3, and the process is repeated for the pixels in the entire target range in step S4.

【0054】図12の輝度テーブル94は、画素P11
〜P44のそれぞれについて、例えば画素P14に示す
ように、正規化輝度値Yと輝度値Yn、更に有効フラグ
88を登録している。有効フラグ88は、対象範囲の選
択が行われたRGBテーブル82と同じ内容を格納して
いる。このカラー画像から輝度画像への変換は、対象物
の表面に対する光源の影響を取り出し易くして法線ベク
トルを正確に抽出するためであり、変換式としては
(1)式以外に他の変換式を利用してもよい。
The luminance table 94 shown in FIG.
For each of .about.P44, a normalized luminance value Y, a luminance value Yn, and a valid flag 88 are registered as shown in, for example, a pixel P14. The valid flag 88 stores the same contents as the RGB table 82 in which the target range is selected. The conversion from the color image to the luminance image is intended to easily extract the influence of the light source on the surface of the object and accurately extract the normal vector. May be used.

【0055】図13は図11の輝度画像変換処理に続い
て、図3の輝度画像平滑部34より行われる輝度画像平
滑化処理のフローチャートである。この輝度画像平滑化
処理は、自然画像等のカラー画像にあっては、カラー画
像から変換された輝度画像において、自然画像等につい
ては人間の目では同じ色と認識できても輝度値としての
数値を見ると極端に値が異なっている部分がある。
FIG. 13 is a flowchart of a luminance image smoothing process performed by the luminance image smoothing unit 34 of FIG. 3 following the luminance image conversion process of FIG. In the luminance image smoothing process, in the case of a color image such as a natural image, in a luminance image converted from a color image, a natural image or the like can be recognized as the same color by human eyes, but a numerical value as a luminance value. There are parts where the values are extremely different.

【0056】このような輝度値の極端な変化は、本発明
の処理による三次元形状復元の際にはノイズとして復元
画像に悪影響を及ぼす。そこで、着目する画素と周囲の
画素の値を比較し、その間における極端な値のずれを補
正する平滑化処理を行う。即ち図13の輝度画像平滑化
処理にあっては、まずステップS1で図12の輝度テー
ブル94の画素を1つ抽出し、ステップS2で平滑化演
算を行う。この平滑化演算は、例えば次のいずれかとす
る。
Such an extreme change in the luminance value adversely affects the restored image as noise when the three-dimensional shape is restored by the processing of the present invention. Therefore, the value of the target pixel is compared with the values of the surrounding pixels, and a smoothing process for correcting an extreme value shift between the pixels is performed. That is, in the luminance image smoothing processing of FIG. 13, first, one pixel of the luminance table 94 of FIG. 12 is extracted in step S1, and a smoothing operation is performed in step S2. This smoothing operation is, for example, any of the following.

【0057】 周囲画素の平均を着目画素の画素値とする。 周囲画素を大きさの順に並べ、中央画素の画素値を着
目画素の画素値とする。 続いてステップS3で、平滑化が済んだ画素値を再び図
12の輝度テーブル94に格納し、これをステップS4
で全対象画素について繰り返す。
The average of the surrounding pixels is set as the pixel value of the pixel of interest. The surrounding pixels are arranged in order of size, and the pixel value of the central pixel is set as the pixel value of the pixel of interest. Subsequently, in step S3, the smoothed pixel values are stored again in the luminance table 94 in FIG.
Is repeated for all target pixels.

【0058】図14は図13の輝度画像平滑化処理に続
いて、図3の輝度コンター変換部36で行われる輝度コ
ンター変換処理のフローチャートである。この輝度コン
ター変換処理は、平滑化した画像を任意の輝度値の刻み
幅で丸め込む演算処理を行うことで、等高線的な画素分
布を持った輝度画像に変換する。即ちステップS1で図
13による平滑化処理が済んだ図12の輝度テーブル9
4から画素を1つ抽出し、ステップS2で画素の輝度値
を所定の刻み幅で丸め込む。
FIG. 14 is a flowchart of the luminance contour conversion processing performed by the luminance contour conversion unit 36 of FIG. 3 subsequent to the luminance image smoothing processing of FIG. In the luminance contour conversion processing, the smoothed image is converted into a luminance image having a contour-like pixel distribution by performing an arithmetic processing for rounding the smoothed image at an arbitrary luminance step size. That is, the brightness table 9 in FIG. 12 after the smoothing process in FIG.
4, one pixel is extracted, and in step S2, the luminance value of the pixel is rounded at a predetermined interval.

【0059】この丸め込みは、例えば0〜255の階調
値を持つ輝度値の第1位の切り捨て、四捨五入または繰
り上げ等がある。この丸め込みにより得られたコンター
画素は、ステップS3で図15のコンターテーブル10
0に格納し、ステップS4で全対象画素についてこの同
じ処理を繰り返す。図15のコンターテーブル100
は、画素P11〜P14について、例えば画素P14の
ようにコンター輝度値102と有効フラグ88が格納さ
れている。有効フラグ88は図12の輝度テーブル94
と同じ内容を格納している。
The rounding includes, for example, first rounding off, rounding off or rounding up a luminance value having a gradation value of 0 to 255. The contour pixels obtained by this rounding are used in step S3 in the contour table 10 of FIG.
In step S4, the same process is repeated for all target pixels. The contour table 100 of FIG.
Stores the contour luminance value 102 and the valid flag 88 for the pixels P11 to P14, for example, as in the pixel P14. The valid flag 88 is a luminance table 94 shown in FIG.
Contains the same contents as.

【0060】図16は、図14の輝度コンター変換処理
に続いて図3の輝度等値線生成部38で行われる輝度等
値線変換処理のフローチャートである。ここで輝度等値
線とは、図14の処理で生成されたコンター画像につい
て、異なる輝度値の境界画素を結んだ一種の等高線とい
うことができる。図17は図16の輝度等値線変換処理
の処理内容を説明する。図17(A)は図14の輝度コ
ンター変換処理で生成されたコンター画像の一例であ
り、(5×9)の45画素を例にとっている。図16の
輝度等値線変換処理にあっては、例えば図17(A)の
輝度値「20」をもつ画素P0を追跡開始点とし、この
追跡開始点の画素P0につき、図17(B)に取り出し
て示すように、隣接する周囲の8画素を反時計回り(左
回り)に調べる。
FIG. 16 is a flowchart of the luminance contour conversion processing performed by the luminance contour generator 38 of FIG. 3 subsequent to the luminance contour conversion processing of FIG. Here, the luminance contour line can be referred to as a kind of contour line connecting boundary pixels having different luminance values in the contour image generated in the processing of FIG. FIG. 17 explains the processing contents of the luminance iso-line conversion processing of FIG. FIG. 17A is an example of a contour image generated by the luminance contour conversion processing of FIG. 14, and exemplifies 45 pixels of (5 × 9). In the luminance isoline conversion processing of FIG. 16, for example, the pixel P0 having the luminance value “20” in FIG. 17A is set as the tracking start point, and the pixel P0 at the tracking start point is shown in FIG. As shown in FIG. 7, the surrounding eight pixels are examined counterclockwise (counterclockwise).

【0061】このとき次の条件を満足すれば、その隣接
画素を次の追跡開始点として登録する。 条件:着目した画素値が追跡開始点と同じであるこ
と。 条件:次の着目画素の画素値が追跡開始点より大きい
こと。 このような条件を図17(B)の追跡開始点の画素
P0の周囲の画素P1から反時計回りに順番に調べる
と、6番目の画素P6が条件を満足する。このた
め、画素P6が次の追跡開始点として記録される。この
ような処理を図17(A)のコンター画素104につい
て行うと、図17(C)のように、輝度等値線106を
生成することができる。
At this time, if the following condition is satisfied, the adjacent pixel is registered as the next tracking start point. Condition: The focused pixel value is the same as the tracking start point. Condition: The pixel value of the next target pixel is larger than the tracking start point. When such a condition is checked in a counterclockwise order from the pixel P1 around the pixel P0 at the tracking start point in FIG. 17B, the sixth pixel P6 satisfies the condition. Therefore, the pixel P6 is recorded as the next tracking start point. When such processing is performed on the contour pixels 104 in FIG. 17A, the luminance contour 106 can be generated as shown in FIG.

【0062】この追跡開始点の検出処理は、検出済みの
着目点を検出した場合あるいは次の追跡開始点が検出で
きない場合には終了し、次の新たな追跡開始点の設定に
よる処理に移行する。この輝度等値線の変換処理を図1
6のフローチャートについて説明すると次のようにな
る。まずステップS1で、例えば図17(A)のように
コンターテーブル上のコンター画像104につき輝度値
の変化する境界を探索して追跡開始点として記憶する。
続いてステップS2を介してステップS3に進み、図1
7(B)のように追跡開始点の周囲の隣接8画素を左回
りに順番に着目する。
This tracking start point detection processing is terminated when the detected point of interest is detected or when the next tracking start point cannot be detected, and the processing shifts to the processing by setting the next new tracking start point. . FIG. 1 shows the conversion process of the luminance isolines.
The flowchart of No. 6 will be described as follows. First, in step S1, for example, as shown in FIG. 17A, a boundary where the luminance value changes is searched for the contour image 104 on the contour table and stored as a tracking start point.
Subsequently, the process proceeds to step S3 via step S2, and FIG.
As shown in FIG. 7 (B), attention is paid to eight adjacent pixels around the tracking start point in order counterclockwise.

【0063】隣接画素の1つに着目した場合には、まず
ステップS4で着目画素の輝度値が追跡開始点と同じか
否かチェックする。同じであればステップS5で次の着
目画素の輝度値が追跡開始点より大きいか否かチェック
する。追跡開始点より大きければ、ステップS6で検出
済みの着目画素か否かチェックし、検出済みの着目画素
でなければ、ステップS7で現在の着目画素を次の追跡
開始点として記憶する。
When attention is paid to one of the adjacent pixels, it is first checked in step S4 whether the luminance value of the pixel of interest is the same as the tracking start point. If they are the same, it is checked in step S5 whether the luminance value of the next target pixel is larger than the tracking start point. If it is larger than the tracking start point, it is checked in step S6 whether or not the pixel is the detected pixel of interest. If it is not, the current pixel of interest is stored as the next tracking start point in step S7.

【0064】ステップS4またはステップS5の条件を
満足しない場合には、ステップS3に戻って次の隣接画
素に着目して同じ処理を繰り返す。このような処理をス
テップS2で新たな追跡開始点がなくなるまで繰り返
す。図18は、図16の輝度等値線変換処理に続いて図
3の水平成分算出部40で行われる水平成分抽出処理の
フローチャートである。この水平成分抽出処理は、図1
6の輝度等値線変換処理で図17(C)のように求めた
輝度等値線106上の各画素について、各画素の輝度等
値線に対する接線ベクトルを求め、この接線ベクトルを
90度回転したベクトルを法線ベクトルの水平成分とす
る処理である。
If the condition of step S4 or step S5 is not satisfied, the process returns to step S3, and the same processing is repeated focusing on the next adjacent pixel. Such processing is repeated until there is no new tracking start point in step S2. FIG. 18 is a flowchart of a horizontal component extraction process performed by the horizontal component calculation unit 40 of FIG. 3 subsequent to the luminance isoline conversion process of FIG. This horizontal component extraction processing is performed as shown in FIG.
For each pixel on the brightness contour line 106 obtained as shown in FIG. 17C in the brightness contour conversion process 6, a tangent vector to the brightness contour line of each pixel is obtained, and the tangent vector is rotated by 90 degrees. This is a process of setting the obtained vector as the horizontal component of the normal vector.

【0065】図19は図18の水平成分抽出処理の原理
を説明する。図19(A)は微笑面で形成される球体の
対象物の一部を取り出しており、微小面70は法線ベク
トル72を備えている。この法線ベクトル72の水平成
分は、光源方向68に直交する投影平面78に法線ベク
トル72を平行投影した水平成分74である。一方、図
19(B)は対象物66の輝度情報に基づいて生成され
た微小面70を通る輝度等値線106の接線ベクトル1
10である。この接線ベクトル110を対象物の輝度の
暗くなる方向、即ち反時計回りに90度回転すると、9
0度回転したベクトルは、図19(A)の投影平面78
に投影した法線ベクトル72の投影成分となる水平成分
74に一致している。
FIG. 19 illustrates the principle of the horizontal component extraction processing of FIG. FIG. 19A shows a part of a spherical object formed by a smiling face, and the micro face 70 has a normal vector 72. The horizontal component of the normal vector 72 is a horizontal component 74 obtained by projecting the normal vector 72 in parallel onto a projection plane 78 orthogonal to the light source direction 68. On the other hand, FIG. 19 (B) shows a tangent vector 1 of the luminance contour 106 passing through the minute surface 70 generated based on the luminance information of the object 66.
It is 10. When this tangent vector 110 is rotated 90 degrees in a direction in which the luminance of the object becomes dark, that is, counterclockwise, 9
The vector rotated by 0 degrees corresponds to the projection plane 78 in FIG.
Is the same as the horizontal component 74 that is the projection component of the normal vector 72 projected on the horizontal axis.

【0066】そこで本発明にあっては、図19(B)の
ように輝度画像の等値線から求めた接線ベクトル110
を輝度が暗くなる方向に90度回転することによって、
法線ベクトル72の水平成分74を算出している。図8
のフローチャートについて水平成分抽出処理を説明する
と次のようになる。まずステップS1で、例えば図5
(C)のように得られた輝度等値線画像58における任
意の等高線上の画素に着目する。次にステップS2で、
同じ等高線上の前後の画素から着目画素の接線方向の単
位ベクトルを求める。この接線方向の単位ベクトルの求
め方としては、例えば図20のように、黒丸の着目画素
P7を例にとると、輝度等値線106上に位置する前後
の画素P1〜P6、P8〜P13とのそれぞれを結んだ
方向ベクトルの和の平均として着目画素P7の接線ベク
トルを決定する。
Therefore, in the present invention, as shown in FIG. 19 (B), the tangent vector 110
Is rotated 90 degrees in the direction in which the brightness decreases,
The horizontal component 74 of the normal vector 72 is calculated. FIG.
The following describes the horizontal component extraction processing with reference to the flowchart of FIG. First, in step S1, for example, FIG.
Attention is paid to a pixel on an arbitrary contour line in the luminance contour image 58 obtained as shown in FIG. Next, in step S2,
A unit vector in the tangential direction of the pixel of interest is obtained from pixels before and after the same contour line. As a method of obtaining the unit vector in the tangential direction, for example, as shown in FIG. 20, taking the pixel of interest P7 of a black circle as an example, the pixels P1 to P6 and P8 to P13 before and after located on the luminance equivalent line 106 are The tangent vector of the pixel of interest P7 is determined as the average of the sum of the directional vectors connecting the two.

【0067】ここで輝度等値線106は折れ線で表現し
た場合を例にとっているが、曲線に変換できる場合に
は、画素を通る曲線部分の曲率中心を求め、曲率中心に
対する90度方向の接線ベクトルを求めればよい。再び
図18を参照するに、ステップS2で輝度等値線に対す
る接線方向の大きさ1の単位ベクトルを求めたならば、
ステップS3で対象面が凸面か否かチェックする。ここ
で図19(A)(B)のように対象物の微小面70が存
在する面が凸面であった場合には、ステップS4に進
み、接線方向の単位ベクトルを輝度が暗くなる方向に9
0度回転させて法線ベクトルの水平成分とする。
Here, the case where the luminance isovalue line 106 is represented by a polygonal line is taken as an example, but if it can be converted into a curve, the center of curvature of the curved part passing through the pixel is obtained, and the tangent vector in the 90-degree direction with respect to the center of curvature is obtained. Should be obtained. Referring again to FIG. 18, if a unit vector having a magnitude of 1 in the tangential direction to the luminance contour is obtained in step S2,
In step S3, it is checked whether the target surface is a convex surface. Here, if the surface on which the minute surface 70 of the object exists is a convex surface as shown in FIGS. 19A and 19B, the process proceeds to step S4, and the unit vector in the tangential direction is set to 9 in the direction in which the luminance becomes darker.
Rotate by 0 degrees to obtain the horizontal component of the normal vector.

【0068】ここで法線ベクトルの水平成分は、図4の
視線方向68に直交する面78に平行な面であることか
ら二次元の水平成分(Nx,Ny)で表される。これに
対し対象物の面が窪んだ凹面の場合にはステップS5に
進み、接線方向の単位ベクトルを逆に明るくなる方向に
90度回転させて法線ベクトルの水平成分(Nx,N
y)とする。
Here, the horizontal component of the normal vector is represented by a two-dimensional horizontal component (Nx, Ny) since it is a plane parallel to a plane 78 orthogonal to the viewing direction 68 in FIG. On the other hand, if the surface of the object is a concave concave surface, the process proceeds to step S5, in which the unit vector in the tangential direction is rotated by 90 degrees in the direction of becoming brighter, and the horizontal component (Nx, N
y).

【0069】このようにして法線ベクトルの水平成分
(Nx,Ny)が得られたならば、ステップS6で図2
1のような法線ベクトルテーブル114に登録する。法
線ベクトルテーブル114は、例えは画素P14に示す
ように、X軸水平成分Nx、Y軸水平成分Ny、及び垂
直成分Nz、更に有効フラグ88を格納している。有効
フラグ88は図15のコンターテーブル100と同じ内
容を格納している。このようなステップS1〜S6の処
理を、ステップS7で全対象画素が終了するまで繰り返
す。 4.法線ベクトル垂直成分の抽出 図22は、図3の垂直成分抽出部32による法線ベクト
ルの垂直成分の抽出処理のフローチャートである。ここ
では、光源の方向と視線方向の開きが無視できる程度に
小さいものとして説明を行う。垂直成分抽出処理にあっ
ては、まずステップS1で図3の反射テーブル作成部4
4が撮影条件入力部42から得られた撮影条件に基づい
て反射テーブルを作成する。ここで図4のような視線方
向68で照明された対象物66に着目すると、対象物6
6の表面の内、視線方向68に向いている部分は明る
く、したがって輝度が高く、光源とは別の方向を向いて
いる部分は暗く、輝度が低くなっている。
When the horizontal component (Nx, Ny) of the normal vector is obtained in this way, in step S6, the horizontal components (Nx, Ny) of FIG.
1 is registered in the normal vector table 114 as shown in FIG. The normal vector table 114 stores an X-axis horizontal component Nx, a Y-axis horizontal component Ny, a vertical component Nz, and a valid flag 88, for example, as indicated by a pixel P14. The valid flag 88 stores the same content as the contour table 100 in FIG. Such processing of steps S1 to S6 is repeated until all target pixels are completed in step S7. 4. Extraction of Normal Vector Vertical Component FIG. 22 is a flowchart of the normal component vertical component extraction processing by the vertical component extraction unit 32 of FIG. Here, the description will be made assuming that the difference between the direction of the light source and the line of sight is negligibly small. In the vertical component extraction processing, first, in step S1, the reflection table creation unit 4 shown in FIG.
4 creates a reflection table based on the photographing conditions obtained from the photographing condition input unit 42. Focusing on the target object 66 illuminated in the line-of-sight direction 68 as shown in FIG.
A portion of the surface of the surface 6 facing the line of sight 68 is bright and therefore has a high brightness, and a portion facing the direction different from the light source is dark and has a low brightness.

【0070】したがって、対象物66について得られた
輝度画像上の各画素の輝度は、画素が存在する微小面の
光源への向き具合に対応していると考えることができ
る。この画素の輝度値から画素が存在する微小面の光源
への向き具合の変換を、図22のステップS1で作成す
る反射テーブルを使用して行う。図23は図22のステ
ップS1で作成する反射テーブルの特性である。この反
射テーブルは、横軸にテーブル輝度値Bをもち、縦軸に
光源方向に対する面の角度θをもっている。ここでテー
ブル輝度値Bを0.0〜1.0で正規化して表すと、面
の輝度が最も大きいθ=90度では理想的にはテーブル
輝度Bは1.0であり、光源方向に対する角度θ=0度
の場合にはテーブル輝度値Bは0.0となる。
Therefore, it can be considered that the luminance of each pixel on the luminance image obtained for the object 66 corresponds to the orientation of the minute surface on which the pixel exists to the light source. The conversion of the direction of the luminance value of the pixel to the light source of the minute surface on which the pixel exists is performed using the reflection table created in step S1 of FIG. FIG. 23 shows the characteristics of the reflection table created in step S1 of FIG. This reflection table has a table brightness value B on the horizontal axis and an angle θ of the surface with respect to the light source direction on the vertical axis. Here, if the table brightness value B is normalized by 0.0 to 1.0, the table brightness B is ideally 1.0 when the surface brightness is the largest θ = 90 degrees, and the angle with respect to the light source direction is ideal. When θ = 0 degrees, the table luminance value B is 0.0.

【0071】しかし、実際には面角度θ=90度でテー
ブル輝度値Bは1.0とはならず、例えば図24のよう
にθ=90度で例えば0.8〜0.7の値となる。また
面角度θ=0でテーブル輝度値Bが0.0となるのでは
なく、図24のように例えばθ=30度で輝度値B=
0.2〜0.0となる。その結果、面角度θに対し輝度
値Bとの間に比例関係があったとすると、この場合の特
性は直線で現わした線形テーブル特性124のようにな
る。
However, in practice, the table brightness value B does not become 1.0 when the surface angle θ is 90 °, but becomes, for example, 0.8 to 0.7 when θ = 90 ° as shown in FIG. Become. Further, the table brightness value B does not become 0.0 when the surface angle θ = 0, but as shown in FIG.
0.2 to 0.0. As a result, if there is a proportional relationship between the surface angle θ and the luminance value B, the characteristic in this case is a linear table characteristic 124 represented by a straight line.

【0072】この線形反射テーブル特性124を用いた
輝度値に比例した法線ベクトルの垂直成分Nzの算出
は、次のようにして行う。まず対象物上の光源方向に対
する角度θが判明している微小面、即ち画素の輝度値B
sを撮影条件入力部42によって取得する。この場合の
画素輝度値Bsとしては、光源方向に対する面角度θが
θ=90度となった場合の画素輝度最大値B smax が望
ましい。
The calculation of the vertical component Nz of the normal vector in proportion to the luminance value using the linear reflection table characteristic 124 is performed as follows. First, a minute surface of the object on which the angle θ with respect to the light source direction is known, that is, the luminance value B of the pixel
s is acquired by the photographing condition input unit 42. The pixel luminance value Bs in this case is desirably the pixel luminance maximum value B smax when the surface angle θ with respect to the light source direction becomes θ = 90 degrees.

【0073】このようにして対象物のθ=90度の画素
輝度最大値Bmax が得られたならば、図23のテーブル
輝度値Bの最大値Bmax のスケールに変換するためのス
ケール係数Kを次式により求める。 K=Bmax /Bsmax (3) このようにしてスケール係数Kが算出できたならば、対
象範囲の各画素の輝度値Bsにスケール係数Kを乗じて
テーブル輝度値Bを算出することができる。算出された
輝度値Bにより線形反射テーブル124を参照して対応
する面角度θ1を求め、長さを1とした法線ベクトルの
垂直成分Nzを Nz=sinθ (4) により求める。
When the maximum pixel luminance value Bmax of θ = 90 degrees of the object is obtained in this way, the scale coefficient K for converting into the scale of the maximum value Bmax of the table luminance value B in FIG. It is determined by the formula. K = Bmax / Bsmax (3) If the scale coefficient K can be calculated in this way, the table brightness value B can be calculated by multiplying the brightness value Bs of each pixel in the target range by the scale coefficient K. Based on the calculated luminance value B, the corresponding surface angle θ1 is determined by referring to the linear reflection table 124, and the vertical component Nz of the normal vector with the length set to 1 is determined by Nz = sinθ (4).

【0074】一方、対象物の光源方向に対する面角度θ
とテーブル輝度値Bとの間の関係は図23の線形反射テ
ーブル特性124のような直線関係とは必ずしも限ら
ず、面角度θに対する輝度値Bの変化は対象物の材質、
光源の種類等により複数の近似関数となる場合が多い。
そこで、このような対象物の材質、光源の種類等を考慮
することで、例えば図23の非線形反射テーブル特性1
26を作成することもできる。
On the other hand, the surface angle θ of the object with respect to the light source direction
23 is not necessarily limited to a linear relationship such as the linear reflection table characteristic 124 in FIG. 23, and the change in the brightness value B with respect to the surface angle θ depends on the material of the object,
In many cases, a plurality of approximate functions are obtained depending on the type of the light source.
Therefore, by taking into account the material of the object, the type of the light source, and the like, for example, the nonlinear reflection table characteristic 1 shown in FIG.
26 can also be created.

【0075】この非線形反射テーブル特性126を使用
した法線ベクトルの垂直成分Nzの算出は、次のように
して行う。まず対象範囲の画素輝度値Bsを抽出し、こ
れに線形反射テーブル特性124で算出しているスケー
ル係数Kを乗じてテーブル輝度値Bを求める。次にスケ
ール係数Kから算出したテーブル輝度値B=K×Bsに
より、非線形反射テーブル126を参照して対応する面
角度θを求め、(4)式から法線ベクトルの垂直成分N
zを算出する。
The calculation of the vertical component Nz of the normal vector using the nonlinear reflection table characteristic 126 is performed as follows. First, the pixel luminance value Bs in the target range is extracted, and the table luminance value B is obtained by multiplying the pixel luminance value Bs by the scale coefficient K calculated by the linear reflection table characteristic 124. Next, based on the table luminance value B = K × Bs calculated from the scale coefficient K, the corresponding surface angle θ is obtained by referring to the nonlinear reflection table 126, and the vertical component N of the normal vector is obtained from the equation (4).
Calculate z.

【0076】例えば図23に示すように、画素輝度値B
s1から垂直成分Nzを算出する場合には、画素輝度値
Bs1にスケール係数Kを乗じてテーブル輝度値B1を
求め、テーブル輝度値B1による非線形反射テーブル特
性126の参照で対応する面角度θ2を求め、(4)式
から法線ベクトルの垂直成分Nzを求める。図23の反
射テーブルを使用した法線ベクトルの垂直成分の抽出処
理を図22のフローチャートを参照して説明すると次の
ようになる。ステップS1で線形または非線形の反射テ
ーブルが作成されたならば、ステップS2では面角度9
0度の既知の対象物の輝度値Bsmaxと反射テーブルのフ
ルスケール輝度値Bmax からスケール係数Kを算出す
る。
For example, as shown in FIG.
When calculating the vertical component Nz from s1, the table brightness value B1 is obtained by multiplying the pixel brightness value Bs1 by the scale coefficient K, and the corresponding surface angle θ2 is obtained by referring to the non-linear reflection table characteristic 126 based on the table brightness value B1. , (4), the vertical component Nz of the normal vector is obtained. The process of extracting the vertical component of the normal vector using the reflection table of FIG. 23 will be described below with reference to the flowchart of FIG. If a linear or non-linear reflection table is created in step S1, in step S2 the surface angle 9
The scale coefficient K is calculated from the luminance value Bsmax of the known object at 0 degrees and the full-scale luminance value Bmax of the reflection table.

【0077】次にステップS3で対象画素の輝度値Bs
にスケール係数Kを乗じてテーブル参照画素の輝度値B
を算出する。続いてステップS4では、ステップS3で
求めた輝度値Bにより対応する面角度θを線形または非
線形反射テーブルの参照で求め、(4)式に代入して法
線ベクトルの垂直成分Nzを求める。ステップS5で
は、求めた面角度θに対応した法線ベクトルの垂直成分
Nzを法線ベクトルテーブルに登録する。このステップ
S3からS5までの処理をステップS6で全対象画素が
終了するまで繰り返す。
Next, in step S3, the luminance value Bs of the target pixel
Is multiplied by a scale factor K to calculate the luminance value B of the table reference pixel.
Is calculated. Subsequently, in step S4, the corresponding surface angle θ is obtained by referring to the linear or nonlinear reflection table based on the luminance value B obtained in step S3, and is substituted into equation (4) to obtain the vertical component Nz of the normal vector. In step S5, the vertical component Nz of the normal vector corresponding to the obtained surface angle θ is registered in the normal vector table. The processing from steps S3 to S5 is repeated until all the target pixels are completed in step S6.

【0078】また、光源の方向と視線方向との開きが大
きい場合には、面の法線ベクトルの水平成分ごとに線形
または非線形の反射テーブルを作成し、法線ベクトルの
水平成分値に対応した反射テーブルを参照することで面
角度θを求めて法線ベクトルの垂直成分Nzを算出す
る。 5.法線ベクトルの正規化 図25は、図22の法線ベクトルの垂直成分の抽出処理
に続いて図3の法線ベクトル正規化部48で行われる法
線ベクトル正規化処理のフローチャートである。この法
線ベクトルの正規化処理は、図18の処理で求めた法線
ベクトルの水平成分(Nx,Ny)が大きさ1の単位ベ
クトルであり、図22の処理で求めた法線ベクトルの垂
直成分(Nz)との合成により得られる法線ベクトルが
大きさ1の単位ベクトルとはならないことから、これを
大きさ1の単位法線ベクトルに正規化する処理を行う。
When the difference between the direction of the light source and the direction of the line of sight is large, a linear or non-linear reflection table is created for each horizontal component of the normal vector of the surface, and the horizontal component value of the normal vector is adjusted. The vertical angle component Nz of the normal vector is calculated by obtaining the surface angle θ by referring to the reflection table. 5. Normal Vector Normalization FIG. 25 is a flowchart of a normal vector normalization process performed by the normal vector normalization unit 48 of FIG. 3 subsequent to the extraction process of the vertical component of the normal vector of FIG. In the normalization process of the normal vector, the horizontal component (Nx, Ny) of the normal vector obtained in the process of FIG. 18 is a unit vector having a size of 1, and the vertical component of the normal vector obtained in the process of FIG. Since the normal vector obtained by combining with the component (Nz) does not become a unit vector having a size of 1, the process of normalizing this to a unit normal vector having a size of 1 is performed.

【0079】図26(A)は正規化前の法線ベクトル7
2であり、大きさ1をもつ水平成分(Nx,Ny)の水
平ベクトル74と、大きさNzの垂直ベクトル75との
合成ベクトルとなっている。このため、法線ベクトル7
2は大きさ1の単位ベクトルとはなっていない。そこで
図26(B)のように、法線ベクトル72が大きさ1の
単位ベクトルとなるように、垂直ベクトル75の垂直成
分Nzに基づいて水平ベクトル74の水平成分を正規化
水平成分(Nxn,Nyn)に変換する正規化処理を行
う。
FIG. 26A shows a normal vector 7 before normalization.
2, which is a composite vector of a horizontal vector 74 of a horizontal component (Nx, Ny) having a size of 1 and a vertical vector 75 of a size Nz. Therefore, the normal vector 7
2 is not a unit vector of size 1. Therefore, as shown in FIG. 26B, the horizontal component of the horizontal vector 74 is normalized based on the vertical component Nz of the vertical vector 75 so that the normal vector 72 becomes a unit vector of size 1 (Nxn, Nyn).

【0080】この図26(A)の法線ベクトル72の図
26(D)への大きさ1の法線ベクトル70への正規化
は、図25のフローチャートに従って行われる。まずス
テップS1で対象画素を図21の法線ベクトルテーブル
114から取り出し、ステップS2で垂直成分Nzに基
づき、図26(B)の大きさ1の法線ベクトル72とな
るための水平ベクトル74の大きさHLを次式で算出す
る。
The normalization of the normal vector 72 of FIG. 26A to the normal vector 70 of magnitude 1 in FIG. 26D is performed according to the flowchart of FIG. First, in step S1, the target pixel is extracted from the normal vector table 114 of FIG. 21, and in step S2, based on the vertical component Nz, the size of the horizontal vector 74 to become the normal vector 72 of size 1 in FIG. HL is calculated by the following equation.

【0081】 HL=√(1−Nz2 ) (4) 次にステップS3で大きさ1の法線ベクトル70が合成
できる大きさHLを持った水平ベクトル74を与える正
規化水平成分(Nxn,Nyn)を次式により算出す
る。 Nxn=Nx・(HL/1.0) (5) Nyn=Ny・(HL/1.0) (6) このようにして法線ベクトルを正規化するための水平成
分(Nxy,Nyn)の算出ができたならば、ステップ
S4で、これを図21の法線ベクトルテーブル114に
登録する。法線ベクトルテーブル114の有効フラグ8
8は、図21の法線テーブル114と同じ内容を格納し
ている。このようなステップS1〜S4の処理を、ステ
ップS5で全ての対象画素が終了するまで繰り返す。 6.三次元形状の復元 図27は、図25の法線ベクトル正規化処理に続いて図
3の形状復元部50に設けた積分処理部51で行われる
法線ベクトル積分処理のフローチャートである。この法
線ベクトル積分処理は、対象物の微小面となる各画素ご
とに求めた法線ベクトル群を作り出す面形状を逆に求め
る処理である。
HL = √ (1−Nz 2 ) (4) Next, in step S 3, a normalized horizontal component (Nxn, Nyn) that gives a horizontal vector 74 having a size HL that can be combined with a normal vector 70 of size 1 ) Is calculated by the following equation. Nxn = Nx · (HL / 1.0) (5) Nyn = Ny · (HL / 1.0) (6) Calculation of horizontal component (Nxy, Nyn) for normalizing the normal vector in this way Is obtained, this is registered in the normal vector table 114 of FIG. 21 in step S4. Valid flag 8 of normal vector table 114
8 stores the same contents as the normal line table 114 in FIG. Such processing of steps S1 to S4 is repeated until all the target pixels are completed in step S5. 6. 27 is a flowchart of the normal vector integration process performed by the integration processing unit 51 provided in the shape restoration unit 50 of FIG. 3 subsequent to the normal vector normalization process of FIG. This normal vector integration process is a process for obtaining a surface shape for creating a normal vector group obtained for each pixel that is a minute surface of the object in reverse.

【0082】図29は本発明による法線ベクトル積分処
理の一例である。図29にあっては、対象物66に対し
任意の位置に視線方向に直交する基準面134を設定す
る。まず対象物66を形成する任意の画素、例えば視線
方向68に一致する法線ベクトル72−1をもつ画素P
1を初期位置として、基準面134からの高さh0を初
期値として設定する。
FIG. 29 shows an example of the normal vector integration processing according to the present invention. In FIG. 29, a reference plane 134 orthogonal to the viewing direction is set at an arbitrary position with respect to the target object 66. First, an arbitrary pixel forming the object 66, for example, a pixel P having a normal vector 72-1 coincident with the line-of-sight direction 68
1 is set as an initial position, and the height h0 from the reference plane 134 is set as an initial value.

【0083】次に画素P1に隣接する画素P2に着目
し、その中心140を通る視線方向の高さの変位Δhを
法線ベクトルに基づいて算出する。この変位Δhは、画
素P1とP2の基準面134における間隔が一定値Lで
あり、また画素P2の中心点140の法線ベクトル72
−2の垂直成分Nz及びX軸成分Nxが判明しているこ
とから、次式の関係が得られる。
Next, paying attention to the pixel P2 adjacent to the pixel P1, the displacement Δh of the height in the viewing direction passing through the center 140 is calculated based on the normal vector. The displacement Δh is such that the distance between the pixels P1 and P2 on the reference plane 134 is a constant value L, and the normal vector 72 of the center point 140 of the pixel P2.
Since the vertical component Nz and the X-axis component Nx of −2 are known, the following relationship is obtained.

【0084】 Nx/Nz=Δh/(L/2) (7) この(7)式から変位Δhを求めると、 Δh=(Nx/Nz)(P/2) (8) が得られる。したがって、画素P2の基準面134から
の高さhは h=h0+Δh =h0+(Nx/Nz)(P/2) (9) となる。このようにして画素P2について高さhが求め
られたならば、この求めた高さを新たな初期値h0とし
て、隣接する次の画素P3について基準面134からの
高さhを求める。
Nx / Nz = Δh / (L / 2) (7) When the displacement Δh is obtained from the equation (7), the following is obtained: Δh = (Nx / Nz) (P / 2) (8) Therefore, the height h of the pixel P2 from the reference plane 134 is as follows: h = h0 + Δh = h0 + (Nx / Nz) (P / 2) (9) When the height h has been obtained for the pixel P2 in this manner, the height h from the reference plane 134 is obtained for the next adjacent pixel P3 using the obtained height as a new initial value h0.

【0085】このような法線ベクトル積分処理による基
準面からの高さの算出処理を図27のフローチャートに
ついて説明すると、まずステップS1で、視線方向に法
線ベクトルが一致する対象物上の画素を開始位置とし
て、図29のように視線方向に直交する面として設定し
た基準面134からの高さを初期値h0に設定する。次
にステップS2で、隣接画素の法線ベクトルから光軸方
向のNΔhを算出して、その高さhを求める。そしてス
テップS3で図28のような高さテーブル128に格納
する。次にステップS4で現在求めた算出高さhを次の
初期値h0とし、ステップS5で全対象画素が終了する
まで、ステップS1〜S3の処理を繰り返す。
The process of calculating the height from the reference plane by the normal vector integration process will be described with reference to the flowchart of FIG. 27. First, in step S1, pixels on the object whose normal vector coincides with the line of sight are determined. As the start position, the height from the reference plane 134 set as a plane orthogonal to the line-of-sight direction as shown in FIG. 29 is set to the initial value h0. Next, in step S2, NΔh in the optical axis direction is calculated from the normal vector of the adjacent pixel, and the height h is obtained. Then, in step S3, it is stored in the height table 128 as shown in FIG. Next, in step S4, the currently calculated height h is set as the next initial value h0, and the processing in steps S1 to S3 is repeated until all target pixels are completed in step S5.

【0086】このような法線ベクトルの積分処理によっ
て、図29の基準面134に対する対象物66の各画素
の高さh0、即ち相対的な座標値Zが求められ、各画素
の基準面134に対する二次元座標値(X,Y)と合わ
せて対象物の三次元形状データを得ることができる。こ
のようにして対象物の三次元形状データが得られたなら
ば、図3の形状復元部50に設けた復元表示部52が通
常のコンピュータグラフィックスの処理機能によって、
例えば図6(F)のように任意の視線方向を設定するこ
とにより三次元形状から二次元投影形状を生成し、且つ
図5(A)のカラー取込画像から得られた各画素のRG
B値を使用して復元画像を表示することができる。
The height h0 of each pixel of the object 66 with respect to the reference plane 134 of FIG. 29, that is, the relative coordinate value Z is obtained by the integration processing of the normal vector, and the relative coordinate value Z of each pixel with respect to the reference plane 134 is obtained. The three-dimensional shape data of the target object can be obtained together with the two-dimensional coordinate values (X, Y). When the three-dimensional shape data of the object is obtained in this way, the restoration display unit 52 provided in the shape restoration unit 50 of FIG.
For example, a two-dimensional projection shape is generated from a three-dimensional shape by setting an arbitrary line-of-sight direction as shown in FIG. 6F, and the RG of each pixel obtained from the color capture image of FIG.
The restored image can be displayed using the B value.

【0087】ここで法線ベクトルから三次元形状データ
を得るための積分処理は、法線ベクトルが対象物を構成
する微小面の傾斜角の微分値であることから、図27の
ような水平基準面に対する高さを順次求める積分処理以
外に、法線ベクトル群を一括して積分処理することによ
り基準面からの高さhを求めることが可能である。また
本発明の三次元形状復元処理にあっては、図5,図6の
ような例えば肌色の指定により抽出可能な手といった単
色の対象物については問題ないが、例えば人の顔の形状
復元処理を行おうとした場合、色の異なる目、口等の肌
色以外の部分については、図5(B)のように輝度変換
画像56を生成した場合の輝度値が大きく異なり、図5
(C)のような輝度等値線画像58が得られず、法線ベ
クトルの生成が適切にできない。
Here, the integration processing for obtaining the three-dimensional shape data from the normal vector is performed by using the horizontal reference as shown in FIG. 27 because the normal vector is the differential value of the inclination angle of the minute surface constituting the object. In addition to the integration processing for sequentially obtaining the heights with respect to the plane, the height h from the reference plane can be obtained by integrating the normal vector groups collectively. In the three-dimensional shape restoration processing of the present invention, there is no problem with a single-color object such as a hand that can be extracted by designating a skin color as shown in FIGS. When the luminance conversion image 56 is generated as shown in FIG. 5B, the luminance values of the non-skin color parts such as eyes and mouths having different colors greatly differ from each other.
The luminance contour image 58 as shown in FIG. 4C cannot be obtained, and the normal vector cannot be generated properly.

【0088】このような場合については、肌色部分を除
いた三次元形状復元処理を行い、終了後に未処理部分と
なっている目や口の部分を、処理済みの周囲の高さhか
ら補間して目や口の三次元形状を決定すればよい。更に
本発明は三次元形状復元処理を実行するプログラムを記
録したコンピュータ読取可能な記録媒体として実施され
るものであり、この記録媒体にはCD−ROMやフロッ
ピディスク等のリムーバブルな可搬型記憶媒体、回線に
よりプログラムを提供するプログラム提供者の記憶装
置、更にはプログラムをインストールした処理装置のR
AMやハードディスク等のメモリ装置がある。また記録
媒体によって提供された三次元形状復元プログラムは処
理装置にローディングされ、その主メモリ上で実行され
る。
In such a case, a three-dimensional shape restoring process excluding the flesh-colored portion is performed, and the eyes and mouth portions which are unprocessed portions after completion are interpolated from the processed peripheral height h. The three-dimensional shape of the eyes and mouth may be determined. Furthermore, the present invention is embodied as a computer-readable recording medium recording a program for executing a three-dimensional shape restoration process. The recording medium includes a removable portable storage medium such as a CD-ROM or a floppy disk, A storage device of a program provider that provides a program through a line, and a storage device of a processing device in which the program is installed.
There are memory devices such as an AM and a hard disk. The three-dimensional shape restoration program provided by the recording medium is loaded into the processing device and executed on the main memory.

【0089】尚、本発明は上記の実施形態に限定され
ず、その目的と利点を損なわない範囲で適宜の変形が可
能である。また本発明は実施形態に示した数値による限
定は受けない。
The present invention is not limited to the above-described embodiment, and can be appropriately modified without impairing the object and advantages. The present invention is not limited by the numerical values shown in the embodiments.

【0090】[0090]

【発明の効果】以上説明してきたように本発明によれ
ば、三次元の対象物を撮影した画像データの輝度情報に
着目し、輝度情報から対象物を構成する微小面の法線ベ
クトルを水平成分と垂直成分に分けて抽出し、特に垂直
成分は輝度値の大きさに比例し、また水平成分は輝度の
等値線の接線ベクトルを90度回転することにより決定
し、これによって従来の特性曲線展開法における特性曲
線が得られる範囲でしか三次元形状を再構成できないと
いう問題を解消し、画像全体で確実に三次元形状を再構
築できる。
As described above, according to the present invention, attention is paid to the luminance information of the image data obtained by photographing the three-dimensional object, and the normal vector of the minute surface constituting the object is horizontally determined from the luminance information. The component is extracted separately from the vertical component. In particular, the vertical component is proportional to the magnitude of the luminance value, and the horizontal component is determined by rotating the tangent vector of the luminance isoline by 90 degrees. This solves the problem that the three-dimensional shape can be reconstructed only within a range where the characteristic curve in the curve expansion method can be obtained, and the three-dimensional shape can be reliably reconstructed from the entire image.

【0091】また従来の弛緩法における対象物の輪郭線
が得られなければ適用できず、また輪郭線が得られても
画素ごとに計算を繰り返すために時間を要する問題が解
消できる。更に本発明は、画像全体についてパーソナル
コンピュータレベルの処理能力で十分な実用的な処理時
間をもって効率よく撮影された画像データから画像全領
域について均一な精度で三次元形状を再構成することが
できる。
In addition, the problem that the conventional relaxation method cannot be applied unless the contour of the object is obtained, and that it takes time to repeat the calculation for each pixel even if the contour is obtained can be solved. Further, according to the present invention, it is possible to reconstruct a three-dimensional shape with uniform accuracy over the entire image area from image data that is efficiently captured with sufficient practical processing time at a processing capability of a personal computer level for the entire image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理説明図FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】本発明の装置構成のブロック図FIG. 2 is a block diagram of an apparatus configuration of the present invention.

【図3】本発明の機能ブロック図FIG. 3 is a functional block diagram of the present invention.

【図4】本発明における法線ベクトルの水平成分と垂直
成分の説明図
FIG. 4 is an explanatory diagram of a horizontal component and a vertical component of a normal vector according to the present invention.

【図5】本発明における取込み画像、輝度変換画像及び
輝度コンター画像の説明図
FIG. 5 is an explanatory diagram of a captured image, a luminance conversion image, and a luminance contour image according to the present invention.

【図6】本発明における法線ベクトルの水平成分、垂直
成分及び復元画像の説明図
FIG. 6 is an explanatory diagram of a horizontal component and a vertical component of a normal vector and a restored image according to the present invention.

【図7】本発明の三次元形状復元処理のフローチャートFIG. 7 is a flowchart of a three-dimensional shape restoration process according to the present invention.

【図8】取込み画像のRGBテーブルの説明図FIG. 8 is an explanatory diagram of an RGB table of a captured image.

【図9】本発明の対象範囲選択処理のフローチャートFIG. 9 is a flowchart of a target range selection process according to the present invention.

【図10】図9の選択処理で生成されたラベルテーブル
の説明図
FIG. 10 is an explanatory diagram of a label table generated by the selection processing of FIG. 9;

【図11】本発明の輝度画像変換処理のフローチャートFIG. 11 is a flowchart of a luminance image conversion process of the present invention.

【図12】図11の処理で生成された輝度テーブルの説
明図
FIG. 12 is an explanatory diagram of a luminance table generated by the processing of FIG. 11;

【図13】本発明の輝度画像平滑化処理のフローチャー
FIG. 13 is a flowchart of a luminance image smoothing process according to the present invention.

【図14】本発明の輝度コンター変換処理のフローチャ
ート
FIG. 14 is a flowchart of luminance contour conversion processing of the present invention.

【図15】図14の処理で生成されたコンターテーブル
の説明図
FIG. 15 is an explanatory diagram of a contour table generated in the process of FIG.

【図16】本発明の輝度等値線変換処理のフローチャー
FIG. 16 is a flowchart of a luminance iso-line conversion process according to the present invention.

【図17】図15の輝度等値線変換処理の説明図FIG. 17 is an explanatory diagram of the luminance iso-line conversion processing of FIG. 15;

【図18】本発明の水平成分抽出処理のフローチャートFIG. 18 is a flowchart of horizontal component extraction processing according to the present invention.

【図19】水平成分の抽出原理の説明図FIG. 19 is an explanatory diagram of a principle of extracting a horizontal component.

【図20】輝度等値線上の画素における接線ベクトルの
算出方法の説明図
FIG. 20 is an explanatory diagram of a method of calculating a tangent vector at a pixel on a luminance isovalue line.

【図21】法線の水平成分と垂直成分を格納する法線テ
ーブルの説明図
FIG. 21 is an explanatory diagram of a normal line table for storing horizontal and vertical components of the normal line.

【図22】本発明の垂直成分抽出処理のフローチャートFIG. 22 is a flowchart of a vertical component extraction process according to the present invention.

【図23】垂直成分抽出に使用する反射テーブルの説明
FIG. 23 is an explanatory diagram of a reflection table used for vertical component extraction.

【図24】図23の線形反射テーブルを生成する輝度値
と面角度の説明図
FIG. 24 is an explanatory diagram of luminance values and surface angles for generating the linear reflection table of FIG. 23;

【図25】本発明の法線ベクトル正規化処理のフローチ
ャート
FIG. 25 is a flowchart of normal vector normalization processing of the present invention.

【図26】法線ベクトルを正規化する説明図FIG. 26 is an explanatory diagram for normalizing a normal vector.

【図27】本発明の法線ベクトル積分処理のフローチャ
ート
FIG. 27 is a flowchart of normal vector integration processing of the present invention.

【図28】図27の積分処理で得られた高さテーブルの
説明図
FIG. 28 is an explanatory diagram of a height table obtained by the integration processing of FIG. 27;

【図29】図27の積分処理の説明図FIG. 29 is an explanatory diagram of the integration processing of FIG. 27;

【符号の説明】[Explanation of symbols]

10:処理装置 12:デジタルカメラ装置 14:ビデオカメラ装置 16:イメージスキャナ装置 18:主メモリ 20:3Dアクセラレータ 22:ディスプレイ 24:画像取込部 25:対象範囲選択部 26:法線ベクトル抽出部 28:輝度画像変換部 30:水平成分抽出部 32:垂直成分抽出部 34:輝度画像平滑部 36:輝度コンター変換部 38:輝度等値線生成部 40:水平成分算出部 42:撮影条件入力部 44:反射テーブル作成部 46:垂直成分算出部 50:形状復元部 51:積分処理部 52:復元表示部 54:カラー取込画像 56:輝度変換画像 58:輝度等値線画像 60:法線ベクトル水平成分抽出画像 62:法線ベクトル垂直成分抽出画像 64:三次元形状復元画像 66:対象物 68:視線方向 70:微小面 72:法線ベクトル 74:水平成分 76:垂直成分 78:水平成分投影面 80:投影像 82:RGBテーブル 84:R成分 85:G成分 86:B成分 88:有効フラグ 90:ラベルテーブル 92:選択累積番号 94:輝度テーブル 96:正規化輝度値 98:輝度値 100:コンターテーブル 102:コンター輝度値 104:コンター画像 106,106−1:輝度等値線 110:接線ベクトル 114:法線テーブル 116:X軸水平成分Nx 118:Y軸水平成分Ny 120:垂直成分Nz 124:線形反射テーブル特性 126:非線形反射テーブル特性 128:高さテーブル 130:高さh 134:基準面 136:対象物 10: Processing Device 12: Digital Camera Device 14: Video Camera Device 16: Image Scanner Device 18: Main Memory 20: 3D Accelerator 22: Display 24: Image Capture Unit 25: Target Range Selection Unit 26: Normal Vector Extraction Unit 28 : Luminance image conversion unit 30: horizontal component extraction unit 32: vertical component extraction unit 34: luminance image smoothing unit 36: luminance contour conversion unit 38: luminance contour line generation unit 40: horizontal component calculation unit 42: shooting condition input unit 44 : Reflection table creation unit 46: vertical component calculation unit 50: shape restoration unit 51: integration processing unit 52: restoration display unit 54: color capture image 56: brightness conversion image 58: brightness equivalent line image 60: normal vector horizontal Component extraction image 62: Normal vector vertical component extraction image 64: Three-dimensional shape restoration image 66: Object 68: Viewing direction 70: Fine Surface 72: Normal vector 74: Horizontal component 76: Vertical component 78: Horizontal component projection surface 80: Projected image 82: RGB table 84: R component 85: G component 86: B component 88: Valid flag 90: Label table 92: Selected cumulative number 94: Luminance table 96: Normalized luminance value 98: Luminance value 100: Contour table 102: Contour luminance value 104: Contour image 106, 106-1: Luminance equality line 110: Tangent vector 114: Normal line table 116 : X-axis horizontal component Nx 118: Y-axis horizontal component Ny 120: Vertical component Nz 124: Linear reflection table characteristic 126: Nonlinear reflection table characteristic 128: Height table 130: Height h 134: Reference plane 136: Object

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】三次元形状を有する対象物を撮影したカラ
ー画像データを取り込む画像取込部と、 前記対象物を微小面に分割し、輝度情報に基づいて各微
小面の法線ベクトルを抽出する法線ベクトル抽出部と、 前記法線ベクトル群に基づいて前記対象物の三次元形状
データを算出して復元表示する形状復元部と、を備えた
ことを特徴とする三次元形状復元装置。
An image capturing unit that captures color image data of an object having a three-dimensional shape; divides the object into minute surfaces; and extracts a normal vector of each minute surface based on luminance information. A three-dimensional shape restoring device, comprising: a normal vector extracting unit that performs a normal vector extraction; and a shape restoring unit that calculates and restores and displays three-dimensional shape data of the object based on the normal vector group.
【請求項2】請求項1記載の三次元形状復元装置に於い
て、前記法線ベクトル抽出部は、 カラー取込画像を輝度画像に変換する輝度画像変換部
と、 前記輝度画像に基づき前記各微小面の法線ベクトルの水
平成分を抽出する水平成分抽出部と、 前記輝度画像に基づき前記各微小面の法線ベクトルの垂
直成分を抽出する垂直成分抽出部と、 前記微小領域の各面の法線ベクトルの水平成分と垂直成
分により正規化された法線ベクトルを算出する法線ベク
トル正規化部と、を備えたことを特徴とする三次元形状
復元装置。
2. The three-dimensional shape restoring device according to claim 1, wherein the normal vector extracting unit is configured to convert a color captured image into a luminance image, A horizontal component extraction unit that extracts a horizontal component of a normal vector of a minute surface; a vertical component extraction unit that extracts a vertical component of a normal vector of each minute surface based on the luminance image; A three-dimensional shape restoring device, comprising: a normal vector normalization unit that calculates a normal vector normalized by a horizontal component and a vertical component of the normal vector.
【請求項3】請求項2記載の三次元形状復元装置に於い
て、 前記水平成分抽出部で抽出する前記法線ベクトルの水平
成分は、前記対象物体を撮影した視線方向に直交する面
に投影した単位長のベクトル成分であり、 前記垂直成分抽出部で抽出する法線ベクトルの垂直成分
は、前記対象物体の視線方向のベクトル成分であること
を特徴とする三次元形状復元装置。
3. The three-dimensional shape restoration apparatus according to claim 2, wherein the horizontal component of the normal vector extracted by the horizontal component extraction unit is projected on a plane orthogonal to a line-of-sight direction in which the target object is photographed. The vertical component of the normal vector extracted by the vertical component extraction unit is a vector component in the line-of-sight direction of the target object.
【請求項4】請求項3記載の三次元画像復元装置に於い
て、前記水平成分抽出部は、 前記輝度画像を平滑化する輝度画像平滑部と、 前記平滑化した輝度画像の画素輝度値を任意の刻み幅で
丸め込んで輝度コンター画像に変換する輝度コンター変
換部と、 前記輝度コンター画像に基づき任意の刻み幅で輝度等値
線を生成する輝度等値線生成部と、 前記輝度等値線上での前記各微小面について法線ベクト
ルの水平成分を算出する水平成分算出部と、を備えたこ
とを特徴とする三次元形状復元装置。
4. The three-dimensional image restoration device according to claim 3, wherein the horizontal component extraction unit includes a luminance image smoothing unit that smoothes the luminance image, and a pixel luminance value of the smoothed luminance image. A luminance contour conversion unit that converts the luminance contour image into a luminance contour image by rounding at an arbitrary step width; a luminance contour line generating unit that generates a luminance contour line at an arbitrary step width based on the luminance contour image; A horizontal component calculator for calculating a horizontal component of a normal vector for each of the minute surfaces.
【請求項5】請求項4記載の三次元画像復元装置に於い
て、前記輝度等値線生成部は、前記コンター画像上で輝
度値が変化する画素を探索して追跡開始点とし、該追跡
開始点を中心に所定回りに周囲の隣接8画素に着目して
順次調べ、着目した画素の輝度値が追跡開始点と同じ
で、次に着目する画素の輝度値が追跡開始点より大きい
場合、現在の着目画素を次の追跡開始点とし、前記複数
の追跡開始点を結んで輝度等値線を生成することを特徴
とする三次元形状復元装置。
5. The three-dimensional image restoration apparatus according to claim 4, wherein the luminance contour generating unit searches for a pixel whose luminance value changes on the contour image and sets the pixel as a tracking start point. If the luminance value of the focused pixel is the same as the tracking start point and the luminance value of the next focused pixel is larger than the tracking start point, the search is performed sequentially by focusing on neighboring eight pixels around the start point in a predetermined direction. A three-dimensional shape restoring apparatus characterized in that a current pixel of interest is set as a next tracking start point, and the plurality of tracking start points are connected to generate a luminance contour line.
【請求項6】請求項4記載の三次元画像復元装置に於い
て、前記水平成分算出部は、前記微小面を通る前記輝度
等値線の接線ベクトルを生成し、該接線ベクトルを90
度回転して前記法線ベクトルの水平成分を求めることを
特徴とする三次元形状復元装置。
6. A three-dimensional image restoration apparatus according to claim 4, wherein said horizontal component calculation unit generates a tangent vector of said luminance isolines passing through said minute surface, and generates said tangent vector by 90.
A three-dimensional shape restoring device, wherein the horizontal component of the normal vector is obtained by rotating by a degree.
【請求項7】請求項6記載の三次元画像復元装置に於い
て、前記微小面が存在する面形状が凸面であった場合、
前記輝度等値線の接線ベクトルを輝度の暗くなる方向に
90度回転して前記法線ベクトルの水平成分を求めるこ
とを特徴とする三次元形状復元装置。
7. The three-dimensional image restoration apparatus according to claim 6, wherein the surface on which the minute surface exists is a convex surface.
A three-dimensional shape restoration apparatus characterized in that a tangent vector of the luminance isoline is rotated by 90 degrees in a direction in which luminance becomes dark to obtain a horizontal component of the normal vector.
【請求項8】請求項6記載の三次元画像復元装置に於い
て、前記微小面が存在する面形状が凹面であった場合、
前記輝度等値線の接線ベクトルを輝度の明るくなる方向
に90度回転して前記法線ベクトルの水平成分を求める
ことを特徴とする三次元形状復元装置。
8. The three-dimensional image restoration apparatus according to claim 6, wherein the surface on which the minute surface exists is concave.
A three-dimensional shape restoration apparatus, wherein a tangent vector of the luminance isoline is rotated by 90 degrees in a direction in which the luminance becomes brighter to obtain a horizontal component of the normal vector.
【請求項9】請求項3記載の三次元画像復元装置に於い
て、前記垂直成分抽出部は、前記法線ベクトルの垂直成
分を、前記平滑化した輝度画像の各微小面の輝度値に比
例した値として算出することを特徴とする三次元形状復
元装置。
9. The three-dimensional image restoration device according to claim 3, wherein the vertical component extraction unit is configured to calculate a vertical component of the normal vector in proportion to a luminance value of each minute surface of the smoothed luminance image. A three-dimensional shape restoring device characterized by calculating the calculated value.
【請求項10】請求項1記載の三次元形状復元装置に於
いて、 前記三次元形状復元部は、 前記正規化された法線ベクトルを積分することで前記対
象物の三次元形状を生成する積分処理部と、 前記三次元形状を復元結果として表示する復元表示部
と、を備えたことを特徴とする三次元形状復元装置。
10. The three-dimensional shape restoration device according to claim 1, wherein the three-dimensional shape restoration unit generates a three-dimensional shape of the object by integrating the normalized normal vector. A three-dimensional shape restoration device comprising: an integration processing unit; and a restoration display unit that displays the three-dimensional shape as a restoration result.
【請求項11】三次元形状を有する対象物を撮影したカ
ラー画像データを取り込む画像取込過程と、 前記対象物を微小面に分割し、輝度情報に基づいて各微
小面の法線ベクトルを抽出する法線ベクトル抽出過程
と、 前記法線ベクトル群に基づいて前記対象物の三次元形状
データを算出して復元表示する三次元形状復元過程と、
を備えたことを特徴とする三次元形状復元方法。
11. An image capturing step of capturing color image data of an object having a three-dimensional shape, dividing the object into minute surfaces, and extracting a normal vector of each minute surface based on luminance information. A normal vector extraction process, and a three-dimensional shape restoration process of calculating and restoring and displaying three-dimensional shape data of the object based on the normal vector group,
A three-dimensional shape restoration method characterized by comprising:
【請求項12】請求項11記載の三次元形状復元方法に
於いて、前記法線ベクトル検出過程は、 カラー取込画像を輝度画像に変換する輝度画像変換過程
と、 前記輝度画像に基づき前記各微小面の法線ベクトルの水
平成分を抽出する水平成分抽出過程と、 前記輝度画像に基づき前記各微小面の法線ベクトルの垂
直成分を抽出する垂直成分抽出過程と、 前記微小領域の各面の法線ベクトルの水平成分と垂直成
分により正規化された法線ベクトルを算出する法線ベク
トル正規化過程と、を備えたことを特徴とする三次元形
状復元方法。
12. The three-dimensional shape restoring method according to claim 11, wherein said normal vector detecting step comprises: a luminance image converting step of converting a color captured image into a luminance image; A horizontal component extraction process of extracting a horizontal component of a normal vector of the micro surface; a vertical component extraction process of extracting a vertical component of a normal vector of each of the micro surfaces based on the luminance image; A normal vector normalization step of calculating a normal vector normalized by a horizontal component and a vertical component of the normal vector.
【請求項13】請求項11記載の三次元形状復元方法に
於いて、 前記三次元形状復元過程は、 前記正規化された法線ベクトルを積分することで前記対
象範囲の三次元形状を生成する積分処理過程と、 前記三次元形状を復元結果として表示する復元表示過程
と、を備えたことを特徴とする三次元形状復元方法。
13. The three-dimensional shape restoring method according to claim 11, wherein in the three-dimensional shape restoring step, a three-dimensional shape of the target range is generated by integrating the normalized normal vector. A method for restoring a three-dimensional shape, comprising: an integration processing step; and a restoration display step of displaying the three-dimensional shape as a restoration result.
【請求項14】三次元形状を有する対象物を撮影したカ
ラー画像データを取り込む画像取込部と、 前記対象物を微小面に分割し、輝度情報に基づいて各微
小面の法線ベクトルを抽出する法線ベクトル抽出部と、 前記法線ベクトル群に基づいて前記対象物の三次元形状
データを算出して復元表示する三次元形状復元部と、を
備えた三次元形状復元プログラムを記憶したコンピュー
タ読取り可能な記録媒体。
14. An image capturing section for capturing color image data of an object having a three-dimensional shape, dividing the object into minute surfaces, and extracting a normal vector of each minute surface based on luminance information. A computer storing a three-dimensional shape restoring program, comprising: a normal vector extracting unit that performs the calculation; and a three-dimensional shape restoring unit that calculates and restores and displays three-dimensional shape data of the object based on the normal vector group. A readable recording medium.
【請求項15】請求項14記載の三次元形状復元プログ
ラムを記録したコンピュータ読取り可能な記録媒体に於
いて、前記法線ベクトル検出部は、 カラー取込画像を輝度画像に変換する輝度画像変換部
と、 前記輝度画像に基づき前記各微小面の法線ベクトルの水
平成分を抽出する水平成分抽出部と、 前記輝度画像に基づき前記各微小面の法線ベクトルの垂
直成分を抽出する垂直成分抽出部と、 前記微小領域の各面の法線ベクトルの水平成分と垂直成
分により正規化された法線ベクトルを算出する法線ベク
トル正規化部と、を備えたことを特徴とする三次元形状
復元プログラムを記録したコンピュータ読取り可能な記
録媒体。
15. A computer-readable recording medium on which a three-dimensional shape restoration program according to claim 14 is recorded, wherein said normal vector detecting unit converts a color captured image into a luminance image. A horizontal component extraction unit that extracts a horizontal component of a normal vector of each minute surface based on the luminance image, and a vertical component extraction unit that extracts a vertical component of a normal vector of each minute surface based on the luminance image A three-dimensional shape restoration program, comprising: a normal vector normalizing unit that calculates a normal vector normalized by a horizontal component and a vertical component of a normal vector of each surface of the minute area. Computer-readable recording medium on which is recorded.
【請求項16】請求項14記載の三次元形状復元プログ
ラムを記録したコンピュータ読取り可能な記録媒体に於
いて、 前記三次元形状復元部は、 前記正規化された法線ベクトルを積分することで前記対
象範囲の三次元形状を生成する積分処理部と、 前記三次元形状を復元結果として表示する復元表示部
と、を備えたことを特徴とする三次元形状復元プログラ
ムを記録したコンピュータ読取り可能な記録媒体。
16. A computer-readable recording medium having recorded thereon a three-dimensional shape restoring program according to claim 14, wherein said three-dimensional shape restoring unit integrates said normalized normal vector. A computer-readable recording recording a three-dimensional shape restoration program, comprising: an integration processing unit that generates a three-dimensional shape of a target range; and a restoration display unit that displays the three-dimensional shape as a restoration result. Medium.
JP01413198A 1998-01-27 1998-01-27 Three-dimensional shape restoration apparatus and method, and computer-readable recording medium recording a three-dimensional shape restoration program Expired - Fee Related JP3940484B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01413198A JP3940484B2 (en) 1998-01-27 1998-01-27 Three-dimensional shape restoration apparatus and method, and computer-readable recording medium recording a three-dimensional shape restoration program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01413198A JP3940484B2 (en) 1998-01-27 1998-01-27 Three-dimensional shape restoration apparatus and method, and computer-readable recording medium recording a three-dimensional shape restoration program

Publications (2)

Publication Number Publication Date
JPH11211440A true JPH11211440A (en) 1999-08-06
JP3940484B2 JP3940484B2 (en) 2007-07-04

Family

ID=11852592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01413198A Expired - Fee Related JP3940484B2 (en) 1998-01-27 1998-01-27 Three-dimensional shape restoration apparatus and method, and computer-readable recording medium recording a three-dimensional shape restoration program

Country Status (1)

Country Link
JP (1) JP3940484B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126182A (en) * 1998-10-27 2000-05-09 Mitani Sangyo Co Ltd Tumor diagnosing method
JP2006208187A (en) * 2005-01-27 2006-08-10 Nagoya Electric Works Co Ltd Shape quality decision device and method
WO2007010875A1 (en) 2005-07-15 2007-01-25 Asahi Glass Company, Limited Shape inspection method and device
JP2013543591A (en) * 2010-10-08 2013-12-05 オムロン株式会社 Shape measuring apparatus and shape measuring method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126182A (en) * 1998-10-27 2000-05-09 Mitani Sangyo Co Ltd Tumor diagnosing method
JP2006208187A (en) * 2005-01-27 2006-08-10 Nagoya Electric Works Co Ltd Shape quality decision device and method
WO2007010875A1 (en) 2005-07-15 2007-01-25 Asahi Glass Company, Limited Shape inspection method and device
JP2013543591A (en) * 2010-10-08 2013-12-05 オムロン株式会社 Shape measuring apparatus and shape measuring method

Also Published As

Publication number Publication date
JP3940484B2 (en) 2007-07-04

Similar Documents

Publication Publication Date Title
EP3614340B1 (en) Methods and devices for acquiring 3d face, and computer readable storage media
JP4435145B2 (en) Method and apparatus for providing panoramic image by calibrating geometric information
US8682106B2 (en) Method and apparatus for measuring position and orientation of an object
US6393162B1 (en) Image synthesizing apparatus
US11893701B2 (en) Method for simulating natural perception in virtual and augmented reality scenes
US6834250B2 (en) Position and orientation determining method and apparatus and storage medium
JP6685827B2 (en) Image processing apparatus, image processing method and program
JP3996630B2 (en) Image conversion method, texture mapping method, image conversion apparatus, server client system, image conversion program, shadow recognition method, and shadow recognition apparatus
US20130335535A1 (en) Digital 3d camera using periodic illumination
US8917317B1 (en) System and method for camera calibration
JP4010754B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US11620730B2 (en) Method for merging multiple images and post-processing of panorama
CA2464569A1 (en) Single or multi-projector for arbitrary surfaces without calibration nor reconstruction
JP2012505368A (en) Imaging system and method
CN107705278B (en) Dynamic effect adding method and terminal equipment
JP2001067463A (en) Device and method for generating facial picture from new viewpoint based on plural facial pictures different in viewpoint, its application device and recording medium
CN109214350A (en) A kind of determination method, apparatus, equipment and the storage medium of illumination parameter
JP2024035023A (en) Angle measurement device, method for measuring angle, and angle measurement program
JP2961264B1 (en) Three-dimensional object model generation method and computer-readable recording medium recording three-dimensional object model generation program
JP5801209B2 (en) Camera posture estimation device, program
CN106997366B (en) Database construction method, augmented reality fusion tracking method and terminal equipment
JPH11211440A (en) Three-dimensional shape restoring device and method, and computer readable storage medium having three-dimensional restoring program recorded thereon
JP2004165944A (en) Method and device for projection information correction, program, and recording medium
Koc et al. Estimation of environmental lighting from known geometries for mobile augmented reality
WO2021149509A1 (en) Imaging device, imaging method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070402

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100406

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100406

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160406

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees