JP2003067775A - Texture mapping method, texture mapping processing program, and computer-readable storage medium storing the program - Google Patents

Texture mapping method, texture mapping processing program, and computer-readable storage medium storing the program

Info

Publication number
JP2003067775A
JP2003067775A JP2001254250A JP2001254250A JP2003067775A JP 2003067775 A JP2003067775 A JP 2003067775A JP 2001254250 A JP2001254250 A JP 2001254250A JP 2001254250 A JP2001254250 A JP 2001254250A JP 2003067775 A JP2003067775 A JP 2003067775A
Authority
JP
Japan
Prior art keywords
virtual
image
distance
processing unit
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001254250A
Other languages
Japanese (ja)
Other versions
JP3910811B2 (en
Inventor
Toyohisa Kaneko
豊久 金子
Hiroya Iwakiri
裕哉 岩切
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Corp filed Critical Japan Science and Technology Corp
Priority to JP2001254250A priority Critical patent/JP3910811B2/en
Publication of JP2003067775A publication Critical patent/JP2003067775A/en
Application granted granted Critical
Publication of JP3910811B2 publication Critical patent/JP3910811B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To sufficiently establish practical usability by allowing a high-speed processing. SOLUTION: From the center of each plane of a polygon for enclosing a three-dimensional object, the image when photographing the object is acquired (S101), and the distance histogram and distance profile from the acquired outline image to an edge are formed (S103). The image of the three-dimensional object is taken by a camera (S201), and its distance histogram and distance profile are formed (S205). The matching of the distance histogram calculated for the profile of the three-dimensional object with the distance histogram of the model data is performed (S207), and the matching of an actual image with a model data image is performed by use of the distance profiles (S209). Further, candidates are narrowed by outline matching (S211), and the position and direction of the camera are precisely determined (S213).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、テクスチャマッピ
ング方法、テクスチャマッピング処理プログラム及びそ
のプログラムを記録したコンピュータ読取り可能な記録
媒体に係る。本発明は、特に、3次元物体の画像をコン
ピュータに取り入れ、その幾何学的な形状測定技術と表
面の色や模様を含むテクスチャーの張り付け技術に関す
る3次元コンピュータグラフィックス、3次元画像生成
に用いられるテクスチャマッピング技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a texture mapping method, a texture mapping processing program, and a computer-readable recording medium recording the program. INDUSTRIAL APPLICABILITY The present invention is used for three-dimensional computer graphics and three-dimensional image generation, in particular, for taking an image of a three-dimensional object in a computer and measuring its geometrical shape and a technique for pasting textures including surface colors and patterns. Related to texture mapping technology.

【0002】[0002]

【従来の技術】一般に、3次元コンピュータ・グラフィ
ックス(CG)を生成するには、3次元物体の表面形状
とそのテクスチャ(テクスチャとは、例えば、表面の
色、模様、材質などの感じ)を得る必要がある。3次元
CGと生成するために、3次元物体の実物が存在する場
合、光学系スキャナを用いる手法がある。光学系スキャ
ナの多くは、カメラとスリット投光器を物体の周囲に回
転させるか、カメラを固定して物体を回転させて、物体
表面のデータを取得する。このような光学系スキャナの
中には物体表面の形状とテクスチャを同時に取得できる
ものもあり、3次元CGデータを容易に再現することが
できる。
2. Description of the Related Art Generally, in order to generate three-dimensional computer graphics (CG), the surface shape of a three-dimensional object and its texture (texture is, for example, feeling of surface color, pattern, material, etc.). Need to get In order to generate a three-dimensional CG, there is a method using an optical system scanner when a three-dimensional object is actually present. Most optical scanners acquire data on the surface of an object by rotating a camera and a slit projector around the object or by fixing the camera and rotating the object. Some of such optical scanners can simultaneously acquire the shape and texture of the object surface, and can easily reproduce the three-dimensional CG data.

【0003】一方、物体表面の形状のみを取得するよう
な比較的安価な光学系スキャナもあり、これを用いると
ある程度正確な表面形状を得ることができる。このよう
な手段で取得した表面形状にはテクスチャが一切含まれ
ていないので、表面テクスチャを得る必要がある。
On the other hand, there is a relatively inexpensive optical system scanner that acquires only the shape of the surface of an object, and if this is used, it is possible to obtain a somewhat accurate surface shape. Since the surface shape acquired by such means does not include any texture, it is necessary to obtain the surface texture.

【0004】[0004]

【発明が解決しようとする課題】上述のように、3次元
実物(3次元物体)をコンピュータに取り入れ、コンピ
ュータグラフィックスに用いるとき、その幾何学的な形
状と表面の色や模様を含むテクスチャが必要である。し
かしながら、幾何学的形状の測定とテクスチャの張り付
け(マッピング)との両方を行える装置は極めて高価で
あるし、また装置の大きさにより、取り扱う対象物体の
大きさを限定してしまう場合もある。そこで、幾何学的
な形状のみを測定する装置で形状を測定しておき、次
に、テクスチャをデジタルカメラにより取得し、その画
像を張り付ける方法が提案されている。しかし、画像一
枚あたり現状では、3分から5分程度時間がかかり、画
像10枚程度で30分から1時間かかるため、実用性に
乏しい。
As described above, when a three-dimensional real object (three-dimensional object) is introduced into a computer and used for computer graphics, the geometric shape and the texture including the surface color and pattern are generated. is necessary. However, a device that can both measure a geometric shape and paste a texture (mapping) is extremely expensive, and the size of the device may limit the size of a target object to be handled. Therefore, a method has been proposed in which the shape is measured by a device that measures only the geometrical shape, then the texture is acquired by a digital camera, and the image is pasted. However, it currently takes about 3 to 5 minutes per image and 30 minutes to 1 hour for about 10 images, which is not practical.

【0005】本発明は、以上の点に鑑み、高速処理(例
えば、画像一枚あたり20秒程度以下)を行えるように
し、実用性を十分に確立したテクスチャマッピング方
法、テクスチャマッピング処理プログラム及びそのプロ
グラムを記録したコンピュータ読取り可能な記録媒体を
提供することを目的とする。
In view of the above points, the present invention is capable of performing high-speed processing (for example, about 20 seconds or less per image), and has a practicable texture mapping method, texture mapping processing program, and its program. An object of the present invention is to provide a computer-readable recording medium in which is recorded.

【0006】また、本発明は、デジタルカメラで実物を
多方向から撮影して形状だけ与えられている物体の輪郭
に基づいて、その物体の表面に正確にテクスチャ画像を
マッピングすることを目的とし、また、その為に、物体
とカメラの相互位置関係を正確且つ高速に求める多段的
探索法を提供することを目的とする。
Another object of the present invention is to accurately map a texture image on the surface of an object based on the contour of the object given only by the shape obtained by photographing a real object from multiple directions with a digital camera. It is another object of the present invention to provide a multi-stage search method for accurately and rapidly determining the mutual positional relationship between an object and a camera.

【0007】[0007]

【課題を解決するための手段】本発明の解決手段による
と、処理部は、3次元物体を表す3次元形状モデルデー
タに基づいて、3次元物体を包み込む多面体の各面の中
心視点から該3次元物体を撮影した際の視点毎の2次元
仮想画像データを取得するステップと、処理部は、取得
された各々の視点毎の仮想画像データから、画像の中心
又は重心を基準として所定角度ごとのエッジまでの距離
を表す仮想距離プロファイルを作成するステップと、処
理部は、作成された各々の視点毎の仮想距離プロファイ
ルに基づき、仮想画像データについての所定段階の仮想
距離ヒストグラムを作成するステップと、処理部は、実
カメラにより3次元形状モデルデータに対応した実物体
を撮影した実画像を入力するステップと、処理部は、得
られた実画像からから、画像の中心又は重心を基準とし
て所定角度ごとのエッジまでの距離を表す実距離プロフ
ァイルを作成するステップと、処理部は、作成された実
距離プロファイルに基づき、実画像データについての所
定段階の実距離ヒストグラムを作成するステップと、処
理部は、各々の視点毎の仮想距離ヒストグラムと実距離
ヒストグラムとを比較して、一致程度の高い所定数の仮
想距離ヒストグラム候補を抽出し、その候補に関するカ
メラ位置を含むデータをメモリに記憶する距離ヒストグ
ラムマッチングステップと、処理部は、抽出された仮想
距離ヒストグラムに対応する仮想距離プロファイルをメ
モリから読出し、該仮想距離プロファイルと実距離プロ
ファイルとを比較して、マッチングする仮想距離プロフ
ァイル候補を抽出し、その候補に関するカメラ回転角を
含むデータをメモリに記憶する距離プロファイルマッチ
ングステップと、処理部は、抽出された候補をメモリか
ら読出し、仮想画像及び実画像の形状を表わす仮想シル
エット画像及び実シルエット画像に基づき、一致する候
補を選択することで、実カメラの位置及び回転角を決定
するシルエット画像マッチングステップとを含むテクス
チャマッピング方法及びテクスチャマッピング方法、テ
クスチャマッピング処理プログラム及びそのプログラム
を記録したコンピュータ読取り可能な記録媒体が提供さ
れる。
According to the solving means of the present invention, the processing unit, based on the three-dimensional shape model data representing the three-dimensional object, from the central viewpoint of each surface of the polyhedron enclosing the three-dimensional object, The step of acquiring the two-dimensional virtual image data for each viewpoint when the three-dimensional object is photographed, and the processing unit, from the acquired virtual image data for each viewpoint, for each predetermined angle based on the center or the center of gravity of the image. A step of creating a virtual distance profile representing the distance to the edge, the processing unit, based on the created virtual distance profile for each viewpoint, a step of creating a virtual distance histogram of a predetermined stage for virtual image data, The processing unit inputs a real image obtained by shooting a real object corresponding to the three-dimensional shape model data with the real camera, and the processing unit uses the obtained real image. From the center or the center of gravity of the image to create an actual distance profile that represents the distance to the edge for each predetermined angle; and the processing unit, based on the created actual distance profile, The step of creating a real distance histogram and the processing unit compare the virtual distance histogram and the real distance histogram for each viewpoint, extract a predetermined number of virtual distance histogram candidates with a high degree of coincidence, and select the camera related to that candidate. A distance histogram matching step of storing data including a position in a memory, the processing unit reads a virtual distance profile corresponding to the extracted virtual distance histogram from the memory, compares the virtual distance profile with an actual distance profile, Extract the matching virtual distance profile candidates and And a distance profile matching step of storing data including a camera rotation angle in a memory, the processing unit reads the extracted candidates from the memory, and based on the virtual silhouette image and the real silhouette image representing the shapes of the virtual image and the real image, A texture mapping method and a texture mapping method including a silhouette image matching step of determining a position and a rotation angle of an actual camera by selecting a matching candidate, a texture mapping processing program, and a computer-readable recording medium recording the program. Will be provided.

【0008】[0008]

【発明の実施の形態】1.概説 本発明の実施の形態は、デジタルカメラで実物を多方向
から撮影して、形状だけ与えられている物体表面に正確
にテクスチャ画像をマッピングするものである。そのた
めには、物体とカメラの相互位置関係を正確に求める必
要がある。本発明の実施の形態では、デジタルカメラに
より撮影した画像から物体の輪郭を求めて、カメラの正
確な位置を多段的に探索する。
BEST MODE FOR CARRYING OUT THE INVENTION 1. Overview The embodiment of the present invention is to photograph a real object from multiple directions with a digital camera and accurately map a texture image on an object surface given only a shape. For that purpose, it is necessary to accurately determine the mutual positional relationship between the object and the camera. In the embodiment of the present invention, the contour of the object is obtained from the image captured by the digital camera, and the accurate position of the camera is searched in multiple stages.

【0009】具体的には、デジタルカメラ及びコンピュ
ータを用いて次の通りの処理を実行する。 (1)3次元物体の3次元形状モデルデータに基づき、
3次元物体を包み込む多面体(例えば、320面体)の
各面の中心から、物体を撮影した時のイメージ(物体の
輪郭)を取得する。次に、取得されたそのシルエット画
像からエッジまでの距離ヒストグラムと距離プロファイ
ルを作成する。 (2)実際にデジタルカメラで3次元物体の撮影を行
い、3次元物体の輪郭について計算された距離ヒストグ
ラムと、上記(1)で作成されたモデルデータの距離ヒ
ストグラムとのマッチングを行い、カメラ位置をある程
度の範囲内に確定する。ここでは、一例として、検索範
囲は20/320(6%)程度に限定される。 (3)輪郭の中心から距離プロファイルを用いて、実画
像とモデルデータ画像とのマッチングを行い、さらにカ
メラ位置の範囲を狭める。ここでは、一例として、その
範囲を20/7,200程度に狭める。 (4)狭められたカメラ位置の候補(ここでは、一例と
して20個)から、実画像とモデルデータ画像とのシル
エットマッチングにより、1個に狭める。 (5)最後に残ったものについて、予め定められた角度
(ここでは、一例として、9度)の立体角内でのシルエ
ットマッチングを行い、カメラの位置、方向を正確に決
定する。
Specifically, the following processing is executed using a digital camera and a computer. (1) Based on the 3D shape model data of the 3D object,
From the center of each surface of a polyhedron (for example, a 320-hedron) that encloses a three-dimensional object, an image (outline of the object) when the object is photographed is acquired. Next, a distance histogram and a distance profile from the acquired silhouette image to the edge are created. (2) A three-dimensional object is actually photographed by a digital camera, and the distance histogram calculated for the contour of the three-dimensional object is matched with the distance histogram of the model data created in (1) above to obtain the camera position. Is fixed within a certain range. Here, as an example, the search range is limited to about 20/320 (6%). (3) Using the distance profile from the center of the contour, the actual image and the model data image are matched, and the range of the camera position is further narrowed. Here, as an example, the range is narrowed to about 20 / 7,200. (4) From the narrowed camera position candidates (here, 20 as an example), the number is narrowed to one by silhouette matching between the actual image and the model data image. (5) With respect to the last remaining one, silhouette matching is performed within a solid angle of a predetermined angle (here, 9 degrees as an example), and the position and direction of the camera are accurately determined.

【0010】以上の方法によりカメラ位置、方向が可能
となり、一般のパソコンでも、例えば、1枚当たり20
秒以下で画像貼り付けを行う事が可能となり、全所要時
間が3分程度に短縮され、十分実用に供することが可能
となる。この時間は市販されているコンピュータおよび
グラフィックスカードにより決定されているが、この分
野での進展はめざましく、今後さらに大幅に短縮が可能
である。
By the above method, the position and direction of the camera can be adjusted. Even a general personal computer, for example, 20
The image can be pasted in less than a second, the total required time is shortened to about 3 minutes, and it can be sufficiently put into practical use. This time is determined by the computers and graphics cards available on the market, but progress in this area is remarkable and can be further reduced in the future.

【0011】2.ハードウェア 図1に、テクスチャマッピング装置の概要図の一例を示
す。この装置は、パーソナルコンピュータ1、カメラ2
を備え、例えば、モデル3についてテクスチャマッピン
グによりCG画像を作成する。
2. Hardware FIG. 1 shows an example of a schematic diagram of the texture mapping device. This device consists of a personal computer 1, a camera 2
And, for example, a CG image is created for the model 3 by texture mapping.

【0012】図2に、テクスチャマッピング装置のブロ
ック構成図を示す。パーソナル・コンピュータ(PC)
1は、ジオメトリエンジン搭載グラフィックカードを有
する処理部11、IEEE1394インターフェース等
のカメラ2とのインターフェース12、中間結果、最終
結果、入力データ、出力データ等の各種データ及びプロ
グラムを記憶するメモリ13、各種データを入力するた
めの入力部14、ディスプレイを含む各種データを出力
するための出力部15を備える。なお、処理部11のグ
ラフィックカードは、例えば、3次元形状モデルデータ
から、そのモデルを撮影したときの2次元画像を得るた
めのものである。カメラ2は、例えば、IEEE139
4接続可能なデジタルカメラまたは、ビデオカメラであ
る。
FIG. 2 shows a block diagram of the texture mapping device. Personal computer (PC)
Reference numeral 1 denotes a processing unit 11 having a graphic card equipped with a geometry engine, an interface 12 with the camera 2 such as an IEEE 1394 interface, a memory 13 for storing various data such as intermediate results, final results, input data, output data and programs, and various data. And an output unit 15 for outputting various data including a display. The graphic card of the processing unit 11 is for obtaining a two-dimensional image when the model is photographed from the three-dimensional shape model data, for example. The camera 2 is, for example, IEEE139.
It is a digital camera or a video camera that can be connected.

【0013】図3に、入出力データファイルの説明図を
示す。入力データファイルには、3次元形状モデルデー
タ及び撮影画像データが含まれる。3次元形状モデルデ
ータは、3次元物体を表すポリゴンデータであり、例え
ば、頂点座標、面構成データ(浮動小数点フォーマッ
ト)等で表現される。撮影画像データは、カメラ2の出
力であり、2次元画像データである。一方、出力データ
ファイルは、3次元形状モデルデータに撮影画像データ
によるテクスチャを貼り付けることによってテクスチャ
マッピング処理を行った3次元データである。
FIG. 3 shows an explanatory diagram of the input / output data file. The input data file includes three-dimensional shape model data and captured image data. The three-dimensional shape model data is polygon data representing a three-dimensional object, and is represented by, for example, vertex coordinates, surface configuration data (floating point format), or the like. The captured image data is output from the camera 2 and is two-dimensional image data. On the other hand, the output data file is three-dimensional data obtained by performing texture mapping processing by pasting the texture based on the captured image data onto the three-dimensional shape model data.

【0014】図4に、距離プロファイル及び距離ヒスト
グラムデータファイルの説明図を示す。図(A)のよう
に、3次元形状モデルデータについては、ここでは1〜
320の視点から仮想カメラで撮影した2次元モデルイ
メージについてのデータが記憶される。即ち、各視点毎
の仮想距離プロファイル及び仮想距離ヒストグラムが記
憶される。一方、図4(B)のように、カメラ2で撮影
された実際の3次元物体の2次元画像について、適宜与
えられる番号ごとの、実距離プロファイル及び実距離ヒ
ストグラムが記憶される。
FIG. 4 shows an explanatory view of the distance profile and the distance histogram data file. As for the three-dimensional shape model data as shown in FIG.
Data about the two-dimensional model image captured by the virtual camera from the viewpoint of 320 is stored. That is, the virtual distance profile and the virtual distance histogram for each viewpoint are stored. On the other hand, as shown in FIG. 4B, with respect to the two-dimensional image of the actual three-dimensional object photographed by the camera 2, the actual distance profile and the actual distance histogram for each given number are stored.

【0015】これら、距離プロファイル及びヒストグラ
ムについては後述する。また、上述した、入力データフ
ァイル、出力データファイル距離プロファイル及び距離
ヒストグラムデータファイルは、メモリ13に記憶され
る。
The distance profile and the histogram will be described later. The input data file, the output data file distance profile, and the distance histogram data file described above are stored in the memory 13.

【0016】3.ソフトウェア 図5に、実光学系と仮想光学系の説明図を示す。図
(A)は実光学系であり、実物体を実際の実カメラで撮
影する場合の光学系を表す。また、図(B)は、仮想光
学系であり、コンピュータ上で3次元モデルを仮想カメ
ラで撮影する場合の光学系を表す。本発明の実施の形態
では、実光学系と仮想光学系の物理尺度を同一にしてお
き、実カメラにより撮影したときと全く同じ位置・方向
に仮想カメラをおいたとき得られる3次元物体の2次元
投影像を、実カメラから得られた2次元画像で置き換
え、それを3次元物体に逆投影することにより、テクス
チャを持つ(マッピングされた)3次元モデルを作成す
ることができる。
3. Software FIG. 5 shows an explanatory diagram of the real optical system and the virtual optical system. FIG. 1A shows an actual optical system, which is an optical system when an actual object is photographed by an actual camera. Further, FIG. 3B shows a virtual optical system, which is an optical system when a three-dimensional model is photographed by a virtual camera on a computer. In the embodiment of the present invention, the physical scales of the real optical system and the virtual optical system are set to be the same, and two of the three-dimensional objects obtained when the virtual camera is placed in exactly the same position and direction as when shooting with the real camera. It is possible to create a textured (mapped) 3D model by replacing the 2D projection image with a 2D image obtained from a real camera and backprojecting it onto a 3D object.

【0017】以下に、テクスチャマッピング方法につい
て説明する。図6に、テクスチャマッピング方法のフロ
ーチャートを示す。この方法は、前処理とピクチャ処理
を含む。
The texture mapping method will be described below. FIG. 6 shows a flowchart of the texture mapping method. This method includes preprocessing and picture processing.

【0018】(1) 前処理 (ステップS101)コンピュータ1の処理部11は、
メモリ12の入力データファイル中から3次元物体を表
すポリゴンデータである。3次元形状モデルデータを読
み込む。 (ステップS103)つぎに、コンピュータ1の処理部
11は、3次元形状モデルデータを用い、3次元物体を
包み込む多面体(この例では、320面体)の各面の中
心から3次元物体を撮影したときの2次元画像(仮想画
像)を得て、仮想画像について距離プロファイル及び距
離ヒストグラムを求める。
(1) Pre-processing (step S101) The processing unit 11 of the computer 1
It is polygon data representing a three-dimensional object from the input data file of the memory 12. Read the 3D shape model data. (Step S103) Next, when the processing unit 11 of the computer 1 uses the three-dimensional shape model data, the three-dimensional object is photographed from the center of each surface of the polyhedron (in this example, 320-hedron) enclosing the three-dimensional object. The two-dimensional image (virtual image) is obtained, and the distance profile and the distance histogram are obtained for the virtual image.

【0019】図7に、物体の周囲に配置した320個の
撮影点についての説明図を示す。図示のように、処理部
11は、正20面体を分割して得られる320面体の各
三角面の中心に視点(カメラ位置)を配置する。処理部
11は、PC1の処理部11内部に搭載されているビデ
オカード(グラフィックカード)を用いて、その3次元
形状モデルデータの2次元イメージを取得し、その2次
元イメージ(シルエット画像)から距離プロファイル、
ヒストグラムを以下に詳述するように作成する。
FIG. 7 is an explanatory view of 320 photographing points arranged around the object. As illustrated, the processing unit 11 arranges the viewpoint (camera position) at the center of each triangular surface of a 320-sided body obtained by dividing the regular icosahedron. The processing unit 11 uses a video card (graphic card) mounted inside the processing unit 11 of the PC 1 to acquire a two-dimensional image of the three-dimensional shape model data, and distances from the two-dimensional image (silhouette image). Profile,
A histogram is created as detailed below.

【0020】図8に、距離プロファイル及び距離ヒスト
グラム作成についてのフローチャートを示す。これはス
テップS103に相当する。
FIG. 8 shows a flowchart for creating the distance profile and the distance histogram. This corresponds to step S103.

【0021】(1−1)エッジ及びシルエットの抽出
(S151) 処理部11は、メモリ13から読み出した3次元形状モ
デルデータに基づき、320の視点から3次元物体を投
影したときの(2次元)仮想画像をレンダリングして得
る。さらに、仮想画像からシルエットのエッジを抽出す
る。
(1-1) Extraction of Edge and Silhouette (S151) The processing unit 11 projects a three-dimensional object from 320 viewpoints based on the three-dimensional shape model data read from the memory 13 (two-dimensional). Obtained by rendering a virtual image. Furthermore, the silhouette edge is extracted from the virtual image.

【0022】(1−2)距離プロファイルの作成(S1
53) 処理部11は、仮想画像の中心(重心)から所定角度
(ここでは、1度)ごとに物体のエッジまでの距離を測
る。さらに、処理部11は、角度に対する測定した距離
を表した距離プロファイルを作成し、メモリ13の仮想
光学系の距離プロファイル及び距離ヒストグラムデータ
ファイルに記憶する。
(1-2) Creation of distance profile (S1
53) The processing unit 11 measures the distance from the center (center of gravity) of the virtual image to the edge of the object at every predetermined angle (here, 1 degree). Further, the processing unit 11 creates a distance profile representing the measured distance with respect to the angle and stores the distance profile in the virtual optical system in the memory 13 and the distance histogram data file.

【0023】以下に例を示す。図9は、単純な輪郭線を
もつシルエットの例である。処理部11は、図の矢印の
ように、重心から輪郭線までの距離を測定する。
An example is shown below. FIG. 9 is an example of a silhouette having a simple contour line. The processing unit 11 measures the distance from the center of gravity to the contour line, as indicated by the arrow in the figure.

【0024】図10に、図9の輪郭線から作成した距離
プロファイルを示す。縦軸が距離、横軸が角度を示す。
図11は、複雑な輪郭線をもつシルエットの例である。
図12に、図11の輪郭線から作成した距離プロファイ
ルを示す。
FIG. 10 shows a distance profile created from the contour line of FIG. The vertical axis represents distance and the horizontal axis represents angle.
FIG. 11 is an example of a silhouette having a complicated contour line.
FIG. 12 shows a distance profile created from the contour line of FIG.

【0025】(1−3)正規化(S155) つぎに、処理部11は、上記(1−2)で作成した距離
プロファイルを正規化する。正規化の方法は,距離プロ
ファイルの平均値を所定値(例えば、10000)にな
るようにする。図13に、距離プロファイルの正規化に
ついての説明図を示す。処理部11は、図示のように、
距離プロファイルの平均値を一定の値(10000)に
する操作を行う。
(1-3) Normalization (S155) Next, the processing unit 11 normalizes the distance profile created in (1-2). In the normalization method, the average value of the distance profile is set to a predetermined value (for example, 10000). FIG. 13 shows an explanatory diagram for normalization of the distance profile. The processing unit 11, as shown,
The average value of the distance profile is set to a constant value (10000).

【0026】(1−4)距離ヒストグラムの作成(S1
57) 処理部11は、正規化した距離プロファイルを一定距離
(例えば、2000)ごとにサンプリング点をカウント
していき、所定段階(この例では、10段階)での距離
ヒストグラムを作成し、メモリ13の仮想光学系の距離
プロファイル及び距離ヒストグラムデータファイルにそ
れを記憶する。なお、所定距離以上については、最終段
階に含めるようにしてもよいし(この例では、1000
0以上については10番目の要素に含める)、また、除
いてもよい。
(1-4) Creation of distance histogram (S1
57) The processing unit 11 counts the sampling points for each fixed distance (for example, 2000) in the normalized distance profile, creates a distance histogram at a predetermined stage (10 stages in this example), and stores the memory histogram in the memory 13. It is stored in the virtual optical system's distance profile and distance histogram data file. It should be noted that a predetermined distance or more may be included in the final stage (in this example, 1000 or more).
0 or more is included in the 10th element) or may be excluded.

【0027】なお、処理部11は、各ステップにおい
て、2次元イメージ、シルエット画像、エッジ、エッジ
までの距離、距離プロファイル、正規化、ヒストグラム
に関する各情報を必要に応じて適宜メモリ13に書き込
み又はメモリ13から読み出しする。
In each step, the processing unit 11 writes or stores information on the two-dimensional image, the silhouette image, the edge, the distance to the edge, the distance profile, the normalization, and the histogram in the memory 13 as necessary. Read from 13.

【0028】(2)ピクチャ処理 (ステップS201)つぎに、処理部11は、カメラ2
により、必要に応じて背景に青や緑のシートを敷いて、
物体を撮影し、I/F12を経てデータを取り込む。取
り込まれた実画像データは、適宜メモリ13の入力デー
タファイルに撮影画像データとして記憶される。
(2) Picture Processing (Step S201) Next, the processing section 11 causes the camera 2
By laying a blue or green sheet on the background as needed,
The object is photographed and the data is captured via the I / F 12. The captured actual image data is appropriately stored in the input data file of the memory 13 as captured image data.

【0029】(ステップS203)処理部11は、取り
込まれた実画像データに基づき、撮影画像の背景を除去
する処理を行なう。
(Step S203) The processing section 11 carries out a processing for removing the background of the photographed image based on the fetched real image data.

【0030】(ステップS205)つぎに処理部11
は、撮影画像から、物体のエッジを抽出して実画像につ
いての距離プロファイル(実距離プロファイル)を作成
し、さらにその距離ヒストグラム(実距離ヒストグラ
ム)を作成し、メモリ13の実光学系の距離プロファイ
ル及び距離ヒストグラムデータファイルにそれを記憶す
る。これらの処理は上述と同様である。
(Step S205) Next, the processing unit 11
Is a distance profile (actual distance profile) for the actual image by extracting the edge of the object from the photographed image, and a distance histogram (actual distance histogram) for the distance profile. And store it in the distance histogram data file. These processes are similar to the above.

【0031】(ステップS207)ヒストグラムマッチ
ング 処理部11は、前処理で作成した仮想光学系の仮想距離
ヒストグラムと、ステップS205で作成した実光学系
の実距離ヒストグラムをメモリ13から読み出す。処理
部11は、これらの距離ヒストグラム同士を比較して一
致するもの(一致する程度の高いもの)を取り出す。こ
のヒストグラムの比較では、処理部11は、z方向の回
転については考慮しなくてよいため、高速に比較するこ
とができる。処理部11は、抽出したヒストグラムに関
するデータをメモリ13に記憶する。例えば、選択され
た候補の視点番号をメモリ13の適宜の中間ファイルに
記憶してもよいし、距離プロファイル及び距離ヒストグ
ラムを含めて記憶してもよい。ここで、例えば、320
の候補から約20に減らすことになる。
(Step S207) The histogram matching processor 11 reads from the memory 13 the virtual distance histogram of the virtual optical system created in the preprocessing and the actual distance histogram of the actual optical system created in step S205. The processing unit 11 compares these distance histograms with each other and takes out a match (high match). In the comparison of the histograms, the processing unit 11 does not need to consider the rotation in the z direction, so that the comparison can be performed at high speed. The processing unit 11 stores the data regarding the extracted histogram in the memory 13. For example, the viewpoint numbers of the selected candidates may be stored in an appropriate intermediate file in the memory 13, or may be stored together with the distance profile and the distance histogram. Here, for example, 320
The number of candidates will be reduced to about 20.

【0032】候補を選択するための具体的手法として
は、例えば、次式の総和sにより類似度を計算し、類
似度の高いものを所定数(この例では約20個)選択す
る。こうして、カメラ位置が決定される。
As a concrete method for selecting the candidates, for example, the similarity is calculated by the sum s j of the following equation, and a predetermined number (about 20 in this example) having a high similarity is selected. In this way, the camera position is determined.

【0033】[0033]

【数1】 [Equation 1]

【0034】ここで、H(m)(m=1〜10)は、実
光学系の10レベルの実距離ヒストグラム、h
(m)(m=1〜10,j=1〜320)は、仮想
光学系の320視点による10レベルの仮想距離ヒスト
グラムである。
Here, H (m) (m = 1 to 10) is a 10-level real distance histogram of the real optical system, h
j (m) (m = 1 to 10, j = 1 to 320) is a 10-level virtual distance histogram from 320 viewpoints of the virtual optical system.

【0035】(S209)距離プロファイルマッチング つぎに処理部11は、ステップS207におけるヒスト
グラムの比較で一致したものについて、メモリ13から
その候補を読み出し、距離プロファイル同士を比較す
る。この例では、距離プロファイルの数は20に減って
いるが、それぞれの仮想距離プロファイルは、所定角度
を1度とすると、1度ごとに360度要素があるため、
比較するパターンは20×360通りある。
(S209) Distance Profile Matching Next, the processing unit 11 reads out the candidates from the memory 13 for the matching histograms in step S207, and compares the distance profiles. In this example, the number of distance profiles is reduced to 20, but each virtual distance profile has a 360-degree element for each degree when the predetermined angle is 1 degree.
There are 20 × 360 patterns to be compared.

【0036】図14に、距離プロファイルマッチングの
フローチャートを示す。処理部11は、実距離プロファ
イル及び仮想距離プロファイル候補を読出し、実光学系
の入力画像の実距離プロファイルF(i)(i =
1...360)と、仮想光学系の3次元形状モデルデ
ータについて所定角度毎の仮想距離プロファイルG
j,k(i)(j=1〜20、i,k=1〜360)を
求める(S301)。マッチング方法としては、処理部
11は、これらを求めた仮想距離プロファイルの各要素
を以下のように比較する。
FIG. 14 shows a flowchart of distance profile matching. The processing unit 11 reads out the real distance profile and the virtual distance profile candidate, and the real distance profile F (i) (i =
1. . . 360) and the virtual distance profile G for each predetermined angle for the three-dimensional shape model data of the virtual optical system.
j, k (i) (j = 1 to 20, i, k = 1 to 360) is obtained (S301). As a matching method, the processing unit 11 compares the respective elements of the virtual distance profile that have been obtained as follows.

【0037】処理部11は、初期値として、S=0とし
(S302)、iを、1から360まで、次式の条件を
判定(S303、S305、S309)する。 |F(i)− Gj,k(i)|<100 処理部11は、この条件に合致したらSをカウントアッ
プする(S307)。処理部11は、それぞれのS値を
視点番号に対応して、メモリ13に記憶し(S31
1)、これを各要素j,kについて求める(S31
3)。処理部11は、ここで得られたSの値により、類
似度の順序づけを行う。即ち、Sが大きければマッチン
グの程度が大きいことを示す。
The processing section 11 sets S = 0 as an initial value (S302), determines i from 1 to 360, and determines the condition of the following equation (S303, S305, S309). | F (i) −G j, k (i) | <100 The processing unit 11 counts up S when this condition is satisfied (S307). The processing unit 11 stores each S value in the memory 13 in association with the viewpoint number (S31
1), this is obtained for each element j, k (S31
3). The processing unit 11 orders the similarities according to the value of S obtained here. That is, if S is large, it means that the degree of matching is large.

【0038】こうして、処理部11は候補を選択し、選
択された上位候補について、視点番号、回転角を含めた
データをメモリ13に記憶する。この例では、処理部1
1は、7200通りから上位の20候補を選択する。こ
こでは、一例として、比較の閾値として100を用いた
が(これは、常に距離プロファイルの平均10000の
1%の値)、これに限られず適宜の値を決定することが
できる。こうして処理部11は、カメラ2の回転角を決
定する。
In this way, the processing unit 11 selects a candidate and stores the data including the viewpoint number and the rotation angle in the memory 13 for the selected upper candidate. In this example, the processing unit 1
1 selects the top 20 candidates from 7,200 ways. Here, as an example, 100 is used as the comparison threshold value (this is always 1% of the average 10000 of the distance profile), but the present invention is not limited to this, and an appropriate value can be determined. In this way, the processing unit 11 determines the rotation angle of the camera 2.

【0039】(S211)シルエットマッチング つぎに処理部11は、ステップS209で求めた上位の
仮想距離プロファイルの候補(ここでは、20個)につ
いて、シルエットのマッチング処理を行い、最終的に順
位付けを行う。図15に、シルエットマッチングのフロ
ーチャートを示す。まず、処理部11は、メモリ13か
ら仮想距離プロファイルの候補と回転角、実距離プロフ
ァイルを読み出し、仮想画像及び実画像の形状、即ち、
仮想シルエット及び実シルエットを作成する(S35
1)。カメラ2の位置の決定方法は、まず、仮想の距離
プロファイルを作成した仮想カメラ位置は既知であるた
め、この位置情報を用いる。しかし、仮想カメラと実カ
メラによる実際の撮影位置は必ずしも一致していいない
ため、処理部11は、仮想カメラの位置を実際の撮影位
置に近づける処理(正規処理)を行う(S353)。こ
こで必要となるのが、正規化されていない仮想カメライ
メージの仮想距離プロファイルの平均値と、実カメラに
よる入力画像の実距離プロファイルの平均値である。処
理部11は、仮想距離プロファイルの平均値を実距離プ
ロファイルの平均値に近づける(一致させる)処理を行
うことで、実際の物体と視点との距離を推定することが
できる。その処理部11は、処理に用いられるシルエッ
トの拡大又は縮小の倍率を以下のように計算する。 倍率=(入力画像の実距離プロファイルの平均値)/
(仮想イメージの仮想距離プロファイルの平均値)
(S211) Silhouette Matching Next, the processing section 11 performs silhouette matching processing on the candidates (here, 20) of the upper virtual distance profile obtained in step S209, and finally ranks them. . FIG. 15 shows a flowchart of silhouette matching. First, the processing unit 11 reads out the candidates for the virtual distance profile, the rotation angle, and the actual distance profile from the memory 13, and calculates the shapes of the virtual image and the actual image, that is,
Creating a virtual silhouette and a real silhouette (S35)
1). In the method of determining the position of the camera 2, first, the position of the virtual camera that has created the virtual distance profile is known, so this position information is used. However, since the actual shooting positions of the virtual camera and the real camera do not necessarily match, the processing unit 11 performs processing (normal processing) for bringing the position of the virtual camera closer to the actual shooting position (S353). What is needed here is the average value of the virtual distance profile of the unnormalized virtual camera image and the average value of the actual distance profile of the input image from the real camera. The processing unit 11 can estimate the distance between the actual object and the viewpoint by performing a process of bringing the average value of the virtual distance profile closer (matching) to the average value of the actual distance profile. The processing unit 11 calculates the scale-up or scale-down magnification of the silhouette used for the process as follows. Magnification = (average value of the actual distance profile of the input image) /
(Average value of virtual distance profile of virtual image)

【0040】次に、処理部11は、シルエットのz軸方
向の回転について、ステップS209で求めた回転角に
相当するシフト量だけz軸に対して回転処理を行う(S
355)。このとき、シルエットマッチングは、レンダ
リングされた仮想画像と入力された実画像とのXOR
(排他的論理和)をとり、一致しなかったピクセルを数
え、そのピクセル数が少ないシフト量を適当な値として
定める(S357)。
Next, the processing unit 11 performs a rotation process on the z axis by the shift amount corresponding to the rotation angle obtained in step S209 for the rotation of the silhouette in the z axis direction (S).
355). At this time, the silhouette matching is performed by XOR between the rendered virtual image and the input real image.
(Exclusive OR) is taken, the pixels that do not match are counted, and the shift amount with a small number of pixels is determined as an appropriate value (S357).

【0041】このようにして、例えば1つ(又は少数)
の候補としてカメラ位置、回転角が決定される。処理部
11は、決定した候補について、カメラ位置、回転角、
視点番号を含むデータをメモリ13に記憶する(S35
9)。 (S212)カメラパラメータのためのシルエットマッ
チング
In this way, for example, one (or a small number)
The camera position and the rotation angle are determined as candidates for the. The processing unit 11 determines the camera position, rotation angle, and
Data including the viewpoint number is stored in the memory 13 (S35).
9). (S212) Silhouette matching for camera parameters

【0042】仮想カメラは、物体と取り囲む320面体
の各面の中心に配置されたものなので、必ずしも実カメ
ラの位置が、その中心とは一致しない。そこで、つぎ
に、処理部11は、ステップS211で最も一致したも
のをカメラ位置及び回転角の候補としてカメラパラメー
タを詳細に定める。ここでは、6つの制御パラメータと
して、3つの移動量(ベクトル)T,T ,Tと3
つの回転角R,R,Rを定める。そのために、処
理部11は、一例として以下のように、ポリゴンの3次
元形状モデルデータをXYZ軸に対して移動/回転させ
ながら、シンプレックス法を用いて収束するまで繰り返
す。
A virtual camera is a 320-faced body that surrounds an object.
Since it is placed in the center of each side of the
The position of LA does not coincide with its center. So next
In addition, the processing unit 11 makes the best match in step S211.
Is used as a candidate for the camera position and rotation angle.
Data in detail. Here, 6 control parameters and
Then, the three movement amounts (vector) Tx, T y, TzAnd 3
Rotation angle Rx, Ry, RzDetermine. For that purpose,
The processing unit 11 uses, for example, the third-order polygon as follows.
Move / rotate the original shape model data with respect to the XYZ axes
However, it repeats until it converges using the simplex method.
You

【0043】図16に、カメラパラメータのためのシル
エットマッチングのフローチャートを示す。 (2−1)カメラの6つのパラメータである移動量・回
転量の初期値、初期ピクセル数dをセットする(S32
1)。 (2−2)移動、回転変位量u,uに従って視点を
移動する(S323)。 (2−3)レンダリングして、シルエット画像を得る
(S325)。 (2−4)XORをとり、一致しなかったピクセルの数
Dを数える(S327)。 (2−5)Dが前の値よりも小さい場合、そのときの変
位量を記録する(S329、S331)。 (2−6)Dがもっとも小さくなるまで、上記(2−
2)〜(2−5)を繰り返す(S333)。 (2−7)変位量u,uの値を半分にして、u
の値が十分小さくなるまで(2−2)に戻り、以上
の操作を繰り返す(S335、S337)。 (2−8)処理部11は以上のようにして、6つのカメ
ラパラメータを定め、詳細な撮影位置を推定し、それに
関する視点、カメラパラメータを含むデータをメモリ1
3に記憶する(S339)。
FIG. 16 shows a flowchart of silhouette matching for camera parameters. (2-1) The initial values of the movement amount and rotation amount, which are the six parameters of the camera, and the initial pixel number d are set (S32).
1). (2-2) moves, a rotational displacement amount u t, moves the viewpoint in accordance with u r (S323). (2-3) Rendering is performed to obtain a silhouette image (S325). (2-4) XOR is performed and the number D of pixels that do not match is counted (S327). (2-5) When D is smaller than the previous value, the displacement amount at that time is recorded (S329, S331). (2-6) Until (D) becomes the smallest, the above (2-
2) to (2-5) are repeated (S333). (2-7) The values of the displacement amounts u t and u r are halved to obtain u t ,
The value of u r returns to until sufficiently small (2-2), repeating the above operations (S335, S337). (2-8) As described above, the processing unit 11 determines the six camera parameters, estimates the detailed shooting position, and stores the data including the viewpoint and the camera parameter relating to the camera position in the memory 1.
3 is stored (S339).

【0044】(S215)テクスチャマッピング 次に、撮影した複数の2次元画像を、テクスチャとして
形状データにマッピングする方法について述べる。ま
ず、3次元から2次元への投影変換については、テクス
チャマッピングでは、処理部11は、形状データを構成
する三角形ポリゴンごとに行う。処理部11は、得られ
た画像とマッチングをとったあと、そのカメラパラメー
タを用いてまず各ポリゴンを既に述べた角度条件と隠れ
条件により改めて可視条件について判定する。処理部1
1は、可視ポリゴンの端点を撮影画像上にマップした領
域は三角ポリゴンとなり、これをテクスチャとして切り
出す。このマッピングは3次元座標から2次元座標への
投影変換を用いる(石井繁夫、「続C言語による3Dグ
ラフィックス入門」、技術評論社、1990参照)。切
りとられたテクスチャは投影逆変換により、3次元とし
てのポリゴン上にマップされる。処理部11は、メモリ
13の出力データファイルに3次元物体を表すポリゴン
データにテクスチャを貼り付けたデータを記憶する。
(S215) Texture Mapping Next, a method of mapping a plurality of photographed two-dimensional images as textures on shape data will be described. First, in the texture mapping, the processing unit 11 performs the projection conversion from three-dimensional to two-dimensional for each triangular polygon forming the shape data. After matching the obtained image, the processing unit 11 first determines the visibility condition of each polygon again by using the camera parameter, based on the angle condition and the hidden condition already described. Processing unit 1
In No. 1, the area in which the end points of the visible polygon are mapped on the captured image becomes a triangular polygon, and this is cut out as a texture. This mapping uses a projection transformation from three-dimensional coordinates to two-dimensional coordinates (see Shigeo Ishii, "Introduction to 3D graphics in C language", Technical Review Company, 1990). The cut texture is mapped onto a three-dimensional polygon by projection inverse transformation. The processing unit 11 stores, in the output data file of the memory 13, data in which texture is attached to polygon data representing a three-dimensional object.

【0045】このとき一つのポリゴンに2個のテクスチ
ャが与えられた場合(一つの表面が2視点から可視)が
あり、その場合処理部11は、次のブレンディング処理
を行う。図17に、ブレンディング処理の説明図を示
す。2ブレンディング処理では、ポリゴンPが2枚のテ
クスチャQ、Qに投影され、その投影面積がA
であった場合、それぞれのテクスチャの重みW
は以下の式により与える。
At this time, there are cases where two textures are given to one polygon (one surface is visible from two viewpoints), and in that case, the processing unit 11 performs the following blending processing. FIG. 17 shows an explanatory diagram of the blending process. In the 2 blending process, the polygon P is projected onto the two textures Q 1 and Q 2 , and the projected area is A 1 ,
If it is A 2 , the weight W 1 of each texture,
W 2 is given by the following formula.

【0046】[0046]

【数2】 [Equation 2]

【0047】ブレンディング処理はCG言語OpenG
LのglBlend−funcを用いて行われる。これ
らの重みがこの関数の混合比アルファ値となる。3個以
上ある場合は3個ブレンディングしてもよいし、ポリゴ
ン法線と視線の角度が小さい2個をとることも考えられ
る。
The blending process is the CG language OpenG.
L glblend-func. These weights become the mixture ratio alpha value of this function. If there are three or more, three may be blended, or two with a small angle between the polygon normal and the line of sight may be considered.

【0048】4.実例 以下に、本実施の形態を用いたテクスチャマッピング処
理の実例を示す。図18は、三次元形状データ(恐竜)
の説明図を示す。図(a)は、元のデータであり、図
(b)は、ポリゴン数を減らしたデータである。
4. Practical Example Below, a practical example of the texture mapping process using this embodiment will be shown. FIG. 18 shows three-dimensional shape data (dinosaur).
FIG. The figure (a) is original data, and the figure (b) is the data which reduced the number of polygons.

【0049】図19は、実例(恐竜)の撮影画像から作
成したシルエット画像の図である。このように、圧縮処
理を実行することにより、一層高速な処理を達成するこ
とができる。図20に、図19のシルエット画像から作
成した距離プロファイルの図を示す。図21に、図20
の距離プロファイルから作成したヒストグラムの図を示
す。ここでは10段階のヒストグラムとしている。
FIG. 19 is a diagram of a silhouette image created from a photographed image of an actual example (dinosaur). By executing the compression process in this manner, a higher speed process can be achieved. FIG. 20 shows a diagram of a distance profile created from the silhouette image of FIG. 21 and FIG.
The figure of the histogram created from the distance profile of is shown. Here, a 10-step histogram is used.

【0050】図22は、実例(恐竜)の他の撮影画像か
ら作成したシルエット画像の図である。図23に、図2
2のシルエット画像から作成した距離プロファイルの図
を示す。図24に、図23の距離プロファイルから作成
したヒストグラムの図を示す。
FIG. 22 is a diagram of a silhouette image created from another photographed image of an actual example (dinosaur). In FIG.
The figure of the distance profile created from two silhouette images is shown. FIG. 24 shows a histogram created from the distance profile of FIG.

【0051】図25に、テクスチャマッピング結果の図
を示す。図(a)は、1枚画像をテクスチャマッピング
したものであり、図(b)は2枚画像をテクスチャマッ
ピングしたもの、図(c)は、12枚画像をテクスチャ
マッピングしたものである。この実例では、前処理につ
いては60秒以下で実行された。10レベルヒストグラ
ムマッチングは、0.01秒以下、次の距離プロファイ
ルマッチングは、0.8秒以下であった。さらに、次の
シルエットマッチングは3秒程であり、最後のカメラパ
ラメータ計算は10〜15秒程であった。またテクスチ
ャー合成及び表示は1秒以下であり、テクスチャマッピ
ングの全処理が70秒程で実現できた。このように、通
常のパーソナルコンピュータを用いて高速処理・リアル
タイム処理が実現され、さらに高速のPCを用いて半分
以下に処理時間を短縮できる。
FIG. 25 shows a diagram of the texture mapping result. FIG. 10A is a texture-mapped image of one image, FIG. 9B is a texture-mapped image of two images, and FIG. 9C is a texture-mapped image of 12 images. In this example, the pretreatment was performed in less than 60 seconds. The 10-level histogram matching was 0.01 seconds or less, and the next distance profile matching was 0.8 seconds or less. Furthermore, the next silhouette matching was about 3 seconds, and the last camera parameter calculation was about 10 to 15 seconds. Further, the texture synthesis and display are less than 1 second, and the entire texture mapping processing can be realized in about 70 seconds. In this way, high-speed processing / real-time processing is realized by using an ordinary personal computer, and the processing time can be reduced to less than half by using a high-speed PC.

【0052】本発明のテクスチャマッピング方法又はテ
クスチャマッピング装置・システムは、その各手順をコ
ンピュータに実行させるためのテクスチャマッピング処
理プログラム、テクスチャマッピング処理プログラムを
記録したコンピュータ読み取り可能な記録媒体、テクス
チャマッピング処理プログラムを含みコンピュータの内
部メモリにロード可能なプログラム製品、そのプログラ
ムを含むサーバ等のコンピュータ、等により提供される
ことができる。
The texture mapping method or texture mapping device / system of the present invention is a texture mapping processing program for causing a computer to execute each procedure, a computer-readable recording medium recording the texture mapping processing program, and a texture mapping processing program. And a program product that can be loaded into the internal memory of a computer, a computer such as a server that includes the program, and the like.

【0053】以上のように、画像のマッピング処理に
は、従来の方法では高価なワークステーションでも30
分から1時間要した時間が、本発明によると、安価なパ
ソコンで、例えば、10分の一以上一枚あたり3分から
5分の所要時間を20秒以下に削減することができる。
As described above, in the image mapping process, even a workstation, which is expensive by the conventional method, can be used.
According to the present invention, the time required from one minute to one hour can be reduced to 20 seconds or less with an inexpensive personal computer, for example, one tenth or more and three to five minutes per sheet.

【0054】[0054]

【発明の効果】本発明は、以上のように、高速処理(例
えば、画像一枚あたり20秒程度以下)を行えるように
し、実用性を十分に確立したテクスチャマッピング方
法、テクスチャマッピング処理プログラム及びそのプロ
グラムを記録したコンピュータ読取り可能な記録媒体を
提供することができる。
As described above, the present invention is capable of performing high-speed processing (for example, about 20 seconds or less per image), and has sufficiently established practicality, a texture mapping method, a texture mapping processing program and the same. A computer-readable recording medium having a program recorded therein can be provided.

【0055】また、本発明によると、デジタルカメラで
実物を多方向から撮影して形状だけ与えられている物体
の輪郭に基づいて、その物体の表面に正確にテクスチャ
画像をマッピングすることができ、また、その為に、物
体とカメラの相互位置関係を正確且つ高速に求める多段
的探索法を提供することができる。
Further, according to the present invention, the texture image can be accurately mapped on the surface of the object based on the contour of the object given only the shape by photographing the real object with the digital camera from multiple directions, Further, therefore, it is possible to provide a multi-step search method for accurately and rapidly determining the mutual positional relationship between the object and the camera.

【図面の簡単な説明】[Brief description of drawings]

【図1】テクスチャマッピング装置の概要図。FIG. 1 is a schematic diagram of a texture mapping device.

【図2】テクスチャマッピング装置のブロック構成図。FIG. 2 is a block configuration diagram of a texture mapping device.

【図3】入出力データファイルの説明図。FIG. 3 is an explanatory diagram of an input / output data file.

【図4】距離プロファイル及び距離ヒストグラムデータ
ファイルの説明図。
FIG. 4 is an explanatory diagram of a distance profile and a distance histogram data file.

【図5】実光学系と仮想光学系の説明図。FIG. 5 is an explanatory diagram of a real optical system and a virtual optical system.

【図6】テクスチャマッピング方法のフローチャート。FIG. 6 is a flowchart of a texture mapping method.

【図7】物体の周囲に配置した320個の撮影点につい
ての説明図。
FIG. 7 is an explanatory diagram of 320 shooting points arranged around an object.

【図8】距離プロファイル及び距離ヒストグラム作成に
ついてのフローチャート。
FIG. 8 is a flowchart for creating a distance profile and a distance histogram.

【図9】単純な輪郭線をもつシルエットの例。FIG. 9 is an example of a silhouette having a simple contour line.

【図10】図9の輪郭線から作成した距離プロファイ
ル。
10 is a distance profile created from the contour line of FIG. 9. FIG.

【図11】図11は、複雑な輪郭線をもつシルエットの
例。
FIG. 11 is an example of a silhouette having a complicated contour line.

【図12】図11の輪郭線から作成した距離プロファイ
ル。
FIG. 12 is a distance profile created from the contour line of FIG.

【図13】距離プロファイルの正規化についての説明
図。
FIG. 13 is an explanatory diagram of normalization of a distance profile.

【図14】距離プロファイルマッチングのフローチャー
ト。
FIG. 14 is a flowchart of distance profile matching.

【図15】シルエットマッチングのフローチャート。FIG. 15 is a flowchart of silhouette matching.

【図16】カメラパラメータのためのシルエットマッチ
ングのフローチャート。
FIG. 16 is a flowchart of silhouette matching for camera parameters.

【図17】ブレンディング処理の説明図。FIG. 17 is an explanatory diagram of blending processing.

【図18】三次元形状データ(恐竜)の説明図。FIG. 18 is an explanatory diagram of three-dimensional shape data (dinosaur).

【図19】実例(恐竜)の撮影画像から作成したシルエ
ット画像の図。
FIG. 19 is a diagram of a silhouette image created from a captured image of an actual example (dinosaur).

【図20】図19のシルエット画像から作成した距離プ
ロファイルの図。
20 is a diagram of a distance profile created from the silhouette image of FIG.

【図21】図20の距離プロファイルから作成したヒス
トグラムの図。
21 is a diagram of a histogram created from the distance profile of FIG.

【図22】実例(恐竜)の他の撮影画像から作成したシ
ルエット画像の図。
FIG. 22 is a diagram of a silhouette image created from another captured image of the actual example (dinosaur).

【図23】図22のシルエット画像から作成した距離プ
ロファイルの図。
23 is a diagram of a distance profile created from the silhouette image of FIG. 22.

【図24】図23の距離プロファイルから作成したヒス
トグラムの図。
FIG. 24 is a diagram of a histogram created from the distance profile of FIG. 23.

【図25】テクスチャマッピング結果の図。FIG. 25 is a diagram of a texture mapping result.

【符号の説明】[Explanation of symbols]

1 パソコン 2 カメラ 11 処理部 12 I/F 13 メモリ 14 入力部 15 出力部 1 PC 2 camera 11 Processing unit 12 I / F 13 memory 14 Input section 15 Output section

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 15/00 300 G06T 15/00 300 // G01B 11/24 G01B 11/24 K Fターム(参考) 2F065 AA01 AA07 AA12 AA39 AA53 BB05 DD06 FF04 FF61 JJ03 JJ26 QQ24 QQ25 QQ31 QQ39 QQ42 QQ43 RR09 5B050 AA09 BA08 BA09 BA13 BA18 DA02 DA07 DA10 EA07 EA08 EA12 EA28 FA02 5B057 AA20 CA13 CB12 CB13 CC04 CD02 CD03 CD14 DA07 DA16 DB03 DC06 DC08 DC16 DC19 DC32 5B080 BA05 GA22 5L096 AA09 BA20 CA02 DA01 EA13 FA06 FA35 FA66 FA67 FA69Front page continuation (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 15/00 300 G06T 15/00 300 // G01B 11/24 G01B 11/24 K F term (reference) 2F065 AA01 AA07 AA12 AA39 AA53 BB05 DD06 FF04 FF61 JJ03 JJ26 QQ24 QQ25 QQ31 QQ39 QQ42 QQ43 RR09 5B050 AA09 BA08 BA09 BA13 BA18 DA02 DA07 DA10 EA07 EA08 EA12 EA28 DC52 DC16 CD16 DB16 CD16 DB13 CD16 CD14 CD13 CD14 CD14 CD13 CD14 CD14 CD14 CD13 CD14 AA09 BA20 CA02 DA01 EA13 FA06 FA35 FA66 FA67 FA69

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】処理部は、3次元物体を表す3次元形状モ
デルデータに基づいて、3次元物体を包み込む多面体の
各面の中心視点から該3次元物体を撮影した際の視点毎
の2次元仮想画像データを取得するステップと、 処理部は、取得された各々の視点毎の仮想画像データか
ら、画像の中心又は重心を基準として所定角度ごとのエ
ッジまでの距離を表す仮想距離プロファイルを作成する
ステップと、 処理部は、作成された各々の視点毎の仮想距離プロファ
イルに基づき、仮想画像データについての所定段階の仮
想距離ヒストグラムを作成するステップと、 処理部は、実カメラにより3次元形状モデルデータに対
応した実物体を撮影した実画像を入力するステップと、 処理部は、得られた実画像からから、画像の中心又は重
心を基準として所定角度ごとのエッジまでの距離を表す
実距離プロファイルを作成するステップと、 処理部は、作成された実距離プロファイルに基づき、実
画像データについての所定段階の実距離ヒストグラムを
作成するステップと、 処理部は、各々の視点毎の仮想距離ヒストグラムと実距
離ヒストグラムとを比較して、一致程度の高い所定数の
仮想距離ヒストグラム候補を抽出し、その候補に関する
カメラ位置を含むデータをメモリに記憶する距離ヒスト
グラムマッチングステップと、 処理部は、抽出された仮想距離ヒストグラムに対応する
仮想距離プロファイルをメモリから読出し、該仮想距離
プロファイルと実距離プロファイルとを比較して、マッ
チングする仮想距離プロファイル候補を抽出し、その候
補に関するカメラ回転角を含むデータをメモリに記憶す
る距離プロファイルマッチングステップと、 処理部は、抽出された候補をメモリから読出し、仮想画
像及び実画像の形状を表わす仮想シルエット画像及び実
シルエット画像に基づき、一致する候補を選択すること
で、実カメラの位置及び回転角を決定するシルエット画
像マッチングステップとを含むテクスチャマッピング方
法。
1. A processing unit, based on three-dimensional shape model data representing a three-dimensional object, two-dimensional for each viewpoint when the three-dimensional object is photographed from a central viewpoint of each surface of a polyhedron enclosing the three-dimensional object. The step of acquiring virtual image data, and the processing unit creates a virtual distance profile representing the distance from the acquired virtual image data for each viewpoint to the edge for each predetermined angle with the center or center of gravity of the image as a reference. Step, the processing unit creates a virtual distance histogram at a predetermined stage for the virtual image data based on the created virtual distance profile for each viewpoint, and the processing unit uses the real camera to generate the three-dimensional shape model data. The step of inputting a real image obtained by shooting a real object corresponding to, the processing unit determines, from the obtained real image, the center or the center of gravity of the image as a reference. A step of creating a real distance profile that represents the distance to the edge for each angle; a processing unit that creates a real distance histogram at a predetermined stage for the real image data based on the created real distance profile; Compares a virtual distance histogram for each viewpoint with an actual distance histogram, extracts a predetermined number of highly matched virtual distance histogram candidates, and stores the data including the camera position related to the candidates in a distance histogram. The matching step and the processing unit read a virtual distance profile corresponding to the extracted virtual distance histogram from the memory, compare the virtual distance profile with the actual distance profile, and extract a matching virtual distance profile candidate. Data including the camera rotation angle for the candidate is stored in memory The distance profile matching step of remembering, the processing unit reads the extracted candidates from the memory, and selects a matching candidate based on the virtual silhouette image and the actual silhouette image that represent the shapes of the virtual image and the actual image. A silhouette image matching step for determining a position and a rotation angle of a camera.
【請求項2】前記距離プロファイルマッチングステップ
は、 処理部は、それぞれの各視点毎の仮想距離プロファイル
を所定角度ごとにシフトした複数の仮想距離プロファイ
ルを作成するステップと、 処理部は、複数の仮想距離プロファイルと実距離プロフ
ァイルとの各要素を比較してマッチングを行い、所定数
の候補を抽出するステップとを含むことを特徴とする請
求項1に記載のテクスチャマッピング方法。
2. The distance profile matching step, wherein the processing unit creates a plurality of virtual distance profiles obtained by shifting the virtual distance profile for each viewpoint by a predetermined angle, and the processing unit includes a plurality of virtual distance profiles. The texture mapping method according to claim 1, further comprising the step of comparing elements of the distance profile and the actual distance profile to perform matching to extract a predetermined number of candidates.
【請求項3】前記シルエット画像マッチングステップ
は、 処理部は、仮想距離プロファイル及び実距離プロファイ
ルから仮想画像及び実画像の形状を表す仮想シルエット
画像及び実シルエット画像を作成するステップと、 処理部は、仮想距離プロファイルの平均値と実距離プロ
フィルの平均値との比により、仮想シルエット画像又は
実シルエット画像に倍率を掛け正規化するステップと、 処理部は、仮想シルエット画像又は実シルエット画像に
対し、前記距離プロファイルマッチングステップで得ら
れたカメラ回転角に相当するシフト量で回転処理を行う
ステップと、 処理部は、仮想シルエット画像と実シルエット画像の一
致する程度の高い候補を選択し、そのときのカメラ位置
及び回転角を決定するステップとを含む請求項1又は2
に記載のテクスチャマッピング方法。
3. The silhouette image matching step, the processing unit creates a virtual silhouette image and a real silhouette image representing the shapes of the virtual image and the real image from the virtual distance profile and the real distance profile; and the processing unit, The step of normalizing by multiplying the virtual silhouette image or the real silhouette image by a ratio according to the ratio of the average value of the virtual distance profile and the average value of the real distance profile; The step of performing rotation processing with a shift amount corresponding to the camera rotation angle obtained in the distance profile matching step, and the processing unit selects a candidate having a high degree of matching between the virtual silhouette image and the real silhouette image, and the camera at that time is selected. Determining the position and the angle of rotation.
The texture mapping method described in.
【請求項4】前記シルエット画像マッチングステップ
は、 処理部は、カメラの移動変位量及び回転変位量に従って
カメラ位置に対応する視点を該当する多面体内で移動す
るステップと、 処理部は、移動された位置における仮想及び実シルエッ
ト画像を比較して一致する程度が高い移動量及び変位量
を求めることでカメラパラメータを決定し、メモリにそ
れを記憶するステップをさらに含む請求項1乃至3のい
ずれかに記載のテクスチャマッピング方法。
4. The silhouette image matching step, the processing section moving the viewpoint corresponding to the camera position in the corresponding polyhedron according to the moving displacement amount and the rotational displacement amount of the camera, and the processing unit is moved. 4. The method according to claim 1, further comprising a step of determining a camera parameter by comparing a virtual image and a real silhouette image at a position to obtain a moving amount and a displacement amount having a high degree of coincidence and storing the camera parameter in a memory. The described texture mapping method.
【請求項5】処理部は、カメラ位置及び回転角をメモリ
から読出し、撮影した実画像をテクスチャとして3次元
形状モデルデータにマッピングするマッピングステップ
をさらに含むことを特徴とする1乃至4のいずれかに記
載のテクスチャマッピング方法。
5. The processing unit further comprises a mapping step of reading the camera position and the rotation angle from the memory and mapping the photographed real image as texture on the three-dimensional shape model data. The texture mapping method described in.
【請求項6】処理部は、作成した仮想距離プロファイル
を、仮想距離プロファイルの平均値が所定値になるよう
に正規化するステップをさらに含む請求項1乃至5のい
ずれかに記載のテクスチャマッピング方法。
6. The texture mapping method according to claim 1, further comprising a step of normalizing the created virtual distance profile so that an average value of the virtual distance profile becomes a predetermined value. .
【請求項7】処理部は、距離ヒストグラムを作成する
際、所定以上の距離データについては最上位段階の要素
に含める又はその距離データを廃棄することを特徴とす
る請求項1乃至6のいずれかに記載のテクスチャマッピ
ング方法。
7. The processing unit, when creating the distance histogram, includes the distance data of a predetermined level or more in the element at the highest stage or discards the distance data. The texture mapping method described in.
【請求項8】処理部は、3次元物体を表す3次元形状モ
デルデータに基づいて、3次元物体を包み込む多面体の
各面の中心視点から該3次元物体を撮影した際の視点毎
の2次元仮想画像データを取得するステップと、 処理部は、取得された各々の視点毎の仮想画像データか
ら、画像の中心又は重心を基準として所定角度ごとのエ
ッジまでの距離を表す仮想距離プロファイルを作成する
ステップと、 処理部は、作成された各々の視点毎の仮想距離プロファ
イルに基づき、仮想画像データについての所定段階の仮
想距離ヒストグラムを作成するステップと、 処理部は、実カメラにより3次元形状モデルデータに対
応した実物体を撮影した実画像を入力するステップと、 処理部は、得られた実画像からから、画像の中心又は重
心を基準として所定角度ごとのエッジまでの距離を表す
実距離プロファイルを作成するステップと、 処理部は、作成された実距離プロファイルに基づき、実
画像データについての所定段階の実距離ヒストグラムを
作成するステップと、 処理部は、各々の視点毎の仮想距離ヒストグラムと実距
離ヒストグラムとを比較して、一致程度の高い所定数の
仮想距離ヒストグラム候補を抽出し、その候補に関する
カメラ位置を含むデータをメモリに記憶する距離ヒスト
グラムマッチングステップと、 処理部は、抽出された仮想距離ヒストグラムに対応する
仮想距離プロファイルをメモリから読出し、該仮想距離
プロファイルと実距離プロファイルとを比較して、マッ
チングする仮想距離プロファイル候補を抽出し、その候
補に関するカメラ回転角を含むデータをメモリに記憶す
る距離プロファイルマッチングステップと、 処理部は、抽出された候補をメモリから読出し、仮想画
像及び実画像の形状を表わす仮想シルエット画像及び実
シルエット画像に基づき、一致する候補を選択すること
で、実カメラの位置及び回転角を決定するシルエット画
像マッチングステップとをコンピュータに実行させるた
めのテクスチャマッピング処理プログラム。
8. A processing unit, based on three-dimensional shape model data representing a three-dimensional object, two-dimensional for each viewpoint when the three-dimensional object is photographed from the central viewpoint of each surface of a polyhedron enclosing the three-dimensional object. The step of acquiring virtual image data, and the processing unit creates a virtual distance profile representing the distance from the acquired virtual image data for each viewpoint to the edge for each predetermined angle with the center or center of gravity of the image as a reference. Step, the processing unit creates a virtual distance histogram at a predetermined stage for the virtual image data based on the created virtual distance profile for each viewpoint, and the processing unit uses the real camera to generate the three-dimensional shape model data. The step of inputting a real image obtained by shooting a real object corresponding to, the processing unit determines, from the obtained real image, the center or the center of gravity of the image as a reference. A step of creating a real distance profile that represents the distance to the edge for each angle; a processing unit that creates a real distance histogram at a predetermined stage for the real image data based on the created real distance profile; Compares a virtual distance histogram for each viewpoint with an actual distance histogram, extracts a predetermined number of highly matched virtual distance histogram candidates, and stores the data including the camera position related to the candidates in a distance histogram. The matching step and the processing unit read a virtual distance profile corresponding to the extracted virtual distance histogram from the memory, compare the virtual distance profile with the actual distance profile, and extract a matching virtual distance profile candidate. Data including the camera rotation angle for the candidate is stored in memory The distance profile matching step of remembering, the processing unit reads the extracted candidates from the memory, and selects a matching candidate based on the virtual silhouette image and the actual silhouette image that represent the shapes of the virtual image and the actual image. A texture mapping processing program for causing a computer to execute a silhouette image matching step of determining a position and a rotation angle of a camera.
【請求項9】処理部は、3次元物体を表す3次元形状モ
デルデータに基づいて、3次元物体を包み込む多面体の
各面の中心視点から該3次元物体を撮影した際の視点毎
の2次元仮想画像データを取得するステップと、 処理部は、取得された各々の視点毎の仮想画像データか
ら、画像の中心又は重心を基準として所定角度ごとのエ
ッジまでの距離を表す仮想距離プロファイルを作成する
ステップと、 処理部は、作成された各々の視点毎の仮想距離プロファ
イルに基づき、仮想画像データについての所定段階の仮
想距離ヒストグラムを作成するステップと、 処理部は、実カメラにより3次元形状モデルデータに対
応した実物体を撮影した実画像を入力するステップと、 処理部は、得られた実画像からから、画像の中心又は重
心を基準として所定角度ごとのエッジまでの距離を表す
実距離プロファイルを作成するステップと、 処理部は、作成された実距離プロファイルに基づき、実
画像データについての所定段階の実距離ヒストグラムを
作成するステップと、 処理部は、各々の視点毎の仮想距離ヒストグラムと実距
離ヒストグラムとを比較して、一致程度の高い所定数の
仮想距離ヒストグラム候補を抽出し、その候補に関する
カメラ位置を含むデータをメモリに記憶する距離ヒスト
グラムマッチングステップと、 処理部は、抽出された仮想距離ヒストグラムに対応する
仮想距離プロファイルをメモリから読出し、該仮想距離
プロファイルと実距離プロファイルとを比較して、マッ
チングする仮想距離プロファイル候補を抽出し、その候
補に関するカメラ回転角を含むデータをメモリに記憶す
る距離プロファイルマッチングステップと、 処理部は、抽出された候補をメモリから読出し、仮想画
像及び実画像の形状を表わす仮想シルエット画像及び実
シルエット画像に基づき、一致する候補を選択すること
で、実カメラの位置及び回転角を決定するシルエット画
像マッチングステップとをコンピュータに実行させるた
めのテクスチャマッピング処理プログラムを記録したコ
ンピュータ読み取り可能な記録媒体。
9. A processing unit, based on three-dimensional shape model data representing a three-dimensional object, two-dimensional for each viewpoint when the three-dimensional object is photographed from the central viewpoint of each surface of a polyhedron enclosing the three-dimensional object. The step of acquiring virtual image data, and the processing unit creates a virtual distance profile representing the distance from the acquired virtual image data for each viewpoint to the edge for each predetermined angle with the center or center of gravity of the image as a reference. Step, the processing unit creates a virtual distance histogram at a predetermined stage for the virtual image data based on the created virtual distance profile for each viewpoint, and the processing unit uses the real camera to generate the three-dimensional shape model data. The step of inputting a real image obtained by shooting a real object corresponding to, the processing unit determines, from the obtained real image, the center or the center of gravity of the image as a reference. A step of creating a real distance profile that represents the distance to the edge for each angle; a processing unit that creates a real distance histogram at a predetermined stage for the real image data based on the created real distance profile; Compares a virtual distance histogram for each viewpoint with an actual distance histogram, extracts a predetermined number of highly matched virtual distance histogram candidates, and stores the data including the camera position related to the candidates in a distance histogram. The matching step and the processing unit read a virtual distance profile corresponding to the extracted virtual distance histogram from the memory, compare the virtual distance profile with the actual distance profile, and extract a matching virtual distance profile candidate. Data including the camera rotation angle for the candidate is stored in memory The distance profile matching step of remembering, the processing unit reads the extracted candidates from the memory, and selects a matching candidate based on the virtual silhouette image and the actual silhouette image that represent the shapes of the virtual image and the actual image. A computer-readable recording medium recording a texture mapping processing program for causing a computer to execute a silhouette image matching step of determining a position and a rotation angle of a camera.
JP2001254250A 2001-08-24 2001-08-24 Texture mapping method, texture mapping processing program, and computer-readable recording medium recording the program Expired - Fee Related JP3910811B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001254250A JP3910811B2 (en) 2001-08-24 2001-08-24 Texture mapping method, texture mapping processing program, and computer-readable recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001254250A JP3910811B2 (en) 2001-08-24 2001-08-24 Texture mapping method, texture mapping processing program, and computer-readable recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2003067775A true JP2003067775A (en) 2003-03-07
JP3910811B2 JP3910811B2 (en) 2007-04-25

Family

ID=19082437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001254250A Expired - Fee Related JP3910811B2 (en) 2001-08-24 2001-08-24 Texture mapping method, texture mapping processing program, and computer-readable recording medium recording the program

Country Status (1)

Country Link
JP (1) JP3910811B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005317000A (en) * 2004-04-30 2005-11-10 Mitsubishi Electric Research Laboratories Inc Method for determining set of optimal viewpoint to construct 3d shape of face from 2d image acquired from set of optimal viewpoint
JP2007064836A (en) * 2005-08-31 2007-03-15 Kyushu Institute Of Technology Algorithm for automating camera calibration
JP2012183100A (en) * 2011-03-03 2012-09-27 Konami Digital Entertainment Co Ltd Game device, control method of game device, and program
CN109949386A (en) * 2019-03-07 2019-06-28 北京旷视科技有限公司 A kind of Method for Texture Image Synthesis and device
CN115147508A (en) * 2022-06-30 2022-10-04 北京百度网讯科技有限公司 Method and device for training clothing generation model and method and device for generating clothing image

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005317000A (en) * 2004-04-30 2005-11-10 Mitsubishi Electric Research Laboratories Inc Method for determining set of optimal viewpoint to construct 3d shape of face from 2d image acquired from set of optimal viewpoint
JP2007064836A (en) * 2005-08-31 2007-03-15 Kyushu Institute Of Technology Algorithm for automating camera calibration
JP2012183100A (en) * 2011-03-03 2012-09-27 Konami Digital Entertainment Co Ltd Game device, control method of game device, and program
CN109949386A (en) * 2019-03-07 2019-06-28 北京旷视科技有限公司 A kind of Method for Texture Image Synthesis and device
CN115147508A (en) * 2022-06-30 2022-10-04 北京百度网讯科技有限公司 Method and device for training clothing generation model and method and device for generating clothing image
CN115147508B (en) * 2022-06-30 2023-09-22 北京百度网讯科技有限公司 Training of clothing generation model and method and device for generating clothing image

Also Published As

Publication number Publication date
JP3910811B2 (en) 2007-04-25

Similar Documents

Publication Publication Date Title
CN109859296B (en) Training method of SMPL parameter prediction model, server and storage medium
CN108509848B (en) The real-time detection method and system of three-dimension object
Bernardini et al. The 3D model acquisition pipeline
Furukawa et al. Appearance Based Object Modeling using Texture Database: Acquisition Compression and Rendering.
Pollefeys et al. From images to 3D models
KR101007276B1 (en) Three dimensional face recognition
US7046840B2 (en) 3-D reconstruction engine
US9972120B2 (en) Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces
CN111316293A (en) Method for object recognition
EP3742113A1 (en) Systems and methods for marking images for three-dimensional image generation
EP1097434A1 (en) Method and system for generating fully-textured 3-d models
JP2001067463A (en) Device and method for generating facial picture from new viewpoint based on plural facial pictures different in viewpoint, its application device and recording medium
JP2002288687A (en) Device and method for calculating feature amount
Boulanger et al. ATIP: A Tool for 3D Navigation inside a Single Image with Automatic Camera Calibration.
JP2010211732A (en) Object recognition device and method
Yin et al. Virtual reconstruction method of regional 3D image based on visual transmission effect
CN111460937B (en) Facial feature point positioning method and device, terminal equipment and storage medium
JP3910811B2 (en) Texture mapping method, texture mapping processing program, and computer-readable recording medium recording the program
CN115031635A (en) Measuring method and device, electronic device and storage medium
US6792131B2 (en) System and method for performing sparse transformed template matching using 3D rasterization
Doan et al. A low-cost digital 3d insect scanner
JP2017122993A (en) Image processor, image processing method and program
KR20150002157A (en) Content-based 3d model retrieval method using a single depth image, 3d model retrieval server for performing the methods and computer readable recording medium thereof
CN108921908B (en) Surface light field acquisition method and device and electronic equipment
Kolhatkar et al. Real-time virtual viewpoint generation on the GPU for scene navigation

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061017

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070125

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees