JP2005063041A - Three-dimensional modeling apparatus, method, and program - Google Patents

Three-dimensional modeling apparatus, method, and program Download PDF

Info

Publication number
JP2005063041A
JP2005063041A JP2003290412A JP2003290412A JP2005063041A JP 2005063041 A JP2005063041 A JP 2005063041A JP 2003290412 A JP2003290412 A JP 2003290412A JP 2003290412 A JP2003290412 A JP 2003290412A JP 2005063041 A JP2005063041 A JP 2005063041A
Authority
JP
Japan
Prior art keywords
image
texture
input device
image input
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003290412A
Other languages
Japanese (ja)
Inventor
Hiroshi Matsuzaki
弘 松崎
Yuichiro Akatsuka
祐一郎 赤塚
Takao Shibazaki
隆男 柴▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2003290412A priority Critical patent/JP2005063041A/en
Publication of JP2005063041A publication Critical patent/JP2005063041A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus for mapping textures to each polygon constituting a three-dimensional model by acquiring a camera position and attitude information from a video. <P>SOLUTION: A camera position/attitude information arithmetic part 14 calculates the position and attribute of an image input apparatus 4 which has performed photographing from the continuous viewpoint moving images of a target object inputted from an image input part 12, and an image and corresponding position/attitude information associating part 15 correlates the calculated position/attitude information with each of corresponding images. Then, a rendering information arithmetic part 16 based on the position/attribute of the model reads the three-dimensional shape model of the object registered in a database 11, and the three-dimensional model based on the calculated position/attitude information of an image inputting device 4 is rendered and displayed on a display device 2. A texture projection information arithmetic part 17 maps or projects the photographed texture image on the displayed three-dimensional model. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、対象オブジェクトの3次元形状モデルに対して、対象オブジェクトを撮影した動画像または連続する画像列に基づいて得られるカメラの位置・姿勢情報に基づいて、テクスチャを最適にマッピングすることにより、高画質な任意視点3次元モデルを生成する3次元モデリング装置及び方法、ならびに、コンピュータにそのような3次元モデリング装置の機能を実現させるためのプログラムに関する。   According to the present invention, a texture is optimally mapped to a three-dimensional shape model of a target object on the basis of position / posture information of a camera obtained based on a moving image obtained by capturing the target object or a continuous image sequence. The present invention relates to a three-dimensional modeling apparatus and method for generating a high-quality arbitrary viewpoint three-dimensional model, and a program for causing a computer to realize the function of such a three-dimensional modeling apparatus.

近年、バーチャルリアリティの分野、インターネット上、さらには地図情報分野等、様々な場面で3次元モデルデータが有効に利用されるようになってきている。3次元モデルデータを作成するためには、3次元形状を計測するために、3次元レーザスキャナのような専用の計測装置が必要であるが、このような装置では、3次元オブジェクトの高精細なテクスチャ情報を簡易に生成することができない。そのため、形状計測手段とは別な手段によりテクスチャを撮影し、3次元形状モデルの各ポリゴンに対して、対応するテクスチャ領域を手作業により領域分割を行い、更に、撮影時の視点方向によるテクスチャの歪みを補正した上で各ポリゴンに対してテクスチャマッピングを行うという方法がとられていた。   In recent years, 3D model data has been effectively used in various scenes such as the field of virtual reality, the Internet, and the field of map information. In order to create three-dimensional model data, a dedicated measuring device such as a three-dimensional laser scanner is required to measure a three-dimensional shape. In such a device, a high-definition of a three-dimensional object is required. Texture information cannot be generated easily. Therefore, the texture is photographed by means other than the shape measuring means, the corresponding texture area is manually divided for each polygon of the three-dimensional shape model, and further, the texture according to the viewpoint direction at the time of photographing is further divided. A method of performing texture mapping on each polygon after correcting the distortion was used.

また、上記手法を簡略化する方法として、特許文献1には、表示対象物体の概略形状モデルと、表示対象物体を撮影方向の情報を有する異なる方向から撮影した複数の画像とを利用して、レンダリングを行おうとする視点方向と撮影方向とが最も近い撮影画像を複数の撮影画像の中から選択し、その撮影画像を、撮影位置を視点として投影を行い、投影された概略形状を、レンダリングを行おうとする視点方向からスクリーン上に透視投影して表示する方法が開示されている。   In addition, as a method for simplifying the above method, Patent Document 1 uses a schematic shape model of a display target object and a plurality of images obtained by shooting the display target object from different directions having information on the shooting direction. Select the captured image that has the closest viewpoint direction to the rendering direction and the shooting direction from the multiple captured images, project the captured image from the shooting position as the viewpoint, and render the projected approximate shape. A method of performing perspective projection on a screen from the viewpoint direction to be performed is disclosed.

あるいは、特許文献2では、複数の異なる視点からの撮影画像からパッチ面毎に最も解像度の高い画像を選択してそれぞれを各パッチ面に適用するテクスチャ画像としてテクスチャマッピングを行う手法を用いている。さらに、各テクスチャ画像の光源条件の不一致による画像間、すなわちパッチ面の間の濃淡値の差の補正処理を実行する処理も行っている。この補正処理として、各フレーム間の画像濃淡値補正処理、各パッチ間のテクスチャ画像のずれ補正処理、各パッチ間の境界部分の濃淡スムージング補正処理を適用することにより、高画質なテクスチャマッピングを可能として品質の高い3次元画像の生成を可能としている。   Alternatively, Patent Document 2 uses a technique in which an image with the highest resolution is selected for each patch surface from a plurality of captured images from different viewpoints, and texture mapping is performed as a texture image applied to each patch surface. Furthermore, a process of executing a correction process for the difference in gray value between the images due to the mismatch of the light source conditions of each texture image, that is, between the patch surfaces is also performed. By applying image tone value correction processing between frames, texture image shift correction processing between patches, and tone smoothing correction processing at the boundary between patches as this correction processing, high-quality texture mapping is possible. As a result, it is possible to generate a high-quality three-dimensional image.

また、非特許文献1に示されるように、形状モデルを有する3次元オブジェクトに対して対象オブジェクトを動画像として撮影し、そのカメラ位置・姿勢情報より3次元オブジェクトのレンダリング、及び対応するテクスチャの投影を行うことにより、テクスチャ付き3次元オブジェクトのレンダリングを行う手法も提案されている。
特開2001−243497号公報 特開2002−24850号公報 IEEE Virtual Reality 2003 (March 22-26, 2003 LosAngeles California), P.61 "Augmented Virtual Environment (AVE): Dynamic Fusion of Imagery and 3D Models"
Further, as shown in Non-Patent Document 1, a target object is photographed as a moving image with respect to a three-dimensional object having a shape model, and the rendering of the three-dimensional object and the projection of the corresponding texture are performed based on the camera position / posture information. A technique for rendering a textured three-dimensional object by performing is also proposed.
JP 2001-243497 A JP 2002-24850 A IEEE Virtual Reality 2003 (March 22-26, 2003 LosAngeles California), P.61 "Augmented Virtual Environment (AVE): Dynamic Fusion of Imagery and 3D Models"

しかしながら、上記特許文献1の手法では、撮影の方向を予め何らかの手段で取得する必要があり、そのための装置を他に有している必要があり、撮影時の煩雑さをさけることはできない。また、各撮影方向は、一定の間隔を持っているため、マッピングを行うのに適切な方向が複数選択されてしまうことがあり、そのような場合にはどちらがより適切であるかを判断する手段を有していない。さらに、最適テクスチャを選択する判断基準が方向のみであるため、対象オブジェクトとの距離に関する考慮がなされておらず、撮影位置が離れていてテクスチャが不鮮明な画像を選択してしまう可能性を持つという課題もある。   However, in the method of Patent Document 1, it is necessary to acquire the direction of shooting by some means in advance, and it is necessary to have another apparatus for that purpose, and the complexity of shooting cannot be avoided. In addition, since each shooting direction has a certain interval, a plurality of appropriate directions for mapping may be selected. In such a case, a means for determining which is more appropriate Does not have. Furthermore, since only the direction is the criterion for selecting the optimum texture, no consideration is given to the distance to the target object, and there is a possibility of selecting an image with a blurred texture and a blurred texture. There are also challenges.

このことは、上記特許文献2の手法に関しても同様に言える課題となる。   This is also a problem that can be said with respect to the method of Patent Document 2.

さらに、上記非特許文献1の例においては、投影されるテクスチャが、位置・姿勢に基づいているため、視線方向が変化するに従い、投影される位置が変化し、テクスチャのマッピングされる位置がずれていくため、オブジェクト全周のレンダリングが行えないという課題を有する。   Further, in the example of Non-Patent Document 1, since the projected texture is based on the position / posture, the projected position changes as the line-of-sight direction changes, and the texture mapping position shifts. Therefore, there is a problem that the entire circumference of the object cannot be rendered.

本発明は、上記の点に鑑みてなされたもので、カメラ位置・姿勢情報を、映像以外の別な計測装置を用いた手段を用いる必要のない簡易な手段で取得し、3次元モデルを構成する各ポリゴンに対してテクスチャをマッピングする3次元モデリング装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above points, and obtains camera position / posture information by a simple means that does not require the use of a means using another measuring device other than a video, and constitutes a three-dimensional model. It is an object of the present invention to provide a three-dimensional modeling apparatus, method, and program for mapping a texture to each polygon.

上記の目的を達成するために、請求項1に記載の発明による3次元モデリング装置は、
3次元形状モデルに対してテクスチャマッピングを行い、任意視点でのレンダリングが行えるように3次元モデリングを行う3次元モデリング装置において、
対象オブジェクトの形状情報を入力する形状情報入力手段と、
対象オブジェクトを画像入力装置の移動により撮影して得られた動画像または時系列的に連続的な画像列を入力する画像入力手段と、
上記画像入力手段によって入力された動画像または画像列に基づいて上記画像入力装置の位置・姿勢情報を算出する位置・姿勢情報算出手段と、
上記位置・姿勢情報算出手段によって算出された上記画像入力装置の位置・姿勢情報を、上記画像入力手段によって入力された動画像を構成する画像列または上記画像入力手段によって入力された時系列的に連続的な画像列に含まれる各テクスチャ画像に対して関連付けを行う関連付け手段と、
上記形状情報入力手段によって入力された対象オブジェクトの形状情報から、上記位置・姿勢情報算出手段によって算出された上記画像入力装置の位置・姿勢情報に従って上記画像入力装置の各位置・姿勢に対応する3次元モデルをレンダリングするレンダリング手段と、
上記レンダリング手段によってレンダリングされた3次元モデル上に、上記画像入力装置の各位置・姿勢に対応する、上記関連付け手段で関連付けされた各テクスチャ画像を投影して表示する投影表示手段と、
を具備することを特徴とする。
In order to achieve the above object, a three-dimensional modeling apparatus according to the invention described in claim 1 comprises:
In a 3D modeling device that performs texture mapping on a 3D shape model and performs 3D modeling so that rendering can be performed from an arbitrary viewpoint,
Shape information input means for inputting shape information of the target object;
An image input means for inputting a moving image obtained by photographing the target object by moving the image input device or a continuous image sequence in time series;
Position / attitude information calculating means for calculating position / attitude information of the image input device based on a moving image or an image sequence input by the image input means;
The position / orientation information of the image input device calculated by the position / orientation information calculating means is the time series input by the image sequence constituting the moving image input by the image input means or the image input means. Association means for associating each texture image included in the continuous image sequence;
3 corresponding to each position / posture of the image input device according to the position / posture information of the image input device calculated by the position / posture information calculation unit from the shape information of the target object input by the shape information input unit. A rendering means for rendering a dimensional model;
Projection display means for projecting and displaying each texture image associated by the association means corresponding to each position / posture of the image input device on the three-dimensional model rendered by the rendering means;
It is characterized by comprising.

また、請求項2に記載の発明による3次元モデリング装置は、請求項1に記載の発明による3次元モデリング装置において、
上記位置・姿勢情報算出手段は、上記画像入力手段によって入力された動画像または画像列における画像内の特徴点、特徴的な線分、特徴的な形状の少なくとも一つを抽出し、それら抽出した特徴的な点、線分、形状を追跡し、三角測量の原理に基づいて、上記画像入力装置の位置・姿勢情報を算出することを特徴とする。
A three-dimensional modeling apparatus according to the invention of claim 2 is the three-dimensional modeling apparatus according to the invention of claim 1,
The position / posture information calculation means extracts at least one of feature points, characteristic line segments, and characteristic shapes in an image in the moving image or image sequence input by the image input means, and extracts these Characteristic points, line segments, and shapes are tracked, and position / posture information of the image input device is calculated based on the principle of triangulation.

また、請求項3に記載の発明による3次元モデリング装置は、請求項1または2に記載の発明による3次元モデリング装置において、
時間変化と共に算出された上記画像入力装置の各位置の姿勢情報ごとに投影されるテクスチャ画像が上記レンダリング手段によってレンダリングされた3次元モデル上を移動する際に、既に投影された領域に対しては、その領域に投影されたテクスチャ画像を保持し、上記画像入力装置の位置・姿勢の変化と共に一度でも投影が行われた領域に対しては、投影されたテクスチャ画像が残されてレンダリングが行われることを特徴とする。
A three-dimensional modeling apparatus according to the invention described in claim 3 is the three-dimensional modeling apparatus according to the invention described in claim 1 or 2,
When the texture image projected for each posture information of each position of the image input device calculated with time change moves on the three-dimensional model rendered by the rendering means, The texture image projected on the area is held, and the projected texture image is left and rendered on the area that has been projected even once with the change of the position / posture of the image input device. It is characterized by that.

また、請求項4に記載の発明による3次元モデリング装置は、請求項3に記載の発明による3次元モデリング装置において、
上記画像入力装置の位置・姿勢の移動と共に投影されるテクスチャ画像に対し、3次元形状モデルに対応付けられる画像の変化と共に3次元モデルの各ポリゴンに対応付けられる画像領域が変化するときに、各ポリゴンと対応する画像領域とが最適に対応付けられるように、各ポリゴンごとにマッピングするテクスチャ画像の更新を行うか否かを判断する判断手段をさらに具備することを特徴とする。
A three-dimensional modeling apparatus according to a fourth aspect of the present invention is the three-dimensional modeling apparatus according to the third aspect of the present invention.
When the image region associated with each polygon of the three-dimensional model changes with the change of the image associated with the three-dimensional shape model with respect to the texture image projected along with the movement of the position / posture of the image input device, The image processing apparatus further includes a determination unit that determines whether or not to update the texture image mapped for each polygon so that the polygon and the corresponding image area are optimally associated with each other.

また、請求項5に記載の発明による3次元モデリング装置は、請求項4に記載の発明による3次元モデリング装置において、
上記判断手段は、各ポリゴン領域のテクスチャ画像の更新を行うか否かの判断を行う基準として、上記画像入力装置の視線方向と対応するポリゴンの垂線方向との角度が小さい方を選択することを特徴とする。
A three-dimensional modeling apparatus according to a fifth aspect of the present invention is the three-dimensional modeling apparatus according to the fourth aspect of the present invention.
The determination means selects, as a reference for determining whether or not to update the texture image of each polygon area, the one having a smaller angle between the line-of-sight direction of the image input device and the corresponding perpendicular direction of the polygon. Features.

また、請求項6に記載の発明による3次元モデリング装置は、請求項1乃至5の何れかに記載の発明による3次元モデリング装置において、
上記画像入力手段が入力する動画像または時系列的に連続的な画像列は、共通な撮影領域を含むように上記画像入力装置により複数の方向から撮影された動画像または画像列であり、
上記位置・姿勢情報算出手段は、その複数の方向から撮影された動画像または画像列を構成する各画像よりそれぞれ上記画像入力装置の位置・姿勢情報を算出し、
上記投影表示手段は、上記複数の方向から撮影された動画像または画像列における共通な領域のテクスチャマッピングを行う際に、レンダリングに適切なテクスチャ画像を選択または複数のテクスチャ画像より適切なテクスチャ画像を生成する、
ことを特徴とする。
The three-dimensional modeling apparatus according to the invention described in claim 6 is the three-dimensional modeling apparatus according to any one of claims 1 to 5,
The moving image or time-series continuous image sequence input by the image input means is a moving image or image sequence photographed from a plurality of directions by the image input device so as to include a common photographing region,
The position / posture information calculation means calculates the position / posture information of the image input device from each of the moving images taken from the plurality of directions or the images constituting the image sequence,
The projection display means selects a texture image suitable for rendering or a texture image more appropriate than a plurality of texture images when performing texture mapping of a common area in a moving image or image sequence captured from the plurality of directions. Generate,
It is characterized by that.

また、請求項7に記載の発明による3次元モデリング装置は、請求項6に記載の発明による3次元モデリング装置において、
上記投影表示手段は、上記共通な領域におけるレンダリングに適切なテクスチャ画像の選択基準として、該領域内の3次元モデルの各ポリゴンの垂線方向と上記画像入力装置の視線方向とのなす角度が小さい方を選択することを特徴とする。
A three-dimensional modeling apparatus according to the invention described in claim 7 is the three-dimensional modeling apparatus according to the invention described in claim 6,
The projection display means has a smaller angle formed between the perpendicular direction of each polygon of the three-dimensional model in the common area and the line-of-sight direction of the image input device as a selection criterion for a texture image suitable for rendering in the common area. It is characterized by selecting.

また、請求項8に記載の発明による3次元モデリング装置は、請求項1乃至7の何れかに記載の発明による3次元モデリング装置において、
対象オブジェクトを撮影した動画像または画像列の各画像と対応する位置・姿勢情報、さらに、3次元モデルの各ポリゴンに対応する最適テクスチャ画像とを関連付けした上でデータベース化して登録しておき、
任意視点レンダリングを行う際に、常に各ポリゴンに対して最適なテクスチャ画像を対応させてレンダリングが行えることを特徴とする。
A three-dimensional modeling apparatus according to the invention described in claim 8 is the three-dimensional modeling apparatus according to any one of claims 1 to 7,
Position and orientation information corresponding to each image of the moving image or image sequence in which the target object is captured, and an optimum texture image corresponding to each polygon of the three-dimensional model are associated with each other and registered as a database,
When performing arbitrary viewpoint rendering, it is possible to perform rendering by always associating an optimal texture image with each polygon.

また、請求項9に記載の発明による3次元モデリング装置は、請求項1乃至8の何れかに記載の発明による3次元モデリング装置において、
対象オブジェクトを撮影した動画像または画像列を異なる時間帯において取得し、
取得された任意時間帯の動画像または画像列から得たテクスチャ画像を投影してレンダリングする、
ことを特徴とする。
A three-dimensional modeling apparatus according to the invention described in claim 9 is the three-dimensional modeling apparatus according to any one of claims 1 to 8,
Acquire a moving image or image sequence of the target object at different times,
Project and render a texture image obtained from a video or an image sequence acquired in an arbitrary time zone,
It is characterized by that.

また、上記の目的を達成するために、請求項10に記載の発明による3次元モデリング方法は、
3次元形状モデルに対してテクスチャマッピングを行い、任意視点でのレンダリングが行えるように3次元モデリングを行う3次元モデリング方法において、
対象オブジェクトの形状情報を入力し、
対象オブジェクトを画像入力装置の移動により撮影して得られた動画像または時系列的に連続的な画像列を入力し、
上記入力された動画像または画像列に基づいて上記画像入力装置の位置・姿勢情報を算出し、
上記算出された上記画像入力装置の位置・姿勢情報を、上記入力された動画像を構成する画像列または上記入力された時系列的に連続的な画像列に含まれる各テクスチャ画像に対して関連付けを行い、
上記入力された対象オブジェクトの形状情報から、上記算出された上記画像入力装置の位置・姿勢情報に従って上記画像入力装置の各位置・姿勢に対応する3次元モデルをレンダリングし、
上記レンダリングされた3次元モデル上に、上記画像入力装置の各位置・姿勢に対応する、上記関連付けされた各テクスチャ画像を投影して表示する、
ことを特徴とする。
In order to achieve the above object, a three-dimensional modeling method according to the invention of claim 10 comprises:
In the 3D modeling method of performing texture mapping on a 3D shape model and performing 3D modeling so that rendering can be performed from an arbitrary viewpoint,
Enter the shape information of the target object,
Input a moving image obtained by photographing the target object by moving the image input device or a continuous image sequence in time series,
Calculate the position / posture information of the image input device based on the input moving image or image sequence,
Associating the calculated position / posture information of the image input device with each texture image included in the image sequence constituting the input moving image or the input time-series continuous image sequence And
Rendering a three-dimensional model corresponding to each position / posture of the image input device according to the calculated position / posture information of the image input device from the shape information of the input target object,
Projecting and displaying each of the associated texture images corresponding to each position and orientation of the image input device on the rendered three-dimensional model;
It is characterized by that.

また、上記の目的を達成するために、請求項11に記載の発明によるプログラム装置は、
コンピュータに、3次元形状モデルに対してテクスチャマッピングを行い、任意視点でのレンダリングが行えるように3次元モデリングを行わせるプログラムにおいて、
対象オブジェクトの形状情報を入力する機能と、
対象オブジェクトを画像入力装置の移動により撮影して得られた動画像または時系列的に連続的な画像列を入力する機能と、
上記入力された動画像または画像列に基づいて上記画像入力装置の位置・姿勢情報を算出する機能と、
上記算出された上記画像入力装置の位置・姿勢情報を、上記入力された動画像を構成する画像列または上記入力された時系列的に連続的な画像列に含まれる各テクスチャ画像に対して関連付けを行う機能と、
上記入力された対象オブジェクトの形状情報から、上記算出された上記画像入力装置の位置・姿勢情報に従って上記画像入力装置の各位置・姿勢に対応する3次元モデルをレンダリングする機能と、
上記レンダリングされた3次元モデル上に、上記画像入力装置の各位置・姿勢に対応する、上記関連付けされた各テクスチャ画像を投影して表示する機能と、
を実現させるためのものであることを特徴とする。
In order to achieve the above object, a program device according to claim 11 is provided.
In a program that causes a computer to perform texture mapping on a 3D shape model and perform 3D modeling so that rendering can be performed from an arbitrary viewpoint,
A function to input the shape information of the target object,
A function of inputting a moving image obtained by photographing the target object by moving the image input device or a continuous image sequence in time series;
A function for calculating position / posture information of the image input device based on the input moving image or image sequence;
Associating the calculated position / posture information of the image input device with each texture image included in the image sequence constituting the input moving image or the input time-series continuous image sequence With the ability to
A function of rendering a three-dimensional model corresponding to each position / posture of the image input device according to the calculated position / posture information of the image input device from the input shape information of the target object;
A function of projecting and displaying the associated texture images corresponding to the positions and orientations of the image input device on the rendered three-dimensional model;
It is for realizing.

本発明によれば、カメラ位置・姿勢情報を、映像以外の別な計測装置を用いた手段を用いる必要のない簡易な手段で取得し、さらに、3次元モデルを構成する各ポリゴンに対して最適なテクスチャをマッピングし、さらに対象とする全周のレンダリングを行う3次元モデリング装置、方法、及びプログラムを提供することができる。   According to the present invention, the camera position / orientation information is acquired by simple means that does not require the use of means other than the video, and is optimal for each polygon constituting the three-dimensional model. It is possible to provide a three-dimensional modeling apparatus, method, and program for mapping a simple texture and rendering the entire circumference.

以下、本発明を実施するための最良の形態を図面を参照して説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

[第1実施形態]
図1は、本発明の第1実施形態に係る3次元モデリング装置の全体的な概略構成を示す図である。
[First Embodiment]
FIG. 1 is a diagram showing an overall schematic configuration of a three-dimensional modeling apparatus according to the first embodiment of the present invention.

即ち、この3次元モデリング装置は、コンピュータ等の演算装置1と、CRTや液晶モニタ等の表示装置2と、マウス等の指示装置3と、カメラ等の画像入力装置4とから構成される。そして、上記演算装置1は、データベース11、画像入力部12、特徴点・線・領域抽出処理演算部13、カメラ位置・姿勢情報演算部14、画像と対応する位置・姿勢情報関連付け部15、モデルの位置・姿勢に基づいたレンダリング情報演算部16、及びテクスチャ投影情報演算部17を基本構成として持つ。   That is, the three-dimensional modeling apparatus includes an arithmetic device 1 such as a computer, a display device 2 such as a CRT or a liquid crystal monitor, an instruction device 3 such as a mouse, and an image input device 4 such as a camera. The calculation device 1 includes a database 11, an image input unit 12, a feature point / line / region extraction processing calculation unit 13, a camera position / posture information calculation unit 14, a position / posture information association unit 15 corresponding to an image, a model The rendering information calculation unit 16 and the texture projection information calculation unit 17 based on the position / posture of each of them are provided as basic configurations.

ここで、上記データベース11は、予め不図示の3次元形状計測装置により対象オブジェクトを計測して得た3次元形状モデルを登録しておくものである。なお、このデータベース11は、演算装置1が持つものとしているが、ネットワークを介して接続された他のコンピュータが備えるものであっても構わない。   Here, the database 11 registers in advance a three-dimensional shape model obtained by measuring a target object with a three-dimensional shape measuring device (not shown). The database 11 is assumed to be included in the arithmetic device 1, but may be provided in another computer connected via a network.

また、上記画像入力部12は、上記画像入力装置4によって動画像または時間的に連続する画像列として撮影した画像を受けるものである。   The image input unit 12 receives an image captured as a moving image or a temporally continuous image sequence by the image input device 4.

上記特徴点・線・領域抽出処理演算部13は、上記画像入力部12によって入力された動画像または連続する画像列の各画像内より後の処理において必要となる特徴となる点、線分、領域を認識・抽出する。   The feature point / line / region extraction processing calculation unit 13 is a point, a line segment, a feature, which is a feature that is required in the subsequent processing from within each image of the moving image or the continuous image sequence input by the image input unit 12. Recognize and extract regions.

上記カメラ位置・姿勢情報演算部14は、上記特徴点・線・領域抽出処理演算部13で抽出された特徴点・線分・領域より各画像に対する画像入力装置4の位置・姿勢情報を算出する。   The camera position / posture information calculation unit 14 calculates the position / posture information of the image input device 4 for each image from the feature points / lines / regions extracted by the feature point / line / region extraction processing calculation unit 13. .

上記画像と対応する位置・姿勢情報関連付け部15は、上記カメラ位置・姿勢情報演算部14によって求められた位置・姿勢情報とそれに対応する上記画像入力部12によって入力された各画像とを関連付けるものである。   The position / posture information associating unit 15 corresponding to the image associates the position / posture information obtained by the camera position / posture information calculation unit 14 with each image input by the image input unit 12 corresponding thereto. It is.

上記モデルの位置・姿勢に基づいたレンダリング情報演算部16は、上記データベース11に記憶されている3次元形状モデルを上記位置・姿勢情報に基づいてレンダリングを行う。   The rendering information calculation unit 16 based on the position / posture of the model renders the three-dimensional shape model stored in the database 11 based on the position / posture information.

そして、上記テクスチャ投影情報演算部17は、上記モデルの位置・姿勢に基づいたレンダリング情報演算部16によってレンダリングされた3次元形状モデルに対して、テクスチャをマッピングまたは投影を行うものである。   The texture projection information calculation unit 17 performs mapping or projection of the texture on the three-dimensional shape model rendered by the rendering information calculation unit 16 based on the position / orientation of the model.

このような構成の3次元モデリング装置においては、図2(A)に示すような3次元形状モデルが、上述したように予め3次元形状計測装置により計測を行って、データベース11に登録してある。この3次元形状モデルは、頂点情報、頂点接続情報からなるものとなる。但し、その他、任意の3次元形状表現形式を利用することも可能である。また、計測は、レーザスキャナ、ステレオ計測、光切断法等の一般的な3次元形状計測器で行うことが可能であり、3次元ソリッドモデルを生成する。   In the three-dimensional modeling apparatus having such a configuration, the three-dimensional shape model as shown in FIG. 2A is measured in advance by the three-dimensional shape measurement apparatus and registered in the database 11 as described above. . This three-dimensional shape model includes vertex information and vertex connection information. However, any other three-dimensional shape expression format can be used. The measurement can be performed with a general three-dimensional shape measuring instrument such as a laser scanner, stereo measurement, or a light cutting method, and a three-dimensional solid model is generated.

そして、3次元モデリング装置においては、図3(A)のフローチャートに示すような動作を実施する。   In the three-dimensional modeling apparatus, an operation as shown in the flowchart of FIG.

即ち、まず、画像入力装置4により対象オブジェクトの連続視点移動画像の撮影を行って、画像入力部12によりそれを入力する(ステップS11)。図2(B)は、その撮影の場面を表した図である。対象とするオブジェクトに対して視点を移動しながら動画像または連続する画像列として撮影する。なお、ここでは、この撮影した画像をリアルタイムで画像入力部12によって取り込むものとして説明するが、撮影した画像を一旦記録媒体に記録しておき、後ほど画像入力部12で取り込んで以降の処理を実施しても良いことは勿論である。   That is, first, a continuous viewpoint moving image of the target object is taken by the image input device 4 and input by the image input unit 12 (step S11). FIG. 2B is a diagram showing the shooting scene. A moving image or a continuous image sequence is taken while moving the viewpoint with respect to the target object. Here, the description will be made assuming that the captured image is captured by the image input unit 12 in real time. However, the captured image is temporarily recorded on a recording medium, and captured later by the image input unit 12 to perform the subsequent processing. Of course, you may do.

次に、特徴点・線・領域抽出処理演算部13により、そのような動画像または時間的に連続する画像列として取り込んだ各画像内において、特徴となる点や線分、領域の抽出を行う(ステップS12)。この特徴領域の抽出は、画像内の濃度変化、エッジ等の特徴的な領域を各種フィルタをかけて、抽出することとする。   Next, the feature point / line / region extraction processing calculation unit 13 extracts feature points, line segments, and regions in each moving image or each image captured as a temporally continuous image sequence. (Step S12). In this feature region extraction, a characteristic region such as a density change and an edge in an image is extracted by applying various filters.

次に、カメラ位置・姿勢情報演算部14にて、上記抽出された特徴領域の画像内での時間的変化を追跡することにより、三角測量の原理により、各特徴領域までの距離を算出し(ステップS13)、さらに、これらの情報に基づいて画像入力装置4の位置・姿勢を算出し、また、画像と対応する位置・姿勢情報関連付け部15によって、その算出した位置・姿勢情報とそれに対応する各画像とを関連付ける(ステップS14)。   Next, the camera position / posture information calculation unit 14 tracks the temporal change of the extracted feature region in the image, and calculates the distance to each feature region based on the principle of triangulation ( Step S13) Further, the position / orientation of the image input device 4 is calculated based on these pieces of information, and the calculated position / orientation information and the corresponding position / orientation information are associated by the position / orientation information associating unit 15 corresponding to the image. Each image is associated (step S14).

その後、モデルの位置・姿勢に基づいたレンダリング情報演算部16により、上記データベース11に登録されている対象物の3次元形状モデルを読み出し、上記算出された画像入力装置4の位置・姿勢情報に基づいた3次元モデルをレンダリングして表示装置2上に表示する(ステップS15)。   Thereafter, the rendering information calculation unit 16 based on the model position / orientation reads out the three-dimensional shape model of the object registered in the database 11, and based on the calculated position / orientation information of the image input device 4. The three-dimensional model is rendered and displayed on the display device 2 (step S15).

そして、テクスチャ投影情報演算部17により、その表示された3次元モデル上に、図2(C)に示すように、撮影されたテクスチャ画像をマッピングまたは投影する(ステップS16)。   Then, the texture projection information calculation unit 17 maps or projects the captured texture image on the displayed three-dimensional model, as shown in FIG. 2C (step S16).

以上の手法により、3次元モデルへのテクスチャマッピングまたは投影を行うことができる。   With the above method, texture mapping or projection onto a three-dimensional model can be performed.

[第2実施形態]
次に、本発明の第2実施形態を説明する。本実施形態においては、3次元モデリング装置の演算装置1は、上記第1実施形態の構成に加えてさらに、複数の視点より撮影・入力された画像に対して合成を行い、全周画像の作成を行う複数視点画像統合演算部18(図1参照)を有している。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, in addition to the configuration of the first embodiment, the arithmetic device 1 of the three-dimensional modeling device further synthesizes images captured and input from a plurality of viewpoints to create an all-round image. A multi-viewpoint image integration calculation unit 18 (see FIG. 1).

対象となるオブジェクトを視点を移動しながら撮影を行う場合、視点の移動と共に撮影される領域も同時に移動することになる。撮影される領域が移動するため、3次元モデルへのテクスチャのマッピングまたは投影を行う際にもその領域の移動が生じ、移動と共にマッピングまたは投影では表示されていた領域が移動していくことになる。   When shooting a target object while moving the viewpoint, the area to be shot moves simultaneously with the movement of the viewpoint. Since the area to be photographed moves, the area also moves when mapping or projecting the texture onto the three-dimensional model, and the area displayed in the mapping or projection moves with the movement. .

即ち、図4(A)において、視点の移動が、視点51→視点52→視点53と移動していく場合、視点52でマッピングまたは投影の行われる領域が移動するため、視点51ではマッピングまたは投影されていた領域61のテクスチャが無くなり、さらに、視点53でのテクスチャマッピングまたは投影においては、領域62のテクスチャが無くなる、という現象を生じてしまうことになる。しかしながら、視点の移動と共にテクスチャのマッピングまたは投影の行われなくなった領域であっても、前の視点状態ではテクスチャがマッピングまたは投影されていたので、その領域にマッピングまたは投影されていたテクスチャ領域を保持し、52,53の視点移動があっても、61,62の領域は前の視点51におけるテクスチャを残しておくようにすることにより、テクスチャのマッピングまたは投影される領域が次第に増加していくことになる。   That is, in FIG. 4A, when the movement of the viewpoint moves from the viewpoint 51 → the viewpoint 52 → the viewpoint 53, the area to be mapped or projected at the viewpoint 52 moves. The texture of the area 61 that has been used is lost, and further, in texture mapping or projection at the viewpoint 53, the texture of the area 62 is lost. However, even in areas where texture mapping or projection is no longer performed as the viewpoint moves, the texture area mapped or projected in that area is retained because the texture was mapped or projected in the previous viewpoint state. However, even if there is a viewpoint movement of 52 and 53, the areas of 61 and 62 keep the texture at the previous viewpoint 51, so that the texture mapping or projected area gradually increases. become.

図3(B)は、本第2実施形態に係る3次元モデリング装置の動作フローチャートである。但し、ステップS11乃至ステップS16の処理は上記第1実施形態と同様であるので、図3(B)では、ステップS16以降のみを示している。   FIG. 3B is an operation flowchart of the three-dimensional modeling apparatus according to the second embodiment. However, since the process of step S11 thru | or step S16 is the same as that of the said 1st Embodiment, in FIG.3 (B), only step S16 and subsequent steps are shown.

即ち、先に述べた手法によりテクスチャマッピングまたは投影を行った後(ステップS16)、複数視点画像統合演算部18では、視点変化に従ったレンダリング領域の移動が行われ(ステップS21)、次の視点でのレンダリングが行われなくなった領域を検出して(ステップS22)、その検出したレンダリングが行われなくなった領域に対して前の視点でレンダリングされていたテクスチャ領域を合わせてマッピングまたは投影する(ステップS23)。   That is, after performing texture mapping or projection by the method described above (step S16), the multi-viewpoint image integration calculation unit 18 moves the rendering area according to the viewpoint change (step S21), and the next viewpoint A region where rendering is no longer performed is detected (step S22), and the texture region rendered at the previous viewpoint is mapped or projected to the region where the detected rendering is no longer performed (step S22). S23).

このようにすることで、図2(D)に示すように、全周画像のテクスチャマッピングを行うことが可能となる。   By doing in this way, as shown in FIG.2 (D), it becomes possible to perform the texture mapping of the perimeter image.

[第3実施形態]
次に、本発明の第3実施形態を説明する。本実施形態は、視点の移動において、前後のテクスチャマッピングまたは投影領域で重複する領域に関する最適テクスチャ生成処理法に関するものである。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. The present embodiment relates to an optimum texture generation processing method for areas overlapping in front and back texture mapping or projection areas in viewpoint movement.

本実施形態においては、3次元モデリング装置の演算装置1における複数視点画像統合演算部18は、3次元モデルを構成する各ポリゴンに対して、テクスチャ投影情報演算部17での複数視点画像より、最適なテクスチャを選択または合成する処理を行う。そしてさらに、演算装置1は、その複数視点画像統合演算部18で選択または合成した最適なテクスチャとポリゴンとを関連付けして、上記データベース11に登録するポリゴンと最適テクスチャ関連付け部19(図1参照)を有している。   In the present embodiment, the multiple viewpoint image integration calculation unit 18 in the calculation device 1 of the three-dimensional modeling apparatus is more optimal than the multiple viewpoint image in the texture projection information calculation unit 17 for each polygon constituting the three-dimensional model. To select or synthesize a texture. Further, the computing device 1 associates the optimum texture and polygon selected or synthesized by the multi-viewpoint image integration computing unit 18 and registers them in the database 11 with the optimum texture associating unit 19 (see FIG. 1). have.

図3(C)は、本第3実施形態に係る3次元モデリング装置の動作フローチャートである。但し、ステップS11乃至ステップS16の処理は上記第1実施形態と同様であるので、図3(C)では、ステップS16以降のみを示している。   FIG. 3C is an operation flowchart of the three-dimensional modeling apparatus according to the third embodiment. However, since the processing from step S11 to step S16 is the same as that in the first embodiment, only step S16 and subsequent steps are shown in FIG.

即ち、先に述べた手法によりテクスチャマッピングまたは投影を行った後(ステップS16)、さらに、上記モデルの位置・姿勢に基づいたレンダリング情報演算部16により、視点の移動と共にレンダリング領域が変化する処理を行う(ステップS31)。例えば、図4(B)に示すように、視点の移動が、視点51→52→53と変化する際に、視点51の位置でレンダリングされる領域及び視点52の位置でレンダリングされる領域のうち、領域63は、両方の視点位置でレンダリングできる領域となっている。視点52と視点53における重複領域64も同様なことが言える。   That is, after texture mapping or projection is performed by the above-described method (step S16), the rendering information calculation unit 16 based on the position / orientation of the model further performs processing for changing the rendering area as the viewpoint moves. This is performed (step S31). For example, as shown in FIG. 4B, when the movement of the viewpoint changes from the viewpoint 51 → 52 → 53, the area rendered at the position of the viewpoint 51 and the area rendered at the position of the viewpoint 52 The area 63 is an area that can be rendered at both viewpoint positions. The same can be said for the overlapping area 64 in the viewpoint 52 and the viewpoint 53.

そこで、複数視点画像統合演算部18は、このような重複領域63,64の検出を行い(ステップS32)、検出した重複する領域での最適テクスチャを選択または合成する処理を行う(ステップS33)。通常は、レンダリングを行う視点でのテクスチャを利用してマッピングまたは投影を行うことになるが、3次元形状を表現するポリゴンの方向等の条件によっては、その視点位置におけるテクスチャより、前後の視点位置におけるテクスチャを利用した方が高画質化を図れる場合がある。即ち、例えば、ポリゴンに垂直な方向に対して視点方向がより近い方のテクスチャの方が歪みが小さく、画質が良くなる可能性が高い。条件としては、視点方向の角度のみでなく、距離等、任意の条件を対応させることが可能である。さらに、重複する領域に対してマッピングまたは投影されるテクスチャ領域に対し、双方のテクスチャの各画素において平均を求めることにより新たにテクスチャを合成することで高画質化を図ることも可能である。   Therefore, the multi-viewpoint image integration calculation unit 18 detects such overlapping regions 63 and 64 (step S32), and performs a process of selecting or synthesizing the optimum texture in the detected overlapping region (step S33). Normally, mapping or projection is performed using the texture at the viewpoint where rendering is performed, but depending on conditions such as the direction of the polygon representing the three-dimensional shape, the viewpoint position before and after the texture at that viewpoint position In some cases, using the texture in can improve the image quality. That is, for example, the texture closer to the viewpoint direction with respect to the direction perpendicular to the polygon is less distorted and is more likely to improve the image quality. As a condition, not only an angle in the viewpoint direction but also an arbitrary condition such as a distance can be handled. Furthermore, it is also possible to improve the image quality by newly synthesizing textures by obtaining an average for each pixel of both textures for texture regions that are mapped or projected with respect to overlapping regions.

こうして各ポリゴンに対して最適に選択または合成されたテクスチャは、テクスチャ投影情報演算部17により、3次元モデル上にマッピングまたは投影される(ステップS34)。   The texture optimally selected or synthesized for each polygon in this way is mapped or projected onto the three-dimensional model by the texture projection information calculation unit 17 (step S34).

また、そのような各ポリゴンに対して最適に選択または合成されたテクスチャは、ポリゴンと最適テクスチャ関連付け部19により、ポリゴンと共にデータベース11に登録しておき(ステップS35)、生成された3次元オブジェクトの表示を行う際に、そのデータベース11を参照することにより、予め処理されたものとして各ポリゴンに対してマッピングまたは投影されるテクスチャを用いることが可能となり(ステップS36)、リアルタイムでの視点移動を行うことが可能となる。   Further, the texture optimally selected or synthesized for each polygon is registered in the database 11 together with the polygon by the optimum texture associating unit 19 (step S35), and the generated three-dimensional object is stored. When displaying, by referring to the database 11, it is possible to use textures that are mapped or projected on each polygon as preprocessed (step S36), and perform viewpoint movement in real time. It becomes possible.

[第4実施形態]
次に、本発明の第3実施形態を説明する。
[Fourth Embodiment]
Next, a third embodiment of the present invention will be described.

図2(C)では、複数の方向より撮影された画像を、各方向よりマッピングまたは投影する手法が示されている。複数の視点からのテクスチャマッピングまたは投影情報の表示装置2内への表示の構成として、図5に示すような表示を行う。   FIG. 2C shows a method of mapping or projecting images taken from a plurality of directions from each direction. As a configuration for displaying texture mapping or projection information from a plurality of viewpoints in the display device 2, a display as shown in FIG. 5 is performed.

本実施形態においては、複数の視点から、重複する領域を持つようにそれぞれ動画像を撮影し、広範囲、さらには全周の3次元オブジェクト生成を行うことを目的とする。各方向からの画像に対して上述の手法と同様な3次元モデリングを行うが、重複する領域に対して、最適なテクスチャを選択することを特徴とする。撮影された画像間の重複する領域に関して各視点でのテクスチャが上記第3実施形態に従って作成されたものであれば、それぞれ最適化された上で視点方向の数だけ選択の自由度を持つことになるが、この場合においても第3実施形態で視点移動において重複する領域のテクスチャの最適化を行ったのと同様な手法を用いることにより最適なテクスチャを選択または合成することができる。または、各視点移動中の重複する領域のテクスチャすべてと、各視点方向における重複する領域のテクスチャとをすべて並列の状態で比較し最適なテクスチャを選択することや、これらのテクスチャすべてを用いて画素ごとの平均値をとることによる合成を行うことによる最適化を行うことにより最適なテクスチャを生成することも可能である。   In the present embodiment, an object is to capture a moving image from a plurality of viewpoints so as to have overlapping regions, and to generate a three-dimensional object over a wide range and further around the entire circumference. Three-dimensional modeling similar to the above-described method is performed on an image from each direction, but an optimum texture is selected for overlapping regions. If the texture at each viewpoint is created according to the third embodiment with respect to the overlapping area between the captured images, it is optimized and has the degree of freedom of selection by the number of viewpoint directions. However, even in this case, the optimum texture can be selected or synthesized by using the same technique as that used in the third embodiment for optimizing the texture of the overlapping region in the viewpoint movement. Or, compare all the textures of the overlapping areas in each viewpoint movement with the textures of the overlapping areas in each viewpoint direction in parallel and select the optimal texture, or use all these textures to create a pixel. It is also possible to generate an optimum texture by performing optimization by performing synthesis by taking an average value for each.

本実施形態を表示装置2に表示する際には例えば、図5に示すような画面構成を設定することができ、表示画面上にアクティブウィンドウとして表示される前表示領域21に内部に、テクスチャマッピングまたは投影の行われた3次元画像レンダリングウィンドウ21Aが表示され、このウィンドウ21A内では3次元オブジェクトの任意視点での表示を行うことができる。また、サブウィンドウ21B−1〜21B−nを設け、各視点におけるテクスチャマッピングまたは投影された画像と撮影時の生画像とが表示できるようにしておく。さらに、コントロールパネル21Cも設け、3次元画像の視点移動制御、各サブウィンドウ21B−1〜21B−n内での表示画像の切り替え等の制御を行うことができる。但し、視点変更は、3次元画像レンダリングウィンドウ21A内で指示装置3の操作によっても行えるようにしておくことが可能である。   When the present embodiment is displayed on the display device 2, for example, a screen configuration as shown in FIG. 5 can be set, and texture mapping is performed in the front display area 21 displayed as an active window on the display screen. Alternatively, a projected 3D image rendering window 21A is displayed, and a 3D object can be displayed at an arbitrary viewpoint in the window 21A. In addition, sub-windows 21B-1 to 21B-n are provided so that texture mapping or projected images at respective viewpoints and raw images at the time of photographing can be displayed. Further, a control panel 21C is also provided, and control such as viewpoint movement control of a three-dimensional image, switching of display images in each sub-window 21B-1 to 21B-n, and the like can be performed. However, the viewpoint can be changed by operating the pointing device 3 in the three-dimensional image rendering window 21A.

[第5実施形態]
次に、本発明の第5実施形態として、任意視点でのレンダリングを行う場合、3次元オブジェクトを構成する各ポリゴンに対して、視点ごとの最適化されたテクスチャを生成することを特徴とする方法を、図6を用いて説明する。
[Fifth Embodiment]
Next, as a fifth embodiment of the present invention, when rendering is performed at an arbitrary viewpoint, a method for generating an optimized texture for each viewpoint is generated for each polygon constituting a three-dimensional object. Will be described with reference to FIG.

ここでは、3次元形状モデルを構成するポリゴン等の各構成要素に対して、各視点ごとに最適なテクスチャを関連付けしてデータベース化しておく方法である。視点が変化することにより、例えば、各ポリゴンの向きは変化するため、レンダリングを行う視点方向に依存してマッピングまたは投影するのに最適なテクスチャが異なる可能性がある。そのため、各構成要素(ポリゴン)ごとに、異なる視点に対する最適なテクスチャを関連付けてデータベース化しておくことにより、3次元モデルのレンダリングを行う際に、視点ごとに最適なテクスチャが適用されるため、常に高画質な3次元レンダリングが行われることになる。   Here, it is a method of creating a database by associating an optimum texture for each viewpoint with respect to each component such as a polygon constituting the three-dimensional shape model. When the viewpoint changes, for example, the orientation of each polygon changes, so that the optimum texture for mapping or projection may differ depending on the viewpoint direction for rendering. For this reason, by associating an optimal texture for each viewpoint (polygon) for each component (polygon) and creating a database, the optimal texture is applied to each viewpoint when rendering a 3D model. High-quality three-dimensional rendering is performed.

[第6実施形態]
次に、本発明の第6実施形態を説明する。本実施形態は、同方向視点の動画像として、異なる時間帯における動画像を複数撮影することを特徴とするものである。
[Sixth Embodiment]
Next, a sixth embodiment of the present invention will be described. This embodiment is characterized in that a plurality of moving images in different time zones are taken as moving images of the same direction viewpoint.

この実施形態に対しても、図6により説明を行う。上記第1乃至第5実施形態で述べた方法により、ある時間t1における3次元モデルの生成を行うことができるが、同様な手法を、異なる複数の時間帯(時間t2,…,tn)において取得したテクスチャ画像を用いて、予め設定された1つの3次元形状モデルに対して、適用することも可能である。さらには、3次元形状モデルとして複数のものを利用し、さらに時間帯に関しても、それぞれ複数の時間帯のテクスチャを関連付けておくことも可能である。例えば、同一の日における、朝、昼、夜のテクスチャであったり、季節として、春夏秋冬に対してそれぞれテクスチャを撮影しておくことも可能である。これらの、図6に示す異なる時間帯t1,t2,…,tnに対する、各ポリゴン、視点位置における最適テクスチャを算出した上で、データベース11に登録しておき、利用者は、任意の時間帯における任意視点の最適な高画質3次元画像を得ることが可能となる。   This embodiment will also be described with reference to FIG. Although the three-dimensional model can be generated at a certain time t1 by the method described in the first to fifth embodiments, a similar method is acquired in a plurality of different time zones (time t2,..., Tn). It is also possible to apply to one preset three-dimensional shape model using the texture image. Furthermore, it is also possible to use a plurality of three-dimensional shape models and associate textures of a plurality of time zones with respect to time zones. For example, it is possible to capture textures of morning, noon, and night on the same day, and to capture textures for spring, summer, autumn, and winter as seasons. After calculating optimum textures at the respective polygons and viewpoint positions for the different time zones t1, t2,..., Tn shown in FIG. It is possible to obtain an optimal high-quality three-dimensional image from an arbitrary viewpoint.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

例えば、上記実施形態の機能を実現するソフトウェアのプログラムをコンピュータに供給し、当該コンピュータがこのプログラムを実行することによって、上記機能を実現することも可能である。   For example, the above functions can be realized by supplying a software program for realizing the functions of the above embodiments to a computer and executing the programs by the computer.

(付記)
前記の具体的実施形態から、以下のような構成の発明を抽出することができる。
(Appendix)
The invention having the following configuration can be extracted from the specific embodiment.

(1) 3次元形状モデルに対してテクスチャマッピングを行い、任意視点でのレンダリングが行えるように3次元モデリングを行う3次元モデリング装置において、
対象オブジェクトの形状情報を入力する形状情報入力手段と、
対象オブジェクトを画像入力装置の移動(即ち視点の移動)により撮影して得られた動画像または時系列的に連続的な画像列を入力する画像入力手段と、
上記画像入力手段によって入力された動画像または画像列に基づいて上記画像入力装置の位置・姿勢情報を算出する位置・姿勢情報算出手段と、
上記位置・姿勢情報算出手段によって算出された上記画像入力装置の位置・姿勢情報を、上記画像入力手段によって入力された動画像を構成する画像列または上記画像入力手段によって入力された時系列的に連続的な画像列に含まれる各テクスチャ画像に対して関連付けを行う関連付け手段と、
上記形状情報入力手段によって入力された対象オブジェクトの形状情報から、上記位置・姿勢情報算出手段によって算出された上記画像入力装置の位置・姿勢情報に従って上記画像入力装置の各位置・姿勢に対応する3次元モデルをレンダリングするレンダリング手段と、
上記レンダリング手段によってレンダリングされた3次元モデル上に、上記画像入力装置の各位置・姿勢に対応する、上記関連付け手段で関連付けされた各テクスチャ画像を投影して表示する投影表示手段と、
を具備することを特徴とする3次元モデリング装置。
(1) In a three-dimensional modeling apparatus that performs texture mapping on a three-dimensional shape model and performs three-dimensional modeling so that rendering can be performed at an arbitrary viewpoint,
Shape information input means for inputting shape information of the target object;
An image input means for inputting a moving image obtained by photographing the target object by moving the image input device (that is, moving the viewpoint) or a continuous image sequence in time series;
Position / attitude information calculating means for calculating position / attitude information of the image input device based on a moving image or an image sequence input by the image input means;
The position / orientation information of the image input device calculated by the position / orientation information calculating means is the time series input by the image sequence constituting the moving image input by the image input means or the image input means. Association means for associating each texture image included in the continuous image sequence;
3 corresponding to each position / posture of the image input device according to the position / posture information of the image input device calculated by the position / posture information calculation unit from the shape information of the target object input by the shape information input unit. A rendering means for rendering a dimensional model;
Projection display means for projecting and displaying each texture image associated by the association means corresponding to each position / posture of the image input device on the three-dimensional model rendered by the rendering means;
A three-dimensional modeling apparatus comprising:

(対応する実施形態)
この(1)に記載の3次元モデリング装置に関する実施形態は、第1乃至第6実施形態が対応する。ここで、上記形状情報入力手段は上記データベース11に対応し、上記画像入力手段は上記画像入力部12に対応し、上記位置・姿勢情報算出手段は上記カメラ位置・姿勢情報演算部14に対応し、上記関連付け手段は上記画像と対応する位置・姿勢情報関連付け部15に対応し、上記レンダリング手段は上記モデルの位置・姿勢に基づいたレンダリング情報演算部16に対応し、上記投影表示手段は上記テクスチャ投影情報演算部17に相当する。
(作用効果)
この(1)に記載の3次元モデリング装置によれば、画像入力装置による視点を移動しながらの動画像または連続画像取得による画像入力装置の位置・姿勢情報の算出ができるので、他の画像入力装置の位置・姿勢計測手段を利用せずに済むため、簡易なシステムを構成することが可能である。
(Corresponding embodiment)
The first to sixth embodiments correspond to the embodiment relating to the three-dimensional modeling apparatus described in (1). Here, the shape information input unit corresponds to the database 11, the image input unit corresponds to the image input unit 12, and the position / posture information calculation unit corresponds to the camera position / posture information calculation unit 14. The association means corresponds to the position / posture information association unit 15 corresponding to the image, the rendering means corresponds to the rendering information calculation unit 16 based on the position / posture of the model, and the projection display means corresponds to the texture. This corresponds to the projection information calculation unit 17.
(Function and effect)
According to the three-dimensional modeling apparatus described in (1), the position / posture information of the image input apparatus can be calculated by moving image or continuous image acquisition while moving the viewpoint of the image input apparatus. Since it is not necessary to use the position / posture measuring unit of the apparatus, a simple system can be configured.

(2) 上記位置・姿勢情報算出手段は、上記画像入力手段によって入力された動画像または画像列における画像内の特徴点、特徴的な線分、特徴的な形状の少なくとも一つを抽出し、それら抽出した特徴的な点、線分、形状を追跡し、三角測量の原理に基づいて、上記画像入力装置の位置・姿勢情報を算出することを特徴とする(1)に記載の3次元モデリング装置。   (2) The position / posture information calculation unit extracts at least one of a feature point, a characteristic line segment, and a characteristic shape in an image in the moving image or image sequence input by the image input unit, The extracted characteristic points, line segments, and shapes are tracked, and the position / posture information of the image input device is calculated based on the principle of triangulation, and the three-dimensional modeling described in (1) apparatus.

(対応する実施形態)
この(2)に記載の3次元モデリング装置に関する実施形態は、第1実施形態が対応する。
(作用効果)
この(2)に記載の3次元モデリング装置によれば、画像入力装置による視点を移動しながらの動画像または連続画像取得による画像入力装置位置・姿勢情報の算出ができるので、他の画像入力装置位置・姿勢計測手段を利用せずに済むため、簡易なシステムを構成することが可能である。位置・姿勢算出のためには異なる視点間での対応する点が必要になるが、画像中、特徴となる点、線分、形状等任意の情報を利用することができるため、ロバストで精度のより良い位置・姿勢情報を算出することが可能となる。
(Corresponding embodiment)
The embodiment relating to the three-dimensional modeling apparatus described in (2) corresponds to the first embodiment.
(Function and effect)
According to the three-dimensional modeling apparatus described in (2), since the image input apparatus position / posture information can be calculated by moving image or continuous image acquisition while moving the viewpoint by the image input apparatus, other image input apparatuses Since it is not necessary to use position / posture measuring means, a simple system can be configured. In order to calculate the position and orientation, corresponding points between different viewpoints are required, but since arbitrary information such as feature points, line segments, and shapes can be used in the image, it is robust and accurate. It becomes possible to calculate better position / posture information.

(3) 時間変化と共に算出された上記画像入力装置の各位置の姿勢情報ごとに投影されるテクスチャ画像が上記レンダリング手段によってレンダリングされた3次元モデル上を移動する際に、既に投影された領域に対しては、その領域に投影されたテクスチャ画像を保持し、上記画像入力装置の位置・姿勢の変化と共に一度でも投影が行われた領域に対しては、投影されたテクスチャ画像が残されてレンダリングが行われることを特徴とする(1)または(2)に記載の3次元モデリング装置。   (3) When a texture image projected for each posture information of each position of the image input device calculated with time change moves on the three-dimensional model rendered by the rendering means, On the other hand, the texture image projected on the area is held, and the projected texture image is left and rendered on the area that has been projected even once along with the change in the position and orientation of the image input device. The three-dimensional modeling apparatus according to (1) or (2), wherein:

(対応する実施形態)
この(3)に記載の3次元モデリング装置に関する実施形態は、第2実施形態が対応する。
(作用効果)
この(3)に記載の3次元モデリング装置によれば、視点移動と共にテクスチャマッピングを行う場合、視点移動と共にレンダリングされる領域も移動し、レンダリング領域から外れた領域はテクスチャがマッピングされなくなっていくが、領域の移動を検出し、移動済みの領域に対しては、その前までマッピングされていたテクスチャを記憶させておいてそのテクスチャをレンダリングすることによりテクスチャマッピングされる領域が増加していき、レンダリングできる視点位置が増加する。
(Corresponding embodiment)
The embodiment related to the three-dimensional modeling apparatus described in (3) corresponds to the second embodiment.
(Function and effect)
According to the three-dimensional modeling apparatus described in (3), when texture mapping is performed together with the viewpoint movement, the rendered area is also moved along with the viewpoint movement, and textures are not mapped in areas outside the rendering area. By detecting the movement of the area and storing the texture that has been mapped up to that area before rendering, the texture mapped area increases and the rendering is performed. The possible viewpoint position increases.

(4) 上記画像入力装置の位置・姿勢の移動と共に投影されるテクスチャ画像に対し、3次元形状モデルに対応付けられる画像の変化と共に3次元モデルの各ポリゴンに対応付けられる画像領域が変化するときに、各ポリゴンと対応する画像領域とが最適に対応付けられるように、各ポリゴンごとにマッピングするテクスチャ画像の更新を行うか否かを判断する判断手段をさらに具備することを特徴とする(3)に記載の3次元モデリング装置。   (4) When the image area associated with each polygon of the three-dimensional model changes with the change of the image associated with the three-dimensional shape model with respect to the texture image projected along with the movement of the position / posture of the image input device. (3) further comprising a judging means for judging whether or not to update the texture image mapped for each polygon so that each polygon and the corresponding image area are optimally associated with each other (3). ) 3D modeling apparatus.

(対応する実施形態)
この(4)に記載の3次元モデリング装置に関する実施形態は、第3実施形態が対応する。ここで、上記判断手段は上記複数視点画像統合演算部18に対応する。
(作用効果)
この(4)に記載の3次元モデリング装置によれば、視点移動と共にテクスチャマッピングの領域が移動していくき、複数の視点において、重なる領域が存在することになり、通常は対応する視点におるテクスチャを利用することになるが、視線方向とポリゴン垂線の方向とのなす角や撮影条件等の問題により別なテクスチャを利用した方が高画質になる可能性があるため、常に、同一の領域をレンダリングする複数の視点のテクスチャを比較し、各ポリゴン毎に最適にレンダリングできるテクスチャを選択することにより、高画質な3次元画像を生成することが可能になる。
(Corresponding embodiment)
The third embodiment corresponds to the embodiment relating to the three-dimensional modeling apparatus described in (4). Here, the determination means corresponds to the multi-viewpoint image integration calculation unit 18.
(Function and effect)
According to the three-dimensional modeling apparatus described in (4), the texture mapping area moves as the viewpoint moves, and overlapping areas exist at a plurality of viewpoints. Usually, the texture at the corresponding viewpoint is present. However, there is a possibility that the image quality will be higher if different textures are used due to problems such as the angle between the line-of-sight direction and the direction of the polygon normal or shooting conditions. By comparing textures of a plurality of viewpoints to be rendered and selecting a texture that can be optimally rendered for each polygon, a high-quality three-dimensional image can be generated.

(5) 上記判断手段は、各ポリゴン領域のテクスチャ画像の更新を行うか否かの判断を行う基準として、上記画像入力装置の視線方向と対応するポリゴンの垂線方向との角度が小さい方を選択することを特徴とする(4)に記載の3次元モデリング装置。   (5) The determination means selects a smaller angle between the line-of-sight direction of the image input device and the perpendicular direction of the corresponding polygon as a reference for determining whether to update the texture image of each polygon area. The three-dimensional modeling apparatus according to (4), characterized in that:

(対応する実施形態)
この(5)に記載の3次元モデリング装置に関する実施形態は、第3実施形態が対応する。
(作用効果)
この(5)に記載の3次元モデリング装置によれば、(4)における最適テクスチャ選択の判断基準として、ポリゴンの垂線と画像入力装置の視線方向との角度を参照し、角度が小さい方を選択することにより、正面に近い画像を選択できることになるため、テクスチャマッピングする際の画像の歪みが最小限に抑えられるため、より現実に近い画像を選択できることになり、高画質な3次元画像を生成することが可能になる。
(Corresponding embodiment)
The embodiment related to the three-dimensional modeling apparatus described in (5) corresponds to the third embodiment.
(Function and effect)
According to the three-dimensional modeling apparatus described in (5), the angle between the perpendicular line of the polygon and the line-of-sight direction of the image input device is referred to as the criterion for selecting the optimum texture in (4), and the smaller one is selected. This makes it possible to select an image close to the front, so that distortion of the image during texture mapping is minimized, so that an image closer to reality can be selected, and a high-quality three-dimensional image is generated. It becomes possible to do.

(6) 上記画像入力手段が入力する動画像または時系列的に連続的な画像列は、共通な撮影領域を含むように上記画像入力装置により複数の方向から撮影された動画像または画像列であり、
上記位置・姿勢情報算出手段は、その複数の方向から撮影された動画像または画像列を構成する各画像よりそれぞれ上記画像入力装置の位置・姿勢情報を算出し、
上記投影表示手段は、上記複数の方向から撮影された動画像または画像列における共通な領域のテクスチャマッピングを行う際に、レンダリングに適切なテクスチャ画像を選択または複数のテクスチャ画像より適切なテクスチャ画像を生成する、
ことを特徴とする(1)乃至(5)の何れかに記載の3次元モデリング装置。
(6) The moving image or the time-series continuous image sequence input by the image input means is a moving image or image sequence photographed from a plurality of directions by the image input device so as to include a common photographing region. Yes,
The position / posture information calculation means calculates the position / posture information of the image input device from each of the moving images taken from the plurality of directions or the images constituting the image sequence,
The projection display means selects a texture image suitable for rendering or a texture image more appropriate than a plurality of texture images when performing texture mapping of a common area in a moving image or image sequence captured from the plurality of directions. Generate,
(3) The three-dimensional modeling apparatus according to any one of (1) to (5).

(対応する実施形態)
この(6)に記載の3次元モデリング装置に関する実施形態は、第3実施形態が対応する。
(作用効果)
この(6)に記載の3次元モデリング装置によれば、対象とする3次元モデルの全周3次元画像を生成するためには複数の視点から撮影することが必要になるが、撮影の際には重なる領域を持つように撮影を行い、重なった領域に対しては最適な方のテクスチャを利用するか、または重なる領域に対応する複数のテクスチャの合成処理を行うことにより、最適なテクスチャを生成した上でテクスチャマッピングを行うことで、より高画質な3次元画像を生成することが可能になる。
(Corresponding embodiment)
The embodiment related to the three-dimensional modeling apparatus described in (6) corresponds to the third embodiment.
(Function and effect)
According to the three-dimensional modeling apparatus described in (6), it is necessary to photograph from a plurality of viewpoints in order to generate a full-circle three-dimensional image of the target three-dimensional model. Shoots to have overlapping areas, and uses the optimal texture for the overlapping areas, or generates the optimal texture by combining multiple textures corresponding to the overlapping areas In addition, by performing texture mapping, a higher-quality three-dimensional image can be generated.

(7) 上記投影表示手段は、上記共通な領域におけるレンダリングに適切なテクスチャ画像の選択基準として、該領域内の3次元モデルの各ポリゴンの垂線方向と上記画像入力装置の視線方向とのなす角度が小さい方を選択することを特徴とする(6)に記載の3次元モデリング装置。   (7) The projection display means uses, as a selection criterion for a texture image suitable for rendering in the common area, an angle formed between the perpendicular direction of each polygon of the three-dimensional model in the area and the line-of-sight direction of the image input device. The three-dimensional modeling apparatus according to (6), wherein the smaller one is selected.

(対応する実施形態)
この(7)に記載の3次元モデリング装置に関する実施形態は、第3実施形態が対応する。
(作用効果)
この(7)に記載の3次元モデリング装置によれば、対象とする3次元モデルの全周3次元画像を生成するためには複数の視点から撮影することが必要になるが、撮影の際には重なる領域を持つように撮影を行い、重なった領域に対しては最適な方のテクスチャを利用するか、または重なる領域に対応する複数のテクスチャの合成処理を行うことにより、最適なテクスチャを生成した上でテクスチャマッピングを行うことで、より高画質な3次元画像を生成することが可能になる。最適テクスチャ選択の条件としては、画像入力装置の視線情報とポリゴンの垂線の方向とのなす角を判断基準として利用し、角度の小さい方を採用することにより、正面から撮影したものに近い画像を選択することができ、歪み量が小さくできるため、より現実の画像に近い3次元画像を生成することが可能である。
(Corresponding embodiment)
The embodiment related to the three-dimensional modeling apparatus described in (7) corresponds to the third embodiment.
(Function and effect)
According to the three-dimensional modeling apparatus described in (7), it is necessary to photograph from a plurality of viewpoints in order to generate a full-circle three-dimensional image of the target three-dimensional model. Shoots to have overlapping areas, and uses the optimal texture for the overlapping areas, or generates the optimal texture by combining multiple textures corresponding to the overlapping areas In addition, by performing texture mapping, a higher-quality three-dimensional image can be generated. The optimum texture selection condition is to use the angle formed by the line-of-sight information of the image input device and the direction of the normal of the polygon as a criterion, and by adopting the one with the smaller angle, an image close to what was photographed from the front is used. Since it can be selected and the amount of distortion can be reduced, a three-dimensional image closer to a real image can be generated.

(8) 対象オブジェクトを撮影した動画像または画像列の各画像と対応する位置・姿勢情報、さらに、3次元モデルの各ポリゴンに対応する最適テクスチャ画像とを関連付けした上でデータベース化して登録しておき、
任意視点レンダリングを行う際に、常に各ポリゴンに対して最適なテクスチャ画像を対応させてレンダリングが行える、
ことを特徴とする(1)乃至(7)の何れかに記載の3次元モデリング装置。
(8) The position and orientation information corresponding to each image of the moving image or image sequence obtained by photographing the target object and the optimum texture image corresponding to each polygon of the three-dimensional model are associated with each other and registered as a database. Every
When performing arbitrary viewpoint rendering, rendering can be performed by always matching the optimum texture image for each polygon.
(3) The three-dimensional modeling apparatus according to any one of (1) to (7).

(対応する実施形態)
この(8)に記載の3次元モデリング装置に関する実施形態は、第5実施形態が対応する。
(作用効果)
各ポリゴンに対して最適なテクスチャを選択または生成する処理はコストのかかる処理となるため、リアルタイムでのレンダリングには向かない可能性がある。そのため、この(8)に記載の3次元モデリング装置では、最適なテクスチャを選択した後で、対応するポリゴンと関連付けを行った上でデータベースに登録しておき、次に利用する際にはデータベースを参照するようにすることで、リアルタイムでのレンダリングが可能となり、より使い易い3次元画像を生成することができる。
(Corresponding embodiment)
The fifth embodiment corresponds to the embodiment relating to the three-dimensional modeling apparatus described in (8).
(Function and effect)
Since the process of selecting or generating an optimal texture for each polygon is a costly process, it may not be suitable for real-time rendering. For this reason, in the three-dimensional modeling apparatus described in (8), after selecting an optimal texture, it is associated with the corresponding polygon, registered in the database, and stored in the database for next use. By making the reference, rendering in real time becomes possible, and a three-dimensional image that is easier to use can be generated.

(9) 対象オブジェクトを撮影した動画像または画像列を異なる時間帯において取得し、
取得された任意時間帯の動画像または画像列から得たテクスチャ画像を投影してレンダリングする、
ことを特徴とする(1)乃至(8)の何れかに記載の3次元モデリング装置。
(9) Acquiring moving images or image sequences of the target object in different time zones,
Project and render a texture image obtained from a video or an image sequence acquired in an arbitrary time zone,
The three-dimensional modeling apparatus according to any one of (1) to (8), wherein

(対応する実施形態)
この(9)に記載の3次元モデリング装置に関する実施形態は、第6実施形態が対応する。
(作用効果)
3次元形状モデルは変化することはないが、テクスチャに関しては、時間帯、または季節による変化を生じることがある。そのため、この(9)に記載の3次元モデリング装置では、異なる時間帯でのテクスチャを撮影、さらに、各ポリゴンとの最適テクスチャ対応付け処理を行った情報をデータベース化しておくことにより、利用者は任意の時間帯での3次元画像のレンダリングを行うことができるようになり、生成された3次元画像の利用範囲が広範となる。
(Corresponding embodiment)
The embodiment related to the three-dimensional modeling apparatus described in (9) corresponds to the sixth embodiment.
(Function and effect)
The three-dimensional shape model does not change, but the texture may change with time or season. Therefore, in the three-dimensional modeling apparatus described in (9), the user can capture a texture in different time zones and further create a database of information obtained by performing an optimum texture association process with each polygon. It becomes possible to perform rendering of a three-dimensional image in an arbitrary time zone, and the use range of the generated three-dimensional image becomes wide.

(10) 3次元形状モデルに対してテクスチャマッピングを行い、任意視点でのレンダリングが行えるように3次元モデリングを行う3次元モデリング方法において、
対象オブジェクトの形状情報を入力し、
対象オブジェクトを画像入力装置の移動により撮影して得られた動画像または時系列的に連続的な画像列を入力し、
上記入力された動画像または画像列に基づいて上記画像入力装置の位置・姿勢情報を算出し、
上記算出された上記画像入力装置の位置・姿勢情報を、上記入力された動画像を構成する画像列または上記入力された時系列的に連続的な画像列に含まれる各テクスチャ画像に対して関連付けを行い、
上記入力された対象オブジェクトの形状情報から、上記算出された上記画像入力装置の位置・姿勢情報に従って上記画像入力装置の各位置・姿勢に対応する3次元モデルをレンダリングし、
上記レンダリングされた3次元モデル上に、上記画像入力装置の各位置・姿勢に対応する、上記関連付けされた各テクスチャ画像を投影して表示する、
ことを特徴とする3次元モデリング方法。
(10) In a 3D modeling method for performing texture mapping on a 3D shape model and performing 3D modeling so that rendering can be performed at an arbitrary viewpoint,
Enter the shape information of the target object,
Input a moving image obtained by photographing the target object by moving the image input device or a continuous image sequence in time series,
Calculate the position / posture information of the image input device based on the input moving image or image sequence,
Associating the calculated position / posture information of the image input device with each texture image included in the image sequence constituting the input moving image or the input time-series continuous image sequence And
Rendering a three-dimensional model corresponding to each position / posture of the image input device according to the calculated position / posture information of the image input device from the shape information of the input target object,
Projecting and displaying each of the associated texture images corresponding to each position and orientation of the image input device on the rendered three-dimensional model;
A three-dimensional modeling method characterized by this.

(対応する実施形態)
この(10)に記載の3次元モデリング方法に関する実施形態は、第1乃至第6実施形態が対応する。
(作用効果)
この(10)に記載の3次元モデリング方法によれば、画像入力装置による視点を移動しながらの動画像または連続画像取得による画像入力装置の位置・姿勢情報の算出ができるので、他の画像入力装置の位置・姿勢計測手段を利用せずに済むため、簡易なシステムを構成することが可能である。
(Corresponding embodiment)
The first to sixth embodiments correspond to the embodiment relating to the three-dimensional modeling method described in (10).
(Function and effect)
According to the three-dimensional modeling method described in (10), the position / posture information of the image input device can be calculated by acquiring a moving image or a continuous image while moving the viewpoint by the image input device. Since it is not necessary to use the position / posture measuring unit of the apparatus, a simple system can be configured.

(11) コンピュータに、3次元形状モデルに対してテクスチャマッピングを行い、任意視点でのレンダリングが行えるように3次元モデリングを行わせるプログラムにおいて、
対象オブジェクトの形状情報を入力する機能と、
対象オブジェクトを画像入力装置の移動により撮影して得られた動画像または時系列的に連続的な画像列を入力する機能と、
上記入力された動画像または画像列に基づいて上記画像入力装置の位置・姿勢情報を算出する機能と、
上記算出された上記画像入力装置の位置・姿勢情報を、上記入力された動画像を構成する画像列または上記入力された時系列的に連続的な画像列に含まれる各テクスチャ画像に対して関連付けを行う機能と、
上記入力された対象オブジェクトの形状情報から、上記算出された上記画像入力装置の位置・姿勢情報に従って上記画像入力装置の各位置・姿勢に対応する3次元モデルをレンダリングする機能と、
上記レンダリングされた3次元モデル上に、上記画像入力装置の各位置・姿勢に対応する、上記関連付けされた各テクスチャ画像を投影して表示する機能と、
を実現させるためのプログラム。
(11) In a program that causes a computer to perform texture mapping on a three-dimensional shape model and perform three-dimensional modeling so that rendering can be performed from an arbitrary viewpoint,
A function to input the shape information of the target object,
A function of inputting a moving image obtained by photographing the target object by moving the image input device or a continuous image sequence in time series;
A function for calculating position / posture information of the image input device based on the input moving image or image sequence;
Associating the calculated position / posture information of the image input device with each texture image included in the image sequence constituting the input moving image or the input time-series continuous image sequence With the ability to
A function of rendering a three-dimensional model corresponding to each position / posture of the image input device according to the calculated position / posture information of the image input device from the input shape information of the target object;
A function of projecting and displaying the associated texture images corresponding to the positions and orientations of the image input device on the rendered three-dimensional model;
A program to realize

(対応する実施形態)
この(11)に記載のプログラムに関する実施形態は、第1乃至第6実施形態が対応する。
(作用効果)
この(11)に記載のプログラムによれば、画像入力装置による視点を移動しながらの動画像または連続画像取得による画像入力装置の位置・姿勢情報の算出ができるので、他の画像入力装置の位置・姿勢計測手段を利用せずに済むため、簡易なシステムを構成することが可能である。
(Corresponding embodiment)
Embodiments relating to the program described in (11) correspond to the first to sixth embodiments.
(Function and effect)
According to the program described in (11), the position / posture information of the image input device can be calculated by moving image or continuous image acquisition while moving the viewpoint by the image input device. -Since it is not necessary to use posture measuring means, a simple system can be configured.

本発明の第1乃至第3実施形態に係る3次元モデリング装置の全体的な概略構成を示す図である。It is a figure which shows the whole schematic structure of the three-dimensional modeling apparatus which concerns on the 1st thru | or 3rd embodiment of this invention. (A)は対象オブジェクトの3次元形状モデルを示す図、(B)は画像入力装置による対象オブジェクトの連続視点移動画像の撮影場面を表した図、(C)は3次元モデル上へのテクスチャ画像のマッピングまたは投影を説明するための図であり、(D)は全周画像のテクスチャマッピングを説明するための図である。(A) is a diagram showing a three-dimensional shape model of the target object, (B) is a diagram showing a shooting scene of a continuous viewpoint moving image of the target object by the image input device, and (C) is a texture image on the three-dimensional model. (D) is a figure for demonstrating the texture mapping of a perimeter image. (A)は第1実施形態に係る3次元モデリング装置の動作フローチャートを示す図、(B)は本発明の第2実施形態に係る3次元モデリング装置の動作フローチャートを示す図であり、(C)は本発明の第3実施形態に係る3次元モデリング装置の動作フローチャートを示す図である。(A) is a diagram showing an operation flowchart of the three-dimensional modeling apparatus according to the first embodiment, (B) is a diagram showing an operation flowchart of the three-dimensional modeling apparatus according to the second embodiment of the present invention, (C) These are figures which show the operation | movement flowchart of the three-dimensional modeling apparatus which concerns on 3rd Embodiment of this invention. (A)は対象オブジェクトを視点を移動しながら撮影を行う場合の視点の移動と共に撮影される領域が移動することを説明するための図であり、(B)は複数の視点位置でレンダリング可能な重複領域を説明するための図である。(A) is a figure for demonstrating that the area | region image | photographed moves with the movement of a viewpoint at the time of imaging | photography while moving a viewpoint of a target object, (B) can be rendered by several viewpoint positions. It is a figure for demonstrating an overlap area | region. 本発明の第4実施形態における複数の視点からのテクスチャマッピングまたは投影情報を表示するための表示画面構成の例を示す図である。It is a figure which shows the example of the display screen structure for displaying the texture mapping or projection information from the several viewpoint in 4th Embodiment of this invention. 本発明の第5実施形態における3次元形状モデルを構成するポリゴン等の各構成要素に対して各視点ごとに最適なテクスチャを関連付けしてデータベース化しておく方法及び本発明の第6実施形態における異なる時間帯についてデータベース化しておく方法を説明するための、各構成要素についての各視点及び各時間での最適テクスチャの関係を示す図である。A method of associating an optimum texture with each viewpoint for each component such as a polygon constituting a three-dimensional shape model in the fifth embodiment of the present invention and creating a database, and a difference in the sixth embodiment of the present invention It is a figure which shows the relationship of the optimal texture in each viewpoint and each time about each component for demonstrating the method of making a database about a time slot | zone.

符号の説明Explanation of symbols

1…演算装置、 2…表示装置、 3…指示装置、 4…画像入力装置、 11…データベース、 12…画像入力部、 13…特徴点・線・領域抽出処理演算部、 14…カメラ位置・姿勢情報演算部、 15…画像と対応する位置・姿勢情報関連付け部、 16…モデルの位置・姿勢に基づいたレンダリング情報演算部、 17…テクスチャ投影情報演算部、 18…複数視点画像統合演算部、 19…ポリゴンと最適テクスチャ関連付け部、 21…前表示領域、 21A…3次元画像レンダリングウィンドウ、 21B−1〜21B−n…サブウィンドウ、 21C…コントロールパネル、 51〜53…視点、 61,62…領域、 63,64…重複領域。     DESCRIPTION OF SYMBOLS 1 ... Arithmetic unit, 2 ... Display device, 3 ... Instruction device, 4 ... Image input device, 11 ... Database, 12 ... Image input unit, 13 ... Feature point / line / region extraction processing calculation unit, 14 ... Camera position / posture Information computing unit 15. Position / attitude information associating unit corresponding to image 16. Rendering information computing unit based on model position and orientation 17. Texture projection information computing unit 18. Multiple viewpoint image integration computing unit 19 ... Polygon and optimum texture associating portion 21. Previous display area 21 A 3D image rendering window 21 B- 1 to 21 Bn Sub-window 21 C Control panel 51 to 53 View point 61 62 62 Area 63 , 64 ... Overlapping area.

Claims (11)

3次元形状モデルに対してテクスチャマッピングを行い、任意視点でのレンダリングが行えるように3次元モデリングを行う3次元モデリング装置において、
対象オブジェクトの形状情報を入力する形状情報入力手段と、
対象オブジェクトを画像入力装置の移動により撮影して得られた動画像または時系列的に連続的な画像列を入力する画像入力手段と、
上記画像入力手段によって入力された動画像または画像列に基づいて上記画像入力装置の位置・姿勢情報を算出する位置・姿勢情報算出手段と、
上記位置・姿勢情報算出手段によって算出された上記画像入力装置の位置・姿勢情報を、上記画像入力手段によって入力された動画像を構成する画像列または上記画像入力手段によって入力された時系列的に連続的な画像列に含まれる各テクスチャ画像に対して関連付けを行う関連付け手段と、
上記形状情報入力手段によって入力された対象オブジェクトの形状情報から、上記位置・姿勢情報算出手段によって算出された上記画像入力装置の位置・姿勢情報に従って上記画像入力装置の各位置・姿勢に対応する3次元モデルをレンダリングするレンダリング手段と、
上記レンダリング手段によってレンダリングされた3次元モデル上に、上記画像入力装置の各位置・姿勢に対応する、上記関連付け手段で関連付けされた各テクスチャ画像を投影して表示する投影表示手段と、
を具備することを特徴とする3次元モデリング装置。
In a 3D modeling device that performs texture mapping on a 3D shape model and performs 3D modeling so that rendering can be performed from an arbitrary viewpoint,
Shape information input means for inputting shape information of the target object;
An image input means for inputting a moving image obtained by photographing the target object by moving the image input device or a continuous image sequence in time series;
Position / attitude information calculating means for calculating position / attitude information of the image input device based on a moving image or an image sequence input by the image input means;
The position / orientation information of the image input device calculated by the position / orientation information calculating means is the time series input by the image sequence constituting the moving image input by the image input means or the image input means. Association means for associating each texture image included in the continuous image sequence;
3 corresponding to each position / posture of the image input device according to the position / posture information of the image input device calculated by the position / posture information calculation unit from the shape information of the target object input by the shape information input unit. A rendering means for rendering a dimensional model;
Projection display means for projecting and displaying each texture image associated by the association means corresponding to each position / posture of the image input device on the three-dimensional model rendered by the rendering means;
A three-dimensional modeling apparatus comprising:
上記位置・姿勢情報算出手段は、上記画像入力手段によって入力された動画像または画像列における画像内の特徴点、特徴的な線分、特徴的な形状の少なくとも一つを抽出し、それら抽出した特徴的な点、線分、形状を追跡し、三角測量の原理に基づいて、上記画像入力装置の位置・姿勢情報を算出することを特徴とする請求項1に記載の3次元モデリング装置。   The position / posture information calculation means extracts at least one of feature points, characteristic line segments, and characteristic shapes in an image in the moving image or image sequence input by the image input means, and extracts these The three-dimensional modeling apparatus according to claim 1, wherein characteristic point, line segment, and shape are tracked, and position / posture information of the image input apparatus is calculated based on a principle of triangulation. 時間変化と共に算出された上記画像入力装置の各位置の姿勢情報ごとに投影されるテクスチャ画像が上記レンダリング手段によってレンダリングされた3次元モデル上を移動する際に、既に投影された領域に対しては、その領域に投影されたテクスチャ画像を保持し、上記画像入力装置の位置・姿勢の変化と共に一度でも投影が行われた領域に対しては、投影されたテクスチャ画像が残されてレンダリングが行われることを特徴とする請求項1または2に記載の3次元モデリング装置。   When the texture image projected for each posture information of each position of the image input device calculated with time change moves on the three-dimensional model rendered by the rendering means, The texture image projected on the area is held, and the projected texture image is left and rendered on the area that has been projected even once with the change of the position / posture of the image input device. The three-dimensional modeling apparatus according to claim 1 or 2, characterized in that 上記画像入力装置の位置・姿勢の移動と共に投影されるテクスチャ画像に対し、3次元形状モデルに対応付けられる画像の変化と共に3次元モデルの各ポリゴンに対応付けられる画像領域が変化するときに、各ポリゴンと対応する画像領域とが最適に対応付けられるように、各ポリゴンごとにマッピングするテクスチャ画像の更新を行うか否かを判断する判断手段をさらに具備することを特徴とする請求項3に記載の3次元モデリング装置。   When the image region associated with each polygon of the three-dimensional model changes with the change of the image associated with the three-dimensional shape model with respect to the texture image projected along with the movement of the position / posture of the image input device, 4. The apparatus according to claim 3, further comprising a determination unit that determines whether or not to update a texture image mapped for each polygon so that the polygon and the corresponding image region are optimally associated with each other. 3D modeling equipment. 上記判断手段は、各ポリゴン領域のテクスチャ画像の更新を行うか否かの判断を行う基準として、上記画像入力装置の視線方向と対応するポリゴンの垂線方向との角度が小さい方を選択することを特徴とする請求項4に記載の3次元モデリング装置。   The determination means selects, as a reference for determining whether or not to update the texture image of each polygon area, the one having a smaller angle between the line-of-sight direction of the image input device and the corresponding perpendicular direction of the polygon. The three-dimensional modeling apparatus according to claim 4, wherein the three-dimensional modeling apparatus is characterized. 上記画像入力手段が入力する動画像または時系列的に連続的な画像列は、共通な撮影領域を含むように上記画像入力装置により複数の方向から撮影された動画像または画像列であり、
上記位置・姿勢情報算出手段は、その複数の方向から撮影された動画像または画像列を構成する各画像よりそれぞれ上記画像入力装置の位置・姿勢情報を算出し、
上記投影表示手段は、上記複数の方向から撮影された動画像または画像列における共通な領域のテクスチャマッピングを行う際に、レンダリングに適切なテクスチャ画像を選択または複数のテクスチャ画像より適切なテクスチャ画像を生成する、
ことを特徴とする請求項1乃至5の何れかに記載の3次元モデリング装置。
The moving image or time-series continuous image sequence input by the image input means is a moving image or image sequence photographed from a plurality of directions by the image input device so as to include a common photographing region,
The position / posture information calculation means calculates the position / posture information of the image input device from each of the moving images taken from the plurality of directions or images constituting the image sequence,
The projection display means selects a texture image suitable for rendering or a texture image more appropriate than a plurality of texture images when performing texture mapping of a common area in a moving image or image sequence captured from the plurality of directions. Generate,
The three-dimensional modeling apparatus according to any one of claims 1 to 5, wherein
上記投影表示手段は、上記共通な領域におけるレンダリングに適切なテクスチャ画像の選択基準として、該領域内の3次元モデルの各ポリゴンの垂線方向と上記画像入力装置の視線方向とのなす角度が小さい方を選択することを特徴とする請求項6に記載の3次元モデリング装置。   The projection display means has a smaller angle formed between the perpendicular direction of each polygon of the three-dimensional model in the common area and the line-of-sight direction of the image input device as a selection criterion for a texture image suitable for rendering in the common area. The three-dimensional modeling apparatus according to claim 6, wherein the three-dimensional modeling apparatus is selected. 対象オブジェクトを撮影した動画像または画像列の各画像と対応する位置・姿勢情報、さらに、3次元モデルの各ポリゴンに対応する最適テクスチャ画像とを関連付けした上でデータベース化して登録しておき、
任意視点レンダリングを行う際に、常に各ポリゴンに対して最適なテクスチャ画像を対応させてレンダリングが行える、
ことを特徴とする請求項1乃至7の何れかに記載の3次元モデリング装置。
Position and orientation information corresponding to each image of the moving image or image sequence in which the target object is captured, and an optimum texture image corresponding to each polygon of the three-dimensional model are associated with each other and registered as a database,
When performing arbitrary viewpoint rendering, rendering can be performed by always matching the optimum texture image for each polygon.
The three-dimensional modeling apparatus according to any one of claims 1 to 7,
対象オブジェクトを撮影した動画像または画像列を異なる時間帯において取得し、
取得された任意時間帯の動画像または画像列から得たテクスチャ画像を投影してレンダリングする、
ことを特徴とする請求項1乃至8の何れかに記載の3次元モデリング装置。
Acquire a moving image or image sequence of the target object at different times,
Project and render a texture image obtained from a video or an image sequence acquired in an arbitrary time zone,
The three-dimensional modeling apparatus according to any one of claims 1 to 8,
3次元形状モデルに対してテクスチャマッピングを行い、任意視点でのレンダリングが行えるように3次元モデリングを行う3次元モデリング方法において、
対象オブジェクトの形状情報を入力し、
対象オブジェクトを画像入力装置の移動により撮影して得られた動画像または時系列的に連続的な画像列を入力し、
上記入力された動画像または画像列に基づいて上記画像入力装置の位置・姿勢情報を算出し、
上記算出された上記画像入力装置の位置・姿勢情報を、上記入力された動画像を構成する画像列または上記入力された時系列的に連続的な画像列に含まれる各テクスチャ画像に対して関連付けを行い、
上記入力された対象オブジェクトの形状情報から、上記算出された上記画像入力装置の位置・姿勢情報に従って上記画像入力装置の各位置・姿勢に対応する3次元モデルをレンダリングし、
上記レンダリングされた3次元モデル上に、上記画像入力装置の各位置・姿勢に対応する、上記関連付けされた各テクスチャ画像を投影して表示する、
ことを特徴とする3次元モデリング方法。
In the 3D modeling method of performing texture mapping on a 3D shape model and performing 3D modeling so that rendering can be performed from an arbitrary viewpoint,
Enter the shape information of the target object,
Input a moving image obtained by photographing the target object by moving the image input device or a continuous image sequence in time series,
Calculate the position / posture information of the image input device based on the input moving image or image sequence,
Associating the calculated position / posture information of the image input device with each texture image included in the image sequence constituting the input moving image or the input time-series continuous image sequence And
Rendering a three-dimensional model corresponding to each position / posture of the image input device according to the calculated position / posture information of the image input device from the shape information of the input target object,
Projecting and displaying each of the associated texture images corresponding to each position and orientation of the image input device on the rendered three-dimensional model;
A three-dimensional modeling method characterized by this.
コンピュータに、3次元形状モデルに対してテクスチャマッピングを行い、任意視点でのレンダリングが行えるように3次元モデリングを行わせるプログラムにおいて、
対象オブジェクトの形状情報を入力する機能と、
対象オブジェクトを画像入力装置の移動により撮影して得られた動画像または時系列的に連続的な画像列を入力する機能と、
上記入力された動画像または画像列に基づいて上記画像入力装置の位置・姿勢情報を算出する機能と、
上記算出された上記画像入力装置の位置・姿勢情報を、上記入力された動画像を構成する画像列または上記入力された時系列的に連続的な画像列に含まれる各テクスチャ画像に対して関連付けを行う機能と、
上記入力された対象オブジェクトの形状情報から、上記算出された上記画像入力装置の位置・姿勢情報に従って上記画像入力装置の各位置・姿勢に対応する3次元モデルをレンダリングする機能と、
上記レンダリングされた3次元モデル上に、上記画像入力装置の各位置・姿勢に対応する、上記関連付けされた各テクスチャ画像を投影して表示する機能と、
を実現させるためのプログラム。
In a program that causes a computer to perform texture mapping on a 3D shape model and perform 3D modeling so that rendering can be performed from an arbitrary viewpoint,
A function to input the shape information of the target object,
A function of inputting a moving image obtained by photographing the target object by moving the image input device or a continuous image sequence in time series;
A function for calculating position / posture information of the image input device based on the input moving image or image sequence;
Associating the calculated position / posture information of the image input device with each texture image included in the image sequence constituting the input moving image or the input time-series continuous image sequence With the ability to
A function of rendering a three-dimensional model corresponding to each position / posture of the image input device according to the calculated position / posture information of the image input device from the input shape information of the target object;
A function of projecting and displaying the associated texture images corresponding to the positions and orientations of the image input device on the rendered three-dimensional model;
A program to realize
JP2003290412A 2003-08-08 2003-08-08 Three-dimensional modeling apparatus, method, and program Pending JP2005063041A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003290412A JP2005063041A (en) 2003-08-08 2003-08-08 Three-dimensional modeling apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003290412A JP2005063041A (en) 2003-08-08 2003-08-08 Three-dimensional modeling apparatus, method, and program

Publications (1)

Publication Number Publication Date
JP2005063041A true JP2005063041A (en) 2005-03-10

Family

ID=34368455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003290412A Pending JP2005063041A (en) 2003-08-08 2003-08-08 Three-dimensional modeling apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP2005063041A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219715A (en) * 2006-02-15 2007-08-30 Dainippon Printing Co Ltd Method and device for preparing reflectance property data of object
JP2010267232A (en) * 2009-05-18 2010-11-25 Canon Inc Method and device for estimating positional orientation
JP2014126906A (en) * 2012-12-25 2014-07-07 Casio Comput Co Ltd Display control apparatus, display control system, display control method, and program
CN104539875A (en) * 2014-09-05 2015-04-22 王学魁 Video monitoring method and system
CN104683758A (en) * 2014-12-25 2015-06-03 合肥寰景信息技术有限公司 Three-dimensional video monitoring method capable of conveniently obtaining specific positions and surroundings
CN106782260A (en) * 2016-12-06 2017-05-31 歌尔科技有限公司 For the display methods and device of virtual reality moving scene
WO2017113729A1 (en) * 2015-12-28 2017-07-06 乐视控股(北京)有限公司 360-degree image loading method and loading module, and mobile terminal
CN110858414A (en) * 2018-08-13 2020-03-03 北京嘀嘀无限科技发展有限公司 Image processing method and device, readable storage medium and augmented reality system
CN111275803A (en) * 2020-02-25 2020-06-12 北京百度网讯科技有限公司 3D model rendering method, device, equipment and storage medium
CN115797535A (en) * 2023-01-05 2023-03-14 深圳思谋信息科技有限公司 Three-dimensional model texture mapping method and related device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07264458A (en) * 1994-03-25 1995-10-13 Olympus Optical Co Ltd Moving object tracking device
JPH09134449A (en) * 1995-11-09 1997-05-20 Ainesu:Kk Texture mapping method for three-dimensional model
JPH09147147A (en) * 1995-11-17 1997-06-06 Fujitsu Ltd Texuture editing system
JPH10283487A (en) * 1997-04-04 1998-10-23 Fujitsu F I P Kk Multiple texture mapping device and method therefor and storage medium storing program for multiple texture mapping
JP2000348213A (en) * 1999-06-07 2000-12-15 Sanyo Electric Co Ltd Three-dimensional image generating device, three- dimensional image generating and display device, and method thereof and recording medium
JP2001243497A (en) * 2000-02-28 2001-09-07 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional image processing method, three- dimensional modeling method, and recording medium with recorded three-dimensional image processing program
JP2002024850A (en) * 2000-07-03 2002-01-25 Sony Corp Device and method for forming three-dimensional image and program providing medium
JP2002032741A (en) * 2000-07-13 2002-01-31 Sony Corp System and method for three-dimensional image generation and program providing medium
JP2003015816A (en) * 2001-06-29 2003-01-17 Honda Motor Co Ltd Face/visual line recognizing device using stereo camera
JP2003115058A (en) * 2001-08-02 2003-04-18 Matsushita Electric Ind Co Ltd Display device and display method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07264458A (en) * 1994-03-25 1995-10-13 Olympus Optical Co Ltd Moving object tracking device
JPH09134449A (en) * 1995-11-09 1997-05-20 Ainesu:Kk Texture mapping method for three-dimensional model
JPH09147147A (en) * 1995-11-17 1997-06-06 Fujitsu Ltd Texuture editing system
JPH10283487A (en) * 1997-04-04 1998-10-23 Fujitsu F I P Kk Multiple texture mapping device and method therefor and storage medium storing program for multiple texture mapping
JP2000348213A (en) * 1999-06-07 2000-12-15 Sanyo Electric Co Ltd Three-dimensional image generating device, three- dimensional image generating and display device, and method thereof and recording medium
JP2001243497A (en) * 2000-02-28 2001-09-07 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional image processing method, three- dimensional modeling method, and recording medium with recorded three-dimensional image processing program
JP2002024850A (en) * 2000-07-03 2002-01-25 Sony Corp Device and method for forming three-dimensional image and program providing medium
JP2002032741A (en) * 2000-07-13 2002-01-31 Sony Corp System and method for three-dimensional image generation and program providing medium
JP2003015816A (en) * 2001-06-29 2003-01-17 Honda Motor Co Ltd Face/visual line recognizing device using stereo camera
JP2003115058A (en) * 2001-08-02 2003-04-18 Matsushita Electric Ind Co Ltd Display device and display method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
岩切裕哉, 外2名: ""撮影誤差を考慮したテクスチャ画像取得法"", 電子情報通信学会論文誌, vol. 第J84−D−II巻, 第12号, JPN6008063765, 1 December 2001 (2001-12-01), JP, pages 2595 - 2604, ISSN: 0001207367 *
松下賢治, 外1名: ""3次元物体表面テクスチャを得る効率的画像マッピング法"", 電子情報通信学会論文誌, vol. 第J83−D−II巻, 第2号, JPN6008063763, 25 February 2000 (2000-02-25), JP, pages 525 - 534, ISSN: 0001207366 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219715A (en) * 2006-02-15 2007-08-30 Dainippon Printing Co Ltd Method and device for preparing reflectance property data of object
JP2010267232A (en) * 2009-05-18 2010-11-25 Canon Inc Method and device for estimating positional orientation
JP2014126906A (en) * 2012-12-25 2014-07-07 Casio Comput Co Ltd Display control apparatus, display control system, display control method, and program
CN104539875A (en) * 2014-09-05 2015-04-22 王学魁 Video monitoring method and system
CN104683758A (en) * 2014-12-25 2015-06-03 合肥寰景信息技术有限公司 Three-dimensional video monitoring method capable of conveniently obtaining specific positions and surroundings
WO2017113729A1 (en) * 2015-12-28 2017-07-06 乐视控股(北京)有限公司 360-degree image loading method and loading module, and mobile terminal
CN106782260A (en) * 2016-12-06 2017-05-31 歌尔科技有限公司 For the display methods and device of virtual reality moving scene
CN110858414A (en) * 2018-08-13 2020-03-03 北京嘀嘀无限科技发展有限公司 Image processing method and device, readable storage medium and augmented reality system
CN111275803A (en) * 2020-02-25 2020-06-12 北京百度网讯科技有限公司 3D model rendering method, device, equipment and storage medium
CN111275803B (en) * 2020-02-25 2023-06-02 北京百度网讯科技有限公司 3D model rendering method, device, equipment and storage medium
CN115797535A (en) * 2023-01-05 2023-03-14 深圳思谋信息科技有限公司 Three-dimensional model texture mapping method and related device

Similar Documents

Publication Publication Date Title
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
JP4401727B2 (en) Image display apparatus and method
US8941750B2 (en) Image processing device for generating reconstruction image, image generating method, and storage medium
JP5093053B2 (en) Electronic camera
JP4115117B2 (en) Information processing apparatus and method
KR101915729B1 (en) Apparatus and Method for Generating 360 degree omni-directional view
JP2006244387A (en) Three-dimensional model generating device, and its method and program
CN102724398B (en) Image data providing method, combination method thereof, and presentation method thereof
JP2021532649A (en) Methods and data processing systems for image composition
JP2012185772A (en) Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera
JP2004015205A (en) Multi-projection system and correction data acquisition method in multi-projection system
JP2003179800A (en) Device for generating multi-viewpoint image, image processor, method and computer program
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
KR101704362B1 (en) System for real time making of panoramic video base on lookup table and Method for using the same
JP4108171B2 (en) Image synthesizer
JP3643511B2 (en) 3D image processing method, 3D modeling method, and recording medium recording 3D image processing program
WO2021161878A1 (en) Image processing device, image processing method, method of generating learned model, and program
JP2005141655A (en) Three-dimensional modeling apparatus and three-dimensional modeling method
JP2011170174A (en) Optical projection stabilizing device, optical projection stabilization method and program
US9602708B2 (en) Rectified stereoscopic 3D panoramic picture
JP2011146762A (en) Solid model generator
JPH09212626A (en) Image editing method and device therefor
JP6835455B2 (en) Programs, devices and methods for correcting depth values in time-series depth images
WO2022091811A1 (en) Image processing device, image processing method, and image processing system
JP6930011B2 (en) Information processing equipment, information processing system, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090414