JP2000251074A - Method and device for image generating processing - Google Patents

Method and device for image generating processing

Info

Publication number
JP2000251074A
JP2000251074A JP11054186A JP5418699A JP2000251074A JP 2000251074 A JP2000251074 A JP 2000251074A JP 11054186 A JP11054186 A JP 11054186A JP 5418699 A JP5418699 A JP 5418699A JP 2000251074 A JP2000251074 A JP 2000251074A
Authority
JP
Japan
Prior art keywords
image
viewpoint
thing
images
generation processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11054186A
Other languages
Japanese (ja)
Inventor
Hiroshi Sugitani
博史 杉谷
Takashi Torio
隆 鳥生
Toshio Endo
利生 遠藤
Satoshi Otake
聡 大竹
Masaaki Yoshikawa
正晃 吉川
Noritsune Sekiguchi
憲恒 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Toray Industries Inc
Original Assignee
Fujitsu Ltd
Toray Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Toray Industries Inc filed Critical Fujitsu Ltd
Priority to JP11054186A priority Critical patent/JP2000251074A/en
Publication of JP2000251074A publication Critical patent/JP2000251074A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily generate the synthetic image of two objects watched from any arbitrary viewpoint. SOLUTION: The image of the head is photographed by a TV camera 2 while letting a person sit on a motor-driven rotary chair 1 and rotating the chair, images for one rotation are stored in a storage part 3 for multi-viewpoint images, and a rotation angle at every point of time of photographing the image is reported from the motor-driven rotary chair 1 to an acquisition part 4 for viewpoints. In a face image generating part 5, the viewpoint closest to a viewpoint arbitrarily designated by a viewpoint setting part 8 is selected, the area of the face in the multi-viewpoint images corresponding to the viewpoint is extracted and outputted and in a position aligning and synthesizing part 6, first of all, a rotary axis in the image is detected on the basis of the image in the face area. Next, the lowest part of the jaw is detected by a jaw position detecting part 6b in respective front and side images after area extraction. In an image synthesizing part 6d, the image of a human body and the image of the head after position alignment are synthesized.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、画像生成処理方
法およびその装置に関し、さらに詳細にいえば、ある事
物を複数の視点から撮影した複数枚の静止画像を基に、
任意に設定した視点から見た画像を生成する方法および
その装置、このように生成された画像を他の事物を同じ
視点から見たときの画像とを位置を合わせて合成する方
法およびその装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image generation processing method and apparatus, and more particularly, to an image generation processing method and apparatus based on a plurality of still images obtained by photographing an object from a plurality of viewpoints.
The present invention relates to a method and an apparatus for generating an image viewed from an arbitrarily set viewpoint, and a method and an apparatus for synthesizing an image generated in this way by aligning an image obtained when another object is viewed from the same viewpoint. .

【0002】[0002]

【従来の技術】例えば、アパレル業界においては、衣服
の3次元着装シミュレーションと3次元CADとを連動
させることによって顧客の要望を素早く一品生産に反映
させる新しい生産・流通システムの実現が望まれている
が、その際、店頭で顧客自身の顔を撮影し、それをCG
(コンピュータ・グラフィックス)で作成した衣服の像
と3次元的に合成して表示すれば、顧客自身がその衣服
を着装したときの姿をより的確に把握できる。別の例と
しては、CGで作成した眼鏡と顧客自身の顔とを合成す
ることによって、好みの眼鏡を素早く見つけることがで
きるシステムの実現が望まれている。また、対象となる
のは必ずしも顔には限らず、例えば、壺や工芸品などの
美術作品を複数の視点から撮影した実写画像を基に、C
Gで作成した博物館の内部において任意の視点から見た
画像を生成することによって、電子的な博物館を実現す
るシステムへの要望も多い。
2. Description of the Related Art For example, in the apparel industry, it is desired to realize a new production / distribution system in which a customer's request is promptly reflected in one-item production by linking a three-dimensional clothing simulation with a three-dimensional CAD. However, at that time, the customer's own face was photographed at the store, and it was
If the image of the clothes created by (computer graphics) is synthesized and displayed three-dimensionally, it is possible to more accurately grasp the appearance of the customer wearing the clothes. As another example, it is desired to realize a system that can quickly find favorite glasses by combining the glasses created by CG and the face of the customer. In addition, the target is not necessarily limited to the face. For example, based on a photographed image of an art work such as a pot or a craft from a plurality of viewpoints, C
There are many demands for a system that realizes an electronic museum by generating an image viewed from an arbitrary viewpoint inside the museum created in G.

【0003】このようなシステムを実現するためには、
複数の視点から撮影したある顔や壺などの画像を基に、
その事物を任意の視点から見たときの画像を生成し、そ
れを例えばCGで生成した人体部や眼鏡、あるいは、博
物館の内装と位置とを合わせて合成する技術が必要であ
る。
In order to realize such a system,
Based on images of certain faces and pots taken from multiple viewpoints,
There is a need for a technique for generating an image of the object as viewed from an arbitrary viewpoint, and combining the generated image with a human body or eyeglasses generated by, for example, CG, or with the interior of a museum.

【0004】このような要求に応えるべく、従来から、
第1の事物と第2の事物とを合わせて合成するために、
ある固定した視点から見た両者の像に対して手動操作に
よって位置合わせを行う方法が提案されている。
In order to meet such demands,
In order to combine the first thing and the second thing together,
A method has been proposed in which both images viewed from a fixed viewpoint are aligned by manual operation.

【0005】この方法を採用すれば、例えば、頭部と衣
服像との位置を合わせる場合には、人物頭部を正面から
撮影した画像と、正面から見た衣服像との2枚の画像を
用意し、頭部像をマウスなどを使って平行移動させなが
ら、衣服像との位置を合わせた上で、両者を合成するこ
とができる。
If this method is adopted, for example, when aligning the position of the head with the clothing image, two images, that is, an image of a person's head taken from the front and a clothing image viewed from the front, are taken. By preparing the head image and moving the head image in parallel using a mouse or the like, the position of the head image is aligned with the clothing image, and then the two can be combined.

【0006】[0006]

【発明が解決しようとする課題】しかし、この方法を採
用した場合には、人手がかかるという不都合がある。特
に、任意の視点からの合成画像を生成するためには、そ
れぞれの視点において手動で位置合わせを行う必要があ
るので、その手間が膨大になってしまうという不都合が
ある。
However, when this method is adopted, there is an inconvenience that it requires labor. In particular, in order to generate a composite image from an arbitrary viewpoint, it is necessary to manually perform alignment at each viewpoint, which is disadvantageous in that the labor is enormous.

【0007】この発明は上記の問題点に鑑みてなされた
ものであり、任意の視点から見た事物の画像を簡単に生
成することができる画像生成処理方法およびその装置を
提供することを第1の目的とし、任意の視点から見た2
つの事物の合成画像を簡単に生成することができる画像
生成処理方法およびその装置を提供することを第2の目
的としている。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and a first object of the present invention is to provide an image generation processing method and an apparatus for easily generating an image of an object viewed from an arbitrary viewpoint. 2 from an arbitrary viewpoint
It is a second object of the present invention to provide an image generation processing method and apparatus capable of easily generating a composite image of two things.

【0008】[0008]

【課題を解決するための手段】第1の発明の画像生成処
理方法は、第1の事物を該第1の事物との相対的な位置
および向きが互いに異なる複数の視点から見た多視点画
像を格納しておくとともに、前記複数の視点の位置およ
び向きを獲得しておき、任意に視点を設定したことに応
答して、多視点画像と複数の視点の位置および向きとを
基にして、該設定された視点から見た第1の事物の画像
を生成する方法である。
According to a first aspect of the present invention, there is provided an image generation processing method comprising: a multi-view image in which a first object is viewed from a plurality of viewpoints having different positions and orientations relative to the first object; While storing the positions and orientations of the plurality of viewpoints, and in response to arbitrarily setting the viewpoints, based on the multi-viewpoint image and the positions and orientations of the plurality of viewpoints, This is a method of generating an image of a first thing viewed from the set viewpoint.

【0009】第2の発明の画像生成処理方法は、第1の
事物を該第1の事物との相対的な位置および向きが互い
に異なる複数の視点から見た多視点画像を格納しておく
とともに、前記複数の視点の位置および向きを獲得して
おき、任意に視点を設定したことに応答して、多視点画
像と複数の視点の位置および向きとを基にして、該設定
された視点から見た第1の事物の第1画像を生成し、第
1の事物と異なる第2の事物を前記設定された視点から
見た第2の事物の第2画像を生成し、前記設定された視
点に応じて第1画像と第2画像とを位置合わせを行って
合成して合成画像を生成する方法である。
The image generation processing method according to a second aspect of the present invention stores a multi-view image in which a first object is viewed from a plurality of viewpoints having different positions and orientations relative to the first object. The positions and orientations of the plurality of viewpoints are acquired, and in response to setting the viewpoints arbitrarily, based on the multi-viewpoint image and the positions and orientations of the plurality of viewpoints, from the set viewpoints. Generating a first image of the viewed first thing; generating a second image of a second thing that is different from the first thing as viewed from the set viewpoint; In this method, the first image and the second image are aligned with each other and combined to generate a combined image.

【0010】第1の発明の画像生成処理装置は、第1の
事物を該第1の事物との相対的な位置および向きが互い
に異なる複数の視点から見た多視点画像を格納する多視
点画像格納手段と、前記複数の視点の位置および向きを
獲得する視点獲得手段と、任意に視点を設定する視点設
定手段と、多視点画像と複数の視点の位置および向きと
を基にして、該設定された視点から見た第1の事物の画
像を生成する第1画像生成手段とを含むものである。
An image generation processing apparatus according to a first aspect of the present invention is a multi-viewpoint image storing a multi-viewpoint image in which a first thing is viewed from a plurality of viewpoints different from each other in position and orientation relative to the first thing. Storage means, viewpoint acquisition means for acquiring the positions and orientations of the plurality of viewpoints, viewpoint setting means for arbitrarily setting viewpoints, and setting based on the multi-viewpoint image and the positions and orientations of the plurality of viewpoints. And a first image generating means for generating an image of the first thing as viewed from the point of view.

【0011】第2の発明の画像生成処理装置は、第1の
事物を該第1の事物との相対的な位置および向きが互い
に異なる複数の視点から見た多視点画像を格納する多視
点画像格納手段と、前記複数の視点の位置および向きを
獲得する視点獲得手段と、任意に視点を設定する視点設
定手段と、多視点画像と複数の視点の位置および向きと
を基にして、該設定された視点から見た第1の事物の第
1画像を生成する第1画像生成手段と、第1の事物と異
なる第2の事物を前記設定された視点から見た第2の事
物の第2画像を生成する第2画像生成手段と、前記設定
された視点に応じて第1画像と第2画像とを位置合わせ
を行って合成して合成画像を生成する合成画像生成手段
とを含むものである。
An image generation processing apparatus according to a second aspect of the present invention is a multi-view image storing a multi-view image in which a first object is viewed from a plurality of viewpoints having different positions and orientations relative to the first object. Storage means, viewpoint acquisition means for acquiring the positions and orientations of the plurality of viewpoints, viewpoint setting means for arbitrarily setting viewpoints, and setting based on the multi-viewpoint image and the positions and orientations of the plurality of viewpoints. First image generating means for generating a first image of a first thing viewed from the set viewpoint, and a second image of a second thing different from the first thing viewed from the set viewpoint. A second image generating unit for generating an image; and a composite image generating unit for generating a composite image by performing positioning and combining of the first image and the second image in accordance with the set viewpoint.

【0012】[0012]

【作用】第1の発明の画像生成処理方法であれば、第1
の事物を該第1の事物との相対的な位置および向きが互
いに異なる複数の視点から見た多視点画像を格納してお
くとともに、前記複数の視点の位置および向きを獲得し
ておき、任意に視点を設定したことに応答して、多視点
画像と複数の視点の位置および向きとを基にして、該設
定された視点から見た第1の事物の画像を生成するので
あるから、任意の視点から見た第1の事物の高品質な画
像を簡単に生成することができる。
According to the image generation processing method of the first invention, the first method
In addition to storing a multi-view image in which the object is viewed from a plurality of viewpoints different from each other in relative position and orientation with respect to the first object, the positions and orientations of the plurality of viewpoints are acquired, and In response to the setting of the viewpoint, the image of the first thing viewed from the set viewpoint is generated based on the multi-view image and the positions and orientations of the plurality of viewpoints. , It is possible to easily generate a high-quality image of the first thing viewed from the viewpoint.

【0013】第2の発明の画像生成処理方法であれば、
第1の事物を該第1の事物との相対的な位置および向き
が互いに異なる複数の視点から見た多視点画像を格納し
ておくとともに、前記複数の視点の位置および向きを獲
得しておき、任意に視点を設定したことに応答して、多
視点画像と複数の視点の位置および向きとを基にして、
該設定された視点から見た第1の事物の第1画像を生成
し、第1の事物と異なる第2の事物を前記設定された視
点から見た第2の事物の第2画像を生成し、前記設定さ
れた視点に応じて第1画像と第2画像とを位置合わせを
行って合成して合成画像を生成するのであるから、任意
の視点から見た2つの事物の合成画像を簡単に生成する
ことができる。
According to the image generation processing method of the second invention,
A multi-view image of the first thing viewed from a plurality of viewpoints different from each other in relative position and orientation with respect to the first thing is stored, and the positions and directions of the plurality of viewpoints are acquired. In response to arbitrarily setting the viewpoint, based on the multi-view image and the positions and orientations of the plurality of viewpoints,
Generating a first image of a first thing viewed from the set viewpoint, and generating a second image of a second thing different from the first thing viewed from the set viewpoint; Since the first image and the second image are aligned according to the set viewpoint and combined to generate a combined image, a combined image of two things viewed from an arbitrary viewpoint can be easily created. Can be generated.

【0014】第1の発明の画像生成処理装置であれば、
多視点画像格納手段によって、第1の事物を該第1の事
物との相対的な位置および向きが互いに異なる複数の視
点から見た多視点画像を格納し、視点獲得手段によっ
て、前記複数の視点の位置および向きを獲得する。そし
て、視点設定手段によって、任意に視点を設定すれば、
第1画像生成手段によって、多視点画像と複数の視点の
位置および向きとを基にして、該設定された視点から見
た第1の事物の画像を生成することができる。
According to the image generation processing apparatus of the first invention,
The multi-viewpoint image storage means stores a multi-viewpoint image of the first thing viewed from a plurality of viewpoints different from each other in relative position and orientation with respect to the first thing, and the viewpoint acquisition means stores the plurality of viewpoints. The position and orientation of. If the viewpoint is arbitrarily set by the viewpoint setting means,
The first image generating means can generate an image of the first thing viewed from the set viewpoint based on the multi-view image and the positions and orientations of the plurality of viewpoints.

【0015】したがって、任意の視点から見た第1の事
物の高品質な画像を簡単に生成することができる。
Therefore, a high-quality image of the first object viewed from an arbitrary viewpoint can be easily generated.

【0016】第2の発明の画像生成処理装置であれば、
多視点画像格納手段によって、第1の事物を該第1の事
物との相対的な位置および向きが互いに異なる複数の視
点から見た多視点画像を格納し、視点獲得手段によっ
て、前記複数の視点の位置および向きを獲得する。そし
て、視点設定手段によって、任意に視点を設定すれば、
第1画像生成手段によって、多視点画像と複数の視点の
位置および向きとを基にして、該設定された視点から見
た第1の事物の第1画像を生成することができる。ま
た、第2画像生成手段によって、第1の事物と異なる第
2の事物を前記設定された視点から見た第2の事物の第
2画像を生成し、合成画像生成手段によって、前記設定
された視点に応じて第1画像と第2画像とを位置合わせ
を行って合成して合成画像を生成することができる。
According to the image generation processing apparatus of the second invention,
The multi-viewpoint image storage means stores a multi-viewpoint image of the first thing viewed from a plurality of viewpoints different from each other in relative position and orientation with respect to the first thing, and the viewpoint acquisition means stores the plurality of viewpoints. The position and orientation of. If the viewpoint is arbitrarily set by the viewpoint setting means,
The first image generation means can generate a first image of a first thing viewed from the set viewpoint based on the multi-view image and the positions and orientations of the plurality of viewpoints. The second image generating means generates a second image of the second thing as seen from the set viewpoint, the second thing different from the first thing, and the synthesized image generating means generates the second image of the second thing. The first image and the second image can be aligned and synthesized according to the viewpoint to generate a synthesized image.

【0017】したがって、任意の視点から見た2つの事
物の合成画像を簡単に生成することができる。
Therefore, a composite image of two things viewed from an arbitrary viewpoint can be easily generated.

【0018】[0018]

【発明の実施の形態】以下、添付図面を参照して、この
発明の実施の態様を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0019】図1はこの発明の画像生成処理装置の第1
の実施態様を示すブロック図である。
FIG. 1 shows a first embodiment of an image generation processing apparatus according to the present invention.
FIG. 3 is a block diagram showing an embodiment of the present invention.

【0020】この画像生成処理装置は、人物の頭部とC
Gで作成した衣服像を任意の視点において位置合わせを
して画像を合成するものである。
This image generation processing apparatus includes a human head and C
The clothing image created in G is aligned at an arbitrary viewpoint to synthesize an image.

【0021】この画像生成処理装置では、先ず、人物を
電動回転椅子1に座らせて回転させながら頭部の画像を
TVカメラ2で撮影する。そして、1周分の画像、例え
ば、4°ごとの90枚の画像を多視点画像の格納部3に
格納する。電動回転椅子1からは、画像を撮影する各時
点における回転角度が視点の獲得部4に通知される。こ
のようにして、90枚の各画像が人物頭部に対してどの
方向(視点)から撮影されたものかが認識される。
In this image generation processing apparatus, first, an image of the head is taken by the TV camera 2 while the person is sitting on the electric swivel chair 1 and rotating. Then, an image for one round, for example, 90 images every 4 ° is stored in the multi-viewpoint image storage unit 3. The electric swivel chair 1 notifies the viewpoint acquisition unit 4 of the rotation angle at each time of capturing an image. In this way, it is recognized from which direction (viewpoint) each of the 90 images was taken with respect to the human head.

【0022】次に、顔画像生成部5では、視点の獲得部
4で獲得された視点の中から、視点設定部8により任意
に指定された視点と最も近い視点を選択し、その視点に
対応する多視点画像において顔の領域を抽出して出力す
る。
Next, the face image generation unit 5 selects the viewpoint closest to the viewpoint arbitrarily designated by the viewpoint setting unit 8 from the viewpoints acquired by the viewpoint acquisition unit 4, and corresponds to the viewpoint. A face area is extracted and output from the multi-viewpoint image to be output.

【0023】位置合わせ合成部6では、先ず、顔領域抽
出部5bから出力される画像を基に、回転軸検出部6a
で画像中における回転軸を検出する。回転軸検出処理を
図2に示す。
In the alignment synthesizing unit 6, first, based on the image output from the face area extracting unit 5b, the rotation axis detecting unit 6a
Detects the rotation axis in the image. FIG. 2 shows the rotation axis detection process.

【0024】重心算出部では、顔領域抽出部5bから出
力されるそれぞれの視点における画像の顔領域部分の重
心の位置を算出する。仮の回転軸算出部では、それぞれ
の視点における重心の平均を算出し、回転軸は重心の平
均位置を通過するとの前提のもとで仮の回転軸を算出す
る。特徴点抽出部では、それぞれの視点における領域抽
出後の画像から明るさの変動が大きい部分を特徴点とし
て抽出する。具体的には、ガウシアンラプラシアン処理
{原画像を先ず正規関数(ガウス関数)でぼかしてから
ラプラシアンを適用する処理}後の画像の極大点・極小
点でその点でのガウシアンラプラシアンの絶対値が所定
の値より大きい点を特徴点として抽出する。特徴点の3
次元座標算出部では、仮の回転軸と各視点における特徴
点を基に、複数個の特徴点の3次元座標を算出する。具
体的には、TVカメラ2の視軸が回転軸を通過するとい
う前提の基で3次元座標を算出する。回転軸算出部で
は、算出された特徴点の3次元座標を各視点における画
像に投影したときに投影された点と特徴点抽出部で抽出
された特徴点との距離ができるだけ小さくなるという基
準の基でTVカメラ2の視軸が回転軸に対してどれだけ
ずれているかを算出し、その結果を基に回転軸の位置を
補正する。
The center of gravity calculating section calculates the position of the center of gravity of the face area portion of the image at each viewpoint output from the face area extracting section 5b. The temporary rotation axis calculation unit calculates the average of the center of gravity at each viewpoint, and calculates the temporary rotation axis on the assumption that the rotation axis passes through the average position of the center of gravity. The feature point extraction unit extracts, as feature points, a portion having a large variation in brightness from the image after region extraction at each viewpoint. More specifically, the Gaussian Laplacian processing {the original image is first blurred by a normal function (Gaussian function), and then the Laplacian is applied} Are extracted as feature points. Feature point 3
The three-dimensional coordinate calculator calculates three-dimensional coordinates of a plurality of feature points based on the provisional rotation axis and the feature points at each viewpoint. Specifically, three-dimensional coordinates are calculated on the assumption that the visual axis of the TV camera 2 passes through the rotation axis. In the rotation axis calculation unit, the distance between the projected point and the feature point extracted by the feature point extraction unit when projecting the three-dimensional coordinates of the calculated feature point onto the image at each viewpoint is minimized. It calculates how much the visual axis of the TV camera 2 is deviated from the rotation axis based on the result, and corrects the position of the rotation axis based on the result.

【0025】位置合わせ合成部6では、次に、領域抽出
後の正面像と側面像のそれぞれにおいて、顎位置検出部
6bで顎の最下部を検出する。その処理の流れを図3に
示す。
Next, in the position synthesizing unit 6, the lowermost part of the chin is detected by the chin position detecting unit 6b in each of the front image and the side image after the region extraction. FIG. 3 shows the flow of the processing.

【0026】先ず、図3中(a)に示すように、正面像
において、髪領域と肌領域との色の違いを基に髪領域を
削除し、肌領域だけを残す。次に肌領域において、肌領
域の中で唇は概ね下方にあり、水平方向を向いているこ
とを基に唇を検出し、その中央の位置を検出する。その
後、唇の中央を出発点として下の方向に顎の最下部を探
索するが、そのとき、下方向に画像の明るさが急激に変
化する点を顎の最下部と判断する。次に、図3中(b)
に示すように、左右の両側画像において、顎の最下部を
検出する。例えば、右側面像において、前記と同様に髪
領域を削除した後、肌領域の中で最も右下部を顎の最下
部として検出する。左側面像においても同様な処理で顎
の最下部を検出する。このようにして検出された顎の最
下部の位置を基に、三角測量の原理に基づいて顎の最下
部の3次元位置を算出する。位置合わせ部6cでは、頭
部の回転軸と人体の回転軸とが一致するように頭部画像
を移動させるとともに、顎の最下部が人体部に対して所
定の位置にくるように頭部画像をさらに移動させる。
First, as shown in FIG. 3A, in the front image, the hair region is deleted based on the color difference between the hair region and the skin region, and only the skin region is left. Next, in the skin region, the lips are detected based on the fact that the lips are substantially below the skin region and are oriented in the horizontal direction, and the center position thereof is detected. Thereafter, the lowermost part of the chin is searched downward starting from the center of the lip. At this time, the point at which the brightness of the image changes abruptly in the downward direction is determined to be the lowermost part of the chin. Next, (b) in FIG.
As shown in (2), the lowermost part of the chin is detected in both left and right images. For example, in the right side image, the hair region is deleted in the same manner as described above, and then the lower right portion of the skin region is detected as the lower portion of the chin. In the left side image, the lowermost part of the jaw is detected by the same processing. Based on the lowermost position of the jaw detected in this way, the three-dimensional lowermost position of the jaw is calculated based on the principle of triangulation. In the positioning unit 6c, the head image is moved so that the rotation axis of the head coincides with the rotation axis of the human body, and the head image is moved so that the lowermost part of the chin is at a predetermined position with respect to the human body part. To move further.

【0027】画像合成部6dでは、人体部の画像と位置
合わせ後の頭部の画像とを合成する。
The image synthesizing unit 6d synthesizes the image of the human body and the image of the head after the alignment.

【0028】なお、対象が顔以外の場合には、電動回転
台を使用する。また、顎の最下部の代わりに対象に応じ
て検出しやすい部位を検出することになる。
When the target is other than a face, an electric rotating base is used. Also, instead of the lowermost part of the chin, a part that is easily detected according to the target is detected.

【0029】なお、人体画像生成部7は、設定された視
点に基づいて3次元の人体画像の回転処理を行って、視
点に対応する人体画像を生成する。
The human body image generation section 7 performs a three-dimensional human body image rotation process based on the set viewpoint to generate a human body image corresponding to the viewpoint.

【0030】この実施態様を採用した場合には、TVカ
メラ2の視点の位置を電動回転椅子からの通知によって
獲得するので、位置合わせの精度が高いという利点があ
る。
In the case of adopting this embodiment, the position of the viewpoint of the TV camera 2 is obtained by the notification from the electric swivel chair, so that there is an advantage that the positioning accuracy is high.

【0031】図4はこの発明の画像生成処理装置の第2
の実施態様を示すブロック図である。この画像生成処理
装置が図1の画像生成処理装置と異なる点は、既知の速
度パターンで回転する電動回転椅子1を採用し、視点の
獲得部4に代えて、その速度パターンを基にTVカメラ
2の視点の位置を推定する視点算出部4aを採用した点
のみである。
FIG. 4 shows a second embodiment of the image generation processing apparatus according to the present invention.
FIG. 3 is a block diagram showing an embodiment of the present invention. This image generation processing apparatus differs from the image generation processing apparatus of FIG. 1 in that an electric swivel chair 1 that rotates at a known speed pattern is adopted, and a TV camera based on the speed pattern is used instead of the viewpoint acquisition unit 4. This is the only point that employs the viewpoint calculation unit 4a that estimates the position of the second viewpoint.

【0032】したがって、この実施態様を採用した場合
には、電動回転椅子1からの視点の通知が不要になるの
で、構成を簡素化することができる。
Therefore, when this embodiment is employed, the notification of the viewpoint from the electric swivel chair 1 becomes unnecessary, and the configuration can be simplified.

【0033】図5はこの発明の画像生成処理装置の第3
の実施態様を示すブロック図である。この画像生成処理
装置が図4の画像生成処理装置と大きく異なる点は、電
動回転椅子1に代えて、慣性で回転される回転椅子1a
を採用した点である。この回転椅子1aを勢いをつけて
慣性で回転させると、摩擦抵抗によって回転速度は徐々
に低下する。この実施態様においては、回転速度が一定
の割合で低下すると仮定して各時点における視点を獲得
するようにしている。
FIG. 5 shows a third embodiment of the image generation processing apparatus according to the present invention.
FIG. 3 is a block diagram showing an embodiment of the present invention. This image generation processing apparatus is significantly different from the image generation processing apparatus of FIG. 4 in that the rotary chair 1a rotated by inertia is used instead of the electric rotary chair 1.
This is the point adopted. When the swivel chair 1a is rotated by inertia with momentum, the rotation speed gradually decreases due to frictional resistance. In this embodiment, the viewpoint at each time point is obtained on the assumption that the rotation speed decreases at a constant rate.

【0034】この視点の獲得は、図5に示すように、類
似度算出、1回転後画像検出(1周後画像検出)、速度
・加速度算出、視点算出の流れで行う。なお、この実施
態様では、視点を算出するために約1回転半分以上の画
像を入力しておくものとする。
As shown in FIG. 5, this viewpoint is obtained through the flow of similarity calculation, image detection after one rotation (image detection after one round), speed / acceleration calculation, and viewpoint calculation. In this embodiment, it is assumed that an image of about one half turn or more is input in order to calculate the viewpoint.

【0035】類似度算出部4bでは、多視点画像の画像
どうしの類似性を評価する。具体的には、図6に示すよ
うに、先ず、多視点画像のそれぞれにおいて顔領域を抽
出し、次に、投影像算出部で顔領域の画素値を垂直方向
に累積する。このようにして、多視点画像のそれぞれに
おいて投影像が算出される。その後、投影像どうしの類
似性を相関係数によって評価する。すなわち、投影像ど
うしの相関係数が大きいほど類似していると判断する。
The similarity calculation unit 4b evaluates the similarity between the images of the multi-viewpoint image. Specifically, as shown in FIG. 6, first, a face area is extracted from each of the multi-viewpoint images, and then the pixel values of the face area are vertically accumulated by the projection image calculation unit. In this way, a projected image is calculated for each of the multi-viewpoint images. After that, the similarity between the projected images is evaluated by the correlation coefficient. That is, it is determined that the larger the correlation coefficient between the projected images is, the more similar the images are.

【0036】1周後画像検出部4cでは、最初の約半周
分の画像のそれぞれに対して、ちょうど1周後の画像は
互いに類似していることを利用して、ちょうど1周後の
画像を検出する。すなわち、類似度が最大の画像がちょ
うど1周後の画像であると判断する。
The one-round image detection unit 4c uses the fact that the images of the first one-half circle are similar to each other for the first half-circle images, so that the image of the first one-half circle can be detected. To detect. That is, it is determined that the image having the highest similarity is the image just after one round.

【0037】次に、速度・加速度算出部4dでは、最初
の約半周分の画像のそれぞれに対して、何枚後の画像が
ちょうど1周後の画像であるかに応じて、速度と加速度
を算出する。回転速度は徐々に低下するので、1周に要
する時間は徐々に増加し、それに従って、1周に要する
画像の枚数も徐々に増大する。また、1周に要する画像
の枚数の変化から速度の低下の割合が求まる。
Next, the speed / acceleration calculating section 4d calculates the speed and acceleration for each of the first half-circle images in accordance with the number of subsequent images that are exactly one round later. calculate. Since the rotation speed gradually decreases, the time required for one rotation gradually increases, and accordingly, the number of images required for one rotation also gradually increases. In addition, the rate of reduction in speed is obtained from the change in the number of images required for one rotation.

【0038】このようにして回転速度と加速度とが求ま
ると、それを基にして、視点算出部4eで多視点画像の
各画像の視点(何枚目の画像がどの角度で撮影された
か)を算出する。
When the rotational speed and the acceleration are obtained in this manner, the viewpoint calculation unit 4e determines the viewpoint of each image of the multi-viewpoint image (at what angle the image was taken at which angle) based on the rotation speed and the acceleration. calculate.

【0039】なお、視点の獲得部4以外の処理は第1の
実施態様と同様であるから説明を省略する。
The processing other than that of the viewpoint obtaining unit 4 is the same as that of the first embodiment, and a description thereof will be omitted.

【0040】この実施態様を採用した場合には、電動回
転椅子1の代わりに回転椅子1aを採用しているので、
構成を簡素化することができる。
When this embodiment is adopted, the swivel chair 1a is used instead of the electric swivel chair 1, so that
The configuration can be simplified.

【0041】図7はこの発明の画像生成処理装置の第4
の実施態様を示すブロック図である。
FIG. 7 shows a fourth embodiment of the image generation processing apparatus according to the present invention.
FIG. 3 is a block diagram showing an embodiment of the present invention.

【0042】この実施態様が第3の実施態様と大きく異
なる点は、回転椅子1aを勢いをつけて慣性で回転させ
るのではなく、人力によって少しづつ力を加えながら回
転させて多視点画像を入力するようにした点、および回
転のさせ方の相違に応じて視点の獲得部の処理の内容を
設定した点のみである。
This embodiment is largely different from the third embodiment in that the multi-viewpoint image is inputted by rotating the swivel chair 1a by applying a force little by little by human power, instead of rotating the swivel chair 1a by momentum. This is the only point that the content of the processing of the viewpoint obtaining unit is set in accordance with the difference in the method of rotation and the method of rotation.

【0043】この実施態様では、類似度算出、1周後画
像検出、平均速度算出、視点算出の流れで視点を獲得す
る。1周後画像検出までの処理は第3の実施態様と同様
であるが、入力すべき画像の枚数は必ずしも1周半程度
でなくてもよく、1周以上であればもっと少なくてもよ
い。もっとも、画像の枚数が多いほど算出する視点の精
度は高くなる。平均速度算出部4fでは、最初の複数枚
の画像のそれぞれに対して、それに先立つ処理で求まっ
た1周後画像が何枚後の画像かに応じて、ちょうど1周
するのに要する枚数の平均を算出し、平均速度を求め
る。視点算出部4eでは、回転椅子1aがその平均速度
で回転しているとの仮定のもとで、多視点画像のそれぞ
れを撮影したときの回転角度(視点)を算出する。
In this embodiment, a viewpoint is obtained by the flow of similarity calculation, one-round image detection, average speed calculation, and viewpoint calculation. The processing up to the detection of the image after one rotation is the same as that of the third embodiment, but the number of images to be input is not necessarily about one and a half, and may be smaller if it is one or more. However, as the number of images increases, the accuracy of the calculated viewpoint increases. The average speed calculation unit 4f calculates the average of the number of images required to make exactly one round, for each of the first plurality of images, according to how many images after the one round obtained by the preceding processing. Is calculated to determine the average speed. The viewpoint calculation unit 4e calculates a rotation angle (viewpoint) when each of the multi-view images is photographed, on the assumption that the swivel chair 1a is rotating at the average speed.

【0044】この実施態様を採用した場合には、回転椅
子1aを勢いをつけて回転させる必要がないので、回転
時に座る人が受ける衝撃を少なくできるという利点があ
る。
When this embodiment is adopted, there is no need to rotate the swivel chair 1a with momentum, so that there is an advantage that the impact received by the occupant during rotation can be reduced.

【0045】図8はこの発明の画像生成処理装置の第5
の実施態様を示すブロック図である。
FIG. 8 shows a fifth embodiment of the image generation processing apparatus according to the present invention.
FIG. 3 is a block diagram showing an embodiment of the present invention.

【0046】この実施態様が第4の実施態様と大きく異
なる点は、回転椅子1aに取り付けられたマーカ1bを
検出して視点を獲得するようにした点、および位置合わ
せ部6における回転軸の検出を検出されたマーカを利用
して行うようにした点のみである。
This embodiment is significantly different from the fourth embodiment in that the marker 1b attached to the swivel chair 1a is detected to obtain a viewpoint, and the rotation axis is detected by the positioning unit 6. Is performed using the detected marker.

【0047】この実施態様では、マーカの検出、視点の
検出の流れで視点を獲得する。マーカの検出部4gで
は、多視点画像のそれぞれにおいて回転椅子1aに取り
付けられた既知のマーカ1bの位置を検出する。視点の
算出部4eでは、各視点において検出されたマーカ1b
の位置を基に、各多視点画像が入力されたときの視点
(回転角度)を算出する。マーカ1bは、例えば、回転
椅子1aを中心とする薄い円盤の側面に等間隔に記され
ており、マーカ1bの模様によって、その位置(正面か
らの角度)が特定できるものとする。マーカ1b検出時
にその模様を判断することによって、その画像が撮影さ
れた時点における回転椅子1aの回転角度を算出する。
つまり、中央に位置するマーカ1bの模様がどの角度に
相当するかを判断しておおまかな角度を算出した後、そ
のマーカ1bの位置によって角度を補正する。
In this embodiment, the viewpoint is acquired by the flow of marker detection and viewpoint detection. The marker detection unit 4g detects the position of the known marker 1b attached to the swivel chair 1a in each of the multi-viewpoint images. In the viewpoint calculation unit 4e, the marker 1b detected in each viewpoint
, The viewpoint (rotation angle) when each multi-viewpoint image is input is calculated. The markers 1b are, for example, written at equal intervals on the side surface of a thin disk centered on the swivel chair 1a, and the position (angle from the front) can be specified by the pattern of the markers 1b. By determining the pattern when the marker 1b is detected, the rotation angle of the swivel chair 1a at the time when the image is captured is calculated.
That is, after determining the angle of the pattern of the marker 1b located at the center and calculating a rough angle, the angle is corrected based on the position of the marker 1b.

【0048】回転軸の検出部6aでは、それぞれの多視
点画像において両側のマーカ1bの位置を検出し、それ
ら2点を2等分する位置を全ての多視点画像で平均化す
ることによって回転軸を検出する。
The rotation axis detector 6a detects the positions of the markers 1b on both sides in each multi-viewpoint image, and averages the positions at which the two points are equally divided in all the multi-viewpoint images, thereby obtaining the rotation axis. Is detected.

【0049】この実施態様を採用した場合には、回転速
度が不規則でも、各多視点画像を撮影した時点の回転角
度をより精度よく算出でき、また、回転軸検出の精度も
よくなるので、高い精度で位置合わせができる。
When this embodiment is employed, even if the rotation speed is irregular, the rotation angle at the time of capturing each multi-viewpoint image can be calculated with higher accuracy, and the rotation axis detection accuracy can be improved. Positioning can be performed with high accuracy.

【0050】図9はこの発明の画像生成処理装置の第6
の実施態様を示すブロック図である。
FIG. 9 shows a sixth embodiment of the image generation processing apparatus according to the present invention.
FIG. 3 is a block diagram showing an embodiment of the present invention.

【0051】この実施態様が第4の実施態様と大きく異
なる点は、視点の獲得部4において、各多視点画像から
特徴点を抽出し、それらの位置によって視点を獲得する
とともに、回転軸の検出を行うようにした点のみであ
る。
This embodiment is significantly different from the fourth embodiment in that a viewpoint acquiring unit 4 extracts feature points from each multi-view image, acquires a viewpoint based on the positions thereof, and detects a rotation axis. Is the only point that is performed.

【0052】この実施態様では、視点の獲得は、特徴点
抽出、特徴点追跡、視点算出の流れで実行される。特徴
点抽出部4hは、図2の特徴点抽出と同様の処理を行
う。特徴点抽出部4iでは、抽出された特徴点のそれぞ
れに対して、その点を中心とする例えば7×7の矩形領
域の濃度パターンを多視点画像から切り出し、視点の異
なる多視点画像の間で、これら7×7の濃度パターンが
互いに類似している点は同一の特徴点であると判断し
て、それぞれの特徴点が撮影時の角度が変化するに従っ
てどのように移動していくかを追跡する。視点算出、お
よび回転軸の検出では、多視点画像の間でそれぞれの特
徴点が移動していく有様によってそれぞれの多視点画像
が撮影された時の視点(回転角度)を算出するととも
に、回転軸の位置を算出する。
In this embodiment, the viewpoint is obtained in the sequence of feature point extraction, feature point tracking, and viewpoint calculation. The feature point extraction unit 4h performs the same processing as the feature point extraction of FIG. The feature point extraction unit 4i cuts out, for each of the extracted feature points, a density pattern of, for example, a 7 × 7 rectangular area centered at the point from the multi-view image, and selects between the multi-view images having different viewpoints. It is determined that the points where these 7 × 7 density patterns are similar to each other are the same feature point, and how each feature point moves as the angle at the time of shooting changes is tracked. I do. In the viewpoint calculation and the detection of the rotation axis, the viewpoint (rotation angle) at which each multi-view image is captured is calculated based on the manner in which each feature point moves between the multi-view images, and the rotation is calculated. Calculate the position of the axis.

【0053】回転角度と回転軸との算出方法を図10を
参照して詳述する。
The method of calculating the rotation angle and the rotation axis will be described in detail with reference to FIG.

【0054】図10は、TVカメラ2の前で物体が回転
しているところを上から見た図である。m番目の画像を
撮影する時点において、i番目の特徴点は回転軸から距
離riの所にあり、TVカメラ2の視軸と平行な基準軸
に対する角度がθi+θmであるとする。ここで、θm
は例えば顔の正面の方向である。また、回転軸と視軸と
の距離をe、回転軸から視軸に下ろした垂線の脚と視点
との距離をd、視点と画像面との距離(焦点距離)を
f、i番目の特徴点が観測される点のx座標をxiとす
る。このとき、図から分かるように、 f/xim={d−ri・cos(θi+θm)}/
{ri・sin(θi+θm)+e} の関係がある。画像の枚数がM、特徴点の数がNである
とすると、このような関係式がM×N個成り立つ。ただ
し、実際は、特徴点が陰になって観測されないこともあ
るので、関係式の数はこれよりも少なくなる。一方、焦
点距離fは一般に既知であるので、未知数の数はriが
N個、θiがN個、θmがM個、eとdとがそれぞれ1
個であり、合計で(2N+M+2)個である。従って、
NとMとが十分に大きいときは、関係式の数の方が未知
数の数の方よりも多いので、これらの関係式から未知数
を求めることができる。このようにして、回転軸の位置
dと回転角度θmが求まる。
FIG. 10 is a top view of an object rotating in front of the TV camera 2. At the time of capturing the m-th image, the i-th feature point is located at a distance ri from the rotation axis, and the angle with respect to a reference axis parallel to the visual axis of the TV camera 2 is θi + θm. Where θm
Is the direction of the front of the face, for example. Also, the distance between the rotation axis and the visual axis is e, the distance between the viewpoint and the perpendicular leg lowered from the rotation axis to the visual axis is d, the distance between the viewpoint and the image plane (focal length) is f, and the i-th feature. Let x be the x coordinate of the point where the point is observed. At this time, as can be seen from the figure, f / xim = {d-ri · cos (θi + θm)} /
There is a relationship of {ri · sin (θi + θm) + e}. If the number of images is M and the number of feature points is N, M × N such relational expressions hold. However, in practice, the feature points may not be observed because they are hidden, so the number of relational expressions is smaller than this. On the other hand, since the focal length f is generally known, the number of unknowns is N for ri, N for θi, M for θm, and 1 for each of e and d.
And a total of (2N + M + 2). Therefore,
When N and M are sufficiently large, the number of relational expressions is greater than the number of unknowns, and thus unknowns can be obtained from these relational expressions. Thus, the position d of the rotation axis and the rotation angle θm are obtained.

【0055】図11はこの発明の画像生成処理装置の第
7の実施態様を示すブロック図である。
FIG. 11 is a block diagram showing a seventh embodiment of the image generation processing device of the present invention.

【0056】この実施態様が第1の実施態様と大きく異
なる点は、椅子を回転させる代わりに、TVカメラ2を
椅子1cをとりまくように回転させるようにした点のみ
である。
This embodiment differs greatly from the first embodiment only in that the TV camera 2 is rotated so as to surround the chair 1c instead of rotating the chair.

【0057】この実施態様では、TVカメラ2を電動モ
ータなどで回転させ、視点の位置を視点の獲得部4に通
知する。それ以外の処理は第1の実施態様と同様であ
る。
In this embodiment, the TV camera 2 is rotated by an electric motor or the like, and the position of the viewpoint is notified to the viewpoint acquisition unit 4. Other processes are the same as those in the first embodiment.

【0058】図12はこの発明の画像生成処理装置の第
8の実施態様を示すブロック図である。
FIG. 12 is a block diagram showing an eighth embodiment of the image generation processing apparatus according to the present invention.

【0059】この実施態様が第7の実施態様と大きく異
なる点は、TVカメラ2を回転させる代わりに、頭部を
横切る水平面上において椅子を取り巻くように複数の位
置にTVカメラ2を予め配置しておく点のみである。
This embodiment is significantly different from the seventh embodiment in that the TV camera 2 is previously arranged at a plurality of positions so as to surround the chair on a horizontal plane across the head instead of rotating the TV camera 2. The only thing to keep in mind.

【0060】この実施態様では、どのTVカメラ2によ
って撮影を行うかを基に、視点の位置を視点の獲得部4
に通知する。それ以外の処理は第1の実施態様と同様で
ある。
In this embodiment, the position of the viewpoint is determined based on which TV camera 2 performs photographing.
Notify. Other processes are the same as those in the first embodiment.

【0061】図13はこの発明の画像生成処理装置の第
9の実施態様を示すブロック図である。
FIG. 13 is a block diagram showing a ninth embodiment of the image generation processing device of the present invention.

【0062】この実施態様が第5の実施態様と大きく異
なる点は、TVカメラ2を水平方向から人物を取り巻く
ように、例えば人手で自由に移動させながら多視点画像
を撮影するようにした点のみである。
This embodiment is significantly different from the fifth embodiment only in that a multi-viewpoint image is photographed while the TV camera 2 is freely moved manually, for example, so as to surround a person in the horizontal direction. It is.

【0063】この実施態様では、TVカメラ2と人物と
の位置関係が必ずしも回転ではないので、位置合わせ合
成部の構成が図5の実施態様と異なる。
In this embodiment, since the positional relationship between the TV camera 2 and the person is not necessarily a rotation, the configuration of the positioning synthesizing unit is different from that of the embodiment shown in FIG.

【0064】椅子1cに固定された座標系において、i
番目のマーカ1bの3次元位置をXi=(xi,yi,
zi)、m番目の多視点画像においてi番目のマーカ1
bが観測される位置を(xim,yim)、m番目の画
像を撮影するときの視点の位置をUm=(um,vm,
wm)、m番目の画像を撮影するときのTVカメラ2の
向きを定める3×3の回転行列をRm、焦点距離をfと
し、Xim=(xim,yim,zim)と置くと、次
の関係式が成立する。 Xim={fRm(Xi−Um)}/‖(Xi−Um)
‖ ここで、マーカの数をN、画像の枚数をMとすると、こ
れらの関係式の数はN×M個ある。実際には、マーカが
陰に隠れて見えない場合があるので関係式の数はこれよ
りも少なくなる。一方、未知数の数はRmがM×3個、
UmがM×3個、XiがN×3個であり、合計で(6M
+3N)個となる。従って、NとMとが十分に大きいと
きは、関係式の数の方が未知数の数の方よりも多いの
で、これらの関係式からこれらの未知数を求めることが
できる。
In the coordinate system fixed to the chair 1c, i
Xi = (xi, yi,
zi), the i-th marker 1 in the m-th multi-viewpoint image
The position where b is observed is (xim, yim), and the position of the viewpoint when the m-th image is captured is Um = (um, vm,
wm), a 3 × 3 rotation matrix that determines the orientation of the TV camera 2 when the m-th image is shot is Rm, the focal length is f, and Xim = (xim, yim, zim). The equation holds. Xim = {fRm (Xi-Um)} / {(Xi-Um)
Here, assuming that the number of markers is N and the number of images is M, the number of these relational expressions is N × M. Actually, the number of relational expressions is smaller than this, since the marker may be hidden behind and cannot be seen. On the other hand, the number of unknowns is Rm M × 3,
Um is M × 3, Xi is N × 3, and a total of (6M
+ 3N). Therefore, when N and M are sufficiently large, the number of relational expressions is greater than the number of unknowns, and these unknowns can be obtained from these relational expressions.

【0065】前記位置合わせ合成部では、先ず、第1の
実施態様で述べたのと同様の方法(図3参照)で、正面
像および両側面像において顎の最下部を検出する。次
に、それら3枚の画像を撮影した時のTVカメラ2の視
点の位置と向き、および、それぞれの画像における顎の
最下部の位置を基に三角測量の原理に基づいて顎の最下
部の3次元位置を算出する。他の処理は第5の実施態様
と同様である。
The alignment synthesizing unit first detects the lowermost part of the chin in the front image and the side images in the same manner as described in the first embodiment (see FIG. 3). Next, based on the principle of triangulation based on the principle of triangulation, based on the position and orientation of the viewpoint of the TV camera 2 when these three images were taken, and the position of the lowermost part of the jaw in each image, Calculate the three-dimensional position. Other processes are the same as in the fifth embodiment.

【0066】図14はこの発明の画像生成処理装置の第
10の実施態様を示すブロック図である。
FIG. 14 is a block diagram showing a tenth embodiment of the image generation processing apparatus according to the present invention.

【0067】この実施態様が第9の実施態様と大きく異
なる点は、椅子にマーカを取り付けず、マーカを検出す
る代わりに、多視点画像のそれぞれから特徴点を抽出
し、それらの特徴点を多視点画像の間で追跡するように
した点のみである。
This embodiment is significantly different from the ninth embodiment in that a marker is not attached to a chair, and instead of detecting the marker, feature points are extracted from each of the multi-viewpoint images and the feature points are multiplied. Only points that are tracked between viewpoint images.

【0068】ここで、特徴点の抽出と特徴点の追跡とは
第5の実施態様と同様であり、その後の処理は第9の実
施態様と同様である。
Here, the extraction of the feature points and the tracking of the feature points are the same as in the fifth embodiment, and the subsequent processing is the same as in the ninth embodiment.

【0069】図15は、この発明の画像生成処理装置の
第11の実施態様を示すブロック図である。
FIG. 15 is a block diagram showing an eleventh embodiment of the image generation processing device according to the present invention.

【0070】この実施態様が第10の実施態様と大きく
異なる点は、顔画像生成部5が座標変換部5cを含んで
いる点のみである。この座標変換部5cの処理の流れを
図16に示す。
This embodiment is significantly different from the tenth embodiment only in that the face image generation unit 5 includes a coordinate conversion unit 5c. FIG. 16 shows the flow of the process performed by the coordinate conversion unit 5c.

【0071】先ず、領域抽出後の多視点画像のそれぞれ
から第1の実施態様(図2参照)で説明した方法によっ
て特徴点を抽出する。3次元座標算出の流れを図17に
示す。特徴点のペア選出では、ランダムに選んだ2枚の
多視点画像を選び、それぞれから抽出した特徴点の中か
ら1つづつランダムに特徴点を選択する。3次元特徴点
候補の算出では、仮にそれら2つの特徴点が物体上の同
一の特徴点が観測されたものであると仮定し、三角測量
の原理で特徴点の3次元座標を算出する。検証では、算
出された3次元特徴点候補を各多視点画像に投影し、投
影された点の近くに実際に特徴点が観測されているよう
な多視点画像の数を数え、それが所定の閾値以上である
時にその3次元特徴点候補を出力する。そうでないとき
は、再び特徴点のペアを選出する。このような仮説・検
証の処理を所定の数の3次元特徴点が抽出されるまで繰
り返す。こうして所定の数の3次元座標を算出した後、
それらを設定された視点における画像と第1の実施態様
で述べた方法で選択された視点における画像に投影し、
投影特徴点を算出する。座標変換係数部では、選択され
た視点における投影特徴点を設定された視点における投
影特徴点に変換するような座標変換を算出する。座標変
換実行部では、残出された座標変換に従って、選択され
た視点における領域抽出後の多視点画像を変換して出力
する。
First, feature points are extracted from each of the multi-viewpoint images after the region extraction by the method described in the first embodiment (see FIG. 2). FIG. 17 shows the flow of the three-dimensional coordinate calculation. In the feature point pair selection, two randomly selected multi-viewpoint images are selected, and feature points are randomly selected one by one from feature points extracted from each of the images. In the calculation of a three-dimensional feature point candidate, it is assumed that the two feature points are obtained by observing the same feature point on the object, and the three-dimensional coordinates of the feature points are calculated based on the principle of triangulation. In the verification, the calculated three-dimensional feature point candidates are projected on each multi-viewpoint image, the number of multi-viewpoint images in which feature points are actually observed near the projected point is counted, and the number is counted as a predetermined number. When the value is equal to or larger than the threshold value, the three-dimensional feature point candidate is output. Otherwise, a feature point pair is selected again. Such a hypothesis / verification process is repeated until a predetermined number of three-dimensional feature points are extracted. After calculating a predetermined number of three-dimensional coordinates,
Projecting them on the image at the set viewpoint and the image at the viewpoint selected by the method described in the first embodiment;
Calculate projection feature points. The coordinate conversion coefficient unit calculates a coordinate conversion for converting the projection feature point at the selected viewpoint into the projection feature point at the set viewpoint. The coordinate transformation execution unit transforms and outputs the multi-viewpoint image after the region extraction at the selected viewpoint in accordance with the remaining coordinate transformation.

【0072】図18はこの発明の画像生成処理装置の第
12の実施態様を示すブロック図である。
FIG. 18 is a block diagram showing a twelfth embodiment of the image generation processing apparatus according to the present invention.

【0073】この実施態様が第11の実施態様と大きく
異なる点は、顔画像生成部5として、選択された視点に
おける領域抽出後の多視点画像を座標変換して出力する
代わりに、複数(例えば、2個)の視点を選択し、それ
に対する2枚の領域抽出後の多視点画像を補間合成して
出力するようにした点のみである。
This embodiment is significantly different from the eleventh embodiment in that the face image generating unit 5 uses a plurality of (for example, a plurality of (for example, (2) viewpoints are selected, and a multi-viewpoint image from which two regions have been extracted is interpolated and synthesized and output.

【0074】複数視点選択部5dでは、設定された視点
に近い、例えば2つの視点を選択する。補間合成部5e
の処理の流れを図19に示す。3次元座標算出までの処
理は第11の実施態様と同様である。その後、算出され
た3次元座標を設定された視点における画像と、選択さ
れた、例えば2つの視点における画像に投影する。次
に、選択された、例えば2つの視点における画像に投影
された投影特徴点を設定された視点における画像に投影
された投影特徴点に変換する座標変換係数を、例えば2
組算出する。座標変換実行部では、算出された、例えば
2組の座標変換係数に従って選択された、例えば2つの
視点における領域抽出後の多視点画像を座標変換する。
補間部では、座標変換された例えば2枚の画像を平均化
して出力する。
The multiple viewpoint selecting section 5d selects, for example, two viewpoints close to the set viewpoint. Interpolation synthesis unit 5e
19 is shown in FIG. The processing up to the calculation of the three-dimensional coordinates is the same as in the eleventh embodiment. After that, the calculated three-dimensional coordinates are projected on an image at the set viewpoint and on a selected image at, for example, two viewpoints. Next, a coordinate conversion coefficient for converting the selected projection feature point projected on the image at the two viewpoints into the projection feature point projected on the image at the set viewpoint is, for example, 2
Calculate pairs. The coordinate transformation execution unit performs coordinate transformation on the calculated multi-viewpoint image, for example, after extracting a region at two viewpoints, selected according to, for example, two sets of coordinate transformation coefficients.
The interpolation unit averages and outputs, for example, two images that have been subjected to the coordinate conversion.

【0075】図20はこの発明の画像生成処理装置の第
13の実施態様を示すブロック図である。
FIG. 20 is a block diagram showing a thirteenth embodiment of the image generation processing apparatus according to the present invention.

【0076】この実施態様が第12の実施態様と大きく
異なる点は、位置合わせ合成部6の構成のみである。
This embodiment differs greatly from the twelfth embodiment only in the configuration of the alignment synthesizing unit 6.

【0077】この実施態様における位置合わせ合成部6
では、図21に示す手順で手動で位置合わせを行う。
The alignment synthesizing unit 6 in this embodiment
Then, the alignment is manually performed according to the procedure shown in FIG.

【0078】先ず、例えば正面に相当する視点と側面に
相当する視点とにおいて、頭部と人体部とを重ねて画面
表示する。次に、手動位置合わせ部6c’によって、人
物頭部が人体部と自然につながるようにマウスなどを使
って移動させる。その移動量を基に、三角測量の原理に
従って、3次元空間上における移動量を算出する。算出
された3次元移動量を基に、第12の実施態様で述べた
方法で算出された3次元座標を移動させる。投影特徴点
算出では、移動された3次元座標を設定された視点にお
ける画像に投影する。座標変換係数算出部では、第12
の実施態様に述べた方法で顔画像生成部で算出されてい
る選定された視点における投影特徴点を、ここで算出さ
れた投影特徴点に変換する座標変換係数を算出する。座
標変換実行部では、第12の実施態様に述べた方法で生
成された補間画像を算出された座標変換係数に従って座
標変換して出力する。
First, for example, a head and a human body are superimposed and displayed on a screen at a viewpoint corresponding to the front and a viewpoint corresponding to the side. Next, the human head is moved using the mouse or the like by the manual positioning unit 6c 'so that the head of the person is naturally connected to the human body. Based on the movement amount, a movement amount in a three-dimensional space is calculated according to the principle of triangulation. The three-dimensional coordinates calculated by the method described in the twelfth embodiment are moved based on the calculated three-dimensional movement amount. In the calculation of the projection feature points, the moved three-dimensional coordinates are projected on the image at the set viewpoint. In the coordinate conversion coefficient calculation unit, the twelfth
In the method described in the embodiment, a coordinate conversion coefficient for converting the projection feature point at the selected viewpoint calculated by the face image generation unit into the projection feature point calculated here is calculated. The coordinate transformation executing section performs coordinate transformation on the interpolated image generated by the method described in the twelfth embodiment according to the calculated coordinate transformation coefficient, and outputs the result.

【0079】図22はこの発明の画像生成処理装置の第
14の実施態様を示すブロック図である。
FIG. 22 is a block diagram showing a fourteenth embodiment of the image generation processing apparatus according to the present invention.

【0080】この実施態様では、第12の実施態様に説
明した方法で位置合わせを行った後、その結果を画面に
表示し、画像合成・確認部6eにおいて、オペレータに
良否を判定させ、結果がよくないときに限って、第13
の実施態様に述べた方法で手動で位置合わせを行うよう
に構成したものである。
In this embodiment, after the positioning is performed by the method described in the twelfth embodiment, the result is displayed on the screen, and the image synthesizing / confirming unit 6e allows the operator to judge the quality. Only when it is not good, the thirteenth
The manual alignment is performed by the method described in the embodiment.

【0081】図23はこの発明の画像生成処理装置の第
15の実施態様を示すブロック図である。
FIG. 23 is a block diagram showing a fifteenth embodiment of the image generation processing apparatus according to the present invention.

【0082】この実施態様では、必ずしも水平方向とは
限らずにTVカメラ2を自由に移動させながら撮影して
多視点画像を入力し、それに応じて、位置合わせ合成部
において、顎の最下部のように1点だけでなく、顎の最
下部と両目尻のように3点あるいはそれ以上の個数の所
定の特徴点を抽出し、それらの特徴点が人体部に対して
所定の位置にくるように位置合わせを行うようにしてい
る。
In this embodiment, a multi-viewpoint image is input by shooting while freely moving the TV camera 2 without necessarily moving in the horizontal direction. In this way, not only one point but also three or more predetermined characteristic points such as the lowermost part of the chin and the corners of both eyes are extracted, and these characteristic points are positioned at predetermined positions with respect to the human body. Is to be aligned.

【0083】TVカメラ2を自由に移動させた場合に
は、必ずしも平行移動だけで位置合わせができるわけで
はなく、頭部の向きや大きさをも調整する必要がある。
そのために、3点以上の特徴点の抽出が必要になる。
When the TV camera 2 is freely moved, it is not always possible to perform positioning only by parallel movement, and it is necessary to adjust the direction and size of the head.
Therefore, it is necessary to extract three or more feature points.

【0084】具体的には、3特徴点抽出部6fにおい
て、複数の多視点画像のそれぞれにおいて顎の最下部、
両目尻の3点を抽出する。次に、3次元位置算出部6g
において、三角測量の原理に基づいてこれら3点の3次
元座標を算出する。その後、図24に示す手順で位置合
わせを行う。
Specifically, in the three feature point extracting unit 6f, the lowermost part of the chin in each of the plurality of multi-viewpoint images,
The three points at the outer corners of both eyes are extracted. Next, the three-dimensional position calculation unit 6g
, The three-dimensional coordinates of these three points are calculated based on the principle of triangulation. Thereafter, alignment is performed in the procedure shown in FIG.

【0085】先ず、抽出したこれらの3特徴点が人体部
に対して所定の位置にくるような平行移動量、回転量、
伸縮量の3次元移動量を算出し、これらの移動量に基づ
いて、顔画像生成部において算出した特徴量の3次元座
標の移動量を算出する。その後、顔画像生成部で算出さ
れた投影特徴点を、ここで算出された投影特徴点に変換
する座標変換係数を算出し、それに基づいて座標変換し
て出力する。
First, the amount of translation, the amount of rotation, and the amount of movement of the extracted three feature points at a predetermined position with respect to the human body part.
The three-dimensional movement amount of the amount of expansion and contraction is calculated, and the movement amount of the three-dimensional coordinates of the feature amount calculated by the face image generation unit is calculated based on these movement amounts. Thereafter, a coordinate conversion coefficient for converting the projection feature point calculated by the face image generation unit into the projection feature point calculated here is calculated, coordinate-converted based on the coefficient, and output.

【0086】[0086]

【発明の効果】この発明は、任意の視点から見た第1の
事物の高品質な画像を簡単に生成することができるとい
う特有の効果を奏する。
The present invention has a unique effect that a high-quality image of the first object viewed from an arbitrary viewpoint can be easily generated.

【0087】他の発明は、任意の視点から見た2つの事
物の合成画像を簡単に生成することができるという特有
の効果を奏する。
The other invention has a specific effect that a composite image of two things viewed from an arbitrary viewpoint can be easily generated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の画像生成処理装置の第1の実施態様
を示すブロック図である。
FIG. 1 is a block diagram illustrating a first embodiment of an image generation processing apparatus according to the present invention.

【図2】回転軸検出処理の流れを説明する流れ図であ
る。
FIG. 2 is a flowchart illustrating a flow of a rotation axis detection process.

【図3】顎の最下部を検出する処理の流れを説明する流
れ図である。
FIG. 3 is a flowchart illustrating a flow of processing for detecting a lowermost part of a jaw.

【図4】この発明の画像生成処理装置の第2の実施態様
を示すブロック図である。
FIG. 4 is a block diagram showing a second embodiment of the image generation processing device of the present invention.

【図5】この発明の画像生成処理装置の第3の実施態様
を示すブロック図である。
FIG. 5 is a block diagram showing a third embodiment of the image generation processing device of the present invention.

【図6】類似性評価処理の流れを説明する流れ図であ
る。
FIG. 6 is a flowchart illustrating a flow of a similarity evaluation process.

【図7】この発明の画像生成処理装置の第4の実施態様
を示すブロック図である。
FIG. 7 is a block diagram showing a fourth embodiment of the image generation processing device of the present invention.

【図8】この発明の画像生成処理装置の第5の実施態様
を示すブロック図である。
FIG. 8 is a block diagram showing a fifth embodiment of the image generation processing device of the present invention.

【図9】この発明の画像生成処理装置の第6の実施態様
を示すブロック図である。
FIG. 9 is a block diagram showing a sixth embodiment of the image generation processing device of the present invention.

【図10】回転角度と回転軸の算出方法を説明する図で
ある。
FIG. 10 is a diagram illustrating a method of calculating a rotation angle and a rotation axis.

【図11】この発明の画像生成処理装置の第7の実施態
様を示すブロック図である。
FIG. 11 is a block diagram showing a seventh embodiment of the image generation processing device of the present invention.

【図12】この発明の画像生成処理装置の第8の実施態
様を示すブロック図である。
FIG. 12 is a block diagram showing an eighth embodiment of the image generation processing device of the present invention.

【図13】この発明の画像生成処理装置の第9の実施態
様を示すブロック図である。
FIG. 13 is a block diagram showing a ninth embodiment of the image generation processing device of the present invention.

【図14】この発明の画像生成処理装置の第10の実施
態様を示すブロック図である。
FIG. 14 is a block diagram showing a tenth embodiment of the image generation processing device of the present invention.

【図15】この発明の画像生成処理装置の第11の実施
態様を示すブロック図である。
FIG. 15 is a block diagram showing an eleventh embodiment of the image generation processing device of the present invention.

【図16】座標変換部の処理の流れを説明する流れ図で
ある。
FIG. 16 is a flowchart illustrating a flow of a process performed by a coordinate conversion unit.

【図17】3次元座標算出の流れを説明する流れ図であ
る。
FIG. 17 is a flowchart illustrating a flow of three-dimensional coordinate calculation.

【図18】この発明の画像生成処理装置の第12の実施
態様を示すブロック図である。
FIG. 18 is a block diagram showing a twelfth embodiment of the image generation processing device of the present invention.

【図19】補間合成部の処理の流れを説明する流れ図で
ある。
FIG. 19 is a flowchart illustrating the flow of a process performed by an interpolation / synthesis unit.

【図20】この発明の画像生成処理装置の第13の実施
態様を示すブロック図である。
FIG. 20 is a block diagram showing a thirteenth embodiment of the image generation processing device of the present invention.

【図21】位置合わせ合成部の処理の流れを説明する流
れ図である。
FIG. 21 is a flowchart illustrating the flow of a process performed by the alignment synthesizing unit.

【図22】この発明の画像生成処理装置の第14の実施
態様を示すブロック図である。
FIG. 22 is a block diagram showing a fourteenth embodiment of the image generation processing device of the present invention.

【図23】この発明の画像生成処理装置の第15の実施
態様を示すブロック図である。
FIG. 23 is a block diagram showing a fifteenth embodiment of the image generation processing device of the present invention.

【図24】位置合わせ処理の流れを説明する流れ図であ
る。
FIG. 24 is a flowchart illustrating the flow of a positioning process.

【符号の説明】[Explanation of symbols]

1 電動回転椅子 1a 回転椅子 1b マーカ 1c 固定椅子 2 TVカメラ 3 多視点画像の格納部 4 視点獲得部 4a 視点算出部 4b 類似度算出部 4c 1周後画像検出部 4d 速度・加速度算出部 4e 視点算出部 4f 平均速度算出部 4g マーカ検出部 4h 特徴点抽出部 4i 特徴点追跡部 5 顔画像生成部 5a 視点選択部 5b 顔領域抽出部 5c 座標変換部 5d 複数視点選択部 5e 補間合成部 6 位置合わせ合成部 6a 回転軸検出部 6b 顎位置検出部 6c 位置合わせ部 6c’ 手動位置合わせ部 6d 画像合成部 6e 画像合成・確認部 6f 3特徴点抽出部 6g 3次元位置算出部 7 人体画像生成部 8 視点設定部 Reference Signs List 1 electric swivel chair 1a swivel chair 1b marker 1c fixed chair 2 TV camera 3 multi-viewpoint image storage unit 4 viewpoint acquisition unit 4a viewpoint calculation unit 4b similarity calculation unit 4c one-round image detection unit 4d speed / acceleration calculation unit 4e viewpoint Calculation unit 4f Average speed calculation unit 4g Marker detection unit 4h Feature point extraction unit 4i Feature point tracking unit 5 Face image generation unit 5a View point selection unit 5b Face region extraction unit 5c Coordinate conversion unit 5d Multiple viewpoint selection unit 5e Interpolation synthesis unit 6 Position Alignment synthesis unit 6a Rotation axis detection unit 6b Jaw position detection unit 6c Position alignment unit 6c 'Manual alignment unit 6d Image synthesis unit 6e Image synthesis / confirmation unit 6f 3 Feature point extraction unit 6g 3D position calculation unit 7 Human body image generation unit 8 viewpoint setting part

───────────────────────────────────────────────────── フロントページの続き (72)発明者 鳥生 隆 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 (72)発明者 遠藤 利生 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 (72)発明者 大竹 聡 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 (72)発明者 吉川 正晃 香川県高松市紺屋町1丁目3番地 株式会 社富士通香川システムエンジニアリング内 (72)発明者 関口 憲恒 滋賀県大津市園山町1丁目1番1号 東レ 株式会社滋賀事業場内 Fターム(参考) 5B050 BA06 BA10 BA12 DA07 EA03 EA05 EA19 FA19 5B057 CA08 CA12 CA16 CB08 CB12 CB16 CE08 CE09 CH08 DC02 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Takashi Torii 4-1-1, Kamiodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa Prefecture Inside Fujitsu Limited (72) Inventor Toshio Endo 4-1-1, Kamiodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa Prefecture No. 1 Inside Fujitsu Limited (72) Inventor Satoshi Otake 4-1-1, Kamiodanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture Inside Fujitsu Limited (72) Inventor Masaaki Yoshikawa 1-3-3 Konyacho, Takamatsu City, Kagawa Prefecture Shares Company Fujitsu Kagawa System Engineering (72) Inventor Noritaka Sekiguchi 1-1-1, Sonoyama-cho, Otsu-shi, Shiga Toray Co., Ltd. Shiga Plant F-term (reference) 5B050 BA06 BA10 BA12 DA07 EA03 EA05 EA19 FA19 5B057 CA08 CA12 CA16 CB08 CB12 CB16 CE08 CE09 CH08 DC02

Claims (37)

【特許請求の範囲】[Claims] 【請求項1】 第1の事物を該第1の事物との相対的な
位置および向きが互いに異なる複数の視点から見た多視
点画像を格納しておくとともに、前記複数の視点の位置
および向きを獲得しておき、任意に視点を設定したこと
に応答して、多視点画像と複数の視点の位置および向き
とを基にして、該設定された視点から見た第1の事物の
画像を生成することを特徴とする画像生成処理方法。
1. A multi-view image in which a first object is viewed from a plurality of viewpoints having different positions and orientations relative to the first object, and the positions and orientations of the plurality of viewpoints are stored. In response to setting the viewpoint arbitrarily, based on the multi-view image and the positions and orientations of the plurality of viewpoints, the image of the first thing viewed from the set viewpoint is obtained. An image generation processing method characterized by generating.
【請求項2】 第1の事物を該第1の事物との相対的な
位置および向きが互いに異なる複数の視点から見た多視
点画像を格納しておくとともに、前記複数の視点の位置
および向きを獲得しておき、任意に視点を設定したこと
に応答して、多視点画像と複数の視点の位置および向き
とを基にして、該設定された視点から見た第1の事物の
第1画像を生成し、第1の事物と異なる第2の事物を前
記設定された視点から見た第2の事物の第2画像を生成
し、前記設定された視点に応じて第1画像と第2画像と
を位置合わせを行って合成して合成画像を生成すること
を特徴とする画像生成処理方法。
2. A multi-view image in which a first object is viewed from a plurality of viewpoints having different positions and orientations relative to the first object is stored, and the positions and orientations of the plurality of viewpoints are stored. In response to setting the viewpoint arbitrarily, based on the multi-view image and the positions and orientations of the plurality of viewpoints, the first thing of the first thing viewed from the set viewpoint is obtained. Generating an image, generating a second image of a second thing as viewed from a second viewpoint different from the first thing from the set viewpoint, and generating a first image and a second image according to the set viewpoint. An image generation processing method, comprising: performing image positioning and synthesizing an image to generate a synthesized image.
【請求項3】 前記多視点画像は、電動回転手段によっ
て第1の事物を回転させながら第1の事物を撮影して得
られた画像であり、前記視点の向きは、第1の事物の撮
影時に電動回転手段から出力される回転角度信号に基づ
いて算出することを特徴とする請求項1または請求項2
に記載の画像生成処理方法。
3. The multi-viewpoint image is an image obtained by photographing a first thing while rotating a first thing by an electric rotating means, and the direction of the viewpoint is a photographing of the first thing. 3. The method according to claim 1, wherein the calculation is performed based on a rotation angle signal output from the electric rotation means.
2. The image generation processing method according to 1.
【請求項4】 前記多視点画像は、電動回転手段によっ
て第1の事物を電動回転手段固有のパラメータで指定さ
れる速度パターンで回転させながら第1の事物を撮影し
て得られた画像であり、前記視点の向きは、電動回転手
段に固有のパラメータに基づいて算出することを特徴と
する請求項1または請求項2に記載の画像生成処理方
法。
4. The multi-viewpoint image is an image obtained by photographing the first thing while rotating the first thing with a speed pattern specified by a parameter unique to the electric rotating means by the electric rotating means. The image generation processing method according to claim 1, wherein the direction of the viewpoint is calculated based on a parameter unique to the electric rotating unit.
【請求項5】 前記多視点画像は、第1の事物を慣性で
回転させながら第1の事物を撮影して得られた画像であ
り、前記視点の向きは、多視点画像間の類似度に基づい
て1回転後の画像撮影時点を得、この画像撮影時点から
回転速度および回転加速度を検出し、この回転速度およ
び回転加速度に基づいて算出することを特徴とする請求
項1または請求項2に記載の画像生成処理方法。
5. The multi-viewpoint image is an image obtained by photographing a first thing while rotating the first thing by inertia, and the direction of the viewpoint is determined by a similarity between the multi-viewpoint images. 3. An image capturing time point after one rotation is obtained based on the image data, a rotation speed and a rotation acceleration are detected from the image capturing time point, and the rotation speed and the rotation acceleration are calculated based on the rotation speed and the rotation acceleration. The image generation processing method described in the above.
【請求項6】 前記多視点画像は、第1の事物を回転さ
せながら第1の事物を撮影して得られた画像であり、前
記視点の向きは、多視点画像間の類似度に基づいて1回
転後の画像撮影時点を得、この画像撮影時点から平均回
転速度を検出し、この平均回転速度に基づいて算出する
ことを特徴とする請求項1または請求項2に記載の画像
生成処理方法。
6. The multi-view image is an image obtained by photographing a first thing while rotating the first thing, and the direction of the viewpoint is based on a similarity between the multi-view images. 3. The image generation processing method according to claim 1, wherein an image shooting time point after one rotation is obtained, an average rotation speed is detected from the image shooting time point, and calculation is performed based on the average rotation speed. .
【請求項7】 前記多視点画像は、第1の事物を所定の
模様を付加した物体と同時に回転させながら撮影して得
られた画像であり、前記視点の向きは、多視点画像のそ
れぞれから前記所定の模様を検出することによって算出
することを特徴とする請求項1または請求項2に記載の
画像生成処理方法。
7. The multi-view image is an image obtained by photographing a first object while rotating the object at the same time as an object to which a predetermined pattern is added, and the direction of the viewpoint is determined from each of the multi-view images. The image generation processing method according to claim 1, wherein the calculation is performed by detecting the predetermined pattern.
【請求項8】 前記多視点画像は、第1の事物を回転さ
せながら第1の事物を撮影して得られた画像であり、前
記視点の向きは、多視点画像のそれぞれから特徴点を抽
出して特徴点の対応関係を抽出し、この対応関係を基に
算出される第1の事物の回転角度に基づいて算出するこ
とを特徴とする請求項1または請求項2に記載の画像生
成処理方法。
8. The multi-viewpoint image is an image obtained by photographing a first thing while rotating the first thing, and the direction of the viewpoint is obtained by extracting a feature point from each of the multi-viewpoint images. 3. The image generation process according to claim 1, wherein a correspondence between feature points is extracted, and the calculation is performed based on a rotation angle of the first thing calculated based on the correspondence. Method.
【請求項9】 前記多視点画像は、第1の事物の周りを
移動しながら撮影して得られた画像であり、前記視点の
向きは、移動位置に基づいて算出することを特徴とする
請求項1または請求項2に記載の画像生成処理方法。
9. The multi-viewpoint image is an image obtained by shooting while moving around a first thing, and the direction of the viewpoint is calculated based on a moving position. The image generation processing method according to claim 1 or 2.
【請求項10】 前記多視点画像は、第1の事物の周り
に配置された複数の撮影位置において撮影して得られた
画像であり、前記視点の位置および向きは、該当する撮
影位置に基づいて算出することを特徴とする請求項1ま
たは請求項2に記載の画像生成処理方法。
10. The multi-viewpoint image is an image obtained by photographing at a plurality of photographing positions arranged around a first thing, and the position and orientation of the viewpoint are based on the corresponding photographing position. The image generation processing method according to claim 1, wherein the image generation processing is performed.
【請求項11】 前記多視点画像は、第1の事物と所定
の模様を付加した物体とを同時に撮影して得られた画像
であり、前記視点の向きは、多視点画像のそれぞれから
検出された模様の位置関係に基づいて算出することを特
徴とする請求項9または請求項10に記載の画像生成処
理方法。
11. The multi-view image is an image obtained by simultaneously photographing a first thing and an object to which a predetermined pattern is added, and the direction of the viewpoint is detected from each of the multi-view images. The image generation processing method according to claim 9, wherein the calculation is performed based on a positional relationship between the patterns.
【請求項12】 前記視点の向きは、多視点画像のそれ
ぞれから5個以上の特徴点を抽出して各特徴点の対応関
係を抽出し、この対応関係に基づいて算出することを特
徴とする請求項9または請求項10に記載の画像生成処
理方法。
12. The direction of the viewpoint is calculated based on the correspondence between the feature points by extracting five or more feature points from each of the multi-viewpoint images. The image generation processing method according to claim 9.
【請求項13】 前記第1の事物の画像の生成は、得ら
れた視点から選択された画像から所望の領域を切り出す
ことにより行うことを特徴とする請求項1から請求項1
2の何れかに記載の画像生成処理方法。
13. The method according to claim 1, wherein the generation of the image of the first thing is performed by cutting out a desired area from an image selected from an obtained viewpoint.
3. The image generation processing method according to any one of 2.
【請求項14】 前記第1の事物の画像の生成は、得ら
れた視点から選択された画像から所望の領域を切り出
し、この領域を座標変換することにより行うことを特徴
とする請求項1から請求項12の何れかに記載の画像生
成処理方法。
14. The method according to claim 1, wherein the generation of the image of the first thing is performed by cutting out a desired area from an image selected from an obtained viewpoint and performing coordinate transformation on the area. An image generation processing method according to claim 12.
【請求項15】 前記第1の事物の画像の生成は、得ら
れた視点から選択された複数の画像から所望の領域を切
り出し、これらの領域を補間合成することにより行うこ
とを特徴とする請求項1から請求項12の何れかに記載
の画像生成処理方法。
15. The method according to claim 15, wherein the generation of the image of the first thing is performed by cutting out a desired area from a plurality of images selected from the obtained viewpoint and interpolating and synthesizing these areas. The image generation processing method according to claim 1.
【請求項16】 前記第1画像と第2画像との合成は、
第1の事物の軸、および多視点画像のそれぞれからの所
定の特徴点の検出を行い、所定の特徴点の3次元的な位
置の算出を行い、第1の事物の軸と第2の事物の軸とが
一致し、かつ、3次元空間上で所定の特徴点が第2の事
物に対して所定の位置にくるように位置合わせして行う
ことを特徴とする請求項2から請求項8、請求項12か
ら請求項15の何れかに記載の画像生成処理方法。
16. The composition of the first image and the second image,
A predetermined feature point is detected from each of the axis of the first thing and each of the multi-viewpoint images, a three-dimensional position of the predetermined feature point is calculated, and the axis of the first thing and the second thing are detected. 9. The positioning is performed so that the axes of the second object coincide with each other and a predetermined feature point is positioned at a predetermined position with respect to the second object in the three-dimensional space. An image generation processing method according to any one of claims 12 to 15.
【請求項17】 前記第1画像と第2画像との合成は、
第1の事物の軸の検出を行い、軸が所定位置にくるよう
に多視点画像のうち所定枚数の画像のそれぞれを移動さ
せ、移動された画像が第2の事物に対して適切な位置に
くるように第1の事物を移動させ、この移動量に基づい
て両画像を位置合わせして行うことを特徴とする請求項
2から請求項8、請求項12から請求項15の何れかに
記載の画像生成処理方法。
17. The composition of the first image and the second image,
Detecting the axis of the first thing, moving each of the predetermined number of images among the multi-view images so that the axis is at the predetermined position, and moving the moved image to an appropriate position with respect to the second thing. 16. The method according to claim 2, wherein the first object is moved so as to move, and the two images are aligned based on the amount of movement. Image generation processing method.
【請求項18】 前記第1画像と第2画像との合成は、
多視点画像のうち所定視点から撮影された複数の画像の
それぞれから3個の特徴点の検出を行い、特徴点の3次
元的な位置の算出を行い、3次元空間上で3個の特徴点
が第2の事物に対して所定の位置にくるように位置合わ
せして行うことを特徴とする請求項2から請求項15の
何れかに記載の画像生成処理方法。
18. The composition of the first image and the second image,
Three feature points are detected from each of a plurality of images captured from a predetermined viewpoint in the multi-viewpoint image, three-dimensional positions of the feature points are calculated, and three feature points are detected in a three-dimensional space. 16. The image generation processing method according to claim 2, wherein the positioning is performed such that the position of the image is at a predetermined position with respect to the second thing.
【請求項19】 第1の事物を該第1の事物との相対的
な位置および向きが互いに異なる複数の視点から見た多
視点画像を格納する多視点画像格納手段と、前記複数の
視点の位置および向きを獲得する視点獲得手段と、任意
に視点を設定する視点設定手段と、多視点画像と複数の
視点の位置および向きとを基にして、該設定された視点
から見た第1の事物の画像を生成する第1画像生成手段
とを含むことを特徴とする画像生成処理装置。
19. Multi-view image storage means for storing a multi-view image in which a first thing is viewed from a plurality of viewpoints different from each other in relative position and orientation with respect to the first thing; Viewpoint acquiring means for acquiring a position and an orientation, viewpoint setting means for arbitrarily setting a viewpoint, and a first viewpoint viewed from the set viewpoint based on a multi-view image and positions and orientations of a plurality of viewpoints. An image generation processing apparatus, comprising: first image generation means for generating an image of an object.
【請求項20】 第1の事物を該第1の事物との相対的
な位置および向きが互いに異なる複数の視点から見た多
視点画像を格納する多視点画像格納手段と、前記複数の
視点の位置および向きを獲得する視点獲得手段と、任意
に視点を設定する視点設定手段と、多視点画像と複数の
視点の位置および向きとを基にして、該設定された視点
から見た第1の事物の第1画像を生成する第1画像生成
手段と、第1の事物と異なる第2の事物を前記設定され
た視点から見た第2の事物の第2画像を生成する第2画
像生成手段と、前記設定された視点に応じて第1画像と
第2画像とを位置合わせを行って合成して合成画像を生
成する合成画像生成手段とを含むことを特徴とする画像
生成処理装置。
20. A multi-viewpoint image storing means for storing a multi-viewpoint image obtained by viewing a first thing from a plurality of viewpoints having different positions and orientations relative to the first thing; Viewpoint acquiring means for acquiring a position and an orientation, viewpoint setting means for arbitrarily setting a viewpoint, and a first viewpoint viewed from the set viewpoint based on a multi-view image and positions and orientations of a plurality of viewpoints. First image generation means for generating a first image of an object, and second image generation means for generating a second image of a second thing as viewed from a second viewpoint different from the first thing from the set viewpoint An image generation processing apparatus comprising: a first image and a second image that are aligned according to the set viewpoint and synthesized to generate a synthesized image.
【請求項21】 前記多視点画像は、電動回転手段によ
って第1の事物を回転させながら第1の事物を撮影して
得られた画像であり、前記視点獲得手段は、第1の事物
の撮影時に電動回転手段から出力される回転角度信号に
基づいて視点の向きを算出するものであることを特徴と
する請求項19または請求項20に記載の画像生成処理
装置。
21. The multi-viewpoint image is an image obtained by photographing a first thing while rotating a first thing by an electric rotating unit, and the viewpoint acquiring unit is configured to photograph the first thing. 21. The image generation processing apparatus according to claim 19, wherein the direction of the viewpoint is calculated based on a rotation angle signal output from the electric rotation unit at times.
【請求項22】 前記多視点画像は、電動回転手段によ
って第1の事物を電動回転手段固有のパラメータで指定
される速度パターンで回転させながら第1の事物を撮影
して得られた画像であり、前記視点獲得手段は、電動回
転手段に固有のパラメータに基づいて視点の向きを算出
するものであることを特徴とする請求項19または請求
項20に記載の画像生成処理装置。
22. The multi-viewpoint image is an image obtained by photographing the first thing while rotating the first thing with a speed pattern specified by a parameter unique to the electric rotating means by the electric rotating means. 21. The image generation processing apparatus according to claim 19, wherein the viewpoint acquiring unit calculates the direction of the viewpoint based on a parameter unique to the electric rotating unit.
【請求項23】 前記多視点画像は、第1の事物を慣性
で回転させながら第1の事物を撮影して得られた画像で
あり、前記視点獲得手段は、多視点画像間の類似度を算
出する類似度算出手段と、多視点画像のうちある時点に
おける画像とちょうど1回転した後の画像を類似度に基
づいて検出する1回転後画像検出手段と、多視点画像の
うち所定の複数の画像のそれぞれを撮影した時点とそれ
らの画像に1回転後画像を撮影した時点との関係から回
転速度および回転加速度を算出する速度・加速度算出手
段とを含み、算出された回転速度および回転加速度に基
づいて視点の向きを算出するものであることを特徴とす
る請求項19または請求項20に記載の画像生成処理装
置。
23. The multi-viewpoint image is an image obtained by photographing the first thing while rotating the first thing by inertia, and the viewpoint acquiring means calculates the similarity between the multi-viewpoint images. A similarity calculating means for calculating, a one-turn image detecting means for detecting, based on the similarity, an image which has just rotated one time with an image at a certain point in time among the multi-view images, and a predetermined plurality of multi-view images among the multi-view images A speed / acceleration calculating means for calculating a rotation speed and a rotation acceleration from a relationship between a time when each of the images is taken and a time when the image is taken after one rotation of the images; 21. The image generation processing apparatus according to claim 19, wherein the direction of the viewpoint is calculated based on the viewpoint.
【請求項24】 前記多視点画像は、第1の事物を回転
させながら第1の事物を撮影して得られた画像であり、
前記視点獲得手段は、多視点画像間の類似度を算出する
類似度算出手段と、多視点画像のうちある時点における
画像とちょうど1回転した後の画像を類似度に基づいて
検出する1回転後画像検出手段と、多視点画像のうち1
つ以上の画像のそれぞれを撮影した時点とそれらの画像
の1回転後画像を撮影した時点との関係から平均回転速
度を算出する速度算出手段とを含み、この平均回転速度
に基づいて視点の向きを算出するものであることを特徴
とする請求項19または請求項20に記載の画像生成処
理装置。
24. The multi-viewpoint image is an image obtained by photographing a first thing while rotating the first thing,
The viewpoint acquisition means includes: a similarity calculation means for calculating a similarity between multi-view images; and a rotation after one rotation for detecting, based on the similarity, an image of the multi-view image just after one rotation with an image at a certain time. Image detection means, and one of the multi-viewpoint images
Speed calculation means for calculating an average rotation speed from a relationship between a time point when each of the one or more images is captured and a time point when the image after one rotation of the images is captured, and a viewpoint orientation based on the average rotation speed 21. The image generation processing device according to claim 19, wherein the image generation processing device calculates the following.
【請求項25】 前記多視点画像は、第1の事物を所定
の模様を付加した物体と同時に回転させながら撮影して
得られた画像であり、前記視点獲得手段は、多視点画像
のそれぞれから前記所定の模様を検出することによって
視点の向きを算出するものであることを特徴とする請求
項19または請求項20に記載の画像生成処理装置。
25. The multi-viewpoint image is an image obtained by photographing a first thing while rotating at the same time as an object to which a predetermined pattern is added. 21. The image generation processing apparatus according to claim 19, wherein a direction of a viewpoint is calculated by detecting the predetermined pattern.
【請求項26】 前記多視点画像は、第1の事物を回転
させながら第1の事物を撮影して得られた画像であり、
前記視点獲得手段は、多視点画像のそれぞれから特徴点
を抽出する特徴点抽出手段と、多視点画像の間で特徴点
の対応関係を抽出する特徴点追跡手段と、この対応関係
を基にそれぞれの多視点画像を撮影した時点における第
1の事物の回転角度を算出する回転角度算出手段とを含
み、多視点画像のそれぞれを撮影した時点における回転
角度から視点の向きを算出するものであることを特徴と
する請求項19または請求項20に記載の画像生成処理
装置。
26. The multi-viewpoint image is an image obtained by photographing a first thing while rotating the first thing,
The viewpoint obtaining means includes: a feature point extracting means for extracting a feature point from each of the multi-view images; a feature point tracking means for extracting a correspondence between the feature points between the multi-view images; And a rotation angle calculating means for calculating a rotation angle of the first thing at the time of capturing the multi-viewpoint image, and calculating the viewpoint direction from the rotation angle at the time of capturing each of the multi-viewpoint images. The image generation processing apparatus according to claim 19, wherein:
【請求項27】 前記多視点画像は、第1の事物の周り
を移動しながら撮影して得られた画像であり、前記視点
獲得手段は、移動位置に基づいて視点の向きを算出する
ものであることを特徴とする請求項19または請求項2
0に記載の画像生成処理装置。
27. The multi-view image is an image obtained by shooting while moving around a first thing, and the viewpoint obtaining means calculates a direction of a viewpoint based on a movement position. Claim 19 or Claim 2
0. The image generation processing device according to 0.
【請求項28】 前記多視点画像は、第1の事物の周り
に配置された複数の撮影位置において撮影して得られた
画像であり、前記視点獲得手段は、該当する撮影位置に
基づいて視点の位置および向きを算出するものであるこ
とを特徴とする請求項19または請求項20に記載の画
像生成処理装置。
28. The multi-viewpoint image is an image obtained by photographing at a plurality of photographing positions arranged around a first thing, and the viewpoint acquiring means determines a viewpoint based on a corresponding photographing position. 21. The image generation processing apparatus according to claim 19, wherein the position and orientation of the image are calculated.
【請求項29】 前記多視点画像は、第1の事物と所定
の模様を付加した物体とを同時に撮影して得られた画像
であり、前記視点獲得手段は、多視点画像のそれぞれか
ら該模様を検出する模様検出手段を含み、多視点画像の
それぞれから検出された模様の位置関係に基づいて視点
の向きを算出することを特徴とする請求項27または請
求項28に記載の画像生成処理装置。
29. The multi-viewpoint image is an image obtained by simultaneously photographing a first thing and an object to which a predetermined pattern has been added, and the viewpoint obtaining means determines the pattern from each of the multi-viewpoint images. 29. The image generation processing apparatus according to claim 27, further comprising: a pattern detection unit configured to detect a direction of a viewpoint based on a positional relationship of a pattern detected from each of the multi-viewpoint images. .
【請求項30】 前記視点獲得手段は、多視点画像のそ
れぞれから5個以上の特徴点を抽出する特徴点抽出手段
と、多視点画像の間で各特徴点の対応関係を抽出する特
徴点追跡手段とを含み、この対応関係に基づいて算出す
るものであることを特徴とする請求項27または請求項
28に記載の画像生成処理装置。
30. A feature point extracting means for extracting five or more feature points from each of the multi-view images, and a feature point tracking for extracting the correspondence of each feature point between the multi-view images. 29. The image generation processing device according to claim 27, wherein the image generation processing device includes means for calculating based on the correspondence.
【請求項31】 前記第1画像生成手段は、多視点画像
から必要に応じて所望の領域を切り出す領域抽出手段
と、設定された任意の視点に応じて視点獲得手段で得ら
れた視点1つを選択する視点選択手段とを含み、選択さ
れた視点に対応する領域抽出後の多視点画像を出力する
ものであることを特徴とする請求項19から請求項30
の何れかに記載の画像生成処理装置。
31. The first image generating means includes an area extracting means for cutting out a desired area from a multi-view image as needed, and one viewpoint obtained by a viewpoint acquiring means according to an arbitrary set viewpoint. 31. A multi-viewpoint image after extracting a region corresponding to the selected viewpoint is output, comprising: a viewpoint selecting means for selecting a selected viewpoint.
The image generation processing device according to any one of the above.
【請求項32】 前記第1画像生成手段は、多視点画像
から必要に応じて所望の領域を切り出す領域抽出手段
と、視点設定手段で設定された任意の視点に応じて得ら
れた視点から1つを選択する視点選択手段とを含み、設
定された視点と選択された視点との関係に応じて選択さ
れた視点に対応する領域抽出後の多視点画像を座標変換
した上で出力するものであることを特徴とする請求項1
9から請求項30の何れかに記載の画像生成処理装置。
32. The first image generating means includes: an area extracting means for cutting out a desired area from a multi-view image as needed; and a first image generating means for extracting a desired area from a viewpoint obtained according to an arbitrary viewpoint set by a viewpoint setting means. And a viewpoint selecting means for selecting one of the viewpoints, and outputting the multi-viewpoint image after the region extraction corresponding to the selected viewpoint in accordance with the relationship between the set viewpoint and the selected viewpoint after the coordinate conversion. 2. The method according to claim 1, wherein
The image generation processing device according to any one of claims 9 to 30.
【請求項33】 前記第1画像生成手段は、多視点画像
から必要に応じて所望の領域を切り出す領域抽出手段
と、視点設定手段で設定された任意の視点に応じて得ら
れた視点から複数の視点を選択する視点選択手段とを含
み、多視点画像のうち選択された視点に対応する複数の
領域抽出後の画像を補間合成して出力するものであるこ
とを特徴とする請求項19から請求項30の何れかに記
載の画像生成処理装置。
33. An image processing apparatus according to claim 27, wherein the first image generation unit includes a region extraction unit that cuts out a desired region from the multi-view image as needed, And a viewpoint selecting means for selecting a viewpoint from among the plurality of viewpoints, wherein a plurality of images after region extraction corresponding to the selected viewpoint among the multi-viewpoint images are interpolated and synthesized and output. The image generation processing device according to claim 30.
【請求項34】 前記合成画像生成手段は、撮影手段に
対して相対的に回転する第1の事物の回転軸を検出する
回転軸検出手段と、多視点画像のうち所定の視点から撮
影された複数の画像のそれぞれから所定の特徴点を検出
する特徴点検出手段と、該特徴点の3次元的な位置を算
出する算出手段とを含み、第1の事物と第2の事物との
回転軸が互いに一致し、かつ、3次元空間上で所定の特
徴点が第2の事物に対して所定の位置にくるように位置
合わせするものであることを特徴とする請求項19から
請求項25、請求項29から請求項32の何れかに記載
の画像生成処理装置。
34. The composite image generating means, wherein a rotation axis detecting means for detecting a rotation axis of a first thing which rotates relatively to the photographing means, and an image taken from a predetermined viewpoint in a multi-viewpoint image. A feature point detection unit that detects a predetermined feature point from each of the plurality of images; and a calculation unit that calculates a three-dimensional position of the feature point, and a rotation axis of the first thing and the second thing. Are aligned with each other, and a predetermined feature point is positioned at a predetermined position with respect to the second object in the three-dimensional space. The image generation processing device according to any one of claims 29 to 32.
【請求項35】 前記合成画像生成手段は、撮影手段に
対して相対的に回転する第1の事物の回転軸を検出する
回転軸検出手段と、回転軸が画像の所定の位置にくるよ
うに多視点画像のうち所定枚数の画像のそれぞれを移動
する第1移動手段と、移動された画像を第2の事物の画
像と重ねて表示する表示手段と、表示された画面上で第
1の事物が第2の事物に対して適切な位置にくるように
第1の事物を手動で移動させる第2移動手段と、手動で
移動させたときの移動量に基づいて第1の事物と第2の
事物との位置合わせを行う位置合わせ手段とを含むもの
であることを特徴とする請求項19から請求項25、請
求項29から請求項32の何れかに記載の画像生成処理
装置。
35. A combined image generating unit comprising: a rotating axis detecting unit configured to detect a rotating axis of a first thing that rotates relative to a photographing unit; and a rotating axis detecting unit configured to move the rotating axis to a predetermined position of the image. First moving means for moving each of a predetermined number of images among the multi-viewpoint images, display means for displaying the moved image so as to be superimposed on the image of the second thing, and first object on the displayed screen Second moving means for manually moving the first thing so that the first thing is at an appropriate position with respect to the second thing, and the first thing and the second thing based on the amount of movement when manually moving. The image generation processing apparatus according to any one of claims 19 to 25 and 29 to 32, further comprising a positioning means for performing positioning with an object.
【請求項36】 前記合成画像生成手段は、撮影手段に
対して相対的に回転する第1の事物の回転軸を検出する
回転軸検出手段と、多視点画像のうち所定視点から撮影
された複数の画像のそれぞれから所定の特徴点を検出す
る特徴点検出手段と、該特徴点の3次元的な位置を算出
する位置算出手段と、第1の事物と第2の事物との回転
軸が互いに一致し、かつ、3次元空間上で所定の特徴点
が第2の事物に対して所定の位置にくるように位置合わ
せする位置合わせ手段と、位置合わせを行った後、第2
の事物の画像と合成して画面に表示する表示手段と、表
示された画面上で第1の事物が第2の事物に対して適切
な位置にくるように第1の事物を手動で移動させる第2
移動手段とを含み、表示された画像において第1の事物
と第2の事物との位置が適切でないことに応答して、手
動で移動させたときの移動量に基づいて再度第1の事物
と第2の事物との位置合わせを行う位置合わせ手段とを
含むものであることを特徴とする請求項19から請求項
25、請求項29から請求項32の何れかに記載の画像
生成処理装置。
36. The composite image generating means, comprising: a rotation axis detecting means for detecting a rotation axis of a first thing rotating relatively to the photographing means; and a plurality of multi-view images photographed from a predetermined viewpoint. Characteristic point detecting means for detecting a predetermined characteristic point from each of the images, position calculating means for calculating the three-dimensional position of the characteristic point, and the rotation axes of the first and second objects are mutually different. A positioning means for positioning so that they coincide with each other and a predetermined feature point comes to a predetermined position with respect to the second object in the three-dimensional space;
Display means for combining the image with the image of the object and displaying the image on the screen, and manually moving the first object so that the first object is located at an appropriate position with respect to the second object on the displayed screen. Second
In response to the position of the first thing and the second thing not being appropriate in the displayed image, based on the amount of movement when manually moving the first thing and the first thing again. The image generation processing apparatus according to any one of claims 19 to 25 and 29 to 32, further comprising a positioning means for performing positioning with a second thing.
【請求項37】 前記合成画像生成手段は、多視点画像
のうち所定視点から撮影された複数の画像のそれぞれか
ら3個の特徴点を検出する特徴点検出手段と、該3個の
特徴点の3次元的な位置を算出する位置算出手段とを含
み、3次元空間上で3個の特徴点が第2の事物に対して
所定の位置にくるように位置合わせするものであること
を特徴とする請求項19から請求項32の何れかに記載
の画像生成処理装置。
37. A feature point detecting means for detecting three feature points from each of a plurality of images taken from a predetermined viewpoint among multi-viewpoint images, and a feature point detecting means for detecting the three feature points. Position calculating means for calculating a three-dimensional position, wherein the three feature points are aligned with respect to the second object so as to be at a predetermined position in the three-dimensional space. The image generation processing device according to any one of claims 19 to 32.
JP11054186A 1999-03-02 1999-03-02 Method and device for image generating processing Withdrawn JP2000251074A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11054186A JP2000251074A (en) 1999-03-02 1999-03-02 Method and device for image generating processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11054186A JP2000251074A (en) 1999-03-02 1999-03-02 Method and device for image generating processing

Publications (1)

Publication Number Publication Date
JP2000251074A true JP2000251074A (en) 2000-09-14

Family

ID=12963528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11054186A Withdrawn JP2000251074A (en) 1999-03-02 1999-03-02 Method and device for image generating processing

Country Status (1)

Country Link
JP (1) JP2000251074A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187387A (en) * 2008-02-07 2009-08-20 Taito Corp Image processing unit, image data communication system, and image processing program
JP2016530624A (en) * 2013-08-16 2016-09-29 ベイジン ジンドン シャンケ インフォメーション テクノロジー カンパニー リミテッド Method and device for generating virtual fitting model images
JP7376201B1 (en) 2023-09-13 2023-11-08 アキュイティー株式会社 Information processing system, information processing method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187387A (en) * 2008-02-07 2009-08-20 Taito Corp Image processing unit, image data communication system, and image processing program
JP2016530624A (en) * 2013-08-16 2016-09-29 ベイジン ジンドン シャンケ インフォメーション テクノロジー カンパニー リミテッド Method and device for generating virtual fitting model images
JP7376201B1 (en) 2023-09-13 2023-11-08 アキュイティー株式会社 Information processing system, information processing method and program

Similar Documents

Publication Publication Date Title
EP1521482B1 (en) Image display apparatus and method
JP4789745B2 (en) Image processing apparatus and method
JP4473754B2 (en) Virtual fitting device
JP6340017B2 (en) An imaging system that synthesizes a subject and a three-dimensional virtual space in real time
JP3244798B2 (en) Moving image processing device
JP5872923B2 (en) AR image processing apparatus and method
US20050018045A1 (en) Video processing
CN106296598B (en) 3 d pose processing method, system and camera terminal
JP2014106543A (en) Image processor, image processing method and program
JP5595655B2 (en) Image processing apparatus and image processing method
KR20090108642A (en) Method of capturing, processing, and rendering images
JP7427188B2 (en) 3D pose acquisition method and device
JP2015082288A (en) Information processing device and control method of the same
CN109791704A (en) The texture rendering based on multilayer UV mapping for free-running operation FVV application
JP2016071645A (en) Object three-dimensional model restoration method, device, and program
Remondino et al. Human figure reconstruction and modeling from single image or monocular video sequence
JP2010211732A (en) Object recognition device and method
JP5468773B2 (en) Image processing apparatus and image processing method
JP6799468B2 (en) Image processing equipment, image processing methods and computer programs
JP6621565B2 (en) Display control apparatus, display control method, and program
TWI821220B (en) Apparatus and method of image capture
JP2000251074A (en) Method and device for image generating processing
WO2018173205A1 (en) Information processing system, method for controlling same, and program
Kanbara et al. 3D scene reconstruction from reflection images in a spherical mirror
TWI564841B (en) A method, apparatus and computer program product for real-time images synthesizing

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060509