JP4285422B2 - Moving image generation system, moving image generation apparatus, moving image generation method, program, and recording medium - Google Patents

Moving image generation system, moving image generation apparatus, moving image generation method, program, and recording medium Download PDF

Info

Publication number
JP4285422B2
JP4285422B2 JP2005061393A JP2005061393A JP4285422B2 JP 4285422 B2 JP4285422 B2 JP 4285422B2 JP 2005061393 A JP2005061393 A JP 2005061393A JP 2005061393 A JP2005061393 A JP 2005061393A JP 4285422 B2 JP4285422 B2 JP 4285422B2
Authority
JP
Japan
Prior art keywords
dimensional
moving image
virtual space
generating
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005061393A
Other languages
Japanese (ja)
Other versions
JP2006244306A (en
Inventor
晃嗣 山崎
裕人 松岡
育生 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005061393A priority Critical patent/JP4285422B2/en
Publication of JP2006244306A publication Critical patent/JP2006244306A/en
Application granted granted Critical
Publication of JP4285422B2 publication Critical patent/JP4285422B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、被写体を予め様々な方向から撮影した複数の画像を用いて、滑らかな動画像を生成するための技術に関するものである。   The present invention relates to a technique for generating a smooth moving image using a plurality of images obtained by photographing a subject in advance from various directions.

近年、コンピュータのマルチメディア処理能力の向上やブロードバンドの普及に伴って商品等のプレゼンテーションに3次元CGが積極的に活用されるようになってきた。米Viewpoint社のMediaPlayerなどはその好例である。利用者は、見たい製品をコンピュータの画面上で好きな方向や角度から閲覧できる。この時、対象物を眺める方向の変化に応じて、画像を滑らかに表示することが最も重要である。   In recent years, three-dimensional CG has been actively used for presentation of products and the like with the improvement of multimedia processing capability of computers and the spread of broadband. A good example is MediaPlayer from Viewpoint. The user can browse the product he / she wants to see from his / her favorite direction and angle on the computer screen. At this time, it is most important to display an image smoothly according to a change in the direction in which the object is viewed.

一般的な3次元CGは、ポリゴンベースの方法で生成されている。この方法により、幾何形状モデルを生成することによって、任意の位置や方向から眺めた滑らかな動画像を得ることができる。しかし、ポリゴンベースでリアリティの高い動画像を生成する場合、モデリングにコストと時間がかかりすぎるという問題がある。   A general three-dimensional CG is generated by a polygon-based method. By generating a geometric model by this method, a smooth moving image viewed from an arbitrary position and direction can be obtained. However, in the case of generating a highly dynamic moving image based on a polygon, there is a problem that modeling takes too much time and time.

一般に3次元CGは複数のポリゴンで形状を表すジオメトリベースのデータが用いられている。この方法により、任意の位置や方向から眺めた滑らかな動画像を得ることができる。   In general, 3D CG uses geometry-based data representing a shape with a plurality of polygons. By this method, a smooth moving image viewed from an arbitrary position and direction can be obtained.

このジオメトリベースのデータを自動生成する手法として、Shape from Silhouetteという手法がある。この手法は、図1に示すように、被写体物体をn個所から撮影し、その撮影画像からn枚の被写体物体のシルエット(2値データ)を抽出する。このシルエット(1,…,l,…,m,…,n)を、仮想空間上で撮影したポイントから投影し、重なりあった部分を求めることにより、被写体物体の3次元形状データを得ることができる。この形状に、撮影画像から得られる被写体物体の表面の色彩データを加えることにより、3次元モデルデータを得ることができる。   As a technique for automatically generating this geometry-based data, there is a technique called Shape from Silhouette. In this method, as shown in FIG. 1, a subject object is photographed from n places, and silhouettes (binary data) of n subject objects are extracted from the photographed image. This silhouette (1,..., L,..., M,..., N) is projected from the points photographed in the virtual space, and the three-dimensional shape data of the subject object can be obtained by obtaining the overlapping portion. it can. By adding color data of the surface of the subject object obtained from the photographed image to this shape, three-dimensional model data can be obtained.

しかし、この手法では、被写体の細部まで正確に表すことができず、また、くぼみを表現することもできない。そのため、品質の高いデータを得るには手作業が必要であり、モデリングにコストと時間がかかってしまう。   However, with this method, details of the subject cannot be accurately represented, and indentations cannot be represented. Therefore, manual work is required to obtain high-quality data, and modeling takes cost and time.

そのため、予め複数の方向から被写体を撮影して得た2次元画像を利用して3次元空間のシーンの再構成を行うイメージベース手法の3次元CGが注目されている。この手法では、モデリング作業が不要であるため、簡便かつ比較的短時間でリアリティの高い3次元CGを生成ずることができる。米Apple社のQuickTimeVRはこの代表的な例である。   For this reason, attention has been paid to a three-dimensional CG of an image-based method for reconstructing a scene in a three-dimensional space using a two-dimensional image obtained by photographing a subject from a plurality of directions in advance. Since this method does not require modeling work, a highly realistic three-dimensional CG can be generated easily and in a relatively short time. Apple's QuickTimeVR is a typical example of this.

また、特許文献2には、正確にセグメンテーションを行うことができる3次元モデル生成方法が記載されている。また、特許文献3には、半透明性や反射性を再現し、自然な画像を得る画像処理方法が記載されている。   Patent Document 2 describes a three-dimensional model generation method capable of accurately performing segmentation. Patent Document 3 describes an image processing method that reproduces translucency and reflectivity to obtain a natural image.

上記の方法において、3次元CGを刻々と変化する視点の位置や方向に追従した滑らかな動画像として見せるには、予め被写体をあらゆる方向から撮影しなければならないため、形状モデリングに比べて扱うデータ量が膨大になる。例えば、滑らかに感じられる5°間隔で全方向から被写体を撮影する場合、600枚程度の画像を撮影する必要があり、撮影枚数ばかりでなくデータの容量や撮影に要する時間から考えても実用的なものとは言えなくなってしまう。   In the above method, in order to display a three-dimensional CG as a smooth moving image that follows the position and direction of the viewpoint that changes every moment, since the subject must be photographed from all directions in advance, data handled in comparison with shape modeling The amount becomes enormous. For example, when photographing a subject from all directions at 5 ° intervals that can be felt smoothly, it is necessary to photograph about 600 images, which is practical from the viewpoint of not only the number of images to be photographed but also the amount of data and the time required for photographing. It can no longer be said to be a natural thing.

図2に、従来のイメージベース手法での処理手順を示す。図2に示すように、従来のイメージベース手法においては、まず初めに被写体の撮影を行い、その後、画像処理、編集を行って動画像を生成する。この場合、どの程度の間隔で撮影を行うか等の撮影条件は、手動で指定する。しかしながら、上記のように滑らかに感じられる動画像を作成するには多数の画像を撮影する必要があり、30分程度の所要時間では、元となる実写画像の枚数がどうしても不足するためぎくしゃくした表示になるという問題があり、従来のイメージベース手法は滑らかな動画像として再生する用途には適さなかった。   FIG. 2 shows a processing procedure in the conventional image-based method. As shown in FIG. 2, in the conventional image-based method, a subject is first photographed, and then a moving image is generated by performing image processing and editing. In this case, shooting conditions such as the interval at which shooting is performed are manually specified. However, in order to create a moving image that feels smooth as described above, it is necessary to shoot a large number of images, and in the time required for about 30 minutes, the number of original captured images is inevitably insufficient, so a jerky display The conventional image-based method is not suitable for use as a smooth moving image.

一方、イメージベース手法を用いた3次元CG生成方法の別の例として、2枚の実写画像から、その間の画像を補間して描画する手法が提案されている。非特許文献1はその代表的な研究例である。また、特許文献1に記載された画像合成表示方法ではこの技術が用いられており、この技術について説明されている。この2枚の実写画像を用いる方法では、図3に示すように、2枚の実写画像IとIで共通する対応点を予め求め、その対応点をもとに2枚の画像を変形し、間から見た中割り画像Iを合成する。この方法は、任意の視点からの画像を正確に描画することができ、必要となる実写画像の枚数を減らすことができる。 On the other hand, as another example of a three-dimensional CG generation method using an image-based method, a method of interpolating and drawing an image between two live-action images has been proposed. Non-patent document 1 is a typical example of such research. Further, this technique is used in the image composition display method described in Patent Document 1, and this technique is described. In the method using the two actual images, as shown in FIG. 3, corresponding points common to the two actual images I 0 and I 1 are obtained in advance, and the two images are deformed based on the corresponding points. and, to synthesize a split image I s've seen from between. This method can accurately draw an image from an arbitrary viewpoint, and can reduce the number of actual images required.

しかし、この手法では、対応点を手動で指定しなければならず、これを求める有効なアルゴリズムが未だ確立されていない。また、特徴点が得難い複雑な被写体にはこの手法は不向きであり、被写体によっては生成する補間画像の品質が低下する恐れがある。さらに、計算量が膨大で処理に相当な時間を要するため、リアルタイムで表示できない。従って、この手法でも滑らかな動画像を生成するのは難しく実用化に至っていない。
特開2001−34788号公報 特開2001−148021号公報 特開2004−46776号公報 Steven M.Seitz,Charles R. Dyer, “View Morphing”, SIGGRAPH’96,pp.21−29
However, in this method, the corresponding points must be manually specified, and an effective algorithm for obtaining the corresponding points has not yet been established. In addition, this method is not suitable for a complicated subject for which feature points are difficult to obtain, and depending on the subject, the quality of the generated interpolation image may be reduced. Furthermore, since the calculation amount is enormous and a considerable amount of time is required for processing, it cannot be displayed in real time. Therefore, even with this method, it is difficult to generate a smooth moving image and it has not been put into practical use.
Japanese Patent Laid-Open No. 2001-34788 JP 2001-148021 A JP 2004-46776 A Steven M.M. Seitz, Charles R .; Dyer, “View Morphing”, SIGGRAPH '96, pp. 21-29

本発明は上記の点に鑑みてなされたものであり、上記従来技術の問題を解決し、実用的な撮影枚数でイメージベースの動画像を滑らかに見せる技術を提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to solve the above-described problems of the prior art and provide a technique for smoothly displaying an image-based moving image with a practical number of shots.

上記の課題は、被写体を様々な方向から撮影した複数の画像を用いて動画像を生成する動画像生成システムであって、カメラパスを含む3次元仮想空間情報を生成する仮想空間情報生成手段と、前記3次元仮想空間情報から撮影条件を抽出する撮影条件抽出手段と、前記撮影条件に基づき被写体の撮影を行い、複数の2次元画像を得る被写体撮影手段と、前記複数の2次元画像を用いて、3次元オブジェクトを生成する3次元オブジェクト生成手段と、前記3次元オブジェクトから、前記仮想空間情報生成手段により生成した3次元仮想空間情報を用いて2次元の動画像を生成する動画像生成手段とを備えることを特徴とする動画像生成システムにより解決できる。   The above-described problem is a moving image generation system that generates a moving image using a plurality of images obtained by photographing a subject from various directions, and a virtual space information generation unit that generates three-dimensional virtual space information including a camera path. A shooting condition extracting unit that extracts shooting conditions from the three-dimensional virtual space information, a subject shooting unit that captures a subject based on the shooting conditions and obtains a plurality of two-dimensional images, and the plurality of two-dimensional images. A three-dimensional object generating means for generating a three-dimensional object, and a moving image generating means for generating a two-dimensional moving image from the three-dimensional object using the three-dimensional virtual space information generated by the virtual space information generating means This can be solved by a moving image generation system characterized by comprising:

前記仮想空間情報生成手段は、前記被写体の概略の形状を表した仮オブジェクトを生成する仮オブジェクト生成手段と、前記仮オブジェクトを撮影する仮想的なカメラの位置の移動情報を前記カメラパスとして生成するカメラパス生成手段とを備えて構成することができ、また、前記3次元オブジェクトが生成される前に、前記仮オブジェクトから、前記3次元仮想空間情報を用いて2次元の動画像を生成するプレビュー画像生成手段を備えるようにしてもよい。   The virtual space information generation unit generates a temporary object generation unit that generates a temporary object that represents an approximate shape of the subject, and movement information of a position of a virtual camera that captures the temporary object as the camera path. And a preview for generating a two-dimensional moving image from the temporary object using the three-dimensional virtual space information before the three-dimensional object is generated. You may make it provide an image generation means.

また、前記撮影条件抽出手段は、前記移動情報に基づき、前記仮オブジェクトに対する前記仮想的なカメラの相対的な位置を複数の座標データに変換する座標変換手段を有してもよい。   The imaging condition extraction unit may include a coordinate conversion unit that converts a relative position of the virtual camera with respect to the temporary object into a plurality of coordinate data based on the movement information.

また、前記3次元オブジェクトは、被写体の寸法、被写体の複数の2次元画像、2次元画像上の被写体部分を表す複数のマスク画像、及び、被写体を撮影したときの撮影条件により構成することができる。   Further, the three-dimensional object can be configured by subject dimensions, a plurality of two-dimensional images of the subject, a plurality of mask images representing a subject portion on the two-dimensional image, and photographing conditions when the subject is photographed. .

また本発明は、被写体を様々な方向から撮影した複数の画像を用いて動画像を生成する動画像生成システムが実行する動画像生成方法であって、カメラパスを含む3次元仮想空間情報を生成する仮想空間情報生成ステップと、前記3次元仮想空間情報から撮影条件を抽出する撮影条件抽出ステップと、前記撮影条件に基づき被写体の撮影を行い、複数の2次元画像を得る被写体撮影ステップと、前記複数の2次元画像を用いて、3次元オブジェクトを生成する3次元オブジェクト生成ステップと、前記3次元オブジェクトから、前記仮想空間情報生成ステップにより生成した3次元仮想空間情報を用いて2次元の動画像を生成する動画像生成ステップとを有することを特徴とする動画像生成方法として構成することもできる。   The present invention is also a moving image generation method executed by a moving image generation system that generates a moving image using a plurality of images obtained by photographing a subject from various directions, and generates three-dimensional virtual space information including a camera path. A virtual space information generation step, a shooting condition extraction step for extracting a shooting condition from the three-dimensional virtual space information, a subject shooting step of shooting a subject based on the shooting condition to obtain a plurality of two-dimensional images, A three-dimensional object generating step for generating a three-dimensional object using a plurality of two-dimensional images, and a two-dimensional moving image using the three-dimensional virtual space information generated by the virtual space information generating step from the three-dimensional object It is also possible to configure as a moving image generation method characterized by having a moving image generation step for generating.

また、本発明は、被写体を様々な方向から撮影した複数の画像から生成された3次元オブジェクトを用いて動画像を生成するための動画像生成装置であって、カメラパスを含む3次元仮想空間情報を生成する仮想空間情報生成手段と、前記3次元仮想空間情報から撮影条件を抽出する撮影条件抽出手段と、前記撮影条件に基づき被写体を撮影して得た複数の2次元画像から生成された3次元オブジェクトから、前記仮想空間情報生成手段により生成した3次元仮想空間情報を用いて2次元の動画像を生成する動画像生成手段とを備えることを特徴とする動画像生成装置として構成することも可能である。また、本発明は、コンピュータを上記動画像生成装置として機能されるプログラムや、当該プログラムを記録したコンピュータ読み取り可能な記録媒体として構成することもできる。   The present invention is also a moving image generation apparatus for generating a moving image using a three-dimensional object generated from a plurality of images obtained by photographing a subject from various directions, and includes a three-dimensional virtual space including a camera path. Virtual space information generating means for generating information, shooting condition extracting means for extracting shooting conditions from the three-dimensional virtual space information, and a plurality of two-dimensional images obtained by shooting a subject based on the shooting conditions A moving image generating apparatus comprising: a moving image generating unit that generates a two-dimensional moving image from a three-dimensional object using the three-dimensional virtual space information generated by the virtual space information generating unit. Is also possible. In the present invention, the computer can also be configured as a program that functions as the moving image generating apparatus or a computer-readable recording medium that records the program.

本発明によれば、まずカメラパスを含む3次元仮想空間情報を生成し、その3次元仮想空間情報から撮影条件を抽出し、抽出した撮影条件に基づき被写体の撮影を行い、得られた複数の2次元画像を用いて生成された3次元オブジェクトから、3次元仮想空間情報を用いて2次元の動画像を生成することとしたので、実用的な撮影枚数でイメージベースの動画像を滑らかに見せることが可能となる。   According to the present invention, first, three-dimensional virtual space information including a camera path is generated, shooting conditions are extracted from the three-dimensional virtual space information, and a subject is shot based on the extracted shooting conditions. Since a two-dimensional moving image is generated from a three-dimensional object generated using a two-dimensional image using three-dimensional virtual space information, an image-based moving image can be smoothly displayed with a practical number of shots. It becomes possible.

以下、図面を参照して本発明の実施の形態について説明する。仮想空間上での注視点を固定とする場合を第1の実施の形態とし、仮想空間上の注視点を可変とする場合を第2の実施の形態として説明する。
(第1の実施の形態)
[システム構成]
図4に、第1の実施の形態における動画像生成システムの構成に示す。図4に示すように、この動画像生成システムは、編集装置AD、撮影装置CD、表示装置DDを有している。
Embodiments of the present invention will be described below with reference to the drawings. The case where the fixation point in the virtual space is fixed will be described as the first embodiment, and the case where the fixation point in the virtual space is variable will be described as the second embodiment.
(First embodiment)
[System configuration]
FIG. 4 shows the configuration of the moving image generation system according to the first embodiment. As shown in FIG. 4, the moving image generation system includes an editing device AD, a photographing device CD, and a display device DD.

編集装置ADは、仮想空間構築部VPと、撮影条件抽出部EPと、動画像生成部MPとを有する。撮影装置CDは、被写体撮影部SPと、3次元オブジェクト合成部IPとを有する。表示装置DDは、動画像表示部DPを有している。編集装置ADと表示装置DDはそれぞれコンピュータシステムを用いて実現できる。また、撮影装置CDにおける被写体撮影部SPは、撮影位置制御を行うためのコンピュータシステム、カメラ、被写体を置くテーブル、及び背景装置等により実現でき、3次元オブジェクト合成部IPは、3次元オブジェクト合成等のためのプログラムを搭載したコンピュータシステムにより実現できる。   The editing device AD includes a virtual space construction unit VP, a shooting condition extraction unit EP, and a moving image generation unit MP. The photographing apparatus CD includes a subject photographing unit SP and a three-dimensional object composition unit IP. The display device DD has a moving image display unit DP. The editing device AD and the display device DD can each be realized using a computer system. Further, the subject photographing unit SP in the photographing apparatus CD can be realized by a computer system for performing photographing position control, a camera, a table on which a subject is placed, a background device, and the like, and the three-dimensional object composition unit IP is a three-dimensional object composition etc. It can be realized by a computer system equipped with a program for

各装置は図4に示すようにネットワークを介して相互にやりとりする双方向システムとして構成することができるが、例えば編集装置ADと表示装置DDとを一つのコンピュータシステムとして構築してもよいし、撮影装置CDの3次元オブジェクト合成部IPと編集装置ADと表示装置DDとを一つのコンピュータシステム上に構築することもできる。   As shown in FIG. 4, each device can be configured as a bidirectional system that communicates with each other via a network. For example, the editing device AD and the display device DD may be constructed as one computer system, The three-dimensional object composition unit IP, the editing device AD, and the display device DD of the photographing device CD can be constructed on one computer system.

図5に、コンピュータシステムの一例を示す。図5に示すように、このコンピュータシステムは、CPU1、メモリー2、ハードディスク3、入力装置4、出力装置5、CD−ROMドライブ6を有する一般的なコンピュータシステムである。このコンピュータシステムに、例えば上記の編集装置ADの処理を実行するプログラムを搭載することにより編集装置ADを実現できる。当該プログラムは、コンピュータが読み取りできる記録媒体、例えば、FD(フレキシブルディスク)や、MO、ROM、メモリカード、CD−ROM、DVD、リムーバブルディスクなどに記録して保存したり、配布したりすることが可能である。また、そのプログラムは、インターネットや電子メールなど、ネットワークを通して提供することも可能である。   FIG. 5 shows an example of a computer system. As shown in FIG. 5, this computer system is a general computer system having a CPU 1, a memory 2, a hard disk 3, an input device 4, an output device 5, and a CD-ROM drive 6. For example, the editing apparatus AD can be realized by mounting a program for executing the processing of the editing apparatus AD on the computer system. The program may be recorded and stored in a computer-readable recording medium such as an FD (flexible disk), MO, ROM, memory card, CD-ROM, DVD, removable disk, or distributed. Is possible. The program can also be provided through a network such as the Internet or e-mail.

[処理概要]
図6に、本実施の形態の動画像生成システムにおける処理フローを示す。以下、図6の処理フローを参照して本実施の形態における動画像生成処理の概要について説明する。
[Outline of processing]
FIG. 6 shows a processing flow in the moving image generation system of the present embodiment. Hereinafter, an overview of the moving image generation processing in the present embodiment will be described with reference to the processing flow of FIG.

まず、編集装置ADの仮想空間構築部VPが、利用者からの操作に応じて、仮オブジェクトを生成し、仮オブジェクトに対するカメラパスを空間情報として生成する(ステップ1)。このとき、利用者は、カメラパスに沿って見た仮オブジェクトの映像を確認することができる。すなわち、最終的に出来上がる映像のプレビューを行うことができる。   First, the virtual space construction unit VP of the editing apparatus AD generates a temporary object in response to an operation from the user, and generates a camera path for the temporary object as space information (step 1). At this time, the user can confirm the video of the temporary object viewed along the camera path. That is, it is possible to preview the final video.

次に、撮影条件抽出部EPは、仮想空間の空間情報におけるカメラパスの座標変換等を行ことにより、実際に被写体を撮影する際の撮影条件を抽出する(ステップ2)。そして、撮影装置CDの被写体撮影部SPは、抽出された撮影条件に従って複数の方向から被写体の撮影を行い、複数の2次元画像を出力する(ステップ3)。   Next, the imaging condition extraction unit EP extracts the imaging conditions when the subject is actually captured by performing coordinate conversion of the camera path in the space information of the virtual space (step 2). Then, the subject photographing unit SP of the photographing apparatus CD photographs the subject from a plurality of directions according to the extracted photographing conditions, and outputs a plurality of two-dimensional images (step 3).

続いて、撮影装置CDの3次元オブジェクト合成部IPは、前記複数の2次元画像から3次元オブジェクトを合成する(ステップ4)。合成された3次元オブジェクトは編集装置ADに送られ、編集装置ADにおいて、動画像生成部MPは、受信した3次元オブジェクトと、仮想空間構築部VPで作成したカメラパス等の空間情報を用いて2次元の動画像を生成する(ステップ5)。2次元の動画像は表示装置DDに送られ、表示装置DDの動画像表示部DPが2次元の動画像を表示する(ステップ6)。   Subsequently, the three-dimensional object composition unit IP of the photographing apparatus CD composes a three-dimensional object from the plurality of two-dimensional images (step 4). The synthesized three-dimensional object is sent to the editing device AD. In the editing device AD, the moving image generation unit MP uses the received three-dimensional object and spatial information such as a camera path created by the virtual space construction unit VP. A two-dimensional moving image is generated (step 5). The two-dimensional moving image is sent to the display device DD, and the moving image display unit DP of the display device DD displays the two-dimensional moving image (step 6).

従来のように、被写体を360度全ての方向から撮影した細かい角度刻みの2次元画像を作成するとなると、データ量が非常に大きくなるとともに撮影時間も非常に長くなる。一方、上記のような本システムにおける処理によれば、360度全ての方向でなく、仮想空間上で定めたカメラパス上の各時間位置に対応するカメラ位置から撮影した細かい角度刻みの2次元画像を取得することにより滑らかな動画像を作成でき、データ量を削減できるとともに撮影時間も短縮できる。   As in the prior art, when a two-dimensional image with fine angular increments obtained by photographing the subject from all directions of 360 degrees is created, the amount of data becomes very large and the photographing time becomes very long. On the other hand, according to the processing in the present system as described above, a two-dimensional image in fine angular increments is taken from the camera position corresponding to each time position on the camera path defined in the virtual space instead of all directions of 360 degrees. By acquiring the image, a smooth moving image can be created, the amount of data can be reduced, and the shooting time can be shortened.

[詳細処理]
以下、図4に示した本実施の形態の動画像生成システムの各処理部の機能と処理について詳細に説明する。なお、以下で説明する各手段は、コンピュータシステム上でプログラムが実行されることにより実現される手段である。
(1)仮想空間構築部VP
図7は、仮想空間構築部VPの機能構成を示す図である。図7に示すように、仮想空間構築部VPは、仮オブジェクト生成手段10、カメラパス生成手段11、空間情報編集手段12、及び映像確認手段13を有している。また、図7には、各手段により生成される情報が示されている。仮想空間構築部VPにおける処理は以下の通りである。なお、以下の処理は利用者の操作に基づいて行われるものである。
[Detailed processing]
Hereinafter, functions and processes of each processing unit of the moving image generation system according to the present embodiment illustrated in FIG. 4 will be described in detail. Each unit described below is a unit realized by executing a program on a computer system.
(1) Virtual space construction unit VP
FIG. 7 is a diagram illustrating a functional configuration of the virtual space construction unit VP. As shown in FIG. 7, the virtual space construction unit VP includes temporary object generation means 10, camera path generation means 11, space information editing means 12, and video confirmation means 13. FIG. 7 shows information generated by each means. Processing in the virtual space construction unit VP is as follows. The following processing is performed based on the user's operation.

まず、仮オブジェクト生成手段10により3次元仮想空間上の仮オブジェクトを生成する。また、カメラパス生成手段11によりカメラパスを3次元仮想空間上に生成する。この仮オブジェクトとカメラパスによって空間情報が構成される。また、生成された空間情報は記憶装置に格納される。   First, the temporary object generation unit 10 generates a temporary object in the three-dimensional virtual space. Further, the camera path generation unit 11 generates a camera path in a three-dimensional virtual space. Spatial information is constituted by the temporary object and the camera path. The generated spatial information is stored in a storage device.

更に、空間情報編集手段12が空間情報を映像として表示できる形に編集し、映像確認手段13が、空間情報に基づくプレビュー映像をディスプレイ等に表示する。利用者は、プレビュー映像を見て、完成前に出来上がりのイメージを掴むことができる。プレビューで確認を行った際に、オブジェクトの動きが想定していたものと異なっていれば、カメラパスを変更する等して適宜修正することができる。   Further, the spatial information editing unit 12 edits the spatial information into a form that can be displayed as a video, and the video confirmation unit 13 displays a preview video based on the spatial information on a display or the like. The user can see the preview image and grasp the completed image before completion. When the confirmation is performed in the preview, if the movement of the object is different from what is assumed, it can be appropriately corrected by changing the camera path.

上記の仮オブジェクトとは、被写体の概形を表すと同時に、被写体の位置と占有範囲を表現する大まかな直方体のデータである。仮オブジェクトは、被写体の正確なサイズを表していないため、後述する動画像生成処理において補正が必要となるが、この時点では被写体を撮影する以前にラフな完成映像のイメージが掴めれば十分なので、簡単な直方体を生成することとしている。   The temporary object is rough rectangular parallelepiped data that represents the outline of the subject and also represents the position and occupied range of the subject. Since the temporary object does not represent the exact size of the subject, correction is required in the moving image generation process described later, but at this point, it is sufficient to grasp the rough completed video image before photographing the subject. And trying to generate a simple cuboid.

この仮オブジェクトとして、上記のような被写体の概形を表す直方体を用いることの他、同じ程度の大きさの他の物体のデータを用いたり、予め撮影装置で簡単に被写体の撮影を行いラフな3次元オブジェクトのデータを作成し、それを仮オブジェクトとして利用してもよい。   As the temporary object, a rectangular parallelepiped representing the outline of the subject as described above is used, data of another object having the same size is used, or the subject is easily photographed in advance by a photographing device. Data of a three-dimensional object may be created and used as a temporary object.

また、カメラパスとは、3次元仮想空間上の3次元オブジェクトをどのような視点位置から撮影するかを示すパスであり、3次元仮想空間上の仮想的なカメラの移動の軌跡・経路を任意の線分や曲線・図形などで表し、同じ3次元仮想空間上に配置したものである。なお、本実施の形態では、仮オブジェクトを1つだけとしているので、カメラの注視点は固定の位置(例えば仮オブジェクトの中心位置)に設定される。図8に、操作インターフェース画面上のカメラパスの設定例を示す。   The camera path is a path indicating from what viewpoint position the 3D object in the 3D virtual space is photographed, and the trajectory / path of the virtual camera movement in the 3D virtual space is arbitrarily set. These are represented by line segments, curves, figures, etc., and arranged in the same three-dimensional virtual space. In the present embodiment, since there is only one temporary object, the gazing point of the camera is set to a fixed position (for example, the center position of the temporary object). FIG. 8 shows a setting example of the camera path on the operation interface screen.

3次元仮想空間内でカメラパスを設定する技術は、ポリゴンベースの3次元CGにおけるシーンの映像を構築する際の従来からある標準的な技術であり、イメージベースのシステムにおいても同様に実現することができる。カメラパスの形状や数・組み合わせなどは、形状の入力手段を用いることで自由に定義できる。   The technology for setting the camera path in the three-dimensional virtual space is a conventional standard technology for constructing a scene image in a polygon-based three-dimensional CG, and should be similarly realized in an image-based system. Can do. The shape, number, and combination of camera paths can be freely defined by using shape input means.

また、カメラパスはカメラ位置の変化を3次元仮想空間上の形状情報として表現したものであるため、位置情報の他に時間情報も含む。3次元仮想空間上のカメラパスの時間情報の編集をサポートするために、一般的にはタイムライン等のインターフェースが用いられている。タイムラインとは、時間属性を持つオブジェクトをレイヤー毎に時間軸で管理する2次元のインターフェースであり、3次元CGにおけるシーンの映像を構築する際に従来から一般的に用いられるものである。タイムラインを用いることでカメラパスの管理を容易に行うことができる。本実施の形態では、そうしたタイムラインインターフェースの利用を想定する。   In addition, since the camera path represents a change in the camera position as shape information in the three-dimensional virtual space, it includes time information in addition to the position information. In order to support editing of time information of a camera path in a three-dimensional virtual space, an interface such as a timeline is generally used. A timeline is a two-dimensional interface that manages objects having time attributes on a time axis for each layer, and is generally used in the past when constructing a scene image in a three-dimensional CG. By using the timeline, the camera path can be easily managed. In this embodiment, it is assumed that such a timeline interface is used.

図9に、タイムライン設定画面の一例を示す。図9に示すように、カメラパス毎に、カメラパスの時間長(カメラパス時間)が設定される。また、カメラパスにおける1秒あたりフレーム数(FPS)を設定でき、本実施の形態では1≦FPS≦30である。つまり、1秒間で最大30フレームの時間情報を持たせることができる。図9の例では、カメラパス1のカメラパス時間は10秒であり、FPSは12と設定されている。この場合、カメラパス1の全フレーム数は120となる。   FIG. 9 shows an example of the timeline setting screen. As shown in FIG. 9, the camera path time length (camera path time) is set for each camera path. In addition, the number of frames per second (FPS) in the camera path can be set, and in this embodiment, 1 ≦ FPS ≦ 30. That is, time information of a maximum of 30 frames can be provided per second. In the example of FIG. 9, the camera pass time of the camera pass 1 is 10 seconds, and the FPS is set to 12. In this case, the total number of frames in camera path 1 is 120.

仮オブジェクトの位置情報、及びカメラパスが有する位置情報と時間情報により空間情報が構成される。ここで本実施の形態における仮オブジェクトとカメラパスとの関係について説明する。本実施の形態は、空間情報としての仮オブジェクトが1つのみの場合であるので、仮想的なカメラが仮オブジェクトを眺める方向として、常に仮オブジェクトの中心を眺めることとしている。この場合、利用パターンは限定されるが、例えば博物館の作品や、宝石類などの個別性の高い商品をひとつひとつ独立した高品質な映像として見せたい場合に、迅速に空間情報の構築ができる。
(2)撮影条件抽出部EP
次に、仮想空間構築部VPで生成された空間情報を撮影条件に変換する撮影条件抽出部EPについて説明する。図10に示すように、撮影条件抽出部EPは、座標変換手段20、撮影距離計算手段21、垂直角度計算手段22、水平角度計算手段23、撮影手順生成手段24を有している。これらの手段を有する撮影条件抽出部EPは、3次元仮想空間上に形状として配置されたカメラパスを複数の座標値に変換し、撮影装置CDにおける撮影距離(D)・撮影角度(V)(H)・撮影手順(AL)を条件として抽出する。以下、撮影条件抽出部EPにおける処理内容を詳細に説明する。
Spatial information is constituted by the position information of the temporary object and the position information and time information of the camera path. Here, the relationship between the temporary object and the camera path in the present embodiment will be described. Since this embodiment is a case where there is only one temporary object as the spatial information, the virtual camera always looks at the center of the temporary object as a direction of viewing the temporary object. In this case, the usage pattern is limited, but for example, when it is desired to show a piece of a museum or a highly individual product such as jewelry as an independent high-quality image, spatial information can be quickly constructed.
(2) Shooting condition extraction unit EP
Next, the imaging condition extraction unit EP that converts the space information generated by the virtual space construction unit VP into imaging conditions will be described. As shown in FIG. 10, the shooting condition extraction unit EP includes coordinate conversion means 20, shooting distance calculation means 21, vertical angle calculation means 22, horizontal angle calculation means 23, and shooting procedure generation means 24. The photographing condition extraction unit EP having these means converts a camera path arranged as a shape in a three-dimensional virtual space into a plurality of coordinate values, and obtains a photographing distance (D) and a photographing angle (V) in the photographing apparatus CD. H) • Extraction is performed using the photographing procedure (AL) as a condition. Hereinafter, the processing content in the imaging condition extraction unit EP will be described in detail.

まず、座標変換手段20により、仮オブジェクトの中心を表す座標に対するカメラパスの各時間における相対的な位置を複数の座標データとして求める。例えば、仮オブジェクトの中心、すなわちオブジェクト座標系の原点を仮想空間座標系における(2,2,2)とするとき、カメラパスのある2点におけるカメラ座標が(10,2,10)、(12,2,8)ならば、座標変換手段20による出力は(8,0,8)(12,0,6)となる。   First, the coordinate conversion means 20 obtains the relative position at each time of the camera path with respect to the coordinates representing the center of the temporary object as a plurality of coordinate data. For example, when the center of the temporary object, that is, the origin of the object coordinate system is (2, 2, 2) in the virtual space coordinate system, the camera coordinates at two points with the camera path are (10, 2, 10), (12 , 2, 8), the output from the coordinate conversion means 20 is (8, 0, 8) (12, 0, 6).

カメラパスにおけるカメラ座標は、フレーム時間位置毎に存在するので、総フレーム数分の座標データが出力される。また、フレーム間隔(FI)を指定することにより求める座標データの数を調節することもできる。ここでのフレーム間隔とは、あるカメラパスの総フレーム数に対し、どの割合で座標データを抽出するかの指標となるものである。この場合、フレーム間隔毎に座標データを出力するので、カメラパスの総フレーム数をフレーム間隔数で割った値が、出力される座標データの数となる。即ち、座標変換手段20により求められる座標データの数を(n)、カメラパスの時間の長さを(T)とすると、n=(T×FPS)/FIとなる。ただし、Tは秒単位である。   Since camera coordinates in the camera path exist for each frame time position, coordinate data for the total number of frames is output. In addition, the number of coordinate data to be obtained can be adjusted by designating the frame interval (FI). Here, the frame interval is an index indicating at what ratio the coordinate data is extracted with respect to the total number of frames of a certain camera path. In this case, since coordinate data is output at every frame interval, a value obtained by dividing the total number of frames in the camera path by the number of frame intervals is the number of coordinate data to be output. That is, if the number of coordinate data obtained by the coordinate conversion means 20 is (n) and the time length of the camera path is (T), n = (T × FPS) / FI. Where T is in seconds.

例えば、カメラパス時間が10秒でFPSが12のカメラパスでは総フレーム数が120となり、このカメラパスにおいてフレーム間隔を12と指定すれば、求められる座標データ数は120/12=10となる。   For example, if the camera pass time is 10 seconds and the camera pass has an FPS of 12, the total number of frames is 120. If the frame interval is specified as 12 in this camera pass, the number of obtained coordinate data is 120/12 = 10.

映像をより滑らかに生成したい場合は、フレーム間隔の値を小さくして座標変換数を増やせばよい。カメラパスは3次元仮想空間における空間の一部を切り取ったものなので、従来の手法において被写体を全方向から撮影する場合の総撮影数を(Pm)としたとき、本実施の形態の総撮影数(Pn)との間には、Pm≧Pnが成り立つ。よって、滑らかな動画像を生成する場合に、従来に比べて必要な画像の枚数を少なく済ませることができる。   If it is desired to generate the video more smoothly, the number of coordinate transformations can be increased by reducing the frame interval value. Since the camera path is obtained by cutting out a part of the space in the three-dimensional virtual space, when the total number of shots in the conventional method when shooting the subject from all directions is (Pm), the total number of shots according to the present embodiment. Between (Pn), Pm ≧ Pn holds. Therefore, when a smooth moving image is generated, the number of necessary images can be reduced as compared with the conventional case.

図11に、座標変換手段によって求められたカメラ座標の例を示す。図11に示すように、手動で設定していた従来の整数ベースの撮影条件と異なり、視点ごとの座標の変化量が実数ベースで精徴に数値化されている。そのため、カメラ座標の変化をより柔軟に記述できる。   FIG. 11 shows an example of camera coordinates obtained by the coordinate conversion means. As shown in FIG. 11, unlike the conventional integer-based imaging conditions that have been manually set, the amount of change in coordinates for each viewpoint is quantified in real numbers. Therefore, changes in camera coordinates can be described more flexibly.

座標変換手段20により座標データが求められたら、その座標データに基づき撮影距離計算手段21がmm単位の撮影距離を計算する。撮影距離はカメラと被写体中心との距離である。   When coordinate data is obtained by the coordinate conversion means 20, the shooting distance calculation means 21 calculates a shooting distance in mm based on the coordinate data. The shooting distance is the distance between the camera and the subject center.

なお、仮想空間上に配置したカメラパスは自由な形状なので、仮オブジェクトに対して様々な可変距離を取る。3次元仮想空間上においては、距離の変数はむろん自由な任意の値をとることができるが、一方、実際の撮影装置においてはカメラを支えるアームの可動範囲等の物理的な制約があり、撮影距離に制約が生じる(例えば固定距離で撮影しなければならなかったりする)場合がある。従って、そのような制約をデータとして予め入力しておくことにより、必要に応じて距離補正を行う。   Since the camera path arranged in the virtual space has a free shape, various variable distances are taken with respect to the temporary object. In the three-dimensional virtual space, the distance variable can take any arbitrary value, but the actual photographing apparatus has physical restrictions such as the movable range of the arm that supports the camera. There are cases where the distance is limited (for example, shooting must be performed at a fixed distance). Therefore, distance correction is performed as necessary by inputting such constraints as data in advance.

なお、実際の撮影における3次元距離計測は、一般に用いられている方法である同一方向から複数の画像をステレオ処理することによって距離情報計測してもよいし、レンジファインダ等、光学的な方法によって対象物体上に投光されたパターン光の位置を計測し、幾何学的な位置関係から距離情報を得てもよい。これらは求める撮影距離の補正の精度による。   Note that three-dimensional distance measurement in actual shooting may be distance information measurement by stereo processing a plurality of images from the same direction, which is a commonly used method, or by an optical method such as a range finder. The position of the pattern light projected on the target object may be measured, and distance information may be obtained from the geometric positional relationship. These depend on the accuracy of the required shooting distance correction.

次に、座標変換手段20で求められた3次元仮想空間上のカメラ座標毎に、そのカメラ座標と、オブジェクト座標系における仮オブジェクトの原点に基づきべクトル計算を行って、垂直角度計算手段22が垂直角度を求める。また、水平角度計算手段23が水平角度を求める。   Next, for each camera coordinate in the three-dimensional virtual space obtained by the coordinate conversion means 20, a vector calculation is performed based on the camera coordinates and the origin of the temporary object in the object coordinate system, and the vertical angle calculation means 22 Find the vertical angle. Further, the horizontal angle calculation means 23 obtains the horizontal angle.

垂直角度は、カメラ及び被写体中心を結んだ線と水平面とのなす角度であり、水平角度は、水平面上において、被写体中心及び被写体の所定の位置を結ぶ線と、被写体中心及びカメラ位置を結ぶ線とのなす角度である。   The vertical angle is an angle formed between a line connecting the camera and the subject center and the horizontal plane, and the horizontal angle is a line connecting the subject center and a predetermined position of the subject and a line connecting the subject center and the camera position on the horizontal plane. The angle between

なお、これら撮影距離・垂直角度・水平角度といったパラメータの数値計算を行うことは、既存の技術で容易に実現できる。   Note that numerical calculation of parameters such as the shooting distance, the vertical angle, and the horizontal angle can be easily realized with existing technology.

上記のようにして撮影距離・垂直角度・水平角度を求めた後、撮影手順生成手段24により撮影手順が生成される。撮影手順は、図12に示すように、撮影距離・垂直角度・水平角度からなる撮影条件を1セットとして、撮影する順番に撮影条件を記述したものとして生成される。撮影装置CDはこの撮影条件を上から順に読み込むことで撮影を行う。一般に、一続きの撮影経路の最短時間を求めることは困難であり、最適解を求める手法は未だに確立されていないが、一般的に公知のアルゴリズムを用いることで近似解を求め、撮影条件の並び順を決める。   After obtaining the photographing distance, the vertical angle, and the horizontal angle as described above, the photographing procedure generating unit 24 generates a photographing procedure. As shown in FIG. 12, the shooting procedure is generated as a set of shooting conditions including a shooting distance, a vertical angle, and a horizontal angle, and describing the shooting conditions in the order of shooting. The photographing apparatus CD performs photographing by reading these photographing conditions in order from the top. In general, it is difficult to obtain the shortest time for a series of shooting paths, and a method for obtaining an optimal solution has not yet been established. However, an approximate solution is generally obtained using a known algorithm, and a sequence of shooting conditions is arranged. Decide the order.

従来は、これらのパラメータは撮影前に手動で逐一設定を行っていた。しかし、撮影手順に配慮しつつ、各種の条件をマニュアル指定することは手間がかかる上に難しく、多様な撮影パターンを作ることも困難だった。一方、本実施の形態における手段を用いることにより、仮想空間での設定に基づく実数をベースとした座標データから、撮影条件を全て計算で求めることができるので、撮影装置CDに与える柔軟な条件を自動的に求めることができる。
(3)被写体撮影部SP
続いて、被写体撮影部SPが上記の撮影手順を受信し、これに基づき被写体の撮影を行う。被写体撮影部SPはカメラを有し、受信した撮影手順に従って、カメラと被写体との相対位置を変更しながら撮影を実行する手段を備えたものである。
Conventionally, these parameters are set manually one by one before photographing. However, it was difficult to manually specify various conditions while considering the shooting procedure, and it was difficult to create various shooting patterns. On the other hand, by using the means in the present embodiment, it is possible to obtain all shooting conditions from the coordinate data based on the real number based on the setting in the virtual space, so that flexible conditions given to the shooting apparatus CD can be set. It can be determined automatically.
(3) Subject photographing unit SP
Subsequently, the subject photographing unit SP receives the above photographing procedure, and based on this, the subject is photographed. The subject photographing unit SP has a camera and includes means for performing photographing while changing the relative position between the camera and the subject in accordance with the received photographing procedure.

例えば、図13に示すように、画像撮影装置CMと、テーブルTBと、背景表示装置BDと、スイッチSと、制御装置Cとからなる構成を被写体撮影部SPとして用いることができる(この構成における被写体の撮影方法については特許文献3を参照)。図13の構成において、制御装置Cが撮影手順に従った制御を行う。なお、図13の構成は、垂直角度を固定とした場合の例であり、撮影手順に従ってテーブルを回転させることにより水平角度を変えながら撮影を行う。これにより、多数の方向から撮影した複数の2次元画像を生成することができる。
(4)3次元オブジェクト合成部IP
3次元オブジェクト合成部IPは、図13の例では制御装置Cに3次元オブジェクト合成のプログラムを搭載することにより実現できる。
For example, as shown in FIG. 13, a configuration including an image shooting device CM, a table TB, a background display device BD, a switch S, and a control device C can be used as the subject shooting unit SP (in this configuration). (See Patent Document 3 for a method of photographing a subject). In the configuration of FIG. 13, the control device C performs control according to the photographing procedure. The configuration in FIG. 13 is an example in which the vertical angle is fixed, and shooting is performed while changing the horizontal angle by rotating the table according to the shooting procedure. Thereby, a plurality of two-dimensional images photographed from many directions can be generated.
(4) 3D object composition unit IP
The three-dimensional object composition unit IP can be realized by installing a three-dimensional object composition program in the control device C in the example of FIG.

3次元オブジェクトは、被写体の寸法、被写体の複数の2次元画像、2次元画像上の被写体部分を表す複数のマスク画像、及び、被写体を撮影したときの撮影条件(被写体との距離、角度、解像度、画角等)からなり、3次元オブジェクト合成部IPはこれらのデータを生成する。被写体寸法は、Shape from Silhouette法を用いて求めることもでき、また、被写体の正面画像及び真横からの画像を推測することもできる。マスク画像はクロマキー手法や特許文献3の手法を用いることにより生成できる。
(5)動画像生成部MP
動画像生成部MPには、仮想空間構築部VPで作成された空間情報と、撮影装置CDの3次元オブジェクト合成部IPにより作成された3次元オブジェクトが入力される。3次元オブジェクトが入力されると仮オブジェクトは削除され、カメラパスのずれが補正される。必要に応じてプレビューを行い、空間情報を画像シーケンスとして出力することで動画像を生成する。
The three-dimensional object includes a subject size, a plurality of two-dimensional images of the subject, a plurality of mask images representing a subject portion on the two-dimensional image, and shooting conditions (distance to subject, angle, resolution) 3D object composition unit IP generates these data. The subject size can also be obtained by using the Shape from Silhouette method, and the front image and the image from the side of the subject can be estimated. The mask image can be generated by using the chroma key method or the method of Patent Document 3.
(5) Moving image generation unit MP
The moving image generation unit MP receives the spatial information created by the virtual space construction unit VP and the 3D object created by the 3D object synthesis unit IP of the photographing apparatus CD. When a three-dimensional object is input, the temporary object is deleted and the camera path deviation is corrected. A preview is performed as necessary, and a moving image is generated by outputting spatial information as an image sequence.

図14に、動画像生成部MPの機能構成を示す。図14に示すように、動画像生成部MPは、比較手段30、補正手段31、画像シーケンス処理手段32を有している。以下、このような手段を有する動画像生成部MPの処理について説明する。   FIG. 14 shows a functional configuration of the moving image generation unit MP. As illustrated in FIG. 14, the moving image generation unit MP includes a comparison unit 30, a correction unit 31, and an image sequence processing unit 32. Hereinafter, processing of the moving image generation unit MP having such means will be described.

まず、比較手段30により、仮想空間構築部VPで作成された仮オブジェクトと3次元オブジェクトとのサイズの比較処理を行う。本実施の形態では、仮オブジェクトとして大まかなサイズの直方体を用いているため、この直方体が3次元オブジェクトに外接するように3次元オブジェクトのリサイズを行うために上記の比較処理を行う。なお、仮オブジェクトとして被写体をラフに撮影したデータを用いる場合は、既にサイズは同じなので比較処理を行う必要はない。仮オブジェクトは役目を終えると削除される。   First, the comparison means 30 performs a size comparison process between the temporary object created by the virtual space construction unit VP and the three-dimensional object. In this embodiment, since a rectangular parallelepiped having a rough size is used as the temporary object, the above comparison processing is performed in order to resize the three-dimensional object so that the rectangular parallelepiped circumscribes the three-dimensional object. Note that when using data obtained by roughly photographing a subject as a temporary object, the size is already the same, so there is no need to perform comparison processing. The temporary object is deleted when the role is finished.

次に、比較処理の結果、仮オブジェクトと3次元オブジェクトのサイズが異なる場合、リサイズを行うと共に、3次元オブジェクト作成前にプレビューしたときと本処理段階におけるプレビューとのずれを抑えるために、カメラパスを補正手段31により補正する。必要であれば、利用者による操作によってカメラパス自身をもう一度編集してもよい。   Next, if the size of the temporary object and the three-dimensional object are different as a result of the comparison process, resizing is performed, and in order to suppress a deviation between the preview before the creation of the three-dimensional object and the preview in this processing stage, Is corrected by the correction means 31. If necessary, the camera path itself may be edited again by a user operation.

最後に、画像シーケンス処理手段32により、タイムラインで設定したフレーム間隔を用いて、3次元オブジェクトを含む空間情報を画像シーケンスに変換する処理を行い、動画像を出力する。なお、画像シーケンス処理手段32は、動画像としてまとめて1つのデータを出力することもできるし、画像フレーム単位で1枚ずつ出力することもできる。
(6)動画像表示部DP
生成された動画像は、動画像表示部DPに送られ、動画像表示部DPに表示された動画像を利用者が見ることができる。動画像表示部DPは、例えばCRTモニタや液晶ディスプレイ、プラズマディスプレイ、テレビ等の表示装置である。
Finally, the image sequence processing means 32 performs processing for converting spatial information including a three-dimensional object into an image sequence using the frame interval set in the timeline, and outputs a moving image. Note that the image sequence processing means 32 can output one piece of data collectively as a moving image, or can output one piece at a time for each image frame.
(6) Moving image display unit DP
The generated moving image is sent to the moving image display unit DP, and the user can view the moving image displayed on the moving image display unit DP. The moving image display unit DP is a display device such as a CRT monitor, a liquid crystal display, a plasma display, or a television.

動画像表示部DPに表示される動画像は、本システムの処理によって生成した柔軟な空間情報と撮影条件による3次元オブジェクトがベースとなっているため、フレームレートが高い高品質なビデオ画像として利用できる。また、eコマース等の用途に、レートを落とした軽量なマルチメディアフォーマットとして利用することもできる。   The moving image displayed on the moving image display unit DP is based on flexible spatial information generated by the processing of this system and a three-dimensional object based on shooting conditions, so it can be used as a high-quality video image with a high frame rate. it can. It can also be used as a lightweight multimedia format with a reduced rate for applications such as e-commerce.

(第2の実施の形態)
第1の実施の形態では仮想空間上でのカメラの注視点を固定としていたが、第2の実施の形態ではカメラの注視点を可変とする。注視点を可変とすることにより複数のオブジェクトがある場合に、各々のオブジェクトに対して注視点を向けることができる。
(Second Embodiment)
In the first embodiment, the gazing point of the camera in the virtual space is fixed, but in the second embodiment, the gazing point of the camera is variable. When there are a plurality of objects by making the gazing point variable, the gazing point can be directed to each object.

第2の実施の形態における動画像生成システムの構成と全体処理フローは第1の実施の形態と同様である。第1の実施の形態と異なる点は、仮想空間構築部VPにおいて、カメラが自由に向きを変えるために、もう一つのパラメータを増やしている点である。すなわち、第1の実施の形態では、図15(a)に示すように、カメラの注視点を固定としていたが、第2の実施の形態では、図15(b)に示すように、オブジェクトが複数存在する場合に、各オブジェクト毎に注視点を設定することが可能となる。オブジェクトのない3次元空間上の任意の点を眺めることもできる。   The configuration and overall processing flow of the moving image generation system in the second embodiment are the same as those in the first embodiment. The difference from the first embodiment is that in the virtual space construction unit VP, another parameter is increased in order for the camera to freely change the direction. That is, in the first embodiment, as shown in FIG. 15 (a), the gazing point of the camera is fixed, but in the second embodiment, the object is displayed as shown in FIG. 15 (b). When there are a plurality of objects, it is possible to set a gazing point for each object. It is also possible to look at an arbitrary point on a three-dimensional space without an object.

第2の実施の形態における仮想空間構築部VPの構成を図16に示す。図16に示すように、第1の実施の形態における仮想空間構築部VPの構成に、注視点処理手段40が追加された構成をとる。   The configuration of the virtual space construction unit VP in the second embodiment is shown in FIG. As illustrated in FIG. 16, a configuration in which a gazing point processing unit 40 is added to the configuration of the virtual space construction unit VP in the first embodiment is adopted.

第1の実施の形態では、仮オブジェクトを生成し、カメラパスを生成することにより空間情報を作成していたが、第2の実施の形態では、注視点処理手段40により取得した注視点情報を含む空間情報が生成される。   In the first embodiment, spatial information is created by generating a temporary object and generating a camera path. In the second embodiment, the gazing point information acquired by the gazing point processing means 40 is used. Spatial information is generated.

例えば、カメラパスを編集する段階において、第1の注視点を用いて第1のカメラパスを作成し、続いて、注視点処理手段40により注視点を第1の注視点から第2の注視点に変更し、第2のカメラパスを作成する。空間情報としては、例えば、第1の注視点に対する空間情報と第2の注視点に対する空間情報が作成される。これにより、複数オブジェクトに対応した空間情報を構成することが可能である。映像確認手段13は、第1の実施の形態と同様にして空間情報に基づいて完成前のプレビュー映像を提供できる。   For example, at the stage of editing the camera path, a first camera path is created using the first gazing point, and then the gazing point is changed from the first gazing point to the second gazing point by the gazing point processing means 40. To create a second camera path. As the spatial information, for example, spatial information for the first gazing point and spatial information for the second gazing point are created. Thereby, it is possible to configure spatial information corresponding to a plurality of objects. The video confirmation means 13 can provide a preview video before completion based on the spatial information in the same manner as in the first embodiment.

実際の被写体撮影は第1の実施の形態と同様に行うことが可能である。すなわち、注視点情報を含む空間情報から撮影手順が生成され、その撮影手順に従ってカメラの位置、角度、向き等が制御されて複数の2次元画像が生成される。   Actual subject photographing can be performed in the same manner as in the first embodiment. That is, a shooting procedure is generated from spatial information including gazing point information, and a plurality of two-dimensional images are generated by controlling the position, angle, orientation, and the like of the camera according to the shooting procedure.

なお、1つの被写体向けに構成された図13に示したような撮影装置の場合でも、注視点毎に被写体を置き変えて2次元画像を取得し、3次元オブジェクトを被写体毎に生成し、動画像生成部MPにおいて複数の3次元オブジェクトを合成することにより、複数の注視点を持つ動画像を生成できる。   Note that even in the case of the photographing apparatus configured for one subject as shown in FIG. 13, the subject is replaced for each gazing point, a two-dimensional image is acquired, a three-dimensional object is generated for each subject, By synthesizing a plurality of three-dimensional objects in the image generation unit MP, a moving image having a plurality of gazing points can be generated.

第2の実施の形態では、注視点を可変としたので、カメラが仮オブジェクトを眺める方向は任意となる。すなわち、カメラの注視点が3次元仮想空間内の任意の位置をとることができるため、仮オブジェクトが複数存在する場合でも自由に仮想空間を構築することができ、単品の商品だけに限らず、商品同士を複数組み合わせて眺めるような用途や部屋の中の様子といった、より現実の空間に即した表現が可能となる。   In the second embodiment, since the gazing point is variable, the direction in which the camera views the temporary object is arbitrary. In other words, since the camera's point of interest can take an arbitrary position in the three-dimensional virtual space, it is possible to construct a virtual space freely even when there are a plurality of temporary objects, not only a single product, This makes it possible to express more realistic space, such as using a combination of products and looking inside the room.

(本システムの効果について)
上記のような本実施の形態に係る動画像生成システムによれば、被写体を撮影する前に最終的に目的とする映像をイメージして3次元仮想空間を構築し、3次元仮想空間情報に基づき撮影条件を自動的に抽出し、その撮影条件を用いて被写体の撮影を行うこととしたので、あらゆる方向から被写体を撮影することなく、表示のために必要な分の撮影を行うだけで滑らかな動画像を得ることが可能になる。これにより、手動で撮影条件を指定する手間が省けるだけでなく、3次元オブジェクトを実用的な所要時間で得ることができる。従って、イメージベースに基づいた滑らかな3次元動画像を実用的な所要時間で生成することができる。
(About the effect of this system)
According to the moving image generation system according to the present embodiment as described above, a three-dimensional virtual space is constructed by finally imagining a target video before photographing a subject, and based on the three-dimensional virtual space information. Since the shooting conditions are automatically extracted and the subject is shot using the shooting conditions, it is smooth just to shoot the necessary amount for display without shooting the subject from any direction. A moving image can be obtained. As a result, not only is it possible to manually specify the shooting conditions, but also a three-dimensional object can be obtained in a practical time. Accordingly, a smooth three-dimensional moving image based on the image base can be generated in a practical time.

図17に、従来の処理手順と、本システムでの処理手順とを示す。図17に示すように、従来の処理手順には、本システムにおける仮想空間構築部VPの処理が存在しない。従来は、仮想空間を構築するために3次元オブジェクトを編集するフェーズは被写体の撮影や画像処理が終了した後に行い、3次元仮想空間レイアウトシステム上において、3次元オブジェクトに対する配置変更・回転・ロール・ズーム等を行うことしかできなかった。   FIG. 17 shows a conventional processing procedure and a processing procedure in this system. As shown in FIG. 17, the processing of the virtual space construction unit VP in this system does not exist in the conventional processing procedure. Conventionally, the phase of editing a three-dimensional object in order to construct a virtual space is performed after shooting of a subject or image processing is completed, and on the three-dimensional virtual space layout system, the arrangement change, rotation, roll, I could only zoom.

そのため、従来方法では、比較的撮影枚数が少なくても実用上の問題にはならなかったが、ビデオ用途に使える動画像を得るには、撮影段階で条件を手動指定するしかなく、動画像を得るのに非常に手間がかかるだけでなく、品質の高い動画像を実現することは困難であった。   Therefore, with the conventional method, even if the number of shots was relatively small, there was no practical problem.However, in order to obtain a moving image that can be used for video applications, it was necessary to manually specify the conditions at the shooting stage, Not only is it very time-consuming to obtain, but it is also difficult to realize a high-quality moving image.

それに対し、本システムに係る処理方法では、仮想空間を構築するフェーズを被写体の撮影より前にしたため、編集装置ADと撮影装置CDで双方向的フィードバックを得ることができる。すなわち、仮想空間の構築フェーズを最初に行うことにより装置間でインタラクティブに入出力のやりとりをすることを可能とした構成が本システムにおいて従来技術には存在しない際立った特徴となっている。これにより、より柔軟な撮影条件を自動的に抽出することができ、滑らかな動画像の生成を実用的な所要時間で実現することができる。   On the other hand, in the processing method according to the present system, since the phase for constructing the virtual space is set before the subject is photographed, bidirectional feedback can be obtained between the editing device AD and the photographing device CD. In other words, this system has a distinctive feature that does not exist in the prior art in the present system that enables interactive input / output exchange between devices by first performing the virtual space construction phase. As a result, more flexible shooting conditions can be automatically extracted, and a smooth moving image can be generated in a practical time.

なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.

ジオメトリベースのデータを自動生成する方法の例を説明するための図である。It is a figure for demonstrating the example of the method of automatically producing | generating geometry base data. 従来のイメージベース手法での処理手順を示す図である。It is a figure which shows the process sequence by the conventional image base method. 中割り画像を生成するビューモーフィング法を示す図である。It is a figure which shows the view morphing method which produces | generates a middle image. 本発明の実施の形態における動画像生成システムの構成図である。It is a block diagram of the moving image generation system in embodiment of this invention. コンピュータシステムの一例を示す図である。It is a figure which shows an example of a computer system. 本発明の実施の形態の動画像生成システムにおける処理フローである。It is a processing flow in the moving image production | generation system of embodiment of this invention. 仮想空間構築部VPの機能構成を示す図である。It is a figure which shows the function structure of the virtual space construction part VP. 操作インターフェース画面上のカメラパスの設定例を示す図である。It is a figure which shows the example of a camera path setting on an operation interface screen. タイムライン設定画面の一例を示す図である。It is a figure which shows an example of a timeline setting screen. 撮影条件抽出部EPの機能構成を示す図である。It is a figure which shows the function structure of the imaging condition extraction part EP. 座標変換手段によって求められたカメラ座標の例を示す図である。It is a figure which shows the example of the camera coordinate calculated | required by the coordinate conversion means. 図11のカメラ座標から生成された撮影条件の例を示す図である。It is a figure which shows the example of the imaging | photography condition produced | generated from the camera coordinate of FIG. 被写体撮影部SPの一例を示す図である。It is a figure which shows an example of subject imaging | photography part SP. 動画像生成部MPの機能構成を示す図である。It is a figure which shows the function structure of the moving image generation part MP. 注視点を説明するための図である。It is a figure for demonstrating a gaze point. 本発明の第2の実施の形態における仮想空間構築部VPの機能構成を示す図である。It is a figure which shows the function structure of the virtual space construction part VP in the 2nd Embodiment of this invention. 従来の処理手順と本発明に係るシステムでの処理手順とを示す図である。It is a figure which shows the conventional process sequence and the process sequence in the system which concerns on this invention.

符号の説明Explanation of symbols

AD 編集装置
VP 仮想空間構築部
EP 撮影条件抽出部
MP 動画像生成部
CD 撮影装置
SP 被写体撮影部
IP 3次元オブジェクト合成部
DD 表示装置
DP 動画像表示部
CM 画像撮影装置
C 制御装置
TB テーブル
O 被写体
BD 背景装置
S スイッチ
AD editing device VP Virtual space construction unit EP Shooting condition extraction unit MP Moving image generation unit CD Shooting device SP Subject shooting unit IP 3D object synthesis unit DD Display device DP Moving image display unit CM Image shooting device C Control device TB Table O Subject BD Background device S Switch

Claims (11)

被写体を様々な方向から撮影した複数の画像を用いて動画像を生成する動画像生成システムであって、
カメラパスを含む3次元仮想空間情報を生成する仮想空間情報生成手段と、
前記3次元仮想空間情報から撮影条件を抽出する撮影条件抽出手段と、
前記撮影条件に基づき被写体の撮影を行い、複数の2次元画像を得る被写体撮影手段と、
前記複数の2次元画像を用いて、3次元オブジェクトを生成する3次元オブジェクト生成手段と、
前記3次元オブジェクトから、前記仮想空間情報生成手段により生成した3次元仮想空間情報を用いて2次元の動画像を生成する動画像生成手段と
を備えることを特徴とする動画像生成システム。
A moving image generation system that generates a moving image using a plurality of images obtained by photographing a subject from various directions,
Virtual space information generating means for generating three-dimensional virtual space information including a camera path;
Shooting condition extraction means for extracting shooting conditions from the three-dimensional virtual space information;
Subject photographing means for photographing a subject based on the photographing conditions and obtaining a plurality of two-dimensional images;
Three-dimensional object generation means for generating a three-dimensional object using the plurality of two-dimensional images;
A moving image generation system comprising: a moving image generation unit configured to generate a two-dimensional moving image from the three-dimensional object using the three-dimensional virtual space information generated by the virtual space information generation unit.
前記仮想空間情報生成手段は、
前記被写体の概略の形状を表した仮オブジェクトを生成する仮オブジェクト生成手段と、
前記仮オブジェクトを撮影する仮想的なカメラの位置の移動情報を前記カメラパスとして生成するカメラパス生成手段と
を備えることを特徴とする請求項1に記載の動画像生成システム。
The virtual space information generating means
Temporary object generating means for generating a temporary object representing the approximate shape of the subject;
The moving image generation system according to claim 1, further comprising: camera path generation means for generating movement information of a position of a virtual camera that captures the temporary object as the camera path.
前記仮想空間情報生成手段は、
前記3次元オブジェクトが生成される前に、前記仮オブジェクトから、前記3次元仮想空間情報を用いて2次元の動画像を生成するプレビュー画像生成手段を備えることを特徴とする請求項2に記載の動画像生成システム。
The virtual space information generating means
The preview image generating means for generating a two-dimensional moving image from the temporary object using the three-dimensional virtual space information before the three-dimensional object is generated. Video generation system.
前記撮影条件抽出手段は、
前記移動情報に基づき、前記仮オブジェクトに対する前記仮想的なカメラの相対的な位置を複数の座標データに変換する座標変換手段を有することを特徴とする請求項2に記載の動画像生成システム。
The photographing condition extracting means includes
The moving image generating system according to claim 2, further comprising coordinate conversion means for converting a relative position of the virtual camera with respect to the temporary object into a plurality of coordinate data based on the movement information.
前記3次元オブジェクトは、被写体の寸法、被写体の複数の2次元画像、2次元画像上の被写体部分を表す複数のマスク画像、及び、被写体を撮影したときの撮影条件を有することを特徴とする請求項1に記載の動画像生成システム。   The three-dimensional object has a subject size, a plurality of two-dimensional images of the subject, a plurality of mask images representing a subject portion on the two-dimensional image, and a photographing condition when photographing the subject. Item 4. The moving image generation system according to Item 1. 被写体を様々な方向から撮影した複数の画像を用いて動画像を生成する動画像生成システムが実行する動画像生成方法であって、
カメラパスを含む3次元仮想空間情報を生成する仮想空間情報生成ステップと、
前記3次元仮想空間情報から撮影条件を抽出する撮影条件抽出ステップと、
前記撮影条件に基づき被写体の撮影を行い、複数の2次元画像を得る被写体撮影ステップと、
前記複数の2次元画像を用いて、3次元オブジェクトを生成する3次元オブジェクト生成ステップと、
前記3次元オブジェクトから、前記仮想空間情報生成ステップにより生成した3次元仮想空間情報を用いて2次元の動画像を生成する動画像生成ステップと
を有することを特徴とする動画像生成方法。
A moving image generation method executed by a moving image generation system that generates a moving image using a plurality of images obtained by photographing a subject from various directions,
A virtual space information generation step for generating three-dimensional virtual space information including a camera path;
A shooting condition extraction step for extracting shooting conditions from the three-dimensional virtual space information;
Subject photographing step of photographing a subject based on the photographing conditions to obtain a plurality of two-dimensional images;
A three-dimensional object generation step of generating a three-dimensional object using the plurality of two-dimensional images;
A moving image generating method comprising: generating a two-dimensional moving image from the three-dimensional object using the three-dimensional virtual space information generated by the virtual space information generating step.
被写体を様々な方向から撮影した複数の画像から生成された3次元オブジェクトを用いて動画像を生成するための動画像生成装置であって、
カメラパスを含む3次元仮想空間情報を生成する仮想空間情報生成手段と、
前記3次元仮想空間情報から撮影条件を抽出する撮影条件抽出手段と、
前記撮影条件に基づき被写体を撮影して得た複数の2次元画像から生成された3次元オブジェクトから、前記仮想空間情報生成手段により生成した3次元仮想空間情報を用いて2次元の動画像を生成する動画像生成手段と
を備えることを特徴とする動画像生成装置。
A moving image generating device for generating a moving image using a three-dimensional object generated from a plurality of images obtained by photographing a subject from various directions,
Virtual space information generating means for generating three-dimensional virtual space information including a camera path;
Shooting condition extraction means for extracting shooting conditions from the three-dimensional virtual space information;
A two-dimensional moving image is generated from a three-dimensional object generated from a plurality of two-dimensional images obtained by shooting a subject based on the shooting conditions, using the three-dimensional virtual space information generated by the virtual space information generating means. And a moving image generating means.
前記仮想空間情報生成手段は、
前記被写体の概略の形状を表した仮オブジェクトを生成する仮オブジェクト生成手段と、
前記仮オブジェクトを撮影する仮想的なカメラの位置の移動情報を前記カメラパスとして生成するカメラパス生成手段と
を備えることを特徴とする請求項7に記載の動画像生成装置。
The virtual space information generating means
Temporary object generating means for generating a temporary object representing the approximate shape of the subject;
The moving image generation apparatus according to claim 7, further comprising: camera path generation means for generating movement information of a position of a virtual camera that captures the temporary object as the camera path.
前記撮影条件抽出手段は、
前記移動情報に基づき、前記仮オブジェクトに対する前記仮想的なカメラの相対的な位置を複数の座標データに変換する座標変換手段を有することを特徴とする請求項8に記載の動画像生成装置。
The photographing condition extracting means includes
9. The moving image generating apparatus according to claim 8, further comprising coordinate conversion means for converting a relative position of the virtual camera with respect to the temporary object into a plurality of coordinate data based on the movement information.
請求項7ないし9のうちいずれか1項に記載の動画像生成装置における各手段をコンピュータに実現させるためのコンピュータプログラム。   The computer program for making a computer implement | achieve each means in the moving image generation apparatus of any one of Claims 7 thru | or 9. 請求項10に記載のコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium which recorded the computer program of Claim 10.
JP2005061393A 2005-03-04 2005-03-04 Moving image generation system, moving image generation apparatus, moving image generation method, program, and recording medium Expired - Fee Related JP4285422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005061393A JP4285422B2 (en) 2005-03-04 2005-03-04 Moving image generation system, moving image generation apparatus, moving image generation method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005061393A JP4285422B2 (en) 2005-03-04 2005-03-04 Moving image generation system, moving image generation apparatus, moving image generation method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2006244306A JP2006244306A (en) 2006-09-14
JP4285422B2 true JP4285422B2 (en) 2009-06-24

Family

ID=37050645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005061393A Expired - Fee Related JP4285422B2 (en) 2005-03-04 2005-03-04 Moving image generation system, moving image generation apparatus, moving image generation method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4285422B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4781981B2 (en) * 2006-12-05 2011-09-28 日本電信電話株式会社 Moving image generation method and system
JP2008235971A (en) * 2007-03-16 2008-10-02 Nec Corp Imaging apparatus and stereoscopic shape photographing method in imaging apparatus
JP5231119B2 (en) * 2008-07-31 2013-07-10 オリンパス株式会社 Display device
JP5015126B2 (en) * 2008-12-09 2012-08-29 日本電信電話株式会社 Image generation method, image authentication method, image generation apparatus, image authentication apparatus, program, and recording medium
KR101661969B1 (en) * 2009-11-02 2016-10-04 엘지전자 주식회사 Mobile terminal and operation control method thereof
US9153004B2 (en) 2010-08-30 2015-10-06 Rakuten, Inc. Product image interpolating device, method and non-transitory information recording medium
JP4830041B1 (en) * 2010-08-30 2011-12-07 楽天株式会社 Image processing apparatus, image processing method, program, and information recording medium
JP4763847B1 (en) 2010-08-30 2011-08-31 楽天株式会社 Image conversion apparatus, image processing apparatus, and image processing system
JP4906949B2 (en) * 2010-08-30 2012-03-28 楽天株式会社 Image processing system and image processing method
JP4783859B1 (en) * 2010-08-30 2011-09-28 楽天株式会社 Image conversion apparatus, image processing system, image conversion method, program, and information recording medium
CN109801351B (en) * 2017-11-15 2023-04-14 阿里巴巴集团控股有限公司 Dynamic image generation method and processing device
WO2019225682A1 (en) * 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 Three-dimensional reconstruction method and three-dimensional reconstruction device
JP7291835B1 (en) 2022-09-13 2023-06-15 株式会社バンダイ Image processing method, information processing device, and computer program

Also Published As

Publication number Publication date
JP2006244306A (en) 2006-09-14

Similar Documents

Publication Publication Date Title
JP4285422B2 (en) Moving image generation system, moving image generation apparatus, moving image generation method, program, and recording medium
JP4115117B2 (en) Information processing apparatus and method
US20090102841A1 (en) Setting and visualizing a virtual camera and lens system in a computer graphic modeling environment
US7428482B2 (en) Visualization and setting of a virtual camera and lens system in a computer graphic modeling environment
WO2012032996A1 (en) Information processing device, method of processing information, and program
JP2021034885A (en) Image generation device, image display device, and image processing method
WO2020166376A1 (en) Image processing device, image processing method, and program
JP4892405B2 (en) Image processing apparatus and method
KR102558294B1 (en) Device and method for capturing a dynamic image using technology for generating an image at an arbitray viewpoint
JPH10240908A (en) Video composing method
JP3643511B2 (en) 3D image processing method, 3D modeling method, and recording medium recording 3D image processing program
JP2022131777A (en) Information processing device, system having the same, information processing method, and program
JP2022028091A (en) Image processing device, image processing method, and program
JP6572368B2 (en) Generating apparatus, generating method, and program
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
JP4781981B2 (en) Moving image generation method and system
EP4125044A2 (en) Image processing apparatus, image processing method, and program
US20200134779A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
KR101780496B1 (en) Method for producing 3D digital actor image based on character modelling by computer graphic tool
JP2011198135A (en) Comic creation support device, comic creation support method, and program
US6633291B1 (en) Method and apparatus for displaying an image
JP4899733B2 (en) Image generation method and image generation system
JP7335669B1 (en) Information processing system, information processing method, and program
JP3683927B2 (en) Computer graphic production system and control method thereof
JP2002271692A (en) Image processing method, image processing unit, studio apparatus, studio system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090303

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090316

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130403

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140403

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees