JP2008140297A - Animation generation method and system - Google Patents

Animation generation method and system Download PDF

Info

Publication number
JP2008140297A
JP2008140297A JP2006328006A JP2006328006A JP2008140297A JP 2008140297 A JP2008140297 A JP 2008140297A JP 2006328006 A JP2006328006 A JP 2006328006A JP 2006328006 A JP2006328006 A JP 2006328006A JP 2008140297 A JP2008140297 A JP 2008140297A
Authority
JP
Japan
Prior art keywords
shooting
subject
dimensional
photographing
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006328006A
Other languages
Japanese (ja)
Other versions
JP4781981B2 (en
Inventor
Akitsugu Yamazaki
晃嗣 山崎
Hiroto Matsuoka
裕人 松岡
Tatsuto Takeuchi
龍人 竹内
Ikuo Harada
育生 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006328006A priority Critical patent/JP4781981B2/en
Publication of JP2008140297A publication Critical patent/JP2008140297A/en
Application granted granted Critical
Publication of JP4781981B2 publication Critical patent/JP4781981B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an animation generation method and system capable of minimizing the number of photographed sheets without complicating processing, and generating an animation whose generated three-dimensional model can be perceived to move smoothly by a user. <P>SOLUTION: An editing device generates operation information for defining operation of the three-dimensional model in three-dimensional virtual space and a moving route of a view position, and determines, based on the operation information, a photographing condition of a subject where the movement of the three-dimensional model is smooth from the view of the user and the photographing interval of the subject becomes maximum. A photographing device acquires a plurality of two-dimensional static images according to the photographing condition, and the three-dimensional model from the two-dimensional static images. The editing device generates an animation using the operation information and the three-dimensional model generated by the photographing device. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、被写体を様々な方向から撮影することで得られる複数の写真を用いて、該被写体の3次元モデルを含む動画像を生成するための動画像生成方法及びシステムに関する。   The present invention relates to a moving image generation method and system for generating a moving image including a three-dimensional model of a subject using a plurality of photographs obtained by photographing the subject from various directions.

近年、写真(2次元静止画像)からリアルな3次元CG(コンピュータグラフィックス)を自動的に生成する技術として、イメージベースと呼ばれる手法の有効性が品質とコストの両面で認知され、多くの研究がなされている。例えば、松岡らは、背景色を変化させて物体を撮影することにより、背景色の透過度を算出する背景除去技術を開発し、予め被写体を多方向から撮影することにより、現実感の高い3次元CGを作成する自動3次元CG生成システムを構築している。このシステムは、人の視覚特性を考慮することにより、被写体の透明感や光沢感を再現できる画像処理手法に特徴がある(非特許文献1参照)。   In recent years, as a technology for automatically generating realistic 3D CG (computer graphics) from photographs (2D still images), the effectiveness of a technique called image base has been recognized in terms of both quality and cost, and many studies have been conducted. Has been made. For example, Matsuoka et al. Developed a background removal technique for calculating the transparency of a background color by shooting an object while changing the background color, and by shooting a subject from multiple directions in advance, a highly realistic 3 An automatic three-dimensional CG generation system for creating a three-dimensional CG is constructed. This system is characterized by an image processing technique that can reproduce the transparency and glossiness of a subject by considering human visual characteristics (see Non-Patent Document 1).

しかしながら、この写真のデータを基に動画像等を生成する場合、撮影角度の間隔を十分に小さくする必要があり、間隔が大きすぎると、被写体のCG映像である3次元モデルの動きの滑らかさが損なわれることがある。例えば、ビデオクリップやインタラクティブなアニメーションの生成に、撮影角度の間隔が大きいデータを使用すると、ユーザには3次元モデルの動きがぎくしゃくとした幾何学的に不整合な画像として知覚される。この問題は、撮影角度の間隔を小さくすれば解決できるが、任意の位置を視点とする3次元モデルを生成するためには、被写体を、その周囲から半球面状に撮影する必要があり、撮影角度の間隔の自乗に反比例して撮影枚数が増加し、撮影時間並びにデータ量が増大する問題がある。   However, when a moving image or the like is generated based on the data of the photograph, it is necessary to sufficiently reduce the interval between the photographing angles. If the interval is too large, the smoothness of the movement of the three-dimensional model that is a CG image of the subject. May be damaged. For example, when data having a large shooting angle interval is used to generate a video clip or an interactive animation, the user perceives the movement of the three-dimensional model as a jerky geometrically inconsistent image. This problem can be solved by reducing the shooting angle interval, but in order to generate a three-dimensional model with an arbitrary position as the viewpoint, it is necessary to shoot the subject in a hemispherical shape from the periphery. There is a problem that the number of shots increases in inverse proportion to the square of the angle interval, and the shooting time and the data amount increase.

このように、イメージベース手法では大量の写真を必要とするため、形状情報(静止画に写っている被写体の奥行きに関する情報)を用いた従来のCG(ジオメトリベース手法)を部分的に用いることで、撮影枚数をどれだけ減らせるかを分析した研究が報告されている(非特許文献2参照)。非特許文献2では、撮影枚数を減らした場合に、形状情報でどの程度補えばよいかという問題の解を定量的に得るための手法を示している。
Matsuoka, H. Takeuchi, T. Kitazawa, and H. Onozawa,“Representation of Pseudo Inter−reflection and Transparency by Considering Characteristics of Human Vision”, Proceedings of Eurographics 2002, pp.503−510 (2002). Lin, Z. and Shum, H.−Y.:”A Geometric Analysis of Light Field Rendering”; Int‘l J. of Computer Vision, Vol. 58, No.2, pp. 121−138, February (2004).
As described above, since the image-based method requires a large amount of photographs, it is possible to partially use a conventional CG (geometry-based method) using shape information (information on the depth of a subject in a still image). A study that analyzes how much the number of shots can be reduced has been reported (see Non-Patent Document 2). Non-Patent Document 2 shows a technique for quantitatively obtaining a solution to the problem of how much shape information should be compensated when the number of shots is reduced.
Matsuoka, H. Takeuchi, T. Kitazawa, and H. Onozawa, “Representation of Pseudo Inter-reflection and Transparency by Considering Characteristics of Human Vision”, Proceedings of Eurographics 2002, pp. 503-510 (2002). Lin, Z. and Shum, H.-Y .: “A Geometric Analysis of Light Field Rendering”; Int'l J. of Computer Vision, Vol. 58, No.2, pp. 121-138, February (2004) .

上述したように従来の動画像生成方法で用いるイメージベース手法は、動画像の生成に大量の写真を必要とするため、撮影時間並びにデータ量が増大する問題がある。   As described above, the image-based method used in the conventional moving image generation method requires a large amount of photographs to generate a moving image, and thus has a problem that the photographing time and the amount of data increase.

一方、非特許文献2に記載されたようにイメージベース手法とジオメトリベース手法とを組み合わせた手法では、撮影枚数を減らすることが可能であるが、撮影枚数を減らすには形状情報が欠かせないため、イメージベース手法に比べて処理が複雑になる。また、形状情報を多く用いるほど、形状情報の精度に起因して、生成した3次元モデルの現実感が低下してしまう。   On the other hand, as described in Non-Patent Document 2, the method combining the image-based method and the geometry-based method can reduce the number of shots, but shape information is indispensable for reducing the number of shots. Therefore, the processing is complicated compared to the image-based method. Further, the more the shape information is used, the lower the realism of the generated three-dimensional model due to the accuracy of the shape information.

本発明は上記したような従来の技術が有する問題点を解決するためになされたものであり、処理が複雑になることなく、撮影枚数を可能な限り減らすと共に、利用者に生成した3次元モデルの動きが滑らかであると知覚される動画像を生成することが可能な動画像生成方法及びシステムを提供することを目的とする。   The present invention has been made in order to solve the above-described problems of the prior art. The number of shots is reduced as much as possible without complicating the processing, and a three-dimensional model generated by a user is provided. It is an object of the present invention to provide a moving image generation method and system capable of generating a moving image perceived to be smooth.

上記目的を達成するため本発明の動画像生成方法は、複数の方向から被写体を撮影することで得られる複数の2次元静止画像を用いて、該被写体の3次元モデルを含む3次元仮想空間の動画像を生成するための動画像生成方法であって、
コンピュータが、
前記3次元仮想空間における前記3次元モデルの動作及び視点位置の移動経路を規定するための動作情報を生成し、
前記動作情報から、利用者から見て前記3次元モデルの動きが滑らかであり、かつ前記被写体の撮影間隔が最大になる、前記被写体の撮影条件を決定し、
前記撮影条件にしたがって撮影装置に前記被写体を撮影させて複数の2次元静止画像を取得し、
前記複数の2次元静止画像を用いて前記3次元モデルを生成し、
前記動作情報及び生成した3次元モデルを含む3次元仮想空間の動画像を生成する方法である。
In order to achieve the above object, a moving image generating method of the present invention uses a plurality of two-dimensional still images obtained by photographing a subject from a plurality of directions, and uses a three-dimensional virtual space including a three-dimensional model of the subject. A moving image generation method for generating a moving image,
Computer
Generating motion information for defining the motion of the three-dimensional model in the three-dimensional virtual space and the movement path of the viewpoint position;
From the operation information, the shooting conditions of the subject are determined such that the movement of the three-dimensional model is smooth when viewed from the user and the shooting interval of the subject is maximized,
According to the photographing conditions, the photographing device is photographed to obtain a plurality of two-dimensional still images,
Generating the three-dimensional model using the plurality of two-dimensional still images;
It is a method for generating a moving image in a three-dimensional virtual space including the movement information and the generated three-dimensional model.

一方、本発明の動画像生成システムは、複数の方向から被写体を撮影することで得られる複数の2次元静止画像を用いて、該被写体の3次元モデルを含む3次元仮想空間の動画像を生成するための動画像生成システムであって、
前記3次元仮想空間における前記3次元モデルの動作及び視点位置の移動経路を規定するための動作情報を生成する仮想空間情報生成部、前記動作情報から、利用者から見て前記3次元モデルの動きが滑らかであり、かつ前記被写体の撮影間隔が最大になる、前記被写体の撮影条件を決定する撮影条件導出部、並びに前記動作情報及び複数の2次元静止画像から生成した3次元モデルを含む3次元仮想空間の動画像を生成する動画像生成部を備えた編集装置と、
前記撮影条件にしたがって撮影装置で前記被写体を撮影し、複数の2次元静止画像を取得する被写体撮影部及び前記複数の2次元静止画像を用いて前記3次元モデルを生成する3次元モデル生成部備えた撮影装置と、
を有する。
On the other hand, the moving image generation system of the present invention generates a moving image in a three-dimensional virtual space including a three-dimensional model of a subject using a plurality of two-dimensional still images obtained by photographing the subject from a plurality of directions. A moving image generation system for
A virtual space information generating unit that generates motion information for defining a motion of the 3D model and a movement path of a viewpoint position in the 3D virtual space; a motion of the 3D model as viewed from a user from the motion information 3D including a shooting condition deriving unit for determining shooting conditions of the subject, and a three-dimensional model generated from the motion information and a plurality of two-dimensional still images, in which the shooting interval of the subject is maximized An editing device including a moving image generation unit for generating a moving image of a virtual space;
A subject photographing unit that photographs the subject with a photographing device according to the photographing condition and obtains a plurality of two-dimensional still images, and a three-dimensional model generation unit that generates the three-dimensional model using the plurality of two-dimensional still images. Photographing device,
Have

上記のような動画像生成方法及びシステムでは、動作情報から、利用者から見て3次元モデルの動きが滑らかであり、かつ被写体の撮影間隔が最大になる被写体の撮影条件を決定し、該撮影条件にしたがって3次元モデルの生成に必要な2次元静止画像を取得するため、利用者から見て3次元モデルの動きが十分に滑らかであると知覚できる範囲内で、可能な限り撮影枚数を削減することができる。また、形状情報を用いることなく、2次元静止画像のみ用いて動画像を生成できるため、動画像の生成処理が複雑になることがない。   In the moving image generation method and system as described above, from the operation information, the shooting condition of the subject in which the movement of the three-dimensional model is smooth as seen from the user and the shooting interval of the subject is maximized is determined, and the shooting is performed. In order to obtain the 2D still image necessary for generating the 3D model according to the conditions, the number of shots is reduced as much as possible within the range where the user can perceive that the motion of the 3D model is sufficiently smooth. can do. Further, since a moving image can be generated using only a two-dimensional still image without using shape information, the moving image generation process does not become complicated.

本発明によれば、撮影枚数を可能な限り減らしつつ、利用者に生成した3次元モデルの動きが滑らかであると知覚される動画像を生成できる。また、形状情報を用いることなく、2次元静止画像のみ用いて動画像を生成できるため、動画像の生成処理が複雑になることがない。   According to the present invention, it is possible to generate a moving image in which the motion of the three-dimensional model generated by the user is perceived as being smooth while reducing the number of shots as much as possible. Further, since a moving image can be generated using only a two-dimensional still image without using shape information, the moving image generation process does not become complicated.

次に本発明について図面を参照して説明する。   Next, the present invention will be described with reference to the drawings.

本発明者は、利用者の視覚特性を調べるために、複数の被験者に3次元CGによる動画像を提示し、その3次元モデルの動きの滑らかさの評価を実施した。本発明では、この知覚実験によって明らかになった、生成した3次元モデルの動きが滑らかであると利用者に知覚される、あるいは利用者が容認できる画質を確保することが可能な条件を特定し、該条件を満たしつつ3次元CGの合成に必要な撮影枚数を削減する手法を提案する。
[システム構成]
図1は本発明の動画像生成システムの一構成例を示すブロック図である。
In order to examine the visual characteristics of the user, the present inventor presented a plurality of subjects with moving images by three-dimensional CG, and evaluated the smoothness of the movement of the three-dimensional model. In the present invention, the condition that can be perceived by the user that the motion of the generated three-dimensional model is smooth or the image quality acceptable by the user can be ensured is identified by the perceptual experiment. Then, a method for reducing the number of shots required for the synthesis of the three-dimensional CG while satisfying the condition is proposed.
[System configuration]
FIG. 1 is a block diagram showing a configuration example of a moving image generation system of the present invention.

図1に示すように、本発明の動画像生成システムは、編集装置1、撮影装置2及び表示装置3を有する構成である。   As shown in FIG. 1, the moving image generation system of the present invention is configured to include an editing device 1, a photographing device 2, and a display device 3.

編集装置1は、仮想空間情報生成部11、撮影条件導出部12及び動画像生成部13を備えている。撮影装置2は被写体撮影部21及び3次元モデル生成部22を備え、表示装置3は動画像表示部31を備えている。   The editing apparatus 1 includes a virtual space information generation unit 11, a shooting condition derivation unit 12, and a moving image generation unit 13. The imaging device 2 includes a subject imaging unit 21 and a three-dimensional model generation unit 22, and the display device 3 includes a moving image display unit 31.

編集装置1及び表示装置3は、例えばプログラムにしたがって処理を行うコンピュータシステムによって実現できる。また、撮影装置2の被写体撮影部21は、カメラ、該カメラの撮影位置の制御に用いるコンピュータシステム、被写体を置くためのテーブル及び被写体の背景を表示する背景表示装置によって実現できる。撮影装置2の3次元モデル生成部22は、3次元モデルを生成するためのプログラムが搭載されたコンピュータシステムによって実現できる。   The editing device 1 and the display device 3 can be realized by a computer system that performs processing according to a program, for example. The subject photographing unit 21 of the photographing device 2 can be realized by a camera, a computer system used for controlling the photographing position of the camera, a table for placing a subject, and a background display device that displays the background of the subject. The three-dimensional model generation unit 22 of the photographing apparatus 2 can be realized by a computer system equipped with a program for generating a three-dimensional model.

編集装置1、撮影装置2及び表示装置3は、図1に示すようにネットワーク4を介して相互にデータを送受信することが可能である。なお、編集装置1、撮影装置2及び表示装置3は、図1に示した構成に限らず、例えば編集装置1及び表示装置3を1つのコンピュータシステムによって構成してもよく、撮影装置2の3次元モデル生成部22、編集装置1及び表示装置3を1つのコンピュータシステムによって構成してもよい。   As shown in FIG. 1, the editing device 1, the imaging device 2, and the display device 3 can transmit and receive data to and from each other via the network 4. The editing device 1, the photographing device 2, and the display device 3 are not limited to the configuration illustrated in FIG. 1. For example, the editing device 1 and the display device 3 may be configured by a single computer system. The dimensional model generation unit 22, the editing device 1, and the display device 3 may be configured by one computer system.

図2は図1に示した動画像生成システムが備えるコンピュータシステムの一構成例を示すブロック図である。   FIG. 2 is a block diagram showing a configuration example of a computer system included in the moving image generation system shown in FIG.

図2に示すコンピュータシステム5は、よく知られた一般的な構成であり、CPU51、メモリ52、ハードディスク53、入力装置54、出力装置55及びCD−ROMドライブ56を備えている。このコンピュータシステム5に、上記編集装置1や撮影装置2の処理を実行するためのプログラムを搭載することで、これらの装置の機能を実現できる。当該プログラムは、FD(フレキシブルディスク)、MO、ROM、メモリカード、CD−ROM、DVD、フラッシュメモリ等の記録媒体に記録して保存したり、配布したりすることが可能である。また、当該プログラムは、インターネットや電子メール等のネットワークを介して提供することも可能である。
[処理概要]
図3は本発明の動画像生成方法の処理手順を示すフローチャートである。
A computer system 5 shown in FIG. 2 has a well-known general configuration, and includes a CPU 51, a memory 52, a hard disk 53, an input device 54, an output device 55, and a CD-ROM drive 56. By installing a program for executing the processing of the editing device 1 and the photographing device 2 in the computer system 5, the functions of these devices can be realized. The program can be recorded and stored in a recording medium such as an FD (flexible disk), MO, ROM, memory card, CD-ROM, DVD, flash memory, or distributed. The program can also be provided via a network such as the Internet or e-mail.
[Outline of processing]
FIG. 3 is a flowchart showing the processing procedure of the moving image generation method of the present invention.

以下、図3を用いて本発明の動画像生成方法の概要について説明する。なお、図3に示すフローチャートは、本出願人による先の特許出願(特開2006−244306号公報)においても示した図である。本発明では、図3に示す撮影条件導出処理S2にて、人の視覚特性を基に、動画像の生成に用いる写真の撮影角度の間隔を最大にするための処理を備えている。その他の処理については、上記特開2006−244306号公報を参照することで実現できる。   The outline of the moving image generation method of the present invention will be described below with reference to FIG. Note that the flowchart shown in FIG. 3 is also a view shown in a previous patent application (Japanese Patent Laid-Open No. 2006-244306) by the present applicant. In the present invention, the photographing condition derivation process S2 shown in FIG. 3 includes a process for maximizing the interval between photographing angles of photographs used for generating a moving image based on human visual characteristics. Other processing can be realized by referring to the above-mentioned JP-A-2006-244306.

図3に示すように、本発明の動画像生成システムでは、まず編集装置1の仮想空間情報生成部11により、利用者の操作に応じて3次元仮想空間エディタ上に仮オブジェクトを生成し、動作情報を生成する(ステップS1)。本実施形態の動画像生成システムでは、仮オブジェクトの動作を指定するオブジェクトアニメーションだけでなく、カメラパスや注視点を設定することで、視点を変えたシーンアニメーションを構築できる。これらの処理により被写体の運動パターンが規定され、それに基づいて動作情報が生成される。   As shown in FIG. 3, in the moving image generation system of the present invention, first, a virtual space information generation unit 11 of the editing apparatus 1 generates a temporary object on a three-dimensional virtual space editor in accordance with a user operation. Information is generated (step S1). In the moving image generation system according to the present embodiment, not only an object animation that specifies a motion of a temporary object but also a scene animation with a different viewpoint can be constructed by setting a camera path and a gazing point. By these processes, the movement pattern of the subject is defined, and motion information is generated based on the movement pattern.

なお、3次元仮想空間エディタとは、被写体を撮影することで得られる複数の2次元静止画像を基に生成される3次元モデルやカメラパスを含む、動画像として構築する3次元仮想空間を編集するためのものである。   Note that the 3D virtual space editor edits a 3D virtual space constructed as a moving image including a 3D model and a camera path generated based on a plurality of 2D still images obtained by photographing a subject. Is to do.

また、仮オブジェクトは、3次元仮想空間における3次元モデルの動作を指定するために、3次元モデルに代わって用いる単純な3次元形状のモデルであり、被写体の位置と占有範囲を表現する立方体または実物の概略形状に近い直方体等から構成される。   The temporary object is a simple three-dimensional model used in place of the three-dimensional model in order to specify the operation of the three-dimensional model in the three-dimensional virtual space. It is composed of a rectangular parallelepiped that is close to the approximate shape of the actual product.

動作情報は、3次元モデルの動作を規定する情報であり、ここでは3次元モデルに代わる仮オブジェクトの動作を規定する仮オブジェクトの動作情報、並びにカメラパス及び注視点の移動経路、すなわち視点位置の移動経路を規定する視点位置の動作情報を備えている。   The motion information is information that defines the motion of the three-dimensional model. Here, the motion information of the temporary object that defines the motion of the temporary object that replaces the three-dimensional model, and the movement path of the camera path and the gazing point, that is, the viewpoint position. Operation information of the viewpoint position that defines the movement route is provided.

カメラパスは、3次元仮想空間内の仮オブジェクトをどの視点位置から撮影するかをシミュレーションして示すものあり、3次元仮想空間に設定した仮想的なカメラの移動軌跡・経路を任意の線分や曲線・図形等で示している。カメラパスは仮オブジェクトを含む3次元仮想空間エディタ上に配置される。   The camera path is a simulation showing which viewpoint position the temporary object in the 3D virtual space is shot from. The camera path and path of the virtual camera set in the 3D virtual space Shown with curves and figures. The camera path is arranged on the three-dimensional virtual space editor including the temporary object.

次に、動画像生成システムは、撮影条件導出部12により、仮想空間情報生成部11で生成した動作情報を用いて、人の視覚特性を考慮し、動画像生成部13で生成する動画像中の3次元モデルの動きが十分に滑らかに見える範囲内で被写体の撮影角度の間隔が最大となる、すなわち被写体の撮影枚数が最も少なくなる撮影角度の間隔を決定し、その値を撮影条件として出力する(ステップS2)。   Next, in the moving image generating system, the shooting condition deriving unit 12 uses the operation information generated by the virtual space information generating unit 11 to take into account human visual characteristics, and the moving image generating unit 13 Determines the shooting angle interval that maximizes the shooting angle interval of the subject within the range where the movement of the three-dimensional model looks sufficiently smooth, that is, the smallest shooting number of subjects, and outputs that value as the shooting condition. (Step S2).

撮影装置2の被写体撮影部21は、撮影条件導出部12で導出した撮影条件にしたがって複数の方向から被写体を撮影し、複数の2次元静止画像を出力する(ステップS3)。   The subject photographing unit 21 of the photographing apparatus 2 photographs the subject from a plurality of directions according to the photographing conditions derived by the photographing condition deriving unit 12, and outputs a plurality of two-dimensional still images (step S3).

動画像生成システムは、撮影装置2の被写体撮影部21による撮影が終了すると、撮影装置2の3次元モデル生成部22により、撮影された複数の2次元静止画像から3次元モデルを合成する(ステップS4)。合成した3次元モデルのデータは編集装置1に送られる。   When the photographing by the subject photographing unit 21 of the photographing apparatus 2 is completed, the moving image generating system synthesizes a three-dimensional model from a plurality of photographed two-dimensional still images by the three-dimensional model generating part 22 of the photographing apparatus 2 (step S4). The synthesized three-dimensional model data is sent to the editing apparatus 1.

編集装置1は、撮影装置2から受け取った3次元モデルのデータと、仮想空間情報生成部11で生成した動作情報とを用いて、動画像生成部13により動画像を生成する(ステップS5)。生成した動画像は表示装置3へ送られ、表示装置3の動画像表示部31により表示される(ステップS6)。   The editing device 1 generates a moving image by the moving image generation unit 13 using the three-dimensional model data received from the imaging device 2 and the motion information generated by the virtual space information generation unit 11 (step S5). The generated moving image is sent to the display device 3 and displayed by the moving image display unit 31 of the display device 3 (step S6).

従来の動画像生成システムでは、360度全ての方向から細かい角度単位で被写体を撮影して多数の2次元静止画像を取得するため、撮影時間が非常に長くなると共にデータ量が非常に大きくなる。一方、本発明の動画像生成システムでは、3次元仮想空間エディタ上に設定したカメラパスの時間毎の位置に対応するカメラ位置(撮影装置2が備えるカメラの位置)から被写体を撮影して2次元静止画像を取得する。すなわち、動画像の生成に必要な写真のみを撮影するため、3次元モデルを迅速に生成することが可能であり、またデータ量も削減できる。   In the conventional moving image generation system, a subject is photographed in fine angle units from all directions of 360 degrees to acquire a large number of two-dimensional still images, so that the photographing time becomes very long and the amount of data becomes very large. On the other hand, in the moving image generation system of the present invention, a subject is photographed from a camera position (a camera position of the photographing apparatus 2) corresponding to the position of the camera path set on the three-dimensional virtual space editor for each time. Get a still image. That is, since only a photograph necessary for generating a moving image is taken, a three-dimensional model can be generated quickly, and the data amount can be reduced.

図4は最小サンプリング曲線を示すグラフ及び該最小サンプリング曲線を用いた従来の3次元モデルの生成手順を示すフローチャートである。図4(a)に示す最小サンプリング曲線は、非特許文献2に記載された技術によって導かれたものであり、上記形状情報の利用数を増やすことで、どれだけ撮影枚数が減らせるかを示している。   FIG. 4 is a flow chart showing a graph showing a minimum sampling curve and a conventional procedure for generating a three-dimensional model using the minimum sampling curve. The minimum sampling curve shown in FIG. 4A is derived by the technique described in Non-Patent Document 2, and shows how much the number of shots can be reduced by increasing the number of uses of the shape information. ing.

図3に示したステップS2〜S4の処理と図4(b)に示すステップS21〜24の処理とを比べれば分かるように、非特許文献2に記載された手法では、撮影枚数を減らすために写真撮影以外に被写体の形状(奥行き)を別途計算する必要があり、動画像の合成処理が複雑になる。一般に、写真等の画像から被写体の形状を復元し、ジオメトリ(ポリゴン)データを生成して奥行き情報を計算するには膨大な計算を実行しなければならず、コンピュータシステムに大きな負荷がかかってしまう。さらに、非特許文献2に記載された手法では、形状情報を多用するほど撮影枚数を削減することが可能であるが、上述したように、形状情報の精度に起因して、生成した3次元モデルの現実感が低下することが知られている。また、非特許文献2では、利用者による生成した動画像の画質評価を行っていないため、3次元モデルの動きが滑らかであると利用者に知覚される、良好な画質が得られていない可能性があった。   As can be understood by comparing the processing of steps S2 to S4 shown in FIG. 3 with the processing of steps S21 to S24 shown in FIG. 4B, the technique described in Non-Patent Document 2 reduces the number of shots. In addition to taking pictures, it is necessary to separately calculate the shape (depth) of the subject, which complicates the moving image composition processing. Generally, in order to restore the shape of a subject from an image such as a photograph, generate geometry (polygon) data, and calculate depth information, it is necessary to perform enormous calculations, which puts a heavy load on the computer system. . Furthermore, in the method described in Non-Patent Document 2, it is possible to reduce the number of shots as the shape information is used more frequently. However, as described above, the generated three-dimensional model is caused by the accuracy of the shape information. It is known that the reality of In Non-Patent Document 2, image quality evaluation of a moving image generated by a user is not performed, and thus a good image quality perceived by the user as a smooth movement of the three-dimensional model may not be obtained. There was sex.

それに対して、本発明では、編集装置1に、予め利用者の視覚特性を考慮して、被写体の撮影間隔の大きさ、すなわち何度単位で被写体を撮影すればよいかを決定し、撮影条件として出力する撮影条件導出部12を備えている。これにより、利用者から見て3次元モデルの動きが十分に滑らかであると知覚できる範囲内で、可能な限り撮影枚数を削減することができる。また、形状情報を用いることなく、2次元静止画像のみ用いて動画像を生成できるため、動画像の生成処理が複雑になることがない。
[詳細処理]
次に、図1に示した動画像生成システムが備える、仮想空間情報生成部11、撮影条件導出部12、動画像生成部13、被写体撮影部21、3次元モデル生成部22及び動画像表示部31について図面を用いて詳細に説明する。
(1)仮想空間情報生成部
図5は図1に示した仮想空間情報生成部の一構成例を示すブロック図である。
On the other hand, in the present invention, the editing apparatus 1 determines in advance the size of the shooting interval of the subject, that is, how many times the subject should be shot, in consideration of the visual characteristics of the user, The imaging condition deriving unit 12 for outputting as follows. As a result, the number of shots can be reduced as much as possible within a range where the user can perceive that the movement of the three-dimensional model is sufficiently smooth when viewed from the user. Further, since a moving image can be generated using only a two-dimensional still image without using shape information, the moving image generation process does not become complicated.
[Detailed processing]
Next, the virtual space information generation unit 11, the shooting condition derivation unit 12, the moving image generation unit 13, the subject shooting unit 21, the three-dimensional model generation unit 22, and the moving image display unit included in the moving image generation system illustrated in FIG. 31 will be described in detail with reference to the drawings.
(1) Virtual Space Information Generation Unit FIG. 5 is a block diagram illustrating a configuration example of the virtual space information generation unit illustrated in FIG.

図5に示すように、仮想空間情報生成部11は、仮オブジェクト生成手段111、カメラパス生成手段112、注視点指定手段113及び動作情報生成手段114を備えている。図5には仮想空間情報生成部11が備える各手段で生成する情報も併せて示している。   As shown in FIG. 5, the virtual space information generation unit 11 includes a temporary object generation unit 111, a camera path generation unit 112, a gazing point specification unit 113, and a motion information generation unit 114. FIG. 5 also shows information generated by each unit included in the virtual space information generation unit 11.

図5に示す仮想空間情報生成部11は以下に記載する処理を実行する。なお、以下の処理は利用者の操作に基づいて実行される。   The virtual space information generation unit 11 illustrated in FIG. 5 executes processing described below. The following processing is executed based on user operations.

まず、仮想空間情報生成部11は、仮オブジェクト生成手段111により3次元仮想空間エディタ上に上記仮オブジェクトを生成する。また、カメラパス生成手段112により3次元仮想空間エディタ上にカメラパスを生成する。さらに、注視点指定手段113により3次元仮想空間エディタ上に注視点を指定する。動作情報生成手段114は、仮オブジェクト、カメラパス及び注視点を用いて動作情報を生成する。   First, the virtual space information generation unit 11 generates the temporary object on the three-dimensional virtual space editor by the temporary object generation unit 111. Further, the camera path generation unit 112 generates a camera path on the three-dimensional virtual space editor. Further, the gazing point designating unit 113 designates the gazing point on the three-dimensional virtual space editor. The motion information generation unit 114 generates motion information using the temporary object, the camera path, and the gazing point.

動作情報には、上述したように、仮オブジェクトがどのように動作するかを規定する仮オブジェクトの動作情報と、カメラパスと注視点によって視点位置がどのように動くかを規定する視点位置の動作情報の2つがある。動作情報生成手段114で生成した動作情報はコンピュータシステムが備える記憶装置(メモリ52やハードディスク53)に格納される。   In the motion information, as described above, the motion information of the temporary object that defines how the temporary object operates, and the motion of the viewpoint position that specifies how the viewpoint position moves according to the camera path and the gazing point. There are two pieces of information. The operation information generated by the operation information generation unit 114 is stored in a storage device (memory 52 or hard disk 53) provided in the computer system.

仮想空間情報生成部11は、動作情報生成手段114により動作情報を画像として表示できる画像信号に変換し、プレビュー画像をディスプレイ等に表示する。利用者は、必要に応じてプレビュー画像を見ることで、実際の動画像が完成する前に出来上がりの様子を知ることができる。プレビュー画像で確認した結果、仮オブジェクトの動きが想定したものと異なっている場合はカメラパスを変更する等の操作により適宜修正すればよい。なお、仮オブジェクトは、被写体の正確なサイズを示していないため、後述するように動画像生成部13にてサイズの補正処理が必要となるが、この時点では完成した動画像の様子がイメージできれば十分なので、単純な直方体等を用いて生成する。   The virtual space information generation unit 11 converts the operation information into an image signal that can be displayed as an image by the operation information generation unit 114, and displays the preview image on a display or the like. By viewing the preview image as necessary, the user can know the state of completion before the actual moving image is completed. As a result of checking the preview image, if the movement of the temporary object is different from that assumed, it may be corrected as appropriate by an operation such as changing the camera path. Since the temporary object does not indicate the exact size of the subject, the moving image generation unit 13 needs to correct the size as will be described later, but at this point, if the completed moving image can be imaged. Since it is sufficient, it is generated using a simple rectangular parallelepiped.

本実施形態の画像合成システムでは、仮オブジェクトを3次元仮想空間エディタ上に1つまたは複数配置することが可能とする。仮オブジェクトが1つだけの場合、カメラの注視点は固定位置(例えば仮オブジェクトの重心位置)に設定し、仮オブジェクトが複数の場合、カメラの注視点は3次元仮想空間エディタ上の任意の一点を指定できる。   In the image composition system of this embodiment, one or a plurality of temporary objects can be arranged on the three-dimensional virtual space editor. When there is only one temporary object, the camera's point of interest is set at a fixed position (for example, the center of gravity of the temporary object). When there are multiple temporary objects, the camera's point of interest is an arbitrary point on the 3D virtual space editor. Can be specified.

図6は図1に示した仮想空間情報生成部によるカメラパスの設定例を示す模式図である。図6は仮オブジェクトを上面から見る場合のカメラパスの設定例を示している。なお、図6はカメラパスと注視点を生成することにより、視点の位置が移動する動画像(シーンアニメーション)を生成する場合を例にしてカメラパスの設定例を示しているが、カメラパスと仮オブジェクトを関連付けることで、仮オブジェクトの動作を指定するオブジェクトアニメーションを編集することも可能である。   FIG. 6 is a schematic diagram illustrating an example of setting a camera path by the virtual space information generation unit illustrated in FIG. FIG. 6 shows an example of setting the camera path when the temporary object is viewed from above. FIG. 6 shows an example of setting a camera path by taking as an example a case where a moving image (scene animation) in which the position of the viewpoint moves is generated by generating a camera path and a gazing point. By associating the temporary object, it is also possible to edit the object animation that specifies the movement of the temporary object.

3次元仮想空間エディタ内にカメラパスを設定する手法は、周知のポリゴンを用いたジオメトリベースの3次元モデルの構築時に用いられる標準的な技術であり、本発明のようにイメージベースを採用するシステムでも同様に実現できる。カメラパスの形状や数・組み合わせ等については、カメラパス設定用の入力手段を設けることで自由に定義できる。カメラパスの入力手段については、例えば特願2005−205831号に記載されている。   The method of setting the camera path in the three-dimensional virtual space editor is a standard technique used when building a geometry-based three-dimensional model using a known polygon, and a system that employs an image base as in the present invention. But it can be done in the same way. The shape, number, and combination of camera paths can be freely defined by providing input means for setting camera paths. The camera path input means is described, for example, in Japanese Patent Application No. 2005-205831.

カメラパスは、カメラ(被写体撮影部21が有する後述する画像撮影装置214)の移動経路を3次元仮想空間エディタ上の形状情報として表現したものであるため、位置情報だけでなく時間情報も含んでいる。3次元仮想空間エディタ上のカメラパスの時間情報の編集には、通常、タイムラインと呼ばれるユーザインタフェースが用いられる。タイムラインは、時間属性を持つオブジェクト(例えば、カメラパス)をレイヤー毎に時間軸を用いて管理するためのユーザインタフェースであり、3次元CGの画像を構築する際に使用される、従来からよく用いられるものである。タイムラインインタフェースを用いることでカメラパスの管理を容易に行うことができる。本実施形態ではこのタイムラインインタフェースの利用を想定している。   Since the camera path expresses the movement path of the camera (the image photographing device 214 described later included in the subject photographing unit 21) as shape information on the three-dimensional virtual space editor, it includes time information as well as position information. Yes. For editing the camera path time information on the three-dimensional virtual space editor, a user interface called a timeline is usually used. The timeline is a user interface for managing an object having a time attribute (for example, a camera path) using a time axis for each layer, and has been conventionally used when constructing a three-dimensional CG image. It is used. By using the timeline interface, the camera path can be easily managed. In this embodiment, the use of this timeline interface is assumed.

図7はタイムラインインタフェースによる設定画面の一例を示す模式図である。   FIG. 7 is a schematic diagram showing an example of a setting screen by the timeline interface.

図7に示すように、タイムラインインタフェースを利用すると、仮オブジェクトやカメラパス等の時間情報を備えたオブジェクト毎に、それぞれの継続時間(動画像の表示時間)を指定できる。また、タイムラインインタフェースでは、1秒あたりの画像更新頻度であるフレームレートFPSを指定することが可能であり、利用者は動画像の再生フォーマット(AVI、QUICKTIME、MPEG、DIVX等)に合わせて所望のフレームレートを指定できる。   As shown in FIG. 7, when the timeline interface is used, the duration (moving image display time) can be designated for each object having time information such as a temporary object and a camera path. In the timeline interface, it is possible to specify a frame rate FPS that is an image update frequency per second, and the user can select a desired one according to a moving image playback format (AVI, QUICKTIME, MPEG, DIVX, etc.). You can specify the frame rate.

一般に、フレームレートFPSが速いほど、表示する物体の動きが滑らかに見えることが知られている。例えばテレビジョン受像機ではフレームレートFPSが30であるため、本発明でもフレームレートFPSの上限値は30程度で十分である。   In general, it is known that the faster the frame rate FPS, the smoother the movement of an object to be displayed. For example, since the frame rate FPS is 30 in a television receiver, the upper limit of the frame rate FPS is about 30 in the present invention.

図7に示す例では、仮オブジェクトの継続時間が20秒間であり、継続時間が10秒間のカメラパス1及びカメラパス2が設定され、フレームレートFPSが15に設定されている。この場合、動画像の再生に必要なフレームの総数(静止画像の枚数)は300となる。   In the example shown in FIG. 7, the temporary object has a duration of 20 seconds, camera path 1 and camera path 2 having a duration of 10 seconds are set, and the frame rate FPS is set to 15. In this case, the total number of frames (number of still images) necessary for moving image reproduction is 300.

上述したように、動作情報は仮オブジェクトやカメラパスが持つ位置情報及び時間情報によって構成される。本実施形態では、仮オブジェクトを一つだけ用いて動画像を構築する場合、カメラの注視点を固定位置(例えば、仮オブジェクトの重心位置)に設定してもよい。この場合、動作情報を迅速に生成できるため、例えば博物館の作品や宝石類等のように、個別の物体(商品等)を独立した高品質な画像で利用者に提示したい場合に適している。   As described above, the motion information is configured by position information and time information held by the temporary object and the camera path. In this embodiment, when a moving image is constructed using only one temporary object, the gazing point of the camera may be set to a fixed position (for example, the center of gravity position of the temporary object). In this case, since the operation information can be generated quickly, it is suitable for a case where individual objects (products, etc.) are desired to be presented to the user as independent high-quality images such as museum works and jewelry.

また、複数の仮オブジェクトを用いて動画像を構築する場合、カメラの注視点は3次元仮想空間エディタ上の任意の一点に指定すればよい。この場合、より現実の空間に近い表現が可能になる。カメラの注視点を3次元仮想空間エディタ上の任意の一点に指定する方法は、例えば様々な物体が配置された部屋の様子等のように、複数の物体(商品等)を組み合わせて表示する動画像の生成に適している。
(2)撮影条件導出部
次に図1に示した編集装置1が備える撮影条件導出部12について図面を用いて説明する。
In addition, when a moving image is constructed using a plurality of temporary objects, the gazing point of the camera may be designated as an arbitrary point on the three-dimensional virtual space editor. In this case, an expression closer to the real space is possible. A method for designating a camera gazing point as an arbitrary point on the three-dimensional virtual space editor is to display a combination of a plurality of objects (products, etc.) such as a room in which various objects are arranged. Suitable for image generation.
(2) Shooting Condition Deriving Unit Next, the shooting condition deriving unit 12 included in the editing apparatus 1 shown in FIG. 1 will be described with reference to the drawings.

図8は図1に示した撮影条件導出部の一構成例を示すブロック図である。   FIG. 8 is a block diagram illustrating a configuration example of the imaging condition deriving unit illustrated in FIG.

図8に示すように、撮撮影条件導出部12は、撮影間隔最大化手段121、座標変換手段122、撮影距離計算手段123、垂直角度計算手段124、水平角度計算手段125及び撮影手順生成手段126を備えている。   As shown in FIG. 8, the imaging condition deriving unit 12 includes an imaging interval maximizing unit 121, a coordinate converting unit 122, an imaging distance calculating unit 123, a vertical angle calculating unit 124, a horizontal angle calculating unit 125, and an imaging procedure generating unit 126. It has.

本実施形態の撮影条件導出部12は、撮影角度の間隔をある一定の条件の下で最大化することで、撮影装置2による撮影枚数を削減するための機能を備えている。ここで、ある一定の条件とは、複数の被験者による知覚実験結果に基づいて動画像の動きの滑らかさについて規定した値である。したがって、本発明の手法を用いると、動画の品質を保持しつつ動画像の生成に必要な撮影枚数を低減できる。さらに、本実施形態の撮影条件導出部12は、3次元仮想空間における視点位置の座標を計算する座標変換手段122と、撮影装置2と被写体間の撮影距離を決定する撮影距離計算手段123と、撮影装置2による、垂直方向の撮影間隔の角度を計算する垂直角度計算手段124と、撮影装置2による、水平方向の撮影間隔の角度を計算する水平角度計算手段125と、利用者が設定した撮影経路(カメラパス)に沿って撮影するための撮影手順を生成する撮影手順生成手段126とを備えている。   The shooting condition deriving unit 12 of the present embodiment has a function for reducing the number of shots by the shooting apparatus 2 by maximizing the shooting angle interval under a certain condition. Here, the certain condition is a value that defines the smoothness of the motion of the moving image based on the perceptual experiment results by a plurality of subjects. Therefore, by using the method of the present invention, it is possible to reduce the number of shots required for generating moving images while maintaining the quality of moving images. Furthermore, the shooting condition deriving unit 12 of the present embodiment includes a coordinate conversion unit 122 that calculates the coordinates of the viewpoint position in the three-dimensional virtual space, a shooting distance calculation unit 123 that determines a shooting distance between the shooting device 2 and the subject, Vertical angle calculation means 124 for calculating the angle of the shooting interval in the vertical direction by the shooting device 2, horizontal angle calculation means 125 for calculating the angle of the shooting interval in the horizontal direction by the shooting device 2, and shooting set by the user An imaging procedure generation unit 126 that generates an imaging procedure for imaging along a route (camera path) is provided.

以下、撮影条件導出部12の処理手順を説明する前に本発明者が実施した知覚実験について説明する。   Hereinafter, a perceptual experiment performed by the present inventor will be described before describing the processing procedure of the imaging condition deriving unit 12.

知覚実験は、9人の被験者にY軸を基準に3次元モデル(ここでは、立方体)が等速回転運動する試験映像を提示し、パラメータを変化させながら3次元モデルの動きの滑らかさを繰り返し被験者に評価させた。評価は5段階評定により実施した(ランク5:非常になめらか、ランク4:ややなめらか、ランク3:よくわからない、ランク2:ややぎくしゃく、ランク1:非常にぎくしゃく)。変化したパラメータは、フレームレートF[fps]と回転周期T[sec]の2種類である。使用したパラメータの値は、F[fps]=6,8,10,12,14,15,16,18、T[sec]=1,2,4,6,8,10,12である。なお、本知覚試験では、等速回転運動を例にしているため、3次元モデルが1回転するのに要する時間である回転周期が上記動作情報になる。上記説明では一般的なフレームレートの概念をFPSと表記しているが、以下、知覚実験のパラメータとして用いたフレームレートをF[fps]で表す。   In the perception experiment, a test image in which a three-dimensional model (here, a cube) rotates at a constant speed on the basis of the Y axis is presented to nine subjects, and the smoothness of the movement of the three-dimensional model is repeated while changing the parameters. Subjects were evaluated. The evaluation was performed based on a five-level rating (rank 5: very smooth, rank 4: somewhat smooth, rank 3: not sure, rank 2: slightly jerky, rank 1: very jerky). There are two types of changed parameters: frame rate F [fps] and rotation period T [sec]. The parameter values used are F [fps] = 6, 8, 10, 12, 14, 15, 16, 18, T [sec] = 1, 2, 4, 6, 8, 10, 12. In this perceptual test, constant speed rotational motion is taken as an example, and thus the rotation period, which is the time required for one rotation of the three-dimensional model, is the motion information. In the above description, the general concept of the frame rate is expressed as FPS. Hereinafter, the frame rate used as a parameter for the perceptual experiment is expressed as F [fps].

被験者の評定結果を信号検出理論により分析すると、フレームレートFPSを低下させても大きな画質の劣化が知覚されない範囲を同定できる。図9に本知覚試験の分析結果を示す。   When the evaluation result of the subject is analyzed by the signal detection theory, it is possible to identify a range in which a large deterioration in image quality is not perceived even when the frame rate FPS is reduced. FIG. 9 shows the analysis result of this perceptual test.

図9は知覚実験の分析結果を示す図であり、同図(a)はROC曲線を示すグラフ、同図(b)はフレームレートに対応する感度の値及び標準誤差を示す表である。   FIG. 9 is a diagram showing the analysis result of the perceptual experiment. FIG. 9A is a graph showing the ROC curve, and FIG. 9B is a table showing sensitivity values and standard errors corresponding to the frame rate.

信号検出理論は、被験者がノイズの中からどれだけ正しく信号を検出できるかを知るための理論である。本知覚実験においては、F=15で表示した動画像を標準的な画質と仮定し、それ以外のFの値で表示した動画像をノイズとして各評定レベルの累積確率を計算し、ヒット率Hとフォールス・アラーム率FAの関係をプロットすることにより、図9(a)のグラフで示すROC曲線を描いた。   The signal detection theory is a theory for knowing how correctly a subject can detect a signal from noise. In this perceptual experiment, it is assumed that a moving image displayed at F = 15 has a standard image quality, and a moving image displayed at other values of F is used as noise to calculate the cumulative probability of each rating level. The ROC curve shown in the graph of FIG. 9A was drawn by plotting the relationship between the value and the false alarm rate FA.

ROC曲線の下側の面積は、本知覚実験で用いた試験映像において、被験者が3次元モデルの動きが滑らかであるかまたはぎくしゃくしているかを識別できる感度d’に相当する。図9(b)に回転周期T=12のときの各フレームレートFの値に対応する感度d’の値及び標準誤差を示す。感度d’は被験者の判断基準の変容に左右されない刺激検出力の指標であり、図9(a)の破線で示すF=15のときの感度d’の値は0である。   The area under the ROC curve corresponds to a sensitivity d ′ that allows the subject to identify whether the movement of the three-dimensional model is smooth or jerky in the test video used in this perception experiment. FIG. 9B shows the value of the sensitivity d ′ and the standard error corresponding to the value of each frame rate F when the rotation period T = 12. Sensitivity d 'is an index of stimulus detection power that is not affected by changes in the judgment criteria of the subject, and the value of sensitivity d' when F = 15 indicated by the broken line in FIG.

感度d’の値が比較的高い場合、被験者が3次元モデルの動きが滑らかであるかまたはぎくしゃくしているかを容易に識別したことを示している。F=6やF=8のときは、他の条件に比べて感度d’の値が大きく、被験者が3次元モデルの動きが滑らかではないと容易に認識していることが分かる。   A relatively high value of sensitivity d 'indicates that the subject has easily identified whether the movement of the 3D model is smooth or jerky. When F = 6 or F = 8, it can be seen that the value of the sensitivity d 'is larger than other conditions, and the subject easily recognizes that the movement of the three-dimensional model is not smooth.

一方、F=10を境に、F=12やF=14は、ほぼ0に近い値を示しており、被験者は、標準画質としたF=15のときの試験映像とあまり見分けがついていない可能性が高い。すなわち、標準画質としたF=15の画像ではないにもかかわらず、しばしば「滑らか」であると評定しているため、被験者にとってF=12やF=14のときの試験映像はF=15のときの試験映像と同等の心理的距離にあると推定できる。   On the other hand, with F = 10 as the boundary, F = 12 and F = 14 show values close to 0, and the subject may not be distinguished from the test video at the standard image quality of F = 15. High nature. That is, although it is not an image of F = 15 with the standard image quality, it is often rated as “smooth”, so that the test video when F = 12 or F = 14 is F = 15 for the subject. It can be estimated that it is at the same psychological distance as the test video.

以上の実験結果から、F=10の近辺に3次元モデルの動きが滑らかであるかまたはぎくしゃくしているかを判別するしきい値が存在すると考えることができる。また、フレームレートが10≦F≦15の範囲であれば(但し、T=12)、被験者に、F=15のときの試験映像とほぼ同等の画質、あるいは容認できる範囲内の画質として知覚されていると考えられる。したがって、フレームレートFが10≦F≦15(但し、T=12)にあり、かつF=10に可能な限り近いときの動画像が、利用者が容認できる画質が得られる最少のフレーム数と言える。そのようなフレームレートFの値と回転周期Tの関係を明らかにするため、全部で1512回の評定結果から回転周期T毎に「非常に滑らか」と判定された比率をプロットした結果を図10に示す。図10に示すグラフの横軸はフレームレートFであり、縦軸はそのときの3次元モデルの動きが被験者に滑らかであると判定された確率である。   From the above experimental results, it can be considered that there is a threshold value for determining whether the movement of the three-dimensional model is smooth or jerky in the vicinity of F = 10. If the frame rate is in the range of 10 ≦ F ≦ 15 (where T = 12), the subject perceives the image quality as being almost equivalent to the test video when F = 15 or within an acceptable range. It is thought that. Therefore, when the frame rate F is 10 ≦ F ≦ 15 (where T = 12) and the moving image is as close as possible to F = 10, the moving image has the minimum number of frames at which the image quality acceptable by the user can be obtained. I can say that. In order to clarify the relationship between the value of the frame rate F and the rotation period T, the results of plotting the ratios determined to be “very smooth” for each rotation period T from the total 1512 evaluation results are shown in FIG. Shown in The horizontal axis of the graph shown in FIG. 10 is the frame rate F, and the vertical axis is the probability that the movement of the three-dimensional model at that time is determined to be smooth for the subject.

ここで、様々な提示刺激(この場合は、試験映像)に対する被験者の応答確率が正規分布に従うと仮定し、測定結果に対して累積正規分布関数またはロジスティック関数をフィッティングすると、知覚確率曲線が得られる。図10から、T=1の場合、つまり回転速度が速くなるほど、滑らかに動く3次元モデルを表示するために必要なフレームレートFの値が大きくなることが分かる。   Here, assuming that the response probability of the subject to various presented stimuli (in this case, test video) follows a normal distribution, fitting a cumulative normal distribution function or a logistic function to the measurement result gives a perceptual probability curve . From FIG. 10, it can be seen that the value of the frame rate F necessary for displaying a smoothly moving three-dimensional model increases as T = 1, that is, as the rotational speed increases.

また、図10に示すグラフから、被験者が3次元モデルの動きが滑らかであると判定する確率が50%の時のフレームレートFの値を見ると、T=12のとき、10≦F≦15の範囲にあり、かつF=10に近い値となっている。40%の場合でもぎりぎり条件を満たすが、3次元モデルのより滑らかな動きを重視して、本実施形態では最適なフレームレートFの値を導く指標として50%しきい値(以下、F50%THと称す)を採用する。   Further, from the graph shown in FIG. 10, when the value of the frame rate F when the probability that the subject determines that the movement of the three-dimensional model is smooth is 50%, when T = 12, 10 ≦ F ≦ 15 And a value close to F = 10. In the present embodiment, a 50% threshold value (hereinafter referred to as F50% TH) is used as an index for deriving an optimal frame rate F value, with emphasis on smoother movement of the three-dimensional model. Adopt).

以上の知見に基づき、本発明の基本的なアイデアを考案した。   Based on the above knowledge, the basic idea of the present invention was devised.

フレームレートF=10をFMINとすると、上記10≦F≦15の範囲内でFMINに最も近いフレームレートで表示できるように被写体を撮影すれば、最適な撮影条件を計算で求めることができる。ここで、最適な撮影条件とは、利用者にとって動画像中の3次元モデルの動きが(理想的ではないが)十分に滑らかであり、かつ最小のフレームレート(すなわち最大の撮影間隔)であることを意味する。フレームレートをFMINよりも遅くすると、上記一定の条件の範囲を逸脱してしまうため、動画像を表示する際に3次元モデルの動きが幾何学的に不整合として認識され、ぎこちない映像に見える。   Assuming that the frame rate F = 10 is FMIN, the optimal shooting condition can be obtained by calculation if the subject is shot so that it can be displayed at the frame rate closest to FMIN within the range of 10 ≦ F ≦ 15. Here, the optimal shooting condition is that the motion of the three-dimensional model in the moving image is sufficiently smooth (but not ideal) for the user and has the minimum frame rate (that is, the maximum shooting interval). Means that. If the frame rate is slower than FMIN, the range of the predetermined condition is deviated. Therefore, when a moving image is displayed, the motion of the three-dimensional model is recognized as geometrically inconsistent, and looks awkward.

以下、上記アイデアを具体的に定量化する手順について説明する。   Hereinafter, a procedure for specifically quantifying the above idea will be described.

上記F50%THの値は、以下に示す式(1)を用いることにより、本実施形態の撮影装置2で被写体を撮影する際の撮影間隔A[deg]に変換することができる。   The value of F50% TH can be converted into an imaging interval A [deg] when the subject is imaged by the imaging apparatus 2 of the present embodiment by using the following expression (1).

Figure 2008140297
Figure 2008140297

但し、ωは角速度であり、ω=2π/Tで求められる。   However, ω is an angular velocity and is obtained by ω = 2π / T.

式(1)で得られた撮影間隔A[deg]を回転周期T[sec]に対してプロットすると、撮影間隔Aは回転周期Tに対して式(2)で示すモデル関数で近似できる。   When the shooting interval A [deg] obtained by the equation (1) is plotted against the rotation cycle T [sec], the shooting interval A can be approximated by the model function represented by the equation (2) with respect to the rotation cycle T.

Figure 2008140297
Figure 2008140297

但し、kは定数、nはべき指数である。   However, k is a constant and n is a power exponent.

図11に示すグラフは、F50%THの値を被写体の撮影間隔A[deg]に変換したとき、その値と回転周期T[sec]との関係を示している。   The graph shown in FIG. 11 shows the relationship between the value and the rotation period T [sec] when the value of F50% TH is converted into the shooting interval A [deg] of the subject.

したがって、求める撮影間隔A[deg]は、回転周期T[sec]に対してべき法則でモデル化できる。実際にパラメータを与えると、以下の式(3)が得られる。   Therefore, the required shooting interval A [deg] can be modeled by a power law with respect to the rotation period T [sec]. When parameters are actually given, the following equation (3) is obtained.

Figure 2008140297
Figure 2008140297

以下、式(3)に基づいて処理を実行する撮影間隔最大化手段121について説明する。   Hereinafter, the photographing interval maximizing unit 121 that executes processing based on the expression (3) will be described.

生成した動画像中の3次元モデルの動きが利用者から見て十分に滑らかであり、かつフレーム数が最小となるのは、撮影間隔A[deg]がその上限値AMAXのときである。上限値AMAXは、以下の不等式(4)と条件式(5)の連立式から求めることができる。すなわち、式(4)に回転周期Tの値を与えることで撮影間隔Aが求まる。   The movement of the three-dimensional model in the generated moving image is sufficiently smooth when viewed from the user, and the number of frames is minimized when the shooting interval A [deg] is the upper limit value AMAX. The upper limit value AMAX can be obtained from the simultaneous equations of the following inequality (4) and conditional expression (5). That is, the shooting interval A is obtained by giving the value of the rotation period T to the equation (4).

Figure 2008140297
Figure 2008140297

但し、撮影装置2は、被写体を、その周囲に設定した上半球面から撮影するため、撮影時にカメラが撮影位置を一巡して元の位置に戻るという制約を与える必要があり、そのために下記式(5)を条件として満たす必要がある。   However, since the photographing apparatus 2 photographs the subject from the upper hemisphere set around it, it is necessary to give a restriction that the camera goes around the photographing position and returns to the original position at the time of photographing. It is necessary to satisfy (5) as a condition.

Figure 2008140297
Figure 2008140297

したがって、連立式(4)、(5)を満たす撮影間隔Aの最大値AMAXを求めることで、3次元モデルの等速回転運動を表現する最適な撮影条件を導出できる。重要なポイントであるため、再度確認すると、ここで言う「最適」とは、利用者から見て3次元モデルの動きが滑らかであり、かつ撮影間隔が最大になることを意味する。撮影間隔Aの最大値AMAXが決まれば、カメラパス上を何度間隔で撮影すればよいかが決まるため、後続する座標変換手段122にデータを渡すことができる。   Therefore, by obtaining the maximum value AMAX of the photographing interval A that satisfies the simultaneous equations (4) and (5), it is possible to derive the optimum photographing condition that expresses the constant speed rotation motion of the three-dimensional model. Since it is an important point, when reconfirmed, “optimal” here means that the movement of the three-dimensional model is smooth and the shooting interval is maximized when viewed from the user. If the maximum value AMAX of the shooting interval A is determined, it is determined how many times the camera path should be shot at an interval, so that data can be passed to the subsequent coordinate conversion means 122.

なお、本実施形態では、3次元モデルとして立方体の等速回転運動を例にして最適な撮影条件を導くための処理を例示しているが、本発明の撮影条件導出部12で実行する処理は、加速度を持つ回転運動や並行移動等の他の様々な動作パターンにも応用できる。但し、等速回転運動以外の最適な撮影条件を求める場合は、上記と同様の知覚実験によりパラメータを求める必要がある。   In the present embodiment, the process for deriving the optimal shooting condition is exemplified by taking a cube at a constant speed as an example of the three-dimensional model. However, the process executed by the shooting condition deriving unit 12 of the present invention is as follows. It can also be applied to various other motion patterns such as rotational movement with acceleration and parallel movement. However, when obtaining the optimum shooting conditions other than the constant speed rotation motion, it is necessary to obtain the parameters by the same perceptual experiment as described above.

最適な撮影条件が求まると、座標変換手段122により、仮オブジェクトの中心を表す、カメラパス上の時間毎の相対的な位置を示す複数の座標データを求める。例えば、仮オブジェクトの中心、すなわち3次元仮想空間エディタのワールド座標系におけるオブジェクト座標系の原点を(2,2,2)とし、カメラパス上の任意の2点におけるカメラの座標を(10,2,10)及び(14,2,8)とすると、座標変換手段122の出力は(8,0,8)及び(12,0,6)となる。   When the optimum shooting condition is obtained, the coordinate conversion unit 122 obtains a plurality of coordinate data indicating the relative position of the temporary path for each time, which represents the center of the temporary object. For example, the center of the temporary object, that is, the origin of the object coordinate system in the world coordinate system of the three-dimensional virtual space editor is (2, 2, 2), and the camera coordinates at any two points on the camera path are (10, 2). , 10) and (14, 2, 8), the output of the coordinate conversion means 122 is (8, 0, 8) and (12, 0, 6).

カメラパス上のカメラの座標は、フレーム毎に存在するため、総フレーム数に等しい座標データが出力される。このとき、フレーム間隔FIを指定することで、求める座標データの数を調節することもできる。ここで、フレーム間隔FIとは、あるカメラパスの総フレーム数に対して、どの程度の割合で座標データを抽出するかを示す指標となる値である。この場合、フレーム間隔毎に座標データを出力するので、総フレーム数をフレーム間隔数で除算した値が出力する座標データの数となる。すなわち、座標変換手段122により求める座標データの数をn、カメラパスの継続時間をDとすると、n=(D×FPS)/FIとなる。但し、Dは秒単位とする。   Since the camera coordinates on the camera path exist for each frame, coordinate data equal to the total number of frames is output. At this time, by specifying the frame interval FI, the number of coordinate data to be obtained can be adjusted. Here, the frame interval FI is a value that serves as an index indicating how much the coordinate data is extracted with respect to the total number of frames in a certain camera path. In this case, since coordinate data is output at every frame interval, a value obtained by dividing the total number of frames by the number of frame intervals is the number of coordinate data to be output. That is, n = (D × FPS) / FI, where n is the number of coordinate data obtained by the coordinate conversion means 122 and D is the duration of the camera path. However, D is in seconds.

例えば、継続時間が10秒であり、フレームレートFPSが12のカメラパスでは、総フレーム数が120となり、このカメラパスに対してフレーム間隔を12に指定すると、求める座標データの数は120/12=10となる。   For example, in a camera path with a duration of 10 seconds and a frame rate FPS of 12, the total number of frames is 120. If the frame interval is specified as 12 for this camera path, the number of coordinate data to be obtained is 120/12. = 10.

3次元モデルがより滑らかに動作する動画像を生成したい場合、フレーム間隔を短くして座標データ数を増やせばよいが、既に撮影間隔最大化手段121の処理にて利用者の視覚特性を考慮した最適なフレーム間隔を求めているため、撮影者はこの段階で勘や経験則等によりフレーム間隔を決定する必要はない。   In order to generate a moving image in which the three-dimensional model operates more smoothly, the frame interval may be shortened and the number of coordinate data may be increased, but the user's visual characteristics have already been taken into consideration in the processing of the shooting interval maximization unit 121. Since the optimum frame interval is obtained, the photographer does not need to determine the frame interval based on intuition, empirical rules, or the like at this stage.

カメラパスは、3次元仮想空間エディタ上の空間の一部を切り取ったものであるため、従来の手法のように被写体を全方向から撮影する場合の総撮影枚数をPmとし、本実施形態の総撮影枚数をPnとすると、Pm≧Pnの関係が成り立つ。よって、本実施形態によれば、3次元モデルが滑らかに動作する動画像が得られると共に、従来の手法に比べて必要な撮影画像の枚数を低減できる。   Since the camera path is a part of the space on the 3D virtual space editor, the total number of shots when the subject is photographed from all directions as in the conventional method is Pm. If the number of shots is Pn, the relationship Pm ≧ Pn is established. Therefore, according to the present embodiment, a moving image in which the three-dimensional model operates smoothly can be obtained, and the number of necessary captured images can be reduced as compared with the conventional method.

図12は座標変換手段によって求めたカメラ位置の座標データの一例を示すテーブル図である。   FIG. 12 is a table showing an example of coordinate data of the camera position obtained by the coordinate conversion means.

従来の手法では、人の操作によって撮影するカメラの位置(座標)を設定していたため、撮影条件として入力するカメラの座標データが整数となる。一方、本発明では、図9に示すように座標変換手段21によってカメラの座標データを求めるため、座標データが実数で得られる。そのため、カメラの撮影位置をより精緻に指定できる。   In the conventional method, since the position (coordinates) of the camera to be photographed is set by a human operation, the coordinate data of the camera input as the photographing condition is an integer. On the other hand, in the present invention, since coordinate data of the camera is obtained by the coordinate conversion means 21 as shown in FIG. 9, the coordinate data is obtained as a real number. Therefore, it is possible to specify the shooting position of the camera more precisely.

座標変換手段122によって座標データを求めると、撮影条件導出部12は、撮影距離計算手段123により、その座標データに基づいてmm単位で撮影距離を計算する。撮影距離はカメラと被写体中心との距離とする。   When the coordinate data is obtained by the coordinate conversion unit 122, the imaging condition deriving unit 12 calculates the imaging distance in mm units by the imaging distance calculation unit 123 based on the coordinate data. The shooting distance is the distance between the camera and the subject center.

本実施形態の編集装置1では、3次元仮想空間エディタ上に配置するカメラパスの形状を自由に設定できるため、撮影距離を任意の値に設定することが可能であり、仮オブジェクトとの距離を自由に設定できる。一方、実際の撮影装置2では、カメラを支えるアームの稼動範囲等の制約から撮影距離が制限される(例えば固定距離で撮影しなければならない)場合がある。したがって、そのような撮影上の制約をデータとして予め入力しておくことで、撮影距離計算手段123により必要に応じて撮影距離の補正を行う。   In the editing apparatus 1 of the present embodiment, since the shape of the camera path arranged on the three-dimensional virtual space editor can be set freely, the shooting distance can be set to an arbitrary value, and the distance from the temporary object can be set. Can be set freely. On the other hand, in the actual photographing apparatus 2, there are cases where the photographing distance is limited (for example, photographing must be performed at a fixed distance) due to restrictions such as the operating range of the arm that supports the camera. Therefore, the photographing distance is corrected as necessary by the photographing distance calculation means 123 by inputting in advance such photographing restrictions as data.

なお、撮影時のカメラと被写体との距離の計測は、従来から知られている、同一方向から撮影した複数の画像をステレオ処理することで距離情報を求める方法を用いてもよく、レンジファインダー等の光学手段により被写体上に投光されたパターン光の位置を計測することで、その幾何学的な位置関係から距離情報を取得する方法を用いてもよい。   The distance between the camera and the subject at the time of shooting may be measured by using a conventionally known method of obtaining distance information by performing stereo processing on a plurality of images shot from the same direction, such as a range finder. A method of obtaining distance information from the geometric positional relationship by measuring the position of the pattern light projected on the subject by the optical means may be used.

また、撮影距離を変えることができない場合、カメラの物理的位置を変更するのではなく、カメラが備えるズーム機能を用いて代替する方法が考えられる。但し、その場合は遠近感に関する情報が欠落するため、生成する仮オブジェクトは被写体とカメラの位置関係を正確に示したものではない。そのため、別途、距離を補正する必要があるが、単一の被写体を近距離で撮影するような場合は、距離の誤差が生成した動画像に大きく影響することはない。   Further, when the shooting distance cannot be changed, a method of replacing the physical position of the camera by using a zoom function provided in the camera instead of changing the physical position of the camera can be considered. However, in this case, since information regarding perspective is lost, the generated temporary object does not accurately indicate the positional relationship between the subject and the camera. Therefore, it is necessary to separately correct the distance. However, when a single subject is photographed at a short distance, the error in the distance does not greatly affect the generated moving image.

次に、撮影条件導出部12は、座標変換手段122で求めた3次元仮想空間エディタ上のカメラパス上のカメラ位置毎に、その座標データとオブジェクト座標系における仮オブジェクトの原点座標の値に基づきベクトル演算を行い、垂直角度計算手段124にて垂直角度を求め、水平角度計算手段125にて水平角度を求める。   Next, for each camera position on the camera path on the three-dimensional virtual space editor obtained by the coordinate conversion means 122, the shooting condition deriving unit 12 is based on the coordinate data and the value of the origin coordinate of the temporary object in the object coordinate system. Vector calculation is performed, the vertical angle calculation unit 124 obtains the vertical angle, and the horizontal angle calculation unit 125 obtains the horizontal angle.

垂直角度は、カメラ及び被写体中心を結んだ線と水平面との成す角度であり、水平角度は、水平面上において、被写体中心と被写体の所定の位置とを結ぶ線、並びに被写体中心とカメラ位置とを結ぶ線の角度である。これら撮影距離、垂直角度、水平角度等のパラメータは、周知の技術で算出できる。   The vertical angle is an angle formed by a line connecting the camera and the subject center and the horizontal plane, and the horizontal angle is a line connecting the subject center and a predetermined position of the subject and the subject center and the camera position on the horizontal plane. The angle of the connecting line. Parameters such as the shooting distance, the vertical angle, and the horizontal angle can be calculated by a known technique.

撮影距離、垂直角度及び水平角度を求めた後、撮影条件導出部12は、撮影手順生成手段126により撮影手順を生成する。撮影手順は、例えば図13に示すように、撮影距離、垂直角度及び水平角度の撮影条件を1セットとして、それらを撮影順に記述したものである。撮影装置2は、撮影条件導出部12で生成した撮影手順に含まれる各撮影条件を順次読み込むことで、該撮影条件にしたがって複数の方向から被写体を撮影する。   After obtaining the shooting distance, the vertical angle, and the horizontal angle, the shooting condition derivation unit 12 generates a shooting procedure by the shooting procedure generation unit 126. For example, as shown in FIG. 13, the shooting procedure describes shooting conditions of shooting distance, vertical angle, and horizontal angle as one set, and describes them in the shooting order. The photographing apparatus 2 sequentially reads each photographing condition included in the photographing procedure generated by the photographing condition deriving unit 12 to photograph a subject from a plurality of directions according to the photographing condition.

ところで、撮影経路が単純である場合、撮影手順の決定は困難ではない。しかしながら、撮影経路が複雑な場合は、撮影時間が最短となる撮影手順を求めることは困難であるため、公知のアルゴリズムにより近似解を求めて撮影手順を決定する必要がある。従来、これらのパラメータは、利用者の経験則に基づき、撮影前に利用者の操作によって逐一設定していた。しかしながら、撮影手順に配慮しつつ、各種の撮影条件を手動で指定するのは手間がかかり、多様な撮影パターンを作ることも困難である。また、このとき生成した3次元モデルは、利用者が許容できないほどに動きがぎくしゃくして見えることがあった。   By the way, when the shooting route is simple, it is not difficult to determine the shooting procedure. However, when the shooting route is complicated, it is difficult to obtain a shooting procedure that takes the shortest shooting time. Therefore, it is necessary to obtain an approximate solution using a known algorithm to determine the shooting procedure. Conventionally, these parameters have been set one by one by user operation before photographing based on the user's rule of thumb. However, it is troublesome to manually specify various shooting conditions while taking the shooting procedure into account, and it is difficult to create various shooting patterns. In addition, the generated three-dimensional model sometimes appears jerky so that the user cannot accept it.

一方、本実施形態では、3次元仮想空間エディタ上に設定した座標データから撮影条件を全て計算で求めることができるので、撮影装置2に与える撮影条件を自動的に求めることができる。また、撮影条件導出部12は、利用者の視覚特性を考慮して撮影条件を求めるため、3次元モデルの動きも実用上容認できる滑らかさを備えている。
(3)被写体撮影部
次に図1に示した撮影装置2が備える被写体撮影部21について図面を用いて説明する。
On the other hand, in this embodiment, since all the photographing conditions can be obtained from the coordinate data set on the three-dimensional virtual space editor, the photographing conditions given to the photographing apparatus 2 can be automatically obtained. Further, since the photographing condition deriving unit 12 obtains the photographing condition in consideration of the visual characteristics of the user, the photographing condition deriving unit 12 has smoothness that allows the movement of the three-dimensional model to be practically acceptable.
(3) Subject Photographing Unit Next, the subject photographing unit 21 provided in the photographing apparatus 2 shown in FIG. 1 will be described with reference to the drawings.

被写体撮影部21は、編集装置1から上記撮影条件を受信し、該撮影条件にしたがって被写体を撮影する。被写体撮影部21は、カメラを備え、編集装置1から受信した撮影条件にしたがってカメラと被写体の相対位置を変更しながら撮影するための手段を備えている。   The subject photographing unit 21 receives the photographing conditions from the editing apparatus 1 and photographs the subject according to the photographing conditions. The subject photographing unit 21 includes a camera and means for photographing while changing the relative position between the camera and the subject in accordance with the photographing condition received from the editing device 1.

図14は図1に示した被写体撮影部の一構成例を示す斜視図である。   FIG. 14 is a perspective view showing a configuration example of the subject photographing unit shown in FIG.

図14に示すように、被写体撮影部21は、画像撮影装置214、テーブル212、背景表示装置213、スイッチ215及び制御装置216を備えた構成である。図14に示す被写体撮影部21の構成及びその画像処理方法については、例えば上記非特許文献1及び特開2001−148021号公報に記載されている。   As illustrated in FIG. 14, the subject photographing unit 21 includes an image photographing device 214, a table 212, a background display device 213, a switch 215, and a control device 216. The configuration of the subject photographing unit 21 and the image processing method thereof shown in FIG. 14 are described in, for example, the non-patent document 1 and Japanese Patent Laid-Open No. 2001-148021.

図14に示すように、被写体211は、撮影時、テーブル212上に設置され、背景表示装置213に表示された画像を背景に、カメラ等である画像撮影装置214によって撮影される。制御装置216は、編集装置1から受信した撮影条件にしたがって、被写体211が写った2次元静止画像から背景を除去するために、スイッチ215及び背景表示装置213を操作する。なお、背景の除去方法については上記非特許文献1に記載されている。   As shown in FIG. 14, the subject 211 is placed on the table 212 at the time of photographing, and is photographed by the image photographing device 214 such as a camera against the background displayed on the background display device 213. The control device 216 operates the switch 215 and the background display device 213 in order to remove the background from the two-dimensional still image in which the subject 211 is captured according to the shooting conditions received from the editing device 1. The background removal method is described in Non-Patent Document 1.

以下、画像撮影装置214による被写体211の撮影位置の制御方法について説明する。   Hereinafter, a method for controlling the shooting position of the subject 211 by the image shooting device 214 will be described.

制御装置216は、例えば図13に示した撮影条件ファイルを読み込み、該撮影条件ファイルで規定された撮影条件にしたがって被写体を撮影する。図13に示した撮影条件ファイルにしたがうと、制御装置216はテーブル212を水平方向に15度単位で回転させながら撮影する。図13に示した撮影条件ファイルは、被写体撮影部21が図14に示した構成であることを想定して、撮影距離(カメラ距離)が固定値に設定された例である。   For example, the control device 216 reads the photographing condition file shown in FIG. 13 and photographs the subject according to the photographing conditions defined in the photographing condition file. According to the imaging condition file shown in FIG. 13, the control device 216 performs imaging while rotating the table 212 in units of 15 degrees in the horizontal direction. The shooting condition file shown in FIG. 13 is an example in which the shooting distance (camera distance) is set to a fixed value assuming that the subject shooting unit 21 has the configuration shown in FIG.

なお、被写体撮影部21は、図14に示した構成に限定されるものではなく、例えば、被写体211を中心に、画像撮影装置214を半球面状に動かすことができるロボットアーム等を供えていてもよい。そのような構成では、垂直方向の撮影間隔も制御装置216によって制御できる。また、ロボットアーム等を備える構成では、画像撮影装置214と被写体211間の距離を変更することも可能である。撮影距離がロボットアームの可動範囲外にある場合は、例えば画像撮影装置214が備えるレンズの焦点距離を調整することで対応してもよい。   Note that the subject photographing unit 21 is not limited to the configuration illustrated in FIG. 14, and includes, for example, a robot arm that can move the image photographing device 214 in a hemispherical shape with the subject 211 as the center. Also good. In such a configuration, the vertical imaging interval can also be controlled by the control device 216. In a configuration including a robot arm or the like, the distance between the image capturing device 214 and the subject 211 can be changed. When the shooting distance is outside the movable range of the robot arm, for example, the focal length of a lens provided in the image shooting device 214 may be adjusted.

このように、制御装置216によって、画像撮影装置214、テーブル212、背景表示装置213及びスイッチ215を制御して被写体211を撮影することで、複数の2次元静止画像を取得できる。
(4)3次元モデル生成部
次に図1に示した撮影装置2が備える3次元モデル生成部22について図面を用いて説明する。
In this way, the control device 216 controls the image photographing device 214, the table 212, the background display device 213, and the switch 215 to photograph the subject 211, whereby a plurality of two-dimensional still images can be acquired.
(4) 3D Model Generation Unit Next, the 3D model generation unit 22 included in the photographing apparatus 2 shown in FIG. 1 will be described with reference to the drawings.

3次元モデル生成部22は、被写体撮影部21が図14に示した構成である場合、制御装置216に3次元モデルを生成するためのプログラムを搭載することで実現できる。   If the subject photographing unit 21 has the configuration shown in FIG. 14, the three-dimensional model generation unit 22 can be realized by installing a program for generating a three-dimensional model in the control device 216.

3次元モデル生成部22は、被写体撮影部21から出力される被写体を撮影することで得られた複数の2次元静止画像及びそれらの撮影情報を基に3次元モデルを生成する。3次元モデルには、被写体の寸法、被写体を撮影することで得られた複数の2次元静止画像、2次元静止画像内の被写体を示す複数のマスク画像及び被写体を撮影したときの撮影情報(被写体との距離、角度、解像度、画角等)等のデータが含まれる。被写体寸法は、例えば周知のShape from Silhouette法、あるいは被写体の正面画像及び側面画像を用いて算出することができる。マスク画像は、周知のクロマキー法や上記非特許文献1及び特開2004−46776号公報に記載された方法を用いて生成できる。
(5)動画像生成部
次に図1に示した編集装置1が備える動画像生成部13について図面を用いて説明する。
The three-dimensional model generation unit 22 generates a three-dimensional model based on a plurality of two-dimensional still images obtained by photographing the subject output from the subject photographing unit 21 and their photographing information. The three-dimensional model includes a subject size, a plurality of two-dimensional still images obtained by photographing the subject, a plurality of mask images indicating subjects in the two-dimensional still image, and photographing information when the subject is photographed (subject Distance, angle, resolution, angle of view, etc.). The subject size can be calculated using, for example, the well-known Shape from Silhouette method, or the front and side images of the subject. The mask image can be generated using a well-known chroma key method or a method described in Non-Patent Document 1 and Japanese Patent Application Laid-Open No. 2004-46776.
(5) Moving Image Generating Unit Next, the moving image generating unit 13 provided in the editing apparatus 1 shown in FIG. 1 will be described with reference to the drawings.

動画像生成部13は、仮想空間情報生成部11で生成した動作情報及び3次元モデル生成部22で生成した3次元モデルを用いて動画像を生成する。   The moving image generation unit 13 generates a moving image using the movement information generated by the virtual space information generation unit 11 and the three-dimensional model generated by the three-dimensional model generation unit 22.

動画像生成部13は、3次元モデル生成部22から3次元モデルのデータを受け取ると、3次元モデルのサイズ及びカメラパスのズレを補正する。そして、3次元仮想空間エディタ上に構築した動作情報と3次元モデルから各静止画の画像シーケンスを出力することで動画像を生成する。なお、動画像生成部13には、動画像を生成する前に最終出力を確認するためのプレビュー機能等を備えていてもよい。プレビュー画像により利用者が所望の動画像でない場合は仮想空間情報生成部11の処理に戻って動作情報を修正すればよい。   When receiving the 3D model data from the 3D model generation unit 22, the moving image generation unit 13 corrects the size of the 3D model and the camera path deviation. Then, a moving image is generated by outputting an image sequence of each still image from the motion information and the three-dimensional model constructed on the three-dimensional virtual space editor. Note that the moving image generation unit 13 may include a preview function or the like for confirming the final output before generating a moving image. If the preview image does not show the user's desired moving image, the operation information may be corrected by returning to the processing of the virtual space information generating unit 11.

図15は図1に示した動画像生成部の一構成例を示すブロック図である。   FIG. 15 is a block diagram illustrating a configuration example of the moving image generation unit illustrated in FIG.

図15に示すように、動画像生成部13は、比較手段131、補正手段132及び画像シーケンス出力手段133を備えている。以下、図15に示す動画像生成部13の処理について説明する。   As illustrated in FIG. 15, the moving image generation unit 13 includes a comparison unit 131, a correction unit 132, and an image sequence output unit 133. Hereinafter, processing of the moving image generation unit 13 illustrated in FIG. 15 will be described.

動画像生成部13は、まず比較手段131により、仮想空間情報生成部11で生成した仮オブジェクトと3次元モデル生成部22で生成した3次元モデルのサイズを比較する。仮想空間情報生成部11は仮オブジェクトを概略形状で生成するため、この概略形状の仮オブジェクトを3次元モデルに外接することで上記サイズの比較処理を行う。   First, the moving image generation unit 13 compares the size of the temporary object generated by the virtual space information generation unit 11 and the size of the 3D model generated by the 3D model generation unit 22 by the comparison unit 131. Since the virtual space information generation unit 11 generates a temporary object with a rough shape, the virtual object information generation unit 11 circumscribes the rough shape of the temporary object with the three-dimensional model to perform the size comparison process.

なお、仮オブジェクトは、被写体をラフに撮影した2次元静止画像を用いて生成することも可能である。そのような場合は、仮オブジェクトと3次元モデルのサイズが同じであるため、サイズの比較処理を行う必要はない。   The temporary object can be generated using a two-dimensional still image obtained by roughly photographing the subject. In such a case, since the sizes of the temporary object and the three-dimensional model are the same, it is not necessary to perform size comparison processing.

仮オブジェクトと3次元モデルのサイズが異なる場合、動画像生成部13は、補正手段132により3次元モデルをリサイズすると共に、3次元モデル生成前のプレビュー画像と本処理段階のプレビュー画像とのズレを抑制するためにカメラパスを補正する。カメラパスの補正は、3次元モデルのサイズを変更した場合、カメラパスは仮想空間情報生成部11にて生成した動作情報のままであるため、3次元モデルの位置は変わらなくても3次元モデルの見え方が変化する可能性があり、所望の動画像が得られないことがあるために実施する。必要であれば利用者の操作によりカメラパスをもう一度編集してもよい。仮オブジェクトは3次元モデルのリサイズが終了すると削除される。3次元モデルのリサイズを行う必要が無い場合は3次元モデル生成部22から3次元モデルのデータを受信した段階で削除される。   When the sizes of the temporary object and the 3D model are different, the moving image generation unit 13 resizes the 3D model by the correction unit 132 and shifts the preview image before the generation of the 3D model from the preview image at this processing stage. Correct the camera path to suppress. In the camera path correction, when the size of the 3D model is changed, the camera path remains the motion information generated by the virtual space information generation unit 11, and thus the 3D model is not changed even if the position of the 3D model is not changed. This is performed because there is a possibility that the appearance of the image may change and a desired moving image may not be obtained. If necessary, the camera path may be edited again by user operation. The temporary object is deleted when resizing of the three-dimensional model is completed. If there is no need to resize the 3D model, it is deleted when the 3D model data is received from the 3D model generator 22.

最後に、動画像生成部13は、画像シーケンス出力手段133によりタイムラインインタフェースにて設定したフレームレートを用いて3次元モデルを含む動作情報を画像シーケンスに変換して動画像を生成する。画像シーケンスへ変換することで、AVI、QUICKTIME、MPEG、DIVX等の広く普及しているフォーマットを利用して動画像を再生できる。なお、画像シーケンス出力手段133は、画像フレームをまとめて1つのデータとすることで動画像を出力してもよく、画像フレーム単位で1枚ずつ出力してもよい。
(6)動画像表示部
次に図1に示した表示装置3が備える動画像表示部31について図面を用いて説明する。
Finally, the moving image generation unit 13 converts the operation information including the three-dimensional model into an image sequence using the frame rate set by the image sequence output unit 133 through the timeline interface, and generates a moving image. By converting to an image sequence, a moving image can be reproduced using a widely used format such as AVI, QUICKTIME, MPEG, or DIVX. Note that the image sequence output unit 133 may output a moving image by combining image frames into one data, or may output each image frame by image.
(6) Moving Image Display Unit Next, the moving image display unit 31 included in the display device 3 illustrated in FIG. 1 will be described with reference to the drawings.

動画像生成部13で生成した画像データは表示装置3に送られ、動画像表示部31にて表示することで利用者に動画像を提供する。動画像表示部31は、例えばCRTモニタや液晶ディスプレイ、プラズマディスプレイ、テレビ等の表示装置で実現できる。   The image data generated by the moving image generation unit 13 is sent to the display device 3 and displayed on the moving image display unit 31 to provide a moving image to the user. The moving image display unit 31 can be realized by a display device such as a CRT monitor, a liquid crystal display, a plasma display, or a television.

動画像表示部31に表示される動画像は、利用者の視覚特性を考慮して生成した3次元モデルに基づいて生成しているため、3次元モデルの基になる撮影画像の枚数が削減されているが、利用者に滑らかに動作していると許容される動画像を表示することができる。   Since the moving image displayed on the moving image display unit 31 is generated based on the three-dimensional model generated in consideration of the visual characteristics of the user, the number of captured images on which the three-dimensional model is based is reduced. However, it is possible to display a moving image that is allowed to be smoothly operated by the user.

本発明によれば、知覚実験の結果から一定水準の画質を持つ撮影枚数を導くことにより、撮影枚数を削減しつつ、利用者に3次元モデルの動きが滑らかであると知覚される動画像を生成できる。例えば、3次元モデルの動きが等速回転運動の場合、本発明では撮影枚数をおよそ30%から60%程度削減できる効果が期待できる。   According to the present invention, by deriving the number of shots having a certain level of image quality from the result of a perceptual experiment, a moving image that the user perceives as a smooth movement of the three-dimensional model while reducing the number of shots is obtained. Can be generated. For example, when the movement of the three-dimensional model is constant speed rotation, the present invention can be expected to reduce the number of shots by about 30% to 60%.

本発明の手法を用いて生成した動画像の評価を実施した結果、標準画質と比べると画質が劣化していることが判別できるものの、利用者にとって容認できる水準の画質であることが確認できた。したがって、本発明を用いることで、実用上、十分な画質を備えた動画像を迅速に生成できる。   As a result of evaluating a moving image generated using the method of the present invention, it was possible to determine that the image quality was deteriorated compared to the standard image quality, but it was confirmed that the image quality was acceptable for the user. . Therefore, by using the present invention, it is possible to quickly generate a moving image having sufficient image quality in practical use.

本発明の動画像生成システムの一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the moving image generation system of this invention. 図1に示した動画像生成システムが備えるコンピュータシステムの一構成例を示すブロック図である。It is a block diagram which shows one structural example of the computer system with which the moving image generation system shown in FIG. 1 is provided. 本発明の動画像生成方法の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the moving image generation method of this invention. 最小サンプリング曲線を示すグラフ及び該最小サンプリング曲線を用いた従来の3次元CGの生成手順を示すフローチャートである。It is a flowchart which shows the production | generation procedure of the graph which shows the minimum sampling curve, and the conventional 3-dimensional CG using this minimum sampling curve. 図1に示した仮想空間情報生成部VPの一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the virtual space information generation part VP shown in FIG. 図1に示した仮想空間情報生成部によるカメラパスの設定例を示す模式図である。It is a schematic diagram which shows the example of a camera path setting by the virtual space information generation part shown in FIG. タイムラインインタフェースによる設定画面の一例を示す模式図である。It is a schematic diagram which shows an example of the setting screen by a timeline interface. 図1に示した撮影条件導出部の一構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of an imaging condition derivation unit illustrated in FIG. 1. 知覚実験の分析結果を示す図であり、同図(a)はROC曲線を示すグラフ、同図(b)はフレームレートに対応する感度の値及び標準誤差を示すテーブル図である。It is a figure which shows the analysis result of a perception experiment, The figure (a) is a graph which shows a ROC curve, The figure (b) is a table figure which shows the value of sensitivity corresponding to a frame rate, and a standard error. 動画像のフレームレートと被験者によって滑らかであると判定された確率の関係を示すグラフである。It is a graph which shows the relationship between the frame rate of a moving image, and the probability determined to be smooth by a test subject. F50%THの値を被写体の撮影間隔A[deg]に変換したとき、その値と回転周期T[sec]との関係を示すグラフである。It is a graph which shows the relationship between the value and the rotation period T [sec] when the value of F50% TH is converted into the photographing interval A [deg] of the subject. 座標変換手段によって求めたカメラ位置の座標データの一例を示すテーブル図である。It is a table figure which shows an example of the coordinate data of the camera position calculated | required by the coordinate conversion means. 撮影条件導出部で生成する撮影条件の一例を示すテーブル図である。It is a table figure which shows an example of the imaging condition produced | generated in an imaging condition deriving part. 図1に示した被写体撮影部の一構成例を示す斜視図である。FIG. 2 is a perspective view illustrating a configuration example of a subject photographing unit illustrated in FIG. 1. 図1に示した動画像生成部の一構成例を示すブロック図である。It is a block diagram which shows one structural example of the moving image generation part shown in FIG.

符号の説明Explanation of symbols

1 編集装置
2 撮影装置
3 表示装置
4 ネットワーク
11 仮想空間情報生成部
12 撮影条件導出部
13 動画像生成部
21 被写体撮影部
22 3次元モデル生成部
31 動画像表示部
5 コンピュータシステム
51 CPU
52 メモリ
53 ハードディスク
54 入力装置
55 出力装置
56 CD−ROMドライブ
111 仮オブジェクト生成手段
112 カメラパス生成手段
113 注視点指定手段
114 動作情報生成手段
121 撮影間隔最大化手段
122 座標変換手段
123 撮影距離計算手段
124 垂直角度計算手段
125 水平角度計算手段
126 撮影手順生成手段
131 比較手段
132 補正手段
133 画像シーケンス出力手段
211 被写体
212 テーブル
213 背景表示装置
214 画像撮影装置
215 スイッチ
216 制御装置
DESCRIPTION OF SYMBOLS 1 Editing apparatus 2 Imaging device 3 Display apparatus 4 Network 11 Virtual space information generation part 12 Imaging condition derivation part 13 Moving image generation part 21 Subject imaging part 22 3D model generation part 31 Moving image display part 5 Computer system 51 CPU
52 Memory 53 Hard Disk 54 Input Device 55 Output Device 56 CD-ROM Drive 111 Temporary Object Generation Unit 112 Camera Path Generation Unit 113 Gaze Point Specification Unit 114 Motion Information Generation Unit 121 Shooting Interval Maximization Unit 122 Coordinate Conversion Unit 123 Shooting Distance Calculation Unit 123 124 vertical angle calculation means 125 horizontal angle calculation means 126 photographing procedure generation means 131 comparison means 132 correction means 133 image sequence output means 211 subject 212 table 213 background display device 214 image photographing device 215 switch 216 control device

Claims (8)

複数の方向から被写体を撮影することで得られる複数の2次元静止画像を用いて、該被写体の3次元モデルを含む3次元仮想空間の動画像を生成するための動画像生成方法であって、
コンピュータが、
前記3次元仮想空間における前記3次元モデルの動作及び視点位置の移動経路を規定するための動作情報を生成し、
前記動作情報から、利用者から見て前記3次元モデルの動きが滑らかであり、かつ前記被写体の撮影間隔が最大になる、前記被写体の撮影条件を決定し、
前記撮影条件にしたがって撮影装置に前記被写体を撮影させて複数の2次元静止画像を取得し、
前記複数の2次元静止画像を用いて前記3次元モデルを生成し、
前記動作情報及び生成した3次元モデルを含む3次元仮想空間の動画像を生成する動画像生成方法。
A moving image generation method for generating a moving image in a three-dimensional virtual space including a three-dimensional model of a subject using a plurality of two-dimensional still images obtained by photographing the subject from a plurality of directions,
Computer
Generating motion information for defining the motion of the three-dimensional model in the three-dimensional virtual space and the movement path of the viewpoint position;
From the operation information, the shooting conditions of the subject are determined such that the movement of the three-dimensional model is smooth when viewed from the user and the shooting interval of the subject is maximized,
According to the photographing conditions, the photographing device is photographed to obtain a plurality of two-dimensional still images,
Generating the three-dimensional model using the plurality of two-dimensional still images;
A moving image generation method for generating a moving image in a three-dimensional virtual space including the movement information and the generated three-dimensional model.
前記被写体の撮影条件の決定処理として、
前記利用者から見て前記3次元モデルの動きが滑らかであり、かつ前記被写体の撮影間隔が最大になる、前記被写体の撮影枚数が最も少なくなる撮影角度の間隔を決定し、
前記3次元仮想空間における前記視点位置の座標を計算し、
前記撮影装置と前記被写体間の撮影距離を決定し、
前記撮影装置による、垂直方向の撮影間隔の角度を計算し、
前記撮影装置による、水平方向の撮影間隔の角度を計算し、
前記利用者が設定した撮影経路に沿って撮影するための撮影手順を生成する請求項1記載の動画像生成方法。
As a process for determining the shooting condition of the subject,
Determining a shooting angle interval at which the movement of the three-dimensional model is smooth when viewed from the user, and the shooting interval of the subject is maximized, and the number of captured subjects is minimized;
Calculating coordinates of the viewpoint position in the three-dimensional virtual space;
Determining a shooting distance between the shooting device and the subject;
Calculate the angle of the shooting interval in the vertical direction by the shooting device,
Calculate the angle of the horizontal shooting interval by the imaging device,
The moving image generation method according to claim 1, wherein a shooting procedure for shooting along a shooting route set by the user is generated.
複数の方向から被写体を撮影することで得られる複数の2次元静止画像を用いて、該被写体の3次元モデルを含む3次元仮想空間の動画像を生成するための動画像生成システムであって、
前記3次元仮想空間における前記3次元モデルの動作及び視点位置の移動経路を規定するための動作情報を生成する仮想空間情報生成部、前記動作情報から、利用者から見て前記3次元モデルの動きが滑らかであり、かつ前記被写体の撮影間隔が最大になる、前記被写体の撮影条件を決定する撮影条件導出部、並びに前記動作情報及び複数の2次元静止画像から生成した3次元モデルを含む3次元仮想空間の動画像を生成する動画像生成部を備えた編集装置と、
前記撮影条件にしたがって撮影装置で前記被写体を撮影し、複数の2次元静止画像を取得する被写体撮影部及び前記複数の2次元静止画像を用いて前記3次元モデルを生成する3次元モデル生成部備えた撮影装置と、
を有する動画像生成システム。
A moving image generation system for generating a moving image of a three-dimensional virtual space including a three-dimensional model of a subject using a plurality of two-dimensional still images obtained by photographing the subject from a plurality of directions,
A virtual space information generating unit that generates motion information for defining a motion of the 3D model and a movement path of a viewpoint position in the 3D virtual space; a motion of the 3D model as viewed from a user from the motion information 3D including a shooting condition deriving unit for determining shooting conditions of the subject, and a three-dimensional model generated from the motion information and a plurality of two-dimensional still images, in which the shooting interval of the subject is maximized An editing device including a moving image generation unit for generating a moving image of a virtual space;
A subject photographing unit that photographs the subject with a photographing device according to the photographing condition and obtains a plurality of two-dimensional still images, and a three-dimensional model generation unit that generates the three-dimensional model using the plurality of two-dimensional still images. Photographing device,
A moving image generation system.
前記撮影条件導出部は、
前記利用者から見て前記3次元モデルの動きが滑らかであり、かつ前記被写体の撮影間隔が最大になる、前記被写体の撮影枚数が最も少なくなる撮影角度の間隔を決定する撮影間隔最大化手段と、
前記3次元仮想空間における前記視点位置の座標を計算する座標変換手段と、
前記撮影装置と前記被写体間の撮影距離を決定する撮影距離計算手段と、
前記撮影装置による、垂直方向の撮影間隔の角度を計算する垂直角度計算手段と、
前記撮影装置による、水平方向の撮影間隔の角度を計算する水平角度計算手段と、
前記利用者が設定した撮影経路に沿って撮影するための撮影手順を生成する撮影手順生成手段と、
を有する請求項3記載の動画像生成システム。
The photographing condition deriving unit
Shooting interval maximizing means for determining a shooting angle interval at which the movement of the three-dimensional model is smooth as viewed from the user, the shooting interval of the subject is maximized, and the number of shots of the subject is minimized; ,
Coordinate conversion means for calculating coordinates of the viewpoint position in the three-dimensional virtual space;
Shooting distance calculation means for determining a shooting distance between the shooting device and the subject;
Vertical angle calculation means for calculating the angle of the vertical shooting interval by the imaging device;
Horizontal angle calculation means for calculating the angle of the horizontal shooting interval by the imaging device;
Photographing procedure generating means for generating a photographing procedure for photographing along the photographing route set by the user;
The moving image generating system according to claim 3.
複数の方向から被写体を撮影することで得られる複数の2次元静止画像を用いて、該被写体の3次元モデルを含む3次元仮想空間の動画像を生成するための動画像生成システムに備える編集装置であって、
前記3次元仮想空間における前記3次元モデルの動作及び視点位置の移動経路を規定するための動作情報を生成する仮想空間情報生成部と、
前記動作情報から、利用者から見て前記3次元モデルの動きが滑らかであり、かつ前記被写体の撮影間隔が最大になる、前記被写体の撮影条件を決定する撮影条件導出部と、
前記動作情報及び複数の2次元静止画像から生成した3次元モデルを含む3次元仮想空間の動画像を生成する動画像生成部と、
を有する編集装置。
An editing apparatus provided in a moving image generation system for generating a moving image in a three-dimensional virtual space including a three-dimensional model of a subject using a plurality of two-dimensional still images obtained by photographing the subject from a plurality of directions Because
A virtual space information generation unit that generates operation information for defining the movement of the three-dimensional model and the movement path of the viewpoint position in the three-dimensional virtual space;
From the operation information, a shooting condition deriving unit that determines shooting conditions of the subject in which the movement of the three-dimensional model is smooth when viewed from the user and the shooting interval of the subject is maximized;
A moving image generating unit that generates a moving image of a three-dimensional virtual space including a three-dimensional model generated from the motion information and a plurality of two-dimensional still images;
An editing device.
前記撮影条件導出部は、
前記利用者から見て前記3次元モデルの動きが滑らかであり、かつ前記被写体の撮影間隔が最大になる、前記被写体の撮影枚数が最も少なくなる撮影角度の間隔を決定する撮影間隔最大化手段と、
前記3次元仮想空間における前記視点位置の座標を計算する座標変換手段と、
撮影装置と前記被写体間の撮影距離を決定する撮影距離計算手段と、
前記撮影装置による、垂直方向の撮影間隔の角度を計算する垂直角度計算手段と、
前記撮影装置による、水平方向の撮影間隔の角度を計算する水平角度計算手段と、
前記利用者が設定した撮影経路に沿って撮影するための撮影手順を生成する撮影手順生成手段と、
を有する請求項5記載の編集装置。
The photographing condition deriving unit
Shooting interval maximizing means for determining a shooting angle interval at which the movement of the three-dimensional model is smooth as viewed from the user, the shooting interval of the subject is maximized, and the number of shots of the subject is minimized; ,
Coordinate conversion means for calculating coordinates of the viewpoint position in the three-dimensional virtual space;
Shooting distance calculation means for determining a shooting distance between the shooting device and the subject;
Vertical angle calculation means for calculating the angle of the vertical shooting interval by the imaging device;
Horizontal angle calculation means for calculating the angle of the horizontal shooting interval by the imaging device;
Photographing procedure generating means for generating a photographing procedure for photographing along the photographing route set by the user;
The editing apparatus according to claim 5.
複数の方向から被写体を撮影することで得られる複数の2次元静止画像を用いて、該被写体の3次元モデルを含む3次元仮想空間の動画像を生成するための処理をコンピュータに実行させるためのプログラムであって、
前記3次元仮想空間における前記3次元モデルの動作及び視点位置の移動経路を規定するための動作情報を生成し、
前記動作情報から、利用者から見て前記3次元モデルの動きが滑らかであり、かつ前記被写体の撮影間隔が最大になる、前記被写体の撮影条件を決定し、
前記撮影条件にしたがって撮影装置に前記被写体を撮影させて複数の2次元静止画像を取得し、
前記複数の2次元静止画像を用いて前記3次元モデルを生成し、
前記動作情報及び生成した3次元モデルを含む3次元仮想空間の動画像を生成する処理をコンピュータに実行させるためのプログラム。
Using a plurality of two-dimensional still images obtained by photographing a subject from a plurality of directions to cause a computer to execute processing for generating a moving image in a three-dimensional virtual space including a three-dimensional model of the subject A program,
Generating motion information for defining the motion of the three-dimensional model in the three-dimensional virtual space and the movement path of the viewpoint position;
From the operation information, the shooting conditions of the subject are determined such that the movement of the three-dimensional model is smooth when viewed from the user and the shooting interval of the subject is maximized,
According to the photographing conditions, the photographing device is photographed to obtain a plurality of two-dimensional still images,
Generating the three-dimensional model using the plurality of two-dimensional still images;
A program for causing a computer to execute a process of generating a moving image of a three-dimensional virtual space including the movement information and the generated three-dimensional model.
前記被写体の撮影条件の決定処理として、
前記利用者から見て前記3次元モデルの動きが滑らかであり、かつ前記被写体の撮影間隔が最大になる、前記被写体の撮影枚数が最も少なくなる撮影角度の間隔を決定し、
前記3次元仮想空間における前記視点位置の座標を計算し、
前記撮影装置と前記被写体間の撮影距離を決定し、
前記撮影装置による、垂直方向の撮影間隔の角度を計算し、
前記撮影装置による、水平方向の撮影間隔の角度を計算し、
前記利用者が設定した撮影経路に沿って撮影するための撮影手順を生成する処理をコンピュータに実行させるための請求項7記載のプログラム。
As a process for determining the shooting condition of the subject,
Determining a shooting angle interval at which the movement of the three-dimensional model is smooth when viewed from the user, and the shooting interval of the subject is maximized, and the number of captured subjects is minimized;
Calculating coordinates of the viewpoint position in the three-dimensional virtual space;
Determining a shooting distance between the shooting device and the subject;
Calculate the angle of the shooting interval in the vertical direction by the shooting device,
Calculate the angle of the horizontal shooting interval by the imaging device,
The program according to claim 7 for causing a computer to execute processing for generating a shooting procedure for shooting along a shooting route set by the user.
JP2006328006A 2006-12-05 2006-12-05 Moving image generation method and system Expired - Fee Related JP4781981B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006328006A JP4781981B2 (en) 2006-12-05 2006-12-05 Moving image generation method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006328006A JP4781981B2 (en) 2006-12-05 2006-12-05 Moving image generation method and system

Publications (2)

Publication Number Publication Date
JP2008140297A true JP2008140297A (en) 2008-06-19
JP4781981B2 JP4781981B2 (en) 2011-09-28

Family

ID=39601654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006328006A Expired - Fee Related JP4781981B2 (en) 2006-12-05 2006-12-05 Moving image generation method and system

Country Status (1)

Country Link
JP (1) JP4781981B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019225682A1 (en) * 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 Three-dimensional reconstruction method and three-dimensional reconstruction device
JP7163257B2 (en) 2019-08-29 2022-10-31 Kddi株式会社 METHOD, APPARATUS, AND PROGRAM FOR GENERATING A MULTI-VIEW VIEW IMAGE USING A MOVEABLE IMAGE GENERATION SOURCE IMAGE
CN116027945A (en) * 2023-03-28 2023-04-28 深圳市人马互动科技有限公司 Animation information processing method and device in interactive story
JP7387792B2 (en) 2017-11-13 2023-11-28 キヤノン株式会社 Information processing device, information processing method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285894A (en) * 2000-03-31 2001-10-12 Olympus Optical Co Ltd Method for running three-dimensional image data
JP2006244306A (en) * 2005-03-04 2006-09-14 Nippon Telegr & Teleph Corp <Ntt> Animation generation system, animation generation device, animation generation method, program, and storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285894A (en) * 2000-03-31 2001-10-12 Olympus Optical Co Ltd Method for running three-dimensional image data
JP2006244306A (en) * 2005-03-04 2006-09-14 Nippon Telegr & Teleph Corp <Ntt> Animation generation system, animation generation device, animation generation method, program, and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7387792B2 (en) 2017-11-13 2023-11-28 キヤノン株式会社 Information processing device, information processing method and program
WO2019225682A1 (en) * 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 Three-dimensional reconstruction method and three-dimensional reconstruction device
JPWO2019225682A1 (en) * 2018-05-23 2021-05-27 パナソニックIpマネジメント株式会社 3D reconstruction method and 3D reconstruction device
JP7170224B2 (en) 2018-05-23 2022-11-14 パナソニックIpマネジメント株式会社 Three-dimensional generation method and three-dimensional generation device
JP7163257B2 (en) 2019-08-29 2022-10-31 Kddi株式会社 METHOD, APPARATUS, AND PROGRAM FOR GENERATING A MULTI-VIEW VIEW IMAGE USING A MOVEABLE IMAGE GENERATION SOURCE IMAGE
CN116027945A (en) * 2023-03-28 2023-04-28 深圳市人马互动科技有限公司 Animation information processing method and device in interactive story
CN116027945B (en) * 2023-03-28 2023-06-06 深圳市人马互动科技有限公司 Animation information processing method and device in interactive story

Also Published As

Publication number Publication date
JP4781981B2 (en) 2011-09-28

Similar Documents

Publication Publication Date Title
US11315214B2 (en) Mixed reality system with color virtual content warping and method of generating virtual con tent using same
JP4879326B2 (en) System and method for synthesizing a three-dimensional image
JP6395423B2 (en) Image processing apparatus, control method, and program
EP2033164B1 (en) Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
JP4285422B2 (en) Moving image generation system, moving image generation apparatus, moving image generation method, program, and recording medium
CN109615703A (en) Image presentation method, device and the equipment of augmented reality
TWI547901B (en) Simulating stereoscopic image display method and display device
JP2006244387A (en) Three-dimensional model generating device, and its method and program
JP2006249618A (en) Virtual try-on device
JP7285834B2 (en) Three-dimensional reconstruction method and three-dimensional reconstruction apparatus
JP2017194935A (en) 3D reconstruction method
JP7459870B2 (en) Image processing device, image processing method, and program
JP2023015119A (en) Generation of new frame using rendered content and non-rendered content from previous perspective
JP6541920B1 (en) INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD
JP4781981B2 (en) Moving image generation method and system
JP4892405B2 (en) Image processing apparatus and method
JP2010183384A (en) Photographic camera learning apparatus and program therefor
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
BR112020011100A2 (en) apparatus and method of image capture and computer program product
EP4036858A1 (en) Volumetric imaging
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP2014135006A (en) Image processing system, image processing method and program
US20210264684A1 (en) Fitting of glasses frames including live fitting
CA2252063C (en) System and method for generating stereoscopic image data
JP2002032783A (en) Method and device for generating three-dimensional model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110413

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110629

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110706

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees