JP4930905B2 - Imaging apparatus and program thereof - Google Patents

Imaging apparatus and program thereof Download PDF

Info

Publication number
JP4930905B2
JP4930905B2 JP2007268901A JP2007268901A JP4930905B2 JP 4930905 B2 JP4930905 B2 JP 4930905B2 JP 2007268901 A JP2007268901 A JP 2007268901A JP 2007268901 A JP2007268901 A JP 2007268901A JP 4930905 B2 JP4930905 B2 JP 4930905B2
Authority
JP
Japan
Prior art keywords
frame
subject
parameter
detected
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007268901A
Other languages
Japanese (ja)
Other versions
JP2009100167A (en
Inventor
佳代 上瀧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007268901A priority Critical patent/JP4930905B2/en
Publication of JP2009100167A publication Critical patent/JP2009100167A/en
Application granted granted Critical
Publication of JP4930905B2 publication Critical patent/JP4930905B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮影装置及びそのプログラムに係り、詳しくは、実写によるアニメーション動画の作成を支援する機能有した撮影装置及びそのプログラムに関する。   The present invention relates to a photographing apparatus and a program thereof, and more particularly, to a photographing apparatus having a function for supporting creation of an animation moving image by a live action and a program thereof.

アニメーション動画の作成を支援するカメラであって、アニメーション動画を構成する各コマ(フレーム)の撮影時に、このアニメーション動画における動く物体の撮影フレーム内での位置を案内表示する技術が知られている(特許文献1)。   A camera that supports creation of an animation movie, and a technique for guiding and displaying the position of a moving object in the animation movie in a shooting frame when shooting each frame (frame) constituting the animation movie is known ( Patent Document 1).

公開特許公報 特開2003−37808JP Patent Publication No. 2003-37808

しかしながら、特許文献1の技術によれば、ユーザが指定した物体の位置や直前のコマ(フレーム)における物体の位置を案内表示するだけなので、複数のコマ(フレーム)に渡って物体が所望の状態で滑らかに動くように、物体を設置して撮影を行うことはできなかった。   However, according to the technique of Patent Document 1, since only the position of the object specified by the user or the position of the object in the immediately preceding frame (frame) is guided and displayed, the object is in a desired state over a plurality of frames (frames). In order to move smoothly, it was impossible to shoot with an object installed.

そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、被写体が滑らかに動くような実写アニメーション動画を容易に作成できるように支援する撮影装置及びそのプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of such conventional problems, and an object of the present invention is to provide a photographing apparatus and a program for assisting so that a live-action animation moving image in which a subject moves smoothly can be easily created. To do.

上記目的達成のため、請求項1記載の発明による撮影装置は、撮影された複数の画像データを用いて所定の被写体の動きを表現した実写アニメーション動画の作成を支援する撮影手段と電子ファインダを備えた撮影装置であって、
前記実写アニメーション動画を構成する各フレームに対応させて、前記所定の被写体の状態を示したパラメータを生成する生成手段と、
前記生成手段により生成されたパラメータに基づいて、各フレームの撮影の際に、撮影するフレームに対応する前記被写体の撮影予定状態を前記電子ファインダに案内表示させる案内表示制御手段と、
前記案内表示制御手段による案内表示に対応して前記撮影手段により撮影された各フレームの画像データに基づいて動画データを生成する動画生成手段と、
を備えたことを特徴とする。
In order to achieve the above object, a photographing apparatus according to a first aspect of the present invention comprises photographing means and an electronic viewfinder that support creation of a live-action animation movie that expresses the movement of a predetermined subject using a plurality of photographed image data. A photographing device,
Generating means for generating a parameter indicating the state of the predetermined subject in correspondence with each frame constituting the live-action animation video;
Based on the parameters generated by the generating means, guidance display control means for guiding and displaying the planned shooting state of the subject corresponding to the frame to be shot on the electronic viewfinder when shooting each frame;
Moving image generation means for generating moving image data based on image data of each frame imaged by the imaging means corresponding to the guidance display by the guidance display control means;
It is provided with.

また、例えば、請求項2に記載されているように、前記実写アニメーション動画の背景部分に対応した3次元空間内での前記所定の被写体の動きを特定する特定手段と、
前記生成手段は、
前記実写アニメーション動画における各フレームが再生されるタイミング情報に従って、前記特定手段によって特定された前記3次元空間内での前記所定の被写体の動きを、各フレームに対応した前記所定の被写体の状態に変換することにより、前記パラメータを生成するようにしてもよい。
Further, for example, as described in claim 2, a specifying unit that specifies the movement of the predetermined subject in a three-dimensional space corresponding to a background portion of the live-action animation movie,
The generating means includes
The movement of the predetermined subject in the three-dimensional space specified by the specifying means is converted into the state of the predetermined subject corresponding to each frame in accordance with timing information at which each frame in the live-action animation movie is reproduced. By doing so, the parameter may be generated.

また、例えば、請求項3に記載されているように、前記アニメーション動画を構成する各フレームのうち、一部のフレームに写る前記所定の被写体の状態を示すパラメータをユーザが入力するための入力手段を備え、
前記特定手段は、
前記入力手段により入力された一部のフレームに写る前記所定の被写体の状態を示すパラメータに基づいて、前記実写アニメーション動画の背景部分に対応した3次元空間内での前記所定の被写体の動きを特定するようにしてもよい。
In addition, for example, as described in claim 3, an input unit for a user to input a parameter indicating a state of the predetermined subject captured in a part of the frames constituting the animation moving image. With
The specifying means is:
The movement of the predetermined subject in the three-dimensional space corresponding to the background portion of the live-action animation movie is specified based on the parameter indicating the state of the predetermined subject that is captured in a part of the frames input by the input unit You may make it do.

また、例えば、請求項4に記載されているように、前記特定手段は、
前記入力手段により入力された一部のフレームに写る前記所定の被写体の状態を示すパラメータに基づいて、前記所定の被写体の動きが滑らかになるように、前記実写アニメーション動画の背景部分に対応した3次元空間内での前記所定の被写体の動きを特定するようにしてもよい。
For example, as described in claim 4, the specifying unit includes:
3 corresponding to the background portion of the live-action animation video so that the movement of the predetermined subject is smoothed based on the parameter indicating the state of the predetermined subject that is captured in a part of the frames input by the input means. The movement of the predetermined subject in the dimensional space may be specified.

また、例えば、請求項5に記載されているように、前記特定手段は、
前記所定の被写体の動きが滑らかになるように、前記入力手段により入力された一部のフレームに写る前記所定の被写体の状態を示すパラメータを修正して、前記実写アニメーション動画の背景部分に対応した3次元空間内での前記所定の被写体の動きを特定するようにしてもよい。
For example, as specified in claim 5, the specifying unit includes:
The parameter indicating the state of the predetermined subject captured in a part of the frames input by the input unit is corrected so that the movement of the predetermined subject is smooth, and the background corresponding to the background portion of the live-action animation moving image is corrected. The movement of the predetermined subject in the three-dimensional space may be specified.

また、例えば、請求項6に記載されているように、実際に撮影された画像データに基づいて、実際に撮影されたフレームに対応する前記所定の被写体の撮影状態を示すパラメータを検出する検出手段を備え、
前記特定手段は、
前記検出手段により検出されたパラメータに基づいて、前記実写アニメーション動画の背景部分に対応した3次元空間内での前記所定の被写体の動きを新たに特定するようにしてもよい。
Further, for example, as described in claim 6, based on actually captured image data, detection means for detecting a parameter indicating a photographing state of the predetermined subject corresponding to the actually photographed frame With
The specifying means is:
Based on the parameter detected by the detection means, the movement of the predetermined subject in the three-dimensional space corresponding to the background portion of the live-action animation movie may be newly specified.

また、例えば、請求項7に記載されているように、前記特定手段は、
前記検出手段により検出された、少なくともパラメータを生成する現フレームの直前の2フレームの状態に基づいて、前記所定の被写体の移動の方向と速度を特定し、
前記生成手段は、
該検出された移動の方向及び速度に基づいて、該現フレームのパラメータを生成するようにしてもよい。
For example, as described in claim 7, the specifying unit includes
Identifying a direction and speed of movement of the predetermined subject based on at least two frame states immediately before the current frame for generating a parameter detected by the detection means;
The generating means includes
The parameter of the current frame may be generated based on the detected direction and speed of movement.

また、例えば、請求項8に記載されているように、前記特定手段は、
前記検出手段により検出された、少なくともパラメータを生成する現フレームの直前の3フレームの状態に基づいて、前記被写体の移動の方向と加速度を特定し、
前記生成手段は、
該検出された移動の方向及び加速度に基づいて、該現フレームのパラメータを生成するようにしてもよい。
For example, as described in claim 8, the specifying unit includes:
Identifying the direction and acceleration of movement of the subject based on at least the state of the three frames immediately before the current frame for generating the parameters detected by the detecting means;
The generating means includes
The parameter of the current frame may be generated based on the detected direction of movement and acceleration.

また、例えば、請求項9に記載されているように、前記特定手段は、
前記検出手段により検出された、少なくともパラメータを生成する現フレームの直前の2フレームの状態に基づいて、前記所定の被写体の向きが変化する方向と速度を特定し、
前記生成手段は、
該検出された向きが変化する方向及び速度に基づいて、該現フレームのパラメータを生成するようにしてもよい。
For example, as described in claim 9, the specifying means includes
Identifying a direction and a speed at which the direction of the predetermined subject changes based on at least two frame states immediately before the current frame for generating a parameter detected by the detection unit;
The generating means includes
The parameter of the current frame may be generated based on the direction and speed in which the detected direction changes.

また、例えば、請求項10に記載されているように、前記アニメーション動画を構成する各フレームのうち、一部のフレームに写る前記所定の被写体の状態を示すパラメータをユーザが入力するための入力手段を備え、
前記生成手段は、
前記入力手段により入力された一部のフレームに対応するパラメータに基づいて、該被写体の動きが滑らかになるように、この一部のフレーム以外の各フレームに対応する該被写体の状態を示したパラメータを生成するようにしてもよい。
Further, for example, as described in claim 10, an input unit for a user to input a parameter indicating a state of the predetermined subject captured in a part of the frames constituting the animation moving image. With
The generating means includes
A parameter indicating the state of the subject corresponding to each frame other than the part of the frame so that the movement of the subject is smooth based on the parameter corresponding to the part of the frame input by the input unit. May be generated.

また、例えば、請求項11に記載されているように、前記生成手段は、
前記所定の被写体の動きが滑らかになるように、前記入力手段により入力されたパラメータを修正して、各フレームに写る該被写体の状態を示したパラメータを生成するようにしてもよい。
For example, as described in claim 11, the generation unit includes:
The parameter input by the input unit may be corrected so that the predetermined subject moves smoothly, and a parameter indicating the state of the subject in each frame may be generated.

また、例えば、請求項12に記載されているように、実際に撮影された画像データに基づいて、実際に撮影されたフレームに対応する前記所定の被写体の撮影状態を検出する検出手段と、
前記検出手段により検出された前記所定の被写体の撮影状態に基づいて、前記生成手段により生成されたパラメータのうち、まだ撮影されていないフレーム部分のパラメータを修正する修正手段と、
を備えるようにしてもよい。
Further, for example, as described in claim 12, detection means for detecting a shooting state of the predetermined subject corresponding to the actually shot frame based on the actually shot image data;
Correction means for correcting a parameter of a frame portion that has not yet been photographed out of the parameters generated by the generation means based on the photographing state of the predetermined subject detected by the detection means;
You may make it provide.

また、例えば、請求項13に記載されているように、実際に撮影された各フレームの画像データに基づいて、実際に撮影された前記所定の被写体の撮影状態を検出する検出手段を備え、
前記生成手段は、
前記検出手段により検出された各フレームの前記所定の被写体の撮影状態に基づいて、まだ生成していないフレーム部分のパラメータを生成するようにしてもよい。
Further, for example, as described in claim 13, a detection unit that detects a shooting state of the predetermined subject actually shot based on image data of each frame actually shot,
The generating means includes
A parameter of a frame portion that has not yet been generated may be generated based on the shooting state of the predetermined subject in each frame detected by the detection means.

また、例えば、請求項14に記載されているように、前記生成手段は、
前記検出手段により検出された、少なくともパラメータを生成する現フレームの直前の2フレームの状態に基づいて、前記所定の被写体の移動の方向と、速度を検出し、該検出された移動の方向及び速度に基づいて、該現フレームのパラメータを生成するようにしてもよい。
For example, as described in claim 14, the generation unit includes:
The direction and speed of movement of the predetermined subject are detected based on the state of at least two frames immediately before the current frame for generating a parameter detected by the detecting means, and the direction and speed of the detected movement are detected. The parameters of the current frame may be generated based on

また、例えば、請求項15に記載されているように、前記生成手段は、
前記検出手段により検出された、少なくともパラメータを生成する現フレームの直前の3フレームの状態に基づいて、前記所定の被写体の移動の方向と、加速度を検出し、該検出された移動の方向及び加速度に基づいて、該現フレームのパラメータを生成するようにしてもよい。
For example, as described in claim 15, the generation unit includes:
Based on at least the state of the three frames immediately before the current frame for generating the parameter detected by the detecting means, the direction and acceleration of the predetermined movement are detected, and the detected direction and acceleration of the movement are detected. The parameters of the current frame may be generated based on

また、例えば、請求項16に記載されているように、前記生成手段は、
前記検出手段により検出された、少なくともパラメータを生成する現フレームの直前の2フレームの状態に基づいて、前記所定の被写体の向きが変化する方向と、速度を検出し、該検出された向きが変化する方向及び速度に基づいて、該現フレームのパラメータを生成するようにしてもよい。
For example, as described in claim 16, the generation unit includes:
Based on the state of at least two frames immediately before the current frame for generating the parameter detected by the detecting means, the direction and speed of the predetermined subject change are detected, and the detected direction changes. The parameters of the current frame may be generated based on the direction and speed of the current frame.

また、例えば、請求項17に記載されているように、前記検出手段は、
前記被写体の特徴点を検出することにより、被写体の撮影状態を検出するようにしてもよい。
Further, for example, as described in claim 17, the detection unit includes:
The photographing state of the subject may be detected by detecting the feature point of the subject.

また、例えば、請求項18に記載されているように、前記検出手段は、
前記被写体の複数の特徴点を検出し、該検出された複数の特徴点の中心を被写体の位置として検出するようにしてもよい。
For example, as described in claim 18, the detection unit includes:
A plurality of feature points of the subject may be detected, and the centers of the detected feature points may be detected as the subject position.

また、例えば、請求項19に記載されているように、記検出手段は、
前記被写体の複数の特徴点を検出し、該検出された複数の特徴点の相対的な位置関係に基づいて前記被写体の向きを検出するようにしてもよい。
For example, as described in claim 19, the detection means includes:
A plurality of feature points of the subject may be detected, and the orientation of the subject may be detected based on the relative positional relationship between the detected feature points.

上記目的達成のため、請求項20記載の発明によるプログラムは、撮影された複数の画像データを用いて所定の被写体の動きを表現した実写アニメーション動画の作成を支援する撮影手段と電子ファインダを備えた撮影装置を実行させるためのプログラムであって、
前記実写アニメーション動画を構成する各フレームに対応させて前記所定の被写体の状態を示したパラメータを生成する生成処理と、
前記生成処理により生成されたパラメータに基づいて、各フレームの撮影の際に、撮影するフレームに対応する前記被写体の撮影予定状態を前記電子ファインダに案内表示させる案内表示制御処理と、
前記案内表示制御処理による案内表示に対応して前記撮影手段により撮影素子に撮影された各フレームの画像データに基づいて動画データを生成する動画生成処理と、
を含むことを特徴とする。
In order to achieve the above object, a program according to the invention described in claim 20 includes a photographing means and an electronic finder for supporting creation of a live-action animation movie that expresses the movement of a predetermined subject using a plurality of photographed image data. A program for executing a photographing apparatus,
A generation process for generating a parameter indicating the state of the predetermined subject in correspondence with each frame constituting the live-action animation video;
Based on the parameters generated by the generation process, a guidance display control process that guides and displays on the electronic viewfinder the planned shooting state of the subject corresponding to the frame to be shot when shooting each frame;
A moving image generating process for generating moving image data based on the image data of each frame imaged on the imaging element by the imaging unit corresponding to the guidance display by the guidance display control process;
It is characterized by including.

本願発明によれば、被写体が滑らかに動くような実写アニメーション動画を容易に作成することができる。   According to the present invention, it is possible to easily create a live-action animation movie in which a subject moves smoothly.

以下、本実施の形態について、本発明の撮影装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮影装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り4、CCD5、ドライバ6、TG(timing generator)7、ユニット回路8、画像生成部9、CPU10、キー入力部11、メモリ12、DRAM13、フラッシュメモリ14、画像表示部15、バス16を備えている。
Hereinafter, the present embodiment will be described in detail with reference to the drawings as an example in which the photographing apparatus of the present invention is applied to a digital camera.
[Embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing a schematic electrical configuration of a digital camera 1 that implements the photographing apparatus of the present invention.
The digital camera 1 includes a photographing lens 2, a lens driving block 3, an aperture 4, a CCD 5, a driver 6, a TG (timing generator) 7, a unit circuit 8, an image generation unit 9, a CPU 10, a key input unit 11, a memory 12, a DRAM 13, A flash memory 14, an image display unit 15, and a bus 16 are provided.

撮影レンズ2は、図示しない複数のレンズ群から構成されるフォーカスレンズ、ズームレンズ等を含む。そして、撮影レンズ2にはレンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ、ズームレンズをそれぞれ光軸方向に沿って駆動させるフォーカスモータ、ズームモータと、CPU10から送られてくる制御信号にしたがって、フォーカスモータ、ズームモータを駆動させるフォーカスモータドライバ、ズームモータドライバから構成されている(図示略)。   The photographing lens 2 includes a focus lens, a zoom lens, and the like that are constituted by a plurality of lens groups (not shown). A lens driving block 3 is connected to the photographing lens 2. The lens driving block 3 includes a focus motor and a zoom motor that drive the focus lens and the zoom lens along the optical axis direction, respectively, and a focus motor driver that drives the focus motor and the zoom motor according to a control signal sent from the CPU 10. And a zoom motor driver (not shown).

絞り4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り4を動作させる。
絞り4とは、撮影レンズ2から入ってくる光の量を制御する機構のことをいう。
The diaphragm 4 includes a drive circuit (not shown), and the drive circuit operates the diaphragm 4 in accordance with a control signal sent from the CPU 10.
The diaphragm 4 is a mechanism that controls the amount of light that enters from the photographing lens 2.

CCD5は、ドライバ6によって駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮影信号としてユニット回路8に出力する。このドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10により制御される。なお、CCD5はベイヤー配列の色フィルターを有しており、電子シャッタとしての機能も有する。この電子シャッタのシャッタ速度は、ドライバ6、TG7を介してCPU10によって制御される。   The CCD 5 is driven by a driver 6 and photoelectrically converts the intensity of light of each color of the RGB value of the subject image at regular intervals and outputs it as a photographic signal to the unit circuit 8. The operation timing of the driver 6 and the unit circuit 8 is controlled by the CPU 10 via the TG 7. The CCD 5 has a Bayer color filter and also functions as an electronic shutter. The shutter speed of the electronic shutter is controlled by the CPU 10 via the driver 6 and TG7.

ユニット回路8には、TG7が接続されており、CCD5から出力される撮影信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮影信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮影信号をデジタル信号に変換するA/D変換器から構成されており、CCD5から出力された撮影信号はユニット回路8を経てデジタル信号として画像生成部9に送られる。   A TG 7 is connected to the unit circuit 8, a CDS (Correlated Double Sampling) circuit that holds the photographic signal output from the CCD 5 by correlated double sampling, and an AGC that performs automatic gain adjustment of the photographic signal after the sampling. (Automatic Gain Control) circuit and an A / D converter for converting the analog image pickup signal after the automatic gain adjustment into a digital signal. The image pickup signal output from the CCD 5 passes through the unit circuit 8 as a digital signal. It is sent to the image generator 9.

画像生成部9は、ユニット回路8から送られてきた画像データに対してγ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)を生成し、該生成された輝度色差信号の画像データはDRAM13(バッファメモリ)に記憶される。つまり、画像生成部9は、CCD5から出力された画像データに対して画像処理を施す。   The image generation unit 9 performs processing such as γ correction processing and white balance processing on the image data sent from the unit circuit 8, generates a luminance color difference signal (YUV data), and generates the generated luminance color difference. The image data of the signal is stored in the DRAM 13 (buffer memory). That is, the image generation unit 9 performs image processing on the image data output from the CCD 5.

CPU10は、CCD5への撮影制御、フラッシュメモリ14への記録処理、画像データの表示処理を行う機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。また、CPU10はクロック回路を含み、タイマーとしての機能も有する。   The CPU 10 is a one-chip microcomputer that has functions of performing imaging control on the CCD 5, recording processing on the flash memory 14, and display processing of image data, and controls each part of the digital camera 1. Further, the CPU 10 includes a clock circuit and has a function as a timer.

特に、CPU10は、実写アニメーション動画の背景部分に対応した3次元空間内での所定の被写体(動く物体)の動きをユーザーが入力指定する機能、ユーザーが入力指定した被写体の動きを、各フレームに対応する被写体の状態に変換する機能、フレームの各位置パラメータの値に基づいて該フレームの被写体の撮影予定位置を画像表示部15に透過表示させる機能、該透過表示に対応して撮影された各フレームの画像データに基づいて動画データを生成する機能を有する。   In particular, the CPU 10 has a function for the user to input and specify the movement of a predetermined subject (moving object) in a three-dimensional space corresponding to the background portion of the live-action animation, and the movement of the subject input and specified by the user to each frame. A function for converting to the state of the corresponding subject, a function for transparently displaying the photographing position of the subject of the frame on the image display unit 15 based on the value of each position parameter of the frame, and each of the images photographed corresponding to the transparent display It has a function of generating moving image data based on frame image data.

上記入力指定機能および変換機能においては、複数フレームを通しての物体の動きをユーザーが容易に入力指定でき、且つ、より自然で滑らかな物体の動きとなるように、補間や補正を行う機能も併せ持つ。このような自然で滑らかなデータを容易に入力できるようにするために補間や補正を行う具体的な方法については、様々な方法が考えられるが、本実施の形態では、実写アニメーション動画を構成する複数のフレームのうち、一部のフレームに対応させて、被写体の状態を示したパラメータをユーザーが入力すると、このユーザによって入力された任意のフレームのパラメータの値に基づいて、その他のフレームのパラメータの値をスプライン関数によって算出することで、補間や補正を行うものとする。 The input designation function and the conversion function also have a function of performing interpolation and correction so that the user can easily designate the movement of the object through a plurality of frames, and more natural and smooth movement of the object. Various methods can be considered as specific methods for performing interpolation and correction so that such natural and smooth data can be easily input. In this embodiment, a live-action animation movie is configured. When the user inputs a parameter indicating the state of the subject in correspondence with some of the plurality of frames, the parameters of other frames are based on the parameter values of any frame input by the user. Is calculated by a spline function to perform interpolation and correction.

キー入力部11は、シャッタボタン、モード切替キー、十字キー、SETキー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。   The key input unit 11 includes a plurality of operation keys such as a shutter button, a mode switching key, a cross key, and a SET key, and outputs an operation signal corresponding to the user's key operation to the CPU 10.

メモリ12には、CPU10が各部を制御するのに必要な制御プログラム、及び必要なデータが記録されており、CPU10は、該プログラムに従い動作する。なお、このメモリ12は書き換え可能な不揮発性メモリである。
また、メモリ12には、動画データを構成する各フレームに写る被写体の位置パラメータを記録させておく位置パラメータテーブルを備えている。
The memory 12 stores a control program and necessary data necessary for the CPU 10 to control each unit, and the CPU 10 operates according to the program. The memory 12 is a rewritable nonvolatile memory.
Further, the memory 12 is provided with a position parameter table for recording the position parameters of the subject captured in each frame constituting the moving image data.

DRAM13は、CCD5によって撮影された後、CPU10に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとして使用される。
フラッシュメモリ14は、画像データを保存する記録媒体である。
The DRAM 13 is used as a buffer memory for temporarily storing image data sent to the CPU 10 after being photographed by the CCD 5 and also as a working memory for the CPU 10.
The flash memory 14 is a recording medium that stores image data.

画像表示部15は、カラーLCDとその駆動回路を含み、撮影待機状態にあるときには、CCD5によって撮影された被写体をスルー画像として表示し、記録画像の再生時には、フラッシュメモリ14から読み出され、伸張された記録画像を表示させる。   The image display unit 15 includes a color LCD and its driving circuit, and displays the subject photographed by the CCD 5 as a through image when in a photographing standby state, and is read from the flash memory 14 and decompressed when reproducing a recorded image. The recorded image is displayed.

B.デジタルカメラ1の動作について
実施の形態におけるデジタルカメラ1の動作をパラメータ登録と、アニメーション動画撮影に分けて説明する。
このパラメータ登録とは、簡単に説明すると、実写アニメーション動画の背景部分に対応した3次元空間内での所定の被写体(動く物体)の動きを登録するものであり、アニメーション動画撮影により撮影される各フレームに対応する被写体の位置や向きなどの状態を示す(位置)パラメータによって被写体の動きを登録することをいい、アニメーション動画撮影とは、実時間で動画を撮影するのではなく、つまり、被写体をリアルタイムで順次撮影していくのではなく、各フレーム毎に同一の被写体を別々に静止画撮影をしていき、該静止画撮影により得られた画像データに基づいて動画データを生成するというものである。
B. Operation of Digital Camera 1 The operation of the digital camera 1 in the embodiment will be described separately for parameter registration and animation moving image shooting.
This parameter registration simply registers the movement of a predetermined subject (moving object) in a three-dimensional space corresponding to the background portion of a live-action animation movie. This refers to registering the movement of a subject using a (position) parameter that indicates the position and orientation of the subject corresponding to the frame. Animation video shooting is not a real-time video recording. Rather than sequentially shooting in real time, the same subject is shot separately for each frame, and moving image data is generated based on the image data obtained by the still image shooting. is there.

B−1.パラメータ登録の動作について
まず、パラメータ登録の動作を図2のフローチャートに従って説明する。
ユーザのキー入力部11のモード切替キーの操作によりパラメータ登録モードに設定されると、CPU10は、1つ目の位置パラメータを選択する(ステップS1)。ここで、被写体の位置は、(x,y,z)の3次元で示され、位置パラメータは、x方向の位置を示すx位置パラメータと、y方向の位置をy位置パラメータと、z方向の位置を示すz位置パラメータとで構成される。ここでは、位置パラメータが選択される順番は、x、y、zの順とするので、ステップS1では1目の位置パラメータとしてx位置パラメータが選択される。
B-1. Parameter Registration Operation First, the parameter registration operation will be described with reference to the flowchart of FIG.
When the parameter registration mode is set by the user operating the mode switching key of the key input unit 11, the CPU 10 selects the first position parameter (step S1). Here, the position of the subject is shown in three dimensions (x, y, z), and the position parameters are an x position parameter indicating a position in the x direction, a position in the y direction as a y position parameter, and a position in the z direction. And a z-position parameter indicating the position. Here, since the order in which the position parameters are selected is the order of x, y, and z, the x position parameter is selected as the first position parameter in step S1.

図3(A)は、x、y、zで表わされる3次元の様子の一例を示すものである。
図3(A)を見るとわかるように、ある位置を(x,y,z)=(0,0,0)とし、該位置からx軸、y軸、z軸が伸びている。ここで、z軸のマイナス方向がないのは、CCD5の撮影面がx軸とy軸とで形成される平面上にあり、且つ、z軸のプラス方向を向いていることを前提としているからであり、z軸のマイナス方向は撮影されないからである。また、CCD5の撮影面の中心を、(x、y、z)=(0,0,0)とする。なお、x軸のプラス方向を右方向、マイナス方向を左方向、y軸のプラス方向を上方向、マイナス方向を下方向とする。
FIG. 3A shows an example of a three-dimensional state represented by x, y, and z.
As can be seen from FIG. 3A, a certain position is (x, y, z) = (0, 0, 0), and the x, y, and z axes extend from the position. Here, there is no minus direction of the z-axis because it is assumed that the imaging surface of the CCD 5 is on a plane formed by the x-axis and the y-axis and is oriented in the plus direction of the z-axis. This is because the negative direction of the z-axis is not photographed. Further, the center of the photographing surface of the CCD 5 is (x, y, z) = (0, 0, 0). The positive direction of the x axis is the right direction, the negative direction is the left direction, the positive direction of the y axis is the upward direction, and the negative direction is the downward direction.

次いで、CPU10は、各フレームにおける現在選択されている位置パラメータとの関係を示す位置グラフを表示させる(ステップS2)。
図3(B)は、表示された位置グラフの様子の一例を示す図である。
図3(B)を見るとわかるように横軸が、1枚目、2枚目等のフレームの枚数を示しており、縦軸が位置パラメータの値を示している。ここでは、x位置パラメータが選択されているので、縦軸はx位置パラメータの値を示している。
Next, the CPU 10 displays a position graph showing the relationship with the currently selected position parameter in each frame (step S2).
FIG. 3B is a diagram illustrating an example of a state of the displayed position graph.
As can be seen from FIG. 3B, the horizontal axis indicates the number of frames such as the first frame and the second frame, and the vertical axis indicates the value of the position parameter. Here, since the x position parameter is selected, the vertical axis indicates the value of the x position parameter.

そして、CPU10は、ユーザによって該選択されている位置パラメータの入力が完了したか否かを判断する(ステップS3)。この判断は、SETキーの操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。   Then, the CPU 10 determines whether or not the input of the position parameter selected by the user has been completed (step S3). This determination is made based on whether or not an operation signal corresponding to the operation of the SET key is sent from the key input unit 11.

ここで、ユーザはキー入力部11を操作することにより任意にあるフレームを選択し、該選択したフレームに写る被写体の位置を示す位置パラメータの値を入力することができる。このとき、入力された位置パラメータの値は該表示されている関係グラフに表示される。また、各フレーム毎に位置パラメータの値を入力する必要はなく、10枚おき、100枚おきという具合に位置パラメータの値を入力すればよい。つまり、撮影したい被写体が所望の動きとなるように、概略的に現在選択されている位置パラメータの値を決めればよい。このとき、最初のフレーム(1枚目のフレーム)の位置パラメータと、最後のフレーム位置パラメータを必ず入力するようにさせてもよい。この最後のフレームとは、ユーザが撮影したい動画の最後のフレームのことをいい、たとえば、1000枚のフレームを撮影したい場合は、最後のフレームは1000枚ということになる。このようにすれば、位置パラメータの登録と同時に動画に含まれる撮影予定のフレーム数を予め指定することができる。   Here, the user can arbitrarily select a frame by operating the key input unit 11, and can input a value of a position parameter indicating the position of the subject in the selected frame. At this time, the value of the input position parameter is displayed in the displayed relation graph. Further, it is not necessary to input the position parameter value for each frame, and the position parameter value may be input every 10 frames or 100 frames. That is, the value of the position parameter currently selected may be roughly determined so that the subject to be photographed has a desired movement. At this time, the position parameter of the first frame (first frame) and the last frame position parameter may be input without fail. This last frame refers to the last frame of the moving image that the user wants to shoot. For example, when 1000 frames are to be shot, the last frame is 1000 frames. In this way, it is possible to specify in advance the number of frames scheduled to be captured included in the moving image simultaneously with the registration of the position parameter.

ステップS3で、現在選択されている位置パラメータの入力が完了したと判断すると、CPU10は、該入力された位置パラメータの値に基づいてスプライン関数により近似線を求める(ステップS4)。このスプライン関数により位置パラメータが滑らかになるように各フレームの位置パラメータの値が求められる。つまり、被写体の動きが滑らかになるように各フレームの位置パラメータの値が求められる。この求められた近似線は関係グラフ上に表示される。   When it is determined in step S3 that the input of the currently selected position parameter is completed, the CPU 10 obtains an approximate line by a spline function based on the input position parameter value (step S4). The position parameter value of each frame is obtained by the spline function so that the position parameter becomes smooth. That is, the position parameter value of each frame is obtained so that the movement of the subject is smooth. The obtained approximate line is displayed on the relation graph.

なお、このとき、ユーザによって入力されたフレームの位置パラメータの値を変えないようにスプライン関数により各フレームの位置パラメータの値を求めるようにしてもよい。また、ユーザによって入力されたフレームの位置パラメータの値によって、各フレームの位置パラメータの値が滑らかにならない場合は、ユーザによって入力されたフレームの位置パラメータの値を変える(修正する)ようにしてもよい。つまり、ユーザによって入力されたフレームの位置パラメータの値は絶対的なものではなく、該入力された位置パラメータの値を目安としてスプライン関数により近似線を求める。   At this time, the position parameter value of each frame may be obtained by a spline function so as not to change the position parameter value of the frame input by the user. If the position parameter value of each frame does not become smooth due to the value of the frame position parameter input by the user, the value of the position parameter of the frame input by the user may be changed (corrected). Good. That is, the position parameter value of the frame input by the user is not absolute, and an approximate line is obtained by a spline function using the input position parameter value as a guide.

ここで、図4(A)は、x位置パラメータの入力が完了したときの、入力されたx位置パラメータの様子の一例を示す図であり、図4(B)は、該入力された位置パラメータに基づいてスプライン関数により求められた近似線が表示されたときの様子の一例を示す図である。ここでは、最後のフレームはn枚目のフレームとする。
図4を示すように、ユーザによって概略的に入力された被写体の位置パラメータに基づいて近似線が求められ、これにより1枚目からn枚目までの各フレームの位置パラメータが定まる。
図4(B)を見るとわかるように、被写体の位置は、中央(x=0)から右側に移動し、その後、左方向、右方向という具合に交互に中央から左右に移動しているのがわかる。
Here, FIG. 4A is a diagram illustrating an example of the state of the input x-position parameter when the input of the x-position parameter is completed, and FIG. 4B is a diagram illustrating the input position parameter. It is a figure which shows an example of a mode when the approximate line calculated | required by the spline function based on is displayed. Here, the last frame is the nth frame.
As shown in FIG. 4, an approximate line is obtained based on the position parameter of the subject roughly input by the user, and thereby the position parameter of each frame from the first frame to the nth frame is determined.
As can be seen from FIG. 4B, the position of the subject moves from the center (x = 0) to the right side, and then moves from the center to the left and right alternately, such as leftward and rightward. I understand.

次いで、CPU10は、該求められた近似線に基づいて現在選択されている位置パラメータの登録を行うか否かを判断する(ステップS5)。
この判断は、ユーザのSETキーの操作に対応する操作信号がキー入力部11から送られてきた場合は登録すると判断し、キャンセルキーの操作に対応する操作信号が送られてきた場合は登録しないと判断する。
Next, the CPU 10 determines whether or not to register the currently selected position parameter based on the obtained approximate line (step S5).
This determination is made when the operation signal corresponding to the user's operation of the SET key is sent from the key input unit 11, and is registered when the operation signal corresponding to the operation of the cancel key is sent. Judge.

ステップS5で、パラメータの登録を行わないと判断するとステップS3に戻り、再びユーザによって位置パラメータの入力が完了したか否かを判断する。この表示されている近似線が自分が所望する被写体の動きでない場合は、再び位置パラメータを再入力することにより所望する被写体の動きに変更することができる。   If it is determined in step S5 that parameter registration is not performed, the process returns to step S3, and it is determined again whether or not the input of the position parameter has been completed by the user. When the displayed approximate line is not the desired subject motion, the user can change the desired subject motion by re-inputting the position parameter again.

一方、ステップS5で、パラメータの登録を行うと判断すると、CPU10は、該求められた近似線に基づいて、現在選択されている位置パラメータを登録する(ステップS6)。具体的に説明すると、該近似線に基づいて、各フレームの被写体の予定位置となる現在選択されている位置パラメータの値を登録することになる。この登録される値は、メモリ12の位置パラメータテーブルに記録されることになる。   On the other hand, if it is determined in step S5 that the parameter is to be registered, the CPU 10 registers the currently selected position parameter based on the obtained approximate line (step S6). More specifically, based on the approximate line, the value of the currently selected position parameter that is the planned position of the subject in each frame is registered. This registered value is recorded in the position parameter table of the memory 12.

そして、CPU10は、すべての位置パラメータを選択したか否かを判断し(ステップS7)、すべての位置パラメータを選択していないと判断すると、次のパラメータを選択して(ステップS8)、ステップS2に戻る。位置パラメータは、x、y、z順に選択されるので、現在x位置パラメータを選択している場合はステップS8でy位置パラメータが選択され、現在y位置パラメータが選択されている場合はz位置パラメータが選択されることになる。   Then, the CPU 10 determines whether or not all position parameters have been selected (step S7). If the CPU 10 determines that all position parameters have not been selected, the CPU 10 selects the next parameter (step S8), and step S2 Return to. Since the position parameters are selected in the order of x, y, and z, if the current x position parameter is selected, the y position parameter is selected in step S8, and if the current y position parameter is selected, the z position parameter is selected. Will be selected.

図5(A)は、登録されるy位置パラメータの元となる近似線の様子の一例を示すものであり、図5(B)は、登録されるz位置パラメータの元となる近似線の様子の一例を示すものである。
図5(A)を見るとわかるように、被写体の位置の高さは変わらず、CCD5の中央より下の位置であることがわかる。また、図5(B)を見るとわかるように、後に撮影されるフレームほど被写体の位置はCCD5から遠ざかることがわかる。
FIG. 5A shows an example of the appearance of the approximate line that is the source of the registered y-position parameter, and FIG. 5B shows the appearance of the approximate line that is the source of the registered z-position parameter. An example is shown.
As can be seen from FIG. 5A, the height of the position of the subject does not change, and it can be seen that the position is lower than the center of the CCD 5. Further, as can be seen from FIG. 5B, it can be seen that the position of the subject is further away from the CCD 5 as the frame is captured later.

また、図6は、メモリ12の位置パラメータテーブルに記録されている(登録されている)被写体の各位置パラメータの様子の一例を示すものであり、各フレーム毎にx位置パラメータの値、y位置パラメータの値、z位置パラメータ値の各値が記録されている。   FIG. 6 shows an example of the state of each position parameter of the subject recorded (registered) in the position parameter table of the memory 12, and the value of the x position parameter, y position, for each frame. Each value of the parameter value and the z position parameter value is recorded.

このような登録方法の利点は、自然で滑らかな動きとなるようにユーザが全てのフレームに対応するパラメータを正確に入力することは非常に困難であるが、一部のフレームのパラメータを入力するだけで、他のフレームのパラメータの補間や補正を行うので、自然で滑らかな動きを容易に登録することが可能となるものである。つまり、2点を指定すれば、この2点を通る1次関数で表されるような直線移動、3点を指定すれば、この3点を通る3次関数で表されるような等加速度運動となり、指定する点の数が増えるに従って複雑な動きを指定することができる。   The advantage of such a registration method is that it is very difficult for the user to accurately input parameters corresponding to all frames so that the motion is natural and smooth, but the parameters of some frames are input. Therefore, interpolation and correction of parameters of other frames are performed, so that natural and smooth motion can be easily registered. In other words, if 2 points are specified, a linear movement represented by a linear function passing through these 2 points, and if 3 points are specified, a constant acceleration motion represented by a cubic function passing through these 3 points. Thus, as the number of points to be specified increases, a complex motion can be specified.

また、この登録処理においては、撮影予定となっているフレームに対応させてパラメータを登録したが、ここでは物体の動きが登録できればよいので、必ずしも撮影予定フレームに対応してパラメータを登録しなくてもよい。実際に撮影を開始するときに、動画のフレームレートを新たに設定するようにし、この設定されたフレームレートに対応して撮影予定となる複数のフレームを新たに決定し、登録されている物体の動きに基づいて、この新たに決定された複数のフレームの各々に対応するパラメータを自動生成するようにしてもよい。また、一定のフレームレートで再生する動画でなはなく、フレームレートが可変である動画であっても、各フレームが再生されるタイミングが特定できれば、そのフレームに対応するパラメータを生成することが可能である。   In this registration process, the parameters are registered in correspondence with the frames that are scheduled to be photographed. However, since it is only necessary that the movement of the object can be registered here, the parameters need not be registered in correspondence with the frames that are scheduled to be photographed. Also good. When actually starting shooting, a new frame rate for the movie is set, and a plurality of frames to be shot are newly determined according to the set frame rate. A parameter corresponding to each of the newly determined frames may be automatically generated based on the motion. Also, even if the video is not a movie that plays back at a constant frame rate, but a movie with a variable frame rate, if the timing at which each frame is played back can be specified, parameters corresponding to that frame can be generated. It is.

B−2.アニメーション動画撮影の動作について
次に、アニメーション動画撮影の動作を図7のフローチャートに従って説明する。
ユーザのキー入力部11のモード切替キーの操作によりパラメータ登録モードに設定されると、CPU10は、これから撮影する所定の被写体であり、背景に対して動く物体の実際の大きさを設定する(ステップS11)。このときは、被写体の大きさをユーザに入力させるための画面を表示させ、該入力された大きさを設定する。
B-2. Next, the animation moving image shooting operation will be described with reference to the flowchart of FIG.
When the parameter registration mode is set by the user operating the mode switching key of the key input unit 11, the CPU 10 sets the actual size of an object that is a predetermined subject to be photographed and moves with respect to the background (step). S11). At this time, a screen for allowing the user to input the size of the subject is displayed, and the input size is set.

次いで、CPU10は、最初のフレーム(1枚目のフレーム)を撮影対象として特定する(ステップS12)。つまり、これから撮影するフレームを特定する。
次いで、CPU10は、所定のフレームレートでCCD5による撮影を開始させ、CCD5により順次撮影され画像生成部9によって生成された輝度色差信号のフレーム画像データ(YUVデータ)をバッファメモリ(DRAM13)に記憶させていき、該記憶されたフレーム画像データに基づく画像を画像表示部15に表示させていくという、いわゆるスルー画像表示を開始する(ステップS13)。
Next, the CPU 10 specifies the first frame (first frame) as a subject to be photographed (step S12). That is, the frame to be shot from now is specified.
Next, the CPU 10 starts photographing with the CCD 5 at a predetermined frame rate, and stores the frame image data (YUV data) of the luminance and color difference signals sequentially photographed by the CCD 5 and generated by the image generation unit 9 in the buffer memory (DRAM 13). Then, so-called through image display is started in which an image based on the stored frame image data is displayed on the image display unit 15 (step S13).

次いで、CPU10は、図6に示す登録されている現在特定されているフレームの各位置パラメータの値と、ステップS1で設定された所定の被写体の実際の大きさと、設定されている撮影画角(スーム倍率など)の情報に基づいて、該特定されているフレームの被写体の撮影予定状態を示した枠(撮影予定状態枠)を画像表示部15に透過表示させる(ステップS14)。ここで、透過表示させる撮影予定状態とは、撮影予定となる画像表示部15上の被写体の位置、大きさのことをいう。   Next, the CPU 10 determines the value of each position parameter of the currently specified frame shown in FIG. 6, the actual size of the predetermined subject set in step S1, and the set shooting angle of view ( Based on the information such as the zoom factor, a frame (scheduled shooting state frame) indicating the shooting schedule state of the subject in the specified frame is displayed transparently on the image display unit 15 (step S14). Here, the scheduled shooting state to be transparently displayed means the position and size of the subject on the image display unit 15 to be shot.

このとき、該特定されているフレームの各位置パラメータの値と、ステップS1で設定された被写体の大きさに基づいて3次元モデルを生成し、その3次元モデルを、x軸及びy軸から構成される平面上にあり、且つ、(x,y,z)=(0,0,0)が中央となるように配置されたCCD5から見たときの様子を、被写体の状態として2次元投射により生成し、該生成した被写体の枠を撮影予定状態枠として画像表示部15に透過表示させることになる。   At this time, a three-dimensional model is generated based on the value of each position parameter of the specified frame and the size of the subject set in step S1, and the three-dimensional model is configured from the x-axis and the y-axis. The state when viewed from the CCD 5 which is on the plane and is arranged so that (x, y, z) = (0, 0, 0) is in the center is obtained as a subject state by two-dimensional projection. Then, the generated frame of the subject is transparently displayed on the image display unit 15 as the scheduled shooting state frame.

図9は、該特定されているフレームの各位置パラメータの値と、ステップS1で設定された被写体の大きさに基づいて生成される3次元モデルの一例を示すものである。図9の黒点31は、特定されたフレームの各位置パラメータの値により定められる被写体の位置を示し、楕円32はステップS1で設定された被写体の大きさを示している。   FIG. 9 shows an example of a three-dimensional model generated based on the value of each position parameter of the specified frame and the size of the subject set in step S1. A black dot 31 in FIG. 9 indicates the position of the subject determined by the value of each position parameter of the identified frame, and an ellipse 32 indicates the size of the subject set in step S1.

この生成した被写体の3次元モデルを、CCD5から見たときの様子を、被写体の撮影予定状態として2次元投射により生成する。このとき、デジタルカメラ1の撮影レンズの焦点距離によって被写体の大きさも変わってくるので、撮影レンズの焦点距離も考慮して2次元投射により生成する。このように、設定された被写体の大きさ、焦点距離、(x,y,z)=(0,0,0)から被写体の位置31までの距離に応じて2次元投射により生成される被写体の大きさは変わってくる。   A state of the generated three-dimensional model of the subject as viewed from the CCD 5 is generated by two-dimensional projection as a subject photographing scheduled state. At this time, since the size of the subject also changes depending on the focal length of the photographing lens of the digital camera 1, it is generated by two-dimensional projection in consideration of the focal length of the photographing lens. As described above, the size of the subject, the focal length, and the subject generated by the two-dimensional projection according to the distance from (x, y, z) = (0, 0, 0) to the subject position 31. The size will change.

図10(A)は、図9の3次元モデルを2次元投射して生成された被写体の撮影状態枠の様子の一例を示すものである。
また、図10(B)、(C)は、2枚目、3枚目のフレームの各位置パラメータの値に基づいて透過表示される撮影予定状態枠の様子を示すものである。図10を見るとわかるように、被写体の撮影予定状態枠は徐々に右側に移動し、且つ、被写体の位置が遠ざかっていくので(図4、図5参照)、撮影予定状態枠として透過表示される被写体の大きさは小さくなっているのがわかる。
FIG. 10A shows an example of a state of a shooting state frame of a subject generated by two-dimensionally projecting the three-dimensional model of FIG.
FIGS. 10B and 10C show the state of the scheduled shooting state frame that is transparently displayed based on the position parameter values of the second and third frames. As can be seen from FIG. 10, the scheduled shooting state frame of the subject gradually moves to the right and the position of the subject moves away (see FIGS. 4 and 5), so that it is transparently displayed as the scheduled shooting state frame. It can be seen that the size of the subject is smaller.

これにより、被写体の撮影予定となる画像表示部15上の位置と、その大きさを撮影予定状態枠として表示させることにより、該特定したフレームの各位置パラメータの値となるような位置で被写体を撮影することができる。
なお、この3次元モデルから2次元投射して2次元のものを得る技術は周知技術なので説明を割愛する。
As a result, by displaying the position on the image display unit 15 where the subject is scheduled to be photographed and its size as the scheduled photographing state frame, the subject can be placed at a position where the value of each position parameter of the identified frame is obtained. You can shoot.
The technique for obtaining a two-dimensional object by two-dimensionally projecting from this three-dimensional model is a well-known technique and will not be described.

図7のフローチャートの説明に戻り、被写体の撮影予定状態枠を表示させると、CPU10は、ユーザによってシャッタボタンが押下されたか否かを判断する(ステップS15)。
このとき、ユーザは、デジタルカメラ1の位置を変えることにより、撮影したい被写体が該透過表示された撮影予定状態枠と同じとなるように、被写体の位置、大きさを調整し、被写体の位置、大きさが透過表示された撮影予定状態枠と同じと判断した場合に、シャッタボタンを押下する。
Returning to the description of the flowchart of FIG. 7, when the photographing schedule state frame of the subject is displayed, the CPU 10 determines whether or not the shutter button has been pressed by the user (step S <b> 15).
At this time, by changing the position of the digital camera 1, the user adjusts the position and size of the subject so that the subject to be photographed is the same as the scheduled shooting state frame that is transparently displayed. When it is determined that the size is the same as the scheduled shooting state frame that is transparently displayed, the shutter button is pressed.

ステップS15で、シャッタボタンが押下されていないと判断すると押下されるまでステップS15に留まり、シャッタボタンが押下されたと判断すると、CPU10は、静止画撮影を行い、該得られた画像データを現在特定されているフレームの画像データとしてフラッシュメモリ14に記録する(ステップS16)。このとき、現在特定されているフレームの情報を一緒に記録する。このフレームの情報とは、何枚目のフレームに対応する画像データであるか否かを示す情報のことである。   If it is determined in step S15 that the shutter button has not been pressed, the process stays in step S15 until the button is pressed. If it is determined that the shutter button has been pressed, the CPU 10 performs still image shooting and currently identifies the obtained image data. The image data of the frame that has been recorded is recorded in the flash memory 14 (step S16). At this time, information on the currently specified frame is recorded together. This frame information is information indicating whether or not the image data corresponds to what frame.

次いで、CPU10は、実際に撮影された画像データに基づいて、実際の被写体の位置、大きさを特定する(ステップS17)。この大きさの特定は、該透過表示された撮影予定状態枠付近にある被写体の特徴点を複数抽出し、該複数抽出した特徴点により被写体の輪郭を特定し、位置の特定は、該特定した輪郭の中央部を被写体の位置として特定する。
次いで、CPU10は、該特定した実際の被写体の位置、大きさに基づいて、被写体の3次元の座標位置を検出する(ステップS18)。この2次元のものから3次元のものを検出する技術は周知技術なので説明を割愛する。
Next, the CPU 10 specifies the actual position and size of the subject based on the actually captured image data (step S17). The size is specified by extracting a plurality of feature points of the subject in the vicinity of the transparently displayed scheduled shooting state frame, specifying the contour of the subject by the extracted feature points, and specifying the position The center of the contour is specified as the position of the subject.
Next, the CPU 10 detects the three-dimensional coordinate position of the subject based on the identified actual subject position and size (step S18). Since the technique for detecting the three-dimensional one from the two-dimensional one is a well-known technique, the description is omitted.

そして、CPU10は、該検出した3次元の座標位置と、現在特定されているフレームの登録されている各位置パラメータの値とを比較する(ステップS19)。
次いで、CPU10は、該比較した両者の値の差が所定値以上であるか否かを判断する(ステップS20)。
Then, the CPU 10 compares the detected three-dimensional coordinate position with the value of each registered position parameter of the currently specified frame (step S19).
Next, the CPU 10 determines whether or not the difference between the compared values is equal to or greater than a predetermined value (step S20).

ステップS20で、その差が所定値以上であると判断すると、CPU10は、画像の撮り直しを行うか否かを判断する。
このとき、CPU10は、「予定していた被写体の撮影予定状態と違います。画像を撮り直しますか」という表示をさせ、ユーザによってSETキーの操作が行われると画像の撮り直しをしないと判断し、キャンセルキーの操作が行われると画像の撮り直しをすると判断する。
If it is determined in step S20 that the difference is greater than or equal to a predetermined value, the CPU 10 determines whether or not to retake the image.
At this time, the CPU 10 displays the message “Different from the planned shooting state of the subject. Do you want to retake the image?” And determines that the image is not retaken when the user operates the SET key. When the cancel key is operated, it is determined that the image is retaken.

ステップS21で、画像の撮り直しをすると判断すると、現在特定されているフレームとしてステップS16で記録した画像データを削除して(ステップS22)、ステップS14に戻る。
一方、ステップS21で、画像の撮り直しをしないと判断すると、CPU10は、現在特定されているフレーム後のフレームの位置パラメータが登録されているか否かを判断する(ステップS23)。
If it is determined in step S21 that the image is retaken, the image data recorded in step S16 as the currently specified frame is deleted (step S22), and the process returns to step S14.
On the other hand, if it is determined in step S21 that the image is not retaken, the CPU 10 determines whether the position parameter of the frame after the currently specified frame is registered (step S23).

ステップS23で、現在特定されているフレーム後のフレームの位置パラメータが登録されていると判断すると、CPU10は、ステップS18で検出された被写体の3次元の座標位置に基づいて、現在特定しているフレーム後のフレームの登録されている位置パラメータを修正して(ステップS24)、ステップS26に進む。この修正された位置パラメータの値は、図6に示す位置パラメータテーブルに上書きされることになる。   If it is determined in step S23 that the position parameter of the frame after the currently specified frame is registered, the CPU 10 currently specifies based on the three-dimensional coordinate position of the subject detected in step S18. The registered position parameter of the frame after the frame is corrected (step S24), and the process proceeds to step S26. The corrected position parameter value is overwritten in the position parameter table shown in FIG.

また、この修正は、スプライン関数により各フレームの各位置パラメータの値が滑らかになるように修正する。この修正は、現在特定しているフレームから遠いフレーム程、現在登録されている各位置パラメータの値を優先して修正する。つまり、現在特定しているフレームから近いフレーム程、該検出された実際に撮影された被写体の3次元の座標位置の影響を受けることになる。   In addition, this correction is performed so that the value of each position parameter of each frame is smoothed by the spline function. This correction is performed with priority given to the value of each currently registered position parameter in a frame farther from the currently specified frame. That is, a frame closer to the currently specified frame is affected by the detected three-dimensional coordinate position of the actually photographed subject.

図11は、登録されているx位置パラメータとフレームとの関係グラフ、修正されたx位置パラメータとフレームとの関係グラフの様子の一例を示している。
図11の上の関係グラフは登録されているx位置パラメータとフレームとの関係グラフを、下の関係グラフは修正されたx位置パラメータとフレームとの関係グラフを示している。
FIG. 11 shows an example of the relationship graph between the registered x-position parameter and the frame, and the modified relationship graph between the x-position parameter and the frame.
The upper relation graph of FIG. 11 shows the relation graph between the registered x-position parameter and the frame, and the lower relation graph shows the relation chart between the modified x-position parameter and the frame.

また、図11の上の関係グラフの中にある×印は実際に撮影された被写体の位置を示しており、4枚目のフレームを見ると登録されているx位置パラメータと実際に撮影された被写体のx軸の位置はずれていることがわかる。
そして、図11の下の関係グラフを見るとわかるように、4枚目のフレーム以降のx位置パラメータの値が修正されているのがわかる。また、下の関係グラフを見ると、4枚目のフレームから遠ざかるにつれて登録されていたフレームのx位置パラメータの値と変わらなくなってきているのもわかる。なお、図11の下の関係グラフのうち、点線であらわさている部分は、修正前の位置パラメータの値の近似線の様子を示している。
Also, the crosses in the upper relational graph of FIG. 11 indicate the positions of the actually photographed subjects. When the fourth frame is viewed, the registered x-position parameters and the actually photographed images are taken. It can be seen that the x-axis position of the subject is shifted.
As can be seen from the lower relation graph of FIG. 11, it can be seen that the value of the x-position parameter after the fourth frame is corrected. In addition, when viewing the relationship graph below, it can be seen that as the distance from the fourth frame increases, the value of the x-position parameter of the registered frame does not change. In the lower relation graph of FIG. 11, the part represented by a dotted line shows an approximate line of the position parameter value before correction.

一方、ステップS20で、検出された実際に撮影された被写体の3次元の座標位置と現在特定されているフレームの登録されている各位置パラメータの値との差が所定値以上でないと判断すると、CPU10は、現在特定しているフレームの次のフレームの位置パラメータが登録されているか否かを判断する(ステップS25)。   On the other hand, if it is determined in step S20 that the difference between the detected three-dimensional coordinate position of the actually photographed subject and the value of each registered position parameter of the currently specified frame is not greater than or equal to a predetermined value, The CPU 10 determines whether or not the position parameter of the frame next to the currently specified frame is registered (step S25).

ステップS25で、現在特定しているフレームの次のフレームの位置パラメータが登録されていると判断するとステップS26に進む。
ステップS26に進むと、CPU10は、現在特定されているフレームの次のフレームを撮影対象として特定して、ステップS13に戻る。
次のフレームとは、たとえば、現在特定しているフレームが1枚目のフレームの場合は次のフレームとして2枚目のフレームを特定し、現在特定されているフレームが2枚目のフレームの場合は次のフレームとして3枚目のフレームを特定する。
If it is determined in step S25 that the position parameter of the frame next to the currently specified frame is registered, the process proceeds to step S26.
In step S26, the CPU 10 specifies a frame next to the currently specified frame as a subject to be photographed, and returns to step S13.
For example, when the currently specified frame is the first frame, the second frame is specified as the next frame, and the currently specified frame is the second frame. Specifies the third frame as the next frame.

一方、ステップS23で、現在特定しているフレーム後のフレームの位置パラメータが登録されていないと判断された場合、ステップS25で現在特定しているフレームの次のフレームの位置パラメータが登録されていないと判断すると、図8のステップS31に進み、CPU10は、次のフレームを撮影するか否かを判断する。
ここでは、N枚目のフレームの位置パラメータまで登録しているので、現在特定しているフレームがN枚目のフレームの場合には、ステップS23やステップS25で、現在特定しているフレーム後の、若しくは、現在特定しているフレームの次のフレームの位置パラメータが登録されていないと判断することになる。
On the other hand, if it is determined in step S23 that the position parameter of the frame after the currently specified frame is not registered, the position parameter of the frame next to the currently specified frame is not registered in step S25. If it is determined, the process proceeds to step S31 in FIG. 8, and the CPU 10 determines whether or not to capture the next frame.
Here, since the position parameter of the Nth frame is registered, if the currently specified frame is the Nth frame, in step S23 or step S25, the frame after the currently specified frame is registered. Alternatively, it is determined that the position parameter of the frame next to the currently specified frame is not registered.

このとき、CPU10は、「次のフレームを撮影しますか」という質問を画像表示部15に表示させ、ユーザによってSETキーの操作が行われると次のフレームを撮影すると判断し、ユーザによってキャンセルキーの操作が行われると次のフレームを撮影しないと判断する。
ステップS31で、次のフレームを撮影すると判断すると、CPU10は、次のフレームを撮影対象として特定する(ステップS32)。
At this time, the CPU 10 displays a question “Do you want to shoot the next frame” on the image display unit 15, determines that the next frame is shot when the user operates the SET key, and the user presses the cancel key. If the above operation is performed, it is determined that the next frame is not shot.
If it is determined in step S31 that the next frame is to be shot, the CPU 10 specifies the next frame as a shooting target (step S32).

次いで、CPU10は、登録されている各フレームの位置パラメータに基づいて、該特定したフレームの被写体の各位置パラメータを予測する(ステップS33)。この予測はスプライン関数によって予測する。このとき、次のフレームの各位置パラメータの値と既に登録されている過去の各フレームの各位置パラメータの値とが滑らかになるように、該次のフレームの各位置パラメータを予測する。   Next, the CPU 10 predicts each position parameter of the subject of the specified frame based on the registered position parameter of each frame (step S33). This prediction is predicted by a spline function. At this time, each position parameter of the next frame is predicted so that the value of each position parameter of the next frame and the value of each position parameter of each past frame already registered are smooth.

次いで、CPU10は、スルー画像表示を開始して(ステップS34)、該予測された被写体の各位置パラメータの値及びステップS11で設定された被写体の大きさに基づいて、該特定されているフレームの被写体の撮影予定状態を示した撮影予定状態枠を画像表示部15に透過表示させる(ステップS35)。この透過表示は上述したステップS14と同じ動作なのでここでは説明を省略する。   Next, the CPU 10 starts to display a through image (step S34), and based on the predicted value of each position parameter of the subject and the size of the subject set in step S11, the CPU 10 A scheduled shooting state frame indicating the scheduled shooting state of the subject is displayed transparently on the image display unit 15 (step S35). Since this transmissive display is the same operation as step S14 described above, the description thereof is omitted here.

次いで、CPU10は、シャッタボタンが押下されたか否かを判断する(ステップS36)。
このとき、ユーザは、デジタルカメラ1の位置を変えることにより、撮影したい被写体が該透過表示された撮影予定状態枠と同じとなるように、被写体の位置、大きさを調整し、被写体の位置、大きさが透過表示された撮影予定状態枠と同じと判断した場合に、シャッタボタンを押下する。
Next, the CPU 10 determines whether or not the shutter button has been pressed (step S36).
At this time, by changing the position of the digital camera 1, the user adjusts the position and size of the subject so that the subject to be photographed is the same as the scheduled shooting state frame that is transparently displayed. When it is determined that the size is the same as the scheduled shooting state frame that is transparently displayed, the shutter button is pressed.

ステップS36で、シャッタボタンが押下されていないと判断すると押下されたと判断するまでステップS36に留まり、シャッタボタンが押下されたと判断すると、CPU10は、静止画撮影処理を行い、該得られた画像データを現在特定されているフレームの画像データとしてフラッシュメモリ14に記録する(ステップS37)。このとき、現在特定されているフレームの情報を一緒に記録する。このフレームの情報とは、何枚目のフレームに対応する画像データであるか否かを示す情報のことである。   If it is determined in step S36 that the shutter button has not been pressed, the process stays in step S36 until it is determined that the shutter button has been pressed. If it is determined that the shutter button has been pressed, the CPU 10 performs still image shooting processing and obtains the obtained image data. Are recorded in the flash memory 14 as image data of the currently specified frame (step S37). At this time, information on the currently specified frame is recorded together. This frame information is information indicating whether or not the image data corresponds to what frame.

次いで、CPU10は、実際に撮影された画像データに基づいて、実際の被写体の位置、大きさを特定する(ステップS38)。この大きさの特定は、該透過表示された撮影予定状態枠付近にある被写体の特徴点を複数抽出し、該複数抽出した特徴点により被写体の輪郭を特定し、位置の特定は、該特定した輪郭の中央部を被写体の位置として特定する。   Next, the CPU 10 specifies the actual position and size of the subject based on the actually captured image data (step S38). The size is specified by extracting a plurality of feature points of the subject in the vicinity of the transparently displayed scheduled shooting state frame, specifying the contour of the subject by the extracted feature points, and specifying the position The center of the contour is specified as the position of the subject.

次いで、CPU10は、該特定した実際の被写体の位置、大きさに基づいて、被写体の3次元の座標位置を検出する(ステップS39)。この2次元のものから3次元のものを検出する技術は周知技術なので説明を割愛する。
そして、CPU10は、該検出した3次元の座標位置と、現在特定されているフレームの登録されている各位置パラメータの値とを比較する(ステップS40)。
Next, the CPU 10 detects the three-dimensional coordinate position of the subject based on the identified actual subject position and size (step S39). Since the technique for detecting the three-dimensional one from the two-dimensional one is a well-known technique, the description is omitted.
Then, the CPU 10 compares the detected three-dimensional coordinate position with the value of each registered position parameter of the currently specified frame (step S40).

次いで、CPU10は、該比較した両者の値の差が所定値以上であるか否かを判断する(ステップS41)。
ステップS40で、その差が所定値以上であると判断すると、CPU10は、画像の撮り直しを行うか否かを判断する(ステップS42)。
このとき、CPU10は、「予定していた被写体の撮影予定状態と違います。画像を撮り直しますか」という表示をさせ、ユーザによってSETキーの操作が行われると画像の撮り直しをしないと判断し、キャンセルキーの操作が行われると画像の撮り直しをすると判断する。
Next, the CPU 10 determines whether or not the difference between the compared values is equal to or greater than a predetermined value (step S41).
If it is determined in step S40 that the difference is greater than or equal to a predetermined value, the CPU 10 determines whether or not to retake the image (step S42).
At this time, the CPU 10 displays the message “Different from the planned shooting state of the subject. Do you want to retake the image?” And determines that the image is not retaken when the user operates the SET key. When the cancel key is operated, it is determined that the image is retaken.

ステップS42で、画像の撮り直しを行うと判断すると、CPU10は、現在特定されているフレームとしてステップS37で記録した画像データを削除して(ステップS43)、ステップS34に戻る。
一方、ステップS42で画像の撮り直しをしないと判断した場合は、CPU10は、ステップS39で検出した実際に撮影した被写体の3次元の座標位置を、現在特定しているフレームの被写体の各位置パラメータの値として位置パラメータテーブルに新たに追加記録(追加登録)して(ステップS44)、ステップS31に戻る。
If it is determined in step S42 that the image is retaken, the CPU 10 deletes the image data recorded in step S37 as the currently specified frame (step S43), and the process returns to step S34.
On the other hand, if it is determined in step S42 that the image is not retaken, the CPU 10 determines the three-dimensional coordinate position of the actually photographed subject detected in step S39 as the position parameter of the subject of the currently specified frame. Is newly recorded (additionally registered) as a value in the position parameter table (step S44), and the process returns to step S31.

また、ステップS41でその差が所定値以上でないと判断した場合、ステップS33で予測した各位置パラメータを現在特定しているフレームの位置パラメータとして新たに追加記録(追加登録)して(ステップS45)、ステップS31に戻る。
一方、ステップS31で、次のフレームを撮影しないと判断すると、該記録した画像データに基づいて、フラッシュメモリ14上に動画ファイルを生成する(ステップS46)。
If it is determined in step S41 that the difference is not greater than or equal to the predetermined value, each position parameter predicted in step S33 is additionally recorded (additionally registered) as a position parameter of the currently specified frame (step S45). Return to step S31.
On the other hand, if it is determined in step S31 that the next frame is not shot, a moving image file is generated on the flash memory 14 based on the recorded image data (step S46).

図12は、位置パラメータが登録されているフレーム後のフレームを撮影するとステップS31で判断された場合に、新たに追加登録されたフレームのx位置のパラメータの様子を示す図である。
図12を見るとわかるように、n枚目のフレームの位置パラメータまでしか登録されていなかったが、n枚目以降のフレームの位置パラメータが登録されたのがわかる。過去の各フレームの位置パラメータに基づいて、該特定しているフレームの各位置パラメータの値が推測され、撮影予定状態枠が表示される。そして、実際に撮影された被写体の3次元の座標位置と該推測した各位置パラメータの値の差が所定値以上でない場合には該推測した各位置パラメータの値が該特定しているフレームの位置パラメータとして登録され、その差が所定値以上の場合には実際に撮影された被写体の3次元の座標位置が該特定しているフレームの各位置パラメータの値として登録される。
FIG. 12 is a diagram illustrating a state of the x-position parameter of a newly additionally registered frame when it is determined in step S31 that a frame after the frame in which the position parameter is registered is captured.
As can be seen from FIG. 12, only the position parameters of the nth frame have been registered, but it can be seen that the position parameters of the nth and subsequent frames have been registered. Based on the position parameter of each past frame, the value of each position parameter of the specified frame is estimated, and a scheduled shooting state frame is displayed. If the difference between the three-dimensional coordinate position of the actually photographed subject and the estimated value of each position parameter is not equal to or greater than a predetermined value, the estimated position parameter value indicates the position of the specified frame. When the difference is greater than or equal to a predetermined value, the three-dimensional coordinate position of the actually photographed subject is registered as the value of each position parameter of the specified frame.

以上のように、実施の形態においては、予めユーザが所望する動きとなるように、被写体の撮影予定状態を大まかに入力し(1部のフレームに対して各位置パラメータの値を入力し)、CPU10は、該入力した撮影予定状態に基づいて各フレームの撮影予定状態を算出して登録し、アニメーション動画撮影を行う場合には、各フレームの撮影毎に、該登録した撮影予定状態を示す撮影予定状態枠を透過表示させることにより、該登録した撮影予定状態と同じ状態で被写体の撮影するにようにユーザに促すことができ、アニメーション動画を容易に作成することができる。   As described above, in the embodiment, the planned shooting state of the subject is roughly input so that the user's desired movement is obtained in advance (the value of each position parameter is input for one frame) The CPU 10 calculates and registers the shooting schedule state of each frame based on the input shooting schedule state, and when performing animation moving image shooting, the shooting indicating the registered shooting schedule state for each frame shooting. By transparently displaying the scheduled state frame, the user can be prompted to shoot the subject in the same state as the registered scheduled shooting state, and an animated movie can be easily created.

また、ユーザは、被写体の動きが所望の動きとなるように、1部のフレームに対して各位置パラメータの値を入力すると、自動的に各フレームの各位置パラメータの値を決めるので、ユーザは容易に位置パラメータの値を決めることができる。また、ユーザによって入力された1部のフレームの各位置パラメータの値に基づいて各フレームの位置パラメータの値が滑らかになるように、各位置パラメータの値を決めるので、被写体の動きが滑らかなアニメーション動画を作成することができる。
また、実際に撮影された被写体の状態と、登録した撮影予定状態の差が所定値以上ある場合に、画像の撮り直すことができるので、登録した撮影予定状態となるような画像を得ることができる。また、画像の撮り直しをしない場合は、被写体の動きが滑らかになるように、実際に撮影された被写体の状態に基づいて、以後のフレームの撮影予定状態を修正するようにしたので、登録した撮影予定状態と違う状態で被写体を撮影した場合であっても、被写体の動きが滑らかになるように、被写体を撮影することができ、動きが滑らかなアニメーション動画を作成することができる。
Further, when the user inputs the value of each position parameter for one frame so that the movement of the subject becomes a desired movement, the user automatically determines the value of each position parameter of each frame. The position parameter value can be easily determined. In addition, since the position parameter value is determined so that the position parameter value of each frame becomes smooth based on the value of each position parameter of a part of the frame input by the user, the animation in which the movement of the subject is smooth You can create a video.
In addition, when the difference between the state of the actually photographed subject and the registered planned shooting state is greater than or equal to a predetermined value, the image can be retaken, so that an image that is in the registered planned shooting state can be obtained. it can. In addition, when not re-taking the image, the scheduled shooting state of the subsequent frames was corrected based on the state of the actually shot subject so that the movement of the subject was smooth. Even when the subject is shot in a state different from the scheduled shooting state, the subject can be shot so that the movement of the subject is smooth, and an animation movie with smooth movement can be created.

また、位置パラメータを登録していないフレームを撮影する場合であっても、登録されている各フレームの各位置パラメータに基づいて、これから撮影する各位置パラメータの値を推測するので、位置パラメータを登録していないフレームを撮影する場合であっても対応することができる。たとえば、当初はこのぐらいの枚数を撮影すると思ってフレームの各位置パラメータの登録したが、実際に撮影してみてもう少しフレームを多く撮影したいと思う場合であっても対応することができる。   Also, even when shooting a frame for which no position parameter is registered, the position parameter is registered because the value of each position parameter to be shot is estimated based on each registered position parameter of each frame. Even when a frame that has not been photographed is taken, it can be dealt with. For example, the position parameters of the frames are registered at first because it is assumed that such a number of images will be shot, but this can be handled even when the user actually wants to shoot a few more frames.

[変形例]
D.上記実施の形態は以下のような態様でもよい。
[Modification]
D. The above embodiment may be the following modes.

(01)上記実施の形態において、CCD5を、x軸とy軸の平面上にあり、且つ、CCD5の中心を(x,y,z)=(0,0,0)とするようにしたが、CCD5をx軸とy軸の平面上になくてもよいし、CCD5の中心を(x,y,z)=(0,0,0)でなくてもよい。つまり、x、y、zで構成される3次元を任意の角度、及び、距離にCCD5を配置したときに見える被写体を2次元投射により生成するようにしてもよい。   (01) In the above embodiment, the CCD 5 is on the plane of the x-axis and the y-axis, and the center of the CCD 5 is (x, y, z) = (0, 0, 0). The CCD 5 may not be on the plane of the x-axis and the y-axis, and the center of the CCD 5 may not be (x, y, z) = (0, 0, 0). That is, a three-dimensional object composed of x, y, and z may be generated by two-dimensional projection when the CCD 5 is arranged at an arbitrary angle and distance.

(02)上記実施の形態において、フレーム毎に3次元の各位置パラメータを登録するようにしたが、フレーム毎にCCD5上の被写体の位置、及び、その大きさを登録するようにしてもよい。   (02) In the above embodiment, each three-dimensional position parameter is registered for each frame. However, the position of the subject on the CCD 5 and its size may be registered for each frame.

(03)上記実施の形態においては、各フレームの被写体の撮影予定状態として、3次元の各位置パラメータを登録するようにしたが、さらに、各フレーム毎の被写体の向きを示すパラメータを登録するようにしてもよい。
このときは、撮影予定となる被写体の位置、大きさとともにその向きも撮影予定状態として表示させるようにしてもよい。
また、このとき、実際に撮影された画像データに基づいて、被写体の向きを検出する方法としては、たとえば、被写体が人、動物などの目があるものである場合は、目と目の間の距離に応じて被写体の向きを検出するようにしてもよい。正面を向いているときの目と目の間の距離が一番長く、被写体の向きが斜めになるにつれて目と目の間の距離は短くなっていくからである。つまり、目の特徴点の相対的な位置関係によって被写体の向きを検出する。
また、撮影する被写体を360度のあらゆる角度から撮影して登録しておき、該登録した被写体の360度のあらゆる角度の画像データと、実際に撮影された被写体の画像データとを比較照合することにより実際に撮影された被写体の向きを検出するようにしてもよい。
また、図7のステップS17、図8のステップS38でも、上記登録した被写体の360度のあらゆる角度から撮影した画像データに基づいて、実際に撮影された被写体がいる位置及び大きさも特定するようにしてもよい。
(03) In the above embodiment, each of the three-dimensional position parameters is registered as the scheduled shooting state of the subject of each frame. However, a parameter indicating the direction of the subject for each frame is further registered. It may be.
At this time, the position and size of the subject to be photographed as well as the direction thereof may be displayed as the scheduled photographing state.
At this time, as a method of detecting the direction of the subject based on the actually captured image data, for example, when the subject has eyes such as a person or an animal, the distance between the eyes The direction of the subject may be detected according to the distance. This is because the distance between the eyes when facing the front is the longest, and the distance between the eyes becomes shorter as the direction of the subject becomes oblique. That is, the direction of the subject is detected based on the relative positional relationship between the feature points of the eyes.
Further, the subject to be photographed is photographed and registered from every angle of 360 degrees, and the image data of every 360 degrees of the registered subject is compared with the image data of the actually photographed subject. Thus, the direction of the actually photographed subject may be detected.
Also, in step S17 in FIG. 7 and step S38 in FIG. 8, the position and size of the actually photographed subject are also specified based on the image data of the registered subject taken from all angles of 360 degrees. May be.

(04)上記実施の形態においては、被写体の撮影予定状態を、枠を表示させることにより撮影予定状態を表示させるようにしたが、枠に限らず、他の方法によって表示させるようにしてもよい。   (04) In the above embodiment, the planned shooting state of the subject is displayed by displaying a frame. However, the shooting planned state is not limited to the frame and may be displayed by other methods. .

(05)上記実施の形態においては、予め各フレームの位置パラメータを登録して、アニメーション動画撮影を行うようにしたが、複数フレーム撮影をしていき、該撮影された画像データに基づいて被写体の3次元の座標位置を検出し、該検出された座標位置に基づいてその後のフレームの各位置パラメータを推測して透過表示させていくようにしてもよい。   (05) In the above-described embodiment, the position parameter of each frame is registered in advance and animation moving image shooting is performed. However, a plurality of frames are shot, and the subject image is captured based on the captured image data. A three-dimensional coordinate position may be detected, and each position parameter of a subsequent frame may be estimated based on the detected coordinate position and displayed transparently.

(06)上記実施の形態においては、登録されていないフレームの各位置パラメータの値を推測する場合は、少なくとも直前の2フレームの各位置パラメータに基づいて被写体の速度と移動している方向を算出し、該算出した被写体の速度と同じ速度で該算出した方向に移動した場合における各位置パラメータの値を算出するようにしてもよい。
また、登録されていないフレームの各位置パラメータの値を推測する場合は、少なくとも直前の3フレームの各位置パラメータに基づいて、被写体の加速度と移動している方向を算出し、該算出した加速度と同じ加速度で該算出した方向に移動した場合における各位置パラメータの値を算出するようにしてもよい。
また、登録されていないフレームの被写体の向きを示すパラメータの値を推測する場合は、少なくとも直前の2フレームの向きが変化する方向と、その変化の速度を算出し、該算出した速度と同じ速度で、該算出した向きが変化する方向に向きが変わった場合における向きを示すパラメータの値を算出するようにしてもよい。
(06) In the above embodiment, when estimating the value of each position parameter of an unregistered frame, the speed of the subject and the moving direction are calculated based on at least the position parameters of the two immediately preceding frames. Then, the value of each position parameter when moving in the calculated direction at the same speed as the calculated subject speed may be calculated.
Further, when estimating the value of each position parameter of a non-registered frame, the acceleration of the subject and the moving direction are calculated based on at least the position parameters of the immediately preceding three frames, and the calculated acceleration and The value of each position parameter when moving in the calculated direction with the same acceleration may be calculated.
When estimating the value of a parameter indicating the direction of a subject in an unregistered frame, at least the direction in which the direction of the previous two frames changes and the speed of the change are calculated, and the same speed as the calculated speed Thus, the value of the parameter indicating the direction when the direction changes to the direction in which the calculated direction changes may be calculated.

(07)上記実施の形態においては、ユーザによって入力された1部のフレームの被写体の状態を示した各位置パラメータによって、他のフレームの各位置パラメータを算出することにより、同時に、被写体の動きを特定するようにしたが、ユーザによって入力された概略的な被写体の動きによって、被写体の一連の動きを特定し、該特定された被写体の動きに基づいて、各フレームの各位置パラメータを算出するようにしてもよい。これによっても、アニメーション動画を容易に作成することができる。   (07) In the above embodiment, by calculating the position parameters of other frames based on the position parameters indicating the state of the subject of a part of the frame input by the user, the movement of the object is simultaneously detected. Although specified, a series of movements of the subject is specified based on the approximate movement of the subject input by the user, and each position parameter of each frame is calculated based on the movement of the specified subject. It may be. This also makes it possible to easily create an animation movie.

このユーザの被写体の概略的な動きの入力は、上記実施の形態のように、一部のフレームの被写体の状態を示した各位置パラメータによって直接概略的な被写体の動きを入力するようにしてもよいし、3次元空間において、ある時刻ではこの位置、この時刻ではこの位置という具合に被写体の動きを概略的に入力するようにしてもよい。
また、この場合は、該入力された概略的な被写体の動きに基づいて特定する一連の被写体の動きは、動きが滑らかになるように特定する。そして、該特定された動きに基づいて、各フレームに対応した被写体状態に変換し、各フレームの各位置パラメータを算出する。なお、このとき、ユーザによって入力されたフレームの位置パラメータの値を変えないように被写体の動きを特定するようにしてもよいし、ユーザによって入力されたフレームの位置パラメータの値によって、被写体の動きが滑らかにならない場合は、ユーザによって入力されたフレームの位置パラメータの値を変えて(修正して)、被写体の動きを特定するようにしてもよい。
As for the input of the approximate movement of the subject of the user, the approximate movement of the subject may be directly input by each position parameter indicating the state of the subject of some frames as in the above embodiment. Alternatively, in a three-dimensional space, the movement of the subject may be roughly input at this position at a certain time and at this time.
In this case, a series of subject movements specified based on the input schematic subject movement are specified so that the movement is smooth. Then, based on the identified movement, the object state corresponding to each frame is converted, and each position parameter of each frame is calculated. At this time, the movement of the subject may be specified so as not to change the value of the position parameter of the frame input by the user, or the movement of the subject may be determined according to the value of the position parameter of the frame input by the user. If the image does not become smooth, the value of the position parameter of the frame input by the user may be changed (corrected) to specify the movement of the subject.

また、この場合、上記実施の形態においては、撮影予定の各位置パラメータと実際に撮影された被写体の3次元の座標位置が異なる場合は、以後のフレームの各位置パラメータを修正するようにしたが、特定した被写体の動きを修正(新たに特定)し、該修正された被写体の動きに基づいて、各フレームの位置パラメータを算出する。これにより、被写体の動きが滑らかになるように被写体を撮像することができる。
同様に、位置パラメータが登録されていないフレームを撮像する場合も、これまでの被写体の動きを予測して被写体の動きを新たに特定し、該特定された被写体の動きに基づいて、該フレームの位置パラメータを算出する。この動きの予測は、これまでに撮像されたフレームの各位置パラメータに基づいて、被写体の動きの方向、速度、加速度、向き等を特定し、該特定された被写体の動きに基づいて各フレームのパラメータの値を求める。これにより、被写体の動きが滑らかになるように被写体を撮像することができる。
In this case, in the above-described embodiment, when each position parameter to be photographed is different from the three-dimensional coordinate position of the actually photographed subject, each position parameter of the subsequent frame is corrected. Then, the movement of the specified subject is corrected (newly specified), and the position parameter of each frame is calculated based on the corrected movement of the subject. As a result, the subject can be imaged so that the movement of the subject is smooth.
Similarly, when imaging a frame in which no position parameter is registered, the movement of the subject is predicted, the movement of the subject is newly specified, and the movement of the frame is determined based on the movement of the specified subject. A position parameter is calculated. This motion prediction identifies the direction, speed, acceleration, direction, etc. of the subject's motion based on the position parameters of the frames that have been captured so far, and determines each frame's motion based on the identified subject's motion. Find the parameter value. As a result, the subject can be imaged so that the movement of the subject is smooth.

(08)上記実施の形態においては、背景に対してカメラを特定した場合について説明したが、背景に対してカメラを固定しない場合にも適用してもよい。この場合は、登録された各フレームの位置パラメータと、カメラの位置に基づいて、被写体の撮影予定状態を透過表示させる。   (08) In the above embodiment, the case where the camera is specified with respect to the background has been described. However, the present invention may be applied to the case where the camera is not fixed with respect to the background. In this case, based on the registered position parameter of each frame and the position of the camera, the planned shooting state of the subject is transparently displayed.

(09)上記変形例(01)乃至(08)を矛盾しない範囲内で任意に組み合わせた態様であってもよい。   (09) A mode in which the above-described modifications (01) to (08) are arbitrarily combined within a consistent range may be used.

(10)また、本発明の上記実施形態は、何れも最良の実施形態としての単なる例に過ぎず、本発明の原理や構造等をより良く理解することができるようにするために述べられたものであって、添付の特許請求の範囲を限定する趣旨のものでない。
したがって、本発明の上記実施形態に対してなされ得る多種多様な変形ないし修正はすべて本発明の範囲内に含まれるものであり、添付の特許請求の範囲によって保護されるものと解さなければならない。
(10) The above embodiments of the present invention are merely examples as the best embodiments, and are described in order to better understand the principle and structure of the present invention. And is not intended to limit the scope of the appended claims.
Therefore, it should be understood that all the various variations and modifications that can be made to the above-described embodiments of the present invention are included in the scope of the present invention and protected by the appended claims.

最後に、上記実施の形態においては、本発明の撮影装置をデジタルカメラ1に適用した場合について説明したが、上記の実施の形態に限定されるものではなく、要は、被写体を撮影することができる機器であれば適用可能である。   Finally, in the above-described embodiment, the case where the photographing apparatus of the present invention is applied to the digital camera 1 has been described. However, the present invention is not limited to the above-described embodiment. Any device that can be used is applicable.

本発明の実施の形態のデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. パラメータ登録の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of parameter registration. x、y、zで表わされる3次元の様子の一例、及び、表示された位置グラフの様子の一例を示す図である。It is a figure which shows an example of the state of the three-dimensional state represented by x, y, z, and the state of the displayed position graph. x位置パラメータの入力が完了したときの、入力されたx位置パラメータの様子の一例、及び、該入力された位置パラメータに基づいてスプライン関数により求められた近似線が表示されたときの様子の一例を示す図である。An example of the state of the input x-position parameter when the input of the x-position parameter is completed, and an example of the state when the approximate line obtained by the spline function based on the input position parameter is displayed FIG. 登録されるy位置パラメータの元となる近似線の様子の一例、及び、登録されるz位置パラメータの元となる近似線の様子の一例を示すものである。An example of the appearance of the approximate line that is the origin of the registered y position parameter and an example of the appearance of the approximate line that is the origin of the registered z position parameter are shown. メモリ12の位置パラメータテーブルに登録された被写体の各位置パラメータの様子の一例を示す図である。It is a figure which shows an example of the mode of each position parameter of the to-be-photographed object registered into the position parameter table of the memory. アニメーション動画撮影の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of animation moving image photography. アニメーション動画撮影の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of animation moving image photography. 該特定されているフレームの各位置パラメータの値と、被写体の大きさに基づいて生成される3次元モデルの一例を示すものである。An example of a three-dimensional model generated based on the value of each position parameter of the specified frame and the size of the subject is shown. 生成された被写体の撮影予定状態枠の一例を示す図である。It is a figure which shows an example of the imaging | photography plan state frame of the produced | generated subject. 修正されたx位置パラメータとフレームとの関係グラフの様子の一例を示す図である。It is a figure which shows an example of the mode of the relationship graph of the corrected x position parameter and a flame | frame. 新たに追加登録されたフレームのx位置のパラメータの様子を示す図である。It is a figure which shows the mode of the parameter of the x position of the flame | frame newly newly registered.

符号の説明Explanation of symbols

1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り
5 CCD
6 ドライバ
7 TG
8 ユニット回路
9 画像生成部
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 フラッシュメモリ
15 画像表示部
16 バス
1 Digital Camera 2 Shooting Lens 3 Lens Drive Block 4 Aperture 5 CCD
6 Driver 7 TG
8 Unit circuit 9 Image generator 10 CPU
11 Key input section 12 Memory 13 DRAM
14 Flash memory 15 Image display unit 16 Bus

Claims (20)

撮影された複数の画像データを用いて所定の被写体の動きを表現した実写アニメーション動画の作成を支援する撮影手段と電子ファインダを備えた撮影装置であって、
前記実写アニメーション動画を構成する各フレームに対応させて、前記所定の被写体の状態を示したパラメータを生成する生成手段と、
前記生成手段により生成されたパラメータに基づいて、各フレームの撮影の際に、撮影するフレームに対応する前記被写体の撮影予定状態を前記電子ファインダに案内表示させる案内表示制御手段と、
前記案内表示制御手段による案内表示に対応して前記撮影手段により撮影された各フレームの画像データに基づいて動画データを生成する動画生成手段と、
を備えたことを特徴とする撮影装置。
An imaging device including an imaging unit and an electronic viewfinder for supporting the creation of a live-action animation movie that expresses the movement of a predetermined subject using a plurality of captured image data,
Generating means for generating a parameter indicating the state of the predetermined subject in correspondence with each frame constituting the live-action animation video;
Based on the parameters generated by the generating means, guidance display control means for guiding and displaying the planned shooting state of the subject corresponding to the frame to be shot on the electronic viewfinder when shooting each frame;
Moving image generation means for generating moving image data based on image data of each frame imaged by the imaging means corresponding to the guidance display by the guidance display control means;
An imaging apparatus comprising:
前記実写アニメーション動画の背景部分に対応した3次元空間内での前記所定の被写体の動きを特定する特定手段と、
前記生成手段は、
前記実写アニメーション動画における各フレームが再生されるタイミング情報に従って、前記特定手段によって特定された前記3次元空間内での前記所定の被写体の動きを、各フレームに対応した前記所定の被写体の状態に変換することにより、前記パラメータを生成することを特徴とする請求項1記載の撮影装置。
Specifying means for specifying the movement of the predetermined subject in a three-dimensional space corresponding to the background portion of the live-action animation video;
The generating means includes
The movement of the predetermined subject in the three-dimensional space specified by the specifying means is converted into the state of the predetermined subject corresponding to each frame in accordance with timing information at which each frame in the live-action animation movie is reproduced. The imaging apparatus according to claim 1, wherein the parameter is generated.
前記アニメーション動画を構成する各フレームのうち、一部のフレームに写る前記所定の被写体の状態を示すパラメータをユーザが入力するための入力手段を備え、
前記特定手段は、
前記入力手段により入力された一部のフレームに写る前記所定の被写体の状態を示すパラメータに基づいて、前記実写アニメーション動画の背景部分に対応した3次元空間内での前記所定の被写体の動きを特定することを特徴とする請求項2記載の撮影装置。
An input means for a user to input a parameter indicating a state of the predetermined subject in a part of the frames constituting the animation moving image;
The specifying means is:
The movement of the predetermined subject in the three-dimensional space corresponding to the background portion of the live-action animation movie is specified based on the parameter indicating the state of the predetermined subject that is captured in a part of the frames input by the input unit The photographing apparatus according to claim 2, wherein:
前記特定手段は、
前記入力手段により入力された一部のフレームに写る前記所定の被写体の状態を示すパラメータに基づいて、前記所定の被写体の動きが滑らかになるように、前記実写アニメーション動画の背景部分に対応した3次元空間内での前記所定の被写体の動きを特定することを特徴とする請求項3記載の撮像装置。
The specifying means is:
3 corresponding to the background portion of the live-action animation video so that the movement of the predetermined subject is smoothed based on the parameter indicating the state of the predetermined subject that is captured in a part of the frames input by the input means. The imaging apparatus according to claim 3, wherein a movement of the predetermined subject in a dimensional space is specified.
前記特定手段は、
前記所定の被写体の動きが滑らかになるように、前記入力手段により入力された一部のフレームに写る前記所定の被写体の状態を示すパラメータを修正して、前記実写アニメーション動画の背景部分に対応した3次元空間内での前記所定の被写体の動きを特定することを特徴とする請求項3記載の撮像装置。
The specifying means is:
The parameter indicating the state of the predetermined subject captured in a part of the frames input by the input unit is corrected so that the movement of the predetermined subject is smooth, and the background corresponding to the background portion of the live-action animation moving image is corrected. The imaging apparatus according to claim 3, wherein the movement of the predetermined subject in a three-dimensional space is specified.
実際に撮影された画像データに基づいて、実際に撮影されたフレームに対応する前記所定の被写体の撮影状態を示すパラメータを検出する検出手段を備え、
前記特定手段は、
前記検出手段により検出されたパラメータに基づいて、前記実写アニメーション動画の背景部分に対応した3次元空間内での前記所定の被写体の動きを新たに特定することを特徴とする請求項2乃5の何れかに至記載の撮影装置。
A detection unit for detecting a parameter indicating a shooting state of the predetermined subject corresponding to the actually shot frame based on the actually shot image data;
The specifying means is:
6. The movement of the predetermined subject in the three-dimensional space corresponding to the background portion of the live-action animation moving image is newly specified based on the parameter detected by the detecting means. An imaging device described in any one of the above.
前記特定手段は、
前記検出手段により検出された、少なくともパラメータを生成する現フレームの直前の2フレームの状態に基づいて、前記所定の被写体の移動の方向と速度を特定し、
前記生成手段は、
該検出された移動の方向及び速度に基づいて、該現フレームのパラメータを生成することを特徴とする請求項6記載の撮影装置。
The specifying means is:
Identifying a direction and speed of movement of the predetermined subject based on at least two frame states immediately before the current frame for generating a parameter detected by the detection means;
The generating means includes
7. The photographing apparatus according to claim 6, wherein the parameter of the current frame is generated based on the detected direction and speed of movement.
前記特定手段は、
前記検出手段により検出された、少なくともパラメータを生成する現フレームの直前の3フレームの状態に基づいて、前記被写体の移動の方向と加速度を特定し、
前記生成手段は、
該検出された移動の方向及び加速度に基づいて、該現フレームのパラメータを生成することを特徴とする請求項6又は7記載の撮影装置。
The specifying means is:
Identifying the direction and acceleration of movement of the subject based on at least the state of the three frames immediately before the current frame for generating the parameters detected by the detecting means;
The generating means includes
8. The photographing apparatus according to claim 6, wherein the parameter of the current frame is generated based on the detected direction of movement and acceleration.
前記特定手段は、
前記検出手段により検出された、少なくともパラメータを生成する現フレームの直前の2フレームの状態に基づいて、前記所定の被写体の向きが変化する方向と速度を特定し、
前記生成手段は、
該検出された向きが変化する方向及び速度に基づいて、該現フレームのパラメータを生成することを特徴とする請求項6乃至8の何れかに記載の撮影装置。
The specifying means is:
Identifying a direction and a speed at which the direction of the predetermined subject changes based on at least two frame states immediately before the current frame for generating a parameter detected by the detection unit;
The generating means includes
9. The photographing apparatus according to claim 6, wherein a parameter of the current frame is generated based on a direction and speed at which the detected direction changes.
前記アニメーション動画を構成する各フレームのうち、一部のフレームに写る前記所定の被写体の状態を示すパラメータをユーザが入力するための入力手段を備え、
前記生成手段は、
前記入力手段により入力された一部のフレームに対応するパラメータに基づいて、該被写体の動きが滑らかになるように、この一部のフレーム以外の各フレームに対応する該被写体の状態を示したパラメータを生成することを特徴とする請求項1記載の撮影装置。
An input means for a user to input a parameter indicating a state of the predetermined subject in a part of the frames constituting the animation moving image;
The generating means includes
A parameter indicating the state of the subject corresponding to each frame other than the part of the frame so that the movement of the subject is smooth based on the parameter corresponding to the part of the frame input by the input unit. The imaging apparatus according to claim 1, wherein:
前記生成手段は、
前記所定の被写体の動きが滑らかになるように、前記入力手段により入力されたパラメータを修正して、各フレームに写る該被写体の状態を示したパラメータを生成することを特徴とする請求項10記載の撮影装置。
The generating means includes
11. The parameter indicating the state of the subject in each frame is generated by correcting the parameter input by the input means so that the predetermined subject moves smoothly. Shooting device.
実際に撮影された画像データに基づいて、実際に撮影されたフレームに対応する前記所定の被写体の撮影状態を検出する検出手段と、
前記検出手段により検出された前記所定の被写体の撮影状態に基づいて、前記生成手段により生成されたパラメータのうち、まだ撮影されていないフレーム部分のパラメータを修正する修正手段と、
を備えたことを特徴とする請求項10又は11記載の撮影装置。
Detecting means for detecting a photographing state of the predetermined subject corresponding to the actually photographed frame based on the actually photographed image data;
Correction means for correcting a parameter of a frame portion that has not yet been photographed out of the parameters generated by the generation means based on the photographing state of the predetermined subject detected by the detection means;
The imaging apparatus according to claim 10 or 11, further comprising:
実際に撮影された各フレームの画像データに基づいて、実際に撮影された前記所定の被写体の撮影状態を検出する検出手段を備え、
前記生成手段は、
前記検出手段により検出された各フレームの前記所定の被写体の撮影状態に基づいて、まだ生成していないフレーム部分のパラメータを生成することを特徴とする請求項10乃至12の何れかに記載の撮影装置。
Based on the image data of each frame that was actually shot, a detection unit that detects the shooting state of the predetermined subject that was actually shot,
The generating means includes
13. The shooting according to claim 10, wherein a parameter of a frame portion that has not yet been generated is generated based on a shooting state of the predetermined subject in each frame detected by the detection means. apparatus.
前記生成手段は、
前記検出手段により検出された、少なくともパラメータを生成する現フレームの直前の2フレームの状態に基づいて、前記所定の被写体の移動の方向と、速度を検出し、該検出された移動の方向及び速度に基づいて、該現フレームのパラメータを生成することを特徴とする請求項13記載の撮影装置。
The generating means includes
The direction and speed of movement of the predetermined subject are detected based on the state of at least two frames immediately before the current frame for generating a parameter detected by the detecting means, and the direction and speed of the detected movement are detected. 14. The photographing apparatus according to claim 13, wherein the parameter of the current frame is generated based on the information.
前記生成手段は、
前記検出手段により検出された、少なくともパラメータを生成する現フレームの直前の3フレームの状態に基づいて、前記所定の被写体の移動の方向と、加速度を検出し、該検出された移動の方向及び加速度に基づいて、該現フレームのパラメータを生成することを特徴とする請求項13又は14記載の撮影装置。
The generating means includes
Based on at least the state of the three frames immediately before the current frame for generating the parameter detected by the detecting means, the direction and acceleration of the predetermined movement are detected, and the detected direction and acceleration of the movement are detected. 15. The photographing apparatus according to claim 13, wherein the parameter of the current frame is generated based on
前記生成手段は、
前記検出手段により検出された、少なくともパラメータを生成する現フレームの直前の2フレームの状態に基づいて、前記所定の被写体の向きが変化する方向と、速度を検出し、該検出された向きが変化する方向及び速度に基づいて、該現フレームのパラメータを生成することを特徴とする請求項13乃至15の何れかに記載の撮影装置。
The generating means includes
Based on the state of at least two frames immediately before the current frame for generating the parameter detected by the detecting means, the direction and speed of the predetermined subject change are detected, and the detected direction changes. 16. The photographing apparatus according to claim 13, wherein the parameter of the current frame is generated based on a direction and a speed of the photographing.
前記検出手段は、
前記被写体の特徴点を検出することにより、被写体の撮影状態を検出することを特徴とする6乃至9、12乃至16の何れかに記載の撮影装置。
The detection means includes
The photographing apparatus according to any one of 6 to 9, and 12 to 16, wherein a photographing state of the subject is detected by detecting a feature point of the subject.
前記検出手段は、
前記被写体の複数の特徴点を検出し、該検出された複数の特徴点の中心を被写体の位置として検出することを特徴とする請求項17記載の撮影装置。
The detection means includes
18. The photographing apparatus according to claim 17, wherein a plurality of feature points of the subject are detected, and the centers of the detected feature points are detected as subject positions.
前記検出手段は、
前記被写体の複数の特徴点を検出し、該検出された複数の特徴点の相対的な位置関係に基づいて前記被写体の向きを検出することを特徴とする請求項17又は18記載の撮影装置。
The detection means includes
The photographing apparatus according to claim 17 or 18, wherein a plurality of feature points of the subject are detected, and an orientation of the subject is detected based on a relative positional relationship between the detected feature points.
撮影された複数の画像データを用いて所定の被写体の動きを表現した実写アニメーション動画の作成を支援する撮影手段と電子ファインダを備えた撮影装置を実行させるためのプログラムであって、
前記実写アニメーション動画を構成する各フレームに対応させて前記所定の被写体の状態を示したパラメータを生成する生成処理と、
前記生成処理により生成されたパラメータに基づいて、各フレームの撮影の際に、撮影するフレームに対応する前記被写体の撮影予定状態を前記電子ファインダに案内表示させる案内表示制御処理と、
前記案内表示制御処理による案内表示に対応して前記撮影手段により撮影素子に撮影された各フレームの画像データに基づいて動画データを生成する動画生成処理と、
を含むことを特徴とするプログラム。
A program for executing an imaging device including an imaging unit and an electronic viewfinder that supports creation of a live-action animation movie that expresses the movement of a predetermined subject using a plurality of captured image data,
A generation process for generating a parameter indicating the state of the predetermined subject in correspondence with each frame constituting the live-action animation video;
Based on the parameters generated by the generation process, a guidance display control process that guides and displays on the electronic viewfinder the planned shooting state of the subject corresponding to the frame to be shot when shooting each frame;
A moving image generating process for generating moving image data based on the image data of each frame imaged on the imaging element by the imaging unit corresponding to the guidance display by the guidance display control process;
The program characterized by including.
JP2007268901A 2007-10-16 2007-10-16 Imaging apparatus and program thereof Expired - Fee Related JP4930905B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007268901A JP4930905B2 (en) 2007-10-16 2007-10-16 Imaging apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007268901A JP4930905B2 (en) 2007-10-16 2007-10-16 Imaging apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2009100167A JP2009100167A (en) 2009-05-07
JP4930905B2 true JP4930905B2 (en) 2012-05-16

Family

ID=40702765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007268901A Expired - Fee Related JP4930905B2 (en) 2007-10-16 2007-10-16 Imaging apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP4930905B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4497698B2 (en) * 2000-10-23 2010-07-07 キヤノン株式会社 camera
JP2003198900A (en) * 2001-12-21 2003-07-11 Sanyo Electric Co Ltd Digital camera
JP4281478B2 (en) * 2003-09-04 2009-06-17 カシオ計算機株式会社 Image photographing apparatus and program
JP5034343B2 (en) * 2006-07-06 2012-09-26 カシオ計算機株式会社 Imaging apparatus and program
JP2008097233A (en) * 2006-10-10 2008-04-24 Matsushita Electric Ind Co Ltd Camera work controlling device and camera work controlling method

Also Published As

Publication number Publication date
JP2009100167A (en) 2009-05-07

Similar Documents

Publication Publication Date Title
JP4985808B2 (en) Imaging apparatus and program
JP5054583B2 (en) Imaging device
KR101777354B1 (en) Digital photographing apparatus, method for controlling the same, and computer-readable storage medium
JP4784678B2 (en) Imaging apparatus, imaging method, and program
TWI459126B (en) Image processing device capable of generating a wide-range image, image processing method and recording medium
JP2008009263A (en) Imaging device and program therefor
KR101531167B1 (en) Photographing control method and apparatus according to motion of digital photographing apparatus
KR20090071471A (en) Imaging device and its shutter drive mode selection method
KR101433121B1 (en) Image processing device for generating composite image having predetermined aspect ratio
JP2008206020A (en) Imaging device and lens barrel
JP2011199566A (en) Imaging apparatus, imaging method and program
TW201301866A (en) Image processing device capable of generating wide-range image, image processing method, and recording medium
JP2010041299A (en) Electronic camera
KR20150078275A (en) Digital Photographing Apparatus And Method For Capturing a Moving Subject
JP4614143B2 (en) Imaging apparatus and program thereof
JP2009213114A (en) Imaging device and program
JP2008028747A (en) Imaging device and program thereof
KR20110055241A (en) Digital photographing apparatus and method for controlling the same
JP2012194487A (en) Imaging device, imaging method and program
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP2008301161A (en) Image processing device, digital camera, and image processing method
JP2008146024A (en) Photographing apparatus and photographing method
JP4930905B2 (en) Imaging apparatus and program thereof
JP5962974B2 (en) Imaging apparatus, imaging method, and program
KR101700360B1 (en) Digital photographing apparatus, method for controlling the apparatus, and medium for recording the method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120123

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Ref document number: 4930905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees