JP4553134B2 - Image generating apparatus and program thereof - Google Patents

Image generating apparatus and program thereof Download PDF

Info

Publication number
JP4553134B2
JP4553134B2 JP2005209069A JP2005209069A JP4553134B2 JP 4553134 B2 JP4553134 B2 JP 4553134B2 JP 2005209069 A JP2005209069 A JP 2005209069A JP 2005209069 A JP2005209069 A JP 2005209069A JP 4553134 B2 JP4553134 B2 JP 4553134B2
Authority
JP
Japan
Prior art keywords
frame
trimming
image
selection
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005209069A
Other languages
Japanese (ja)
Other versions
JP2007028331A5 (en
JP2007028331A (en
Inventor
磨 野嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2005209069A priority Critical patent/JP4553134B2/en
Publication of JP2007028331A publication Critical patent/JP2007028331A/en
Publication of JP2007028331A5 publication Critical patent/JP2007028331A5/ja
Application granted granted Critical
Publication of JP4553134B2 publication Critical patent/JP4553134B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像生成装置及びそのプログラムに係り、詳しくは、動画中のフレームを静止画像として抽出することができる画像生成装置及びそのプログラムに関する。   The present invention relates to an image generation device and a program thereof, and more particularly to an image generation device and a program thereof that can extract a frame in a moving image as a still image.

従来の画像生成装置、例えば、デジタルカメラにおいては、被写体の静止画を撮影する機能のみならず動画を撮影する機能を有したものが普及してきている。
また、デジタルカメラを直接プリンタに接続することにより、撮影した静止画を簡単にプリントアウトすることができる機能を備えるデジタルカメラも登場してきている。
このような技術の発展に伴い、動画のある特定のフレームから静止画を作成して記録するという技術が登場してきている。これにより、動画のある特定のフレームの画像を簡単にプリントアウトすることができる。
また、直接プリンタと接続し、動画のある特定のフレームから静止画を作成し、その静止画をプリンタに送ることにより該フレームの画像を印刷することができるデジタルカメラも登場してきている(特許文献1)。
2. Description of the Related Art Conventional image generation apparatuses, such as digital cameras, have become widespread that have a function of shooting a moving image as well as a function of shooting a still image of a subject.
In addition, digital cameras having a function of easily printing out a photographed still image by connecting the digital camera directly to a printer have also appeared.
Along with the development of such technology, a technology for creating and recording a still image from a specific frame of a moving image has appeared. Thereby, it is possible to easily print out an image of a specific frame of the moving image.
In addition, digital cameras that can be directly connected to a printer, create a still image from a specific frame of a moving image, and send the still image to the printer to print the image of the frame have appeared (Patent Literature). 1).

公開特許公報 特開2004−179823JP Patent Publication No. 2004-179823

しかしながら、従来のデジタルカメラにあっては、動画のある特定のフレーム画像のある部分の画像だけを欲しいと思っても、該フレームを静止画ファイルとして記録し、その後、該記録した静止画ファイルを読み出してトリミング画像を生成するため、手間がかかり面倒であるという問題点があった。
また、フレームのある部分の画像を切り出すためには、該フレームを静止画ファイルとして記録するため、必要のないデータまで記録してしまい、メモリの有効活用ができないという問題点もあった。また、メモリの空き容量を確保するためには、該記録した必要のないデータをわざわざ消去しなければならず手間がかかり面倒であるという問題点もあった。
However, in a conventional digital camera, even if you want only an image of a certain part of a certain frame image of a moving image, record the frame as a still image file, and then record the recorded still image file. Since a trimmed image is generated by reading out, there is a problem that it is troublesome and troublesome.
In addition, in order to cut out an image of a portion of a frame, since the frame is recorded as a still image file, unnecessary data is recorded, and the memory cannot be effectively used. Further, in order to secure the free space of the memory, there is a problem that it is troublesome and cumbersome because the recorded unnecessary data has to be erased.

そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、簡易に動画中のフレームの中から必要な部分の画像データを得ることができる画像生成装置及びそのプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of such conventional problems, and provides an image generation apparatus and a program thereof that can easily obtain image data of a necessary part from a frame in a moving image. Objective.

上記目的達成のため、請求項1記載の発明による画像生成装置は、動画データを取得する取得手段と、前記取得手段により取得された動画データの中フレームを選択する第1の選択手段と、前記第1の選択手段により選択されたフレームから静止画ファイルを生成する生成手段と、前記第1の選択手段により選択されたフレームのトリミングするエリアを示すトリミング情報を記憶する第1の記憶手段と、前記取得手段により取得された動画データのうち、前記第1の選択手段により選択されたフレーム以外のフレームを選択する第2の選択手段と、を備え、前記生成手段は、前記静止画ファイルを生成する前に、前記第1の記憶手段に記憶されているトリミング情報に基づいて、前記第1の選択手段により選択されたフレームからトリミング画像を生成すると共に、前記第1の記憶手段に記憶されているトリミング情報に基づいて、前記第2の選択手段により選択されたフレームからトリミング画像を生成する手段を含み、該生成されたトリミング画像の静止画ファイルを生成することを特徴とする。
For the purposes achieved, the image generating apparatus according to a first aspect of the present invention, an acquisition unit for acquiring moving image data, a first selection means for selecting frames in the moving image data obtained by the obtaining means, Generation means for generating a still image file from the frame selected by the first selection means; and first storage means for storing trimming information indicating an area to be trimmed of the frame selected by the first selection means; A second selection unit that selects a frame other than the frame selected by the first selection unit from the moving image data acquired by the acquisition unit, and the generation unit stores the still image file Torimi before generating, based on said first trimming information stored in the storage means, from the first frame selected by the selection means Generates the grayed image, based on the trimming information stored in said first storage means comprises means for generating a trimming image from the selected frame by said second selecting means, being the generated trimmed A still image file of an image is generated.

上記目的達成のため、請求項2記載の発明による画像生成装置は、動画データを取得する取得手段と、前記取得手段により取得された動画データの中のフレームを選択する第1の選択手段と、前記第1の選択手段により選択されたフレームから静止画ファイルを生成する生成手段と、前記第1の選択手段により選択されたフレーム中の被写体を認識する第1の画像認識手段と、前記取得手段により取得された動画データのうち、前記第1の選択手段により選択されたフレーム以外のフレームを選択する第2の選択手段と、前記第2の選択手段により選択されたフレームのトリミングするエリアを示すトリミング情報を記憶する第2の記憶手段と、前記第1の画像認識手段により認識された被写体の位置に基づいてトリミングエリアを決定して前記第の記憶手段にトリミング情報を記憶させる第の記憶制御手段と、を備え、前記生成手段は、前記静止画ファイルを生成する前に、前記第1の画像認識手段により認識された被写体の位置に基づいて、前記第1の選択手段により選択されたフレームからトリミング画像を生成すると共に、前記第2の記憶手段に記憶されているトリミング情報に基づいて、前記第2の選択手段により選択されたフレームからトリミング画像を生成する手段を含み、該生成されたトリミング画像の静止画ファイルを生成することを特徴とする
In order to achieve the above object, an image generation apparatus according to the invention described in claim 2 includes an acquisition unit that acquires moving image data, a first selection unit that selects a frame in the moving image data acquired by the acquisition unit, Generation means for generating a still image file from the frame selected by the first selection means; first image recognition means for recognizing a subject in the frame selected by the first selection means; and the acquisition means The second selection means for selecting a frame other than the frame selected by the first selection means from the moving image data acquired by the above, and an area for trimming the frame selected by the second selection means. second storage means for storing the trimming information, and determines a trimming area based on the recognized position of the subject by the first image recognition unit And a second storage control means for storing the trimming data to the serial second storage means, said generating means, prior to generating the still image file, which is recognized by the first image recognition unit subject A trimming image is generated from the frame selected by the first selection unit based on the position of the first selection unit, and selected by the second selection unit based on the trimming information stored in the second storage unit Means for generating a trimmed image from the generated frame , and generating a still image file of the generated trimmed image .

上記目的達成のため、請求項3記載の発明によるプログラムは、動画データを取得する取得処理と、この取得処理により取得された動画データの中のフレームを選択する第1の選択処理と、この第1の選択処理により選択されたフレームから静止画ファイルを生成する生成処理と、前記第1の選択処理により選択されたフレームのトリミングするエリアを示すトリミング情報を記憶する第1の記憶処理と、前記取得処理により取得された動画データのうち、前記第1の選択処理により選択されたフレーム以外のフレームを択する第2の選択処理と、を含み、更に、前記生成処理は、前記静止画ファイルを生成する前に、前記第1の記憶処理により記憶されているトリミング情報に基づいて、前記第1の選択処理により選択されたフレームからトリミング画像を生成すると共に、前記第1の記憶処理により記憶されているトリミング情報に基づいて、前記第2の選択処理により選択されたレームからトリミング画像を生成し、該生成されたトリミング画像の静止画ファイルを生成する処理を含み、上記各処理をコンピュータで実行させることを特徴とする
To achieve the above object, a program according to a third aspect of the present invention provides an acquisition process for acquiring moving image data, a first selection process for selecting a frame in the moving image data acquired by the acquisition process, A generation process for generating a still image file from a frame selected by one selection process; a first storage process for storing trimming information indicating an area to be trimmed of the frame selected by the first selection process; of the video data acquired by the acquisition process, the first frame other than the frame selected by the selection process comprises a second selection process for selecting the further, the generating process, the still image file before generating, based on the trimming information stored by the first storing process, or frame selected by the first selection process And it generates a trimming image, based on the trimming information stored by the first storing process, from frames selected by the second selection process to generate a trimming image, the trimming image the generated Including a process for generating a still image file, and causing each of the above processes to be executed by a computer .

上記目的達成のため、請求項4記載の発明によるプログラムは、動画データを取得する取得処理と、この取得処理により取得された動画データの中のフレームを選択する第1の選択処理と、この第1の選択処理により選択されたフレームから静止画ファイルを生成する生成処理と、前記第1の選択処理により選択されたフレーム中の被写体を認識する第1の画像認識処理と、前記取得処理により取得された動画データのうち、前記第1の選択処理により選択されたフレーム以外のフレームを選択する第2の選択処理と、この第2の選択処理により選択されたフレームのトリミングするエリアを示すトリミング情報を、前記第1の画像認識処理により認識された被写体の位置に基づいて決定して記憶する第2の記憶処理と、を含み、更に、前記生成処理は、前記静止画ファイルを生成する前に、前記第1の画像認識処理により認識された被写体の位置に基づいて、前記第1の選択処理により選択されたフレームからトリミング画像を生成すると共に、前記第2の記憶処理により記憶されているトリミング情報に基づいて、前記第2の選択処理により選択されたフレームからトリミング画像を生成し、該生成されたトリミング画像の静止画ファイルを生成する処理を含み、上記各処理をコンピュータで実行させることを特徴とする
To achieve the above object, a program according to a fourth aspect of the present invention provides an acquisition process for acquiring moving image data, a first selection process for selecting a frame in the moving image data acquired by the acquisition process, Acquired by a generation process for generating a still image file from a frame selected by one selection process, a first image recognition process for recognizing a subject in a frame selected by the first selection process, and the acquisition process Of the selected moving image data, a second selection process for selecting a frame other than the frame selected by the first selection process, and trimming information indicating a trimming area of the frame selected by the second selection process And a second storage process for determining and storing based on the position of the subject recognized by the first image recognition process, and Formation process, prior to generating the still image file, based on the position of the recognized object by the first image recognition processing, and generates a trimming image from the selected frame by the first selection process Processing for generating a trimming image from the frame selected by the second selection processing based on the trimming information stored by the second storage processing, and generating a still image file of the generated trimming image And each of the above processes is executed by a computer .

発明によれば、簡単、且つ、迅速に動画データ中のフレームからトリミング画像を生成することができる。
According to the present invention, a trimmed image can be generated easily and quickly from a frame in moving image data.

以下、本実施の形態について、デジタルカメラを適用した一例として図面を参照して詳細に説明する。
[第1の実施の形態]
A.デジタルカメラの構成
図1は、本発明の画像生成装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り兼用シャッタ4、CCD5、TG(timing generator)6、ユニット回路7、DRAM8、メモリ9、CPU10、フラッシュメモリ11、画像表示部12、キー入力部13、音声処理部14、ストロボ駆動部15、ストロボ発光部16を備えている。
Hereinafter, the present embodiment will be described in detail with reference to the drawings as an example to which a digital camera is applied.
[First embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing an electrical schematic configuration of a digital camera 1 that implements the image generation apparatus of the present invention.
The digital camera 1 includes a photographic lens 2, a lens driving block 3, a diaphragm shutter 4, a CCD 5, a TG (timing generator) 6, a unit circuit 7, a DRAM 8, a memory 9, a CPU 10, a flash memory 11, an image display unit 12, and a key input. Unit 13, sound processing unit 14, strobe driving unit 15, and strobe light emitting unit 16.

撮影レンズ2は、図示しないフォーカスレンズ、ズームレンズを含み、レンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、図示しないフォーカスレンズ、ズームレンズをそれぞれ光軸方向に駆動させるフォーカスモータ、ズームモータと、CPU10からの制御信号にしたがってフォーカスモータ、ズームモータをそれぞれ光軸方向に駆動させるフォーカスモータドライバ、ズームモータドライバから構成されている。   The photographing lens 2 includes a focus lens and a zoom lens (not shown), and a lens driving block 3 is connected thereto. The lens driving block 3 includes a focus motor and a zoom motor that drive a focus lens and a zoom lens (not shown) in the optical axis direction, and a focus motor that drives the focus motor and the zoom motor in the optical axis direction according to a control signal from the CPU 10, respectively. It consists of a driver and a zoom motor driver.

絞り兼用シャッタ4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り兼用シャッタを動作させる。この絞り兼用シャッタは、絞りとシャッタとして機能する。
絞りとは、撮影レンズ2から入ってくる光の量を制御する機構のことをいい、シャッタとは、CCD5に光を当てる時間を制御する機構のことをいい、CCD5に光を当てる時間は、シャッタの開閉の速度(シャッタ速度)によって変わってくる。露出は、この絞りとシャッタ速度によって定めることができる。
The aperture / shutter 4 includes a drive circuit (not shown), and the drive circuit operates the aperture / shutter according to a control signal sent from the CPU 10. The aperture / shutter functions as an aperture and a shutter.
The diaphragm is a mechanism that controls the amount of light that enters from the photographic lens 2, and the shutter is a mechanism that controls the time that light is applied to the CCD 5, and the time that light is applied to the CCD 5 is It varies depending on the shutter opening / closing speed (shutter speed). Exposure can be determined by the aperture and shutter speed.

CCD5は、撮影レンズ2、絞り兼用シャッタ4を介して投影された被写体の光を電気信号に変換し、撮像信号としてユニット回路7に出力する。また、CCD5は、TG6によって生成された所定周波数のタイミング信号にしたがって駆動する。TG6にはユニット回路7が接続されている。
ユニット回路7は、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行うAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されており、CCD5の撮像信号は、ユニット回路7を経てデジタル信号としてCPU10に送られる。
The CCD 5 converts the light of the subject projected through the photographing lens 2 and the diaphragm / shutter 4 into an electrical signal and outputs it as an imaging signal to the unit circuit 7. The CCD 5 is driven in accordance with a predetermined frequency timing signal generated by the TG 6. A unit circuit 7 is connected to the TG 6.
The unit circuit 7 includes a CDS (Correlated Double Sampling) circuit that holds the imaging signal output from the CCD 5 by correlated double sampling, an AGC (Automatic Gain Control) circuit that performs automatic gain adjustment of the imaging signal after the sampling, The A / D converter converts the analog image pickup signal after the automatic gain adjustment into a digital signal. The image pickup signal of the CCD 5 is sent to the CPU 10 as a digital signal through the unit circuit 7.

CPU10は、ユニット回路7から送られてきた画像データの画像処理(画素補間処理、γ補正、輝度色差信号の生成、ホワイトバランス処理、露出補正処理等)、画像データの圧縮・伸張(例えば、JPEG形式やMPEG形式の圧縮・伸張)の処理、AF処理(コントラスト検出方式によるAF処理やパンフォーカスによるAF処理)、トリミング画像の生成、画像認識処理などを行う機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。   The CPU 10 performs image processing (pixel interpolation processing, γ correction, luminance color difference signal generation, white balance processing, exposure correction processing, etc.) of the image data sent from the unit circuit 7, and compression / decompression (for example, JPEG) of the image data. Each part of the digital camera 1 has functions for performing processing such as compression / decompression of formats and MPEG formats, AF processing (AF processing using a contrast detection method and AF processing using pan focus), generation of a trimmed image, image recognition processing, and the like. It is a one-chip microcomputer that controls.

メモリ9には、CPU10の各部に必要な制御プログラム、つまり、AEやAF等を含む各種の制御に必要なプログラム、及び必要なデータが記録されており、CPU10は、前記プログラムに従い動作する。
また、メモリ9には、トリミング枠の表示位置、サイズを示すデフォルト値(トリミング位置情報、トリミングサイズ情報)が格納されており、トリミング位置情報、トリミングサイズ情報を一時記憶するトリミング情報記憶領域も有する。このメモリ9は、本発明の第1の記憶手段、第2の記憶手段として機能する。
The memory 9 stores control programs necessary for each unit of the CPU 10, that is, programs necessary for various controls including AE and AF, and necessary data, and the CPU 10 operates according to the programs.
The memory 9 stores default values (trimming position information and trimming size information) indicating the display position and size of the trimming frame, and has a trimming information storage area for temporarily storing the trimming position information and the trimming size information. . This memory 9 functions as the first storage means and the second storage means of the present invention.

DRAM8は、CCD5によって撮像された後、CPU10に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとして使用される。
フラッシュメモリ11は、CCD5によって撮像された静止画データ、動画データ等の画像データなどを静止画ファイル、動画ファイル等の形態で保存しておく記録媒体である。フラッシュメモリ11は、本発明の記録手段に相当する。
The DRAM 8 is used as a buffer memory for temporarily storing image data sent to the CPU 10 after being imaged by the CCD 5 and also as a working memory for the CPU 10.
The flash memory 11 is a recording medium for storing image data such as still image data and moving image data captured by the CCD 5 in the form of a still image file or a moving image file. The flash memory 11 corresponds to recording means of the present invention.

画像表示部12は、カラーLCDとその駆動回路を含み、撮影待機状態にあるときには、CCD5によって撮像された被写体をスルー画像として表示し、記録画像の再生時には、保存用フラッシュメモリ11から読み出され、伸張された記録画像を表示させる。この画像表示部12は、本発明の表示手段として機能する。
キー入力部13は、シャッタボタン、ズーム連写キー、十字キー、SETキー、モード切替キー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。このキー入力部13は、本発明の第1のフレーム指定手段、第1のエリア指定手段、第2のフレーム指定手段、第2のエリア指定手段として機能する。
The image display unit 12 includes a color LCD and its drive circuit, and displays the subject imaged by the CCD 5 as a through image when in a shooting standby state, and is read from the storage flash memory 11 when reproducing a recorded image. The expanded recorded image is displayed. The image display unit 12 functions as display means of the present invention.
The key input unit 13 includes a plurality of operation keys such as a shutter button, a zoom continuous shooting key, a cross key, a SET key, and a mode switching key, and outputs an operation signal corresponding to a user's key operation to the CPU 10. The key input unit 13 functions as a first frame designating unit, a first area designating unit, a second frame designating unit, and a second area designating unit of the present invention.

音声処理部14は、内蔵マイク、アンプ、A/D変換器、D/A変換器、アンプ、内蔵スピーカ等を含み、音声付画像の撮影時には、内蔵マイクに入力された音声をデジタル信号に変換してCPU10に送る。CPU10は、送られてきた音声データは、バッファメモリ(DRAM8)に順次記憶され、CCD5によって撮像された画像データとともにフラッシュメモリ11に記録される。
また、音声処理部14は、音声付画像の再生時には、各画像データに付属する音声データに基づく音声等を内蔵スピーカから放音する。
The sound processing unit 14 includes a built-in microphone, an amplifier, an A / D converter, a D / A converter, an amplifier, a built-in speaker, and the like, and converts sound input to the built-in microphone into a digital signal when shooting an image with sound. And send it to the CPU 10. The CPU 10 sequentially stores the sent audio data in the buffer memory (DRAM 8) and records it in the flash memory 11 together with the image data picked up by the CCD 5.
In addition, the sound processing unit 14 emits sound or the like based on sound data attached to each image data from the built-in speaker when reproducing an image with sound.

ストロボ駆動部15は、CPU10の制御信号にしたがって、ストロボ発光部16を閃光駆動させ、ストロボ発光部16はストロボを閃光させる。CPU10は、図示しない測光回路又はCCD5から出力される画像データの輝度成分によって撮影シーンが暗いか否かを判断し、撮影シーンが暗いと判断し、且つ、撮影を行うと判断した場合(シャッタボタン押下時)には、ストロボ駆動部15に制御信号を送る。   The strobe driving unit 15 drives the strobe light emitting unit 16 to flash according to the control signal of the CPU 10, and the strobe light emitting unit 16 flashes the strobe. The CPU 10 determines whether or not the shooting scene is dark based on the luminance component of the image data output from the photometric circuit or the CCD 5 (not shown), determines that the shooting scene is dark, and determines that shooting is to be performed (shutter button) When the button is pressed, a control signal is sent to the strobe drive unit 15.

B.デジタルカメラ1の動作
実施の形態におけるデジタルカメラ1の動作を図2及び図3のフローチャートにしたがって説明する。
ユーザのキー入力部13のモード切替キーの操作により再生モードにされ、ユーザのキー入力部13の十字キーやSETキー等の操作によりフラッシュメモリ11に既に記録されている複数の動画ファイルの中から所望の動画ファイルが選択されると(ステップS1)、CPU10は、ユーザのキー入力部13の操作によりモーションプリントが選択されたか否かを判断する(ステップS2)。この判断は、モーションプリントの選択に対応する操作信号がキー入力部13から送られてきたか否かにより判断する。モーションプリントとは、動画ファイルの動画データから静止画データを生成することをいう。
B. Operation of Digital Camera 1 The operation of the digital camera 1 in the embodiment will be described with reference to the flowcharts of FIGS.
The playback mode is set by the user's operation of the mode switching key of the key input unit 13, and among the plurality of moving image files already recorded in the flash memory 11 by the operation of the cross key or the SET key of the user's key input unit 13. When a desired moving image file is selected (step S1), the CPU 10 determines whether or not a motion print is selected by the user's operation of the key input unit 13 (step S2). This determination is made based on whether or not an operation signal corresponding to the selection of the motion print has been sent from the key input unit 13. Motion printing refers to generating still image data from moving image data of a moving image file.

ステップS2で、モーションプリントが選択されていないと判断すると、CPU10は、ユーザのキー入力部13の操作により、該選択された動画ファイルの再生の指示が行われたか否かの判断を行う(ステップS3)。
ステップS3で、再生の指示が行われていないと判断するとステップS2に戻り、再生の指示が行われたと判断すると、CPU10は、該選択されている動画ファイルの再生処理へと移行する。
If it is determined in step S2 that no motion print has been selected, the CPU 10 determines whether or not an instruction to reproduce the selected moving image file has been given by the user's operation of the key input unit 13 (step S2). S3).
If it is determined in step S3 that a playback instruction has not been issued, the process returns to step S2. If it is determined that a playback instruction has been issued, the CPU 10 proceeds to the playback process of the selected moving image file.

ステップS2で、モーションプリントの選択が行なわれたと判断すると、CPU10は、1コマ切り出し、9コマ切り出しのどちらがユーザによって選択されたか否かを判断する(ステップS4)。この判断は、1コマ切り出しの選択に対応する操作信号、9コマ切り出しの選択に対応する操作信号のうち、どちらの操作信号がキー入力部13から送られてきたか否かにより判断する。
ステップS4で、1コマ切り出しが選択されたと判断すると、CPU10は該選択した動画ファイル(ステップS1で選択した動画ファイル)の最初のフレームを選択し(第1の選択手段)、該選択したフレームの画像を画像表示部12に表示させる(ステップS5)。
If it is determined in step S2 that the motion print has been selected, the CPU 10 determines whether one frame cutout or nine frame cutout has been selected by the user (step S4). This determination is made based on which operation signal is sent from the key input unit 13 among the operation signal corresponding to the selection of one-frame cutout and the operation signal corresponding to the selection of nine-frame cutout.
If it is determined in step S4 that one frame cutout has been selected, the CPU 10 selects the first frame of the selected moving image file (moving image file selected in step S1) (first selecting means), and selects the selected frame. The image is displayed on the image display unit 12 (step S5).

次いで、CPU10は、現在選択している(表示している)フレームをハイライトシーンとして決定するか否かの判断を行う(ステップS6)。この判断は、セットキー操作に対応する操作信号がキー入力部13から送られてきたか否かにより判断し、セットキー操作に対応する操作信号が送られてきた場合には、表示しているフレームをハイライトシーンとして決定する。ハイライトシーンは、静止画ファイルとして記録したいフレームのことをいい、ユーザは画像表示部12に表示されているフレームの画像から静止画ファイルを生成したい場合にはセットキーの操作を行なう。   Next, the CPU 10 determines whether or not to determine the currently selected (displayed) frame as a highlight scene (step S6). This determination is made based on whether or not an operation signal corresponding to the set key operation is sent from the key input unit 13, and when an operation signal corresponding to the set key operation is sent, the displayed frame is displayed. As a highlight scene. A highlight scene refers to a frame to be recorded as a still image file. When the user wants to generate a still image file from an image of a frame displayed on the image display unit 12, the user operates a set key.

ステップS6でハイライトシーンとして決定しないと判断すると、CPU10は、ユーザによって十字キーの操作が行なわれたか否かを判断する(ステップS7)。この判断は、十字キーの操作に対応する操作信号がキー入力部13から送られてきたか否かにより判断する。
ステップS7で、十字キーの操作が行われていないと判断するとステップS6に戻り、ステップS7で、十字キーの操作が行なわれたと判断すると、CPU10は、ユーザの操作にしたがって(送られてきた操作信号にしたがって)、フレームを選択し(第1の選択手段)、該選択したフレームの画像を画像表示部12に表示させて(ステップS8)、ステップS6に戻る。この第1の選択手段により選択されたフレームを表示させる機能は、本発明の表示制御手段に相当する。
つまり、ユーザは、ステップS6〜ステップS8のループの間に、静止画ファイルの生成の基となるハイライトシーン、つまり、フレームを十字キーの操作により選択することができる。
If it is determined in step S6 that the highlight scene is not determined, the CPU 10 determines whether or not the user has operated the cross key (step S7). This determination is made based on whether or not an operation signal corresponding to the operation of the cross key is sent from the key input unit 13.
If it is determined in step S7 that the operation of the cross key has not been performed, the process returns to step S6. If it is determined in step S7 that the operation of the cross key has been performed, the CPU 10 follows the operation of the user (the operation that has been sent). In accordance with the signal, a frame is selected (first selecting means), an image of the selected frame is displayed on the image display unit 12 (step S8), and the process returns to step S6. The function of displaying the frame selected by the first selection means corresponds to the display control means of the present invention.
That is, the user can select a highlight scene, that is, a frame that is a basis for generating a still image file, by operating the cross key during the loop of Step S6 to Step S8.

図4は、選択した動画ファイルの各フレームの画像の様子を示すものである。
最初は、1枚目のフレームの画像が表示されるが、十字キーの「↓」キー、若しくは、十字キーの「→」キーを操作していくと、選択されるフレーム、つまり、画像表示部12に表示される画像のフレームは、2枚目のフレームの画像、3枚目のフレームの画像、4枚目のフレーム画像というように、表示される画像のフレームが降順していく。また、ユーザが十字キーの「↑」キー、若しくは、十字キーの「←」キーを操作していくと、選択されるフレーム、つまり、画像表示部12に表示される画像のフレームは、5枚目のフレーム画像、4枚目のフレーム画像、3枚目のフレーム画像というように、表示される画像のフレームが昇順していく。
FIG. 4 shows an image of each frame of the selected moving image file.
Initially, the image of the first frame is displayed, but if the “↓” key of the cross key or the “→” key of the cross key is operated, the selected frame, that is, the image display section is displayed. The frames of the displayed image are in descending order, such as the second frame image, the third frame image, and the fourth frame image. When the user operates the “↑” key of the cross key or the “←” key of the cross key, the selected frame, that is, the frame of the image displayed on the image display unit 12 is five. The frames of the displayed image are in ascending order, such as the frame image of the eye, the frame image of the fourth frame, and the third frame image.

そして、ユーザは十字キーの操作をすることにより、静止画ファイルを生成したいフレームを選択し、SETキーを押すことにより、該選択しているフレームをハイライトシーンとして確定することができる。ここでは、5枚目のフレームを選択しているときに(5枚目のフレーム画像を表示しているときに)、ユーザがSETキーの操作を行なったものとする。
なお、1枚目のフレーム画像を表示している場合に、「↑」キー、若しくは、「←」キーを操作した場合には、それ以上、上のフレーム画像はないので、そのまま1枚目のフレーム画像を表示させるようにしてもよいし、最後のフレーム画像を表示させるようにしてもよい。
Then, the user can select a frame for which a still image file is to be generated by operating the cross key, and press the SET key to determine the selected frame as a highlight scene. Here, it is assumed that the user has operated the SET key when the fifth frame is selected (when the fifth frame image is displayed).
When the first frame image is displayed and the “↑” key or “←” key is operated, there is no further frame image, so the first frame image is displayed as it is. A frame image may be displayed, or the last frame image may be displayed.

ステップS6で、ハイライトシーンとして決定すると判断すると、CPU10は、メモリ9に格納されているトリミング位置情報及びトリミングサイズ情報(デフォルト値)を読み出して、メモリ9のトリミング情報記憶領域に記憶させ、該記憶させたトリミング情報にしたがってトリミング枠を該表示しているフレーム画像の上に重ねて表示させる(ステップS9)。ここで、メモリ9に格納されているデフォルト値(トリミング位置情報、トリミングサイズ情報)は、トリミング枠が画像表示部12の中央部に所定の大きさで表示されるようなデフォルト値であるとする。また、トリミング枠とは、画像を切り出す範囲を示す枠のことをいう。このトリミング枠を表示させる機能は、本発明の表示制御手段に相当する。
図5は、そのときの様子を示すものであり、5枚目のフレーム画像とともにトリミング枠20が表示されている。なお、トリミング枠20を表示させずにトリミング枠20内の画像を全画面表示させることによりトリミング指定範囲を示すようにしてもよい。
If it is determined in step S6 that the scene is determined as the highlight scene, the CPU 10 reads the trimming position information and trimming size information (default value) stored in the memory 9 and stores them in the trimming information storage area of the memory 9, In accordance with the stored trimming information, a trimming frame is displayed over the displayed frame image (step S9). Here, the default values (trimming position information and trimming size information) stored in the memory 9 are default values such that the trimming frame is displayed at a predetermined size in the center of the image display unit 12. . Further, the trimming frame refers to a frame indicating a range where an image is cut out. The function of displaying the trimming frame corresponds to the display control means of the present invention.
FIG. 5 shows a state at that time, and a trimming frame 20 is displayed together with a fifth frame image. Note that the trimming designation range may be indicated by displaying the image in the trimming frame 20 in full screen without displaying the trimming frame 20.

次いで、CPU10は、ユーザによってトリミング位置の変更が行なわれたか否かの判断を行う(ステップS10)。この判断は、十字キーの操作に対応する操作信号がキー入力部13から送られてきたか否かにより判断する。このトリミング位置とは、切り出す画像の中心位置のことをいう。
ステップS10で、トリミング位置の変更が行なわれたと判断すると、CPU10は、該変更されたトリミング位置をメモリ9のトリミング情報記憶領域に記憶させ(第1の記憶制御手段)、該記憶させたトリミング位置にトリミング枠20を表示させて(ステップS11)、ステップS12に進む。一方、ステップS10で、トリミング位置の変更が行なわれていないと判断すると、そのままステップS12に進む。
Next, the CPU 10 determines whether or not the trimming position has been changed by the user (step S10). This determination is made based on whether or not an operation signal corresponding to the operation of the cross key is sent from the key input unit 13. The trimming position refers to the center position of the image to be cut out.
When it is determined in step S10 that the trimming position has been changed, the CPU 10 stores the changed trimming position in the trimming information storage area of the memory 9 (first storage control means), and the stored trimming position. Then, the trimming frame 20 is displayed (step S11), and the process proceeds to step S12. On the other hand, if it is determined in step S10 that the trimming position has not been changed, the process directly proceeds to step S12.

ステップS12に進むと、CPU10は、ユーザによってトリミングサイズの変更が行なわれたか否かの判断を行う。この判断は、キー入力部13のズームキー(「W」キー、「T」キー)の操作に対応する操作信号がキー入力部13から送られてきたか否かにより判断する。このトリミングサイズとは、切り出す画像の画角の大きさのことをいう。   In step S12, the CPU 10 determines whether the trimming size has been changed by the user. This determination is made based on whether or not an operation signal corresponding to the operation of the zoom key (“W” key, “T” key) of the key input unit 13 is sent from the key input unit 13. This trimming size refers to the size of the angle of view of an image to be cut out.

ステップS12で、トリミングサイズの変更が行なわれたと判断すると、CPU10は、該変更されたトリミングサイズをメモリ9のトリミング情報記憶領域に記憶させ(第1の記憶制御手段)、該記憶させたトリミングサイズにしたがってトリミング枠20を表示させて(ステップS13)、ステップS14に進む。一方、ステップS12で、トリミングサイズの変更が行なわれていないと判断すると、そのままステップS14に進む。   When determining in step S12 that the trimming size has been changed, the CPU 10 stores the changed trimming size in the trimming information storage area of the memory 9 (first storage control means), and the stored trimming size. Accordingly, the trimming frame 20 is displayed (step S13), and the process proceeds to step S14. On the other hand, if it is determined in step S12 that the trimming size has not been changed, the process proceeds directly to step S14.

ステップS14に進むと、現在トリミング情報記憶領域に記憶しているトリミング位置、トリミングサイズ、つまり、表示しているトリミング枠20をトリミングエリアとして決定するか否かの判断を行う。この判断は、ユーザによってSETキーの操作が行なわれたか否かにより判断する。
ステップS14で、現在トリミング情報記憶領域に記憶しているトリミング位置、トリミングサイズをトリミングエリアとして決定しないと判断すると、ステップS10に戻る。
In step S14, it is determined whether or not the trimming position and the trimming size currently stored in the trimming information storage area, that is, the displayed trimming frame 20 is to be determined as a trimming area. This determination is made based on whether or not the user has operated the SET key.
If it is determined in step S14 that the trimming position and trimming size currently stored in the trimming information storage area are not determined as the trimming area, the process returns to step S10.

このステップS10〜ステップS14のループ中にユーザはトリミング枠20を切り出したい画像に合わすことができる。
例えば、図6(a)に示すような状態で、犬の画像を切り出したいと思う場合には、図6(b)に示すようにユーザは十字キーの操作によりトリミング枠20のトリミング位置を切り出したい犬の画像に合わせてから、図6(c)に示すようにズームキーの「T」キーを操作することにより、トリミング枠20のトリミングサイズを大きくさせて、トリミング枠20内に切り出したい犬の画像が納まるように調整することができる。
During the loop from step S10 to step S14, the user can adjust the trimming frame 20 to an image to be cut out.
For example, when it is desired to cut out a dog image in the state shown in FIG. 6A, the user cuts out the trimming position of the trimming frame 20 by operating the cross key as shown in FIG. 6B. After adjusting to the image of the desired dog, the trimming size of the trimming frame 20 is increased by operating the “T” key of the zoom key as shown in FIG. It can be adjusted to fit the image.

一方、ステップS14で、現在トリミング情報記憶領域に記憶しているトリミング位置、トリミングサイズをトリミングエリアとして決定すると判断すると、CPU10は、ハイライトシーンとして決定したフレーム(表示されているフレーム)のトリミング枠20内の画像データを切り出し(コピー)する(ステップS15)。つまり、トリミング画像を生成する(生成手段)。
ここでは、図6(c)に示すような状態でユーザがSETキーの操作を行なったものとする。
On the other hand, if it is determined in step S14 that the trimming position and trimming size currently stored in the trimming information storage area are determined as the trimming area, the CPU 10 trims the frame (displayed frame) determined as the highlight scene. The image data in 20 is cut out (copied) (step S15). That is, a trimmed image is generated (generation means).
Here, it is assumed that the user has operated the SET key in a state as shown in FIG.

そして、CPU10は、該切り出した画像データ(トリミング画像データ)から静止画ファイルを生成して、フラッシュメモリ11に記録させる(記録制御手段)。図7(a)は、フラッシュメモリ11に記録されたフレームから生成された静止画ファイルの静止画像データの様子を示すものである。
これにより、簡単に撮影した動画ファイルの中の任意のフレームから静止画ファイルとして記録したい被写体の画像を切り出して記録することができる。
Then, the CPU 10 generates a still image file from the cut-out image data (trimming image data) and records it in the flash memory 11 (recording control means). FIG. 7A shows the state of still image data of a still image file generated from a frame recorded in the flash memory 11.
Thereby, it is possible to cut out and record an image of a subject to be recorded as a still image file from an arbitrary frame in a moving image file that has been easily photographed.

一方、ステップS4で、9コマ切り出しと判断すると、CPU10は、該選択した動画ファイルの最初のフレームを選択し(第1の選択手段)、該選択したフレームの画像を画像表示部12に表示させる(図3のステップS17)。
次いで、CPU10は、現在選択している(表示している)フレームをハイライトシーンとして決定するか否かの判断を行う(ステップS18)。
On the other hand, if it is determined in step S4 that 9 frames have been cut out, the CPU 10 selects the first frame of the selected moving image file (first selecting means) and causes the image display unit 12 to display the image of the selected frame. (Step S17 in FIG. 3).
Next, the CPU 10 determines whether or not to determine the currently selected (displayed) frame as the highlight scene (step S18).

ステップS18でハイライトシーンとして決定しないと判断すると、CPU10は、ユーザによって十字キーの操作が行なわれたか否かを判断する(ステップS19)。この判断は、十字キーの操作に対応する操作信号がキー入力部13から送られてきたか否かにより判断する。
ステップS19で、十字キーの操作が行われていないと判断するとステップS18に戻り、ステップS19で、十字キーの操作が行われたと判断すると、CPU10は、ユーザの操作にしたがって(送られてきた操作信号にしたがって)、フレームを選択し(第1の選択手段)、該選択したフレームの画像を画像表示部12に表示させて(ステップS20)、ステップS18に戻る。
If it is determined in step S18 that the scene is not to be determined as a highlight scene, the CPU 10 determines whether or not the user has operated the cross key (step S19). This determination is made based on whether or not an operation signal corresponding to the operation of the cross key is sent from the key input unit 13.
If it is determined in step S19 that the operation of the cross key has not been performed, the process returns to step S18. If it is determined in step S19 that the operation of the cross key has been performed, the CPU 10 operates according to the user's operation (the operation that has been sent). In accordance with the signal, a frame is selected (first selecting means), an image of the selected frame is displayed on the image display unit 12 (step S20), and the process returns to step S18.

このステップS18〜ステップS20のループの間に、静止画ファイルの生成の基となるハイライトシーン、つまり、フレームをユーザが選択することができる。ここでは、1コマ切り出しの場合と同様に、5枚目のフレームを選択しているときに(5枚目のフレームを表示しているときに)、ユーザがSETキーの操作を行なったものとする。   During the loop from step S18 to step S20, the user can select a highlight scene, that is, a frame that is a basis for generating a still image file. Here, it is assumed that the user has operated the SET key when the fifth frame is selected (when the fifth frame is displayed), as in the case of single frame cutout. To do.

一方、ステップS18で、ハイライトシーンとして決定すると判断すると、CPU10は、メモリ9に格納されているトリミング位置情報及びトリミングサイズ情報(デフォルト値)を読み出して、メモリ9のトリミング情報記憶領域に記憶させ(第1の記憶制御手段)、該記憶させたトリミング情報にしたがってトリミング枠20を該表示しているフレーム画像の上に重ねて表示させる(ステップS21)。このときも、図2のステップS5のときと同様、図5に示すような画像が画像表示部12に表示される。   On the other hand, if it is determined in step S18 that the scene is determined as the highlight scene, the CPU 10 reads the trimming position information and trimming size information (default value) stored in the memory 9 and stores them in the trimming information storage area of the memory 9. (First storage control means) The trimming frame 20 is displayed on the frame image being displayed in accordance with the stored trimming information (step S21). Also at this time, an image as shown in FIG. 5 is displayed on the image display unit 12 as in step S5 of FIG.

次いで、CPU10は、ユーザによってトリミング位置の変更が行なわれたか否かの判断を行う(ステップS22)。
ステップS22で、トリミング位置の変更が行なわれたと判断すると、CPU10は、該変更されたトリミング位置をメモリ9のトリミング情報記憶領域に記憶させ(第1の記憶制御手段)、該記憶させたトリミング位置にトリミング枠20を表示させて(ステップS23)、ステップS24に進む。一方、ステップS22で、トリミング位置の変更が行なわれていないと判断すると、そのままステップS24に進む。
Next, the CPU 10 determines whether or not the trimming position has been changed by the user (step S22).
When determining in step S22 that the trimming position has been changed, the CPU 10 stores the changed trimming position in the trimming information storage area of the memory 9 (first storage control means), and the stored trimming position. Then, the trimming frame 20 is displayed (step S23), and the process proceeds to step S24. On the other hand, if it is determined in step S22 that the trimming position has not been changed, the process proceeds directly to step S24.

ステップS24に進むと、CPU10は、ユーザによってトリミングサイズの変更が行なわれたか否かの判断を行う。
ステップS24で、トリミングサイズの変更が行なわれたと判断すると、CPU10は、該変更されたトリミングサイズをメモリ9のトリミング情報記憶領域に記憶させ(第1の記憶制御手段)、該記憶させたトリミングサイズにしたがってトリミング枠20を表示させて(ステップS25)、ステップS26に進む。一方、ステップS24で、トリミングサイズの変更が行なわれていないと判断すると、そのままステップS26に進む。
In step S24, the CPU 10 determines whether or not the trimming size has been changed by the user.
If it is determined in step S24 that the trimming size has been changed, the CPU 10 stores the changed trimming size in the trimming information storage area of the memory 9 (first storage control means), and the stored trimming size. Accordingly, the trimming frame 20 is displayed (step S25), and the process proceeds to step S26. On the other hand, if it is determined in step S24 that the trimming size has not been changed, the process proceeds directly to step S26.

ステップS26に進むと、現在トリミング情報記憶領域に記憶しているトリミング位置、トリミングサイズ、つまり、表示しているトリミング枠20をトリミングエリアとして決定するか否かの判断を行う。
ステップS26で、現在トリミング情報記憶領域に記憶しているトリミング位置、トリミングサイズをトリミングエリアとして決定しないと判断すると、ステップS22に戻る。
このステップS22〜ステップS26のループ中にユーザはトリミング枠20を切り出したい画像に合わせることができる。
In step S26, it is determined whether or not the trimming position and trimming size currently stored in the trimming information storage area, that is, the trimming frame 20 being displayed is to be determined as the trimming area.
If it is determined in step S26 that the trimming position and trimming size currently stored in the trimming information storage area are not determined as the trimming area, the process returns to step S22.
During the loop from step S22 to step S26, the user can adjust the trimming frame 20 to an image to be cut out.

一方、ステップS26で、現在トリミング情報記憶領域に記憶しているトリミング位置、トリミングサイズをトリミングエリアとして決定すると判断すると、CPU10は、メモリ9のトリミング情報記憶領域に記憶されているトリミング位置及びトリミングサイズに基づいて、ハイライトシーンとして決定したフレーム(表示しているフレーム)からトリミング枠20内の画像データを切り出す(コピー)とともに(生成手段)、ハイライトシーンとして決定したフレームの前後4枚のフレームを選択し(第2の選択手段)、該選択した8枚のフレームからも、メモリ9のトリミング情報記憶領域に記憶されているトリミング位置及びトリミング情報に基づいて画像データを切り出し(コピー)する(生成手段)(ステップS27)。つまり、ハイライトシーンとして決定したフレームのみならず、そのフレームの前後4枚のフレームからもトリミング画像を生成することになり、全て同じトリミングエリアの画像が切り出される。なお、そのフレームの前後4枚のフレーム各々について、ハイライトシーンとして決定したフレームと同様にトリミング範囲の設定動作(ステップS10〜S14)を行なうようにしてもよい。   On the other hand, if it is determined in step S26 that the trimming position and trimming size currently stored in the trimming information storage area are determined as the trimming area, the CPU 10 determines the trimming position and trimming size stored in the trimming information storage area of the memory 9. The image data in the trimming frame 20 is cut out (copied) from the frame determined as the highlight scene (displayed frame) based on the above (generation means), and four frames before and after the frame determined as the highlight scene (Second selection means), and the image data is cut out (copied) from the selected eight frames based on the trimming position and the trimming information stored in the trimming information storage area of the memory 9 ( Generating means) (step S27). That is, a trimmed image is generated not only from the frame determined as the highlight scene but also from the four frames before and after the frame, and all images in the same trimming area are cut out. Note that the trimming range setting operation (steps S10 to S14) may be performed for each of the four frames before and after the frame in the same manner as the frame determined as the highlight scene.

次いで、CPU10は、9枚のトリミング画像データ(切り出した9枚の画像データ)から1枚の組画像データを生成して、静止画ファイルとして記録させる(記録制御手段)(ステップS28)。このとき生成される1枚の組画像データは、ハイライトシーンとして決定したフレームから生成されたトリミング画像がメインとなるような画像になるように生成される。   Next, the CPU 10 generates one set of image data from nine pieces of trimmed image data (9 pieces of cut-out image data), and records it as a still image file (recording control means) (step S28). One set of image data generated at this time is generated so that a trimmed image generated from a frame determined as a highlight scene becomes a main image.

図7(b)は、9枚のトリミング画像データから生成された一枚の組画像の様子の一例を示すものである。図7(b)の中央に大きくある画像は、ハイライトシーンとして決定したフレームから生成されたトリミング画像であり、その上には選択したフレームの前の各4枚から生成されたトリミング画像が小さく表示されており、その下には選択したフレームの後の各4枚から生成されたトリミング画像が小さく表示されている。   FIG. 7B shows an example of a state of one combined image generated from nine pieces of trimmed image data. The large image in the center of FIG. 7B is a trimmed image generated from the frame determined as the highlight scene, and the trimmed image generated from each of the four frames before the selected frame is small above it. Below that, a trimmed image generated from each of the four frames after the selected frame is displayed in a small size.

ここでは、5枚目のフレームを選択したので、中央に大きく表された画像は、5枚目のフレームから生成されたトリミング画像であり、上の4枚の小さな画像は、5枚目のフレームの前の4枚、つまり、1枚目、2枚目、3枚目、4枚目のフレームから生成されたトリミング画像であり、下の4枚の小さな画像は、6枚目、7枚目、8枚目、9枚目のフレームから生成されたトリミング画像である。
これにより、撮影した動画ファイルの中の任意のフレームからメインの被写体の画像が切り出された組画像データを生成することができ、洒落た写真としても楽しむことができ、ユーザの興趣を高めることができる。
In this case, since the fifth frame is selected, the image that is largely displayed in the center is a trimmed image generated from the fifth frame, and the upper four small images are the fifth frame. The trimmed images generated from the first four frames, that is, the first, second, third, and fourth frames. The lower four small images are the sixth and seventh frames. These are trimmed images generated from the eighth and ninth frames.
As a result, it is possible to generate combined image data in which the image of the main subject is cut out from an arbitrary frame in the captured moving image file, which can be enjoyed as a stylish photo, and enhance the interest of the user. it can.

C.以上のように、第1の実施の形態においては、1コマ切り出しのモーションプリントがユーザによって選択され、ユーザが動画ファイルのフレームの中からハイライトシーンとなるフレームを選択すると、該フレームとともにトリミング枠20を表示させ、該表示されたトリミング枠20内の画像データを切り出して、静止画ファイルとして記録するようにしたので、簡単に撮影した動画ファイルの中の任意のフレームから静止画ファイルとして記録したい被写体の画像を切り出して記録することができる。 C. As described above, in the first embodiment, when a user selects a frame-cut motion print and the user selects a frame to be a highlight scene from among the frames of a moving image file, trimming is performed together with the frame. Since the frame 20 is displayed, and the image data in the displayed trimming frame 20 is cut out and recorded as a still image file, it can be recorded as a still image file from any frame in a video file that has been easily shot. It is possible to cut out and record an image of a subject to be desired.

また、9コマ切り出しのモーションプリントがユーザによって選択され、ユーザが動画ファイルのフレームの中からハイライトシーンとなるフレームを選択すると、該フレームとともにトリミング枠20を表示させ、該表示されたトリミング枠20内の画像データを切り出すとともに、ハイライトシーンとして選択されたフレームの前後4枚のフレームを選択し、該選択した8のフレームからもトリミング枠20に対応する範囲の画像データを切り出すので、一度に9枚のトリミング画像を生成することができ、1枚毎にトリミング範囲の設定をユーザが行うといった手間を省くことができる。   When the user selects a nine-frame motion print and the user selects a frame to be a highlight scene from the frames of the moving image file, the trimming frame 20 is displayed together with the frame, and the displayed trimming frame 20 is displayed. The image data in the frame and the four frames before and after the frame selected as the highlight scene are selected, and the image data in the range corresponding to the trimming frame 20 is also cut out from the selected eight frames. Nine trimmed images can be generated, and the labor of setting the trimming range for each sheet can be saved.

また、生成した9枚のトリミング画像を1枚の組画像データとして記録するようにしたので、洒落た写真としても楽しむことができ、ユーザの興趣を高めることができる。また、1枚の組画像データの画像を見ることにより、一度に複数のトリミング画像を見ることができ、また、動画データの内容の概略を瞬時に思い出すこともできる。
また、表示されたトリミング枠20の表示位置、表示範囲をユーザが変更することができるので、ユーザが記録したい画像をトリミングして記録することができる。
Further, since the generated nine trimmed images are recorded as one set of image data, it can be enjoyed as a stylish photo, and the user's interest can be enhanced. Also, by looking at the image of one piece of image data, a plurality of trimmed images can be seen at once, and the outline of the contents of the moving image data can be instantly recalled.
Further, since the user can change the display position and display range of the displayed trimming frame 20, it is possible to trim and record an image that the user wants to record.

[第2の実施の形態]
次に第2の実施の形態について説明する。
第1の実施の形態においては、9コマ切り出しの場合においては、決定したトリミングエリアで、ハイライトシーンとして決定したフレームの前後のフレームから画像を切り出すようにしたが、第2の実施の形態においては、ハイライトシーンとして決定したフレームから、決定したトリミングエリアの画像データを切り出し、該切り出した画像データの被写体を画像認識により認識し、ハイライトシーンとして決定したフレームの前後のそれぞれフレームから該認識した被写体がある位置の画像データを切り出すというものである。
[Second Embodiment]
Next, a second embodiment will be described.
In the first embodiment, in the case of nine-frame cutout, an image is cut out from the frames before and after the frame determined as the highlight scene in the determined trimming area. In the second embodiment, Cuts out the image data of the determined trimming area from the frame determined as the highlight scene, recognizes the subject of the cut out image data by image recognition, and recognizes the recognition from each frame before and after the frame determined as the highlight scene. The image data at the position where the subject is located is cut out.

D.デジタルカメラ1の動作
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の画像生成装置を実現する。
以下、第2の実施の形態のデジタルカメラ1の9コマ切り出しが選択されたときの動作を図8のフローチャートにしたがって説明する。
D. Operation of Digital Camera 1 In the second embodiment, the image generation apparatus of the present invention is realized by using the digital camera 1 having the same configuration as that shown in FIG.
Hereinafter, the operation when the nine-frame cutout of the digital camera 1 according to the second embodiment is selected will be described with reference to the flowchart of FIG.

図3のステップS26でYに分岐すると、CPU10は、決定されたトリミングエリア、つまり、トリミング位置、トリミングサイズで、該ハイライトシーンとして決定したフレーム(表示しているフレーム)からトリミング枠20内の画像データを切り出す(ステップS51)。
次いで、CPU10は、該切り出した画像データの被写体(人物や動物、自動車などの被写体)を画像認識処理により認識する(ステップS52)。この機能は、本発明の第1の画像認識手段に相当する。
When branching to Y in step S26 of FIG. 3, the CPU 10 determines the trimming area, that is, the trimming position and the trimming size, the frame in the trimming frame 20 from the frame (displayed frame) determined as the highlight scene. The image data is cut out (step S51).
Next, the CPU 10 recognizes a subject (a subject such as a person, an animal, or a car) of the cut-out image data by image recognition processing (step S52). This function corresponds to the first image recognition means of the present invention.

次いで、CPU10は、ハイライトシーンとして決定したフレームの前後4枚のフレームを選択し、該選択したそれぞれのフレームのトリミング位置を、該画像認識処理の結果に基づいて決定して、メモリ9のトリミング情報記憶領域に記憶させる(ステップS53)。つまリ、ハイライトシーンとして決定したフレームの前後4枚のフレームのそれぞれに対して画像認識処理を行い、ステップS52の画像認識処理により認識した被写体がフレームのどの位置にあるか否かを判定し、該判定した位置をトリミング位置としてフレーム毎に決定してメモリ9のトリミング情報記憶領域に記憶させる。このとき、トリミングサイズは、ステップS26で、決定したトリミングサイズをそのまま用いてもよいし、フレーム毎に認識された被写体の大きさに応じてトリミングサイズを変更するようにしてもよい。
このフレーム毎に決定されたトリミング位置をメモリ9のトリミング情報記憶領域に記憶させる機能は、本発明の第2の記憶制御手段に相当する。
Next, the CPU 10 selects four frames before and after the frame determined as the highlight scene, determines the trimming position of each selected frame based on the result of the image recognition process, and then trims the memory 9. The information is stored in the information storage area (step S53). That is, image recognition processing is performed on each of the four frames before and after the frame determined as the highlight scene, and it is determined at which position in the frame the subject recognized by the image recognition processing in step S52 is. The determined position is determined as a trimming position for each frame and stored in the trimming information storage area of the memory 9. At this time, the trimming size determined in step S26 may be used as it is, or the trimming size may be changed according to the size of the subject recognized for each frame.
The function of storing the trimming position determined for each frame in the trimming information storage area of the memory 9 corresponds to the second storage control means of the present invention.

なお、第2の実施の形態においては、ハイライトシーンとして決定したフレームと、その前後4枚のフレームは必ずしも連続するフレームである必要はない。この前後4枚のフレームの選択は、手動あるいはランダムに選択してもよいし、一定の基準(例えば、被写体の動きの大きいフレーム、ブレの少ないフレームなど)にしたがって選択するようにしてもよい。   In the second embodiment, the frame determined as the highlight scene and the four frames before and after the frame need not necessarily be continuous frames. The selection of the four frames before and after may be performed manually or randomly, or may be performed according to a certain standard (for example, a frame with a large movement of the subject, a frame with little blurring, etc.).

次いで、CPU10は、ハイライトシーンとして決定した前後4枚のフレームから、該決定したそれぞれのトリミング位置に基づいて画像データを切り出す(生成手段)(ステップS54)。このときトリミングサイズは、ステップS26で決定されたトリミングサイズであってもよいし、フレーム毎に認識された被写体の大きさに応じてトリミングサイズを変更するようにしてもよい。
次いで、CPU10は、該切り出した9枚の画像データから1枚の組画像データを生成し、該生成した組画像データをフラッシュメモリ11に記録する(記録制御手段)(ステップS55)。
Next, the CPU 10 cuts out image data based on the determined trimming positions from the four frames before and after determined as the highlight scene (generation unit) (step S54). At this time, the trimming size may be the trimming size determined in step S26, or may be changed according to the size of the subject recognized for each frame.
Next, the CPU 10 generates one set of image data from the extracted nine pieces of image data, and records the generated set image data in the flash memory 11 (recording control unit) (step S55).

E.以上のように、第2の実施の形態においては、ハイライトシーンとして決定した前後4枚のフレームのそれぞれに対して画像認識処理を行い、ハイライトシーンとして決定した画像のトリミング枠20の被写体がどの位置にあるかを判定し、該判定した位置をトリミング位置情報としてフレーム毎に記憶するようにしたので、ハイライトシーンとして決定したフレーム及びそのフレームの前後4枚のフレームから、トリミングエリアとして決定したトリミング枠20内に写っている被写体をそれぞれトリミングすることができ、トリミングしたい被写体の画像を全てのフレームからトリミングすることができる。 E. As described above, in the second embodiment, image recognition processing is performed on each of the four frames before and after the highlight scene is determined, and the subject of the trimming frame 20 of the image determined as the highlight scene is determined. Since the position is determined and the determined position is stored for each frame as trimming position information, the trimming area is determined from the frame determined as the highlight scene and the four frames before and after the frame. The subject in the trimming frame 20 can be trimmed, and the image of the subject to be trimmed can be trimmed from all frames.

なお、第2の実施の形態においては、図8のステップS51では、図3のステップS26で決定したトリミング範囲(つまり、決定したときのトリミング枠20)内の被写体を認識するようにしたが、ハイライトシーンとして決定したフレームの全画像の被写体を認識するようにしてもよい。この画像認識により認識した被写体(例えば、人物)がハイライトシーンとして決定したフレームのどの位置にあるかを判定し、該判定した位置をトリミング位置情報として記憶するとともに、ハイライトシーンとして決定したフレームに対する画像認識により認識した被写体(例えば、人物)がそのフレームの前後4枚のそれぞれのフレームのどの位置にあるかを判定し、該判定した位置をトリミング位置情報としてフレーム毎に記憶するようにしてもよい。この場合には、図3のステップS21〜ステップS26の処理は必要なく、図3のステップS18でハイライトシーンが決定すると、そのまま図8のステップS51に進む。   In the second embodiment, in step S51 in FIG. 8, the subject within the trimming range determined in step S26 in FIG. 3 (that is, the trimming frame 20 when determined) is recognized. You may make it recognize the to-be-photographed object of all the images of the flame | frame determined as a highlight scene. It is determined at which position of the frame determined as the highlight scene the subject (for example, a person) recognized by the image recognition, the determined position is stored as trimming position information, and the frame determined as the highlight scene is determined. It is determined in which position the subject (for example, a person) recognized by image recognition is located in each of the four frames before and after the frame, and the determined position is stored as trimming position information for each frame. Also good. In this case, the processing in steps S21 to S26 in FIG. 3 is not necessary, and when the highlight scene is determined in step S18 in FIG. 3, the process proceeds directly to step S51 in FIG.

この場合、ハイライトシーンとして決定したフレームのトリミング位置情報を、そのフレームの前後4枚のそれぞれのフレームのトリミング位置情報として利用するようにしてもよい。このときトリミングサイズは、予め決定されているトリミングサイズであってもよいし、ユーザが設定したトリミングサイズであってもよいし(ステップS24、S25)、フレーム(ハイライトシーンとして決定したフレームを含む)毎に認識された被写体の大きさに応じてトリミングサイズを変更するようにしてもよい。この手法は、9コマ切り出しの場合に限定されず、1コマ切り出しの場合にも有効である。   In this case, the trimming position information of the frame determined as the highlight scene may be used as the trimming position information of the four frames before and after the frame. At this time, the trimming size may be a predetermined trimming size, a trimming size set by the user (steps S24 and S25), or a frame (including a frame determined as a highlight scene). The trimming size may be changed according to the size of the subject recognized every time. This method is not limited to the case of nine-frame cutout, and is also effective in the case of one-frame cutout.

また、第2の実施の形態においては、図8のステップS51では、図3のステップS26で決定したトリミング範囲(つまり、決定したときのトリミング枠20)内の被写体を認識したり、ハイライトシーンとして決定したフレームの全画像の被写体を認識するようにしたが、トリミング範囲内又はフレームの全画像内に複数の被写体が含まれている場合には認識すべき被写体の特定が困難になるので、ユーザが認識させたい被写体位置をピンポイントで指定できるようにし、この指定された位置の被写体を認識するようにしてもよい。この手法も、9コマ切り出しの場合に限定されず、1コマ切り出しの場合にも有効である。   Further, in the second embodiment, in step S51 of FIG. 8, a subject in the trimming range determined in step S26 of FIG. 3 (that is, the trimming frame 20 when determined) is recognized, or a highlight scene is displayed. However, it is difficult to identify the subject to be recognized when a plurality of subjects are included in the trimming range or in the entire image of the frame. The subject position that the user wants to recognize may be designated by pinpoint, and the subject at the designated position may be recognized. This method is also not limited to the case of nine-frame cutout, and is also effective in the case of one-frame cutout.

[変形例]
F.上記各実施の形態は以下のような変形例も可能である。
(1)上記第1、第2の実施の形態においては、図2のステップS5、図3のステップS17で、最初のフレームを選択して画像表示部12に表示させるようにしたが、動画ファイルのフレームの中から自動的にフレームを選択し、該選択したフレームの画像を画像表示部12に表示させるようにしてもよい。これにより、自動的に選択されたフレームに基づいてトリミング画像を生成したくないと思ったときに、ユーザが手動で所望するフレームを選択することができる。
なお、このフレームの自動選択は、例えば、動画ファイルのフレームの中で一番ブレ量の少ないフレームを自動的に選択するようにしたり、画像認識処理により一番被写体の動きなどの変化のあるフレームを自動的に選択するようにしたり、シャッタボタン操作の前後数秒間の動画を撮影記録する機能が備えられている場合にはシャッタボタン操作時点のフレームを特定する情報を動画ファイル内に記憶させておくことによりシャッタボタン操作時点のフレームを自動的に選択するようにしたり、動画撮影中に静止画撮影が実行された時点のフレームを特定する情報を動画ファイル内に記憶させておくことにより静止画撮影時点のフレームを自動的に選択するようにしたり、録画開始時のフレーム又は録画終了時のフレームを自動的に選択するようにする。
[Modification]
F. Each of the above embodiments can be modified as follows.
(1) In the first and second embodiments, the first frame is selected and displayed on the image display unit 12 in step S5 of FIG. 2 and step S17 of FIG. A frame may be automatically selected from these frames, and an image of the selected frame may be displayed on the image display unit 12. Thereby, when the user does not want to generate a trimmed image based on the automatically selected frame, the user can manually select a desired frame.
Note that this automatic frame selection is performed, for example, by automatically selecting the frame with the smallest amount of blur among the frames of the moving image file, or the frame having the most change in subject movement or the like by image recognition processing. If a function for shooting and recording a movie for several seconds before and after the shutter button operation is provided, information for specifying a frame at the time when the shutter button is operated is stored in the movie file. This allows you to automatically select the frame at the time when the shutter button is operated, or to store information specifying the frame at the time when still image shooting was executed during movie shooting in the movie file. The frame at the time of shooting is automatically selected, or the frame at the start of recording or the frame at the end of recording is automatically selected. So as to.

(2)また、上記(1)では、自動的にフレームを選択した後、ユーザがフレームの選択を変更したり、ハイライトシーンを決定したりするようにしたが、自動的に選択されたフレームを強制的にハイライトシーンとして決定するようにしてもよい。つまり、図2のステップS6〜ステップS8の処理を無くすようにしてもよい。   (2) In (1) above, after the frame is automatically selected, the user changes the frame selection or determines the highlight scene. May be forcibly determined as a highlight scene. That is, the processing in steps S6 to S8 in FIG. 2 may be eliminated.

(3)また、トリミングする範囲をユーザが手動で変更することができるようにしたが、変更することができないようにしてもよい。つまり、図2のステップS10〜ステップS14、図3のステップS22〜ステップS26の処理を無くすようにしてもよい。つまり、予め決められた位置、サイズでトリミングされることとなる。
また、トリミングする位置のみ、又は、トリミングする大きさのみを手動で変更することができるようにしてもよい。
(3) Although the user can manually change the trimming range, the trimming range may not be changed. That is, the processing in steps S10 to S14 in FIG. 2 and steps S22 to S26 in FIG. 3 may be eliminated. That is, trimming is performed at a predetermined position and size.
Further, only the trimming position or only the trimming size may be manually changed.

(4)また、図2のステップS9、図3のステップS21では、予め決められた位置、大きさでトリミング枠20を表示させるようにしたが、画像認識処理等により自動的に定められた位置、大きさで表示させるようにしてもよい。このときは、画像認識処理等により自動的に定められた位置、大きさをトリミング位置情報、トリミングサイズ情報としてトリミング情報記憶領域に記憶させる。この画像認識処理により定められた位置、大きさとは、例えば、画像認識により人の顔を認識した場合にはその位置をトリミング位置として記憶させたり、人の顔の大きさに基づいてトリミングサイズを決定して記憶させるようにする。また、トリミングサイズは予め定められた大きさであってもよい。   (4) In step S9 in FIG. 2 and step S21 in FIG. 3, the trimming frame 20 is displayed at a predetermined position and size. However, the position is automatically determined by image recognition processing or the like. It may be displayed in size. At this time, the position and size automatically determined by image recognition processing or the like are stored in the trimming information storage area as trimming position information and trimming size information. The position and size determined by this image recognition processing are, for example, when a human face is recognized by image recognition, the position is stored as a trimming position, or the trimming size is set based on the size of the human face. Decide and remember. The trimming size may be a predetermined size.

(5)また、上記(4)では、画像認識処理等により自動的に定められた位置、大きさでトリミング枠20を表示させた後、ユーザがトリミングする位置、大きさを変更したり、決定したりすることができるようにしたが、画像認識処理等により自動的に定められたトリミング位置、トリミングサイズを強制的に決定するようにしてもよい。つまり、図2のステップS10〜ステップS14、図3のステップS22〜ステップS26の処理を無くすようにしてもよい。   (5) In the above (4), after the trimming frame 20 is displayed at the position and size automatically determined by the image recognition processing or the like, the position and size to be trimmed by the user can be changed or determined. However, the trimming position and trimming size that are automatically determined by image recognition processing or the like may be forcibly determined. That is, the processing in steps S10 to S14 in FIG. 2 and steps S22 to S26 in FIG. 3 may be eliminated.

(6)また、図3のステップS27では、ハイライトシーンとして決定したフレームと連続する前後4枚のフレームを選択し、該選択した8枚のフレームからもトリミング画像を生成するようにしたが、ハイライトシーンとして決定したフレームと、その前後4枚のそれぞれのフレームは必ずしも連続するフレームである必要はない。つまり、トリミング画像を生成する基となる各フレームが連続する必要はない。また、この前後4枚のフレームの選択は、手動あるいはランダムに選択するようにしてもよいし、所定枚数間隔でフレームを選択するようにしてもよい。更に、ブレ量の少ないフレームを自動的に選択するようにしてもよいし、画像認識処理により被写体の動きなどの変化のあるフレームを自動的に選択するようにしてもよい。   (6) Also, in step S27 of FIG. 3, four frames before and after the frame determined as the highlight scene are selected and a trimming image is generated from the selected eight frames. The frame determined as the highlight scene and the four frames before and after the frame need not necessarily be continuous frames. That is, it is not necessary for each frame that is a basis for generating a trimmed image to be continuous. Further, the selection of the four frames before and after this may be performed manually or randomly, or the frames may be selected at predetermined intervals. Further, a frame with a small amount of blur may be automatically selected, or a frame with a change such as movement of the subject may be automatically selected by image recognition processing.

(7)また、図3のステップS27や、図8のステップS53及びステップ54では、9枚のトリミング画像を生成するようにしたが、何枚であってもよい。
(8)また、図3のステップS27や、図8のステップS53及びステップS54では、ハイライトシーンとして決定したフレームと、その前後4枚のフレームとからそれぞれトリミング画像を生成するようにしたが、決定したフレームと、該決定したフレーム以外の8枚のフレームとからトリミング画像を生成するようにしてもよい。つまり、決定したフレームの前後4枚に限る必要はなく、例えば、決定したフレームの前2枚のフレームと、決定したフレームの後6枚のフレームであってもよい。
(7) Although nine trimmed images are generated in step S27 of FIG. 3 and steps S53 and 54 of FIG. 8, any number of trimmed images may be used.
(8) In step S27 in FIG. 3, and in steps S53 and S54 in FIG. 8, trimming images are generated from the frame determined as the highlight scene and the four frames before and after the frame. A trimmed image may be generated from the determined frame and eight frames other than the determined frame. That is, it is not necessary to limit the number of frames before and after the determined frame to, for example, two frames before the determined frame and six frames after the determined frame.

(9)また、図3のステップS27では、ステップS26で決定したトリミング位置情報、トリミングサイズ情報に基づいて、決定したフレームと、その前後4枚のフレームとからトリミング画像を生成するようにしたが、決定したトリミング位置情報に基づいて決定したフレームからトリミング画像を生成し、決定したフレームの前後4枚のフレームに関しては、該決定したトリミング情報に基づいてトリミング位置、トリミングサイズを変えてトリミング画像を生成するようにしてもよい。
例えば、決定したトリミング位置を中心に前後のフレームのトリミング位置を徐々に右にしたり、左にしたり、上にしたり、下にしたりするようにしてもよい。また、決定したトリミングサイズを中心に前後のフレームのトリミングサイズを徐々に大きくしたり、小さくしたりするようにしてもよい。
(9) Also, in step S27 of FIG. 3, a trimmed image is generated from the determined frame and the four frames before and after it based on the trimming position information and trimming size information determined in step S26. , based on the determined trimming position information, it generates a trimming image from the determined frame, with respect to four frames before and after the determined frame, trimming position based on the determined trimming information, trimming image by changing the size of the cropped May be generated.
For example, the trimming position of the preceding and following frames may be gradually made to the right, left, up, or down with the determined trimming position as the center. Further, the trimming size of the preceding and following frames may be gradually increased or decreased with the determined trimming size as the center.

(10)また、図3のステップS27では、ステップS26で決定したトリミング位置情報、トリミングサイズ情報に基づいてステップS18で決定したフレームの前後のフレームからもトリミング画像を生成するようにしたが、それぞれのフレームに対してトリミング位置、トリミングサイズをユーザが変更することができるようにしてもよいし、画像認識処理などを用いて自動的にそれぞれのフレームに対してトリミング位置、トリミングサイズを決定するようにしてもよい。 (10) Further, in step S27 in FIG. 3, the trimming position information determined in step S26, based on the trimming size information has been to generate a trimming image from the frames before and after the frame determined in step S18, The user may be able to change the trimming position and the trimming size for each frame, and the trimming position and the trimming size are automatically determined for each frame using an image recognition process or the like. You may do it.

(11)また、図3のステップS27では、ステップS26で決定したトリミング位置、トリミングサイズに基づいてハイライトシーンとして決定したフレームの前後のフレームからもトリミング画像を生成するようにしたが、ステップS18で決定したフレームのみからトリミング画像を生成するようにし、ハイライトシーンとして決定したフレームの前後のフレームからはトリミング画像を生成しないようにしてもよい。この場合、ステップS28では、ハイライトシーンとして決定したフレームから生成されたトリミング画像と、該決定したフレームの前後のフレームとから1枚の組画像データを生成することとなる。 (11) Further, in step S27 in FIG. 3, the trimming position determined in step S26, based on the size of the cropped, was to generate a trimming image from the frames before and after the frame determined as the highlight scene, step The trimming image may be generated only from the frame determined in S18, and the trimming image may not be generated from the frames before and after the frame determined as the highlight scene. In this case, in step S28, one set of image data is generated from the trimmed image generated from the frame determined as the highlight scene and the frames before and after the determined frame.

(12)また、図3のステップS28や図8のステップS55では、生成された9枚のトリミング画像から1枚の組画像データを生成して記録するようにしたが、組画像データを生成せずに、生成された9枚のトリミング画像をそれぞれ静止画ファイルとして記録するようにしてもよい。また、生成された9枚のトリミング画像から1枚の組画像データを生成して記録するとともに、生成された9枚のトリミング画像をそれぞれ静止画ファイルとして記録するようにしてもよい。   (12) In step S28 in FIG. 3 and step S55 in FIG. 8, one set of image data is generated and recorded from the nine trimmed images generated, but the set image data is generated. Instead, the generated nine trimmed images may be recorded as still image files. Further, one set of image data may be generated and recorded from the generated nine trimmed images, and each of the nine generated trimmed images may be recorded as a still image file.

(13)また、図2のステップS16、図3のステップS28、及び図8のステップS55では、トリミング画像から静止画ファイルを生成して記録するようにしたが、静止画ファイルを生成せずに、あるいは静止画ファイルは生成するが記録せずに、例えば、デジタルカメラ1とプリンタとがUSBケーブル等によりダイレクトに接続されている場合には、図2のステップS15、図3のステップS27、及び図8のステップS54で得られたトリミング画像(図2のステップS16、図3のステップS28、及び図8のステップS55で生成された静止画ファイル)をプリンタに出力してプリントアウトするようにしてもよい。勿論、記録済みの静止画ファイルを読み出してプリンタに出力してプリントアウトすることも可能である。   (13) In step S16 in FIG. 2, step S28 in FIG. 3, and step S55 in FIG. 8, a still image file is generated and recorded from the trimmed image. However, the still image file is not generated. Alternatively, when a still image file is generated but not recorded, for example, when the digital camera 1 and the printer are directly connected by a USB cable or the like, step S15 in FIG. 2, step S27 in FIG. The trimmed image obtained in step S54 in FIG. 8 (the still image file generated in step S16 in FIG. 2, step S28 in FIG. 3, and step S55 in FIG. 8) is output to the printer and printed out. Also good. Of course, it is also possible to read out a recorded still image file, output it to a printer, and print it out.

(14)更に、上記各実施の形態におけるデジタルカメラ1は、上記の実施の形態に限定されるものではなく、携帯電話、PDA、パソコン、ICレコーダ、又はデジタルビデオカメラ等でもよく、要は画像を処理することができる機器であれば何でもよい。   (14) Furthermore, the digital camera 1 in each of the above embodiments is not limited to the above embodiment, and may be a mobile phone, a PDA, a personal computer, an IC recorder, a digital video camera, or the like. Any device can be used as long as it is capable of processing.

本発明の実施の形態のデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. 第1の実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 1st Embodiment. 第1の実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 1st Embodiment. 動画ファイルの各フレームの画像の様子を示すものである。It shows the state of the image of each frame of the moving image file. 動画のフレームの画像とともに表示されたトリミング枠20の様子を示すものである。The state of the trimming frame 20 displayed together with the image of the moving image frame is shown. トリミング枠20を切り出したい被写体に合わせる合わせ方の一例を示す図である。It is a figure which shows an example of how to match the trimming frame 20 with the subject to cut out. 記録されたフレームから生成された静止画ファイルの静止画像データの様子を示す図である。It is a figure which shows the mode of the still image data of the still image file produced | generated from the recorded flame | frame. 第2の実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 2nd Embodiment.

符号の説明Explanation of symbols

1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り兼用シャッタ
5 CCD
6 TG
7 ユニット回路
8 DRAM
9 メモリ
10 CPU
11 フラッシュメモリ
12 画像表示部
13 キー入力部
14 音声処理部
15 ストロボ駆動部
16 ストロボ発光部
1 Digital Camera 2 Shooting Lens 3 Lens Drive Block 4 Shutter / Shutter 5 CCD
6 TG
7 Unit circuit 8 DRAM
9 Memory 10 CPU
11 Flash memory 12 Image display unit 13 Key input unit 14 Audio processing unit 15 Strobe drive unit 16 Strobe light emitting unit

Claims (4)

動画データを取得する取得手段と、
前記取得手段により取得された動画データの中フレームを選択する第1の選択手段と、
前記第1の選択手段により選択されたフレームから静止画ファイルを生成する生成手段と、
前記第1の選択手段により選択されたフレームのトリミングするエリアを示すトリミング情報を記憶する第1の記憶手段と、
前記取得手段により取得された動画データのうち、前記第1の選択手段により選択されたフレーム以外のフレームを選択する第2の選択手段と、
を備え、
前記生成手段は、
前記静止画ファイルを生成する前に、前記第1の記憶手段に記憶されているトリミング情報に基づいて、前記第1の選択手段により選択されたフレームからトリミング画像を生成すると共に、前記第1の記憶手段に記憶されているトリミング情報に基づいて、前記第2の選択手段により選択されたフレームからトリミング画像を生成する手段を含み、該生成されたトリミング画像の静止画ファイルを生成することを特徴とする画像生成装置。
An acquisition means for acquiring video data;
First selection means for selecting a frame in the video data obtained by the obtaining means,
Generating means for generating a still image file from the frame selected by the first selecting means;
First storage means for storing trimming information indicating an area to be trimmed of the frame selected by the first selection means;
A second selection unit that selects a frame other than the frame selected by the first selection unit from the moving image data acquired by the acquisition unit ;
With
The generating means includes
Before generating the still image file, a trimming image is generated from the frame selected by the first selection unit based on the trimming information stored in the first storage unit, and the first image file is generated . Including a means for generating a trimmed image from the frame selected by the second selecting means based on the trimming information stored in the storage means , and generating a still image file of the generated trimmed image. An image generating apparatus.
動画データを取得する取得手段と、
前記取得手段により取得された動画データの中のフレームを選択する第1の選択手段と、
前記第1の選択手段により選択されたフレームから静止画ファイルを生成する生成手段と、
前記第1の選択手段により選択されたフレーム中の被写体を認識する第1の画像認識手段と、
前記取得手段により取得された動画データのうち、前記第1の選択手段により選択されたフレーム以外のフレームを選択する第2の選択手段と、
前記第2の選択手段により選択されたフレームのトリミングするエリアを示すトリミング情報を記憶する第2の記憶手段と、
前記第1の画像認識手段により認識された被写体の位置に基づいてトリミングエリアを決定して前記第の記憶手段にトリミング情報を記憶させる第の記憶制御手段と、
を備え、
前記生成手段は、
前記静止画ファイルを生成する前に、前記第1の画像認識手段により認識された被写体の位置に基づいて、前記第1の選択手段により選択されたフレームからトリミング画像を生成すると共に、前記第2の記憶手段に記憶されているトリミング情報に基づいて、前記第2の選択手段により選択されたフレームからトリミング画像を生成する手段を含み、該生成されたトリミング画像の静止画ファイルを生成することを特徴とする像生成装置。
An acquisition means for acquiring video data;
First selection means for selecting a frame in the moving image data acquired by the acquisition means;
Generating means for generating a still image file from the frame selected by the first selecting means ;
First image recognition means for recognizing a subject in the frame selected by the first selection means;
A second selection unit that selects a frame other than the frame selected by the first selection unit from the moving image data acquired by the acquisition unit;
Second storage means for storing trimming information indicating an area to be trimmed of the frame selected by the second selection means;
A second storage control means for storing the trimming data in the second storage means to determine a trimming area based on the position of the recognized object by the first image recognition unit,
With
The generating means includes
Before generating the still image file , based on the position of the subject recognized by the first image recognition unit, a trimming image is generated from the frame selected by the first selection unit , and the second image file is generated. Generating a trimming image from the frame selected by the second selection unit based on the trimming information stored in the storage unit , and generating a still image file of the generated trimming image. images generating device according to claim.
動画データを取得する取得処理と、
この取得処理により取得された動画データの中のフレームを選択する第1の選択処理と、
この第1の選択処理により選択されたフレームから静止画ファイルを生成する生成処理と、
前記第1の選択処理により選択されたフレームのトリミングするエリアを示すトリミング情報を記憶する第1の記憶処理と、
前記取得処理により取得された動画データのうち、前記第1の選択処理により選択されたフレーム以外のフレームを択する第2の選択処理と、
を含み、
更に、前記生成処理は、
前記静止画ファイルを生成する前に、前記第1の記憶処理により記憶されているトリミング情報に基づいて、前記第1の選択処理により選択されたフレームからトリミング画像を生成すると共に、前記第1の記憶処理により記憶されているトリミング情報に基づいて、前記第2の選択処理により選択されたレームからトリミング画像を生成し、該生成されたトリミング画像の静止画ファイルを生成する処理を含み、
上記各処理をコンピュータで実行させることを特徴とするプログラム
Acquisition processing to acquire video data;
A first selection process for selecting a frame in the moving image data acquired by the acquisition process;
A generation process for generating a still image file from the frame selected by the first selection process;
A first storage process for storing trimming information indicating an area to be trimmed of the frame selected by the first selection process;
Of the video data acquired by the acquisition processing, a second selection process for selecting a frame other than the frame selected by the first selection process,
Including
Furthermore , the generation process includes:
Before generating the still image file, a trimming image is generated from the frame selected by the first selection processing based on the trimming information stored by the first storage processing, and the first image processing is performed. based on the trimming information stored in the storage process includes a process in which the second generates a trimming image from the frame selected by the selection process, generates a still image file of the generated trimming image,
Program characterized Rukoto to execute the above processes in a computer.
動画データを取得する取得処理と、
この取得処理により取得された動画データの中のフレームを選択する第1の選択処理と、
この第1の選択処理により選択されたフレームから静止画ファイルを生成する生成処理と、
前記第1の選択処理により選択されたフレーム中の被写体を認識する第1の画像認識処理と、
前記取得処理により取得された動画データのうち、前記第1の選択処理により選択されたフレーム以外のフレームを選択する第2の選択処理と、
この第2の選択処理により選択されたフレームのトリミングするエリアを示すトリミング情報を、前記第1の画像認識処理により認識された被写体の位置に基づいて決定して記憶する第2の記憶処理と、
を含み、
更に、前記生成処理は、
前記静止画ファイルを生成する前に、前記第1の画像認識処理により認識された被写体の位置に基づいて、前記第1の選択処理により選択されたフレームからトリミング画像を生成すると共に、前記第2の記憶処理により記憶されているトリミング情報に基づいて、前記第2の選択処理により選択されたフレームからトリミング画像を生成し、該生成されたトリミング画像の静止画ファイルを生成する処理を含み、
上記各処理をコンピュータで実行させることを特徴とするプログラム
Acquisition processing to acquire video data;
A first selection process for selecting a frame in the moving image data acquired by the acquisition process;
A generation process for generating a still image file from the frame selected by the first selection process;
A first image recognition process for recognizing a subject in a frame selected by the first selection process;
A second selection process for selecting a frame other than the frame selected by the first selection process from the moving image data acquired by the acquisition process;
A second storage process for determining and storing trimming information indicating an area to be trimmed in the frame selected by the second selection process based on the position of the subject recognized by the first image recognition process;
Including
Furthermore, the generation process includes:
Before generating the still image file, a trimmed image is generated from the frame selected by the first selection process based on the position of the subject recognized by the first image recognition process , and the second image file is generated. Including a process of generating a trimmed image from the frame selected by the second selection process based on the trimming information stored by the storage process, and generating a still image file of the generated trimmed image,
Program characterized Rukoto to execute the above processes in a computer.
JP2005209069A 2005-07-19 2005-07-19 Image generating apparatus and program thereof Expired - Fee Related JP4553134B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005209069A JP4553134B2 (en) 2005-07-19 2005-07-19 Image generating apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005209069A JP4553134B2 (en) 2005-07-19 2005-07-19 Image generating apparatus and program thereof

Publications (3)

Publication Number Publication Date
JP2007028331A JP2007028331A (en) 2007-02-01
JP2007028331A5 JP2007028331A5 (en) 2008-08-21
JP4553134B2 true JP4553134B2 (en) 2010-09-29

Family

ID=37788477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005209069A Expired - Fee Related JP4553134B2 (en) 2005-07-19 2005-07-19 Image generating apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP4553134B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009044504A (en) * 2007-08-09 2009-02-26 Hitachi Ltd Imaging apparatus and control method thereof
JP5464926B2 (en) * 2009-06-30 2014-04-09 キヤノン株式会社 Image processing apparatus and image processing method
JP5630983B2 (en) * 2009-09-30 2014-11-26 Necパーソナルコンピュータ株式会社 Playback device and content playback method
JP2015008342A (en) * 2011-11-02 2015-01-15 株式会社ニコン Image processing apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004207936A (en) * 2002-12-25 2004-07-22 Fuji Photo Film Co Ltd Image processing apparatus
JP2004297305A (en) * 2003-03-26 2004-10-21 Sharp Corp System and program for configuring data base, system and program for retrieving image, and image recorder/reproducer
JP2005094527A (en) * 2003-09-19 2005-04-07 Seiko Epson Corp Generation process of static picture data based on a plurality of frame image data
WO2005050986A1 (en) * 2003-11-19 2005-06-02 National Institute Of Information And Communications Technology, Independent Administrative Agency Method and device for presenting video content

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004207936A (en) * 2002-12-25 2004-07-22 Fuji Photo Film Co Ltd Image processing apparatus
JP2004297305A (en) * 2003-03-26 2004-10-21 Sharp Corp System and program for configuring data base, system and program for retrieving image, and image recorder/reproducer
JP2005094527A (en) * 2003-09-19 2005-04-07 Seiko Epson Corp Generation process of static picture data based on a plurality of frame image data
WO2005050986A1 (en) * 2003-11-19 2005-06-02 National Institute Of Information And Communications Technology, Independent Administrative Agency Method and device for presenting video content

Also Published As

Publication number Publication date
JP2007028331A (en) 2007-02-01

Similar Documents

Publication Publication Date Title
JP4395619B2 (en) Imaging apparatus, imaging condition setting method, and program
JP4379728B2 (en) Imaging apparatus and program thereof
JP4761146B2 (en) Imaging apparatus and program thereof
US9462181B2 (en) Imaging device for capturing self-portrait images
KR100821801B1 (en) Image capture apparatus and auto focus control method
JP4562182B2 (en) Image processing apparatus, image processing method, and program
JP4534249B2 (en) Imaging apparatus and program thereof
JP5306628B2 (en) Imaging method and apparatus
JP4697078B2 (en) Imaging apparatus and program thereof
JP5048614B2 (en) Imaging apparatus and method
JP2006025238A (en) Imaging device
JP5068690B2 (en) Image recording apparatus and method
US7515816B2 (en) Imaging apparatus having a focus function
JP2009058834A (en) Imaging apparatus
JP4748442B2 (en) Imaging apparatus and program thereof
JP4553134B2 (en) Image generating apparatus and program thereof
JP2008124896A (en) Imaging apparatus and program therefor
JP4379921B2 (en) Imaging apparatus and program thereof
JP2006287828A (en) Moving picture imaging apparatus and program thereof
JP2007142639A (en) Imaging apparatus and program therefor
JP2007028486A (en) Digital camera
JP5157528B2 (en) Imaging device
JP4769693B2 (en) Imaging apparatus, method, and program
JP5224951B2 (en) Image processing apparatus, method, and program
JP4883135B2 (en) Imaging apparatus and program thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100623

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4553134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100706

LAPS Cancellation because of no payment of annual fees