JP2006165768A - Digital camera - Google Patents

Digital camera Download PDF

Info

Publication number
JP2006165768A
JP2006165768A JP2004351268A JP2004351268A JP2006165768A JP 2006165768 A JP2006165768 A JP 2006165768A JP 2004351268 A JP2004351268 A JP 2004351268A JP 2004351268 A JP2004351268 A JP 2004351268A JP 2006165768 A JP2006165768 A JP 2006165768A
Authority
JP
Japan
Prior art keywords
moving image
image
still image
microprocessor
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004351268A
Other languages
Japanese (ja)
Inventor
Satoshi Ejima
聡 江島
Akira Omura
晃 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2004351268A priority Critical patent/JP2006165768A/en
Priority to EP05025703A priority patent/EP1667418B1/en
Priority to US11/286,287 priority patent/US20060119711A1/en
Publication of JP2006165768A publication Critical patent/JP2006165768A/en
Priority to US12/923,965 priority patent/US8605162B2/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital camera for realizing reproduction of frozen moving picture data photographed at a longitudinal photographing attitude at reduced processing cost. <P>SOLUTION: The digital camera is provided with: an imaging unit; an attitude discrimination unit; an imaging control unit; a rotation conversion unit; and an image processing unit. The imaging unit images an object image. The attitude discrimination unit discriminates the photographing attitude of a longitudinal/lateral position. The imaging control unit controls the imaging unit to obtain a still picture. The rotation conversion unit applies rotation conversion to the still picture in matching with the photographing attitude. The image processing unit stores the still picture after the rotation conversion to a moving picture frame thereby creating the frozen moving picture data obtained by reproducing the still picture after the rotation conversion for a prescribed period. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、デジタルカメラに関する。   The present invention relates to a digital camera.

従来、デジタルカメラでは、縦位置撮影された静止画ファイルの画像回転を一切行わず、縦位置撮影の情報のみを付加している。パソコン上の再生ソフト側では、この縦位置撮影の情報を検出すると、静止画ファイルの画像を自動的に90度回転して表示する。
また、特許文献1には、再生時に動画を縦位置に回転する技術が記載されている。すなわち、デジタルカメラ側では、縦位置撮影された動画ファイルに対して画像回転を一切行わず、縦位置撮影の情報を付加記録する。動画再生機器側で、この縦位置撮影の情報を検出すると、動画一コマ一コマを縦位置に画像回転して動画表示する。
このように、従来技術では、カメラ内で縦位置撮影の情報を画像に付加するのみであり、画像の回転変換は再生機器側で実施されていた。
特開2004−248171号公報(請求項1,2など)
Conventionally, a digital camera does not rotate an image of a still image file taken in a vertical position, and adds only information on the vertical position shooting. When the reproduction software on the personal computer detects this vertical position shooting information, the image of the still image file is automatically rotated 90 degrees and displayed.
Patent Document 1 describes a technique for rotating a moving image to a vertical position during reproduction. That is, on the digital camera side, the vertical position shooting information is additionally recorded without performing any image rotation on the moving image file shot in the vertical position. When the video playback device detects this vertical shooting information, the video is rotated and displayed in the vertical position.
As described above, in the prior art, only the information on the vertical position shooting is added to the image in the camera, and the rotation conversion of the image is performed on the playback device side.
JP 2004-248171 A (Claims 1 and 2 etc.)

本発明者は、デジタルカメラで撮影した静止画を、動画専用の再生機器でも簡易再生するための技術について検討した。その結果、デジタルカメラ内において、静止画を、動画ファイル規格に準拠した動画データに変換することを考えた。この動画データは、静止画を所定時間再生する動画データ(フリーズ動画データ)となる。動画再生機器側では、このフリーズ動画データを、通常の動画データと同様に動画再生することによって、静止画の簡易再生を実現できる。   The present inventor has examined a technique for easily reproducing still images taken with a digital camera even with a reproduction device dedicated to moving images. As a result, we considered converting still images into moving image data compliant with the moving image file standard in the digital camera. This moving image data becomes moving image data (freeze moving image data) for reproducing a still image for a predetermined time. On the video playback device side, simple playback of a still image can be realized by playing back the freeze video data in the same manner as normal video data.

ところで、縦位置撮影された静止画から、フリーズ動画データを作成する場合が問題になる。すなわち、一般的な動画専用の再生機器は、上述した縦位置撮影の情報に対応していない。そのため、汎用の動画再生機器では、フリーズ動画データの動画フレームを縦位置に回転して表示することができず、横向きのままの見苦しい静止画再生となってしまう。   By the way, there is a problem when freeze video data is created from a still image shot vertically. That is, a general playback device dedicated to moving images does not support the above-described vertical position shooting information. For this reason, a general-purpose moving image playback device cannot display a moving image frame of freeze moving image data by rotating it to a vertical position, resulting in an unsightly still image reproduction in a horizontal orientation.

また、動画再生機器側で縦位置撮影の情報にたとえ対応したとしても、フリーズ動画データの動画フレームを一コマずつ縦位置に回転する変換処理は処理コストが重く、コマ落ちなどの問題が懸念される。   Also, even if the video playback device supports vertical position shooting information, the conversion processing that rotates the video frames of freeze video data to the vertical position one frame at a time is expensive and there are concerns about problems such as dropped frames. The

本発明の目的は、このような点に鑑みて、フリーズ動画データの縦位置再生を少ない処理コストで実現することである。   In view of the above, an object of the present invention is to realize vertical position reproduction of freeze moving image data at a low processing cost.

《1》
本発明のデジタルカメラは、撮像部、姿勢判定部、撮像制御部、回転変換部、および画像処理部を備える。
撮像部は、被写体像の撮像を行う。
姿勢判定部は、縦位置/横位置の撮影姿勢を判定する。
撮像制御部は、撮像部を制御して静止画を得る。
回転変換部は、撮影姿勢に合わせて、静止画を回転変換する。
画像処理部は、回転変換後の静止画を動画フレームに格納することにより、回転変換後の静止画を所定期間再生するフリーズ動画データを作成する。
<< 1 >>
The digital camera of the present invention includes an imaging unit, a posture determination unit, an imaging control unit, a rotation conversion unit, and an image processing unit.
The imaging unit captures a subject image.
The posture determination unit determines the shooting posture of the vertical position / horizontal position.
The imaging control unit controls the imaging unit to obtain a still image.
The rotation conversion unit rotates and converts the still image according to the shooting posture.
The image processing unit creates freeze moving image data for reproducing the still image after rotation conversion for a predetermined period by storing the still image after rotation conversion in a moving image frame.

《2》
なお好ましくは、回転変換部は、静止画を回転変換するに際して、静止画の画面長辺方向の画素数が、画面短辺方向の画素数以下になるように静止画を解像度変換する。
<< 2 >>
Preferably, the rotation conversion unit converts the resolution of the still image so that the number of pixels in the long side direction of the still image is equal to or less than the number of pixels in the short side direction of the screen when rotating the still image.

《3》
また好ましくは、回転変換部は、静止画を回転変換するに際して、回転前の画面アスペクト比を維持するよう、回転変換後の静止画の画面の枠外にアスペクト調整用の所定画像を合成する。
<< 3 >>
Preferably, the rotation conversion unit combines the predetermined image for aspect adjustment outside the frame of the still image screen after the rotation conversion so as to maintain the screen aspect ratio before the rotation when rotating the still image.

[1]
本発明では、デジタルカメラ内において、撮影姿勢に合わせて静止画の回転変換を実施する。デジタルカメラは、この回転変換後の静止画を動画フレームに格納することによって、フリーズ動画データを作成する。
例えば、MotionJPEG規格であれば、回転変換後の静止画を複製して、複数の動画フレームに順次格納すればよい。また、MPEG規格のようにフレーム間予測差を使用する場合には、回転変換後の静止画を複製して複数のIピクチャーに格納し、中間のPピクチャーやBピクチャーには、フレーム間予測差ゼロを示す情報を格納すればよい。
このような動画規格であれば静止画の回転変換は1回で済む。そのため、デジタルカメラ側で回転変換を行っても、処理コストの増加は無視できる程度に収まる。
さらに、このフリーズ動画データは、動画再生機器において通常の動画と同様に再生することができる。特に、縦位置撮影されたフリーズ動画データについては、動画再生機器側で特別な処理を行うことなく、縦位置の状態で再生表示することができる。
[1]
In the present invention, rotation conversion of a still image is performed in the digital camera in accordance with the shooting posture. The digital camera creates freeze moving image data by storing the still image after the rotation conversion in a moving image frame.
For example, in the Motion JPEG standard, a still image after rotation conversion may be duplicated and sequentially stored in a plurality of moving image frames. Also, when using inter-frame prediction differences as in the MPEG standard, the still image after rotation conversion is copied and stored in a plurality of I pictures, and inter-frame prediction differences are included in intermediate P and B pictures. Information indicating zero may be stored.
With such a moving image standard, only one rotation conversion of the still image is required. For this reason, even if the rotation conversion is performed on the digital camera side, the increase in processing cost is negligible.
Furthermore, the freeze moving image data can be reproduced in the same manner as a normal moving image on a moving image reproducing device. In particular, freeze video data shot in the vertical position can be played back and displayed in the vertical position without any special processing on the video playback device side.

[2]
なお、本発明では、静止画を回転変換する際に、静止画の画面長辺方向の画素数が、画面短辺方向の画素数以下になるように解像度変換を合わせて実施することが好ましい。
この場合、回転変換後の画面サイズ(縦横画素数)は、回転変換前の画面サイズからはみ出さない。そのため、動画再生機器側では、特別な処理を行うことなく、横位置の画面サイズに合わせた表示画面内に、縦位置の静止画をはみ出すことなく表示することができる。
[2]
In the present invention, when the still image is rotationally converted, the resolution conversion is preferably performed so that the number of pixels in the long side direction of the still image is equal to or less than the number of pixels in the short side direction of the screen.
In this case, the screen size (number of vertical and horizontal pixels) after the rotation conversion does not protrude from the screen size before the rotation conversion. Therefore, the moving image playback device can display the still image in the vertical position without protruding in the display screen in accordance with the screen size in the horizontal position without performing special processing.

[3]
また、本発明では、回転変換後の静止画の画面の枠外にサイズ調整用の所定画像を合成して、横位置の画面アスペクト比を維持することが好ましい。
この場合、動画再生機器側では、横位置/縦位置の切り換えに際して、特別なアスペクト変換処理を行う必要がなく、縦位置の画像であっても横位置の画像として再生することが可能になる。
[3]
In the present invention, it is preferable to maintain a horizontal screen aspect ratio by synthesizing a predetermined image for size adjustment outside the frame of the still image after rotation conversion.
In this case, the moving image playback device does not need to perform a special aspect conversion process when switching the horizontal position / vertical position, and even a vertical position image can be reproduced as a horizontal position image.

《第1実施形態》
[第1実施形態の構成説明]
図1は、第1実施形態の構成を示すブロック図である。
図1において、デジタルカメラ11には、撮影レンズ12が装着される。この撮影レンズ12の像空間には、撮像素子13の受光面が配置される。この撮像素子13は、タイミングジェネレータ22bの出力パルスによって撮像動作が制御される。
<< First Embodiment >>
[Description of Configuration of First Embodiment]
FIG. 1 is a block diagram showing the configuration of the first embodiment.
In FIG. 1, a photographic lens 12 is attached to a digital camera 11. In the image space of the photographic lens 12, the light receiving surface of the image sensor 13 is arranged. The imaging device 13 has its imaging operation controlled by the output pulse of the timing generator 22b.

この撮像素子13から出力される画像データは、A/D変換部15および信号処理部16を介して、バッファメモリ17に一時記憶される。
このバッファメモリ17は、バス18に接続される。このバス18には、画像処理部19、カードインターフェース20、マイクロプロセッサ22、圧縮伸張部23、画像表示部24、赤目軽減発光部30、閃光発光部31、および音声処理部32が接続される。
The image data output from the image sensor 13 is temporarily stored in the buffer memory 17 via the A / D conversion unit 15 and the signal processing unit 16.
The buffer memory 17 is connected to the bus 18. Connected to the bus 18 are an image processing unit 19, a card interface 20, a microprocessor 22, a compression / decompression unit 23, an image display unit 24, a red-eye reduction light emitting unit 30, a flash light emitting unit 31, and an audio processing unit 32.

この内、カードインターフェース20は、着脱自在なメモリカード21に対してデータの読み書きを行う。
また、マイクロプロセッサ22には、スイッチ群22a、レリーズ釦22c、および姿勢センサ22dから信号が入力される。このスイッチ群22aには、メニュー釦、モード操作釦、マルチセレクタ釦、コマンドダイヤルなどが含まれる。
さらに、画像表示部24は、デジタルカメラ11の背面に設けられたモニタ画面25に画像を表示する。
また、音声処理部32にはマイク33が接続される。
Among these, the card interface 20 reads / writes data from / to the removable memory card 21.
The microprocessor 22 receives signals from the switch group 22a, the release button 22c, and the attitude sensor 22d. The switch group 22a includes a menu button, a mode operation button, a multi selector button, a command dial, and the like.
Further, the image display unit 24 displays an image on a monitor screen 25 provided on the back surface of the digital camera 11.
A microphone 33 is connected to the audio processing unit 32.

[第1実施形態の動作説明]
第1実施形態は、次のような動作上の特徴を備える。
(1)レリーズ釦22cの半押しによる動画バッファリング
(2)半押し解除による動画バッファリングの削除
(3)レリーズ釦22cの全押しによる動画バッファリングの完了
(4)静止画からフリーズ動画データの作成
(5)カメラ姿勢に対応したフリーズ動画データの画像回転処理
(6)動画データとフリーズ動画データのマージ処理
[Description of Operation of First Embodiment]
The first embodiment has the following operational features.
(1) Video buffering by half-pressing the release button 22c (2) Deletion of video buffering by releasing the half-press (3) Video buffering completed by fully pressing the release button 22c (4) Freezing video data from a still image Creation (5) Image rotation processing of freeze movie data corresponding to camera posture (6) Merge processing of movie data and freeze movie data

図2は、これらの動作を説明する流れ図である。以下、図2に示すステップ番号に沿って、これらの動作を説明する。
まず、デジタルカメラ11の主電源が投入されると、マイクロプロセッサ22は、所定の初期設定を経た後、ステップS1に動作を移行する。
FIG. 2 is a flowchart for explaining these operations. Hereinafter, these operations will be described along the step numbers shown in FIG.
First, when the main power supply of the digital camera 11 is turned on, the microprocessor 22 proceeds to step S1 after a predetermined initial setting.

ステップS1: マイクロプロセッサ22は、まず、バッファメモリ17内のメモリ領域を開放する。この動作により、バッファメモリ17に過去蓄積された動画バッファリングは削除される。 Step S1: The microprocessor 22 first releases the memory area in the buffer memory 17. By this operation, the moving image buffering accumulated in the buffer memory 17 in the past is deleted.

ステップS2: デジタルカメラ11は、モニタ画面25に撮像画像(動画)をほぼリアルタイムに表示する。この場合、滑らかな動画表示を実現するため、撮像素子13の読み出しライン数を減数することによって高フレームレート(例えば30フレーム/秒)のVGA画像を継続的に読み出す(いわゆるドラフトモード)。
マイクロプロセッサ22は、測光処理の結果(例えばVGA画像の信号レベル)に基づいて、このドラフトモード時の露出設定を行う。
Step S2: The digital camera 11 displays the captured image (moving image) on the monitor screen 25 almost in real time. In this case, in order to realize smooth moving image display, VGA images at a high frame rate (for example, 30 frames / second) are continuously read out by reducing the number of readout lines of the image sensor 13 (so-called draft mode).
The microprocessor 22 performs exposure setting in the draft mode based on the result of the photometric processing (for example, the signal level of the VGA image).

ステップS3: さらに、マイクロプロセッサ22は、ドラフトモード用の焦点制御(例えばVGA画像によるコントラスト山登りAF)を行う。なお、ここでは、ユーザーによる構図変更などにも焦点制御が十分追従するよう、合焦精度の粗い高速な焦点制御が実施される。 Step S3: Furthermore, the microprocessor 22 performs draft mode focus control (for example, contrast hill-climbing AF using a VGA image). Here, high-speed focus control with coarse focusing accuracy is performed so that the focus control sufficiently follows the composition change by the user.

ステップS4: マイクロプロセッサ22は、タイミングジェネレータ22bを介して、撮像素子13をドラフトモードで順次駆動し、VGA画像を次々に撮像する。 Step S4: The microprocessor 22 sequentially drives the image sensor 13 in the draft mode via the timing generator 22b, and sequentially captures VGA images.

ステップS5: このように読み出されたVGA画像は、画像表示部24によって、モニタ画面25にモニタ表示される。 Step S5: The VGA image read in this way is displayed on the monitor screen 25 by the image display unit 24.

ステップS6: マイクロプロセッサ22は、このモニタ表示に並行して、レリーズ釦22cの半押し操作を監視する。
ここで、半押し操作を検出しない場合、マイクロプロセッサ22はステップS2に動作を戻す。
一方、半押し操作(第1開始信号の入力)を検出すると、マイクロプロセッサ22はステップS7に動作を移行する。
Step S6: The microprocessor 22 monitors the half-press operation of the release button 22c in parallel with the monitor display.
Here, when the half-press operation is not detected, the microprocessor 22 returns the operation to step S2.
On the other hand, when the half-press operation (input of the first start signal) is detected, the microprocessor 22 proceeds to step S7.

ステップS7: この半押し期間への移行に対応し、マイクロプロセッサ22は、静止画撮影(レリーズ全押し)に備えて、静止画撮影用の高精度な焦点制御を実施する。 Step S7: In response to the shift to the half-press period, the microprocessor 22 performs high-precision focus control for still image shooting in preparation for still image shooting (release full-press).

ステップS8: さらに、マイクロプロセッサ22は、測光処理の結果(例えばVGA画像の信号レベル)に基づいて、静止画撮影用の露出値(絞り値、電荷蓄積時間、撮像感度)を決定する。
なお、この静止画撮影の露出値と同等な露出が得られるよう、マイクロプロセッサ22は動画撮影の露出設定も行う。すなわち、マイクロプロセッサ22は、動画撮影の電荷蓄積時間1/30秒の条件で、静止画撮影と同等の露出結果が得られるように絞り値を決定する。このとき、開放絞りにしても露出が不足する場合は、撮像感度の設定(A/D変換部15のゲイン)を上げることで露出不足を補う。一方、最小絞りであっても露出過多となる場合には、電荷蓄積時間を1/100秒に短縮するなどの設定が行われる。
Step S8: Further, the microprocessor 22 determines an exposure value (aperture value, charge accumulation time, imaging sensitivity) for still image shooting based on the result of the photometric processing (for example, the signal level of the VGA image).
Note that the microprocessor 22 also performs exposure settings for moving image shooting so that an exposure equivalent to the exposure value for still image shooting can be obtained. In other words, the microprocessor 22 determines the aperture value so that an exposure result equivalent to that of still image shooting can be obtained under the condition that the charge accumulation time of moving image shooting is 1/30 seconds. At this time, if the exposure is insufficient even with the wide aperture, the underexposure is compensated by increasing the imaging sensitivity setting (gain of the A / D converter 15). On the other hand, if the minimum aperture is overexposed, settings such as shortening the charge accumulation time to 1/100 second are performed.

ステップS9: マイクロプロセッサ22は、タイミングジェネレータ22bを介して、撮像素子13をドラフトモードで順次駆動し、VGA画像の撮像を継続する。 Step S9: The microprocessor 22 sequentially drives the image sensor 13 in the draft mode via the timing generator 22b, and continues to capture the VGA image.

ステップS10: マイクロプロセッサ22は、AF処理(ステップS7)およびAE処理(ステップS8)の完了後、VGA画像の動画バッファリング(バッファメモリ17に動画フレームとして蓄積すること)を開始する。
なお、動画撮影の上限時間(例えば3秒間)を超えた場合、マイクロプロセッサ22は、古い動画フレームから順に消去する。この動作により、バッファメモリ17中には、上限時間以下の最新の動画フレームが保持される。
Step S10: After completing the AF process (Step S7) and the AE process (Step S8), the microprocessor 22 starts moving image buffering of VGA images (accumulating as moving image frames in the buffer memory 17).
When the upper limit time (for example, 3 seconds) of moving image shooting is exceeded, the microprocessor 22 deletes the old moving image frames in order. By this operation, the latest moving image frame having the upper limit time or less is held in the buffer memory 17.

ステップS11: 画像表示部24は、このVGA画像を、モニタ画面25に順次表示する。 Step S11: The image display unit 24 sequentially displays the VGA images on the monitor screen 25.

ステップS12: このような動画バッファリング中に、レリーズ釦22cの半押し操作が解除されると(第1開始信号の解除)、マイクロプロセッサ22はステップS1に動作を戻す。このステップS1では、バッファメモリ17内の動画バッファリングは記録保存されることなく削除される。この動画バッファリングの削除後、マイクロプロセッサ22は、ステップS2以降の半押し前の動作を再開する。
一方、レリーズ釦22cの半押し操作が継続中の場合、マイクロプロセッサ22は、ステップS13に動作を移行する。
Step S12: When the half-press operation of the release button 22c is released during the moving image buffering (release of the first start signal), the microprocessor 22 returns the operation to step S1. In step S1, the moving image buffering in the buffer memory 17 is deleted without being recorded and saved. After the deletion of the moving image buffering, the microprocessor 22 resumes the operation before half-pressing after step S2.
On the other hand, when the half-press operation of the release button 22c is continuing, the microprocessor 22 shifts the operation to step S13.

ステップS13: ここで、マイクロプロセッサ22は、レリーズ釦22cが全押しされたか否かを判定する。
もし、全押し操作(第2開始信号の入力)を検出した場合、マイクロプロセッサ22はステップS14に動作を移行する。
一方、全押し操作を検出しない場合、マイクロプロセッサ22はステップS9に動作を戻す。
Step S13: Here, the microprocessor 22 determines whether or not the release button 22c is fully pressed.
If the full-press operation (input of the second start signal) is detected, the microprocessor 22 shifts the operation to step S14.
On the other hand, when the full pressing operation is not detected, the microprocessor 22 returns the operation to step S9.

ステップS14: マイクロプロセッサ22は、静止画撮影用の露出値を用いて、静止画の露光動作を実施する。このように、動画撮影(ステップS9)と静止画撮影(ステップS14)の露出条件を揃えることにより、動画と静止画の明るさをほぼ一致させることが可能になる。
続いて、マイクロプロセッサ22は、タイミングジェネレータ22bを介して、撮像素子13を全画素読み出しモードで順次駆動し、高解像度の静止画を読み出す。この静止画は、A/D変換部15でデジタル化された後、信号処理部16において欠陥画素補正や階調補正などの処理が施される。
その後、静止画はバッファメモリ17に一旦蓄積され、画像処理部19によって、色補間、色補正、ノイズ除去、および輪郭強調などの画像処理が施される。圧縮伸張部23は、処理済みの静止画を画像圧縮する。
なお、画像処理部19は、赤目の検出箇所に対して自動赤目軽減の信号処置を実施してもよい。さらに、画像処理部19は、静止画の階調を分析して、露光量の少ない画像領域を明るくするように階調補正を実施してもよい。
このように静止画のみに種々の画像処理が行うことにより、画質劣化の目立ちやすい静止画を特に高画質化する。さらに、動画に対する画像処理を省略することによって全体の処理時間短縮を可能にしている。
Step S14: The microprocessor 22 uses the exposure value for still image shooting to perform a still image exposure operation. Thus, by aligning the exposure conditions for moving image shooting (step S9) and still image shooting (step S14), it is possible to make the brightness of the moving image and still image substantially the same.
Subsequently, the microprocessor 22 sequentially drives the image sensor 13 in the all-pixel read mode via the timing generator 22b to read a high-resolution still image. The still image is digitized by the A / D converter 15 and then subjected to processing such as defective pixel correction and gradation correction in the signal processing unit 16.
Thereafter, the still image is temporarily stored in the buffer memory 17, and image processing such as color interpolation, color correction, noise removal, and edge enhancement is performed by the image processing unit 19. The compression / decompression unit 23 compresses the processed still image.
Note that the image processing unit 19 may perform signal processing for automatic red-eye reduction on the red-eye detection location. Further, the image processing unit 19 may analyze the gradation of a still image and perform gradation correction so that an image area with a small exposure amount is brightened.
As described above, various image processes are performed only on the still image, so that the still image whose image quality is likely to deteriorate is particularly improved in image quality. Further, the entire processing time can be shortened by omitting image processing for moving images.

ステップS15: メモリカード21内には、図3[B]に示すように、静止画を格納するための静止画用フォルダが設けられる。カードインターフェース20は、画像圧縮された静止画ファイルを、この静止画フォルダの階層下に記録する。 Step S15: As shown in FIG. 3B, a still image folder for storing still images is provided in the memory card 21. The card interface 20 records the compressed still image file under the still image folder hierarchy.

ステップS16: 画像処理部19は、バッファメモリ17内の静止画をVGAサイズに解像度変換する。 Step S16: The image processing unit 19 converts the resolution of the still image in the buffer memory 17 to the VGA size.

ステップS17: マイクロプロセッサ22は、姿勢センサ22dの出力から静止画撮影時のカメラ姿勢を検出する。
ここで、静止画が横位置撮影の場合、マイクロプロセッサ22は、図4[A]に示すように、VGAサイズに解像度変換された静止画をそのまま採用する。
一方、静止画が縦位置撮影の場合、画像処理部19は、図4[B]に示すように
VGAサイズ『横640画素×縦480画素』の画像データを回転する。このとき、回転変換後の長辺が、回転変換前の短辺以下の画素数となるように、解像度変換も併せて施され、『横360画素×縦480画素』の画像データを得る。さらに、画像処理部19は、回転変換前のアスペクト比を維持するよう、回転変換後の画像の枠外に所定画像(余白を示す画像など)を付加し、『横640画素×縦480画素』の画像を得る。
Step S17: The microprocessor 22 detects the camera posture during still image shooting from the output of the posture sensor 22d.
Here, when the still image is taken in the horizontal position, the microprocessor 22 directly adopts the still image whose resolution has been converted to the VGA size as shown in FIG. 4A.
On the other hand, when the still image is captured in the vertical position, the image processing unit 19 rotates the image data of the VGA size “horizontal 640 pixels × vertical 480 pixels” as shown in FIG. At this time, resolution conversion is also performed so that the long side after the rotation conversion is equal to or less than the short side before the rotation conversion, and image data of “360 horizontal pixels × 480 vertical pixels” is obtained. Further, the image processing unit 19 adds a predetermined image (such as an image showing a margin) outside the frame of the image after the rotation conversion so as to maintain the aspect ratio before the rotation conversion, and the “horizontal 640 pixels × vertical 480 pixels” Get an image.

ステップS18: マイクロプロセッサ22は、ステップS17の処理を経たVGA静止画を、動画フレームとして3秒間再生するフリーズ動画データを作成する。
例えば、MotionJPEGのフリーズ動画データであれば、VGA静止画の圧縮データを複製して、複数の動画フレームに順次格納すればよい。また、MPEG規格のフリーズ動画データであれば、VGA静止画の圧縮データを複製して複数のIピクチャーに格納し、中間のPピクチャーやBピクチャーには、フレーム間予測差ゼロを示す情報を格納すればよい。
Step S18: The microprocessor 22 creates freeze moving image data for reproducing the VGA still image that has undergone the processing of step S17 as a moving image frame for 3 seconds.
For example, in the case of Motion JPEG freeze moving image data, VGA still image compressed data may be copied and sequentially stored in a plurality of moving image frames. In addition, in the case of freeze video data of the MPEG standard, VGA still image compressed data is duplicated and stored in a plurality of I pictures, and information indicating zero interframe prediction difference is stored in intermediate P pictures and B pictures. do it.

ステップS19: マイクロプロセッサ22は、バッファメモリ17内の動画データのヘッダ用の情報としてVGA静止画を格納する。この情報はバッファ内の画像データをMPEGなどの所定の動画ファイル規格にエンコードした際に、サムネイルなどのヘッダー情報もしくは、動画再生におけるいわゆるキャプチャーメニュー用に使用されるものである。
なお、動画の再生装置(あるいは再生プログラム)では、動画1フレーム目の画像をサムネイル画像として表示するソフトもある。そこで、VGA静止画を動画1フレーム目に格納してもよい。この場合、動画再生時にこのVGA静止画が瞬間的(例えば1/30秒)に再生されるが、僅かな時間のため動画鑑賞に支障は少ない。
これらの処理により、動画データを後で取り扱う場合や、デジタルカメラで再生する場合に、希望するデータが探しやすいという利点がある。さらに、静止画と動画を別々に記録する場合に比べて、両データの関連付け情報が不要になるなどの利点がある。
Step S19: The microprocessor 22 stores the VGA still image as information for the header of the moving image data in the buffer memory 17. This information is used for header information such as thumbnails or a so-called capture menu in moving image reproduction when the image data in the buffer is encoded into a predetermined moving image file standard such as MPEG.
Note that the moving image playback device (or playback program) also includes software that displays the first frame of the moving image as a thumbnail image. Therefore, the VGA still image may be stored in the first frame of the moving image. In this case, the VGA still image is reproduced instantaneously (for example, 1/30 second) at the time of reproducing the moving image, but there is little trouble in viewing the moving image because the time is short.
By these processes, there is an advantage that desired data can be easily searched when moving image data is handled later or when it is reproduced by a digital camera. Furthermore, there is an advantage that the association information between both data becomes unnecessary compared with the case where the still image and the moving image are recorded separately.

ステップS20: マイクロプロセッサ22は、バッファメモリ17内の動画データの最終フレームに続けて、ステップS18で作成したフリーズ動画データを連結編集する。 Step S20: The microprocessor 22 concatenates and edits the freeze moving image data created in step S18 following the final frame of the moving image data in the buffer memory 17.

ステップS21: 圧縮伸張部23は、バッファメモリ17内の編集済みの動画データに対して、モーションJPEG、MPEG2、MPEG4、H264その他のエンコード処理を施し、動画ファイルを生成する。メモリカード21内には、図3[A]に示すように、この動画ファイル用のフォルダが設けられる。カードインターフェース20は、エンコード済みの動画ファイルを、このフォルダの階層下に記録する。
なお、図5に示すように、マイクロプロセッサ22は、メモリカード21内に、一連の編集済み動画データを1つに纏めた動画ファイルを作成してもよい。この動画ファイルは、メモリカード21内に先行して記録済みの動画ファイルに対して、最新の動画ファイルを日付表示などと共に逐次連結することによって作成される。
Step S21: The compression / decompression unit 23 performs motion JPEG, MPEG2, MPEG4, H264 and other encoding processing on the edited moving image data in the buffer memory 17 to generate a moving image file. As shown in FIG. 3A, a folder for this moving image file is provided in the memory card 21. The card interface 20 records the encoded video file under the folder hierarchy.
As shown in FIG. 5, the microprocessor 22 may create a moving image file in which a series of edited moving image data is combined into one in the memory card 21. This moving image file is created by sequentially connecting the latest moving image file together with the date display etc. to the moving image file recorded in advance in the memory card 21.

ステップS22: マイクロプロセッサ22は、上述した記録処理を完了すると、ステップS1に動作を戻し、次回の撮影処理に備える。なお、デジタルカメラ11の主電源がオフされた場合には、記録処理の完了を待って動作を終了する。 Step S22: When the above-described recording process is completed, the microprocessor 22 returns the operation to Step S1 to prepare for the next photographing process. When the main power supply of the digital camera 11 is turned off, the operation ends after the recording process is completed.

[第1実施形態の効果など]
上述したように、第1実施形態では、静止画を所定期間再生するフリーズ動画データを作成する。このフリーズ動画データであれば、動画専用の再生機器であっても、通常の動画と同様に再生することができる。
[Effects of First Embodiment]
As described above, in the first embodiment, freeze moving image data for reproducing a still image for a predetermined period is created. With this freeze video data, even a playback device dedicated to video can be played in the same manner as a normal video.

さらに、第1実施形態では、レリーズ全押し前の動画データと、フリーズ動画データを連結して動画ファイルを生成する。この動画ファイルを再生することにより、レリーズ全押し前の動画と、静止画(フリーズ動画)とを、一度に連続再生することができる。その結果、この動画部分と静止画部分とを別々に探して再生するなどの手間が要らず、使い勝手のよいデジタルカメラが実現する。また、この動画と静止画とが単一の動画ファイルに纏まることから、メモリカード21内のファイル整理も容易になる。   Furthermore, in the first embodiment, a moving image file is generated by concatenating moving image data before full release and freeze moving image data. By reproducing this moving image file, it is possible to continuously reproduce the moving image before the release is fully pressed and the still image (freeze moving image) at a time. As a result, a user-friendly digital camera is realized without the need for searching and playing back the moving image portion and the still image portion separately. In addition, since the moving image and the still image are combined into a single moving image file, the files in the memory card 21 can be easily organized.

また、半押し解除によって動画バッファリングも解除されるため、不要な動画データを簡単に廃棄し、動画記録のやり直しを何度でも簡単に実施することができる。   Moreover, since the moving image buffering is also released by releasing halfway, unnecessary moving image data can be easily discarded, and re-recording of moving images can be easily performed any number of times.

さらに、第1実施形態では、静止画撮影用のAE動作およびAF動作を完了した後に、動画バッファリングを開始する。したがって、動画データとフリーズ動画データの明るさを揃えることが可能となる。その結果、動画ファイルの再生時において、動画と静止画の切り換え箇所で明るさ変化が目立つことがなく、自然な印象を与えることができる。   Furthermore, in the first embodiment, moving image buffering is started after the AE operation and AF operation for still image shooting are completed. Therefore, the brightness of the moving image data and the freeze moving image data can be made uniform. As a result, when reproducing a moving image file, the brightness change does not stand out at the switching point between the moving image and the still image, and a natural impression can be given.

また、第1実施形態では、ドラフトモードの動画データの画面サイズ(縦横画素数)に合わせて、フリーズ動画データを解像度変換する。この解像度変換を施すことにより、動画データとフリーズ動画データの再生切り換え箇所において表示解像度は変化しなくなる。その結果、動画からフリーズ動画への円滑な再生切り換えが実現する。   In the first embodiment, the resolution of freeze video data is converted in accordance with the screen size (number of vertical and horizontal pixels) of the video data in the draft mode. By performing this resolution conversion, the display resolution does not change at the playback switching point between the moving image data and the frozen moving image data. As a result, smooth playback switching from the moving image to the frozen moving image is realized.

なお、第1実施形態では、撮影姿勢に合わせてVGA静止画を回転変換し、その回転変換後のVGA静止画を動画フレームに複製して格納することによって、フリーズ動画データを作成する。この場合、VGA静止画の回転変換は記録時に1回のみで済み、再生装置側で動画フレームを1つずつ回転変換するよりも、処理コストが軽くなるという長所がある。   In the first embodiment, freeze moving image data is created by rotating and converting a VGA still image according to the shooting posture, and copying and storing the VGA still image after the rotation conversion in a moving image frame. In this case, the rotation conversion of the VGA still image only needs to be performed once at the time of recording, and there is an advantage that the processing cost is lighter than the rotation conversion of the moving image frames one by one on the playback device side.

また、第1実施形態では、この回転変換に際して、VGAサイズへの調整も行われる。したがって、再生装置側では、横位置/縦位置の表示切り換えに際して、特別なアスペクト変換処理や表示解像度の切り換えの必要がなく、円滑な表示切り替えが可能になる。   In the first embodiment, adjustment to the VGA size is also performed during the rotation conversion. Therefore, on the playback device side, there is no need for special aspect conversion processing and display resolution switching when switching between horizontal position and vertical position display, and smooth display switching is possible.

なお、図5に示すように、デジタルカメラ11内では、一連の動画ファイルを1つに纏めて作成することもできる。この動画ファイルであれば、汎用の動画再生機器において、動画データおよびフリーズ動画データを順次に切り換えて再生することができる。そのため、専用の再生環境が不要であり、知人への譲渡などに適した汎用性の高い動画ファイルを作成できる。   As shown in FIG. 5, in the digital camera 11, a series of moving image files can be collectively created. With this moving image file, the moving image data and the freeze moving image data can be sequentially switched and reproduced on a general-purpose moving image reproducing device. Therefore, a dedicated playback environment is unnecessary, and a highly versatile moving image file suitable for transfer to an acquaintance can be created.

さらに、図5に示す一連の動画ファイルでは、汎用の動画再生機器を使用して、VGA静止画を選択肢として並べたキャプチャーメニューを表示することができる。このキャプチャーメニューの操作により、所望の画像に即座にアクセスすることが可能になる。
次に、別の実施形態について説明する。
Furthermore, in the series of moving image files shown in FIG. 5, a capture menu in which VGA still images are arranged as options can be displayed using a general-purpose moving image playback device. By operating the capture menu, a desired image can be immediately accessed.
Next, another embodiment will be described.

《第2実施形態》
第2実施形態の構成は、第1実施形態(図1)と同じため、ここでの説明を省略する。
第2実施形態の特徴は、動画データおよびフリーズ動画データの他に、音声や切り換え効果用画像を付加する点である。
図6は、第2実施形態の動作を説明する流れ図である。以下、図6に示すステップ番号に沿って、これらの動作を説明する。
<< Second Embodiment >>
Since the structure of 2nd Embodiment is the same as 1st Embodiment (FIG. 1), description here is abbreviate | omitted.
A feature of the second embodiment is that sound and a switching effect image are added in addition to the moving image data and the freeze moving image data.
FIG. 6 is a flowchart for explaining the operation of the second embodiment. Hereinafter, these operations will be described along the step numbers shown in FIG.

ステップS120〜S131: 第1実施形態のステップS1〜S11と同じ処理。 Steps S120 to S131: The same processing as steps S1 to S11 of the first embodiment.

ステップS132: 音声処理部32は、動画バッファリングと同時並行して、マイク33から音声データ(以下『第1音声データ』という)を取得してバッファメモリ17に蓄積し、動画データの同期再生音とする。 Step S132: The audio processing unit 32 acquires audio data (hereinafter referred to as “first audio data”) from the microphone 33 and stores it in the buffer memory 17 in parallel with the video buffering, and synchronizes playback sound of the video data. And

ステップS133〜S134: 第1実施形態のステップS12〜13と同じ処理。 Steps S133 to S134: The same processing as steps S12 to 13 of the first embodiment.

ステップS135: 音声処理部32は、レリーズ釦22cの全押し操作時点から3秒間にわたって、マイク33から音声データ(以下『第2音声データ』という)を取得し、バッファメモリ17に蓄積する。 Step S135: The voice processing unit 32 acquires voice data (hereinafter referred to as “second voice data”) from the microphone 33 for 3 seconds from the time when the release button 22c is fully pressed, and stores the voice data in the buffer memory 17.

ステップS136〜S141: 第1実施形態のステップS14〜S19と同じ処理。 Steps S136 to S141: The same processing as steps S14 to S19 of the first embodiment.

ステップS142: マイクロプロセッサ22は、バッファメモリ17内の動画データの最終フレームに対して、所定の切り換え効果用画像、およびフリーズ動画データを連結する。 Step S142: The microprocessor 22 connects a predetermined switching effect image and freeze moving image data to the final frame of the moving image data in the buffer memory 17.

ステップS143: マイクロプロセッサ22は、切り換え効果用画像およびフリーズ動画データの同期再生音として、所定の効果音データおよび第2音声データをそれぞれ付加する。 Step S143: The microprocessor 22 adds predetermined sound effect data and second sound data as the synchronized reproduction sound of the switching effect image and the freeze moving image data, respectively.

ステップS144〜S145: 第1実施形態のステップS21〜S22と同じ処理。 Steps S144 to S145: The same processing as steps S21 to S22 of the first embodiment.

[第2実施形態の効果など]
以上説明したように、第2実施形態では第1実施形態と同様の効果を得ることができる。
さらに、第2実施形態では、フリーズ動画データに、静止画の撮像時点を含む期間の第2音声データを同期再生音として付加する。その結果、フリーズ動画データの再生時に、その撮像時点の音声を再生することが可能になり、フリーズ動画データの臨場感を一段と高めることができる。
[Effects of Second Embodiment, etc.]
As described above, in the second embodiment, the same effects as in the first embodiment can be obtained.
Further, in the second embodiment, the second audio data in a period including the still image capturing time is added to the freeze moving image data as the synchronized playback sound. As a result, when the freeze moving image data is reproduced, it is possible to reproduce the sound at the time of imaging, and the presence of the frozen moving image data can be further enhanced.

また、第2実施形態では、動画とフリーズ動画(静止画)との切り換え箇所に、特殊効果(効果音声データおよび切り換え効果用画像)を付加する。例えば、デジタルカメラ11では、下記の特殊効果を選択的に付加することが好ましい。
(1)シャッタ音を模擬した音声
(2)シャッタの開閉を模した切り換え効果用画像
(3)静止画を閃光撮影した場合には、バルブ球の燃焼音や爆発音
(4)静止画を閃光撮影した場合には、バルブ球の煙を模した切り換え効果用画像
In the second embodiment, special effects (effect sound data and a switching effect image) are added to a switching portion between a moving image and a freeze moving image (still image). For example, in the digital camera 11, it is preferable to selectively add the following special effects.
(1) Sound that simulates shutter sound (2) Image for switching effect that simulates opening and closing of shutter (3) When still image is flashed, combustion sound of valve bulb and explosion sound (4) Flash still image When shooting, an image for switching effect imitating the smoke of a bulb

なお、フリーズ動画データの同期再生音が無い場合や短い場合には、効果音声データを長めに設定してフリーズ動画データと同期再生することで、フリーズ動画データの印象を強めることが好ましい。
このような特殊効果により、動画データとフリーズ動画データとの切り換え箇所における動から静への変化を効果的に演出することができる。
In addition, when there is no synchronized playback sound of freeze moving image data or when it is short, it is preferable to set the effect sound data longer and perform the synchronized playback with the freeze moving image data to enhance the impression of the freeze moving image data.
Due to such special effects, it is possible to effectively produce a change from moving to static at the switching point between moving image data and freeze moving image data.

なお、音声データの最初と最後は、いきなり音が始まったり切れたりしないように、音声データにフェードイン処理やフェードアウト処理を施すことが好ましい。
さらに、第2音声データは、フリーズ動画の再生時間に一致させず、全押し操作から1秒程度に短縮してもよい。この場合には、撮影後にカメラが直ぐにカバンにしまわれた場合などの雑音が録音されることはない。
次に、別の実施形態について説明する。
Note that at the beginning and end of the audio data, it is preferable to perform a fade-in process and a fade-out process on the audio data so that the sound does not start or stop suddenly.
Furthermore, the second audio data may be shortened to about 1 second from the full-press operation without matching the playback time of the freeze moving image. In this case, no noise is recorded when the camera is immediately put in a bag after shooting.
Next, another embodiment will be described.

《第3実施形態》
第3実施形態の構成は、第1実施形態(図1)と同じため、ここでの説明を省略する。
第3実施形態の特徴は、フリーズ動画データ、動画データの順番に連結された動画ファイルを生成する点である。
図7は、第3実施形態の動作を説明する流れ図である。以下、図7に示すステップ番号に沿って、これらの動作を説明する。
<< Third Embodiment >>
Since the structure of 3rd Embodiment is the same as 1st Embodiment (FIG. 1), description here is abbreviate | omitted.
A feature of the third embodiment is that a moving image file connected in the order of freeze moving image data and moving image data is generated.
FIG. 7 is a flowchart for explaining the operation of the third embodiment. Hereinafter, these operations will be described along the step numbers shown in FIG.

ステップS301: 第1実施形態のステップS1と同じ処理。 Step S301: The same process as step S1 of the first embodiment.

ステップS302: 静止画撮影に先立って、音声処理部32は、マイク33から音声データ(以下『第2音声データ』という)を取得し、バッファメモリ17に蓄積する。音声処理部32は、この第2音声データの内、3秒を超える過去の音声データを順次廃棄する。 Step S <b> 302: Prior to still image shooting, the audio processing unit 32 acquires audio data (hereinafter referred to as “second audio data”) from the microphone 33 and stores it in the buffer memory 17. The voice processing unit 32 sequentially discards past voice data exceeding 3 seconds from the second voice data.

ステップS303〜S310: 第1実施形態のステップS2〜S9と同じ処理。 Steps S303 to S310: The same processing as steps S2 to S9 of the first embodiment.

ステップS311: 第1実施形態のステップS11と同じ処理 Step S311: Same processing as step S11 of the first embodiment

ステップS312: このような半押し操作後に、レリーズ釦22cの半押し操作が解除されると、マイクロプロセッサ22はステップS302に動作を戻す。
一方、レリーズ釦22cの半押し操作が継続中の場合、マイクロプロセッサ22は、ステップS313に動作を移行する。
Step S312: If the half-press operation of the release button 22c is released after such a half-press operation, the microprocessor 22 returns the operation to Step S302.
On the other hand, when the half-press operation of the release button 22c is continuing, the microprocessor 22 shifts the operation to step S313.

ステップS313: ここで、マイクロプロセッサ22は、レリーズ釦22cが全押しされたか否かを判定する。
もし、全押し操作を検出した場合、マイクロプロセッサ22はステップS314に動作を移行する。
一方、全押し操作を検出しない場合、マイクロプロセッサ22はステップS310に動作を戻す。
Step S313: Here, the microprocessor 22 determines whether or not the release button 22c is fully pressed.
If the full pressing operation is detected, the microprocessor 22 shifts the operation to step S314.
On the other hand, when the full pressing operation is not detected, the microprocessor 22 returns the operation to step S310.

ステップS314: 第1実施形態のステップS14と同じ処理。 Step S314: The same process as step S14 of the first embodiment.

ステップS315: マイクロプロセッサ22は、第2音声データの蓄積動作を停止する。 Step S315: The microprocessor 22 stops the second sound data storage operation.

ステップS316: マイクロプロセッサ22は、タイミングジェネレータ22bを介して、撮像素子13をドラフトモードで順次駆動し、3秒間分のVGAサイズの動画データをバッファメモリ17に蓄積する。音声処理部32は、この3秒間の動画撮影期間中、マイク33から音声データ(以下『第1音声データ』という)を取得し、動画データの同期再生音としてバッファメモリ17に蓄積する。 Step S316: The microprocessor 22 sequentially drives the image sensor 13 in the draft mode via the timing generator 22b, and accumulates the video data of VGA size for 3 seconds in the buffer memory 17. The audio processing unit 32 acquires audio data (hereinafter referred to as “first audio data”) from the microphone 33 during the video shooting period of 3 seconds, and stores the audio data in the buffer memory 17 as synchronized playback sound of the video data.

ステップS317〜S320: 第1実施形態のステップS15〜S18と同じ処理。 Steps S317 to S320: The same processing as steps S15 to S18 of the first embodiment.

ステップS321: マイクロプロセッサ22は、バッファメモリ17内のフリーズ動画データの最終フレームに続けて、所定の切り換え効果用画像、およびステップS316で作成した動画データを連結編集する。 Step S321: The microprocessor 22 concatenates and edits the predetermined switching effect image and the moving image data created in Step S316 following the final frame of the freeze moving image data in the buffer memory 17.

ステップS322: マイクロプロセッサ22は、フリーズ動画データ、および切り換え効果用画像の同期再生音として、第2音声データおよび所定の効果音データを付加する。 Step S322: The microprocessor 22 adds the second sound data and the predetermined sound effect data as the synchronized reproduction sound of the freeze moving image data and the switching effect image.

ステップS323〜S324: 第1実施形態のステップS21〜S22と同じ処理。 Steps S323 to S324: The same processing as Steps S21 to S22 of the first embodiment.

[第3実施形態の効果など]
以上説明したように、第3実施形態では第1実施形態と同様の効果を得ることができる。
さらに、第3実施形態では、フリーズ動画(静止画)と動画の切り換え箇所に、特殊効果(効果音声データおよび切り換え効果用画像)を付加する。例えば、デジタルカメラ11では、下記の特殊効果を選択的に付加することが好ましい。
(1)『スタート!』などの動画スタートを印象付ける音声
(2)映画のカチンコの開閉動作を模した切り換え効果用画像
(3)静止画を閃光撮影した場合には、バルブ球の燃焼音や爆発音
(4)静止画を閃光撮影した場合には、バルブ球の煙を模した切り換え効果用画像
このような特殊効果により、静から動への変化を効果的に演出することができる。
次に、別の実施形態について説明する。
[Effects of Third Embodiment]
As described above, in the third embodiment, the same effects as in the first embodiment can be obtained.
Furthermore, in the third embodiment, special effects (effect sound data and switching effect image) are added to a switching portion between a freeze moving image (still image) and a moving image. For example, in the digital camera 11, it is preferable to selectively add the following special effects.
(1) “Start! (2) Image for switching effect imitating the opening and closing operation of a clapperboard in a movie (3) When a still image is flashed, the combustion sound and explosion sound of a bulb ball (4) Still sound When the image is flash-photographed, a switching effect image simulating the smoke of a bulb sphere With such a special effect, a change from static to dynamic can be effectively produced.
Next, another embodiment will be described.

《第4実施形態》
第4実施形態の構成は、第1実施形態(図1)と同じため、ここでの説明を省略する。
第4実施形態の特徴は、複数のフリーズ動画データを連結して、スライド自動再生用の動画ファイルを生成する点である。
図8は、第4実施形態の動作を説明する流れ図である。以下、図8に示すステップ番号に沿って、これらの動作を説明する。
<< 4th Embodiment >>
Since the structure of 4th Embodiment is the same as 1st Embodiment (FIG. 1), description here is abbreviate | omitted.
A feature of the fourth embodiment is that a plurality of freeze moving image data are connected to generate a moving image file for automatic slide reproduction.
FIG. 8 is a flowchart for explaining the operation of the fourth embodiment. Hereinafter, these operations will be described along the step numbers shown in FIG.

ステップS401〜S409: 第1実施形態のステップS1〜S9と同じ処理。 Steps S401 to S409: The same processing as Steps S1 to S9 of the first embodiment.

ステップS410〜S417: 第1実施形態のステップS11〜S18と同じ処理。 Steps S410 to S417: The same processing as steps S11 to S18 of the first embodiment.

ステップS418: マイクロプロセッサ22は、フリーズ動画データに、元の静止画ファイル特定用の識別情報を付加する。 Step S418: The microprocessor 22 adds identification information for specifying the original still image file to the freeze moving image data.

ステップS419: マイクロプロセッサ22は、前回撮影した静止画ファイルと、最新の静止画ファイルとについて、撮影日付を比較する。
両ファイルの撮影日付が異なっている場合、マイクロプロセッサ22は、撮影日付の変わり目と判断して、ステップS420に動作を移行する。
一方、両ファイルの撮影日付が同じ場合、マイクロプロセッサ22は、ステップS421に動作を移行する。
Step S419: The microprocessor 22 compares the shooting dates of the previously captured still image file with the latest still image file.
If the shooting dates of the two files are different, the microprocessor 22 determines that the shooting date has changed, and proceeds to step S420.
On the other hand, when the shooting dates of both files are the same, the microprocessor 22 shifts the operation to step S421.

ステップS420: マイクロプロセッサ22は、日付の情報表示を含む画像を生成し、フリーズ動画データの先頭フレームとして追加する。 Step S420: The microprocessor 22 generates an image including date information display and adds it as the first frame of the freeze moving image data.

ステップS421: マイクロプロセッサ22は、メモリカード21内のスライド自動再生用の動画ファイル(過去のフリーズ動画データを連結したもの)に対して、最新のフリーズ動画データを連結編集する。 Step S421: The microprocessor 22 concatenates and edits the latest freeze moving image data with respect to the moving image file for automatic slide reproduction in the memory card 21 (concatenated past frozen moving image data).

ステップS422: マイクロプロセッサ22は、ステップS416で作成したVGA静止画を、このスライド自動再生用の動画ファイルのキャプチャーメニュー用として追加する。 Step S422: The microprocessor 22 adds the VGA still image created in step S416 for use in the video file capture menu for automatic slide playback.

ステップS423: マイクロプロセッサ22は、上述した記録処理を完了すると、ステップS401に動作を戻し、次回の撮影処理に備える。なお、デジタルカメラ11の主電源がオフされた場合には、記録処理の完了を待って動作を終了する。 Step S423: When the recording process is completed, the microprocessor 22 returns the operation to Step S401 to prepare for the next photographing process. When the main power supply of the digital camera 11 is turned off, the operation ends after the recording process is completed.

[第4実施形態の効果など]
以上説明したように、第4実施形態では、フリーズ動画データを連結した動画ファイルを作成する。この動画ファイルは、再生機器において通常の動画と同様に再生することによって、スライド自動再生を確実かつ簡単に実現することができる。
[Effects of Fourth Embodiment, etc.]
As described above, in the fourth embodiment, a moving image file in which freeze moving image data is linked is created. This moving image file can be played back in the same way as a normal moving image on a playback device, so that automatic slide playback can be realized reliably and easily.

また、第4実施形態では、VGA静止画を動画ファイルのキャプチャーメニュー用として追加する。したがって、ユーザーは、再生機器のチャプターメニュー機能を使用して、所望のVGA静止画を選択することが可能となる。その結果、所望のフリーズ動画データからスライド自動再生を開始することが可能になる。   In the fourth embodiment, a VGA still image is added for a video file capture menu. Therefore, the user can select a desired VGA still image using the chapter menu function of the playback device. As a result, it is possible to start slide automatic reproduction from desired freeze video data.

なお、第4実施形態において、撮影日付の変わり目にあたるVGA静止画のみをキャプチャーメニュー用として追加してもよい。この場合、再生機器のチャプターメニュー機能を使用して、所望の撮影日付の画像からスライド自動再生を開始することが可能になる。   In the fourth embodiment, only the VGA still image corresponding to the change of the shooting date may be added for the capture menu. In this case, using the chapter menu function of the playback device, automatic slide playback can be started from an image of a desired shooting date.

さらに、第4実施形態では、動画ファイルの撮影日付の変わり目に、日付表示を挿入する。その結果、スライド自動再生中に、撮影日付の切り変わる箇所を日付表示によって確認することができる。   Furthermore, in the fourth embodiment, a date display is inserted at the change of the shooting date of the moving image file. As a result, it is possible to confirm the location where the photographing date changes during the automatic slide reproduction by the date display.

また、第4実施形態では、動画ファイル内のフリーズ動画データごとに、作成元の静止画ファイルを特定するための識別情報を格納する。したがって、再生機器側の機能を用いて、スライド自動再生中に、この識別情報を辿って作成元の静止画ファイルの高精細表示に切り換えるなどの機能を容易に実現できる。
次に、別の実施形態について説明する。
In the fourth embodiment, identification information for specifying the creation still image file is stored for each freeze moving image data in the moving image file. Therefore, it is possible to easily realize a function such as switching to the high-definition display of the creation source still image file by tracing the identification information during automatic slide playback by using the function on the playback device side.
Next, another embodiment will be described.

《第5実施形態》
第5実施形態の構成は、第1実施形態(図1)と同じため、ここでの説明を省略する。
第5実施形態の特徴は、デジタルカメラ11のフレーミング安定を契機にして、動画バッファリングを実施する点である。
図9は、第5実施形態の動作を説明する流れ図である。以下、図9に示すステップ番号に沿って、これらの動作を説明する。
<< 5th Embodiment >>
Since the structure of 5th Embodiment is the same as 1st Embodiment (FIG. 1), description here is abbreviate | omitted.
A feature of the fifth embodiment is that moving image buffering is implemented when the framing stability of the digital camera 11 is triggered.
FIG. 9 is a flowchart for explaining the operation of the fifth embodiment. Hereinafter, these operations will be described along the step numbers shown in FIG.

ステップS31〜S35: 第1実施形態のステップS1〜S5と同じ処理。 Steps S31 to S35: The same processing as steps S1 to S5 of the first embodiment.

ステップS36: マイクロプロセッサ22は、VGA画像のフレーム間について画素差を求め、その画素差の絶対値について総和を求める。
この総和が閾値未満の場合、マイクロプロセッサ22は、フレーミングが安定していると判別し(第1開始信号の入力)、ステップS37に動作を移行する。
また、総和が閾値以上の場合、マイクロプロセッサ22は、フレーミングが不安定であると判別し、ステップS32に動作を戻す。
なお、フレーミング安定の判定については、VGA画像を例えば255ブロックに分割してブロックごとに平均輝度を求め、この平均輝度のフレーム間変化からフレーミング安定を判定してもよい。または被写体に公知の顔認識技術により人物の顔が検出された場合には、被写体の顔の動きならびに顔の大きさ変化からフレーミング安定を判定してもよい。
Step S36: The microprocessor 22 obtains a pixel difference between frames of the VGA image, and obtains a sum of absolute values of the pixel differences.
If this sum is less than the threshold, the microprocessor 22 determines that the framing is stable (input of the first start signal), and shifts the operation to step S37.
On the other hand, if the sum is equal to or greater than the threshold, the microprocessor 22 determines that the framing is unstable and returns the operation to step S32.
Regarding the determination of framing stability, the VGA image may be divided into, for example, 255 blocks, the average luminance is obtained for each block, and the framing stability may be determined from the change in the average luminance between frames. Alternatively, when a face of a person is detected by a known face recognition technique, the framing stability may be determined from the movement of the face of the subject and the change in the size of the face.

ステップS37〜S41: 第1実施形態のステップS7〜S11と同じ処理。 Steps S37 to S41: The same processing as Steps S7 to S11 of the first embodiment.

ステップS42: ここで、マイクロプロセッサ22は、レリーズ釦22cが全押しされたか否かを判定する。
もし、全押し操作を検出した場合、マイクロプロセッサ22はステップS44に動作を移行する。
一方、全押し操作を検出しない場合、マイクロプロセッサ22はステップS43に動作を戻し、動画バッファリングを継続する。
Step S42: Here, the microprocessor 22 determines whether or not the release button 22c is fully pressed.
If the full pressing operation is detected, the microprocessor 22 shifts the operation to step S44.
On the other hand, when the full pressing operation is not detected, the microprocessor 22 returns the operation to step S43 and continues the video buffering.

ステップS43: マイクロプロセッサ22は、動画バッファリング中もフレーミングの安定判別を継続する。
その結果、フレーミングが安定している場合、マイクロプロセッサ22は、ステップS39に動作を戻し、動画バッファリングを続ける。
一方、フレーミングが不安定になった場合(第1開始信号の解除)、マイクロプロセッサ22は、ステップS31に動作を戻す。この場合、バッファメモリ17内の動画バッファリングは記録保存されることなく削除される。この削除動作の後、マイクロプロセッサ22は、ステップS32以降の動作を再開する。
Step S43: The microprocessor 22 continues the framing stability determination even during moving image buffering.
As a result, when the framing is stable, the microprocessor 22 returns the operation to step S39 and continues the video buffering.
On the other hand, when the framing becomes unstable (release of the first start signal), the microprocessor 22 returns the operation to step S31. In this case, the moving image buffering in the buffer memory 17 is deleted without being recorded and saved. After this deletion operation, the microprocessor 22 resumes the operations after step S32.

ステップS44〜S52: 第1実施形態のステップS14〜S22と同じ処理。 Steps S44 to S52: The same processing as steps S14 to S22 of the first embodiment.

[第5実施形態の効果など]
以上説明したように、第5実施形態では、フレーミング安定を契機にして動画バッファリングを開始し、フレーミングが不安定になると動画バッファリングを記録せずに削除する。この機能により、レリーズ釦22cの半押し操作が苦手なユーザーであっても、動画バッファリングの開始操作および解除操作を簡単に実施することができる。
[Effects of Fifth Embodiment, etc.]
As described above, in the fifth embodiment, moving image buffering is started in response to framing stability, and when framing becomes unstable, moving image buffering is deleted without being recorded. With this function, even a user who is not good at half-pressing the release button 22c can easily start and release moving image buffering.

なお、第5実施形態では、『半押し期間中』かつ『フレーミング安定』という条件を満足する場合に限って動画バッファリングを実施してもよい。
また、第5実施形態では被写体の変化の有無で動画の取り込みを開始したが、例えば、照明機能付きのデジタルカメラ(カメラ付き携帯電話など)であれば、照明機能のオン動作に連動して、動画の取り込みを開始してもよい。
次に、別の実施形態について説明する。
In the fifth embodiment, moving image buffering may be performed only when the conditions “half-pressed” and “framing stability” are satisfied.
In the fifth embodiment, the capturing of a moving image is started depending on whether or not the subject has changed. For example, in the case of a digital camera with a lighting function (such as a mobile phone with a camera), You may start capturing video.
Next, another embodiment will be described.

《第6実施形態》
第6実施形態の構成は、第1実施形態(図1)と同じため、ここでの説明を省略する。
第6実施形態の特徴は、セルフタイマを契機にして、動画バッファリングを実施する点である。
図10は、第6実施形態の動作を説明する流れ図である。以下、図10に示すステップ番号に沿って、これらの動作を説明する。
<< 6th Embodiment >>
Since the structure of 6th Embodiment is the same as 1st Embodiment (FIG. 1), description here is abbreviate | omitted.
A feature of the sixth embodiment is that moving image buffering is performed in response to a self-timer.
FIG. 10 is a flowchart for explaining the operation of the sixth embodiment. Hereinafter, these operations will be described along the step numbers shown in FIG.

ステップS61〜S65: 第1実施形態のステップS1〜S5と同じ処理。 Steps S61 to S65: The same processing as Steps S1 to S5 of the first embodiment.

ステップS66: マイクロプロセッサ22は、スイッチ群22aがセルフタイマモードに設定された状態で、レリーズ釦22cが押されると、セルフタイマが起動されたと判断する。
このようにセルフタイマの起動を検出すると(第1開始信号の入力)、マイクロプロセッサ22はステップS67に動作を移行する。
一方、セルフタイマの起動を検出しない場合、マイクロプロセッサ22はステップS62に動作を戻す。
Step S66: The microprocessor 22 determines that the self-timer is activated when the release button 22c is pressed while the switch group 22a is set to the self-timer mode.
When the activation of the self-timer is detected in this way (input of the first start signal), the microprocessor 22 proceeds to step S67.
On the other hand, when the activation of the self-timer is not detected, the microprocessor 22 returns the operation to step S62.

ステップS67〜S71: 第1実施形態のステップS7〜S11と同じ処理。 Steps S67 to S71: The same processing as Steps S7 to S11 of the first embodiment.

ステップS72: マイクロプロセッサ22は、スイッチ群22aがセルフタイマモード以外に設定されると、セルフタイマが解除されたと判断する。
一方、セルフタイマが解除された場合(第1開始信号の解除)、マイクロプロセッサ22は、ステップS61に動作を戻す。この場合、バッファメモリ17内の動画バッファリングは記録保存されることなく削除される。この削除動作の後、マイクロプロセッサ22は、ステップS62以降の動作を再開する。
一方、セルフタイマが継続中の場合、マイクロプロセッサ22は、ステップS73に動作を移行する。
Step S72: When the switch group 22a is set to a mode other than the self-timer mode, the microprocessor 22 determines that the self-timer has been released.
On the other hand, when the self-timer is released (release of the first start signal), the microprocessor 22 returns the operation to step S61. In this case, the moving image buffering in the buffer memory 17 is deleted without being recorded and saved. After this deletion operation, the microprocessor 22 resumes the operations after step S62.
On the other hand, when the self-timer is continuing, the microprocessor 22 proceeds to step S73.

ステップS73: ここで、マイクロプロセッサ22は、セルフタイマの設定時間が経過したか否かを判断する。
セルフタイマの設定時間が経過した場合(第2開始信号の入力)、マイクロプロセッサ22は、ステップS74に動作を移行する。
一方、セルフタイマの設定時間が経過していない場合、マイクロプロセッサ22は、ステップS69に、セルフタイマ期間中の動画バッファリングを継続する。
Step S73: Here, the microprocessor 22 determines whether or not the set time of the self-timer has elapsed.
When the set time of the self-timer has elapsed (input of the second start signal), the microprocessor 22 shifts the operation to step S74.
On the other hand, if the set time of the self-timer has not elapsed, the microprocessor 22 continues moving image buffering during the self-timer period in step S69.

ステップS74〜S82: 第1実施形態のステップS14〜S22と同じ処理。 Steps S74 to S82: The same processing as steps S14 to S22 of the first embodiment.

[第6実施形態の効果など]
以上説明したように、第6実施形態では、セルフタイマの経時期間中、動画バッファリングを実施する。この場合、セルフタイマによる静止画撮影の直前に、デジタルカメラの前で繰り広げられる様々なドラマを、動画として保存記録することが可能になる。
また、セルフタイマの途中解除と共に、動画バッファリングを削除するため、不要の動画がメモリカード21内に蓄積されるといった事態を回避することができる。
次に、別の実施形態について説明する。
[Effects of Sixth Embodiment]
As described above, in the sixth embodiment, moving image buffering is performed during the elapsed time of the self-timer. In this case, various dramas unfolded in front of the digital camera can be stored and recorded as moving images immediately before the still image shooting by the self-timer.
Further, since the moving image buffering is deleted along with the cancellation of the self-timer, it is possible to avoid a situation in which unnecessary moving images are accumulated in the memory card 21.
Next, another embodiment will be described.

《第7実施形態》
第7実施形態の構成は、第1実施形態(図1)と同じため、ここでの説明を省略する。
第7実施形態の特徴は、被写体輝度に応じて動画記録をオンオフ制御する点である。
図11は、第7実施形態の動作を説明する流れ図である。以下、図11に示すステップ番号に沿って、これらの動作を説明する。
<< 7th Embodiment >>
Since the structure of 7th Embodiment is the same as 1st Embodiment (FIG. 1), description here is abbreviate | omitted.
A feature of the seventh embodiment is that on-off control of moving image recording is performed according to subject luminance.
FIG. 11 is a flowchart for explaining the operation of the seventh embodiment. Hereinafter, these operations will be described along the step numbers shown in FIG.

ステップS91〜S98: 第1実施形態のステップS1〜S8と同じ処理。 Steps S91 to S98: The same processing as steps S1 to S8 of the first embodiment.

ステップS99: マイクロプロセッサ22は、VGA画像の明るさ(すなわち被写体輝度)が、第1閾値より高いか否かを判定する。この第1閾値は、被写体輝度が動画撮影に適しているか否かを判別する閾値である。
被写体輝度が第1閾値より高い場合、マイクロプロセッサ22は、動画撮影に適していると判断し、ステップS101に動作を移行する。
一方、被写体輝度が第1閾値以下の場合、マイクロプロセッサ22は、動画撮影に不適切であると判断し、ステップS100に動作を移行する。
Step S99: The microprocessor 22 determines whether or not the brightness of the VGA image (that is, the subject brightness) is higher than the first threshold value. This first threshold value is a threshold value for determining whether or not the subject luminance is suitable for moving image shooting.
If the subject brightness is higher than the first threshold, the microprocessor 22 determines that it is suitable for moving image shooting, and moves the operation to step S101.
On the other hand, when the subject brightness is equal to or lower than the first threshold, the microprocessor 22 determines that the subject brightness is inappropriate for moving image shooting, and shifts the operation to step S100.

ステップS100: マイクロプロセッサ22は、音声処理部32から取得する音声データのみを、バッファメモリ17に蓄積する。この動作の後、マイクロプロセッサ22は、ステップS103に動作を移行する。 Step S100: The microprocessor 22 stores only the audio data acquired from the audio processing unit 32 in the buffer memory 17. After this operation, the microprocessor 22 shifts the operation to step S103.

ステップS101: マイクロプロセッサ22は、タイミングジェネレータ22bを介して、撮像素子13をドラフトモードで順次駆動し、VGA画像の撮像を継続する。 Step S101: The microprocessor 22 sequentially drives the image sensor 13 in the draft mode via the timing generator 22b, and continues to capture the VGA image.

ステップS102: マイクロプロセッサ22は、VGA画像と音声データをバッファメモリ17に逐次蓄積する。 Step S102: The microprocessor 22 sequentially stores the VGA image and audio data in the buffer memory 17.

ステップS103: 画像表示部24は、このVGA画像を、モニタ画面25に順次表示する。 Step S103: The image display unit 24 sequentially displays the VGA images on the monitor screen 25.

ステップS104: このような動画バッファリング中に、レリーズ釦22cの半押し操作が解除されると、マイクロプロセッサ22はステップS91に動作を戻す。このステップS91に戻ることによって、動画バッファリングは記録保存されることなく削除される。この動画バッファリングの削除の後、マイクロプロセッサ22は、ステップS92以降の動作を再開する。
一方、レリーズ釦22cの半押し操作が継続中の場合、マイクロプロセッサ22は、ステップS105に動作を移行する。
Step S104: When the half-press operation of the release button 22c is released during such moving image buffering, the microprocessor 22 returns the operation to step S91. By returning to this step S91, the moving image buffering is deleted without being recorded and saved. After the deletion of the moving image buffering, the microprocessor 22 resumes the operations after step S92.
On the other hand, when the half-press operation of the release button 22c is continuing, the microprocessor 22 shifts the operation to step S105.

ステップS105: ここで、マイクロプロセッサ22は、レリーズ釦22cが全押しされたか否かを判定する。
もし、全押し操作を検出した場合、マイクロプロセッサ22はステップS106に動作を移行する。
一方、全押し操作を検出しない場合、マイクロプロセッサ22はステップS99に動作を戻す。
Step S105: Here, the microprocessor 22 determines whether or not the release button 22c is fully pressed.
If the full pressing operation is detected, the microprocessor 22 shifts the operation to step S106.
On the other hand, when the full pressing operation is not detected, the microprocessor 22 returns the operation to step S99.

ステップS106: バッファメモリ17内に動画バッファリングが存在しない場合、マイクロプロセッサ22は、ステップS107の赤目軽減のプリ発光に移行する。
一方、バッファメモリ17内に動画バッファリングが存在する場合、赤目軽減発光を行わずに、ステップS108に動作を移行する。通常、赤目現象を軽減するためのプリ発光には1秒程度の発光時間を要する。そのため、プリ発光を実施した場合には、動画部分と静止画部分(フリーズ動画データ)との時間間隔が開き、つなぎ目で絵柄が不連続になる。そこで、プリ発光を省くことにより、つなぎ目の絵柄が不連続になることを防止している。
Step S106: If there is no moving image buffering in the buffer memory 17, the microprocessor 22 proceeds to the red-eye reduction pre-flash in step S107.
On the other hand, if there is moving image buffering in the buffer memory 17, the operation proceeds to step S108 without performing red-eye reduction light emission. Usually, pre-light emission for reducing the red-eye phenomenon requires a light emission time of about 1 second. Therefore, when pre-flash is performed, the time interval between the moving image portion and the still image portion (freeze moving image data) is opened, and the pattern becomes discontinuous at the joint. Therefore, the pre-emission is omitted to prevent the joint pattern from becoming discontinuous.

ステップS107: マイクロプロセッサ22は、閃光発光部31を制御して、赤目現象を軽減するためのプリ発光を実施する。 Step S107: The microprocessor 22 controls the flash light emitting unit 31 to perform pre-light emission for reducing the red-eye phenomenon.

ステップS108: マイクロプロセッサ22は、被写体輝度が第2閾値より高いか否かを判定する。この第2閾値は、静止画撮影に閃光発光を必要とするか否かを判別する閾値である。
被写体輝度が第2閾値より高い場合、マイクロプロセッサ22は、閃光発光は不要と判断し、ステップS110に動作を移行する。
一方、被写体輝度が第2閾値以下の場合、マイクロプロセッサ22は、閃光発光が必要と判断し、ステップS109に動作を移行する。
Step S108: The microprocessor 22 determines whether or not the subject brightness is higher than the second threshold value. The second threshold value is a threshold value for determining whether or not flash light emission is required for still image shooting.
If the subject brightness is higher than the second threshold value, the microprocessor 22 determines that flash emission is not necessary, and proceeds to step S110.
On the other hand, if the subject brightness is equal to or lower than the second threshold value, the microprocessor 22 determines that flash emission is necessary, and moves the operation to step S109.

ステップS109: マイクロプロセッサ22は、閃光発光部31を制御して、静止画撮影に同期して閃光発光を実施する。 Step S109: The microprocessor 22 controls the flash light emitting unit 31 to perform flash light emission in synchronization with still image shooting.

ステップS110〜S114: 第1実施形態のステップS14〜S18と同じ処理。 Steps S110 to S114: The same processing as steps S14 to S18 of the first embodiment.

ステップS115: マイクロプロセッサ22は、レリーズ釦22cの半押し時間が第3閾値により短かったか否かを判定する。この第3閾値は、レリーズ釦22cが一気に全押しされたか否か、あるいは、半押し操作が一瞬の無効な操作であったか否かを判定する閾値である。
ここで、半押し時間が第3閾値よりも短かった場合、マイクロプロセッサ22は、瞬間的な動画データは無効であると判断して、ステップS116に動作を移行する。
一方、半押し時間が第3閾値以上に長い場合、マイクロプロセッサ22は、動画データは有効と判断して、ステップS117に動作を移行する。
なお、第3閾値としては、動画規格における動画データの最小単位GOP(グループオブピクチャー)の最小再生時間に応じて、0.5秒程度に設定することが好ましい。
Step S115: The microprocessor 22 determines whether or not the half-press time of the release button 22c is shorter than the third threshold value. This third threshold is a threshold for determining whether or not the release button 22c is fully pressed at once, or whether or not the half-pressing operation is an invalid operation for a moment.
Here, when the half-press time is shorter than the third threshold, the microprocessor 22 determines that the instantaneous moving image data is invalid, and shifts the operation to step S116.
On the other hand, if the half-press time is longer than the third threshold, the microprocessor 22 determines that the moving image data is valid, and proceeds to step S117.
The third threshold value is preferably set to about 0.5 seconds in accordance with the minimum reproduction time of the minimum unit GOP (group of picture) of moving image data in the moving image standard.

ステップS116: マイクロプロセッサ22は、バッファメモリ17内の無効な動画バッファリングを削除し、フリーズ動画データをメモリカード21に記録する。この動作の後、ステップS120に動作を移行する。 Step S116: The microprocessor 22 deletes the invalid video buffering in the buffer memory 17 and records the freeze video data on the memory card 21. After this operation, the operation proceeds to step S120.

ステップS117〜120: 第1実施形態のステップS19〜S22と同じ処理。 Steps S117 to 120: The same processing as steps S19 to S22 of the first embodiment.

[第7実施形態の効果など]
以上説明したように、第7実施形態では、動画バッファリングの期間が短いと判定された場合、動画データを保存しない。したがって、レリーズ釦22cの一気押しによって、瞬間的で無意味な動画が記録媒体中に溜まるといった弊害を、簡単かつ合理的に回避できる。
[Effects of the seventh embodiment]
As described above, in the seventh embodiment, moving image data is not stored when it is determined that the moving image buffering period is short. Therefore, it is possible to easily and rationally avoid the adverse effect that momentary and meaningless moving images are accumulated in the recording medium by pressing the release button 22c at once.

また、第7実施形態では、被写体輝度が暗い場合も、動画データを保存しない。その結果、真っ暗で意味不明な動画が記録媒体中に溜まるといった弊害を、簡単かつ合理的に回避できる。   In the seventh embodiment, moving image data is not stored even when the subject brightness is low. As a result, it is possible to easily and rationally avoid the negative effect that dark and unclear moving images accumulate in the recording medium.

なお、フリーズ動画データについては、閃光照明を実施した明るい静止画から作成される。従来、動画再生をフリーズ再生した場合、暗いままの動画フレームが静止表示されるため、暗い上にノイズが多くて見づらい画像となる。しかしながら、第7実施形態では、閃光照明を実施した明るいフリーズ動画を表示するため、明るくて綺麗な静止画表示を実現できる。   Note that the freeze moving image data is created from a bright still image with flash illumination. Conventionally, when video playback is freeze-played, a video frame that remains dark is displayed statically, resulting in an image that is too dark and difficult to see. However, in the seventh embodiment, since a bright freeze moving image with flash illumination is displayed, a bright and beautiful still image display can be realized.

また、再生時には、暗い状態の動画データから、閃光照明を実施した明るいフリーズ動画データに再生表示が切り換わることにより、閃光発光を演出した臨場感のある再生表示が可能になる。   Further, at the time of reproduction, the reproduction display is switched from the moving image data in the dark state to the bright freeze moving image data subjected to the flash illumination, thereby enabling the realistic reproduction display that produces flash emission.

さらに、第7実施形態では、被写体輝度が暗い場合、動画データに代えて音声データのみを保存する。その結果、動画撮影に適さない暗い状態であっても、音声によってその場の臨場感を記録することが可能になる。
次に、別の実施形態について説明する。
Furthermore, in the seventh embodiment, when the subject brightness is low, only the audio data is stored instead of the moving image data. As a result, even in a dark state that is not suitable for moving image shooting, it is possible to record a sense of realism by voice.
Next, another embodiment will be described.

《第8実施形態》
第8実施形態の構成は、第1実施形態(図1)と同じため、ここでの説明を省略する。
第8実施形態の特徴は、通常の動画データをデータサイズ優先で比較的に高圧縮率に設定し、フリーズ動画データを画質優先で動画データよりも低圧縮率に設定する点である。
図12は、第8実施形態の動作を説明する流れ図である。以下、図12に示すステップ番号に沿って、これらの動作を説明する。
<< Eighth Embodiment >>
Since the configuration of the eighth embodiment is the same as that of the first embodiment (FIG. 1), description thereof is omitted here.
A feature of the eighth embodiment is that normal moving image data is set to a relatively high compression rate with priority on data size, and freeze moving image data is set to a lower compression rate than moving image data with priority on image quality.
FIG. 12 is a flowchart for explaining the operation of the eighth embodiment. Hereinafter, these operations will be described along the step numbers shown in FIG.

ステップS151〜S170: 第1実施形態のステップS1〜S20と同じ処理。 Steps S151 to S170: The same processing as steps S1 to S20 of the first embodiment.

ステップS171: ここでは、圧縮伸張部23が、半押し期間中に蓄積された動画データのエンコードを行う。例えば、MPEG2の動画ファイルに圧縮を行う場合、画像の基本となるIピクチャーを第1圧縮率(高圧縮)で圧縮し、エンコードする。この動画データについてはフレーム間に動きがあるため、圧縮率を高く設定しても視覚的な画像劣化は少ない。また、動画データの圧縮符号量は少なくなる。 Step S171: Here, the compression / decompression unit 23 encodes the moving image data accumulated during the half-press period. For example, when compression is performed on an MPEG2 moving image file, an I picture that is the basis of an image is compressed at a first compression rate (high compression) and encoded. Since there is a motion between frames in this moving image data, there is little visual image degradation even if the compression rate is set high. In addition, the compression code amount of the moving image data is reduced.

ステップS172: 続いて、圧縮伸張部23は、フリーズ動画のエンコードを行う。例えば、MPEG2の動画ファイルに圧縮を行う場合、画像の基本となるIピクチャーを第2圧縮率(低圧縮)で圧縮し、エンコードする。その結果、フリーズ動画データについては視覚的な画質劣化が少なくなる。なおフリーズ動画データの場合にはIピクチャーの圧縮符号量が多くても、フレーム間の画像変化を示すBピクチャーやPピクチャーの情報量を少なくすることが可能であり、フリーズ動画データの圧縮符号量はさほど多くならない。 Step S172: Subsequently, the compression / decompression unit 23 encodes the freeze moving image. For example, when compressing an MPEG2 moving image file, an I picture that is the basis of an image is compressed at a second compression rate (low compression) and encoded. As a result, visual image quality degradation is reduced for freeze video data. In the case of freeze moving image data, even if the compression code amount of the I picture is large, it is possible to reduce the information amount of the B picture or P picture indicating the image change between frames. Not so much.

ステップS173: マイクロプロセッサ22は、圧縮伸張部23によってエンコード処理を済ませた圧縮データを、メモリカード21に記録する。 Step S173: The microprocessor 22 records the compressed data that has been encoded by the compression / decompression unit 23 in the memory card 21.

ステップS174: 第1実施形態のステップS22と同じ処理。 Step S174: The same process as step S22 of the first embodiment.

[第8実施形態の効果など]
以上説明したように、第8実施形態では第1実施形態と同様の効果を得ることができる。
さらに、第8実施形態では、動画データとフリーズ動画データの画像圧縮において、両データの特徴に応じて圧縮率を切り換えることにより、視覚的に画質劣化の目立たず、かつ全体の圧縮符号量を少なく抑えた画像記録が実現する。
次に、別の実施形態について説明する。
[Effects of Eighth Embodiment]
As described above, in the eighth embodiment, the same effects as in the first embodiment can be obtained.
Furthermore, in the eighth embodiment, in image compression of moving image data and freeze moving image data, by switching the compression rate according to the characteristics of both data, the image quality deterioration is not noticeable visually, and the entire compression code amount is reduced. Suppressed image recording is realized.
Next, another embodiment will be described.

《第9実施形態》
第9実施形態の構成は、第1実施形態(図1)と同じため、ここでの説明を省略する。
第9実施形態の特徴は、動画データを解像度変換する点である。
図13は、第9実施形態の動作を説明する流れ図である。以下、図13に示すステップ番号に沿って、これらの動作を説明する。
<< Ninth Embodiment >>
Since the structure of 9th Embodiment is the same as 1st Embodiment (FIG. 1), description here is abbreviate | omitted.
A feature of the ninth embodiment is that the resolution of moving image data is converted.
FIG. 13 is a flowchart for explaining the operation of the ninth embodiment. Hereinafter, these operations will be described along the step numbers shown in FIG.

ステップS181〜S189: 第1実施形態のステップS1〜S9と同じ処理。 Steps S181 to S189: The same processing as Steps S1 to S9 of the first embodiment.

ステップS190: 画像処理部19は、VGA画像(動画フレーム)を画素補間により拡大し、『横960画素、縦720画素』に解像度変換する。この変換後の画像は、簡易ハイビジョンフォーマットの『横1280画素、縦720画素』の画面表示に適した画像サイズとなる。 Step S190: The image processing unit 19 enlarges the VGA image (moving image frame) by pixel interpolation, and converts the resolution to “horizontal 960 pixels, vertical 720 pixels”. The converted image has an image size suitable for screen display of “horizontal 1280 pixels, vertical 720 pixels” in the simple high-definition format.

ステップS191〜S196: 第1実施形態のステップS10〜S15と同じ処理。 Steps S191 to S196: The same processing as Steps S10 to S15 of the first embodiment.

ステップS197: 画像処理部19は、バッファメモリ17内の静止画を元に解像度の低減処理を実施し、動画データと同じ『横960画素、縦720画素』の静止画(以下、簡易ハイビジョン静止画という)を作成する。 Step S197: The image processing unit 19 performs resolution reduction processing based on the still image in the buffer memory 17, and uses the same “horizontal 960 pixels, vertical 720 pixels” still image as the moving image data (hereinafter referred to as a simple high-definition still image). Create).

ステップS198: 画像処理部19は、カメラ姿勢の検出結果から縦位置撮影であることを検出すると、簡易ハイビジョン静止画に対して、回転変換・解像度変換・余白追加の処理を施す。 Step S198: When the image processing unit 19 detects that the vertical position shooting is performed from the detection result of the camera posture, the image processing unit 19 performs rotation conversion, resolution conversion, and margin addition processing on the simple high-definition still image.

ステップS199: マイクロプロセッサ22は、ステップS198の処理を経た簡易ハイビジョン静止画を、動画フレームとして3秒間再生するフリーズ動画データを作成する。 Step S199: The microprocessor 22 creates freeze moving image data for reproducing the simple high-definition still image that has undergone the processing of step S198 as a moving image frame for 3 seconds.

ステップS200: マイクロプロセッサ22は、バッファメモリ17内の動画データのヘッダ用の情報として簡易ハイビジョン静止画を格納する。 Step S200: The microprocessor 22 stores the simple high-definition still image as information for the header of the moving image data in the buffer memory 17.

ステップS201〜S205: 第8実施形態のステップS170〜S174と同じ処理。 Steps S201 to S205: The same processing as steps S170 to S174 of the eighth embodiment.

[第9実施形態の効果など]
以上説明したように、第9実施形態では第1実施形態と同様の効果を得ることができる。
さらに、第9実施形態では、動画データおよびフリーズ動画データをそれぞれ『横960画素、縦720画素』に解像度変換することにより、ハイビジョンフォーマットの高画質テレビ等での画像鑑賞に適した動画表示および静止画表示を実現することが可能になる。
次に、別の実施形態について説明する。
[Effects of Ninth Embodiment]
As described above, the ninth embodiment can obtain the same effects as those of the first embodiment.
Furthermore, in the ninth embodiment, moving image data and freeze moving image data are converted into resolutions of “960 horizontal pixels and 720 vertical pixels”, respectively, so that moving images and still images suitable for image viewing on a high-definition television or the like are displayed. The image display can be realized.
Next, another embodiment will be described.

《第10実施形態》
第10実施形態の構成は、第1実施形態(図1)と同じため、ここでの説明を省略する。
第10実施形態の特徴は、動画データから全押し直前の画像を取得し、フリーズ動画データを作成する点である。
図14は、第10実施形態の動作を説明する流れ図である。以下、図14に示すステップ番号に沿って、これらの動作を説明する。
<< 10th Embodiment >>
Since the configuration of the tenth embodiment is the same as that of the first embodiment (FIG. 1), description thereof is omitted here.
A feature of the tenth embodiment is that an image immediately before full pressing is acquired from moving image data, and freeze moving image data is created.
FIG. 14 is a flowchart for explaining the operation of the tenth embodiment. Hereinafter, these operations will be described along the step numbers shown in FIG.

ステップS211〜S225: 第1実施形態のステップS1〜S15と同じ処理。 Steps S211 to S225: The same processing as steps S1 to S15 of the first embodiment.

ステップS226: マイクロプロセッサ22は、バッファメモリ17中の動画バッファリングから、全押し直前のVGA画像を読み出す。 Step S226: The microprocessor 22 reads the VGA image immediately before full pressing from the moving image buffering in the buffer memory 17.

ステップS227: マイクロプロセッサ22は、姿勢センサ22dから得たカメラ姿勢に応じて、全押し直前のVGA画像を回転変換する。 Step S227: The microprocessor 22 rotationally converts the VGA image immediately before full pressing in accordance with the camera posture obtained from the posture sensor 22d.

ステップS228: マイクロプロセッサ22は、ステップS227の処理を経たVGA画像を、動画フレームとして3秒間再生するフリーズ動画データを作成する。 Step S228: The microprocessor 22 creates freeze moving image data for reproducing the VGA image that has undergone the processing of step S227 as a moving image frame for 3 seconds.

ステップS229: マイクロプロセッサ22は、バッファメモリ17内の動画データのヘッダ用の情報として、全押し直前のVGA画像を格納する。 Step S229: The microprocessor 22 stores the VGA image immediately before full pressing as information for the header of the moving image data in the buffer memory 17.

ステップS230〜S232: 第1実施形態のステップS20〜S22と同じ処理。 Steps S230 to S232: The same processing as Steps S20 to S22 of the first embodiment.

[第10実施形態の効果など]
以上説明したように、第10実施形態では第1実施形態と同様の効果を得ることができる。
さらに、第10実施形態では、全押し直前の動画データからフリーズ動画データを作成する。そのため、高解像度の静止画をサイズ縮小してフリーズ動画データを作成する必要がなく、処理負荷が少ないという利点がある。
次に、上述した実施形態で作成された動画ファイル(動画データとフリーズ動画データを連結したもの)の再生動作について説明する。
[Effects of the tenth embodiment]
As described above, the tenth embodiment can obtain the same effects as those of the first embodiment.
Furthermore, in the tenth embodiment, freeze moving image data is created from moving image data immediately before being fully pressed. Therefore, it is not necessary to reduce the size of a high-resolution still image to create freeze moving image data, and there is an advantage that the processing load is small.
Next, a reproduction operation of the moving image file (concatenated moving image data and freeze moving image data) created in the above-described embodiment will be described.

《再生画面の例》
図15は、表示画面を示す図(ディスプレー上の中間調画像の写真を含む)である。
このような表示画面は、デジタルカメラ11内の画像表示部24で作成され、デジタルカメラ11に接続された外部モニタに表示される。また、外部コンピュータや動画再生装置が、通信媒体や記録媒体を介して、デジタルカメラ11側で作成されたファイル群を取り込み、図15に示す表示画面の作成および表示を実施してもよい。
《Example of playback screen》
FIG. 15 is a diagram showing a display screen (including a photograph of a halftone image on a display).
Such a display screen is created by the image display unit 24 in the digital camera 11 and displayed on an external monitor connected to the digital camera 11. Further, an external computer or a moving image playback apparatus may take in a file group created on the digital camera 11 side via a communication medium or a recording medium, and create and display the display screen shown in FIG.

以下、表示画面とその操作動作について説明する。
図15(1)に示す表示画面には、再生画面100、サムネイル101、操作アイコン102〜104、および撮影日時106が表示される。
再生画面100は、メインの再生画像が表示される。デフォルト状態では、動画ファイルのヘッダーに収められた静止画が表示される。
Hereinafter, the display screen and its operation will be described.
On the display screen shown in FIG. 15A, a playback screen 100, a thumbnail 101, operation icons 102 to 104, and a shooting date 106 are displayed.
The playback screen 100 displays a main playback image. In the default state, the still image stored in the header of the moving image file is displayed.

この状態で、ユーザーが、再生画面100もしくは再生アイコン105のクリック、またはデジタルカメラ11の再生釦を押すと、半押し期間中などに記録された動画が再生画面100に動画再生される。その後、フリーズ動画が再生画面100に表示される。
ユーザーが特に何も操作を行わなければ、ファイル名や撮影日付の順番に従って、新しい動画ファイルが次々に再生される。
In this state, when the user clicks the playback screen 100 or the playback icon 105 or presses the playback button of the digital camera 11, the moving image recorded during the half-press period is played back on the playback screen 100. Thereafter, the freeze video is displayed on the playback screen 100.
If the user does not perform any operation, new moving image files are played back one after another according to the order of the file name and shooting date.

一方、再生画面100がフォーカス選択された状態で、逆送りアイコン102や早送りアイコン104のクリック、またはデジタルカメラ11側の再生制御釦(不図示)の操作を行うと、再生画面100に表示される静止画が撮影日時の順番で切り換わる。
サムネイル101には、動画ファイルの静止画がサムネイル表示される。このサムネイル101がフォーカス選択された状態で、逆送りアイコン102や早送りアイコン104を操作すると、サムネイル101の列を左右にスクロールすることができる。この状態で、サムネイル101をクリック選択することにより、再生画面100にクリック選択された静止画が表示される。
On the other hand, when the playback screen 100 is in the focus selected state, when the reverse feed icon 102 or the fast forward icon 104 is clicked or a playback control button (not shown) on the digital camera 11 side is operated, the playback screen 100 is displayed. Still images switch in order of shooting date.
In the thumbnail 101, a still image of a moving image file is displayed as a thumbnail. When the thumbnail 101 is in focus and the reverse icon 102 or the fast forward icon 104 is operated, the thumbnail 101 can be scrolled left and right. In this state, by clicking and selecting the thumbnail 101, the click-selected still image is displayed on the playback screen 100.

一方、図15(2)は、ブック型の表示画面を示すものである。このブック型の左右ページには、日付表示206、再生画面200、ページ送りアイコン202,204、および再生アイコン205が表示される。
このページ送りアイコン202,204をクリック操作することにより、まず、ページ送りのアニメーションが表示され、前後の新しいページが表示される。この新しいページに、撮影日時の順番に沿った新たな静止画が表示される。
On the other hand, FIG. 15 (2) shows a book-type display screen. On the left and right pages of the book type, a date display 206, a playback screen 200, page feed icons 202 and 204, and a playback icon 205 are displayed.
By clicking the page feed icons 202 and 204, first, a page feed animation is displayed, and new pages before and after are displayed. New still images are displayed on the new page in the order of the shooting date and time.

このような状態で、再生アイコン205をクリックすると、まず左ページ側の動画再生が行われる。左ページの動画表示が終了すると、右ページ側の動画再生が続いて実施される。
なお、デジタルカメラ11を外部モニタに接続して再生する場合、デジタルカメラ11の再生釦の一度押しで動画ファイルを再生し、2度押し(ダブルクリック)で静止画の再生をするようにしても良い。
When the playback icon 205 is clicked in such a state, first, the moving image playback on the left page side is performed. When the video display on the left page is finished, the video playback on the right page side is continued.
When the digital camera 11 is connected to an external monitor for playback, the movie file is played by pressing the playback button of the digital camera 11 once, and the still image is played by pressing twice (double click). good.

《実施形態の補足事項》
なお、第7実施形態では、動画データのバッファリング時間が第3閾値よりも短い場合に動画データを記録せず、短時間の動画データの無意味な蓄積を回避している(図7のS115,S116参照)。この機能は、第7実施形態のみに限らず、第1〜第3実施形態、および第5〜第10実施形態で実施することが好ましい。
<< Additional items of embodiment >>
In the seventh embodiment, when the buffering time of moving image data is shorter than the third threshold, moving image data is not recorded, and meaningless accumulation of moving image data for a short time is avoided (S115 in FIG. 7). , S116). It is preferable to implement this function not only in the seventh embodiment but also in the first to third embodiments and the fifth to tenth embodiments.

また、第7実施形態では、バッファリング中の動画データが第1閾値より暗い場合に動画データを記録せず、その期間の音声データのみを記録している(第7のS99〜S100参照)。この機能についても、第7実施形態のみに限らず、第1〜第3実施形態、および第5〜第10実施形態で実施することが好ましい。   In the seventh embodiment, when the moving image data being buffered is darker than the first threshold value, the moving image data is not recorded, and only the audio data for that period is recorded (see seventh S99 to S100). This function is preferably implemented not only in the seventh embodiment but also in the first to third embodiments and the fifth to tenth embodiments.

なお、第9実施形態では、ドラフトモード(減数読み出しモード)で読み出される動画を簡易ハイビジョンの画素サイズに拡大補間し、全画素読み出しモードで読み出される静止画を簡易ハイビジョンの画素サイズに縮小している。この機能についても、第9実施形態のみに限らず、第1〜第3実施形態、および第5〜第10実施形態で実施することが好ましい。   In the ninth embodiment, a moving image read in the draft mode (decrease reading mode) is interpolated to a simple high-definition pixel size, and a still image read in the all-pixel reading mode is reduced to the simple high-definition pixel size. . This function is preferably implemented not only in the ninth embodiment but also in the first to third embodiments and the fifth to tenth embodiments.

その他、上述した第1〜第10実施形態では、下記動作を実施することが好ましい。
(1)静止画のみにストロボを照射する。
(2)動画と静止画で感度を変える。静止画と動画とで電荷蓄積時間を変える
(3)動画撮影中には赤目軽減ランプの照射は行わない。
(4)静止画のみにノイズ除去を行う。
(5)静止画の記録解像度がVGAより小さい場合には動画を作成しない。
In addition, in the first to tenth embodiments described above, it is preferable to perform the following operations.
(1) A flash is applied only to still images.
(2) Change the sensitivity for moving images and still images. The charge accumulation time is changed between a still image and a moving image. (3) The red-eye reduction lamp is not irradiated during moving image shooting.
(4) Remove noise only for still images.
(5) If the recording resolution of the still image is smaller than VGA, no moving image is created.

以上説明したように、本発明は、電子カメラなどに利用可能な技術である。   As described above, the present invention is a technique that can be used for an electronic camera or the like.

第1実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 1st Embodiment. 第1実施形態の動作を説明する流れ図である。It is a flowchart explaining operation | movement of 1st Embodiment. ファイルの格納フォルダーを説明する図である。It is a figure explaining the storage folder of a file. 撮影姿勢に応じたVGA静止画の回転変換を示す図である。It is a figure which shows rotation conversion of the VGA still image according to the imaging | photography posture. 動画ファイルを連結したファイル構造を示す図である。It is a figure which shows the file structure which connected the moving image file. 第2実施形態の動作を説明する流れ図である。It is a flowchart explaining operation | movement of 2nd Embodiment. 第3実施形態の動作を説明する流れ図である。It is a flowchart explaining operation | movement of 3rd Embodiment. 第4実施形態の動作を説明する流れ図である。It is a flowchart explaining operation | movement of 4th Embodiment. 第5実施形態の動作を説明する流れ図である。It is a flowchart explaining operation | movement of 5th Embodiment. 第6実施形態の動作を説明する流れ図である。It is a flowchart explaining operation | movement of 6th Embodiment. 第7実施形態の動作を説明する流れ図である。It is a flowchart explaining operation | movement of 7th Embodiment. 第8実施形態の動作を説明する流れ図である。It is a flowchart explaining operation | movement of 8th Embodiment. 第9実施形態の動作を説明する流れ図である。It is a flowchart explaining operation | movement of 9th Embodiment. 第10実施形態の動作を説明する流れ図である。It is a flowchart explaining operation | movement of 10th Embodiment. 表示画面を示す図(ディスプレー上の中間調画像の写真を含む)である。It is a figure which shows a display screen (including the photograph of the halftone image on a display).

符号の説明Explanation of symbols

11 デジタルカメラ
12 撮影レンズ
13 撮像素子
15 A/D変換部
16 信号処理部
17 バッファメモリ
18 バス
19 画像処理部
20 カードインターフェース
21 メモリカード
22 マイクロプロセッサ
22a スイッチ群
22b タイミングジェネレータ
22c レリーズ釦
22d 姿勢センサ
23 圧縮伸張部
24 画像表示部
25 モニタ画面
30 赤目軽減発光部
31 閃光発光部
32 音声処理部
33 マイク
100 再生画面
11 Digital Camera 12 Shooting Lens 13 Image Sensor 15 A / D Converter 16 Signal Processing Unit 17 Buffer Memory 18 Bus 19 Image Processing Unit 20 Card Interface 21 Memory Card 22 Microprocessor 22a Switch Group 22b Timing Generator 22c Release Button 22d Attitude Sensor 23 Compression / decompression unit 24 Image display unit 25 Monitor screen 30 Red-eye reduction light emission unit 31 Flash light emission unit 32 Audio processing unit 33 Microphone 100 Playback screen

Claims (3)

被写体像を撮像する撮像部と、
縦位置/横位置の撮影姿勢を判定する姿勢判定部と、
前記撮像部を制御して静止画を得る撮像制御部と、
前記撮影姿勢に合わせて、前記静止画を回転変換する回転変換部と、
回転変換後の前記静止画を動画フレームに格納することにより、回転変換後の前記静止画を所定期間再生するフリーズ動画データを作成する画像処理部と
を備えたことを特徴とするデジタルカメラ。
An imaging unit that captures a subject image;
A posture determination unit that determines the shooting posture of the vertical position / horizontal position;
An imaging control unit for controlling the imaging unit to obtain a still image;
A rotation conversion unit that rotates and converts the still image in accordance with the shooting posture;
An image processing unit for creating freeze moving image data for reproducing the still image after rotation conversion for a predetermined period by storing the still image after rotation conversion in a moving image frame.
請求項1に記載のデジタルカメラにおいて、
前記回転変換部は、前記静止画を回転変換するに際して、前記静止画の画面長辺方向の画素数が、画面短辺方向の画素数以下になるように前記静止画を解像度変換する
ことを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
The rotation conversion unit converts the resolution of the still image so that the number of pixels in the long side direction of the still image is equal to or less than the number of pixels in the short side direction of the screen when rotating the still image. A digital camera.
請求項1または請求項2に記載のデジタルカメラにおいて、
前記回転変換部は、前記静止画を回転変換するに際して、回転前の画面アスペクト比を維持するよう、回転変換後の前記静止画の画面の枠外にアスペクト調整用の所定画像を合成する
ことを特徴とするデジタルカメラ。
The digital camera according to claim 1 or 2,
The rotation conversion unit synthesizes a predetermined image for aspect adjustment outside the frame of the still image screen after the rotation conversion so as to maintain the screen aspect ratio before the rotation when rotating the still image. A digital camera.
JP2004351268A 2004-12-03 2004-12-03 Digital camera Withdrawn JP2006165768A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004351268A JP2006165768A (en) 2004-12-03 2004-12-03 Digital camera
EP05025703A EP1667418B1 (en) 2004-12-03 2005-11-24 Digital camera having video file creating function
US11/286,287 US20060119711A1 (en) 2004-12-03 2005-11-25 Digital camera having video file creating function
US12/923,965 US8605162B2 (en) 2004-12-03 2010-10-18 Digital camera having video file creating function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004351268A JP2006165768A (en) 2004-12-03 2004-12-03 Digital camera

Publications (1)

Publication Number Publication Date
JP2006165768A true JP2006165768A (en) 2006-06-22

Family

ID=36667314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004351268A Withdrawn JP2006165768A (en) 2004-12-03 2004-12-03 Digital camera

Country Status (1)

Country Link
JP (1) JP2006165768A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009090947A (en) * 2007-10-12 2009-04-30 Nippon Seiki Co Ltd Vehicular display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009090947A (en) * 2007-10-12 2009-04-30 Nippon Seiki Co Ltd Vehicular display device

Similar Documents

Publication Publication Date Title
EP1667418B1 (en) Digital camera having video file creating function
US10469746B2 (en) Camera and camera control method
US8471944B2 (en) Camera and display control method of the same
US8553092B2 (en) Imaging device, edition device, image processing method, and program
KR101189980B1 (en) Recording device and method, reproduction device and method, and recording medium
JP2004312495A (en) Image processing program and image processor
JP2007306496A (en) Camera, photographing control method, program, and recording medium
JP2007159095A (en) Imaging apparatus
JP2006211324A (en) Digital camera apparatus, method and program for reproducing image, and data structure
JP2008042746A (en) Camera, photographing control method and program
JP2006165770A (en) Digital camera
JP4552631B2 (en) Digital camera
JP3918228B2 (en) Information processing apparatus and recording medium
JP2001211376A (en) Electronic still camera
JP4570171B2 (en) Information processing apparatus and recording medium
JP2006165767A (en) Digital camera
JP2006165768A (en) Digital camera
JP2007096809A (en) Imaging apparatus, moving picture storage method, and moving picture storage program
JP2008172653A (en) Imaging apparatus, image management method, and program
JP2020188417A (en) Image processing apparatus, image processing method, and computer program
JP2007259485A (en) Information processing apparatus and recording medium
JP2005117370A (en) Digital camera
JP4310711B2 (en) Information processing apparatus and recording medium
JP2020188416A (en) Image processing apparatus, image processing method, and computer program
JP4571111B2 (en) Information processing apparatus and recording medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080205