JP2006174086A - Image recording reproducing device and image recording reproducing method - Google Patents

Image recording reproducing device and image recording reproducing method Download PDF

Info

Publication number
JP2006174086A
JP2006174086A JP2004363678A JP2004363678A JP2006174086A JP 2006174086 A JP2006174086 A JP 2006174086A JP 2004363678 A JP2004363678 A JP 2004363678A JP 2004363678 A JP2004363678 A JP 2004363678A JP 2006174086 A JP2006174086 A JP 2006174086A
Authority
JP
Japan
Prior art keywords
image
image data
recording
reproducing
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004363678A
Other languages
Japanese (ja)
Inventor
Hirofumi Takei
浩文 竹井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004363678A priority Critical patent/JP2006174086A/en
Publication of JP2006174086A publication Critical patent/JP2006174086A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable a viewer to grasp excellently situations when an image was photographed by inserting and reproducing an effective intermediate image among a plurality of photographed images. <P>SOLUTION: In the image recording device, in parallel to photography of a subject to generate a plurality of pieces of image data, behavior history information related to behaviors of an image recording device during that time is recorded and the behavior history information is recorded in a recording medium together with the plurality of pieces of image data. On the other hand, in the image reproducing device, at the time of reproduction processing of the image data, the plurality of image data and the behavior history information are read from the recording medium, one or more intermediate image data which reflect the behaviors of the image recording device when the plurality of pieces of image data have been generated are generated in accordance with the behavior history information and both the plurality of pieces of image data and the intermediate image data are reproduced along time series. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像記録再生技術に関し、とりわけ撮影された複数の画像の中間画像を合成生成する技術に関するものである。   The present invention relates to an image recording / reproducing technique, and more particularly to a technique for synthesizing and generating intermediate images of a plurality of captured images.

撮影終了した静止画像を効率的に閲覧する従来技術として、ユーザが選んだ複数の画像をスライドショーとして自動的に表示するものがある(特許文献1)。   As a conventional technique for efficiently browsing still images after photographing, there is one that automatically displays a plurality of images selected by a user as a slide show (Patent Document 1).

この従来技術によれば、プレイリストによって決められた再生順序に従って複数の静止画像をスライドショーとして再生するものであるが、スライドショーの再生時に所定の操作が操作部になされると、自動的にプレイリストを修正し、新たな再生順序でスライドショーを再生する点で非常に優れている。
特開2002−209190号公報
According to this prior art, a plurality of still images are reproduced as a slide show according to the reproduction order determined by the playlist. When a predetermined operation is performed on the operation unit during the slide show reproduction, the playlist is automatically performed. It is very good at correcting and playing slideshows in a new playback order.
JP 2002-209190 A

しかしながら、上述の従来技術によれば、ある静止画像を撮影して後で他の静止画像を撮影した際に、その間の撮影状況がどのようなものだったか(例えば被写体にズーミングしながら撮影した等)を再生時に把握しにくかった。とりわけ、撮影者と閲覧者が異なる場合には、この問題が生じやすい。   However, according to the above-described prior art, when a still image was shot and another still image was shot later, what was the shooting situation during that time (for example, shooting while zooming on the subject) ) Was difficult to grasp during playback. In particular, this problem tends to occur when the photographer and the viewer are different.

また、従来技術ではないものの、第1の撮像手段で2つの静止画を撮影するのと並行して、第2の撮像手段でさらに細かな時間間隔で複数の静止画を撮影しておき、撮影された複数の静止画から詳細な動きベクトルを求め、第1の撮像手段によって得られた2つの静止画像間の中間画像を作成する解決手法も考えられる。この解決手法では、第1の撮像手段で撮影された2つの静止画の撮影間隔が短い場合には差分が少ないため、効率よく中間画像を作成できる。   Although not a conventional technique, a plurality of still images are photographed at finer time intervals by the second imaging means in parallel with photographing two still images by the first imaging means. A solution technique is also conceivable in which a detailed motion vector is obtained from a plurality of still images and an intermediate image between two still images obtained by the first imaging means is created. In this solution, since the difference is small when the shooting interval between two still images taken by the first imaging means is short, an intermediate image can be efficiently created.

しかしながら、解決手法によれば、2つの静止画の撮影間隔が長い場合や、撮影間隔が不規則な場合には、好適な中間画像を作成することは非常に困難である。また複数の撮像手段が必要となるため、機器の構成が複雑となる問題があった。   However, according to the solution technique, it is very difficult to create a suitable intermediate image when the shooting interval between two still images is long or when the shooting interval is irregular. In addition, since a plurality of imaging means are required, there is a problem that the configuration of the device is complicated.

そこで、本発明は、このような課題および他の課題の少なくとも1つを解決することを目的とする。なお、他の課題については明細書の全体を通して理解できよう。   Therefore, an object of the present invention is to solve at least one of such problems and other problems. Other issues can be understood throughout the specification.

上記課題を解決すべく、本発明は、画像記録装置において、被写体を撮像して複数の画像データを生成するのと並行して、その間における画像記録装置の挙動に関する挙動履歴情報を記録し、複数の画像データとともに挙動履歴情報を記録媒体に記録しておく。   In order to solve the above-described problem, the present invention records behavior history information related to the behavior of the image recording apparatus in the meantime in parallel with the generation of a plurality of image data by imaging a subject in the image recording apparatus. Together with the image data, behavior history information is recorded on a recording medium.

一方で、画像再生装置において、画像データの再生処理時に、複数の像データと挙動履歴情報とを記録媒体から読み出し、複数の該画像データを生成した際の前記画像記録装置の挙動を反映した1以上の中間画像データを該挙動履歴情報に応じて生成し、複数の画像データと中間画像データとを時系列に沿って再生する。   On the other hand, in the image reproduction apparatus, a plurality of image data and behavior history information are read from the recording medium during image data reproduction processing, and the behavior of the image recording apparatus when a plurality of the image data is generated is reflected. The above intermediate image data is generated according to the behavior history information, and a plurality of image data and intermediate image data are reproduced in time series.

もちろん、このような画像記録装置と画像再生装置とを一体化して画像記録再生装置として提供できることは言うまでもない。   Of course, it goes without saying that such an image recording apparatus and an image reproduction apparatus can be integrated and provided as an image recording / reproduction apparatus.

本発明によれば、撮影された複数の画像間に効果的な中間画像を挿入して再生することが可能になる。すなわち、閲覧者は当該画像が撮影されたときの状況を好適に把握しやすくなろう。   According to the present invention, it is possible to reproduce by inserting an effective intermediate image between a plurality of captured images. That is, the viewer can easily grasp the situation when the image is captured.

以下に本発明の上位概念、中位概念および下位概念の理解に役立つ一実施形態を示す。なお、以下の実施形態に含まれる概念について、そのすべてが特許請求の範囲に記載されているとは限らない。ただし、これは特許発明の技術的範囲から意識的に除外したのではなく、特許発明と均等の関係にあるため特許請求の範囲には記載していない場合があることを理解していただきたい。   In the following, an embodiment useful for understanding the high-level concept, middle-level concept, and low-level concept of the present invention will be described. Note that not all of the concepts included in the following embodiments are described in the claims. However, it should be understood that this is not intentionally excluded from the technical scope of the patented invention, but is not described in the scope of claims because it is equivalent to the patented invention.

図1は、実施形態に係る画像記録再生装置に関する例示的なブロック図である。この例では、画像記録再生装置としてデジタルカメラ100を取り上げている。なお、本発明に係る画像記録再生装置は、画像記録装置と画像再生装置とに分離して実現してもよいし、画像記録方法、画像再生方法として実現してもよいし、さらにはコンピュータプログラムとして実現してもよいことはいうまでもない。   FIG. 1 is an exemplary block diagram relating to an image recording / reproducing apparatus according to an embodiment. In this example, the digital camera 100 is taken up as an image recording / reproducing apparatus. The image recording / reproducing apparatus according to the present invention may be realized separately as an image recording apparatus and an image reproducing apparatus, or may be realized as an image recording method, an image reproducing method, or a computer program. Needless to say, it may be realized as follows.

本実施形態に係るデジタルカメラ100は、撮像された画像データをJPEG等の符号化方式に準拠して符号化し、メモリカード、磁気ディスク、または光磁気ディスク等の記録媒体に記録して再生を行うものである。   The digital camera 100 according to the present embodiment encodes captured image data in accordance with an encoding method such as JPEG, and records and reproduces the data on a recording medium such as a memory card, a magnetic disk, or a magneto-optical disk. Is.

図1において、101は撮影者の手ぶれ等による振動を光学的に補正するバリアングルプリズム(以下、VAPと記す。)、102はズームレンズ、103は光量を調節する絞りである。なお、本実施形態に係るデジタルカメラ100は、レンズ搭載型であってもよいし、レンズ交換型デジタルカメラであってもよいことはいうまでもない。レンズ交換型の場合は、ズームレンズ102、絞り103などがレンズ側に搭載されることになる。なお、ズームレンズ102に代えて、単焦点レンズを採用してもよいことはいうまでもない。   In FIG. 1, reference numeral 101 denotes a vari-angle prism (hereinafter referred to as VAP) that optically corrects vibration due to camera shake of a photographer, 102 denotes a zoom lens, and 103 denotes a diaphragm that adjusts the amount of light. Needless to say, the digital camera 100 according to the present embodiment may be a lens-mounted type or a lens-exchangeable digital camera. In the case of the interchangeable lens type, the zoom lens 102, the diaphragm 103, and the like are mounted on the lens side. Needless to say, a single focus lens may be employed instead of the zoom lens 102.

104はCCDに代表される撮像素子である。105は撮像素子を駆動するタイミングジェネレータ(以下、TGと記す)である。106はCCD104からの出力を2重相関サンプリング(CDS)しゲインコントロール(AGC)やA/D変換を行うA/D部である。107はVAP101、ズームレンズ102、および絞り103を駆動するドライブ回路である。なお、これらの駆動機構は、レンズ側に内蔵されていてもよいし、カメラボディ側に内蔵されていてもよいことはいうまでもない。   Reference numeral 104 denotes an image sensor represented by a CCD. Reference numeral 105 denotes a timing generator (hereinafter referred to as TG) for driving the image sensor. An A / D unit 106 performs double correlation sampling (CDS) on the output from the CCD 104 and performs gain control (AGC) and A / D conversion. Reference numeral 107 denotes a drive circuit that drives the VAP 101, the zoom lens 102, and the diaphragm 103. Needless to say, these drive mechanisms may be built in on the lens side or on the camera body side.

108はカメラの水平方向の動きを検出する加速度センサ(HS)である。109はカメラの垂直方向の動きを検出する加速度センサ(VS)である。110はデジタルカメラ100全体を統合的に制御するCPUでである。CPU110の内部には挙動情報(後述するカメラ情報など)の取得を行うモジュール110aが組み込まれている。モジュール110aは、回路的に組み込まれていてもよいし、ソフトウエアとして組み込まれていてもよい。   An acceleration sensor (HS) 108 detects the horizontal movement of the camera. An acceleration sensor (VS) 109 detects the vertical movement of the camera. Reference numeral 110 denotes a CPU that controls the entire digital camera 100 in an integrated manner. A module 110 a that acquires behavior information (camera information and the like described later) is incorporated in the CPU 110. The module 110a may be incorporated as a circuit or may be incorporated as software.

111はデジタルカメラ100に対し操作指示を入力するための各種スイッチが含まれる操作部である。112はA/D部106でA/D変換された画像データを処理するカメラ信号処理部である。113は画像データをJPEG等の符号化形式に従って符号化/復号化するコーデック部(CODEC)である。114はカメラ情報に応じた中間画像などのエフェクト画像を合成生成する画像合成部である。   An operation unit 111 includes various switches for inputting operation instructions to the digital camera 100. A camera signal processing unit 112 processes the image data A / D converted by the A / D unit 106. A codec unit (CODEC) 113 encodes / decodes image data according to an encoding format such as JPEG. Reference numeral 114 denotes an image composition unit that synthesizes and generates an effect image such as an intermediate image corresponding to the camera information.

115は画像データ、音声データ、およびカメラ情報のデータ等の記録再生を行うI/F部である。116は磁気記録媒体、光磁気記録媒体またはメモリカード等の記録媒体を含む記録部である。117はRAMなどのワークメモである。118はLCD119の表示動作を制御する表示制御部である。119は液晶パネル(LCD)を含む画像データの表示を行う表示部である。120はデジタルカメラ100の各ブロックの間で画像データや制御データの転送を行うためのシステムバスである。   Reference numeral 115 denotes an I / F unit that records and reproduces image data, audio data, camera information data, and the like. Reference numeral 116 denotes a recording unit including a recording medium such as a magnetic recording medium, a magneto-optical recording medium, or a memory card. 117 is a work memo such as a RAM. A display control unit 118 controls the display operation of the LCD 119. Reference numeral 119 denotes a display unit that displays image data including a liquid crystal panel (LCD). Reference numeral 120 denotes a system bus for transferring image data and control data between the blocks of the digital camera 100.

音声入力部121は、マイクロフォン、増幅回路、アナログ/デジタル変換回路など含む、背景音の取得回路である。取得された背景音は、カメラ情報の一部として記録されるようにしても良い。   The audio input unit 121 is a background sound acquisition circuit including a microphone, an amplifier circuit, an analog / digital conversion circuit, and the like. The acquired background sound may be recorded as part of the camera information.

図2は、実施形態に係る操作部の主要な操作スイッチの一例を示す図である。図2において111aはデジタルカメラの動作モードを設定する選択スイッチであり、これにより、画像を記録する記録モード、パワーオフ、記録された画像を再生する再生モードを選択できる。111bは記録や再生を通常のノーマルモードで行うか、後述するエフェクトモードで行うかを選択する選択スイッチである。111cは記録モードで画像を撮影するための撮影指示を入力するためのレリーズスイッチである。111d、111eはそれぞれズームレンズのズーミング操作の指示を入力するためのスイッチである。111f、111gは再生時に再生方向を指示するためのスイッチである。   FIG. 2 is a diagram illustrating an example of main operation switches of the operation unit according to the embodiment. In FIG. 2, reference numeral 111a denotes a selection switch for setting the operation mode of the digital camera. This enables selection of a recording mode for recording an image, power-off, and a reproduction mode for reproducing the recorded image. Reference numeral 111b denotes a selection switch for selecting whether recording or reproduction is performed in a normal normal mode or an effect mode described later. A release switch 111c is used to input a shooting instruction for shooting an image in the recording mode. 111d and 111e are switches for inputting instructions for zooming operation of the zoom lens. 111f and 111g are switches for instructing the reproduction direction during reproduction.

以下、図2に示すように選択スイッチ111aは記録モードに設定され、選択スイッチ111bはエフェクトモードに設定されている場合のデジタルカメラ100の動作について図1〜図3を用いて説明する。   Hereinafter, the operation of the digital camera 100 when the selection switch 111a is set to the recording mode and the selection switch 111b is set to the effect mode as shown in FIG. 2 will be described with reference to FIGS.

図3は、実施形態に係る記録モードでの例示的な動作を示すフローチャートである。これらの動作は、基本的に、CPU110の制御によって実行される。   FIG. 3 is a flowchart illustrating an exemplary operation in the recording mode according to the embodiment. These operations are basically executed under the control of the CPU 110.

ステップS301において、CPU110は、水平、垂直方向の加速度センサ108,109の出力を読み込み、撮影者による手ぶれやパンニングを検出する。手ぶれが検出された場合、CPU110は、手ぶれ成分を補正する制御をVAP101に対して行う。   In step S301, the CPU 110 reads the outputs of the acceleration sensors 108 and 109 in the horizontal and vertical directions, and detects camera shake and panning by the photographer. When camera shake is detected, the CPU 110 performs control for correcting the camera shake component on the VAP 101.

ステップS302において、CPU110は、レリーズスイッチ111cの半押しを検出するとオートフォーカス制御(AF)を実行したり、操作部111のズームキーが押下されていることを検出すると押下されたスイッチに対応してズームレンズ102の制御をしたりする。   In step S302, the CPU 110 executes autofocus control (AF) when detecting half-press of the release switch 111c, or zooms corresponding to the pressed switch when detecting that the zoom key of the operation unit 111 is pressed. The lens 102 is controlled.

ステップS303において、CPU110は、別途指定された露出条件に応じて絞り103、TG105、A/D部106を制御し、所望の露出状態となるようにする。   In step S303, the CPU 110 controls the aperture 103, the TG 105, and the A / D unit 106 in accordance with separately specified exposure conditions so that a desired exposure state is obtained.

ステップS304において、CPU110は、選択スイッチ111bの状態を読み込み、記録をノーマルモードで行うか、後述するエフェクトモードで行うかを判定する。図2のようにエフェクトモードに設定されている場合はステップS305に進み、ノーマルモードに設定されている場合は、ステップS305をスキップしてステップS306に進む。   In step S304, the CPU 110 reads the state of the selection switch 111b and determines whether recording is performed in the normal mode or effect mode described later. If the effect mode is set as shown in FIG. 2, the process proceeds to step S305, and if the normal mode is set, the process skips step S305 and proceeds to step S306.

ステップS305において、CPU110は、カメラ情報を取得してメモリ117に蓄積する。ここで蓄積されるカメラ情報は、たとえば、防振制御の過程で得られたパンニング検出情報、チルト情報、ズームAF制御で得られるズーム操作情報、露出制御により得られた被写体の明るさ情報、カメラ信号処理の色制御において得られる色温度情報等であり、いずれもデジタルカメラ100の挙動に関する履歴が蓄積された挙動情報と呼べるものである。いずれの情報もCPU110が各処理ブロックと連携して取得したものである。117bは、このようにして取得されたカメラ情報を示している。   In step S <b> 305, the CPU 110 acquires camera information and stores it in the memory 117. The camera information stored here includes, for example, panning detection information, tilt information, zoom operation information obtained by zoom AF control, subject brightness information obtained by exposure control, camera Color temperature information and the like obtained in color control of signal processing, all of which can be called behavior information in which a history related to the behavior of the digital camera 100 is accumulated. All the information is acquired by the CPU 110 in cooperation with each processing block. Reference numeral 117b indicates the camera information acquired in this way.

ステップS306において、CPU110は、画像記録を開始するレリーズスイッチ111cが押下されたかどうかを判定する。レリーズスイッチ111cの押下を検出した場合、S307に移行する。レリーズスイッチ111cが押下されていない場合、再びS301に戻りカメラ情報を蓄積する動作を行う。すなわち、レリーズスイッチが押下されない限りS301ないしS306までの一連の処理時間を単位周期としてカメラ情報を取得し、蓄積していく。このカメラ情報を取得するための単位周期は一般的な動画像のフレーム周期と同じ1/30秒にしても良い。あるいは画像を記録撮影する間隔よりも短い任意の周期に設定しても良い。なお、各々のカメラ情報を取得する間隔は必ずしも一定でなくても良い。一方、S304にてエフェクトモードに設定されていなかった場合、S305のカメラ情報蓄積処理は迂回するようになっているので、カメラ情報の蓄積は行われない。   In step S306, the CPU 110 determines whether or not the release switch 111c for starting image recording has been pressed. If it is detected that the release switch 111c has been pressed, the process proceeds to S307. If the release switch 111c has not been pressed, the process returns to S301 and accumulates camera information. In other words, unless the release switch is pressed, camera information is acquired and accumulated using a series of processing times from S301 to S306 as a unit period. The unit period for acquiring the camera information may be 1/30 second, which is the same as a general moving image frame period. Or you may set to the arbitrary periods shorter than the space | interval which records and image-records. Note that the interval at which each piece of camera information is acquired is not necessarily constant. On the other hand, if the effect mode is not set in S304, the camera information accumulation process in S305 is bypassed, and therefore no camera information is accumulated.

ステップS307において、CPU110は、被写体の画像データを生成する処理を実行する。この生成処理では、CCD104から出力された画像信号をA/D部106でデジタルデータに変換し、カメラ信号処理部112にて周知のカメラ信号処理を施し、システムバス120を介してメモリ117内に画像データ117aを書き込む。   In step S307, the CPU 110 executes processing for generating image data of the subject. In this generation process, the image signal output from the CCD 104 is converted into digital data by the A / D unit 106, a known camera signal process is performed by the camera signal processing unit 112, and the image signal is stored in the memory 117 via the system bus 120. The image data 117a is written.

ステップS308において、CPU110は、圧縮処理を制御する。たとえば、CODEC113がメモリ117から画像データ117aを読み出し、JPEG等の所定形式に準拠して符号化圧縮を実行し、再びメモリ117に書き込む。   In step S308, the CPU 110 controls the compression process. For example, the CODEC 113 reads the image data 117 a from the memory 117, executes encoding compression in accordance with a predetermined format such as JPEG, and writes it again in the memory 117.

ステップS309において、CPU110は、圧縮した画像データ117aに対して、蓄積されているカメラ情報117bを付加する処理を行う。   In step S309, the CPU 110 performs processing for adding the accumulated camera information 117b to the compressed image data 117a.

ステップS310において、CPU110は、カメラ情報の付加された画像データをI/F部115を介して記録部116に記録する。   In step S <b> 310, the CPU 110 records the image data with the camera information added to the recording unit 116 via the I / F unit 115.

ステップS311において、CPU110は、新たなカメラ情報を蓄積するための準備として、記録部116へ記録し終えたカメラ情報をメモリの116bからクリアする。   In step S311, as a preparation for accumulating new camera information, the CPU 110 clears the camera information that has been recorded in the recording unit 116 from the memory 116b.

ステップS312において、CPU110は、撮影動作を継続するか否かを判定する。継続する場合は、再びS301に戻る。一方、撮影を終了する場合は、本フローチャートに関する処理を終了する。   In step S312, CPU 110 determines whether or not to continue the shooting operation. When continuing, it returns to S301 again. On the other hand, when the shooting is finished, the processing related to this flowchart is finished.

このように本実施形態によれば、CCD104、カメラ信号処理部112、CODEC113などによって複数の画像データを生成するのと並行して、カメラ情報としてその間におけるデジタルカメラの挙動の履歴に関する挙動履歴情報を記録部116に記録することができる。   As described above, according to the present embodiment, in parallel with the generation of a plurality of image data by the CCD 104, the camera signal processing unit 112, the CODEC 113, and the like, the behavior history information regarding the history of the behavior of the digital camera between them is obtained as camera information. It can be recorded in the recording unit 116.

図4は、実施形態に係る発明の概念を示した図である。この図では、デジタルカメラ100をエフェクトモードに設定して静止画を撮影した場合の時間経過、画像データおよびカメラ情報の関係を示している。図4において、TP1、TP2はレリーズスイッチ111cが押下されたタイミングを示している。401a、402aは各タイミングにおいてキャプチャされた画像データを示している。TCはカメラ情報401b、402b、403b…の取得間隔を示している。TRは画像の記録間隔を示している。   FIG. 4 is a diagram showing the concept of the invention according to the embodiment. This figure shows the relationship between the passage of time, image data, and camera information when the digital camera 100 is set to the effect mode and a still image is taken. In FIG. 4, TP1 and TP2 indicate the timing when the release switch 111c is pressed. Reference numerals 401a and 402a denote image data captured at each timing. TC indicates an acquisition interval of the camera information 401b, 402b, 403b. TR indicates an image recording interval.

4100Bは、画像データ401aに関して蓄積されたカメラ情報の集合データを示している。この例ではカメラ情報の集合データ4100Bには個別のカメラ情報401a〜405bが蓄積されている。カメラ情報の集合データ4200Bは、画像データ402aに関して蓄積されたカメラ情報の集合データであり、個別のカメラ情報406a〜410bが蓄積されている。   Reference numeral 4100B denotes camera data set data accumulated with respect to the image data 401a. In this example, individual camera information 401a to 405b is accumulated in the camera information set data 4100B. The camera information set data 4200B is set of camera information stored with respect to the image data 402a, and stores individual camera information 406a to 410b.

TP1の時点で画像データ401aが生成され、蓄積されているカメラ情報の集合データ4100Bと一緒に記録媒体に記録される。同様にTP2の時点では画像データ402aが生成され、蓄積されたカメラ情報の集合データ4200Bと一緒に記録媒体に記録される。以降、エフェクトモードでレリーズスイッチ111cが押下されるごとに、画像データと、蓄積されたカメラ情報とが記録部116の記録媒体に記録されていく。もしノーマルモードで記録する場合には、レリーズスイッチ111cが押下されると、画像データのみが記録部116の記録媒体に記録されていく。このように、エフェクトモードでだけカメラ情報を記録し、ノーマルモードではカメラ情報を記録しないように制御することで、記録媒体の記録容量を節約できる。   Image data 401a is generated at the time of TP1, and is recorded on a recording medium together with the accumulated camera information set data 4100B. Similarly, at the time of TP2, image data 402a is generated and recorded on the recording medium together with the accumulated camera information set data 4200B. Thereafter, each time the release switch 111c is pressed in the effect mode, the image data and the accumulated camera information are recorded on the recording medium of the recording unit 116. If recording is performed in the normal mode, only the image data is recorded on the recording medium of the recording unit 116 when the release switch 111c is pressed. In this way, the recording capacity of the recording medium can be saved by controlling the camera information to be recorded only in the effect mode and not to record the camera information in the normal mode.

図5は、実施形態に係る画像データとカメラ情報を含む画象ファイルの構成例を示す図である。図5に示すように、圧縮された画像データの401a、402aのヘッダデータとしてそれぞれカメラ情報の集合データ4100Bや4200Bが記録されている。ファイル番号は0001、0002・・・と各々のファイル番号が重ならないように付されている。なお、画像データを記録する記録フォーマットとしては日本電子工業振興協会(JEIDA)によって制定されたDCF(Design rule for Camera File system)のような画像ファイルの管理ルールが提案されているが、本発明は、DCF形式を採用してもよいし、各々のファイルが区別できる方法であれば他の形式を採用してもよい。   FIG. 5 is a diagram illustrating a configuration example of an image file including image data and camera information according to the embodiment. As shown in FIG. 5, camera information set data 4100B and 4200B are recorded as header data of compressed image data 401a and 402a, respectively. File numbers are assigned such that 0001, 0002,... Do not overlap with each other. As a recording format for recording image data, image file management rules such as DCF (Design rule for Camera File system) established by the Japan Electronics Industry Promotion Association (JEIDA) have been proposed. The DCF format may be adopted, or another format may be adopted as long as each file can be distinguished.

図6は、実施形態に係る操作部の他の設定状態を示す図である。図6を用いて、画像データの再生表示動作について説明する。図6によれば、選択スイッチ111aは再生モードに設定されており、選択スイッチ111bはエフェクトモードに設定されている。   FIG. 6 is a diagram illustrating another setting state of the operation unit according to the embodiment. An image data reproduction / display operation will be described with reference to FIG. According to FIG. 6, the selection switch 111a is set to the reproduction mode, and the selection switch 111b is set to the effect mode.

図7は、実施形態に係る画像データの再生処理に関する例示的なフローチャートである。再生処理は、基本的に、CPU110の制御に応じて実行される。   FIG. 7 is an exemplary flowchart regarding image data reproduction processing according to the embodiment. The reproduction process is basically executed according to the control of the CPU 110.

ステップS701において、CPU110は、記録部116の記録媒体に記録されているファイル番号N(Nは自然数)に関する画像データとカメラ情報をI/F部115を介しメモリ117に読み込む。   In step S <b> 701, the CPU 110 reads image data and camera information relating to the file number N (N is a natural number) recorded on the recording medium of the recording unit 116 into the memory 117 via the I / F unit 115.

ステップS702において、CPU110は、読み出された(圧縮)画像データをCODEC113に供給して伸張させ、ベースバンドの画像データに復元する。   In step S <b> 702, the CPU 110 supplies the read (compressed) image data to the CODEC 113, decompresses it, and restores it to baseband image data.

ステップS703において、選択スイッチ111bの設定状態を読み込み、再生表示動作を通常のノーマルモードで行うか、後述するエフェクトモードで行うかを判定する。図6のようにエフェクトモードに設定されている場合は、ステップS704に進む。ノーマルモードに設定されている場合は、ステップS712に進む。   In step S703, the setting state of the selection switch 111b is read, and it is determined whether the reproduction display operation is performed in the normal normal mode or the effect mode described later. If the effect mode is set as shown in FIG. 6, the process proceeds to step S704. If the normal mode is set, the process proceeds to step S712.

ステップS704において、CPU110は、メモリ117に読み込まれた画像ファイル内にカメラ情報が存在するかどうかを判定する。カメラ情報が存在する場合はS705に進む。カメラ情報が存在しない場合は、ステップS712に進む。   In step S <b> 704, the CPU 110 determines whether camera information exists in the image file read into the memory 117. If camera information exists, the process proceeds to S705. If camera information does not exist, the process proceeds to step S712.

ステップS705において、CPU110は、次のファイル番号(N+1)の画像データとカメラ情報とを記録部116からメモリ117に読み出す。   In step S <b> 705, the CPU 110 reads out the image data of the next file number (N + 1) and camera information from the recording unit 116 to the memory 117.

ステップS706において、CPU110は、S702と同様の方法にて画像データを伸張しベースバンドの画像データに復元する。   In step S706, the CPU 110 decompresses the image data and restores the baseband image data in the same manner as in step S702.

ステップS707において、CPU110は、カメラ情報などの挙動履歴情報を元に合成手法を決定する。たとえば、CPU110は、ファイル番号N,(N+1)についての各カメラ情報をそれぞれ解析し、この解析結果に応じて、中間画像の合成手法(たとえばエフェクトの種類など)を決定する。中間画像は、再生時に、ファイル番号Nの画像とファイル番号(N+1)の画像との間に挿入される。この決定方法についての具体例については後で詳細に説明する。   In step S707, the CPU 110 determines a synthesis method based on behavior history information such as camera information. For example, the CPU 110 analyzes each camera information for the file numbers N and (N + 1), and determines an intermediate image synthesis method (for example, effect type) according to the analysis result. The intermediate image is inserted between the image with the file number N and the image with the file number (N + 1) during reproduction. A specific example of this determination method will be described later in detail.

ステップS708において、CPU110は、決定された合成手法を適用して中間画像を生成する。たとえば、画像合成部114は、CPU110の制御に従い、メモリ117内にある画像データを読み込み、CPU110からの指示に対応する合成処理を実行する。   In step S708, the CPU 110 applies the determined synthesis method to generate an intermediate image. For example, the image composition unit 114 reads image data in the memory 117 under the control of the CPU 110 and executes a composition process corresponding to an instruction from the CPU 110.

ステップS709において、CPU110は、伸張された画像と、生成された中間画像を、表示制御部118を介して表示部119に表示させる。   In step S709, the CPU 110 causes the display unit 119 to display the expanded image and the generated intermediate image via the display control unit 118.

ステップS710において、CPU110は、再生動作を継続するか否かを判定する。再生動作を継続する場合はS711に進み、そうでなければ本フローチャートに関する処理を終了する。   In step S710, CPU 110 determines whether or not to continue the reproduction operation. If the reproduction operation is to be continued, the process proceeds to S711, and if not, the process related to this flowchart is terminated.

ステップS711において、CPU110は、ファイル番号Nを1つインクリメントして、再びS701に戻り、再生動作を継続する。   In step S711, the CPU 110 increments the file number N by one, returns to S701 again, and continues the reproduction operation.

ところで、S703でノーマルモードの再生を行うと判断された場合やS704で読み込んだファイル内にカメラ情報が存在しないを判定された場合、S712において、CPU110は、表示制御部118を介してファイル番号Nの画像データを表示部119に表示させ、ステップS710に移行する。すなわちノーマルモードでの再生は記録部116に記録されている画像を1枚づつ単に再生する。一方、エフェクトモードで再生を行う場合には上述した手順により記録された画像を再生しつつ、複数の再生画像の間にカメラ情報に応じた中間画像を挿入して表示することになる。   If it is determined in S703 that normal mode playback is to be performed, or if it is determined in S704 that there is no camera information in the file read in, the CPU 110 uses the display control unit 118 to display the file number N in S712. Is displayed on the display unit 119, and the process proceeds to step S710. That is, in the normal mode, the images recorded in the recording unit 116 are simply reproduced one by one. On the other hand, when the reproduction is performed in the effect mode, an intermediate image corresponding to the camera information is inserted and displayed between a plurality of reproduction images while reproducing the image recorded by the above-described procedure.

このように本実施形態によれば、画像データの再生処理時に、複数の画像データと、カメラ情報に代表される挙動履歴情報とを記録部116の記録媒体から読み出し、読み出した挙動履歴情報に応じて、これら複数の画像データを生成した際の画像記録再生装置の挙動を反映した1以上の中間画像データを生成する。従って、撮影された複数の画像間に効果的な中間画像を挿入して再生することが可能になる。これにより、閲覧者は、当該画像が撮影されたときの状況を好適に把握しやすくなろう。   As described above, according to the present embodiment, at the time of image data reproduction processing, a plurality of image data and behavior history information typified by camera information are read from the recording medium of the recording unit 116, and according to the read behavior history information. Thus, one or more intermediate image data reflecting the behavior of the image recording / reproducing apparatus when the plurality of image data are generated is generated. Therefore, it is possible to reproduce by inserting an effective intermediate image between a plurality of captured images. Thereby, the viewer will be able to easily grasp the situation when the image is captured.

次に、図8ないし図11を用いてエフェクトモードで記録された複数の画像データを、エフェクトモードで再生表示する例を説明する。   Next, an example in which a plurality of image data recorded in the effect mode is reproduced and displayed in the effect mode will be described with reference to FIGS.

図8は、実施形態に係る画像記録処理についての実施例を示す図である。この例では、レリーズスイッチ111cがTP1とTP2のタイミングで押下された結果、それぞれ画像データ801と802とが生成されている。また、その間のカメラ情報としては、TP1ではズームレンズがワイド側であることを示すカメラ情報が取得され、TP1ないしTP2間ではズームレンズがテレ側にズームインしたことを示すいくつかのカメラ情報が取得され、TP2ではズームレンズがテレ側であることを示すカメラ情報が取得された物として説明する。   FIG. 8 is a diagram illustrating an example of the image recording process according to the embodiment. In this example, as a result of the release switch 111c being pressed at the timing of TP1 and TP2, image data 801 and 802 are generated, respectively. As camera information during that time, camera information indicating that the zoom lens is on the wide side is acquired at TP1, and some camera information indicating that the zoom lens has zoomed in on the tele side is acquired between TP1 and TP2. In TP2, it is assumed that camera information indicating that the zoom lens is on the telephoto side has been acquired.

図9は、実施形態に係る画像記録処理によって取得された2つの画像の実施例を示す図である。画像801は、ズームレンズがワイド側であるTP1の時点で撮影された画像である。画像802は、ズームレンズがテレ側であるTP2の時点で撮影された画像である。   FIG. 9 is a diagram illustrating an example of two images acquired by the image recording process according to the embodiment. An image 801 is an image taken at time TP1 when the zoom lens is on the wide side. An image 802 is an image taken at time TP2 when the zoom lens is on the telephoto side.

前述したようにTP1とTP2の間で取得された複数のカメラ情報は、ズームインを示す情報である。従って、CPU110は、カメラ情報からズームインを効果的に示すエフェクト効果を選択し(S707)、ズームインを示すエフェクトを施された中間画像が生成される。   As described above, the plurality of camera information acquired between TP1 and TP2 is information indicating zoom-in. Accordingly, the CPU 110 selects an effect effect that effectively indicates zoom-in from the camera information (S707), and an intermediate image that has been subjected to the effect indicating zoom-in is generated.

図10は、中間画像の生成に使用されるタイトル画像の実施例を示す図である。タイトル画像TPic101、TPic102は、それぞれズームインを効果的に表現するために使用される画像である。タイトル画像TPic101には開口部1001が設けられ、タイトル画像TPic101にはそれよりも小さい開口部1002が設けられている。この開口部の中に画像801または画像802が加算的に合成される。タイトル画像TPic101、TPic102の各開口部を比較すると、後者の開口部は画像の中心に向かってより小さくなっている。そのため、タイトル画像TPic101を最初の中間画像に使用し、タイトル画像TPic102を次の中間画像に使用すれば、ズームインを表現できる。反対に、タイトル画像TPic102を最初の中間画像に使用し、タイトル画像TPic101を次の中間画像に使用すれば、効果的にズームアウトを表現できる。複数のタイトル画像をどのように使用するかは、カメラ情報によって定まる合成手法に依存する。合成手法については、ルール化してROMなどに記憶しておけば、CPU110によって利用できる。   FIG. 10 is a diagram illustrating an example of a title image used for generating an intermediate image. The title images TPic101 and TPic102 are images used for effectively expressing zoom-in. The title image TPic101 is provided with an opening 1001, and the title image TPic101 is provided with an opening 1002 smaller than that. The image 801 or the image 802 is additively combined in the opening. When the openings of the title images TPic101 and TPic102 are compared, the latter opening is smaller toward the center of the image. Therefore, zoom-in can be expressed by using the title image TPic101 for the first intermediate image and the title image TPic102 for the next intermediate image. On the contrary, if the title image TPic102 is used for the first intermediate image and the title image TPic101 is used for the next intermediate image, zoom-out can be effectively expressed. How to use a plurality of title images depends on a synthesis method determined by camera information. The synthesis method can be used by the CPU 110 if it is ruled and stored in a ROM or the like.

CPU110は、決定された合成手法に従って、タイトル画像の開口部1001、1003の大きさに応じて画像801を切り出し、切り出した部分画像を当該開口部にペーストすることで、中間画像を生成する。これによって、元の画像とタイトル画像とが合成されて、ズームイン動作を視覚的に把握しやすくなる中間画像が生成される。   The CPU 110 generates an intermediate image by cutting out the image 801 according to the size of the opening portions 1001 and 1003 of the title image and pasting the cut out partial image into the opening portion in accordance with the determined combining method. As a result, the original image and the title image are combined to generate an intermediate image that makes it easy to visually grasp the zoom-in operation.

図11は、実施形態における画像再生処理についての実施例を示す図である。中間画像Pic1100とPic1101は、二つの画像801と802とを撮影する間に実行されたズームイン動作を表現するために生成された画像である。   FIG. 11 is a diagram illustrating an example of image reproduction processing according to the embodiment. The intermediate images Pic1100 and Pic1101 are images generated to express a zoom-in operation that is performed while the two images 801 and 802 are captured.

CPU110は、これらの画像を図11に示す順序で経時的に表示させることになる。すなわち、ズーム前の画像801とズームイン動作後の画像802との間にズームイン動作を示す効果的な中間画像が挿入されて表示されることになる。よって、閲覧者は、画像801と画像802とがズームインの動作を行いながら撮影された画像であることを、効果的かつ容易に認識することが可能になろう。   The CPU 110 displays these images over time in the order shown in FIG. That is, an effective intermediate image indicating the zoom-in operation is inserted and displayed between the image 801 before zooming and the image 802 after zoom-in operation. Therefore, the viewer will be able to effectively and easily recognize that the images 801 and 802 are images taken while performing the zoom-in operation.

次に、他のエフェクト効果の実施例について図12〜図14を用い説明する。   Next, examples of other effect effects will be described with reference to FIGS.

図12は、実施形態に係る画像記録処理についての実施例を示す図である。図12においてTP1とTP2のタイミングでレリーズスイッチ111cが押下され、それぞれ画像1201と1202が生成されたとする。また、TP1とTP2の間にカメラが左から右へとパンニングされたことが、カメラ情報として記録されているものとして説明する。   FIG. 12 is a diagram illustrating an example of the image recording process according to the embodiment. In FIG. 12, it is assumed that the release switch 111c is pressed at the timing of TP1 and TP2, and images 1201 and 1202 are generated, respectively. Also, the fact that the camera has been panned from left to right between TP1 and TP2 will be described as being recorded as camera information.

図13は、実施形態に係る画像記録処理によって取得された2つの画像の実施例を示す図である。画像1201は、パンニング前のTP1の時点で撮影された画像である。画像1202は、パンニング後のTP2の時点で撮影された画像である。前述したようにTP1とTP2の間のカメラ情報は水平パンニングを示す情報である。従って、CPU110は、カメラ情報に応じてパンニングを効果的に示すエフェクト効果(合成手法)を決定し(S707)、これによりパンニングを示す中間画像が生成される(S708)。   FIG. 13 is a diagram illustrating an example of two images acquired by the image recording process according to the embodiment. An image 1201 is an image taken at the time of TP1 before panning. An image 1202 is an image taken at time TP2 after panning. As described above, the camera information between TP1 and TP2 is information indicating horizontal panning. Therefore, the CPU 110 determines an effect effect (synthesizing method) that effectively shows panning according to the camera information (S707), and thereby generates an intermediate image showing panning (S708).

図14は、パンニングを効果的に示す中間画像の実施例を示す図である。この例では、記録画像1201、1202を再生する際に、その間に中間画像Pic1400、Pic1401を合成生成して再生表示する。具体的には、図14に示すように二つの画像1201と1202とが重なりながら徐々にフェードしていく中間画像が生成されて表示される。この場合の中間画像Pic1400、1401は、画像1201と1202を任意の比率で加算することで合成される。とりわけ、図14の例では、画像1201と1202とを異なる比率で加算している。   FIG. 14 is a diagram showing an example of an intermediate image effectively showing panning. In this example, when the recorded images 1201 and 1202 are reproduced, intermediate images Pic1400 and Pic1401 are synthesized and generated during the reproduction. Specifically, as shown in FIG. 14, an intermediate image that gradually fades while the two images 1201 and 1202 overlap is generated and displayed. The intermediate images Pic1400 and 1401 in this case are synthesized by adding the images 1201 and 1202 at an arbitrary ratio. In particular, in the example of FIG. 14, the images 1201 and 1202 are added at different ratios.

これらの画像を図14に示す順序で経時的に表示させることで、パンニング前の画像1201とパンニング後の画像1202との間に、パンニングを示す効果的な中間画像が挿入されることになる。従って、閲覧者は、これらの記録画像1201、1202とがパンニングの動作を行いながら撮影された画像であることを効果的かつ容易に認識することが可能になろう。   By displaying these images over time in the order shown in FIG. 14, an effective intermediate image indicating panning is inserted between the image 1201 before panning and the image 1202 after panning. Therefore, the viewer will be able to effectively and easily recognize that these recorded images 1201 and 1202 are images taken while performing the panning operation.

次に本発明をフォーカス(合焦制御)動作のエフェクトに応用した実施例について図19〜図21を用い説明する。   Next, an embodiment in which the present invention is applied to an effect of a focus (focusing control) operation will be described with reference to FIGS.

図19は、実施形態に係る画像記録処理についての実施例を示す図である。図19においてTP1とTP2のタイミングでレリーズスイッチ111cが押下され、それぞれ画像2001と2002が生成されたとする。また、TP1とTP2の間に被写体が大きく動きいてカメラのフォーカスが被写体からはずれて一度デフォーカスし、再び次の被写体にフォーカシングされたことがカメラ情報として記録されているものとして説明する。   FIG. 19 is a diagram illustrating an example of the image recording process according to the embodiment. In FIG. 19, it is assumed that the release switch 111c is pressed at the timing of TP1 and TP2, and images 2001 and 2002 are generated, respectively. In addition, it is assumed that the camera information is recorded that the subject moves greatly between TP1 and TP2, the camera defocuses from the subject, defocuses once, and is focused on the next subject again.

図20は、実施形態に係る画像記録処理によって取得された2つの画像の実施例を示す図である。画像2001は、TP1の時点で撮影された画像である。画像2002は、TP2の時点で撮影された画像である。前述したようにTP1とTP2の間のカメラ情報はフォーカスが合焦→非合焦→合焦と変化した事を示す情報である。従って、CPU110は、カメラ情報に応じてデフォーカスによりぼやけた状態を効果的に示すエフェクト効果(合成手法)を決定し(S707)、これによりデフォーカスを示す中間画像が生成される(S708)。   FIG. 20 is a diagram illustrating an example of two images acquired by the image recording process according to the embodiment. An image 2001 is an image taken at the time of TP1. An image 2002 is an image taken at the time of TP2. As described above, the camera information between TP1 and TP2 is information indicating that the focus has changed from in-focus → in-focus → in-focus. Therefore, the CPU 110 determines an effect effect (synthesizing method) that effectively shows a blurred state due to defocusing according to the camera information (S707), and thereby generates an intermediate image showing defocusing (S708).

図21は、デフォーカスを効果的に示す中間画像の実施例を示す図である。この例では、記録画像2001、2002を再生する際に、その間に中間画像Pic2200、Pic2201、Pic2202を合成生成して再生表示する。具体的には、図21に示すように最初の画像2001が徐々にフェードアウトしてPic2201で完全にフェードし、その後Pic2202から2002へと徐々にフェードインしていく中間画像が生成されて表示される。   FIG. 21 is a diagram illustrating an example of an intermediate image that effectively shows defocusing. In this example, when the recorded images 2001 and 2002 are reproduced, intermediate images Pic2200, Pic2201 and Pic2202 are synthesized and generated during the reproduction. Specifically, as shown in FIG. 21, an initial image 2001 is gradually faded out and completely faded by Pic 2201, and then an intermediate image that gradually fades in from Pic 2202 to 2002 is generated and displayed. .

これらの画像を図21に示す順序で経時的に表示させることで、画像2001と画像2002との間に、一度デフォーカスがあった事を示す効果的な中間画像が挿入されることになる。従って、閲覧者は、これらの記録画像2001、2002の間にデフォーカス状態があった画像であることを効果的かつ容易に認識することが可能になろう。また、合焦の対象としている被写体がデフォーカス状態からフォーカス状態に徐々に変化する複数の中間画像を挿入することにより、より効果的な演出が可能になる。なお、図21に示す例ではフェードイン、フェードアウトの中間画像を作成した。しかし特にフェードの処理でなくても、ワイプ処理等より効果的にデフォーカス状態を表現できるエフェクト効果であれば何でもよい。例えば、画像2001の高周波成分を抑えるローパスフィルタ処理を行った画像をPic2200とし、画像2002にも同様にローパスフィルタ処理を行って画像Pic2202を生成するようにしても良い。   By displaying these images over time in the order shown in FIG. 21, an effective intermediate image indicating that defocusing has once occurred is inserted between the images 2001 and 2002. Therefore, the viewer will be able to effectively and easily recognize that the recorded image 2001, 2002 is an image that is in a defocused state. Further, by inserting a plurality of intermediate images in which the subject to be focused on gradually changes from the defocused state to the focused state, a more effective performance can be achieved. In the example shown in FIG. 21, intermediate images of fade-in and fade-out are created. However, even if it is not a fade process, any effect can be used as long as it can express the defocus state more effectively than the wipe process. For example, an image that has been subjected to low-pass filter processing that suppresses high-frequency components of the image 2001 may be referred to as Pic2200, and the image 2002 may be generated by performing low-pass filter processing on the image 2002 as well.

また、上述したように実際に撮影された複数の画像について中間画像を作成して表示する場合、音声情報も連続して聞くことができればより効果的である。そこで、エフェクトモードで画像を記録する場合、CPU110は、デジタルカメラ100の音声情報を音声入力部121によって取得し、カメラ情報の一部としてメモリ117に記録するようにしてもよい。このように、音声情報も連続して記録媒体に記録しておき、画像再生時には、画像の再生と同期させて当該音声情報も出力することで、閲覧者が撮影時の状況をより一層把握し易くなろう。   In addition, as described above, when creating and displaying intermediate images for a plurality of actually captured images, it is more effective if audio information can be heard continuously. Therefore, when recording an image in the effect mode, the CPU 110 may acquire audio information of the digital camera 100 by the audio input unit 121 and record it in the memory 117 as part of the camera information. In this way, audio information is continuously recorded on a recording medium, and when reproducing an image, the audio information is also output in synchronization with the reproduction of the image, so that the viewer can further grasp the situation at the time of shooting. It will be easy.

なお、CPU110は、音声情報に関しては連続して記録し、その他の挙動履歴情報に関しては複数の画像データの生成間隔よりも短い所定間隔でもって記録するように制御してもよい。すなわち、音声情報が会話などであれば、連続して記録しておかないと再生時に会話の内容を把握しにくくなるからである。また、上述のカメラ情報などは、少なくともある画像の撮影と次の画像の撮影との間に発生したデジタルカメラの挙動を把握できれば、閲覧者は、撮影時の状況を容易に把握できるからである。   Note that the CPU 110 may control the audio information to be recorded continuously and the other behavior history information to be recorded at a predetermined interval shorter than the generation interval of the plurality of image data. That is, if the voice information is a conversation or the like, it is difficult to grasp the contents of the conversation at the time of reproduction unless it is continuously recorded. Moreover, if the above camera information etc. can grasp | ascertain the behavior of the digital camera which generate | occur | produced between the imaging | photography of a certain image and the imaging | photography of the next image at least, the viewer can grasp | ascertain the condition at the time of imaging | photography easily. .

上述の実施形態では中間画像の合成手法として、タイトル画像を使用する合成手法と、前後の画像を加算する合成手法とを一例として説明した。しかしながら、本発明はこれらの合成手法に限定されることはない。効果的な中間画像を合成できる手法であればどのような合成手法をも本発明は採用することができる。たとえば、ワイプ、モノトーン、モザイク、文字タイトル合成などの各種画像処理方法を合成手法として採用してもよい。   In the above-described embodiment, the synthesis method using the title image and the synthesis method of adding the preceding and succeeding images have been described as examples of the intermediate image synthesis method. However, the present invention is not limited to these synthesis methods. As long as it is a technique that can synthesize effective intermediate images, the present invention can adopt any composition technique. For example, various image processing methods such as wipe, monotone, mosaic, and character title composition may be employed as the composition method.

また同じ種類のカメラ情報の値でも、その値によって合成するレベルを変化させてもよい。たとえば、図10においてはズーム動作において2段階のタイトル画像を使用して2つの中間画像を合成生成したが、ズーム倍率の高いズームレンズを用いる場合は、より多くのタイトル画像を用いて中間画像を合成生成してもよい。   Further, even with the same type of camera information value, the level to be combined may be changed depending on the value. For example, in FIG. 10, two intermediate images are synthesized and generated using two-stage title images in the zoom operation. However, when a zoom lens with a high zoom magnification is used, intermediate images are obtained using more title images. It may be synthesized and generated.

図15は、実施形態に係る他のタイトル画像の一例を示す図である。この例では、ズーム動作を閲覧者に認識させ易くするための4つのタイトル画像が示されている。Tpic001からTpic004にかけて、開口部が徐々に小さくなっており、各開口部に実際に取得された画像の一部を切り出して合成し、4つの中間画像を生成することができる。   FIG. 15 is a diagram illustrating an example of another title image according to the embodiment. In this example, four title images for facilitating the viewer to recognize the zoom operation are shown. From Tpic001 to Tpic004, the openings are gradually reduced, and four intermediate images can be generated by cutting out and synthesizing part of the images actually acquired in each opening.

上述の実施形態においては、2枚の撮影された画像の中間画像として図11、図14、図19のように2枚、または3枚の中間画像を合成生成したが、本発明は、合成生成される中間画像の枚数が2枚や3枚に限定されるわけではない。すなわち、中間画像は1枚であってもよいし、4枚以上であってもよい。何枚の中間画像を生成するかは、合成手法のルールにおいて規定しておけばよい。   In the above-described embodiment, two or three intermediate images are synthesized and generated as shown in FIGS. 11, 14, and 19 as intermediate images of two captured images. The number of intermediate images to be performed is not limited to two or three. That is, the number of intermediate images may be one, or four or more. The number of intermediate images to be generated may be defined in the rules of the synthesis method.

また、上述の実施形態の一部では、カメラ情報の取得期間をある画像の撮影と次の画像の撮影との間の全期間として説明した。しかしながら、本発明はこれに限定されることはない。たとえば、ある画像を撮影してから次の画像を撮影するまでの間隔が、所定の閾値を超えるほど長くなったことをCPU110が検出すると、CPU110は、撮影時刻の前後所定期間内にカメラ情報の取得期間を制限してもよい。   In some of the above-described embodiments, the camera information acquisition period is described as the entire period between the shooting of a certain image and the shooting of the next image. However, the present invention is not limited to this. For example, when the CPU 110 detects that the interval from when one image is captured to when the next image is captured exceeds a predetermined threshold, the CPU 110 stores the camera information within a predetermined period before and after the imaging time. The acquisition period may be limited.

図16は、実施形態に係るカメラ情報の取得期間の一例を示す図である。この例で、CPU110は、撮影時刻前の期間TAと、撮影時刻後の期間TBについてカメラ情報を記録部116に記録するように制御する。なお、この制御方法は、撮影間隔が所定閾値を超えた場合に適用してもよいし、撮影間隔の如何に依存することなく適用してもよい。また、TAだけ、またはTBだけについてカメラ情報を記録してもよいし、TAおよびTBの双方の期間についてカメラ情報を記憶してもよい。すなわち、カメラ情報などの挙動履歴情報は、画像データが生成される前の所定の期間および生成後の所定期間の少なくとも一方について記録されればよい。   FIG. 16 is a diagram illustrating an example of a camera information acquisition period according to the embodiment. In this example, the CPU 110 controls to record the camera information in the recording unit 116 for the period TA before the shooting time and the period TB after the shooting time. This control method may be applied when the shooting interval exceeds a predetermined threshold, or may be applied without depending on the shooting interval. Further, camera information may be recorded only for TA or only for TB, or camera information may be stored for both periods of TA and TB. That is, behavior history information such as camera information may be recorded for at least one of a predetermined period before image data is generated and a predetermined period after generation.

このように、カメラ情報などの挙動履歴情報を全期間に渡って記録するというよりは、効果的な一部の期間に限定して記録することで、記録媒体の記録容量を節約しつつ、効果的な情報を記録することができる。   In this way, the behavior history information such as camera information is recorded over only a part of the effective period rather than recording over the entire period, thereby saving the recording capacity of the recording medium and Information can be recorded.

以上説明したように、撮像間隔よりも細かな間隔でカメラ情報を取得し、取得したカメラ情報を撮像された画像データに付加して記録する記録し、カメラ情報を元に撮像された複数の画像の中間画像を合成し、撮影された画像と合成された中間画像を表示するような構成とすることで、画像間に効果的な中間画像を挿入することが可能になる。それにより閲覧者は画像が撮影された状況を効果的に把握する事ができる。また従来の再生方法のように単に静止画像を順番に再生する手法と比較して視覚的に変化に富む再生が可能になり、より楽しく閲覧する事が可能となる。   As described above, camera information is acquired at intervals finer than the imaging interval, the acquired camera information is added to the captured image data, recorded, and recorded, and a plurality of images captured based on the camera information Thus, it is possible to insert an effective intermediate image between the images by combining the intermediate images and displaying the combined intermediate image. As a result, the viewer can effectively grasp the situation where the image is taken. Further, compared with a method of simply reproducing still images in order as in the conventional reproducing method, it is possible to reproduce with a variety of visual changes, and it is possible to browse more happily.

また、本形態では画像データのカメラ信号処理、符号化、復号化処理、画像合成処理等をハード構成にて実現したが、コンピュータを用いたソフトウェア処理にて実現してもよい。この場合、前記ソフトウェアのプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード自体、およびそのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムコードを格納した記憶媒体は本発明を構成する。かかるプログラムコードを記憶する記憶媒体としては、例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   In this embodiment, camera signal processing, encoding, decoding processing, image composition processing, and the like of image data are realized by a hardware configuration, but may be realized by software processing using a computer. In this case, the program code of the software itself realizes the functions of the above-described embodiments, and the program code itself and means for supplying the program code to the computer, for example, a memory storing the program code The medium constitutes the present invention. As a storage medium for storing the program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、コンピュータが供給されたプログラムコードを実行することにより、上述の実施の形態で説明機能が実現されるだけでなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)或いは他のアプリケーションソフト等の共同して上述の実施の形態で示した機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。   Further, by executing the program code supplied by the computer, not only the functions described in the above embodiments are realized, but also the OS (Operating System) or other application in which the program code is running on the computer. It goes without saying that the program code is also included in the embodiment of the present invention even when the functions described in the above-described embodiment are realized in cooperation with software or the like.

さらに、供給されたプログラムコードがコンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後、そのプログラムコードの指示に基づいてその機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合にも本発明に含まれる。   Further, after the supplied program code is stored in the memory provided in the function expansion board of the computer or the function expansion unit connected to the computer, the CPU provided in the function expansion board or function expansion unit based on the instruction of the program code The present invention also includes the case where the functions of the above-described embodiment are realized by performing part or all of the actual processing.

図17は、実施形態に係る画像再生装置の例示的なブロック図である。本画像再生装置は、単体の画像再生装置として実現してもよいし、画像再生プログラムを実行するコンピュータとして実現されてもよい。   FIG. 17 is an exemplary block diagram of the image reproducing device according to the embodiment. This image reproduction apparatus may be realized as a single image reproduction apparatus or a computer that executes an image reproduction program.

CPU1701は、画像再生装置の各部を統括的に制御する制御回路である。RAM1702は、一時的なデータを格納するために使用される記憶回路である。ROM1703は、ブートプログラムなどを記憶する記憶回路である。表示制御部1704は、表示装置1705に表示するための画像信号を生成する回路である。記録媒体インターフェース1706は、上述の記録部116の記録媒体1707を接続して、画像データなどを読み書きするための制御回路である。ハードディスクドライブ1710は、画像再生プログラム1711、記録媒体1707から読み出した複数の画像データ1712、挙動履歴関連情報1713および中間画像データ1714を記憶する記憶装置である。   A CPU 1701 is a control circuit that comprehensively controls each unit of the image reproduction apparatus. The RAM 1702 is a storage circuit used for storing temporary data. The ROM 1703 is a storage circuit that stores a boot program and the like. The display control unit 1704 is a circuit that generates an image signal to be displayed on the display device 1705. A recording medium interface 1706 is a control circuit for connecting the recording medium 1707 of the recording unit 116 and reading / writing image data and the like. The hard disk drive 1710 is a storage device that stores an image reproduction program 1711, a plurality of image data 1712 read from the recording medium 1707, behavior history related information 1713, and intermediate image data 1714.

図18は、実施形態に係る画像再生方法の例示的なフローチャートである。なお、本フローチャートに係る処理は、上述の図7において説明した処理と同様であることはいうまでもない。なお、以下では、予め、記録媒体1707から読み出した複数の画像データ1712と、挙動履歴情報1713とをハードディスクドライブ1710に書き込んだ上で処理するものとして説明するが、もちろん、記録媒体1707に直接アクセスしながら再生処理を実行してもよいことはいうまでもない。また、画像データ1712と挙動履歴情報1713とが画像ファイルを形成していてもよいことは、上述したとおりである。   FIG. 18 is an exemplary flowchart of an image reproduction method according to the embodiment. Needless to say, the processing according to this flowchart is the same as the processing described in FIG. In the following description, it is assumed that a plurality of image data 1712 read from the recording medium 1707 and behavior history information 1713 are written in the hard disk drive 1710 before processing, but of course, the recording medium 1707 is directly accessed. Needless to say, the reproduction process may be executed. As described above, the image data 1712 and the behavior history information 1713 may form an image file.

ステップS1801において、CPU1701は、エフェクトモードで再生するか否かを決定する。たとえば、ユーザによる設定情報に従って、エフェクトモードで再生するか、通常モードで再生するかを決定する。エフェクトモードが選択されていれば、ステップS1802に進み、そうでなければ、ステップS1805に進み、通常のスライドショー再生を実行する。   In step S1801, the CPU 1701 determines whether or not to reproduce in the effect mode. For example, according to the setting information by the user, it is determined whether to reproduce in the effect mode or normal mode. If the effect mode is selected, the process proceeds to step S1802, and if not, the process proceeds to step S1805 to execute normal slide show reproduction.

ステップS1802において、CPU1701は、デジタルカメラ100などの画像記録装置において被写体を撮像して生成された複数の画像データ1712と、これらの複数の画像データを生成するのと並行してその間におけるデジタルカメラ100の挙動に関する挙動履歴情報1713とを、ハードディスクドライブ1710または記録媒体1707から読み出す。   In step S1802, the CPU 1701 generates a plurality of image data 1712 generated by capturing an image of a subject in an image recording apparatus such as the digital camera 100, and the digital camera 100 in between the generation of the plurality of image data. Behavior history information 1713 relating to the behavior of the hard disk drive 1710 or the recording medium 1707 is read out.

ステップS1803において、CPU1701は、読み出した挙動歴情報1713に応じて、複数の画像データ1712を生成した際のデジタルカメラ100の挙動を反映した1以上の中間画像データ1714を生成する。中間画像データを生成する際の合成手法などは上述したとおりである。   In step S1803, the CPU 1701 generates one or more intermediate image data 1714 reflecting the behavior of the digital camera 100 when a plurality of image data 1712 is generated, according to the read behavior history information 1713. The synthesis method and the like when generating the intermediate image data are as described above.

ステップS1804において、CPU1701は、複数の画像データ1712と、生成した中間画像データとを時系列に沿って再生する。   In step S1804, the CPU 1701 reproduces the plurality of image data 1712 and the generated intermediate image data in time series.

このように、本実施形態に係る画像再生方法は、画像を記録した画像記録再生装置において実行してもよいし、当該画像と挙動履歴情報とが記録された記録媒体を画像再生装置に接続することでも実行してもよい。また、図18に画像再生方法を画像再生プログラム1711として実現できることもいうまでもない。   As described above, the image reproducing method according to the present embodiment may be executed in the image recording / reproducing apparatus in which the image is recorded, or the recording medium in which the image and the behavior history information are recorded is connected to the image reproducing apparatus. It may be executed. Also, it goes without saying that the image reproduction method can be realized as an image reproduction program 1711 in FIG.

実施形態に係る画像記録再生装置に関する例示的なブロック図である。1 is an exemplary block diagram relating to an image recording / reproducing apparatus according to an embodiment. 実施形態に係る操作部の主要な操作スイッチの一例を示す図である。It is a figure which shows an example of the main operation switches of the operation part which concerns on embodiment. 実施形態に係る記録モードでの例示的な動作を示すフローチャートである。6 is a flowchart showing an exemplary operation in a recording mode according to the embodiment. 実施形態に係る発明の概念を示した図である。It is the figure which showed the concept of the invention which concerns on embodiment. 実施形態に係る画像データとカメラ情報を含む画象ファイルの構成例を示す図である。It is a figure which shows the structural example of the image file containing the image data and camera information which concern on embodiment. 実施形態に係る操作部の他の設定状態を示す図である。It is a figure which shows the other setting state of the operation part which concerns on embodiment. 実施形態に係る画像データの再生処理に関する例示的なフローチャートである。5 is an exemplary flowchart regarding image data reproduction processing according to the embodiment. 実施形態に係る画像記録処理についての実施例を示す図である。It is a figure which shows the Example about the image recording process which concerns on embodiment. 実施形態に係る画像記録処理によって取得された2つの画像の実施例を示す図である。It is a figure which shows the Example of two images acquired by the image recording process which concerns on embodiment. 中間画像の生成に使用されるタイトル画像の実施例を示す図である。It is a figure which shows the Example of the title image used for the production | generation of an intermediate image. 実施形態における画象再生処理についての実施例を示す図である。It is a figure which shows the Example about the image reproduction process in embodiment. 実施形態に係る画像記録処理についての実施例を示す図である。It is a figure which shows the Example about the image recording process which concerns on embodiment. 実施形態に係る画像記録処理によって取得された2つの画像の実施例を示す図である。It is a figure which shows the Example of two images acquired by the image recording process which concerns on embodiment. パンニングを効果的に示す中間画像の実施例を示す図である。It is a figure which shows the Example of the intermediate image which shows panning effectively. 実施形態に係る他のタイトル画像の一例を示す図である。It is a figure which shows an example of the other title image which concerns on embodiment. 実施形態に係るカメラ情報の取得期間の一例を示す図である。It is a figure which shows an example of the acquisition period of the camera information which concerns on embodiment. 実施形態に係る画像再生装置の例示的なブロック図である。1 is an exemplary block diagram of an image reproduction device according to an embodiment. 実施形態に係る画像再生方法の例示的なフローチャートである。4 is an exemplary flowchart of an image reproduction method according to the embodiment. 実施形態に係る画像記録処理についての実施例を示す図である。It is a figure which shows the Example about the image recording process which concerns on embodiment. 実施形態に係る画像記録処理によって取得された2つの画像の実施例を示す図である。It is a figure which shows the Example of two images acquired by the image recording process which concerns on embodiment. デフォーカス状態を効果的に示す中間画像の実施例を示す図である。It is a figure which shows the Example of the intermediate image which shows a defocus state effectively.

符号の説明Explanation of symbols

100:デジタルカメラ
101:VAP
102:ズームレンズ
103:絞り
104:CCD(撮像素子)
105:タイミングジェネレータ
106:A/D変換部
107:ドライブ回路
108:水平加速度センサ
109:垂直加速度センサ
110:CPU
111:操作部
112:カメラ信号処理部
113:CODEC
114:エフェクト画像合成部
115:I/F部
116:記録部
117:メモリ
118:表示制御部
119:表示部
120:システムバス
121:音声入力部
100: Digital camera 101: VAP
102: Zoom lens 103: Aperture 104: CCD (imaging device)
105: Timing generator 106: A / D converter 107: Drive circuit 108: Horizontal acceleration sensor 109: Vertical acceleration sensor 110: CPU
111: Operation unit 112: Camera signal processing unit 113: CODEC
114: Effect image composition unit 115: I / F unit 116: Recording unit 117: Memory 118: Display control unit 119: Display unit 120: System bus 121: Audio input unit

Claims (12)

画像データを記録再生する画像記録再生装置であって、
被写体を撮像して該被写体の画像データを生成する画像生成手段と、
前記画像生成手段により複数の画像データを生成するのと並行して、その間における前記画像記録再生装置の挙動に関する挙動情報を記録する記録手段と、
複数の前記画像データと前記挙動情報とを記憶する記憶手段と、
前記画像データの再生処理時に、複数の前記画像データと前記挙動情報とを前記記憶手段から読み出し、複数の該画像データを生成した際の前記画像記録再生装置の挙動を反映した1以上の中間画像データを該挙動情報に応じて生成する中間画像生成手段と、
複数の前記画像データと前記中間画像データとを時系列に沿って再生する再生手段と
を含む画像記録再生装置。
An image recording / reproducing apparatus for recording / reproducing image data,
Image generating means for imaging a subject and generating image data of the subject;
In parallel with generating a plurality of image data by the image generation means, recording means for recording behavior information regarding the behavior of the image recording / playback apparatus in the meantime,
Storage means for storing a plurality of the image data and the behavior information;
One or more intermediate images reflecting the behavior of the image recording / reproducing apparatus when a plurality of the image data and the behavior information are read from the storage unit and a plurality of the image data are generated during the reproduction processing of the image data Intermediate image generating means for generating data according to the behavior information;
An image recording / reproducing apparatus including reproduction means for reproducing a plurality of the image data and the intermediate image data in time series.
前記中間画像生成手段において、複数の前記画像データから前記中間画像データを合成して生成する際に、前記挙動情報を元に合成手法を決定する合成手法決定手段をさらに含む、請求項1に記載の画像記録再生装置。   2. The method according to claim 1, further comprising: a synthesis method determination unit that determines a synthesis method based on the behavior information when the intermediate image generation unit generates the intermediate image data from a plurality of the image data. Image recording and playback device. 前記合成手法の1つは、前記画像データと所定のタイトル画像データとを合成して前記中間画像データを合成生成する方法である、請求項2に記載の画像記録再生装置。   The image recording / reproducing apparatus according to claim 2, wherein one of the combining methods is a method of combining and generating the intermediate image data by combining the image data and predetermined title image data. 前記合成手法の1つは、複数の前記画像データを任意の比率で加算させて前記中間画像データを合成生成する方法である、請求項2または3に記載の画像記録再生装置。   4. The image recording / reproducing apparatus according to claim 2, wherein one of the combining methods is a method of combining and generating the intermediate image data by adding a plurality of the image data at an arbitrary ratio. 前記挙動情報は、パン、チルト、ズーム制御、露出制御、色制御、合焦制御等に代表されるカメラ情報である、請求項1ないし4の何れかに記載の画像記録再生装置。 5. The image recording / reproducing apparatus according to claim 1, wherein the behavior information is camera information represented by pan, tilt, zoom control, exposure control, color control, focus control, and the like. 前記挙動情報は、前記画像データが生成される前の所定の期間および生成後の所定期間の少なくとも一方について記録され、該画像データとともに画像ファイルとして前記記憶手段に記憶される、請求項1ないし5の何れかに記載の画像記録再生装置。   6. The behavior information is recorded for at least one of a predetermined period before the image data is generated and a predetermined period after the generation, and is stored in the storage unit as an image file together with the image data. An image recording / reproducing apparatus according to any one of the above. 前記挙動情報の一部として前記画像記録再生装置の背景音を記録する音声記録手段をさらに備える、請求項1ないし6の何れかに記載の画像記録再生装置。   The image recording / reproducing apparatus according to claim 1, further comprising an audio recording unit that records a background sound of the image recording / reproducing apparatus as part of the behavior information. 前記挙動情報のうち、前記背景音に関しては連続して記録し、その他の情報に関しては、前記複数の画像データの生成間隔よりも短い所定間隔置きに記録する、請求項7に記載の画像記録再生装置。   The image recording / reproducing according to claim 7, wherein the background sound is continuously recorded in the behavior information, and the other information is recorded at predetermined intervals shorter than a generation interval of the plurality of image data. apparatus. 画像データを記録再生する画像記録再生装置の画像記録再生方法であって、
被写体を撮像して該被写体の画像データを生成するステップと、
複数の前記画像データを生成するのと並行して、その間における前記画像記録再生装置の挙動に関する挙動情報を記録するステップと、
複数の前記画像データと前記挙動情報とを記録媒体に記録するステップと、
前記画像データの再生処理時に、複数の前記画像データと前記挙動情報とを前記記録媒体から読み出し、複数の該画像データを生成した際の前記画像記録再生装置の挙動を反映した1以上の中間画像データを該挙動情報に応じて生成するステップと、
複数の前記画像データと前記中間画像データとを時系列に沿って再生するステップと
を含む画像記録再生方法。
An image recording / reproducing method of an image recording / reproducing apparatus for recording / reproducing image data, comprising:
Imaging a subject to generate image data of the subject;
Concurrently with generating a plurality of the image data, recording behavior information relating to the behavior of the image recording / playback apparatus in the meantime,
Recording a plurality of the image data and the behavior information on a recording medium;
One or more intermediate images reflecting the behavior of the image recording / reproducing apparatus when a plurality of the image data and the behavior information are read from the recording medium and a plurality of the image data are generated during the reproduction processing of the image data Generating data according to the behavior information;
And a step of reproducing the plurality of image data and the intermediate image data in time series.
画像記録装置において生成された画像データを再生する画像再生装置であって、
前記画像記録装置において被写体を撮像して生成された複数の画像データと、複数の該画像データを生成するのと並行して、その間における前記画像記録装置の挙動に関する挙動情報とが記憶された記録媒体から、複数の前記画像データと前記挙動情報とを読み出し、複数の該画像データを生成した際の前記画像記録装置の挙動を反映した1以上の中間画像データを該挙動情報に応じて生成する中間画像生成手段と、
複数の前記画像データと前記中間画像データとを時系列に沿って再生する再生手段と
を含む画像再生装置。
An image reproduction device for reproducing image data generated in an image recording device,
A recording in which a plurality of image data generated by capturing an image of a subject in the image recording device and behavior information regarding the behavior of the image recording device in between are generated in parallel with the generation of the plurality of image data. A plurality of the image data and the behavior information are read from the medium, and one or more intermediate image data reflecting the behavior of the image recording apparatus when the plurality of the image data are generated are generated according to the behavior information. Intermediate image generating means;
An image reproduction apparatus including reproduction means for reproducing a plurality of the image data and the intermediate image data in time series.
画像記録装置において生成された画像データを再生する画像再生方法であって、
前記画像記録装置において被写体を撮像して生成された複数の画像データと、複数の該画像データを生成するのと並行して、その間における前記画像記録装置の挙動に関する挙動情報とが記録された記録媒体から、複数の前記画像データと前記挙動情報とを読み出し、複数の該画像データを生成した際の前記画像記録装置の挙動を反映した1以上の中間画像データを該挙動情報に応じて生成するステップと、
複数の前記画像データと前記中間画像データとを時系列に沿って再生するステップと
を含む画像再生方法。
An image reproduction method for reproducing image data generated in an image recording apparatus,
A recording in which a plurality of image data generated by capturing an image of a subject in the image recording device and behavior information regarding the behavior of the image recording device in between are generated in parallel with the generation of the plurality of image data. A plurality of the image data and the behavior information are read from the medium, and one or more intermediate image data reflecting the behavior of the image recording apparatus when the plurality of the image data are generated are generated according to the behavior information. Steps,
And a step of reproducing the plurality of image data and the intermediate image data in time series.
画像記録装置において生成された画像データをコンピュータにおいて再生するコンピュータプログラムであって、
前記コンピュータに対して、
前記画像記録装置において被写体を撮像して生成された複数の画像データと、複数の該画像データを生成するのと並行して、その間における前記画像記録装置の挙動に関する挙動情報とが記録された記録媒体から、複数の前記画像データと前記挙動情報とを読み出し、複数の該画像データを生成した際の前記画像記録装置の挙動を反映した1以上の中間画像データを該挙動情報に応じて生成するステップと、
複数の前記画像データと前記中間画像データとを時系列に沿って再生するステップと
を実行させる、コンピュータプログラム。
A computer program for reproducing image data generated in an image recording apparatus on a computer,
For the computer
A recording in which a plurality of image data generated by capturing an image of a subject in the image recording device and behavior information regarding the behavior of the image recording device in between are generated in parallel with the generation of the plurality of image data. A plurality of the image data and the behavior information are read from the medium, and one or more intermediate image data reflecting the behavior of the image recording apparatus when the plurality of the image data are generated are generated according to the behavior information. Steps,
A computer program for executing a step of reproducing a plurality of the image data and the intermediate image data in time series.
JP2004363678A 2004-12-15 2004-12-15 Image recording reproducing device and image recording reproducing method Withdrawn JP2006174086A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004363678A JP2006174086A (en) 2004-12-15 2004-12-15 Image recording reproducing device and image recording reproducing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004363678A JP2006174086A (en) 2004-12-15 2004-12-15 Image recording reproducing device and image recording reproducing method

Publications (1)

Publication Number Publication Date
JP2006174086A true JP2006174086A (en) 2006-06-29

Family

ID=36674360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004363678A Withdrawn JP2006174086A (en) 2004-12-15 2004-12-15 Image recording reproducing device and image recording reproducing method

Country Status (1)

Country Link
JP (1) JP2006174086A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193333A (en) * 2007-02-02 2008-08-21 Casio Comput Co Ltd Image reproducing device, image display method and program
JP2008258926A (en) * 2007-04-04 2008-10-23 Olympus Imaging Corp Image reproducing device, image reproduction program, recording medium, and image reproducing method
JP2013146103A (en) * 2013-04-09 2013-07-25 Olympus Imaging Corp Reproduction display device and reproduction display method
JP2013229806A (en) * 2012-04-26 2013-11-07 Toshiba Corp Remote inspection device and monitoring device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193333A (en) * 2007-02-02 2008-08-21 Casio Comput Co Ltd Image reproducing device, image display method and program
JP4760725B2 (en) * 2007-02-02 2011-08-31 カシオ計算機株式会社 Image reproduction apparatus, image display method, and program
JP2008258926A (en) * 2007-04-04 2008-10-23 Olympus Imaging Corp Image reproducing device, image reproduction program, recording medium, and image reproducing method
JP2013229806A (en) * 2012-04-26 2013-11-07 Toshiba Corp Remote inspection device and monitoring device
JP2013146103A (en) * 2013-04-09 2013-07-25 Olympus Imaging Corp Reproduction display device and reproduction display method

Similar Documents

Publication Publication Date Title
CN101263706B (en) Imaging device and recording method
JP5279589B2 (en) Video recording / reproducing apparatus and control method thereof
JP5806623B2 (en) Imaging apparatus, imaging method, and program
US20060238627A1 (en) Camera apparatus capable of switching reduced guide image upon playback of magnified image, and image displaying method
JP2012015830A (en) Camera
US20090109323A1 (en) Image pick-up apparatus, image playback apparatus, method of controlling a recording operation, method of controlling a displaying operation, and recording medium
JP4378325B2 (en) Apparatus and method for controlling recording of number of moving images and apparatus and method for reproducing still image
US20070081812A1 (en) Camera apparatus having a moving image playback function in multiple image selection screen
JP4767900B2 (en) Image reproducing apparatus, image reproducing program, recording medium, and image reproducing method
JP2008118481A (en) Image recording apparatus, image recording method, program and storage medium
JP2003304492A (en) Image processing device
JP2006174086A (en) Image recording reproducing device and image recording reproducing method
JP4698961B2 (en) Electronic camera and electronic camera control program
JP4810485B2 (en) Image processing apparatus, image processing method, and computer program
JP2005348178A (en) Moving picture recording apparatus and moving picture indicator method, and storage medium
JP2008097727A (en) Animation-reproducing device
US20080151060A1 (en) Camera apparatus and chapter data generating method in camera apparatus
JP4915978B2 (en) Movie playback apparatus and program thereof
JP2009246775A (en) Image reproducing device
JP4177081B2 (en) Image reproducing apparatus and method
JP2005328154A (en) Recording apparatus, file dividing method, and program
JP2011139300A (en) Image processing apparatus and program
JP6006567B2 (en) Movie playback apparatus and movie playback method
JP5593652B2 (en) Camera and movie playback program
JP2010239363A (en) Moving image processing device, moving image reproduction method, moving image recording method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080304