JPWO2013065242A1 - Image generating apparatus, imaging apparatus, and program - Google Patents

Image generating apparatus, imaging apparatus, and program Download PDF

Info

Publication number
JPWO2013065242A1
JPWO2013065242A1 JP2013541602A JP2013541602A JPWO2013065242A1 JP WO2013065242 A1 JPWO2013065242 A1 JP WO2013065242A1 JP 2013541602 A JP2013541602 A JP 2013541602A JP 2013541602 A JP2013541602 A JP 2013541602A JP WO2013065242 A1 JPWO2013065242 A1 JP WO2013065242A1
Authority
JP
Japan
Prior art keywords
image data
still image
still
imaging
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013541602A
Other languages
Japanese (ja)
Other versions
JP5991495B2 (en
Inventor
英洋 小川
英洋 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013541602A priority Critical patent/JP5991495B2/en
Publication of JPWO2013065242A1 publication Critical patent/JPWO2013065242A1/en
Application granted granted Critical
Publication of JP5991495B2 publication Critical patent/JP5991495B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/745Detection of flicker frequency or suppression of flicker wherein the flicker is caused by illumination, e.g. due to fluorescent tube illumination or pulsed LED illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8047Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

画像生成装置は、予め定められた時間間隔で撮像することにより取得された複数の静止画データを取得する画像取得部と、複数の静止画データのうちの第1静止画データと第2静止画データとを合成して第1合成画像データを生成し、複数の静止画データのうちの第3静止画データと第4静止画データとを合成して第2合成画像データを生成する合成画像生成部と、第1合成画像データおよび第2合成画像データを用いて、合成画像データの再生間隔が予め定められた時間間隔より短い動画データを生成する動画生成部と、を備える。The image generation device includes an image acquisition unit that acquires a plurality of still image data acquired by imaging at predetermined time intervals, and a first still image data and a second still image among the plurality of still image data. The composite image generation that generates the first composite image data by combining the data and generates the second composite image data by combining the third still image data and the fourth still image data among the plurality of still image data And a moving image generation unit that generates moving image data having a reproduction interval of the combined image data shorter than a predetermined time interval using the first combined image data and the second combined image data.

Description

本発明は、画像生成装置、撮像装置およびプログラムに関する。   The present invention relates to an image generation device, an imaging device, and a program.

静止画像にて情報を取込み記憶させた後に、動画像へと変換を行う技術が知られている(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開平11−231385号公報
A technique is known in which information is captured and stored in a still image and then converted into a moving image (see, for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP-A-11-231385

複数の静止画データを動画化して再生すると、見にくい映像になってしまう場合がある。例えば、静止画撮像時のシャッタスピードが速いと、被写体の変化が滑らかに見えない動画になってしまう。また、撮像時の露出にばらつきがあると、ちらつきが大きく見える動画になってしまう。   When a plurality of still image data is converted into a moving image and reproduced, the image may be difficult to view. For example, if the shutter speed at the time of taking a still image is high, the change in the subject does not look smooth. In addition, if there is a variation in exposure at the time of image capture, the video appears to flicker greatly.

本発明の第1の態様においては、画像生成装置は、予め定められた時間間隔で撮像することにより取得された複数の静止画データを取得する画像取得部と、複数の静止画データのうちの第1静止画データと第2静止画データとを合成して第1合成画像データを生成し、複数の静止画データのうちの第3静止画データと第4静止画データとを合成して第2合成画像データを生成する合成画像生成部と、第1合成画像データおよび第2合成画像データを用いて、合成画像データの再生間隔が予め定められた時間間隔より短い時間間隔で再生される動画データを生成する動画生成部と、を備える。   In the first aspect of the present invention, an image generation device includes an image acquisition unit that acquires a plurality of still image data acquired by imaging at predetermined time intervals, and a plurality of still image data. The first still image data and the second still image data are combined to generate first combined image data, and the third still image data and the fourth still image data of the plurality of still image data are combined to form the first still image data. 2. A moving image that is reproduced at a time interval shorter than a predetermined time interval by using a composite image generating unit that generates composite image data and the first composite image data and the second composite image data. A moving image generation unit for generating data.

本発明の第2の態様においては、撮像装置は、予め定められた時間間隔で複数の静止画を撮像する撮像部と、複数の静止画の静止画データを用いて動画データを生成する上記画像生成部と、を備える。   In the second aspect of the present invention, the imaging device generates the moving image data using the imaging unit that captures a plurality of still images at predetermined time intervals and the still image data of the plurality of still images. A generating unit.

本発明の第3の態様においては、プログラムは、予め定められた時間間隔で撮像することにより取得された複数の静止画データを取得するステップと、複数の静止画データのうちの第1静止画データと第2静止画データとを合成して第1合成画像データを生成し、複数の静止画データのうちの第3静止画データと第4静止画データとを合成して第2合成画像データを生成するステップと、第1合成画像データおよび第2合成画像データを用いて、合成画像データの再生間隔が予め定められた時間間隔より短い動画データを生成するステップと、をコンピュータに実行させる。   In the third aspect of the present invention, the program acquires a plurality of still image data acquired by imaging at a predetermined time interval, and a first still image of the plurality of still image data The first still image data is generated by combining the data and the second still image data, and the second still image data is generated by combining the third still image data and the fourth still image data among the plurality of still image data. And generating a moving image data having a reproduction interval of the composite image data shorter than a predetermined time interval using the first composite image data and the second composite image data.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

一実施形態にかかるカメラ2のブロック構成を示す。1 shows a block configuration of a camera 2 according to an embodiment. 微速度撮影に関する設定画面の一例を示す。An example of the setting screen regarding time-lapse photography is shown. 微速度撮影で得られた静止画データおよび動画のフレームを模式的に示す。The still image data and moving image frame obtained by time-lapse photography are schematically shown. 静止画データに対する合成処理の一例を示す。An example of the composition process with respect to still image data is shown. 静止画データに対する更なる他の合成処理の一例を示す。An example of the further another synthetic | combination process with respect to still image data is shown. 静止画データに対する他の合成処理の一例を示す。An example of another synthesis process for still image data is shown. カメラ2の起動から終了までの処理フローを示す。A processing flow from the start to the end of the camera 2 is shown. 撮像を伴う処理フローの一例を示す。An example of the processing flow accompanied with imaging is shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一実施形態にかかるカメラ2のブロック構成を示す。レンズ交換式カメラの一例である一眼レフレックスカメラとしてのカメラ2は、レンズ4、ミラー12、ファインダ部8、撮像素子26、A/D変換回路30、タイミングジェネレータ28、画像処理ブロック22、CPU16、表示装置18、操作部材20、画像表示装置36、記録媒体44を備える。画像処理ブロック22は、イメージメモリ34、表示回路38、画像処理回路24を有する。   FIG. 1 shows a block configuration of a camera 2 according to an embodiment. A camera 2 as a single-lens reflex camera, which is an example of an interchangeable lens camera, includes a lens 4, a mirror 12, a finder unit 8, an image sensor 26, an A / D conversion circuit 30, a timing generator 28, an image processing block 22, a CPU 16, A display device 18, an operation member 20, an image display device 36, and a recording medium 44 are provided. The image processing block 22 includes an image memory 34, a display circuit 38, and an image processing circuit 24.

撮像準備段階では、被写体光束はミラー12によりファインダ部8に導かれ、被写体像をユーザに提示させることができる。ファインダ部8には被写体光束を測光する測光素子が設けられており、測光素子の出力は適正露出の算出に用いられる。ユーザ等から撮像指示を受けると、ミラー12がアップするとともにシャッタ13が開くことによって、レンズ4により結像した被写体光束が撮像素子26に投影される。   In the imaging preparation stage, the subject luminous flux is guided to the finder unit 8 by the mirror 12, and the subject image can be presented to the user. The finder unit 8 is provided with a photometric element that measures the subject luminous flux, and the output of the photometric element is used to calculate the proper exposure. When an imaging instruction is received from a user or the like, the subject light beam formed by the lens 4 is projected onto the imaging element 26 by raising the mirror 12 and opening the shutter 13.

撮像素子26は、レンズ4で結像した被写体光束を電気信号に変換する。撮像素子26としては、CMOS、CCD等の固体撮像素子を例示することができる。撮像素子26は、タイミングジェネレータ28により与えられるタイミング信号により、蓄積電荷のアナログ信号を生成して出力する。A/D変換回路30は、撮像素子26から出力された信号を、画像データを示すデジタル信号に変換して画像処理ブロック22に出力する。   The image sensor 26 converts the subject light beam formed by the lens 4 into an electric signal. Examples of the imaging element 26 include solid-state imaging elements such as CMOS and CCD. The image sensor 26 generates and outputs an analog signal of accumulated charges based on the timing signal given by the timing generator 28. The A / D conversion circuit 30 converts the signal output from the image sensor 26 into a digital signal indicating image data and outputs the digital signal to the image processing block 22.

イメージメモリ34は、撮像素子26が撮像することにより得られた画像データを一時的に記憶する。撮像素子26が複数回の撮像動作を行った場合、各回の撮像動作に対応する複数の画像データがイメージメモリ34に記憶される。カメラ2が静止画を撮像した場合、静止画の画像データがイメージメモリ34に記憶される。カメラ2が動画としての複数の画像を撮像した場合、撮像された複数の画像に対応する複数の画像データが、動画データを構成する複数のフレームとしてイメージメモリ34に記憶される。   The image memory 34 temporarily stores image data obtained by imaging by the image sensor 26. When the imaging element 26 performs the imaging operation a plurality of times, a plurality of image data corresponding to each imaging operation is stored in the image memory 34. When the camera 2 captures a still image, the image data of the still image is stored in the image memory 34. When the camera 2 captures a plurality of images as a moving image, a plurality of image data corresponding to the captured plurality of images is stored in the image memory 34 as a plurality of frames constituting the moving image data.

画像処理回路24は、イメージメモリ34に記憶されている画像データに対して各種画像処理を行う。表示回路38は、撮像により得られた画像データを、画像表示装置36に画像として表示させる。また、表示回路38は、カメラ2の動作を設定する各種設定メニューを、画像表示装置36に表示させる。画像表示装置36は、表示回路38にて生成された信号に従って、画像や各種設定メニューを表示する。画像表示装置36としては、TFT液晶等のカラーの液晶デバイスを例示することができる。   The image processing circuit 24 performs various image processing on the image data stored in the image memory 34. The display circuit 38 causes the image display device 36 to display the image data obtained by imaging as an image. In addition, the display circuit 38 causes the image display device 36 to display various setting menus for setting the operation of the camera 2. The image display device 36 displays an image and various setting menus according to the signal generated by the display circuit 38. An example of the image display device 36 is a color liquid crystal device such as a TFT liquid crystal.

記録媒体44は、画像処理回路24で処理された画像データを記録する。記録媒体44は、不揮発性の記録媒体であってよい。記録媒体44としては、半導体メモリ等の、カメラ2に対して着脱可能なメモリーカードを例示することができる。   The recording medium 44 records the image data processed by the image processing circuit 24. The recording medium 44 may be a non-volatile recording medium. An example of the recording medium 44 is a memory card such as a semiconductor memory that can be attached to and detached from the camera 2.

例えば、記録媒体44は、画像処理回路で生成された画像データを記録する。例えばカメラ2が静止画を撮像した場合、静止画の画像データである静止画データは、JPEG等の静止画データ用の符号化方式で符号化され、静止画ファイルのデータとして記録媒体44に記録される。記録媒体44は、静止画データをRAW形式のデータとして記録してもよい。静止画データが記録媒体44に記録される場合、Exif形式の画像ファイルのデータとして記録されてよい。撮像時刻等の情報が、Exifのヘッダ情報に含めて記録されてよい。ヘッダ情報に含まれる撮像時刻の情報は、後述する微速度撮影で得られた画像ファイルであるか否かを判断する場合に用いられてよい。なお、静止画を撮像して記録することができる動作モードを静止画モードと呼び、微速度撮影を行う動作モードを微速度撮影モードと呼ぶ。   For example, the recording medium 44 records image data generated by the image processing circuit. For example, when the camera 2 captures a still image, still image data that is image data of the still image is encoded by a still image data encoding method such as JPEG, and is recorded on the recording medium 44 as still image file data. Is done. The recording medium 44 may record still image data as RAW format data. When still image data is recorded on the recording medium 44, it may be recorded as data in an Exif format image file. Information such as the imaging time may be included in Exif header information and recorded. The information on the imaging time included in the header information may be used when determining whether or not the image file is obtained by time-lapse photography described later. Note that an operation mode capable of capturing and recording a still image is referred to as a still image mode, and an operation mode for performing time-lapse shooting is referred to as a time-lapse shooting mode.

記録媒体44は、動画データを構成する複数のフレームを、Motion JPEG、H.264等の規格に準拠した動画データとして記録してよい。一例としてカメラ2は、動画を構成する画像を撮像する場合には1秒間に24〜60コマ程度の撮像レートで撮像する。撮像により得られた複数のフレームは、撮像レートと同じ表示レートで表示される動画データに符号化されてよい。なお、動画を構成する画像を撮像して動画データを記録することができる動作モードを動画モードと呼ぶ。   The recording medium 44 stores a plurality of frames constituting the moving image data by Motion JPEG, H.264, and the like. You may record as moving image data based on standards, such as H.264. As an example, the camera 2 captures images at an imaging rate of about 24 to 60 frames per second when capturing images constituting a moving image. The plurality of frames obtained by imaging may be encoded into moving image data displayed at the same display rate as the imaging rate. Note that an operation mode in which images constituting a moving image can be captured and moving image data can be recorded is referred to as a moving image mode.

CPU16は、カメラ2の全体の制御を行う。表示装置18は、カメラ2の状態等を表示する。表示装置18は、簡易的な表示を行う液晶デバイス等であってよい。操作部材20は、ユーザからの指示を取得する。操作部材20としては、電源スイッチ、レリーズボタン、ライブビューボタン等を例示することができる。CPU16は、操作部材20が取得したユーザ指示に従って、カメラ2の各部を制御する。   The CPU 16 performs overall control of the camera 2. The display device 18 displays the state of the camera 2 and the like. The display device 18 may be a liquid crystal device that performs simple display. The operation member 20 acquires an instruction from the user. Examples of the operation member 20 include a power switch, a release button, and a live view button. The CPU 16 controls each part of the camera 2 in accordance with a user instruction acquired by the operation member 20.

カメラ2は、上述した静止画や動画を構成する画像を撮像しデータとして記録することの他に、微速度撮影をすることができる。例えばカメラ2の位置および撮像方向が固定された状態で、比較的にゆっくり変化する現象を静止画データとして記録する場面で微速度撮影が用いられる。微速度撮影では、撮像素子26は、予め定められた時間間隔で複数の静止画を撮像する。微速度撮影においては、カメラ2は、撮像することにより得られた複数の静止画データを動画化する。例えば、静止画の撮像レートよりも高い表示レートの動画データを生成する。この動画化により、事象の変化をユーザに短時間で観察させることができる。本実施形態にかかるカメラ2の動作のうち、微速度撮影で得られた複数の静止画データから動画データを生成する場合の動作について主として説明される。   The camera 2 can perform time-lapse photography in addition to taking the images constituting the above-described still images and moving images and recording them as data. For example, time-lapse photography is used in a situation where a relatively slowly changing phenomenon is recorded as still image data while the position of the camera 2 and the imaging direction are fixed. In time-lapse photography, the image sensor 26 captures a plurality of still images at predetermined time intervals. In time-lapse photography, the camera 2 converts a plurality of still image data obtained by taking an image into a moving image. For example, moving image data having a display rate higher than a still image capturing rate is generated. This animation enables the user to observe the change in the event in a short time. Of the operations of the camera 2 according to the present embodiment, operations in the case of generating moving image data from a plurality of still image data obtained by time-lapse photography will be mainly described.

ここで、動画モードと微速度撮影モードとの違いについて簡単に説明する。微速度撮影は、撮像を継続した時間である継続時間よりも再生時間が短く定義される動画データを生成するために行われる。動画モードで1秒あたりのフレーム取得数を例えば30フレームに設定して撮像すると、生成された動画データは、再生時においても標準で1秒間に30フレームの表示レートで再生される。つまり、撮像時における時間軸と再生時における時間軸とは実質的に一致する。動画モードでは、いわば表示の実時間に同期して撮像される。一方、微速度撮影モードでは、例えば4秒間隔で1コマの静止画を撮像して動画データを生成する。例えば1時間の微速度撮影によって、900フレームの動画データが生成される。しかし、本動画データは、再生時には標準で1秒間に30フレームの表示レートで再生され、30秒で再生が完了する。つまり、撮像時における時間軸が再生時において圧縮される。換言すれば、微速度撮影によれば、撮像時の撮像間隔が通常の動画モード時の撮像間隔と比較して長いといえる。なお、微速度撮影における撮像の継続時間は、撮像を開始してから撮像を終了するまでの時間で表す。例えば微速度撮影の継続時間を1時間とした場合、上記のように4秒間隔で1コマの静止画を撮像するときは、900フレーム分の静止画データが得られる。すなわち微速度撮影の継続時間には、静止画を撮像する間の、撮像素子26で露光していない時間が含まれる。   Here, the difference between the moving image mode and the time-lapse shooting mode will be briefly described. Time-lapse photography is performed in order to generate moving image data that is defined to have a playback time shorter than a duration that is a time during which imaging is continued. If the number of frames acquired per second is set to 30 frames in the moving image mode, for example, the generated moving image data is reproduced at a display rate of 30 frames per second as a standard even during reproduction. That is, the time axis at the time of imaging and the time axis at the time of reproduction substantially coincide. In the moving image mode, imaging is performed in synchronism with the real time of display. On the other hand, in the time-lapse shooting mode, for example, one frame of still image is captured at intervals of 4 seconds to generate moving image data. For example, 900 frames of moving image data are generated by one-hour time-lapse photography. However, the moving image data is normally played back at a display rate of 30 frames per second at the time of playback, and the playback is completed in 30 seconds. That is, the time axis during imaging is compressed during reproduction. In other words, according to the time-lapse shooting, it can be said that the imaging interval at the time of imaging is longer than the imaging interval in the normal moving image mode. Note that the duration of imaging in time-lapse photography is expressed as the time from the start of imaging until the end of imaging. For example, when the time lapse duration is set to 1 hour, 900 frames of still image data is obtained when a still image of one frame is captured at intervals of 4 seconds as described above. That is, the time lapse duration includes the time during which the image sensor 26 is not exposed during the still image capturing.

静止画モードでは、ミラー12がアップされ、シャッタ13が閉じるまでの間、撮像素子26は被写体光を電荷として蓄積する。電荷の蓄積が終了するとミラー12はダウンされて被写体光束中に挿入される。上述したように、蓄積電荷のアナログ信号A/D変換回路30に出力され、A/D変換回路30から画像データを示すデジタル信号が出力される。画像データは画像処理ブロック22に供給され、ホワイトバランスの調整、ガンマ補正等の画像処理が施される。画像データは、更にJPEG等の符号化方式で符号化処理が施されて、記録媒体44に静止画ファイルのデータとして記録される。   In the still image mode, the image sensor 26 accumulates subject light as electric charges until the mirror 12 is raised and the shutter 13 is closed. When the charge accumulation is completed, the mirror 12 is lowered and inserted into the subject luminous flux. As described above, the accumulated charge is output to the analog signal A / D conversion circuit 30, and the digital signal indicating the image data is output from the A / D conversion circuit 30. The image data is supplied to the image processing block 22 and subjected to image processing such as white balance adjustment and gamma correction. The image data is further encoded by an encoding method such as JPEG, and is recorded on the recording medium 44 as still image file data.

動画モードでは、ミラー12をアップさせた状態でシャッタ13を開いた状態とされる。したがって、被写体光束は撮像素子26に常時投影される。静止画モードとは異なり動画モードでは、撮像素子26はいわゆるローリングシャッタ方式により順次にラインが露光される。ローリングシャッタ方式で取り込まれた被写体像のフレームに対して、ホワイトバランスの調整、ガンマ補正等の画像処理が施される。画像データは、更にJPEG等の符号化方式で符号化処理が施されて、記録媒体44にMotion JPEG等のファイルとして記録されていく。本動作は、動画モードを終了する操作がなされるまで継続される。フレームには、H.264等の符号化方式でフレーム内符号化、フレーム間符号化等の符号化処理が施されてよいことは言うまでもない。   In the moving image mode, the shutter 13 is opened with the mirror 12 raised. Accordingly, the subject light flux is always projected onto the image sensor 26. Unlike the still image mode, in the moving image mode, the image sensor 26 sequentially exposes lines by a so-called rolling shutter system. Image processing such as white balance adjustment and gamma correction is performed on the frame of the subject image captured by the rolling shutter system. The image data is further encoded by an encoding method such as JPEG, and is recorded on the recording medium 44 as a file such as Motion JPEG. This operation is continued until an operation for ending the moving image mode is performed. The frame includes H.264. Needless to say, encoding processing such as intra-frame encoding and inter-frame encoding may be performed by an encoding method such as H.264.

動画モードの動作設定としては、1秒間の撮像回数を設定するフレームレート設定、画質を設定する画質設定等を含む。例えば1秒間に30回撮像する場合、フレームレートとして例えば30fpsが選択される。この場合、表示レートとして30fpsでフレームが再生される動画データが生成される。また高画質設定では、例えば1920×1080の画素数を持つフレームが生成される。   The motion mode operation settings include a frame rate setting for setting the number of times of imaging per second, an image quality setting for setting image quality, and the like. For example, when imaging 30 times per second, for example, 30 fps is selected as the frame rate. In this case, moving image data in which a frame is reproduced at a display rate of 30 fps is generated. In the high image quality setting, for example, a frame having the number of pixels of 1920 × 1080 is generated.

微速度撮影を行う場合、撮像素子26は静止画モードと同様に駆動される。具体的には、撮像素子26は、いわゆるインターバルタイマ方式によって、予め定められた時間間隔で複数の静止画を撮像する。そして、画像処理回路24は、得られた複数の静止画データを、後述するように微速度撮影に適した方式で動画データに変換する。一例として、微速度撮影で得られた複数の静止画データは、動画用の動作設定に従って動画化される。例えば30fpsの動画データを生成するようフレームレートが設定されている場合、微速度撮影で30コマの静止画を撮像すると、再生時間が1秒の動画データが生成される。   When time-lapse photography is performed, the image sensor 26 is driven in the same manner as in the still image mode. Specifically, the image sensor 26 captures a plurality of still images at a predetermined time interval by a so-called interval timer method. Then, the image processing circuit 24 converts the obtained plurality of still image data into moving image data by a method suitable for time-lapse photography as will be described later. As an example, a plurality of still image data obtained by time-lapse photography is converted into a moving image according to a moving image operation setting. For example, when the frame rate is set so as to generate moving image data of 30 fps, moving image data with a playback time of 1 second is generated when 30 frames of still images are captured by time-lapse shooting.

微速度撮影用のパラメータとしては、静止画の撮像間隔、複数の静止画の撮像を継続する継続時間、再生時間、フレームレートの4つのパラメータが存在する。継続時間は、複数の静止画を撮像するトータルの期間であり、撮像開始から撮像終了までの時間であってよい。例えば、フレームレートとして30fps、継続時間として1時間、再生時間として30秒が設定された場合は、撮像間隔は4秒に設定される。   There are four parameters for time-lapse shooting: a still image capturing interval, a continuous time for capturing a plurality of still images, a reproduction time, and a frame rate. The duration is a total period for capturing a plurality of still images, and may be a time from the start of imaging to the end of imaging. For example, when the frame rate is set to 30 fps, the duration is set to 1 hour, and the playback time is set to 30 seconds, the imaging interval is set to 4 seconds.

図2は、微速度撮影のパラメータを設定する設定画面の一例を示す。フレームレートは動画再生時の表示レートであり、24fps、25fps、30fps、50fps、60fpsの中から選択することができる。本例では30fpsが指定されている。その他の撮像間隔、継続時間、再生時間は、2つが指定されれば残りの1つは自動的に設定される。たとえば継続時間が1時間に指定され、再生時間が30秒に指定された場合、撮像される静止画の数は900となり、撮像間隔は4秒に設定される。なお、撮像間隔および継続時間を指定すれば再生時間が、撮像間隔および再生時間を指定すれば継続時間が決まる。CPU16は、操作部材20を通じて設定された各パラメータに従って、撮像および動画データの生成を制御する。   FIG. 2 shows an example of a setting screen for setting time-lapse shooting parameters. The frame rate is a display rate at the time of moving image reproduction, and can be selected from 24 fps, 25 fps, 30 fps, 50 fps, and 60 fps. In this example, 30 fps is specified. If two other imaging intervals, durations, and playback times are specified, the remaining one is automatically set. For example, when the duration is specified as 1 hour and the playback time is specified as 30 seconds, the number of still images to be captured is 900, and the imaging interval is set to 4 seconds. If the imaging interval and duration are specified, the playback time is determined. If the imaging interval and playback time is specified, the duration is determined. The CPU 16 controls imaging and generation of moving image data according to each parameter set through the operation member 20.

図3は、微速度撮影で得られた静止画データおよび動画のフレームを模式的に示す。本例では、Nコマの静止画データが取得されたとする。上述したように静止画データはMotion JPEG、H.264等の符号化方式を適用して動画のフレームに変換され、ユーザに映像として提示可能な動画データとして記録される。ここで、図2に例示したパラメータでは、4秒間隔で静止画を撮像する。このように微速度撮影では、通常の動画のフレームの撮像間隔より長い時間間隔で静止画が撮像されるので、得られた複数の静止画データをそれぞれ動画のフレームとして適用すると、その間の被写体の動きによって、滑らかに見える映像にはならない。また、例えば日差しの変化等によって露出が変化した場合、ちらつき感のある映像となる。   FIG. 3 schematically shows still image data and moving image frames obtained by time-lapse photography. In this example, it is assumed that N frames of still image data have been acquired. As described above, the still image data is Motion JPEG, H.264. It is converted into a moving image frame by applying an encoding method such as H.264 and recorded as moving image data that can be presented as a video to the user. Here, with the parameters illustrated in FIG. 2, still images are captured at intervals of 4 seconds. As described above, in time-lapse shooting, still images are captured at a time interval longer than the imaging interval of a normal moving image frame. Therefore, when each of a plurality of obtained still image data is applied as a moving image frame, The motion does not make the image look smooth. For example, when the exposure changes due to a change in sunlight, the image has a flickering feeling.

そこで、画像処理回路24は、複数の静止画データを合成して1つの合成画像データを生成し、生成した合成画像データを動画のフレームとして適用する。本図において、1コマ目の静止画データ300−1と2コマ目の静止画データ300−2を合成して第1フレーム310−1とする。同様に、2コマ目の静止画データ300−2と3コマ目の静止画データ300−3を合成して第2フレーム310−2とする。これを繰り返して、N−1個のフレームを生成する。画像処理回路24は、複数の静止画データ300のいずれの静止画データ300も動画のフレームとして使用することなく、動画データを生成してよい。画像処理回路24は、生成したN−1個のフレーム310のみを動画のフレームとして使用して動画データを生成してよい。なお、N個のフレームを含む動画データを生成するためには、N+1個の静止画を撮像すればよい。   Therefore, the image processing circuit 24 generates a single composite image data by combining a plurality of still image data, and applies the generated composite image data as a moving image frame. In this figure, the still image data 300-1 for the first frame and the still image data 300-2 for the second frame are combined to form a first frame 310-1. Similarly, the still image data 300-2 for the second frame and the still image data 300-3 for the third frame are combined into a second frame 310-2. By repeating this, N-1 frames are generated. The image processing circuit 24 may generate moving image data without using any of the still image data 300 of the plurality of still image data 300 as a moving image frame. The image processing circuit 24 may generate moving image data using only the generated N−1 frames 310 as moving image frames. In order to generate moving image data including N frames, N + 1 still images may be captured.

本例で示すように複数の静止画データを合成して動画の各フレームを生成することで、それぞれのフレーム内では被写体像にぶれが生じる場合があるが、動画を再生した場合には滑らかな映像となる。また連続して生成した静止画データを撮像する間に露出に変化があった場合でも、露出が平均化されるので、映像のちらつきを低減することができる。カメラ2によれば、動画モード時よりも露光時間を短くしても、ちらつきの少ない滑らかな映像を提供できる。   As shown in this example, by synthesizing multiple still image data and generating each frame of a moving image, the subject image may be blurred in each frame, but when moving images are played back, it is smooth It becomes a picture. Further, even when there is a change in exposure during the imaging of continuously generated still image data, since the exposure is averaged, it is possible to reduce image flicker. According to the camera 2, even if the exposure time is shorter than that in the moving image mode, a smooth image with less flicker can be provided.

図4は、静止画データに対する合成処理の一例を示す。図3に関連して説明したように、画像処理回路24は、連続する2コマの静止画データを合成して1つのフレームとする。例えば、図3に関連して説明したように、期間400−1の撮像で得られた静止画データ300−1と静止画データ300−2とを合成して第1フレーム310−1を生成し、期間400−2の撮像で得られた静止画データ300−2と静止画データ300−3とを合成して第2フレーム310−2を生成する。また、期間400−3の撮像で得られた3コマ目の静止画データ300−3と4コマ目の静止画データ300−4とを合成して第3フレーム310−3を生成する。また、期間400−4の撮像で得られた4コマ目の静止画データ300−4と5コマ目の静止画データ300−5とを合成して第4フレーム310−4を生成する。ここで、画像処理回路24は、1コマ目の静止画データには合成の重みとしてw1を適用し、2コマ目の静止画データには合成の重みとしてw2を適用する。具体的には、画像処理回路24は、2コマの静止画データの対応する画素値を、対応する重みで重みづけ加算して、動画のフレームの画素値に適用する。一例として、w1およびw2を1/2としてよい。この場合、2コマの静止画データをゲイン1/2で合成することができ、撮像時の露出に適合した明るさにすることができる。合計が1となるように重みを適用することで、露出を平均化することができる。   FIG. 4 shows an example of a synthesis process for still image data. As described with reference to FIG. 3, the image processing circuit 24 synthesizes two consecutive frames of still image data into one frame. For example, as described with reference to FIG. 3, the first frame 310-1 is generated by synthesizing the still image data 300-1 and the still image data 300-2 obtained by imaging in the period 400-1. The still image data 300-2 and the still image data 300-3 obtained by imaging in the period 400-2 are combined to generate the second frame 310-2. Further, the third frame 310-3 is generated by synthesizing the third frame still image data 300-3 and the fourth frame still image data 300-4 obtained by imaging in the period 400-3. Also, the fourth frame 310-4 is generated by synthesizing the fourth frame still image data 300-4 and the fifth frame still image data 300-5 obtained by imaging in the period 400-4. Here, the image processing circuit 24 applies w1 as the synthesis weight to the still image data of the first frame, and applies w2 as the synthesis weight to the still image data of the second frame. Specifically, the image processing circuit 24 weights and adds the corresponding pixel values of the two frames of still image data with the corresponding weights, and applies them to the pixel values of the moving image frame. As an example, w1 and w2 may be halved. In this case, two frames of still image data can be synthesized with a gain of ½, and the brightness can be adjusted to suit the exposure at the time of imaging. By applying weights so that the sum is 1, the exposure can be averaged.

図5は、静止画データに対する更なる他の合成処理の一例を示す。図4の例では連続する2コマの静止画データを合成したが、本例では、1コマ置きに2コマの静止画データを合成して1つのフレームとする。   FIG. 5 shows an example of still another synthesis process for still image data. In the example of FIG. 4, two continuous frames of still image data are combined, but in this example, two frames of still image data are combined every other frame to form one frame.

具体的には、画像処理回路24は、期間500−1の撮像で得られた静止画データのうち1コマ目の静止画データ300−1および3コマ目の静止画データ300−3を合成して第1フレーム510−1とする。同様に、画像処理回路24は、期間500−2の撮像で得られた静止画データのうち2コマ目の静止画データ300−2および4コマ目の静止画データ300−4を合成して第2フレーム510−2とし、期間500−3の撮像で得られた静止画データのうち3コマ目の静止画データ300−3および5コマ目の静止画データ300−5を合成して第3フレーム510−3とする。これを繰り返して、N−2個のフレームを生成する。N個のフレームを含む動画データを生成するためには、N+2個の静止画を撮像すればよい。   Specifically, the image processing circuit 24 synthesizes the still image data 300-1 for the first frame and the still image data 300-3 for the third frame among the still image data obtained by imaging in the period 500-1. The first frame 510-1. Similarly, the image processing circuit 24 synthesizes the still image data 300-2 for the second frame and the still image data 300-4 for the fourth frame out of the still image data obtained by imaging in the period 500-2. As the second frame 510-2, the third frame of the still image data 300-3 and the fifth frame of the still image data 300-5 and the fifth frame of the still image data obtained by imaging in the period 500-3 are combined to form the third frame. 510-3. This is repeated to generate N-2 frames. In order to generate moving image data including N frames, N + 2 still images may be captured.

ここで、画像処理回路24は、1フレームを生成するのに用いる2コマの静止画データに、合成の重みとしてそれぞれw1およびw2を適用する。例えば、w1+w2=1となるように重みを設定する。重みの合計が1となるように重みを設定することで、露出を平均化することができる。一例として、w1およびw2に1/2を設定してよい。この場合、2コマの静止画データをゲイン1/2で合成することができ、撮像時の露出に適合した明るさにすることができる。   Here, the image processing circuit 24 applies w1 and w2 as synthesis weights to the still image data of two frames used to generate one frame, respectively. For example, the weight is set so that w1 + w2 = 1. By setting the weights so that the sum of the weights becomes 1, the exposure can be averaged. As an example, you may set 1/2 to w1 and w2. In this case, two frames of still image data can be synthesized with a gain of ½, and the brightness can be adjusted to suit the exposure at the time of imaging.

本例によれば、図4の例と比べて、長い時間範囲内で撮像されて得られた静止画データから1つのフレームを生成することができる。このため、被写体の明るさ変化が大きい場合でも映像のちらつきを低減することができる。   According to this example, it is possible to generate one frame from still image data obtained by imaging within a long time range as compared to the example of FIG. For this reason, even when the brightness change of the subject is large, it is possible to reduce the flicker of the image.

図6は、静止画データに対する他の合成処理の一例を示す。図4の例では連続する2コマの静止画データを合成したが、本例では、連続する3コマの静止画データを合成して1つのフレームとする。合成に用いる静止画データを選択する時間範囲は、図5の例と同一であるが、1フレームを生成するために用いる静止画データの数は図5の例と比較して多い。   FIG. 6 shows an example of another synthesis process for still image data. In the example of FIG. 4, two continuous frames of still image data are combined, but in this example, three consecutive frames of still image data are combined into one frame. The time range for selecting still image data to be used for composition is the same as in the example of FIG. 5, but the number of still image data used to generate one frame is larger than that in the example of FIG.

具体的には、画像処理回路24は、期間600−1の撮像で得られた1コマ目から3コマ目の静止画データ300−1〜3を合成して第1フレーム610−1とする。同様に、画像処理回路24は、期間600−2の撮像で得られた2コマ目から4コマ目の静止画データ300−2〜4を合成して第2フレーム610−2とし、期間600−3の撮像で得られた3コマ目から5コマ目の静止画データ300−3〜5を合成して第3フレーム610−3とする。これを繰り返して、N−2個のフレームを生成する。N個のフレームを含む動画データを生成するためには、N+2個の静止画を撮像すればよい。   Specifically, the image processing circuit 24 synthesizes the still image data 300-1 to 300-3 of the first frame to the third frame obtained by imaging in the period 600-1 to form a first frame 610-1. Similarly, the image processing circuit 24 combines the still image data 300-2 to 4 of the second frame to the fourth frame obtained by imaging in the period 600-2 to form the second frame 610-2, and the period 600- The still image data 300-3 to 5 of the third frame to the fifth frame obtained by the imaging of the third frame are combined into a third frame 610-3. This is repeated to generate N-2 frames. In order to generate moving image data including N frames, N + 2 still images may be captured.

画像処理回路24は、1フレームの生成に用いる3コマの静止画データを含む各静止画データ群について、1コマ目、2コマ目および3コマ目の静止画データに、合成の重みとしてそれぞれw1、w2およびw3を適用する。例えば、w1+w2+w3=1となるように重みを設定する。重みの合計が1となるように重みを設定することで、露出の違いを平均化することができる。一例として、w1、w2およびw3に1/3を設定してよい。この場合、3コマの静止画データをゲイン1/3で合成することができ、撮像時の露出に適合した明るさにすることができる。   For each still image data group including three frames of still image data used for generating one frame, the image processing circuit 24 applies w1 as a synthesis weight to the still image data of the first frame, the second frame, and the third frame. , W2 and w3 apply. For example, the weight is set so that w1 + w2 + w3 = 1. By setting the weights so that the sum of the weights becomes 1, the difference in exposure can be averaged. As an example, you may set 1/3 to w1, w2, and w3. In this case, the still image data of three frames can be combined with a gain of 1/3, and the brightness suitable for the exposure at the time of imaging can be obtained.

本例によれば、図5の例と比べて、多くの静止画データから1つのフレームを生成することができる。このため、被写体の明るさ変化が大きい場合でも映像のちらつきをより低減することができる。なお、図4から図6に関連して説明した合成処理のうちいずれの合成処理を微速度撮影に適用するかを、ユーザに選択させてよい。   According to this example, one frame can be generated from a larger amount of still image data than in the example of FIG. For this reason, even when the brightness change of the subject is large, it is possible to further reduce the flicker of the video. Note that the user may be allowed to select which of the combining processes described with reference to FIGS. 4 to 6 is applied to the time-lapse shooting.

以上に説明したように、画像処理回路24は、予め定められた時間間隔で撮像することによって得られた複数の静止画データを取得して、複数の静止画データのうちの第1静止画データと第2静止画データとを合成して第1合成画像データを生成し、複数の静止画データのうちの第3静止画データと第4静止画データとを合成して第2合成画像データを生成する。そして、画像処理回路24は、第1合成画像データおよび第2合成画像データを用いて、合成画像データの再生間隔が予め定められた時間間隔より短い動画データを生成する。画像処理回路24は、動画データを構成する画像データとして複数の静止画データを使用することなく、動画データを生成する。画像処理回路24は、複数の合成画像データのみを画像データとして使用して動画データを生成してよい。ここで、図4に例示したように、第1合成画像データおよび第2合成画像データを含む複数の合成画像データの生成に用いられる静止画データの撮像時刻を含むべき複数の時間範囲は、連続する時間範囲であってよい。また、図5または図6に例示したように複数の時間範囲は一部期間が重複してよい。すなわち、第2静止画データおよび第3静止画データは同一の静止画データであってよい。   As described above, the image processing circuit 24 acquires a plurality of still image data obtained by imaging at predetermined time intervals, and first still image data among the plurality of still image data. And the second still image data are combined to generate first combined image data, and the third still image data and the fourth still image data of the plurality of still image data are combined to generate the second combined image data. Generate. Then, the image processing circuit 24 uses the first composite image data and the second composite image data to generate moving image data in which the playback interval of the composite image data is shorter than a predetermined time interval. The image processing circuit 24 generates moving image data without using a plurality of still image data as image data constituting the moving image data. The image processing circuit 24 may generate moving image data using only a plurality of composite image data as image data. Here, as illustrated in FIG. 4, a plurality of time ranges that should include imaging times of still image data used for generating a plurality of composite image data including the first composite image data and the second composite image data are continuous. It may be a time range to be. Further, as illustrated in FIG. 5 or FIG. 6, a plurality of time ranges may partially overlap. That is, the second still image data and the third still image data may be the same still image data.

図4から図6に関連して説明したように、画像処理回路24は、複数の静止画データを合成する場合に、合成される複数の静止画データに、それぞれ合成における重みを設定する。図4から図6の例では、合成の重みを一定とした。しかし、画像処理回路24は、各時間範囲の中心時刻に撮像時刻がより近い静止画データに、重みとしてより大きい値を設定してよい。例えば、図6の例において、各静止画データ群における1コマ目および3コマ目の静止画データより、2コマ目の静止画データに、大きい重みづけを設定してよい。例えば、w1およびw3を0.25とし、w2を0.5としてよい。また、最大の重みが設定されるタイミングは時間範囲の中心のタイミングやその近傍のタイミングでなくともよく、時間範囲において予め定められた基準のタイミングであってよい。例えば、1コマ目の静止画データに最大の重みを設定してよい。具体的には、w1、w2、w3をそれぞれ0.5、0.3、0.2としてよい。3コマ目の静止画データに最大の重みを設定してよいことはいうまでもない。すなわち、画像処理回路24は、各時間範囲内で漸減または漸増する重みを設定してよい。このように、画像処理回路24は、複数の時間範囲のうち少なくともいずれかの時間範囲において、予め定められた時刻に撮像時刻がより近い静止画データに、重みとしてより大きい値を設定してよい。このため、基準となる時刻の被写体の様子を比較的に強くフレームに反映させつつ、前または後の少なくとも一方のフレームを加味することで、ちらつきが少なく、かつ、滑らかに見える映像を提供することができる。   As described with reference to FIGS. 4 to 6, when combining a plurality of still image data, the image processing circuit 24 sets a weight for combining each of the plurality of still image data to be combined. In the examples of FIGS. 4 to 6, the synthesis weight is constant. However, the image processing circuit 24 may set a larger value as a weight to still image data whose imaging time is closer to the center time of each time range. For example, in the example of FIG. 6, the still image data of the second frame may be set more heavily than the still image data of the first frame and the third frame in each still image data group. For example, w1 and w3 may be 0.25 and w2 may be 0.5. Further, the timing at which the maximum weight is set may not be the timing at the center of the time range or the timing in the vicinity thereof, but may be a reference timing predetermined in the time range. For example, the maximum weight may be set for the still image data of the first frame. Specifically, w1, w2, and w3 may be set to 0.5, 0.3, and 0.2, respectively. Needless to say, the maximum weight may be set for the still image data of the third frame. That is, the image processing circuit 24 may set a weight that gradually decreases or increases within each time range. As described above, the image processing circuit 24 may set a larger value as a weight to still image data whose imaging time is closer to a predetermined time in at least one of a plurality of time ranges. . For this reason, the image of the subject at the reference time is reflected relatively strongly in the frame, and at least one of the previous or subsequent frames is taken into consideration, thereby providing an image that has less flicker and looks smooth. Can do.

なお、1フレームの生成に用いる静止画データの数である使用数や、1フレームの生成に用いる静止画データを選択する時間範囲は、ユーザに設定させてよい。しかし、画像処理回路24が、当該使用数および時間範囲の少なくとも一方を、被写体の変化に応じて自動的に設定してよい。例えば、画像処理回路24は、複数のフレームのうち少なくともいずれかのフレームの生成に用いられる複数の静止画データの数を、複数の静止画データにおける画像変化が大きいほど多く設定してよい。また、画像処理回路24は、複数の時間範囲のうち少なくともいずれかの時間範囲を、複数の静止画データにおける画像変化が大きいほど長く設定してよい。ここで、画像変化は、複数の静止画データにおける明るさ変化に基づいて決定されてよい。明るさ変化に基づいて使用数および時間範囲の少なくとも一方を設定することで、映像としてのちらつきを低減することができる。   Note that the number of uses, which is the number of still image data used for generating one frame, and the time range for selecting still image data used for generating one frame may be set by the user. However, the image processing circuit 24 may automatically set at least one of the usage number and the time range according to the change of the subject. For example, the image processing circuit 24 may set the number of the plurality of still image data used for generating at least one of the plurality of frames as the image change in the plurality of still image data increases. The image processing circuit 24 may set at least one of the plurality of time ranges to be longer as the image change in the plurality of still image data is larger. Here, the image change may be determined based on a brightness change in a plurality of still image data. By setting at least one of the number of uses and the time range based on the brightness change, flicker as an image can be reduced.

なお、画像処理回路24は、複数のフレームにおける明るさ変化が予め定められた値より小さくなるように、複数の時間範囲の長さを設定してよい。例えば、静止画データが表す画像の明るさ変化が予め定められた値より大きい期間が存在する場合、明るさの変化が予め定められた値より小さい期間を含むように時間範囲を設定することで、複数のフレームにおける明るさ変化が予め定められた値より小さくなるようにすることができる。   Note that the image processing circuit 24 may set the lengths of the plurality of time ranges so that the brightness change in the plurality of frames is smaller than a predetermined value. For example, when there is a period in which the brightness change of the image represented by the still image data is larger than a predetermined value, the time range is set so that the brightness change includes a period smaller than the predetermined value. The brightness change in a plurality of frames can be made smaller than a predetermined value.

画像処理回路24は、時間範囲を設定することに代えて、または、時間範囲を設定することに加えて、複数のフレームにおける明るさ変化が予め定められた値より小さくなるように、合成の重みを設定してもよい。例えば、連続または一部期間が重複する第1の時間範囲および第2の時間範囲において、複数の静止画データの明るさの平均値が第1の時間範囲より第2の時間範囲の方が明るい場合、画像処理回路24は、各静止画データが表す画像の明るさを考慮して、複数のフレームにおける明るさ変化が予め定められた値より小さくなるように重みを設定してよい。例えば、画像処理回路24は、第1の時間範囲においては、より明るい画像の静止画データにより大きい重みを設定し、第2の時間範囲内においては、より暗い画像の静止画データにより大きい重みを設定してよい。以上に説明した重み設定または時間範囲の設定により、映像としてのちらつきを低減することができる場合がある。   Instead of setting the time range or in addition to setting the time range, the image processing circuit 24 sets the synthesis weight so that the brightness change in the plurality of frames is smaller than a predetermined value. May be set. For example, in the first time range and the second time range in which continuous or partial periods overlap, the average value of the brightness of the plurality of still image data is brighter in the second time range than in the first time range. In this case, the image processing circuit 24 may set the weight so that the brightness change in the plurality of frames is smaller than a predetermined value in consideration of the brightness of the image represented by each still image data. For example, the image processing circuit 24 sets a larger weight to the still image data of a brighter image in the first time range, and sets a larger weight to the still image data of a darker image in the second time range. May be set. In some cases, flicker as an image can be reduced by the weight setting or the time range setting described above.

図7は、カメラ2の起動から終了までの処理フローを示す。本フローは、電源スイッチがONされた場合に、開始される。   FIG. 7 shows a processing flow from the start to the end of the camera 2. This flow is started when the power switch is turned on.

ステップS700において、CPU16は初期設定を行う。例えば、CPU16は、カメラ2を制御するための各種パラメータ等を、CPU16の内部に設けられた不揮発性のシステムメモリから内部RAMに展開する。各種パラメータとしては、図2に関連して説明した微速度撮影のパラメータを例示することができる。CPU16は、内部RAMに展開された各種パラメータに基づき、カメラ2の各部の動作条件を設定する。   In step S700, the CPU 16 performs initial setting. For example, the CPU 16 expands various parameters and the like for controlling the camera 2 from the nonvolatile system memory provided in the CPU 16 to the internal RAM. Examples of the various parameters include the time-lapse photography parameters described with reference to FIG. The CPU 16 sets operating conditions of each part of the camera 2 based on various parameters developed in the internal RAM.

続いて、ステップS702において、画像表示装置36に設定結果を表示する。例えば、CPU16は、ステップS700で設定した設定結果を、画像表示装置36に表示させる。   Subsequently, in step S702, the setting result is displayed on the image display device. For example, the CPU 16 causes the image display device 36 to display the setting result set in step S700.

続いて、ステップS704において、CPU16は、操作部材20に対するユーザ操作の内容を判断する。例えば、操作部材20に対して諸設定を実行するユーザ操作がなされた場合、CPU16が主体となって、指示された設定処理を行う(ステップS706)。設定処理としては、微速度撮影のパラメータを設定する処理、画素数を設定する処理、撮像動作を伴う動作モードを設定する処理等を例示することができる。動作モードとしては、微速度撮影モード等を例示することができる。微速度撮影モードを設定するユーザ操作がなされた場合、動作モードを微速度撮影モードに設定する。また、本ステップにおいて、図4から図6に関連して説明した合成処理のうちいずれの合成処理を適用するかをユーザ操作に従って選択してよい。   Subsequently, in step S704, the CPU 16 determines the content of the user operation on the operation member 20. For example, when a user operation for performing various settings is performed on the operation member 20, the CPU 16 performs the instructed setting process (step S706). Examples of the setting process include a process for setting time-lapse shooting parameters, a process for setting the number of pixels, a process for setting an operation mode with an imaging operation, and the like. Examples of the operation mode include a time-lapse shooting mode. When a user operation for setting the time-lapse shooting mode is performed, the operation mode is set to the time-lapse shooting mode. Further, in this step, it may be selected according to a user operation which one of the synthesis processes described with reference to FIGS. 4 to 6 is applied.

ステップS704において、操作部材20に対して画像の再生を指示するユーザ操作があった場合、再生処理を実行する(ステップS722)。再生処理としては、記録媒体44に記録された画像データを読み出してサムネイル表示する処理、ユーザにより指示された画像データを画像表示装置36に表示する処理等を例示することができる。   In step S704, if there is a user operation for instructing the operation member 20 to reproduce an image, reproduction processing is executed (step S722). Examples of the reproduction process include a process of reading out the image data recorded on the recording medium 44 and displaying the thumbnail, a process of displaying the image data instructed by the user on the image display device 36, and the like.

ステップS704において、操作部材20に対して撮像実行に関するユーザ操作があった場合、撮像を伴う処理を行う(ステップS712)。なお、撮像実行に関するユーザ操作としては、レリーズボタン、ライブビューボタン等に対する操作を例示することができる。動作モードが微速度撮影モードに設定されていない場合に、レリーズボタンが押下された場合、静止画の撮像を行う。ライブビューボタンが押下された場合、ライブビュー動作を開始する。ライブビュー動作では、撮像素子26における撮像に並行して、撮像された画像を画像表示装置36に表示する。そして、ライブビュー動作中にレリーズボタンの操作があった場合は、静止画を撮像して静止画データを記録する。ライブビュー動作中に操作部材の一部としての動画ボタンの操作があった場合は、動画モードで動作する。動作モードが微速度撮影モードに設定されている場合の動作については、図8に関連して説明する。   In step S704, when there is a user operation related to execution of imaging on the operation member 20, a process involving imaging is performed (step S712). Note that examples of user operations related to imaging execution include operations on a release button, a live view button, and the like. If the release button is pressed when the operation mode is not set to the time-lapse shooting mode, a still image is captured. When the live view button is pressed, the live view operation is started. In the live view operation, the captured image is displayed on the image display device 36 in parallel with the image capturing by the image sensor 26. If the release button is operated during the live view operation, a still image is captured and still image data is recorded. When a moving image button is operated as a part of the operation member during the live view operation, the moving image mode is operated. The operation when the operation mode is set to the time-lapse shooting mode will be described with reference to FIG.

ステップS704においてユーザ指示がない場合は、ファインダ部8が有する測光素子による測光処理を行う(ステップS732)。具体的には、測光素子による測光と現在の適正露出値の決定を一定の時間間隔で実行する。ステップS732で決定した現在の露出値を示す情報は、画像表示装置36にリアルタイムに表示され、ユーザに提示される。   If there is no user instruction in step S704, a photometric process using a photometric element included in the finder unit 8 is performed (step S732). Specifically, photometry by the photometry element and determination of the current appropriate exposure value are executed at regular time intervals. Information indicating the current exposure value determined in step S732 is displayed on the image display device 36 in real time and presented to the user.

ステップS706、ステップS712、ステップS722、ステップS732の処理が完了すると、ステップS708に進み、電源をOFFするか否かを判断する。例えば、電源スイッチがOFF位置に切り替えられた場合や、電源スイッチがONされてから予め定められた期間、ユーザ指示無しの状態が継続した場合等に、電源をOFFする旨を判断する。電源をOFFすると判断した場合は動作を終了し、電源をOFFしないと判断した場合はステップS704に処理を移行させる。   When the processes of step S706, step S712, step S722, and step S732 are completed, the process proceeds to step S708, and it is determined whether or not to turn off the power. For example, it is determined to turn off the power when the power switch is switched to the OFF position, or when there is no user instruction for a predetermined period after the power switch is turned on. If it is determined that the power is to be turned off, the operation is terminated. If it is determined that the power is not to be turned off, the process proceeds to step S704.

図8は、撮像を伴う処理フローの一例を示す。すなわち、図7のステップS712における内部処理の一例である。特に、微速度撮影における撮像動作を含む処理フローを示す。具体的には、動作モードが微速度撮影モードに設定されている場合に、予め定められたユーザ操作がなされた場合の処理フローを示す。   FIG. 8 shows an example of a processing flow involving imaging. That is, it is an example of internal processing in step S712 of FIG. In particular, a processing flow including an imaging operation in time-lapse photography is shown. Specifically, a processing flow when a predetermined user operation is performed when the operation mode is set to the time-lapse shooting mode is shown.

ステップS802において、レンズ4の焦点調節を行う。例えば、CPU16は、レリーズボタンが一段階押し込まれた場合に、予め設定された焦点検出領域に対してレンズ4の焦点調節を行う。レリーズボタンが更に深く押し込まれた場合、ステップS804以降の微速度撮影の動作に進む。   In step S802, the focus of the lens 4 is adjusted. For example, when the release button is pushed in one step, the CPU 16 adjusts the focus of the lens 4 on a preset focus detection area. When the release button is pressed further deeply, the operation proceeds to time-lapse shooting operation after step S804.

ステップS804において、静止画を撮像して静止画データを取得する。具体的には、CPU16の全体制御の下、ミラー12をアップさせ、タイミングジェネレータ28から供給されるタイミング信号に従って、シャッタ13を開けて撮像素子26で露光し、シャッタ13を閉じて、ミラー12をダウンさせる。撮像によって得られた1コマの静止画データは、イメージメモリ34に記憶される。続いて、画像処理回路24は、イメージメモリ34に記憶された静止画データに対して、ホワイトバランス補正、ガンマ補正等の画像処理を施し、画像処理が施された静止画データがイメージメモリ34に記憶される(ステップS806)。   In step S804, a still image is captured to acquire still image data. Specifically, under the overall control of the CPU 16, the mirror 12 is raised, the shutter 13 is opened according to the timing signal supplied from the timing generator 28, the image sensor 26 is exposed, the shutter 13 is closed, and the mirror 12 is moved. Bring it down. One frame of still image data obtained by imaging is stored in the image memory 34. Subsequently, the image processing circuit 24 performs image processing such as white balance correction and gamma correction on the still image data stored in the image memory 34, and the still image data subjected to the image processing is stored in the image memory 34. Stored (step S806).

ステップS808において、1フレームの生成に用いるコマ数の静止画データが取得されたか否かを判断する。例えば、3コマの静止画データを合成して1フレームを生成する場合、フレームの生成に用いる3コマの静止画データが少なくともイメージメモリ34に記憶されたか否かを判断する。1フレームの生成に用いるコマ数の静止画データが取得されていない場合、ステップS814に処理を進める。   In step S808, it is determined whether still image data having the number of frames used to generate one frame has been acquired. For example, when one frame is generated by combining three frames of still image data, it is determined whether or not at least three frames of still image data used for frame generation are stored in the image memory 34. If still image data having the number of frames used to generate one frame has not been acquired, the process proceeds to step S814.

1フレームの合成に用いるコマ数の静止画データが取得されている場合、静止画データを合成してフレームを生成する(ステップS810)。例えば、図4から図6に関連して説明した合成処理のいずれかを適用してフレームを生成する。生成されたフレームは、例えばJPEGの符号化方式で符号化されてイメージメモリ34に記憶される(ステップS812)。   When still image data having the number of frames used for synthesis of one frame has been acquired, the still image data is synthesized to generate a frame (step S810). For example, the frame is generated by applying any of the synthesizing processes described with reference to FIGS. The generated frame is encoded by, for example, the JPEG encoding method and stored in the image memory 34 (step S812).

ステップS814において、静止画データを更に取得するか否かを判断する。例えば、図2等に関連して説明したコマ数の静止画データが取得されたか否かを判断する。予め定められたコマ数の静止画データが取得されていない場合、次の撮像タイミングまでウェイトする(ステップS816)。例えば、前回の撮像タイミングから予め定められた時間間隔だけ後のタイミングで次回の撮像が開始されるようウェイトする。次回の撮像動作は、タイマ等の制御によって、前回の撮像タイミングから予め定められた期間経過した場合にトリガされ、開始されてよい。ウェイトが完了すると、ステップS804に処理を移行させる。   In step S814, it is determined whether or not to acquire still image data. For example, it is determined whether still image data having the number of frames described in relation to FIG. If still image data having a predetermined number of frames has not been acquired, the process waits until the next imaging timing (step S816). For example, it waits so that the next imaging is started at a timing after a predetermined time interval from the previous imaging timing. The next imaging operation may be triggered and started when a predetermined period has elapsed from the previous imaging timing under the control of a timer or the like. When the wait is completed, the process proceeds to step S804.

ステップS814の判断において、予め定められたコマ数の静止画データを取得したと判断された場合、イメージメモリ34に記憶されている複数のフレームを用いて動画データを生成し(ステップS818)、生成した動画データを記録媒体44に記録する(ステップS820)。例えば、Motion JPEGフォーマットの動画データを生成する。記録媒体44への記録が完了すると、本フローは終了する。   If it is determined in step S814 that still image data having a predetermined number of frames has been acquired, moving image data is generated using a plurality of frames stored in the image memory 34 (step S818). The recorded moving image data is recorded on the recording medium 44 (step S820). For example, motion JPEG format moving image data is generated. When the recording on the recording medium 44 is completed, this flow ends.

なお、本フローにおいて、複数の静止画データを合成して得られたフレームだけでなく、複数の静止画データも記録媒体44に記録してよい。また、カメラ2は、記録媒体44に記録された複数の静止画データを記録媒体44から取得して合成することにより、フレームを生成してもよい。   In this flow, not only the frame obtained by combining a plurality of still image data but also a plurality of still image data may be recorded on the recording medium 44. The camera 2 may generate a frame by acquiring a plurality of still image data recorded on the recording medium 44 from the recording medium 44 and combining them.

以上の説明において、カメラ2が撮像から動画データの生成までの処理を行うとした。しかし、カメラで撮像することによってカメラで取得された複数の静止画の静止画データをパーソナルコンピュータ等のコンピュータに転送して、コンピュータ上でアプリケーションソフト等のプログラムを動作させて、動画データを生成してもよい。以上のように、本実施形態のカメラ2に関連して説明した処理によれば、微速度撮影で得られた複数の静止画データを合成して動画化することで、ちらつきやギクシャク感を抑えた映像を提供することができる。   In the above description, it is assumed that the camera 2 performs processing from imaging to generation of moving image data. However, by capturing still images from a plurality of still images acquired by the camera and transferring them to a computer such as a personal computer, a program such as application software is operated on the computer to generate moving image data. May be. As described above, according to the processing described in relation to the camera 2 of the present embodiment, flickering and jerky feeling are suppressed by synthesizing a plurality of still image data obtained by time-lapse photography. Video can be provided.

なお、図8のステップS818においては、複数のフレームを用いて生成した動画データに加えて、イメージメモリ34に記憶された複数の静止画データを用いて動画データを生成してもよい。この場合、ステップS820においては、複数のフレームを用いて生成した動画データである第1動画データを記録媒体44に記録するとともに、複数の静止画データを用いて生成した動画データである第2動画データを記録媒体44に記録してよい。第2動画データは、例えばMotion JPEGフォーマットで記録される。ここで第2動画データは、静止画データの再生間隔が予め定められた時間間隔より短い時間間隔で再生される動画データである。第1動画データおよび第2動画データは、微速度撮影で得られた画像データとして、互いに対応づけられて記録媒体44に記録されてよい。第1動画データおよび第2動画データが生成されて記録媒体44に記録されている場合、図7に例示したステップS722において微速度撮影で得られた画像データの再生が指示されたときは、第1動画データおよび第2動画データのうち再生させるべき一つの動画データをユーザに選択させ、選択された動画データを再生してよい。   In step S818 in FIG. 8, moving image data may be generated using a plurality of still image data stored in the image memory 34 in addition to the moving image data generated using a plurality of frames. In this case, in step S820, the first moving image data, which is moving image data generated using a plurality of frames, is recorded on the recording medium 44, and the second moving image, which is moving image data generated using a plurality of still image data. Data may be recorded on the recording medium 44. The second moving image data is recorded in, for example, the Motion JPEG format. Here, the second moving image data is moving image data that is reproduced at a time interval in which the reproduction interval of the still image data is shorter than a predetermined time interval. The first moving image data and the second moving image data may be recorded on the recording medium 44 in association with each other as image data obtained by time-lapse photography. When the first moving image data and the second moving image data are generated and recorded on the recording medium 44, when the reproduction of the image data obtained by the time-lapse shooting is instructed in step S722 illustrated in FIG. One moving image data to be reproduced may be selected from the one moving image data and the second moving image data, and the selected moving image data may be reproduced.

また、ステップS818において、第1動画データを生成することなく、第2動画データを生成してよい。この場合、ステップS820においては、微速度撮影で得られた画像データとして、第2動画データが記録媒体44に記録されてよい。微速度撮影で得られた画像データとして第2動画データが記録媒体44に記録されている場合、図7に例示したステップS722において微速度撮影で得られた画像データの再生が指示されたときに、第2動画データを再生するべきか、合成処理が適用された再生を行うべきかをユーザに選択させてよい。第2動画データを再生するべき旨が選択された場合は第2動画データを再生し、合成処理が適用された再生を行うべき旨が選択された場合には、合成処理が適用されたフレームを生成して再生してよい。ここで、合成処理の適用対象となる静止画データは、記録媒体44に記録されている第2動画データから生成してもよい。例えば、Motion JPEGフォーマットの第2動画データを復号して得られた複数の静止画データに対して、図4から図6等に関連して説明した合成処理を適用して得られたフレームを順次に再生してよい。なお、第1動画データを生成することなく第2動画データを生成して記録媒体44に記録する場合、撮像動作によりイメージメモリ34に記録された複数の静止画データを、記録媒体44に更に記録してもよい。そして、ステップS722において、合成処理が適用された再生を行うべき旨が選択された場合には、記録媒体44に記録されている複数の静止画データに対して、図4から図6等に関連して説明した合成処理を適用して得られたフレームを順次に再生してよい。複数の静止画データを記録媒体44に更に記録するか否かは、予めユーザにより選択されていてよい。例えば、図7に例示したステップS706において、予め設定されてよい。   In step S818, the second moving image data may be generated without generating the first moving image data. In this case, in step S820, the second moving image data may be recorded on the recording medium 44 as the image data obtained by the time-lapse shooting. When the second moving image data is recorded on the recording medium 44 as image data obtained by time-lapse photography, when reproduction of the image data obtained by time-lapse photography is instructed in step S722 illustrated in FIG. The user may select whether to reproduce the second moving image data or to perform reproduction to which the synthesis process is applied. When it is selected that the second moving image data is to be reproduced, the second moving image data is reproduced. When it is selected that the reproduction is applied with the synthesis process, the frame to which the synthesis process is applied is selected. It may be generated and played back. Here, the still image data to which the synthesis process is applied may be generated from the second moving image data recorded on the recording medium 44. For example, frames obtained by applying the synthesis processing described in relation to FIGS. 4 to 6 to a plurality of still image data obtained by decoding the second moving image data in the Motion JPEG format are sequentially applied. You may play it. When the second moving image data is generated and recorded on the recording medium 44 without generating the first moving image data, a plurality of still image data recorded on the image memory 34 by the imaging operation is further recorded on the recording medium 44. May be. In step S722, when it is selected that the reproduction to which the synthesis process is applied is selected, a plurality of still image data recorded on the recording medium 44 is related to FIG. 4 to FIG. The frames obtained by applying the synthesis process described above may be sequentially reproduced. Whether or not to further record a plurality of still image data on the recording medium 44 may be selected in advance by the user. For example, it may be set in advance in step S706 illustrated in FIG.

図8の処理フローで例示したように、第2動画データを生成することなく第1動画データを生成して記録媒体44に記録する場合、撮像動作によりイメージメモリ34に記録された複数の静止画データを、記録媒体44に更に記録してもよい。この場合、図7に例示したステップS722において微速度撮影で得られた画像データの再生が指示されたときに、第1動画データを再生するべきか、記録媒体44に記録されている複数の静止画データを動画として再生するべきかをユーザに選択させてよい。第1動画データを再生するべき旨が選択された場合は第1動画データを再生し、記録媒体44に記録されている複数の静止画データを動画として再生するべき旨が選択された場合には、記録媒体44に記録されている静止画データを、予め定められた時間間隔より短い時間間隔で再生する。   As illustrated in the processing flow of FIG. 8, when the first moving image data is generated and recorded on the recording medium 44 without generating the second moving image data, a plurality of still images recorded in the image memory 34 by the imaging operation are recorded. Data may be further recorded on the recording medium 44. In this case, when the reproduction of the image data obtained by the time-lapse photographing is instructed in step S722 illustrated in FIG. 7, the first moving image data should be reproduced or a plurality of still images recorded on the recording medium 44 are recorded. The user may select whether the image data should be reproduced as a moving image. When it is selected that the first moving image data should be reproduced, the first moving image data is reproduced, and when it is selected that a plurality of still image data recorded on the recording medium 44 should be reproduced as a moving image. The still image data recorded on the recording medium 44 is reproduced at a time interval shorter than a predetermined time interval.

また、第1動画データおよび第2動画データのいずれも生成せずに、撮像動作によりイメージメモリ34に記録された複数の静止画データを、記録媒体44に記録してもよい。この場合、図7に例示したステップS722において、微速度撮影で得られた画像データの再生が指示されたときに、合成処理が適用された再生を行うべきか、記録媒体44に記録されている複数の静止画データを動画として再生するべきかをユーザに選択させてよい。記録媒体44に記録されている複数の静止画データを動画として再生するべき旨が選択された場合には、記録媒体44に記録されている静止画データを、予め定められた時間間隔より短い時間間隔で再生する。合成処理が適用された再生を行うべき旨が選択された場合には、記録媒体44に記録されている複数の静止画データに対して、図4から図6等に関連して説明した合成処理を適用して得られたフレームを順次に再生する。   Further, a plurality of still image data recorded in the image memory 34 by the imaging operation may be recorded in the recording medium 44 without generating either the first moving image data or the second moving image data. In this case, in step S722 illustrated in FIG. 7, when reproduction of image data obtained by time-lapse photography is instructed, whether or not reproduction to which the synthesis processing is applied is to be performed is recorded on the recording medium 44. The user may select whether to reproduce a plurality of still image data as a moving image. When it is selected that a plurality of still image data recorded on the recording medium 44 should be reproduced as a moving image, the still image data recorded on the recording medium 44 is shorter than a predetermined time interval. Play at intervals. When it is selected that the playback to which the synthesis process is applied is selected, the synthesis process described with reference to FIGS. 4 to 6 and the like for a plurality of still image data recorded on the recording medium 44 The frames obtained by applying are sequentially reproduced.

第1動画データおよび第2動画データを生成して記録するか、第1動画データを生成することなく第2動画データを生成して記録するか、第2動画データを生成することなく第1動画データを生成して記録するか、第1動画データおよび第2動画データのいずれも生成せずイメージメモリ34に記録された複数の静止画データを記録するかは、予めユーザにより選択されてよい。例えば、図7に例示したステップS706において、予め設定されてよい。また、記録媒体44に記録されている動画データ、静止画データ等の画像データをパーソナルコンピュータ等のコンピュータに転送して、コンピュータで動画として再生させる場合には、コンピュータ上で動作するプログラムの制御により、図7のステップS722に関連して説明した処理と同様の処理をコンピュータが実行してよい。   The first moving image data and the second moving image data are generated and recorded, the second moving image data is generated and recorded without generating the first moving image data, or the first moving image is generated without generating the second moving image data. Whether to generate and record data or to record a plurality of still image data recorded in the image memory 34 without generating any of the first moving image data and the second moving image data may be selected in advance by the user. For example, it may be set in advance in step S706 illustrated in FIG. In addition, when image data such as moving image data and still image data recorded on the recording medium 44 is transferred to a computer such as a personal computer and reproduced as a moving image on a computer, the program is controlled by a program running on the computer. The computer may execute processing similar to the processing described in relation to step S722 in FIG.

本実施形態のカメラ2に関連して説明した処理は、カメラ2の各部、例えばCPU16等が、プログラムに従って動作することにより、実現することができる。すなわち、当該処理を、いわゆるコンピュータ装置によって実現することができる。コンピュータ装置は、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータ装置は、当該プログラムを記憶しているコンピュータ読取可能な記録媒体を読み込むことによって、当該プログラムをロードすることができる。   The processing described in relation to the camera 2 of the present embodiment can be realized by causing each unit of the camera 2 such as the CPU 16 to operate according to a program. That is, the process can be realized by a so-called computer device. The computer device may load a program for controlling the execution of the above-described process, operate according to the read program, and execute the process. The computer device can load the program by reading a computer-readable recording medium storing the program.

本実施形態において、レンズ交換式の一眼レフレックスカメラであるカメラ2を取り上げて、撮像装置の一例を説明した。撮像装置としては、コンパクトデジタルカメラ等のレンズ非交換式のカメラ、ミラーレス一眼カメラ、ビデオカメラ、撮像機能付きの携帯電話機、撮像機能付きの携帯情報端末、撮像機能付きのゲーム機器等の娯楽装置等、撮像機能を有する種々の機器を適用の対象とすることができる。   In the present embodiment, an example of the imaging apparatus has been described by taking up the camera 2 that is a single-lens reflex camera with interchangeable lenses. As imaging devices, entertainment devices such as compact digital cameras and other non-interchangeable cameras, mirrorless single-lens cameras, video cameras, mobile phones with an imaging function, portable information terminals with an imaging function, game machines with an imaging function, etc. For example, various devices having an imaging function can be applied.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The execution order of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior”. It should be noted that they can be implemented in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for the sake of convenience, it means that it is essential to carry out in this order. is not.

2 カメラ、4 レンズ、8 ファインダ部、12 ミラー、13 シャッタ、16 CPU、18 表示装置、20 操作部材、22 画像処理ブロック、24 画像処理回路、26 撮像素子、28 タイミングジェネレータ、30 A/D変換回路、34 イメージメモリ、36 画像表示装置、38 表示回路、44 記録媒体 2 camera, 4 lens, 8 viewfinder, 12 mirror, 13 shutter, 16 CPU, 18 display device, 20 operation member, 22 image processing block, 24 image processing circuit, 26 image sensor, 28 timing generator, 30 A / D conversion Circuit, 34 image memory, 36 image display device, 38 display circuit, 44 recording medium

Claims (13)

予め定められた時間間隔で撮像することにより取得された複数の静止画データを取得する画像取得部と、
前記複数の静止画データのうちの第1静止画データと第2静止画データとを合成して第1合成画像データを生成し、前記複数の静止画データのうちの第3静止画データと第4静止画データとを合成して第2合成画像データを生成する合成画像生成部と、
前記第1合成画像データおよび前記第2合成画像データを用いて、合成画像データの再生間隔が前記予め定められた時間間隔より短い動画データを生成する動画生成部と、
を備える画像生成装置。
An image acquisition unit for acquiring a plurality of still image data acquired by imaging at predetermined time intervals;
The first still image data and the second still image data of the plurality of still image data are combined to generate first combined image data, and the third still image data and the first still image data of the plurality of still image data are generated. A synthesized image generating unit that generates the second synthesized image data by synthesizing the four still image data;
A moving image generation unit that generates moving image data in which a reproduction interval of the combined image data is shorter than the predetermined time interval using the first combined image data and the second combined image data;
An image generation apparatus comprising:
前記第1合成画像データおよび前記第2合成画像データの少なくとも一方の生成に用いられる静止画データの数を、前記複数の静止画データにおける画像変化が大きいほど多く設定する画像数設定部
をさらに備える請求項1に記載の画像生成装置。
An image number setting unit for setting the number of still image data used for generating at least one of the first synthesized image data and the second synthesized image data as the image change in the plurality of still image data increases; The image generation apparatus according to claim 1.
前記第1合成画像データおよび前記第2合成画像データの少なくとも一方の生成に用いられる静止画データの撮像時刻を含むべき時間範囲を、前記複数の静止画データにおける画像変化が大きいほど、長く設定する時間範囲設定部
をさらに備える請求項1または2に記載の画像生成装置。
The time range that should include the imaging time of still image data used to generate at least one of the first composite image data and the second composite image data is set longer as the image change in the plurality of still image data is larger. The image generation apparatus according to claim 1, further comprising a time range setting unit.
前記画像変化は、前記複数の静止画データにおける明るさ変化に基づいて決定される
請求項2または3に記載の画像生成装置。
The image generation apparatus according to claim 2, wherein the image change is determined based on a brightness change in the plurality of still image data.
前記合成に使用される静止画データに、それぞれ前記合成における重みを設定する重み設定部
をさらに備える請求項1から4のいずれか一項に記載の画像生成装置。
5. The image generation apparatus according to claim 1, further comprising a weight setting unit configured to set a weight in the composition for each of the still image data used for the composition.
前記重み設定部は、前記第1合成画像データおよび前記第2合成画像データの少なくとも一方の生成に用いられる静止画データの撮像時刻を含むべき時間範囲において、予め定められた時刻に撮像時刻がより近い静止画データに、前記重みとしてより大きい値を設定する
請求項5に記載の画像生成装置。
The weight setting unit has an imaging time at a predetermined time in a time range that should include an imaging time of still image data used for generating at least one of the first composite image data and the second composite image data. The image generation apparatus according to claim 5, wherein a larger value is set as the weight for near still image data.
前記重み設定部は、前記時間範囲における中心時刻に撮像時刻がより近い静止画データに、前記重みとしてより大きい値を設定する
請求項6に記載の画像生成装置。
The image generation apparatus according to claim 6, wherein the weight setting unit sets a larger value as the weight for still image data whose imaging time is closer to the central time in the time range.
前記時間範囲設定部は、前記第1合成画像データおよび前記第2合成画像データにおける明るさ変化が予め定められた値より小さくなるように、前記時間範囲の長さを設定する
請求項3に記載の画像生成装置。
The said time range setting part sets the length of the said time range so that the brightness change in the said 1st synthetic image data and the said 2nd synthetic image data may become smaller than a predetermined value. Image generation device.
前記重み設定部は、前記第1合成画像データおよび前記第2合成画像データにおける明るさ変化が予め定められた値より小さくなるように、前記重みを設定する
請求項5に記載の画像生成装置。
The image generation apparatus according to claim 5, wherein the weight setting unit sets the weight so that a change in brightness in the first composite image data and the second composite image data is smaller than a predetermined value.
前記第2静止画データおよび前記第3静止画データは同一の静止画データである
請求項1から9のいずれか一項に記載の画像生成装置。
The image generation apparatus according to any one of claims 1 to 9, wherein the second still image data and the third still image data are the same still image data.
前記動画データを不揮発性の記録媒体に記録する記録部
をさらに備える請求項1から10のいずれか一項に記載の画像生成装置。
The image generation apparatus according to claim 1, further comprising a recording unit that records the moving image data on a nonvolatile recording medium.
前記予め定められた時間間隔で撮像することにより複数の静止画データを生成する撮像部と、
前記複数の静止画データを用いて前記動画データを生成する請求項1から11のいずれか一項に記載の画像生成装置と、
を備える撮像装置。
An imaging unit that generates a plurality of still image data by imaging at the predetermined time interval;
The image generation device according to any one of claims 1 to 11, wherein the moving image data is generated using the plurality of still image data;
An imaging apparatus comprising:
予め定められた時間間隔で撮像することにより取得された複数の静止画データを取得するステップと、
前記複数の静止画データのうちの第1静止画データと第2静止画データとを合成して第1合成画像データを生成し、前記複数の静止画データのうちの第3静止画データと第4静止画データとを合成して第2合成画像データを生成するステップと、
前記第1合成画像データおよび前記第2合成画像データを用いて、合成画像データの再生間隔が前記予め定められた時間間隔より短い動画データを生成するステップと、
をコンピュータに実行させるプログラム。
Acquiring a plurality of still image data acquired by imaging at predetermined time intervals;
The first still image data and the second still image data of the plurality of still image data are combined to generate first combined image data, and the third still image data and the first still image data of the plurality of still image data are generated. Synthesizing four still image data to generate second synthesized image data;
Using the first synthesized image data and the second synthesized image data to generate moving image data in which a reproduction interval of the synthesized image data is shorter than the predetermined time interval;
A program that causes a computer to execute.
JP2013541602A 2011-11-04 2012-10-15 Image generating apparatus, imaging apparatus, and program Active JP5991495B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013541602A JP5991495B2 (en) 2011-11-04 2012-10-15 Image generating apparatus, imaging apparatus, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011242357 2011-11-04
JP2011242357 2011-11-04
JP2013541602A JP5991495B2 (en) 2011-11-04 2012-10-15 Image generating apparatus, imaging apparatus, and program
PCT/JP2012/006595 WO2013065242A1 (en) 2011-11-04 2012-10-15 Image generation device, imaging device and program

Publications (2)

Publication Number Publication Date
JPWO2013065242A1 true JPWO2013065242A1 (en) 2015-04-02
JP5991495B2 JP5991495B2 (en) 2016-09-14

Family

ID=48191624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013541602A Active JP5991495B2 (en) 2011-11-04 2012-10-15 Image generating apparatus, imaging apparatus, and program

Country Status (2)

Country Link
JP (1) JP5991495B2 (en)
WO (1) WO2013065242A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6107431B2 (en) * 2013-05-30 2017-04-05 株式会社ニコン Imaging device
EP3023987B1 (en) * 2014-11-20 2017-03-22 Axis AB Method and apparatus for visualizing information of a digital video stream

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077810A (en) * 2000-08-24 2002-03-15 Toshiba Corp Device and method for reproducing compression-encoded dynamic image at high speed and recording medium with program recorded therein for making computer execute such reproducing operation
JP2004336608A (en) * 2003-05-12 2004-11-25 Sony Corp Method and circuit for converting image data, and electronic camera
JP2011182112A (en) * 2010-02-26 2011-09-15 Nikon Corp Imaging apparatus and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077810A (en) * 2000-08-24 2002-03-15 Toshiba Corp Device and method for reproducing compression-encoded dynamic image at high speed and recording medium with program recorded therein for making computer execute such reproducing operation
JP2004336608A (en) * 2003-05-12 2004-11-25 Sony Corp Method and circuit for converting image data, and electronic camera
JP2011182112A (en) * 2010-02-26 2011-09-15 Nikon Corp Imaging apparatus and program

Also Published As

Publication number Publication date
JP5991495B2 (en) 2016-09-14
WO2013065242A1 (en) 2013-05-10

Similar Documents

Publication Publication Date Title
US8638374B2 (en) Image pickup apparatus, image pickup system, and image pickup method
US8848097B2 (en) Image processing apparatus, and method, for providing special effect
US7852401B2 (en) Photographing apparatus and photographing method for exposure control during continuous photographing mode
JP5350928B2 (en) Camera and camera control method
JP5950678B2 (en) Imaging apparatus, control method, and program
JP5002931B2 (en) Imaging apparatus and program thereof
JP2013046259A (en) Video apparatus, control method, and program
JP4556195B2 (en) Imaging device, moving image playback device, and program
US9172874B2 (en) Imaging apparatus and image generation method for generating one piece of image including a moving image and still image
JP5480025B2 (en) Imaging apparatus, imaging system, and imaging method
KR20150002478A (en) Moving image generating apparatus, moving image generating method, and computer readable recording medium having a computer program
JP2009111518A (en) Imaging apparatus, image reproducing unit and program thereof, and data structure of image file
JP5909997B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2006033123A (en) Image pickup device
JP5991495B2 (en) Image generating apparatus, imaging apparatus, and program
JP2017123670A (en) Imaging controller, and control method, and program therefor
JP2018006828A (en) Imaging apparatus, control method therefor and program
JP6103481B2 (en) Imaging apparatus, and control method and program thereof
JP2010226495A (en) Photographing device
JP7319873B2 (en) Imaging device and its control method
JP2018056652A (en) Imaging device and control method for imaging device
JP2011055524A (en) Imaging apparatus and program therefor
JP2004186866A (en) Image recording apparatus
JP5911253B2 (en) Imaging device
JP2012129900A (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160802

R150 Certificate of patent or registration of utility model

Ref document number: 5991495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250