JPWO2013065242A1 - Image generating apparatus, imaging apparatus, and program - Google Patents
Image generating apparatus, imaging apparatus, and program Download PDFInfo
- Publication number
- JPWO2013065242A1 JPWO2013065242A1 JP2013541602A JP2013541602A JPWO2013065242A1 JP WO2013065242 A1 JPWO2013065242 A1 JP WO2013065242A1 JP 2013541602 A JP2013541602 A JP 2013541602A JP 2013541602 A JP2013541602 A JP 2013541602A JP WO2013065242 A1 JPWO2013065242 A1 JP WO2013065242A1
- Authority
- JP
- Japan
- Prior art keywords
- image data
- still image
- still
- imaging
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
- H04N5/772—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/745—Detection of flicker frequency or suppression of flicker wherein the flicker is caused by illumination, e.g. due to fluorescent tube illumination or pulsed LED illumination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/7921—Processing of colour television signals in connection with recording for more than one processing mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/8042—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/8042—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
- H04N9/8047—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using transform coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
画像生成装置は、予め定められた時間間隔で撮像することにより取得された複数の静止画データを取得する画像取得部と、複数の静止画データのうちの第1静止画データと第2静止画データとを合成して第1合成画像データを生成し、複数の静止画データのうちの第3静止画データと第4静止画データとを合成して第2合成画像データを生成する合成画像生成部と、第1合成画像データおよび第2合成画像データを用いて、合成画像データの再生間隔が予め定められた時間間隔より短い動画データを生成する動画生成部と、を備える。The image generation device includes an image acquisition unit that acquires a plurality of still image data acquired by imaging at predetermined time intervals, and a first still image data and a second still image among the plurality of still image data. The composite image generation that generates the first composite image data by combining the data and generates the second composite image data by combining the third still image data and the fourth still image data among the plurality of still image data And a moving image generation unit that generates moving image data having a reproduction interval of the combined image data shorter than a predetermined time interval using the first combined image data and the second combined image data.
Description
本発明は、画像生成装置、撮像装置およびプログラムに関する。 The present invention relates to an image generation device, an imaging device, and a program.
静止画像にて情報を取込み記憶させた後に、動画像へと変換を行う技術が知られている(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開平11−231385号公報A technique is known in which information is captured and stored in a still image and then converted into a moving image (see, for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP-A-11-231385
複数の静止画データを動画化して再生すると、見にくい映像になってしまう場合がある。例えば、静止画撮像時のシャッタスピードが速いと、被写体の変化が滑らかに見えない動画になってしまう。また、撮像時の露出にばらつきがあると、ちらつきが大きく見える動画になってしまう。 When a plurality of still image data is converted into a moving image and reproduced, the image may be difficult to view. For example, if the shutter speed at the time of taking a still image is high, the change in the subject does not look smooth. In addition, if there is a variation in exposure at the time of image capture, the video appears to flicker greatly.
本発明の第1の態様においては、画像生成装置は、予め定められた時間間隔で撮像することにより取得された複数の静止画データを取得する画像取得部と、複数の静止画データのうちの第1静止画データと第2静止画データとを合成して第1合成画像データを生成し、複数の静止画データのうちの第3静止画データと第4静止画データとを合成して第2合成画像データを生成する合成画像生成部と、第1合成画像データおよび第2合成画像データを用いて、合成画像データの再生間隔が予め定められた時間間隔より短い時間間隔で再生される動画データを生成する動画生成部と、を備える。 In the first aspect of the present invention, an image generation device includes an image acquisition unit that acquires a plurality of still image data acquired by imaging at predetermined time intervals, and a plurality of still image data. The first still image data and the second still image data are combined to generate first combined image data, and the third still image data and the fourth still image data of the plurality of still image data are combined to form the first still image data. 2. A moving image that is reproduced at a time interval shorter than a predetermined time interval by using a composite image generating unit that generates composite image data and the first composite image data and the second composite image data. A moving image generation unit for generating data.
本発明の第2の態様においては、撮像装置は、予め定められた時間間隔で複数の静止画を撮像する撮像部と、複数の静止画の静止画データを用いて動画データを生成する上記画像生成部と、を備える。 In the second aspect of the present invention, the imaging device generates the moving image data using the imaging unit that captures a plurality of still images at predetermined time intervals and the still image data of the plurality of still images. A generating unit.
本発明の第3の態様においては、プログラムは、予め定められた時間間隔で撮像することにより取得された複数の静止画データを取得するステップと、複数の静止画データのうちの第1静止画データと第2静止画データとを合成して第1合成画像データを生成し、複数の静止画データのうちの第3静止画データと第4静止画データとを合成して第2合成画像データを生成するステップと、第1合成画像データおよび第2合成画像データを用いて、合成画像データの再生間隔が予め定められた時間間隔より短い動画データを生成するステップと、をコンピュータに実行させる。 In the third aspect of the present invention, the program acquires a plurality of still image data acquired by imaging at a predetermined time interval, and a first still image of the plurality of still image data The first still image data is generated by combining the data and the second still image data, and the second still image data is generated by combining the third still image data and the fourth still image data among the plurality of still image data. And generating a moving image data having a reproduction interval of the composite image data shorter than a predetermined time interval using the first composite image data and the second composite image data.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、一実施形態にかかるカメラ2のブロック構成を示す。レンズ交換式カメラの一例である一眼レフレックスカメラとしてのカメラ2は、レンズ4、ミラー12、ファインダ部8、撮像素子26、A/D変換回路30、タイミングジェネレータ28、画像処理ブロック22、CPU16、表示装置18、操作部材20、画像表示装置36、記録媒体44を備える。画像処理ブロック22は、イメージメモリ34、表示回路38、画像処理回路24を有する。
FIG. 1 shows a block configuration of a
撮像準備段階では、被写体光束はミラー12によりファインダ部8に導かれ、被写体像をユーザに提示させることができる。ファインダ部8には被写体光束を測光する測光素子が設けられており、測光素子の出力は適正露出の算出に用いられる。ユーザ等から撮像指示を受けると、ミラー12がアップするとともにシャッタ13が開くことによって、レンズ4により結像した被写体光束が撮像素子26に投影される。
In the imaging preparation stage, the subject luminous flux is guided to the finder unit 8 by the
撮像素子26は、レンズ4で結像した被写体光束を電気信号に変換する。撮像素子26としては、CMOS、CCD等の固体撮像素子を例示することができる。撮像素子26は、タイミングジェネレータ28により与えられるタイミング信号により、蓄積電荷のアナログ信号を生成して出力する。A/D変換回路30は、撮像素子26から出力された信号を、画像データを示すデジタル信号に変換して画像処理ブロック22に出力する。
The
イメージメモリ34は、撮像素子26が撮像することにより得られた画像データを一時的に記憶する。撮像素子26が複数回の撮像動作を行った場合、各回の撮像動作に対応する複数の画像データがイメージメモリ34に記憶される。カメラ2が静止画を撮像した場合、静止画の画像データがイメージメモリ34に記憶される。カメラ2が動画としての複数の画像を撮像した場合、撮像された複数の画像に対応する複数の画像データが、動画データを構成する複数のフレームとしてイメージメモリ34に記憶される。
The
画像処理回路24は、イメージメモリ34に記憶されている画像データに対して各種画像処理を行う。表示回路38は、撮像により得られた画像データを、画像表示装置36に画像として表示させる。また、表示回路38は、カメラ2の動作を設定する各種設定メニューを、画像表示装置36に表示させる。画像表示装置36は、表示回路38にて生成された信号に従って、画像や各種設定メニューを表示する。画像表示装置36としては、TFT液晶等のカラーの液晶デバイスを例示することができる。
The
記録媒体44は、画像処理回路24で処理された画像データを記録する。記録媒体44は、不揮発性の記録媒体であってよい。記録媒体44としては、半導体メモリ等の、カメラ2に対して着脱可能なメモリーカードを例示することができる。
The
例えば、記録媒体44は、画像処理回路で生成された画像データを記録する。例えばカメラ2が静止画を撮像した場合、静止画の画像データである静止画データは、JPEG等の静止画データ用の符号化方式で符号化され、静止画ファイルのデータとして記録媒体44に記録される。記録媒体44は、静止画データをRAW形式のデータとして記録してもよい。静止画データが記録媒体44に記録される場合、Exif形式の画像ファイルのデータとして記録されてよい。撮像時刻等の情報が、Exifのヘッダ情報に含めて記録されてよい。ヘッダ情報に含まれる撮像時刻の情報は、後述する微速度撮影で得られた画像ファイルであるか否かを判断する場合に用いられてよい。なお、静止画を撮像して記録することができる動作モードを静止画モードと呼び、微速度撮影を行う動作モードを微速度撮影モードと呼ぶ。
For example, the
記録媒体44は、動画データを構成する複数のフレームを、Motion JPEG、H.264等の規格に準拠した動画データとして記録してよい。一例としてカメラ2は、動画を構成する画像を撮像する場合には1秒間に24〜60コマ程度の撮像レートで撮像する。撮像により得られた複数のフレームは、撮像レートと同じ表示レートで表示される動画データに符号化されてよい。なお、動画を構成する画像を撮像して動画データを記録することができる動作モードを動画モードと呼ぶ。
The
CPU16は、カメラ2の全体の制御を行う。表示装置18は、カメラ2の状態等を表示する。表示装置18は、簡易的な表示を行う液晶デバイス等であってよい。操作部材20は、ユーザからの指示を取得する。操作部材20としては、電源スイッチ、レリーズボタン、ライブビューボタン等を例示することができる。CPU16は、操作部材20が取得したユーザ指示に従って、カメラ2の各部を制御する。
The
カメラ2は、上述した静止画や動画を構成する画像を撮像しデータとして記録することの他に、微速度撮影をすることができる。例えばカメラ2の位置および撮像方向が固定された状態で、比較的にゆっくり変化する現象を静止画データとして記録する場面で微速度撮影が用いられる。微速度撮影では、撮像素子26は、予め定められた時間間隔で複数の静止画を撮像する。微速度撮影においては、カメラ2は、撮像することにより得られた複数の静止画データを動画化する。例えば、静止画の撮像レートよりも高い表示レートの動画データを生成する。この動画化により、事象の変化をユーザに短時間で観察させることができる。本実施形態にかかるカメラ2の動作のうち、微速度撮影で得られた複数の静止画データから動画データを生成する場合の動作について主として説明される。
The
ここで、動画モードと微速度撮影モードとの違いについて簡単に説明する。微速度撮影は、撮像を継続した時間である継続時間よりも再生時間が短く定義される動画データを生成するために行われる。動画モードで1秒あたりのフレーム取得数を例えば30フレームに設定して撮像すると、生成された動画データは、再生時においても標準で1秒間に30フレームの表示レートで再生される。つまり、撮像時における時間軸と再生時における時間軸とは実質的に一致する。動画モードでは、いわば表示の実時間に同期して撮像される。一方、微速度撮影モードでは、例えば4秒間隔で1コマの静止画を撮像して動画データを生成する。例えば1時間の微速度撮影によって、900フレームの動画データが生成される。しかし、本動画データは、再生時には標準で1秒間に30フレームの表示レートで再生され、30秒で再生が完了する。つまり、撮像時における時間軸が再生時において圧縮される。換言すれば、微速度撮影によれば、撮像時の撮像間隔が通常の動画モード時の撮像間隔と比較して長いといえる。なお、微速度撮影における撮像の継続時間は、撮像を開始してから撮像を終了するまでの時間で表す。例えば微速度撮影の継続時間を1時間とした場合、上記のように4秒間隔で1コマの静止画を撮像するときは、900フレーム分の静止画データが得られる。すなわち微速度撮影の継続時間には、静止画を撮像する間の、撮像素子26で露光していない時間が含まれる。
Here, the difference between the moving image mode and the time-lapse shooting mode will be briefly described. Time-lapse photography is performed in order to generate moving image data that is defined to have a playback time shorter than a duration that is a time during which imaging is continued. If the number of frames acquired per second is set to 30 frames in the moving image mode, for example, the generated moving image data is reproduced at a display rate of 30 frames per second as a standard even during reproduction. That is, the time axis at the time of imaging and the time axis at the time of reproduction substantially coincide. In the moving image mode, imaging is performed in synchronism with the real time of display. On the other hand, in the time-lapse shooting mode, for example, one frame of still image is captured at intervals of 4 seconds to generate moving image data. For example, 900 frames of moving image data are generated by one-hour time-lapse photography. However, the moving image data is normally played back at a display rate of 30 frames per second at the time of playback, and the playback is completed in 30 seconds. That is, the time axis during imaging is compressed during reproduction. In other words, according to the time-lapse shooting, it can be said that the imaging interval at the time of imaging is longer than the imaging interval in the normal moving image mode. Note that the duration of imaging in time-lapse photography is expressed as the time from the start of imaging until the end of imaging. For example, when the time lapse duration is set to 1 hour, 900 frames of still image data is obtained when a still image of one frame is captured at intervals of 4 seconds as described above. That is, the time lapse duration includes the time during which the
静止画モードでは、ミラー12がアップされ、シャッタ13が閉じるまでの間、撮像素子26は被写体光を電荷として蓄積する。電荷の蓄積が終了するとミラー12はダウンされて被写体光束中に挿入される。上述したように、蓄積電荷のアナログ信号A/D変換回路30に出力され、A/D変換回路30から画像データを示すデジタル信号が出力される。画像データは画像処理ブロック22に供給され、ホワイトバランスの調整、ガンマ補正等の画像処理が施される。画像データは、更にJPEG等の符号化方式で符号化処理が施されて、記録媒体44に静止画ファイルのデータとして記録される。
In the still image mode, the
動画モードでは、ミラー12をアップさせた状態でシャッタ13を開いた状態とされる。したがって、被写体光束は撮像素子26に常時投影される。静止画モードとは異なり動画モードでは、撮像素子26はいわゆるローリングシャッタ方式により順次にラインが露光される。ローリングシャッタ方式で取り込まれた被写体像のフレームに対して、ホワイトバランスの調整、ガンマ補正等の画像処理が施される。画像データは、更にJPEG等の符号化方式で符号化処理が施されて、記録媒体44にMotion JPEG等のファイルとして記録されていく。本動作は、動画モードを終了する操作がなされるまで継続される。フレームには、H.264等の符号化方式でフレーム内符号化、フレーム間符号化等の符号化処理が施されてよいことは言うまでもない。
In the moving image mode, the
動画モードの動作設定としては、1秒間の撮像回数を設定するフレームレート設定、画質を設定する画質設定等を含む。例えば1秒間に30回撮像する場合、フレームレートとして例えば30fpsが選択される。この場合、表示レートとして30fpsでフレームが再生される動画データが生成される。また高画質設定では、例えば1920×1080の画素数を持つフレームが生成される。 The motion mode operation settings include a frame rate setting for setting the number of times of imaging per second, an image quality setting for setting image quality, and the like. For example, when imaging 30 times per second, for example, 30 fps is selected as the frame rate. In this case, moving image data in which a frame is reproduced at a display rate of 30 fps is generated. In the high image quality setting, for example, a frame having the number of pixels of 1920 × 1080 is generated.
微速度撮影を行う場合、撮像素子26は静止画モードと同様に駆動される。具体的には、撮像素子26は、いわゆるインターバルタイマ方式によって、予め定められた時間間隔で複数の静止画を撮像する。そして、画像処理回路24は、得られた複数の静止画データを、後述するように微速度撮影に適した方式で動画データに変換する。一例として、微速度撮影で得られた複数の静止画データは、動画用の動作設定に従って動画化される。例えば30fpsの動画データを生成するようフレームレートが設定されている場合、微速度撮影で30コマの静止画を撮像すると、再生時間が1秒の動画データが生成される。
When time-lapse photography is performed, the
微速度撮影用のパラメータとしては、静止画の撮像間隔、複数の静止画の撮像を継続する継続時間、再生時間、フレームレートの4つのパラメータが存在する。継続時間は、複数の静止画を撮像するトータルの期間であり、撮像開始から撮像終了までの時間であってよい。例えば、フレームレートとして30fps、継続時間として1時間、再生時間として30秒が設定された場合は、撮像間隔は4秒に設定される。 There are four parameters for time-lapse shooting: a still image capturing interval, a continuous time for capturing a plurality of still images, a reproduction time, and a frame rate. The duration is a total period for capturing a plurality of still images, and may be a time from the start of imaging to the end of imaging. For example, when the frame rate is set to 30 fps, the duration is set to 1 hour, and the playback time is set to 30 seconds, the imaging interval is set to 4 seconds.
図2は、微速度撮影のパラメータを設定する設定画面の一例を示す。フレームレートは動画再生時の表示レートであり、24fps、25fps、30fps、50fps、60fpsの中から選択することができる。本例では30fpsが指定されている。その他の撮像間隔、継続時間、再生時間は、2つが指定されれば残りの1つは自動的に設定される。たとえば継続時間が1時間に指定され、再生時間が30秒に指定された場合、撮像される静止画の数は900となり、撮像間隔は4秒に設定される。なお、撮像間隔および継続時間を指定すれば再生時間が、撮像間隔および再生時間を指定すれば継続時間が決まる。CPU16は、操作部材20を通じて設定された各パラメータに従って、撮像および動画データの生成を制御する。
FIG. 2 shows an example of a setting screen for setting time-lapse shooting parameters. The frame rate is a display rate at the time of moving image reproduction, and can be selected from 24 fps, 25 fps, 30 fps, 50 fps, and 60 fps. In this example, 30 fps is specified. If two other imaging intervals, durations, and playback times are specified, the remaining one is automatically set. For example, when the duration is specified as 1 hour and the playback time is specified as 30 seconds, the number of still images to be captured is 900, and the imaging interval is set to 4 seconds. If the imaging interval and duration are specified, the playback time is determined. If the imaging interval and playback time is specified, the duration is determined. The
図3は、微速度撮影で得られた静止画データおよび動画のフレームを模式的に示す。本例では、Nコマの静止画データが取得されたとする。上述したように静止画データはMotion JPEG、H.264等の符号化方式を適用して動画のフレームに変換され、ユーザに映像として提示可能な動画データとして記録される。ここで、図2に例示したパラメータでは、4秒間隔で静止画を撮像する。このように微速度撮影では、通常の動画のフレームの撮像間隔より長い時間間隔で静止画が撮像されるので、得られた複数の静止画データをそれぞれ動画のフレームとして適用すると、その間の被写体の動きによって、滑らかに見える映像にはならない。また、例えば日差しの変化等によって露出が変化した場合、ちらつき感のある映像となる。 FIG. 3 schematically shows still image data and moving image frames obtained by time-lapse photography. In this example, it is assumed that N frames of still image data have been acquired. As described above, the still image data is Motion JPEG, H.264. It is converted into a moving image frame by applying an encoding method such as H.264 and recorded as moving image data that can be presented as a video to the user. Here, with the parameters illustrated in FIG. 2, still images are captured at intervals of 4 seconds. As described above, in time-lapse shooting, still images are captured at a time interval longer than the imaging interval of a normal moving image frame. Therefore, when each of a plurality of obtained still image data is applied as a moving image frame, The motion does not make the image look smooth. For example, when the exposure changes due to a change in sunlight, the image has a flickering feeling.
そこで、画像処理回路24は、複数の静止画データを合成して1つの合成画像データを生成し、生成した合成画像データを動画のフレームとして適用する。本図において、1コマ目の静止画データ300−1と2コマ目の静止画データ300−2を合成して第1フレーム310−1とする。同様に、2コマ目の静止画データ300−2と3コマ目の静止画データ300−3を合成して第2フレーム310−2とする。これを繰り返して、N−1個のフレームを生成する。画像処理回路24は、複数の静止画データ300のいずれの静止画データ300も動画のフレームとして使用することなく、動画データを生成してよい。画像処理回路24は、生成したN−1個のフレーム310のみを動画のフレームとして使用して動画データを生成してよい。なお、N個のフレームを含む動画データを生成するためには、N+1個の静止画を撮像すればよい。
Therefore, the
本例で示すように複数の静止画データを合成して動画の各フレームを生成することで、それぞれのフレーム内では被写体像にぶれが生じる場合があるが、動画を再生した場合には滑らかな映像となる。また連続して生成した静止画データを撮像する間に露出に変化があった場合でも、露出が平均化されるので、映像のちらつきを低減することができる。カメラ2によれば、動画モード時よりも露光時間を短くしても、ちらつきの少ない滑らかな映像を提供できる。
As shown in this example, by synthesizing multiple still image data and generating each frame of a moving image, the subject image may be blurred in each frame, but when moving images are played back, it is smooth It becomes a picture. Further, even when there is a change in exposure during the imaging of continuously generated still image data, since the exposure is averaged, it is possible to reduce image flicker. According to the
図4は、静止画データに対する合成処理の一例を示す。図3に関連して説明したように、画像処理回路24は、連続する2コマの静止画データを合成して1つのフレームとする。例えば、図3に関連して説明したように、期間400−1の撮像で得られた静止画データ300−1と静止画データ300−2とを合成して第1フレーム310−1を生成し、期間400−2の撮像で得られた静止画データ300−2と静止画データ300−3とを合成して第2フレーム310−2を生成する。また、期間400−3の撮像で得られた3コマ目の静止画データ300−3と4コマ目の静止画データ300−4とを合成して第3フレーム310−3を生成する。また、期間400−4の撮像で得られた4コマ目の静止画データ300−4と5コマ目の静止画データ300−5とを合成して第4フレーム310−4を生成する。ここで、画像処理回路24は、1コマ目の静止画データには合成の重みとしてw1を適用し、2コマ目の静止画データには合成の重みとしてw2を適用する。具体的には、画像処理回路24は、2コマの静止画データの対応する画素値を、対応する重みで重みづけ加算して、動画のフレームの画素値に適用する。一例として、w1およびw2を1/2としてよい。この場合、2コマの静止画データをゲイン1/2で合成することができ、撮像時の露出に適合した明るさにすることができる。合計が1となるように重みを適用することで、露出を平均化することができる。
FIG. 4 shows an example of a synthesis process for still image data. As described with reference to FIG. 3, the
図5は、静止画データに対する更なる他の合成処理の一例を示す。図4の例では連続する2コマの静止画データを合成したが、本例では、1コマ置きに2コマの静止画データを合成して1つのフレームとする。 FIG. 5 shows an example of still another synthesis process for still image data. In the example of FIG. 4, two continuous frames of still image data are combined, but in this example, two frames of still image data are combined every other frame to form one frame.
具体的には、画像処理回路24は、期間500−1の撮像で得られた静止画データのうち1コマ目の静止画データ300−1および3コマ目の静止画データ300−3を合成して第1フレーム510−1とする。同様に、画像処理回路24は、期間500−2の撮像で得られた静止画データのうち2コマ目の静止画データ300−2および4コマ目の静止画データ300−4を合成して第2フレーム510−2とし、期間500−3の撮像で得られた静止画データのうち3コマ目の静止画データ300−3および5コマ目の静止画データ300−5を合成して第3フレーム510−3とする。これを繰り返して、N−2個のフレームを生成する。N個のフレームを含む動画データを生成するためには、N+2個の静止画を撮像すればよい。
Specifically, the
ここで、画像処理回路24は、1フレームを生成するのに用いる2コマの静止画データに、合成の重みとしてそれぞれw1およびw2を適用する。例えば、w1+w2=1となるように重みを設定する。重みの合計が1となるように重みを設定することで、露出を平均化することができる。一例として、w1およびw2に1/2を設定してよい。この場合、2コマの静止画データをゲイン1/2で合成することができ、撮像時の露出に適合した明るさにすることができる。
Here, the
本例によれば、図4の例と比べて、長い時間範囲内で撮像されて得られた静止画データから1つのフレームを生成することができる。このため、被写体の明るさ変化が大きい場合でも映像のちらつきを低減することができる。 According to this example, it is possible to generate one frame from still image data obtained by imaging within a long time range as compared to the example of FIG. For this reason, even when the brightness change of the subject is large, it is possible to reduce the flicker of the image.
図6は、静止画データに対する他の合成処理の一例を示す。図4の例では連続する2コマの静止画データを合成したが、本例では、連続する3コマの静止画データを合成して1つのフレームとする。合成に用いる静止画データを選択する時間範囲は、図5の例と同一であるが、1フレームを生成するために用いる静止画データの数は図5の例と比較して多い。 FIG. 6 shows an example of another synthesis process for still image data. In the example of FIG. 4, two continuous frames of still image data are combined, but in this example, three consecutive frames of still image data are combined into one frame. The time range for selecting still image data to be used for composition is the same as in the example of FIG. 5, but the number of still image data used to generate one frame is larger than that in the example of FIG.
具体的には、画像処理回路24は、期間600−1の撮像で得られた1コマ目から3コマ目の静止画データ300−1〜3を合成して第1フレーム610−1とする。同様に、画像処理回路24は、期間600−2の撮像で得られた2コマ目から4コマ目の静止画データ300−2〜4を合成して第2フレーム610−2とし、期間600−3の撮像で得られた3コマ目から5コマ目の静止画データ300−3〜5を合成して第3フレーム610−3とする。これを繰り返して、N−2個のフレームを生成する。N個のフレームを含む動画データを生成するためには、N+2個の静止画を撮像すればよい。
Specifically, the
画像処理回路24は、1フレームの生成に用いる3コマの静止画データを含む各静止画データ群について、1コマ目、2コマ目および3コマ目の静止画データに、合成の重みとしてそれぞれw1、w2およびw3を適用する。例えば、w1+w2+w3=1となるように重みを設定する。重みの合計が1となるように重みを設定することで、露出の違いを平均化することができる。一例として、w1、w2およびw3に1/3を設定してよい。この場合、3コマの静止画データをゲイン1/3で合成することができ、撮像時の露出に適合した明るさにすることができる。
For each still image data group including three frames of still image data used for generating one frame, the
本例によれば、図5の例と比べて、多くの静止画データから1つのフレームを生成することができる。このため、被写体の明るさ変化が大きい場合でも映像のちらつきをより低減することができる。なお、図4から図6に関連して説明した合成処理のうちいずれの合成処理を微速度撮影に適用するかを、ユーザに選択させてよい。 According to this example, one frame can be generated from a larger amount of still image data than in the example of FIG. For this reason, even when the brightness change of the subject is large, it is possible to further reduce the flicker of the video. Note that the user may be allowed to select which of the combining processes described with reference to FIGS. 4 to 6 is applied to the time-lapse shooting.
以上に説明したように、画像処理回路24は、予め定められた時間間隔で撮像することによって得られた複数の静止画データを取得して、複数の静止画データのうちの第1静止画データと第2静止画データとを合成して第1合成画像データを生成し、複数の静止画データのうちの第3静止画データと第4静止画データとを合成して第2合成画像データを生成する。そして、画像処理回路24は、第1合成画像データおよび第2合成画像データを用いて、合成画像データの再生間隔が予め定められた時間間隔より短い動画データを生成する。画像処理回路24は、動画データを構成する画像データとして複数の静止画データを使用することなく、動画データを生成する。画像処理回路24は、複数の合成画像データのみを画像データとして使用して動画データを生成してよい。ここで、図4に例示したように、第1合成画像データおよび第2合成画像データを含む複数の合成画像データの生成に用いられる静止画データの撮像時刻を含むべき複数の時間範囲は、連続する時間範囲であってよい。また、図5または図6に例示したように複数の時間範囲は一部期間が重複してよい。すなわち、第2静止画データおよび第3静止画データは同一の静止画データであってよい。
As described above, the
図4から図6に関連して説明したように、画像処理回路24は、複数の静止画データを合成する場合に、合成される複数の静止画データに、それぞれ合成における重みを設定する。図4から図6の例では、合成の重みを一定とした。しかし、画像処理回路24は、各時間範囲の中心時刻に撮像時刻がより近い静止画データに、重みとしてより大きい値を設定してよい。例えば、図6の例において、各静止画データ群における1コマ目および3コマ目の静止画データより、2コマ目の静止画データに、大きい重みづけを設定してよい。例えば、w1およびw3を0.25とし、w2を0.5としてよい。また、最大の重みが設定されるタイミングは時間範囲の中心のタイミングやその近傍のタイミングでなくともよく、時間範囲において予め定められた基準のタイミングであってよい。例えば、1コマ目の静止画データに最大の重みを設定してよい。具体的には、w1、w2、w3をそれぞれ0.5、0.3、0.2としてよい。3コマ目の静止画データに最大の重みを設定してよいことはいうまでもない。すなわち、画像処理回路24は、各時間範囲内で漸減または漸増する重みを設定してよい。このように、画像処理回路24は、複数の時間範囲のうち少なくともいずれかの時間範囲において、予め定められた時刻に撮像時刻がより近い静止画データに、重みとしてより大きい値を設定してよい。このため、基準となる時刻の被写体の様子を比較的に強くフレームに反映させつつ、前または後の少なくとも一方のフレームを加味することで、ちらつきが少なく、かつ、滑らかに見える映像を提供することができる。
As described with reference to FIGS. 4 to 6, when combining a plurality of still image data, the
なお、1フレームの生成に用いる静止画データの数である使用数や、1フレームの生成に用いる静止画データを選択する時間範囲は、ユーザに設定させてよい。しかし、画像処理回路24が、当該使用数および時間範囲の少なくとも一方を、被写体の変化に応じて自動的に設定してよい。例えば、画像処理回路24は、複数のフレームのうち少なくともいずれかのフレームの生成に用いられる複数の静止画データの数を、複数の静止画データにおける画像変化が大きいほど多く設定してよい。また、画像処理回路24は、複数の時間範囲のうち少なくともいずれかの時間範囲を、複数の静止画データにおける画像変化が大きいほど長く設定してよい。ここで、画像変化は、複数の静止画データにおける明るさ変化に基づいて決定されてよい。明るさ変化に基づいて使用数および時間範囲の少なくとも一方を設定することで、映像としてのちらつきを低減することができる。
Note that the number of uses, which is the number of still image data used for generating one frame, and the time range for selecting still image data used for generating one frame may be set by the user. However, the
なお、画像処理回路24は、複数のフレームにおける明るさ変化が予め定められた値より小さくなるように、複数の時間範囲の長さを設定してよい。例えば、静止画データが表す画像の明るさ変化が予め定められた値より大きい期間が存在する場合、明るさの変化が予め定められた値より小さい期間を含むように時間範囲を設定することで、複数のフレームにおける明るさ変化が予め定められた値より小さくなるようにすることができる。
Note that the
画像処理回路24は、時間範囲を設定することに代えて、または、時間範囲を設定することに加えて、複数のフレームにおける明るさ変化が予め定められた値より小さくなるように、合成の重みを設定してもよい。例えば、連続または一部期間が重複する第1の時間範囲および第2の時間範囲において、複数の静止画データの明るさの平均値が第1の時間範囲より第2の時間範囲の方が明るい場合、画像処理回路24は、各静止画データが表す画像の明るさを考慮して、複数のフレームにおける明るさ変化が予め定められた値より小さくなるように重みを設定してよい。例えば、画像処理回路24は、第1の時間範囲においては、より明るい画像の静止画データにより大きい重みを設定し、第2の時間範囲内においては、より暗い画像の静止画データにより大きい重みを設定してよい。以上に説明した重み設定または時間範囲の設定により、映像としてのちらつきを低減することができる場合がある。
Instead of setting the time range or in addition to setting the time range, the
図7は、カメラ2の起動から終了までの処理フローを示す。本フローは、電源スイッチがONされた場合に、開始される。
FIG. 7 shows a processing flow from the start to the end of the
ステップS700において、CPU16は初期設定を行う。例えば、CPU16は、カメラ2を制御するための各種パラメータ等を、CPU16の内部に設けられた不揮発性のシステムメモリから内部RAMに展開する。各種パラメータとしては、図2に関連して説明した微速度撮影のパラメータを例示することができる。CPU16は、内部RAMに展開された各種パラメータに基づき、カメラ2の各部の動作条件を設定する。
In step S700, the
続いて、ステップS702において、画像表示装置36に設定結果を表示する。例えば、CPU16は、ステップS700で設定した設定結果を、画像表示装置36に表示させる。
Subsequently, in step S702, the setting result is displayed on the image display device. For example, the
続いて、ステップS704において、CPU16は、操作部材20に対するユーザ操作の内容を判断する。例えば、操作部材20に対して諸設定を実行するユーザ操作がなされた場合、CPU16が主体となって、指示された設定処理を行う(ステップS706)。設定処理としては、微速度撮影のパラメータを設定する処理、画素数を設定する処理、撮像動作を伴う動作モードを設定する処理等を例示することができる。動作モードとしては、微速度撮影モード等を例示することができる。微速度撮影モードを設定するユーザ操作がなされた場合、動作モードを微速度撮影モードに設定する。また、本ステップにおいて、図4から図6に関連して説明した合成処理のうちいずれの合成処理を適用するかをユーザ操作に従って選択してよい。
Subsequently, in step S704, the
ステップS704において、操作部材20に対して画像の再生を指示するユーザ操作があった場合、再生処理を実行する(ステップS722)。再生処理としては、記録媒体44に記録された画像データを読み出してサムネイル表示する処理、ユーザにより指示された画像データを画像表示装置36に表示する処理等を例示することができる。
In step S704, if there is a user operation for instructing the
ステップS704において、操作部材20に対して撮像実行に関するユーザ操作があった場合、撮像を伴う処理を行う(ステップS712)。なお、撮像実行に関するユーザ操作としては、レリーズボタン、ライブビューボタン等に対する操作を例示することができる。動作モードが微速度撮影モードに設定されていない場合に、レリーズボタンが押下された場合、静止画の撮像を行う。ライブビューボタンが押下された場合、ライブビュー動作を開始する。ライブビュー動作では、撮像素子26における撮像に並行して、撮像された画像を画像表示装置36に表示する。そして、ライブビュー動作中にレリーズボタンの操作があった場合は、静止画を撮像して静止画データを記録する。ライブビュー動作中に操作部材の一部としての動画ボタンの操作があった場合は、動画モードで動作する。動作モードが微速度撮影モードに設定されている場合の動作については、図8に関連して説明する。
In step S704, when there is a user operation related to execution of imaging on the
ステップS704においてユーザ指示がない場合は、ファインダ部8が有する測光素子による測光処理を行う(ステップS732)。具体的には、測光素子による測光と現在の適正露出値の決定を一定の時間間隔で実行する。ステップS732で決定した現在の露出値を示す情報は、画像表示装置36にリアルタイムに表示され、ユーザに提示される。
If there is no user instruction in step S704, a photometric process using a photometric element included in the finder unit 8 is performed (step S732). Specifically, photometry by the photometry element and determination of the current appropriate exposure value are executed at regular time intervals. Information indicating the current exposure value determined in step S732 is displayed on the
ステップS706、ステップS712、ステップS722、ステップS732の処理が完了すると、ステップS708に進み、電源をOFFするか否かを判断する。例えば、電源スイッチがOFF位置に切り替えられた場合や、電源スイッチがONされてから予め定められた期間、ユーザ指示無しの状態が継続した場合等に、電源をOFFする旨を判断する。電源をOFFすると判断した場合は動作を終了し、電源をOFFしないと判断した場合はステップS704に処理を移行させる。 When the processes of step S706, step S712, step S722, and step S732 are completed, the process proceeds to step S708, and it is determined whether or not to turn off the power. For example, it is determined to turn off the power when the power switch is switched to the OFF position, or when there is no user instruction for a predetermined period after the power switch is turned on. If it is determined that the power is to be turned off, the operation is terminated. If it is determined that the power is not to be turned off, the process proceeds to step S704.
図8は、撮像を伴う処理フローの一例を示す。すなわち、図7のステップS712における内部処理の一例である。特に、微速度撮影における撮像動作を含む処理フローを示す。具体的には、動作モードが微速度撮影モードに設定されている場合に、予め定められたユーザ操作がなされた場合の処理フローを示す。 FIG. 8 shows an example of a processing flow involving imaging. That is, it is an example of internal processing in step S712 of FIG. In particular, a processing flow including an imaging operation in time-lapse photography is shown. Specifically, a processing flow when a predetermined user operation is performed when the operation mode is set to the time-lapse shooting mode is shown.
ステップS802において、レンズ4の焦点調節を行う。例えば、CPU16は、レリーズボタンが一段階押し込まれた場合に、予め設定された焦点検出領域に対してレンズ4の焦点調節を行う。レリーズボタンが更に深く押し込まれた場合、ステップS804以降の微速度撮影の動作に進む。
In step S802, the focus of the lens 4 is adjusted. For example, when the release button is pushed in one step, the
ステップS804において、静止画を撮像して静止画データを取得する。具体的には、CPU16の全体制御の下、ミラー12をアップさせ、タイミングジェネレータ28から供給されるタイミング信号に従って、シャッタ13を開けて撮像素子26で露光し、シャッタ13を閉じて、ミラー12をダウンさせる。撮像によって得られた1コマの静止画データは、イメージメモリ34に記憶される。続いて、画像処理回路24は、イメージメモリ34に記憶された静止画データに対して、ホワイトバランス補正、ガンマ補正等の画像処理を施し、画像処理が施された静止画データがイメージメモリ34に記憶される(ステップS806)。
In step S804, a still image is captured to acquire still image data. Specifically, under the overall control of the
ステップS808において、1フレームの生成に用いるコマ数の静止画データが取得されたか否かを判断する。例えば、3コマの静止画データを合成して1フレームを生成する場合、フレームの生成に用いる3コマの静止画データが少なくともイメージメモリ34に記憶されたか否かを判断する。1フレームの生成に用いるコマ数の静止画データが取得されていない場合、ステップS814に処理を進める。
In step S808, it is determined whether still image data having the number of frames used to generate one frame has been acquired. For example, when one frame is generated by combining three frames of still image data, it is determined whether or not at least three frames of still image data used for frame generation are stored in the
1フレームの合成に用いるコマ数の静止画データが取得されている場合、静止画データを合成してフレームを生成する(ステップS810)。例えば、図4から図6に関連して説明した合成処理のいずれかを適用してフレームを生成する。生成されたフレームは、例えばJPEGの符号化方式で符号化されてイメージメモリ34に記憶される(ステップS812)。 When still image data having the number of frames used for synthesis of one frame has been acquired, the still image data is synthesized to generate a frame (step S810). For example, the frame is generated by applying any of the synthesizing processes described with reference to FIGS. The generated frame is encoded by, for example, the JPEG encoding method and stored in the image memory 34 (step S812).
ステップS814において、静止画データを更に取得するか否かを判断する。例えば、図2等に関連して説明したコマ数の静止画データが取得されたか否かを判断する。予め定められたコマ数の静止画データが取得されていない場合、次の撮像タイミングまでウェイトする(ステップS816)。例えば、前回の撮像タイミングから予め定められた時間間隔だけ後のタイミングで次回の撮像が開始されるようウェイトする。次回の撮像動作は、タイマ等の制御によって、前回の撮像タイミングから予め定められた期間経過した場合にトリガされ、開始されてよい。ウェイトが完了すると、ステップS804に処理を移行させる。 In step S814, it is determined whether or not to acquire still image data. For example, it is determined whether still image data having the number of frames described in relation to FIG. If still image data having a predetermined number of frames has not been acquired, the process waits until the next imaging timing (step S816). For example, it waits so that the next imaging is started at a timing after a predetermined time interval from the previous imaging timing. The next imaging operation may be triggered and started when a predetermined period has elapsed from the previous imaging timing under the control of a timer or the like. When the wait is completed, the process proceeds to step S804.
ステップS814の判断において、予め定められたコマ数の静止画データを取得したと判断された場合、イメージメモリ34に記憶されている複数のフレームを用いて動画データを生成し(ステップS818)、生成した動画データを記録媒体44に記録する(ステップS820)。例えば、Motion JPEGフォーマットの動画データを生成する。記録媒体44への記録が完了すると、本フローは終了する。
If it is determined in step S814 that still image data having a predetermined number of frames has been acquired, moving image data is generated using a plurality of frames stored in the image memory 34 (step S818). The recorded moving image data is recorded on the recording medium 44 (step S820). For example, motion JPEG format moving image data is generated. When the recording on the
なお、本フローにおいて、複数の静止画データを合成して得られたフレームだけでなく、複数の静止画データも記録媒体44に記録してよい。また、カメラ2は、記録媒体44に記録された複数の静止画データを記録媒体44から取得して合成することにより、フレームを生成してもよい。
In this flow, not only the frame obtained by combining a plurality of still image data but also a plurality of still image data may be recorded on the
以上の説明において、カメラ2が撮像から動画データの生成までの処理を行うとした。しかし、カメラで撮像することによってカメラで取得された複数の静止画の静止画データをパーソナルコンピュータ等のコンピュータに転送して、コンピュータ上でアプリケーションソフト等のプログラムを動作させて、動画データを生成してもよい。以上のように、本実施形態のカメラ2に関連して説明した処理によれば、微速度撮影で得られた複数の静止画データを合成して動画化することで、ちらつきやギクシャク感を抑えた映像を提供することができる。
In the above description, it is assumed that the
なお、図8のステップS818においては、複数のフレームを用いて生成した動画データに加えて、イメージメモリ34に記憶された複数の静止画データを用いて動画データを生成してもよい。この場合、ステップS820においては、複数のフレームを用いて生成した動画データである第1動画データを記録媒体44に記録するとともに、複数の静止画データを用いて生成した動画データである第2動画データを記録媒体44に記録してよい。第2動画データは、例えばMotion JPEGフォーマットで記録される。ここで第2動画データは、静止画データの再生間隔が予め定められた時間間隔より短い時間間隔で再生される動画データである。第1動画データおよび第2動画データは、微速度撮影で得られた画像データとして、互いに対応づけられて記録媒体44に記録されてよい。第1動画データおよび第2動画データが生成されて記録媒体44に記録されている場合、図7に例示したステップS722において微速度撮影で得られた画像データの再生が指示されたときは、第1動画データおよび第2動画データのうち再生させるべき一つの動画データをユーザに選択させ、選択された動画データを再生してよい。
In step S818 in FIG. 8, moving image data may be generated using a plurality of still image data stored in the
また、ステップS818において、第1動画データを生成することなく、第2動画データを生成してよい。この場合、ステップS820においては、微速度撮影で得られた画像データとして、第2動画データが記録媒体44に記録されてよい。微速度撮影で得られた画像データとして第2動画データが記録媒体44に記録されている場合、図7に例示したステップS722において微速度撮影で得られた画像データの再生が指示されたときに、第2動画データを再生するべきか、合成処理が適用された再生を行うべきかをユーザに選択させてよい。第2動画データを再生するべき旨が選択された場合は第2動画データを再生し、合成処理が適用された再生を行うべき旨が選択された場合には、合成処理が適用されたフレームを生成して再生してよい。ここで、合成処理の適用対象となる静止画データは、記録媒体44に記録されている第2動画データから生成してもよい。例えば、Motion JPEGフォーマットの第2動画データを復号して得られた複数の静止画データに対して、図4から図6等に関連して説明した合成処理を適用して得られたフレームを順次に再生してよい。なお、第1動画データを生成することなく第2動画データを生成して記録媒体44に記録する場合、撮像動作によりイメージメモリ34に記録された複数の静止画データを、記録媒体44に更に記録してもよい。そして、ステップS722において、合成処理が適用された再生を行うべき旨が選択された場合には、記録媒体44に記録されている複数の静止画データに対して、図4から図6等に関連して説明した合成処理を適用して得られたフレームを順次に再生してよい。複数の静止画データを記録媒体44に更に記録するか否かは、予めユーザにより選択されていてよい。例えば、図7に例示したステップS706において、予め設定されてよい。
In step S818, the second moving image data may be generated without generating the first moving image data. In this case, in step S820, the second moving image data may be recorded on the
図8の処理フローで例示したように、第2動画データを生成することなく第1動画データを生成して記録媒体44に記録する場合、撮像動作によりイメージメモリ34に記録された複数の静止画データを、記録媒体44に更に記録してもよい。この場合、図7に例示したステップS722において微速度撮影で得られた画像データの再生が指示されたときに、第1動画データを再生するべきか、記録媒体44に記録されている複数の静止画データを動画として再生するべきかをユーザに選択させてよい。第1動画データを再生するべき旨が選択された場合は第1動画データを再生し、記録媒体44に記録されている複数の静止画データを動画として再生するべき旨が選択された場合には、記録媒体44に記録されている静止画データを、予め定められた時間間隔より短い時間間隔で再生する。
As illustrated in the processing flow of FIG. 8, when the first moving image data is generated and recorded on the
また、第1動画データおよび第2動画データのいずれも生成せずに、撮像動作によりイメージメモリ34に記録された複数の静止画データを、記録媒体44に記録してもよい。この場合、図7に例示したステップS722において、微速度撮影で得られた画像データの再生が指示されたときに、合成処理が適用された再生を行うべきか、記録媒体44に記録されている複数の静止画データを動画として再生するべきかをユーザに選択させてよい。記録媒体44に記録されている複数の静止画データを動画として再生するべき旨が選択された場合には、記録媒体44に記録されている静止画データを、予め定められた時間間隔より短い時間間隔で再生する。合成処理が適用された再生を行うべき旨が選択された場合には、記録媒体44に記録されている複数の静止画データに対して、図4から図6等に関連して説明した合成処理を適用して得られたフレームを順次に再生する。
Further, a plurality of still image data recorded in the
第1動画データおよび第2動画データを生成して記録するか、第1動画データを生成することなく第2動画データを生成して記録するか、第2動画データを生成することなく第1動画データを生成して記録するか、第1動画データおよび第2動画データのいずれも生成せずイメージメモリ34に記録された複数の静止画データを記録するかは、予めユーザにより選択されてよい。例えば、図7に例示したステップS706において、予め設定されてよい。また、記録媒体44に記録されている動画データ、静止画データ等の画像データをパーソナルコンピュータ等のコンピュータに転送して、コンピュータで動画として再生させる場合には、コンピュータ上で動作するプログラムの制御により、図7のステップS722に関連して説明した処理と同様の処理をコンピュータが実行してよい。
The first moving image data and the second moving image data are generated and recorded, the second moving image data is generated and recorded without generating the first moving image data, or the first moving image is generated without generating the second moving image data. Whether to generate and record data or to record a plurality of still image data recorded in the
本実施形態のカメラ2に関連して説明した処理は、カメラ2の各部、例えばCPU16等が、プログラムに従って動作することにより、実現することができる。すなわち、当該処理を、いわゆるコンピュータ装置によって実現することができる。コンピュータ装置は、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータ装置は、当該プログラムを記憶しているコンピュータ読取可能な記録媒体を読み込むことによって、当該プログラムをロードすることができる。
The processing described in relation to the
本実施形態において、レンズ交換式の一眼レフレックスカメラであるカメラ2を取り上げて、撮像装置の一例を説明した。撮像装置としては、コンパクトデジタルカメラ等のレンズ非交換式のカメラ、ミラーレス一眼カメラ、ビデオカメラ、撮像機能付きの携帯電話機、撮像機能付きの携帯情報端末、撮像機能付きのゲーム機器等の娯楽装置等、撮像機能を有する種々の機器を適用の対象とすることができる。
In the present embodiment, an example of the imaging apparatus has been described by taking up the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior”. It should be noted that they can be implemented in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for the sake of convenience, it means that it is essential to carry out in this order. is not.
2 カメラ、4 レンズ、8 ファインダ部、12 ミラー、13 シャッタ、16 CPU、18 表示装置、20 操作部材、22 画像処理ブロック、24 画像処理回路、26 撮像素子、28 タイミングジェネレータ、30 A/D変換回路、34 イメージメモリ、36 画像表示装置、38 表示回路、44 記録媒体 2 camera, 4 lens, 8 viewfinder, 12 mirror, 13 shutter, 16 CPU, 18 display device, 20 operation member, 22 image processing block, 24 image processing circuit, 26 image sensor, 28 timing generator, 30 A / D conversion Circuit, 34 image memory, 36 image display device, 38 display circuit, 44 recording medium
Claims (13)
前記複数の静止画データのうちの第1静止画データと第2静止画データとを合成して第1合成画像データを生成し、前記複数の静止画データのうちの第3静止画データと第4静止画データとを合成して第2合成画像データを生成する合成画像生成部と、
前記第1合成画像データおよび前記第2合成画像データを用いて、合成画像データの再生間隔が前記予め定められた時間間隔より短い動画データを生成する動画生成部と、
を備える画像生成装置。An image acquisition unit for acquiring a plurality of still image data acquired by imaging at predetermined time intervals;
The first still image data and the second still image data of the plurality of still image data are combined to generate first combined image data, and the third still image data and the first still image data of the plurality of still image data are generated. A synthesized image generating unit that generates the second synthesized image data by synthesizing the four still image data;
A moving image generation unit that generates moving image data in which a reproduction interval of the combined image data is shorter than the predetermined time interval using the first combined image data and the second combined image data;
An image generation apparatus comprising:
をさらに備える請求項1に記載の画像生成装置。An image number setting unit for setting the number of still image data used for generating at least one of the first synthesized image data and the second synthesized image data as the image change in the plurality of still image data increases; The image generation apparatus according to claim 1.
をさらに備える請求項1または2に記載の画像生成装置。The time range that should include the imaging time of still image data used to generate at least one of the first composite image data and the second composite image data is set longer as the image change in the plurality of still image data is larger. The image generation apparatus according to claim 1, further comprising a time range setting unit.
請求項2または3に記載の画像生成装置。The image generation apparatus according to claim 2, wherein the image change is determined based on a brightness change in the plurality of still image data.
をさらに備える請求項1から4のいずれか一項に記載の画像生成装置。5. The image generation apparatus according to claim 1, further comprising a weight setting unit configured to set a weight in the composition for each of the still image data used for the composition.
請求項5に記載の画像生成装置。The weight setting unit has an imaging time at a predetermined time in a time range that should include an imaging time of still image data used for generating at least one of the first composite image data and the second composite image data. The image generation apparatus according to claim 5, wherein a larger value is set as the weight for near still image data.
請求項6に記載の画像生成装置。The image generation apparatus according to claim 6, wherein the weight setting unit sets a larger value as the weight for still image data whose imaging time is closer to the central time in the time range.
請求項3に記載の画像生成装置。The said time range setting part sets the length of the said time range so that the brightness change in the said 1st synthetic image data and the said 2nd synthetic image data may become smaller than a predetermined value. Image generation device.
請求項5に記載の画像生成装置。The image generation apparatus according to claim 5, wherein the weight setting unit sets the weight so that a change in brightness in the first composite image data and the second composite image data is smaller than a predetermined value.
請求項1から9のいずれか一項に記載の画像生成装置。The image generation apparatus according to any one of claims 1 to 9, wherein the second still image data and the third still image data are the same still image data.
をさらに備える請求項1から10のいずれか一項に記載の画像生成装置。The image generation apparatus according to claim 1, further comprising a recording unit that records the moving image data on a nonvolatile recording medium.
前記複数の静止画データを用いて前記動画データを生成する請求項1から11のいずれか一項に記載の画像生成装置と、
を備える撮像装置。An imaging unit that generates a plurality of still image data by imaging at the predetermined time interval;
The image generation device according to any one of claims 1 to 11, wherein the moving image data is generated using the plurality of still image data;
An imaging apparatus comprising:
前記複数の静止画データのうちの第1静止画データと第2静止画データとを合成して第1合成画像データを生成し、前記複数の静止画データのうちの第3静止画データと第4静止画データとを合成して第2合成画像データを生成するステップと、
前記第1合成画像データおよび前記第2合成画像データを用いて、合成画像データの再生間隔が前記予め定められた時間間隔より短い動画データを生成するステップと、
をコンピュータに実行させるプログラム。Acquiring a plurality of still image data acquired by imaging at predetermined time intervals;
The first still image data and the second still image data of the plurality of still image data are combined to generate first combined image data, and the third still image data and the first still image data of the plurality of still image data are generated. Synthesizing four still image data to generate second synthesized image data;
Using the first synthesized image data and the second synthesized image data to generate moving image data in which a reproduction interval of the synthesized image data is shorter than the predetermined time interval;
A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013541602A JP5991495B2 (en) | 2011-11-04 | 2012-10-15 | Image generating apparatus, imaging apparatus, and program |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011242357 | 2011-11-04 | ||
JP2011242357 | 2011-11-04 | ||
JP2013541602A JP5991495B2 (en) | 2011-11-04 | 2012-10-15 | Image generating apparatus, imaging apparatus, and program |
PCT/JP2012/006595 WO2013065242A1 (en) | 2011-11-04 | 2012-10-15 | Image generation device, imaging device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2013065242A1 true JPWO2013065242A1 (en) | 2015-04-02 |
JP5991495B2 JP5991495B2 (en) | 2016-09-14 |
Family
ID=48191624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013541602A Active JP5991495B2 (en) | 2011-11-04 | 2012-10-15 | Image generating apparatus, imaging apparatus, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5991495B2 (en) |
WO (1) | WO2013065242A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6107431B2 (en) * | 2013-05-30 | 2017-04-05 | 株式会社ニコン | Imaging device |
EP3023987B1 (en) * | 2014-11-20 | 2017-03-22 | Axis AB | Method and apparatus for visualizing information of a digital video stream |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002077810A (en) * | 2000-08-24 | 2002-03-15 | Toshiba Corp | Device and method for reproducing compression-encoded dynamic image at high speed and recording medium with program recorded therein for making computer execute such reproducing operation |
JP2004336608A (en) * | 2003-05-12 | 2004-11-25 | Sony Corp | Method and circuit for converting image data, and electronic camera |
JP2011182112A (en) * | 2010-02-26 | 2011-09-15 | Nikon Corp | Imaging apparatus and program |
-
2012
- 2012-10-15 WO PCT/JP2012/006595 patent/WO2013065242A1/en active Application Filing
- 2012-10-15 JP JP2013541602A patent/JP5991495B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002077810A (en) * | 2000-08-24 | 2002-03-15 | Toshiba Corp | Device and method for reproducing compression-encoded dynamic image at high speed and recording medium with program recorded therein for making computer execute such reproducing operation |
JP2004336608A (en) * | 2003-05-12 | 2004-11-25 | Sony Corp | Method and circuit for converting image data, and electronic camera |
JP2011182112A (en) * | 2010-02-26 | 2011-09-15 | Nikon Corp | Imaging apparatus and program |
Also Published As
Publication number | Publication date |
---|---|
JP5991495B2 (en) | 2016-09-14 |
WO2013065242A1 (en) | 2013-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8638374B2 (en) | Image pickup apparatus, image pickup system, and image pickup method | |
US8848097B2 (en) | Image processing apparatus, and method, for providing special effect | |
US7852401B2 (en) | Photographing apparatus and photographing method for exposure control during continuous photographing mode | |
JP5350928B2 (en) | Camera and camera control method | |
JP5950678B2 (en) | Imaging apparatus, control method, and program | |
JP5002931B2 (en) | Imaging apparatus and program thereof | |
JP2013046259A (en) | Video apparatus, control method, and program | |
JP4556195B2 (en) | Imaging device, moving image playback device, and program | |
US9172874B2 (en) | Imaging apparatus and image generation method for generating one piece of image including a moving image and still image | |
JP5480025B2 (en) | Imaging apparatus, imaging system, and imaging method | |
KR20150002478A (en) | Moving image generating apparatus, moving image generating method, and computer readable recording medium having a computer program | |
JP2009111518A (en) | Imaging apparatus, image reproducing unit and program thereof, and data structure of image file | |
JP5909997B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2006033123A (en) | Image pickup device | |
JP5991495B2 (en) | Image generating apparatus, imaging apparatus, and program | |
JP2017123670A (en) | Imaging controller, and control method, and program therefor | |
JP2018006828A (en) | Imaging apparatus, control method therefor and program | |
JP6103481B2 (en) | Imaging apparatus, and control method and program thereof | |
JP2010226495A (en) | Photographing device | |
JP7319873B2 (en) | Imaging device and its control method | |
JP2018056652A (en) | Imaging device and control method for imaging device | |
JP2011055524A (en) | Imaging apparatus and program therefor | |
JP2004186866A (en) | Image recording apparatus | |
JP5911253B2 (en) | Imaging device | |
JP2012129900A (en) | Imaging apparatus and imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150928 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160720 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5991495 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |