JP4544332B2 - 画像処理装置、画像処理方法、プログラム - Google Patents

画像処理装置、画像処理方法、プログラム Download PDF

Info

Publication number
JP4544332B2
JP4544332B2 JP2008099599A JP2008099599A JP4544332B2 JP 4544332 B2 JP4544332 B2 JP 4544332B2 JP 2008099599 A JP2008099599 A JP 2008099599A JP 2008099599 A JP2008099599 A JP 2008099599A JP 4544332 B2 JP4544332 B2 JP 4544332B2
Authority
JP
Japan
Prior art keywords
image data
image
recording
frame
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008099599A
Other languages
English (en)
Other versions
JP2009253690A (ja
Inventor
達郎 牧井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008099599A priority Critical patent/JP4544332B2/ja
Priority to EP09156778A priority patent/EP2109307B1/en
Priority to TW098111017A priority patent/TWI392346B/zh
Priority to US12/384,304 priority patent/US8848097B2/en
Priority to CN200910133078XA priority patent/CN101557468B/zh
Publication of JP2009253690A publication Critical patent/JP2009253690A/ja
Application granted granted Critical
Publication of JP4544332B2 publication Critical patent/JP4544332B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/08Trick photography
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/52Automatic gain control
    • H04N5/53Keyed automatic gain control

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、画像処理装置、画像処理方法、及び画像処理のためのプログラムに関するものである。
特開2005−354166号公報
写真や画像の撮影/撮像手法の1つとして長時間露光が知られている。これは、数秒から数十秒、場合によっては数十分に及ぶ時間、継続して露光を行う手法である。
この長時間露光は、被写体の明るさに対応するためだけでなく、写真の表現技法としても用いられている。
例えば夜景等の撮影で長時間露光が行われるが、これは、光量が少ないので、映像を得るのに十分な量の光を集めるために露光時間を長くすることが行われる。
また、意図的に絞りを暗く設定したり、撮像感度を低くしたりして、被写体の動きを表現したり、動いている被写体の中で静止している被写体の存在を浮かび上がらせたり、といった目的で行われる場合もある。
また、長時間露光中にフラッシュ(閃光装置)を用いることにより、先幕シンクロ/後幕シンクロ/マルチ発光などの効果を得る撮影手法も知られている。
しかしながら、長時間露光/先幕シンクロ/後幕シンクロ/マルチ発光などの特殊な画像効果を与えた撮像画像として、ユーザが意図した画像を得ることはなかなか困難であった。
これらの特殊効果画像として、満足のいく画像を得るためには、適切な露出設定、露光時間、シャッタータイミング、フラッシュ発光タイミング、フラッシュ光量などが必要であり、自分の経験と勘でこれらを決定しなければならず、実際上、熟練者でなければ困難である。
そこで本発明では、特に熟練を必要とせずに、一般ユーザが、多様な画像効果、特に長時間露光や長時間露光を利用した先幕シンクロ/後幕シンクロ/マルチ発光などの画像効果と同様の静止画像を、撮像等により容易に得ることができるようにすることを目的とする。
本発明の画像処理装置は、撮像による画像取得動作として、時間的な連続性を有する複数フレームの画像データを取得する画像取得部と、上記画像取得部による画像取得動作中に、上記画像取得部で得られる各フレームの画像データをバッファリング記憶する記憶部と、合成処理を行うモードを指示する操作に応じて、上記画像取得部に上記撮像による画像取得動作を開始させるとともに、該画像取得動作中に、逐次、上記記憶部にバッファリング記憶された複数フレームの画像データを用いて画像合成処理を行って合成画像データを生成し、合成画像データを表示用のデータとし、さらに、記録操作入力に応じて、その記録操作入力タイミングに対応する合成画像データを記録媒体に記録する処理を行う演算制御部とを備える。
また上記演算制御部は、記録操作入力に応じて、その記録操作入力タイミングに対応する合成画像データを、静止画データとして記録媒体に記録する処理を行う。
また上記演算制御部は、1フレーム期間又は複数フレーム期間としての所定期間毎に、バッファリング記憶された複数フレームの画像データのうちで最新のフレームを含む所定フレーム数の画像データを用いて合成画像データを生成し、表示用のデータとする。
また上記演算制御部は、合成処理対象とする各画像データに対して均等な重み係数を与えて合成処理を行う。
また上記演算制御部は、合成処理対象とする各画像データのうちで、最新のフレームの画像データに対して高い重み係数、他のフレームの画像データに対して低い重み係数を与えて合成処理を行う。
また上記演算制御部は、合成処理対象とする各画像データのうちで、最古のフレームの画像データに対して高い重み係数、他のフレームの画像データに対して低い重み係数を与えて合成処理を行う。
また上記演算制御部は、合成処理対象とする各画像データについて、周期的に高い重み係数と低い重み係数を与えて合成処理を行う。
また上記演算制御部は、上記画像取得動作中に、逐次、上記記憶部にバッファリング記憶される複数フレームの画像データを用いて画像合成処理を行って複数種類の合成画像データを生成し、生成した複数種類の合成画像データを表示用のデータとする。
この場合、上記演算制御部は、記録操作入力に応じて、その記録操作入力タイミングに対応して生成された複数種類の合成画像データの全部又は一部を、静止画データとして記録媒体に記録する処理を行う。
また上記演算制御部は、上記画像取得動作中に、逐次、上記記憶部にバッファリング記憶される複数フレームの画像データを用いて画像合成処理を行って合成画像データを生成するとともに、生成した合成画像データを動画を構成する1フレームの画像データとして記録媒体に記録する処理を行う。
また上記演算制御部は、生成した合成画像データを、表示用のデータとする。
上記画像取得部は、撮像動作により時間的な連続性を有する複数フレームの画像データを取得する撮像部とされる。
或いは上記画像取得部は、再生動作により時間的な連続性を有する複数フレームの画像データを取得する再生部とされる。
或いは上記画像取得部は、受信動作により時間的な連続性を有する複数フレームの画像データを取得する受信部とされる。
また、上記演算制御部で生成される合成画像データを表示出力する表示部をさらに備える。
また上記演算制御部で生成される合成画像データを送信出力する送信部をさらに備える。
本発明の画像処理方法は、合成処理を行うモードを指示する操作に応じて、撮像による画像取得動作を開始し、該画像取得動作により時間的な連続性を有する複数フレームの画像データを取得するステップと、上記画像取得動作中に取得される各フレームの画像データをバッファリング記憶するステップと、逐次、バッファリング記憶された複数フレームの画像データを用いて画像合成処理を行って合成画像データを生成するステップと、合成画像データを表示用のデータとして出力するステップと、記録操作入力に応じて、その記録操作入力タイミングに対応する合成画像データを記録媒体に記録するステップとを備える。
本発明のプログラムは、合成処理を行うモードを指示する操作に応じて、撮像による画像取得動作を開始させ、該画像取得動作により時間的な連続性を有する複数フレームの画像データを取得するステップと、上記画像取得動作中に取得される各フレームの画像データをバッファリング記憶させるステップと、逐次、バッファリング記憶された複数フレームの画像データを用いて画像合成処理を行って合成画像データを生成するステップと、合成画像データを表示用のデータとして出力するステップと、記録操作入力に応じて、その記録操作入力タイミングに対応する合成画像データを記録媒体に記録するステップと、を演算処理装置に実行させるプログラムである。
このような本発明は、例えば被写体画像の撮像時や、映像再生時などにおいて、その撮像モニタ或いは再生モニタ等としての表示データとして、逐次得られるフレームの画像について所定フレーム期間合成して得た合成画像データを生成する。合成画像データは、長時間露光効果を与えた画像、或いは先幕シンクロ効果、後幕シンクロ効果、マルチ発光効果などの効果を与えた画像となる。
そして例えば1フレーム期間毎に、最新の1フレームから所定フレーム数の合成画像を生成し、表示用の1フレーム画像とする。これを継続すれば、各フレーム期間での合成画像データが動画の1フレームとされた画像表示が行われることになる。つまり撮像時や再生時のモニタ表示として、長時間露光効果の画像が動画的に表示されることになる。
このような特殊効果の動画表示により、ユーザは自分が特殊な画像効果が与えられた画像を、撮像の際や再生の際にリアルタイムで確認できる。例えばこのような特殊な効果が与えられた画像をモニタしてシャッタタイミングを待つことができる。
そしてユーザのシャッタ操作等の記録操作に応じて、そのタイミングでの合成画像データを記録媒体に記録すれば、ユーザの望んだシーンでの望んだ特殊効果の画像を得ることができる。
このような本発明の画像処理装置、画像処理方法は、例えばデジタルスチルカメラなどの撮像装置や、パーソナルコンピュータなどの情報処理装置等の各種機器において実施可能である。
本発明によれば、例えば長時間露光効果、先幕シンクロ効果、後幕シンクロ効果、マルチ発光効果などの効果を与えた画像が、撮像時(シャッタタイミングを狙っている際)や、再生時などに、表示されることになるため、ユーザは特殊効果の画像がどのようなものであるか、或いはどのような感じの画像であるかを実際にリアルタイムで確認することができる。そして望みの場面で記録操作(シャッタ操作やキャプチャ操作)を行うことで、実際に確認していた望みの効果の画像を、静止画として取得できる。
これによって従来は熟練者でなければできなかった静止画としての画像表現が、一般ユーザにより手軽かつ容易に実行でき、例えば写真表現としての可能性の拡大やおもしろさの向上を促進できる。
また、各合成画像が動画を構成する各フレームの画像データとして記録されることで、長時間露光効果等を与えた特殊な動画記録を行うことができる。これにより、従来無い動画記録が、一般ユーザにより手軽に実行できる。
以下、本発明の実施の形態について、次の順序で説明していく。
[1.撮像装置の構成]
[2.ライブ画像合成モードの動作例]
[3.ライブ画像合成モードの他の動作例]
[4.特殊動画撮像モードの動作例]
[5.情報処理装置での適用例]
[1.撮像装置の構成]
本発明の実施の形態として、例えばデジタルスチルカメラとしての撮像装置の構成を図1,図2で説明する。
図2(a)(b)は、本例の撮像装置1を正面側及び背面側から見た外観例を示している。図示のとおり撮像装置1は、例えば特に熟練者ではない一般ユーザでも通常使用されるデジタルスチルカメラとされればよい。
撮像装置1には、正面側に撮像レンズ部21a、フラッシュ発光部15などが設けられ、また背面側に液晶パネルや有機EL(Electroluminescence)パネルなどによる表示パネル6が形成されている。また、各所にユーザ操作のための操作子が形成される。例えば操作キー5a、5b、5c、5d、5f、5gは、それぞれシャッター操作キー、モード操作キー、ワイド/テレ操作キー、メニュー操作キー、露出補正指示キー、再生キーなど、各種の操作機能のためのキーとして割り当てられている。また操作子として、ダイヤル操作部5hや、十字キー5iも設けられる。ダイヤル操作部5hは、例えば撮像モードの選択などに用いられる。十字キー5iは、例えば表示パネル6に表示される操作メニュー項目の選択/決定を始めとして各種操作に用いられる。
例えばこのような撮像装置1の構成例を図1で説明する。
図1に示すように撮像装置1は、撮像系2、制御系3、カメラDSP(Digital Signal Processor)4、操作部5、表示パネル6、表示コントローラ7、外部インターフェース8、SDRAM(Synchronous Dynamic Random Access Memory)9、媒体インターフェース10を備える。
撮像系2は、撮像動作を実行する部位とされ、レンズ機構部21,絞り/NDフィルタ機構22、撮像素子部23、アナログ信号処理部24、A/D変換部25、レンズ駆動部26、レンズ位置検出部27、タイミング生成回路28、ブレ検出部13、発光駆動部14、フラッシュ発光部15、レンズ駆動ドライバ17、絞り/ND駆動ドライバ18、撮像素子ドライバ19を備える。
被写体からの入射光は、レンズ機構部21及び絞り/NDフィルタ機構22を介して撮像素子部23に導かれる。
レンズ機構部21は、上記図2(a)の撮像レンズ部21の内部構成であり、カバーレンズ、フォーカスレンズ、ズームレンズなどの複数の光学レンズ群を有する。またレンズ駆動部26は、フォーカスレンズやズームレンズを光軸方向に移送する移送機構とされる。レンズ駆動部26はレンズ駆動ドライバ17によって駆動電力が印加されフォーカスレンズやズームレンズを移送する。後述するCPU(Central Processing Unit)31はレンズ駆動ドライバ17を制御することで、焦点制御やズーム動作を実行させる。
絞り/NDフィルタ機構22は、絞り機構と、レンズ光学系内に挿入されることによって入射光量を減衰させる(調整する)NDフィルタ機構を有し、光量調整を行う。
絞り/ND駆動ドライバ18は、絞り機構の開閉により入射光量の調節を行う。また絞り/ND駆動ドライバ18は、NDフィルタを入射光の光軸上に対して出し入れすることで、入射光量の調節を行う。CPU31は、絞り/ND駆動ドライバ18を制御して絞り機構やNDフィルタを駆動させることで入射光量制御(露光調整制御)を行うことができる。
被写体からの光束はレンズ機構部21、絞り/NDフィルタ機構22を通過し、撮像素子部23上に被写体像が結像される。
撮像素子部23は、結像される被写体像を光電変換し、被写体像に対応する撮像画像信号を出力する。
この撮像素子部23は、複数の画素から構成される矩形形状の撮像領域を有し、各画素に蓄積された電荷に対応するアナログ信号である画像信号を、画素単位で順次、アナログ信号処理部24に出力する。撮像素子部23としては、例えばCCD(Charge Coupled Device)センサアレイ、CMOS(Complementary Metal Oxide Semiconductor)センサアレイなどが用いられる。
アナログ信号処理部24は、内部にCDS(相関2重サンプリング)回路や、AGC(オートゲインコントロール)回路などを有し、撮像素子部23から入力される画像信号に対して所定のアナログ処理を行う。
A/D変換部25は、アナログ信号処理部24で処理されたアナログ信号をデジタル信号に変換し、カメラDSP4に供給する。
タイミング生成回路28は、CPU31により制御され、撮像素子部23、アナログ信号処理部24、A/D変換部25の各動作のタイミングを制御する。
即ちタイミング生成回路28は、撮像素子部23の撮像動作タイミングを制御するために、露光/電荷読出のタイミング信号や、電子シャッタ機能としてのタイミング信号、転送クロック、フレームレートに応じた同期信号等を、撮像素子ドライバ19を介して撮像素子部23に供給する。またアナログ信号処理部24で、撮像素子部23での画像信号の転送に同期して処理が行われるように、上記各タイミング信号をアナログ信号処理部24にも供給する。
CPU31は、タイミング生成回路28により発生させる各タイミング信号の制御を行うことで、撮像画像のフレームレートの変更や、電子シャッタ制御(フレーム内の露光時間可変制御)を行うことができる。またCPU31は、例えばタイミング生成回路28を介してアナログ信号処理部24にゲイン制御信号を与えるようにすることで、撮像画像信号のゲイン可変制御を行うことができる。
ブレ検出部13は、手ぶれ量を検出する。例えば加速度センサ、振動センサなどで構成され、ブレ量としての検出情報をCPU31に供給する。
フラッシュ発光部15は発光駆動部14によって発光駆動される。CPU31は、ユーザの操作その他による所定タイミングで、発光駆動部14にフラッシュ発光を指示し、フラッシュ発光部15を発光させることができる。
カメラDSP4は、撮像系2のA/D変換部25から入力される撮像画像信号に対して、各種のデジタル信号処理を行う。
このカメラDSP4では、例えば図示のように画像信号処理部41,圧縮/解凍処理部42、SDRAMコントローラ43、情報生成部44等の処理機能が内部のハードウエア及びソフトウエアにより実現される。
画像信号処理部41は入力される撮像画像信号に対する処理を行う。例えば撮像画像信号を用いた撮像系2の駆動制御用の演算処理として、オートフォーカス(AF)用処理、オートアイリス(AE)用処理などを行い、また入力される撮像画像信号自体に対する処理としてオートホワイトバランス(AWB)処理などを行う。
例えばオートフォーカス用処理としては、画像信号処理部41は入力される撮像画像信号についてコントラスト検出を行い、検出情報をCPU31に伝える。オートフォーカス制御方式としては、各種の制御手法が知られているが、いわゆるコントラストAFと呼ばれる手法では、フォーカスレンズを強制的に移動させながら、各時点の撮像画像信号のコントラスト検出を行い、最適コントラスト状態のフォーカスレンズ位置を判別する。即ちCPU31は、撮像動作に先立って、フォーカスレンズの移動制御を実行させながら画像信号処理部41で検出されるコントラスト検出値を確認し、最適なコントラスト状態となった位置をフォーカス最適位置とする制御を行う。
また、撮像中のフォーカス制御としては、いわゆるウォブリングAFと呼ばれる検出方式が実行できる。CPU31は、撮像動作中に、常時フォーカスレンズの位置を微小に前後にゆらすように移動させながら、画像信号処理部41で検出されるコントラスト検出値を確認する。フォーカスレンズの最適位置は、当然、被写体の状況によって変動するが、フォーカスレンズを前後に微小変位させながらコントラスト検出を行うことで、被写体の変動に応じたフォーマット制御方向の変化を判定できる。これによって、被写体状況に追尾したオートフォーカスが実行できることになる。
なお、レンズ駆動部26における移送機構には、各移送位置毎にアドレスが割り当てられており、その移送位置アドレスによってレンズ位置が判別される。
レンズ位置検出部27は、フォーカスレンズの現在のレンズ位置としてのアドレスを判別することで、合焦状態となっている被写体までの距離を算出し、それを距離情報としてCPU31に供給することができる。これによってCPU31は、合焦状態としている主たる被写体までの距離を判別できる。
カメラDSP4の画像信号処理部41が実行するオートアイリス用処理としては、例えば被写体輝度の算出が行われる。例えば入力される撮像画像信号の平均輝度を算出し、これを被写体輝度情報、即ち露光量情報としてCPU31に供給する。平均輝度の算出としては例えば1フレームの撮像画像データの全画素の輝度信号値の平均値、或いは画像の中央部分に重みを与えた輝度信号値の平均値の算出など、各種の方式が考えられる。
CPU31は、この露光量情報に基づいて、自動露光制御を行うことができる。即ち絞り機構、NDフィルタ、或いは撮像素子部23における電子シャッタ制御、アナログ信号処理部24へのゲイン制御により、露光調整を行うことができる。
カメラDSP4の画像信号処理部41は、これらのオートフォーカス動作、オートアイリス動作に用いる信号生成処理の他、撮像画像信号自体の信号処理として、オートホワイトバランス、γ補正、エッジ強調処理、手ブレ補正処理等を行う。
カメラDSP4における圧縮/解凍処理部42は、撮像画像信号に対する圧縮処理や、圧縮された画像データに対する解凍処理を行う。例えばJPEG(Joint Photographic Experts Group)、MPEG(Moving Picture Experts Group)などの方式による圧縮処理/解凍処理を行う。
SDRAMコントローラ43は、SDRAM9に対する書込/読出を行う。SDRAM9は、例えば撮像系2から入力された撮像画像信号の一時保存、画像処理部41や圧縮/解凍処理部42での処理過程における保存やワーク領域の確保、情報生成部44で得られた情報の保存などに用いられ、SDRAMコントローラ43は、これらのデータについてSDRAM9に対する書込/読出を行う。
情報生成部44は、後述する合成処理としての各種動作に使用する情報を生成する。例えば撮像画像信号の画面内の各被写体までの距離を示す距離分布情報を生成する。例えば主たる被写体だけでなく各画素単位での各被写体までの距離の情報である。これはデプスマップ(Depth Map)とも呼ばれる情報である。
距離分布情報の生成のための、各画素単位での距離情報の判定は、上記のウォブリングAFの際のボケ量の解析などで実行可能である。あるいは、図示しないが非可視光の特定波長とされた補助光を発光する発光部を設け、その特定波長の光が発光後の戻り時間を測定することで、各画素単位での被写体までの距離を判定することも可能である。
制御系3は、CPU31、RAM32、フラッシュROM33、時計回路34を備える。制御系の各部、及びカメラDSP4、撮像系2の各部、表示コントローラ7、外部インターフェース8、媒体インターフェース10は、システムバスによって相互に画像データや制御情報の通信が可能とされている。
CPU31は、撮像装置1の全体を制御する。即ちCPU31は内部のROM等に保持したプログラム及び操作部5によるユーザの操作に基づいて、各種演算処理や各部と制御信号等のやりとりを行い、各部に所要の動作を実行させる。また後述する画像合成のための演算処理、画像解析処理なども行う。
RAM(Random Access Memory)32は、カメラDSP4で処理された撮像画像信号(各フレームの画像データ)の一時的な保存(バッファリング)や、後述する合成処理により生成された合成画像データの一時的な保存(バッファリング)、さらには、その他CPU31の各種処理に応じた情報が記憶される。
フラッシュROM33は、撮像画像としての(ユーザが静止画又は動画として撮像した)画像データの保存や、その他不揮発的に保存することが求められる情報の記憶に用いられる。撮像装置1の制御用ソフトウェアプログラム、カメラの設定データなどを記憶する場合もある。
時計回路34は、現在日時情報(年月日時分秒)を計数する。
操作部5は、図2に示した各種操作子及びその操作に基づく信号発生部からなる。各種操作子によるユーザの操作情報は、操作部5からCPU31に伝達される。
なお、操作部5としては、操作子だけでなく、タッチパネル操作を可能な構成としてもよい。即ち表示パネル6にタッチセンサを配し、画面表示に対するユーザのタッチ操作で、操作入力が行われるようにしてもよい。
表示コントローラ7は、CPU31の制御に基づいて、表示パネル6に所要の表示動作を実行させる。表示パネル6における表示動作としては、撮像時のモニタ表示(いわゆるライブビュー表示)や、記録媒体90やフラッシュROMから読み出した再生画像表示、操作メニュー表示、各種アイコン表示、時刻表示などが行われる。
媒体インタフェース10は、CPU31の制御に基づいて、撮像装置1の内部にセットされたメモリカード(カード状のリムーバブルメモリ)等の記録媒体90に対してデータの読出/書込を行う。例えば媒体インタフェース10は、撮像結果としての静止画データや動画データについて記録媒体90に記録する動作を行う。
また、記録した静止画データや動画データを記録媒体90から読み出す動作を行う。
なお、ここでは記録媒体90として可搬性のメモリカードを例に挙げているが、撮像結果として残す静止画若しくは動画としての画像データを記録する記録媒体は他の種のものでもよい。例えば光ディスク等の可搬性ディスクメディアを用いるようにしても良いし、HDD(Hard Disk Drive)を搭載して記録するようにしてもよい。
外部インタフェース8は、例えばUSB(Universal Serial Bus)などの信号規格にしたがって、所定のケーブルを介して外部装置との各種データの送受信を行う。もちろんUSB方式に限らず、IEEE(Institute of Electrical and Electronics Engineers)1394方式など、他の規格による外部インターフェースとしてもよい。
また、有線伝送方式ではなく、赤外線伝送、近距離無線通信その他の無線伝送方式で外部インターフェース8を構成しても良い。
撮像装置1は、この外部インターフェース8を介して、パーソナルコンピュータその他各種機器とデータ送受信を行うことができる。例えば撮像画像データを外部機器に転送することができる。
このような本例の撮像装置1において、CPU31は、撮像動作制御その他の各種動作のための演算・制御を内部に保持するプログラム及び操作部5からのユーザ操作に基づいて実行する。CPU31は演算・制御動作としては以下のような処理を行う。
CPU31は撮像制御を行う。即ちCPU31は、撮像系2の各部やカメラDSP4を制御して被写体画像の撮像を実行させる。またオートフォーカス処理、自動露光調整処理、フラッシュ発光制御処理なども行う。撮像に際してはユーザは後述する各種の撮像モードを選択できるが、CPU31は選択された撮像モードに応じて、撮像系2の動作を制御する。
またCPU31は画像の合成処理を行う。撮像動作時には、撮像系2によって撮像され、カメラDSP4で処理されたフレーム毎の画像データが転送され、RAM32にバッファリングされるが、特に後述する「ライブ画像合成」という撮像モードでは、その際にバッファリングされた複数フレームの画像データを合成し、長時間露光効果等の特殊効果を表現する合成画像データを生成する。
例えばCPU31は、撮像され、フレーム期間毎に次々とバッファリングされる、時間的な連続性を有する画像データのうちで、最新のフレームの画像データから所定フレーム分の画像データについて加重平均による合成処理を行い、合成画像データを生成する。
複数フレームの画像データを合成する際には、各フレームの画像データに均等な重み係数を与えたり、特定の画像データに高い重み係数を与えることで、所要の画像効果を得るようにする。
またCPU31は表示制御を行う。即ちCPU31は表示コントローラ7に指示し、また表示用のデータを与えて表示パネル6に所要の表示を実行させる。例えば撮像時のモニタ表示や再生画像の表示を実行させる。特には、撮像モニタ用の毎フレームのデータとして、上記の合成処理により生成した合成画像データを表示コントローラ7に供給することで、特殊な画像効果を得たモニタ動画(ライブビュー動画)を表示させることができる。
またCPU31は、記録/再生/送信制御を行う。即ち媒体インターフェース10を指示して記録媒体90からの読み出しや、記録媒体90への書込を制御する。例えばユーザのシャッタ操作に応じて、バッファリングされている或るフレームの画像データ、もしくは合成画像データを、保存すべき静止画データとして、媒体インターフェース10に指示して記録媒体90に記録させる。また、バッファリングされるフレーム毎の撮像画像データ、もしくは合成画像データを、動画データとして媒体インターフェース10に指示して記録媒体90に記録させることもできる。
またCPU31は、撮像した画像データ、合成画像データ、記録媒体90から読み出させた画像データ等を、外部インターフェース8を介して外部機器に送信させる処理を行う。
またCPU31は操作検知処理を行い、ユーザによる操作入力情報を検知する。即ち操作部5からの入力情報を検知する。この操作検知処理で検知された操作入力情報に基づいて、CPU31は撮像動作制御、撮像時の合成処理、画像データの記録/再生/送信制御等を実行する。
[2.ライブ画像合成モードの動作例]

本例の撮像装置1の特徴的な動作としてのライブ画像合成モードの動作例を説明する。
ユーザは、撮像装置1を用いて撮像を行う際、各種の用意された撮像モードを選択することができる。
例えばオートモード、ポートレートモード、風景モード、マクロモード、スポーツモード、夕景モード、夜景モード、動画撮像モードなどがある。
オートモードは、最適な絞り値、シャッター速度、ISO感度などの設定を撮像装置1が自動的に行う撮像モードである。
ポートレートモードは、人物撮像に適した設定で撮像が行われる撮像モードである。
風景モードは、風景撮像に適した設定で撮像が行われる撮像モードである。
マクロモードは、近接撮像を行う場合に適した設定で撮像が行われる撮像モードである。マクロモードとしては、特にネイチャーマクロモードとして、花や虫などの近接撮像において、色鮮やかに撮るためのモードが設けられる場合もある。
スポーツモードは、動きのある被写体に適した設定で撮像が行われる撮像モードである。
夕景モードは、夕景撮像に適した設定で撮像が行われる撮像モードである。
夜景モードは、夜景撮像に適した設定で撮像が行われる撮像モードである。
動画撮像モードは、動画撮像を行う撮像モードである。
これら以外にも、夜の景色と人物を一緒に撮像するのに適した夜景&人物モード、花火の撮像に適した花火モードなどが用意される場合もある。
ユーザは、これらの撮像モードのうちで任意の撮像モードを選択し、撮像操作を行うことで、被写体や状況に適した撮像画像を得ることができる。
そして本例では、この撮像モードの1つとして「ライブ画像合成」モードが用意されている。
CPU31は、ユーザに撮像モードを選択させる際には、図3のようなモード選択画面を表示パネル6に表示させるようにする。
この場合、オートモード撮像、ポートレートモード撮像、夕景モード撮像、マクロモード撮像などの通常の撮像モードとともに、ライブ画像合成モードが、そのイメージ画像と共に表示されるようにしている。ライブ画像合成モードのイメージ画像としては、例えば長時間露光効果が与えられた画像が用いられる。そしてユーザはカーソルKを移動させていくことで撮像目的に合わせた任意のモードを選択できる。各モードのイメージ画像を表示させることは、不慣れなユーザにとってモード選択に適したものとなる。特に長時間露光効果などの特殊効果画像を知らない人にとっては、ライブ画像合成モードのイメージ画像により、そのモードがどのようなものであるかを紹介することにもなる。
なおモード選択の操作は、例えば図2(b)に示したダイヤル操作部5hにより行うこととしてもよい。
ユーザが撮像モードの選択操作を行った場合は、CPU31は選択された撮像モードに応じて動作設定を行う。例えば撮像系2の各部について、露光量、露光方式、電子シャッタ設定、フレームレート設定、ゲイン設定などの制御を行う。
以下、ユーザがライブ画像合成モードを選択した場合の動作例を詳述する。
ユーザがライブ画像合成モードを選択する操作を行った場合、CPU31は図4の処理を開始する。まずステップF101で撮像動作開始制御を行う。CPU31は、撮像系2の各部及びカメラDSP4について撮像動作を開始させる。これによって、被写体画像についての毎フレームの画像データの取込が開始される。
CPU31は、ステップF102でユーザのシャッタ操作の監視、及びステップF103でライブ画像合成モードの終了操作を監視し、特にこれらの操作が無い期間はステップF104に進む。
ステップF104では、撮像系2で撮像されてカメラDSP4で処理された1フレームの画像データをRAM32に取り込む。
なお、RAM32には、図5(a)に示すようにフレーム画像バッファ領域32aと合成画像バッファ領域32bが確保されている。
フレーム画像バッファ領域32aは、ステップF101での撮像動作開始以後、1フレーム期間毎にカメラDSP4から転送されてくる各フレームの画像データをバッファリングする領域とされる。ステップF104では、カメラDSP4から転送されてきた1フレームの画像データをフレーム画像バッファ領域32aに一時記憶することになる。
続いてCPU31はステップF105での合成処理、ステップF106での合成画像データのバッファリング、ステップF107での合成画像データの表示制御を行う。そしてステップF102,F103を介して、再びステップF104〜F107の処理を行う。
即ちCPU31は、シャッタ操作がされていない期間は、1フレーム期間毎にステップF104〜F107の処理を行うことになる。RAM32のフレーム画像バッファ領域32aには、その領域の容量に応じて、現在のフレームから過去の所定フレーム数の画像データがバッファリングされる状態となる。なお、動作が継続していくと、フレーム画像バッファ領域32aが一杯になるが、その場合は、バッファリングされているうちで最も古い画像データを消去しながら新たなフレームの画像データを記憶していけばよい。
ステップF105〜F107の処理は例えば次のように行われる。
まずステップF105では、その時点でフレーム画像バッファ領域32aに一時記憶されているフレームの内、最新のフレーム(直前にステップF104で取り込まれたフレーム)の画像データから過去に遡る所定数のフレームを用いて合成処理を行う。
図6に合成処理のイメージを示す。
フレーム画像バッファ領域32aに取り込まれる各フレームの画像データを画像データ#1、#2、#3・・・として示す。また合成処理に用いる画像データ範囲は最新のフレームを含めた7フレームであるとする。もちろんこの7フレームとは、ここでの説明のための例としたフレーム数にすぎない。
今、時点t7の撮像フレームとして、ステップF104で画像データ#7が取り込まれたとする。この場合、ステップF105の合成処理として、最新の画像データ#7を含む7フレームの画像データ(#1〜#7)を合成範囲A1とする。
そして、この合成範囲A1の画像データ(#1〜#7)を用い、重み係数の設定や加重平均処理を行って、合成画像データを生成する。
ここでは、4つの合成画像データ(GL,GS,GA、GM)を生成する。図6では合成画像データGL1、GS1、GA1、GM1として示している。
合成画像データGLは長時間露光効果を得る合成画像データであるとする。長時間露光効果とは、図7の合成画像として例示するように、例えば動きのある被写体に対して長時間の露光を続けることで表現される効果である。
例えば画像データ#1〜#7から長時間露光効果の合成画像データGL1を生成するには、各画像データ#1〜#7に均等の重みを与えて合成する。図7では、各画像データ#1〜#7に与える重み係数w1〜w7を模式的に示している。これは高さが重み係数の値をあらわすものとする。このように各画像データ#1〜#7に均等の重みを与え、加重平均により合成画像を生成する。即ち各画像データ#1〜#7においてそれぞれ対応する各画素の値を加算し、加算された画像データの枚数(この場合「7」)で除算するという合成を行う。これにより図示するような長時間露光効果の合成画像が得られる。
例えば一連の画像データ#1〜#7が、被写体が右から左に移動している画像であった場合、図示のように合成画像として右から左に移動している被写体について長時間露光を行ったような画像の合成画像データが生成される。
合成画像データGSは先幕シンクロ効果を得る合成画像データであるとする。先幕シンクロ効果とは、長時間露光の開始タイミングのみにフラッシュを焚くことで、時間的に最初の状態が明瞭に表現されるような撮像技法である。
図8に先幕シンクロ効果の合成画像例を示す。
本例では合成範囲とされた連続するフレームの画像データのうちで、最初のフレームの画像データに対して高い重み係数、後続の他のフレームの画像データに低い重み係数を与えて合成することで、このような先幕シンクロ効果を得る。
即ち各画像データ#1〜#7について、画像データ#1に高い重み係数w1を与え、他の画像データ#2〜#7には低い重み係数w2〜w7を与える。そして加重平均により合成画像データGS1を生成すると、図示するような先幕シンクロ効果の合成画像が得られる。
合成画像データGAは後幕シンクロ効果を得る合成画像データであるとする。後幕シンクロ効果とは、長時間露光の終了タイミングのみにフラッシュを焚くことで、時間的に最後の状態が明瞭に表現されるような撮像技法である。
図9に後幕シンクロ効果の合成画像例を示す。
本例では合成範囲とされた連続するフレームの画像データのうちで、最後のフレームの画像データに対して高い重み係数、他のフレームの画像データに低い重み係数を与えて合成することで、このような後幕シンクロ効果を得る。
即ち各画像データ#1〜#7について、画像データ#7に高い重み係数w7を与え、他の画像データ#1〜#6には低い重み係数w1〜w6を与える。そして加重平均により合成画像データGA1を生成すると、図示するような後幕シンクロ効果の合成画像が得られる。
合成画像データGMはマルチ発光効果を得る合成画像データであるとする。マルチ発光効果とは、長時間露光の間に周期的にフラッシュを焚くことで、周期的に被写体の状態が明瞭に表現されるような撮像技法である。
図10にマルチ発光効果の合成画像例を示す。
本例では、合成範囲内の連続するフレームの画像データに対して周期的に高い重み係数と低い重み係数を与えて合成することで、このようなマルチ発光効果を得る。
例えば画像データ#1〜#7について、画像データ#1,#4,#7に高い重み係数w1、w4,w7を与え、他の画像データ#2,#3,#5,#6には低い重み係数w2,w3,w5,w6を与える。そして加重平均により合成画像データGM1を生成すると、図示するようなマルチ発光効果の合成画像が得られる。
CPU31は、図6の時点t7で画像データ#7が取り込まれた際のステップF105では、このようにバッファリングされている画像データ#1〜#7を用いて、これらの合成画像データGL1、GS1、GA1、GM1を生成する。
そしてステップF106でCPU31は、この合成画像データGL1、GS1、GA1、GM1を、RAM32の合成画像バッファ領域32bに一時記憶する。
さらにステップF107でCPU31はこの合成画像データGL1、GS1、GA1、GM1を表示データとして表示コントローラ7に出力し、表示パネル6に所定のモニタ表示を実行させる(表示例は後述)。
次に図6のt8時点で、次のフレームの画像データ#8がRAM32に取り込まれる(F104)。この場合もCPU31はステップF105で、同様の合成処理を行う。この場合は、図6に合成範囲A2として示すように、最新の画像データ#8を含む7フレームの画像データ(#2〜#8)を用いて合成処理を行い、4つの合成画像データGL2、GS2、GA2、GM2を生成する。
そしてステップF106でCPU31は、この合成画像データGL2、GS2、GA2、GM2を、RAM32の合成画像バッファ領域32bに一時記憶する。
さらにステップF107でCPU31はこの合成画像データGL2、GS2、GA2、GM2を表示データとして表示コントローラ7に出力し、表示パネル6に所定のモニタ表示を実行させる。
さらに次に図6のt9時点で、次のフレームの画像データ#9がRAM32に取り込まれる(F104)。この場合もCPU31はステップF105で、同様の合成処理を行う。この場合は、図6に合成範囲A3として示すように、最新の画像データ#9を含む7フレームの画像データ(#3〜#9)を用いて合成処理を行い、4つの合成画像データGL3、GS3、GA3、GM3を生成する。
そしてステップF106でCPU31は、この合成画像データGL3、GS3、GA3、GM3を、RAM32の合成画像バッファ領域32bに一時記憶する。
さらにステップF107でCPU31はこの合成画像データGL3、GS3、GA3、GM3を表示データとして表示コントローラ7に出力し、表示パネル6に所定のモニタ表示を実行させる。
以上のような処理を、シャッタ操作が行われるか、或いはライブ画像合成モードの終了操作(他のモードへの切り換え操作)が行われるまで継続する。
ステップF106の処理によってRAM32の合成画像バッファ領域32bに上記の各合成画像データが一時記憶される様子を図5(b)に模式的に示している。なお、上記処理が繰り返されていき、合成画像バッファ領域32bが一杯になった場合は、最古の合成画像データを消去しながら新たな合成画像データを一時記憶するようにすればよい。
このステップF104〜F107が繰り返される期間とは、ユーザがシャッタチャンスを狙っている期間である。即ちユーザは表示パネル6を見ながらシャッタチャンスをうかがう。
ここで、ステップF107の処理によれば、4種類の合成画像データ(GL,GS,GA、GM)が表示用のデータとして表示コントローラ7に供給される。表示コントローラ7は、合成画像データ(GL,GS,GA、GM)を用いて、例えば図11のような表示を表示パネル6において実行させる。
この場合の表示内容としては選択画像61を最も大きく表示する。
また4種類の合成画像データ(GL,GS,GA、GM)のそれぞれを並べて表示する。即ち合成画像データGLに基づく長時間露光効果画像62、合成画像データGSに基づく先幕シンクロ効果画像63、合成画像データGAに基づく後幕シンクロ効果画像64、合成画像データGMに基づくマルチ発光効果画像65を表示する。
また、合成内容表示66として、例えば合成時間が表示される。例えば図示する「合成時間2秒」とは、上記のような合成処理として、最新のフレームから過去2秒間のフレームについて合成処理を行っていることを示す。例えば1秒間に30フレームのフレームレートで撮像しているとすれば60フレームの合成処理を行うことを表す。
4種類の各画像効果の画像62,63,64,65については、カーソルKの操作によりユーザが所望の画像を選択できる。図4の処理としては示していないが、CPU31はユーザのカーソル操作に応じて、表示コントローラ7にカーソルKの表示位置を伝え、カーソルKによる選択状態が、表示パネル6上で表現されるようにする。
また、画面上での選択表示61とは、カーソルKによって選択中となっている画像を大きく表示するものとする。
例えば図11では、カーソルKが長時間露光効果画像62が選択中であり、この場合は、選択画像61として、その長時間露光効果が与えられた合成画像が表示される。
また図12は、カーソルKで先幕シンクロ効果画像63を選択している状態であり、この場合は、選択画像61として、先幕シンクロ効果が与えられた合成画像が表示される。
また図13は、カーソルKで後幕シンクロ効果画像64を選択している状態であり、この場合は、選択画像61として、後幕シンクロ効果が与えられた合成画像が表示される。
また図14は、カーソルKでマルチ発光効果画像65を選択している状態であり、この場合は、選択画像61として、マルチ発光効果が与えられた合成画像が表示される。
上述のようにステップF107の処理で、1フレーム期間毎に、4種類の合成画像データGL、GS、GA、GMが表示データとして表示コントローラ7に出力される。
つまり長時間露光効果画像62の表示のためには、1フレーム期間毎に合成画像データGL1,GL2,GL3・・・が用いられる。
また先幕シンクロ効果画像63の表示のためには、1フレーム期間毎に合成画像データGS1,GS2,GS3・・・が用いられる。
また後幕シンクロ効果画像64の表示のためには、1フレーム期間毎に合成画像データGA1,GA2,GA3・・・が用いられる。
またマルチ発光効果画像65の表示のためには、1フレーム期間毎に合成画像データGM1,GM2,GM3・・・が用いられる。
従って、表示パネル6においては、現在の被写体のモニタ画面としてのリアルタイム動画(被写体光景をそのままスルー画(ライブビュー)としての動画)が、長時間露光効果を与えた画像、先幕シンクロ効果を与えた画像、後幕シンクロ効果を与えた画像、マルチ発光効果を与えた画像として表示されることになる。
また選択画像61としては、それらのうちでユーザによって選択されたいずれかが表示される。
このためユーザは、シャッタチャンスを狙っている際に、これらの画像効果を与えた場合どのような画像となるかを実際に見ることができる。つまり、実際に特殊効果を与えるとどのようになるかを確認しながらシャッタチャンスをねらえるものとなる。
なお、図14のように、マルチ発光効果画像65が選択され、選択画像61として表示される際には、発光間隔表示67を行うようにすることが考えられる。
マルチ発光効果とは、周期的にフラッシュ発光を行ったような画像効果であるが、その発光周期によって、画像の印象は異なるものとなる。このため発光間隔、つまり本例の場合は合成処理の際に図10のように高い重み係数を与えるフレーム間隔を、ユーザが任意に変更できるようにするとよい。そこで、図15に示すようにカーソルKによって発光間隔表示67を選択できるようにし、ユーザが所定の操作によって、発光間隔を変更できるようにする。例えば0.5秒、0.75秒、1秒、1.25秒、1.5秒、2秒などを切り換えることができるようにすればよい。もちろん、より細かい時間間隔で設定変更できるようにしてもよい。
発光間隔の切り換え操作が行われた場合は、CPU31は図4のステップF105での合成処理で合成画像データGMを生成する際の、高い重み係数を与える周期を変更する。これによって、表示上でもマルチ発光効果画像65(選択中の場合は選択画像61)のマルチ発光効果も調整され、ユーザが確認できる。
また、合成時間表示66についても、同様にユーザがカーソルK及び所定操作で変更できるようにすると良い。例えば合成時間として0.5秒、1秒、1.5秒、2秒、2.5秒、3秒などと変更できるようにする。もちろん、より細かい時間間隔で設定変更できるようにしてもよい。
変更操作が行われた場合、CPU31は図4のステップF105での合成処理で用いる合成範囲(フレーム数)を、その変更された合成時間値に応じて変更すればよい。
ユーザは、以上のように表示パネル6の表示として、被写体光景にリアルタイムで長時間露光効果等を与えたモニタ画像を見ながら、任意のタイミングでシャッタ操作を行う。
CPU31は、ユーザのシャッタ操作を検知したら、処理をステップF102からF108に進める。そして、このシャッタタイミングの合成画像を記録媒体90に記録する処理を行う。シャッタタイミングの合成画像とは、そのシャッタ操作検知の直前にステップF105で生成し、ステップF106で一時記憶した合成画像データGL、GS,GA,GMとすればよい。
そして例えば、その時点でユーザが選択している合成画像、即ち表示パネル6の選択画像61として表示されている合成画像を、実際に静止画として保存する合成画像データとする。例えば図11のように長時間露光効果の合成画像が選択されているのであれば、CPU31は、当該長時間露光効果の合成画像GL(x)を、媒体インターフェース10に転送し、記録媒体90に記録させる。
これによって、ユーザは、所望の光景の長時間露光効果の合成画像を、1枚の撮像写真(静止画)として保存させることができる。
CPU31は、ステップF109では、ユーザに撮像画像を確認させるため、表示コントローラ7を制御し、記録媒体90に記録させた当該合成画像データを、表示パネル6に表示させる。例えば2秒〜5秒程度、画面全体に、記録した合成画像を表示させる。
そして、表示を終えたら、ステップF102〜F107の処理を再開する。
これによって、再び長時間露光効果等の画像がリアルタイムモニタとして表示され、ユーザは次のシャッタチャンスを狙うことができる。
ユーザがライブ画像合成モードを終了させる操作を行ったことを検知したら、CPU31はステップF103から、この図4の処理を終える。
なお、ステップF108の撮像画像の記録処理としては、次のような例も考えられる。
例えば、選択画像61として表示されている選択中の合成画像だけでなく、4種類の合成画像を全て記録媒体90に記録するようにしてもよい。即ち、1回のシャッタ操作により、それぞれ長時間露光効果、先幕シンクロ効果、後幕シンクロ効果、マルチ発光効果の4枚の静止画データが記録媒体90に記録されるようにしてもよい。
また、シャッタタイミングの合成画像として、その直前のステップF105で生成された合成画像データとしたが、ステップF102でシャッタ操作を検知した直後に得られるフレームを含めて合成画像データGL、GS,GA,GMを生成し、それらをシャッタタイミングの合成画像データとして記録媒体90に記録するようにしてもよい。
またその場合に、選択中の合成画像のみを生成して記録しても良い。例えば図14のように長時間露光効果が選択されている場合にシャッタ操作を検知したら、ステップF108に進む段階で、そのシャッタ操作直後のフレームを最新のフレームとして、長時間露光効果の合成画像データGLを生成し、該合成画像データGLを記録媒体90に記録するようにしてもよい。
また、シャッタタイミングの合成画像だけでなく、或る程度の時間範囲の合成画像データを記録媒体90に記録するようにしてもよい。図5(b)に示したように、各フレーム期間毎に生成される合成画像データGL、GS,GA,GMは、合成画像バッファ領域32bに一時保存されている。
このため、シャッタタイミングから、或る程度遡った過去までの合成画像データについても、撮像画像として記録媒体90に記録することができる。例えば数フレーム期間前までの合成画像データをまとめて記録するようにしても良い。
また、合成画像データを記録するだけでなく、フレーム画像バッファ領域32aにバッファリングされている画像データ、例えば記録する合成画像データを生成する元となった複数フレームの画像データについても、記録媒体90に記録するようにしても良い。
なお本例では、撮像結果としての画像データの保存は記録媒体90に行われるものとして説明しているが、記録媒体90ではなく、フラッシュROM33において保存を行っていくようにしてもよい良い。また、通常は記録媒体90に記録するが、記録媒体90が装填されていない場合はフラッシュROM33に記録するような動作方式でも良い。
以上の本例の動作によれば、長時間露光/先幕シンクロ/後幕シンクロ/マルチ発光といった効果を加えた合成画像を生成して、表示することによって、撮像前(シャッタ操作前)にもユーザに対して画像合成による画像効果を示し、ユーザーがそれらの画像効果を狙って撮像操作を行うことが可能な撮像装置1を実現できる。
しかも、被写体光景にリアルタイムで上記各効果を与えた画像を表示するため、長時間露光/先幕シンクロ/後幕シンクロ/マルチ発光の各効果として最適なシャッタタイミングを容易に狙えることになり、熟練者でなくとも、多様かつ適切な特殊撮像を行うことができる。
しかも4種類の画像効果を同時に確認できることで、ユーザが望む効果を、自分の好みや被写体光景に応じて、より的確に選択できる。
また、上記したように、合成画像データも合成画像バッファ領域32bにバッファリングしておくことで、シャッタ操作したとき、そのタイミングでの表示画像だけでなく、前後のタイミングでの合成画像を記録することもできる。これにより、よりシャッタタイミングをミスしない特殊撮影効果画像を得ることができるカメラを提供することができる。
なお、上記例ではステップF105として、毎フレーム期間毎に4種類の合成画像データを生成したが、もちろん1種類、2種類、3種類、或いは5種類以上の画像効果を与えた合成画像を生成してもよい。
また必ずしもステップF105〜F107の処理は、毎フレーム期間毎に行われなくても良い。例えばステップF105〜F107の処理を2フレーム期間に1回、3フレーム期間に1回など、間欠的に行ってもよい。特に合成処理の時間高速化が困難な場合などは、ステップF105〜F107の処理を間欠的に行うようにすることが好適である。
例えば図6の例で言えば、合成範囲A1で合成処理を行ったら、次は合成範囲A3で合成処理を行うような処理例である。
また合成処理に時間がかかる場合、合成処理に要する時間よりも長い時間の画像データをフレーム画像バッファ領域32aに溜めるようにすることによって、対応可能である。
また、合成処理及び合成画像データの表示処理のためのCPU31の処理負荷を軽減させるために、ステップF105〜F107の処理は低い解像度の合成画像データを生成及び表示するようにしてもよい。
或いは、表示パネル6に表示される長時間露光効果画像62、先幕シンクロ効果画像63、後幕シンクロ効果画像64、マルチ発光効果画像65としては、それらの画像効果を表現する所定のプリセット画像(静止画又は動画)とし、実際の被写体光景のモニタは選択画像61としてのみ表示されるようにしてもよい。この場合、表示用としてはカーソルKで選択されている1種類の合成画像データのみについて処理すればよいものとなる。
また本例では、表示パネル6において上記図14等に示した表示を行うものとしているが、例えば表示画像データを外部インターフェース8から外部の表示機器に転送し、その表示機器で図14等の画像を表示させるようにしてもよい。
ところで本例のような動作は、撮像装置1をデジタル一眼レフカメラとした場合にも適用できる。公知のとおり、一眼レフカメラの場合、撮像光学系におけるいわゆるミラーダウン状態で被写体光をファインダーに供給しており、シャッタ操作時はミラーアップして被写体光を撮像素子部に供給し、露光を行う。ここで、上記のようなライブ画像合成モードが選択された場合については、常時ミラーダウン状態として、シャッタ操作時以外も撮像素子部に被写体光を供給するようにすればよい。そして撮像素子部で得られた画像データについて合成処理を行い、合成画像を表示させることで、上記同様の動作が実現される。以下に述べる各動作例の場合も、同様にデジタル一眼レフカメラでも適用できる。
[3.ライブ画像合成モードの他の動作例]

続いて図16、図17,図18でライブ画像合成モードの他の動作例を説明する。
図16に撮像モードの選択画面を示す。上記例の場合、撮像モードの選択は図3に示した選択画面において「ライブ画像合成モード」を選択するようにしたが、この例は、図16のように、通常の撮像モード(オートモード、ポートレートモード等)とともに、「長時間露光効果」「先幕シンクロ効果」「後幕シンクロ効果」「マルチ発光効果」の各モードを予め選択できるようにする。ユーザはカーソルKの操作により、所望の撮像モードを選択する。
例えば図示するようにカーソルKを長時間露光効果に合わせてモード決定操作を行った場合、CPU31は、長時間露光効果モードとして図17の処理を行うようにする。
図17の処理を説明する。
ユーザが例えば「長時間露光効果」モードを選択する操作を行った場合、CPU31は図17の処理を開始する。まずステップF201で撮像動作開始制御を行う。CPU31は、撮像系2の各部及びカメラDSP4について撮像動作を開始させる。これによって、被写体画像についての毎フレームの画像データの取込が開始される。
CPU31は、ステップF202でユーザのシャッタ操作の監視、及びステップF203で長時間露光効果モードの終了操作を監視し、特にこれらの操作が無い期間はステップF204に進む。
ステップF204では、撮像系2で撮像されてカメラDSP4で処理された1フレームの画像データをRAM32のフレーム画像バッファ領域32aに取り込む。
続いてCPU31はステップF205での合成処理、ステップF206での合成画像データのバッファリング、ステップF207での合成画像データの表示制御を行う。そしてステップF202,F203を介して、再びステップF204〜F207の処理を行う。
即ちCPU31は、シャッタ操作がされていない期間は、1フレーム期間毎にステップF204〜F207の処理を行うことになる。RAM32のフレーム画像バッファ領域32aには、その領域の容量に応じて、現在のフレームから過去の所定フレーム数の画像データがバッファリングされる状態となる。
ステップF205〜F207の処理は例えば次のように行われる。
まずステップF205では、その時点でフレーム画像バッファ領域32aに一時記憶されているフレームの内、最新のフレーム(直前にステップF204で取り込まれたフレーム)の画像データから過去に遡る所定数のフレームを用いて合成処理を行う。
この場合、合成画像データGLとして長時間露光効果を得る合成画像データを生成する。
そしてステップF206でCPU31は、この合成画像データGLを、RAM32の合成画像バッファ領域32bに一時記憶する。
さらにステップF207でCPU31はこの合成画像データGLを表示データとして表示コントローラ7に出力し、表示パネル6に所定のモニタ表示を実行させる。
このような処理を、シャッタ操作が行われるか、或いは長時間露光効果モードの終了操作(他のモードへの切り換え操作)が行われるまで継続する。
このステップF204〜F207が繰り返される期間とは、ユーザがシャッタチャンスを狙っている期間である。即ちユーザは表示パネル6を見ながらシャッタチャンスをうかがう。
ここで、ステップF207の処理によれば、毎フレーム期間毎に長時間露光効果の合成画像データGLが表示用のデータとして表示コントローラ7に供給される。表示コントローラ7は、合成画像データGLを用いて、例えば図18のような表示を表示パネル6において実行させる。
即ちこの場合の表示内容としては、合成画像データGLを画面全体に表示する。
また、合成内容表示66として、例えば合成時間を表示させる。
このためユーザは、シャッタチャンスを狙っている際に、長時間露光効果を与えた場合にどのような画像となるかを実際に見ることができる。
ユーザは、この表示パネル6の表示として、被写体光景にリアルタイムで長時間露光効果を与えたモニタ画像を見ながら、任意のタイミングでシャッタ操作を行う。
CPU31は、ユーザのシャッタ操作を検知したら、処理をステップF202からF208に進める。そして、このシャッタタイミングの合成画像を記録媒体90に記録する処理を行う。シャッタタイミングの合成画像とは、そのシャッタ操作検知の直前にステップF205で生成し、ステップF206で一時記憶した合成画像データGLとすればよい。CPU31は、当該長時間露光効果の合成画像GL(x)を、媒体インターフェース10に転送し、記録媒体90に記録させる。
これによって、ユーザは、所望の光景の長時間露光効果の合成画像を、1枚の撮像写真(静止画)として保存させることができる。
CPU31は、ステップF209では、ユーザに撮像画像を確認させるため、表示コントローラ7を制御し、記録媒体90に記録させた当該合成画像データを、表示パネル6に所定時間表示させる。
そして、表示を終えたら、ステップF202〜F207の処理を再開する。
これによって、再び長時間露光効果の画像がリアルタイムモニタとして表示され、ユーザは次のシャッタチャンスを狙うことができる。
ユーザが長時間露光効果モードを終了させる操作を行ったことを検知したら、CPU31はステップF203から、この図17の処理を終える。
なお、ステップF208の撮像画像の記録処理としては、次のような例も考えられる。
例えば、シャッタタイミングの合成画像として、その直前のステップF205で生成された合成画像データとしたが、ステップF202でシャッタ操作を検知した直後に得られるフレームを含めて合成画像データGLを生成し、それをシャッタタイミングの合成画像データとして記録媒体90に記録するようにしてもよい。
また、シャッタタイミングの合成画像だけでなく、その時点で合成画像バッファ領域32bに一時保存されている或る程度の時間範囲の複数の合成画像データGLを記録媒体90に記録するようにしてもよい。
また、合成画像データGLを記録するだけでなく、フレーム画像バッファ領域32aにバッファリングされている画像データ、例えば記録する合成画像データGLを生成する元となった複数フレームの画像データについても、記録媒体90に記録するようにしても良い。
なお、図17はユーザが長時間露光効果モードを選択した場合の処理としているが、ユーザが先幕シンクロ効果モード、後幕シンクロ効果モード、マルチ発光効果モードのいずれかを選択した場合は、図17と同様の処理で対応できる。例えば先幕シンクロ効果モードの場合は、ステップF205の合成処理で先幕シンクロ効果の合成画像データGSを生成するようにし、ステップF207では当該先幕シンクロ効果の合成画像データGSを用いた表示が図18のように行われればよい。
以上の本例の処理によれば、ユーザが選択した画像効果を加えた合成画像を生成して、表示することによって、撮像前(シャッタ操作前)に、ユーザは、自身で選択した画像効果によるモニタ表示を見ながら、シャッタチャンスを狙うことができる。これによって容易に、所望の画像効果を与えた撮像画像を得ることができる。
また、特にCPU31の処理負担を、図4で説明した処理の場合より、著しく低減できる。即ち予めユーザが選択した特定の種類の合成画像データについてのみ、生成、表示を行えばよいためである。
なお、この例の場合も、必ずしもステップF205〜F207の処理は、毎フレーム期間毎に行われなくても良い。例えばステップF205〜F207の処理を2フレーム期間に1回、3フレーム期間に1回など、間欠的に行ってもよい。特に合成処理の時間を高速化が困難な場合などは、ステップF205〜F207の処理を間欠的に行うようにすることが好適である。
また合成処理に時間がかかる場合、合成処理に要する時間よりも長い時間の画像データをフレーム画像バッファ領域32aに溜めるようにすることによって、対応可能である。
また、合成処理及び合成画像データの表示処理のためのCPU31の処理負荷をより軽減させるために、ステップF205〜F207の処理は低い解像度の合成画像データを生成及び表示するようにしてもよい。
また、表示パネル6において上記図18に示した表示を行うものとしているが、例えば表示画像データを外部インターフェース8から外部の表示機器に転送し、その表示機器で図18の画像を表示させるようにしてもよい。
[4.特殊動画撮像モードの動作例]

続いて、特殊動画撮像を行う例を図19,図20で説明する。ここでいう特殊動画撮像とは、長時間露光効果等の画像を動画として記録することである。即ち、上記各例では、長時間露光効果等の効果を与えた合成画像データを各フレーム期間毎に表示することで、被写体光景の動画モニタ表示上で特殊効果を与えるようにしたものであるが、そのような動画を記録媒体90に記録することをいう。
通常の動画撮像と、特殊動画撮像の違いを図20に示す。
図20(b)は通常の動画撮像の場合を示している。通常の動画データは、撮像される各フレーム画像#1、#2、#3・・・が動画を構成する各フレームデータとされる。
一方、本例の特殊動画撮像の場合、図20(a)のように、上述した例えば長時間露光効果を与えた合成画像データGL1,GL2、GL3・・・を、動画を構成する各フレームデータとするものである。
この図20(a)のような特殊動画記録を行うことで、長時間露光効果、先幕シンクロ効果、後幕シンクロ効果、マルチ発光効果等を与えた動画記録が可能となる。
図19に特殊動画撮像モードとされた場合のCPU31の処理例を示す。
ここではユーザが例えば「長時間露光効果」としての特殊動画記録を行うモード選択操作を行った場合を例とする。
CPU31はまずステップF301で撮像動作開始制御を行う。CPU31は、撮像系2の各部及びカメラDSP4について撮像動作を開始させる。これによって、被写体画像についての毎フレームの画像データの取込が開始される。
CPU31は、ステップF302でユーザの記録開始操作の監視、及びステップF303で特殊動画撮像モードの終了操作を監視し、特にこれらの操作が無い期間はステップF304に進む。
ステップF304では、撮像系2で撮像されてカメラDSP4で処理された1フレームの画像データをRAM32のフレーム画像バッファ領域32aに取り込む。
続いてCPU31はステップF305での合成処理、ステップF306での合成画像データの表示制御を行う。そしてステップF302,F303を介して、再びステップF304〜F306の処理を行う。
即ちCPU31は、記録開始操作がされていない期間(記録スタンバイ期間)は、1フレーム期間毎にステップF304〜F306の処理を次のように行う。
ステップF305では、その時点でフレーム画像バッファ領域32aに一時記憶されているフレームの内、最新のフレーム(直前にステップF304で取り込まれたフレーム)の画像データから過去に遡る所定数のフレームを用いて合成処理を行う。この場合、合成画像データGLとして長時間露光効果を得る合成画像データを生成する。
そしてステップF306でCPU31はこの合成画像データGLを表示データとして表示コントローラ7に出力し、表示パネル6に所定のモニタ表示を実行させる。
記録スタンバイ期間に、この処理が繰り返されることで、毎フレーム期間毎に長時間露光効果の合成画像データGLが表示用のデータとして表示コントローラ7に供給される。表示コントローラ7は、合成画像データGLを用いて、例えば図18のような表示を表示パネル6において実行させる。
ユーザは、このような長時間露光効果を与えた被写体光景の動画像をモニタしながら記録開始のチャンスを狙う。
ユーザが記録開始操作を行ったことを検知した場合、CPU31の処理はステップF302からF307に進み、記録終了操作を検知するまで、ステップF308からF311の処理を繰り返す。
ステップF308では、撮像系2で撮像されてカメラDSP4で処理された1フレームの画像データをRAM32のフレーム画像バッファ領域32aに取り込む。
ステップF309では、その時点でフレーム画像バッファ領域32aに一時記憶されているフレームの内、最新のフレーム(直前にステップF308で取り込まれたフレーム)の画像データから過去に遡る所定数のフレームを用いて合成処理を行う。この場合、合成画像データGLとして長時間露光効果を得る合成画像データを生成する。
ステップF310でCPU31はこの合成画像データGLを表示データとして表示コントローラ7に出力し、表示パネル6に所定のモニタ表示を実行させる。
さらにステップF311では、この合成画像データGLを、動画を構成する1フレームのデータとして、媒体インターフェース10に転送し、記録媒体90に記録させる。
つまり、記録開始操作が行われた時点から、記録終了操作が行われる時点までの間、図20(a)に示したように、合成画像データGLが1フレームのデータとされた動画記録が行われることになる。
CPU31は、ステップF307で記録終了操作を検知したら、ステップF302に戻る。そして上記したスタンバイ期間としての処理を行う。
ユーザが長時間露光効果モードを終了させる操作を行ったことを検知したら、CPU31はステップF303から、この図19の処理を終える。
以上の処理により、長時間露光効果を与えた動画記録が実現される。これによってユーザは、従来無い動画撮像を容易に実現できる。
また、記録した動画を再生することで、長時間露光効果等を与えた動画を楽しむことができる。
図19では長時間露光効果としての特殊動画撮像の処理を説明したが、先幕シンクロ効果モード、後幕シンクロ効果モード、マルチ発光効果モードによる特殊動画撮像も図19と同様の処理で対応できる。例えば先幕シンクロ効果モードの場合は、ステップF305、F309の合成処理で先幕シンクロ効果の合成画像データGSを生成するようにし、ステップF306、F310では当該先幕シンクロ効果の合成画像データGSを用いた表示が図18のように行われればよい。ステップF311では当該先幕シンクロ効果の合成画像データGSが、動画の1フレームとして記録されればよい。
なお、合成画像データによる動画の記録とともに、図20(b)のような通常の動画としての記録を平行して記録媒体90に行うようにしても良い。
また、表示パネル6において上記図18に示した表示を行うものとしているが、例えば表示画像データを外部インターフェース8から外部の表示機器に転送し、その表示機器で図18の画像を表示させるようにしてもよい。
また記録媒体90ではなく、フラッシュROM33等に特殊動画データとしての記録を行うようにしてもよい。
また、この動画撮像の場合、ユーザは記録開始操作と記録終了操作を行うことになるが、この操作は、例えば次の(1)(2)のような操作例が考えられる。
(1)ユーザがシャッタ操作を行うことを記録開始操作とし、再度シャッタ操作を行うことを記録終了操作とする。
(2)ユーザがシャッタ操作を継続している(シャッタを押し続けている)間に録画を行う。即ちユーザがシャッタ操作を開始した場合を記録開始操作とし、ユーザがシャッタを放した時点を記録終了操作と認識する。
[5.情報処理装置での適用例]

以上の実施の形態は、撮像装置1で撮像及び合成処理を行うものとして述べたが、本発明は撮像装置1以外の装置でも適用できる。
図21には他の装置の例としての情報処理装置、例えばパーソナルコンピュータ200を挙げている。
図21のパーソナルコンピュータ(以下「PC」)は図示するように、CPU(Central Processing Unit)211、メモリ部212、ネットワークインターフェース部213、ディスプレイコントローラ214、入力機器インターフェース部215、HDDインターフェース部216、キーボード217、マウス218、HDD219、表示装置220、バス221、外部機器インターフェース部222、メモリカードインターフェース部223などを有する。
PC200のメインコントローラであるCPU211は、メモリ部212に格納されているプログラムに応じて、各種の制御処理を実行する。CPU211は、バス221によって他の各部と相互接続されている。
バス221上の各機器にはそれぞれ固有のメモリアドレス又はI/Oアドレスが付与されており、CPU211はこれらアドレスによって機器アクセスが可能となっている。バス221の一例はPCI(Peripheral Component Interconnect)バスである。
メモリ部212は揮発メモリ、不揮発性メモリの双方を含むものとして示している。例えばプログラムを格納するROM(Read Only Memory)、演算ワーク領域や各種一時記憶のためのRAM(Random Access Memory)、EEP−ROM(Electrically Erasable and Programmable Read Only Memory)等の不揮発性メモリを含む。
このメモリ部212には、CPU211において実行されるプログラムコードやPC200に固有の識別情報その他の情報を格納したり、通信データのバッファ領域や実行中の作業データのワーク領域に用いられる。
ネットワークインターフェース部213は、イーサネット(Ethernet:登録商標)などの所定の通信プロトコルに従って、PC200をインターネットやLAN(Local Area Network)などのネットワークに接続する。CPU211はネットワークインターフェース部213を介して、ネットワーク接続された各機器と通信を行うことができる。
ディスプレイコントローラ214は、CPU211が発行する描画命令を実際に処理するための専用コントローラであり、例えばSVGA(Super Video Graphic Array)又はXGA(eXtended Graphic Array)相当のビットマップ描画機能をサポートする。ディスプレイコントローラ214において処理された描画データは、例えばフレームバッファ(図示しない)に一旦書き込まれた後、表示装置220に画面出力される。表示装置220は、例えば、有機EL(Electroluminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイや、液晶表示ディスプレイ(Liquid Crystal Display)などとして形成される。
入力機器インターフェース部215は、キーボード217やマウス218などのユーザ入力機器をPC200としてのコンピュータシステムに接続するための装置である。
即ちPC200に対するユーザの操作入力がキーボード217及びマウス218を用いて行われ、その操作入力情報が、入力機器インターフェース部215を介してCPU211に供給される。
HDDインターフェース部216は、ハードディスクドライブ(HDD)219に対する書込/読出のインターフェース処理を行う。
HDD219は、周知の通り記憶担体としての磁気ディスクを固定的に搭載した外部記憶装置であり、記憶容量やデータ転送速度などの点で他の外部記憶装置よりも優れている。ソフトウェアプログラムを実行可能な状態でHDD219上に置くことをプログラムのシステムへの「インストール」と呼ぶ。通常、HDD219には、CPU211が実行すべきオペレーティングシステムのプログラムコードや、アプリケーションプログラム、デバイスドライバなどが不揮発的に格納されている。
HDD219に格納されている各種プログラムは、PC200の起動時やユーザ層に応じたアプリケーションプログラムの起動時などに、メモリ部212に展開される。CPU211はメモリ部212に展開されたプログラムに基づいた処理を行う。
外部機器インターフェース部222は、例えばUSB規格(Universal Serial Bus)などにより接続された外部機器とのインターフェースである。
本例の場合、外部機器としては、例えばデジタルスチルカメラやビデオカメラ、ビデオプレーヤなどが想定される。
PC200は、この外部機器インターフェース部222を介した通信により、デジタルスチルカメラ等からの画像データの取込などが可能となる。
なお、外部機器インターフェース部222は、USB規格に限らず、例えばIEEE(Institute of Electrical and Electronics Engineers)1394など、他のインターフェース規格であってもよい。
メモリカードインターフェース部223は、メモリカード等の記録媒体90に対するデータの書込/読出を行う。
例えば上述した撮像装置1のようなデジタルスチルカメラ、或いはビデオカメラ等で用いられた記録媒体90を装着することで、その記録媒体90から画像データを読み込むこともできる。
このようなPC200では、CPU211におけるソフトウエア構造、即ちアプリケーションプログラム、OS(Operating System)、デバイスドライバなどのソフトウエアに基づく演算処理/制御動作を行うことで、各種動作が実行される。
本例の場合、例えば後述する図22,図23の処理が実行できるようにするが、これらの処理を行うためのプログラムは、例えばHDD219にインストールされ、起動時にメモリ部212に展開される。CPU211はメモリ部212に展開されたプログラムに基づいて必要な演算処理や制御処理を実行し、図22,図23の処理を実現する。
なお、図22,図23等の処理をCPU211に実行させるプログラムは、PC200等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROMやフラッシュメモリ等に予め記録しておくことができる。
あるいはまた、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、プログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
このようなPC200においては、例えばHDD219に、各種の画像コンテンツを格納することができる。例えばユーザがデジタルスチルカメラやビデオカメラで撮像した画像コンテンツを取り込んでHDD219に格納することで、ユーザは、このPC200を用いて撮像した画像を再生させて楽しむこともできる。
例えば上記撮像装置1の外部インターフェース8とPC200の外部インターフェース部222の間を接続し、撮像装置1で撮像された画像データをPC200に転送させて取り込むことができる。
もちろん撮像装置1で使用していた記録媒体90(メモリカード)を、メモリカードインターフェース部223に装着して、記録媒体90から撮像装置1で撮像された画像データをPC200に取り込むこともできる。
また、ユーザが撮像した画像コンテンツだけでなく、例えば外部のビデオプレーヤ等で再生され外部インターフェース部222から取り込んだ画像コンテンツ、或いはネットワークインターフェース部213によりネットワーク経由で外部サーバからダウンロードした画像コンテンツもHDD219に格納し、再生させることができる。
そして本例の場合、動画コンテンツを再生する際に、図22,図23の処理を行うことで、長時間露光効果画像等の静止画データ、或いは上述した特殊動画データを記録することができるようにする。
なお「動画コンテンツ」とは、このPC200で再生できるあらゆる動画データのことをいうこととする。
例えばビデオカメラや動画撮像機能を持つデジタルスチルカメラで撮像され、PC200に取り込んだ動画データ、ネットワーク経由でダウンロードした動画データ、記録媒体90に記録された動画データなどを含む。
さらに図21には示していないが、DVDドライブ、ブルーレイディスクドライブなどが接続されることで、DVDやブルーレイディスクなどの光ディスクに記録された動画データや、テレビジョン放送チューナ等を搭載、又は接続しているのであれば、放送コンテンツとしての動画データも含む。接続したビデオプレーヤ等から入力した動画データなども含む。
即ち、どのような態様であるかを問わず、PC200において再生し、表示装置220で表示させることのできる動画データであれば、以下にいう「動画コンテンツ」に該当する。
そして動画コンテンツを再生する際に、CPU211が図22の処理を実行することで、ユーザは、長時間露光効果、先幕シンクロ効果、後幕シンクロ効果、マルチ発光効果などを付加した画像データ(静止画データ)を生成させ、記録(保存)することができる。
図22の処理を説明する。
ここではユーザが例えば「長時間露光効果」モードとしての動作を指示したとする。
その場合、CPU211は図22の処理を開始し、まずステップF401で再生開始制御を行う。例えばCPU31は、HDD219等に記録されている動画コンテンツの再生開始制御を行う。なお、ここでいう「再生」とは、HDD219等から動画コンテンツを読み出す場合のみでなく、例えばネットワーク経由のストリーミング再生、外部機器からの入力画像の再生表示、チューナ装備の場合のテレビジョン放送の受信動画の再生表示なども含むものとする。
CPU211は、ステップF402でユーザのキャプチャ操作の監視、及びステップF403で再生終了を監視する。再生終了とは、動画コンテンツの再生完了による終了やユーザの再生終了操作による終了となる。
再生が行われている期間は、CPU211の処理はステップF404に進む。
ステップF404では、再生によって得られた画像データの1フレームをバッファリングする。例えばメモリ部212にフレーム画像バッファ領域を設定して、その領域に取り込む。
続いてCPU211はステップF405での合成処理、ステップF406での合成画像データのバッファリング、ステップF407での合成画像データの表示制御を行う。
そしてステップF402,F403を介して、再びステップF404〜F407の処理を行う。
即ちCPU211は、キャプチャ操作が検知されていない期間は、1フレーム期間毎にステップF404〜F407の処理を行うことになる。メモリ部212のフレーム画像バッファ領域には、再生している動画コンテンツについての現在のフレームから過去の所定フレーム数の画像データがバッファリングされる状態となる。
ステップF405〜F407の処理は例えば次のように行われる。
まずステップF405では、その時点でメモリ部212のフレーム画像バッファ領域に一時記憶されているフレームの内、最新のフレーム(直前にステップF404で取り込まれたフレーム)の画像データから過去に遡る所定数のフレームを用いて合成処理を行う。
この場合、合成画像データGLとして長時間露光効果を得る合成画像データを生成する。
そしてステップF406でCPU211は、この合成画像データGLを、メモリ部212に用意した合成画像バッファ領域に一時記憶する。
さらにステップF407でCPU211はこの合成画像データGLを表示データとしてディスプレイコントローラ214に出力し、表示装置220で表示させる。
このような処理により、表示装置220では、動画コンテンツの通常の再生表示ではなく、各フレームが長時間露光効果とされた動画再生表示が行われることになる。
ユーザは表示装置220の画面を見ながらキャプチャタイミングをうかがう。
CPU211は、ユーザのキャプチャ操作を検知したら、処理をステップF402からF408に進める。そして、このキャプチャタイミングの合成画像を記録する処理を行う。例えばHDD219や記録媒体90に記録する。
キャプチャタイミングの合成画像とは、そのキャプチャ操作検知の直前にステップF405で生成し、ステップF406で一時記憶した合成画像データGLとすればよい。
これによって、ユーザは、長時間露光効果の再生画像を見ながら、任意のシーンを1枚の静止画データとして保存させることができる。
CPU211は、ステップF409では、ユーザにキャプチャ画像を確認させるため、ディスプレイコントローラ214を制御し、HDD219等に記録させた当該合成画像データを、表示装置220の画面に所定時間表示させる。
そして、表示を終えたら、ステップF402〜F407の処理を再開する。
再生終了となったら、CPU211はステップF403からこの図22の処理を終える。
この図22はユーザが長時間露光効果モードを選択した場合の処理としているが、ユーザが先幕シンクロ効果モード、後幕シンクロ効果モード、マルチ発光効果モードのいずれかを選択した場合は、図22と同様の処理で対応できる。例えば先幕シンクロ効果モードの場合は、ステップF405の合成処理で先幕シンクロ効果の合成画像データGSを生成するようにし、ステップF407では当該先幕シンクロ効果の合成画像データGSを用いた表示が行われればよい。
このような処理によれば、ユーザは任意の動画コンテンツを選択して再生させながら、その或るシーンについて選択した画像効果を加えた合成画像を得ることができる。これによって容易に多様な画像を生成して楽しむことができる。
なお、以上の処理例以外にも、図4で述べたように多種類の画像効果の画像を同時に表示させる処理を行うようにもすることができる。
続いて図23の処理を説明する。
ここでは「長時間露光効果」としての特殊動画記録を行う処理を述べる。
CPU211はまずステップF501で動画コンテンツの再生開始制御を行う。
CPU211は、ステップF502でユーザの記録開始操作の監視、及びステップF503で動画コンテンツの再生終了を監視する。記録開始操作が無い期間は、ステップF504に進む。ステップF504では、再生されている動画コンテンツの1フレームの画像データをメモリ部212のフレーム画像バッファ領域に取り込む。
ステップF505では、その時点でメモリ部212のフレーム画像バッファ領域に一時記憶されているフレームの内、最新のフレーム(直前にステップF504で取り込まれたフレーム)の画像データから過去に遡る所定数のフレームを用いて合成処理を行う。
この場合、合成画像データGLとして長時間露光効果を得る合成画像データを生成する。
そしてステップF506でCPU211は、この合成画像データGLを表示データとしてディスプレイコントローラ214に出力し、表示装置220で表示させる。
CPU211が、記録開始操作がされていない期間(記録スタンバイ期間)は、1フレーム期間毎にステップF504〜F506の処理を行うことで、表示装置220では、動画コンテンツの通常の再生表示ではなく、各フレームが長時間露光効果とされた動画再生表示が行われることになる。
ユーザが記録開始操作を行ったことを検知した場合、CPU211の処理はステップF502からF507に進み、記録終了操作を検知するまで、或いはステップF508で再生終了を検知するまで、ステップF509からF512の処理を繰り返す。
ステップF509では、再生された動画コンテンツの1フレームの画像データをメモリ部212のフレーム画像バッファ領域に取り込む。
ステップF510では、その時点でメモリ部212のフレーム画像バッファ領域に一時記憶されているフレームの内、最新のフレーム(直前にステップF509で取り込まれたフレーム)の画像データから過去に遡る所定数のフレームを用いて合成処理を行い、合成画像データGLとして長時間露光効果を得る合成画像データを生成する。
ステップF511でCPU211は、この合成画像データGLを表示データとしてディスプレイコントローラ214に出力し、表示装置220で表示させる。
さらにステップF512では、この合成画像データGLを、動画を構成する1フレームのデータとして、例えばHDD219等に記録させる。
つまり、記録開始操作が行われた時点から、記録終了操作が行われる時点までの間、上記図20(a)に示したように、合成画像データGLが1フレームのデータとされた動画記録が行われることになる。
CPU31は、ステップF507で記録終了操作を検知したら、ステップF302に戻る。そして上記したスタンバイ期間としての処理を行う。
またステップF503若しくはF508で再生終了を検知したら、CPU31はこの図23の処理を終える。
以上の処理により、再生されている動画コンテンツについて、長時間露光効果を与えた動画記録が実現される。これによってユーザは、従来無い動画コンテンツを作成することができる。
また、記録した動画を再生することで、長時間露光効果等を与えた動画を楽しむことができる。
図23では長時間露光効果としての特殊動画記録の処理を説明したが、先幕シンクロ効果モード、後幕シンクロ効果モード、マルチ発光効果モードによる特殊動画記録も図23と同様の処理で対応できる。例えば先幕シンクロ効果モードの場合は、ステップF505、F510の合成処理で先幕シンクロ効果の合成画像データGSを生成するようにし、ステップF506、F511では当該先幕シンクロ効果の合成画像データGSを用いた表示が行われれるようにすればよい。ステップF512では当該先幕シンクロ効果の合成画像データGSが、動画の1フレームとして記録されればよい。
以上のように、PC200において、動画コンテンツの再生を行わせ、その動画コンテンツから長時間露光効果等の画像効果を与えた静止画データや動画データを作成することができる。
なお本例では情報処理装置としてパーソナルコンピュータを例に挙げたが、例えば携帯電話機、PDA(Personal Digital Assistant)、ゲーム機器、ビデオ再生機、その他画像データを用いる多様な情報処理装置においても同様の処理を実行できるようにすることができる。
本発明の実施の形態の撮像装置のブロック図である。 実施の形態の撮像装置の外観例の説明図である。 実施の形態の撮像モード選択画面の説明図である。 実施の形態のライブ画像合成モード処理のフローチャートである。 実施の形態のバッファ領域の説明図である。 実施の形態の合成処理の説明図である。 実施の形態の長時間露光効果の合成処理の説明図である。 実施の形態の先幕シンクロ効果の合成処理の説明図である。 実施の形態の後幕シンクロ効果の合成処理の説明図である。 実施の形態のマルチ発光効果の合成処理の説明図である。 実施の形態のライブ画像合成モードでの表示の説明図である。 実施の形態のライブ画像合成モードでの表示の説明図である。 実施の形態のライブ画像合成モードでの表示の説明図である。 実施の形態のライブ画像合成モードでの表示の説明図である。 実施の形態のライブ画像合成モードでの表示の説明図である。 実施の形態の他の撮像モード選択画面の説明図である。 実施の形態の他のライブ画像合成モード処理のフローチャートである。 実施の形態のライブ画像合成モードでの表示の説明図である。 実施の形態の特殊動画撮像モード処理のフローチャートである。 実施の形態の特殊動画撮像モードの説明図である。 実施の形態の情報処理装置のブロック図である。 実施の形態の情報処理装置での長時間露光効果モード処理のフローチャートである。 実施の形態の情報処理装置での特殊動画記録モード処理のフローチャートである。
符号の説明
1 撮像装置、2 撮像系、3 制御系、4 カメラDSP、5 操作部、6 表示パネル、7 表示コントローラ、8 外部インターフェース、9 SDRAM、10 媒体インターフェース、13 ブレ検出部、14 発光駆動部、15 フラッシュ発光部、17 レンズ駆動ドライバ、18 絞り/ND駆動ドライバ、19 撮像素子ドライバ、21 レンズ機構部、22 絞り/NDフィルタ機構、23 撮像素子部、24 アナログ信号処理部、25 A/D変換部、28 タイミング生成回路、26 レンズ駆動部、27 レンズ位置検出部、31 CPU、32 RAM、33 フラッシュROM、34 時計回路、41 画像信号処理部,42 圧縮/解凍処理部、43 SDRAMコントローラ、44 情報生成部、90 メモリカード、200 PC、211 CPU、212 メモリ部、214 ディスプレイコントローラ、219 HDD、220 表示装置

Claims (16)

  1. 撮像による画像取得動作として、時間的な連続性を有する複数フレームの画像データを取得する画像取得部と、
    上記画像取得部による画像取得動作中に、上記画像取得部で得られる各フレームの画像データをバッファリング記憶する記憶部と、
    合成処理を行うモードを指示する操作に応じて、上記画像取得部に上記撮像による画像取得動作を開始させるとともに、該画像取得動作中に、逐次、上記記憶部にバッファリング記憶された複数フレームの画像データを用いて画像合成処理を行って合成画像データを生成し、合成画像データを表示用のデータとし、さらに、記録操作入力に応じて、その記録操作入力タイミングに対応する合成画像データを記録媒体に記録する処理を行う演算制御部と、
    を備えた画像処理装置。
  2. 上記演算制御部は、上記記録操作入力に応じて、その記録操作入力タイミングに対応する合成画像データを、静止画データとして記録媒体に記録する処理を行う請求項1に記載の画像処理装置。
  3. 上記演算制御部は、1フレーム期間又は複数フレーム期間としての所定期間毎に、バッファリング記憶された複数フレームの画像データのうちで最新のフレームを含む所定フレーム数の画像データを用いて合成画像データを生成し、表示用のデータとする請求項2に記載の画像処理装置。
  4. 上記演算制御部は、合成処理対象とする各画像データに対して均等な重み係数を与えて合成処理を行う請求項3に記載の画像処理装置。
  5. 上記演算制御部は、合成処理対象とする各画像データのうちで、最新のフレームの画像データに対して高い重み係数、他のフレームの画像データに対して低い重み係数を与えて合成処理を行う請求項3に記載の画像処理装置。
  6. 上記演算制御部は、合成処理対象とする各画像データのうちで、最古のフレームの画像データに対して高い重み係数、他のフレームの画像データに対して低い重み係数を与えて合成処理を行う請求項3に記載の画像処理装置。
  7. 上記演算制御部は、合成処理対象とする各画像データについて、周期的に高い重み係数と低い重み係数を与えて合成処理を行う請求項3に記載の画像処理装置。
  8. 上記演算制御部は、上記画像取得動作中に、逐次、上記記憶部にバッファリング記憶される複数フレームの画像データを用いて画像合成処理を行って複数種類の合成画像データを生成し、生成した複数種類の合成画像データを表示用のデータとする請求項1に記載の画像処理装置。
  9. 上記演算制御部は、記録操作入力に応じて、その記録操作入力タイミングに対応して生成された複数種類の合成画像データの全部又は一部を、静止画データとして記録媒体に記録する処理を行う請求項8に記載の画像処理装置。
  10. 上記演算制御部は、上記画像取得動作中に、逐次、上記記憶部にバッファリング記憶される複数フレームの画像データを用いて画像合成処理を行って合成画像データを生成するとともに、生成した合成画像データを動画を構成する1フレームの画像データとして記録媒体に記録する処理を行う請求項1に記載の画像処理装置。
  11. 上記演算制御部は、生成した合成画像データを、表示用のデータとする請求項10に記載の画像処理装置。
  12. 上記演算制御部で生成される合成画像データを表示出力する表示部をさらに備えた請求項1に記載の画像処理装置。
  13. 上記演算制御部で生成される合成画像データを送信出力する送信部をさらに備えた請求項1に記載の画像処理装置。
  14. 上記演算制御部は、1フレーム期間又は複数フレーム期間としての所定期間毎に、バッファリング記憶された複数フレームの画像データのうちで最新のフレームを含む所定フレーム数の画像データを用いて合成画像データを生成し、表示用のデータとする請求項1に記載の画像処理装置。
  15. 合成処理を行うモードを指示する操作に応じて、撮像による画像取得動作を開始し、該画像取得動作により時間的な連続性を有する複数フレームの画像データを取得するステップと、
    上記画像取得動作中に取得される各フレームの画像データをバッファリング記憶するステップと、
    逐次、バッファリング記憶された複数フレームの画像データを用いて画像合成処理を行って合成画像データを生成するステップと、
    合成画像データを表示用のデータとして出力するステップと、
    記録操作入力に応じて、その記録操作入力タイミングに対応する合成画像データを記録媒体に記録するステップと、
    を備えた画像処理方法。
  16. 合成処理を行うモードを指示する操作に応じて、撮像による画像取得動作を開始させ、該画像取得動作により時間的な連続性を有する複数フレームの画像データを取得するステップと、
    上記画像取得動作中に取得される各フレームの画像データをバッファリング記憶させるステップと、
    逐次、バッファリング記憶された複数フレームの画像データを用いて画像合成処理を行って合成画像データを生成するステップと、
    合成画像データを表示用のデータとして出力するステップと、
    記録操作入力に応じて、その記録操作入力タイミングに対応する合成画像データを記録媒体に記録するステップと、
    を演算処理装置に実行させるプログラム。
JP2008099599A 2008-04-07 2008-04-07 画像処理装置、画像処理方法、プログラム Active JP4544332B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2008099599A JP4544332B2 (ja) 2008-04-07 2008-04-07 画像処理装置、画像処理方法、プログラム
EP09156778A EP2109307B1 (en) 2008-04-07 2009-03-31 Image processing apparatus, image processing method, and program
TW098111017A TWI392346B (zh) 2008-04-07 2009-04-02 影像處理裝置、影像處理方法以及程式
US12/384,304 US8848097B2 (en) 2008-04-07 2009-04-02 Image processing apparatus, and method, for providing special effect
CN200910133078XA CN101557468B (zh) 2008-04-07 2009-04-07 图像处理装置和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008099599A JP4544332B2 (ja) 2008-04-07 2008-04-07 画像処理装置、画像処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2009253690A JP2009253690A (ja) 2009-10-29
JP4544332B2 true JP4544332B2 (ja) 2010-09-15

Family

ID=40786526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008099599A Active JP4544332B2 (ja) 2008-04-07 2008-04-07 画像処理装置、画像処理方法、プログラム

Country Status (5)

Country Link
US (1) US8848097B2 (ja)
EP (1) EP2109307B1 (ja)
JP (1) JP4544332B2 (ja)
CN (1) CN101557468B (ja)
TW (1) TWI392346B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10447940B2 (en) 2015-10-30 2019-10-15 Samsung Electronics Co., Ltd. Photographing apparatus using multiple exposure sensor and photographing method thereof

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103109523B (zh) * 2010-09-14 2016-06-15 富士胶片株式会社 成像装置和成像方法
JP2012119858A (ja) * 2010-11-30 2012-06-21 Aof Imaging Technology Ltd 撮影装置、撮影方法、およびプログラム
US9007429B2 (en) * 2011-04-06 2015-04-14 Casio Computer Co., Ltd. Image processing device capable of generating wide-range image
JP5797003B2 (ja) * 2011-05-10 2015-10-21 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
KR101843450B1 (ko) * 2011-08-23 2018-03-29 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
KR101805626B1 (ko) * 2011-11-18 2017-12-08 삼성전자주식회사 디지털 촬영 장치 및 이의 연속 촬영 제어 방법
JP6046966B2 (ja) * 2012-04-19 2016-12-21 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
KR101889932B1 (ko) * 2012-07-25 2018-09-28 삼성전자주식회사 촬영 장치 및 이에 적용되는 촬영 방법
US9264630B2 (en) * 2013-01-04 2016-02-16 Nokia Technologies Oy Method and apparatus for creating exposure effects using an optical image stabilizing device
KR20140089672A (ko) * 2013-01-04 2014-07-16 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 기록매체
KR102031284B1 (ko) * 2013-03-14 2019-11-08 삼성전자주식회사 연속 촬영된 이미지를 합성하는 전자 장치 및 방법
US10944917B2 (en) * 2013-09-16 2021-03-09 Kyle L. Baltz Camera and image processing method
US8830367B1 (en) * 2013-10-21 2014-09-09 Gopro, Inc. Frame manipulation to reduce rolling shutter artifacts
US9325876B1 (en) * 2014-09-08 2016-04-26 Amazon Technologies, Inc. Selection of a preferred image from multiple captured images
JP6332864B2 (ja) * 2014-12-25 2018-05-30 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
TWI592021B (zh) * 2015-02-04 2017-07-11 騰訊科技(深圳)有限公司 生成視頻的方法、裝置及終端
JP2016167767A (ja) * 2015-03-10 2016-09-15 オリンパス株式会社 撮像装置、合成撮影方法及び合成撮影プログラム
JP2016201627A (ja) * 2015-04-08 2016-12-01 オリンパス株式会社 撮像装置、合成撮影方法及び合成撮影プログラム
US10679677B2 (en) * 2016-03-31 2020-06-09 Sony Corporation Information processing device and information processing method
US10187587B2 (en) 2016-04-13 2019-01-22 Google Llc Live updates for synthetic long exposures
US9854156B1 (en) 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
JP7014222B2 (ja) * 2017-03-30 2022-02-01 ソニーグループ株式会社 撮像装置、および画像処理方法、並びにプログラム
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
JP6597734B2 (ja) * 2017-08-17 2019-10-30 株式会社ニコン 画像処理装置、撮像装置、および画像処理プログラム
US10922551B2 (en) * 2017-10-06 2021-02-16 The Nielsen Company (Us), Llc Scene frame matching for automatic content recognition
JP2018057043A (ja) * 2017-12-27 2018-04-05 株式会社ニコン 撮像装置
WO2019171782A1 (ja) * 2018-03-09 2019-09-12 富士フイルム株式会社 撮像装置、撮像方法、およびプログラム
KR102540450B1 (ko) * 2018-03-26 2023-06-05 후아웨이 테크놀러지 컴퍼니 리미티드 지능형 어시스턴트 제어 방법 및 단말기 장치
CN108629296A (zh) * 2018-04-17 2018-10-09 广州视源电子科技股份有限公司 图像处理方法和装置
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
JP7097248B2 (ja) 2018-07-05 2022-07-07 Omデジタルソリューションズ株式会社 撮像装置及び表示方法
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
JP6653845B1 (ja) * 2018-11-08 2020-02-26 オリンパス株式会社 撮影装置、撮影方法、及び、プログラム
CN109361870A (zh) * 2018-11-28 2019-02-19 维沃移动通信有限公司 一种拍照方法及终端设备
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
CN112135059B (zh) * 2020-09-30 2021-09-28 北京字跳网络技术有限公司 拍摄方法、装置、电子设备和存储介质
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10164472A (ja) * 1996-11-25 1998-06-19 Sega Enterp Ltd 画像情報処理方法及び電子カメラ
JPH1175118A (ja) * 1997-08-29 1999-03-16 Matsushita Electric Ind Co Ltd ビデオカメラ
JP2006060339A (ja) * 2004-08-18 2006-03-02 Sharp Corp 移動体通信端末及び静止画像抽出合成方法
JP2006253810A (ja) * 2005-03-08 2006-09-21 Canon Inc 撮像装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5801773A (en) * 1993-10-29 1998-09-01 Canon Kabushiki Kaisha Image data processing apparatus for processing combined image signals in order to extend dynamic range
US5828793A (en) * 1996-05-06 1998-10-27 Massachusetts Institute Of Technology Method and apparatus for producing digital images having extended dynamic ranges
JP3411469B2 (ja) * 1997-04-14 2003-06-03 日本電信電話株式会社 フレーム多重画像作成方法
US6529640B1 (en) * 1998-06-09 2003-03-04 Nikon Corporation Image processing apparatus
JP4245699B2 (ja) * 1998-09-16 2009-03-25 オリンパス株式会社 撮像装置
JP2001268439A (ja) * 2000-03-16 2001-09-28 Minolta Co Ltd 合成画像の作成方法
JP4503892B2 (ja) * 2001-08-22 2010-07-14 オリンパス株式会社 撮像装置
US7295232B2 (en) * 2003-01-15 2007-11-13 Canon Kabushiki Kaisha Camera and program
JP4418632B2 (ja) 2003-01-15 2010-02-17 キヤノン株式会社 撮影装置、合成画像生成方法およびプログラム
JP2005117395A (ja) * 2003-10-08 2005-04-28 Konica Minolta Photo Imaging Inc 撮像装置
JP2005354166A (ja) 2004-06-08 2005-12-22 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP2006025312A (ja) * 2004-07-09 2006-01-26 Konica Minolta Photo Imaging Inc 撮像装置、及び画像取得方法
JP2006086933A (ja) 2004-09-17 2006-03-30 Canon Inc 撮像装置及び制御方法
EP3310037A1 (en) * 2004-10-26 2018-04-18 Nikon Corporation Digital camera and image combination device
JP4378272B2 (ja) * 2004-12-15 2009-12-02 キヤノン株式会社 撮影装置
JP2006333132A (ja) * 2005-05-26 2006-12-07 Sony Corp 撮像装置及び撮像方法、プログラム、プログラム記録媒体並びに撮像システム
JP4081772B2 (ja) * 2005-08-25 2008-04-30 ソニー株式会社 再生装置および再生方法、プログラム、並びにプログラム格納媒体
JP2007189639A (ja) 2006-01-16 2007-07-26 Matsushita Electric Ind Co Ltd デジタルカメラ
JP4979969B2 (ja) * 2006-04-03 2012-07-18 三星電子株式会社 撮像装置および撮像方法
JP4823743B2 (ja) * 2006-04-03 2011-11-24 三星電子株式会社 撮像装置,及び撮像方法
US7825969B2 (en) * 2006-12-15 2010-11-02 Nokia Corporation Image stabilization using multi-exposure pattern
US7940311B2 (en) * 2007-10-03 2011-05-10 Nokia Corporation Multi-exposure pattern for enhancing dynamic range of images
JP4518131B2 (ja) * 2007-10-05 2010-08-04 富士フイルム株式会社 撮像方法及び装置
JP4960907B2 (ja) * 2008-03-11 2012-06-27 富士フイルム株式会社 撮影装置および撮影方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10164472A (ja) * 1996-11-25 1998-06-19 Sega Enterp Ltd 画像情報処理方法及び電子カメラ
JPH1175118A (ja) * 1997-08-29 1999-03-16 Matsushita Electric Ind Co Ltd ビデオカメラ
JP2006060339A (ja) * 2004-08-18 2006-03-02 Sharp Corp 移動体通信端末及び静止画像抽出合成方法
JP2006253810A (ja) * 2005-03-08 2006-09-21 Canon Inc 撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10447940B2 (en) 2015-10-30 2019-10-15 Samsung Electronics Co., Ltd. Photographing apparatus using multiple exposure sensor and photographing method thereof

Also Published As

Publication number Publication date
EP2109307A1 (en) 2009-10-14
TW201004320A (en) 2010-01-16
US8848097B2 (en) 2014-09-30
CN101557468B (zh) 2012-04-18
TWI392346B (zh) 2013-04-01
US20090262218A1 (en) 2009-10-22
JP2009253690A (ja) 2009-10-29
EP2109307B1 (en) 2011-08-03
CN101557468A (zh) 2009-10-14

Similar Documents

Publication Publication Date Title
JP4544332B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5077003B2 (ja) 画像処理装置、画像処理方法、プログラム
JP4483963B2 (ja) 撮像装置、撮像方法
JP4483962B2 (ja) 撮像装置、撮像方法
JP4492724B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5493456B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5493455B2 (ja) 画像処理装置、画像処理方法、プログラム
EP1856909B1 (en) Moving image playback device with camera-shake correction function
JP4670939B2 (ja) 撮像装置、撮像装置の表示制御方法
JP5480025B2 (ja) 撮像装置、撮像システム、撮像方法
JP2018056940A (ja) 撮像装置、表示装置、電子機器、プログラム、撮像システム、表示システムおよび画像処理装置
JP6231814B2 (ja) 露出決定装置、撮像装置、制御方法、及びプログラム
JP2005020565A (ja) 撮像装置及び撮像装置の情報処理方法
JP2018056941A (ja) 撮像装置、表示装置、電子機器、撮像方法、プログラム、撮像システム、表示システムおよび画像処理装置。
JP5510353B2 (ja) 表示装置、表示方法
JP2011197090A (ja) 撮影支援プログラムおよび撮像装置
JP2007282133A (ja) 画像処理装置、画像処理プログラム、画像処理方法
JP2013175858A (ja) 撮像装置、撮像方法及び撮像プログラム
JP2014036403A (ja) 撮像装置及び撮像装置の制御方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100621

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4544332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250