JP5267279B2 - 画像合成装置及びプログラム - Google Patents

画像合成装置及びプログラム Download PDF

Info

Publication number
JP5267279B2
JP5267279B2 JP2009086121A JP2009086121A JP5267279B2 JP 5267279 B2 JP5267279 B2 JP 5267279B2 JP 2009086121 A JP2009086121 A JP 2009086121A JP 2009086121 A JP2009086121 A JP 2009086121A JP 5267279 B2 JP5267279 B2 JP 5267279B2
Authority
JP
Japan
Prior art keywords
image
subject
images
unit
still
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009086121A
Other languages
English (en)
Other versions
JP2010239459A5 (ja
JP2010239459A (ja
Inventor
淳 村木
博 清水
博之 星野
英里奈 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009086121A priority Critical patent/JP5267279B2/ja
Publication of JP2010239459A publication Critical patent/JP2010239459A/ja
Publication of JP2010239459A5 publication Critical patent/JP2010239459A5/ja
Application granted granted Critical
Publication of JP5267279B2 publication Critical patent/JP5267279B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Description

本発明は、複数の画像を合成する画像合成装置及びプログラムに関する。
従来、被写体画像と背景用画像やフレーム画像を合成することにより合成画像を生成する技術が知られている(例えば、特許文献1参照)。
特開2004−159158号公報
しかしながら、上記特許文献1のように静止画像どうしを合成した場合、合成後の画像において被写体の位置は合成位置で固定されたままであり、興趣に欠ける画像になってしまう。
そこで、本発明の課題は、合成後の画像に動きを与えることができ、興趣性の高い画像を生成することができる画像合成装置及びプログラムを提供することである。
上記課題を解決するため、請求項1に記載の発明の画像合成装置は、
第1及び第2静止画像を取得する静止画取得手段と、前記第1及び第2静止画像とは異なる複数の画像に共通して含まれる被写体の前記複数の画像にわたる変化を検出する検出手段と、前記第2静止画像を背景として、前記検出手段によって検出された変化を反映して前記第1静止画像を合成した合成動画を生成する合成手段と、を備えたことを特徴としている。
請求項2に記載の発明は、請求項1に記載の画像合成装置において、
前記被写体の前記複数の画像にわたる変化とは、前記複数の画像の画角における前記被写体の位置の単位時間当たりの変化、前記複数の画像における前記被写体の画像が占める範囲の単位時間当たりの変化、前記複数の画像の水平方向及び垂直方向の少なくとも一方に対する前記被写体の回転角度の単位時間当たりの変化の少なくとも何れか一つであることを特徴としている。
請求項3に記載の発明は、請求項1又は2に記載の画像合成装置において、
前記検出手段によって検出された変化を複数枚の画像として記憶する記憶手段を更に備え、前記合成手段は、前記記憶手段から複数枚の画像を読み出す読出手段と、前記第2静止画像を背景画像として、前記読出手段によって読み出された複数枚の画像の夫々における被写体の位置に前記第1静止画像を合成した合成静止画像を複数生成する生成手段と、を含むことを特徴としている。
請求項4に記載の発明は、請求項3に記載の画像合成装置において、
前記生成手段は、前記検出手段により検出された変化に基づいて、合成内容情報を順次生成する合成内容生成手段と、前記合成内容生成手段により順次生成された合成内容情報に応じて、前記第1静止画像の合成位置、大きさや形状、及び、回転角度のうち、少なくとも何れか一つを設定する設定手段と、を含むことを特徴としている。
請求項5に記載の発明は、請求項1〜4の何れか一項に記載の画像合成装置において、
連続した複数の静止画を含む動画像或いは連写画像を取得する画像取得手段を更に備え、前記検出手段は、前記画像取得手段により取得された前記動画像及び前記連写画像を前記第1及び第2静止画像とは異なる複数の画像として、これら複数の画像に共通して含まれる被写体の前記複数の画像にわたる変化を検出することを特徴としている。
請求項6に記載の発明は、請求項5に記載の画像合成装置において、
前記画像取得手段は、撮像手段を含むことを特徴としている。
請求項7に記載の発明は、請求項1〜6の何れか一項に記載の画像合成装置において、
前記第1静止画像は、所定の静止画像から特定の領域を抽出した抽出画像であることを特徴としている。
請求項8に記載の発明のプログラムは、
コンピュータを、第1及び第2静止画像を取得する静止画取得手段、前記第1及び第2静止画像とは異なる複数の画像に共通して含まれる被写体の前記複数の画像にわたる変化を検出する検出手段、前記第2静止画像を背景として、前記検出手段によって検出された変化を反映して前記第1静止画像を合成した合成動画を生成する合成手段、として機能させることを特徴としている。
本発明によれば、静止画像同士の合成後の画像に動きを与えることができ、興趣性の高い画像を生成することができる。
本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。 図1の撮像装置による被写体切り抜き処理に係る動作の一例を示すフローチャートである。 図2の被写体切り抜き処理に係る画像の一例を模式的に示す図である。 図1の撮像装置による背景用画像生成処理に係る動作の一例を示すフローチャートである。 図1の撮像装置による合成画像生成処理に係る動作の一例を示すフローチャートである。 図5の合成画像生成処理における第1画像合成処理に係る動作の一例を示すフローチャートである。 図5の合成画像生成処理における第2画像合成処理に係る動作の一例を示すフローチャートである。 図5の合成画像生成処理にて画像合成される画像の一例を模式的に示す図である。 図5の合成画像生成処理に係る動画像データの一例を模式的に示す図である。 図9の動画像データから抽出された動く被写体の一例を模式的に示す図である。 図5の合成画像生成処理により生成された合成動画の一例を模式的に示す図である。
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
本実施形態の撮像装置100は、動く被写体O(図9(a)等参照)の動きを記録した動き画像データに基づいて動く被写体Oの「動き情報」を検出し、検出された「動き情報」に基づいて、動く被写体Oの動きに応じて被写体切り抜き画像P3(図8(b)参照)の被写体領域Sを所定動作させるように当該被写体切り抜き画像P3と背景用画像P4(図8(a)参照)とを合成して被写体合成画像P5(図11(a)〜図11(d)参照)の合成動画を生成する。
具体的には、図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、記録媒体9と、表示制御部10と、表示部11と、操作入力部12と、CPU13とを備えている。
また、撮像制御部3と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、CPU13は、例えば、カスタムLSI1Aとして設計されている。
レンズ部1は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部1は、図示は省略するが、被写体の撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を二次元の画像信号に変換する。
撮像制御部3は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3は、タイミング発生器、ドライバにより電子撮像部2を走査駆動して、所定周期毎に光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部4に出力させる。
また、撮像制御部3は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮像する際の条件の調整制御を行う。
このように構成された撮像レンズ部1、電子撮像部2及び撮像制御部3は、撮像手段として、画像合成処理に係る被写体存在画像P1(図3(a)参照)や背景用画像P4(図8(a)参照)を撮像する。
また、撮像レンズ部1、電子撮像部2及び撮像制御部3は、被写体存在画像P1の撮像後、当該被写体存在画像P1の撮像の際の撮像条件を固定した状態で、被写体切り抜き画像P3(図3(c)参照)の生成のための被写体非存在画像P2(図3(b)参照)を撮像する。
画像データ生成部4は、電子撮像部2から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
画像メモリ5は、例えば、DRAM等により構成され、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、CPU13等によって処理されるデータ等を一時記憶する。
特徴量演算部6は、被写体非存在画像P2を基準として、当該被写体非存在画像P2から特徴点を抽出する特徴抽出処理を行う。具体的には、特徴量演算部6は、被写体非存在画像P2のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレート(例えば、16×16画素の正方形)として抽出する。
ここで、特徴抽出処理とは、多数の候補ブロックから追跡に都合の良い特徴性の高いものを選択する処理である。
ブロックマッチング部7は、被写体非存在画像P2と被写体存在画像P1の位置合わせのためのブロックマッチング処理を行う。具体的には、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートが被写体存在画像P1内のどこに対応するか、つまり、被写体存在画像P1内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった被写体非存在画像P2と被写体存在画像P1間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。
画像処理部8は、被写体存在画像P1と被写体非存在画像P2との位置合わせを行う位置合わせ部8aを具備している。
位置合わせ部8aは、被写体非存在画像P2から抽出した特徴点に基づいて、被写体非存在画像P2に対する被写体存在画像P1の各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在画像P1を座標変換して被写体非存在画像P2と位置合わせを行う。
また、画像処理部8は、位置合わせ部8aにより位置合わせされた被写体存在画像P1と被写体非存在画像P2との間で対応する各画素の差分情報を生成し、当該差分情報を基準として被写体存在画像P1から被写体が含まれる被写体領域Sを抽出する被写体領域抽出部8bを具備している。
また、画像処理部8は、被写体存在画像P1内で抽出された被写体領域Sの位置を特定して、被写体存在画像P1における被写体領域Sの位置を示す位置情報を生成する位置情報生成部8cを具備している。
ここで、位置情報としては、例えば、アルファマップが挙げられ、アルファマップとは、被写体存在画像P1の各画素について、被写体領域Sの画像を所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したものである。
また、画像処理部8は、生成されたアルファマップに基づいて、被写体存在画像P1の各画素のうち、アルファ値が1の画素を所定の単一色画像(図示略)に対して透過させずに、且つ、アルファ値が0の画素を透過させるように、被写体の画像を所定の単一色画像と合成して被写体切り抜き画像P3(図3(c)参照)の画像データを生成する切抜画像生成部8dを具備している。
これにより、切抜画像生成部8dは、背景と被写体とが存在する被写体存在画像P1から被写体が含まれる領域を切り抜いた被写体切り抜き画像P3を取得する。
また、画像処理部8は、動く被写体Oの動きを連続した複数の静止画を含む動画像又は連写画像で記録した動き画像データ(詳細後述)を取得する動き画像取得部8eを具備している。
具体的には、動き画像取得部8eは、記録媒体9に記録されている動き画像データのうち、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて指示された動き画像データを読み出して取得する。
また、画像処理部8は、動き画像取得部8eにより取得された動き画像データから動く被写体Oの「動き情報」を検出する動き検出部8fを具備している。
具体的には、動き検出部8fは、動き画像データに対して所定の画像処理を施すことにより当該動き画像データに含まれる動く被写体Oを特定して、当該動く被写体Oの単位時間当たりの「動き情報」(複数の画像に共通して含まれる動く被写体Oの複数の画像にわたる変化)を検出する。例えば、動き画像データとして、Motion−JPEG形式で記録された複数の画像フレームf1、…からなる動画像データMが動き画像取得部8eにより取得された場合、動き検出部8fは、これら複数の画像フレームf1、…に対して、平滑化処理を行ってノイズを除去した後、マトリックス演算により1階微分処理を行って画素集合の輪郭線(エッジ部分)を抽出する。そして、動き検出部8fは、抽出処理後の画像に対してエッジの連結性を高めるために膨張処理を行った後、所定数よりも画素の連結数の少ない孤立した連結成分(画像集合)を除く処理を行って、面積が最大となる動く被写体Oの外周輪郭を特定することで、動く被写体Oの外周輪郭で囲まれた画像領域の位置を、各画像フレームf中の動く被写体Oの位置として特定する。
そして、動き検出部8fは、動画像データMを構成する複数の画像フレームf、…の各々の動く被写体Oの位置に基づいて、各画像フレームf中の動く被写体Oの中心座標を特定するとともに、各画像フレームfの所定位置(例えば、左端及び上端)から所定方向(例えば、左端から右端に向けてX軸方向や、上端から下端に向けてY軸方向等)に走査することで、当該動く被写体Oを囲む矩形枠W(図10(a)等参照)を特定して、当該矩形枠WのX軸(水平)方向のサイズ及びY軸(垂直)方向のサイズ(縦横のサイズ)を算出する。
また、動き検出部8fは、最初の画像フレームf1の矩形枠Wに対する二番目以降の各画像フレームfの矩形枠W(図10(b)〜図10(d)参照)の各角部の座標の移動量として相対位置情報を順次算出する。さらに、動き検出部8fは、最初の画像フレームf1の矩形枠Wに対する二番目以降の各画像フレームfの矩形枠WのX軸方向及びY軸方向の変倍率として相対範囲情報を順次算出する。さらに、動き検出部8fは、最初の画像フレームf1の矩形枠Wに対する二番目以降の各画像フレームfの矩形枠Wの回転角度として相対角度情報を順次算出する。
このように、動き検出部8fは、二番目以降の画像フレームf中の動く被写体Oの単位時間当たりの「動き情報」として、相対位置情報、相対範囲情報、相対角度情報を検出する。
なお、上記した動く被写体Oの特定の手法は、一例であってこれに限られるものではなく、適宜任意に変更しても良い。
例えば、最初の画像フレームf1にて、特定の被写体にピントが合っている場合には、AFエリア(合焦箇所)内の撮像対象を動く被写体Oとして特定しても良い。また、二番目以降の画像フレームfについては、最初の画像フレームf1から検出された動く被写体Oを動体として特定し、所定の動体解析技術を利用して隣合う画像フレームf間で動く被写体Oを追跡しても良い。
また、操作入力部12としてタッチパネル(図示略)を表示画面に配設して、タッチパネルの接触位置に応じて動く被写体Oを特定するような構成としても良い。即ち、表示部11に表示された画像フレームfにおける動く被写体Oの位置を、ユーザによるタッチパネルの所定の接触操作により指示入力して、動き検出部8fは、タッチパネルの接触操作に基づいて入力された位置情報に基づいて動く被写体Oを特定するようにしても良い。
また、上記の各処理の高速化を図る上では、各画像フレームfの解像度を低減させた低解像度画像を用いて行っても良い。
また、画像処理部8は、被写体切り抜き画像P3と背景用画像P4とを合成する画像合成部8gを具備している。具体的には、画像合成部8gは、記録媒体9からユーザ所望の背景用画像P4を取得して、当該背景用画像P4の各画素のうち、アルファ値が0の画素は透過させ、アルファ値が1の画素は被写体切り抜き画像P3の対応する画素の画素値で上書きし、さらに、背景用画像P4の各画素のうち、アルファ値が0<α<1の画素は1の補数(1−α)を用いて被写体領域Sを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3から減算し、それを被写体領域Sを切り抜いた画像(背景用画像×(1−α))と合成する。
また、画像合成部8gは、被写体切り抜き画像P3の背景用画像P4に対する合成を制御する合成制御部8hを具備している。即ち、画像合成部8gは、合成制御部8hの制御下にて背景用画像P4に対する被写体切り抜き画像P3の合成位置、大きさ、形状及び回転角度等を調整して画像合成により複数の画像フレームg、…を生成して、当該複数の画像フレームg、…からなる被写体合成画像P5の合成動画を生成する。
具体的には、合成制御部8hは、動き検出部8fにより検出された相対位置情報、相対範囲情報、相対角度情報等の「動き情報」に基づいて、合成動画を構成する二番目以降の画像フレームgについて被写体切り抜き画像P3の合成内容情報を順次生成する。
ここで、合成内容情報としては、相対位置情報に基づいて生成される被写体切り抜き画像P3の合成位置に係る被写体領域Sの中心座標や、相対範囲情報に基づいて生成される被写体切り抜き画像P3の合成サイズに係る最初の画像フレームg1に対する被写体領域Sの変倍率や、相対角度情報に基づいて生成される被写体切り抜き画像P3の合成の向きに係る最初の画像フレームg1に対する被写体領域Sの回転角度等が挙げられる。
そして、合成制御部8hは、被写体切り抜き画像P3の最初の画像フレームg1をユーザにより指定された所望の位置に画像合成部8gにより合成した後、二番目以降の画像フレームgについて、順次生成された被写体切り抜き画像P3の合成内容情報に応じて当該被写体切り抜き画像P3の合成位置、大きさ、形状及び回転角度等を設定して画像合成部8gに合成させる。例えば、図10に示したように、動画像データMの二番目の画像フレームf2の動く被写体Oは、最初の画像フレームf1に対して合成位置が右側にずれているとともに、上下方向に伸びていることから、二番目の画像フレームg2は、被写体領域Sが動く被写体Oと略同様に最初の画像フレームg1に対して合成位置が右側にずれているとともに、上下方向に伸びるように形状を変化させて合成する。また、動画像データMの三番目の画像フレームf3は、合成位置が二番目の画像フレームf2よりもさらに右側にずれているが、最初の画像フレームf1と大きさ及び形状が略等しくなっていることから、三番目の画像フレームg3は、被写体領域Sの合成位置が動く被写体Oと略同様に二番目の画像フレームg2よりもさらに右側にずれているが、最初の画像フレームg1と大きさ及び形状が略等しくなるように合成する。また、動画像データMのn番目の画像フレームfnは、合成位置が三番目の画像フレームf3よりもさらに右側にずれているとともに、最初の画像フレームf1に対して上下方向に縮んでいることから、n番目の画像フレームgnは、被写体領域Sの合成位置が動く被写体Oと略同様に三番目の画像フレームg3よりもさらに右側にずれているとともに、最初の画像フレームg1に対して上下方向に縮んだように合成する。
このように、画像合成部8gは、合成動画を構成する複数の画像フレームg、…について、背景用画像P4に対する被写体切り抜き画像P3の合成位置、大きさ、形状及び回転角度のうち、少なくとも何れか一を変えて合成して当該画像フレームgを順次生成していくことで、動き検出部8fにより検出された「動き情報」に基づいて、動被写体切り抜き画像P3を所定動作させるように当該被写体切り抜き画像P3と背景用画像P4とを合成して合成動画を生成する。
なお、画像フレームgの合成数は、例えば、動画像データMの画像フレームf数と同じであっても良いし、生成される合成動画の時間に応じて予め指定された数であっても良い。
記録媒体9は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部8のJPEG圧縮部(図示略)により符号化された背景用画像P4や被写体切り抜き画像P3の静止画像データを記憶する。
また、被写体切り抜き画像P3の画像データは、画像処理部8の位置情報生成部8cにより生成されたアルファマップと対応付けられて、当該被写体切り抜き画像P3の画像データの拡張子を「.jpe」として保存されている。
また、記録媒体9は、撮像レンズ部1、電子撮像部2及び撮像制御部3による動く被写体Oの撮像により生成された複数の画像フレームf、…を画像処理部8の符号化部(図示略)により所定の圧縮形式で符号化した動き画像データを記憶する。
動き画像データは、動く被写体Oの動きを所定の記録方式で記録したものであり、例えば、所定の撮像フレームレートで撮像された連続した複数の画像フレーム(例えば、n枚の画像フレーム)f、…からなる動画像データM(図9参照)や、所定のシャッタースピードで連写された連写画像データ等が挙げられる。
ここで、動画像データMとしては、例えば、図9(a)〜図9(d)に示すように、人物の跳躍動作を横から撮像してMotion−JPEG形式で記録したものが挙げられる。なお、図9(a)〜図9(d)は、動画像データMを構成する連続するn枚の画像フレームf1〜fnを模式的に表しており、これらの画像フレームf1〜fnを時間軸に沿って図9(a)〜図9(d)として表すものとする。
表示制御部10は、画像メモリ5に一時的に記憶されている表示用の画像データを読み出して表示部11に表示させる制御を行う。
具体的には、表示制御部10は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、CPU13の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部11に出力する。
表示部11は、例えば、液晶表示装置であり、表示制御部10からのビデオ信号に基づいて電子撮像部2により撮像された画像などを表示画面に表示する。具体的には、表示部11は、撮像モードにて、撮像レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームf、…に基づいてライブビュー画像を表示したり、本撮像画像として撮像されたレックビュー画像を表示する。
操作入力部12は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部12は、被写体の撮影指示に係るシャッタボタン12a、撮像モードや機能等の選択指示や被写体切り抜き画像P3の初期合成位置の設定指示に係る選択決定ボタン12b、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号をCPU13に出力する。
CPU13は、撮像装置100の各部を制御するものである。具体的には、CPU13は、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行うものである。
次に、撮像装置100による被写体切り抜き処理について、図2及び図3を参照して説明する。
図2は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。また、図3は、被写体切り抜き処理に係る画像の一例を模式的に示す図である。
被写体切り抜き処理は、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に実行される処理である。
図2に示すように、先ず、CPU13は、表示制御部10に、撮像レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1の撮像指示メッセージを表示部11の表示画面に表示させる(ステップS1)。
次に、CPU13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS2)。ここで、撮像指示が入力されたと判定されると(ステップS2;YES)、CPU13は、撮像制御部3に、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整させて、被写体存在画像P1(図3(a)参照)の光学像を所定の条件で電子撮像部2により撮像させて、画像データ生成部4に、電子撮像部2から転送された被写体存在画像P1の画像フレームのYUVデータを生成させる(ステップS3)。なお、当該被写体存在画像P1のYUVデータは、画像メモリ5に一時記憶される。
また、CPU13は、撮像制御部3を制御して、当該被写体存在画像P1の撮像の際の合焦位置や露出条件やホワイトバランス等の条件を固定した状態を維持する。
そして、CPU13は、表示制御部10に、撮像レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1の半透過の表示態様の画像と被写体非存在画像P2の撮像指示メッセージを表示部11の表示画面に表示させる(ステップS4)。
この後、CPU13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS5)。そして、ユーザは、被写体を画角外に移動させるか、或いは被写体が移動するのを待った後、ユーザにより被写体非存在画像P2が被写体存在画像P1の半透過の画像と重なるようにカメラ位置が調整されて、操作入力部12のシャッタボタン12aが所定操作されて撮像指示が入力されたと判定されると(ステップS5;YES)、CPU13は、撮像制御部3に、被写体非存在画像P2(図3(b)参照)の光学像を被写体存在画像P1の撮像後に固定された条件で電子撮像部2により撮像させて、画像データ生成部4に、電子撮像部2から転送された被写体非存在画像P2の画像フレームに基づいて、被写体非存在画像P2のYUVデータを生成させる(ステップS6)。なお、当該被写体存在画像P1のYUVデータは、画像メモリ5に一時記憶される。
次に、CPU13は、特徴量演算部6、ブロックマッチング部7及び画像処理部8に、画像メモリ5に一時記憶されている被写体非存在画像P2のYUVデータを基準として、被写体存在画像P1のYUVデータを射影変換させるための射影変換行列を所定の画像変換モデル(例えば、相似変換モデル、或いは合同変換モデル)で算出させる(ステップS7)。
具体的には、特徴量演算部6は、被写体非存在画像P2のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像P1内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像P2と被写体存在画像P1間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、画像処理部8の位置合わせ部8aは、ブロックマッチング部7により算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1の射影変換行列を算出する。
次に、CPU13は、位置合わせ部8aに、算出された射影変換行例に基づいて被写体存在画像P1を射影変換させることで、被写体存在画像P1のYUVデータと被写体非存在画像P2のYUVデータとを位置合わせする処理を行わせる(ステップS8)。
そして、CPU13は、画像処理部8の被写体領域抽出部8bに、被写体存在画像P1から被写体が含まれる被写体領域Sを抽出する処理を行わせる(ステップS9)。
具体的には、被写体領域抽出部8bは、被写体存在画像P1のYUVデータと被写体非存在画像P2のYUVデータの各々に対してローパスフィルタをかけて各画像の高周波成分を除去する。その後、被写体領域抽出部8bは、ローパスフィルタをかけた被写体存在画像P1と被写体非存在画像P2との間で対応する各画素について相違度を算出して相違度マップを生成する。続けて、被写体領域抽出部8bは、各画素に係る相違度マップを所定の閾値で2値化した後、相違度マップから細かいノイズや手ぶれにより相違が生じた領域を除去するために収縮処理を行う。その後、被写体領域抽出部8bは、ラベリング処理を行って、所定値以下の領域や最大領域以外の領域を除去した後、一番大きな島のパターンを被写体領域Sとして特定し、収縮分を修正するための膨張処理を行う。
次に、CPU13は、画像処理部8の位置情報生成部8cに、抽出された被写体領域Sの被写体存在画像P1内での位置を示すアルファマップを生成させる(ステップS10)。
その後、CPU13は、画像処理部8の切抜画像生成部8dに、被写体の画像を所定の単一色画像と合成した被写体切り抜き画像P3(図3(c)参照)の画像データを生成する処理を行わせる(ステップS11)。
具体的には、切抜画像生成部8dは、被写体存在画像P1、単一色画像及びアルファマップを読み出して画像メモリ5に展開した後、被写体存在画像P1の全ての画素について、アルファ値が0の画素については(α=0)、透過させ、アルファ値が0<α<1の画素については(0<α<1)、所定の単一色とブレンディングを行い、アルファ値が1の画素については(α=1)、何もせずに所定の単一色に対して透過させないようにする。
その後、CPU13は、記録媒体9の所定の記憶領域に、画像処理部8の位置情報生成部8cにより生成されたアルファマップと被写体切り抜き画像P3の画像データを対応付けて、当該被写体切り抜き画像P3の画像データの拡張子を「.jpe」として一ファイルで記憶させる(ステップS12)。
これにより、被写体切り抜き処理を終了する。この結果、例えば、背景内から被写体として自動車が抽出された被写体切り抜き画像P3の静止画像データが生成される。
次に、撮像装置100による背景用画像生成処理について、図4を参照して説明する。
図4は、背景用画像生成処理に係る動作の一例を示すフローチャートである。
背景用画像生成処理は、通常の静止画像の撮像処理であり、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から静止画撮像モードが選択指示された場合に実行される処理である。
図4に示すように、先ず、CPU13は、表示制御部10に、撮像レンズ部1、電子撮像部2及び撮像制御部3による背景用画像P4の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させる(ステップS21)。
次に、CPU13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS22)。ここで、撮像指示が入力されたと判定されると(ステップS22;YES)、CPU13は、撮像制御部3に、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整させて、背景用画像P4(図8(b)参照)の光学像を所定の条件で電子撮像部2により撮像させる(ステップS23)。
続けて、CPU13は、画像データ生成部4に、電子撮像部2から転送された背景用画像P4の画像フレームのYUVデータを生成させた後、記録媒体9の所定の記憶領域に、背景用画像P4のYUVデータをExif形式の画像ファイルとして記憶させる(ステップS24)。
これにより、背景用画像生成処理を終了する。この結果、例えば、山林が記録された背景用画像P4の静止画像データが生成される。
次に、合成画像生成処理について図5〜図11を参照して詳細に説明する。
図5は、合成画像生成処理に係る動作の一例を示すフローチャートである。また、図6は、合成画像生成処理における第1画像合成処理に係る動作の一例を示すフローチャートであり、図7は、合成画像生成処理における第2画像合成処理に係る動作の一例を示すフローチャートである。また、図8(a)及び図8(b)は、合成画像生成処理にて画像合成される画像の一例を模式的に示す図である。また、図9(a)〜図9(d)は、合成画像生成処理に係る動画像データの一例を模式的に示す図であり、図10(a)〜図10(d)は、動画像データから抽出された動く被写体の一例を模式的に示す図である。また、図11(a)〜図11(d)は、合成画像生成処理により生成された合成動画の一例を模式的に示す図である。
合成画像生成処理は、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から画像合成モードが選択指示された場合に実行される処理である。
図5に示すように、ユーザによる操作入力部12の所定操作に基づいて、記録媒体9に記録されている複数の画像の中で合成画像の背景となる所望の背景用画像P4(図8(a)参照)が選択して指定されると、画像処理部8は、指定された背景用画像P4の画像データを読み出して画像メモリ5に展開する(ステップS31)。
次に、ユーザによる操作入力部12の所定操作に基づいて、記録媒体9に記録されている複数の画像の中で所望の被写体切り抜き画像P3(図8(b)参照)が選択して指定されると、画像処理部8は、指定された被写体切り抜き画像P3の画像データを読み出して画像メモリ5に展開する(ステップS32)。
続けて、CPU13は、静止画像である被写体切り抜き画像P3の被写体領域Sの画像を所定動作させる合成動画の生成指示選択画面を表示部の表示画面に表示させて、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて合成動画の生成指示が入力されたか否かを判定する(ステップS33)。
ここで、合成動画の生成指示が入力されたと判定されると(ステップS33;YES)、CPU13は、記録媒体9に記録されている動き画像データのうち、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて指定された動き画像データを動き画像取得部8eに読み出させる(ステップS34)。ここで、例えば、連写によりMotion−JPEG形式で記録された複数の画像フレームf、…からなる動画像データM(図9(a)〜図9(d)参照)を、動き画像データとして読み出すものとする。
続けて、CPU13は、読み出された動画像データMに対して所定の画像処理を施すことにより当該動画像データMに含まれる動く被写体Oを特定し、この動く被写体Oの単位時間当たりの変化を「動き情報」として検出する(ステップS35)。
ここで、上記の「動き情報」には、動画像データMを構成する各画像フレームfの画角における動く被写体Oの中心位置の単位時間当たりの変化(以下、相対位置情報という)、動画像データMを構成する各画像フレームfにおける動く被写体Oの画像が占める範囲の単位時間当たりの変化(以下、相対範囲情報という)、動画像データMを構成する各画像フレームfの水平方向及び垂直方向の少なくとも一方に対する、動く被写体Oの回転角度の単位時間当たりの変化(以下、相対角度情報という)が含まれる。
その後、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、合成動画の最初の画像フレームf1における被写体切り抜き画像P3の初期合成位置が決定されると(ステップS36)、CPU13は、背景用画像P4と被写体切り抜き画像P3とを合成して合成動画を生成する第1画像合成処理を画像合成部8gに行わせる(ステップS37)。
なお、被写体切り抜き画像P3の初期合成位置は、動き検出部8fにより検出された「動き情報」などに基づいて当該被写体切り抜き画像P3の被写体領域Sの画像が背景用画像P4からはみ出さないように画像合成部8gが自動的に決定するようにしても良い。
ここで、第1画像合成処理について図6のフローチャートを参照して詳細に説明する。
図6に示すように、画像合成部8gは、被写体切り抜き画像P3と対応付けて保存されているアルファマップを読み出して画像メモリ5に展開する(ステップS51)。
なお、図5のステップS36にて背景用画像P4における被写体切り抜き画像P3の合成位置が決定された際に、背景用画像P4とアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
次に、画像合成部8gの合成制御部8hは、合成動画を構成する複数の画像フレームg、…のうち、処理対象に係る最初の画像フレームg1のフレーム番号として「1」を指定する(ステップS52)。
次に、画像合成部8gは、背景用画像P4の何れか一の画素(例えば、左上隅部の画素)を指定して(ステップS53)、当該画素について、アルファマップのアルファ値に基づいて処理を分岐させる(ステップS54)。具体的には、画像合成部8gは、背景用画像P4の何れか一の画素のうち、アルファ値が1の画素については(ステップS54;α=1)、被写体切り抜き画像P3の対応する画素の画素値で上書きし(ステップS55)、アルファ値が0<α<1の画素については(ステップS54;0<α<1)、1の補数(1−α)を用いて被写体領域Sを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3から減算し、それを被写体領域Sを切り抜いた画像(背景用画像×(1−α))と合成し(ステップS56)、アルファ値が0の画素については(ステップS54;α=0)、何もせずに背景用画像P4を透過さるようにする。
続けて、画像合成部8gは、背景用画像P4の全ての画素について処理したか否かを判定する(ステップS57)。
ここで、全ての画素について処理していないと判定されると(ステップS57;NO)、画像合成部8gは、処理対象として次の画素を指定して当該画素に処理対象を移動させて(ステップS58)、処理をステップS54に移行させる。
上記の処理を、ステップS57にて全ての画素について処理したと判定されるまで(ステップS57;YES)、繰り返すことで、画像合成部8gは、被写体切り抜き画像P3と背景用画像P4とを合成した被写体合成画像P5の合成動画を構成する最初の画像フレームg1(図11(a)参照)を生成する。
そして、ステップS57にて全ての画素について処理したと判定されると(ステップS57;YES)、合成制御部8hは、合成動画を構成する全ての画像フレームgについて処理したか否かを判定する(ステップS59)。
ここで、全ての画像フレームgについて処理していないと判定されると(ステップS59;NO)、合成制御部8hは、合成動画を構成する複数の画像フレームg、…のうち、処理対象として次の画像フレームgに係るフレーム番号を+1インクリメントして指定する(ステップS60)。これにより、二番目の画像フレームg2が画像合成処理の対象として指定される。
次に、合成制御部8hは、動き検出部8fにより検出された相対位置情報、相対範囲情報、相対角度情報等の「動き情報」に基づいて、合成動画を構成する二番目の画像フレームg2について、被写体切り抜き画像P3の合成位置に係る被写体領域Sの中心座標、最初の画像フレームg1に対する被写体領域Sが占める範囲、最初の画像フレームg1に対する被写体領域Sの回転角度等の合成内容情報を生成する(ステップS61)。
続けて、合成制御部8hは、二番目の画像フレームg2について、順次生成された被写体切り抜き画像P3の合成内容情報に応じて当該被写体切り抜き画像P3の合成位置、大きさや形状、及び、回転角度等を設定する(ステップS62)。このとき、合成制御部8hは、設定した被写体切り抜き画像P3の合成位置、大きさや形状、及び、回転角度等に応じてアルファマップにおける被写体領域部分(α=1)及び被写体領域以外の部分(α=0)を修正して、各画像フレームgにおける被写体切り抜き画像P3とアルファマップとがずれないように調整する。
次に、画像合成部8gは、処理をステップS53に移行させて、背景用画像P4の例えば左上隅部の画素からステップS54〜S58を順次行うことで、被写体切り抜き画像P3と背景用画像P4とを合成した被写体合成画像P5の合成動画を構成する二番目の画像フレームg2を生成する。これにより、最初の画像フレームg1に対して被写体領域Sの合成位置、大きさや形状、及び、回転角度等が調整された二番目の画像フレームg2(図11(b)参照)が生成される。
そして、二番目の画像フレームg2の生成が完了することによって、ステップS57にて全ての画素について合成処理したと判定されると(ステップS57;YES)、処理をステップS58に移行させて、合成制御部8hは、合成動画を構成する全ての画像フレームgについて合成処理したか否かを判定する(ステップS59)。
上記の合成処理を、全ての画像フレームgについて行った判定されるまで(ステップS59;YES)、繰り返すことで、画像合成部8gは、被写体合成画像P5の合成動画を構成する全ての画像フレームg1〜gn(図11(a)〜図11(d)参照)を生成する。
これにより、第1画像合成処理を終了する。
図5に示すように、その後、CPU13は、表示制御部10に、画像合成部8gにより生成された複数の画像フレームg、…からなる被写体合成画像P5の合成動画の画像データに基づいて、各画像フレームgを所定の表示フレームレートで切り換えて表示部11の表示画面に再生表示させることで、背景用画像P4を背景として自動車(被写体領域S)が所定動作する被写体合成画像P5の合成動画を再生する(ステップS38)。
一方、ステップS33にて、合成動画の生成指示が入力されていないと判定されると(ステップS33;NO)、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、ユーザ所望の被写体切り抜き画像P3の合成位置を指定して決定した後(ステップS39)、CPU13は、背景用画像P4と被写体切り抜き画像P3とを合成して通常の静止画像である被写体合成画像を生成する第2画像合成処理を画像合成部8gに行わせる(ステップS40)。
ここで、第2画像合成処理について図7を参照して詳細に説明する。
図7に示すように、画像合成部8gは、被写体切り抜き画像P3と対応付けて保存されているアルファマップを読み出して画像メモリ5に展開する(ステップS71)。
なお、図5のステップS39にて背景用画像P4における被写体切り抜き画像P3の合成位置が決定された際に、背景用画像P4とアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
次に、画像合成部8gは、背景用画像P4の何れか一の画素(例えば、左上隅部の画素)を指定して(ステップS72)、当該画素について、アルファマップのアルファ値に基づいて処理を分岐させる(ステップS73)。具体的には、画像合成部8gは、背景用画像P4の何れか一の画素のうち、アルファ値が1の画素については(ステップS73;α=1)、被写体切り抜き画像P3の対応する画素の画素値で上書きし(ステップS74)、アルファ値が0<α<1の画素については(ステップS73;0<α<1)、1の補数(1−α)を用いて被写体領域SAを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3から減算し、それを被写体領域SAを切り抜いた画像(背景用画像×(1−α))と合成し(ステップS75、アルファ値が0の画素については(ステップS73;α=0)、何もせずに背景用画像P4を透過さるようにする。
続けて、画像合成部8gは、背景用画像P4の全ての画素について処理したか否かを判定する(ステップS76)。
ここで、全ての画素について処理していないと判定されると(ステップS76;NO)、画像合成部8gは、処理対象として次の画素を指定して当該画素に処理対象を移動させて(ステップS77)、処理をステップS73に移行させる。
上記の処理を、ステップS76にて全ての画素について処理したと判定されるまで(ステップS76;YES)、繰り返すことで、画像合成部8gは、被写体切り抜き画像P3と背景用画像P4とを合成した通常の静止画像である被写体合成画像の画像データを生成させる。
これにより、第2画像合成処理を終了する。
図5に示すように、その後、CPU13は、表示制御部10に、画像合成部8gにより生成された被写体合成画像の画像データに基づいて、背景用画像P4に被写体が重畳された被写体合成画像(図示略)を表示部11の表示画面に表示させる(ステップS38)。
これにより、合成画像生成処理を終了する。
以上のように、本実施形態の撮像装置100によれば、動く被写体Oの「動き情報」を動き検出部8fにより検出し、当該「動き情報」を反映させて被写体切り抜き画像P3の被写体領域Sを所定動作させるように当該被写体切り抜き画像P3と背景用画像P4とを合成して被写体合成画像P5の合成動画を画像合成部8gにより生成する。
具体的には、動き検出部8fは、「動き情報」として、動き画像取得部8eにより取得された動画像データMにおける画像フレームfにわたる動く被写体Oの変化を「動き情報」として検出する。そして、合成制御部8hは、動き検出部8fにより検出された「動き情報」に基づいて、当該合成動画の画像フレームfの各々を構成する被写体切り抜き画像P3の合成内容情報を順次生成して、順次生成された合成内容情報に応じて、被写体切り抜き画像P3の背景用画像P4における合成位置、大きさ、形状及び回転角度等を設定して、各画像フレームg毎に背景用画像P4と合成していくことで、複数の画像フレームg、…からなる被写体合成画像P5の合成動画を生成する。
従って、静止画像どうしの画像合成であっても、動き画像データから検出した動く被写体Oの「動き情報」に基づいて、当該動く被写体Oの動きと略等しい動作を合成後の被写体合成画像P5に与えることができ、興趣性の高い被写体合成画像P5を生成することができる。
また、動画像データMから動く被写体Oの「動き情報」として当該動く被写体Oの位置、大きさ、形状、回転角度を検出するので、当該「動き情報」を用いることで被写体切り抜き画像P3の被写体領域Sの合成位置や向きだけでなく、大きさや形状も動的に変更することができ、静止画像どうしの画像合成であっても、表現力豊かな動きを付与することができる。
また、動く被写体Oを撮像することで連続した複数の静止画からなる動画像データM(動き画像データ)を生成して、動き画像取得部8eは、生成された動画像データMを記録媒体9から取得することができる。
つまり、所定の動く被写体Oの動きが記録された動き画像データを記録媒体9に記録しておくだけで、この記録媒体9から動き画像データを取得して当該動き画像データに基づいて「動き情報」を生成することができ、当該撮像装置100単体で被写体切り抜き画像P3の被写体領域Sを所定動作させるように被写体切り抜き画像P3と背景用画像P4とを合成して被写体合成画像P5を生成することができる。
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、動き画像データとして、Motion−JPEG形式で記録された動画像データMを例示したが、これに限られるものではなく、例えば、連続した複数の静止画からなる連写画像であっても良い。この場合にあっても、上記実施形態と同様に、連続する静止画どうしの間で動く被写体Oの単位時間当たりの「動き情報」を検出して、当該「動き情報」に基づいて被写体切り抜き画像P3の被写体領域Sを所定動作させる。
また、前もって被写体切り抜き処理を実行して、当該処理により生成された複数の画像フレームf、…からなる被写体切り抜き画像P3の動画像データMを利用して、「動き情報」を検出しても良い。この場合には、動く被写体Oである被写体領域Sが予め抽出されていることから、動く被写体Oの特定の処理を簡略化して、被写体切り抜き処理の高速化を図ることができる。
また、上記実施形態にあっては、動画像データMの記録方式として、Motion−JPEG形式を例示したが、MPEG形式であっても良い。かかる場合には、動く被写体Oの動きを検出する際に、予め当該MPEG形式の動画像データMを復号化して複数の画像フレームf、…を生成することで、画像フレームf間の動く被写体Oの動きの検出を行うことができる。
さらに、上記実施形態にあっては、「動き情報」としての相対位置情報、相対範囲情報、相対角度情報を、最初の画像フレームf1を基準として二番目以降の各画像フレームfについて算出するようにしたが、これに限られるものではなく、連続する画像フレームf間で算出するようにしても良い。即ち、連続する画像フレームf間にて、矩形枠Wの各角部の座標の移動量として相対位置情報を算出し、矩形枠WのX軸方向及びY軸方向の変倍率として相対範囲情報を算出し、矩形枠Wの回転角度として相対角度情報を算出しても良い。
また、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。即ち、画像合成装置として、撮像装置を例示したが、これに限られるものではい。例えば、被写体切り抜き画像P3、背景用画像P4及び動き画像データの生成は、当該撮像装置100とは異なる撮像装置にて行い、この撮像装置から転送された画像データのみを記録して、合成画像生成処理のみを実行する画像合成装置であっても良い。
加えて、上記実施形態にあっては、静止画取得手段、検出手段、合成制御手段としての機能を、CPU13の制御下にて、画像処理部8の切抜画像生成部8d、動き検出部8f、画像合成部8gが駆動することにより実現される構成としたが、これに限られるものではなく、CPU13によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、静止画取得処理ルーチン、検出処理ルーチン、合成制御処理ルーチンを含むプログラムを記憶しておく。そして、静止画取得処理ルーチンによりCPU13に、第1及び第2静止画像を取得させるようにしても良い。また、検出処理ルーチンによりCPU13に、複数の画像に共通して含まれる被写体の複数の画像にわたる変化を検出させるようにしても良い。また、合成制御処理ルーチンによりCPU13に、第2静止画像を背景として、検出された複数の画像にわたる変化を反映して第1静止画像を合成した合成動画を生成させるようにしても良い。
100 撮像装置
1 レンズ部
2 電子撮像部
3 撮像制御部
8 画像処理部
8d 切抜画像生成部
8e 動き画像取得部
8f 動き検出部
8h 画像合成部
8g 合成制御部
9 記録媒体
11 表示部
13 CPU

Claims (8)

  1. 第1及び第2静止画像を取得する静止画取得手段と、
    前記第1及び第2静止画像とは異なる複数の画像に共通して含まれる被写体の前記複数の画像にわたる変化を検出する検出手段と、
    前記第2静止画像を背景として、前記検出手段によって検出された変化を反映して前記第1静止画像を合成した合成動画を生成する合成手段と、
    を備えたことを特徴とする画像合成装置。
  2. 前記被写体の前記複数の画像にわたる変化とは、前記複数の画像の画角における前記被写体の位置の単位時間当たりの変化、前記複数の画像における前記被写体の画像が占める範囲の単位時間当たりの変化、前記複数の画像の水平方向及び垂直方向の少なくとも一方に対する前記被写体の回転角度の単位時間当たりの変化の少なくとも何れか一つであることを特徴とする請求項1に記載の画像合成装置。
  3. 前記検出手段によって検出された変化を複数枚の画像として記憶する記憶手段を更に備え、
    前記合成手段は、
    前記記憶手段から複数枚の画像を読み出す読出手段と、
    前記第2静止画像を背景画像として、前記読出手段によって読み出された複数枚の画像の夫々における被写体の位置に前記第1静止画像を合成した合成静止画像を複数生成する生成手段と、
    を含むことを特徴とする請求項1又は2に記載の画像合成装置。
  4. 前記生成手段は、
    前記検出手段により検出された変化に基づいて、合成内容情報を順次生成する合成内容生成手段と、
    前記合成内容生成手段により順次生成された合成内容情報に応じて、前記第1静止画像の合成位置、大きさや形状、及び、回転角度のうち、少なくとも何れか一つを設定する設定手段と、
    を含むことを特徴とする請求項3に記載の画像合成装置。
  5. 連続した複数の静止画を含む動画像或いは連写画像を取得する画像取得手段を更に備え、
    前記検出手段は、前記画像取得手段により取得された前記動画像及び前記連写画像を前記第1及び第2静止画像とは異なる複数の画像として、これら複数の画像に共通して含まれる被写体の前記複数の画像にわたる変化を検出することを特徴とする請求項1〜4の何れか一項に記載の画像合成装置。
  6. 前記画像取得手段は、撮像手段を含むことを特徴とする請求項5に記載の画像合成装置。
  7. 前記第1静止画像は、所定の静止画像から特定の領域を抽出した抽出画像であることを特徴とする請求項1〜6の何れか一項に記載の画像合成装置。
  8. コンピュータを、
    第1及び第2静止画像を取得する静止画取得手段、
    前記第1及び第2静止画像とは異なる複数の画像に共通して含まれる被写体の前記複数の画像にわたる変化を検出する検出手段、
    前記第2静止画像を背景として、前記検出手段によって検出された変化を反映して前記第1静止画像を合成した合成動画を生成する合成手段、
    として機能させることを特徴とするプログラム。
JP2009086121A 2009-03-31 2009-03-31 画像合成装置及びプログラム Expired - Fee Related JP5267279B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009086121A JP5267279B2 (ja) 2009-03-31 2009-03-31 画像合成装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009086121A JP5267279B2 (ja) 2009-03-31 2009-03-31 画像合成装置及びプログラム

Publications (3)

Publication Number Publication Date
JP2010239459A JP2010239459A (ja) 2010-10-21
JP2010239459A5 JP2010239459A5 (ja) 2012-05-17
JP5267279B2 true JP5267279B2 (ja) 2013-08-21

Family

ID=43093398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009086121A Expired - Fee Related JP5267279B2 (ja) 2009-03-31 2009-03-31 画像合成装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5267279B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6236856B2 (ja) * 2013-04-30 2017-11-29 株式会社ニコン 画像処理装置および画像処理プログラム
CN113099118B (zh) 2015-06-26 2023-08-22 麦克赛尔株式会社 摄像装置以及图像处理方法
JP2016015182A (ja) * 2015-11-04 2016-01-28 株式会社東芝 画像処理装置、方法、及びプログラム
JP7362696B2 (ja) * 2020-05-07 2023-10-17 マクセル株式会社 撮像装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4983494B2 (ja) * 2007-09-07 2012-07-25 カシオ計算機株式会社 合成画像出力装置および合成画像出力処理プログラム
JP5028225B2 (ja) * 2007-11-06 2012-09-19 オリンパスイメージング株式会社 画像合成装置、画像合成方法、およびプログラム

Also Published As

Publication number Publication date
JP2010239459A (ja) 2010-10-21

Similar Documents

Publication Publication Date Title
JP5051156B2 (ja) 画像処理装置及びプログラム
JP5105550B2 (ja) 画像合成装置及びプログラム
JP4760973B2 (ja) 撮像装置及び画像処理方法
TWI468770B (zh) 攝像裝置、對焦方法及記錄程式之電腦可讀取記錄媒體
JP4798236B2 (ja) 撮像装置、画像処理方法及びプログラム
JP4947136B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4807432B2 (ja) 撮像装置、画像処理方法及びプログラム
JP5267279B2 (ja) 画像合成装置及びプログラム
JP5402166B2 (ja) 画像合成装置及びプログラム
JP2011066827A (ja) 画像処理装置、画像処理方法及びプログラム
JP5402148B2 (ja) 画像合成装置、画像合成方法及びプログラム
JP5471425B2 (ja) 撮像装置、撮像制御プログラム及び撮像方法
JP2011182014A (ja) 撮像装置、撮像処理方法及びプログラム
JP5476900B2 (ja) 画像合成装置、画像合成方法及びプログラム
JP5636660B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5493839B2 (ja) 撮像装置、画像合成方法及びプログラム
JP5332668B2 (ja) 撮像装置および被写体検出プログラム
JP2011041041A (ja) 撮像装置、撮像方法及びプログラム
JP2010154390A (ja) 撮像装置及び撮像方法並びにプログラム
JP5548023B2 (ja) 撮像装置および撮像方法
JP5494537B2 (ja) 画像処理装置及びプログラム
JP2010278701A (ja) 画像合成装置、画像合成方法及びプログラム
JP5381207B2 (ja) 画像合成装置及びプログラム
JP5741062B2 (ja) 画像処理装置及び画像処理方法、並びにプログラム
JP5565227B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120328

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130422

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5267279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees