JP5267279B2 - 画像合成装置及びプログラム - Google Patents
画像合成装置及びプログラム Download PDFInfo
- Publication number
- JP5267279B2 JP5267279B2 JP2009086121A JP2009086121A JP5267279B2 JP 5267279 B2 JP5267279 B2 JP 5267279B2 JP 2009086121 A JP2009086121 A JP 2009086121A JP 2009086121 A JP2009086121 A JP 2009086121A JP 5267279 B2 JP5267279 B2 JP 5267279B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- images
- unit
- still
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
- Studio Devices (AREA)
Description
第1及び第2静止画像を取得する静止画取得手段と、前記第1及び第2静止画像とは異なる複数の画像に共通して含まれる被写体の前記複数の画像にわたる変化を検出する検出手段と、前記第2静止画像を背景として、前記検出手段によって検出された変化を反映して前記第1静止画像を合成した合成動画を生成する合成手段と、を備えたことを特徴としている。
前記被写体の前記複数の画像にわたる変化とは、前記複数の画像の画角における前記被写体の位置の単位時間当たりの変化、前記複数の画像における前記被写体の画像が占める範囲の単位時間当たりの変化、前記複数の画像の水平方向及び垂直方向の少なくとも一方に対する前記被写体の回転角度の単位時間当たりの変化の少なくとも何れか一つであることを特徴としている。
前記検出手段によって検出された変化を複数枚の画像として記憶する記憶手段を更に備え、前記合成手段は、前記記憶手段から複数枚の画像を読み出す読出手段と、前記第2静止画像を背景画像として、前記読出手段によって読み出された複数枚の画像の夫々における被写体の位置に前記第1静止画像を合成した合成静止画像を複数生成する生成手段と、を含むことを特徴としている。
前記生成手段は、前記検出手段により検出された変化に基づいて、合成内容情報を順次生成する合成内容生成手段と、前記合成内容生成手段により順次生成された合成内容情報に応じて、前記第1静止画像の合成位置、大きさや形状、及び、回転角度のうち、少なくとも何れか一つを設定する設定手段と、を含むことを特徴としている。
連続した複数の静止画を含む動画像或いは連写画像を取得する画像取得手段を更に備え、前記検出手段は、前記画像取得手段により取得された前記動画像及び前記連写画像を前記第1及び第2静止画像とは異なる複数の画像として、これら複数の画像に共通して含まれる被写体の前記複数の画像にわたる変化を検出することを特徴としている。
前記画像取得手段は、撮像手段を含むことを特徴としている。
前記第1静止画像は、所定の静止画像から特定の領域を抽出した抽出画像であることを特徴としている。
コンピュータを、第1及び第2静止画像を取得する静止画取得手段、前記第1及び第2静止画像とは異なる複数の画像に共通して含まれる被写体の前記複数の画像にわたる変化を検出する検出手段、前記第2静止画像を背景として、前記検出手段によって検出された変化を反映して前記第1静止画像を合成した合成動画を生成する合成手段、として機能させることを特徴としている。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
本実施形態の撮像装置100は、動く被写体O(図9(a)等参照)の動きを記録した動き画像データに基づいて動く被写体Oの「動き情報」を検出し、検出された「動き情報」に基づいて、動く被写体Oの動きに応じて被写体切り抜き画像P3(図8(b)参照)の被写体領域Sを所定動作させるように当該被写体切り抜き画像P3と背景用画像P4(図8(a)参照)とを合成して被写体合成画像P5(図11(a)〜図11(d)参照)の合成動画を生成する。
具体的には、図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、記録媒体9と、表示制御部10と、表示部11と、操作入力部12と、CPU13とを備えている。
また、撮像制御部3と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、CPU13は、例えば、カスタムLSI1Aとして設計されている。
また、レンズ部1は、図示は省略するが、被写体の撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
また、撮像制御部3は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮像する際の条件の調整制御を行う。
また、撮像レンズ部1、電子撮像部2及び撮像制御部3は、被写体存在画像P1の撮像後、当該被写体存在画像P1の撮像の際の撮像条件を固定した状態で、被写体切り抜き画像P3(図3(c)参照)の生成のための被写体非存在画像P2(図3(b)参照)を撮像する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
ここで、特徴抽出処理とは、多数の候補ブロックから追跡に都合の良い特徴性の高いものを選択する処理である。
位置合わせ部8aは、被写体非存在画像P2から抽出した特徴点に基づいて、被写体非存在画像P2に対する被写体存在画像P1の各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在画像P1を座標変換して被写体非存在画像P2と位置合わせを行う。
ここで、位置情報としては、例えば、アルファマップが挙げられ、アルファマップとは、被写体存在画像P1の各画素について、被写体領域Sの画像を所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したものである。
これにより、切抜画像生成部8dは、背景と被写体とが存在する被写体存在画像P1から被写体が含まれる領域を切り抜いた被写体切り抜き画像P3を取得する。
具体的には、動き画像取得部8eは、記録媒体9に記録されている動き画像データのうち、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて指示された動き画像データを読み出して取得する。
具体的には、動き検出部8fは、動き画像データに対して所定の画像処理を施すことにより当該動き画像データに含まれる動く被写体Oを特定して、当該動く被写体Oの単位時間当たりの「動き情報」(複数の画像に共通して含まれる動く被写体Oの複数の画像にわたる変化)を検出する。例えば、動き画像データとして、Motion−JPEG形式で記録された複数の画像フレームf1、…からなる動画像データMが動き画像取得部8eにより取得された場合、動き検出部8fは、これら複数の画像フレームf1、…に対して、平滑化処理を行ってノイズを除去した後、マトリックス演算により1階微分処理を行って画素集合の輪郭線(エッジ部分)を抽出する。そして、動き検出部8fは、抽出処理後の画像に対してエッジの連結性を高めるために膨張処理を行った後、所定数よりも画素の連結数の少ない孤立した連結成分(画像集合)を除く処理を行って、面積が最大となる動く被写体Oの外周輪郭を特定することで、動く被写体Oの外周輪郭で囲まれた画像領域の位置を、各画像フレームf中の動く被写体Oの位置として特定する。
また、動き検出部8fは、最初の画像フレームf1の矩形枠Wに対する二番目以降の各画像フレームfの矩形枠W(図10(b)〜図10(d)参照)の各角部の座標の移動量として相対位置情報を順次算出する。さらに、動き検出部8fは、最初の画像フレームf1の矩形枠Wに対する二番目以降の各画像フレームfの矩形枠WのX軸方向及びY軸方向の変倍率として相対範囲情報を順次算出する。さらに、動き検出部8fは、最初の画像フレームf1の矩形枠Wに対する二番目以降の各画像フレームfの矩形枠Wの回転角度として相対角度情報を順次算出する。
このように、動き検出部8fは、二番目以降の画像フレームf中の動く被写体Oの単位時間当たりの「動き情報」として、相対位置情報、相対範囲情報、相対角度情報を検出する。
例えば、最初の画像フレームf1にて、特定の被写体にピントが合っている場合には、AFエリア(合焦箇所)内の撮像対象を動く被写体Oとして特定しても良い。また、二番目以降の画像フレームfについては、最初の画像フレームf1から検出された動く被写体Oを動体として特定し、所定の動体解析技術を利用して隣合う画像フレームf間で動く被写体Oを追跡しても良い。
また、操作入力部12としてタッチパネル(図示略)を表示画面に配設して、タッチパネルの接触位置に応じて動く被写体Oを特定するような構成としても良い。即ち、表示部11に表示された画像フレームfにおける動く被写体Oの位置を、ユーザによるタッチパネルの所定の接触操作により指示入力して、動き検出部8fは、タッチパネルの接触操作に基づいて入力された位置情報に基づいて動く被写体Oを特定するようにしても良い。
また、上記の各処理の高速化を図る上では、各画像フレームfの解像度を低減させた低解像度画像を用いて行っても良い。
具体的には、合成制御部8hは、動き検出部8fにより検出された相対位置情報、相対範囲情報、相対角度情報等の「動き情報」に基づいて、合成動画を構成する二番目以降の画像フレームgについて被写体切り抜き画像P3の合成内容情報を順次生成する。
ここで、合成内容情報としては、相対位置情報に基づいて生成される被写体切り抜き画像P3の合成位置に係る被写体領域Sの中心座標や、相対範囲情報に基づいて生成される被写体切り抜き画像P3の合成サイズに係る最初の画像フレームg1に対する被写体領域Sの変倍率や、相対角度情報に基づいて生成される被写体切り抜き画像P3の合成の向きに係る最初の画像フレームg1に対する被写体領域Sの回転角度等が挙げられる。
そして、合成制御部8hは、被写体切り抜き画像P3の最初の画像フレームg1をユーザにより指定された所望の位置に画像合成部8gにより合成した後、二番目以降の画像フレームgについて、順次生成された被写体切り抜き画像P3の合成内容情報に応じて当該被写体切り抜き画像P3の合成位置、大きさ、形状及び回転角度等を設定して画像合成部8gに合成させる。例えば、図10に示したように、動画像データMの二番目の画像フレームf2の動く被写体Oは、最初の画像フレームf1に対して合成位置が右側にずれているとともに、上下方向に伸びていることから、二番目の画像フレームg2は、被写体領域Sが動く被写体Oと略同様に最初の画像フレームg1に対して合成位置が右側にずれているとともに、上下方向に伸びるように形状を変化させて合成する。また、動画像データMの三番目の画像フレームf3は、合成位置が二番目の画像フレームf2よりもさらに右側にずれているが、最初の画像フレームf1と大きさ及び形状が略等しくなっていることから、三番目の画像フレームg3は、被写体領域Sの合成位置が動く被写体Oと略同様に二番目の画像フレームg2よりもさらに右側にずれているが、最初の画像フレームg1と大きさ及び形状が略等しくなるように合成する。また、動画像データMのn番目の画像フレームfnは、合成位置が三番目の画像フレームf3よりもさらに右側にずれているとともに、最初の画像フレームf1に対して上下方向に縮んでいることから、n番目の画像フレームgnは、被写体領域Sの合成位置が動く被写体Oと略同様に三番目の画像フレームg3よりもさらに右側にずれているとともに、最初の画像フレームg1に対して上下方向に縮んだように合成する。
なお、画像フレームgの合成数は、例えば、動画像データMの画像フレームf数と同じであっても良いし、生成される合成動画の時間に応じて予め指定された数であっても良い。
また、被写体切り抜き画像P3の画像データは、画像処理部8の位置情報生成部8cにより生成されたアルファマップと対応付けられて、当該被写体切り抜き画像P3の画像データの拡張子を「.jpe」として保存されている。
動き画像データは、動く被写体Oの動きを所定の記録方式で記録したものであり、例えば、所定の撮像フレームレートで撮像された連続した複数の画像フレーム(例えば、n枚の画像フレーム)f、…からなる動画像データM(図9参照)や、所定のシャッタースピードで連写された連写画像データ等が挙げられる。
ここで、動画像データMとしては、例えば、図9(a)〜図9(d)に示すように、人物の跳躍動作を横から撮像してMotion−JPEG形式で記録したものが挙げられる。なお、図9(a)〜図9(d)は、動画像データMを構成する連続するn枚の画像フレームf1〜fnを模式的に表しており、これらの画像フレームf1〜fnを時間軸に沿って図9(a)〜図9(d)として表すものとする。
具体的には、表示制御部10は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、CPU13の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部11に出力する。
図2は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。また、図3は、被写体切り抜き処理に係る画像の一例を模式的に示す図である。
被写体切り抜き処理は、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に実行される処理である。
また、CPU13は、撮像制御部3を制御して、当該被写体存在画像P1の撮像の際の合焦位置や露出条件やホワイトバランス等の条件を固定した状態を維持する。
この後、CPU13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS5)。そして、ユーザは、被写体を画角外に移動させるか、或いは被写体が移動するのを待った後、ユーザにより被写体非存在画像P2が被写体存在画像P1の半透過の画像と重なるようにカメラ位置が調整されて、操作入力部12のシャッタボタン12aが所定操作されて撮像指示が入力されたと判定されると(ステップS5;YES)、CPU13は、撮像制御部3に、被写体非存在画像P2(図3(b)参照)の光学像を被写体存在画像P1の撮像後に固定された条件で電子撮像部2により撮像させて、画像データ生成部4に、電子撮像部2から転送された被写体非存在画像P2の画像フレームに基づいて、被写体非存在画像P2のYUVデータを生成させる(ステップS6)。なお、当該被写体存在画像P1のYUVデータは、画像メモリ5に一時記憶される。
具体的には、特徴量演算部6は、被写体非存在画像P2のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像P1内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像P2と被写体存在画像P1間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、画像処理部8の位置合わせ部8aは、ブロックマッチング部7により算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1の射影変換行列を算出する。
具体的には、被写体領域抽出部8bは、被写体存在画像P1のYUVデータと被写体非存在画像P2のYUVデータの各々に対してローパスフィルタをかけて各画像の高周波成分を除去する。その後、被写体領域抽出部8bは、ローパスフィルタをかけた被写体存在画像P1と被写体非存在画像P2との間で対応する各画素について相違度を算出して相違度マップを生成する。続けて、被写体領域抽出部8bは、各画素に係る相違度マップを所定の閾値で2値化した後、相違度マップから細かいノイズや手ぶれにより相違が生じた領域を除去するために収縮処理を行う。その後、被写体領域抽出部8bは、ラベリング処理を行って、所定値以下の領域や最大領域以外の領域を除去した後、一番大きな島のパターンを被写体領域Sとして特定し、収縮分を修正するための膨張処理を行う。
具体的には、切抜画像生成部8dは、被写体存在画像P1、単一色画像及びアルファマップを読み出して画像メモリ5に展開した後、被写体存在画像P1の全ての画素について、アルファ値が0の画素については(α=0)、透過させ、アルファ値が0<α<1の画素については(0<α<1)、所定の単一色とブレンディングを行い、アルファ値が1の画素については(α=1)、何もせずに所定の単一色に対して透過させないようにする。
これにより、被写体切り抜き処理を終了する。この結果、例えば、背景内から被写体として自動車が抽出された被写体切り抜き画像P3の静止画像データが生成される。
図4は、背景用画像生成処理に係る動作の一例を示すフローチャートである。
背景用画像生成処理は、通常の静止画像の撮像処理であり、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から静止画撮像モードが選択指示された場合に実行される処理である。
これにより、背景用画像生成処理を終了する。この結果、例えば、山林が記録された背景用画像P4の静止画像データが生成される。
図5は、合成画像生成処理に係る動作の一例を示すフローチャートである。また、図6は、合成画像生成処理における第1画像合成処理に係る動作の一例を示すフローチャートであり、図7は、合成画像生成処理における第2画像合成処理に係る動作の一例を示すフローチャートである。また、図8(a)及び図8(b)は、合成画像生成処理にて画像合成される画像の一例を模式的に示す図である。また、図9(a)〜図9(d)は、合成画像生成処理に係る動画像データの一例を模式的に示す図であり、図10(a)〜図10(d)は、動画像データから抽出された動く被写体の一例を模式的に示す図である。また、図11(a)〜図11(d)は、合成画像生成処理により生成された合成動画の一例を模式的に示す図である。
図5に示すように、ユーザによる操作入力部12の所定操作に基づいて、記録媒体9に記録されている複数の画像の中で合成画像の背景となる所望の背景用画像P4(図8(a)参照)が選択して指定されると、画像処理部8は、指定された背景用画像P4の画像データを読み出して画像メモリ5に展開する(ステップS31)。
続けて、CPU13は、静止画像である被写体切り抜き画像P3の被写体領域Sの画像を所定動作させる合成動画の生成指示選択画面を表示部の表示画面に表示させて、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて合成動画の生成指示が入力されたか否かを判定する(ステップS33)。
続けて、CPU13は、読み出された動画像データMに対して所定の画像処理を施すことにより当該動画像データMに含まれる動く被写体Oを特定し、この動く被写体Oの単位時間当たりの変化を「動き情報」として検出する(ステップS35)。
ここで、上記の「動き情報」には、動画像データMを構成する各画像フレームfの画角における動く被写体Oの中心位置の単位時間当たりの変化(以下、相対位置情報という)、動画像データMを構成する各画像フレームfにおける動く被写体Oの画像が占める範囲の単位時間当たりの変化(以下、相対範囲情報という)、動画像データMを構成する各画像フレームfの水平方向及び垂直方向の少なくとも一方に対する、動く被写体Oの回転角度の単位時間当たりの変化(以下、相対角度情報という)が含まれる。
その後、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、合成動画の最初の画像フレームf1における被写体切り抜き画像P3の初期合成位置が決定されると(ステップS36)、CPU13は、背景用画像P4と被写体切り抜き画像P3とを合成して合成動画を生成する第1画像合成処理を画像合成部8gに行わせる(ステップS37)。
なお、被写体切り抜き画像P3の初期合成位置は、動き検出部8fにより検出された「動き情報」などに基づいて当該被写体切り抜き画像P3の被写体領域Sの画像が背景用画像P4からはみ出さないように画像合成部8gが自動的に決定するようにしても良い。
図6に示すように、画像合成部8gは、被写体切り抜き画像P3と対応付けて保存されているアルファマップを読み出して画像メモリ5に展開する(ステップS51)。
なお、図5のステップS36にて背景用画像P4における被写体切り抜き画像P3の合成位置が決定された際に、背景用画像P4とアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
次に、画像合成部8gは、背景用画像P4の何れか一の画素(例えば、左上隅部の画素)を指定して(ステップS53)、当該画素について、アルファマップのアルファ値に基づいて処理を分岐させる(ステップS54)。具体的には、画像合成部8gは、背景用画像P4の何れか一の画素のうち、アルファ値が1の画素については(ステップS54;α=1)、被写体切り抜き画像P3の対応する画素の画素値で上書きし(ステップS55)、アルファ値が0<α<1の画素については(ステップS54;0<α<1)、1の補数(1−α)を用いて被写体領域Sを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3から減算し、それを被写体領域Sを切り抜いた画像(背景用画像×(1−α))と合成し(ステップS56)、アルファ値が0の画素については(ステップS54;α=0)、何もせずに背景用画像P4を透過さるようにする。
ここで、全ての画素について処理していないと判定されると(ステップS57;NO)、画像合成部8gは、処理対象として次の画素を指定して当該画素に処理対象を移動させて(ステップS58)、処理をステップS54に移行させる。
上記の処理を、ステップS57にて全ての画素について処理したと判定されるまで(ステップS57;YES)、繰り返すことで、画像合成部8gは、被写体切り抜き画像P3と背景用画像P4とを合成した被写体合成画像P5の合成動画を構成する最初の画像フレームg1(図11(a)参照)を生成する。
ここで、全ての画像フレームgについて処理していないと判定されると(ステップS59;NO)、合成制御部8hは、合成動画を構成する複数の画像フレームg、…のうち、処理対象として次の画像フレームgに係るフレーム番号を+1インクリメントして指定する(ステップS60)。これにより、二番目の画像フレームg2が画像合成処理の対象として指定される。
続けて、合成制御部8hは、二番目の画像フレームg2について、順次生成された被写体切り抜き画像P3の合成内容情報に応じて当該被写体切り抜き画像P3の合成位置、大きさや形状、及び、回転角度等を設定する(ステップS62)。このとき、合成制御部8hは、設定した被写体切り抜き画像P3の合成位置、大きさや形状、及び、回転角度等に応じてアルファマップにおける被写体領域部分(α=1)及び被写体領域以外の部分(α=0)を修正して、各画像フレームgにおける被写体切り抜き画像P3とアルファマップとがずれないように調整する。
そして、二番目の画像フレームg2の生成が完了することによって、ステップS57にて全ての画素について合成処理したと判定されると(ステップS57;YES)、処理をステップS58に移行させて、合成制御部8hは、合成動画を構成する全ての画像フレームgについて合成処理したか否かを判定する(ステップS59)。
上記の合成処理を、全ての画像フレームgについて行った判定されるまで(ステップS59;YES)、繰り返すことで、画像合成部8gは、被写体合成画像P5の合成動画を構成する全ての画像フレームg1〜gn(図11(a)〜図11(d)参照)を生成する。
これにより、第1画像合成処理を終了する。
図7に示すように、画像合成部8gは、被写体切り抜き画像P3と対応付けて保存されているアルファマップを読み出して画像メモリ5に展開する(ステップS71)。
なお、図5のステップS39にて背景用画像P4における被写体切り抜き画像P3の合成位置が決定された際に、背景用画像P4とアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
ここで、全ての画素について処理していないと判定されると(ステップS76;NO)、画像合成部8gは、処理対象として次の画素を指定して当該画素に処理対象を移動させて(ステップS77)、処理をステップS73に移行させる。
上記の処理を、ステップS76にて全ての画素について処理したと判定されるまで(ステップS76;YES)、繰り返すことで、画像合成部8gは、被写体切り抜き画像P3と背景用画像P4とを合成した通常の静止画像である被写体合成画像の画像データを生成させる。
これにより、第2画像合成処理を終了する。
これにより、合成画像生成処理を終了する。
具体的には、動き検出部8fは、「動き情報」として、動き画像取得部8eにより取得された動画像データMにおける画像フレームfにわたる動く被写体Oの変化を「動き情報」として検出する。そして、合成制御部8hは、動き検出部8fにより検出された「動き情報」に基づいて、当該合成動画の画像フレームfの各々を構成する被写体切り抜き画像P3の合成内容情報を順次生成して、順次生成された合成内容情報に応じて、被写体切り抜き画像P3の背景用画像P4における合成位置、大きさ、形状及び回転角度等を設定して、各画像フレームg毎に背景用画像P4と合成していくことで、複数の画像フレームg、…からなる被写体合成画像P5の合成動画を生成する。
従って、静止画像どうしの画像合成であっても、動き画像データから検出した動く被写体Oの「動き情報」に基づいて、当該動く被写体Oの動きと略等しい動作を合成後の被写体合成画像P5に与えることができ、興趣性の高い被写体合成画像P5を生成することができる。
つまり、所定の動く被写体Oの動きが記録された動き画像データを記録媒体9に記録しておくだけで、この記録媒体9から動き画像データを取得して当該動き画像データに基づいて「動き情報」を生成することができ、当該撮像装置100単体で被写体切り抜き画像P3の被写体領域Sを所定動作させるように被写体切り抜き画像P3と背景用画像P4とを合成して被写体合成画像P5を生成することができる。
例えば、動き画像データとして、Motion−JPEG形式で記録された動画像データMを例示したが、これに限られるものではなく、例えば、連続した複数の静止画からなる連写画像であっても良い。この場合にあっても、上記実施形態と同様に、連続する静止画どうしの間で動く被写体Oの単位時間当たりの「動き情報」を検出して、当該「動き情報」に基づいて被写体切り抜き画像P3の被写体領域Sを所定動作させる。
また、前もって被写体切り抜き処理を実行して、当該処理により生成された複数の画像フレームf、…からなる被写体切り抜き画像P3の動画像データMを利用して、「動き情報」を検出しても良い。この場合には、動く被写体Oである被写体領域Sが予め抽出されていることから、動く被写体Oの特定の処理を簡略化して、被写体切り抜き処理の高速化を図ることができる。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、静止画取得処理ルーチン、検出処理ルーチン、合成制御処理ルーチンを含むプログラムを記憶しておく。そして、静止画取得処理ルーチンによりCPU13に、第1及び第2静止画像を取得させるようにしても良い。また、検出処理ルーチンによりCPU13に、複数の画像に共通して含まれる被写体の複数の画像にわたる変化を検出させるようにしても良い。また、合成制御処理ルーチンによりCPU13に、第2静止画像を背景として、検出された複数の画像にわたる変化を反映して第1静止画像を合成した合成動画を生成させるようにしても良い。
1 レンズ部
2 電子撮像部
3 撮像制御部
8 画像処理部
8d 切抜画像生成部
8e 動き画像取得部
8f 動き検出部
8h 画像合成部
8g 合成制御部
9 記録媒体
11 表示部
13 CPU
Claims (8)
- 第1及び第2静止画像を取得する静止画取得手段と、
前記第1及び第2静止画像とは異なる複数の画像に共通して含まれる被写体の前記複数の画像にわたる変化を検出する検出手段と、
前記第2静止画像を背景として、前記検出手段によって検出された変化を反映して前記第1静止画像を合成した合成動画を生成する合成手段と、
を備えたことを特徴とする画像合成装置。 - 前記被写体の前記複数の画像にわたる変化とは、前記複数の画像の画角における前記被写体の位置の単位時間当たりの変化、前記複数の画像における前記被写体の画像が占める範囲の単位時間当たりの変化、前記複数の画像の水平方向及び垂直方向の少なくとも一方に対する前記被写体の回転角度の単位時間当たりの変化の少なくとも何れか一つであることを特徴とする請求項1に記載の画像合成装置。
- 前記検出手段によって検出された変化を複数枚の画像として記憶する記憶手段を更に備え、
前記合成手段は、
前記記憶手段から複数枚の画像を読み出す読出手段と、
前記第2静止画像を背景画像として、前記読出手段によって読み出された複数枚の画像の夫々における被写体の位置に前記第1静止画像を合成した合成静止画像を複数生成する生成手段と、
を含むことを特徴とする請求項1又は2に記載の画像合成装置。 - 前記生成手段は、
前記検出手段により検出された変化に基づいて、合成内容情報を順次生成する合成内容生成手段と、
前記合成内容生成手段により順次生成された合成内容情報に応じて、前記第1静止画像の合成位置、大きさや形状、及び、回転角度のうち、少なくとも何れか一つを設定する設定手段と、
を含むことを特徴とする請求項3に記載の画像合成装置。 - 連続した複数の静止画を含む動画像或いは連写画像を取得する画像取得手段を更に備え、
前記検出手段は、前記画像取得手段により取得された前記動画像及び前記連写画像を前記第1及び第2静止画像とは異なる複数の画像として、これら複数の画像に共通して含まれる被写体の前記複数の画像にわたる変化を検出することを特徴とする請求項1〜4の何れか一項に記載の画像合成装置。 - 前記画像取得手段は、撮像手段を含むことを特徴とする請求項5に記載の画像合成装置。
- 前記第1静止画像は、所定の静止画像から特定の領域を抽出した抽出画像であることを特徴とする請求項1〜6の何れか一項に記載の画像合成装置。
- コンピュータを、
第1及び第2静止画像を取得する静止画取得手段、
前記第1及び第2静止画像とは異なる複数の画像に共通して含まれる被写体の前記複数の画像にわたる変化を検出する検出手段、
前記第2静止画像を背景として、前記検出手段によって検出された変化を反映して前記第1静止画像を合成した合成動画を生成する合成手段、
として機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009086121A JP5267279B2 (ja) | 2009-03-31 | 2009-03-31 | 画像合成装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009086121A JP5267279B2 (ja) | 2009-03-31 | 2009-03-31 | 画像合成装置及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010239459A JP2010239459A (ja) | 2010-10-21 |
JP2010239459A5 JP2010239459A5 (ja) | 2012-05-17 |
JP5267279B2 true JP5267279B2 (ja) | 2013-08-21 |
Family
ID=43093398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009086121A Expired - Fee Related JP5267279B2 (ja) | 2009-03-31 | 2009-03-31 | 画像合成装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5267279B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6236856B2 (ja) * | 2013-04-30 | 2017-11-29 | 株式会社ニコン | 画像処理装置および画像処理プログラム |
CN113099118B (zh) | 2015-06-26 | 2023-08-22 | 麦克赛尔株式会社 | 摄像装置以及图像处理方法 |
JP2016015182A (ja) * | 2015-11-04 | 2016-01-28 | 株式会社東芝 | 画像処理装置、方法、及びプログラム |
JP7362696B2 (ja) * | 2020-05-07 | 2023-10-17 | マクセル株式会社 | 撮像装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4983494B2 (ja) * | 2007-09-07 | 2012-07-25 | カシオ計算機株式会社 | 合成画像出力装置および合成画像出力処理プログラム |
JP5028225B2 (ja) * | 2007-11-06 | 2012-09-19 | オリンパスイメージング株式会社 | 画像合成装置、画像合成方法、およびプログラム |
-
2009
- 2009-03-31 JP JP2009086121A patent/JP5267279B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010239459A (ja) | 2010-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5051156B2 (ja) | 画像処理装置及びプログラム | |
JP5105550B2 (ja) | 画像合成装置及びプログラム | |
JP4760973B2 (ja) | 撮像装置及び画像処理方法 | |
TWI468770B (zh) | 攝像裝置、對焦方法及記錄程式之電腦可讀取記錄媒體 | |
JP4798236B2 (ja) | 撮像装置、画像処理方法及びプログラム | |
JP4947136B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP4807432B2 (ja) | 撮像装置、画像処理方法及びプログラム | |
JP5267279B2 (ja) | 画像合成装置及びプログラム | |
JP5402166B2 (ja) | 画像合成装置及びプログラム | |
JP2011066827A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5402148B2 (ja) | 画像合成装置、画像合成方法及びプログラム | |
JP5471425B2 (ja) | 撮像装置、撮像制御プログラム及び撮像方法 | |
JP2011182014A (ja) | 撮像装置、撮像処理方法及びプログラム | |
JP5476900B2 (ja) | 画像合成装置、画像合成方法及びプログラム | |
JP5636660B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5493839B2 (ja) | 撮像装置、画像合成方法及びプログラム | |
JP5332668B2 (ja) | 撮像装置および被写体検出プログラム | |
JP2011041041A (ja) | 撮像装置、撮像方法及びプログラム | |
JP2010154390A (ja) | 撮像装置及び撮像方法並びにプログラム | |
JP5548023B2 (ja) | 撮像装置および撮像方法 | |
JP5494537B2 (ja) | 画像処理装置及びプログラム | |
JP2010278701A (ja) | 画像合成装置、画像合成方法及びプログラム | |
JP5381207B2 (ja) | 画像合成装置及びプログラム | |
JP5741062B2 (ja) | 画像処理装置及び画像処理方法、並びにプログラム | |
JP5565227B2 (ja) | 画像処理装置、画像処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120328 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130422 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5267279 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |