JP5636660B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP5636660B2 JP5636660B2 JP2009227623A JP2009227623A JP5636660B2 JP 5636660 B2 JP5636660 B2 JP 5636660B2 JP 2009227623 A JP2009227623 A JP 2009227623A JP 2009227623 A JP2009227623 A JP 2009227623A JP 5636660 B2 JP5636660 B2 JP 5636660B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- processing
- background
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
- Storing Facsimile Image Data (AREA)
Description
背景画像に前景画像を合成する合成手段を備えた画像処理装置において、前記前景画像と所定の処理とを対応付けて記憶する記憶手段と、前記記憶手段に前記前景画像と対応付けて記憶されている前記所定の処理を、当該前景画像及び前記背景画像の少なくとも一方に施す画像処理手段と、を備えることを特徴としている。
前記背景画像における前記前景画像を合成すべき領域の位置を特定する特定手段と、前記特定手段により特定された前記前景画像を合成すべき領域の位置に基づいて、前記記憶手段に前記前景画像と対応付けて記憶されている前記所定の処理を、当該前景画像及び前記背景画像の少なくとも一方に施すか否かを判断する判断手段と、を更に備え、前記画像処理手段は、前記判断手段による判断結果が肯定の場合、前記所定の処理を、当該前景画像及び前記背景画像の少なくとも一方に施すことを特徴としている。
前記特定手段により前記前景画像を合成すべき領域の位置として前記背景画像における所定領域の位置が特定されたか否かを判定する判定手段を更に備え、前記画像処理手段は、前記判定手段により前記背景画像における所定領域の位置が特定されたと判定された場合に、前記前景画像及び前記背景画像の少なくとも一方に所定の処理を施すことを特徴としている。
前記画像処理手段は、前記判定手段により前記背景画像における所定領域の位置が特定されたと判定された場合に、前記背景画像における前記所定領域の画像部分を前記前景画像に対して優先的に表示させるように、前記前景画像及び前記背景画像の少なくとも一方に前記所定の処理を施すことを特徴としている。
前記背景画像は、複数のフレーム画像からなる連写画像若しくは動画像であり、前記判定手段は、前記連写画像若しくは動画像を構成する各フレーム画像に、当該フレーム画像における所定領域の位置が前記特定手段により特定されたか否かを判定し、前記画像処理手段は、前記複数のフレーム画像のうち、前記判定手段により所定領域の位置が特定されたと判定されたフレーム画像及び前記前景画像の少なくとも一方に所定の処理を施すことを特徴としている。
前記所定領域は、前記背景画像から検出された顔画像領域であることを特徴としている。
前記画像処理手段は、前記特定手段により前記前景画像を合成すべき領域として特定された前記背景画像における位置から所定の範囲内の前記背景画像に所定の処理を施すことを特徴としている。
前景画像に対応付けて記憶手段に記憶されている所定の処理を、当該前景画像及び当該前景画像が合成される背景画像の少なくとも一方に施すステップと、前記ステップにて少なくとも一方に所定の処理を施された前記前景画像と前記背景画像とを合成するステップと、を含むことを特徴としている。
コンピュータを、前景画像に対応付けて記憶部に記憶されている前記所定の処理を、当該前景画像及び背景画像の少なくとも一方に施す画像処理手段、前記前景画像及び前記背景画像を合成する合成手段、として機能させることを特徴としている。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
具体的には、図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、記録媒体9と、表示制御部10と、表示部11と、操作入力部12と、CPU13とを備えている。
また、撮像制御部3と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、CPU13は、例えば、カスタムLSI1Aとして設計されている。
また、レンズ部1は、図示は省略するが、被写体の撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
また、撮像制御部3は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮像する際の条件の調整制御を行う。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
ここで、特徴抽出処理とは、多数の候補ブロックから追跡に都合の良い特徴性の高いものを選択する処理である。
位置合わせ部は、被写体非存在画像から抽出した特徴点に基づいて、被写体非存在画像に対する被写体存在画像の各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在画像を座標変換して被写体非存在画像と位置合わせを行う。
被写体画像抽出部は、位置合わせ部により位置合わせされた被写体存在画像と被写体非存在画像との間で対応する各画素の差分情報を生成し、当該差分情報を基準として被写体存在画像から被写体が含まれる被写体画像(前景画像)Gを抽出する。
位置情報生成部は、被写体存在画像から抽出された被写体画像Gの位置を特定して、被写体存在画像における被写体画像Gの位置を示す位置情報(例えば、アルファマップ)を生成する。ここで、アルファマップとは、被写体存在画像の各画素について、被写体画像Gを所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したものである。
切抜画像生成部8aは、位置情報生成部により生成されたアルファマップに基づいて、被写体存在画像の各画素のうち、アルファ値が1の画素を所定の単一色画像(図示略)に対して透過させずに、且つ、アルファ値が0の画素を透過させるように、被写体画像Gを所定の単一色画像と合成して被写体切り抜き画像の画像データを生成する。
ここで、合成領域特定部8cは、背景画像Bにおける被写体画像(前景画像)Gを合成すべき領域を特定する特定手段を構成している。
ここで、領域判定部8dは、合成領域特定部8cにより被写体画像(前景画像)Gを合成すべき合成領域として背景画像Bにおける所定領域が特定されたか否かを判定する判定手段を構成している。
処理内容テーブルTは、記憶手段として、被写体画像Gと所定の画像処理とを対応付けて記憶する。具体的には、図2に示すように、処理内容テーブルTは、背景画像Bと合成される被写体画像(前景画像)Gに係る被写体画像名(例えば、「感嘆符」、「ライト」、「水滴」、「ボール」等)と、被写体画像Gの画像データと、背景画像Bに対する画像処理の処理内容とを対応付けて記憶している。例えば、被写体画像Gとしての「感嘆符」は、画像処理の処理内容として「顔画像領域をびっくりした表情にする」と対応付けられており、加工処理部8eは、背景画像Bの顔画像領域Aの目の白目部分を顔の外側方向に拡大するとともに、黒目部分を顔の内側方向に縮小するような画像処理を施す。また、被写体画像Gとしての「ライト」は、画像処理の処理内容として「合成領域を中心に明るくする」と対応付けられており、加工処理部8eは、背景画像Bの合成領域以外の部分の明るさやコントラストや色調等を調整して合成領域の近傍ほど明るくするような画像処理を施す。また、被写体画像Gとしての「水滴」は、画像処理の処理内容として「合成位置を中心に波紋が広がるような処理」と対応付けられており、加工処理部8eは、背景画像Bの合成領域以外の領域に所定径の環状部を想定して、当該環状部と重なる部分が波立つような画像処理を施す。また、被写体画像Gとしての「ボール」は、画像処理の処理内容として「合成位置を中心に凹ませるような処理」と対応付けられており、加工処理部8eは、背景画像Bの合成領域の近傍ほど歪むような画像処理を施す。
なお、上記した処理内容テーブルTは、一例であって被写体画像Gの種類や処理内容等はこれらに限られるものではなく、これらの内容は予め処理内容テーブルTに登録されていても良いし、後述する被写体切り抜き処理によって登録できるようにしても良い。
また、上記した処理内容テーブルTは、画像メモリ5に予め記憶されていてもよいし、記録媒体9の所定の記憶領域や画像ファイルごとの所定の記憶領域に記憶するようにしてもよい。
ここで、加工処理部8eは、合成領域特定部8cにより特定された背景画像Bにおける被写体画像(前景画像)Gを合成すべき合成領域に基づいて、当該被写体画像G及び背景画像Bのうち、少なくとも何れか一方に所定の処理を施す画像処理手段を構成している。
画像合成部8fは、加工処理部8eにより所定の画像処理が施された背景画像Bと被写体切り抜き画像とを合成して被写体合成画像Pを生成する。具体的には、画像合成部8fは、画像処理後の背景画像Bの各画素のうち、アルファ値が0の画素は透過させ、アルファ値が1の画素は被写体切り抜き画像の対応する画素の画素値で上書きし、さらに、背景画像Bの各画素のうち、アルファ値が0<α<1の画素は1の補数(1−α)を用いて被写体領域を切り抜いた画像(背景画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像から減算し、それを被写体領域を切り抜いた画像(背景画像×(1−α))と合成する。
また、被写体切り抜き画像の画像データは、画像処理部8の位置情報生成部により生成されたアルファマップと対応付けられて、当該被写体切り抜き画像の画像データの拡張子を「.jpe」とした複数の画像ファイルからなるグループが保存されている。
具体的には、表示制御部10は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、CPU13の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部11に出力する。
図3は、背景画像生成処理に係る動作の一例を示すフローチャートである。
図3に示すように、先ず、表示制御部10は、レンズ部1、電子撮像部2及び撮像制御部3による背景画像Bの撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させる(ステップS1)。
これにより、背景画像生成処理を終了する。
図4は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。
図4に示すように、先ず、表示制御部10は、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像の撮像指示メッセージを表示部11の表示画面に表示させる(ステップS11)。
また、撮像制御部3は、当該被写体存在画像の撮像の際の合焦位置や露出条件やホワイトバランス等の条件を固定した状態を維持する。
この後、CPU13は、ユーザにより操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS15)。そして、ユーザは、被写体を画角外に移動させるか、或いは被写体が移動するのを待った後、ユーザにより被写体非存在画像が被写体存在画像の半透過の画像と重なるようにカメラ位置が調整されて、操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたと判定されると(ステップS15;YES)、撮像制御部3は、被写体非存在画像の光学像を被写体存在画像の撮像後に固定された条件で電子撮像部2により撮像させる(ステップS16)。
その後、画像データ生成部4は、電子撮像部2から転送された被写体非存在画像の画像フレームに基づいて、被写体非存在画像のYUVデータを生成した後、当該YUVデータを画像メモリ5に一時記憶させる。
具体的には、特徴量演算部6は、被写体非存在画像のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像と被写体存在画像間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、切抜画像生成部8aの位置合わせ部は、ブロックマッチング部7により算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像の射影変換行列を算出する。
具体的には、被写体領域抽出部は、被写体存在画像のYUVデータと被写体非存在画像のYUVデータの各々に対してローパスフィルタをかけて各画像の高周波成分を除去する。その後、被写体領域抽出部は、ローパスフィルタをかけた被写体存在画像と被写体非存在画像との間で対応する各画素について相違度を算出して相違度マップを生成する。続けて、被写体領域抽出部は、各画素に係る相違度マップを所定の閾値で2値化した後、相違度マップから細かいノイズや手ぶれにより相違が生じた領域を除去するために収縮処理を行う。その後、被写体領域抽出部は、ラベリング処理を行って、所定値以下の領域や最大領域以外の領域を除去した後、一番大きな島のパターンを被写体領域として特定し、収縮分を修正するための膨張処理を行う。
具体的には、切抜画像生成部8aは、被写体存在画像、単一色画像及びアルファマップを読み出して画像メモリ5に展開した後、被写体存在画像の全ての画素について、アルファ値が0の画素については(α=0)、透過させ、アルファ値が0<α<1の画素については(0<α<1)、所定の単一色とブレンディングを行い、アルファ値が1の画素については(α=1)、何もせずに所定の単一色に対して透過させないようにする。
なお、画像ファイルを記録媒体9の所定の記憶領域に記憶する際に、所定の処理内容を対応付けて記憶する。例えば、「明度を上げる」、「輝度を低くする」、「ボカシ処理を加える」などの処理内容が画像メモリ5に記憶されていて、この中から任意の画像処理内容を選択するようにし、選択した処理内容を当該画像ファイルと対応付けて記録媒体9の所定の記憶領域に記憶させる。
これにより、被写体切り抜き処理を終了する。
図5は、合成画像生成処理に係る動作の一例を示すフローチャートである。また、図6は、合成画像生成処理における画像合成処理に係る動作の一例を示すフローチャートである。
図5に示すように、ユーザによる操作入力部12の所定操作に基づいて、記録媒体9に記録されている複数の画像の中で合成画像の背景となる所望の背景画像B(図7(a)等参照)が選択して指定されると(ステップS31)、画像処理部8は、指定された背景画像Bの画像データを読み出して画像メモリ5に展開して、画像処理部8の顔検出部8bが、当該画像データに対する顔検出処理を行って背景画像B内から顔画像領域Aを検出する(ステップS32)。
ここで、背景画像Bの顔画像領域Aと被写体画像Gの合成領域とが重なる(図7(b)参照)と判定されると(ステップS36;YES)、画像処理部8の加工処理部8eは、処理内容テーブルTに当該被写体画像Gと対応付けて登録されている所定の画像処理内容を取得して(ステップS37)、取得した画像処理内容に従って背景画像Bに対する画像処理を行う(ステップS38)。
例えば、被写体画像「感嘆符」が選択指定されている場合に、背景画像Bの顔画像領域Aと被写体画像Gの合成領域とが重なると、加工処理部8eは、処理内容テーブルTから画像処理内容「顔画像領域をびっくりした表情にする」を取得して、顔画像領域Aの目の白目部分を顔の外側方向に拡大するとともに、黒目部分を顔の内側方向に縮小するような画像処理を施す。また例えば、被写体画像Gとして処理テーブルTの「ライト」が選択されている場合は、背景画像Bの顔画像領域Aと被写体画像Gの合成領域とが重なると、加工処理部8eは、処理内容テーブルTから画像処理内容「合成領域を中心に明るくする」を取得して、当該合成領域を中心に背景画像Bが明るくなるような画像処理を施す。
ここで、被写体画像Gの合成位置が再指定されたと判定されると(ステップS39;YES)、画像処理部8は、処理をステップS35に移行して、それ以降の処理を実行する。
ステップS35以降の処理は、ステップS39にて、被写体画像Gの合成位置が再指定されていないと判定されるまで(ステップS39;NO)、繰り返し行われる。
そして、ステップS39にて、被写体画像Gの合成位置が再指定されていないと判定されると(ステップS39;NO)、画像処理部8の画像合成部8fは、背景画像Bと被写体切り抜き画像とを合成する画像合成処理を行う(ステップS40)。
また、ステップS36にて、被写体画像Gの合成領域と顔画像領域Aとが重なっていない(図7(a)、図7(c)等参照)と判定された場合にも(ステップS36;NO)、画像合成部8fは、画像合成処理を行う。
画像合成処理は、背景画像Bの顔画像領域Aと被写体画像Gの合成領域とが重なっている場合には、ステップS38にて所定の画像処理が施された背景画像Bを対象画像として行われ、一方、背景画像Bの顔画像領域Aと被写体画像Gの合成領域とが重なっていない場合には、所定の画像処理が施されていない背景画像Bを対象画像として行われる。
なお、以下の説明にあっては、処理対象となる背景画像Bは所定の画像処理が施されているか否かに関わらず、単に背景画像Bと言う。
なお、図5のステップS34やステップS39にて背景画像Bにおける被写体切り抜き画像の被写体画像Gの合成位置が指定された際に、背景画像Bとアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
ここで、全ての画素について処理していないと判定されると(ステップS56;NO)、画像合成部8fは、処理対象として次の画素を指定して当該画素に処理対象を移動させて(ステップS57)、処理をステップS53に移行させる。
上記の処理を、ステップS56にて全ての画素について処理したと判定されるまで(ステップS56;YES)、繰り返すことで、画像合成部8fは、被写体切り抜き画像と背景画像Bとを合成した被写体合成画像Pの画像データを生成させる。
これにより、画像合成処理を終了する。
具体的には、表示制御部10は、例えば、背景画像Bの顔画像領域Aと被写体画像Gの合成領域とが重なっている場合には、所定の画像処理が施された背景画像Bに被写体画像Gが重畳された被写体合成画像Pb(図7(b)参照)を表示部11に表示させる。一方、表示制御部10は、例えば、背景画像Bの顔画像領域Aと被写体画像Gの合成領域とが重なっていない場合には、所定の画像処理が施されていない背景画像Bに被写体画像Gが重畳された被写体合成画像Pa、Pc(図7(a)、図7(c)等参照)を表示部11に表示させる。
これにより、合成画像生成処理を終了する。
特に、背景画像Bにおける被写体画像Gを合成すべき合成領域として当該背景画像Bにおける顔画像領域Aが特定された場合に、処理内容テーブルTに被写体画像Gと対応付けて記憶されている所定の画像処理を被写体画像G及び背景画像Bのうち、少なくとも何れか一方に施すので、例えば、被写体画像Gと背景画像Bの顔画像領域Aとが重なってしまい顔画像領域A全体の視認が制限されてしまうような場合に、当該顔画像領域Aに対して所定の画像処理を施すことで、被写体合成画像Pbに違和感を生じさせて当該被写体合成画像Pbの興趣性の向上を図ることができる。
このように、背景画像Bと被写体画像Gとを合成して、効果的な被写体合成画像Pを得ることができる。
以下に、撮像装置100の変形例について説明する。
ここで、撮像装置100の変形例は、以下に詳細に説明する以外の点で上記実施形態の撮像装置100と略同様の構成を成し、その説明は省略する
変形例1の撮像装置100は、被写体画像Gの合成領域と背景画像Bにおける所定領域とが重なったと判定された場合に、加工処理部8eは、背景画像Bにおける当該所定領域の画像部分を被写体画像Gに対して優先的に表示させるように、被写体画像Gや背景画像Bに対して所定の画像処理を施す。
即ち、加工処理部8eは、領域判定部8dにより被写体画像Gの合成領域と顔画像領域(所定領域)Aとが重なったと判定された場合に、被写体画像Gを半透過の表示態様で表示されるように当該被写体画像Gに対して画像処理を施す。
なお、被写体画像Gの半透過の表示態様とは、被写体画像Gが透明と不透明の中間で表示された状態であり、当該被写体画像Gに重畳して後側に表示される背景画像Bの輪郭や色彩や明暗などを透過する程度の表示態様のことである。
なお、背景画像Bにおける当該顔画像領域Aの画像部分を被写体画像Gに対して優先的に表示させる際に、被写体画像Gに所定の画像処理を施すようにしたが、これに限られるものではなく、背景画像Bに対して所定の画像処理を施すようにしても良い。また、背景画像Bの優先的な表示態様として、被写体画像Gの半透過の表示態様を例示したが、これに限られるものではなく、例えば、被写体画像Gの背景画像Bの顔画像領域Aと重なる部分を切り欠いたような表示態様や、被写体画像Gに対して背景画像Bの顔画像領域Aの方がより目立つように、これらの画像の明るさやコントラストや色調等を調整した表示態様などが挙げられる。
変形例2の撮像装置100は、複数(例えば、20枚)の背景画像Bを含む連写背景画像と被写体画像Gとを合成する際に、加工処理部8eは、連写背景画像を構成する複数の背景画像B、…のうち、被写体画像Gの合成領域として顔画像領域Aが特定された背景画像Bの各々に所定の画像処理を施す。
画像処理部8の顔検出部8bは、連写背景画像を構成する複数の背景画像B、…の各々に対する顔検出処理を行って顔画像領域Aを検出する。また、画像処理部8の合成領域特定部8cは、連写背景画像を構成する複数の背景画像B、…の各々における被写体切り抜き画像の被写体画像Gを合成すべき合成領域を特定する。
そして、画像処理部8の領域判定部8dは、合成領域特定部8cにより特定された各背景画像Bにおける被写体画像Gの合成領域と顔検出部8bにより各背景画像Bから検出された顔画像領域(所定領域)Aとが重なるか否かを判定する。即ち、領域判定部8dは、連写背景画像を構成する各背景画像(構成画像)B毎に、当該背景画像Bにおける顔画像領域(所定領域)Aが合成領域特定部8cにより特定されたか否かを判定する。
なお、加工処理部8eは、上記のような連写背景画像を構成する複数の背景画像B、…に対する画像処理とともに、或いは、各背景画像Bに対する画像処理に替えて、被写体画像Gに対して所定の画像処理を施すようにしても良い。
図9は、合成画像生成処理に係る動作の一例を示すフローチャートである。
続けて、画像処理部8の顔検出部8bが、最初の背景画像Bの画像データに対する顔検出処理を行って当該背景画像B内から顔画像領域Aを検出する(ステップS64)。
ここで、背景画像Bにおける顔画像領域Aと被写体画像Gの合成領域とが重なる(図7(b)参照)と判定されると(ステップS67;YES)、画像処理部8の加工処理部8eは、処理内容テーブルTに当該被写体画像Gと対応付けて登録されている所定の画像処理内容を取得して(ステップS68)、取得した画像処理内容に従って処理対象の背景画像Bに対する画像処理を行う(ステップS69)。
なお、画像処理の具体的な内容は、上記実施形態にて説明したものと同一であり、その詳細な説明は省略する。
ここで、被写体画像Gの合成位置が再指定されたと判定されると(ステップS71;YES)、画像処理部8は、処理をステップS66に移行して、それ以降の処理を実行する。
ステップS66以降の処理は、ステップS71にて、被写体画像Gの合成位置が再指定されていないと判定されるまで(ステップS71;NO)、繰り返し行われる。
そして、ステップS71にて、被写体画像Gの合成位置が再指定されていないと判定されると(ステップS71;NO)、画像処理部8の画像合成部8fは、処理対象の背景画像Bと被写体切り抜き画像とを合成する画像合成処理を行う(ステップS40)。
これにより、処理対象の背景画像B(例えば、最初の背景画像B)に被写体切り抜き画像の被写体画像Gが重畳された被写体合成画像Pが生成される。なお、生成された被写体合成画像Pの画像データは、画像メモリ5に一時記憶される。
ここで、背景画像Bの全てについて処理していないと判定されると(ステップS72;NO)、画像処理部8は、処理対象として次の背景画像B(例えば、二枚目の背景画像B)を指定して当該背景画像Bに処理対象を移動させる(ステップS73)。続けて、画像処理部8の顔検出部8bは、処理対象の背景画像Bの画像データに対する顔検出処理を行って当該背景画像B内から顔画像領域Aを検出した後(ステップS74)、処理をステップS66に移行させる。
ここで、処理対象が二枚目以降の背景画像Bに指定された場合、ステップS70にて、処理対象の背景画像Bが最初の背景画像Bでないと判定されることから(ステップS70;NO)、画像処理部8は、ステップS71の処理をとばして、画像合成部8fが、処理対象の背景画像Bと被写体切り抜き画像とを合成する画像合成処理を行う(ステップS40)。
具体的には、表示制御部10は、画像メモリ5から複数の被写体合成画像P、…の画像データを取得して、複数の被写体合成画像P、…を所定の表示フレームレートで切り換えて表示部11の表示画面に再生表示させることで、背景画像Bの顔画像領域Aと被写体画像Gの合成領域とが重なっている場合には、所定の画像処理が施された背景画像Bに被写体画像Gが重畳された被写体合成画像Pを表示部11に表示させ、背景画像Bの顔画像領域Aと被写体画像Gの合成領域とが重なっていない場合には、所定の画像処理が施されていない背景画像Bに被写体画像Gが重畳された被写体合成画像Pを表示部11に表示させる。
これにより、合成画像生成処理を終了する。
例えば、背景画像Bにおける被写体画像Gの合成領域が特定された場合に、当該被写体画像Gの合成領域に基づいて、背景画像Bや被写体画像Gに対して所定の画像処理を施すようにしても良い。即ち、例えば、略中央部近傍に比較的重要な被写体が配置された構図で静止画撮像される場合があるが、被写体画像Gの合成領域が背景画像Bの略中央部近傍である場合には、被写体画像Gと背景画像Bにおける比較的重要な被写体が重なった状態となる虞がある。そこで、かかる場合を考慮して、背景画像Bにおける被写体画像Gを合成すべき合成領域に基づいて、背景画像Bや被写体画像Gに対して所定の画像処理を施すようにしても良い。
さらに、例えば、背景画像Bにおける被写体画像Gの合成領域が特定された後、画像合成処理にて実際に背景画像Bと被写体画像Gとを合成する際に、背景画像Bや被写体画像Gに対して所定の画像処理を施すようにしても良い。
さらに、この所定領域は被写体画像Gごとに設定できるようにしても良い。図2に示した処理内容テーブルTを例にとると、被写体画像Gとしての「感嘆符」は、画像処理の処理内容として「顔画像領域をびっくりした表情にする」と対応付けられているが、これに加えて所定領域として「顔画像領域」が対応付けられているものとする。つまり、「感嘆符」の合成領域が背景画像Bにおける顔画像領域と重なる場合に、当該顔画像領域を「びっくりした表示にする」処理を施すようにする。また、被写体画像Gとしての「ライト」は、画像処理の処理内容として「合成領域を中心に明るくする」に加えて所定領域として「暗い領域」が対応付けられており、「ライト」の合成領域が背景画像Bにおける暗い領域(例えば輝度が所定値以下である領域)と重なる場合に、「合成領域を中心に明るくする」処理を施すようにしても良い。
また、処理内容テーブルTには被写体画像Gごとに、加工処理部8eによる背景画像Bや被写体画像Gに対する所定の画像処理の処理範囲を対応付けて記憶できるようにしても良い。
また、被写体画像Gの種類に関係なく、背景画像における所定領域と処理内容とを対応付けて記録できるようにしてもよい。例えば、所定領域として「顔画像領域」が記憶されていて、処理内容として「顔画像領域をびっくりした表示にする」と対応付けられている場合は、いかなる被写体画像Gであっても、合成領域が顔画像領域と重なった場合は当該顔画像領域をびっくりした表示にするように画像処理を施すようにしても良い。
即ち、加工処理部8eは、処理内容テーブルT(図2参照)に被写体画像Gと対応付けて登録されている所定の画像処理を、背景画像B及び被写体画像Gのうち、少なくとも何れか一方に画像処理を施すようにしても良い。
このような構成としても、従来のように被写体画像Gと背景画像Bとを単に合成するのではなく、被写体画像Gや背景画像Bに所定の画像処理を施された斬新な態様の被写体合成画像Pを生成することができ、当該被写体合成画像Pの興趣性の向上を図ることができる。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、特定処理ルーチン、画像処理ルーチン及び合成処理ルーチンを含むプログラム、或いは画像処理ルーチン及び合成処理ルーチンを含むプログラムを記憶しておく。そして、特定処理ルーチンによりCPU13を、背景画像Bにおける被写体画像(前景画像)Gを合成すべき領域を特定する特定手段として機能させるようにしても良い。また、画像処理ルーチンによりCPU13を、特定手段により特定された前景画像を合成すべき領域に基づいて、当該前景画像及び背景画像Bの少なくとも一方に所定の処理を施す画像処理手段として機能させるようにしても良い。また、合成処理ルーチンによりCPU13を、画像処理手段によって少なくとも一方に所定の処理が施された前景画像と背景画像とを合成する合成手段として機能っせるようにしても良い。
また、画像処理ルーチンによりCPU13を、記憶部に前景画像と対応付けて記憶されている所定の処理を、当該前景画像及び背景画像Bの少なくとも一方に施す画像処理手段として機能させるようにしても良い。また、合成処理ルーチンによりCPU13を、画像処理手段によって少なくとも一方に所定の処理が施された前景画像と背景画像とを合成する合成手段として機能させるようにしても良い。
1 レンズ部
2 電子撮像部
3 撮像制御部
8 画像処理部
8b 顔検出部
8c 合成領域特定部
8d 領域判定部
8e 加工処理部
8f 画像合成部
13 CPU
T 処理内容テーブル
Claims (9)
- 背景画像に前景画像を合成する合成手段を備えた画像処理装置において、
前記前景画像と所定の処理とを対応付けて記憶する記憶手段と、
前記記憶手段に前記前景画像と対応付けて記憶されている前記所定の処理を、当該前景画像及び前記背景画像の少なくとも一方に施す画像処理手段と、
を備えることを特徴とする画像処理装置。 - 前記背景画像における前記前景画像を合成すべき領域の位置を特定する特定手段と、
前記特定手段により特定された前記前景画像を合成すべき領域の位置に基づいて、前記記憶手段に前記前景画像と対応付けて記憶されている前記所定の処理を、当該前景画像及び前記背景画像の少なくとも一方に施すか否かを判断する判断手段と、
を更に備え、
前記画像処理手段は、前記判断手段による判断結果が肯定の場合、前記所定の処理を、当該前景画像及び前記背景画像の少なくとも一方に施すことを特徴とする請求項1に記載の画像処理装置。 - 前記特定手段により前記前景画像を合成すべき領域の位置として前記背景画像における所定領域の位置が特定されたか否かを判定する判定手段を更に備え、
前記画像処理手段は、前記判定手段により前記背景画像における所定領域の位置が特定されたと判定された場合に、前記前景画像及び前記背景画像の少なくとも一方に所定の処理を施すことを特徴とする請求項2に記載の画像処理装置。 - 前記画像処理手段は、前記判定手段により前記背景画像における所定領域の位置が特定されたと判定された場合に、前記背景画像における前記所定領域の画像部分を前記前景画像に対して優先的に表示させるように、前記前景画像及び前記背景画像の少なくとも一方に前記所定の処理を施すことを特徴とする請求項3に記載の画像処理装置。
- 前記背景画像は、複数のフレーム画像からなる連写画像若しくは動画像であり、
前記判定手段は、前記連写画像若しくは動画像を構成する各フレーム画像に、当該フレーム画像における所定領域の位置が前記特定手段により特定されたか否かを判定し、
前記画像処理手段は、前記複数のフレーム画像のうち、前記判定手段により所定領域の位置が特定されたと判定されたフレーム画像及び前記前景画像の少なくとも一方に所定の処理を施すことを特徴とする請求項3又は4に記載の画像処理装置。 - 前記所定領域は、前記背景画像から検出された顔画像領域であることを特徴とする請求項3〜5の何れか一項に記載の画像処理装置。
- 前記画像処理手段は、前記特定手段により前記前景画像を合成すべき領域として特定された前記背景画像における位置から所定の範囲内の前記背景画像に所定の処理を施すことを特徴とする請求項2〜6の何れか一項に記載の画像処理装置。
- 前景画像に対応付けて記憶手段に記憶されている所定の処理を、当該前景画像及び当該前景画像が合成される背景画像の少なくとも一方に施すステップと、
前記ステップにて少なくとも一方に所定の処理を施された前記前景画像と前記背景画像とを合成するステップと、
を含むことを特徴とする画像処理方法。 - コンピュータを、
前景画像に対応付けて記憶部に記憶されている前記所定の処理を、当該前景画像及び背景画像の少なくとも一方に施す画像処理手段、
前記前景画像及び前記背景画像を合成する合成手段、
として機能させることを特徴とするプログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009227623A JP5636660B2 (ja) | 2009-09-30 | 2009-09-30 | 画像処理装置、画像処理方法及びプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009227623A JP5636660B2 (ja) | 2009-09-30 | 2009-09-30 | 画像処理装置、画像処理方法及びプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2011077850A JP2011077850A (ja) | 2011-04-14 |
| JP5636660B2 true JP5636660B2 (ja) | 2014-12-10 |
Family
ID=44021344
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009227623A Expired - Fee Related JP5636660B2 (ja) | 2009-09-30 | 2009-09-30 | 画像処理装置、画像処理方法及びプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5636660B2 (ja) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5967422B2 (ja) * | 2012-05-23 | 2016-08-10 | カシオ計算機株式会社 | 撮像装置及び撮像処理方法並びにプログラム |
| JP6423612B2 (ja) * | 2014-04-28 | 2018-11-14 | オリンパス株式会社 | 情報機器、画像処理方法およびプログラム |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07175587A (ja) * | 1993-10-28 | 1995-07-14 | Hitachi Ltd | 情報処理装置 |
| JPH11102434A (ja) * | 1997-07-31 | 1999-04-13 | Sony Corp | 画像処理装置及び方法 |
| JPH11317909A (ja) * | 1998-02-02 | 1999-11-16 | Matsushita Electric Ind Co Ltd | 画像合成方法,画像合成装置,及びデ―タ記録媒体 |
| JP3300280B2 (ja) * | 1998-04-23 | 2002-07-08 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 画像合成処理装置およびその方法 |
| JP4148165B2 (ja) * | 2004-03-12 | 2008-09-10 | セイコーエプソン株式会社 | 画像を重ね合わせて合成画像を生成する画像合成 |
| JP2005270378A (ja) * | 2004-03-25 | 2005-10-06 | Nobutaka Nishikata | 情報出力装置、通信システム及びコンピュータプログラム |
| JP2006060719A (ja) * | 2004-08-23 | 2006-03-02 | Make Softwear:Kk | 画像編集装置および画像編集方法 |
-
2009
- 2009-09-30 JP JP2009227623A patent/JP5636660B2/ja not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2011077850A (ja) | 2011-04-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5051156B2 (ja) | 画像処理装置及びプログラム | |
| JP5105550B2 (ja) | 画像合成装置及びプログラム | |
| JP4760973B2 (ja) | 撮像装置及び画像処理方法 | |
| JP5359856B2 (ja) | 画像合成装置、画像合成方法及びプログラム | |
| JP4798236B2 (ja) | 撮像装置、画像処理方法及びプログラム | |
| US20190075245A1 (en) | Imaging device configured to control a region of imaging | |
| JP2011066827A (ja) | 画像処理装置、画像処理方法及びプログラム | |
| JP5267279B2 (ja) | 画像合成装置及びプログラム | |
| JP6541501B2 (ja) | 画像処理装置、撮像装置、及び画像処理方法 | |
| JP5402166B2 (ja) | 画像合成装置及びプログラム | |
| JP5636660B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
| JP5494537B2 (ja) | 画像処理装置及びプログラム | |
| JP5476900B2 (ja) | 画像合成装置、画像合成方法及びプログラム | |
| JP6024135B2 (ja) | 被写体追尾表示制御装置、被写体追尾表示制御方法およびプログラム | |
| JP5402148B2 (ja) | 画像合成装置、画像合成方法及びプログラム | |
| JP2011041041A (ja) | 撮像装置、撮像方法及びプログラム | |
| JP5493839B2 (ja) | 撮像装置、画像合成方法及びプログラム | |
| JP2011003057A (ja) | 画像合成装置、画像特定方法、画像合成方法及びプログラム | |
| JP2010278701A (ja) | 画像合成装置、画像合成方法及びプログラム | |
| JP5565227B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
| JP5381207B2 (ja) | 画像合成装置及びプログラム | |
| JP4803319B2 (ja) | 撮像装置、画像処理方法及びプログラム | |
| JP6213619B2 (ja) | カメラおよびプログラム | |
| JP2011135619A (ja) | 画像処理装置及びプログラム | |
| JP2011175663A (ja) | 撮像装置、画像処理方法及びプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120926 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120926 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130813 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130917 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140708 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140902 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140924 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141007 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5636660 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |