JP4314863B2 - Electronic apparatus and image processing method - Google Patents

Electronic apparatus and image processing method Download PDF

Info

Publication number
JP4314863B2
JP4314863B2 JP2003100410A JP2003100410A JP4314863B2 JP 4314863 B2 JP4314863 B2 JP 4314863B2 JP 2003100410 A JP2003100410 A JP 2003100410A JP 2003100410 A JP2003100410 A JP 2003100410A JP 4314863 B2 JP4314863 B2 JP 4314863B2
Authority
JP
Japan
Prior art keywords
image
area
shooting
frame
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003100410A
Other languages
Japanese (ja)
Other versions
JP2004312162A (en
Inventor
公夫 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003100410A priority Critical patent/JP4314863B2/en
Publication of JP2004312162A publication Critical patent/JP2004312162A/en
Application granted granted Critical
Publication of JP4314863B2 publication Critical patent/JP4314863B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Light Sources And Details Of Projection-Printing Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えばデジタルカメラやカメラ付きの携帯電話などのカメラ機能を備えた電子機器に係り、特に、位置および大きさが決められた撮影領域を有するフレーム画像などを用いて合成画像を作成する場合に用いて好適な電子機器と、この電子機器に用いられる画像処理方法に関する。
【0002】
【従来の技術】
カメラ機能を備えた電子機器として、例えばデジタルカメラやカメラ付き携帯電話などが知られている。この種の電子機器では、カメラによって撮影した画像を編集するための様々な機能を備えている。その1つに、フレーム機能と呼ばれるものがある。これは、「フレーム画像」と呼ばれる装飾用の画像を用い、カメラにて撮影した被写体の画像(写真)にそのフレーム画像を重ね合わせることで、フレーム付きの画像つまり合成画像を簡易に作成する機能である(例えば特許文献1参照)。
【0003】
フレーム画像には、装飾パターンの異なる様々な種類が多数類用意されており、それぞれに所定の位置に撮影画像を嵌め込むための領域が設けられている。この領域にカメラにて撮影した画像(写真)を嵌め込むことで、フレーム付きの画像が作成される。
【0004】
【特許文献1】
特開平10−274805号公報(段落番号[0002]参照)
【0005】
【発明が解決しようとする課題】
ところで、上述したようにフレーム画像と撮影画像を合成してフレーム付きの画像を作成する場合において、通常、カメラにて撮影した画像の上にフレーム画像を重ね合わている。しかしながら、フレーム画像はその種類によって領域の位置やサイズ、形状などが異なる。このため、撮影画像の上にフレーム画像を重ねた場合に、そのフレーム画像の領域部分に撮影画像の所望の部分(人物の顔など)が必ずしもくるとは限らず、フレーム画像と撮影画像の位置がずれてしまうことが多い。このような位置ずれを回避するためには、ユーザが予めフレーム画像の領域位置を意識して被写体を撮影するか、あるいは、撮影した画像の被写体位置に合ったフレーム画像を探すしかない。
【0006】
また、複数の領域を有するフレーム画像を使用する場合には、撮影時に数人の被写体が居合わせる必要があり、その位置合わせが非常に難しくなるなどの問題がある。
【0007】
そこで、本発明は、面倒な位置合わせなどを必要とせずに、撮影画像とは別に用意された画像を用いて、ユーザの意図する合成画像を簡単に作成することのできる電子機器及び画像処理方法を提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明の請求項1に係る電子機器は、カメラ機能を備えると共に、このカメラ機能の撮影対象を表示するための表示部を備えた電子機器において、位置および大きさが決められた第1の撮影領域が設定されたフレーム画像を前記表示部に表示した状態で、前記カメラ機能により新たな撮影画像を取得する撮影制御手段と、前記撮影制御手段により取得された撮影画像から、前記フレーム画像に設定された前記第1の撮影領域の位置と大きさに対応する第1の部分画像を切り出すとともに、この切り出された第1の部分画像を前記表示部に表示されている前記フレーム画像の前記第1の撮影領域に嵌め込んで合成する画像合成手段と、前記画像合成手段による前記合成が行われた後、前記第1の撮影領域とは位置または大きさが異なる第2の撮影領域が新たに指定された場合は、前記第1の撮影領域に嵌め込まれた前記第1の部分画像を前記第2の撮影領域に嵌め込み直して再合成する画像編集手段と、前記画像合成手段により合成された合成画像または前記画像編集手段により再合成された合成画像を保存する合成画像保存手段とを具備して構成される。
【0009】
また、本発明の請求項2は、前記合成画像保存手段は、前記画像合成手段による前記合成が行われた後に前記第2の撮影領域が新たに指定されなかった場合には、前記画像合成手段により合成された合成画像を保存し、前記画像合成手段による前記合成が行われた後に前記第2の撮影領域が新たに指定された場合には、前記画像合成手段により合成された合成画像に代えて前記画像編集手段により再合成された合成画像を保存することを特徴とする。
【0010】
また、本発明の請求項3は、前記フレーム画像は、前記第1の撮影領域の他に、前記第1の撮影領域とは位置の異なる第2の撮影領域を含む複数の撮影領域が設定されており、前記画像合成手段は、前記撮影制御手段により取得された撮影画像から、前記第1の撮影領域の位置と大きさに対応する第1の部分画像および前記第2の撮影領域の位置と大きさに対応する第1の部分画像を切り出すとともに、この切り出された第1の部分画像を前記第1の撮影領域に、第2の部分画像を前記第2の撮影領域に各々嵌め込んで合成し、前記画像編集手段は、前記画像合成手段による前記合成が行われた後、前記第1の撮影領域が移動元として指定されるとともに前記第2の撮影領域が移動先として新たに指定された場合は、前記第1の撮影領域に嵌め込まれた前記第1の部分画像を前記第2の撮影領域に嵌め込み直して再合成することを特徴とする。
【0011】
また、本発明の請求項4は、前記画像編集手段は、前記画像合成手段による前記合成が行われた後、前記第1の撮影領域と前記第2の撮影領域とが入れ換え対象として新たに指定された場合は、前記第1の撮影領域に嵌め込まれた前記第1の部分画像を前記第2の撮影領域に嵌め込み直すとともに、前記第2の撮影領域に嵌め込まれた前記第2の部分画像を前記第1の撮影領域に嵌め込み直して再合成することを特徴とする。
【0012】
また、本発明の請求項5は、前記フレーム画像に設定された複数の撮影領域に対して、移動元となる撮影領域と移動先となる撮影領域とを任意に指定する入れ換え手順が記述された変換手順データを記憶した変換手順記憶手段を更に備え、前記画像編集手段は、前記画像合成手段による前記合成が行われた後、前記変換手順記憶手段によって記憶された変換手順データに基づいて、移動元となる撮影領域と移動先となる撮影領域とを指定することを特徴とする。
【0013】
また、本発明の請求項6は、前記撮影領域の位置または大きさが異なる複数のフレーム画像を記憶するフレーム画像記憶手段を更に備え、前記撮影制御手段は、前記フレーム画像記憶手段に記憶されている複数のフレーム画像の中から任意に選択された第1のフレーム画像を、前記第1の撮影領域が設定されたフレーム画像として前記表示部に表示した状態で、前記カメラ機能により新たな撮影画像を取得し、前記画像編集手段は、前記画像合成手段による前記合成が行われた後、前記フレーム画像記憶手段に記憶されている複数のフレーム画像の中から前記表示部に既に表示されているフレーム画像とは異なる第2のフレーム画像が新たに選択された場合に、前記第1のフレーム画像の前記第1の撮影領域に嵌め込まれた前記第1の部分画像を、前記第2のフレーム画像の前記第2の撮影領域に嵌め込み直して再合成することを特徴とする。
【0014】
また、本発明の請求項7は、前記カメラ機能によって撮像して得られた撮影画像に対して任意の撮影領域を設定することで前記フレーム画像を生成するフレーム画像生成手段を更に備えたことを特徴とする。
【0015】
また、本発明の請求項8は、前記画像編集手段は、前記画像合成手段により合成された合成画像が前記表示部に表示された後に、ユーザによる撮影領域の変更指示があった場合に前記再合成を行うことを特徴とする。
【0016】
また、本発明の請求項9は、前記画像編集手段は、ユーザによる撮影領域の変更指示が繰り返されている間は、前記再合成を繰り返し複数回実行し、前記合成画像保存手段は、ユーザによる撮影領域の変更指示が終了した時点で前記画像編集手段により再合成されている合成画像を保存することを特徴とする。
【0017】
また、本発明の請求項10は、前記画像合成手段は、前記撮影制御手段により取得された第1の撮影画像から、前記第1の撮影領域の位置と大きさに対応する第1の部分画像を切り出すとともに、前記撮影制御手段により前記第1の撮影画像が撮像されたタイミングとは異なるタイミングで撮像された第2の撮影画像から、前記第2の撮影領域の位置と大きさに対応する第2の部分画像を切り出すことを特徴とする。
【0018】
また、本発明の請求項11は、前記画像合成手段は、前記撮影制御手段により複数のタイミングで取得された複数の撮影画像の各々から、前記第1の撮影領域の位置と大きさに対応する複数の部分画像を切り出し、前記フレーム画像を前記表示部に表示した状態で、前記画像合成手段により切り出された複数の部分画像の中から合成の対象となる部分画像を順次選択していくとともに、順次選択される部分画像を前記フレーム画像に設定された前記第1の撮影領域に順次嵌め込んで表示していく表示切替手段を更に備えたことを特徴とする。
【0019】
また、本発明の請求項12は、前記フレーム画像は、複数の撮影領域が設定されており、前記画像合成手段は、前記フレーム画像に設定された各撮影領域毎に、複数のタイミングで取得された複数の撮影画像から複数の部分画像を切り出し、前記表示切替手段は、前記フレーム画像を前記表示部に表示した状態で、前記フレーム画像に設定された各撮影領域毎に、前記画像合成手段により取得された複数の部分画像の中から合成の対象となる部分画像を順次選択していくとともに、順次選択される部分画像を各撮影領域に順次嵌め込んで表示していくことを特徴とする。
【0020】
また、本発明の請求項13は、前記画像合成手段は、前記各撮影領域毎に定められた所定のタイミングで前記部分画像の選択および切り換え表示を行うことを特徴とする。
【0021】
また、本発明の請求項14は、前記画像編集手段は、前記第1の撮影領域に嵌め込まれた第1の部分画像を前記第2の撮影領域の大きさに合わせて拡大または縮小してから前記第2の撮影領域に嵌め込んで再合成することを特徴とする。
【0022】
また、本発明の請求項15は、前記画像編集手段は、前記第1の撮影領域に嵌め込まれた第1の部分画像を回転させてから前記第2の撮影領域に嵌め込んで再合成することを特徴とする。
【0023】
また、本発明の請求項16は、前記画像編集手段は、前記第1の撮影領域に嵌め込まれた第1の部分画像に対して所定のエフェクト処理を施してから前記第2の撮影領域に嵌め込んで再合成することを特徴とする。
また、本発明の請求項17は、カメラ機能を備えると共に、このカメラ機能の撮影対象を表示するための表示部を備えた電子機器に用いられる画像処理方法であって、位置および大きさが決められた第1の撮影領域が設定されたフレーム画像を前記表示部に表示した状態で、前記カメラ機能により新たな撮影画像を取得する撮影制御ステップと、前記撮影制御ステップにより取得された撮影画像から、前記フレーム画像に設定された前記第1の撮影領域の位置と大きさに対応する第1の部分画像を切り出すとともに、この切り出された第1の部分画像を前記表示部に表示されている前記フレーム画像の前記第1の撮影領域に嵌め込んで合成する画像合成ステップと、前記画像合成ステップによる前記合成が行われた後、前記第1の撮影領域とは位置または大きさが異なる第2の撮影領域が新たに指定された場合は、前記第1の撮影領域に嵌め込まれた前記第1の部分画像を前記第2の撮影領域に嵌め込み直して再合成する画像編集ステップと、前記画像合成ステップにより合成された合成画像または前記画像編集ステップにより再合成された合成画像を保存する合成画像保存ステップと、を備えたことを特徴とする。
【0024】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を説明する。
【0025】
(第1の実施形態)
図1は本発明の電子機器としてデジタルカメラを例にした場合の外観構成を示す図であり、そのカメラ機器本体の裏面側の構成を示している。また、図2はこのデジタルカメラに用いられるフレーム画像の一例を示す図である。
【0026】
図1に示すデジタルカメラ11は、写真用の銀塩フィルムを使用せずに、CCD(電荷結合素子)などの撮像素子を用いて被写体を撮影し、その撮影画像をデジタル化して記録するカメラである。「デジタルスチルカメラ」などとも呼ばれ、静止画像だけでなく、動画像を同時に扱うことも可能である。
【0027】
また、このデジタルカメラ11では、図2に示すようなフレーム画像21を用いて、そのフレーム画像21の所定の位置に撮影画像を嵌め込むことでフレーム付きの画像(合成画像)を作成する機能を備えている。
【0028】
図1に示すように、デジタルカメラ11の機器本体の上部には、電源のON/OFFを切り換えるための電源ボタン12や、撮影タイミングを指示するためのシャッターボタン13などが設けられている。また、この電源ボタン12やシャッターボタン13とは別に、機器本体の裏面側に各種機能を指示するための操作ボタン群14、上下左右のカーソル移動方向を指示するためのカーソールキー15などが設けられている。操作ボタン群14には、各種操作ボタンとして、例えば次候補選択ボタン14a、決定ボタン14b、画像効果選択ボタン14cなどが設けられている。
【0029】
また、機器本体の裏面側には、例えばバックライト付きカラーLCD(Liquid Crystal Display)からなる表示部17と、撮影対象となる被写体を目視するための光学ファインダ18が設置されている。表示部17は、既に撮影済みの画像データを所定の形式で再生表示する。また、この表示部17は撮影時に電子ファインダとして機能する。電子ファインダとして機能している場合には、機器本体の正面に設けられた図示せぬレンズを通して写る被写体の画像がスルー画像として表示部17に表示される。また、その際にフレーム画像21に重ねてスルー画像を表示することも可能である。
【0030】
フレーム画像21は、ユーザが撮影画像に対して任意に付加する装飾用の画像である。図2に示すように、このフレーム画像21には、何らかの模様やキャラクタなどが描かれており、その中の所定の位置に複数(この例では2つ)の撮影領域22a、22bが設けられている。これらの撮影領域22a、22b…は透明または半透明であり、図1に示すように表示部17の画面上にフレーム画像21を表示した状態で、撮影領域22a、22bを通して被写体を確認することができるようになっている。
【0031】
このようなフレーム画像が複数種類用意されており、ユーザはその中から任意に選ぶことができる。第1の実施形態では、ユーザが選択したフレーム画像(第1の画像)の各領域に対して、別々のタイミングで撮影した画像(第2の画像)を嵌め込んで1つのフレーム付き画像(合成画像)を作成可能としている。各領域に対応した撮影画像は個別あるいは一括して保存あるいは印刷物として出力することが可能である。また、これらの撮影画像に対して、「画像効果」と呼ばれるエフェクト処理を施すこともできる。この「画像効果」としては、例えば「モノトーン」、「セピア」、「反転」、「ぼかし」などがある。
【0032】
図3はデジタルカメラ11の回路構成を示すブロック図である。
【0033】
このデジタルカメラ11には、マイクロプロセッサからなる制御部31が搭載されており、この制御部31の制御の下で、デジタルカメラ11に備えられた各種機能が実行される。デジタルカメラ11に備えられた各種機能としては、カメラとしての基本機能である静止画像または動画像の撮影機能や、フレーム付き画像の作成機能などがある。
【0034】
制御部31には、操作部32、表示部17、撮影部33が接続されていると共に、記憶部34、通信部35などが接続されている。
【0035】
操作部32は、データの入力や機能指示を行うためのもので、図1に示した電源ボタン12、シャッターボタン13、操作ボタン群14、カーソールキー15などを含む。表示部17は、図1に示したように機器本体の裏面に設置されており、表示モードの切換えにより既に撮影済みの画像データを表示したり、電子ファインダとして撮影対象となる被写体の画像を表示すると共に、フレーム画像などを表示する。
【0036】
撮影部33は、静止画像または動画像の撮影を行う部分であり、例えばレンズやCCD、光電変換器などから構成される。なお、この撮影部33の具体的な構成については本発明とは直接関係しないため、ここではその説明を省略するものとする。
【0037】
記憶部34は、例えばROM、RAMなどのメモリデバイスからなり、各種データを記憶している。ここでは、本発明を実現するためのプログラムを含む各種プログラムデータや、撮影部33によって撮影された画像データ(静止画/動画)、各種フレーム画像のデータ、これらのフレーム画像などを用いて作成された合成画像データ、別のフレーム画像あるいは同一のフレーム画像の各領域間における撮影画像の入れ替え時に参照される変換手順データ、合成画像データを構成する各画像に関する情報を管理した管理テーブルTBなどが記憶部34の各記憶領域34a〜34eにそれぞれ記憶されている。
【0038】
通信部35は、所定の通信プロトコルに従って外部端末との間でネットワークを介して通信処理を行う部分であり、例えば撮影画像やその撮影画像とフレーム画像との合成画像などを電子メールの形式で外部の端末に送信する場合などに用いられる。
【0039】
また、このデジタルカメラ11は、例えば二次電池などからなる電源部36を備える。この電源部36は、制御部31を含む各デバイスの動作に必要な電源を供給する。
【0040】
次に、このような構成のデジタルカメラ11にて実現されるフレーム付き画像(合成画像)の作成方法について詳しく説明する。
【0041】
なお、各実施形態において、各フローチャートで示される処理は、マイクロプロセッサである制御部31がプログラムを読み込むことによって実行される。このプログラムは記憶部34の記憶領域34aに予め記憶されていても良いし、磁気ディスク等の記録媒体によって提供されても良い。さらに、インターネット等の通信媒体を介して提供されるような形態であっても良い。また、以下では、説明を簡単にするため、カメラにて撮影される画像が静止画像(写真)である場合を想定して説明するが、動画像であっても適用可能である。
【0042】
図4は本発明の第1の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、既存のフレーム画像を用いて合成画像を作成する場合の処理手順が示されている。
【0043】
合成画像作成時において、制御部31は、まず、例えば図示せぬフレームメニュー上でユーザが選択したフレーム画像のデータを記憶部34の記憶領域34cから読み出して表示部17に表示する(ステップA11)。このときの様子を図5に示す。今、図5(a)に示すようなフレーム画像21が表示部17に表示されたものとする。
【0044】
フレーム画像21が表示されると、その中で現在選択されている撮影領域22aが例えば十字カーソルCLによって明示される(ステップA12)。また、現在選択されている撮影領域22aではスルー画像が表示され、それ以外の領域ではフレーム画像自体の表示、あるいは、フレーム画像とスルー画像が重ね合わされて半透過状態で表示される(ステップA13)。なお、スルー画像とは、撮影時に電子ファインダとして機能している表示部17に映し出される被写体の像のことであり、モニタ画像とも呼ばれる。
【0045】
この状態で、ユーザが操作ボタン群14の中の次候補選択ボタン14aを押下操作すると(ステップA14のYes)、フレーム画像21内の次の撮影領域22bに十字カーソルCLが移動し、現在の選択領域が変更される(ステップA15)。また、ユーザが操作ボタン群14の中の決定ボタン14bを押下操作すると(ステップA16のYes)、制御部31は現在選択されている撮影領域22aを確定した後、以下のような処理を実行する。
【0046】
すなわち、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップA17)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップA18)。そして、制御部31は撮影部33から得られる撮影画像のデータから当該フレーム画像21上で選択されていた撮影領域22aに対応した画像の切り出しを行う(ステップA19)。
【0047】
その際、画像効果選択ボタン14cの操作により「画像効果」機能が選択されていれば(ステップA20のYes)、制御部31は前記切り出された画像に対して「画像効果」と呼ばれるエフェクト処理を施す(ステップA21)。「画像効果」としては、「モノトーン」、「セピア」、「反転」、「ぼかし」などがあり、例えば「モノトーン」であれば当該画像のカラーデータを白黒データに変換するなど、それぞれの項目に対応した所定の処理が行われる。ユーザはこれらのうちの1つあるいは複数の項目を例えば図示せぬ画像効果メニューの中から選択する。
【0048】
次に、制御部31はフレーム画像21の前記選択されていた撮影領域22aに、その撮影領域22aに対応させて撮影画像から切り出した画像を嵌め込んで合成した後(ステップA22)、その合成後の画像データを表示部17に表示する(ステップA22)。この状態が図5(b)である。この例では、フレーム画像21の撮影領域22aに撮影画像から切り出した画像(写真)23aが嵌め込まれている。
【0049】
また、ユーザが続けて撮影を行う場合には(ステップA24のYes)、前記ステップA12からの処理が繰り返し実行される。すなわち、制御部31はフレーム画像21の中で次に選択された撮影領域に対し、別のタイミングで撮影された画像から切り出した画像を嵌め込んで合成し、その合成後の画像データを表示部17に表示する(ステップA12〜A22)。この状態が図5(c)である。この例では、フレーム画像21の撮影領域22bに新たな撮影画像から切り出された画像(写真)23bが嵌め込まれている。
【0050】
このようにして、フレーム画像の各撮影領域に別々のタイミングで撮影された画像が嵌め込まれて、1つの合成画像がフレーム付き画像として作成される。このフレーム付き画像のデータは、記憶部34内の所定の記憶領域34dに保存される。この場合、このフレーム付き画像を構成するフレーム画像とそのフレーム画像の各領域毎の撮影画像を一緒にして保存しても良いし、これらの画像を別々に保存することでも良い。また、合成元となったフレーム画像の種類、そのフレーム画像のどの領域にどの撮影画像を当て嵌めたのかなどを示す情報が当該フレーム付き画像データに関連付けて管理テーブルTBに保存される。
【0051】
このように、本発明の第1の実施形態によれば、予め用意された既存のフレーム画像を用いて、そのフレーム画像に設けられた複数の領域に対して、別々のタイミングで撮影を行いながら1つのフレーム付き画像(合成画像)を簡単に作成することができる。この場合、従来のように、撮影後の画像の上にフレーム画像を重ね合わせる方法では、そのフレーム画像の領域に対して撮影画像の意図する部分を嵌め込むことが難しく、位置ずれなどが生じ易かったが、本発明の方式では、フレーム画像の各領域を通して撮影された画像から当該領域に対応した画像を切り出して嵌め込んでいくので、たとえ撮影領域が小さくとも、また、どのような形状であっても、位置ずれのない見栄えの良いフレーム付き画像を得ることができる。
【0052】
また、フレーム画像の各領域についての撮影を行う際に、現に撮影を行おうとする領域のみにスルー画像を表示して、それ以外の領域にはフレーム画像を表示するようにしたことで、撮影を行う前に画像合成後の様子を知ることができるため、フレーム画像とのバランスや撮影領域の形状との適合性に優れた好適な画像を得ることができる。
【0053】
また、現に撮影を行おうとする領域以外の領域に、フレーム画像とスルー画像を重ね合わせた半透過状の画像を表示することで、撮影領域から撮影対象が外れてしまっている場合でも、この撮影対象を探して撮影領域に合わせるようにすることが簡単になり、例えば、動きの速い被写体に対してもシャッターチャンスを逃すことなく好適な画像を得ることができる。
【0054】
さらに、複数の領域を有するフレーム画像を用いる場合に、複数の被写体がその場合に居合わせる必要はなく、これらの領域毎に別々のタイミングで撮影を行って最終的に1つのフレーム付き画像(合成画像)を簡単に作成することができる。
【0055】
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
【0056】
前記第1の実施形態では、予め用意された既存のフレーム画像を用いる場合を想定して説明したが、第2の実施形態では、画像合成用にユーザが事前に撮影した背景画像をオリジナルのフレーム画像として用い、そのフレーム画像に撮影画像を合成する場合である。
【0057】
なお、基本的な装置構成は前記第1の実施形態(図1)と同様であるため、ここでは第2の実施形態としての処理動作について、フローチャートと具体例を参照して説明する。
【0058】
図6は本発明の第2の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、背景画像をオリジナルのフレーム画像として用いて合成画像を作成する場合の処理手順が示されている。
【0059】
撮影時において、デジタルカメラ11の機器本体の裏面に設置された表示部1は電子ファインダとして機能しており、図示せぬレンズを通して写っている被写体の像が表示部17の画面上にスルー画像として表示されている(ステップB11)。
【0060】
ここで、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップB12)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップB13)。このときの撮影処理によって得られた画像データは、背景画像として表示部17に表示される(ステップB14)。このときの様子を図7に示す。今、図7(a)に示すような背景画像41が表示部17に表示されたものとする。
【0061】
背景画像41の表示後、ユーザによる領域指定操作があると(ステップB15のYes)、制御部31はその領域指定操作に従って当該背景画像41に対して任意形状の合成用撮影領域を設定する(ステップB16)。この状態が図7(b)である。なお、この例では2つの撮影領域42a、42bが設定されているが、本処理ではこれらの撮影領域をユーザの指示に従って1ずつ設定していくものとし、まずは、背景画像41に対し、ある1つの撮影領域42aが設定されたものとして説明する。
【0062】
また、このときの領域指定操作としては、例えばユーザが背景画像41の任意の位置をカーソル等により指定した後、その指定位置に予め用意された各種形状の領域パーツのうちの1つ(図7(b)の例では円形状の領域パーツ)を割り当てるなどである。また、別の方法として、例えば表示部17の表示画面がタブレットなどによりペン入力操作可能な構造であるとすれば、ユーザが図示せぬペンを用いて背景画像41の所望の位置に任意形状の領域を描くことでも良い。
【0063】
背景画像41上に撮影領域42aが設定されると、その撮影領域42aにスルー画像が表示され、同領域42a以外の領域に背景画像41が表示される(ステップB17)。この場合、背景画像の表示とスルー画像の表示を切り換えられるようにしても良い。また、背景画像全体を半透過表示して、その後ろのスルー画像を視認可能に表示することでも良い。さらに、どちらの画像を半透過表示するのかをボタン等の操作により切り換えられるようにしても良い。
【0064】
この状態で、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップB18)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップB19)。撮影後、制御部31は撮影部33から得られる撮影画像のデータから当該背景画像41の撮影領域42aに対応した画像の切り出しを行う(ステップB20)。
【0065】
また、このときに、前記第1の実施形態と同様、ユーザの指示に従って前記切り出された画像に対して「画像効果」と呼ばれるエフェクト処理を施すようにしても良い。
【0066】
次に、制御部31は背景画像41の前記撮影領域42aに撮影画像から切り出した画像を嵌め込んで合成した後(ステップB21)、その合成後の画像データを表示部17に表示する(ステップB22)。
【0067】
また、ユーザが続けて撮影を行う場合には(ステップB22のYes)、前記ステップB15からの処理が繰り返し実行される。すなわち、制御部31は次に指定された撮影領域に対し、別のタイミングで撮影された画像から切り出した画像を嵌め込んで合成し、その合成後の画像データを表示部17に表示する(ステップB15〜B22)。この状態が図7(c)である。この例では、背景画像41上に撮影領域42aとは別の撮影領域42bが設定され、そこに画像43aとは別のタイミングで撮影された画像42bが嵌め込まれている。
【0068】
このようにして、背景画像の各撮影領域に別々のタイミングで撮影された画像が嵌め込まれて、1つの合成画像がフレーム付き画像として作成される。このフレーム付き画像のデータは、記憶部34の所定の記憶領域34dに保存される。この場合、前記第1の実施形態と同様に、このフレーム付き画像を構成するフレーム画像とそのフレーム画像の各領域毎の撮影画像を一緒にして保存しても良いし、これらの画像を別々に保存することでも良い。また、合成元となった背景画像の種類、その背景画像のどの領域にどの撮影画像を当て嵌めたのかなどを示す情報が当該フレーム付き画像データに関連付けて管理テーブルTBに保存される。
【0069】
このように、本発明の第2の実施形態によれば、ユーザが自分で撮影した画像(背景画像)に任意形状の合成用撮影領域を複数指定することで、自分だけのオリジナルのフレーム画像を作成することができる。そして、そのオリジナルのフレーム画像と撮影画像とを重ね合わせて1つのフレーム付き画像(合成画像)を簡単に作成することができる。この場合、前記第1の実施形態と同様に、オリジナルのフレーム画像の各領域を通して撮影された画像から当該領域に対応した画像を切り出して嵌め込んでいくので、たとえ撮影領域が小さくとも、また、どのような形状であっても、位置ずれのない見栄えの良いフレーム付き画像(合成画像)を得ることができる。
【0070】
さらに、予め定められたフレームを用いて撮影をする場合、例えば撮影用領域が何箇所もあるような場合は、それらの各撮影領域の全てに対して撮影を行ってはじめて写真全体が完成するということになるが、本発明の第2の実施形態のように、ユーザが自分で撮影した画像(背景画像)に任意形状の合成用撮影領域を指定しながら撮影を行っていくことにより、必要に応じて逐次撮影領域を指定しながら、徐々にフレーム撮影領域を増やしていくという使い方が可能となり、また、その途中においても、写真が未完成ということなく各時点で一つ一つの写真として独立完成したものとして保存等しておくことができる。
【0071】
また、このことから、当初は例えば4ヶ所に撮影領域を指定しようと考えていたが、撮影を進めていくに従って3ヶ所の方が好ましい写真であることが判明したような場合でも、その時点で撮影を止めて、最も好ましい状態の写真を完成版とすることができる。
【0072】
さらに、本発明の第2の実施形態によれば、ユーザが任意形状の合成用撮影領域を指定しながら撮影を行うことで、背景画像にあわせて背景画像に相応しいフレームの形状や大きさを指定して撮影を行うことが可能になる。また、一方では、フレーム撮影領域に現に撮影しようとする撮影対象、すなわち、フレーム部分に嵌め込む人物の顔などの特徴や大きさ、被写体との距離その他のさまざまな撮影時の要因に応じて、最も被写体にふさわしいフレームの形状・大きさを指定して撮影することができるため、好適な写真を簡単に得ることができる。
【0073】
また、フレーム画像の各領域についての撮影を行う際に、現に撮影を行おうとする領域のみにスルー画像を表示してそれ以外の領域にはフレーム画像を表示するようにしているため、撮影を行う前に画像合成後の様子を知ることができるため、好適なフレーム形状・大きさの設定が簡単に行え、フレーム画像とのバランスや撮影領域の形状との適合性に優れた好適な画像を得ることができる。
【0074】
また、現に撮影を行おうとする領域以外の領域に、フレーム画像とスルー画像を重ね合わせた半透過状の画像を表示することで、撮影領域から撮影対象が外れてしまっている場合でも、この撮影対象を探して撮影領域に合わせるようにすることが簡単になり、例えば、動きの速い被写体に対してもシャッターチャンスを逃すことなく好適な画像を得ることができる。
【0075】
さらに、このオリジナルのフレーム画像に対して複数の領域が設定されている場合であっても、それらの領域に合わせて複数の被写体がその場合に居合わせる必要はなく、別々のタイミングで撮影を行って最終的に1つのフレーム付き画像(合成画像)を簡単に作成することができる。
【0076】
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
【0077】
第3の実施形態では、既存のフレーム画像を対象として、そのフレーム画像の各領域毎の画像データを別のフレーム画像へ入れ替えたり(図9参照)、同一のフレーム画像の各撮影領域間で画像データの入れ替えを可能とするものである(図11参照)。
【0078】
なお、基本的な装置構成は前記第1の実施形態(図1)と同様であるため、ここでは第3の実施形態としての処理動作について、フローチャートや具体例を参照しながら説明する。
【0079】
(他のフレーム画像へ撮影画像を入れ替える場合)
図8は本発明の第3の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、別のフレーム画像へ撮影画像を入れ替える場合の処理手順が示されている。
【0080】
所定の操作によりデジタルカメラ11の画像編集モードが設定された場合において、制御部31は、まず、その編集対象となる撮影済みの画像データとこの画像データに適用されるフレーム画像の読み込みを行う(ステップC11)。撮影済みの画像データとフレーム画像はそれぞれ記憶部34の記憶領域34b、34cに記憶されている。なお、このときに読み込んだフレーム画像のことを便宜的に「フレーム画像A」と呼び、この「フレーム画像A」の各撮影領域に嵌め込む画像データを「撮影済み部分画像」あるいは単に「部分画像」と呼ぶ。
【0081】
続いて、制御部31は、前記「フレーム画像A」以外の他のフレーム画像の候補を記憶部34の記憶領域34cから読み込む(ステップC12)。
【0082】
ここで、制御部31は、初期設定として、選択フレームを「フレーム画像A」に設定し(ステップC13)、その選択フレームの画像と撮影済み部分画像とを合成して表示部17に表示する(ステップC14)。この様子を図9に示す。今、図9(a)に示すように、フレーム画像51とそのフレーム画像51の各撮影領域52a〜52cに撮影済みの部分画像a、b、cを嵌め込んで1つのフレーム付き画像を表示したものとする。
【0083】
制御部31は、前記記憶部34の記憶領域34cから読み込んだフレーム画像の候補を例えばサムネイル形式で表示し、その中の1つをユーザに選択させる(ステップC15)。いずれかのフレーム画像の候補が選択されると(ステップC16)、制御部31は現在の選択フレーム(「フレーム画像A」)から新たに選択されたフレーム画像への変換手順データを記憶部34の記憶領域34eから読み出す(ステップC17)。
【0084】
この変換手順データは、既存のフレーム画像を対象として、各領域間で画像を入れ替える場合の変換手順が記述されたデータである。具体的に説明すると、例えばフレーム画像Aの領域a1、a2の各画像をフレーム画像Bの領域b1、b2に移動させる場合には、以下のような変換手順が記述されている。
【0085】
領域a1→領域b1:「10%拡大、20度時計周りに回転」
領域a2→領域b2:「20%拡大、30度時計周りに回転」
逆にフレーム画像Bの領域b1、b2の各画像をフレーム画像Aの領域a1、a2に移動させる場合には、以下のような変換手順が記述されている。
【0086】
領域b1→領域a1:「10%縮小、20度反時計周りに回転」
領域b2→領域a2:「20%縮小、30度反時計周りに回転」
なお、同一のフレーム画像の各領域に対しても同様であり、これらの領域間で画像を入れ替える場合の変換手順データが予め記憶部34の記憶領域34eに記憶されている。
【0087】
制御部31は、現在の選択フレームから新たに選択されたフレーム画像への領域間の画像移動に必要な変換手順データを記憶部34の記憶領域34eから読み出すと、その変換手順データに基づいて現在の選択フレームの各撮影領域毎に変換処理を行う(ステップC18)。詳しくは、現在の選択フレーム(「フレーム画像A」)の各撮影領域を通して撮影された部分画像をそれぞれの移動先(新たに選択されたフレーム画像)の領域のサイズや角度などに合わせて変換する。
【0088】
このようにして移動先の領域に合わせて部分画像を変換すると、制御部31は選択フレームを前記ステップC16で選択されたフレーム画像として(ステップC19)、その選択フレームの画像と前記変換後の部分画像とを合成して表示部17に表示する(ステップC20)。この状態が図9(b)である。
【0089】
図9(b)において、図中の53はユーザが移動先として選択したフレーム画像であり、そこには撮影領域54a〜54cが設けられている。これらの撮影領域54a〜54cの中にフレーム画像51の各撮影領域52a〜52cの部分画像a、b、cが移動して1つの新たなフレーム付き画像が再表示されることになる。
【0090】
この場合、移動元と移動先で領域のサイズや角度などが異なれば、移動先に合わせた部分画像の変換処理が自動的に行われる。また、部分画像aは撮影領域52a→撮影領域54a、部分画像bは撮影領域52b→撮影領域54b、部分画像cは撮影領域52c→撮影領域54cといったように、各撮影領域毎の部分画像の相対的な位置関係(この例では左から順にa、b、cとなる)は移動元と移動先で同じになる。なお、後述する図10の処理を用いれば、これらの部分画像の位置を入れ替えることも可能である。
【0091】
このようにして新たなフレーム付き画像が表示された後、さらにフレーム画像を変更する場合には(ステップC21のYes)、ステップC15の処理に戻って前記同様の処理が実行される。また、フレーム画像の変更を終了する場合には(ステップC21のNo)、その時点で作成されたフレーム付き画像のデータが記憶部34の記憶領域34dに保存される(ステップC22)。
【0092】
(同一フレーム画像内で撮影画像を入れ替える場合)
図10は本発明の第3の実施形態に係るデジタルカメラ11の別の処理動作を示すフローチャートであり、同一のフレーム画像内で撮影画像を入れ替える場合の処理手順が示されている。
【0093】
所定の操作によりデジタルカメラ11の画像編集モードが設定された場合において、制御部31は、まず、その編集対象となる撮影済みの画像データとこの画像データに適用されるフレーム画像の読み込みを行う(ステップD11)。撮影済みの画像データとフレーム画像はそれぞれ記憶部34の記憶領域34b、34cに記憶されている。なお、このとき読み込んだフレーム画像の各撮影領域に嵌め込む画像データのことを「撮影済み部分画像」あるいは単に「部分画像」と呼ぶ。
【0094】
続いて、制御部31はこのフレーム画像と撮影済み部分画像とを合成して表示部17に表示する(ステップD12)。この様子を図11に示す。今、図11(a)に示すように、フレーム画像51とそのフレーム画像51の各撮影領域52a〜52cに撮影済みの部分画像a、b、cを嵌め込んで1つのフレーム付き画像を表示したものとする。
【0095】
この状態で、ユーザにより入れ替え対象となる2つの部分画像が選択されると(ステップD13,D14)、制御部31は、この2つの部分画像が嵌め込まれていた撮影領域を「部分領域A」と「部分領域B」として、以下のような処理を実行する。
【0096】
すなわち、制御部31は、まず、「部分領域A」→「部分領域B」の変換手順データを記憶部34の記憶領域34eから読み出すことにより(ステップD15)、その変換手順データに基づいて「部分領域A」の画像を移動先である「部分領域B」のサイズや角度などに合わせて変換する(ステップD16)。同様に、制御部31は、「部分領域B」→「部分領域A」の変換手順データを記憶部34の記憶領域34eから読み出すことにより(ステップD17)、その変換手順データに基づいて「部分領域B」の画像を移動先である「部分領域A」のサイズや角度などに合わせて変換する(ステップD18)。
【0097】
このようにして「部分領域A」の画像と「部分領域B」の画像を互いに相手の領域に合わせて変換すると、制御部31は「部分領域A」にB→A変換後の部分画像を嵌め込むように設定すると共に、「部分領域B」にA→B変換後の部分画像を嵌め込むように位置の入れ替えを設定することにより(ステップD19)、その入れ替え後のフレーム付き画像データを表示部17に表示する(ステップD20)。この状態が図11(b)である。
【0098】
図11(b)の例では、撮影領域52aの部分画像aと撮影領域52bの部分画像bとを入れ替えた状態が示されている。この場合、この場合、移動元と移動先で領域のサイズや角度などが異なれば、移動先に合わせた部分画像の変換処理が自動的に行われる。
【0099】
さらに画像の入れ替えを続ける場合には(ステップD21のYes)、前記ステップD13からの処理が繰り返される。このようにして、同じフレーム画像51の各撮影領域52a〜52cの部分画像a、b、cが自由に入れ替えて、新たなフレーム付き画像して作成することができる。
【0100】
また、画像の入れ替えを終了する場合には(ステップD21のNo)、その時点で作成されたフレーム付き画像のデータが記憶部34の記憶領域34dに保存される(ステップD22)。
【0101】
このように、本発明の第3の実施形態によれば、フレーム画像の各領域毎の画像データを別のフレーム画像あるいは同一のフレーム画像の各領域間で自由に入れ替えて新たなフレーム付き画像(合成画像)を簡単に作成することができる。したがって、同じ被写体の画像で様々なフレーム画像を用いてフレーム付き画像を作成する場合に、その都度、フレーム画像を入れ替えながら撮影を繰り返すなどの面倒に作業は不要となる。また、被写体の画像についても撮影済みのものを何度も使い回しできるため、メモリ容量が少なくて済むなどの利点がある。
【0102】
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。
【0103】
第4の実施形態では、前記第2の実施形態のようにユーザが撮影した背景画像をオリジナルのフレーム画像として用いる場合において、そのフレーム画像に設定した各領域の編集操作を可能とするものである。
【0104】
なお、基本的な装置構成は前記第1の実施形態(図1)と同様であるため、ここでは第4の実施形態としての処理動作について、フローチャートを参照しながら説明する。
【0105】
図12は本発明の第4の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、背景画像に設定された各領域を編集する場合の処理手順が示されている。
【0106】
所定の操作によりデジタルカメラ11の画像編集モードが設定された場合において、制御部31は、まず、その編集対象となる撮影済みの画像データとこの画像データに適用される背景画像の読み込みを行う(ステップE11)。撮影済みの画像データと背景画像はそれぞれ記憶部34の記憶領域34b、34cに記憶されている。背景画像とは、前記第2の実施形態で説明したように、既存のフレーム画像に代わってユーザが任意に撮影した画像データのことであり、複数の撮影領域を有する(図7参照)。この背景画像の各撮影領域に嵌め込む画像データを「撮影済み部分画像」あるいは単に「部分画像」と呼ぶ。
【0107】
続いて、制御部31はこの背景画像と撮影済み部分画像とを合成して表示部17に表示する(ステップE13)。この状態で、ユーザにより編集対象となる部分画像が選択されると、制御部31は、この選択された部分画像の領域を「部分領域A」として、ユーザの編集操作に従って以下のような処理を実行する(ステップE13)。
【0108】
前記編集操作としては、「拡大/縮小操作」、「回転操作」、「移動操作」があり、例えば表示部17の表示画面がタブレットなどによりペン入力操作可能な構造であるとすれば、ユーザが図示せぬペンを用いて所望の領域を拡大/縮小、回転、移動の操作を行うものとする。
【0109】
ここで、ユーザによる「拡大/縮小操作」があれば(ステップE14のYes)、制御部31は、現在の選択領域である「部分領域A」のサイズをユーザ操作に従って拡大あるいは縮小する(ステップE15)。また、ユーザによる「回転操作」があれば(ステップE16のYes)、制御部31は、現在の選択領域である「部分領域A」の角度をユーザ操作に従って傾ける(ステップE17)。また、ユーザによる「移動操作」があれば(ステップE18のYes)、制御部31は、現在の選択領域である「部分領域A」の位置をユーザ操作に従って移動する(ステップE19)。
【0110】
このようにして、「部分領域A」に対して拡大/縮小、回転、移動などの編集処理を施すと、制御部31は編集後の「部分領域A」に合わせて部分画像を変換することにより、その部分画像を背景画像に合成し(ステップE20)、その合成後の画像データを新たなフレーム付き画像として表示部17に再表示する(ステップE21)。なお、例えば領域の移動によって元の位置に表示しなくなった部分には、その部分に対応した背景画像のデータを読み出して表示するものとする。
【0111】
さらに編集を続ける場合には(ステップE22のYes)、ステップE13の処理に戻って前記同様の処理が実行される。また、編集を終了する場合には(ステップE22のNo)、その時点で作成されたフレーム付き画像データが記憶部34の記憶領域34dに保存される(ステップE23)。
【0112】
このように、本発明の第4の実施形態によれば、オリジナルのフレーム画像である背景画像を用いた場合において、その背景画像に設定された各領域をユーザの好みに合わせて自由に編集して新たなフレーム付き画像(合成画像)を簡単に作成することができる。
【0113】
(第5の実施形態)
次に、本発明の第5の実施形態について説明する。
【0114】
第5の実施形態では、前記第2の実施形態のようにユーザが撮影した背景画像をオリジナルのフレーム画像として用いる場合において、そのフレーム画像に嵌め込む画像を撮影する前に当該フレーム画像に設定した各領域の編集操作を可能とし、その編集状態をプレビューできるようにしたものである。
【0115】
なお、基本的な装置構成は前記第1の実施形態(図1)と同様であるため、ここでは第5の実施形態としての処理動作について、フローチャートや具体例を参照しながら説明する。
【0116】
図13は本発明の第5の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、背景画像に設定された各領域を撮影前に編集する場合の処理手順が示されている。
【0117】
撮影時において、デジタルカメラ11の機器本体の裏面に設置された表示部1は電子ファインダとして機能しており、図示せぬレンズを通して写っている被写体の像が表示部17の画面上にスルー画像として表示されている(ステップF11)。
【0118】
ここで、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップF12)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップF13)。このときの撮影処理によって得られた画像データは、背景画像として表示部17に表示される(ステップF14)。このときの様子を図14に示す。今、図14(a)に示すような背景画像61が表示部17に表示されたものとする。なお、図14(a)、(b)、(c)において、左側が表示部17上に表示された背景画像61、右側が現在の撮影対象であるスルー画像62を示している。
【0119】
背景画像61の表示後、ユーザによる領域指定操作があると(ステップF15のYes)、制御部31はその領域指定操作に従って背景画像61に対して任意形状の合成用撮影領域を設定する(ステップF16)。この撮影領域を「部分領域A」とし、図14(a)に示すような位置に設定されたものとする。なお、このときの領域指定操作としては、例えばユーザが背景画像41の任意の位置をカーソル等により指定した後、その指定位置に予め用意された各種形状の領域パーツのうちの1つ(図14(a)の例では円形状の領域パーツ)を割り当てるなどである。
【0120】
背景画像41上に撮影領域である「部分領域A」が設定されると、その「部分領域A」にスルー画像62が表示され、「部分領域A」以外の領域に背景画像61が表示される(ステップF17)。
【0121】
ここで、前記第2の実施形態では、この時点でユーザがシャッターボタン13を押して撮影を行うものとしたが、ここでは撮影前に「部分領域A」の編集操作を行うことができる。編集操作とは、前記第4の実施形態で説明したように「拡大/縮小操作」、「回転操作」、「移動操作」などであり、例えば表示部17の表示画面がタブレットなどによりペン入力操作可能な構造であるとすれば、ユーザが図示せぬペンを用いて所望の領域を拡大/縮小、回転、移動の操作を行うものとする。
【0122】
ユーザによる「拡大/縮小操作」があれば(ステップF18のYes)、制御部31は、現在の選択領域である「部分領域A」のサイズをユーザ操作に従って拡大あるいは縮小する(ステップF19)。また、ユーザによる「回転操作」があれば(ステップF20のYes)、制御部31は、現在の選択領域である「部分領域A」の角度をユーザ操作に従って傾ける(ステップF21)。ユーザによる「移動操作」があれば(ステップF22のYes)、制御部31は、現在の選択領域である「部分領域A」の位置をユーザ操作に従って移動する(ステップF23)。
【0123】
図14(b)の例はファインダを移動させて「部分領域A」の画像を変更した状態を示しており、図14(c)の例は「部分領域A」を移動して横方向に拡大した状態を示している。
【0124】
このようにして、「部分領域A」の画像に対して拡大/縮小、回転、移動などの編集処理を施すと、制御部31は編集後の「部分領域A」のスルー画像を背景画像に合成して(ステップF24)、その合成後の画像データを表示部17に表示する(ステップF25)。なお、例えば画像の移動等によって元の位置に新たな表示を必要とする場合にはそこに背景画像を読み出して表示するものとする(図14(c)の符号61a参照)。
【0125】
このような状態で、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップF26)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップF27)。
【0126】
このようにして、背景画像の中で事前に編集された各領域毎に別々のタイミングで撮影を行うことで、1つのフレーム付き画像が作成される。このフレーム付き画像のデータは、記憶部34の所定の記憶領域34dに保存される。この場合、前記第1の実施形態と同様に、このフレーム付き画像を構成するフレーム画像とそのフレーム画像の各領域毎の撮影画像を一緒にして保存しても良いし、これらの画像を別々に保存することでも良い。また、合成元となった背景画像の種類、その背景画像のどの領域にどの撮影画像を当て嵌めたのかなどを示す情報が当該フレーム付き画像データに関連付けて管理テーブルTBに保存される。
【0127】
このように、本発明の第5の実施形態によれば、オリジナルのフレーム画像として用いる背景画像の各領域をユーザ操作により任意に編集でき、その編集状態をプレビューとして画面上で確認しながら撮影を行うことで、ユーザの意図とするフレーム付き画像(合成画像)を簡単に作成することができる。
【0128】
(第6の実施形態)
次に、本発明の第6の実施形態について説明する。
【0129】
第6の実施形態では、フレーム画像の各領域に対して複数の画像(写真)を割り当てて保存しておくようにしたものである。これは、例えば図16に示すように、フレーム画像71に複数の撮影領域72a〜72cがある場合に、撮影領域72aに対してa1,a2,a3、撮影領域72bに対してb1,b2,b3,b4、撮影領域72cに対してc1,c2といったように、各領域に対して複数の画像を割り当てて保存するものである。
【0130】
以下に、図15を参照して具体的な処理動作について説明する。なお、基本的な装置構成は前記第1の実施形態(図1)と同様である。
【0131】
図15は本発明の第6の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、フレーム画像の各撮影領域に複数の画像を割り当てて保存する場合の処理手順が示されている。なお、ここで用いられるフレーム画像は、前記第1の実施形態で説明したような既存のフレーム画像であっても良いし、前記第2の実施形態で説明したようなオリジナルのフレーム画像(背景画像)であっても良い。ここでは、既存のフレーム画像を用いた場合を想定して説明する。
【0132】
フレーム付き画像作成時において、ユーザにより既存のフレーム画像が選択されると(ステップG11)、制御部31はその選択されたフレーム画像を記憶部34の記憶領域34cから読み出して表示部17に表示する(ステップG12)。このフレーム画像には、予め複数の撮影領域が設けられており、その中の1つが表示部17の表示画面上でカーソル等により指定されると(ステップG13)、制御部31はその指定された撮影領域を「部分領域A」として、その「部分領域A」に既に保存されている画像の数NAを取得する(ステップG14)。
【0133】
この場合、当該フレーム画像を用いたフレーム付き画像の作成が始めてであれば、NA=0であるが、既に当該フレーム画像を用いたフレーム付き画像の作成がなされていれば、NA>1である。このNAの値は記憶部34の記憶領域34fに設けられた管理テーブルTBに当該フレーム画像に対応させて保持されている。
【0134】
ここで、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップG15)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップG16)。この撮影により、「部分領域A」に対応した画像が得られるが、その際に「部分領域A」に対して既に保存されている画像が存在すれば、制御部31はその画像を残したままで、今回新たに撮影された画像を「NA+1」番目の画像として所定の領域に保存する(ステップG17)。例えば、図16の例で、フレーム画像71の撮影領域72aに対して画像a1が既に保存されていれば、そこに画像a2が追加保存されることになる。
【0135】
また、このときに所定の操作により撮影画像の対応付け指示があると(ステップG18のYes)、制御部31はユーザの指示に従って「部分領域A」以外の他の領域に保存されている画像を選択し(ステップG19)、今回得られた撮影画像をその選択画像に対応付けておく(ステップG20)。これは、前記管理テーブルTBに今回得られた撮影画像と前記選択画像とをリンクさせておくための特定の情報をセットしておくことで実現できる。
【0136】
さらに撮影を続ける場合には(ステップG21のYes)、ステップG13に戻って前記同様の処理が繰り返される。撮影を続けない場合には(ステップG21のNo)、ここでの処理が終了する。
【0137】
このように、本発明の第6の実施形態によれば、フレーム画像の各撮影領域に対して複数の画像を割り当てて保存することができる。したがって、例えば同じ絵柄のフレーム画像に対し、被写体の画像を入れ替えながら複数枚のフレーム付き画像を作成するような場合に、1枚のフレーム画像だけで対応することができ、メモリ容量を節約することができる。
【0138】
また、このフレーム画像を用いて撮影した画像を同じフレーム画像の他の領域の画像と対応付けておくことで、図16に示すように、例えば「a1−b1−c1」のグループ、「a2−b2−c2」のグループ…といったように、同じフレーム画像の各画像をグループ分けすることができ、そのグループ単位でフレーム付き画像を簡単に作成することができる。
【0139】
(第7の実施形態)
次に、本発明の第7の実施形態について説明する。
【0140】
第7の実施形態では、前記第6の実施形態のようにフレーム画像の各撮影領域に対して複数の画像(写真)を割り当てて保存しておく場合において、これらの画像を自動あるいは手動操作によりスライドショーのように切り換えて再生表示するようにしたものである。
【0141】
具体的に説明すると、例えば図19に示すように、フレーム画像71の撮影領域72aに対してa1,a2,a3、撮影領域72bに対してb1,b2,b3,b4、撮影領域72cに対してc1,c2といったように、各領域に対して複数の画像を割り当てて保存されているものとする。ここで、自動表示を指示すると、これらの画像が撮影領域72aではa1→a2→a3→a1…、撮影領域72bではb1→b2→b3→b4→b1…、撮影領域72cではc1→c2→c1…といったように、所定のタイミングで自動的に切り換えられて再生表示される。この場合、各撮影領域に対して再生速度を任意に設定したり、特定の撮影領域のみ画像を固定しておくことも可能である。また、手動操作による表示では、これがユーザによる指定操作に従って実行される。
【0142】
以下に、図17および図18を参照して具体的な処理動作について説明する。なお、基本的な装置構成は前記第1の実施形態(図1)と同様である。
【0143】
図17および図18は本発明の第7の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、フレーム画像の各撮影領域に割り当てられた複数の画像を再生表示する場合の処理手順が示されている。なお、ここで用いられるフレーム画像は、前記第1の実施形態で説明したような既存のフレーム画像であっても良いし、前記第2の実施形態で説明したようなオリジナルのフレーム画像(背景画像)であっても良い。ここでは、既存のフレーム画像を用いた場合を想定して説明する。
【0144】
今、前記第6の実施形態で説明したような方法によって各撮影領域に複数の画像が割り当てられたフレーム画像が表示部17に表示されたとする(ステップH11)。ここで、所定の操作により自動再生が指示されると(ステップH12のYes)、以下のような自動表示処理が実行される。
【0145】
すなわち、制御部31は、まず、そのフレーム画像の各撮影領域毎に設けられた図示せぬタイマTmA,TmB…を初期化すると共に、例えばTmAx=100,TmBx=200…といったように、それぞれの撮影領域に対する切り換えタイミング値を設定する(ステップH13)。
【0146】
続いて、制御部31は、フレーム画像の各撮影領域に表示する画像の番号を示すPicNumA,PicNumB…を初期化した後(ステップH14)、これらの画像番号PicNumで示される画像を記憶部34の記憶領域34bから読み出して各撮影領域内に表示する(ステップH15)。つまり、図19の例であれば、まず、フレーム画像71の撮影領域72aに対して画像a1、撮影領域72bに対して画像b1、撮影領域72cに対して画像c1を表示することになる。
【0147】
ここで、制御部31は各撮影領域のタイマTmA,TmB…を内部クロックに同期させて+1ずつインクリメントしながら(ステップH16)、そのタイマ値が繰り替えタイミング値に達した否かを各撮影領域毎に監視する(ステップH17)。そして、タイマ値が繰り替えタイミング値に達したものがあれば(ステップH17のYes)、制御部31はその時点で該当する撮影領域のタイマ値を0に戻し、その撮影領域に対する画像番号PicNumの値を+1更新する(ステップH18)。ただし、PicNumの値が最大値の場合には初期値の“1”に戻すものとする。
【0148】
このようにして、制御部31は繰り替えタイミング値に達した撮影領域の画像番号PicNumを更新し、そのPicNumで示される画像を当該撮影領域内に表示する(ステップH19)。以後同様にして、制御部31は各タイマ値を監視しながら、各撮影領域の画像をそれぞれのタイミングで切り換ながら表示する(ステップH20のNo)。これにより、図19に示すように、フレーム画像72の撮影領域72aではa1→a2→a3→a1…、撮影領域72bではb1→b2→b3→b4→b1…、撮影領域72cではc1→c2→c1…といったように、各画像がそれぞれのタイミングで切り換え表示されることになる。また、所定の操作により終了指示があれば(ステップH20のYes)、ここでの処理を終了する。
【0149】
一方、前記ステップH12において、自動再生が指示されなかった場合には、以下のような手動操作による表示処理が実行される。
【0150】
すなわち、制御部31は、フレーム画像の各撮影領域に表示する画像の番号を示すPicNumA,PicNumB…を初期化した後(ステップH21)、これらの画像番号PicNumで示される画像を記憶部34の記憶領域34bから読み出して各撮影領域内に表示する(ステップH22)。つまり、図19の例であれば、まず、フレーム画像71の撮影領域72aに対して画像a1、撮影領域72bに対して画像b1、撮影領域72cに対して画像c1を表示することになる。
【0151】
ここで、ユーザによる領域指定入力があれば(ステップH23のYes)、制御部31はその指定された撮影領域を特定の表示形態(例えば枠の色の変更、反転表示、矢印やカーソルの表示など)で表示する(ステップH24)。そして、この状態でユーザによる画像変更の操作入力があれば(ステップH25のYes)、制御部31は当該撮影領域に対する画像番号PicNumの値を+1更新し(ステップH26)、そのPicNumで示される画像を当該撮影領域内に表示する(ステップH27)。ただし、PicNumの値が最大値の場合には初期値の“1”に戻して表示するものとする。
【0152】
以後同様にして、制御部31はユーザによる指定操作に従って各撮影領域の画像を切り換ながら表示する(ステップH28のNo)。これにより、図19に示すように、フレーム画像72の撮影領域72aではa1→a2→a3→a1…、撮影領域72bではb1→b2→b3→b4→b1…、撮影領域72cではc1→c2→c1…といったように、各画像の切り換え表示を手動操作により実現されることになる。また、所定の操作により終了指示があれば(ステップH28のYes)、ここでの処理を終了する。
【0153】
このように、本発明の第7の実施形態によれば、1つのフレーム画像を用いて、そのフレーム画像の各撮影領域に割り当てられた複数の画像をスライドショーのように所定の順で表示しながら確認することができる。
【0154】
なお、ここではフレーム画像の各撮影領域に割り当てられた複数の画像を順に表示する場合について説明したが、例えば前記第6の実施形態のように複数の画像をグループ単位で記憶しておく構成とすれば、そのグループ単位で自動あるいは手動操作により表示することが可能である。
【0155】
また、前記各実施形態では、フレーム画像に撮影画像を合成したフレーム付き画像を作成する場合を想定して説明したが、本発明はこれに限るものではなく、カメラにて撮影した画像を別の画像の所定の位置に嵌め込んで合成する場合であれば前記同様の手法を適用することができる。
【0156】
また、本発明はデジタルカメラ11に限らず、例えばカメラ付きの携帯電話やPDA(Personal Digital Assistant)など、カメラ機能を備えた電子機器であは、これらの全て機器に適用可能である。
【0157】
要するに、本発明は前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。更に、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、実施形態で示される全構成要件から幾つかの構成要件が削除されても、「発明が解決しようとする課題」で述べた効果が解決でき、「発明の効果」の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
【0158】
また、上述した各実施形態において記載した手法は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に適用したり、そのプログラム自体をネットワーク等の伝送媒体により伝送して各種装置に適用することも可能である。本装置を実現するコンピュータは、記録媒体に記録されたプログラムあるいは伝送媒体を介して提供されたプログラムを読み込み、このプログラムによって動作が制御されることにより、上述した処理を実行する。
【0159】
また、前述したCD−ROMやDVD−ROM等の記録媒体の他にも、例えば、Blu−ray Disc(R)やAOD(Advanced Optical Disc)などの青色レーザを用いた次世代光ディスク、赤色レーザを用いるHD−DVD9、青紫色レーザを用いるBlue Laser DVDなど、今後開発される種々の大容量記録媒体を用いて本発明を実施することが可能である。
【0160】
【発明の効果】
以上詳記したように本発明によれば、撮影領域が設定されたフレーム画像を表示した状態で、新たに撮像される撮影画像から撮影領域に対応した部分画像を切り出すとともに、表示されているフレーム画像の撮影領域に嵌め込んで合成し、この合成された合成画像を保存するようにしたので、フレーム画像の一部に他の画像を合成して合成画像を生成する場合に、ユーザが表示部を見ながら簡単な撮影操作を行うだけで容易に合成画像を生成することができ、更に、この合成画像が生成された後に、位置または大きさが異なる他の撮影領域が新たに指定された場合は、最初の撮影領域に嵌め込まれている部分画像を新たな撮影領域に嵌め込み直して再合成し、この再合成された合成画像を保存するようにしたので、最初の合成画像が生成された後に新たな撮影領域を指定するだけで、撮影および切り出し済みの部分画像を変更することなく、この部分画像を合成する撮影領域だけが変更された新たな合成画像を容易に生成することができる。
【図面の簡単な説明】
【図1】本発明の電子機器としてデジタルカメラを例にした場合の外観構成を示す図。
【図2】前記デジタルカメラに用いられるフレーム画像の一例を示す図。
【図3】前記デジタルカメラの回路構成を示すブロック図。
【図4】本発明の第1の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、既存のフレーム画像を用いて合成画像を作成する場合の処理手順を示すフローチャート。
【図5】前記図4に示す処理を具体的に説明するための図。
【図6】本発明の第2の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、背景画像をオリジナルのフレーム画像として用いて合成画像を作成する場合の処理手順を示すフローチャート。
【図7】前記図6に示す処理を具体的に説明するための図。
【図8】本発明の第3の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、別のフレーム画像へ撮影画像を入れ替える場合の処理手順を示すフローチャート。
【図9】前記図8に示す処理を具体的に説明するための図。
【図10】本発明の第3の実施形態に係るデジタルカメラの別の処理動作を示すフローチャートであり、同一のフレーム画像内で撮影画像を入れ替える場合の処理手順を示すフローチャート。
【図11】前記図10に示す処理を具体的に説明するための図。
【図12】本発明の第4の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、背景画像に設定された各領域を編集する場合の処理手順を示すフローチャート。
【図13】本発明の第5の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、背景画像に設定された各領域を撮影前に編集する場合の処理手順を示すフローチャート。
【図14】前記図13に示す処理を具体的に説明するための図。
【図15】本発明の第6の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、フレーム画像の各撮影領域に複数の画像を割り当てて保存する場合の処理手順を示す図。
【図16】前記図16に示す処理を具体的に説明するための図。
【図17】本発明の第7の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、フレーム画像の各撮影領域に割り当てられた複数の画像を再生表示する場合の処理手順を示すフローチャート。
【図18】本発明の第7の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、フレーム画像の各撮影領域に割り当てられた複数の画像を再生表示する場合の処理手順を示すフローチャート。
【図19】前記図18および図19に示す処理を具体的に説明するための図。
【符号の説明】
11…デジタルカメラ
12…電源ボタン
13…シャッターボタン
14…操作ボタン群
14a…次候補選択ボタン
14b…決定ボタン
14c…画像効果選択ボタン
15…カーソールキー
17…表示部
18…光学ファインダ
21…フレーム画像
22a,22b…撮影領域
23a,23b…画像(写真)
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an electronic apparatus having a camera function such as a digital camera or a mobile phone with a camera, for example.Shooting with a fixed position and sizeThe present invention relates to an electronic device suitable for use in creating a composite image using a frame image having a region and the like, and an image processing method used for the electronic device.
[0002]
[Prior art]
As an electronic device having a camera function, for example, a digital camera or a camera-equipped mobile phone is known. This type of electronic device has various functions for editing an image taken by a camera. One of them is called a frame function. This is a function that makes it easy to create a framed image, that is, a composite image, by using a decorative image called a “frame image” and overlaying the frame image on the subject image (photo) taken with the camera. (For example, see Patent Document 1).
[0003]
Many types of frame images with different decoration patterns are prepared, and regions for inserting captured images are provided at predetermined positions. By inserting an image (photograph) taken by the camera in this area, an image with a frame is created.
[0004]
[Patent Document 1]
JP-A-10-274805 (see paragraph [0002])
[0005]
[Problems to be solved by the invention]
By the way, as described above, when a frame image and a captured image are combined to create an image with a frame, the frame image is usually superimposed on the image captured by the camera. However, the position, size, shape, etc. of the region differ depending on the type of frame image. For this reason, when a frame image is superimposed on the captured image, the desired portion (such as a human face) of the captured image does not always come to the area of the frame image, and the position of the frame image and the captured image Often shifts. In order to avoid such a positional shift, the user has only to shoot a subject in advance with consideration of the region position of the frame image, or search for a frame image that matches the subject position of the photographed image.
[0006]
In addition, when using a frame image having a plurality of areas, it is necessary to have several subjects present at the time of photographing, and there is a problem that the alignment becomes very difficult.
[0007]
Therefore, the present invention provides an electronic device and an image processing method that can easily create a composite image intended by a user using an image prepared separately from a captured image without requiring troublesome alignment and the like. The purpose is to provide.
[0008]
[Means for Solving the Problems]
  An electronic apparatus according to claim 1 of the present invention includes a camera function and an electronic apparatus including a display unit for displaying a photographing target of the camera function.A shooting control means for acquiring a new shot image by the camera function in a state in which a frame image in which a first shooting area having a determined position and size is set is displayed on the display unit, and the shooting control means A first partial image corresponding to the position and size of the first shooting area set in the frame image is cut out from the acquired shot image, and the cut out first partial image is displayed in the display unit. An image composition unit that fits and synthesizes the frame image displayed on the first photographing area, and the first photographing area is a position or a size after the composition by the image composition unit is performed. When a second imaging region having a different size is newly designated, the image is re-synthesized by reinserting the first partial image inserted into the first imaging region into the second imaging region. Collecting means and, combined image storage means for storing the composite image resynthesized synthetically combined image or the image editing unit by the image synthesizing meansAnd is configured.
[0009]
  According to a second aspect of the present invention, the composite image storage means, when the second shooting area is not newly designated after the composition by the image composition means, the image composition means. When the second image-capturing area is newly designated after the composition by the image composition means is stored, the composite image synthesized by the image composition means is replaced. The composite image recombined by the image editing means is stored.
[0010]
  According to a third aspect of the present invention, the frame image includes a plurality of shooting areas including a second shooting area having a position different from the first shooting area in addition to the first shooting area. The image synthesizing means, from the captured image acquired by the imaging control means, the first partial image corresponding to the position and size of the first imaging area and the position of the second imaging area, A first partial image corresponding to the size is cut out, and the cut out first partial image is fitted into the first shooting area, and the second partial image is fitted into the second shooting area, respectively. The image editing means, after the composition by the image composition means, is performed, the first photographing area is designated as a movement source and the second photographing area is newly designated as a movement destination. Fit into the first imaging area. Said first partial images written, characterized in that recombining again fitted into the second imaging region.
[0011]
  According to a fourth aspect of the present invention, the image editing means newly designates the first photographing area and the second photographing area as a replacement target after the composition by the image composition means. If it is, the first partial image fitted in the first photographing region is re-fitted into the second photographing region, and the second partial image fitted in the second photographing region is It is characterized by re-synthesize | combining by reinserting in the said 1st imaging | photography area | region.
[0012]
  Further, claim 5 of the present invention describes a replacement procedure for arbitrarily designating a moving-source shooting area and a moving-destination shooting area for a plurality of shooting areas set in the frame image. Conversion procedure storage means for storing conversion procedure data is further provided, and the image editing means moves based on the conversion procedure data stored by the conversion procedure storage means after the composition by the image composition means. It is characterized by designating a source imaging region and a destination imaging region.
[0013]
  According to a sixth aspect of the present invention, the image processing apparatus further includes a frame image storage unit that stores a plurality of frame images having different positions or sizes of the shooting region, and the shooting control unit is stored in the frame image storage unit. In the state where a first frame image arbitrarily selected from a plurality of frame images is displayed on the display unit as a frame image in which the first imaging region is set, a new captured image is obtained by the camera function. The image editing unit obtains a frame already displayed on the display unit from among a plurality of frame images stored in the frame image storage unit after the combining by the image combining unit. When a second frame image different from the image is newly selected, the first partial image fitted in the first imaging region of the first frame image And wherein the recombining again fitted into the second imaging region of the second frame image.
[0014]
  Moreover, claim 7 of the present invention further comprises frame image generation means for generating the frame image by setting an arbitrary shooting area for the shot image obtained by shooting with the camera function. Features.
[0015]
  According to claim 8 of the present invention, the image editing unit re-executes when the user gives an instruction to change the shooting area after the synthesized image synthesized by the image synthesizing unit is displayed on the display unit. It is characterized by performing synthesis.
[0016]
  Further, according to a ninth aspect of the present invention, the image editing means repeatedly executes the recombination a plurality of times while the user has instructed to change the shooting area, and the composite image storage means is determined by the user. The composite image recombined by the image editing means is stored at the time when the instruction to change the photographing region is completed.
[0017]
  According to a tenth aspect of the present invention, the image synthesizing unit includes a first partial image corresponding to a position and a size of the first imaging region from the first captured image acquired by the imaging control unit. And a second image corresponding to the position and size of the second imaging region from the second captured image captured at a timing different from the timing at which the first captured image is captured by the imaging control means. The second partial image is cut out.
[0018]
  Further, according to an eleventh aspect of the present invention, the image composition means corresponds to the position and size of the first photographing area from each of a plurality of photographed images acquired at a plurality of timings by the photographing control means. In a state where a plurality of partial images are cut out and the frame image is displayed on the display unit, partial images to be combined are sequentially selected from among the plurality of partial images cut out by the image combining unit, The image processing apparatus further comprises display switching means for sequentially fitting and displaying the partial images to be sequentially selected in the first photographing area set in the frame image.
[0019]
  According to a twelfth aspect of the present invention, a plurality of shooting areas are set in the frame image, and the image synthesizing means is acquired at a plurality of timings for each shooting area set in the frame image. A plurality of partial images are cut out from the plurality of photographed images, and the display switching unit is configured to display the frame image on the display unit by the image synthesizing unit for each photographing region set in the frame image. A partial image to be combined is sequentially selected from a plurality of acquired partial images, and the sequentially selected partial images are sequentially inserted into each photographing area and displayed.
[0020]
  According to a thirteenth aspect of the present invention, the image synthesizing means performs selection and switching display of the partial images at a predetermined timing determined for each of the photographing regions.
[0021]
  According to a fourteenth aspect of the present invention, the image editing means enlarges or reduces the first partial image fitted in the first imaging area in accordance with the size of the second imaging area. It is characterized by being re-synthesized by fitting in the second imaging region.
[0022]
  According to a fifteenth aspect of the present invention, the image editing means rotates the first partial image fitted in the first photographing area and then re-synthesizes the image by fitting in the second photographing area. It is characterized by.
[0023]
  According to a sixteenth aspect of the present invention, the image editing means performs a predetermined effect process on the first partial image fitted in the first photographing area and then fits in the second photographing area. And re-synthesize.
  According to a seventeenth aspect of the present invention, there is provided an image processing method used in an electronic device having a camera function and a display unit for displaying a photographing target of the camera function, the position and size of which are determined. From the shooting control step of acquiring a new shot image by the camera function in a state where the frame image in which the first shooting area is set is displayed on the display unit, and the shot image acquired by the shooting control step The first partial image corresponding to the position and size of the first shooting area set in the frame image is cut out, and the cut out first partial image is displayed on the display unit. An image composition step for fitting and synthesizing the frame image in the first photographing area, and after the composition by the image composition step, the first photographing area When a second imaging area having a different position or size is newly designated, the first partial image fitted in the first imaging area is re-fitted into the second imaging area and recombined. An image editing step, and a composite image storage step of storing the composite image synthesized by the image synthesis step or the composite image recombined by the image editing step.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0025]
(First embodiment)
FIG. 1 is a diagram showing an external configuration when a digital camera is taken as an example of the electronic apparatus of the present invention, and shows a configuration on the back side of the camera apparatus main body. FIG. 2 is a view showing an example of a frame image used in the digital camera.
[0026]
A digital camera 11 shown in FIG. 1 is a camera that takes an image of an object using an image pickup device such as a CCD (charge coupled device) without using a silver salt film for photography, and digitizes and records the shot image. is there. It is also called a “digital still camera” and can handle not only still images but also moving images at the same time.
[0027]
In addition, the digital camera 11 has a function of creating a framed image (composite image) by using a frame image 21 as shown in FIG. 2 and inserting a photographed image at a predetermined position of the frame image 21. I have.
[0028]
As shown in FIG. 1, a power button 12 for switching power ON / OFF, a shutter button 13 for instructing photographing timing, and the like are provided on the upper part of the device body of the digital camera 11. In addition to the power button 12 and the shutter button 13, an operation button group 14 for instructing various functions on the back side of the apparatus main body, a cursor key 15 for instructing a cursor moving direction in the up / down / left / right directions, and the like are provided. ing. The operation button group 14 includes, for example, a next candidate selection button 14a, a determination button 14b, and an image effect selection button 14c as various operation buttons.
[0029]
Further, on the back side of the apparatus main body, for example, a display unit 17 composed of a backlit color LCD (Liquid Crystal Display) and an optical finder 18 for viewing a subject to be photographed are installed. The display unit 17 reproduces and displays already captured image data in a predetermined format. In addition, the display unit 17 functions as an electronic viewfinder during shooting. When functioning as an electronic viewfinder, an image of a subject taken through a lens (not shown) provided in front of the device main body is displayed on the display unit 17 as a through image. At that time, it is also possible to display a through image superimposed on the frame image 21.
[0030]
The frame image 21 is a decorative image that the user arbitrarily adds to the captured image. As shown in FIG. 2, this frame image 21 is drawn with some pattern or character, and a plurality of (two in this example) shooting areas 22a and 22b are provided at predetermined positions therein. Yes. These photographing regions 22a, 22b,... Are transparent or semi-transparent, and the subject can be confirmed through the photographing regions 22a, 22b in a state where the frame image 21 is displayed on the screen of the display unit 17 as shown in FIG. It can be done.
[0031]
A plurality of types of such frame images are prepared, and the user can select any of them. In the first embodiment, an image (second image) photographed at different timings is inserted into each region of a frame image (first image) selected by the user to form one framed image (composite). Image). The captured images corresponding to each area can be stored individually or collectively or output as printed matter. Also, an effect process called “image effect” can be applied to these captured images. Examples of the “image effect” include “monotone”, “sepia”, “inversion”, and “blur”.
[0032]
FIG. 3 is a block diagram showing a circuit configuration of the digital camera 11.
[0033]
The digital camera 11 is equipped with a control unit 31 including a microprocessor, and various functions provided in the digital camera 11 are executed under the control of the control unit 31. Various functions provided in the digital camera 11 include a still image or moving image shooting function, which is a basic function as a camera, and a framed image creation function.
[0034]
The control unit 31 is connected to the operation unit 32, the display unit 17, and the photographing unit 33, and is also connected to a storage unit 34, a communication unit 35, and the like.
[0035]
The operation unit 32 is for inputting data and instructing functions, and includes the power button 12, the shutter button 13, the operation button group 14, the cursor key 15, and the like shown in FIG. As shown in FIG. 1, the display unit 17 is installed on the back side of the apparatus main body, displays image data that has already been shot by switching display modes, or displays an image of a subject to be shot as an electronic viewfinder. In addition, a frame image or the like is displayed.
[0036]
The photographing unit 33 is a part for photographing a still image or a moving image, and includes, for example, a lens, a CCD, a photoelectric converter, and the like. Note that the specific configuration of the photographing unit 33 is not directly related to the present invention, and therefore the description thereof is omitted here.
[0037]
The storage unit 34 includes a memory device such as a ROM or a RAM, and stores various data. Here, it is created using various program data including a program for realizing the present invention, image data (still image / moving image) photographed by the photographing unit 33, various frame image data, and these frame images. Stored is a composite table data, conversion procedure data that is referred to when replacing captured images between different frame images or regions of the same frame image, a management table TB that manages information about each image constituting the composite image data, and the like. Each of the storage areas 34a to 34e of the unit 34 is stored.
[0038]
The communication unit 35 is a part that performs communication processing with an external terminal via a network according to a predetermined communication protocol. For example, a captured image or a composite image of the captured image and a frame image is externally transmitted in the form of an e-mail. It is used when transmitting to other terminals.
[0039]
Further, the digital camera 11 includes a power supply unit 36 made of, for example, a secondary battery. The power supply unit 36 supplies power necessary for the operation of each device including the control unit 31.
[0040]
Next, a method for creating a framed image (composite image) realized by the digital camera 11 having such a configuration will be described in detail.
[0041]
In each embodiment, the processing shown in each flowchart is executed by the control unit 31 that is a microprocessor reading a program. This program may be stored in advance in the storage area 34a of the storage unit 34, or may be provided by a recording medium such as a magnetic disk. Further, it may be provided via a communication medium such as the Internet. In addition, in the following, for the sake of simplicity, the description will be made assuming that the image captured by the camera is a still image (photograph), but the present invention can also be applied to a moving image.
[0042]
FIG. 4 is a flowchart showing a processing operation of the digital camera 11 according to the first embodiment of the present invention, and shows a processing procedure when a composite image is created using an existing frame image.
[0043]
When creating a composite image, the control unit 31 first reads out, for example, data of a frame image selected by a user on a frame menu (not shown) from the storage area 34c of the storage unit 34 and displays it on the display unit 17 (step A11). . The state at this time is shown in FIG. Assume that a frame image 21 as shown in FIG. 5A is displayed on the display unit 17.
[0044]
When the frame image 21 is displayed, the currently selected shooting area 22a is clearly indicated by, for example, the cross cursor CL (step A12). Further, a through image is displayed in the currently selected shooting area 22a, and in other areas, the frame image itself is displayed, or the frame image and the through image are superimposed and displayed in a semi-transparent state (step A13). . The through image is an image of a subject displayed on the display unit 17 functioning as an electronic viewfinder at the time of shooting, and is also called a monitor image.
[0045]
In this state, when the user depresses the next candidate selection button 14a in the operation button group 14 (Yes in Step A14), the cross cursor CL moves to the next shooting area 22b in the frame image 21, and the current selection is performed. The area is changed (step A15). When the user presses the enter button 14b in the operation button group 14 (Yes in step A16), the control unit 31 determines the currently selected shooting area 22a and then executes the following processing. .
[0046]
That is, the control unit 31 waits for the shutter button 13 to be pressed (step A17), and performs a shooting process by the shooting unit 33 at the timing when the shutter button 13 is pressed (step A18). And the control part 31 cuts out the image corresponding to the imaging | photography area | region 22a selected on the said frame image 21 from the data of the captured image obtained from the imaging | photography part 33 (step A19).
[0047]
At this time, if the “image effect” function is selected by operating the image effect selection button 14c (Yes in step A20), the control unit 31 performs an effect process called “image effect” on the cut image. (Step A21). “Image effect” includes “monotone”, “sepia”, “invert”, “blur”, etc. For example, if it is “monotone”, the color data of the image is converted into black and white data. Corresponding predetermined processing is performed. The user selects one or more of these items from, for example, an image effect menu (not shown).
[0048]
Next, the control unit 31 inserts and combines an image cut out from the captured image corresponding to the selected shooting area 22a of the frame image 21 (step A22), and then after the combining. Is displayed on the display unit 17 (step A22). This state is shown in FIG. In this example, an image (photograph) 23 a cut out from the captured image is fitted in the capturing area 22 a of the frame image 21.
[0049]
Further, when the user continues to shoot (Yes in Step A24), the processing from Step A12 is repeatedly executed. That is, the control unit 31 inserts and combines an image cut out from an image captured at another timing with respect to the next selected imaging region in the frame image 21, and displays the combined image data on the display unit. 17 (steps A12 to A22). This state is shown in FIG. In this example, an image (photograph) 23 b cut out from a new captured image is fitted in the imaging region 22 b of the frame image 21.
[0050]
In this manner, images captured at different timings are fitted into the respective imaging regions of the frame image, and one composite image is created as a framed image. This framed image data is stored in a predetermined storage area 34 d in the storage unit 34. In this case, the frame image constituting the framed image and the captured image for each area of the frame image may be stored together, or these images may be stored separately. In addition, information indicating the type of frame image that is the composition source and which captured image is applied to which area of the frame image is stored in the management table TB in association with the image data with the frame.
[0051]
As described above, according to the first embodiment of the present invention, an existing frame image prepared in advance is used to shoot a plurality of areas provided in the frame image at different timings. One framed image (composite image) can be easily created. In this case, according to the conventional method of superimposing a frame image on the image after shooting, it is difficult to fit the intended portion of the shot image into the area of the frame image, which easily causes misalignment. However, in the method of the present invention, the image corresponding to the area is cut out and inserted from the image captured through each area of the frame image, so that even if the imaging area is small, the shape is not limited. Even with this, it is possible to obtain a framed image having no appearance and no misalignment.
[0052]
In addition, when shooting for each area of the frame image, the through image is displayed only in the area where the current shooting is to be performed, and the frame image is displayed in the other areas. Since it is possible to know the state after the image composition before performing, it is possible to obtain a suitable image excellent in the balance with the frame image and the compatibility with the shape of the imaging region.
[0053]
In addition, even if the object to be photographed has been removed from the photographing area by displaying a semi-transparent image in which the frame image and the through image are superimposed in an area other than the area to be photographed, It becomes easy to search for the target and match it to the shooting area. For example, a suitable image can be obtained for a fast-moving subject without missing a photo opportunity.
[0054]
Further, when a frame image having a plurality of areas is used, it is not necessary for a plurality of subjects to be present in that case, and shooting is performed at different timing for each of these areas, and finally one framed image (composite image) ) Can be created easily.
[0055]
(Second Embodiment)
Next, a second embodiment of the present invention will be described.
[0056]
In the first embodiment, the case where an existing frame image prepared in advance is used has been described. However, in the second embodiment, a background image captured by a user in advance for image synthesis is used as an original frame. This is a case where the image is used as an image and a captured image is synthesized with the frame image.
[0057]
Since the basic apparatus configuration is the same as that of the first embodiment (FIG. 1), the processing operation as the second embodiment will be described here with reference to a flowchart and a specific example.
[0058]
FIG. 6 is a flowchart showing the processing operation of the digital camera 11 according to the second embodiment of the present invention, and shows a processing procedure when a composite image is created using a background image as an original frame image.
[0059]
At the time of shooting, the display unit 1 installed on the back side of the device body of the digital camera 11 functions as an electronic viewfinder, and an image of a subject captured through a lens (not shown) is displayed as a through image on the screen of the display unit 17. Is displayed (step B11).
[0060]
Here, the control unit 31 waits for the shutter button 13 to be pressed (step B12), and performs shooting processing by the shooting unit 33 at the timing when the shutter button 13 is pressed (step B13). The image data obtained by the photographing process at this time is displayed on the display unit 17 as a background image (step B14). The state at this time is shown in FIG. Assume that a background image 41 as shown in FIG. 7A is displayed on the display unit 17.
[0061]
After the display of the background image 41, if there is an area designation operation by the user (Yes in step B15), the control unit 31 sets an arbitrarily-shaped composition shooting area for the background image 41 according to the area designation operation (step B16). This state is shown in FIG. In this example, two shooting areas 42a and 42b are set. However, in this process, these shooting areas are set one by one in accordance with a user instruction. In the following description, it is assumed that two shooting areas 42a are set.
[0062]
In addition, as the region designation operation at this time, for example, after the user designates an arbitrary position of the background image 41 with a cursor or the like, one of region parts of various shapes prepared in advance at the designated position (FIG. 7). In the example of (b), a circular area part) is allocated. As another method, for example, if the display screen of the display unit 17 has a structure that allows a pen input operation using a tablet or the like, the user can use an unillustrated pen to place an arbitrary shape at a desired position on the background image 41. It is also possible to draw an area.
[0063]
When the shooting area 42a is set on the background image 41, a through image is displayed in the shooting area 42a, and the background image 41 is displayed in an area other than the area 42a (step B17). In this case, the display of the background image and the display of the through image may be switched. Alternatively, the entire background image may be displayed semi-transparently and the through image behind it may be displayed so as to be visible. Further, which image is to be translucently displayed may be switched by operating a button or the like.
[0064]
In this state, the control unit 31 waits for the shutter button 13 to be pressed (step B18), and performs shooting processing by the shooting unit 33 at the timing when the shutter button 13 is pressed (step B19). After the photographing, the control unit 31 cuts out an image corresponding to the photographing region 42a of the background image 41 from the photographed image data obtained from the photographing unit 33 (step B20).
[0065]
At this time, as in the first embodiment, an effect process called “image effect” may be performed on the cut-out image according to a user instruction.
[0066]
Next, the control unit 31 inserts and synthesizes an image cut out from the captured image in the imaging region 42a of the background image 41 (step B21), and then displays the combined image data on the display unit 17 (step B22). ).
[0067]
In addition, when the user continues to shoot (Yes in Step B22), the processing from Step B15 is repeatedly executed. That is, the control unit 31 inserts and combines an image cut out from an image captured at another timing into the next designated imaging region, and displays the combined image data on the display unit 17 (step 17). B15-B22). This state is shown in FIG. In this example, a shooting area 42b different from the shooting area 42a is set on the background image 41, and an image 42b shot at a timing different from the image 43a is fitted therein.
[0068]
In this way, images captured at different timings are fitted into the respective imaging regions of the background image, and one composite image is created as a framed image. This framed image data is stored in a predetermined storage area 34 d of the storage unit 34. In this case, as in the first embodiment, the frame image constituting the framed image and the captured image for each area of the frame image may be stored together, or these images may be stored separately. It may be saved. In addition, information indicating the type of the background image that is the composition source and which captured image is applied to which region of the background image is stored in the management table TB in association with the framed image data.
[0069]
As described above, according to the second embodiment of the present invention, by specifying a plurality of arbitrarily-shaped composition shooting areas in an image (background image) that the user has shot by himself, an original frame image of his own can be obtained. Can be created. Then, it is possible to easily create one framed image (composite image) by superimposing the original frame image and the photographed image. In this case, as in the first embodiment, since the image corresponding to the area is cut out and fitted from the image shot through each area of the original frame image, even if the shooting area is small, Regardless of the shape, it is possible to obtain a framed image (synthetic image) that is free from misalignment and looks good.
[0070]
Furthermore, when shooting using a predetermined frame, for example, when there are multiple shooting areas, the entire photo is completed only after shooting is performed for all of the shooting areas. However, as in the second embodiment of the present invention, it is necessary to perform shooting while designating an imaging area for synthesis of an arbitrary shape on an image (background image) shot by the user himself / herself. It is possible to use the method of gradually increasing the frame shooting area while sequentially specifying the shooting area according to the situation. It can be saved as a product.
[0071]
In addition, for this reason, we originally intended to specify the shooting area in 4 places, for example. However, even if it becomes clear that 3 places are preferable pictures as the shooting progresses, at that time Shooting can be stopped and the most desirable photo can be made into a finished version.
[0072]
Furthermore, according to the second embodiment of the present invention, the user can specify the shape and size of the frame suitable for the background image in accordance with the background image by performing the shooting while specifying the arbitrarily-shaped composition shooting area. It becomes possible to take a picture. Also, on the other hand, depending on the shooting target that is actually going to be shot in the frame shooting area, that is, the characteristics and size of the person's face that fits in the frame part, the distance to the subject and other various shooting factors, Since it is possible to shoot by specifying the shape and size of the frame most suitable for the subject, it is possible to easily obtain a suitable photograph.
[0073]
In addition, when shooting for each area of the frame image, the through image is displayed only in the area where the current shooting is to be performed, and the frame image is displayed in the other areas. Since it is possible to know the state after image composition before, it is possible to easily set a suitable frame shape and size, and obtain a suitable image excellent in balance with the frame image and compatibility with the shape of the shooting area. be able to.
[0074]
In addition, even if the object to be photographed has been removed from the photographing area by displaying a semi-transparent image in which the frame image and the through image are superimposed in an area other than the area to be photographed, It becomes easy to search for the target and match it to the shooting area. For example, a suitable image can be obtained for a fast-moving subject without missing a photo opportunity.
[0075]
Furthermore, even when a plurality of areas are set for the original frame image, it is not necessary to have a plurality of subjects in that case, and shooting is performed at different timings. Finally, one framed image (composite image) can be easily created.
[0076]
(Third embodiment)
Next, a third embodiment of the present invention will be described.
[0077]
In the third embodiment, for an existing frame image, the image data for each area of the frame image is replaced with another frame image (see FIG. 9), or an image is captured between shooting areas of the same frame image. Data can be exchanged (see FIG. 11).
[0078]
Since the basic apparatus configuration is the same as that of the first embodiment (FIG. 1), the processing operation as the third embodiment will be described here with reference to flowcharts and specific examples.
[0079]
(When replacing the shot image with another frame image)
FIG. 8 is a flowchart showing the processing operation of the digital camera 11 according to the third embodiment of the present invention, and shows a processing procedure when a captured image is replaced with another frame image.
[0080]
When the image editing mode of the digital camera 11 is set by a predetermined operation, the control unit 31 first reads captured image data to be edited and a frame image applied to the image data ( Step C11). Captured image data and frame images are stored in storage areas 34b and 34c of the storage unit 34, respectively. The frame image read at this time is referred to as “frame image A” for the sake of convenience, and the image data to be inserted into each shooting area of this “frame image A” is “captured partial image” or simply “partial image”. "
[0081]
Subsequently, the control unit 31 reads frame image candidates other than the “frame image A” from the storage area 34c of the storage unit 34 (step C12).
[0082]
Here, as an initial setting, the control unit 31 sets the selected frame to “frame image A” (step C13), combines the image of the selected frame and the captured partial image, and displays the combined image on the display unit 17 ( Step C14). This is shown in FIG. Now, as shown in FIG. 9A, the frame image 51 and the captured partial images a, b, and c are inserted into the respective shooting regions 52a to 52c of the frame image 51 to display one framed image. Shall.
[0083]
The control unit 31 displays frame image candidates read from the storage area 34c of the storage unit 34, for example, in a thumbnail format, and allows the user to select one of them (step C15). When any one of the frame image candidates is selected (step C16), the control unit 31 stores conversion procedure data from the currently selected frame (“frame image A”) to the newly selected frame image in the storage unit 34. Read from the storage area 34e (step C17).
[0084]
This conversion procedure data is data in which a conversion procedure in a case where an image is exchanged between regions for an existing frame image is described. More specifically, for example, when moving each image of the areas a1 and a2 of the frame image A to the areas b1 and b2 of the frame image B, the following conversion procedure is described.
[0085]
Area a1 → area b1: “10% enlargement, 20 ° clockwise rotation”
Area a2 → area b2: “20% enlargement, 30 degree clockwise rotation”
Conversely, when moving the images of the areas b1 and b2 of the frame image B to the areas a1 and a2 of the frame image A, the following conversion procedure is described.
[0086]
Area b1 → area a1: “10% reduction, 20 degree counterclockwise rotation”
Area b2 → area a2: “20% reduction, 30 degree counterclockwise rotation”
The same applies to each region of the same frame image, and conversion procedure data for replacing images between these regions is stored in the storage region 34e of the storage unit 34 in advance.
[0087]
When the control unit 31 reads conversion procedure data necessary for image movement between regions from the current selected frame to the newly selected frame image from the storage region 34e of the storage unit 34, the control unit 31 reads the current procedure based on the conversion procedure data. Conversion processing is performed for each imaging region of the selected frame (step C18). Specifically, the partial image shot through each shooting area of the currently selected frame (“frame image A”) is converted in accordance with the size or angle of the area of each movement destination (the newly selected frame image). .
[0088]
When the partial image is converted in accordance with the movement destination area in this way, the control unit 31 sets the selected frame as the frame image selected in step C16 (step C19), and selects the image of the selected frame and the converted portion. The image is synthesized and displayed on the display unit 17 (step C20). This state is shown in FIG.
[0089]
In FIG. 9B, 53 in the figure is a frame image selected by the user as a destination, and photographing areas 54a to 54c are provided there. The partial images a, b, and c of the shooting areas 52a to 52c of the frame image 51 are moved into these shooting areas 54a to 54c, and one new framed image is redisplayed.
[0090]
In this case, if the size and angle of the area are different between the movement source and the movement destination, the partial image conversion process according to the movement destination is automatically performed. In addition, the partial image “a” is a shooting area 52a → the shooting area 54a, the partial image “b” is a shooting area 52b → the shooting area 54b, and the partial image “c” is a shooting area 52c → the shooting area 54c. The positional relationship (in this example, a, b, and c in this order from the left) is the same between the movement source and the movement destination. In addition, if the process of FIG. 10 mentioned later is used, it is also possible to replace the position of these partial images.
[0091]
After the new framed image is displayed in this way, when the frame image is further changed (Yes in Step C21), the process returns to Step C15 and the same process is executed. Further, when the change of the frame image is finished (No in Step C21), the data of the framed image created at that time is stored in the storage area 34d of the storage unit 34 (Step C22).
[0092]
(When swapping shot images within the same frame image)
FIG. 10 is a flowchart showing another processing operation of the digital camera 11 according to the third embodiment of the present invention, and shows a processing procedure when the captured images are replaced in the same frame image.
[0093]
When the image editing mode of the digital camera 11 is set by a predetermined operation, the control unit 31 first reads captured image data to be edited and a frame image applied to the image data ( Step D11). Captured image data and frame images are stored in storage areas 34b and 34c of the storage unit 34, respectively. Note that the image data to be inserted in each shooting area of the frame image read at this time is referred to as “captured partial image” or simply “partial image”.
[0094]
Subsequently, the control unit 31 combines the frame image and the captured partial image and displays them on the display unit 17 (step D12). This is shown in FIG. Now, as shown in FIG. 11 (a), the frame image 51 and the captured partial images a, b, and c are inserted into the image capturing areas 52a to 52c of the frame image 51 to display one framed image. Shall.
[0095]
In this state, when two partial images to be exchanged are selected by the user (steps D13 and D14), the control unit 31 designates the photographing region in which the two partial images are fitted as “partial region A”. As “partial region B”, the following processing is executed.
[0096]
That is, the control unit 31 first reads the conversion procedure data “partial region A” → “partial region B” from the storage region 34 e of the storage unit 34 (step D 15), The image of “region A” is converted in accordance with the size, angle, etc. of “partial region B” as the movement destination (step D16). Similarly, the control unit 31 reads the conversion procedure data “partial region B” → “partial region A” from the storage area 34e of the storage unit 34 (step D17), and based on the conversion procedure data, reads “partial region B”. The image “B” is converted in accordance with the size and angle of the “partial area A” that is the destination (step D18).
[0097]
When the image of “partial region A” and the image of “partial region B” are converted to match each other in this way, the control unit 31 fits the partial image after B → A conversion into “partial region A”. And setting the position change so as to fit the partial image after A → B conversion into “partial region B” (step D19), and the image data with the frame after the replacement is displayed on the display unit. 17 (step D20). This state is shown in FIG.
[0098]
In the example of FIG. 11B, a state in which the partial image a in the shooting area 52a and the partial image b in the shooting area 52b are switched is shown. In this case, in this case, if the size and angle of the area are different between the movement source and the movement destination, the partial image conversion process according to the movement destination is automatically performed.
[0099]
Further, when the replacement of images is continued (Yes in step D21), the processing from step D13 is repeated. In this way, the partial images a, b, and c of the shooting regions 52a to 52c of the same frame image 51 can be freely exchanged to create a new framed image.
[0100]
Further, when the replacement of the images is finished (No in Step D21), the data of the framed image created at that time is stored in the storage area 34d of the storage unit 34 (Step D22).
[0101]
As described above, according to the third embodiment of the present invention, the image data for each area of the frame image is freely exchanged between different areas of the frame image or each area of the same frame image. Composite image) can be easily created. Therefore, when creating a framed image using various frame images with the same subject image, it is not necessary to perform the troublesome task of repeating shooting while replacing the frame images each time. In addition, since the subject image can be reused many times, there is an advantage that the memory capacity can be reduced.
[0102]
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described.
[0103]
In the fourth embodiment, when a background image photographed by the user is used as an original frame image as in the second embodiment, an editing operation of each area set in the frame image is enabled. .
[0104]
Since the basic apparatus configuration is the same as that of the first embodiment (FIG. 1), the processing operation as the fourth embodiment will be described here with reference to a flowchart.
[0105]
FIG. 12 is a flowchart showing the processing operation of the digital camera 11 according to the fourth embodiment of the present invention, and shows a processing procedure when each region set in the background image is edited.
[0106]
When the image editing mode of the digital camera 11 is set by a predetermined operation, the control unit 31 first reads captured image data to be edited and a background image applied to the image data ( Step E11). The captured image data and the background image are stored in storage areas 34b and 34c of the storage unit 34, respectively. As described in the second embodiment, the background image is image data arbitrarily shot by the user in place of the existing frame image, and has a plurality of shooting areas (see FIG. 7). The image data to be inserted into each shooting area of the background image is called “captured partial image” or simply “partial image”.
[0107]
Subsequently, the control unit 31 combines the background image and the captured partial image and displays them on the display unit 17 (step E13). In this state, when a partial image to be edited is selected by the user, the control unit 31 sets the selected partial image region as “partial region A” and performs the following processing according to the editing operation of the user. Execute (Step E13).
[0108]
The editing operation includes “enlargement / reduction operation”, “rotation operation”, and “movement operation”. For example, if the display screen of the display unit 17 has a structure that allows a pen input operation using a tablet or the like, the user can It is assumed that a desired area is enlarged / reduced, rotated, and moved using a pen (not shown).
[0109]
If there is an “enlargement / reduction operation” by the user (Yes in step E14), the control unit 31 enlarges or reduces the size of the “partial region A” that is the current selection region according to the user operation (step E15). ). If there is a “rotation operation” by the user (Yes in step E16), the control unit 31 tilts the angle of “partial region A” that is the current selection region in accordance with the user operation (step E17). If there is a “move operation” by the user (Yes in step E18), the control unit 31 moves the position of “partial area A”, which is the current selection area, according to the user operation (step E19).
[0110]
In this way, when editing processing such as enlargement / reduction, rotation, and movement is performed on the “partial area A”, the control unit 31 converts the partial image in accordance with the edited “partial area A”. Then, the partial image is combined with the background image (step E20), and the combined image data is displayed again on the display unit 17 as a new framed image (step E21). For example, in a portion that is no longer displayed at the original position due to the movement of the region, data of the background image corresponding to the portion is read and displayed.
[0111]
When editing is further continued (Yes in step E22), the process returns to the process in step E13 and the same process as described above is executed. When the editing is to be ended (No in step E22), the framed image data created at that time is stored in the storage area 34d of the storage unit 34 (step E23).
[0112]
As described above, according to the fourth embodiment of the present invention, when a background image that is an original frame image is used, each region set in the background image can be freely edited according to the user's preference. Thus, it is possible to easily create a new framed image (composite image).
[0113]
(Fifth embodiment)
Next, a fifth embodiment of the present invention will be described.
[0114]
In the fifth embodiment, when a background image photographed by the user is used as an original frame image as in the second embodiment, the frame image is set before photographing an image to be inserted into the frame image. The editing operation of each area is enabled, and the editing state can be previewed.
[0115]
Since the basic apparatus configuration is the same as that of the first embodiment (FIG. 1), the processing operation as the fifth embodiment will be described here with reference to flowcharts and specific examples.
[0116]
FIG. 13 is a flowchart showing a processing operation of the digital camera 11 according to the fifth embodiment of the present invention, and shows a processing procedure when each region set in the background image is edited before photographing.
[0117]
At the time of shooting, the display unit 1 installed on the back side of the main body of the digital camera 11 functions as an electronic viewfinder, and an image of a subject captured through a lens (not shown) is displayed as a through image on the screen of the display unit 17. Is displayed (step F11).
[0118]
Here, the control unit 31 waits for the shutter button 13 to be pressed (step F12), and performs shooting processing by the shooting unit 33 at the timing when the shutter button 13 is pressed (step F13). The image data obtained by the photographing process at this time is displayed on the display unit 17 as a background image (step F14). The state at this time is shown in FIG. Assume that a background image 61 as shown in FIG. 14A is displayed on the display unit 17. 14A, 14 </ b> B, and 14 </ b> C, the left side shows the background image 61 displayed on the display unit 17, and the right side shows the through image 62 that is the current shooting target.
[0119]
After the background image 61 is displayed, if there is an area designation operation by the user (Yes in Step F15), the control unit 31 sets an arbitrarily-shaped composition shooting area for the background image 61 according to the area designation operation (Step F16) ). Assume that this photographing area is “partial area A” and is set to a position as shown in FIG. As the region designation operation at this time, for example, after the user designates an arbitrary position of the background image 41 with a cursor or the like, one of region parts of various shapes prepared in advance at the designated position (FIG. 14). In the example of (a), a circular area part) is allocated.
[0120]
When a “partial area A” that is a shooting area is set on the background image 41, a through image 62 is displayed in the “partial area A”, and a background image 61 is displayed in an area other than the “partial area A”. (Step F17).
[0121]
Here, in the second embodiment, it is assumed that the user performs shooting by pressing the shutter button 13 at this point, but here, the editing operation of the “partial area A” can be performed before shooting. As described in the fourth embodiment, the editing operation includes “enlargement / reduction operation”, “rotation operation”, “movement operation”, and the like. For example, the display screen of the display unit 17 is a pen input operation using a tablet or the like. If the structure is possible, it is assumed that the user performs an operation of enlarging / reducing, rotating, and moving a desired area using a pen (not shown).
[0122]
If there is an “enlargement / reduction operation” by the user (Yes in step F18), the control unit 31 enlarges or reduces the size of the “partial region A” that is the current selection region according to the user operation (step F19). If there is a “rotation operation” by the user (Yes in step F20), the control unit 31 tilts the angle of “partial region A” that is the current selection region in accordance with the user operation (step F21). If there is a “move operation” by the user (Yes in step F22), the control unit 31 moves the position of “partial area A”, which is the current selection area, according to the user operation (step F23).
[0123]
The example of FIG. 14B shows a state in which the image of “partial area A” is changed by moving the finder, and the example of FIG. 14C moves “partial area A” and expands in the horizontal direction. Shows the state.
[0124]
In this way, when editing processing such as enlargement / reduction, rotation, and movement is performed on the image of “partial area A”, the control unit 31 combines the through image of “partial area A” after editing with the background image. (Step F24), and the combined image data is displayed on the display unit 17 (Step F25). For example, when a new display is required at the original position by moving the image or the like, the background image is read and displayed there (see reference numeral 61a in FIG. 14C).
[0125]
In this state, the control unit 31 waits for the shutter button 13 to be pressed (step F26), and performs shooting processing by the shooting unit 33 at the timing when the shutter button 13 is pressed (step F27). ).
[0126]
In this way, an image with a frame is created by shooting at different timings for each region edited in advance in the background image. This framed image data is stored in a predetermined storage area 34 d of the storage unit 34. In this case, as in the first embodiment, the frame image constituting the framed image and the captured image for each area of the frame image may be stored together, or these images may be stored separately. It may be saved. In addition, information indicating the type of the background image that is the composition source and which captured image is applied to which region of the background image is stored in the management table TB in association with the framed image data.
[0127]
As described above, according to the fifth embodiment of the present invention, each area of the background image used as the original frame image can be arbitrarily edited by a user operation, and shooting is performed while checking the editing state on the screen as a preview. By doing so, it is possible to easily create a framed image (synthesized image) intended by the user.
[0128]
(Sixth embodiment)
Next, a sixth embodiment of the present invention will be described.
[0129]
In the sixth embodiment, a plurality of images (photos) are allocated and stored for each region of the frame image. For example, as shown in FIG. 16, when there are a plurality of shooting areas 72a to 72c in the frame image 71, a1, a2, a3 with respect to the shooting area 72a, and b1, b2, b3 with respect to the shooting area 72b. , B4, and c1 and c2 for the shooting area 72c, a plurality of images are assigned to each area and stored.
[0130]
The specific processing operation will be described below with reference to FIG. The basic device configuration is the same as that of the first embodiment (FIG. 1).
[0131]
FIG. 15 is a flowchart showing a processing operation of the digital camera 11 according to the sixth embodiment of the present invention, and shows a processing procedure when a plurality of images are allocated and stored in each photographing area of the frame image. Note that the frame image used here may be an existing frame image as described in the first embodiment, or an original frame image (background image as described in the second embodiment). ). Here, a description will be given assuming that an existing frame image is used.
[0132]
When an existing frame image is selected by the user when creating an image with a frame (step G11), the control unit 31 reads the selected frame image from the storage area 34c of the storage unit 34 and displays it on the display unit 17. (Step G12). The frame image is provided with a plurality of shooting areas in advance, and when one of them is designated by a cursor or the like on the display screen of the display unit 17 (step G13), the control unit 31 designates the designated area. Taking the shooting area as “partial area A”, the number NA of images already stored in “partial area A” is acquired (step G14).
[0133]
In this case, if a framed image using the frame image is first created, NA = 0, but if a framed image using the frame image has already been created, NA> 1. . The NA value is held in correspondence with the frame image in the management table TB provided in the storage area 34f of the storage unit 34.
[0134]
Here, the control unit 31 waits for the shutter button 13 to be pressed (step G15), and performs a shooting process by the shooting unit 33 at the timing when the shutter button 13 is pressed (step G16). With this shooting, an image corresponding to “partial area A” is obtained. If an image already stored for “partial area A” exists at this time, the control unit 31 leaves the image untouched. The newly captured image is stored in a predetermined area as the “NA + 1” th image (step G17). For example, in the example of FIG. 16, if the image a1 is already stored in the shooting area 72a of the frame image 71, the image a2 is additionally stored there.
[0135]
At this time, if there is an instruction for associating a captured image with a predetermined operation (Yes in step G18), the control unit 31 displays an image stored in an area other than “partial area A” in accordance with the user instruction. A selection is made (step G19), and the captured image obtained this time is associated with the selected image (step G20). This can be realized by setting specific information for linking the captured image obtained this time and the selected image in the management table TB.
[0136]
When further photographing is to be performed (Yes in step G21), the process returns to step G13 and the same processing is repeated. If shooting is not continued (No in step G21), the process here ends.
[0137]
As described above, according to the sixth embodiment of the present invention, a plurality of images can be allocated and stored for each imaging region of the frame image. Therefore, for example, when creating a plurality of framed images while replacing the subject image with respect to a frame image of the same pattern, it is possible to cope with only one frame image and save memory capacity. Can do.
[0138]
Further, by associating an image captured using this frame image with an image of another region of the same frame image, as shown in FIG. 16, for example, a group “a1-b1-c1”, “a2- The images of the same frame image can be divided into groups such as “b2-c2” group... and a framed image can be easily created for each group.
[0139]
(Seventh embodiment)
Next, a seventh embodiment of the present invention will be described.
[0140]
In the seventh embodiment, as in the sixth embodiment, when a plurality of images (photographs) are allocated and stored for each shooting region of the frame image, these images are automatically or manually operated. The display is switched and displayed as a slide show.
[0141]
More specifically, as shown in FIG. 19, for example, a1, a2, a3 for the shooting area 72a of the frame image 71, b1, b2, b3, b4 for the shooting area 72b, and for the shooting area 72c. Assume that a plurality of images are allocated and stored for each area, such as c1 and c2. Here, when automatic display is instructed, these images are a1 → a2 → a3 → a1... In the shooting area 72a, b1 → b2 → b3 → b4 → b1... In the shooting area 72b, and c1 → c2 → c1 in the shooting area 72c. In such a manner, it is automatically switched and reproduced and displayed at a predetermined timing. In this case, it is possible to arbitrarily set the reproduction speed for each shooting area, or to fix an image only in a specific shooting area. Moreover, in the display by manual operation, this is performed according to the designation | designated operation by a user.
[0142]
A specific processing operation will be described below with reference to FIGS. 17 and 18. The basic device configuration is the same as that of the first embodiment (FIG. 1).
[0143]
17 and 18 are flowcharts showing the processing operation of the digital camera 11 according to the seventh embodiment of the present invention. The processing procedure in the case of reproducing and displaying a plurality of images assigned to each shooting area of the frame image is shown. It is shown. Note that the frame image used here may be an existing frame image as described in the first embodiment, or an original frame image (background image as described in the second embodiment). ). Here, a description will be given assuming that an existing frame image is used.
[0144]
Now, it is assumed that a frame image in which a plurality of images are assigned to each imaging region is displayed on the display unit 17 by the method described in the sixth embodiment (step H11). Here, when an automatic reproduction is instructed by a predetermined operation (Yes in Step H12), the following automatic display processing is executed.
[0145]
That is, the control unit 31 first initializes timers TmA, TmB, etc. (not shown) provided for each imaging region of the frame image, and for example, TmAx = 100, TmBx = 200, etc. A switching timing value for the imaging region is set (step H13).
[0146]
Subsequently, the control unit 31 initializes PicNumA, PicNumB... Indicating the number of the image to be displayed in each imaging area of the frame image (step H14), and then stores the image indicated by the image number PicNum in the storage unit 34. The data is read from the storage area 34b and displayed in each photographing area (step H15). That is, in the example of FIG. 19, first, the image a1 is displayed for the shooting area 72a of the frame image 71, the image b1 is displayed for the shooting area 72b, and the image c1 is displayed for the shooting area 72c.
[0147]
Here, the control unit 31 synchronizes the timers TmA, TmB... Of each photographing area with incrementing by +1 in synchronization with the internal clock (step H16), and determines whether or not the timer value has reached the repetition timing value for each photographing area. (Step H17). If the timer value has reached the repetition timing value (Yes in step H17), the control unit 31 returns the timer value of the corresponding shooting area to 0 at that time, and the value of the image number PicNum for that shooting area. +1 is updated (step H18). However, when the value of PicNum is the maximum value, the initial value is set to “1”.
[0148]
In this way, the control unit 31 updates the image number PicNum of the imaging area that has reached the repetition timing value, and displays the image indicated by the PicNum in the imaging area (step H19). Thereafter, in the same manner, the control unit 31 displays the images of the respective shooting areas while switching at the respective timings while monitoring each timer value (No in Step H20). Accordingly, as shown in FIG. 19, a1 → a2 → a3 → a1... In the shooting area 72a of the frame image 72, b1 → b2 → b3 → b4 → b1... In the shooting area 72b, and c1 → c2 → in the shooting area 72c. Each image is switched and displayed at each timing, such as c1. If there is an end instruction by a predetermined operation (Yes in step H20), the process here ends.
[0149]
On the other hand, if automatic reproduction is not instructed in step H12, the following display process by manual operation is executed.
[0150]
That is, the control unit 31 initializes PicNumA, PicNumB... Indicating the number of the image to be displayed in each shooting area of the frame image (step H21), and then stores the image indicated by the image number PicNum in the storage unit 34. The data is read from the area 34b and displayed in each imaging area (step H22). That is, in the example of FIG. 19, first, the image a1 is displayed for the shooting area 72a of the frame image 71, the image b1 is displayed for the shooting area 72b, and the image c1 is displayed for the shooting area 72c.
[0151]
Here, if there is an area designation input by the user (Yes in step H23), the control unit 31 displays the designated imaging area in a specific display form (for example, change of frame color, reverse display, arrow or cursor display, etc.). ) (Step H24). If there is an image change operation input by the user in this state (Yes in step H25), the control unit 31 updates the value of the image number PicNum for the imaging region by +1 (step H26), and the image indicated by the PicNum Is displayed in the imaging region (step H27). However, when the value of PicNum is the maximum value, the value is displayed by returning to the initial value “1”.
[0152]
Thereafter, in the same manner, the control unit 31 displays the image of each shooting area while switching according to the designation operation by the user (No in step H28). Accordingly, as shown in FIG. 19, a1 → a2 → a3 → a1... In the shooting area 72a of the frame image 72, b1 → b2 → b3 → b4 → b1... In the shooting area 72b, and c1 → c2 → in the shooting area 72c. As shown in c1..., switching display of each image is realized by manual operation. If an end instruction is given by a predetermined operation (Yes in step H28), the process here is ended.
[0153]
As described above, according to the seventh embodiment of the present invention, a single frame image is used to display a plurality of images assigned to each shooting area of the frame image in a predetermined order like a slide show. Can be confirmed.
[0154]
Here, a case has been described in which a plurality of images assigned to each shooting area of a frame image are displayed in order. However, for example, as in the sixth embodiment, a plurality of images are stored in units of groups. Then, it can be displayed automatically or manually by the group unit.
[0155]
Further, in each of the above embodiments, the case where a framed image obtained by synthesizing a captured image with a frame image has been described. However, the present invention is not limited to this, and an image captured by a camera is different. The same method as described above can be applied if the image is combined at a predetermined position in the image.
[0156]
In addition, the present invention is not limited to the digital camera 11 and can be applied to all these devices, for example, an electronic device having a camera function such as a mobile phone with a camera or a PDA (Personal Digital Assistant).
[0157]
In short, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention at the stage of implementation. Furthermore, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, the effects described in “Problems to be solved by the invention” can be solved, and are described in the “Effects of the invention” column. If the effect is obtained, a configuration from which this configuration requirement is deleted can be extracted as an invention.
[0158]
In addition, the methods described in each of the above-described embodiments are, for example, magnetic disks (flexible disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), recording media such as semiconductor memories, etc. The program itself can be applied to various apparatuses, or the program itself can be transmitted through a transmission medium such as a network to be applied to various apparatuses. A computer that implements this apparatus reads a program recorded on a recording medium or a program provided via a transmission medium, and performs the above-described processing by controlling operations by this program.
[0159]
In addition to the above-mentioned recording media such as CD-ROM and DVD-ROM, for example, next-generation optical discs and red lasers using blue lasers such as Blu-ray Disc (R) and Advanced Optical Disc (AOD) It is possible to implement the present invention using various large-capacity recording media that will be developed in the future, such as HD-DVD 9 to be used and Blue Laser DVD using a blue-violet laser.
[0160]
【The invention's effect】
  As detailed above, according to the present invention,While displaying the frame image with the shooting area set, cut out a partial image corresponding to the shooting area from the newly captured image, and fit it into the shooting area of the displayed frame image to compose it. Since the synthesized image is saved, when a synthesized image is generated by synthesizing another image with a part of the frame image, it is easy for the user to perform a simple shooting operation while looking at the display unit. In addition, after the composite image is generated, if another shooting area having a different position or size is newly designated, the part fitted in the first shooting area Re-synthesize the image by re-inserting it into the new shooting area, and save the re-synthesized composite image, so just specify the new shooting area after the first composite image is generated , Without changing the shooting and the segmented partial image, a new synthesized image by imaging area is changed to synthesize the partial image can be easily generated.
[Brief description of the drawings]
FIG. 1 is a diagram showing an external configuration when a digital camera is taken as an example of an electronic apparatus according to the invention.
FIG. 2 is a view showing an example of a frame image used in the digital camera.
FIG. 3 is a block diagram showing a circuit configuration of the digital camera.
FIG. 4 is a flowchart illustrating a processing operation of the digital camera according to the first embodiment of the present invention, and a flowchart illustrating a processing procedure when a composite image is created using an existing frame image.
FIG. 5 is a diagram for specifically explaining the processing shown in FIG. 4;
FIG. 6 is a flowchart showing a processing operation of a digital camera according to a second embodiment of the present invention, and showing a processing procedure when a composite image is created using a background image as an original frame image.
7 is a diagram for specifically explaining the processing shown in FIG. 6; FIG.
FIG. 8 is a flowchart illustrating a processing operation of a digital camera according to a third embodiment of the present invention, and a flowchart illustrating a processing procedure when a captured image is replaced with another frame image.
FIG. 9 is a diagram for specifically explaining the processing shown in FIG. 8;
FIG. 10 is a flowchart showing another processing operation of the digital camera according to the third embodiment of the present invention, and showing a processing procedure in the case of replacing captured images within the same frame image.
FIG. 11 is a diagram for specifically explaining the processing shown in FIG. 10;
FIG. 12 is a flowchart showing a processing operation of a digital camera according to a fourth embodiment of the present invention, and a flowchart showing a processing procedure when each area set in a background image is edited.
FIG. 13 is a flowchart showing a processing operation of a digital camera according to a fifth embodiment of the present invention, and showing a processing procedure when each region set in a background image is edited before shooting.
FIG. 14 is a diagram for specifically explaining the processing shown in FIG. 13;
FIG. 15 is a flowchart showing a processing operation of a digital camera according to a sixth embodiment of the present invention, showing a processing procedure when a plurality of images are allocated and stored in each shooting area of a frame image.
FIG. 16 is a diagram for specifically explaining the processing shown in FIG. 16;
FIG. 17 is a flowchart showing a processing operation of a digital camera according to a seventh embodiment of the present invention, and showing a processing procedure when a plurality of images assigned to each shooting area of a frame image are reproduced and displayed.
FIG. 18 is a flowchart showing a processing operation of a digital camera according to a seventh embodiment of the present invention, and showing a processing procedure when reproducing and displaying a plurality of images assigned to each shooting area of a frame image.
FIG. 19 is a diagram for specifically explaining the processing shown in FIGS. 18 and 19;
[Explanation of symbols]
11. Digital camera
12 ... Power button
13 ... Shutter button
14 ... Operation buttons
14a ... Next candidate selection button
14b ... OK button
14c ... Image effect selection button
15 ... cursor key
17 ... Display section
18 ... Optical finder
21 ... Frame image
22a, 22b ... shooting area
23a, 23b ... Images (photos)

Claims (17)

カメラ機能を備えると共に、このカメラ機能の撮影対象を表示するための表示部を備えた電子機器において、
位置および大きさが決められた第1の撮影領域が設定されたフレーム画像を前記表示部に表示した状態で、前記カメラ機能により新たな撮影画像を取得する撮影制御手段と、
前記撮影制御手段により取得された撮影画像から、前記フレーム画像に設定された前記第1の撮影領域の位置と大きさに対応する第1の部分画像を切り出すとともに、この切り出された第1の部分画像を前記表示部に表示されている前記フレーム画像の前記第1の撮影領域に嵌め込んで合成する画像合成手段と、
前記画像合成手段による前記合成が行われた後、前記第1の撮影領域とは位置または大きさが異なる第2の撮影領域が新たに指定された場合は、前記第1の撮影領域に嵌め込まれた前記第1の部分画像を前記第2の撮影領域に嵌め込み直して再合成する画像編集手段と、
前記画像合成手段により合成された合成画像または前記画像編集手段により再合成された合成画像を保存する合成画像保存手段と、
を具備したことを特徴とする電子機器。
In an electronic device having a camera function and a display unit for displaying a photographing target of the camera function,
Shooting control means for acquiring a new shot image by the camera function in a state in which the frame image in which the first shooting area having a determined position and size is set is displayed on the display unit;
A first partial image corresponding to the position and size of the first shooting area set in the frame image is cut out from the shot image acquired by the shooting control means, and the cut out first part Image compositing means for fitting and compositing an image into the first imaging region of the frame image displayed on the display unit;
After the composition by the image synthesizing unit, when a second photographing area whose position or size is different from that of the first photographing area is newly designated, the second photographing area is inserted into the first photographing area. Image editing means for re-synthesizing the first partial image by reinserting it into the second imaging region;
A composite image storage means for storing a composite image synthesized by the image composition means or a composite image recombined by the image editing means;
An electronic apparatus comprising:
前記合成画像保存手段は、前記画像合成手段による前記合成が行われた後に前記第2の撮影領域が新たに指定されなかった場合には、前記画像合成手段により合成された合成画像を保存し、前記画像合成手段による前記合成が行われた後に前記第2の撮影領域が新たに指定された場合には、前記画像合成手段により合成された合成画像に代えて前記画像編集手段により再合成された合成画像を保存することを特徴とする請求項1記載の電子機器。The synthesized image storage means stores the synthesized image synthesized by the image synthesizing means when the second shooting area is not newly designated after the synthesis by the image synthesizing means, When the second shooting area is newly designated after the composition by the image composition unit, it is recombined by the image editing unit instead of the composite image synthesized by the image composition unit. The electronic apparatus according to claim 1, wherein the composite image is stored. 前記フレーム画像は、前記第1の撮影領域の他に、前記第1の撮影領域とは位置の異なる第2の撮影領域を含む複数の撮影領域が設定されており、In the frame image, in addition to the first shooting area, a plurality of shooting areas including a second shooting area having a position different from the first shooting area is set,
前記画像合成手段は、前記撮影制御手段により取得された撮影画像から、前記第1の撮影領域の位置と大きさに対応する第1の部分画像および前記第2の撮影領域の位置と大きさに対応する第1の部分画像を切り出すとともに、この切り出された第1の部分画像を前記第1の撮影領域に、第2の部分画像を前記第2の撮影領域に各々嵌め込んで合成し、The image synthesizing unit is configured to change the first partial image corresponding to the position and size of the first imaging region and the position and size of the second imaging region from the captured image acquired by the imaging control unit. The corresponding first partial image is cut out, and the cut out first partial image is fitted into the first shooting area and the second partial image is fitted into the second shooting area, respectively,
前記画像編集手段は、前記画像合成手段による前記合成が行われた後、前記第1の撮影領域が移動元として指定されるとともに前記第2の撮影領域が移動先として新たに指定された場合は、前記第1の撮影領域に嵌め込まれた前記第1の部分画像を前記第2の撮影領域に嵌め込み直して再合成することを特徴とする請求項1又は2に記載の電子機器。The image editing means, when the image is synthesized by the image synthesizing means, the first shooting area is designated as a movement source and the second shooting area is newly designated as a movement destination. 3. The electronic apparatus according to claim 1, wherein the first partial image fitted in the first imaging region is re-synthesized by being fitted again in the second imaging region. 4.
前記画像編集手段は、前記画像合成手段による前記合成が行われた後、前記第1の撮影領域と前記第2の撮影領域とが入れ換え対象として新たに指定された場合は、前記第1の撮影領域に嵌め込まれた前記第1の部分画像を前記第2の撮影領域に嵌め込み直すとともに、前記第2の撮影領域に嵌め込まれた前記第2の部分画像を前記第1の撮影領域に嵌め込み直して再合成することを特徴とする請求項1乃至3のいずれか1つに記載の電子機器。The image editing means, if the first photographing area and the second photographing area are newly designated as interchangeable after the composition by the image synthesizing means, the first photographing area. Reinserting the first partial image fitted in the area into the second imaging area and reinserting the second partial image fitted in the second imaging area into the first imaging area The electronic device according to claim 1, wherein the electronic device is re-synthesized. 前記フレーム画像に設定された複数の撮影領域に対して、移動元となる撮影領域と移動先となる撮影領域とを任意に指定する入れ換え手順が記述された変換手順データを記憶した変換手順記憶手段を更に備え、Conversion procedure storage means for storing conversion procedure data describing a replacement procedure for arbitrarily designating a shooting area as a movement source and a shooting area as a movement destination for a plurality of shooting areas set in the frame image Further comprising
前記画像編集手段は、前記画像合成手段による前記合成が行われた後、前記変換手順記憶手段によって記憶された変換手順データに基づいて、移動元となる撮影領域と移動先となる撮影領域とを指定することを特徴とする請求項2乃至4のいずれか1つに記載の電子機器。The image editing means, after the composition by the image composition means, is performed, based on the conversion procedure data stored by the conversion procedure storage means, the shooting area as the movement source and the shooting area as the movement destination The electronic device according to claim 2, wherein the electronic device is specified.
前記撮影領域の位置または大きさが異なる複数のフレーム画像を記憶するフレーム画像記憶手段を更に備え、Frame image storage means for storing a plurality of frame images having different positions or sizes of the imaging region;
前記撮影制御手段は、前記フレーム画像記憶手段に記憶されている複数のフレーム画像の中から任意に選択された第1のフレーム画像を、前記第1の撮影領域が設定されたフレーム画像として前記表示部に表示した状態で、前記カメラ機能により新たな撮影画像を取得し、The imaging control means displays the first frame image arbitrarily selected from the plurality of frame images stored in the frame image storage means as the frame image in which the first imaging area is set. In the state displayed on the screen, a new captured image is acquired by the camera function,
前記画像編集手段は、前記画像合成手段による前記合成が行われた後、前記フレーム画像記憶手段に記憶されている複数のフレーム画像の中から前記表示部に既に表示されているフレーム画像とは異なる第2のフレーム画像が新たに選択された場合に、前記第1のフレーム画像の前記第1の撮影領域に嵌め込まれた前記第1の部分画像を、前記第2のフレーム画像の前記第2の撮影領域に嵌め込み直して再合成することを特徴とする請求項1記載の電子機器。The image editing unit is different from a frame image already displayed on the display unit from among a plurality of frame images stored in the frame image storage unit after the combining by the image combining unit. When a second frame image is newly selected, the first partial image fitted in the first imaging region of the first frame image is converted to the second frame image of the second frame image. The electronic apparatus according to claim 1, wherein the electronic apparatus is re-synthesized by reinserting into the imaging region.
前記カメラ機能によって撮像して得られた撮影画像に対して任意の撮影領域を設定することで前記フレーム画像を生成するフレーム画像生成手段を更に備えたことを特徴とする請求項1乃至6のいずれか1つに記載の電子機器。The frame image generating means for generating the frame image by setting an arbitrary shooting area for the shot image obtained by shooting with the camera function. The electronic device as described in any one. 前記画像編集手段は、前記画像合成手段により合成された合成画像が前記表示部に表示された後に、ユーザによる撮影領域の変更指示があった場合に前記再合成を行うことを特徴とする請求項1乃至7のいずれか1つに記載の電子機器。The image editing means performs the recombination when a user gives an instruction to change a shooting area after the synthesized image synthesized by the image synthesizing means is displayed on the display unit. The electronic device according to any one of 1 to 7. 前記画像編集手段は、ユーザによる撮影領域の変更指示が繰り返されている間は、前記再合成を繰り返し複数回実行し、The image editing means repeatedly performs the recombination a plurality of times while the user has repeatedly instructed to change the shooting area,
前記合成画像保存手段は、ユーザによる撮影領域の変更指示が終了した時点で前記画像編集手段により再合成されている合成画像を保存することを特徴とする請求項1乃至8のいずれか1つに記載の電子機器。9. The composite image storage unit according to claim 1, wherein the composite image storage unit stores the composite image re-combined by the image editing unit at the time when the instruction to change the photographing region is completed by the user. The electronic device described.
前記画像合成手段は、前記撮影制御手段により取得された第1の撮影画像から、前記第1の撮影領域の位置と大きさに対応する第1の部分画像を切り出すとともに、前記撮影制御手段により前記第1の撮影画像が撮像されたタイミングとは異なるタイミングで撮像された第2の撮影画像から、前記第2の撮影領域の位置と大きさに対応する第2の部分画像を切り出すことを特徴とする請求項3に記載の電子機器。The image synthesizing unit cuts out a first partial image corresponding to the position and size of the first shooting region from the first shot image acquired by the shooting control unit, and the shooting control unit sets the first partial image. A second partial image corresponding to the position and size of the second imaging region is cut out from a second captured image captured at a timing different from the timing at which the first captured image is captured. The electronic device according to claim 3. 前記画像合成手段は、前記撮影制御手段により複数のタイミングで取得された複数の撮影画像の各々から、前記第1の撮影領域の位置と大きさに対応する複数の部分画像を切り出し、The image synthesizing unit cuts out a plurality of partial images corresponding to the position and size of the first imaging region from each of a plurality of captured images acquired at a plurality of timings by the imaging control unit,
前記フレーム画像を前記表示部に表示した状態で、前記画像合成手段により切り出された複数の部分画像の中から合成の対象となる部分画像を順次選択していくとともに、順次選択される部分画像を前記フレーム画像に設定された前記第1の撮影領域に順次嵌め込んで表示していく表示切替手段を更に備えたことを特徴とする請求項1に記載の電子機器。In a state where the frame image is displayed on the display unit, a partial image to be combined is sequentially selected from a plurality of partial images cut out by the image combining unit, and sequentially selected partial images are 2. The electronic apparatus according to claim 1, further comprising display switching means for sequentially fitting and displaying in the first photographing area set in the frame image.
前記フレーム画像は、複数の撮影領域が設定されており、The frame image has a plurality of shooting areas set,
前記画像合成手段は、前記フレーム画像に設定された各撮影領域毎に、複数のタイミングで取得された複数の撮影画像から複数の部分画像を切り出し、The image synthesizing unit cuts out a plurality of partial images from a plurality of photographed images acquired at a plurality of timings for each photographing region set in the frame image,
前記表示切替手段は、前記フレーム画像を前記表示部に表示した状態で、前記フレーム画像に設定された各撮影領域毎に、前記画像合成手段により取得された複数の部分画像の中から合成の対象となる部分画像を順次選択していくとともに、順次選択される部分画像を各撮影領域に順次嵌め込んで表示していくことを特徴とする請求項11に記載の電子機器。The display switching means is a target to be synthesized from a plurality of partial images acquired by the image synthesizing means for each shooting region set in the frame image in a state where the frame image is displayed on the display unit. 12. The electronic apparatus according to claim 11, wherein the partial images to be selected are sequentially selected, and the sequentially selected partial images are sequentially inserted and displayed in each photographing region.
前記画像合成手段は、前記各撮影領域毎に定められた所定のタイミングで前記部分画像の選択および切り換え表示を行うことを特徴とする請求項12記載の電子機器。13. The electronic apparatus according to claim 12, wherein the image synthesizing unit performs selection and switching display of the partial images at a predetermined timing determined for each of the photographing regions. 前記画像編集手段は、前記第1の撮影領域に嵌め込まれた第1の部分画像を前記第2の撮影領域の大きさに合わせて拡大または縮小してから前記第2の撮影領域に嵌め込んで再合成することを特徴とする請求項1乃至13のいずれか1つに記載の電子機器。The image editing means enlarges or reduces the first partial image fitted in the first photographing area in accordance with the size of the second photographing area, and then fits in the second photographing area. The electronic device according to claim 1, wherein the electronic device is re-synthesized. 前記画像編集手段は、前記第1の撮影領域に嵌め込まれた第1の部分画像を回転させてから前記第2の撮影領域に嵌め込んで再合成することを特徴とする請求項1乃至13のいずれか1つに記載の電子機器。14. The image editing unit according to claim 1, wherein the image editing unit rotates the first partial image fitted in the first photographing area, and then fits the second partial image in the second photographing area to recombine. The electronic device as described in any one. 前記画像編集手段は、前記第1の撮影領域に嵌め込まれた第1の部分画像に対して所定のエフェクト処理を施してから前記第2の撮影領域に嵌め込んで再合成することを特徴とする請求項1乃至13のいずれか1つに記載の電子機器。The image editing means performs predetermined effect processing on the first partial image fitted in the first photographing area, and then fits in the second photographing area to recombine. The electronic device according to any one of claims 1 to 13. カメラ機能を備えると共に、このカメラ機能の撮影対象を表示するための表示部を備えた電子機器に用いられる画像処理方法であって、
位置および大きさが決められた第1の撮影領域が設定されたフレーム画像を前記表示部に表示した状態で、前記カメラ機能により新たな撮影画像を取得する撮影制御ステップと、
前記撮影制御ステップにより取得された撮影画像から、前記フレーム画像に設定された前記第1の撮影領域の位置と大きさに対応する第1の部分画像を切り出すとともに、この切り出された第1の部分画像を前記表示部に表示されている前記フレーム画像の前記第1の撮影領域に嵌め込んで合成する画像合成ステップと、
前記画像合成ステップによる前記合成が行われた後、前記第1の撮影領域とは位置または大きさが異なる第2の撮影領域が新たに指定された場合は、前記第1の撮影領域に嵌め込まれた前記第1の部分画像を前記第2の撮影領域に嵌め込み直して再合成する画像編集ステップと、
前記画像合成ステップにより合成された合成画像または前記画像編集ステップにより再合成された合成画像を保存する合成画像保存ステップと、
を備えたことを特徴とする画像処理方法。
An image processing method used in an electronic device having a camera function and a display unit for displaying a photographing target of the camera function,
A shooting control step of acquiring a new shot image by the camera function in a state in which a frame image in which a first shooting area having a determined position and size is set is displayed on the display unit;
A first partial image corresponding to the position and size of the first shooting area set in the frame image is cut out from the shot image acquired by the shooting control step, and the cut out first part An image synthesis step of fitting an image into the first imaging region of the frame image displayed on the display unit and synthesizing the image;
After the image is synthesized by the image composition step, when a second imaging area having a position or size different from that of the first imaging area is newly designated, the second imaging area is inserted into the first imaging area. An image editing step for re-synthesizing the first partial image by reinserting it into the second imaging region;
A composite image storage step of storing the composite image synthesized by the image composition step or the composite image recombined by the image editing step;
An image processing method comprising:
JP2003100410A 2003-04-03 2003-04-03 Electronic apparatus and image processing method Expired - Fee Related JP4314863B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003100410A JP4314863B2 (en) 2003-04-03 2003-04-03 Electronic apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003100410A JP4314863B2 (en) 2003-04-03 2003-04-03 Electronic apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2004312162A JP2004312162A (en) 2004-11-04
JP4314863B2 true JP4314863B2 (en) 2009-08-19

Family

ID=33464555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003100410A Expired - Fee Related JP4314863B2 (en) 2003-04-03 2003-04-03 Electronic apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4314863B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100631610B1 (en) 2004-11-26 2006-10-09 엘지전자 주식회사 Image signal synthesizing apparatus and method of mobile terminal
JP4695480B2 (en) * 2005-10-04 2011-06-08 オリンパスイメージング株式会社 camera
JP2008017238A (en) * 2006-07-07 2008-01-24 Casio Comput Co Ltd Imaging apparatus, and method and program for through-image display control
JP4612593B2 (en) 2006-07-26 2011-01-12 Hoya株式会社 Image recording device
JP5555298B2 (en) * 2012-10-15 2014-07-23 オリンパスイメージング株式会社 Camera and camera control method
JP6465333B2 (en) * 2014-07-29 2019-02-06 フリュー株式会社 Image processing apparatus and image processing method
JP6684699B2 (en) * 2016-12-15 2020-04-22 富士フイルム株式会社 Printer, digital camera with printer, and printing method

Also Published As

Publication number Publication date
JP2004312162A (en) 2004-11-04

Similar Documents

Publication Publication Date Title
US9143683B2 (en) Camera and method for recording image files
JP5729963B2 (en) Image composition processing apparatus and control method thereof
JP2015146619A (en) Photographic device, and photographic image display processing method and photographic image display processing program to apply to the photographic device
JP2008060731A (en) Camera, output image selection method, and program
JP2002112008A (en) Image processing system and recording medium recording image processing program
JP4314863B2 (en) Electronic apparatus and image processing method
US20140071306A1 (en) Imaging apparatus, digital camera, image generation method, and storage medium storing image generation program
JP6120969B2 (en) Display control apparatus and control method thereof
JP2007049545A (en) Image composing apparatus, image composing method, and program
JP2008258745A (en) Camera
JP5361780B2 (en) Image processing apparatus and image processing program
JP2007019617A (en) Photographing apparatus
JP4902365B2 (en) Image composition apparatus and program
JP3298176B2 (en) Camera device
JP2000232598A (en) Electronic still camera
JP2009118084A (en) Digital camera
JP2000316131A (en) Picture image pickup device
JP2006262496A (en) Image recording/reproducing device, camera device, image recording/reproducing method, and program
JP4347007B2 (en) Information processing apparatus and program
JP5621834B2 (en) Recording control apparatus, recording control method, and program
JP2005109569A (en) Photographing instrument
JP7395259B2 (en) Image processing device, image processing method, computer program and storage medium
JP4487594B2 (en) Imaging apparatus and moving image composition control program
JP2009071464A (en) Camera
JP2016144137A (en) Imaging device, imaging method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090428

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090511

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees