JP2004312162A - Electronic equipment and image processing method - Google Patents

Electronic equipment and image processing method Download PDF

Info

Publication number
JP2004312162A
JP2004312162A JP2003100410A JP2003100410A JP2004312162A JP 2004312162 A JP2004312162 A JP 2004312162A JP 2003100410 A JP2003100410 A JP 2003100410A JP 2003100410 A JP2003100410 A JP 2003100410A JP 2004312162 A JP2004312162 A JP 2004312162A
Authority
JP
Japan
Prior art keywords
image
area
unit
photographing
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003100410A
Other languages
Japanese (ja)
Other versions
JP4314863B2 (en
Inventor
Kimio Tamura
公夫 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003100410A priority Critical patent/JP4314863B2/en
Publication of JP2004312162A publication Critical patent/JP2004312162A/en
Application granted granted Critical
Publication of JP4314863B2 publication Critical patent/JP4314863B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Light Sources And Details Of Projection-Printing Devices (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide electronic equipment and an image processing method for simply creating a composite image intended by a user by using an image separately prepared from a photographed image without the need for troublesome image layout or the like. <P>SOLUTION: A display section 17 of a digital camera 11 displays a frame image (first image) 21 prepared in advance for creating a composite image, and photographing is carried out by each of regions 22a, 22b of the frame image 21 in separate timings to fit the photographed images corresponding to the regions 22a, 22b respectively into the corresponding regions in the frame image 21 for composing them. Thus, the composite image such as a framed image can simply be created without the need for troublesome image layout or the like. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、例えばデジタルカメラやカメラ付きの携帯電話などのカメラ機能を備えた電子機器に係り、特に、複数の領域を有するフレーム画像などを用いて合成画像を作成する場合に用いて好適な電子機器と、この電子機器に用いられる画像処理方法に関する。
【0002】
【従来の技術】
カメラ機能を備えた電子機器として、例えばデジタルカメラやカメラ付き携帯電話などが知られている。この種の電子機器では、カメラによって撮影した画像を編集するための様々な機能を備えている。その1つに、フレーム機能と呼ばれるものがある。これは、「フレーム画像」と呼ばれる装飾用の画像を用い、カメラにて撮影した被写体の画像(写真)にそのフレーム画像を重ね合わせることで、フレーム付きの画像つまり合成画像を簡易に作成する機能である(例えば特許文献1参照)。
【0003】
フレーム画像には、装飾パターンの異なる様々な種類が多数類用意されており、それぞれに所定の位置に撮影画像を嵌め込むための領域が設けられている。この領域にカメラにて撮影した画像(写真)を嵌め込むことで、フレーム付きの画像が作成される。
【0004】
【特許文献1】
特開平10−274805号公報(段落番号[0002]参照)
【0005】
【発明が解決しようとする課題】
ところで、上述したようにフレーム画像と撮影画像を合成してフレーム付きの画像を作成する場合において、通常、カメラにて撮影した画像の上にフレーム画像を重ね合わている。しかしながら、フレーム画像はその種類によって領域の位置やサイズ、形状などが異なる。このため、撮影画像の上にフレーム画像を重ねた場合に、そのフレーム画像の領域部分に撮影画像の所望の部分(人物の顔など)が必ずしもくるとは限らず、フレーム画像と撮影画像の位置がずれてしまうことが多い。このような位置ずれを回避するためには、ユーザが予めフレーム画像の領域位置を意識して被写体を撮影するか、あるいは、撮影した画像の被写体位置に合ったフレーム画像を探すしかない。
【0006】
また、複数の領域を有するフレーム画像を使用する場合には、撮影時に数人の被写体が居合わせる必要があり、その位置合わせが非常に難しくなるなどの問題がある。
【0007】
そこで、本発明は、面倒な位置合わせなどを必要とせずに、撮影画像とは別に用意された画像を用いて、ユーザの意図する合成画像を簡単に作成することのできる電子機器及び画像処理方法を提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明の請求項1に係る電子機器は、カメラ機能を備えると共に、このカメラ機能の撮影対象を表示するための表示部を備えた電子機器において、複数の領域を有する第1の画像を前記表示部に表示する表示手段と、この表示手段によって表示された第1の画像の各領域のうちの1つ以上の領域を選択する領域選択手段と、所定のタイミングで前記カメラ機能を起動し、前記領域選択手段によって選択された領域に対応した第2の画像を撮影する撮影手段と、この撮影手段によって撮影された第2の画像を前記第1の画像の前記選択された領域に嵌め込んで合成する画像合成手段とを具備して構成される。
【0009】
このような構成によれば、合成画像作成用に予め用意された第1の画像を用い、その第1の画像の各領域毎に別々のタイミングで撮影を行うことで、その撮影画像である第2の画像を該当する領域に嵌め込んだ合成画像を簡単に作成することができる。
【0010】
また、本発明の請求項2は、前記請求項1記載の電子機器において、各領域間で画像を入れ替える場合の変換手順が記述された変換手順データを記憶した変換手順記憶手段と、この変換手順記憶手段によって記憶された変換手順データに基づいて、前記第1の画像の各領域の中で移動対象として指定された領域内の第2の画像を移動先として指定された領域に合わせるように変換する変換手段とを備え、前記画像合成手段は、前記変換手段によって変換された第2の画像を前記移動先の領域に嵌め込んで合成することを特徴とする。
【0011】
このような構成によれば、例えば別の画像あるいは同一の画像内における各領域間で撮影画像である第2の画像の入れ替えを行うような場合に、変換手順データによって移動元の領域内にあった第2の画像が移動先の領域のサイズや角度などに合わせて変換されて、その移動先の領域に嵌め込まれる。
【0012】
また、本発明の請求項3に係る電子機器は、カメラ機能を備えると共に、このカメラ機能の撮影対象を表示するための表示部を備えた電子機器において、前記カメラ機能によって事前に撮影された背景画像を合成画像作成用の第1の画像として前記表示部に表示する表示手段と、この表示手段によって表示された第1の画像に対して少なくとも1つ以上の領域を設定する領域設定手段と、所定のタイミングで前記カメラ機能を起動し、前記領域設定手段によって設定された領域に対応した第2の画像を撮影する撮影手段と、この撮影手段によって撮影された第2の画像を前記第1の画像の前記設定された領域に嵌め込んで合成する画像合成手段とを具備して構成される。
【0013】
このような構成によれば、事前に撮影された背景画像を合成画像作成用の第1の画像として用いる場合において、その第1の画像の任意の位置に領域を設定して撮影を行うことにより、当該領域に撮影画像である第2の画像を嵌め込んだ合成画像を簡単に作成することができる。
【0014】
また、本発明の請求項4は、前記請求項3記載の電子機器において、前記第1の画像に設定された領域を編集する領域編集手段と、この領域編集手段によって編集された領域内の前記第2の画像を当該領域に合わせて変換する変換手段とを備えたことを特徴とする。
【0015】
このような構成によれば、背景画像である第1の画像に設定された領域を任意に編集(例えば拡大/縮小、回転、移動)することにより、その編集後の領域に合わせて当該領域内の第2の画像を変換することができる。
【0016】
また、本発明の請求項5は、前記請求項3記載の電子機器において、前記第1の画像に設定された領域を撮影前に編集する領域編集手段を備え、前記撮影手段は、所定のタイミングで前記カメラ機能を起動し、前記領域編集手段によって編集された領域に対応した第2の画像を撮影し、前記画像合成手段は、前記撮影手段によって撮影された第2の画像を前記第1の画像の前記設定択された領域に嵌め込んで合成することを特徴とする。
【0017】
このような構成によれば、背景画像である第1の画像に設定された領域を撮影前に編集(例えば拡大/縮小、回転、移動)してから撮影を行うことにより、その編集後の領域に撮影画像である第2の画像を嵌め込んた合成画像を簡単に作成することができる。
【0018】
また、本発明の請求項6は、前記請求項1または3記載の電子機器において、前記撮影手段によって撮影された第2の画像に対して所定のエフェクト処理を施すエフェクト処理手段を備えたことを特徴とする。
【0019】
このような構成によれば、撮影画像である第2の画像に対して、例えば「モノトーン」、「セピア」、「反転」、「ぼかし」などのエフェクト処理を施してから第1の画像の該当する領域に嵌め込むことができる。
【0020】
また、本発明の請求項7は、前記請求項1または3記載の電子機器において、前記第1の画像の各領域毎に別々のタイミングで前記撮影手段によって撮影された複数の異なる第2の画像を割り当てて記憶する記憶手段を備えたことを特徴とする。
【0021】
このような構成によれば、第1の画像の各領域のそれぞれに対して、別々のタイミングで撮影した複数の異なる第2の画像を割り当てて保存しておくことができる。
【0022】
また、本発明の請求項8は、前記請求項7記載の電子機器において、前記記憶手段に記憶された前記第1の画像の各領域毎の複数の第2の画像をこれらの領域毎に定められた所定のタイミングで切り換えて表示する表示切替え手段を備えたことを特徴とする。
【0023】
このような構成によれば、第1の画像の各領域に割り当てられた複数の第2の画像を所定のタイミングで切り換えて表示することができる。
【0024】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を説明する。
【0025】
(第1の実施形態)
図1は本発明の電子機器としてデジタルカメラを例にした場合の外観構成を示す図であり、そのカメラ機器本体の裏面側の構成を示している。また、図2はこのデジタルカメラに用いられるフレーム画像の一例を示す図である。
【0026】
図1に示すデジタルカメラ11は、写真用の銀塩フィルムを使用せずに、CCD(電荷結合素子)などの撮像素子を用いて被写体を撮影し、その撮影画像をデジタル化して記録するカメラである。「デジタルスチルカメラ」などとも呼ばれ、静止画像だけでなく、動画像を同時に扱うことも可能である。
【0027】
また、このデジタルカメラ11では、図2に示すようなフレーム画像21を用いて、そのフレーム画像21の所定の位置に撮影画像を嵌め込むことでフレーム付きの画像(合成画像)を作成する機能を備えている。
【0028】
図1に示すように、デジタルカメラ11の機器本体の上部には、電源のON/OFFを切り換えるための電源ボタン12や、撮影タイミングを指示するためのシャッターボタン13などが設けられている。また、この電源ボタン12やシャッターボタン13とは別に、機器本体の裏面側に各種機能を指示するための操作ボタン群14、上下左右のカーソル移動方向を指示するためのカーソールキー15などが設けられている。操作ボタン群14には、各種操作ボタンとして、例えば次候補選択ボタン14a、決定ボタン14b、画像効果選択ボタン14cなどが設けられている。
【0029】
また、機器本体の裏面側には、例えばバックライト付きカラーLCD(Liquid Crystal Display)からなる表示部17と、撮影対象となる被写体を目視するための光学ファインダ18が設置されている。表示部17は、既に撮影済みの画像データを所定の形式で再生表示する。また、この表示部17は撮影時に電子ファインダとして機能する。電子ファインダとして機能している場合には、機器本体の正面に設けられた図示せぬレンズを通して写る被写体の画像がスルー画像として表示部17に表示される。また、その際にフレーム画像21に重ねてスルー画像を表示することも可能である。
【0030】
フレーム画像21は、ユーザが撮影画像に対して任意に付加する装飾用の画像である。図2に示すように、このフレーム画像21には、何らかの模様やキャラクタなどが描かれており、その中の所定の位置に複数(この例では2つ)の撮影領域22a、22bが設けられている。これらの撮影領域22a、22b…は透明または半透明であり、図1に示すように表示部17の画面上にフレーム画像21を表示した状態で、撮影領域22a、22bを通して被写体を確認することができるようになっている。
【0031】
このようなフレーム画像が複数種類用意されており、ユーザはその中から任意に選ぶことができる。第1の実施形態では、ユーザが選択したフレーム画像(第1の画像)の各領域に対して、別々のタイミングで撮影した画像(第2の画像)を嵌め込んで1つのフレーム付き画像(合成画像)を作成可能としている。各領域に対応した撮影画像は個別あるいは一括して保存あるいは印刷物として出力することが可能である。また、これらの撮影画像に対して、「画像効果」と呼ばれるエフェクト処理を施すこともできる。この「画像効果」としては、例えば「モノトーン」、「セピア」、「反転」、「ぼかし」などがある。
【0032】
図3はデジタルカメラ11の回路構成を示すブロック図である。
【0033】
このデジタルカメラ11には、マイクロプロセッサからなる制御部31が搭載されており、この制御部31の制御の下で、デジタルカメラ11に備えられた各種機能が実行される。デジタルカメラ11に備えられた各種機能としては、カメラとしての基本機能である静止画像または動画像の撮影機能や、フレーム付き画像の作成機能などがある。
【0034】
制御部31には、操作部32、表示部17、撮影部33が接続されていると共に、記憶部34、通信部35などが接続されている。
【0035】
操作部32は、データの入力や機能指示を行うためのもので、図1に示した電源ボタン12、シャッターボタン13、操作ボタン群14、カーソールキー15などを含む。表示部17は、図1に示したように機器本体の裏面に設置されており、表示モードの切換えにより既に撮影済みの画像データを表示したり、電子ファインダとして撮影対象となる被写体の画像を表示すると共に、フレーム画像などを表示する。
【0036】
撮影部33は、静止画像または動画像の撮影を行う部分であり、例えばレンズやCCD、光電変換器などから構成される。なお、この撮影部33の具体的な構成については本発明とは直接関係しないため、ここではその説明を省略するものとする。
【0037】
記憶部34は、例えばROM、RAMなどのメモリデバイスからなり、各種データを記憶している。ここでは、本発明を実現するためのプログラムを含む各種プログラムデータや、撮影部33によって撮影された画像データ(静止画/動画)、各種フレーム画像のデータ、これらのフレーム画像などを用いて作成された合成画像データ、別のフレーム画像あるいは同一のフレーム画像の各領域間における撮影画像の入れ替え時に参照される変換手順データ、合成画像データを構成する各画像に関する情報を管理した管理テーブルTBなどが記憶部34の各記憶領域34a〜34eにそれぞれ記憶されている。
【0038】
通信部35は、所定の通信プロトコルに従って外部端末との間でネットワークを介して通信処理を行う部分であり、例えば撮影画像やその撮影画像とフレーム画像との合成画像などを電子メールの形式で外部の端末に送信する場合などに用いられる。
【0039】
また、このデジタルカメラ11は、例えば二次電池などからなる電源部36を備える。この電源部36は、制御部31を含む各デバイスの動作に必要な電源を供給する。
【0040】
次に、このような構成のデジタルカメラ11にて実現されるフレーム付き画像(合成画像)の作成方法について詳しく説明する。
【0041】
なお、各実施形態において、各フローチャートで示される処理は、マイクロプロセッサである制御部31がプログラムを読み込むことによって実行される。このプログラムは記憶部34の記憶領域34aに予め記憶されていても良いし、磁気ディスク等の記録媒体によって提供されても良い。さらに、インターネット等の通信媒体を介して提供されるような形態であっても良い。また、以下では、説明を簡単にするため、カメラにて撮影される画像が静止画像(写真)である場合を想定して説明するが、動画像であっても適用可能である。
【0042】
図4は本発明の第1の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、既存のフレーム画像を用いて合成画像を作成する場合の処理手順が示されている。
【0043】
合成画像作成時において、制御部31は、まず、例えば図示せぬフレームメニュー上でユーザが選択したフレーム画像のデータを記憶部34の記憶領域34cから読み出して表示部17に表示する(ステップA11)。このときの様子を図5に示す。今、図5(a)に示すようなフレーム画像21が表示部17に表示されたものとする。
【0044】
フレーム画像21が表示されると、その中で現在選択されている撮影領域22aが例えば十字カーソルCLによって明示される(ステップA12)。また、現在選択されている撮影領域22aではスルー画像が表示され、それ以外の領域ではフレーム画像自体の表示、あるいは、フレーム画像とスルー画像が重ね合わされて半透過状態で表示される(ステップA13)。なお、スルー画像とは、撮影時に電子ファインダとして機能している表示部17に映し出される被写体の像のことであり、モニタ画像とも呼ばれる。
【0045】
この状態で、ユーザが操作ボタン群14の中の次候補選択ボタン14aを押下操作すると(ステップA14のYes)、フレーム画像21内の次の撮影領域22bに十字カーソルCLが移動し、現在の選択領域が変更される(ステップA15)。また、ユーザが操作ボタン群14の中の決定ボタン14bを押下操作すると(ステップA16のYes)、制御部31は現在選択されている撮影領域22aを確定した後、以下のような処理を実行する。
【0046】
すなわち、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップA17)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップA18)。そして、制御部31は撮影部33から得られる撮影画像のデータから当該フレーム画像21上で選択されていた撮影領域22aに対応した画像の切り出しを行う(ステップA19)。
【0047】
その際、画像効果選択ボタン14cの操作により「画像効果」機能が選択されていれば(ステップA20のYes)、制御部31は前記切り出された画像に対して「画像効果」と呼ばれるエフェクト処理を施す(ステップA21)。「画像効果」としては、「モノトーン」、「セピア」、「反転」、「ぼかし」などがあり、例えば「モノトーン」であれば当該画像のカラーデータを白黒データに変換するなど、それぞれの項目に対応した所定の処理が行われる。ユーザはこれらのうちの1つあるいは複数の項目を例えば図示せぬ画像効果メニューの中から選択する。
【0048】
次に、制御部31はフレーム画像21の前記選択されていた撮影領域22aに、その撮影領域22aに対応させて撮影画像から切り出した画像を嵌め込んで合成した後(ステップA22)、その合成後の画像データを表示部17に表示する(ステップA22)。この状態が図5(b)である。この例では、フレーム画像21の撮影領域22aに撮影画像から切り出した画像(写真)23aが嵌め込まれている。
【0049】
また、ユーザが続けて撮影を行う場合には(ステップA24のYes)、前記ステップA12からの処理が繰り返し実行される。すなわち、制御部31はフレーム画像21の中で次に選択された撮影領域に対し、別のタイミングで撮影された画像から切り出した画像を嵌め込んで合成し、その合成後の画像データを表示部17に表示する(ステップA12〜A22)。この状態が図5(c)である。この例では、フレーム画像21の撮影領域22bに新たな撮影画像から切り出された画像(写真)23bが嵌め込まれている。
【0050】
このようにして、フレーム画像の各撮影領域に別々のタイミングで撮影された画像が嵌め込まれて、1つの合成画像がフレーム付き画像として作成される。このフレーム付き画像のデータは、記憶部34内の所定の記憶領域34dに保存される。この場合、このフレーム付き画像を構成するフレーム画像とそのフレーム画像の各領域毎の撮影画像を一緒にして保存しても良いし、これらの画像を別々に保存することでも良い。また、合成元となったフレーム画像の種類、そのフレーム画像のどの領域にどの撮影画像を当て嵌めたのかなどを示す情報が当該フレーム付き画像データに関連付けて管理テーブルTBに保存される。
【0051】
このように、本発明の第1の実施形態によれば、予め用意された既存のフレーム画像を用いて、そのフレーム画像に設けられた複数の領域に対して、別々のタイミングで撮影を行いながら1つのフレーム付き画像(合成画像)を簡単に作成することができる。この場合、従来のように、撮影後の画像の上にフレーム画像を重ね合わせる方法では、そのフレーム画像の領域に対して撮影画像の意図する部分を嵌め込むことが難しく、位置ずれなどが生じ易かったが、本発明の方式では、フレーム画像の各領域を通して撮影された画像から当該領域に対応した画像を切り出して嵌め込んでいくので、たとえ撮影領域が小さくとも、また、どのような形状であっても、位置ずれのない見栄えの良いフレーム付き画像を得ることができる。
【0052】
また、フレーム画像の各領域についての撮影を行う際に、現に撮影を行おうとする領域のみにスルー画像を表示して、それ以外の領域にはフレーム画像を表示するようにしたことで、撮影を行う前に画像合成後の様子を知ることができるため、フレーム画像とのバランスや撮影領域の形状との適合性に優れた好適な画像を得ることができる。
【0053】
また、現に撮影を行おうとする領域以外の領域に、フレーム画像とスルー画像を重ね合わせた半透過状の画像を表示することで、撮影領域から撮影対象が外れてしまっている場合でも、この撮影対象を探して撮影領域に合わせるようにすることが簡単になり、例えば、動きの速い被写体に対してもシャッターチャンスを逃すことなく好適な画像を得ることができる。
【0054】
さらに、複数の領域を有するフレーム画像を用いる場合に、複数の被写体がその場合に居合わせる必要はなく、これらの領域毎に別々のタイミングで撮影を行って最終的に1つのフレーム付き画像(合成画像)を簡単に作成することができる。
【0055】
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
【0056】
前記第1の実施形態では、予め用意された既存のフレーム画像を用いる場合を想定して説明したが、第2の実施形態では、画像合成用にユーザが事前に撮影した背景画像をオリジナルのフレーム画像として用い、そのフレーム画像に撮影画像を合成する場合である。
【0057】
なお、基本的な装置構成は前記第1の実施形態(図1)と同様であるため、ここでは第2の実施形態としての処理動作について、フローチャートと具体例を参照して説明する。
【0058】
図6は本発明の第2の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、背景画像をオリジナルのフレーム画像として用いて合成画像を作成する場合の処理手順が示されている。
【0059】
撮影時において、デジタルカメラ11の機器本体の裏面に設置された表示部1は電子ファインダとして機能しており、図示せぬレンズを通して写っている被写体の像が表示部17の画面上にスルー画像として表示されている(ステップB11)。
【0060】
ここで、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップB12)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップB13)。このときの撮影処理によって得られた画像データは、背景画像として表示部17に表示される(ステップB14)。このときの様子を図7に示す。今、図7(a)に示すような背景画像41が表示部17に表示されたものとする。
【0061】
背景画像41の表示後、ユーザによる領域指定操作があると(ステップB15のYes)、制御部31はその領域指定操作に従って当該背景画像41に対して任意形状の合成用撮影領域を設定する(ステップB16)。この状態が図7(b)である。なお、この例では2つの撮影領域42a、42bが設定されているが、本処理ではこれらの撮影領域をユーザの指示に従って1ずつ設定していくものとし、まずは、背景画像41に対し、ある1つの撮影領域42aが設定されたものとして説明する。
【0062】
また、このときの領域指定操作としては、例えばユーザが背景画像41の任意の位置をカーソル等により指定した後、その指定位置に予め用意された各種形状の領域パーツのうちの1つ(図7(b)の例では円形状の領域パーツ)を割り当てるなどである。また、別の方法として、例えば表示部17の表示画面がタブレットなどによりペン入力操作可能な構造であるとすれば、ユーザが図示せぬペンを用いて背景画像41の所望の位置に任意形状の領域を描くことでも良い。
【0063】
背景画像41上に撮影領域42aが設定されると、その撮影領域42aにスルー画像が表示され、同領域42a以外の領域に背景画像41が表示される(ステップB17)。この場合、背景画像の表示とスルー画像の表示を切り換えられるようにしても良い。また、背景画像全体を半透過表示して、その後ろのスルー画像を視認可能に表示することでも良い。さらに、どちらの画像を半透過表示するのかをボタン等の操作により切り換えられるようにしても良い。
【0064】
この状態で、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップB18)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップB19)。撮影後、制御部31は撮影部33から得られる撮影画像のデータから当該背景画像41の撮影領域42aに対応した画像の切り出しを行う(ステップB20)。
【0065】
また、このときに、前記第1の実施形態と同様、ユーザの指示に従って前記切り出された画像に対して「画像効果」と呼ばれるエフェクト処理を施すようにしても良い。
【0066】
次に、制御部31は背景画像41の前記撮影領域42aに撮影画像から切り出した画像を嵌め込んで合成した後(ステップB21)、その合成後の画像データを表示部17に表示する(ステップB22)。
【0067】
また、ユーザが続けて撮影を行う場合には(ステップB22のYes)、前記ステップB15からの処理が繰り返し実行される。すなわち、制御部31は次に指定された撮影領域に対し、別のタイミングで撮影された画像から切り出した画像を嵌め込んで合成し、その合成後の画像データを表示部17に表示する(ステップB15〜B22)。この状態が図7(c)である。この例では、背景画像41上に撮影領域42aとは別の撮影領域42bが設定され、そこに画像43aとは別のタイミングで撮影された画像42bが嵌め込まれている。
【0068】
このようにして、背景画像の各撮影領域に別々のタイミングで撮影された画像が嵌め込まれて、1つの合成画像がフレーム付き画像として作成される。このフレーム付き画像のデータは、記憶部34の所定の記憶領域34dに保存される。この場合、前記第1の実施形態と同様に、このフレーム付き画像を構成するフレーム画像とそのフレーム画像の各領域毎の撮影画像を一緒にして保存しても良いし、これらの画像を別々に保存することでも良い。また、合成元となった背景画像の種類、その背景画像のどの領域にどの撮影画像を当て嵌めたのかなどを示す情報が当該フレーム付き画像データに関連付けて管理テーブルTBに保存される。
【0069】
このように、本発明の第2の実施形態によれば、ユーザが自分で撮影した画像(背景画像)に任意形状の合成用撮影領域を複数指定することで、自分だけのオリジナルのフレーム画像を作成することができる。そして、そのオリジナルのフレーム画像と撮影画像とを重ね合わせて1つのフレーム付き画像(合成画像)を簡単に作成することができる。この場合、前記第1の実施形態と同様に、オリジナルのフレーム画像の各領域を通して撮影された画像から当該領域に対応した画像を切り出して嵌め込んでいくので、たとえ撮影領域が小さくとも、また、どのような形状であっても、位置ずれのない見栄えの良いフレーム付き画像(合成画像)を得ることができる。
【0070】
さらに、予め定められたフレームを用いて撮影をする場合、例えば撮影用領域が何箇所もあるような場合は、それらの各撮影領域の全てに対して撮影を行ってはじめて写真全体が完成するということになるが、本発明の第2の実施形態のように、ユーザが自分で撮影した画像(背景画像)に任意形状の合成用撮影領域を指定しながら撮影を行っていくことにより、必要に応じて逐次撮影領域を指定しながら、徐々にフレーム撮影領域を増やしていくという使い方が可能となり、また、その途中においても、写真が未完成ということなく各時点で一つ一つの写真として独立完成したものとして保存等しておくことができる。
【0071】
また、このことから、当初は例えば4ヶ所に撮影領域を指定しようと考えていたが、撮影を進めていくに従って3ヶ所の方が好ましい写真であることが判明したような場合でも、その時点で撮影を止めて、最も好ましい状態の写真を完成版とすることができる。
【0072】
さらに、本発明の第2の実施形態によれば、ユーザが任意形状の合成用撮影領域を指定しながら撮影を行うことで、背景画像にあわせて背景画像に相応しいフレームの形状や大きさを指定して撮影を行うことが可能になる。また、一方では、フレーム撮影領域に現に撮影しようとする撮影対象、すなわち、フレーム部分に嵌め込む人物の顔などの特徴や大きさ、被写体との距離その他のさまざまな撮影時の要因に応じて、最も被写体にふさわしいフレームの形状・大きさを指定して撮影することができるため、好適な写真を簡単に得ることができる。
【0073】
また、フレーム画像の各領域についての撮影を行う際に、現に撮影を行おうとする領域のみにスルー画像を表示してそれ以外の領域にはフレーム画像を表示するようにしているため、撮影を行う前に画像合成後の様子を知ることができるため、好適なフレーム形状・大きさの設定が簡単に行え、フレーム画像とのバランスや撮影領域の形状との適合性に優れた好適な画像を得ることができる。
【0074】
また、現に撮影を行おうとする領域以外の領域に、フレーム画像とスルー画像を重ね合わせた半透過状の画像を表示することで、撮影領域から撮影対象が外れてしまっている場合でも、この撮影対象を探して撮影領域に合わせるようにすることが簡単になり、例えば、動きの速い被写体に対してもシャッターチャンスを逃すことなく好適な画像を得ることができる。
【0075】
さらに、このオリジナルのフレーム画像に対して複数の領域が設定されている場合であっても、それらの領域に合わせて複数の被写体がその場合に居合わせる必要はなく、別々のタイミングで撮影を行って最終的に1つのフレーム付き画像(合成画像)を簡単に作成することができる。
【0076】
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
【0077】
第3の実施形態では、既存のフレーム画像を対象として、そのフレーム画像の各領域毎の画像データを別のフレーム画像へ入れ替えたり(図9参照)、同一のフレーム画像の各撮影領域間で画像データの入れ替えを可能とするものである(図11参照)。
【0078】
なお、基本的な装置構成は前記第1の実施形態(図1)と同様であるため、ここでは第3の実施形態としての処理動作について、フローチャートや具体例を参照しながら説明する。
【0079】
(他のフレーム画像へ撮影画像を入れ替える場合)
図8は本発明の第3の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、別のフレーム画像へ撮影画像を入れ替える場合の処理手順が示されている。
【0080】
所定の操作によりデジタルカメラ11の画像編集モードが設定された場合において、制御部31は、まず、その編集対象となる撮影済みの画像データとこの画像データに適用されるフレーム画像の読み込みを行う(ステップC11)。撮影済みの画像データとフレーム画像はそれぞれ記憶部34の記憶領域34b、34cに記憶されている。なお、このときに読み込んだフレーム画像のことを便宜的に「フレーム画像A」と呼び、この「フレーム画像A」の各撮影領域に嵌め込む画像データを「撮影済み部分画像」あるいは単に「部分画像」と呼ぶ。
【0081】
続いて、制御部31は、前記「フレーム画像A」以外の他のフレーム画像の候補を記憶部34の記憶領域34cから読み込む(ステップC12)。
【0082】
ここで、制御部31は、初期設定として、選択フレームを「フレーム画像A」に設定し(ステップC13)、その選択フレームの画像と撮影済み部分画像とを合成して表示部17に表示する(ステップC14)。この様子を図9に示す。今、図9(a)に示すように、フレーム画像51とそのフレーム画像51の各撮影領域52a〜52cに撮影済みの部分画像a、b、cを嵌め込んで1つのフレーム付き画像を表示したものとする。
【0083】
制御部31は、前記記憶部34の記憶領域34cから読み込んだフレーム画像の候補を例えばサムネイル形式で表示し、その中の1つをユーザに選択させる(ステップC15)。いずれかのフレーム画像の候補が選択されると(ステップC16)、制御部31は現在の選択フレーム(「フレーム画像A」)から新たに選択されたフレーム画像への変換手順データを記憶部34の記憶領域34eから読み出す(ステップC17)。
【0084】
この変換手順データは、既存のフレーム画像を対象として、各領域間で画像を入れ替える場合の変換手順が記述されたデータである。具体的に説明すると、例えばフレーム画像Aの領域a1、a2の各画像をフレーム画像Bの領域b1、b2に移動させる場合には、以下のような変換手順が記述されている。
【0085】
領域a1→領域b1:「10%拡大、20度時計周りに回転」
領域a2→領域b2:「20%拡大、30度時計周りに回転」
逆にフレーム画像Bの領域b1、b2の各画像をフレーム画像Aの領域a1、a2に移動させる場合には、以下のような変換手順が記述されている。
【0086】
領域b1→領域a1:「10%縮小、20度反時計周りに回転」
領域b2→領域a2:「20%縮小、30度反時計周りに回転」
なお、同一のフレーム画像の各領域に対しても同様であり、これらの領域間で画像を入れ替える場合の変換手順データが予め記憶部34の記憶領域34eに記憶されている。
【0087】
制御部31は、現在の選択フレームから新たに選択されたフレーム画像への領域間の画像移動に必要な変換手順データを記憶部34の記憶領域34eから読み出すと、その変換手順データに基づいて現在の選択フレームの各撮影領域毎に変換処理を行う(ステップC18)。詳しくは、現在の選択フレーム(「フレーム画像A」)の各撮影領域を通して撮影された部分画像をそれぞれの移動先(新たに選択されたフレーム画像)の領域のサイズや角度などに合わせて変換する。
【0088】
このようにして移動先の領域に合わせて部分画像を変換すると、制御部31は選択フレームを前記ステップC16で選択されたフレーム画像として(ステップC19)、その選択フレームの画像と前記変換後の部分画像とを合成して表示部17に表示する(ステップC20)。この状態が図9(b)である。
【0089】
図9(b)において、図中の53はユーザが移動先として選択したフレーム画像であり、そこには撮影領域54a〜54cが設けられている。これらの撮影領域54a〜54cの中にフレーム画像51の各撮影領域52a〜52cの部分画像a、b、cが移動して1つの新たなフレーム付き画像が再表示されることになる。
【0090】
この場合、移動元と移動先で領域のサイズや角度などが異なれば、移動先に合わせた部分画像の変換処理が自動的に行われる。また、部分画像aは撮影領域52a→撮影領域54a、部分画像bは撮影領域52b→撮影領域54b、部分画像cは撮影領域52c→撮影領域54cといったように、各撮影領域毎の部分画像の相対的な位置関係(この例では左から順にa、b、cとなる)は移動元と移動先で同じになる。なお、後述する図10の処理を用いれば、これらの部分画像の位置を入れ替えることも可能である。
【0091】
このようにして新たなフレーム付き画像が表示された後、さらにフレーム画像を変更する場合には(ステップC21のYes)、ステップC15の処理に戻って前記同様の処理が実行される。また、フレーム画像の変更を終了する場合には(ステップC21のNo)、その時点で作成されたフレーム付き画像のデータが記憶部34の記憶領域34dに保存される(ステップC22)。
【0092】
(同一フレーム画像内で撮影画像を入れ替える場合)
図10は本発明の第3の実施形態に係るデジタルカメラ11の別の処理動作を示すフローチャートであり、同一のフレーム画像内で撮影画像を入れ替える場合の処理手順が示されている。
【0093】
所定の操作によりデジタルカメラ11の画像編集モードが設定された場合において、制御部31は、まず、その編集対象となる撮影済みの画像データとこの画像データに適用されるフレーム画像の読み込みを行う(ステップD11)。撮影済みの画像データとフレーム画像はそれぞれ記憶部34の記憶領域34b、34cに記憶されている。なお、このとき読み込んだフレーム画像の各撮影領域に嵌め込む画像データのことを「撮影済み部分画像」あるいは単に「部分画像」と呼ぶ。
【0094】
続いて、制御部31はこのフレーム画像と撮影済み部分画像とを合成して表示部17に表示する(ステップD12)。この様子を図11に示す。今、図11(a)に示すように、フレーム画像51とそのフレーム画像51の各撮影領域52a〜52cに撮影済みの部分画像a、b、cを嵌め込んで1つのフレーム付き画像を表示したものとする。
【0095】
この状態で、ユーザにより入れ替え対象となる2つの部分画像が選択されると(ステップD13,D14)、制御部31は、この2つの部分画像が嵌め込まれていた撮影領域を「部分領域A」と「部分領域B」として、以下のような処理を実行する。
【0096】
すなわち、制御部31は、まず、「部分領域A」→「部分領域B」の変換手順データを記憶部34の記憶領域34eから読み出すことにより(ステップD15)、その変換手順データに基づいて「部分領域A」の画像を移動先である「部分領域B」のサイズや角度などに合わせて変換する(ステップD16)。同様に、制御部31は、「部分領域B」→「部分領域A」の変換手順データを記憶部34の記憶領域34eから読み出すことにより(ステップD17)、その変換手順データに基づいて「部分領域B」の画像を移動先である「部分領域A」のサイズや角度などに合わせて変換する(ステップD18)。
【0097】
このようにして「部分領域A」の画像と「部分領域B」の画像を互いに相手の領域に合わせて変換すると、制御部31は「部分領域A」にB→A変換後の部分画像を嵌め込むように設定すると共に、「部分領域B」にA→B変換後の部分画像を嵌め込むように位置の入れ替えを設定することにより(ステップD19)、その入れ替え後のフレーム付き画像データを表示部17に表示する(ステップD20)。この状態が図11(b)である。
【0098】
図11(b)の例では、撮影領域52aの部分画像aと撮影領域52bの部分画像bとを入れ替えた状態が示されている。この場合、この場合、移動元と移動先で領域のサイズや角度などが異なれば、移動先に合わせた部分画像の変換処理が自動的に行われる。
【0099】
さらに画像の入れ替えを続ける場合には(ステップD21のYes)、前記ステップD13からの処理が繰り返される。このようにして、同じフレーム画像51の各撮影領域52a〜52cの部分画像a、b、cが自由に入れ替えて、新たなフレーム付き画像して作成することができる。
【0100】
また、画像の入れ替えを終了する場合には(ステップD21のNo)、その時点で作成されたフレーム付き画像のデータが記憶部34の記憶領域34dに保存される(ステップD22)。
【0101】
このように、本発明の第3の実施形態によれば、フレーム画像の各領域毎の画像データを別のフレーム画像あるいは同一のフレーム画像の各領域間で自由に入れ替えて新たなフレーム付き画像(合成画像)を簡単に作成することができる。したがって、同じ被写体の画像で様々なフレーム画像を用いてフレーム付き画像を作成する場合に、その都度、フレーム画像を入れ替えながら撮影を繰り返すなどの面倒に作業は不要となる。また、被写体の画像についても撮影済みのものを何度も使い回しできるため、メモリ容量が少なくて済むなどの利点がある。
【0102】
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。
【0103】
第4の実施形態では、前記第2の実施形態のようにユーザが撮影した背景画像をオリジナルのフレーム画像として用いる場合において、そのフレーム画像に設定した各領域の編集操作を可能とするものである。
【0104】
なお、基本的な装置構成は前記第1の実施形態(図1)と同様であるため、ここでは第4の実施形態としての処理動作について、フローチャートを参照しながら説明する。
【0105】
図12は本発明の第4の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、背景画像に設定された各領域を編集する場合の処理手順が示されている。
【0106】
所定の操作によりデジタルカメラ11の画像編集モードが設定された場合において、制御部31は、まず、その編集対象となる撮影済みの画像データとこの画像データに適用される背景画像の読み込みを行う(ステップE11)。撮影済みの画像データと背景画像はそれぞれ記憶部34の記憶領域34b、34cに記憶されている。背景画像とは、前記第2の実施形態で説明したように、既存のフレーム画像に代わってユーザが任意に撮影した画像データのことであり、複数の撮影領域を有する(図7参照)。この背景画像の各撮影領域に嵌め込む画像データを「撮影済み部分画像」あるいは単に「部分画像」と呼ぶ。
【0107】
続いて、制御部31はこの背景画像と撮影済み部分画像とを合成して表示部17に表示する(ステップE13)。この状態で、ユーザにより編集対象となる部分画像が選択されると、制御部31は、この選択された部分画像の領域を「部分領域A」として、ユーザの編集操作に従って以下のような処理を実行する(ステップE13)。
【0108】
前記編集操作としては、「拡大/縮小操作」、「回転操作」、「移動操作」があり、例えば表示部17の表示画面がタブレットなどによりペン入力操作可能な構造であるとすれば、ユーザが図示せぬペンを用いて所望の領域を拡大/縮小、回転、移動の操作を行うものとする。
【0109】
ここで、ユーザによる「拡大/縮小操作」があれば(ステップE14のYes)、制御部31は、現在の選択領域である「部分領域A」のサイズをユーザ操作に従って拡大あるいは縮小する(ステップE15)。また、ユーザによる「回転操作」があれば(ステップE16のYes)、制御部31は、現在の選択領域である「部分領域A」の角度をユーザ操作に従って傾ける(ステップE17)。また、ユーザによる「移動操作」があれば(ステップE18のYes)、制御部31は、現在の選択領域である「部分領域A」の位置をユーザ操作に従って移動する(ステップE19)。
【0110】
このようにして、「部分領域A」に対して拡大/縮小、回転、移動などの編集処理を施すと、制御部31は編集後の「部分領域A」に合わせて部分画像を変換することにより、その部分画像を背景画像に合成し(ステップE20)、その合成後の画像データを新たなフレーム付き画像として表示部17に再表示する(ステップE21)。なお、例えば領域の移動によって元の位置に表示しなくなった部分には、その部分に対応した背景画像のデータを読み出して表示するものとする。
【0111】
さらに編集を続ける場合には(ステップE22のYes)、ステップE13の処理に戻って前記同様の処理が実行される。また、編集を終了する場合には(ステップE22のNo)、その時点で作成されたフレーム付き画像データが記憶部34の記憶領域34dに保存される(ステップE23)。
【0112】
このように、本発明の第4の実施形態によれば、オリジナルのフレーム画像である背景画像を用いた場合において、その背景画像に設定された各領域をユーザの好みに合わせて自由に編集して新たなフレーム付き画像(合成画像)を簡単に作成することができる。
【0113】
(第5の実施形態)
次に、本発明の第5の実施形態について説明する。
【0114】
第5の実施形態では、前記第2の実施形態のようにユーザが撮影した背景画像をオリジナルのフレーム画像として用いる場合において、そのフレーム画像に嵌め込む画像を撮影する前に当該フレーム画像に設定した各領域の編集操作を可能とし、その編集状態をプレビューできるようにしたものである。
【0115】
なお、基本的な装置構成は前記第1の実施形態(図1)と同様であるため、ここでは第5の実施形態としての処理動作について、フローチャートや具体例を参照しながら説明する。
【0116】
図13は本発明の第5の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、背景画像に設定された各領域を撮影前に編集する場合の処理手順が示されている。
【0117】
撮影時において、デジタルカメラ11の機器本体の裏面に設置された表示部1は電子ファインダとして機能しており、図示せぬレンズを通して写っている被写体の像が表示部17の画面上にスルー画像として表示されている(ステップF11)。
【0118】
ここで、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップF12)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップF13)。このときの撮影処理によって得られた画像データは、背景画像として表示部17に表示される(ステップF14)。このときの様子を図14に示す。今、図14(a)に示すような背景画像61が表示部17に表示されたものとする。なお、図14(a)、(b)、(c)において、左側が表示部17上に表示された背景画像61、右側が現在の撮影対象であるスルー画像62を示している。
【0119】
背景画像61の表示後、ユーザによる領域指定操作があると(ステップF15のYes)、制御部31はその領域指定操作に従って背景画像61に対して任意形状の合成用撮影領域を設定する(ステップF16)。この撮影領域を「部分領域A」とし、図14(a)に示すような位置に設定されたものとする。なお、このときの領域指定操作としては、例えばユーザが背景画像41の任意の位置をカーソル等により指定した後、その指定位置に予め用意された各種形状の領域パーツのうちの1つ(図14(a)の例では円形状の領域パーツ)を割り当てるなどである。
【0120】
背景画像41上に撮影領域である「部分領域A」が設定されると、その「部分領域A」にスルー画像62が表示され、「部分領域A」以外の領域に背景画像61が表示される(ステップF17)。
【0121】
ここで、前記第2の実施形態では、この時点でユーザがシャッターボタン13を押して撮影を行うものとしたが、ここでは撮影前に「部分領域A」の編集操作を行うことができる。編集操作とは、前記第4の実施形態で説明したように「拡大/縮小操作」、「回転操作」、「移動操作」などであり、例えば表示部17の表示画面がタブレットなどによりペン入力操作可能な構造であるとすれば、ユーザが図示せぬペンを用いて所望の領域を拡大/縮小、回転、移動の操作を行うものとする。
【0122】
ユーザによる「拡大/縮小操作」があれば(ステップF18のYes)、制御部31は、現在の選択領域である「部分領域A」のサイズをユーザ操作に従って拡大あるいは縮小する(ステップF19)。また、ユーザによる「回転操作」があれば(ステップF20のYes)、制御部31は、現在の選択領域である「部分領域A」の角度をユーザ操作に従って傾ける(ステップF21)。ユーザによる「移動操作」があれば(ステップF22のYes)、制御部31は、現在の選択領域である「部分領域A」の位置をユーザ操作に従って移動する(ステップF23)。
【0123】
図14(b)の例はファインダを移動させて「部分領域A」の画像を変更した状態を示しており、図14(c)の例は「部分領域A」を移動して横方向に拡大した状態を示している。
【0124】
このようにして、「部分領域A」の画像に対して拡大/縮小、回転、移動などの編集処理を施すと、制御部31は編集後の「部分領域A」のスルー画像を背景画像に合成して(ステップF24)、その合成後の画像データを表示部17に表示する(ステップF25)。なお、例えば画像の移動等によって元の位置に新たな表示を必要とする場合にはそこに背景画像を読み出して表示するものとする(図14(c)の符号61a参照)。
【0125】
このような状態で、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップF26)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップF27)。
【0126】
このようにして、背景画像の中で事前に編集された各領域毎に別々のタイミングで撮影を行うことで、1つのフレーム付き画像が作成される。このフレーム付き画像のデータは、記憶部34の所定の記憶領域34dに保存される。この場合、前記第1の実施形態と同様に、このフレーム付き画像を構成するフレーム画像とそのフレーム画像の各領域毎の撮影画像を一緒にして保存しても良いし、これらの画像を別々に保存することでも良い。また、合成元となった背景画像の種類、その背景画像のどの領域にどの撮影画像を当て嵌めたのかなどを示す情報が当該フレーム付き画像データに関連付けて管理テーブルTBに保存される。
【0127】
このように、本発明の第5の実施形態によれば、オリジナルのフレーム画像として用いる背景画像の各領域をユーザ操作により任意に編集でき、その編集状態をプレビューとして画面上で確認しながら撮影を行うことで、ユーザの意図とするフレーム付き画像(合成画像)を簡単に作成することができる。
【0128】
(第6の実施形態)
次に、本発明の第6の実施形態について説明する。
【0129】
第6の実施形態では、フレーム画像の各領域に対して複数の画像(写真)を割り当てて保存しておくようにしたものである。これは、例えば図16に示すように、フレーム画像71に複数の撮影領域72a〜72cがある場合に、撮影領域72aに対してa1,a2,a3、撮影領域72bに対してb1,b2,b3,b4、撮影領域72cに対してc1,c2といったように、各領域に対して複数の画像を割り当てて保存するものである。
【0130】
以下に、図15を参照して具体的な処理動作について説明する。なお、基本的な装置構成は前記第1の実施形態(図1)と同様である。
【0131】
図15は本発明の第6の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、フレーム画像の各撮影領域に複数の画像を割り当てて保存する場合の処理手順が示されている。なお、ここで用いられるフレーム画像は、前記第1の実施形態で説明したような既存のフレーム画像であっても良いし、前記第2の実施形態で説明したようなオリジナルのフレーム画像(背景画像)であっても良い。ここでは、既存のフレーム画像を用いた場合を想定して説明する。
【0132】
フレーム付き画像作成時において、ユーザにより既存のフレーム画像が選択されると(ステップG11)、制御部31はその選択されたフレーム画像を記憶部34の記憶領域34cから読み出して表示部17に表示する(ステップG12)。このフレーム画像には、予め複数の撮影領域が設けられており、その中の1つが表示部17の表示画面上でカーソル等により指定されると(ステップG13)、制御部31はその指定された撮影領域を「部分領域A」として、その「部分領域A」に既に保存されている画像の数NAを取得する(ステップG14)。
【0133】
この場合、当該フレーム画像を用いたフレーム付き画像の作成が始めてであれば、NA=0であるが、既に当該フレーム画像を用いたフレーム付き画像の作成がなされていれば、NA>1である。このNAの値は記憶部34の記憶領域34fに設けられた管理テーブルTBに当該フレーム画像に対応させて保持されている。
【0134】
ここで、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップG15)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップG16)。この撮影により、「部分領域A」に対応した画像が得られるが、その際に「部分領域A」に対して既に保存されている画像が存在すれば、制御部31はその画像を残したままで、今回新たに撮影された画像を「NA+1」番目の画像として所定の領域に保存する(ステップG17)。例えば、図16の例で、フレーム画像71の撮影領域72aに対して画像a1が既に保存されていれば、そこに画像a2が追加保存されることになる。
【0135】
また、このときに所定の操作により撮影画像の対応付け指示があると(ステップG18のYes)、制御部31はユーザの指示に従って「部分領域A」以外の他の領域に保存されている画像を選択し(ステップG19)、今回得られた撮影画像をその選択画像に対応付けておく(ステップG20)。これは、前記管理テーブルTBに今回得られた撮影画像と前記選択画像とをリンクさせておくための特定の情報をセットしておくことで実現できる。
【0136】
さらに撮影を続ける場合には(ステップG21のYes)、ステップG13に戻って前記同様の処理が繰り返される。撮影を続けない場合には(ステップG21のNo)、ここでの処理が終了する。
【0137】
このように、本発明の第6の実施形態によれば、フレーム画像の各撮影領域に対して複数の画像を割り当てて保存することができる。したがって、例えば同じ絵柄のフレーム画像に対し、被写体の画像を入れ替えながら複数枚のフレーム付き画像を作成するような場合に、1枚のフレーム画像だけで対応することができ、メモリ容量を節約することができる。
【0138】
また、このフレーム画像を用いて撮影した画像を同じフレーム画像の他の領域の画像と対応付けておくことで、図16に示すように、例えば「a1−b1−c1」のグループ、「a2−b2−c2」のグループ…といったように、同じフレーム画像の各画像をグループ分けすることができ、そのグループ単位でフレーム付き画像を簡単に作成することができる。
【0139】
(第7の実施形態)
次に、本発明の第7の実施形態について説明する。
【0140】
第7の実施形態では、前記第6の実施形態のようにフレーム画像の各撮影領域に対して複数の画像(写真)を割り当てて保存しておく場合において、これらの画像を自動あるいは手動操作によりスライドショーのように切り換えて再生表示するようにしたものである。
【0141】
具体的に説明すると、例えば図19に示すように、フレーム画像71の撮影領域72aに対してa1,a2,a3、撮影領域72bに対してb1,b2,b3,b4、撮影領域72cに対してc1,c2といったように、各領域に対して複数の画像を割り当てて保存されているものとする。ここで、自動表示を指示すると、これらの画像が撮影領域72aではa1→a2→a3→a1…、撮影領域72bではb1→b2→b3→b4→b1…、撮影領域72cではc1→c2→c1…といったように、所定のタイミングで自動的に切り換えられて再生表示される。この場合、各撮影領域に対して再生速度を任意に設定したり、特定の撮影領域のみ画像を固定しておくことも可能である。また、手動操作による表示では、これがユーザによる指定操作に従って実行される。
【0142】
以下に、図17および図18を参照して具体的な処理動作について説明する。なお、基本的な装置構成は前記第1の実施形態(図1)と同様である。
【0143】
図17および図18は本発明の第7の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、フレーム画像の各撮影領域に割り当てられた複数の画像を再生表示する場合の処理手順が示されている。なお、ここで用いられるフレーム画像は、前記第1の実施形態で説明したような既存のフレーム画像であっても良いし、前記第2の実施形態で説明したようなオリジナルのフレーム画像(背景画像)であっても良い。ここでは、既存のフレーム画像を用いた場合を想定して説明する。
【0144】
今、前記第6の実施形態で説明したような方法によって各撮影領域に複数の画像が割り当てられたフレーム画像が表示部17に表示されたとする(ステップH11)。ここで、所定の操作により自動再生が指示されると(ステップH12のYes)、以下のような自動表示処理が実行される。
【0145】
すなわち、制御部31は、まず、そのフレーム画像の各撮影領域毎に設けられた図示せぬタイマTmA,TmB…を初期化すると共に、例えばTmAx=100,TmBx=200…といったように、それぞれの撮影領域に対する切り換えタイミング値を設定する(ステップH13)。
【0146】
続いて、制御部31は、フレーム画像の各撮影領域に表示する画像の番号を示すPicNumA,PicNumB…を初期化した後(ステップH14)、これらの画像番号PicNumで示される画像を記憶部34の記憶領域34bから読み出して各撮影領域内に表示する(ステップH15)。つまり、図19の例であれば、まず、フレーム画像71の撮影領域72aに対して画像a1、撮影領域72bに対して画像b1、撮影領域72cに対して画像c1を表示することになる。
【0147】
ここで、制御部31は各撮影領域のタイマTmA,TmB…を内部クロックに同期させて+1ずつインクリメントしながら(ステップH16)、そのタイマ値が繰り替えタイミング値に達した否かを各撮影領域毎に監視する(ステップH17)。そして、タイマ値が繰り替えタイミング値に達したものがあれば(ステップH17のYes)、制御部31はその時点で該当する撮影領域のタイマ値を0に戻し、その撮影領域に対する画像番号PicNumの値を+1更新する(ステップH18)。ただし、PicNumの値が最大値の場合には初期値の“1”に戻すものとする。
【0148】
このようにして、制御部31は繰り替えタイミング値に達した撮影領域の画像番号PicNumを更新し、そのPicNumで示される画像を当該撮影領域内に表示する(ステップH19)。以後同様にして、制御部31は各タイマ値を監視しながら、各撮影領域の画像をそれぞれのタイミングで切り換ながら表示する(ステップH20のNo)。これにより、図19に示すように、フレーム画像72の撮影領域72aではa1→a2→a3→a1…、撮影領域72bではb1→b2→b3→b4→b1…、撮影領域72cではc1→c2→c1…といったように、各画像がそれぞれのタイミングで切り換え表示されることになる。また、所定の操作により終了指示があれば(ステップH20のYes)、ここでの処理を終了する。
【0149】
一方、前記ステップH12において、自動再生が指示されなかった場合には、以下のような手動操作による表示処理が実行される。
【0150】
すなわち、制御部31は、フレーム画像の各撮影領域に表示する画像の番号を示すPicNumA,PicNumB…を初期化した後(ステップH21)、これらの画像番号PicNumで示される画像を記憶部34の記憶領域34bから読み出して各撮影領域内に表示する(ステップH22)。つまり、図19の例であれば、まず、フレーム画像71の撮影領域72aに対して画像a1、撮影領域72bに対して画像b1、撮影領域72cに対して画像c1を表示することになる。
【0151】
ここで、ユーザによる領域指定入力があれば(ステップH23のYes)、制御部31はその指定された撮影領域を特定の表示形態(例えば枠の色の変更、反転表示、矢印やカーソルの表示など)で表示する(ステップH24)。そして、この状態でユーザによる画像変更の操作入力があれば(ステップH25のYes)、制御部31は当該撮影領域に対する画像番号PicNumの値を+1更新し(ステップH26)、そのPicNumで示される画像を当該撮影領域内に表示する(ステップH27)。ただし、PicNumの値が最大値の場合には初期値の“1”に戻して表示するものとする。
【0152】
以後同様にして、制御部31はユーザによる指定操作に従って各撮影領域の画像を切り換ながら表示する(ステップH28のNo)。これにより、図19に示すように、フレーム画像72の撮影領域72aではa1→a2→a3→a1…、撮影領域72bではb1→b2→b3→b4→b1…、撮影領域72cではc1→c2→c1…といったように、各画像の切り換え表示を手動操作により実現されることになる。また、所定の操作により終了指示があれば(ステップH28のYes)、ここでの処理を終了する。
【0153】
このように、本発明の第7の実施形態によれば、1つのフレーム画像を用いて、そのフレーム画像の各撮影領域に割り当てられた複数の画像をスライドショーのように所定の順で表示しながら確認することができる。
【0154】
なお、ここではフレーム画像の各撮影領域に割り当てられた複数の画像を順に表示する場合について説明したが、例えば前記第6の実施形態のように複数の画像をグループ単位で記憶しておく構成とすれば、そのグループ単位で自動あるいは手動操作により表示することが可能である。
【0155】
また、前記各実施形態では、フレーム画像に撮影画像を合成したフレーム付き画像を作成する場合を想定して説明したが、本発明はこれに限るものではなく、カメラにて撮影した画像を別の画像の所定の位置に嵌め込んで合成する場合であれば前記同様の手法を適用することができる。
【0156】
また、本発明はデジタルカメラ11に限らず、例えばカメラ付きの携帯電話やPDA(Personal Digital Assistant)など、カメラ機能を備えた電子機器であは、これらの全て機器に適用可能である。
【0157】
要するに、本発明は前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。更に、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、実施形態で示される全構成要件から幾つかの構成要件が削除されても、「発明が解決しようとする課題」で述べた効果が解決でき、「発明の効果」の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
【0158】
また、上述した各実施形態において記載した手法は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に適用したり、そのプログラム自体をネットワーク等の伝送媒体により伝送して各種装置に適用することも可能である。本装置を実現するコンピュータは、記録媒体に記録されたプログラムあるいは伝送媒体を介して提供されたプログラムを読み込み、このプログラムによって動作が制御されることにより、上述した処理を実行する。
【0159】
また、前述したCD−ROMやDVD−ROM等の記録媒体の他にも、例えば、Blu−ray Disc(R)やAOD(Advanced Optical Disc)などの青色レーザを用いた次世代光ディスク、赤色レーザを用いるHD−DVD9、青紫色レーザを用いるBlue Laser DVDなど、今後開発される種々の大容量記録媒体を用いて本発明を実施することが可能である。
【0160】
【発明の効果】
以上詳記したように本発明によれば、合成画像作成用の第1の画像の各領域毎に別々のタイミングで撮影を行って、その撮影画像である第2の画像を該当する領域に嵌め込んで合成するようにしたため、面倒な位置合わせなどを必要とせずに、撮影画像とは別に用意された画像を用いて、ユーザの意図する合成画像を簡単に作成することができる。
【図面の簡単な説明】
【図1】本発明の電子機器としてデジタルカメラを例にした場合の外観構成を示す図。
【図2】前記デジタルカメラに用いられるフレーム画像の一例を示す図。
【図3】前記デジタルカメラの回路構成を示すブロック図。
【図4】本発明の第1の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、既存のフレーム画像を用いて合成画像を作成する場合の処理手順を示すフローチャート。
【図5】前記図4に示す処理を具体的に説明するための図。
【図6】本発明の第2の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、背景画像をオリジナルのフレーム画像として用いて合成画像を作成する場合の処理手順を示すフローチャート。
【図7】前記図6に示す処理を具体的に説明するための図。
【図8】本発明の第3の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、別のフレーム画像へ撮影画像を入れ替える場合の処理手順を示すフローチャート。
【図9】前記図8に示す処理を具体的に説明するための図。
【図10】本発明の第3の実施形態に係るデジタルカメラの別の処理動作を示すフローチャートであり、同一のフレーム画像内で撮影画像を入れ替える場合の処理手順を示すフローチャート。
【図11】前記図10に示す処理を具体的に説明するための図。
【図12】本発明の第4の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、背景画像に設定された各領域を編集する場合の処理手順を示すフローチャート。
【図13】本発明の第5の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、背景画像に設定された各領域を撮影前に編集する場合の処理手順を示すフローチャート。
【図14】前記図13に示す処理を具体的に説明するための図。
【図15】本発明の第6の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、フレーム画像の各撮影領域に複数の画像を割り当てて保存する場合の処理手順を示す図。
【図16】前記図16に示す処理を具体的に説明するための図。
【図17】本発明の第7の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、フレーム画像の各撮影領域に割り当てられた複数の画像を再生表示する場合の処理手順を示すフローチャート。
【図18】本発明の第7の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、フレーム画像の各撮影領域に割り当てられた複数の画像を再生表示する場合の処理手順を示すフローチャート。
【図19】前記図18および図19に示す処理を具体的に説明するための図。
【符号の説明】
11…デジタルカメラ
12…電源ボタン
13…シャッターボタン
14…操作ボタン群
14a…次候補選択ボタン
14b…決定ボタン
14c…画像効果選択ボタン
15…カーソールキー
17…表示部
18…光学ファインダ
21…フレーム画像
22a,22b…撮影領域
23a,23b…画像(写真)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an electronic device having a camera function such as a digital camera or a mobile phone with a camera, and more particularly to an electronic device suitable for creating a composite image using a frame image having a plurality of regions. The present invention relates to a device and an image processing method used for the electronic device.
[0002]
[Prior art]
As an electronic device having a camera function, for example, a digital camera and a camera-equipped mobile phone are known. This type of electronic device has various functions for editing an image captured by a camera. One of them is called a frame function. This is a function to easily create an image with a frame, that is, a composite image by superimposing the frame image on an image (photograph) of a subject taken by a camera using a decorative image called a “frame image”. (For example, see Patent Document 1).
[0003]
Many different types of decorative patterns are prepared in the frame image, and each has an area for fitting a photographed image at a predetermined position. By fitting an image (photograph) taken by the camera into this area, an image with a frame is created.
[0004]
[Patent Document 1]
JP-A-10-274805 (see paragraph [0002])
[0005]
[Problems to be solved by the invention]
By the way, when a framed image is created by combining a frame image and a captured image as described above, the frame image is usually superimposed on the image captured by the camera. However, the position, size, shape, and the like of the region differ depending on the type of the frame image. For this reason, when a frame image is superimposed on a captured image, a desired portion (such as a person's face) of the captured image does not always come to the region of the frame image, and the position of the frame image and the captured image Often shifts. The only way to avoid such a displacement is for the user to take a picture of the subject in consideration of the area position of the frame image in advance, or to search for a frame image that matches the subject position of the captured image.
[0006]
In addition, when a frame image having a plurality of regions is used, several subjects need to be present at the time of photographing, and there is a problem that it is very difficult to position the subject.
[0007]
Therefore, the present invention provides an electronic apparatus and an image processing method that can easily create a composite image intended by a user by using an image prepared separately from a captured image without requiring complicated positioning and the like. The purpose is to provide.
[0008]
[Means for Solving the Problems]
The electronic device according to claim 1 of the present invention includes a camera function and an electronic device including a display unit for displaying a shooting target of the camera function, wherein the first image having a plurality of regions is displayed. Display means for displaying on the unit, area selection means for selecting one or more of the respective areas of the first image displayed by the display means, and activating the camera function at a predetermined timing, Photographing means for photographing a second image corresponding to the area selected by the area selecting means, and combining the second image photographed by the photographing means into the selected area of the first image And an image synthesizing means.
[0009]
According to such a configuration, the first image prepared in advance for creating the composite image is used, and the image is taken at different timings for each region of the first image, so that the first image that is the taken image is obtained. Thus, it is possible to easily create a composite image in which the second image is fitted in the corresponding area.
[0010]
According to a second aspect of the present invention, in the electronic device according to the first aspect, a conversion procedure storage unit that stores conversion procedure data describing a conversion procedure when an image is exchanged between respective areas, Based on the conversion procedure data stored by the storage means, conversion is performed so that the second image in the area specified as the movement target in each area of the first image is matched with the area specified as the movement destination. And a combining unit that fits the second image converted by the converting unit into the destination area and combines the second image.
[0011]
According to such a configuration, for example, when the second image, which is a captured image, is exchanged between different regions in another image or in the same image, the conversion procedure data is used to replace the second image in the source region. The second image is converted according to the size, angle, and the like of the destination area, and fitted into the destination area.
[0012]
An electronic device according to a third aspect of the present invention includes a camera function and a display unit for displaying an object to be photographed by the camera function. Display means for displaying an image on the display unit as a first image for creating a composite image, area setting means for setting at least one area for the first image displayed by the display means, Photographing means for activating the camera function at a predetermined timing and photographing a second image corresponding to the area set by the area setting means; and transmitting the second image photographed by the photographing means to the first image. Image synthesizing means for inserting the image into the set area of the image and synthesizing the image.
[0013]
According to such a configuration, when a background image captured in advance is used as a first image for creating a composite image, an image is set by setting an area at an arbitrary position of the first image and performing imaging. Thus, it is possible to easily create a composite image in which the second image, which is a captured image, is fitted in the area.
[0014]
According to a fourth aspect of the present invention, in the electronic device according to the third aspect, there is provided an area editing unit that edits an area set in the first image; Conversion means for converting the second image in accordance with the area.
[0015]
According to such a configuration, by arbitrarily editing (for example, enlarging / reducing, rotating, and moving) an area set in the first image as a background image, the area in the area is adjusted in accordance with the edited area. Can be converted.
[0016]
According to a fifth aspect of the present invention, in the electronic device according to the third aspect, the electronic apparatus further includes an area editing unit that edits an area set in the first image before photographing, and the photographing unit has a predetermined timing. And activates the camera function to photograph a second image corresponding to the area edited by the area editing means, and the image synthesizing means converts the second image photographed by the photographing means to the first image. The image is synthesized by fitting into the selected area of the image.
[0017]
According to such a configuration, the region set in the first image which is the background image is edited (for example, enlarged / reduced, rotated, and moved) before photographing, and photographing is performed. Thus, it is possible to easily create a composite image in which the second image, which is a photographed image, is fitted.
[0018]
According to a sixth aspect of the present invention, in the electronic device according to the first or third aspect, an effect processing unit for performing a predetermined effect process on the second image photographed by the photographing unit is provided. Features.
[0019]
According to such a configuration, for example, “monotone”, “sepia”, “reversal”, “blur” or the like is applied to the second image, which is a captured image, and then the second image corresponding to the first image is processed. Can be fitted into the region where
[0020]
According to a seventh aspect of the present invention, in the electronic device according to the first or third aspect, a plurality of different second images photographed by the photographing unit at different timings for each area of the first image. Storage means for assigning and storing
[0021]
According to such a configuration, a plurality of different second images photographed at different timings can be assigned and stored for each of the regions of the first image.
[0022]
According to an eighth aspect of the present invention, in the electronic device according to the seventh aspect, a plurality of second images for each area of the first image stored in the storage unit are determined for each of these areas. Display switching means for switching and displaying at a given predetermined timing.
[0023]
According to such a configuration, a plurality of second images assigned to each area of the first image can be switched and displayed at a predetermined timing.
[0024]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0025]
(1st Embodiment)
FIG. 1 is a diagram showing an external configuration of a digital camera as an example of an electronic apparatus according to the present invention, and shows a configuration of a back side of a camera apparatus main body. FIG. 2 is a diagram showing an example of a frame image used in the digital camera.
[0026]
The digital camera 11 shown in FIG. 1 is a camera that takes an image of a subject using an imaging device such as a CCD (charge coupled device) without using a silver halide film for photography, and digitizes and records the captured image. is there. It is also called “digital still camera” and can handle not only still images but also moving images at the same time.
[0027]
The digital camera 11 has a function of creating a framed image (synthesized image) by fitting a photographed image into a predetermined position of the frame image 21 using the frame image 21 as shown in FIG. Have.
[0028]
As shown in FIG. 1, a power button 12 for switching power ON / OFF, a shutter button 13 for instructing a photographing timing, and the like are provided at an upper portion of a device main body of the digital camera 11. In addition to the power button 12 and the shutter button 13, an operation button group 14 for instructing various functions, a cursor key 15 for instructing up, down, left and right cursor movement directions are provided on the back side of the device body. ing. The operation button group 14 is provided with various operation buttons, for example, a next candidate selection button 14a, a decision button 14b, an image effect selection button 14c, and the like.
[0029]
Further, on the back side of the device main body, a display unit 17 composed of, for example, a color LCD (Liquid Crystal Display) with a backlight, and an optical finder 18 for viewing a subject to be photographed are provided. The display unit 17 reproduces and displays the image data that has already been captured in a predetermined format. The display unit 17 functions as an electronic finder during photographing. When functioning as an electronic finder, an image of a subject captured through a lens (not shown) provided on the front of the device main body is displayed on the display unit 17 as a through image. At that time, it is also possible to display a through image on the frame image 21.
[0030]
The frame image 21 is a decorative image that the user arbitrarily adds to the captured image. As shown in FIG. 2, a certain pattern, character, or the like is drawn in the frame image 21, and a plurality of (two in this example) imaging regions 22a and 22b are provided at predetermined positions in the frame image 21. I have. Are transparent or translucent. When the frame image 21 is displayed on the screen of the display unit 17 as shown in FIG. 1, the subject can be confirmed through the photographing regions 22a, 22b. I can do it.
[0031]
A plurality of such frame images are prepared, and the user can arbitrarily select from them. In the first embodiment, an image (second image) photographed at different timings is fitted into each area of the frame image (first image) selected by the user, and one frame-attached image (synthesized image) is obtained. Image) can be created. The captured images corresponding to each area can be stored individually or collectively or output as printed matter. Further, an effect process called “image effect” can be applied to these captured images. The “image effect” includes, for example, “monotone”, “sepia”, “reversal”, and “blur”.
[0032]
FIG. 3 is a block diagram illustrating a circuit configuration of the digital camera 11.
[0033]
The digital camera 11 is equipped with a control unit 31 including a microprocessor, and various functions provided in the digital camera 11 are executed under the control of the control unit 31. The various functions provided in the digital camera 11 include a still image or moving image shooting function, which is a basic function of the camera, and a function of creating an image with a frame.
[0034]
The operation unit 32, the display unit 17, and the imaging unit 33 are connected to the control unit 31, and the storage unit 34, the communication unit 35, and the like are connected to the control unit 31.
[0035]
The operation unit 32 is for inputting data and giving a function instruction, and includes the power button 12, the shutter button 13, the operation button group 14, the cursor key 15, and the like shown in FIG. The display unit 17 is installed on the back surface of the device main body as shown in FIG. 1, and displays already captured image data by switching display modes, or displays an image of a subject to be captured as an electronic finder. And display a frame image and the like.
[0036]
The photographing unit 33 is a part that photographs a still image or a moving image, and includes, for example, a lens, a CCD, a photoelectric converter, and the like. Note that the specific configuration of the photographing unit 33 is not directly related to the present invention, and therefore the description thereof is omitted here.
[0037]
The storage unit 34 is configured by a memory device such as a ROM and a RAM, and stores various data. Here, various program data including a program for realizing the present invention, image data (still image / moving image) photographed by the photographing unit 33, data of various frame images, and these frame images are created. The stored composite image data, conversion procedure data referred to when replacing a captured image between different regions of another frame image or each region of the same frame image, and a management table TB managing information on each image constituting the composite image data are stored. It is stored in each of the storage areas 34a to 34e of the unit 34.
[0038]
The communication unit 35 is a unit that performs communication processing with an external terminal via a network according to a predetermined communication protocol. For example, the communication unit 35 outputs a captured image or a composite image of the captured image and a frame image in the form of an electronic mail. It is used when transmitting to a terminal.
[0039]
In addition, the digital camera 11 includes a power supply unit 36 including, for example, a secondary battery. The power supply unit 36 supplies power necessary for the operation of each device including the control unit 31.
[0040]
Next, a method of creating an image with a frame (synthesized image) realized by the digital camera 11 having such a configuration will be described in detail.
[0041]
In each embodiment, the process shown in each flowchart is executed by the control unit 31 which is a microprocessor reading a program. This program may be stored in the storage area 34a of the storage unit 34 in advance, or may be provided by a recording medium such as a magnetic disk. Furthermore, a form provided via a communication medium such as the Internet may be used. In the following, for the sake of simplicity, the description will be made on the assumption that the image captured by the camera is a still image (photograph). However, the present invention is also applicable to a moving image.
[0042]
FIG. 4 is a flowchart showing a processing operation of the digital camera 11 according to the first embodiment of the present invention, and shows a processing procedure when a composite image is created using an existing frame image.
[0043]
At the time of creating a composite image, the control unit 31 first reads, for example, data of a frame image selected by the user on a frame menu (not shown) from the storage area 34c of the storage unit 34 and displays the data on the display unit 17 (step A11). . The situation at this time is shown in FIG. Now, it is assumed that a frame image 21 as shown in FIG.
[0044]
When the frame image 21 is displayed, the currently selected photographing area 22a is clearly indicated by, for example, the cross cursor CL (step A12). In the currently selected shooting area 22a, a through image is displayed, and in other areas, the frame image itself is displayed, or the frame image and the through image are superimposed and displayed in a semi-transparent state (step A13). . Note that the through image is an image of a subject displayed on the display unit 17 functioning as an electronic finder at the time of shooting, and is also called a monitor image.
[0045]
When the user presses the next candidate selection button 14a in the operation button group 14 in this state (Yes in step A14), the cross cursor CL moves to the next shooting area 22b in the frame image 21 and the current selection is made. The area is changed (step A15). When the user presses the enter button 14b of the operation button group 14 (Yes in step A16), the control unit 31 determines the currently selected shooting area 22a and then executes the following processing. .
[0046]
That is, the control unit 31 waits for the shutter button 13 to be pressed (step A17), and performs a shooting process by the shooting unit 33 at the timing when the shutter button 13 is pressed (step A18). Then, the control unit 31 cuts out an image corresponding to the shooting area 22a selected on the frame image 21 from the data of the shot image obtained from the shooting unit 33 (step A19).
[0047]
At this time, if the “image effect” function is selected by operating the image effect selection button 14c (Yes in step A20), the control unit 31 performs an effect process called “image effect” on the cut-out image. (Step A21). The "image effect" includes "monotone", "sepia", "reversal", "blur", etc.For example, in the case of "monotone", the color data of the image is converted into black-and-white data. A corresponding predetermined process is performed. The user selects one or more of these items from, for example, an image effect menu (not shown).
[0048]
Next, the control unit 31 inserts an image cut out from the photographed image corresponding to the photographing region 22a into the selected photographing region 22a of the frame image 21 and combines them (step A22). Is displayed on the display unit 17 (step A22). This state is shown in FIG. In this example, an image (photograph) 23a cut out from the photographed image is fitted into the photographing region 22a of the frame image 21.
[0049]
In addition, when the user continuously performs photographing (Yes in step A24), the processing from step A12 is repeatedly executed. That is, the control unit 31 inserts an image cut out from an image shot at another timing into a shooting region selected next in the frame image 21 and synthesizes the image, and displays the synthesized image data on the display unit. 17 (steps A12 to A22). This state is shown in FIG. In this example, an image (photograph) 23b cut out from a new photographed image is fitted into the photographing region 22b of the frame image 21.
[0050]
In this way, the images shot at different timings are fitted into each shooting area of the frame image, and one composite image is created as a framed image. The data of the frame-attached image is stored in a predetermined storage area 34d in the storage unit 34. In this case, the frame image constituting the framed image and the captured image of each region of the frame image may be stored together, or these images may be stored separately. In addition, information indicating the type of the frame image from which the image is to be synthesized, which captured image has been applied to which area of the frame image, and the like are stored in the management table TB in association with the framed image data.
[0051]
As described above, according to the first embodiment of the present invention, while using an existing frame image prepared in advance, a plurality of regions provided in the frame image are photographed at different timings. An image with one frame (composite image) can be easily created. In this case, in a conventional method of superimposing a frame image on an image after photographing, it is difficult to fit an intended portion of the photographed image into an area of the frame image, and it is easy for misalignment to occur. However, in the method of the present invention, an image corresponding to the region is cut out from the image photographed through each region of the frame image and fitted, so that even if the photographing region is small, it does not have any shape. However, it is possible to obtain a good-looking framed image without any displacement.
[0052]
Also, when shooting each area of the frame image, the through image is displayed only in the area where the shooting is actually to be performed, and the frame image is displayed in the other areas, so that the shooting is performed. Since the state after the image synthesis can be known before performing, a suitable image excellent in the balance with the frame image and the compatibility with the shape of the imaging region can be obtained.
[0053]
In addition, by displaying a semi-transparent image in which a frame image and a through image are superimposed on an area other than the area where the shooting is actually to be performed, even when the shooting target is out of the shooting area, this shooting is performed. It is easy to find a target and match it with the shooting area. For example, a suitable image can be obtained even for a fast-moving subject without missing a photo opportunity.
[0054]
Furthermore, when a frame image having a plurality of regions is used, it is not necessary for a plurality of subjects to be present in such a case. ) Can be easily created.
[0055]
(Second embodiment)
Next, a second embodiment of the present invention will be described.
[0056]
The first embodiment has been described on the assumption that an existing frame image prepared in advance is used. However, in the second embodiment, a background image photographed in advance by a user for image synthesis is replaced with an original frame image. This is a case where the captured image is combined with the frame image using the image.
[0057]
Since the basic device configuration is the same as that of the first embodiment (FIG. 1), the processing operation of the second embodiment will be described here with reference to flowcharts and specific examples.
[0058]
FIG. 6 is a flowchart showing a processing operation of the digital camera 11 according to the second embodiment of the present invention, and shows a processing procedure when a composite image is created using a background image as an original frame image.
[0059]
At the time of photographing, the display unit 1 installed on the back of the device body of the digital camera 11 functions as an electronic finder, and an image of a subject taken through a lens (not shown) is displayed as a through image on the screen of the display unit 17. It is displayed (step B11).
[0060]
Here, the control unit 31 waits until the shutter button 13 is pressed (step B12), and performs a shooting process by the shooting unit 33 at the timing when the shutter button 13 is pressed (step B13). The image data obtained by the photographing process at this time is displayed on the display unit 17 as a background image (step B14). The situation at this time is shown in FIG. Now, it is assumed that a background image 41 as shown in FIG.
[0061]
After the background image 41 is displayed, if there is an operation for specifying an area by the user (Yes in step B15), the control unit 31 sets an image capturing area for synthesis of an arbitrary shape for the background image 41 according to the area specifying operation (step S15). B16). This state is shown in FIG. In this example, two photographing areas 42a and 42b are set. However, in this processing, these photographing areas are set one by one in accordance with a user's instruction. The description will be made assuming that one shooting area 42a is set.
[0062]
In this case, the user designates an arbitrary position of the background image 41 with a cursor or the like, and then, for example, selects one of various-shaped region parts prepared in advance at the designated position (see FIG. 7). In the example of (b), a circular area part) is assigned. As another method, for example, if the display screen of the display unit 17 has a structure in which a pen input operation can be performed by a tablet or the like, the user can use a pen (not shown) to place an arbitrary shape at a desired position of the background image 41. You may draw an area.
[0063]
When the shooting area 42a is set on the background image 41, a through image is displayed in the shooting area 42a, and the background image 41 is displayed in an area other than the shooting area 42a (step B17). In this case, the display of the background image and the display of the through image may be switched. Alternatively, the whole background image may be displayed semi-transparently, and the through image behind the background image may be displayed so as to be visible. Further, which of the images is to be displayed translucently may be switched by operating a button or the like.
[0064]
In this state, the control unit 31 waits for the shutter button 13 to be pressed (step B18), and performs a photographing process by the photographing unit 33 at the timing when the shutter button 13 is pressed (step B19). After photographing, the control unit 31 cuts out an image corresponding to the photographing area 42a of the background image 41 from the photographed image data obtained from the photographing unit 33 (step B20).
[0065]
At this time, similarly to the first embodiment, an effect process called “image effect” may be performed on the cut-out image according to a user's instruction.
[0066]
Next, the control unit 31 fits the image cut out from the photographed image into the photographing area 42a of the background image 41 and combines the images (step B21), and displays the combined image data on the display unit 17 (step B22). ).
[0067]
In addition, when the user continuously performs photographing (Yes in step B22), the processing from step B15 is repeatedly executed. That is, the control unit 31 fits an image cut out from an image shot at another timing into the next designated shooting region and combines them, and displays the combined image data on the display unit 17 (step B15 to B22). This state is shown in FIG. In this example, a shooting area 42b different from the shooting area 42a is set on the background image 41, and an image 42b shot at a different timing from the image 43a is fitted therein.
[0068]
In this way, images shot at different timings are fitted into each shooting area of the background image, and one composite image is created as a framed image. The data of the image with the frame is stored in a predetermined storage area 34d of the storage unit 34. In this case, similarly to the first embodiment, the frame image forming the framed image and the captured image of each region of the frame image may be stored together, or these images may be separately stored. You can save it. In addition, information indicating the type of the background image from which the image is to be synthesized, which captured image has been applied to which area of the background image, and the like are stored in the management table TB in association with the framed image data.
[0069]
As described above, according to the second embodiment of the present invention, a user specifies his or her own original frame image by designating a plurality of shooting regions for synthesis of an arbitrary shape in an image (background image) shot by himself. Can be created. Then, it is possible to easily create one framed image (synthesized image) by superimposing the original frame image and the photographed image. In this case, as in the first embodiment, an image corresponding to the region is cut out from the image photographed through each region of the original frame image and fitted, so that even if the photographing region is small, Regardless of the shape, it is possible to obtain a good-looking framed image (composite image) with no positional displacement.
[0070]
Furthermore, when photographing is performed using a predetermined frame, for example, when there are a plurality of photographing areas, it is said that the entire photograph is completed only after photographing is performed on all of these photographing areas. That is to say, as in the second embodiment of the present invention, it is necessary for the user to perform shooting while designating a shooting area for synthesis of an arbitrary shape on an image (background image) shot by himself / herself. It is possible to use the method to gradually increase the frame shooting area while sequentially specifying the shooting area according to the situation, and even in the middle of the process, each picture is independently completed at each point without unfinished pictures It can be stored as a result.
[0071]
Also, from this, at the beginning, it was intended to designate, for example, four photographing areas. However, even if it was found that three pictures were preferable as the photographing proceeded, at that time, The photographing can be stopped, and the photograph in the most preferable state can be completed.
[0072]
Furthermore, according to the second embodiment of the present invention, the user performs shooting while designating an image capturing area for synthesis having an arbitrary shape, thereby designating the shape and size of a frame suitable for the background image in accordance with the background image. To take a picture. Also, on the other hand, according to the shooting target that is actually to be shot in the frame shooting area, that is, the characteristics and size of the face etc. of the person fitted into the frame portion, the distance to the subject, and other various shooting factors, Since a photograph can be taken by designating the shape and size of the frame most suitable for the subject, a suitable photograph can be easily obtained.
[0073]
In addition, when photographing each region of the frame image, the through image is displayed only in the region where the photographing is actually to be performed, and the frame image is displayed in the other region. Since it is possible to know the state after image synthesis beforehand, it is possible to easily set a suitable frame shape and size, and obtain a suitable image excellent in balance with the frame image and compatibility with the shape of the shooting area. be able to.
[0074]
In addition, by displaying a semi-transparent image in which a frame image and a through image are superimposed on an area other than the area where the shooting is actually to be performed, even when the shooting target is out of the shooting area, this shooting is performed. It is easy to find a target and match it with the shooting area. For example, a suitable image can be obtained even for a fast-moving subject without missing a photo opportunity.
[0075]
Further, even when a plurality of regions are set for the original frame image, it is not necessary for a plurality of subjects to be present in such a case in accordance with those regions. Finally, one framed image (composite image) can be easily created.
[0076]
(Third embodiment)
Next, a third embodiment of the present invention will be described.
[0077]
In the third embodiment, for an existing frame image, the image data of each area of the frame image is replaced with another frame image (see FIG. 9), or the image data is captured between the respective image capturing areas of the same frame image. The data can be exchanged (see FIG. 11).
[0078]
Since the basic device configuration is the same as that of the first embodiment (FIG. 1), the processing operation according to the third embodiment will be described here with reference to flowcharts and specific examples.
[0079]
(When replacing the shot image with another frame image)
FIG. 8 is a flowchart showing a processing operation of the digital camera 11 according to the third embodiment of the present invention, and shows a processing procedure when a captured image is replaced with another frame image.
[0080]
When the image editing mode of the digital camera 11 is set by a predetermined operation, the control unit 31 first reads captured image data to be edited and a frame image applied to the image data ( Step C11). The photographed image data and the frame image are stored in storage areas 34b and 34c of the storage unit 34, respectively. Note that the frame image read at this time is referred to as “frame image A” for convenience, and the image data to be fitted into each shooting area of this “frame image A” is referred to as a “captured partial image” or simply “partial image”. ".
[0081]
Subsequently, the control unit 31 reads a candidate for a frame image other than the “frame image A” from the storage area 34c of the storage unit 34 (Step C12).
[0082]
Here, as an initial setting, the control unit 31 sets the selected frame to “frame image A” (step C13), combines the image of the selected frame with the captured partial image, and displays it on the display unit 17 ( Step C14). This is shown in FIG. Now, as shown in FIG. 9A, one framed image is displayed by fitting the framed image 51 and the captured partial images a, b, and c into the respective shooting regions 52a to 52c of the framed image 51. Shall be.
[0083]
The control unit 31 displays frame image candidates read from the storage area 34c of the storage unit 34, for example, in a thumbnail format, and allows the user to select one of them (step C15). When any of the frame image candidates is selected (step C16), the control unit 31 stores the conversion procedure data for converting the currently selected frame (“frame image A”) into the newly selected frame image in the storage unit 34. The data is read from the storage area 34e (step C17).
[0084]
The conversion procedure data is data that describes a conversion procedure when an image is exchanged between the respective regions for an existing frame image. More specifically, for example, when each image in the areas a1 and a2 of the frame image A is moved to the areas b1 and b2 of the frame image B, the following conversion procedure is described.
[0085]
Area a1 → Area b1: "Enlarge by 10%, rotate clockwise 20 degrees"
Area a2 → Area b2: "Enlarge by 20%, rotate clockwise by 30 degrees"
Conversely, when each image in the areas b1 and b2 of the frame image B is moved to the areas a1 and a2 of the frame image A, the following conversion procedure is described.
[0086]
Area b1 → Area a1: "Reduced by 10%, rotated counterclockwise by 20 degrees"
Area b2 → A2: “20% reduction, 30 ° counterclockwise rotation”
Note that the same applies to each area of the same frame image, and conversion procedure data for replacing an image between these areas is stored in the storage area 34e of the storage unit 34 in advance.
[0087]
When reading the conversion procedure data necessary for moving the image between the areas from the currently selected frame to the newly selected frame image from the storage area 34e of the storage section 34, the control section 31 reads the conversion procedure data based on the conversion procedure data. The conversion process is performed for each shooting area of the selected frame (step C18). More specifically, the partial images photographed through the respective photographing regions of the currently selected frame (“frame image A”) are converted according to the size and angle of the region of the moving destination (the newly selected frame image). .
[0088]
When the partial image is converted in accordance with the destination area in this way, the control unit 31 sets the selected frame as the frame image selected in step C16 (step C19), and sets the selected frame image and the converted The image is synthesized and displayed on the display unit 17 (step C20). This state is shown in FIG.
[0089]
In FIG. 9B, reference numeral 53 in the figure denotes a frame image selected by the user as a destination, in which shooting areas 54a to 54c are provided. The partial images a, b, and c of the respective photographing areas 52a to 52c of the frame image 51 move into these photographing areas 54a to 54c, and one new framed image is displayed again.
[0090]
In this case, if the size and angle of the area are different between the movement source and the movement destination, the conversion processing of the partial image according to the movement destination is automatically performed. Further, the partial image a is a relative to the partial image of each photographing region, such as the photographing region 52a → the photographing region 54a, the partial image b is the photographing region 52b → the photographing region 54b, the partial image c is the photographing region 52c → the photographing region 54c. (In this example, a, b, and c in order from the left) are the same between the source and the destination. Note that the positions of these partial images can be interchanged by using the processing of FIG. 10 described later.
[0091]
After the new framed image is displayed in this manner, if the frame image is to be further changed (Yes in step C21), the process returns to step C15 and the same processing as described above is executed. When the change of the frame image is completed (No in step C21), the data of the framed image created at that time is stored in the storage area 34d of the storage unit 34 (step C22).
[0092]
(When replacing captured images within the same frame image)
FIG. 10 is a flowchart showing another processing operation of the digital camera 11 according to the third embodiment of the present invention, and shows a processing procedure when a captured image is replaced in the same frame image.
[0093]
When the image editing mode of the digital camera 11 is set by a predetermined operation, the control unit 31 first reads captured image data to be edited and a frame image applied to the image data ( Step D11). The photographed image data and the frame image are stored in storage areas 34b and 34c of the storage unit 34, respectively. It should be noted that the image data to be fitted into each photographing area of the frame image read at this time is referred to as a “captured partial image” or simply “partial image”.
[0094]
Subsequently, the control unit 31 combines the frame image and the photographed partial image and displays the combined image on the display unit 17 (step D12). This is shown in FIG. Now, as shown in FIG. 11A, one framed image is displayed by fitting the captured partial images a, b, and c into the frame image 51 and the image capturing regions 52a to 52c of the frame image 51. Shall be.
[0095]
In this state, when two partial images to be replaced are selected by the user (steps D13 and D14), the control unit 31 designates the imaging region in which the two partial images have been fitted as a "partial region A". The following processing is executed as “partial area B”.
[0096]
That is, the control unit 31 first reads the conversion procedure data of “partial area A” → “partial area B” from the storage area 34e of the storage unit 34 (step D15), and based on the conversion procedure data, The image of the "region A" is converted according to the size and angle of the "partial region B" to which the image is moved (step D16). Similarly, the control unit 31 reads the conversion procedure data from “partial area B” → “partial area A” from the storage area 34e of the storage unit 34 (step D17), and based on the conversion procedure data, The image of “B” is converted according to the size and angle of the “partial area A” to which the image is moved (step D18).
[0097]
When the image of the “partial area A” and the image of the “partial area B” are converted to match each other in this manner, the control unit 31 fits the B → A converted partial image into the “partial area A”. In addition, by setting so that the image data with the frame is inserted into the "partial area B" and by setting the position replacement such that the partial image after the A → B conversion is fitted (step D19), the image data with the frame after the replacement is displayed on the display unit. 17 is displayed (step D20). This state is shown in FIG.
[0098]
In the example of FIG. 11B, a state in which the partial image a of the photographing area 52a and the partial image b of the photographing area 52b are exchanged is shown. In this case, in this case, if the size and angle of the area are different between the movement source and the movement destination, the conversion processing of the partial image according to the movement destination is automatically performed.
[0099]
If the image replacement is to be continued (Yes in step D21), the processing from step D13 is repeated. In this way, the partial images a, b, and c of the respective photographing areas 52a to 52c of the same frame image 51 can be freely replaced to create a new framed image.
[0100]
When the replacement of the images is completed (No in step D21), the data of the framed image created at that time is stored in the storage area 34d of the storage unit 34 (step D22).
[0101]
As described above, according to the third embodiment of the present invention, the image data for each region of the frame image is freely replaced between another region of the frame image or each region of the same frame image, and a new image with a frame ( (Composite image) can be easily created. Therefore, when creating an image with a frame using various frame images with an image of the same subject, it is not necessary to perform a troublesome operation such as repeating photographing while replacing the frame image each time. In addition, the photographed object can be reused many times for the image of the subject, so that there is an advantage that the memory capacity is small.
[0102]
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described.
[0103]
In the fourth embodiment, when a background image captured by a user is used as an original frame image as in the second embodiment, an editing operation of each area set in the frame image is enabled. .
[0104]
Since the basic device configuration is the same as that of the first embodiment (FIG. 1), the processing operation of the fourth embodiment will be described here with reference to a flowchart.
[0105]
FIG. 12 is a flowchart showing a processing operation of the digital camera 11 according to the fourth embodiment of the present invention, and shows a processing procedure when editing each area set in the background image.
[0106]
When the image editing mode of the digital camera 11 is set by a predetermined operation, the control unit 31 first reads captured image data to be edited and a background image applied to the image data ( Step E11). The photographed image data and the background image are stored in storage areas 34b and 34c of the storage unit 34, respectively. The background image is, as described in the second embodiment, image data arbitrarily photographed by a user in place of an existing frame image, and has a plurality of photographing regions (see FIG. 7). The image data to be fitted into each photographing area of the background image is referred to as a “captured partial image” or simply “partial image”.
[0107]
Subsequently, the control unit 31 combines the background image and the photographed partial image and displays them on the display unit 17 (step E13). In this state, when the user selects a partial image to be edited, the control unit 31 sets the area of the selected partial image as “partial area A” and performs the following processing according to the user's editing operation. Execute (Step E13).
[0108]
The editing operation includes “enlargement / reduction operation”, “rotation operation”, and “movement operation”. For example, if the display screen of the display unit 17 has a structure in which a pen input operation can be performed using a tablet or the like, the user can perform the operation. It is assumed that a desired area is enlarged / reduced, rotated, and moved using a pen (not shown).
[0109]
Here, if there is an “enlargement / reduction operation” by the user (Yes in step E14), the control unit 31 enlarges or reduces the size of the “partial area A” that is the currently selected area according to the user operation (step E15). ). If there is a “rotation operation” by the user (Yes in step E16), the control unit 31 tilts the angle of the “partial region A” that is the current selection region according to the user operation (step E17). If there is a “move operation” by the user (Yes in step E18), the control unit 31 moves the position of the “partial region A” that is the currently selected region according to the user operation (step E19).
[0110]
In this way, when editing processing such as enlargement / reduction, rotation, and movement is performed on the “partial area A”, the control unit 31 converts the partial image according to the edited “partial area A”. Then, the partial image is combined with the background image (step E20), and the combined image data is displayed again on the display unit 17 as a new framed image (step E21). Note that, for example, in a portion that is not displayed at the original position due to the movement of the area, the data of the background image corresponding to the portion is read and displayed.
[0111]
If the editing is to be continued (Yes in step E22), the process returns to step E13 and the same processing as described above is executed. When the editing is completed (No in step E22), the image data with the frame created at that time is stored in the storage area 34d of the storage unit 34 (step E23).
[0112]
As described above, according to the fourth embodiment of the present invention, when a background image which is an original frame image is used, each area set in the background image can be freely edited according to the user's preference. Thus, a new framed image (composite image) can be easily created.
[0113]
(Fifth embodiment)
Next, a fifth embodiment of the present invention will be described.
[0114]
In the fifth embodiment, when a background image captured by a user is used as an original frame image as in the second embodiment, the background image is set in the frame image before the image to be fitted into the frame image is captured. The editing operation of each area is made possible, and the editing state can be previewed.
[0115]
Since the basic device configuration is the same as that of the first embodiment (FIG. 1), the processing operation of the fifth embodiment will be described here with reference to flowcharts and specific examples.
[0116]
FIG. 13 is a flowchart showing a processing operation of the digital camera 11 according to the fifth embodiment of the present invention, and shows a processing procedure when each area set as a background image is edited before photographing.
[0117]
At the time of photographing, the display unit 1 installed on the back of the device body of the digital camera 11 functions as an electronic finder, and an image of a subject taken through a lens (not shown) is displayed as a through image on the screen of the display unit 17. It is displayed (step F11).
[0118]
Here, the control unit 31 waits for the shutter button 13 to be pressed (step F12), and performs a shooting process by the shooting unit 33 at the timing when the shutter button 13 is pressed (step F13). The image data obtained by the photographing process at this time is displayed on the display unit 17 as a background image (step F14). The situation at this time is shown in FIG. It is assumed that a background image 61 as shown in FIG. 14A, 14B, and 14C, the left side shows a background image 61 displayed on the display unit 17, and the right side shows a through image 62 that is a current shooting target.
[0119]
After the background image 61 is displayed, if there is a region designation operation by the user (Yes in step F15), the control unit 31 sets an arbitrary-shape photographing region for the background image 61 in accordance with the region designation operation (step F16). ). This photographing region is referred to as “partial region A” and is assumed to be set at a position as shown in FIG. In this case, as the area specifying operation, for example, after the user specifies an arbitrary position of the background image 41 with a cursor or the like, one of various shaped area parts prepared in advance at the specified position (FIG. In the example of (a), a circular area part) is assigned.
[0120]
When a “partial area A” as a shooting area is set on the background image 41, a through image 62 is displayed in the “partial area A”, and a background image 61 is displayed in an area other than the “partial area A”. (Step F17).
[0121]
Here, in the second embodiment, the user presses the shutter button 13 at this time to perform shooting, but here, the editing operation of the “partial area A” can be performed before shooting. The editing operation includes “enlargement / reduction operation”, “rotation operation”, “movement operation”, and the like as described in the fourth embodiment. For example, the display screen of the display unit 17 is operated by a pen input operation using a tablet or the like. If the structure is possible, the user performs operations of enlarging / reducing, rotating, and moving a desired area using a pen (not shown).
[0122]
If there is an “enlargement / reduction operation” by the user (Yes in step F18), the control unit 31 enlarges or reduces the size of the “partial area A” that is the current selection area according to the user operation (step F19). If there is a “rotation operation” by the user (Yes in step F20), the control unit 31 tilts the angle of the “partial region A” that is the current selection region according to the user operation (step F21). If there is a “moving operation” by the user (Yes in step F22), the control unit 31 moves the position of the “partial region A” that is the current selection region according to the user operation (step F23).
[0123]
The example of FIG. 14B shows a state in which the image of “partial area A” has been changed by moving the finder, and the example of FIG. 14C has moved the “partial area A” and expanded in the horizontal direction. FIG.
[0124]
As described above, when the editing process such as enlargement / reduction, rotation, and movement is performed on the image of the “partial region A”, the control unit 31 combines the edited through image of the “partial region A” with the background image. Then, the combined image data is displayed on the display unit 17 (step F25). If a new display is required at the original position due to, for example, movement of the image, the background image is read out and displayed there (see reference numeral 61a in FIG. 14C).
[0125]
In such a state, the control unit 31 waits for the shutter button 13 to be pressed (step F26), and performs a shooting process by the shooting unit 33 at the timing when the shutter button 13 is pressed (step F27). ).
[0126]
In this manner, one frame-attached image is created by performing shooting at different timings for each region previously edited in the background image. The data of the image with the frame is stored in a predetermined storage area 34d of the storage unit 34. In this case, similarly to the first embodiment, the frame image forming the framed image and the captured image of each region of the frame image may be stored together, or these images may be separately stored. You can save it. In addition, information indicating the type of the background image from which the image is to be synthesized, which captured image has been applied to which area of the background image, and the like are stored in the management table TB in association with the framed image data.
[0127]
As described above, according to the fifth embodiment of the present invention, each area of the background image used as the original frame image can be arbitrarily edited by a user operation, and the editing state can be previewed on the screen as a preview. By doing so, it is possible to easily create a framed image (synthesized image) intended by the user.
[0128]
(Sixth embodiment)
Next, a sixth embodiment of the present invention will be described.
[0129]
In the sixth embodiment, a plurality of images (photos) are allocated to each area of a frame image and stored. For example, as shown in FIG. 16, when there are a plurality of photographing areas 72a to 72c in the frame image 71, a1, a2, a3 for the photographing area 72a and b1, b2, b3 for the photographing area 72b. , B4, and a plurality of images are allocated to each area, such as c1 and c2, for the shooting area 72c, and stored.
[0130]
Hereinafter, a specific processing operation will be described with reference to FIG. The basic device configuration is the same as that of the first embodiment (FIG. 1).
[0131]
FIG. 15 is a flowchart showing a processing operation of the digital camera 11 according to the sixth embodiment of the present invention, and shows a processing procedure in a case where a plurality of images are allocated to each shooting area of a frame image and stored. Note that the frame image used here may be an existing frame image as described in the first embodiment or an original frame image (background image) as described in the second embodiment. ). Here, description will be made assuming a case where an existing frame image is used.
[0132]
At the time of creating an image with a frame, when an existing frame image is selected by the user (step G11), the control unit 31 reads out the selected frame image from the storage area 34c of the storage unit 34 and displays it on the display unit 17. (Step G12). The frame image is provided with a plurality of photographing regions in advance. When one of the photographing regions is designated by a cursor or the like on the display screen of the display unit 17 (step G13), the control unit 31 specifies the designated photographing region. Assuming that the shooting area is “partial area A”, the number NA of images already stored in the “partial area A” is obtained (step G14).
[0133]
In this case, if the creation of the framed image using the frame image is the first time, NA = 0, but if the creation of the framed image using the frame image has already been performed, NA> 1. . The NA value is held in the management table TB provided in the storage area 34f of the storage unit 34 in association with the frame image.
[0134]
Here, the control unit 31 waits for the shutter button 13 to be pressed (step G15), and performs a shooting process by the shooting unit 33 at the timing when the shutter button 13 is pressed (step G16). By this photographing, an image corresponding to “partial area A” is obtained. At this time, if there is an image already stored for “partial area A”, the control unit 31 leaves the image as it is. Then, the newly shot image is stored in a predetermined area as the “NA + 1” th image (step G17). For example, in the example of FIG. 16, if the image a1 has already been stored in the shooting area 72a of the frame image 71, the image a2 is additionally stored therein.
[0135]
In addition, at this time, if there is an instruction to associate a captured image by a predetermined operation (Yes in step G18), the control unit 31 deletes the image stored in an area other than the “partial area A” according to the instruction of the user. The selected image is selected (step G19), and the captured image obtained this time is associated with the selected image (step G20). This can be realized by setting specific information for linking the captured image obtained this time and the selected image to the management table TB.
[0136]
If the photographing is to be continued further (Yes in step G21), the process returns to step G13 and the same processing as described above is repeated. If the photographing is not to be continued (No in step G21), the processing here ends.
[0137]
As described above, according to the sixth embodiment of the present invention, it is possible to allocate a plurality of images to each shooting region of a frame image and save the images. Therefore, for example, in a case where a plurality of framed images are created while replacing the subject image with a frame image having the same pattern, only one frame image can be used, and the memory capacity can be saved. Can be.
[0138]
In addition, by associating an image captured using this frame image with an image in another region of the same frame image, as shown in FIG. 16, for example, a group “a1-b1-c1”, Each image of the same frame image can be divided into groups, such as a group of “b2-c2”, and an image with a frame can be easily created for each group.
[0139]
(Seventh embodiment)
Next, a seventh embodiment of the present invention will be described.
[0140]
In the seventh embodiment, when a plurality of images (photographs) are allocated to each shooting region of a frame image and stored as in the sixth embodiment, these images are automatically or manually operated. This is switched and displayed as a slide show.
[0141]
More specifically, for example, as shown in FIG. 19, a1, a2, a3 for the shooting area 72a of the frame image 71, b1, b2, b3, b4 for the shooting area 72b, and for the shooting area 72c. It is assumed that a plurality of images are allocated to each area and stored, such as c1 and c2. Here, when an automatic display is instructed, these images are a1.fwdarw.a2.fwdarw.a3.fwdarw.a1 in the photographing region 72a, b1.fwdarw.b2.fwdarw.b3.fwdarw.b4.fwdarw.b1 in the photographing region 72b, and c1.fwdarw.c2.fwdarw.c1 in the photographing region 72c. .., Etc., are automatically switched and reproduced and displayed at a predetermined timing. In this case, it is also possible to arbitrarily set the reproduction speed for each shooting area or to fix an image only in a specific shooting area. Also, in the display by manual operation, this is executed in accordance with the operation specified by the user.
[0142]
Hereinafter, a specific processing operation will be described with reference to FIGS. 17 and 18. The basic device configuration is the same as that of the first embodiment (FIG. 1).
[0143]
FIGS. 17 and 18 are flowcharts showing the processing operation of the digital camera 11 according to the seventh embodiment of the present invention. The processing procedure for reproducing and displaying a plurality of images assigned to each shooting area of a frame image is shown. It is shown. Note that the frame image used here may be an existing frame image as described in the first embodiment or an original frame image (background image) as described in the second embodiment. ). Here, description will be made assuming a case where an existing frame image is used.
[0144]
Now, it is assumed that a frame image in which a plurality of images are assigned to each shooting region is displayed on the display unit 17 by the method described in the sixth embodiment (step H11). Here, when an automatic reproduction is instructed by a predetermined operation (Yes in step H12), the following automatic display processing is executed.
[0145]
That is, the control unit 31 first initializes timers TmA, TmB,... (Not shown) provided for each shooting region of the frame image, and sets each of the timers to, for example, TmAx = 100, TmBx = 200, etc. A switching timing value for the shooting area is set (step H13).
[0146]
Subsequently, the control unit 31 initializes PicNumA, PicNumB... Indicating the numbers of the images to be displayed in the respective photographing regions of the frame image (step H14), and then stores the images indicated by these image numbers PicNum in the storage unit. The data is read from the storage area 34b and displayed in each shooting area (step H15). That is, in the example of FIG. 19, first, the image a1 is displayed for the shooting area 72a of the frame image 71, the image b1 is displayed for the shooting area 72b, and the image c1 is displayed for the shooting area 72c.
[0147]
Here, the control unit 31 increments the timers TmA, TmB,... Of each shooting region by +1 in synchronization with the internal clock (step H16), and determines whether the timer value has reached the repetition timing value for each shooting region. (Step H17). If there is a timer value that has reached the repetition timing value (Yes in step H17), the control unit 31 returns the timer value of the corresponding shooting area to 0 at that time, and sets the value of the image number PicNum for that shooting area. Is updated by +1 (step H18). However, when the value of PicNum is the maximum value, the value is returned to the initial value “1”.
[0148]
In this way, the control unit 31 updates the image number PicNum of the imaging region that has reached the repetition timing value, and displays an image indicated by the PicNum in the imaging region (step H19). Thereafter, in the same manner, the control unit 31 displays the images in the respective photographing areas while switching them at the respective timings while monitoring the respective timer values (No in step H20). As a result, as shown in FIG. 19, a1 → a2 → a3 → a1... In the shooting area 72a of the frame image 72, b1 → b2 → b3 → b4 → b1... In the shooting area 72b, and c1 → c2 → in the shooting area 72c. Each image is switched and displayed at each timing, such as c1. If there is a termination instruction by a predetermined operation (Yes in step H20), the processing here is terminated.
[0149]
On the other hand, if the automatic reproduction is not instructed in step H12, the following manual display processing is executed.
[0150]
That is, the control unit 31 initializes PicNumA, PicNumB... Indicating the numbers of the images to be displayed in each shooting region of the frame image (step H21), and stores the images indicated by these image numbers PicNum in the storage unit 34. The data is read from the area 34b and displayed in each shooting area (step H22). That is, in the example of FIG. 19, first, the image a1 is displayed on the photographing region 72a of the frame image 71, the image b1 is displayed on the photographing region 72b, and the image c1 is displayed on the photographing region 72c.
[0151]
Here, if there is a region designation input by the user (Yes in step H23), the control unit 31 displays the designated photographing region in a specific display form (for example, change of frame color, reverse display, display of arrow or cursor, etc.). ) (Step H24). Then, in this state, if there is an operation input for changing the image by the user (Yes in step H25), the control unit 31 updates the value of the image number PicNum for the shooting area by +1 (step H26), and the image indicated by the PicNum Is displayed in the photographing area (step H27). However, when the value of PicNum is the maximum value, the value is returned to the initial value “1” and displayed.
[0152]
Thereafter, in a similar manner, the control unit 31 switches and displays the image of each photographing area according to the user's designation operation (No in step H28). As a result, as shown in FIG. 19, a1 → a2 → a3 → a1... In the shooting area 72a of the frame image 72, b1 → b2 → b3 → b4 → b1... In the shooting area 72b, and c1 → c2 → in the shooting area 72c. The switching display of each image is realized by manual operation, such as c1. If there is a termination instruction by a predetermined operation (Yes in step H28), the processing here is terminated.
[0153]
As described above, according to the seventh embodiment of the present invention, a single frame image is used to display a plurality of images assigned to each shooting region of the frame image in a predetermined order like a slide show. You can check.
[0154]
Here, a case has been described in which a plurality of images assigned to each shooting region of a frame image are sequentially displayed. However, for example, a configuration in which a plurality of images are stored in groups as in the sixth embodiment is described. Then, it is possible to automatically or manually display the data in the group unit.
[0155]
Further, in each of the above embodiments, the description has been made on the assumption that a framed image is created by synthesizing a captured image with a frame image. However, the present invention is not limited to this. The same method as described above can be applied to the case where the image is combined at a predetermined position in the image.
[0156]
The present invention is not limited to the digital camera 11, but can be applied to all electronic devices having a camera function such as a mobile phone with a camera and a PDA (Personal Digital Assistant).
[0157]
In short, the present invention is not limited to the above-described embodiments, and can be variously modified in an implementation stage without departing from the gist of the invention. Further, the embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some components are deleted from all the components shown in the embodiment, the effects described in “Problems to be Solved by the Invention” can be solved, and the effects described in the “Effects of the Invention” section can be solved. In the case where a certain effect can be obtained, a configuration from which this configuration requirement is deleted can be extracted as an invention.
[0158]
In addition, the method described in each of the above-described embodiments includes, as a program that can be executed by a computer, a recording medium such as a magnetic disk (such as a flexible disk or a hard disk), an optical disk (such as a CD-ROM or a DVD), or a semiconductor memory. To be applied to various devices, or the program itself can be transmitted through a transmission medium such as a network and applied to various devices. A computer that implements the present apparatus reads the program recorded on a recording medium or a program provided via a transmission medium, and executes the above-described processing by controlling the operation of the program.
[0159]
In addition to the above-described recording media such as CD-ROM and DVD-ROM, for example, next-generation optical disks using a blue laser such as a Blu-ray Disc (R) or an AOD (Advanced Optical Disc), and a red laser are also used. The present invention can be implemented using various large-capacity recording media that will be developed in the future, such as HD-DVD9 used and Blue Laser DVD using a blue-violet laser.
[0160]
【The invention's effect】
As described in detail above, according to the present invention, shooting is performed at different timings for each area of the first image for creating a composite image, and the second image, which is the shot image, is fitted to the corresponding area. Since the images are combined and combined, it is possible to easily create a combined image intended by the user by using an image prepared separately from the photographed image, without the need for complicated positioning or the like.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an external configuration of a digital camera as an example of an electronic apparatus according to an embodiment of the invention.
FIG. 2 is a view showing an example of a frame image used in the digital camera.
FIG. 3 is a block diagram showing a circuit configuration of the digital camera.
FIG. 4 is a flowchart illustrating a processing operation of the digital camera according to the first embodiment of the present invention, and is a flowchart illustrating a processing procedure when a composite image is created using an existing frame image.
FIG. 5 is a diagram for specifically explaining the processing shown in FIG. 4;
FIG. 6 is a flowchart illustrating a processing operation of the digital camera according to the second embodiment of the present invention, and is a flowchart illustrating a processing procedure when a composite image is created using a background image as an original frame image.
FIG. 7 is a view for specifically explaining the processing shown in FIG. 6;
FIG. 8 is a flowchart illustrating a processing operation of the digital camera according to the third embodiment of the present invention, and is a flowchart illustrating a processing procedure when a captured image is replaced with another frame image.
FIG. 9 is a diagram for specifically explaining the processing shown in FIG. 8;
FIG. 10 is a flowchart illustrating another processing operation of the digital camera according to the third embodiment of the present invention, and is a flowchart illustrating a processing procedure when a captured image is replaced in the same frame image.
FIG. 11 is a diagram for specifically explaining the processing shown in FIG. 10;
FIG. 12 is a flowchart illustrating a processing operation of the digital camera according to the fourth embodiment of the present invention, and is a flowchart illustrating a processing procedure when editing each area set as a background image.
FIG. 13 is a flowchart showing a processing operation of the digital camera according to the fifth embodiment of the present invention, and is a flowchart showing a processing procedure when each area set as a background image is edited before photographing.
FIG. 14 is a view for specifically explaining the processing shown in FIG. 13;
FIG. 15 is a flowchart showing a processing operation of the digital camera according to the sixth embodiment of the present invention, showing a processing procedure in a case where a plurality of images are assigned and stored in each shooting area of a frame image.
FIG. 16 is a diagram for specifically explaining the processing shown in FIG. 16;
FIG. 17 is a flowchart showing a processing operation of the digital camera according to the seventh embodiment of the present invention, and is a flowchart showing a processing procedure when reproducing and displaying a plurality of images assigned to each shooting region of a frame image.
FIG. 18 is a flowchart showing a processing operation of the digital camera according to the seventh embodiment of the present invention, and is a flowchart showing a processing procedure in a case where a plurality of images assigned to each shooting region of a frame image are reproduced and displayed.
FIG. 19 is a diagram for specifically explaining the processing shown in FIGS. 18 and 19;
[Explanation of symbols]
11 Digital camera
12. Power button
13. Shutter button
14. Operation button group
14a… Next candidate selection button
14b… Enter button
14c: Image effect selection button
15 ... Cursor key
17 Display unit
18 Optical finder
21 ... Frame image
22a, 22b: photographing area
23a, 23b ... images (photos)

Claims (10)

カメラ機能を備えると共に、このカメラ機能の撮影対象を表示するための表示部を備えた電子機器において、
複数の領域を有する第1の画像を前記表示部に表示する表示手段と、
この表示手段によって表示された第1の画像の各領域のうちの1つ以上の領域を選択する領域選択手段と、
所定のタイミングで前記カメラ機能を起動し、前記領域選択手段によって選択された領域に対応した第2の画像を撮影する撮影手段と、
この撮影手段によって撮影された第2の画像を前記第1の画像の前記選択された領域に嵌め込んで合成する画像合成手段と
を具備したことを特徴とする電子機器。
An electronic device having a camera function and a display unit for displaying a shooting target of the camera function,
Display means for displaying a first image having a plurality of regions on the display unit;
Area selecting means for selecting one or more of the areas of the first image displayed by the display means;
Photographing means for activating the camera function at a predetermined timing and photographing a second image corresponding to the area selected by the area selecting means;
An electronic apparatus comprising: an image synthesizing unit that fits a second image captured by the imaging unit into the selected area of the first image and synthesizes the selected image.
各領域間で画像を入れ替える場合の変換手順が記述された変換手順データを記憶した変換手順記憶手段と、
この変換手順記憶手段によって記憶された変換手順データに基づいて、前記第1の画像の各領域の中で移動対象として指定された領域内の第2の画像を移動先として指定された領域に合わせるように変換する変換手段とを備え、
前記画像合成手段は、前記変換手段によって変換された第2の画像を前記移動先の領域に嵌め込んで合成することを特徴とする請求項1記載の電子機器。
A conversion procedure storage unit that stores conversion procedure data in which a conversion procedure for exchanging images between areas is described;
Based on the conversion procedure data stored by the conversion procedure storage means, the second image in the area specified as the movement target in each area of the first image is matched with the area specified as the movement destination. Conversion means for converting
2. The electronic apparatus according to claim 1, wherein the image synthesizing unit fits the second image converted by the conversion unit into the destination area and synthesizes the second image.
カメラ機能を備えると共に、このカメラ機能の撮影対象を表示するための表示部を備えた電子機器において、
前記カメラ機能によって事前に撮影された背景画像を合成画像作成用の第1の画像として前記表示部に表示する表示手段と、
この表示手段によって表示された第1の画像に対して少なくとも1つ以上の領域を設定する領域設定手段と、
所定のタイミングで前記カメラ機能を起動し、前記領域設定手段によって設定された領域に対応した第2の画像を撮影する撮影手段と、
この撮影手段によって撮影された第2の画像を前記第1の画像の前記設定された領域に嵌め込んで合成する画像合成手段と
を具備したことを特徴とする電子機器。
An electronic device having a camera function and a display unit for displaying a shooting target of the camera function,
Display means for displaying a background image taken in advance by the camera function on the display unit as a first image for creating a composite image;
Area setting means for setting at least one area for the first image displayed by the display means;
Photographing means for activating the camera function at a predetermined timing and photographing a second image corresponding to the area set by the area setting means;
An electronic device comprising: an image synthesizing unit that fits the second image captured by the imaging unit into the set area of the first image and synthesizes the image.
前記第1の画像に設定された領域を編集する領域編集手段と、
この領域編集手段によって編集された領域内の前記第2の画像を当該領域に合わせて変換する変換手段と
を備えたことを特徴とする請求項3記載の電子機器。
Area editing means for editing an area set in the first image;
4. The electronic apparatus according to claim 3, further comprising a conversion unit configured to convert the second image in the area edited by the area editing unit according to the area.
前記第1の画像に設定された領域を撮影前に編集する領域編集手段を備え、
前記撮影手段は、所定のタイミングで前記カメラ機能を起動し、前記領域編集手段によって編集された領域に対応した第2の画像を撮影し、
前記画像合成手段は、前記撮影手段によって撮影された第2の画像を前記第1の画像の前記設定択された領域に嵌め込んで合成することを特徴とする請求項3記載の電子機器。
An area editing unit configured to edit an area set in the first image before photographing;
The photographing unit activates the camera function at a predetermined timing, and photographs a second image corresponding to the region edited by the region editing unit,
4. The electronic apparatus according to claim 3, wherein the image combining unit fits the second image photographed by the photographing unit into the set area of the first image and combines the images. 5.
前記撮影手段によって撮影された第2の画像に対して所定のエフェクト処理を施すエフェクト処理手段を備えたことを特徴とする請求項1または3に記載の電子機器。The electronic device according to claim 1, further comprising an effect processing unit configured to perform a predetermined effect process on the second image captured by the imaging unit. 前記第1の画像の各領域毎に別々のタイミングで前記撮影手段によって撮影された複数の異なる第2の画像を割り当てて記憶する記憶手段を備えたことを特徴とする請求項1または3に記載の電子機器。4. The storage device according to claim 1, further comprising a storage unit that allocates and stores a plurality of different second images captured by the imaging unit at different timings for each area of the first image. 5. Electronic equipment. 前記記憶手段に記憶された前記第1の画像の各領域毎の複数の第2の画像をこれらの領域毎に定められた所定のタイミングで切り換えて表示する表示切替え手段を備えたことを特徴とする請求項7記載の電子機器。Display switching means for switching and displaying a plurality of second images for each area of the first image stored in the storage means at a predetermined timing determined for each of these areas. The electronic device according to claim 7, wherein: カメラ機能を備えると共に、このカメラ機能の撮影対象を表示するための表示部を備えた電子機器に用いられる画像処理方法であって、
複数の撮影領域を有する第1の画像を前記表示部に表示するステップと、
前記表示部に表示された第1の画像の各領域のうちの1つ以上の領域を選択するステップと、
所定のタイミングで前記カメラ機能を起動し、前記選択された領域に対応した第2の画像を撮影するステップと、
この撮影された第2の画像を前記第1の画像の前記選択された領域に嵌め込んで合成するステップと
を備えたことを特徴とする画像処理方法。
An image processing method used in an electronic device having a camera function and having a display unit for displaying a shooting target of the camera function,
Displaying a first image having a plurality of photographing regions on the display unit;
Selecting one or more of the regions of the first image displayed on the display unit;
Activating the camera function at a predetermined timing, and capturing a second image corresponding to the selected area;
Fitting the captured second image into the selected area of the first image and synthesizing the selected second image.
カメラ機能を備えると共に、このカメラ機能の撮影対象を表示するための表示部を備えた電子機器に用いられる画像処理方法であって、
前記カメラ機能によって事前に撮影された背景画像を合成画像作成用の第1の画像として前記表示部に表示するステップと、
前記表示部に表示された第1の画像に対して少なくとも1つ以上の領域を設定するステップと、
所定のタイミングで前記カメラ機能を起動し、前記設定された領域に対応した第2の画像を撮影するステップと、
この撮影された第2の画像を前記第1の画像の前記設定された領域に嵌め込んで合成するステップと
を備えたことを特徴とする画像処理方法。
An image processing method used in an electronic device having a camera function and having a display unit for displaying a shooting target of the camera function,
Displaying a background image captured in advance by the camera function on the display unit as a first image for creating a composite image;
Setting at least one or more regions for the first image displayed on the display unit;
Activating the camera function at a predetermined timing, and capturing a second image corresponding to the set area;
Fitting the captured second image into the set area of the first image and synthesizing the image.
JP2003100410A 2003-04-03 2003-04-03 Electronic apparatus and image processing method Expired - Fee Related JP4314863B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003100410A JP4314863B2 (en) 2003-04-03 2003-04-03 Electronic apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003100410A JP4314863B2 (en) 2003-04-03 2003-04-03 Electronic apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2004312162A true JP2004312162A (en) 2004-11-04
JP4314863B2 JP4314863B2 (en) 2009-08-19

Family

ID=33464555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003100410A Expired - Fee Related JP4314863B2 (en) 2003-04-03 2003-04-03 Electronic apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4314863B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007104336A (en) * 2005-10-04 2007-04-19 Olympus Imaging Corp Camera, display control method, display control apparatus, program, and recording medium
JP2008017238A (en) * 2006-07-07 2008-01-24 Casio Comput Co Ltd Imaging apparatus, and method and program for through-image display control
JP2008034917A (en) * 2006-07-26 2008-02-14 Pentax Corp Image recording apparatus
US7843511B2 (en) 2004-11-26 2010-11-30 Lg Electronics Inc. Apparatus and method for combining images in a terminal device
JP2013055671A (en) * 2012-10-15 2013-03-21 Olympus Imaging Corp Camera
JP2016032224A (en) * 2014-07-29 2016-03-07 フリュー株式会社 Photo sticker creation device and image processing method
CN108234812A (en) * 2016-12-15 2018-06-29 富士胶片株式会社 Printer and digital camera and Method of printing with printer

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7843511B2 (en) 2004-11-26 2010-11-30 Lg Electronics Inc. Apparatus and method for combining images in a terminal device
JP2007104336A (en) * 2005-10-04 2007-04-19 Olympus Imaging Corp Camera, display control method, display control apparatus, program, and recording medium
JP4695480B2 (en) * 2005-10-04 2011-06-08 オリンパスイメージング株式会社 camera
JP2008017238A (en) * 2006-07-07 2008-01-24 Casio Comput Co Ltd Imaging apparatus, and method and program for through-image display control
US8004592B2 (en) 2006-07-07 2011-08-23 Casio Computer Co., Ltd. Imaging device, through image display control method, and recording medium on which through image display control program is recorded in computer-readable manner
JP2008034917A (en) * 2006-07-26 2008-02-14 Pentax Corp Image recording apparatus
US7764313B2 (en) 2006-07-26 2010-07-27 Hoya Corporation Image capturing device for displaying an oranamental image as semi-transparent and with opacity
JP4612593B2 (en) * 2006-07-26 2011-01-12 Hoya株式会社 Image recording device
JP2013055671A (en) * 2012-10-15 2013-03-21 Olympus Imaging Corp Camera
JP2016032224A (en) * 2014-07-29 2016-03-07 フリュー株式会社 Photo sticker creation device and image processing method
CN108234812A (en) * 2016-12-15 2018-06-29 富士胶片株式会社 Printer and digital camera and Method of printing with printer
CN108234812B (en) * 2016-12-15 2021-09-28 富士胶片株式会社 Printer, digital camera with printer and printing method

Also Published As

Publication number Publication date
JP4314863B2 (en) 2009-08-19

Similar Documents

Publication Publication Date Title
JP3700687B2 (en) Camera device and subject photographing method
US20130258128A1 (en) Camera and method for recording image files
JP5729963B2 (en) Image composition processing apparatus and control method thereof
JP4315345B2 (en) Image editing apparatus and method, and program
JP2015146619A (en) Photographic device, and photographic image display processing method and photographic image display processing program to apply to the photographic device
JP2005182767A (en) Image editing apparatus, method, and program
JP2005184795A (en) Apparatus, method, and program for editing image
JP2002112008A (en) Image processing system and recording medium recording image processing program
JP2004312162A (en) Electronic equipment and image processing method
JP2005020607A (en) Composite image output device and composite image output processing program
JP2006060653A (en) Image editing apparatus, method and program
JP5361780B2 (en) Image processing apparatus and image processing program
JP2019092121A (en) Imaging control apparatus and control method of the same
JP2014179855A (en) Display control apparatus and control method therefor
JP7395258B2 (en) Image processing device, image processing method, computer program and storage medium
JP7378963B2 (en) Image processing device, image processing method, and computer program
JP5895394B2 (en) Game shooting device, game shooting method, and game shooting program
JP2000316131A (en) Picture image pickup device
JP2005318009A (en) Electronic camera and image processing program
JP5974611B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE GENERATION METHOD, AND IMAGE GENERATION PROGRAM
JP2003114605A5 (en)
JP4823983B2 (en) Image reproduction apparatus, image reproduction method, and image reproduction program
JP5990068B2 (en) Control device, control method, and control program
JP2007228146A (en) Device, method and program of photography
JP2005027233A (en) Digital camera, order information recording program, and display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090428

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090511

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees