JP2004312162A - Electronic equipment and image processing method - Google Patents
Electronic equipment and image processing method Download PDFInfo
- Publication number
- JP2004312162A JP2004312162A JP2003100410A JP2003100410A JP2004312162A JP 2004312162 A JP2004312162 A JP 2004312162A JP 2003100410 A JP2003100410 A JP 2003100410A JP 2003100410 A JP2003100410 A JP 2003100410A JP 2004312162 A JP2004312162 A JP 2004312162A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- unit
- photographing
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Circuits (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- Light Sources And Details Of Projection-Printing Devices (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、例えばデジタルカメラやカメラ付きの携帯電話などのカメラ機能を備えた電子機器に係り、特に、複数の領域を有するフレーム画像などを用いて合成画像を作成する場合に用いて好適な電子機器と、この電子機器に用いられる画像処理方法に関する。
【0002】
【従来の技術】
カメラ機能を備えた電子機器として、例えばデジタルカメラやカメラ付き携帯電話などが知られている。この種の電子機器では、カメラによって撮影した画像を編集するための様々な機能を備えている。その1つに、フレーム機能と呼ばれるものがある。これは、「フレーム画像」と呼ばれる装飾用の画像を用い、カメラにて撮影した被写体の画像(写真)にそのフレーム画像を重ね合わせることで、フレーム付きの画像つまり合成画像を簡易に作成する機能である(例えば特許文献1参照)。
【0003】
フレーム画像には、装飾パターンの異なる様々な種類が多数類用意されており、それぞれに所定の位置に撮影画像を嵌め込むための領域が設けられている。この領域にカメラにて撮影した画像(写真)を嵌め込むことで、フレーム付きの画像が作成される。
【0004】
【特許文献1】
特開平10−274805号公報(段落番号[0002]参照)
【0005】
【発明が解決しようとする課題】
ところで、上述したようにフレーム画像と撮影画像を合成してフレーム付きの画像を作成する場合において、通常、カメラにて撮影した画像の上にフレーム画像を重ね合わている。しかしながら、フレーム画像はその種類によって領域の位置やサイズ、形状などが異なる。このため、撮影画像の上にフレーム画像を重ねた場合に、そのフレーム画像の領域部分に撮影画像の所望の部分(人物の顔など)が必ずしもくるとは限らず、フレーム画像と撮影画像の位置がずれてしまうことが多い。このような位置ずれを回避するためには、ユーザが予めフレーム画像の領域位置を意識して被写体を撮影するか、あるいは、撮影した画像の被写体位置に合ったフレーム画像を探すしかない。
【0006】
また、複数の領域を有するフレーム画像を使用する場合には、撮影時に数人の被写体が居合わせる必要があり、その位置合わせが非常に難しくなるなどの問題がある。
【0007】
そこで、本発明は、面倒な位置合わせなどを必要とせずに、撮影画像とは別に用意された画像を用いて、ユーザの意図する合成画像を簡単に作成することのできる電子機器及び画像処理方法を提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明の請求項1に係る電子機器は、カメラ機能を備えると共に、このカメラ機能の撮影対象を表示するための表示部を備えた電子機器において、複数の領域を有する第1の画像を前記表示部に表示する表示手段と、この表示手段によって表示された第1の画像の各領域のうちの1つ以上の領域を選択する領域選択手段と、所定のタイミングで前記カメラ機能を起動し、前記領域選択手段によって選択された領域に対応した第2の画像を撮影する撮影手段と、この撮影手段によって撮影された第2の画像を前記第1の画像の前記選択された領域に嵌め込んで合成する画像合成手段とを具備して構成される。
【0009】
このような構成によれば、合成画像作成用に予め用意された第1の画像を用い、その第1の画像の各領域毎に別々のタイミングで撮影を行うことで、その撮影画像である第2の画像を該当する領域に嵌め込んだ合成画像を簡単に作成することができる。
【0010】
また、本発明の請求項2は、前記請求項1記載の電子機器において、各領域間で画像を入れ替える場合の変換手順が記述された変換手順データを記憶した変換手順記憶手段と、この変換手順記憶手段によって記憶された変換手順データに基づいて、前記第1の画像の各領域の中で移動対象として指定された領域内の第2の画像を移動先として指定された領域に合わせるように変換する変換手段とを備え、前記画像合成手段は、前記変換手段によって変換された第2の画像を前記移動先の領域に嵌め込んで合成することを特徴とする。
【0011】
このような構成によれば、例えば別の画像あるいは同一の画像内における各領域間で撮影画像である第2の画像の入れ替えを行うような場合に、変換手順データによって移動元の領域内にあった第2の画像が移動先の領域のサイズや角度などに合わせて変換されて、その移動先の領域に嵌め込まれる。
【0012】
また、本発明の請求項3に係る電子機器は、カメラ機能を備えると共に、このカメラ機能の撮影対象を表示するための表示部を備えた電子機器において、前記カメラ機能によって事前に撮影された背景画像を合成画像作成用の第1の画像として前記表示部に表示する表示手段と、この表示手段によって表示された第1の画像に対して少なくとも1つ以上の領域を設定する領域設定手段と、所定のタイミングで前記カメラ機能を起動し、前記領域設定手段によって設定された領域に対応した第2の画像を撮影する撮影手段と、この撮影手段によって撮影された第2の画像を前記第1の画像の前記設定された領域に嵌め込んで合成する画像合成手段とを具備して構成される。
【0013】
このような構成によれば、事前に撮影された背景画像を合成画像作成用の第1の画像として用いる場合において、その第1の画像の任意の位置に領域を設定して撮影を行うことにより、当該領域に撮影画像である第2の画像を嵌め込んだ合成画像を簡単に作成することができる。
【0014】
また、本発明の請求項4は、前記請求項3記載の電子機器において、前記第1の画像に設定された領域を編集する領域編集手段と、この領域編集手段によって編集された領域内の前記第2の画像を当該領域に合わせて変換する変換手段とを備えたことを特徴とする。
【0015】
このような構成によれば、背景画像である第1の画像に設定された領域を任意に編集(例えば拡大/縮小、回転、移動)することにより、その編集後の領域に合わせて当該領域内の第2の画像を変換することができる。
【0016】
また、本発明の請求項5は、前記請求項3記載の電子機器において、前記第1の画像に設定された領域を撮影前に編集する領域編集手段を備え、前記撮影手段は、所定のタイミングで前記カメラ機能を起動し、前記領域編集手段によって編集された領域に対応した第2の画像を撮影し、前記画像合成手段は、前記撮影手段によって撮影された第2の画像を前記第1の画像の前記設定択された領域に嵌め込んで合成することを特徴とする。
【0017】
このような構成によれば、背景画像である第1の画像に設定された領域を撮影前に編集(例えば拡大/縮小、回転、移動)してから撮影を行うことにより、その編集後の領域に撮影画像である第2の画像を嵌め込んた合成画像を簡単に作成することができる。
【0018】
また、本発明の請求項6は、前記請求項1または3記載の電子機器において、前記撮影手段によって撮影された第2の画像に対して所定のエフェクト処理を施すエフェクト処理手段を備えたことを特徴とする。
【0019】
このような構成によれば、撮影画像である第2の画像に対して、例えば「モノトーン」、「セピア」、「反転」、「ぼかし」などのエフェクト処理を施してから第1の画像の該当する領域に嵌め込むことができる。
【0020】
また、本発明の請求項7は、前記請求項1または3記載の電子機器において、前記第1の画像の各領域毎に別々のタイミングで前記撮影手段によって撮影された複数の異なる第2の画像を割り当てて記憶する記憶手段を備えたことを特徴とする。
【0021】
このような構成によれば、第1の画像の各領域のそれぞれに対して、別々のタイミングで撮影した複数の異なる第2の画像を割り当てて保存しておくことができる。
【0022】
また、本発明の請求項8は、前記請求項7記載の電子機器において、前記記憶手段に記憶された前記第1の画像の各領域毎の複数の第2の画像をこれらの領域毎に定められた所定のタイミングで切り換えて表示する表示切替え手段を備えたことを特徴とする。
【0023】
このような構成によれば、第1の画像の各領域に割り当てられた複数の第2の画像を所定のタイミングで切り換えて表示することができる。
【0024】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を説明する。
【0025】
(第1の実施形態)
図1は本発明の電子機器としてデジタルカメラを例にした場合の外観構成を示す図であり、そのカメラ機器本体の裏面側の構成を示している。また、図2はこのデジタルカメラに用いられるフレーム画像の一例を示す図である。
【0026】
図1に示すデジタルカメラ11は、写真用の銀塩フィルムを使用せずに、CCD(電荷結合素子)などの撮像素子を用いて被写体を撮影し、その撮影画像をデジタル化して記録するカメラである。「デジタルスチルカメラ」などとも呼ばれ、静止画像だけでなく、動画像を同時に扱うことも可能である。
【0027】
また、このデジタルカメラ11では、図2に示すようなフレーム画像21を用いて、そのフレーム画像21の所定の位置に撮影画像を嵌め込むことでフレーム付きの画像(合成画像)を作成する機能を備えている。
【0028】
図1に示すように、デジタルカメラ11の機器本体の上部には、電源のON/OFFを切り換えるための電源ボタン12や、撮影タイミングを指示するためのシャッターボタン13などが設けられている。また、この電源ボタン12やシャッターボタン13とは別に、機器本体の裏面側に各種機能を指示するための操作ボタン群14、上下左右のカーソル移動方向を指示するためのカーソールキー15などが設けられている。操作ボタン群14には、各種操作ボタンとして、例えば次候補選択ボタン14a、決定ボタン14b、画像効果選択ボタン14cなどが設けられている。
【0029】
また、機器本体の裏面側には、例えばバックライト付きカラーLCD(Liquid Crystal Display)からなる表示部17と、撮影対象となる被写体を目視するための光学ファインダ18が設置されている。表示部17は、既に撮影済みの画像データを所定の形式で再生表示する。また、この表示部17は撮影時に電子ファインダとして機能する。電子ファインダとして機能している場合には、機器本体の正面に設けられた図示せぬレンズを通して写る被写体の画像がスルー画像として表示部17に表示される。また、その際にフレーム画像21に重ねてスルー画像を表示することも可能である。
【0030】
フレーム画像21は、ユーザが撮影画像に対して任意に付加する装飾用の画像である。図2に示すように、このフレーム画像21には、何らかの模様やキャラクタなどが描かれており、その中の所定の位置に複数(この例では2つ)の撮影領域22a、22bが設けられている。これらの撮影領域22a、22b…は透明または半透明であり、図1に示すように表示部17の画面上にフレーム画像21を表示した状態で、撮影領域22a、22bを通して被写体を確認することができるようになっている。
【0031】
このようなフレーム画像が複数種類用意されており、ユーザはその中から任意に選ぶことができる。第1の実施形態では、ユーザが選択したフレーム画像(第1の画像)の各領域に対して、別々のタイミングで撮影した画像(第2の画像)を嵌め込んで1つのフレーム付き画像(合成画像)を作成可能としている。各領域に対応した撮影画像は個別あるいは一括して保存あるいは印刷物として出力することが可能である。また、これらの撮影画像に対して、「画像効果」と呼ばれるエフェクト処理を施すこともできる。この「画像効果」としては、例えば「モノトーン」、「セピア」、「反転」、「ぼかし」などがある。
【0032】
図3はデジタルカメラ11の回路構成を示すブロック図である。
【0033】
このデジタルカメラ11には、マイクロプロセッサからなる制御部31が搭載されており、この制御部31の制御の下で、デジタルカメラ11に備えられた各種機能が実行される。デジタルカメラ11に備えられた各種機能としては、カメラとしての基本機能である静止画像または動画像の撮影機能や、フレーム付き画像の作成機能などがある。
【0034】
制御部31には、操作部32、表示部17、撮影部33が接続されていると共に、記憶部34、通信部35などが接続されている。
【0035】
操作部32は、データの入力や機能指示を行うためのもので、図1に示した電源ボタン12、シャッターボタン13、操作ボタン群14、カーソールキー15などを含む。表示部17は、図1に示したように機器本体の裏面に設置されており、表示モードの切換えにより既に撮影済みの画像データを表示したり、電子ファインダとして撮影対象となる被写体の画像を表示すると共に、フレーム画像などを表示する。
【0036】
撮影部33は、静止画像または動画像の撮影を行う部分であり、例えばレンズやCCD、光電変換器などから構成される。なお、この撮影部33の具体的な構成については本発明とは直接関係しないため、ここではその説明を省略するものとする。
【0037】
記憶部34は、例えばROM、RAMなどのメモリデバイスからなり、各種データを記憶している。ここでは、本発明を実現するためのプログラムを含む各種プログラムデータや、撮影部33によって撮影された画像データ(静止画/動画)、各種フレーム画像のデータ、これらのフレーム画像などを用いて作成された合成画像データ、別のフレーム画像あるいは同一のフレーム画像の各領域間における撮影画像の入れ替え時に参照される変換手順データ、合成画像データを構成する各画像に関する情報を管理した管理テーブルTBなどが記憶部34の各記憶領域34a〜34eにそれぞれ記憶されている。
【0038】
通信部35は、所定の通信プロトコルに従って外部端末との間でネットワークを介して通信処理を行う部分であり、例えば撮影画像やその撮影画像とフレーム画像との合成画像などを電子メールの形式で外部の端末に送信する場合などに用いられる。
【0039】
また、このデジタルカメラ11は、例えば二次電池などからなる電源部36を備える。この電源部36は、制御部31を含む各デバイスの動作に必要な電源を供給する。
【0040】
次に、このような構成のデジタルカメラ11にて実現されるフレーム付き画像(合成画像)の作成方法について詳しく説明する。
【0041】
なお、各実施形態において、各フローチャートで示される処理は、マイクロプロセッサである制御部31がプログラムを読み込むことによって実行される。このプログラムは記憶部34の記憶領域34aに予め記憶されていても良いし、磁気ディスク等の記録媒体によって提供されても良い。さらに、インターネット等の通信媒体を介して提供されるような形態であっても良い。また、以下では、説明を簡単にするため、カメラにて撮影される画像が静止画像(写真)である場合を想定して説明するが、動画像であっても適用可能である。
【0042】
図4は本発明の第1の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、既存のフレーム画像を用いて合成画像を作成する場合の処理手順が示されている。
【0043】
合成画像作成時において、制御部31は、まず、例えば図示せぬフレームメニュー上でユーザが選択したフレーム画像のデータを記憶部34の記憶領域34cから読み出して表示部17に表示する(ステップA11)。このときの様子を図5に示す。今、図5(a)に示すようなフレーム画像21が表示部17に表示されたものとする。
【0044】
フレーム画像21が表示されると、その中で現在選択されている撮影領域22aが例えば十字カーソルCLによって明示される(ステップA12)。また、現在選択されている撮影領域22aではスルー画像が表示され、それ以外の領域ではフレーム画像自体の表示、あるいは、フレーム画像とスルー画像が重ね合わされて半透過状態で表示される(ステップA13)。なお、スルー画像とは、撮影時に電子ファインダとして機能している表示部17に映し出される被写体の像のことであり、モニタ画像とも呼ばれる。
【0045】
この状態で、ユーザが操作ボタン群14の中の次候補選択ボタン14aを押下操作すると(ステップA14のYes)、フレーム画像21内の次の撮影領域22bに十字カーソルCLが移動し、現在の選択領域が変更される(ステップA15)。また、ユーザが操作ボタン群14の中の決定ボタン14bを押下操作すると(ステップA16のYes)、制御部31は現在選択されている撮影領域22aを確定した後、以下のような処理を実行する。
【0046】
すなわち、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップA17)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップA18)。そして、制御部31は撮影部33から得られる撮影画像のデータから当該フレーム画像21上で選択されていた撮影領域22aに対応した画像の切り出しを行う(ステップA19)。
【0047】
その際、画像効果選択ボタン14cの操作により「画像効果」機能が選択されていれば(ステップA20のYes)、制御部31は前記切り出された画像に対して「画像効果」と呼ばれるエフェクト処理を施す(ステップA21)。「画像効果」としては、「モノトーン」、「セピア」、「反転」、「ぼかし」などがあり、例えば「モノトーン」であれば当該画像のカラーデータを白黒データに変換するなど、それぞれの項目に対応した所定の処理が行われる。ユーザはこれらのうちの1つあるいは複数の項目を例えば図示せぬ画像効果メニューの中から選択する。
【0048】
次に、制御部31はフレーム画像21の前記選択されていた撮影領域22aに、その撮影領域22aに対応させて撮影画像から切り出した画像を嵌め込んで合成した後(ステップA22)、その合成後の画像データを表示部17に表示する(ステップA22)。この状態が図5(b)である。この例では、フレーム画像21の撮影領域22aに撮影画像から切り出した画像(写真)23aが嵌め込まれている。
【0049】
また、ユーザが続けて撮影を行う場合には(ステップA24のYes)、前記ステップA12からの処理が繰り返し実行される。すなわち、制御部31はフレーム画像21の中で次に選択された撮影領域に対し、別のタイミングで撮影された画像から切り出した画像を嵌め込んで合成し、その合成後の画像データを表示部17に表示する(ステップA12〜A22)。この状態が図5(c)である。この例では、フレーム画像21の撮影領域22bに新たな撮影画像から切り出された画像(写真)23bが嵌め込まれている。
【0050】
このようにして、フレーム画像の各撮影領域に別々のタイミングで撮影された画像が嵌め込まれて、1つの合成画像がフレーム付き画像として作成される。このフレーム付き画像のデータは、記憶部34内の所定の記憶領域34dに保存される。この場合、このフレーム付き画像を構成するフレーム画像とそのフレーム画像の各領域毎の撮影画像を一緒にして保存しても良いし、これらの画像を別々に保存することでも良い。また、合成元となったフレーム画像の種類、そのフレーム画像のどの領域にどの撮影画像を当て嵌めたのかなどを示す情報が当該フレーム付き画像データに関連付けて管理テーブルTBに保存される。
【0051】
このように、本発明の第1の実施形態によれば、予め用意された既存のフレーム画像を用いて、そのフレーム画像に設けられた複数の領域に対して、別々のタイミングで撮影を行いながら1つのフレーム付き画像(合成画像)を簡単に作成することができる。この場合、従来のように、撮影後の画像の上にフレーム画像を重ね合わせる方法では、そのフレーム画像の領域に対して撮影画像の意図する部分を嵌め込むことが難しく、位置ずれなどが生じ易かったが、本発明の方式では、フレーム画像の各領域を通して撮影された画像から当該領域に対応した画像を切り出して嵌め込んでいくので、たとえ撮影領域が小さくとも、また、どのような形状であっても、位置ずれのない見栄えの良いフレーム付き画像を得ることができる。
【0052】
また、フレーム画像の各領域についての撮影を行う際に、現に撮影を行おうとする領域のみにスルー画像を表示して、それ以外の領域にはフレーム画像を表示するようにしたことで、撮影を行う前に画像合成後の様子を知ることができるため、フレーム画像とのバランスや撮影領域の形状との適合性に優れた好適な画像を得ることができる。
【0053】
また、現に撮影を行おうとする領域以外の領域に、フレーム画像とスルー画像を重ね合わせた半透過状の画像を表示することで、撮影領域から撮影対象が外れてしまっている場合でも、この撮影対象を探して撮影領域に合わせるようにすることが簡単になり、例えば、動きの速い被写体に対してもシャッターチャンスを逃すことなく好適な画像を得ることができる。
【0054】
さらに、複数の領域を有するフレーム画像を用いる場合に、複数の被写体がその場合に居合わせる必要はなく、これらの領域毎に別々のタイミングで撮影を行って最終的に1つのフレーム付き画像(合成画像)を簡単に作成することができる。
【0055】
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
【0056】
前記第1の実施形態では、予め用意された既存のフレーム画像を用いる場合を想定して説明したが、第2の実施形態では、画像合成用にユーザが事前に撮影した背景画像をオリジナルのフレーム画像として用い、そのフレーム画像に撮影画像を合成する場合である。
【0057】
なお、基本的な装置構成は前記第1の実施形態(図1)と同様であるため、ここでは第2の実施形態としての処理動作について、フローチャートと具体例を参照して説明する。
【0058】
図6は本発明の第2の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、背景画像をオリジナルのフレーム画像として用いて合成画像を作成する場合の処理手順が示されている。
【0059】
撮影時において、デジタルカメラ11の機器本体の裏面に設置された表示部1は電子ファインダとして機能しており、図示せぬレンズを通して写っている被写体の像が表示部17の画面上にスルー画像として表示されている(ステップB11)。
【0060】
ここで、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップB12)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップB13)。このときの撮影処理によって得られた画像データは、背景画像として表示部17に表示される(ステップB14)。このときの様子を図7に示す。今、図7(a)に示すような背景画像41が表示部17に表示されたものとする。
【0061】
背景画像41の表示後、ユーザによる領域指定操作があると(ステップB15のYes)、制御部31はその領域指定操作に従って当該背景画像41に対して任意形状の合成用撮影領域を設定する(ステップB16)。この状態が図7(b)である。なお、この例では2つの撮影領域42a、42bが設定されているが、本処理ではこれらの撮影領域をユーザの指示に従って1ずつ設定していくものとし、まずは、背景画像41に対し、ある1つの撮影領域42aが設定されたものとして説明する。
【0062】
また、このときの領域指定操作としては、例えばユーザが背景画像41の任意の位置をカーソル等により指定した後、その指定位置に予め用意された各種形状の領域パーツのうちの1つ(図7(b)の例では円形状の領域パーツ)を割り当てるなどである。また、別の方法として、例えば表示部17の表示画面がタブレットなどによりペン入力操作可能な構造であるとすれば、ユーザが図示せぬペンを用いて背景画像41の所望の位置に任意形状の領域を描くことでも良い。
【0063】
背景画像41上に撮影領域42aが設定されると、その撮影領域42aにスルー画像が表示され、同領域42a以外の領域に背景画像41が表示される(ステップB17)。この場合、背景画像の表示とスルー画像の表示を切り換えられるようにしても良い。また、背景画像全体を半透過表示して、その後ろのスルー画像を視認可能に表示することでも良い。さらに、どちらの画像を半透過表示するのかをボタン等の操作により切り換えられるようにしても良い。
【0064】
この状態で、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップB18)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップB19)。撮影後、制御部31は撮影部33から得られる撮影画像のデータから当該背景画像41の撮影領域42aに対応した画像の切り出しを行う(ステップB20)。
【0065】
また、このときに、前記第1の実施形態と同様、ユーザの指示に従って前記切り出された画像に対して「画像効果」と呼ばれるエフェクト処理を施すようにしても良い。
【0066】
次に、制御部31は背景画像41の前記撮影領域42aに撮影画像から切り出した画像を嵌め込んで合成した後(ステップB21)、その合成後の画像データを表示部17に表示する(ステップB22)。
【0067】
また、ユーザが続けて撮影を行う場合には(ステップB22のYes)、前記ステップB15からの処理が繰り返し実行される。すなわち、制御部31は次に指定された撮影領域に対し、別のタイミングで撮影された画像から切り出した画像を嵌め込んで合成し、その合成後の画像データを表示部17に表示する(ステップB15〜B22)。この状態が図7(c)である。この例では、背景画像41上に撮影領域42aとは別の撮影領域42bが設定され、そこに画像43aとは別のタイミングで撮影された画像42bが嵌め込まれている。
【0068】
このようにして、背景画像の各撮影領域に別々のタイミングで撮影された画像が嵌め込まれて、1つの合成画像がフレーム付き画像として作成される。このフレーム付き画像のデータは、記憶部34の所定の記憶領域34dに保存される。この場合、前記第1の実施形態と同様に、このフレーム付き画像を構成するフレーム画像とそのフレーム画像の各領域毎の撮影画像を一緒にして保存しても良いし、これらの画像を別々に保存することでも良い。また、合成元となった背景画像の種類、その背景画像のどの領域にどの撮影画像を当て嵌めたのかなどを示す情報が当該フレーム付き画像データに関連付けて管理テーブルTBに保存される。
【0069】
このように、本発明の第2の実施形態によれば、ユーザが自分で撮影した画像(背景画像)に任意形状の合成用撮影領域を複数指定することで、自分だけのオリジナルのフレーム画像を作成することができる。そして、そのオリジナルのフレーム画像と撮影画像とを重ね合わせて1つのフレーム付き画像(合成画像)を簡単に作成することができる。この場合、前記第1の実施形態と同様に、オリジナルのフレーム画像の各領域を通して撮影された画像から当該領域に対応した画像を切り出して嵌め込んでいくので、たとえ撮影領域が小さくとも、また、どのような形状であっても、位置ずれのない見栄えの良いフレーム付き画像(合成画像)を得ることができる。
【0070】
さらに、予め定められたフレームを用いて撮影をする場合、例えば撮影用領域が何箇所もあるような場合は、それらの各撮影領域の全てに対して撮影を行ってはじめて写真全体が完成するということになるが、本発明の第2の実施形態のように、ユーザが自分で撮影した画像(背景画像)に任意形状の合成用撮影領域を指定しながら撮影を行っていくことにより、必要に応じて逐次撮影領域を指定しながら、徐々にフレーム撮影領域を増やしていくという使い方が可能となり、また、その途中においても、写真が未完成ということなく各時点で一つ一つの写真として独立完成したものとして保存等しておくことができる。
【0071】
また、このことから、当初は例えば4ヶ所に撮影領域を指定しようと考えていたが、撮影を進めていくに従って3ヶ所の方が好ましい写真であることが判明したような場合でも、その時点で撮影を止めて、最も好ましい状態の写真を完成版とすることができる。
【0072】
さらに、本発明の第2の実施形態によれば、ユーザが任意形状の合成用撮影領域を指定しながら撮影を行うことで、背景画像にあわせて背景画像に相応しいフレームの形状や大きさを指定して撮影を行うことが可能になる。また、一方では、フレーム撮影領域に現に撮影しようとする撮影対象、すなわち、フレーム部分に嵌め込む人物の顔などの特徴や大きさ、被写体との距離その他のさまざまな撮影時の要因に応じて、最も被写体にふさわしいフレームの形状・大きさを指定して撮影することができるため、好適な写真を簡単に得ることができる。
【0073】
また、フレーム画像の各領域についての撮影を行う際に、現に撮影を行おうとする領域のみにスルー画像を表示してそれ以外の領域にはフレーム画像を表示するようにしているため、撮影を行う前に画像合成後の様子を知ることができるため、好適なフレーム形状・大きさの設定が簡単に行え、フレーム画像とのバランスや撮影領域の形状との適合性に優れた好適な画像を得ることができる。
【0074】
また、現に撮影を行おうとする領域以外の領域に、フレーム画像とスルー画像を重ね合わせた半透過状の画像を表示することで、撮影領域から撮影対象が外れてしまっている場合でも、この撮影対象を探して撮影領域に合わせるようにすることが簡単になり、例えば、動きの速い被写体に対してもシャッターチャンスを逃すことなく好適な画像を得ることができる。
【0075】
さらに、このオリジナルのフレーム画像に対して複数の領域が設定されている場合であっても、それらの領域に合わせて複数の被写体がその場合に居合わせる必要はなく、別々のタイミングで撮影を行って最終的に1つのフレーム付き画像(合成画像)を簡単に作成することができる。
【0076】
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
【0077】
第3の実施形態では、既存のフレーム画像を対象として、そのフレーム画像の各領域毎の画像データを別のフレーム画像へ入れ替えたり(図9参照)、同一のフレーム画像の各撮影領域間で画像データの入れ替えを可能とするものである(図11参照)。
【0078】
なお、基本的な装置構成は前記第1の実施形態(図1)と同様であるため、ここでは第3の実施形態としての処理動作について、フローチャートや具体例を参照しながら説明する。
【0079】
(他のフレーム画像へ撮影画像を入れ替える場合)
図8は本発明の第3の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、別のフレーム画像へ撮影画像を入れ替える場合の処理手順が示されている。
【0080】
所定の操作によりデジタルカメラ11の画像編集モードが設定された場合において、制御部31は、まず、その編集対象となる撮影済みの画像データとこの画像データに適用されるフレーム画像の読み込みを行う(ステップC11)。撮影済みの画像データとフレーム画像はそれぞれ記憶部34の記憶領域34b、34cに記憶されている。なお、このときに読み込んだフレーム画像のことを便宜的に「フレーム画像A」と呼び、この「フレーム画像A」の各撮影領域に嵌め込む画像データを「撮影済み部分画像」あるいは単に「部分画像」と呼ぶ。
【0081】
続いて、制御部31は、前記「フレーム画像A」以外の他のフレーム画像の候補を記憶部34の記憶領域34cから読み込む(ステップC12)。
【0082】
ここで、制御部31は、初期設定として、選択フレームを「フレーム画像A」に設定し(ステップC13)、その選択フレームの画像と撮影済み部分画像とを合成して表示部17に表示する(ステップC14)。この様子を図9に示す。今、図9(a)に示すように、フレーム画像51とそのフレーム画像51の各撮影領域52a〜52cに撮影済みの部分画像a、b、cを嵌め込んで1つのフレーム付き画像を表示したものとする。
【0083】
制御部31は、前記記憶部34の記憶領域34cから読み込んだフレーム画像の候補を例えばサムネイル形式で表示し、その中の1つをユーザに選択させる(ステップC15)。いずれかのフレーム画像の候補が選択されると(ステップC16)、制御部31は現在の選択フレーム(「フレーム画像A」)から新たに選択されたフレーム画像への変換手順データを記憶部34の記憶領域34eから読み出す(ステップC17)。
【0084】
この変換手順データは、既存のフレーム画像を対象として、各領域間で画像を入れ替える場合の変換手順が記述されたデータである。具体的に説明すると、例えばフレーム画像Aの領域a1、a2の各画像をフレーム画像Bの領域b1、b2に移動させる場合には、以下のような変換手順が記述されている。
【0085】
領域a1→領域b1:「10%拡大、20度時計周りに回転」
領域a2→領域b2:「20%拡大、30度時計周りに回転」
逆にフレーム画像Bの領域b1、b2の各画像をフレーム画像Aの領域a1、a2に移動させる場合には、以下のような変換手順が記述されている。
【0086】
領域b1→領域a1:「10%縮小、20度反時計周りに回転」
領域b2→領域a2:「20%縮小、30度反時計周りに回転」
なお、同一のフレーム画像の各領域に対しても同様であり、これらの領域間で画像を入れ替える場合の変換手順データが予め記憶部34の記憶領域34eに記憶されている。
【0087】
制御部31は、現在の選択フレームから新たに選択されたフレーム画像への領域間の画像移動に必要な変換手順データを記憶部34の記憶領域34eから読み出すと、その変換手順データに基づいて現在の選択フレームの各撮影領域毎に変換処理を行う(ステップC18)。詳しくは、現在の選択フレーム(「フレーム画像A」)の各撮影領域を通して撮影された部分画像をそれぞれの移動先(新たに選択されたフレーム画像)の領域のサイズや角度などに合わせて変換する。
【0088】
このようにして移動先の領域に合わせて部分画像を変換すると、制御部31は選択フレームを前記ステップC16で選択されたフレーム画像として(ステップC19)、その選択フレームの画像と前記変換後の部分画像とを合成して表示部17に表示する(ステップC20)。この状態が図9(b)である。
【0089】
図9(b)において、図中の53はユーザが移動先として選択したフレーム画像であり、そこには撮影領域54a〜54cが設けられている。これらの撮影領域54a〜54cの中にフレーム画像51の各撮影領域52a〜52cの部分画像a、b、cが移動して1つの新たなフレーム付き画像が再表示されることになる。
【0090】
この場合、移動元と移動先で領域のサイズや角度などが異なれば、移動先に合わせた部分画像の変換処理が自動的に行われる。また、部分画像aは撮影領域52a→撮影領域54a、部分画像bは撮影領域52b→撮影領域54b、部分画像cは撮影領域52c→撮影領域54cといったように、各撮影領域毎の部分画像の相対的な位置関係(この例では左から順にa、b、cとなる)は移動元と移動先で同じになる。なお、後述する図10の処理を用いれば、これらの部分画像の位置を入れ替えることも可能である。
【0091】
このようにして新たなフレーム付き画像が表示された後、さらにフレーム画像を変更する場合には(ステップC21のYes)、ステップC15の処理に戻って前記同様の処理が実行される。また、フレーム画像の変更を終了する場合には(ステップC21のNo)、その時点で作成されたフレーム付き画像のデータが記憶部34の記憶領域34dに保存される(ステップC22)。
【0092】
(同一フレーム画像内で撮影画像を入れ替える場合)
図10は本発明の第3の実施形態に係るデジタルカメラ11の別の処理動作を示すフローチャートであり、同一のフレーム画像内で撮影画像を入れ替える場合の処理手順が示されている。
【0093】
所定の操作によりデジタルカメラ11の画像編集モードが設定された場合において、制御部31は、まず、その編集対象となる撮影済みの画像データとこの画像データに適用されるフレーム画像の読み込みを行う(ステップD11)。撮影済みの画像データとフレーム画像はそれぞれ記憶部34の記憶領域34b、34cに記憶されている。なお、このとき読み込んだフレーム画像の各撮影領域に嵌め込む画像データのことを「撮影済み部分画像」あるいは単に「部分画像」と呼ぶ。
【0094】
続いて、制御部31はこのフレーム画像と撮影済み部分画像とを合成して表示部17に表示する(ステップD12)。この様子を図11に示す。今、図11(a)に示すように、フレーム画像51とそのフレーム画像51の各撮影領域52a〜52cに撮影済みの部分画像a、b、cを嵌め込んで1つのフレーム付き画像を表示したものとする。
【0095】
この状態で、ユーザにより入れ替え対象となる2つの部分画像が選択されると(ステップD13,D14)、制御部31は、この2つの部分画像が嵌め込まれていた撮影領域を「部分領域A」と「部分領域B」として、以下のような処理を実行する。
【0096】
すなわち、制御部31は、まず、「部分領域A」→「部分領域B」の変換手順データを記憶部34の記憶領域34eから読み出すことにより(ステップD15)、その変換手順データに基づいて「部分領域A」の画像を移動先である「部分領域B」のサイズや角度などに合わせて変換する(ステップD16)。同様に、制御部31は、「部分領域B」→「部分領域A」の変換手順データを記憶部34の記憶領域34eから読み出すことにより(ステップD17)、その変換手順データに基づいて「部分領域B」の画像を移動先である「部分領域A」のサイズや角度などに合わせて変換する(ステップD18)。
【0097】
このようにして「部分領域A」の画像と「部分領域B」の画像を互いに相手の領域に合わせて変換すると、制御部31は「部分領域A」にB→A変換後の部分画像を嵌め込むように設定すると共に、「部分領域B」にA→B変換後の部分画像を嵌め込むように位置の入れ替えを設定することにより(ステップD19)、その入れ替え後のフレーム付き画像データを表示部17に表示する(ステップD20)。この状態が図11(b)である。
【0098】
図11(b)の例では、撮影領域52aの部分画像aと撮影領域52bの部分画像bとを入れ替えた状態が示されている。この場合、この場合、移動元と移動先で領域のサイズや角度などが異なれば、移動先に合わせた部分画像の変換処理が自動的に行われる。
【0099】
さらに画像の入れ替えを続ける場合には(ステップD21のYes)、前記ステップD13からの処理が繰り返される。このようにして、同じフレーム画像51の各撮影領域52a〜52cの部分画像a、b、cが自由に入れ替えて、新たなフレーム付き画像して作成することができる。
【0100】
また、画像の入れ替えを終了する場合には(ステップD21のNo)、その時点で作成されたフレーム付き画像のデータが記憶部34の記憶領域34dに保存される(ステップD22)。
【0101】
このように、本発明の第3の実施形態によれば、フレーム画像の各領域毎の画像データを別のフレーム画像あるいは同一のフレーム画像の各領域間で自由に入れ替えて新たなフレーム付き画像(合成画像)を簡単に作成することができる。したがって、同じ被写体の画像で様々なフレーム画像を用いてフレーム付き画像を作成する場合に、その都度、フレーム画像を入れ替えながら撮影を繰り返すなどの面倒に作業は不要となる。また、被写体の画像についても撮影済みのものを何度も使い回しできるため、メモリ容量が少なくて済むなどの利点がある。
【0102】
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。
【0103】
第4の実施形態では、前記第2の実施形態のようにユーザが撮影した背景画像をオリジナルのフレーム画像として用いる場合において、そのフレーム画像に設定した各領域の編集操作を可能とするものである。
【0104】
なお、基本的な装置構成は前記第1の実施形態(図1)と同様であるため、ここでは第4の実施形態としての処理動作について、フローチャートを参照しながら説明する。
【0105】
図12は本発明の第4の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、背景画像に設定された各領域を編集する場合の処理手順が示されている。
【0106】
所定の操作によりデジタルカメラ11の画像編集モードが設定された場合において、制御部31は、まず、その編集対象となる撮影済みの画像データとこの画像データに適用される背景画像の読み込みを行う(ステップE11)。撮影済みの画像データと背景画像はそれぞれ記憶部34の記憶領域34b、34cに記憶されている。背景画像とは、前記第2の実施形態で説明したように、既存のフレーム画像に代わってユーザが任意に撮影した画像データのことであり、複数の撮影領域を有する(図7参照)。この背景画像の各撮影領域に嵌め込む画像データを「撮影済み部分画像」あるいは単に「部分画像」と呼ぶ。
【0107】
続いて、制御部31はこの背景画像と撮影済み部分画像とを合成して表示部17に表示する(ステップE13)。この状態で、ユーザにより編集対象となる部分画像が選択されると、制御部31は、この選択された部分画像の領域を「部分領域A」として、ユーザの編集操作に従って以下のような処理を実行する(ステップE13)。
【0108】
前記編集操作としては、「拡大/縮小操作」、「回転操作」、「移動操作」があり、例えば表示部17の表示画面がタブレットなどによりペン入力操作可能な構造であるとすれば、ユーザが図示せぬペンを用いて所望の領域を拡大/縮小、回転、移動の操作を行うものとする。
【0109】
ここで、ユーザによる「拡大/縮小操作」があれば(ステップE14のYes)、制御部31は、現在の選択領域である「部分領域A」のサイズをユーザ操作に従って拡大あるいは縮小する(ステップE15)。また、ユーザによる「回転操作」があれば(ステップE16のYes)、制御部31は、現在の選択領域である「部分領域A」の角度をユーザ操作に従って傾ける(ステップE17)。また、ユーザによる「移動操作」があれば(ステップE18のYes)、制御部31は、現在の選択領域である「部分領域A」の位置をユーザ操作に従って移動する(ステップE19)。
【0110】
このようにして、「部分領域A」に対して拡大/縮小、回転、移動などの編集処理を施すと、制御部31は編集後の「部分領域A」に合わせて部分画像を変換することにより、その部分画像を背景画像に合成し(ステップE20)、その合成後の画像データを新たなフレーム付き画像として表示部17に再表示する(ステップE21)。なお、例えば領域の移動によって元の位置に表示しなくなった部分には、その部分に対応した背景画像のデータを読み出して表示するものとする。
【0111】
さらに編集を続ける場合には(ステップE22のYes)、ステップE13の処理に戻って前記同様の処理が実行される。また、編集を終了する場合には(ステップE22のNo)、その時点で作成されたフレーム付き画像データが記憶部34の記憶領域34dに保存される(ステップE23)。
【0112】
このように、本発明の第4の実施形態によれば、オリジナルのフレーム画像である背景画像を用いた場合において、その背景画像に設定された各領域をユーザの好みに合わせて自由に編集して新たなフレーム付き画像(合成画像)を簡単に作成することができる。
【0113】
(第5の実施形態)
次に、本発明の第5の実施形態について説明する。
【0114】
第5の実施形態では、前記第2の実施形態のようにユーザが撮影した背景画像をオリジナルのフレーム画像として用いる場合において、そのフレーム画像に嵌め込む画像を撮影する前に当該フレーム画像に設定した各領域の編集操作を可能とし、その編集状態をプレビューできるようにしたものである。
【0115】
なお、基本的な装置構成は前記第1の実施形態(図1)と同様であるため、ここでは第5の実施形態としての処理動作について、フローチャートや具体例を参照しながら説明する。
【0116】
図13は本発明の第5の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、背景画像に設定された各領域を撮影前に編集する場合の処理手順が示されている。
【0117】
撮影時において、デジタルカメラ11の機器本体の裏面に設置された表示部1は電子ファインダとして機能しており、図示せぬレンズを通して写っている被写体の像が表示部17の画面上にスルー画像として表示されている(ステップF11)。
【0118】
ここで、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップF12)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップF13)。このときの撮影処理によって得られた画像データは、背景画像として表示部17に表示される(ステップF14)。このときの様子を図14に示す。今、図14(a)に示すような背景画像61が表示部17に表示されたものとする。なお、図14(a)、(b)、(c)において、左側が表示部17上に表示された背景画像61、右側が現在の撮影対象であるスルー画像62を示している。
【0119】
背景画像61の表示後、ユーザによる領域指定操作があると(ステップF15のYes)、制御部31はその領域指定操作に従って背景画像61に対して任意形状の合成用撮影領域を設定する(ステップF16)。この撮影領域を「部分領域A」とし、図14(a)に示すような位置に設定されたものとする。なお、このときの領域指定操作としては、例えばユーザが背景画像41の任意の位置をカーソル等により指定した後、その指定位置に予め用意された各種形状の領域パーツのうちの1つ(図14(a)の例では円形状の領域パーツ)を割り当てるなどである。
【0120】
背景画像41上に撮影領域である「部分領域A」が設定されると、その「部分領域A」にスルー画像62が表示され、「部分領域A」以外の領域に背景画像61が表示される(ステップF17)。
【0121】
ここで、前記第2の実施形態では、この時点でユーザがシャッターボタン13を押して撮影を行うものとしたが、ここでは撮影前に「部分領域A」の編集操作を行うことができる。編集操作とは、前記第4の実施形態で説明したように「拡大/縮小操作」、「回転操作」、「移動操作」などであり、例えば表示部17の表示画面がタブレットなどによりペン入力操作可能な構造であるとすれば、ユーザが図示せぬペンを用いて所望の領域を拡大/縮小、回転、移動の操作を行うものとする。
【0122】
ユーザによる「拡大/縮小操作」があれば(ステップF18のYes)、制御部31は、現在の選択領域である「部分領域A」のサイズをユーザ操作に従って拡大あるいは縮小する(ステップF19)。また、ユーザによる「回転操作」があれば(ステップF20のYes)、制御部31は、現在の選択領域である「部分領域A」の角度をユーザ操作に従って傾ける(ステップF21)。ユーザによる「移動操作」があれば(ステップF22のYes)、制御部31は、現在の選択領域である「部分領域A」の位置をユーザ操作に従って移動する(ステップF23)。
【0123】
図14(b)の例はファインダを移動させて「部分領域A」の画像を変更した状態を示しており、図14(c)の例は「部分領域A」を移動して横方向に拡大した状態を示している。
【0124】
このようにして、「部分領域A」の画像に対して拡大/縮小、回転、移動などの編集処理を施すと、制御部31は編集後の「部分領域A」のスルー画像を背景画像に合成して(ステップF24)、その合成後の画像データを表示部17に表示する(ステップF25)。なお、例えば画像の移動等によって元の位置に新たな表示を必要とする場合にはそこに背景画像を読み出して表示するものとする(図14(c)の符号61a参照)。
【0125】
このような状態で、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップF26)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップF27)。
【0126】
このようにして、背景画像の中で事前に編集された各領域毎に別々のタイミングで撮影を行うことで、1つのフレーム付き画像が作成される。このフレーム付き画像のデータは、記憶部34の所定の記憶領域34dに保存される。この場合、前記第1の実施形態と同様に、このフレーム付き画像を構成するフレーム画像とそのフレーム画像の各領域毎の撮影画像を一緒にして保存しても良いし、これらの画像を別々に保存することでも良い。また、合成元となった背景画像の種類、その背景画像のどの領域にどの撮影画像を当て嵌めたのかなどを示す情報が当該フレーム付き画像データに関連付けて管理テーブルTBに保存される。
【0127】
このように、本発明の第5の実施形態によれば、オリジナルのフレーム画像として用いる背景画像の各領域をユーザ操作により任意に編集でき、その編集状態をプレビューとして画面上で確認しながら撮影を行うことで、ユーザの意図とするフレーム付き画像(合成画像)を簡単に作成することができる。
【0128】
(第6の実施形態)
次に、本発明の第6の実施形態について説明する。
【0129】
第6の実施形態では、フレーム画像の各領域に対して複数の画像(写真)を割り当てて保存しておくようにしたものである。これは、例えば図16に示すように、フレーム画像71に複数の撮影領域72a〜72cがある場合に、撮影領域72aに対してa1,a2,a3、撮影領域72bに対してb1,b2,b3,b4、撮影領域72cに対してc1,c2といったように、各領域に対して複数の画像を割り当てて保存するものである。
【0130】
以下に、図15を参照して具体的な処理動作について説明する。なお、基本的な装置構成は前記第1の実施形態(図1)と同様である。
【0131】
図15は本発明の第6の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、フレーム画像の各撮影領域に複数の画像を割り当てて保存する場合の処理手順が示されている。なお、ここで用いられるフレーム画像は、前記第1の実施形態で説明したような既存のフレーム画像であっても良いし、前記第2の実施形態で説明したようなオリジナルのフレーム画像(背景画像)であっても良い。ここでは、既存のフレーム画像を用いた場合を想定して説明する。
【0132】
フレーム付き画像作成時において、ユーザにより既存のフレーム画像が選択されると(ステップG11)、制御部31はその選択されたフレーム画像を記憶部34の記憶領域34cから読み出して表示部17に表示する(ステップG12)。このフレーム画像には、予め複数の撮影領域が設けられており、その中の1つが表示部17の表示画面上でカーソル等により指定されると(ステップG13)、制御部31はその指定された撮影領域を「部分領域A」として、その「部分領域A」に既に保存されている画像の数NAを取得する(ステップG14)。
【0133】
この場合、当該フレーム画像を用いたフレーム付き画像の作成が始めてであれば、NA=0であるが、既に当該フレーム画像を用いたフレーム付き画像の作成がなされていれば、NA>1である。このNAの値は記憶部34の記憶領域34fに設けられた管理テーブルTBに当該フレーム画像に対応させて保持されている。
【0134】
ここで、制御部31はシャッターボタン13が押下操作されるのを待ち(ステップG15)、そのシャッターボタン13が押下されたときのタイミングで、撮影部33による撮影処理を行う(ステップG16)。この撮影により、「部分領域A」に対応した画像が得られるが、その際に「部分領域A」に対して既に保存されている画像が存在すれば、制御部31はその画像を残したままで、今回新たに撮影された画像を「NA+1」番目の画像として所定の領域に保存する(ステップG17)。例えば、図16の例で、フレーム画像71の撮影領域72aに対して画像a1が既に保存されていれば、そこに画像a2が追加保存されることになる。
【0135】
また、このときに所定の操作により撮影画像の対応付け指示があると(ステップG18のYes)、制御部31はユーザの指示に従って「部分領域A」以外の他の領域に保存されている画像を選択し(ステップG19)、今回得られた撮影画像をその選択画像に対応付けておく(ステップG20)。これは、前記管理テーブルTBに今回得られた撮影画像と前記選択画像とをリンクさせておくための特定の情報をセットしておくことで実現できる。
【0136】
さらに撮影を続ける場合には(ステップG21のYes)、ステップG13に戻って前記同様の処理が繰り返される。撮影を続けない場合には(ステップG21のNo)、ここでの処理が終了する。
【0137】
このように、本発明の第6の実施形態によれば、フレーム画像の各撮影領域に対して複数の画像を割り当てて保存することができる。したがって、例えば同じ絵柄のフレーム画像に対し、被写体の画像を入れ替えながら複数枚のフレーム付き画像を作成するような場合に、1枚のフレーム画像だけで対応することができ、メモリ容量を節約することができる。
【0138】
また、このフレーム画像を用いて撮影した画像を同じフレーム画像の他の領域の画像と対応付けておくことで、図16に示すように、例えば「a1−b1−c1」のグループ、「a2−b2−c2」のグループ…といったように、同じフレーム画像の各画像をグループ分けすることができ、そのグループ単位でフレーム付き画像を簡単に作成することができる。
【0139】
(第7の実施形態)
次に、本発明の第7の実施形態について説明する。
【0140】
第7の実施形態では、前記第6の実施形態のようにフレーム画像の各撮影領域に対して複数の画像(写真)を割り当てて保存しておく場合において、これらの画像を自動あるいは手動操作によりスライドショーのように切り換えて再生表示するようにしたものである。
【0141】
具体的に説明すると、例えば図19に示すように、フレーム画像71の撮影領域72aに対してa1,a2,a3、撮影領域72bに対してb1,b2,b3,b4、撮影領域72cに対してc1,c2といったように、各領域に対して複数の画像を割り当てて保存されているものとする。ここで、自動表示を指示すると、これらの画像が撮影領域72aではa1→a2→a3→a1…、撮影領域72bではb1→b2→b3→b4→b1…、撮影領域72cではc1→c2→c1…といったように、所定のタイミングで自動的に切り換えられて再生表示される。この場合、各撮影領域に対して再生速度を任意に設定したり、特定の撮影領域のみ画像を固定しておくことも可能である。また、手動操作による表示では、これがユーザによる指定操作に従って実行される。
【0142】
以下に、図17および図18を参照して具体的な処理動作について説明する。なお、基本的な装置構成は前記第1の実施形態(図1)と同様である。
【0143】
図17および図18は本発明の第7の実施形態に係るデジタルカメラ11の処理動作を示すフローチャートであり、フレーム画像の各撮影領域に割り当てられた複数の画像を再生表示する場合の処理手順が示されている。なお、ここで用いられるフレーム画像は、前記第1の実施形態で説明したような既存のフレーム画像であっても良いし、前記第2の実施形態で説明したようなオリジナルのフレーム画像(背景画像)であっても良い。ここでは、既存のフレーム画像を用いた場合を想定して説明する。
【0144】
今、前記第6の実施形態で説明したような方法によって各撮影領域に複数の画像が割り当てられたフレーム画像が表示部17に表示されたとする(ステップH11)。ここで、所定の操作により自動再生が指示されると(ステップH12のYes)、以下のような自動表示処理が実行される。
【0145】
すなわち、制御部31は、まず、そのフレーム画像の各撮影領域毎に設けられた図示せぬタイマTmA,TmB…を初期化すると共に、例えばTmAx=100,TmBx=200…といったように、それぞれの撮影領域に対する切り換えタイミング値を設定する(ステップH13)。
【0146】
続いて、制御部31は、フレーム画像の各撮影領域に表示する画像の番号を示すPicNumA,PicNumB…を初期化した後(ステップH14)、これらの画像番号PicNumで示される画像を記憶部34の記憶領域34bから読み出して各撮影領域内に表示する(ステップH15)。つまり、図19の例であれば、まず、フレーム画像71の撮影領域72aに対して画像a1、撮影領域72bに対して画像b1、撮影領域72cに対して画像c1を表示することになる。
【0147】
ここで、制御部31は各撮影領域のタイマTmA,TmB…を内部クロックに同期させて+1ずつインクリメントしながら(ステップH16)、そのタイマ値が繰り替えタイミング値に達した否かを各撮影領域毎に監視する(ステップH17)。そして、タイマ値が繰り替えタイミング値に達したものがあれば(ステップH17のYes)、制御部31はその時点で該当する撮影領域のタイマ値を0に戻し、その撮影領域に対する画像番号PicNumの値を+1更新する(ステップH18)。ただし、PicNumの値が最大値の場合には初期値の“1”に戻すものとする。
【0148】
このようにして、制御部31は繰り替えタイミング値に達した撮影領域の画像番号PicNumを更新し、そのPicNumで示される画像を当該撮影領域内に表示する(ステップH19)。以後同様にして、制御部31は各タイマ値を監視しながら、各撮影領域の画像をそれぞれのタイミングで切り換ながら表示する(ステップH20のNo)。これにより、図19に示すように、フレーム画像72の撮影領域72aではa1→a2→a3→a1…、撮影領域72bではb1→b2→b3→b4→b1…、撮影領域72cではc1→c2→c1…といったように、各画像がそれぞれのタイミングで切り換え表示されることになる。また、所定の操作により終了指示があれば(ステップH20のYes)、ここでの処理を終了する。
【0149】
一方、前記ステップH12において、自動再生が指示されなかった場合には、以下のような手動操作による表示処理が実行される。
【0150】
すなわち、制御部31は、フレーム画像の各撮影領域に表示する画像の番号を示すPicNumA,PicNumB…を初期化した後(ステップH21)、これらの画像番号PicNumで示される画像を記憶部34の記憶領域34bから読み出して各撮影領域内に表示する(ステップH22)。つまり、図19の例であれば、まず、フレーム画像71の撮影領域72aに対して画像a1、撮影領域72bに対して画像b1、撮影領域72cに対して画像c1を表示することになる。
【0151】
ここで、ユーザによる領域指定入力があれば(ステップH23のYes)、制御部31はその指定された撮影領域を特定の表示形態(例えば枠の色の変更、反転表示、矢印やカーソルの表示など)で表示する(ステップH24)。そして、この状態でユーザによる画像変更の操作入力があれば(ステップH25のYes)、制御部31は当該撮影領域に対する画像番号PicNumの値を+1更新し(ステップH26)、そのPicNumで示される画像を当該撮影領域内に表示する(ステップH27)。ただし、PicNumの値が最大値の場合には初期値の“1”に戻して表示するものとする。
【0152】
以後同様にして、制御部31はユーザによる指定操作に従って各撮影領域の画像を切り換ながら表示する(ステップH28のNo)。これにより、図19に示すように、フレーム画像72の撮影領域72aではa1→a2→a3→a1…、撮影領域72bではb1→b2→b3→b4→b1…、撮影領域72cではc1→c2→c1…といったように、各画像の切り換え表示を手動操作により実現されることになる。また、所定の操作により終了指示があれば(ステップH28のYes)、ここでの処理を終了する。
【0153】
このように、本発明の第7の実施形態によれば、1つのフレーム画像を用いて、そのフレーム画像の各撮影領域に割り当てられた複数の画像をスライドショーのように所定の順で表示しながら確認することができる。
【0154】
なお、ここではフレーム画像の各撮影領域に割り当てられた複数の画像を順に表示する場合について説明したが、例えば前記第6の実施形態のように複数の画像をグループ単位で記憶しておく構成とすれば、そのグループ単位で自動あるいは手動操作により表示することが可能である。
【0155】
また、前記各実施形態では、フレーム画像に撮影画像を合成したフレーム付き画像を作成する場合を想定して説明したが、本発明はこれに限るものではなく、カメラにて撮影した画像を別の画像の所定の位置に嵌め込んで合成する場合であれば前記同様の手法を適用することができる。
【0156】
また、本発明はデジタルカメラ11に限らず、例えばカメラ付きの携帯電話やPDA(Personal Digital Assistant)など、カメラ機能を備えた電子機器であは、これらの全て機器に適用可能である。
【0157】
要するに、本発明は前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。更に、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、実施形態で示される全構成要件から幾つかの構成要件が削除されても、「発明が解決しようとする課題」で述べた効果が解決でき、「発明の効果」の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
【0158】
また、上述した各実施形態において記載した手法は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に適用したり、そのプログラム自体をネットワーク等の伝送媒体により伝送して各種装置に適用することも可能である。本装置を実現するコンピュータは、記録媒体に記録されたプログラムあるいは伝送媒体を介して提供されたプログラムを読み込み、このプログラムによって動作が制御されることにより、上述した処理を実行する。
【0159】
また、前述したCD−ROMやDVD−ROM等の記録媒体の他にも、例えば、Blu−ray Disc(R)やAOD(Advanced Optical Disc)などの青色レーザを用いた次世代光ディスク、赤色レーザを用いるHD−DVD9、青紫色レーザを用いるBlue Laser DVDなど、今後開発される種々の大容量記録媒体を用いて本発明を実施することが可能である。
【0160】
【発明の効果】
以上詳記したように本発明によれば、合成画像作成用の第1の画像の各領域毎に別々のタイミングで撮影を行って、その撮影画像である第2の画像を該当する領域に嵌め込んで合成するようにしたため、面倒な位置合わせなどを必要とせずに、撮影画像とは別に用意された画像を用いて、ユーザの意図する合成画像を簡単に作成することができる。
【図面の簡単な説明】
【図1】本発明の電子機器としてデジタルカメラを例にした場合の外観構成を示す図。
【図2】前記デジタルカメラに用いられるフレーム画像の一例を示す図。
【図3】前記デジタルカメラの回路構成を示すブロック図。
【図4】本発明の第1の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、既存のフレーム画像を用いて合成画像を作成する場合の処理手順を示すフローチャート。
【図5】前記図4に示す処理を具体的に説明するための図。
【図6】本発明の第2の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、背景画像をオリジナルのフレーム画像として用いて合成画像を作成する場合の処理手順を示すフローチャート。
【図7】前記図6に示す処理を具体的に説明するための図。
【図8】本発明の第3の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、別のフレーム画像へ撮影画像を入れ替える場合の処理手順を示すフローチャート。
【図9】前記図8に示す処理を具体的に説明するための図。
【図10】本発明の第3の実施形態に係るデジタルカメラの別の処理動作を示すフローチャートであり、同一のフレーム画像内で撮影画像を入れ替える場合の処理手順を示すフローチャート。
【図11】前記図10に示す処理を具体的に説明するための図。
【図12】本発明の第4の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、背景画像に設定された各領域を編集する場合の処理手順を示すフローチャート。
【図13】本発明の第5の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、背景画像に設定された各領域を撮影前に編集する場合の処理手順を示すフローチャート。
【図14】前記図13に示す処理を具体的に説明するための図。
【図15】本発明の第6の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、フレーム画像の各撮影領域に複数の画像を割り当てて保存する場合の処理手順を示す図。
【図16】前記図16に示す処理を具体的に説明するための図。
【図17】本発明の第7の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、フレーム画像の各撮影領域に割り当てられた複数の画像を再生表示する場合の処理手順を示すフローチャート。
【図18】本発明の第7の実施形態に係るデジタルカメラの処理動作を示すフローチャートであり、フレーム画像の各撮影領域に割り当てられた複数の画像を再生表示する場合の処理手順を示すフローチャート。
【図19】前記図18および図19に示す処理を具体的に説明するための図。
【符号の説明】
11…デジタルカメラ
12…電源ボタン
13…シャッターボタン
14…操作ボタン群
14a…次候補選択ボタン
14b…決定ボタン
14c…画像効果選択ボタン
15…カーソールキー
17…表示部
18…光学ファインダ
21…フレーム画像
22a,22b…撮影領域
23a,23b…画像(写真)[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an electronic device having a camera function such as a digital camera or a mobile phone with a camera, and more particularly to an electronic device suitable for creating a composite image using a frame image having a plurality of regions. The present invention relates to a device and an image processing method used for the electronic device.
[0002]
[Prior art]
As an electronic device having a camera function, for example, a digital camera and a camera-equipped mobile phone are known. This type of electronic device has various functions for editing an image captured by a camera. One of them is called a frame function. This is a function to easily create an image with a frame, that is, a composite image by superimposing the frame image on an image (photograph) of a subject taken by a camera using a decorative image called a “frame image”. (For example, see Patent Document 1).
[0003]
Many different types of decorative patterns are prepared in the frame image, and each has an area for fitting a photographed image at a predetermined position. By fitting an image (photograph) taken by the camera into this area, an image with a frame is created.
[0004]
[Patent Document 1]
JP-A-10-274805 (see paragraph [0002])
[0005]
[Problems to be solved by the invention]
By the way, when a framed image is created by combining a frame image and a captured image as described above, the frame image is usually superimposed on the image captured by the camera. However, the position, size, shape, and the like of the region differ depending on the type of the frame image. For this reason, when a frame image is superimposed on a captured image, a desired portion (such as a person's face) of the captured image does not always come to the region of the frame image, and the position of the frame image and the captured image Often shifts. The only way to avoid such a displacement is for the user to take a picture of the subject in consideration of the area position of the frame image in advance, or to search for a frame image that matches the subject position of the captured image.
[0006]
In addition, when a frame image having a plurality of regions is used, several subjects need to be present at the time of photographing, and there is a problem that it is very difficult to position the subject.
[0007]
Therefore, the present invention provides an electronic apparatus and an image processing method that can easily create a composite image intended by a user by using an image prepared separately from a captured image without requiring complicated positioning and the like. The purpose is to provide.
[0008]
[Means for Solving the Problems]
The electronic device according to
[0009]
According to such a configuration, the first image prepared in advance for creating the composite image is used, and the image is taken at different timings for each region of the first image, so that the first image that is the taken image is obtained. Thus, it is possible to easily create a composite image in which the second image is fitted in the corresponding area.
[0010]
According to a second aspect of the present invention, in the electronic device according to the first aspect, a conversion procedure storage unit that stores conversion procedure data describing a conversion procedure when an image is exchanged between respective areas, Based on the conversion procedure data stored by the storage means, conversion is performed so that the second image in the area specified as the movement target in each area of the first image is matched with the area specified as the movement destination. And a combining unit that fits the second image converted by the converting unit into the destination area and combines the second image.
[0011]
According to such a configuration, for example, when the second image, which is a captured image, is exchanged between different regions in another image or in the same image, the conversion procedure data is used to replace the second image in the source region. The second image is converted according to the size, angle, and the like of the destination area, and fitted into the destination area.
[0012]
An electronic device according to a third aspect of the present invention includes a camera function and a display unit for displaying an object to be photographed by the camera function. Display means for displaying an image on the display unit as a first image for creating a composite image, area setting means for setting at least one area for the first image displayed by the display means, Photographing means for activating the camera function at a predetermined timing and photographing a second image corresponding to the area set by the area setting means; and transmitting the second image photographed by the photographing means to the first image. Image synthesizing means for inserting the image into the set area of the image and synthesizing the image.
[0013]
According to such a configuration, when a background image captured in advance is used as a first image for creating a composite image, an image is set by setting an area at an arbitrary position of the first image and performing imaging. Thus, it is possible to easily create a composite image in which the second image, which is a captured image, is fitted in the area.
[0014]
According to a fourth aspect of the present invention, in the electronic device according to the third aspect, there is provided an area editing unit that edits an area set in the first image; Conversion means for converting the second image in accordance with the area.
[0015]
According to such a configuration, by arbitrarily editing (for example, enlarging / reducing, rotating, and moving) an area set in the first image as a background image, the area in the area is adjusted in accordance with the edited area. Can be converted.
[0016]
According to a fifth aspect of the present invention, in the electronic device according to the third aspect, the electronic apparatus further includes an area editing unit that edits an area set in the first image before photographing, and the photographing unit has a predetermined timing. And activates the camera function to photograph a second image corresponding to the area edited by the area editing means, and the image synthesizing means converts the second image photographed by the photographing means to the first image. The image is synthesized by fitting into the selected area of the image.
[0017]
According to such a configuration, the region set in the first image which is the background image is edited (for example, enlarged / reduced, rotated, and moved) before photographing, and photographing is performed. Thus, it is possible to easily create a composite image in which the second image, which is a photographed image, is fitted.
[0018]
According to a sixth aspect of the present invention, in the electronic device according to the first or third aspect, an effect processing unit for performing a predetermined effect process on the second image photographed by the photographing unit is provided. Features.
[0019]
According to such a configuration, for example, “monotone”, “sepia”, “reversal”, “blur” or the like is applied to the second image, which is a captured image, and then the second image corresponding to the first image is processed. Can be fitted into the region where
[0020]
According to a seventh aspect of the present invention, in the electronic device according to the first or third aspect, a plurality of different second images photographed by the photographing unit at different timings for each area of the first image. Storage means for assigning and storing
[0021]
According to such a configuration, a plurality of different second images photographed at different timings can be assigned and stored for each of the regions of the first image.
[0022]
According to an eighth aspect of the present invention, in the electronic device according to the seventh aspect, a plurality of second images for each area of the first image stored in the storage unit are determined for each of these areas. Display switching means for switching and displaying at a given predetermined timing.
[0023]
According to such a configuration, a plurality of second images assigned to each area of the first image can be switched and displayed at a predetermined timing.
[0024]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0025]
(1st Embodiment)
FIG. 1 is a diagram showing an external configuration of a digital camera as an example of an electronic apparatus according to the present invention, and shows a configuration of a back side of a camera apparatus main body. FIG. 2 is a diagram showing an example of a frame image used in the digital camera.
[0026]
The
[0027]
The
[0028]
As shown in FIG. 1, a
[0029]
Further, on the back side of the device main body, a
[0030]
The
[0031]
A plurality of such frame images are prepared, and the user can arbitrarily select from them. In the first embodiment, an image (second image) photographed at different timings is fitted into each area of the frame image (first image) selected by the user, and one frame-attached image (synthesized image) is obtained. Image) can be created. The captured images corresponding to each area can be stored individually or collectively or output as printed matter. Further, an effect process called “image effect” can be applied to these captured images. The “image effect” includes, for example, “monotone”, “sepia”, “reversal”, and “blur”.
[0032]
FIG. 3 is a block diagram illustrating a circuit configuration of the
[0033]
The
[0034]
The
[0035]
The
[0036]
The photographing
[0037]
The
[0038]
The communication unit 35 is a unit that performs communication processing with an external terminal via a network according to a predetermined communication protocol. For example, the communication unit 35 outputs a captured image or a composite image of the captured image and a frame image in the form of an electronic mail. It is used when transmitting to a terminal.
[0039]
In addition, the
[0040]
Next, a method of creating an image with a frame (synthesized image) realized by the
[0041]
In each embodiment, the process shown in each flowchart is executed by the
[0042]
FIG. 4 is a flowchart showing a processing operation of the
[0043]
At the time of creating a composite image, the
[0044]
When the
[0045]
When the user presses the next candidate selection button 14a in the
[0046]
That is, the
[0047]
At this time, if the “image effect” function is selected by operating the image effect selection button 14c (Yes in step A20), the
[0048]
Next, the
[0049]
In addition, when the user continuously performs photographing (Yes in step A24), the processing from step A12 is repeatedly executed. That is, the
[0050]
In this way, the images shot at different timings are fitted into each shooting area of the frame image, and one composite image is created as a framed image. The data of the frame-attached image is stored in a
[0051]
As described above, according to the first embodiment of the present invention, while using an existing frame image prepared in advance, a plurality of regions provided in the frame image are photographed at different timings. An image with one frame (composite image) can be easily created. In this case, in a conventional method of superimposing a frame image on an image after photographing, it is difficult to fit an intended portion of the photographed image into an area of the frame image, and it is easy for misalignment to occur. However, in the method of the present invention, an image corresponding to the region is cut out from the image photographed through each region of the frame image and fitted, so that even if the photographing region is small, it does not have any shape. However, it is possible to obtain a good-looking framed image without any displacement.
[0052]
Also, when shooting each area of the frame image, the through image is displayed only in the area where the shooting is actually to be performed, and the frame image is displayed in the other areas, so that the shooting is performed. Since the state after the image synthesis can be known before performing, a suitable image excellent in the balance with the frame image and the compatibility with the shape of the imaging region can be obtained.
[0053]
In addition, by displaying a semi-transparent image in which a frame image and a through image are superimposed on an area other than the area where the shooting is actually to be performed, even when the shooting target is out of the shooting area, this shooting is performed. It is easy to find a target and match it with the shooting area. For example, a suitable image can be obtained even for a fast-moving subject without missing a photo opportunity.
[0054]
Furthermore, when a frame image having a plurality of regions is used, it is not necessary for a plurality of subjects to be present in such a case. ) Can be easily created.
[0055]
(Second embodiment)
Next, a second embodiment of the present invention will be described.
[0056]
The first embodiment has been described on the assumption that an existing frame image prepared in advance is used. However, in the second embodiment, a background image photographed in advance by a user for image synthesis is replaced with an original frame image. This is a case where the captured image is combined with the frame image using the image.
[0057]
Since the basic device configuration is the same as that of the first embodiment (FIG. 1), the processing operation of the second embodiment will be described here with reference to flowcharts and specific examples.
[0058]
FIG. 6 is a flowchart showing a processing operation of the
[0059]
At the time of photographing, the
[0060]
Here, the
[0061]
After the
[0062]
In this case, the user designates an arbitrary position of the
[0063]
When the
[0064]
In this state, the
[0065]
At this time, similarly to the first embodiment, an effect process called “image effect” may be performed on the cut-out image according to a user's instruction.
[0066]
Next, the
[0067]
In addition, when the user continuously performs photographing (Yes in step B22), the processing from step B15 is repeatedly executed. That is, the
[0068]
In this way, images shot at different timings are fitted into each shooting area of the background image, and one composite image is created as a framed image. The data of the image with the frame is stored in a
[0069]
As described above, according to the second embodiment of the present invention, a user specifies his or her own original frame image by designating a plurality of shooting regions for synthesis of an arbitrary shape in an image (background image) shot by himself. Can be created. Then, it is possible to easily create one framed image (synthesized image) by superimposing the original frame image and the photographed image. In this case, as in the first embodiment, an image corresponding to the region is cut out from the image photographed through each region of the original frame image and fitted, so that even if the photographing region is small, Regardless of the shape, it is possible to obtain a good-looking framed image (composite image) with no positional displacement.
[0070]
Furthermore, when photographing is performed using a predetermined frame, for example, when there are a plurality of photographing areas, it is said that the entire photograph is completed only after photographing is performed on all of these photographing areas. That is to say, as in the second embodiment of the present invention, it is necessary for the user to perform shooting while designating a shooting area for synthesis of an arbitrary shape on an image (background image) shot by himself / herself. It is possible to use the method to gradually increase the frame shooting area while sequentially specifying the shooting area according to the situation, and even in the middle of the process, each picture is independently completed at each point without unfinished pictures It can be stored as a result.
[0071]
Also, from this, at the beginning, it was intended to designate, for example, four photographing areas. However, even if it was found that three pictures were preferable as the photographing proceeded, at that time, The photographing can be stopped, and the photograph in the most preferable state can be completed.
[0072]
Furthermore, according to the second embodiment of the present invention, the user performs shooting while designating an image capturing area for synthesis having an arbitrary shape, thereby designating the shape and size of a frame suitable for the background image in accordance with the background image. To take a picture. Also, on the other hand, according to the shooting target that is actually to be shot in the frame shooting area, that is, the characteristics and size of the face etc. of the person fitted into the frame portion, the distance to the subject, and other various shooting factors, Since a photograph can be taken by designating the shape and size of the frame most suitable for the subject, a suitable photograph can be easily obtained.
[0073]
In addition, when photographing each region of the frame image, the through image is displayed only in the region where the photographing is actually to be performed, and the frame image is displayed in the other region. Since it is possible to know the state after image synthesis beforehand, it is possible to easily set a suitable frame shape and size, and obtain a suitable image excellent in balance with the frame image and compatibility with the shape of the shooting area. be able to.
[0074]
In addition, by displaying a semi-transparent image in which a frame image and a through image are superimposed on an area other than the area where the shooting is actually to be performed, even when the shooting target is out of the shooting area, this shooting is performed. It is easy to find a target and match it with the shooting area. For example, a suitable image can be obtained even for a fast-moving subject without missing a photo opportunity.
[0075]
Further, even when a plurality of regions are set for the original frame image, it is not necessary for a plurality of subjects to be present in such a case in accordance with those regions. Finally, one framed image (composite image) can be easily created.
[0076]
(Third embodiment)
Next, a third embodiment of the present invention will be described.
[0077]
In the third embodiment, for an existing frame image, the image data of each area of the frame image is replaced with another frame image (see FIG. 9), or the image data is captured between the respective image capturing areas of the same frame image. The data can be exchanged (see FIG. 11).
[0078]
Since the basic device configuration is the same as that of the first embodiment (FIG. 1), the processing operation according to the third embodiment will be described here with reference to flowcharts and specific examples.
[0079]
(When replacing the shot image with another frame image)
FIG. 8 is a flowchart showing a processing operation of the
[0080]
When the image editing mode of the
[0081]
Subsequently, the
[0082]
Here, as an initial setting, the
[0083]
The
[0084]
The conversion procedure data is data that describes a conversion procedure when an image is exchanged between the respective regions for an existing frame image. More specifically, for example, when each image in the areas a1 and a2 of the frame image A is moved to the areas b1 and b2 of the frame image B, the following conversion procedure is described.
[0085]
Area a1 → Area b1: "Enlarge by 10%, rotate clockwise 20 degrees"
Area a2 → Area b2: "Enlarge by 20%, rotate clockwise by 30 degrees"
Conversely, when each image in the areas b1 and b2 of the frame image B is moved to the areas a1 and a2 of the frame image A, the following conversion procedure is described.
[0086]
Area b1 → Area a1: "Reduced by 10%, rotated counterclockwise by 20 degrees"
Area b2 → A2: “20% reduction, 30 ° counterclockwise rotation”
Note that the same applies to each area of the same frame image, and conversion procedure data for replacing an image between these areas is stored in the storage area 34e of the
[0087]
When reading the conversion procedure data necessary for moving the image between the areas from the currently selected frame to the newly selected frame image from the storage area 34e of the
[0088]
When the partial image is converted in accordance with the destination area in this way, the
[0089]
In FIG. 9B,
[0090]
In this case, if the size and angle of the area are different between the movement source and the movement destination, the conversion processing of the partial image according to the movement destination is automatically performed. Further, the partial image a is a relative to the partial image of each photographing region, such as the photographing
[0091]
After the new framed image is displayed in this manner, if the frame image is to be further changed (Yes in step C21), the process returns to step C15 and the same processing as described above is executed. When the change of the frame image is completed (No in step C21), the data of the framed image created at that time is stored in the
[0092]
(When replacing captured images within the same frame image)
FIG. 10 is a flowchart showing another processing operation of the
[0093]
When the image editing mode of the
[0094]
Subsequently, the
[0095]
In this state, when two partial images to be replaced are selected by the user (steps D13 and D14), the
[0096]
That is, the
[0097]
When the image of the “partial area A” and the image of the “partial area B” are converted to match each other in this manner, the
[0098]
In the example of FIG. 11B, a state in which the partial image a of the photographing
[0099]
If the image replacement is to be continued (Yes in step D21), the processing from step D13 is repeated. In this way, the partial images a, b, and c of the respective photographing
[0100]
When the replacement of the images is completed (No in step D21), the data of the framed image created at that time is stored in the
[0101]
As described above, according to the third embodiment of the present invention, the image data for each region of the frame image is freely replaced between another region of the frame image or each region of the same frame image, and a new image with a frame ( (Composite image) can be easily created. Therefore, when creating an image with a frame using various frame images with an image of the same subject, it is not necessary to perform a troublesome operation such as repeating photographing while replacing the frame image each time. In addition, the photographed object can be reused many times for the image of the subject, so that there is an advantage that the memory capacity is small.
[0102]
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described.
[0103]
In the fourth embodiment, when a background image captured by a user is used as an original frame image as in the second embodiment, an editing operation of each area set in the frame image is enabled. .
[0104]
Since the basic device configuration is the same as that of the first embodiment (FIG. 1), the processing operation of the fourth embodiment will be described here with reference to a flowchart.
[0105]
FIG. 12 is a flowchart showing a processing operation of the
[0106]
When the image editing mode of the
[0107]
Subsequently, the
[0108]
The editing operation includes “enlargement / reduction operation”, “rotation operation”, and “movement operation”. For example, if the display screen of the
[0109]
Here, if there is an “enlargement / reduction operation” by the user (Yes in step E14), the
[0110]
In this way, when editing processing such as enlargement / reduction, rotation, and movement is performed on the “partial area A”, the
[0111]
If the editing is to be continued (Yes in step E22), the process returns to step E13 and the same processing as described above is executed. When the editing is completed (No in step E22), the image data with the frame created at that time is stored in the
[0112]
As described above, according to the fourth embodiment of the present invention, when a background image which is an original frame image is used, each area set in the background image can be freely edited according to the user's preference. Thus, a new framed image (composite image) can be easily created.
[0113]
(Fifth embodiment)
Next, a fifth embodiment of the present invention will be described.
[0114]
In the fifth embodiment, when a background image captured by a user is used as an original frame image as in the second embodiment, the background image is set in the frame image before the image to be fitted into the frame image is captured. The editing operation of each area is made possible, and the editing state can be previewed.
[0115]
Since the basic device configuration is the same as that of the first embodiment (FIG. 1), the processing operation of the fifth embodiment will be described here with reference to flowcharts and specific examples.
[0116]
FIG. 13 is a flowchart showing a processing operation of the
[0117]
At the time of photographing, the
[0118]
Here, the
[0119]
After the
[0120]
When a “partial area A” as a shooting area is set on the
[0121]
Here, in the second embodiment, the user presses the
[0122]
If there is an “enlargement / reduction operation” by the user (Yes in step F18), the
[0123]
The example of FIG. 14B shows a state in which the image of “partial area A” has been changed by moving the finder, and the example of FIG. 14C has moved the “partial area A” and expanded in the horizontal direction. FIG.
[0124]
As described above, when the editing process such as enlargement / reduction, rotation, and movement is performed on the image of the “partial region A”, the
[0125]
In such a state, the
[0126]
In this manner, one frame-attached image is created by performing shooting at different timings for each region previously edited in the background image. The data of the image with the frame is stored in a
[0127]
As described above, according to the fifth embodiment of the present invention, each area of the background image used as the original frame image can be arbitrarily edited by a user operation, and the editing state can be previewed on the screen as a preview. By doing so, it is possible to easily create a framed image (synthesized image) intended by the user.
[0128]
(Sixth embodiment)
Next, a sixth embodiment of the present invention will be described.
[0129]
In the sixth embodiment, a plurality of images (photos) are allocated to each area of a frame image and stored. For example, as shown in FIG. 16, when there are a plurality of photographing
[0130]
Hereinafter, a specific processing operation will be described with reference to FIG. The basic device configuration is the same as that of the first embodiment (FIG. 1).
[0131]
FIG. 15 is a flowchart showing a processing operation of the
[0132]
At the time of creating an image with a frame, when an existing frame image is selected by the user (step G11), the
[0133]
In this case, if the creation of the framed image using the frame image is the first time, NA = 0, but if the creation of the framed image using the frame image has already been performed, NA> 1. . The NA value is held in the management table TB provided in the storage area 34f of the
[0134]
Here, the
[0135]
In addition, at this time, if there is an instruction to associate a captured image by a predetermined operation (Yes in step G18), the
[0136]
If the photographing is to be continued further (Yes in step G21), the process returns to step G13 and the same processing as described above is repeated. If the photographing is not to be continued (No in step G21), the processing here ends.
[0137]
As described above, according to the sixth embodiment of the present invention, it is possible to allocate a plurality of images to each shooting region of a frame image and save the images. Therefore, for example, in a case where a plurality of framed images are created while replacing the subject image with a frame image having the same pattern, only one frame image can be used, and the memory capacity can be saved. Can be.
[0138]
In addition, by associating an image captured using this frame image with an image in another region of the same frame image, as shown in FIG. 16, for example, a group “a1-b1-c1”, Each image of the same frame image can be divided into groups, such as a group of “b2-c2”, and an image with a frame can be easily created for each group.
[0139]
(Seventh embodiment)
Next, a seventh embodiment of the present invention will be described.
[0140]
In the seventh embodiment, when a plurality of images (photographs) are allocated to each shooting region of a frame image and stored as in the sixth embodiment, these images are automatically or manually operated. This is switched and displayed as a slide show.
[0141]
More specifically, for example, as shown in FIG. 19, a1, a2, a3 for the
[0142]
Hereinafter, a specific processing operation will be described with reference to FIGS. 17 and 18. The basic device configuration is the same as that of the first embodiment (FIG. 1).
[0143]
FIGS. 17 and 18 are flowcharts showing the processing operation of the
[0144]
Now, it is assumed that a frame image in which a plurality of images are assigned to each shooting region is displayed on the
[0145]
That is, the
[0146]
Subsequently, the
[0147]
Here, the
[0148]
In this way, the
[0149]
On the other hand, if the automatic reproduction is not instructed in step H12, the following manual display processing is executed.
[0150]
That is, the
[0151]
Here, if there is a region designation input by the user (Yes in step H23), the
[0152]
Thereafter, in a similar manner, the
[0153]
As described above, according to the seventh embodiment of the present invention, a single frame image is used to display a plurality of images assigned to each shooting region of the frame image in a predetermined order like a slide show. You can check.
[0154]
Here, a case has been described in which a plurality of images assigned to each shooting region of a frame image are sequentially displayed. However, for example, a configuration in which a plurality of images are stored in groups as in the sixth embodiment is described. Then, it is possible to automatically or manually display the data in the group unit.
[0155]
Further, in each of the above embodiments, the description has been made on the assumption that a framed image is created by synthesizing a captured image with a frame image. However, the present invention is not limited to this. The same method as described above can be applied to the case where the image is combined at a predetermined position in the image.
[0156]
The present invention is not limited to the
[0157]
In short, the present invention is not limited to the above-described embodiments, and can be variously modified in an implementation stage without departing from the gist of the invention. Further, the embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some components are deleted from all the components shown in the embodiment, the effects described in “Problems to be Solved by the Invention” can be solved, and the effects described in the “Effects of the Invention” section can be solved. In the case where a certain effect can be obtained, a configuration from which this configuration requirement is deleted can be extracted as an invention.
[0158]
In addition, the method described in each of the above-described embodiments includes, as a program that can be executed by a computer, a recording medium such as a magnetic disk (such as a flexible disk or a hard disk), an optical disk (such as a CD-ROM or a DVD), or a semiconductor memory. To be applied to various devices, or the program itself can be transmitted through a transmission medium such as a network and applied to various devices. A computer that implements the present apparatus reads the program recorded on a recording medium or a program provided via a transmission medium, and executes the above-described processing by controlling the operation of the program.
[0159]
In addition to the above-described recording media such as CD-ROM and DVD-ROM, for example, next-generation optical disks using a blue laser such as a Blu-ray Disc (R) or an AOD (Advanced Optical Disc), and a red laser are also used. The present invention can be implemented using various large-capacity recording media that will be developed in the future, such as HD-DVD9 used and Blue Laser DVD using a blue-violet laser.
[0160]
【The invention's effect】
As described in detail above, according to the present invention, shooting is performed at different timings for each area of the first image for creating a composite image, and the second image, which is the shot image, is fitted to the corresponding area. Since the images are combined and combined, it is possible to easily create a combined image intended by the user by using an image prepared separately from the photographed image, without the need for complicated positioning or the like.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an external configuration of a digital camera as an example of an electronic apparatus according to an embodiment of the invention.
FIG. 2 is a view showing an example of a frame image used in the digital camera.
FIG. 3 is a block diagram showing a circuit configuration of the digital camera.
FIG. 4 is a flowchart illustrating a processing operation of the digital camera according to the first embodiment of the present invention, and is a flowchart illustrating a processing procedure when a composite image is created using an existing frame image.
FIG. 5 is a diagram for specifically explaining the processing shown in FIG. 4;
FIG. 6 is a flowchart illustrating a processing operation of the digital camera according to the second embodiment of the present invention, and is a flowchart illustrating a processing procedure when a composite image is created using a background image as an original frame image.
FIG. 7 is a view for specifically explaining the processing shown in FIG. 6;
FIG. 8 is a flowchart illustrating a processing operation of the digital camera according to the third embodiment of the present invention, and is a flowchart illustrating a processing procedure when a captured image is replaced with another frame image.
FIG. 9 is a diagram for specifically explaining the processing shown in FIG. 8;
FIG. 10 is a flowchart illustrating another processing operation of the digital camera according to the third embodiment of the present invention, and is a flowchart illustrating a processing procedure when a captured image is replaced in the same frame image.
FIG. 11 is a diagram for specifically explaining the processing shown in FIG. 10;
FIG. 12 is a flowchart illustrating a processing operation of the digital camera according to the fourth embodiment of the present invention, and is a flowchart illustrating a processing procedure when editing each area set as a background image.
FIG. 13 is a flowchart showing a processing operation of the digital camera according to the fifth embodiment of the present invention, and is a flowchart showing a processing procedure when each area set as a background image is edited before photographing.
FIG. 14 is a view for specifically explaining the processing shown in FIG. 13;
FIG. 15 is a flowchart showing a processing operation of the digital camera according to the sixth embodiment of the present invention, showing a processing procedure in a case where a plurality of images are assigned and stored in each shooting area of a frame image.
FIG. 16 is a diagram for specifically explaining the processing shown in FIG. 16;
FIG. 17 is a flowchart showing a processing operation of the digital camera according to the seventh embodiment of the present invention, and is a flowchart showing a processing procedure when reproducing and displaying a plurality of images assigned to each shooting region of a frame image.
FIG. 18 is a flowchart showing a processing operation of the digital camera according to the seventh embodiment of the present invention, and is a flowchart showing a processing procedure in a case where a plurality of images assigned to each shooting region of a frame image are reproduced and displayed.
FIG. 19 is a diagram for specifically explaining the processing shown in FIGS. 18 and 19;
[Explanation of symbols]
11 Digital camera
12. Power button
13. Shutter button
14. Operation button group
14a… Next candidate selection button
14b… Enter button
14c: Image effect selection button
15 ... Cursor key
17 Display unit
18 Optical finder
21 ... Frame image
22a, 22b: photographing area
23a, 23b ... images (photos)
Claims (10)
複数の領域を有する第1の画像を前記表示部に表示する表示手段と、
この表示手段によって表示された第1の画像の各領域のうちの1つ以上の領域を選択する領域選択手段と、
所定のタイミングで前記カメラ機能を起動し、前記領域選択手段によって選択された領域に対応した第2の画像を撮影する撮影手段と、
この撮影手段によって撮影された第2の画像を前記第1の画像の前記選択された領域に嵌め込んで合成する画像合成手段と
を具備したことを特徴とする電子機器。An electronic device having a camera function and a display unit for displaying a shooting target of the camera function,
Display means for displaying a first image having a plurality of regions on the display unit;
Area selecting means for selecting one or more of the areas of the first image displayed by the display means;
Photographing means for activating the camera function at a predetermined timing and photographing a second image corresponding to the area selected by the area selecting means;
An electronic apparatus comprising: an image synthesizing unit that fits a second image captured by the imaging unit into the selected area of the first image and synthesizes the selected image.
この変換手順記憶手段によって記憶された変換手順データに基づいて、前記第1の画像の各領域の中で移動対象として指定された領域内の第2の画像を移動先として指定された領域に合わせるように変換する変換手段とを備え、
前記画像合成手段は、前記変換手段によって変換された第2の画像を前記移動先の領域に嵌め込んで合成することを特徴とする請求項1記載の電子機器。A conversion procedure storage unit that stores conversion procedure data in which a conversion procedure for exchanging images between areas is described;
Based on the conversion procedure data stored by the conversion procedure storage means, the second image in the area specified as the movement target in each area of the first image is matched with the area specified as the movement destination. Conversion means for converting
2. The electronic apparatus according to claim 1, wherein the image synthesizing unit fits the second image converted by the conversion unit into the destination area and synthesizes the second image.
前記カメラ機能によって事前に撮影された背景画像を合成画像作成用の第1の画像として前記表示部に表示する表示手段と、
この表示手段によって表示された第1の画像に対して少なくとも1つ以上の領域を設定する領域設定手段と、
所定のタイミングで前記カメラ機能を起動し、前記領域設定手段によって設定された領域に対応した第2の画像を撮影する撮影手段と、
この撮影手段によって撮影された第2の画像を前記第1の画像の前記設定された領域に嵌め込んで合成する画像合成手段と
を具備したことを特徴とする電子機器。An electronic device having a camera function and a display unit for displaying a shooting target of the camera function,
Display means for displaying a background image taken in advance by the camera function on the display unit as a first image for creating a composite image;
Area setting means for setting at least one area for the first image displayed by the display means;
Photographing means for activating the camera function at a predetermined timing and photographing a second image corresponding to the area set by the area setting means;
An electronic device comprising: an image synthesizing unit that fits the second image captured by the imaging unit into the set area of the first image and synthesizes the image.
この領域編集手段によって編集された領域内の前記第2の画像を当該領域に合わせて変換する変換手段と
を備えたことを特徴とする請求項3記載の電子機器。Area editing means for editing an area set in the first image;
4. The electronic apparatus according to claim 3, further comprising a conversion unit configured to convert the second image in the area edited by the area editing unit according to the area.
前記撮影手段は、所定のタイミングで前記カメラ機能を起動し、前記領域編集手段によって編集された領域に対応した第2の画像を撮影し、
前記画像合成手段は、前記撮影手段によって撮影された第2の画像を前記第1の画像の前記設定択された領域に嵌め込んで合成することを特徴とする請求項3記載の電子機器。An area editing unit configured to edit an area set in the first image before photographing;
The photographing unit activates the camera function at a predetermined timing, and photographs a second image corresponding to the region edited by the region editing unit,
4. The electronic apparatus according to claim 3, wherein the image combining unit fits the second image photographed by the photographing unit into the set area of the first image and combines the images. 5.
複数の撮影領域を有する第1の画像を前記表示部に表示するステップと、
前記表示部に表示された第1の画像の各領域のうちの1つ以上の領域を選択するステップと、
所定のタイミングで前記カメラ機能を起動し、前記選択された領域に対応した第2の画像を撮影するステップと、
この撮影された第2の画像を前記第1の画像の前記選択された領域に嵌め込んで合成するステップと
を備えたことを特徴とする画像処理方法。An image processing method used in an electronic device having a camera function and having a display unit for displaying a shooting target of the camera function,
Displaying a first image having a plurality of photographing regions on the display unit;
Selecting one or more of the regions of the first image displayed on the display unit;
Activating the camera function at a predetermined timing, and capturing a second image corresponding to the selected area;
Fitting the captured second image into the selected area of the first image and synthesizing the selected second image.
前記カメラ機能によって事前に撮影された背景画像を合成画像作成用の第1の画像として前記表示部に表示するステップと、
前記表示部に表示された第1の画像に対して少なくとも1つ以上の領域を設定するステップと、
所定のタイミングで前記カメラ機能を起動し、前記設定された領域に対応した第2の画像を撮影するステップと、
この撮影された第2の画像を前記第1の画像の前記設定された領域に嵌め込んで合成するステップと
を備えたことを特徴とする画像処理方法。An image processing method used in an electronic device having a camera function and having a display unit for displaying a shooting target of the camera function,
Displaying a background image captured in advance by the camera function on the display unit as a first image for creating a composite image;
Setting at least one or more regions for the first image displayed on the display unit;
Activating the camera function at a predetermined timing, and capturing a second image corresponding to the set area;
Fitting the captured second image into the set area of the first image and synthesizing the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003100410A JP4314863B2 (en) | 2003-04-03 | 2003-04-03 | Electronic apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003100410A JP4314863B2 (en) | 2003-04-03 | 2003-04-03 | Electronic apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004312162A true JP2004312162A (en) | 2004-11-04 |
JP4314863B2 JP4314863B2 (en) | 2009-08-19 |
Family
ID=33464555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003100410A Expired - Fee Related JP4314863B2 (en) | 2003-04-03 | 2003-04-03 | Electronic apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4314863B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007104336A (en) * | 2005-10-04 | 2007-04-19 | Olympus Imaging Corp | Camera, display control method, display control apparatus, program, and recording medium |
JP2008017238A (en) * | 2006-07-07 | 2008-01-24 | Casio Comput Co Ltd | Imaging apparatus, and method and program for through-image display control |
JP2008034917A (en) * | 2006-07-26 | 2008-02-14 | Pentax Corp | Image recording apparatus |
US7843511B2 (en) | 2004-11-26 | 2010-11-30 | Lg Electronics Inc. | Apparatus and method for combining images in a terminal device |
JP2013055671A (en) * | 2012-10-15 | 2013-03-21 | Olympus Imaging Corp | Camera |
JP2016032224A (en) * | 2014-07-29 | 2016-03-07 | フリュー株式会社 | Photo sticker creation device and image processing method |
CN108234812A (en) * | 2016-12-15 | 2018-06-29 | 富士胶片株式会社 | Printer and digital camera and Method of printing with printer |
-
2003
- 2003-04-03 JP JP2003100410A patent/JP4314863B2/en not_active Expired - Fee Related
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7843511B2 (en) | 2004-11-26 | 2010-11-30 | Lg Electronics Inc. | Apparatus and method for combining images in a terminal device |
JP2007104336A (en) * | 2005-10-04 | 2007-04-19 | Olympus Imaging Corp | Camera, display control method, display control apparatus, program, and recording medium |
JP4695480B2 (en) * | 2005-10-04 | 2011-06-08 | オリンパスイメージング株式会社 | camera |
JP2008017238A (en) * | 2006-07-07 | 2008-01-24 | Casio Comput Co Ltd | Imaging apparatus, and method and program for through-image display control |
US8004592B2 (en) | 2006-07-07 | 2011-08-23 | Casio Computer Co., Ltd. | Imaging device, through image display control method, and recording medium on which through image display control program is recorded in computer-readable manner |
JP2008034917A (en) * | 2006-07-26 | 2008-02-14 | Pentax Corp | Image recording apparatus |
US7764313B2 (en) | 2006-07-26 | 2010-07-27 | Hoya Corporation | Image capturing device for displaying an oranamental image as semi-transparent and with opacity |
JP4612593B2 (en) * | 2006-07-26 | 2011-01-12 | Hoya株式会社 | Image recording device |
JP2013055671A (en) * | 2012-10-15 | 2013-03-21 | Olympus Imaging Corp | Camera |
JP2016032224A (en) * | 2014-07-29 | 2016-03-07 | フリュー株式会社 | Photo sticker creation device and image processing method |
CN108234812A (en) * | 2016-12-15 | 2018-06-29 | 富士胶片株式会社 | Printer and digital camera and Method of printing with printer |
CN108234812B (en) * | 2016-12-15 | 2021-09-28 | 富士胶片株式会社 | Printer, digital camera with printer and printing method |
Also Published As
Publication number | Publication date |
---|---|
JP4314863B2 (en) | 2009-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3700687B2 (en) | Camera device and subject photographing method | |
US20130258128A1 (en) | Camera and method for recording image files | |
JP5729963B2 (en) | Image composition processing apparatus and control method thereof | |
JP4315345B2 (en) | Image editing apparatus and method, and program | |
JP2015146619A (en) | Photographic device, and photographic image display processing method and photographic image display processing program to apply to the photographic device | |
JP2005182767A (en) | Image editing apparatus, method, and program | |
JP2005184795A (en) | Apparatus, method, and program for editing image | |
JP2002112008A (en) | Image processing system and recording medium recording image processing program | |
JP2004312162A (en) | Electronic equipment and image processing method | |
JP2005020607A (en) | Composite image output device and composite image output processing program | |
JP2006060653A (en) | Image editing apparatus, method and program | |
JP5361780B2 (en) | Image processing apparatus and image processing program | |
JP2019092121A (en) | Imaging control apparatus and control method of the same | |
JP2014179855A (en) | Display control apparatus and control method therefor | |
JP7395258B2 (en) | Image processing device, image processing method, computer program and storage medium | |
JP7378963B2 (en) | Image processing device, image processing method, and computer program | |
JP5895394B2 (en) | Game shooting device, game shooting method, and game shooting program | |
JP2000316131A (en) | Picture image pickup device | |
JP2005318009A (en) | Electronic camera and image processing program | |
JP5974611B2 (en) | PHOTOGRAPHIC GAME DEVICE, IMAGE GENERATION METHOD, AND IMAGE GENERATION PROGRAM | |
JP2003114605A5 (en) | ||
JP4823983B2 (en) | Image reproduction apparatus, image reproduction method, and image reproduction program | |
JP5990068B2 (en) | Control device, control method, and control program | |
JP2007228146A (en) | Device, method and program of photography | |
JP2005027233A (en) | Digital camera, order information recording program, and display program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080909 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090428 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090511 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120529 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120529 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130529 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130529 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |