JP4168803B2 - Image output device - Google Patents

Image output device Download PDF

Info

Publication number
JP4168803B2
JP4168803B2 JP2003091686A JP2003091686A JP4168803B2 JP 4168803 B2 JP4168803 B2 JP 4168803B2 JP 2003091686 A JP2003091686 A JP 2003091686A JP 2003091686 A JP2003091686 A JP 2003091686A JP 4168803 B2 JP4168803 B2 JP 4168803B2
Authority
JP
Japan
Prior art keywords
image
composite form
captured
composite
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003091686A
Other languages
Japanese (ja)
Other versions
JP2004304261A (en
Inventor
孝 湖城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003091686A priority Critical patent/JP4168803B2/en
Publication of JP2004304261A publication Critical patent/JP2004304261A/en
Application granted granted Critical
Publication of JP4168803B2 publication Critical patent/JP4168803B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、デジタルカメラやカメラ付携帯端末などにおける撮影画像に応じた画像を合成して出力するための画像出力装置に関する。
【0002】
【従来の技術】
従来、各種のスチルカメラやビデオカメラにおいて、撮影した画像に対し他の画像を合成して表示あるいは印刷して出力するものがある。
【0003】
例えば撮影フレームの固定した位置に予め用意された花や人気キャラクタなどのアニメ画像を合成して出力するものや、同予め用意されたアニメ画像を撮影フレーム内の希望の位置に合成して出力するものなどが実用されている。
【0004】
また、デジタルカメラにより撮影された画像をパーソナルコンピュータの表示画面上に表示させて他の画像と合成して編集することもできるが、この場合に他の画像は例えば他の画像ファイルから選択的に切り出したり、インターネット上の任意のホームページ画面からダウンロードしたりするなどして取得され、撮影画像上の希望位置に合成される。
【0005】
また、デジタルカメラにより撮影された画像の任意の領域(例えば顔の部分)を切り出し、この切り出し画像を予め用意されたアニメ画像(例えばアニメキャラクタの顔部分)に合成させて新たな別の画像を作成するものや、任意の画像の指定した領域に対して、これに関連付けたアニメ画像を合成するものも考えられている。(例えば、特許文献1参照。)
【0006】
【特許文献1】
特開2001−230972号公報
【0007】
【発明が解決しようとする課題】
しかしながら、このような従来の画像処理システムでは、撮影画像に対して、予め用意された画像をそのまま固定あるいは希望の位置に合成して出力したり、あるいは任意の切り出し画像に対して予め用意された画像を合成して出力したりするだけのものであるため、撮影画像以外の合成画像が常に固定的で変化が無く、またインターネットから多様な画像をダウンロードして利用するにしても、撮影画像とは関係のない単なる飾りでしかないため、面白味に欠け飽きが来やすい問題がある。
【0008】
本発明は、前記のような問題に鑑みてなされたもので、撮影画像に対して単に固定的な画像を合成するのではなく、当該撮影画像中の物体(例えば人物)像に対応した画像を合成して出力することが可能になる画像出力装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
すなわち、本発明の請求項1に係る画像出力装置では、
撮影画像についての抽出対象部分と画像の合成形態とを対応付けてなる合成形態画像を複数記憶する合成形態画像記憶手段と、
撮影画像を取得する撮影画像取得手段と、
この撮影画像取得手段により取得された撮影画像に対応付けて前記合成形態画像記憶手段に記憶されている合成形態画像を選択する合成形態画像選択手段と、
この合成形態画像選択手段により選択された合成形態画像により示される前記撮影画像についての抽出対象部分に応じた対応画像を取得する対応画像取得手段と、
この対応画像取得手段により取得された対応画像を前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態に応じて、前記撮影画像取得手段により取得された撮影画像に合成する画像合成手段と、
この画像合成手段により対応画像の合成された撮影画像を出力する画像出力手段と、
前記合成形態画像選択手段により選択された合成形態画像により示される抽出対象部分に従って前記撮影画像取得手段により取得された撮影画像の中から対象画像を抽出する対象画像抽出手段を備え、
前記対応画像取得手段は、前記対象画像抽出手段により抽出された対象画像に応じた対応画像を取得し、
前記対象画像抽出手段は、
前記撮影画像取得手段により取得された一連の複数の撮影画像の中から変化部分の画像ブロックを抽出する画像ブロック抽出手段を有し、
この画像ブロック抽出手段により抽出された画像ブロックの中から前記合成形態画像選択手段により選択された合成形態画像により示される抽出対象部分に対応した画像ブロックを対象画像として抽出することを特徴とする。
【0010】
請求項1に係る画像出力装置によれば、撮影画像について選択した対象部分の画像に応じたまね画像などの対応画像が取得され、この対応画像を、選択した画像の合成形態に応じて前記撮影画像に合成して出力できることになる。
【0016】
請求項1に係る画像出力装置によれば、そればかりでなく、一連の複数の撮影画像の中から被写体像などの変化部分の画像ブロックを抽出し、この画像ブロックの中から抽出対象部分に対応した画像ブロックを対象画像として抽出して、その対応画像を取得合成できることになる。
【0023】
また、本発明の請求項に係る画像出力装置では、
撮影画像についての抽出対象部分と画像の合成形態とを対応付けてなる合成形態画像を複数記憶する合成形態画像記憶手段と、
撮影画像を取得する撮影画像取得手段と、
この撮影画像取得手段により取得された撮影画像について、前記合成形態画像記憶手段により記憶されている合成形態画像を選択する合成形態画像選択手段と、
この合成形態画像選択手段により選択された合成形態画像により示される前記撮影画像についての抽出対象部分に応じた対応画像を取得する対応画像取得手段と、
この対応画像取得手段により取得された対応画像を前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態に応じて、前記撮影画像取得手段により取得された撮影画像に合成する画像合成手段と、
この画像合成手段により対応画像の合成された撮影画像を出力する画像出力手段とを備え、
前記画像の合成形態には、少なくとも領域置き換え合成形態が含まれ、
前記画像合成手段は、前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態が領域置き換え合成形態である場合、前記撮影画像取得手段により取得された撮影画像の中の前記合成形態画像により示される抽出対象部分の複数の対象画像をそれぞれ前記対応画像取得手段により取得された複数の対応画像に置き換えて当該撮影画像に合成することを特徴とする。
【0024】
請求項2に係る画像出力装置によれば、合成形態画像により示される画像の合成形態の選択により、撮影画像の抽出対象部分に含まれる複数の被写体などの対象画像を、それぞれこれに応じた複数の対応画像に置き換えて当該撮影画像に合成できることになる。
【0025】
また、本発明の請求項に係る画像出力装置では、
撮影画像についての抽出対象部分と画像の合成形態とを対応付けてなる合成形態画像を複数記憶する合成形態画像記憶手段と、
撮影画像を取得する撮影画像取得手段と、
この撮影画像取得手段により取得された撮影画像に対応付けて前記合成形態画像記憶手段に記憶されている合成形態画像を選択する合成形態画像選択手段と、
この合成形態画像選択手段により選択された合成形態画像により示される前記撮影画像についての抽出対象部分に応じた対応画像を取得する対応画像取得手段と、
この対応画像取得手段により取得された対応画像を前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態に応じて、前記撮影画像取得手段により取得された撮影画像に合成する画像合成手段と、
この画像合成手段により対応画像の合成された撮影画像を出力する画像出力手段とを備え、
前記画像の合成形態には、少なくとも追加合成形態が含まれ、
前記画像合成手段は、前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態が追加合成形態である場合、前記対応画像取得手段により取得された対応画像を前記撮影画像取得手段により取得された撮影画像に追加して合成することを特徴とする。
【0026】
請求項3に係る画像出力装置によれば、合成形態画像により示される画像の合成形態の選択により、撮影画像の抽出対象部分の対象画像に応じた対応画像を、当該撮影画像に追加して合成できることになる。
【0027】
また、本発明の請求項に係る画像出力装置では、
撮影画像についての抽出対象部分と画像の合成形態とを対応付けてなる合成形態画像を複数記憶する合成形態画像記憶手段と、
撮影画像を取得する撮影画像取得手段と、
この撮影画像取得手段により取得された撮影画像に対応付けて前記合成形態画像記憶手段に記憶されている合成形態画像を選択する合成形態画像選択手段と、
この合成形態画像選択手段により選択された合成形態画像により示される前記撮影画像についての抽出対象部分に応じた対応画像を取得する対応画像取得手段と、
この対応画像取得手段により取得された対応画像を前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態に応じて、前記撮影画像取得手段により取得された撮影画像に合成する画像合成手段と、
この画像合成手段により対応画像の合成された撮影画像を出力する画像出力手段とを備え、
前記画像の合成形態には、少なくとも反転追加合成形態が含まれ、
前記画像合成手段は、前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態が反転追加合成形態である場合、前記対応画像取得手段により取得された対応画像を前記撮影画像取得手段により取得された撮影画像上で前記合成形態画像により示される抽出対象部分の対象画像と左右反転の位置に追加して合成することを特徴とする。
【0028】
請求項4に係る画像出力装置によれば、合成形態画像により示される画像の合成形態の選択により、撮影画像の抽出対象部分の対象画像に応じた対応画像を、撮影画像上で当該対象部分の対象画像と左右反転の位置に追加して合成できることになる。
【0029】
また、本発明の請求項に係る画像出力装置では、
撮影画像についての抽出対象部分と画像の合成形態とを対応付けてなる合成形態画像を複数記憶する合成形態画像記憶手段と、
撮影画像を取得する撮影画像取得手段と、
この撮影画像取得手段により取得された撮影画像に対応付けて前記合成形態画像記憶手段に記憶されている合成形態画像を選択する合成形態画像選択手段と、
この合成形態画像選択手段により選択された合成形態画像により示される前記撮影画像についての抽出対象部分に応じた対応画像を取得する対応画像取得手段と、
この対応画像取得手段により取得された対応画像を前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態に応じて、前記撮影画像取得手段により取得された撮影画像に合成する画像合成手段と、
この画像合成手段により対応画像の合成された撮影画像を出力する画像出力手段とを備え、
前記画像の合成形態には、少なくとも次画像置き換え合成形態が含まれ、
前記対応画像取得手段は、前記撮影画像取得手段により取得された第1の撮影画像について前記合成形態画像選択手段により選択された合成形態画像により示される抽出対象部分に応じた対応画像を取得し、
前記画像合成手段は、前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態が次画像置き換え合成形態である場合、前記撮影画像取得手段により取得された第2の撮影画像に対して、前記対応画像取得手段により取得された対応画像を合成することを特徴とする。
【0030】
請求項5に係る画像出力装置によれば、合成形態画像により示される画像の合成形態の選択により、第1の撮影画像の抽出対象部分の対象画像に応じて取得された対応画像を、第2の撮影画像に対して合成できることになる。
【0031】
また、本発明の請求項に係る画像出力装置では、合成形態画像記憶手段により記憶される合成形態画像により示される撮影画像についての抽出対象部分は人の形の枠により示される。
【0032】
請求項6に係る画像出力装置によれば、撮影画像について合成すべき対応画像を取得するための人物などの対象画像を、人の形の枠により容易に抽出対象部分として選択できることになる。
【0033】
また、本発明の請求項に係る画像出力装置では、合成形態画像記憶手段により記憶される合成形態画像により示される画像の合成形態が追加合成形態である場合、当該合成形態画像により示される撮影画像についての抽出対象部分は透明の枠により示される。
【0034】
請求項7に係る画像出力装置によれば、撮影画像上に追加合成すべき対応画像を取得するための対象画像を透明の枠により選択して、当該対象画像をそのままに対応画像が追加合成されるのを知ることができる。
【0035】
また、本発明の請求項に係る画像出力装置では、合成形態画像記憶手段により記憶される合成形態画像により示される画像の合成形態が置き換え合成形態である場合、当該合成形態画像により示される撮影画像についての抽出対象部分は半透明の枠により示される。
【0036】
請求項8に係る画像出力装置によれば、撮影画像上で置き換え合成すべき対応画像を取得するための対象画像を半透明の枠により選択して、当該対象画像に置き換えられて対応画像が合成されるのを知ることができる。
【0037】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
【0038】
図1は本発明の実施形態に係る画像出力装置10の電子回路の構成を示すブロック図である。
【0039】
この画像出力装置10は、各種の記録媒体に記録されたプログラム、又は、伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)11が備えられる。
【0040】
CPU11は、メモリ12内に予め記憶された装置制御プログラム、あるいはCD−ROMなどの外部記録媒体13から記録媒体読取部14を介して前記メモリ12に読み込まれた装置制御プログラム、あるいはインターネットN上のWebサーバ21(この場合はプログラムサーバ)から電送制御部15を介して前記メモリ12に読み込まれた装置制御プログラムに応じて、回路各部の動作を制御するもので、前記メモリ12に記憶された装置制御プログラムは、キーやタッチパネルからなる入力部16からのユーザ操作に応じた入力信号、あるいは画像入力部17を介して入力される画像信号、あるいは電送制御部15を介して接続されるインターネットN上の各Webサーバ21…との通信信号に応じて起動される。
【0041】
前記CPU11には、前記メモリ12、記録媒体読取部14、電送制御部15、入力部16、画像入力部17が接続される他に、距離センサ18、LCDからなる表示部19、画像出力部20などが接続される。
【0042】
画像入力部17は、撮影画像データを入力するもので、この撮影画像データは、デジタルカメラ17A、デジタルビデオムービー17B、VTR(画像再生装置)17Cから選択的に取得される。
【0043】
距離センサ18は、前記画像入力部17において入力される撮影画像の被写体までの距離を検出する。
【0044】
画像出力部20は、前記画像入力部17から入力された撮影画像に基づき本装置により処理された画像データを出力するもので、この出力画像データは、メモリカード20A、VTR(録画装置)20B、画像印刷機20Cに選択的に出力され、当該画像の記憶,録画,印刷が行われる。
【0045】
メモリ12には、当該画像出力装置10の全体の動作を司るシステムプログラムや電送制御部15を介してインターネットN上の各Webサーバ21…とデータ通信するための通信プログラムが記憶される他に、画像入力部17や画像出力部20を介して本画像出力装置10で撮影画像内の対象画像に応じた対応画像の合成出力処理などを行うための画像処理プログラム12aなどが記憶される。
【0046】
また、このメモリ12には、モデルポーズ画像メモリ12b、まねキャラフレーム一覧メモリ12c、キャラ1「ウサギ」ポーズ画像メモリ12d、キャラ2「クマ」ポーズ画像メモリ12e、キャラ3「ネコ」ポーズ画像メモリ12f、キャラ4「コビト」ポーズ画像メモリ12iが用意され、さらにそのワークエリアには撮影画像メモリ12gや画像処理ワークエリア12hなどが用意される。
【0047】
図2は前記画像出力装置10のまねキャラフレーム一覧メモリ12cに記憶された各種まねキャラクタ毎のまね対象部分設定フレームの一覧(その1)を示す図である。
【0048】
図3は前記画像出力装置10のまねキャラフレーム一覧メモリ12cに記憶された各種まねキャラクタ毎のまね対象部分設定フレームの一覧(その2)を示す図である。
【0049】
このまねキャラフレーム一覧メモリ12cには、この画像出力装置10による撮影画像領域Fiにおいて、人まねキャラクタとして画像合成すべきキャラクタの種類(A:ネコ/B:ウサギ/C:クマ/D:コビト)と当該キャラクタによってまねすべき画像の対象部分(Tx/Ta)とを示すための複数種類のまねキャラフレーム(A▲1▼-1,-2〜A▲5▼-1,-2/B▲1▼-1,-2〜B▲5▼-1,-2/C▲1▼-1,-2〜C▲5▼-1,-2/D▲1▼-1,-2〜D▲5▼-1,-2/E▲1▼-1,-2〜E▲5▼-1,-2)が記憶される。
【0050】
各まねキャラフレーム(▲1▼-1,-2〜▲5▼-1,-2)において、まねキャラクタの種類(A〜D)は、該当まねキャラクタの基本画像によって示され、また、まねすべき画像の対象部分(Tx/Ta)は、各フレーム(▲1▼-1,-2〜▲5▼-1,-2)毎の撮影画像領域Fi内で予め設定された位置に示される。
【0051】
そして、前記各まねキャラクタフレーム(▲1▼-1,-2〜▲5▼-1,-2)において、半透明に表示されるまね対象部分Txは、当該まね対象部分Txに存在する被写体画像が前記基本画像によって示されるキャラクタのまね画像によって置き換え合成されることを示し、透明に表示されるまね対象部分Taは、当該まね対象部分Taに存在する被写体画像をそのままに、当該被写体画像について前記基本画像によって示されるキャラクタのまね画像が別の位置に追加合成されることを示す。
【0052】
すなわち、図2(1)(2)に示すように、まねキャラクタフレーム▲1▼-1(置き換え(左))または▲1▼-2(置き換え(右))が選択された場合には、撮影画像領域Fiの左寄りまたは右寄りの人形のまね対象部分Txに存在する被写体画像が、そのポーズを真似た選択種類のキャラクタ画像によって置き換え合成される。
【0053】
また、図2(3)(4)に示すように、まねキャラクタフレーム▲2▼-1(領域置き換え(左))または▲2▼-2(領域置き換え(右))が選択された場合には、撮影画像領域Fiの左寄りまたは右寄りの円形のまね対象部分Txの囲み領域に存在する全ての被写体画像が、そのポーズを真似た選択種類のキャラクタ画像によって置き換え合成される。
【0054】
また、図2(5),図3(6)に示すように、まねキャラクタフレーム▲3▼-1(追加(左))または▲3▼-2(追加(右))が選択された場合には、撮影画像領域Fi内の人形のまね対象部分Taに存在する被写体画像について、そのポーズを真似た選択種類のキャラクタ画像が左寄りまたは右寄りに追加合成される。
【0055】
また、図3(7)(8)に示すように、まねキャラクタフレーム▲4▼-1(反転(左→右))または▲4▼-2(反転(右→左))が選択された場合には、撮影画像領域Fiの左寄りまたは右寄りの人形のまね対象部分Taに存在する被写体画像について、そのポーズを真似て反転した選択種類のキャラクタ画像が該被写体画像と反対側の右寄りまたは左寄りに追加合成される。
【0056】
また、図3(9)(10)に示すように、まねキャラクタフレーム▲5▼-1(次追加(左))または▲5▼-2(次追加(右))が選択された場合には、第1撮影画像領域Fi内の人形のまね対象部分Txに存在する被写体画像のポーズを真似た選択種類のキャラクタ画像が、次の撮影画像である第2撮影画像領域Fiの左寄りまたは右寄りに追加合成される。
【0057】
図4は前記画像出力装置10のキャラ1「ウサギ」ポーズ画像メモリ12d:キャラ2「クマ」ポーズ画像メモリ12e:キャラ3「ネコ」ポーズ画像メモリ12fにそれぞれ記憶された各種のポーズに対応する各キャラクタ画像を示す図である。なお、図4において、キャラ4「コビト」ポーズ画像メモリ12iについては、他の各ポーズ画像メモリ12d〜12fと同様のため図示を省略する。
【0058】
このキャラ1「ウサギ」,2「クマ」,3「ネコ」,4「コビト」の各ポーズ画像メモリ12d,12e,12f,12iに記憶された各キャラクタそれぞれの各種のポーズ画像は、画像入力部17から入力された撮影画像上のまね対象部分(Tx/Ta)に存在する被写体画像(対象画像)のポーズを真似たキャラクタ画像として使用されるもので、異なるポーズ毎にそのポーズNo.が対応付けられて記憶される。
【0059】
図5は前記画像出力装置10のモデルポーズ画像メモリ12bに記憶されたモデルポーズに対応するモデル画像を示す図である。
【0060】
このモデルポーズ画像メモリ12bに記憶された各種ポーズのモデル画像は、画像入力部17から入力された撮影画像上のまね対象部分(Tx/Ta)に存在する被写体画像(対象画像)のポーズに応じた類似のモデル画像を取得するために使用されるもので、異なるポーズ毎にそのポーズNo.が対応付けられて記憶され、さらに各ポーズNo.毎に3種のバリエーションA,B,Cのモデル画像が記憶される。
【0061】
そして、前記キャラ1「ウサギ」ポーズ画像メモリ12d,キャラ2「クマ」ポーズ画像メモリ12e,キャラ3「ネコ」ポーズ画像メモリ12f,キャラ4「コビト」ポーズ画像メモリ12iにそれぞれ記憶された各キャラクタ画像には、前記モデルポーズ画像メモリ12bに記憶された全てのポーズNo.(No.1A,1B,1C、2A,2B,2C、〜、nA,nB,nC)に対応する同じポーズのキャラクタ画像が用意されて記憶される。
【0062】
撮影画像メモリ12gには、画像入力部17を介して入力された撮影画像データがその撮影画像単位で記憶される。
【0063】
画像処理ワークエリア12hには、前記画像処理プログラム12aに従い処理される画像データがその画像処理に応じて一時記憶される。
【0064】
このように構成された画像出力装置10について、その動作概要を説明する。
【0065】
図6は前記画像出力装置10によりまねキャラクタフレームB▲4▼-2(反転(右→左))が選択された場合のキャラクタ画像「ウサギ」による左右反転位置追加合成状態を示す図である。
【0066】
図6(A)に示すように、例えばパートナーとのダンスを予め意識した被写体画像(対象画像)Hの撮影画像12g1について、「ウサギ」のまねキャラフレームB▲4▼-2(反転(右→左))[図3(B−8)参照]を選択して重ね合わせ表示させた状態で、当該被写体画像(対象画像)HがフレームB▲4▼-2内のまね対象部分Taに合うように撮影方向および大きさを設定する。この際、透明のまね対象部分Taは、当該まね対象部分Ta内に存在する被写体画像(対象画像)Hはそのままに、当該被写体画像(対象画像)Hのポーズを真似たキャラクタ画像が他の領域に合成されることを意味する。すると、撮影画像12g1とまね対象部分Taに基づいて、図6(B)に示すように当該被写体画像(対象画像)Hが抽出される。
【0067】
まねキャラフレームB▲4▼-2の選択キャラクタは「ウサギ」なので、図6(C)に示すように前記抽出された被写体画像(対象画像)Hのポーズに類似のポーズNo.19「ダンス」の「ウサギ」のキャラクタ画像12d(19)がキャラ1「ウサギ」ポーズ画像メモリ12dから読み出される。すると、このキャラ1「ウサギ」ポーズ画像メモリ12dから読み出された被写体画像(対象画像)Hに類似のポーズNo.19「ダンス」の「ウサギ」のキャラクタ画像12d(19)が左右反転され、図6(D)に示すように撮影画像12g1上の中心を対称とした前記被写体(対象画像)Hと反転した位置に追加合成される。
【0068】
このように、「ウサギ」のまねキャラフレームB▲4▼-2(反転(右→左))[図3(B−8)参照]を選択することで、撮影画像12g1におけるダンスポーズの被写体(対象画像)Hの真似をした「ウサギ」のキャラクタ画像12d(19)が左右反転され、当該撮影画像12g1上でダンスポーズをする被写体(対象画像)Hと左右対称となる位置にダンスパートナーとして追加合成表示される。
【0069】
図7は前記画像出力装置10によりまねキャラフレームC▲5▼-2(次追加(右))が選択された場合のキャラクタ画像「クマ」による次画像置き換え合成状態を示す図である。
【0070】
例えば置き換え画像となる「クマ」のキャラクタと被写体となる自分が“さよなら”をしている合成画像を作成したい場合には、まず図7(A)に示すように、まねキャラクタ「クマ」にさせたい“さよなら”のポーズの被写体画像(対象画像)H1の第1の撮影画像12g2について、「クマ」のまねキャラフレームC▲5▼-2(次追加(右))[図3(C−10)参照]を選択し重ね合わせ表示させた状態で、当該被写体画像(対象画像)H1がフレームC▲5▼-2内のまね対象部分Txに合うように撮影方向および大きさを設定する。この際、半透明のまね対象部分Txは、当該まね対象部分Tx内に存在する被写体画像(対象画像)H1に置き換えて、そのポーズを真似たキャラクタ画像が合成されることを意味する。すると、第1の撮影画像12g2とまね対象部分Txに基づいて、図7(B)に示すように、当該被写体画像(対象画像)H1が抽出される。
【0071】
まねキャラフレームC▲5▼-2の選択キャラクタは「クマ」なので、図7(C)に示すように前記抽出された被写体画像(対象画像)H1のポーズに類似のポーズNo.11「さよなら」の「クマ」のキャラクタ画像12e(11)がキャラ2「クマ」ポーズ画像メモリ12eから読み出される。この場合、現在時刻「PM8」が検知されて夜であることが判定され、前記「さよなら」のポーズの「クマ」のキャラクタ画像は、例えば月に乗った夜用のキャラクタ画像12e(11)Nとして読み出される。
【0072】
つぎに図7(D)に示すように、前記第1撮影画像12g2における1回目の被写体画像(対象画像)H1に対応した相手方となるポーズの2回目の被写体画像H2を撮影すると、この第2撮影画像12g2′の右寄りに、図7(E)に示すように、前記キャラ2「クマ」ポーズ画像メモリ12eから読み出された1回目の被写体画像(対象画像)H1に類似のポーズNo.11「さよなら」の夜時間用の「クマ」のキャラクタ画像12e(11)Nが追加合成される。
【0073】
このように、「クマ」のまねキャラフレームC▲5▼-2(次追加(右))[図3(C−10)参照]を選択することで、1回目の撮影画像12g2において被写体(対象画像)H1の真似をした「クマ」のキャラクタ画像12e(11)が、2回目の撮影画像12g2′において撮影された被写体(対象画像)H2に合わせて追加合成表示される。
【0074】
図8は前記画像出力装置10によりまねキャラフレームB▲1▼-1(置き換え(左))が選択された場合のキャラクタ画像「ウサギ」による置き換え合成状態を示す図である。
【0075】
図8(A)に示すように、例えば3人の被写体H1〜H3を撮影した撮影画像12g3について、「ウサギ」のまねキャラフレームB▲1▼-1(置き換え(左))[図2(B−1)参照]を選択して重ね合わせ表示させた状態で、置き換え対象の被写体画像(対象画像)H1がフレームB▲1▼-1内のまね対象部分Txに合うように撮影方向および大きさを設定する。この際、半透明のまね対象部分Txは、当該まね対象部分Tx内に存在する被写体画像(対象画像)H1に置き換えて、そのポーズを真似たキャラクタ画像が合成されることを意味する。すると、図8(B)に示すように、置き換えの対象となる被写体画像(対象画像)H1が抽出される。
【0076】
まねキャラフレームB▲1▼-1の選択キャラクタは「ウサギ」なので、図8(C)に示すように被写体画像(対象画像)H1のポーズに類似のポーズNo.1「はいチーズ(アップ)」の「ウサギ」のキャラクタ画像12d(1)がキャラ1「ウサギ」ポーズ画像メモリ12dから読み出される。
【0077】
一方、図8(D)(E)(F)に示すように、撮影画像12g3から前記置き換え対象の被写体画像(対象画像)H1を含めた3つの被写体画像H2,H3を切り出した撮影背景画像12g3′が生成される。
【0078】
すると、図8(G)に示すように、前記キャラ1「ウサギ」ポーズ画像メモリ12dから読み出された被写体画像(対象画像)H1に類似のポーズNo.1「はいチーズ」の「ウサギ」のキャラクタ画像12d(1)と、前記撮影画像12g3から切り出された残り2つの被写体画像H2,H3が、前記撮影背景画像12g3′に対しその撮影距離が遠い順に各被写体位置に対応して合成される。
【0079】
このように、「ウサギ」のまねキャラフレームB▲1▼-1(置き換え(左))[図2(B−1)参照]を選択することで、撮影画像12g3における被写体(対象画像)H1のポーズの真似をした「ウサギ」のキャラクタ画像12d(1)が当該被写体(対象画像)H1と置き換えられて合成表示される。
【0080】
なお、この動作概要での図示による説明は省略するが、本画像出力装置10での撮影中に選択可能なまねキャラフレームモードの種類としては、前記置き換え合成フレームモード▲1▼、反転追加合成フレームモード▲4▼、次画像置き換え合成フレームモード▲5▼の他に、領域置き換え合成フレームモード▲2▼、追加合成フレームモード▲3▼がある。
【0081】
すなわち、撮影画像12gnについて、例えば「コビト」の領域置き換え合成フレーム▲2▼-nを選択して重ね合わせ表示させると共に、その半透明のまね対象部分Txの領域を、当該撮影画像12gnにおいて置き換え対象としたい例えば無関係の複数の被写体画像h1,h2,…が存在する位置に合わせて設定する。すると、まね対象部分Txの領域から抽出された複数の被写体画像h1,h2,…それぞれポーズに真似た「コビト」のキャラクタ画像12i(n)がキャラ4「コビト」ポーズ画像メモリ12iから取得され、当該複数の被写体画像h1,h2,…それぞれと置き換えられて合成表示される。
【0082】
これにより、撮影画像12gnに含まれる、例えば撮影対象として不要な複数の被写体画像h1,h2,…については、ユーザにより領域置き換え合成フレーム▲2▼-nとして選択設定した真似のキャラクタ画像に置き換えられる。
【0083】
また、撮影画像12gnについて、例えば「ネコ」の追加合成フレーム▲3▼-nを選択して重ね合わせ表示させると共に、その透明のまね対象部分Taを、当該撮影画像12gnにおいてまね対象としたい被写体画像hの位置に合わせて設定する。すると、まね対象部分Taから抽出された被写体画像hのポーズに真似た「ネコ」のキャラクタ画像12f(n)がキャラ3「ネコ」ポーズ画像メモリ12fから取得され、撮影画像12gnの背景エリアのランダムな位置に追加合成表示される。
【0084】
これにより、撮影画像12gnに含まれる任意の被写体画像hのポーズを真似たキャラクタ画像が当該撮影画像12gnの空きエリアに追加されて合成表示される。
【0085】
次に、前記構成による画像出力装置10による詳細な画像処理動作について説明する。
【0086】
ここでは、画像出力装置10をデジタルカメラとして実施した場合について説明する。
【0087】
図9は前記画像出力装置であるデジタルカメラ10の外観構成を示す図であり、同図(A)はその前面図、同図(B)はその背面図である。
【0088】
図10は前記画像出力装置(デジタルカメラ)10による合成画像出力処理での各種フレームモードの設定に伴う撮影表示状態(その1)を示す図であり、同図(A1)〜(A4)は「ネコ」の追加合成フレームA▲3▼-2を設定した場合の撮影表示状態を示す図、同図(B1)〜(B4)は「ウサギ」の置き換え合成フレームB▲1▼-1を設定した場合の撮影表示状態を示す図、同図(C1)〜(C4)は「ウサギ」の反転追加合成フレームB▲4▼-2を設定した場合の撮影表示状態を示す図である。
【0089】
図11は前記画像出力装置(デジタルカメラ)10による合成画像出力処理での各種フレームモードの設定に伴う撮影表示状態(その2)を示す図であり、同図(D1)〜(D4)は「クマ」の次画像置き換え合成フレームC▲5▼-2を設定した場合の撮影表示状態を示す図、同図(E1)〜(E4)は「コビト」の領域置き換え合成フレームD▲2▼-1を設定した場合の撮影表示状態を示す図である。
【0090】
図12は前記画像出力装置(デジタルカメラ)10による合成画像出力処理(その1)を示すフローチャートである。
【0091】
図13は前記画像出力装置(デジタルカメラ)10による合成画像出力処理(その2)を示すフローチャートである。
【0092】
まず、「PLAY/REC」キー16bを「REC」側にセットし、画像入力部17によって撮影画像12g内に所望の被写体画像Hnを捉え表示部19に表示させる(ステップA1)。
【0093】
ここで、入力部16の「MENU」キー16aの操作により、撮影画像12gnに対し被写体画像Hnを真似たキャラクタ画像の合成表示を行わせるための「まねフレーム機能」が選択されると(ステップA2)、まねキャラフレーム一覧メモリ12c(図2・図3参照)に記憶されている先頭のまねキャラフレームモード(「ネコ」の置き換え(左)合成フレーム▲1▼-1)が初期設定される(ステップA3,A4)。
【0094】
すると、初期設定により指定された「ネコ」の置き換え(左)合成フレーム▲1▼-1がまねキャラフレーム一覧メモリ12cから読み出され、例えば図10(B1)〜(B3)に示すように、撮影中の画像12gnに重ねて合成表示される(ステップA6)。
【0095】
ここで、入力部16のカーソルキー16dを左右方向に操作すると、設定中のまねキャラフレームモードが前記置き換え合成モード▲1▼-n〜次画面追加合成モード▲5▼-nの間で任意に変更設定されて撮影中の画像12gnに対してその都度合成表示され(ステップA7→A8,A5,A6)、また、同カーソルキー16dを上下方向に操作すると、設定中のまねキャラフレームモードのキャラクタの種類が前記「ネコ」A〜「コビト」Dの間で任意に変更設定されて撮影中の画像12gnに対してその都度合成表示される(ステップA9→A10,A5,A6)。
【0096】
そして、撮影中の画像12gnに対して当該選択設定された所望のキャラクタ画像と共に合成表示されるまねキャラフレームのまね対象部分(Tx/Ta)に対して、真似の対象とすべき被写体画像Hnが位置するようにその撮影方向および大きさを合わせた状態で、前記カーソルキー16dをプッシュ操作すると、現在の撮影画像12gnに合わせて合成表示中のまねキャラフレームが選択決定され、そのフレームモードとキャラクタが設定される(ステップA11→A12)。
【0097】
そして、入力部16の「シャッタ」キー16cを操作すると、図14における対象画像抽出処理へ移行される(ステップA12′→AC)。
【0098】
図14は前記画像出力装置(デジタルカメラ)10の合成画像出力処理に伴う対象画像抽出処理を示すフローチャートである。
【0099】
前記シャッタ操作の直前から操作時点において、画像入力部17を介して所定のタイミングで順次入力された一連の撮影画像12gn…がワークエリアの撮影画像メモリ12gに対し記憶される(ステップC1)。
【0100】
すると、この撮影画像メモリ12gに記憶された一連の撮影画像12gn…のそれぞれから被写体の動きに伴う画像の変化部分が当該各被写体のブロック毎に抽出され(ステップC2)、これにより抽出された各被写体画像Hnがそのブロック毎に画像処理ワークエリア12hに保存される(ステップC3)。
【0101】
こうして、撮影画像12gnから当該撮影画像12gnに含まれる各被写体画像Hnがそのブロック毎に抽出されて画像処理ワークエリア12hに保存されると(ステップAC)、このブロック化された各被写体画像Hnについて、前記まねキャラフレームのまね対象部分(Tx/Ta)と最も合致するブロック領域の被写体画像Hnが真似対象画像として抽出設定される(ステップA13)。
【0102】
そして、前記真似対象となる被写体画像Hnが抽出設定されると、図15における対応アニメ画像(まね画像)取得処理に移行される(ステップAD)。
【0103】
図15は前記画像出力装置(デジタルカメラ)10の合成画像出力処理に伴う対応アニメ画像取得処理を示すフローチャートである。
【0104】
この対応アニメ画像取得処理では、まず、前記撮影画像12gnからまね対象部分(Tx/Ta)に応じて抽出され真似対象画像として設定された被写体画像Hnとモデルポーズ画像メモリ12bに記憶されている各ポーズのモデル画像との類似度が評価され(ステップDE)、最も類似度の高いポーズのモデル画像のポーズNo.に対応する設定キャラクタの画像がセットされ(ステップD1)、現在表示中の撮影画像12gnとそのまねキャラフレームにおけるまねキャラクタ画像として設定される(ステップD2→D3)。
【0105】
一方、入力部16に対するユーザ操作(「カーソル」キー16dの左右操作)に応じて「次表示」が指示された場合には、当該「次表示」操作毎に次に類似度の高いモデル画像のポーズNo.に対応する設定キャラクタの画像が順番にセットされる(ステップD2→D4)。
【0106】
そして、所望の類似度のモデルポーズに対応するキャラクタ画像がセットされると、この選択されたポーズNo.の設定キャラクタ画像が真似対象画像に対応するまねキャラクタ画像として設定される(ステップD2→D3)。
【0107】
このように、対応アニメ画像取得処理では、撮影画像12gnからそのまね対象部分(Tx/Ta)に従い抽出設定された真似対象画像としての被写体画像Hnに対し、人物の基本モデルである各ポーズ毎のモデル画像との類似度が評価され、これに基づき被写体画像Hnを真似たポーズのキャラクタとして追加合成または置き換え合成される設定キャラクタ画像が決定される。
【0108】
この場合、真似対象画像としての被写体画像Hnに対し、設定されたキャラクタの各ポーズ毎のキャラクタ画像との類似度を直接評価して追加または置き換えのキャラクタ画像を決定するのに比較して、各ポーズ毎のモデル画像との類似度を評価し選択されたモデルポーズNo.から追加または置き換えのキャラクタ画像を決定するようにした当該対応アニメ画像取得処理の方が、類似度の評価対象に人物モデルを用いることから被写体画像Hnとの高い類似度が得られやすく、より類似性(真似度)の高いキャラクタ画像を取得できる利点がある。
【0109】
図16は前記画像出力装置10の合成画像出力処理に伴う対応アニメ画像取得処理での真似対象画像との類似度評価処理を示すフローチャートである。
【0110】
図17は前記画像出力装置10の対応アニメ画像取得処理での類似度評価処理に伴うモデル画像との類似度評価例を示す図である。
【0111】
例えば図17(A)に示すように、先頭のポーズNo.のモデル画像が読み出され(ステップE1)、同図(X)で示す真似対象画像H1との縦・横のサイズが合わされる(ステップE2)。
【0112】
すると、前記真似対象画像H1と縦横サイズの合わされたモデル画像との重ね合わせ評価が行われ、その評価値(%)が算出されて当該ポーズのモデル画像との類似度として記憶される(ステップE3)。
【0113】
ここで、今回の類似度評価対象のポーズNo.のモデル画像が左右非対称の画像であるか否か判断され(ステップE4)、例えば図17(A)で示すように、当該ポーズのモデル画像12b(1)Aが左右非対称の画像ではない(左右対称)と判断された場合には(ステップE4「No」)、次のポーズNo.のモデル画像が読み出され(ステップE8→E9)、前記同様に真似対象画像H1と次のポーズのモデル画像との類似度評価処理が繰り返される(ステップE2〜E4)。
【0114】
一方、例えば図17(B)で示すように、今回の類似度評価対象のポーズNo.19のモデル画像12b(19)が左右非対称のモデル画像であると判断された場合には、当該ポーズNo.19のモデル画像が左右反転され(ステップE4→E5)、図17(C)で示すように、この反転されたモデル画像12b(19)Rについて真似対象画像H1との縦・横のサイズが合わされる(ステップE6)。
【0115】
すると、前記真似対象画像H1と縦横サイズの合わされた反転モデル画像12b(19)Rとの重ね合わせ評価が行われ、その評価値(%)が算出されて当該ポーズの反転モデル画像12b(19)Rとの類似度として記憶される(ステップE7)。
【0116】
この後、次のポーズNo.のモデル画像がある場合には(ステップE8)、当該次のポーズNo.のモデル画像が順次読み出され(ステップE9)、前記同様に真似対象画像と各ポーズ毎のモデル画像との類似度評価処理が繰り返される(ステップE2〜E7)。
【0117】
これにより、例えば図17で示したように、被写体画像(対象画像)H1に対してモデル画像との類似度評価を行った場合には、ポーズNo.19に対応するモデル画像12b(19)が最も類似度の高いポーズのモデル画像として評価される。
【0118】
このように、前記図15〜図17を参照して説明した対応アニメ画像取得処理(ステップAD)によって、撮影画像12gnからそのまね対象部分(Tx/Ta)に従い抽出設定された真似対象画像としての被写体画像Hnを真似たポーズの設定キャラクタ画像が決定されると、現在設定中のまねキャラフレームモードが「置き換え合成モード▲1▼-n」「領域置き換え合成モード▲2▼-n」「追加合成モード▲3▼-n」「反転追加合成モード▲4▼-n」「次画像置き換え合成モード▲5▼-n」の何れのフレームモードであるか判断される(ステップA14)。
【0119】
ここで、例えば図10(B1)〜(B3)に示すように、撮影画像12g3に対して「ウサギ」のまねキャラフレームB▲1▼-1が選択設定されて合成表示され、その半透明のまね対象部分Txに被写体画像H1が合わされた状態で、「シャッタ」キー16cが操作され(ステップA1〜A12′)、前記対象画像抽出処理(ステップAC)から対応アニメ画像取得処理(ステップAD)を経て、現在設定中のまねキャラフレームモードが「置き換え合成モード▲1▼-n」と判断された場合には(ステップA14)、図10(B4)に示すように、前記対応アニメ画像取得処理(図15参照)により取得された、撮影画像12g3において前記まね対象部分Txに従い抽出された真似対象画像である被写体H1のポーズの真似をした「ウサギ」のキャラクタ画像12d(1)が当該まね対象部分Txの被写体(対象画像)H1と置き換えられて合成表示される(ステップA14→A15,A23)。
【0120】
この場合、図8で示したように、撮影画像12g3から前記まね対象部分Txに従い抽出された被写体画像(対象画像)H1を含めた3つの被写体画像H2,H3を切り出した撮影背景画像12g3′が生成される。そして、前記まね対象の被写体画像(対象画像)H1に類似の「ウサギ」のキャラクタ画像12d(1)と、前記撮影画像12g3から切り出された残り2つの被写体画像H2,H3とは、前記撮影背景画像12g3′に対しその撮影時に距離センサ18により検出された撮影距離が遠い順に各被写体位置に対応して合成される。
【0121】
なお、前記被写体画像H1,H2,H3を切り出した背景画像12g3′の生成をせずに、撮影画像12g3に対して、前記まね対象の被写体画像(対象画像)H1に類似の「ウサギ」のキャラクタ画像12d(1)と、残り2つの被写体画像H2,H3とを、その撮影時に距離センサ18により検出された撮影距離が遠い順に各被写体位置に重ねて合成してもよい。
【0122】
すると、この置き換え合成モード▲1▼-1に応じて作成され、図10(B4)で示したように、被写体画像H1のはいチーズのポーズを真似た「ウサギ」のキャラクタ画像が当該被写体画像H1と置き換えられて合成されてなる撮影画像12g3が、入力部16の「カーソル」キー16dにおけるプッシュ(OK)操作に応じてメモリ12内に登録される(ステップA24→A25)。
【0123】
なお、このOK操作に伴う画像合成後の撮影画像12g3の登録処理を行う以前に、「カーソル」キー16dの左右操作により現在合成表示中のキャラクタ画像の次表示が指示された場合には、前記対応アニメ画像取得処理(図15参照)によって、まね対象の被写体画像H1に対し次に類似度の高いモデル画像のポーズNo.に対応する「ウサギ」のキャラクタ画像がセットされ、前記同様の置き換え合成処理により再合成されて表示される(ステップA24→AC〜A14→A15,A23)。
【0124】
また、例えば図11(E1)〜(E3)に示すように、撮影画像12g5に対して「コビト」のまねキャラフレームD▲2▼-1が選択設定されて合成表示され、その半透明のまね対象部分Txの領域内に撮影不要な複数の被写体画像H3,H4が合わされた状態で、「シャッタ」キー16cが操作され(ステップA1〜A12′)、前記対象画像抽出処理(ステップAC)から対応アニメ画像取得処理(ステップAD)を経て、現在設定中のまねキャラフレームモードが「領域置き換え合成モード▲2▼-n」と判断された場合には、図11(E4)に示すように、前記対応アニメ画像取得処理(図15参照)により取得された、撮影画像12g5において前記まね対象部分Txに従い抽出された複数の真似対象画像である被写体H3,H4のポーズの真似をした「コビト」のキャラクタ画像12i(3),12i(3)′が当該まね対象部分Txの領域内の複数の被写体(対象画像)H3,H4と順次置き換えられて合成表示される(ステップA14→A16,A17,A23)。
【0125】
すると、この領域置き換え合成モード▲2▼-1に応じて作成され、図11(E4)で示したように、撮影画像に不要な複数の被写体画像H3,H4のポーズを真似た「コビト」のキャラクタ画像が当該各被写体画像H3,H4と置き換えられて合成されてなる撮影画像12g5が、入力部16の「カーソル」キー16dにおけるプッシュ(OK)操作に応じてメモリ12内に登録される(ステップA24→A25)。
【0126】
なお、このOK操作に伴う画像合成後の撮影画像12g5の登録処理を行う以前に、「カーソル」キー16dの左右操作により現在合成表示中のキャラクタ画像の次表示が指示された場合には、前記対応アニメ画像取得処理(図15参照)によって、まね対象の被写体画像H3,H4に対し次に類似度の高いモデル画像のポーズNo.に対応する「コビト」のキャラクタ画像がセットされ、前記同様の領域置き換え合成処理により再合成されて表示される(ステップA24→AC〜A14→A16,A17,A23)。
【0127】
また、例えば図10(A1)〜(A3)に示すように、撮影画像12g4に対して「ネコ」のまねキャラフレームA▲3▼-2が選択設定されて合成表示され、その透明のまね対象部分Taに被写体画像H1が合わされた状態で、「シャッタ」キー16cが操作され(ステップA1〜A12′)、前記対象画像抽出処理(ステップAC)から対応アニメ画像取得処理(ステップAD)を経て、現在設定中のまねキャラフレームモードが「追加合成モード▲3▼-n」と判断された場合には、図10(A4)[図8参照]に示すように、撮影画像12g4において抽出された被写体ブロックM以外の空きエリアのランダムな位置に、前記対応アニメ画像取得処理(図15参照)により取得された真似対象の被写体画像H1のポーズ「バンザイ」の真似をした「ネコ」のキャラクタ画像12fnが追加合成されて表示される(ステップA14→A18,A23)。
【0128】
すると、この追加合成モード▲3▼-2に応じて作成され、図10(A4)で示したように、被写体画像H1のバンザイのポーズを真似た「ネコ」のキャラクタ画像が空きエリアに追加され合成されてなる撮影画像12g4が、入力部16の「カーソル」キー16dにおけるプッシュ(OK)操作に応じてメモリ12内に登録される(ステップA24→A25)。
【0129】
なお、このOK操作に伴う画像合成後の撮影画像12g4の登録処理を行う以前に、「カーソル」キー16dの左右操作により現在合成表示中のキャラクタ画像の次表示が指示された場合には、前記対応アニメ画像取得処理(図15参照)によって、まね対象の被写体画像H1に対し次に類似度の高いモデル画像のポーズNo.に対応する「ネコ」のキャラクタ画像がセットされ、前記同様の追加合成処理により再合成されて表示される(ステップA24→AC〜A14→A18,A23)。
【0130】
また、例えば図10(C1)〜(C3)に示すように、撮影画像12g1に対して「ウサギ」のまねキャラフレームB▲4▼-2が選択設定されて合成表示され、その透明のまね対象部分Taに被写体画像Hが合わされた状態で、「シャッタ」キー16cが操作され(ステップA1〜A12′)、前記対象画像抽出処理(ステップAC)から対応アニメ画像取得処理(ステップAD)を経て、現在設定中のまねキャラフレームモードが「反転追加合成モード▲4▼-n」と判断された場合には、図10(C4)[図6参照]に示すように、前記対応アニメ画像取得処理(図15参照)により取得された真似対象の被写体画像Hのポーズ「ダンス」の真似をした「ウサギ」のキャラクタ画像12d(19)が、撮影画像12g1において当該被写体画像Hと左右対称となる位置に、反転した「ウサギ」のキャラクタ画像12d(19)Rとして追加合成されて表示される(ステップA14→A19,A23)。
【0131】
すると、この反転追加合成モード▲4▼-2に応じて作成され、図10(C4)で示したように、被写体画像Hのダンスのポーズを真似た「ウサギ」のキャラクタ画像が当該被写体画像Hの反転位置に追加され合成されてなる撮影画像12g1が、入力部16の「カーソル」キー16dにおけるプッシュ(OK)操作に応じてメモリ12内に登録される(ステップA24→A25)。
【0132】
なお、このOK操作に伴う画像合成後の撮影画像12g1の登録処理を行う以前に、「カーソル」キー16dの左右操作により現在合成表示中のキャラクタ画像の次表示が指示された場合には、前記対応アニメ画像取得処理(図15参照)によって、まね対象の被写体画像Hに対し次に類似度の高いモデル画像のポーズNo.に対応する「ウサギ」のキャラクタ画像がセットされ、前記同様の反転追加合成処理により再合成されて表示される(ステップA24→AC〜A14→A19,A23)。
【0133】
また、例えば図11(D1)〜(D3)に示すように、撮影画像12g2に対して「クマ」のまねキャラフレームC▲5▼-2が選択設定されて合成表示され、その半透明のまね対象部分Txに被写体画像H1が合わされた状態で、「シャッタ」キー16cが操作され(ステップA1〜A12′)、前記対象画像抽出処理(ステップAC)から対応アニメ画像取得処理(ステップAD)を経て、現在設定中のまねキャラフレームモードが「次画像置き換え合成モード▲5▼-n」と判断された場合には、1回目の撮影画像12g2においてまね対象として設定された被写体(対象画像)H1の位置が真似画像の置き換え位置として記憶される(ステップA14→A20)。
【0134】
そして、図11(D3′)に示すように、2回目の撮影画像12g2′が取得されると(ステップA21)、この2回目の撮影画像12g2′における前記記憶された1回目撮影時の被写体(対象画像)H1の位置に対して、図11(D4)に示すように、前記対応アニメ画像取得処理(図15参照)により取得された同被写体H1の真似をした第1類似度の「クマ」のキャラクタ画像12e(11)N(この場合は夜間用の特別キャラクタ)が、2回目の撮影画像12g2′において撮影された被写体H2と組み合わされて合成表示される(ステップA22)。
【0135】
すると、この次画像置き換え合成モード▲5▼-2に応じて作成され、図11(D4)で示したように、1回目の被写体画像H1のポーズを真似た「クマ」のキャラクタ画像が2回目の被写体画像H2と組み合わされて追加合成されてなる撮影画像12g2′が、入力部16の「カーソル」キー16dにおけるプッシュ(OK)操作に応じてメモリ12内に登録される(ステップA24→A25)。
【0136】
なお、このOK操作に伴う画像合成後の撮影画像12g2′の登録処理を行う以前に、「カーソル」キー16dの左右操作により現在合成表示中のキャラクタ画像の次表示が指示された場合には、前記対応アニメ画像取得処理(図15参照)によって、まね対象の1回目被写体画像H1に対し次に類似度の高いモデル画像のポーズNo.に対応する「クマ」のキャラクタ画像がセットされ、前記同様の次画像置き換え合成処理により2回目の撮影画像12g2′に再合成されて表示される(ステップA24→AC〜A14→A20〜A23)。
【0137】
なお、前記各種のまねキャラフレームモード▲1▼-n〜▲5▼-nにおいて、置き換え合成表示処理あるいは追加合成表示処理された撮影画像12gnは、OK操作に応じてメモリ12内に登録される一方で画像出力部20から出力され、メモリカード20Aによる記録、またはVTR(録画装置)20Bによる記録、または画像印刷機20Cによる印刷が適宜行われる。
【0138】
したがって、前記構成の画像出力装置10による合成画像出力機能によれば、画像入力部17を介して入力された撮影画像12gnについて、まねキャラクタの種類A〜Eおよびその合成形態▲1▼〜▲5▼を示すまねキャラフレームA▲1▼-n〜D▲5▼-nを選択設定し当該撮影画像12gnに重ねて表示させると共に、設定フレーム内のまね対象部分(Tx/Ta)に任意の被写体画像Hnを合わせてシャッタ操作すると、そのまね対象部分(Tx/Ta)に対応して抽出された被写体画像Hnに対応するポーズで前記選択設定された種類のキャラクタ画像が、キャラ1「ウサギ」ポーズ画像メモリ12d,キャラ2「クマ」ポーズ画像メモリ12e,キャラ3「ネコ」ポーズ画像メモリ12f,キャラ4「コビト」ポーズ画像メモリ12iから取得され、前記撮影画像12gnにおける被写体画像Hnとの置き換え又は追加によって合成され表示されるので、単に撮影フレーム内に固定的なアニメ画像を追加合成するのではなく、当該撮影フレーム内のまね対象部分(Tx/Ta)に合わせた被写体のポーズを真似たアニメ画像を置き換えあるいは追加合成することによって非常に楽しいアニメ付の撮影画像を容易に作成することができる。
【0139】
また、前記構成の画像出力装置10による合成画像出力機能によれば、撮影画像12gnに選択的に重ねて表示すべき各まねキャラフレームA▲1▼-n〜D▲5▼-n内でそれぞれ予め位置設定されるまね対象部分(Tx/Ta)は人形(ひとがた)として示されるので、当該人形のまね対象部分(Tx/Ta)に対して撮影画像12gn上で真似すべき被写体画像Hnを簡単明瞭に位置合わせして画像抽出することができる。
【0140】
また、領域置き換え合成モード用のまねキャラフレームA▲2▼-n〜D▲2▼-n内で予め位置設定されるまね対象部分Txは円形として示されるので、当該円形のまね対象部分Txに対して撮影画像12gn上で真似すべき例えば不要な複数の被写体画像Hn,…を簡単明瞭に位置合わせして画像抽出しそれぞれ対応するポーズの複数のキャラクタ画像を取得することができる。
【0141】
また、被写体画像Hnのまねキャラクタ画像を当該被写体画像Hnと置き換え合成させるための各まねキャラフレーム▲1▼-n,▲2▼-n,▲5▼-n内のまね対象部分Txについては、半透明な枠として撮影画像12gnに重ね合わせ表示させた場合にまねすべき被写体画像Hnを半透明にして置き換えの対象として容易に認識することができる。
【0142】
また、被写体画像Hnのまねキャラクタ画像を当該被写体画像Hnと組み合わせて追加合成させるための各まねキャラフレーム▲3▼-n,▲4▼-n内のまね対象部分Taについては、透明な枠として撮影画像12gnに重ね合わせ表示させた場合にまねすべき被写体画像Hnは合成画像に残る対象として容易に認識することができる。
【0143】
なお、前記実施形態では、撮影画像12gnからそのまね対象部分(Tx/Ta)に応じて抽出された被写体に対応するポーズのキャラクタ画像を選択的に取得して、この取得されたキャラクタのアニメ画像を追加又は置き換え合成して出力する構成としたが、実写による様々な表情の顔画像や人物画像を予め記憶させておき、この実写による顔画像や人物画像を撮影画像12gnからそのまね対象部分Tx/Taに応じて抽出された被写体に対応する真似画像として追加又は置き換え合成して出力する構成としてもよい。
【0144】
また、前記実施形態で説明したように、画像出力装置10はデジタルカメラに内蔵して好適に実施することができる。液晶表示付のデジタルカメラで実施した場合、画像を撮影してその場で合成画像を確認し記録することができる。
【0145】
また、前記実施形態では、撮影画像が静止画である場合について説明したが、画像入力部17を介して例えばデジタルビデオムービー17Bにより撮影入力される動画像とそのまね対象部分(Tx/Ta)から、当該動画像内の背景画像に対して時系列的に変化する被写体画像を順次抽出し、この順次抽出される被写体画像にそれぞれ対応するポーズのキャラクタ画像を選択的に取得して、前記撮影動画像内に追加または被写体と置き換え合成して動画出力する構成としてもよい。
【0146】
さらに、前記実施形態における合成画像出力機能を応用し、ゲームなどの動画像からまね対象部分(Tx/Ta)により任意指定されて抽出される登場キャラクタの画像を真似対象画像として、予め用意した所望のキャラクタ画像や実写による人物画像と置き換えて表示する構成としてもよい。
【0147】
なお、前記実施形態の画像出力装置10では、好ましくはデジタルカメラに内蔵される構成とし、当該出力装置10自身が有する画像入力部17を介して入力された撮影画像12gnについて、まねキャラクタの種類A〜Eおよびその合成形態▲1▼〜▲5▼を示すまねキャラフレームA▲1▼-n〜D▲5▼-nを選択設定し、これに基づき同出力装置10内において抽出されるまね対象の被写体画像Hnに対応したポーズのキャラクタ画像を取得して該被写体画像Hnに置き換えまたは追加合成表示する構成としたが、電送制御部15から通信ネットワーク(インターネット)Nを介して、外部の通信機能を有するデジタルカメラ端末と通信接続することで、前記実施形態同様の合成画像出力処理を行う構成とし、当該外部のデジタルカメラ端末から入力された撮影画像について、まねキャラ画像合成処理後の撮影画像を返信(配信)する画像配信サーバ(10)として機能させてもよい。
【0148】
すなわち、画像配信サーバ(10)として機能させる場合には、外部のデジタルカメラ端末からのアクセスに応じて、当該カメラ端末による撮影中の画像12gnについて、まねキャラクタの種類A〜Eおよびその合成形態▲1▼〜▲5▼を示すまねキャラフレームA▲1▼-n〜D▲5▼-nの選択設定処理とその重ね合わせ表示を行わせ(ステップA1〜A12′)、サーバ(10)は前記カメラ端末から撮影画像12gnとその選択設定されたまねキャラフレームとの重ね合わせ画像を受信することで、まねキャラフレーム内のまね対象部分(Tx/Ta)に従った被写体画像Hnの抽出処理(ステップAC)、対応するまねキャラクタ画像の取得処理(ステップA13,AD)、該被写体画像Hnとの置き換えあるいは追加合成処理(ステップA14〜A22)を行い、アクセス元のデジタルカメラ端末へ送信(配信)する構成とすればよい。
【0149】
なお、前記実施形態において記載した画像出力装置10による各処理の手法、すなわち、図12,図13のフローチャートに示す合成画像出力処理、図14のフローチャートに示す当該合成画像出力処理に伴う対象画像抽出処理、図15のフローチャートに示す当該合成画像出力処理に伴う対応アニメ画像取得処理、図16のフローチャートに示す当該対応アニメ画像取得処理に伴う真似対象画像との類似度評価処理等の各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記録媒体13に格納して配布することができる。そして、通信ネットワーク(インターネット)Nとの通信機能を備えた種々のコンピュータ端末は、この外部記録媒体13に記憶されたプログラムを記録媒体読取部14によってメモリ12に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記実施形態において説明した合成画像出力機能を実現し、前述した手法による同様の処理を実行することができる。
【0150】
また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末から前記のプログラムデータを取り込み、前述した合成画像出力機能を実現することもできる。
【0151】
なお、本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。
【0152】
【発明の効果】
以上のように、本発明の請求項1に係る画像出力装置によれば、撮影画像について選択した対象部分の画像に応じたまね画像などの対応画像が取得され、この対応画像を、選択した画像の合成形態に応じて前記撮影画像に合成して出力できるようになる。
【0155】
また、本発明の請求項に係る画像出力装置によれば、一連の複数の撮影画像の中から被写体像などの変化部分の画像ブロックを抽出し、この画像ブロックの中から抽出対象部分に対応した画像ブロックを対象画像として抽出して、その対応画像を取得合成できるようになる。
【0159】
また、本発明の請求項に係る画像出力装置によれば、合成形態画像により示される画像の合成形態の選択により、撮影画像の抽出対象部分に含まれる複数の被写体などの対象画像を、それぞれこれに応じた複数の対応画像に置き換えて当該撮影画像に合成できるようになる。
【0160】
また、本発明の請求項に係る画像出力装置によれば、合成形態画像により示される画像の合成形態の選択により、撮影画像の抽出対象部分の対象画像に応じた対応画像を、当該撮影画像に追加して合成できるようになる。
【0161】
また、本発明の請求項に係る画像出力装置によれば、合成形態画像により示される画像の合成形態の選択により、撮影画像の抽出対象部分の対象画像に応じた対応画像を、撮影画像上で当該対象部分の対象画像と左右反転の位置に追加して合成できるようになる。
【0162】
また、本発明の請求項に係る画像出力装置によれば、合成形態画像により示される画像の合成形態の選択により、第1の撮影画像の抽出対象部分の対象画像に応じて取得された対応画像を、第2の撮影画像に対して合成できるようになる。
【0163】
また、本発明の請求項に係る画像出力装置によれば、撮影画像について合成すべき対応画像を取得するための人物などの対象画像を、人の形の枠により容易に抽出対象部分として選択できるようになる。
【0164】
また、本発明の請求項に係る画像出力装置によれば、撮影画像上に追加合成すべき対応画像を取得するための対象画像を透明の枠により選択して、当該対象画像をそのままに対応画像が追加合成されるのを知ることができる。
【0165】
また、本発明の請求項に係る画像出力装置によれば、撮影画像上で置き換え合成すべき対応画像を取得するための対象画像を半透明の枠により選択して、当該対象画像に置き換えられて対応画像が合成されるのを知ることができる。
【0166】
よって、本発明によれば、撮影画像に対して単に固定的な画像を合成するのではなく、当該撮影画像中の物体(例えば人物)像に対応した画像を合成して出力することが可能になる画像出力装置を提供できる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る画像出力装置10の電子回路の構成を示すブロック図。
【図2】前記画像出力装置10のまねキャラフレーム一覧メモリ12cに記憶された各種まねキャラクタ毎のまね対象部分設定フレームの一覧(その1)を示す図。
【図3】前記画像出力装置10のまねキャラフレーム一覧メモリ12cに記憶された各種まねキャラクタ毎のまね対象部分設定フレームの一覧(その2)を示す図。
【図4】前記画像出力装置10のキャラ1「ウサギ」ポーズ画像メモリ12d:キャラ2「クマ」ポーズ画像メモリ12e:キャラ3「ネコ」ポーズ画像メモリ12fにそれぞれ記憶された各種のポーズに対応する各キャラクタ画像を示す図。
【図5】前記画像出力装置10のモデルポーズ画像メモリ12bに記憶されたモデルポーズに対応するモデル画像を示す図。
【図6】前記画像出力装置10によりまねキャラクタフレームB▲4▼-2(反転(右→左))が選択された場合のキャラクタ画像「ウサギ」による左右反転位置追加合成状態を示す図。
【図7】前記画像出力装置10によりまねキャラフレームC▲5▼-2(次追加(右))が選択された場合のキャラクタ画像「クマ」による次画像置き換え合成状態を示す図。
【図8】前記画像出力装置10によりまねキャラフレームB▲1▼-1(置き換え(左))が選択された場合のキャラクタ画像「ウサギ」による置き換え合成状態を示す図。
【図9】前記画像出力装置であるデジタルカメラ10の外観構成を示す図であり、同図(A)はその前面図、同図(B)はその背面図。
【図10】前記画像出力装置(デジタルカメラ)10による合成画像出力処理での各種フレームモードの設定に伴う撮影表示状態(その1)を示す図であり、同図(A1)〜(A4)は「ネコ」の追加合成フレームA▲3▼-2を設定した場合の撮影表示状態を示す図、同図(B1)〜(B4)は「ウサギ」の置き換え合成フレームB▲1▼-1を設定した場合の撮影表示状態を示す図、同図(C1)〜(C4)は「ウサギ」の反転追加合成フレームB▲4▼-2を設定した場合の撮影表示状態を示す図。
【図11】前記画像出力装置(デジタルカメラ)10による合成画像出力処理での各種フレームモードの設定に伴う撮影表示状態(その2)を示す図であり、同図(D1)〜(D4)は「クマ」の次画像置き換え合成フレームC▲5▼-2を設定した場合の撮影表示状態を示す図、同図(E1)〜(E4)は「コビト」の領域置き換え合成フレームD▲2▼-1を設定した場合の撮影表示状態を示す図。
【図12】前記画像出力装置(デジタルカメラ)10による合成画像出力処理(その1)を示すフローチャート。
【図13】前記画像出力装置(デジタルカメラ)10による合成画像出力処理(その2)を示すフローチャート。
【図14】前記画像出力装置(デジタルカメラ)10の合成画像出力処理に伴う対象画像抽出処理を示すフローチャート。
【図15】前記画像出力装置(デジタルカメラ)10の合成画像出力処理に伴う対応アニメ画像取得処理を示すフローチャート。
【図16】前記画像出力装置10の合成画像出力処理に伴う対応アニメ画像取得処理での真似対象画像との類似度評価処理を示すフローチャート。
【図17】前記画像出力装置10の対応アニメ画像取得処理での類似度評価処理に伴うモデル画像との類似度評価例を示す図。
【符号の説明】
10 …画像出力装置
11 …CPU
12 …メモリ
12a…画像処理プログラム
12b…モデルポーズ画像メモリ
12c…まねキャラ一覧フレームメモリ
12d…キャラ1「ウサギ」ポーズ画像メモリ
12e…キャラ2「クマ」ポーズ画像メモリ
12f…キャラ3「ネコ」ポーズ画像メモリ
12g…撮影画像メモリ
12h…画像処理ワークエリア
12i…キャラ4「コビト」ポーズ画像メモリ
13 …外部記録媒体
14 …記録媒体読取部
15 …電送制御部
16 …入力部
16a…「MENU」キー
16b…「PLAY/REC」キー
16c…「シャッタ」キー
16d…「カーソル」キー
17 …画像入力部
17A…デジタルカメラ
17B…デジタルビデオムービー
17C…VTR(画像再生装置)
18 …距離センサ
19 …表示部
20 …画像出力部
20A…メモリカード
20B…VTR(録画装置)
20C…画像印刷機
21 …Webサーバ
N …通信ネットワーク(インターネット)
▲1▼-n …置き換え合成フレーム
▲2▼-n …領域置き換え合成フレーム
▲3▼-n …追加合成フレーム
▲4▼-n …反転追加合成フレーム
▲5▼-n …次画像置き換え合成フレーム
Tx …置き換え用(半透明)まね対象部分
Ta …追加用(透明)まね対象部分
[0001]
BACKGROUND OF THE INVENTION
  The present invention provides an image output for synthesizing and outputting an image according to a photographed image in a digital camera or a camera-equipped mobile terminal.EquipmentRelated.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there are various types of still cameras and video cameras that synthesize and display or print and output another image with a captured image.
[0003]
For example, an animation image such as a flower or a popular character prepared in advance at a fixed position of the shooting frame is output and synthesized, or an animation image prepared in advance is combined and output at a desired position in the shooting frame. Things are in practical use.
[0004]
In addition, an image captured by a digital camera can be displayed on a display screen of a personal computer and combined with another image for editing. In this case, for example, another image can be selectively selected from other image files. It is obtained by cutting out or downloading from any homepage screen on the Internet, and is synthesized at a desired position on the photographed image.
[0005]
In addition, an arbitrary region (for example, a face portion) of an image photographed by a digital camera is cut out, and this cut-out image is combined with a prepared animation image (for example, the face portion of an anime character) to create a new another image. It is also conceivable to create or to synthesize an animation image associated with a specified area of an arbitrary image. (For example, refer to Patent Document 1.)
[0006]
[Patent Document 1]
JP 2001-230972 A
[0007]
[Problems to be solved by the invention]
However, in such a conventional image processing system, a pre-prepared image is fixed as it is with respect to a photographed image, or is synthesized and output at a desired position, or is prepared in advance for an arbitrary cut-out image. Since the image is only synthesized and output, the synthesized image other than the captured image is always fixed and unchanged, and even if various images are downloaded from the Internet and used, Because it is just a irrelevant decoration, there is a problem that it is not interesting and can easily get bored.
[0008]
  The present invention has been made in view of the above-described problems, and does not simply synthesize a fixed image with a captured image, but an image corresponding to an object (for example, a person) image in the captured image. Image output that can be combined and outputEquipmentThe purpose is to provide.
[0009]
[Means for Solving the Problems]
  That is, in the image output apparatus according to claim 1 of the present invention,
  A composite form image storage unit that stores a plurality of composite form images in which an extraction target portion for a captured image is associated with a composite form of the image;
  A captured image acquisition means for acquiring a captured image;
  A combined form image selecting unit that selects a combined form image stored in the combined form image storage unit in association with the captured image acquired by the captured image acquisition unit;
  Corresponding image acquisition means for acquiring a corresponding image corresponding to the extraction target portion for the captured image indicated by the composite form image selected by the composite form image selection means;
  The corresponding image acquired by the corresponding image acquisition unit is combined with the captured image acquired by the captured image acquisition unit according to the composite form of the image indicated by the composite form image selected by the composite form image selection unit. Image synthesis means;
  Image output means for outputting a captured image in which the corresponding image is synthesized by the image synthesis means;
  A target image extracting means for extracting a target image from the photographed image acquired by the photographed image acquiring means according to the extraction target portion indicated by the composite form image selected by the composite form image selecting means;
  The corresponding image acquisition unit acquires a corresponding image corresponding to the target image extracted by the target image extraction unit;
  The target image extraction means includes
  Image block extraction means for extracting an image block of a change portion from a series of captured images acquired by the captured image acquisition means;
  An image block corresponding to the extraction target portion indicated by the combined form image selected by the combined form image selecting unit is extracted as a target image from the image blocks extracted by the image block extracting unit.
[0010]
  An image output apparatus according to claim 1According to this, a corresponding image such as a mimic image corresponding to the image of the target portion selected with respect to the captured image is acquired, and the corresponding image can be combined with the captured image and output according to the combination form of the selected image. .
[0016]
  According to the image output device according to claim 1, not only that,Extracts the image block of the changed part such as the subject image from a series of captured images, extracts the image block corresponding to the extraction target part from this image block as the target image, and acquires and combines the corresponding image It will be possible.
[0023]
  Further, the claims of the present invention2In the image output apparatus according to
  A composite form image storage unit that stores a plurality of composite form images in which an extraction target portion for a captured image is associated with a composite form of the image;
  A captured image acquisition means for acquiring a captured image;
  About the captured image acquired by the captured image acquisition unit, a combined form image selecting unit that selects a combined form image stored by the combined form image storage unit;
  Corresponding image acquisition means for acquiring a corresponding image corresponding to the extraction target portion for the captured image indicated by the composite form image selected by the composite form image selection means;
  The corresponding image acquired by the corresponding image acquisition unit is combined with the captured image acquired by the captured image acquisition unit according to the composite form of the image indicated by the composite form image selected by the composite form image selection unit. Image synthesis means;
  Image output means for outputting a captured image in which the corresponding image is synthesized by the image synthesis means,
  The composite form of the image includes at least a region replacement composite form,
  The image synthesizing unit, when the synthetic form of the image indicated by the synthetic form image selected by the synthetic form image selecting unit is a region replacement synthetic form, the image in the photographed image obtained by the photographed image obtaining unit The plurality of target images of the extraction target portion indicated by the composite form image are respectively replaced with a plurality of corresponding images acquired by the corresponding image acquisition unit, and the captured images are combined.
[0024]
  An image output apparatus according to claim 2According to the above, by selecting a composite form of the image indicated by the composite form image, the target image such as a plurality of subjects included in the extraction target portion of the captured image is replaced with a plurality of corresponding images corresponding thereto, respectively, It can be combined with the image.
[0025]
  Further, the claims of the present invention3In the image output apparatus according to
  A composite form image storage unit that stores a plurality of composite form images in which an extraction target portion for a captured image is associated with a composite form of the image;
  A captured image acquisition means for acquiring a captured image;
  A combined form image selecting unit that selects a combined form image stored in the combined form image storage unit in association with the captured image acquired by the captured image acquisition unit;
  Corresponding image acquisition means for acquiring a corresponding image corresponding to the extraction target portion for the captured image indicated by the composite form image selected by the composite form image selection means;
  The corresponding image acquired by the corresponding image acquisition unit is combined with the captured image acquired by the captured image acquisition unit according to the composite form of the image indicated by the composite form image selected by the composite form image selection unit. Image synthesis means;
  Image output means for outputting a captured image in which the corresponding image is synthesized by the image synthesis means,
  The composite form of the image includes at least an additional composite form,
  The image synthesizing unit acquires the corresponding image acquired by the corresponding image acquiring unit when the synthetic mode of the image indicated by the synthetic mode image selected by the synthetic mode image selecting unit is an additional synthetic mode. It is characterized in that it is combined with the captured image acquired by the means.
[0026]
  An image output apparatus according to claim 3According to this, by selecting the composite form of the image indicated by the composite form image, a corresponding image corresponding to the target image of the extraction target portion of the captured image can be added to the captured image and combined.
[0027]
  Further, the claims of the present invention4In the image output apparatus according to
  A composite form image storage unit that stores a plurality of composite form images in which an extraction target portion for a captured image is associated with a composite form of the image;
  A captured image acquisition means for acquiring a captured image;
  A combined form image selecting unit that selects a combined form image stored in the combined form image storage unit in association with the captured image acquired by the captured image acquisition unit;
  Corresponding image acquisition means for acquiring a corresponding image corresponding to the extraction target portion for the captured image indicated by the composite form image selected by the composite form image selection means;
  The corresponding image acquired by the corresponding image acquisition unit is combined with the captured image acquired by the captured image acquisition unit according to the composite form of the image indicated by the composite form image selected by the composite form image selection unit. Image synthesis means;
  Image output means for outputting a captured image in which the corresponding image is synthesized by the image synthesis means,
  The composite form of the image includes at least an inverted additional composite form,
  The image synthesizing unit is configured to display the corresponding image acquired by the corresponding image acquiring unit when the composite form of the image indicated by the composite form image selected by the composite form image selecting unit is an inverted additional composite form. It is characterized in that it is combined with the target image of the extraction target part indicated by the composite form image on the photographed image acquired by the acquisition means in addition to the left-right reversal position.
[0028]
  An image output device according to claim 4According to the above, by selecting the composite form of the image indicated by the composite form image, the corresponding image corresponding to the target image of the extraction target portion of the photographed image is placed at a position that is horizontally reversed from the target image of the target portion on the photographed image. It can be added and combined.
[0029]
  Further, the claims of the present invention5In the image output apparatus according to
  A composite form image storage unit that stores a plurality of composite form images in which an extraction target portion for a captured image is associated with a composite form of the image;
  A captured image acquisition means for acquiring a captured image;
  A combined form image selecting unit that selects a combined form image stored in the combined form image storage unit in association with the captured image acquired by the captured image acquisition unit;
  Corresponding image acquisition means for acquiring a corresponding image corresponding to the extraction target portion for the captured image indicated by the composite form image selected by the composite form image selection means;
  The corresponding image acquired by the corresponding image acquisition unit is combined with the captured image acquired by the captured image acquisition unit according to the composite form of the image indicated by the composite form image selected by the composite form image selection unit. Image synthesis means;
  Image output means for outputting a captured image in which the corresponding image is synthesized by the image synthesis means,
  The composite form of the image includes at least a subsequent image replacement composite form,
  The corresponding image acquisition means acquires a corresponding image corresponding to the extraction target portion indicated by the composite form image selected by the composite form image selection means for the first captured image acquired by the captured image acquisition means,
  The image synthesizing unit is configured to obtain a second photographed image acquired by the photographed image acquiring unit when a composite form of the image indicated by the composite form image selected by the composite form image selecting unit is a next image replacement composite form. On the other hand, the corresponding image acquired by the corresponding image acquisition means is synthesized.
[0030]
  An image output device according to claim 5According to the above, the corresponding image acquired in accordance with the target image of the extraction target portion of the first captured image can be combined with the second captured image by selecting the composite form of the image indicated by the composite form image. become.
[0031]
  Further, the claims of the present invention6Image output device according toSo, synthesisThe extraction target portion of the photographed image indicated by the composite morphological image stored by the morphological image storage means is indicated by a human-shaped frame.
[0032]
  An image output apparatus according to claim 6According to this, it is possible to easily select a target image such as a person for acquiring a corresponding image to be synthesized with respect to a captured image as an extraction target portion by using a frame of a person shape.
[0033]
  Further, the claims of the present invention7Image output device according toSo, synthesisWhen the composite form of the image indicated by the composite form image stored by the form image storage means is an additional composite form, the extraction target portion for the captured image indicated by the composite form image is indicated by a transparent frame.
[0034]
  An image output device according to claim 7According to this, it is possible to select a target image for acquiring a corresponding image to be additionally synthesized on the photographed image using the transparent frame and know that the corresponding image is additionally synthesized without changing the target image.
[0035]
  Further, the claims of the present invention8Image output device according toSo, synthesisWhen the composite form of the image indicated by the composite form image stored by the form image storage means is a replacement composite form, the extraction target portion of the captured image indicated by the composite form image is indicated by a translucent frame.
[0036]
  An image output device according to claim 8According to the above, it is possible to know that the target image for acquiring the corresponding image to be replaced and synthesized on the photographed image is selected by the translucent frame, and the corresponding image is synthesized by being replaced with the target image. .
[0037]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0038]
FIG. 1 is a block diagram showing a configuration of an electronic circuit of an image output apparatus 10 according to an embodiment of the present invention.
[0039]
The image output apparatus 10 is configured by a computer that reads a program recorded on various recording media or a transmitted program and whose operation is controlled by the read program. The electronic circuit includes a CPU ( a central processing unit) 11 is provided.
[0040]
The CPU 11 is a device control program stored in the memory 12 in advance, or a device control program read from the external recording medium 13 such as a CD-ROM into the memory 12 via the recording medium reading unit 14 or on the Internet N. The device stored in the memory 12 controls the operation of each part of the circuit in accordance with the device control program read into the memory 12 from the Web server 21 (in this case, the program server) via the power transmission control unit 15. The control program is an input signal corresponding to a user operation from the input unit 16 including a key or a touch panel, an image signal input via the image input unit 17, or on the Internet N connected via the transmission control unit 15. Is started in response to a communication signal with each of the Web servers 21.
[0041]
The CPU 11 is connected to the memory 12, the recording medium reading unit 14, the power transmission control unit 15, the input unit 16, and the image input unit 17, a distance sensor 18, a display unit 19 including an LCD, and an image output unit 20. Etc. are connected.
[0042]
The image input unit 17 inputs captured image data, and the captured image data is selectively acquired from a digital camera 17A, a digital video movie 17B, and a VTR (image reproduction device) 17C.
[0043]
The distance sensor 18 detects the distance to the subject of the captured image input by the image input unit 17.
[0044]
The image output unit 20 outputs image data processed by the present apparatus based on the captured image input from the image input unit 17, and the output image data includes a memory card 20A, a VTR (recording apparatus) 20B, The image is selectively output to the image printing machine 20C, and the image is stored, recorded, and printed.
[0045]
The memory 12 stores a system program that controls the overall operation of the image output apparatus 10 and a communication program for data communication with each Web server 21 on the Internet N via the transmission control unit 15. An image processing program 12a or the like is stored in the image output device 10 via the image input unit 17 or the image output unit 20 for performing a composite image output process corresponding to the target image in the captured image.
[0046]
The memory 12 includes a model pose image memory 12b, a mimic character frame list memory 12c, a character 1 "rabbit" pose image memory 12d, a character 2 "bear" pose image memory 12e, and a character 3 "cat" pose image memory 12f. The character 4 “Kobito” pose image memory 12i is prepared, and the photographed image memory 12g and the image processing work area 12h are prepared in the work area.
[0047]
FIG. 2 is a diagram showing a list (No. 1) of imitation target portion setting frames for various imitation characters stored in the imitation character frame list memory 12c of the image output apparatus 10.
[0048]
FIG. 3 is a diagram showing a list (part 2) of imitation target portion setting frames for each of various imitation characters stored in the imitation character frame list memory 12c of the image output apparatus 10.
[0049]
In the imitation character frame list memory 12c, the type of character (A: cat / B: rabbit / C: bear / D: kobito) to be synthesized as a human imitation character in the imaged image area Fi by the image output device 10 is stored. A plurality of types of imitation character frames (A (1) -1, -2 to A (5) -1, -2 / B (1)) for indicating the target portion (Tx / Ta) of the image to be imitated by the character. -1, -2 to B (5) -1, -2 / C (1) -1, -2 to C (5) -1, -2 / D (1) -1, -2 to D (5) -1, -2 / E (1) -1, -2 to E (5) -1, -2) are stored.
[0050]
In each imitation character frame (▲ 1 ▼ -1, -2 to ▲ 5 ▼ -1, -2), the type of imitation character (A to D) is indicated by the basic image of the imitation character, and also imitated. The target portion (Tx / Ta) of the power image is shown at a preset position in the captured image area Fi for each frame ((1) -1, -2 to (5) -1, -2).
[0051]
In each of the mimic character frames ((1) -1, -2 to (5) -1, -2), the imitation target portion Tx displayed semi-transparently is a subject image existing in the imitation target portion Tx. Is replaced and synthesized by the imitation image of the character indicated by the basic image, and the imitation target portion Ta displayed in a transparent manner is the subject image existing in the imitation target portion Ta as it is. It shows that the imitation image of the character indicated by the basic image is additionally synthesized at another position.
[0052]
That is, as shown in FIGS. 2 (1) and (2), when the mimic character frame (1) -1 (replacement (left)) or (1) -2 (replacement (right)) is selected, shooting is performed. The subject image existing in the imitation target portion Tx of the left or right doll in the image area Fi is replaced and synthesized by a character image of a selected type that imitates the pose.
[0053]
In addition, as shown in FIGS. 2 (3) and (4), when mimic character frame (2) -1 (region replacement (left)) or (2) -2 (region replacement (right)) is selected. Then, all the subject images existing in the surrounding area of the circular imitation target portion Tx on the left side or the right side of the photographed image area Fi are replaced and synthesized by the character image of the selected type that imitates the pose.
[0054]
In addition, as shown in FIGS. 2 (5) and 3 (6), when a mimic character frame (3) -1 (addition (left)) or (3) -2 (addition (right)) is selected. In the subject image that exists in the imitation target portion Ta of the doll in the photographed image area Fi, a character image of a selected type that imitates the pose is additionally synthesized to the left or right.
[0055]
In addition, as shown in FIGS. 3 (7) and (8), when the mimic character frame (4) -1 (reverse (left → right)) or (4) -2 (reverse (right → left)) is selected. Includes a character image of a selected type obtained by simulating and reversing a subject image existing in the imitation target portion Ta of the left or right doll of the photographed image area Fi on the right side or the left side opposite to the subject image. Synthesized.
[0056]
Also, as shown in FIGS. 3 (9) and (10), when the mimic character frame (5) -1 (next addition (left)) or (5) -2 (next addition (right)) is selected. A character image of a selection type that imitates the pose of the subject image present in the imitation target portion Tx of the doll in the first captured image area Fi is added to the left or right side of the second captured image area Fi that is the next captured image. Synthesized.
[0057]
FIG. 4 shows the character 1 “rabbit” pose image memory 12d: character 2 “bear” pose image memory 12e: character 3 “cat” pose image memory 12f of the image output device 10 corresponding to various poses respectively stored therein. It is a figure which shows a character image. In FIG. 4, the character 4 “Kobito” pose image memory 12 i is the same as the other pose image memories 12 d to 12 f and is not shown.
[0058]
Various pose images of each character stored in the pose image memories 12d, 12e, 12f, and 12i of the character 1 “rabbit”, 2 “bear”, 3 “cat”, and 4 “kobito” are image input units. 17 is used as a character image imitating the pose of the subject image (target image) existing in the imitation target portion (Tx / Ta) on the photographed image input from FIG. Are stored in association with each other.
[0059]
FIG. 5 is a diagram showing a model image corresponding to the model pose stored in the model pose image memory 12b of the image output apparatus 10. As shown in FIG.
[0060]
The model images of various poses stored in the model pose image memory 12b correspond to the pose of the subject image (target image) existing in the imitation target portion (Tx / Ta) on the photographed image input from the image input unit 17. Are used for acquiring similar model images, and each pose has its pose No. Are stored in association with each other, and each pose No. is stored. Three types of model images of variations A, B, and C are stored every time.
[0061]
The character images stored in the character 1 “rabbit” pose image memory 12d, the character 2 “bear” pose image memory 12e, the character 3 “cat” pose image memory 12f, and the character 4 “cobit” pose image memory 12i, respectively. Includes all pose Nos. Stored in the model pose image memory 12b. Character images of the same pose corresponding to (No. 1A, 1B, 1C, 2A, 2B, 2C,..., NA, nB, nC) are prepared and stored.
[0062]
The photographed image memory 12g stores photographed image data input via the image input unit 17 in units of photographed images.
[0063]
In the image processing work area 12h, image data processed according to the image processing program 12a is temporarily stored according to the image processing.
[0064]
An outline of the operation of the image output apparatus 10 configured as described above will be described.
[0065]
FIG. 6 is a diagram showing a left-right inverted position additional composition state by the character image “rabbit” when the imitation character frame B (4) -2 (reverse (right → left)) is selected by the image output device 10.
[0066]
As shown in FIG. 6A, for example, a captured image 12g1 of a subject image (target image) H that is conscious of dancing with a partner in advance is a “rabbit” imitation character frame B (4) -2 (inverted (right → (Left)) In a state where [see FIG. 3 (B-8)] is selected and superimposed, the subject image (target image) H fits the simulated target portion Ta in the frame B (4) -2. Set the shooting direction and size. At this time, the transparent imitation target portion Ta has a character image imitating the pose of the subject image (target image) H as another region while the subject image (target image) H existing in the imitation target portion Ta is not changed. Means to be synthesized. Then, the subject image (target image) H is extracted based on the captured image 12g1 and the simulated target portion Ta as shown in FIG.
[0067]
Since the selected character of the mimic character frame B (4) -2 is “rabbit”, the pose No. similar to the pose of the extracted subject image (target image) H is shown in FIG. The character image 12d (19) of 19 "dance" "Rabbit" is read from the character 1 "Rabbit" pose image memory 12d. Then, a pose No. similar to the subject image (target image) H read from the character 1 “rabbit” pose image memory 12d. 19 The character image 12d (19) of “Rabbit” of “Dance” is reversed left and right, and as shown in FIG. 6D, the position reversed from the subject (target image) H with the center on the photographed image 12g1 being symmetrical. It is added and synthesized.
[0068]
In this way, by selecting the “rabbit” imitation character frame B (4) -2 (inverted (right → left)) [see FIG. 3 (B-8)], the subject of the dance pose in the photographed image 12g1 ( Target image) Rabbit character image 12d (19) imitating H is flipped left and right, and added as a dance partner at a position that is symmetrical to the subject (target image) H that makes a dance pose on the captured image 12g1. Composite display.
[0069]
FIG. 7 is a diagram showing a next image replacement composition state by the character image “bear” when the imitation character frame C (5) -2 (next addition (right)) is selected by the image output device 10.
[0070]
For example, when creating a composite image in which the character “bear” serving as the replacement image and the subject himself “doing goodbye” are created, first, as shown in FIG. 7A, the character “bear” is imitated. For the first captured image 12g2 of the subject image (target image) H1 in the pose of “Goodbye”, a “bear” imitation character frame C (5) -2 (next addition (right)) [FIG. 3 (C-10 ) Reference] is selected and overlaid and displayed, the shooting direction and size are set so that the subject image (target image) H1 matches the simulated target portion Tx in the frame C (5) -2. At this time, the translucent imitation target portion Tx means that a character image imitating the pose is synthesized by replacing the object image (target image) H1 existing in the imitation target portion Tx. Then, as shown in FIG. 7B, the subject image (target image) H1 is extracted based on the first photographed image 12g2 and the mimic target portion Tx.
[0071]
Since the selected character of the mimic character frame C (5) -2 is “bear”, as shown in FIG. 7C, a pose No. similar to the pose of the extracted subject image (target image) H1. The character image 12e (11) of the 11 “goodbye” “bear” is read from the character 2 “bear” pose image memory 12e. In this case, the current time “PM8” is detected and it is determined that it is night, and the character image of the “bear” in the “goodbye” pose is, for example, the character image 12e (11) N for night on the moon. Is read as
[0072]
Next, as shown in FIG. 7D, when the second subject image H2 in the pose corresponding to the first subject image (target image) H1 in the first photographed image 12g2 is photographed, the second subject image H2 is captured. To the right of the photographed image 12g2 ′, as shown in FIG. 7E, a pose No. similar to the first subject image (target image) H1 read from the character 2 “bear” pose image memory 12e. The character image 12e (11) N of the “bear” for night time of 11 “goodbye” is additionally synthesized.
[0073]
In this manner, by selecting “bear” imitation character frame C (5) -2 (next addition (right)) [see FIG. 3 (C-10)], the subject (object) in the first captured image 12g2 is selected. An image) “bear” character image 12e (11) imitating H1 is additionally combined and displayed in accordance with the subject (target image) H2 captured in the second captured image 12g2 ′.
[0074]
FIG. 8 is a diagram showing a replacement composition state by the character image “rabbit” when the imitation character frame B (1) -1 (replacement (left)) is selected by the image output device 10.
[0075]
As shown in FIG. 8A, for example, a photographed image 12g3 obtained by photographing three subjects H1 to H3, a “rabbit” imitation character frame B (1) -1 (replacement (left)) [FIG. -1) Reference] is selected and displayed in a superimposed manner, the shooting direction and size so that the subject image (target image) H1 to be replaced fits the simulated target portion Tx in the frame B (1) -1. Set. At this time, the translucent imitation target portion Tx means that a character image imitating the pose is synthesized by replacing the object image (target image) H1 existing in the imitation target portion Tx. Then, as shown in FIG. 8B, a subject image (target image) H1 to be replaced is extracted.
[0076]
Since the selected character of the mimic character frame B (1) -1 is “rabbit”, a pose No. similar to the pose of the subject image (target image) H1 as shown in FIG. The character image 12d (1) of “Rabbit” of 1 “Yes cheese (up)” is read from the character 1 “Rabbit” pose image memory 12d.
[0077]
On the other hand, as shown in FIGS. 8D, 8E and 8F, a photographic background image 12g3 obtained by cutting out three subject images H2 and H3 including the subject image (target image) H1 to be replaced from the photographic image 12g3. 'Is generated.
[0078]
Then, as shown in FIG. 8G, a pose No. similar to the subject image (target image) H1 read from the character 1 “rabbit” pose image memory 12d. The character image 12d (1) of “Rabbit” of 1 “yes cheese” and the remaining two subject images H2 and H3 cut out from the photographed image 12g3 are in order of increasing photographing distance with respect to the photographed background image 12g3 ′. It is synthesized corresponding to each subject position.
[0079]
In this way, by selecting the “rabbit” imitation character frame B (1) -1 (replacement (left)) [see FIG. 2 (B-1)], the subject (target image) H1 in the photographed image 12g3 is selected. The character image 12d (1) of the “rabbit” imitating the pose is replaced with the subject (target image) H1 and is displayed in a composite manner.
[0080]
Although illustration explanation in the outline of this operation is omitted, as the types of imitation character frame modes that can be selected during shooting by the image output apparatus 10, the replacement composite frame mode (1), the inverted additional composite frame, are used. In addition to the mode (4) and the next image replacement composite frame mode (5), there are an area replacement composite frame mode (2) and an additional composite frame mode (3).
[0081]
That is, for the photographed image 12gn, for example, the “Kobito” region replacement composite frame {circle around (2)}-n is selected and superimposed and the region of the translucent imitation target portion Tx is replaced in the photographed image 12gn. For example, it is set according to the position where a plurality of unrelated subject images h1, h2,. Then, a plurality of subject images h1, h2,... Extracted from the area of the mimic target portion Tx are acquired from the character 4 “Kobito” pose image memory 12i, which is a “Kobito” character image 12i (n) imitating each pose. The plurality of subject images h1, h2,... Are combined and displayed.
[0082]
As a result, for example, a plurality of subject images h1, h2,... That are unnecessary as a subject to be photographed included in the photographed image 12gn are replaced with imitated character images selected and set as a region replacement composite frame (2) -n. .
[0083]
Further, for the photographed image 12gn, for example, an additional composite frame {circle over (3)}-n of “cat” is selected and superimposed, and the transparent imitation target portion Ta is a subject image to be imitated in the photographed image 12gn. Set according to the position of h. Then, a “cat” character image 12f (n) imitating the pose of the subject image h extracted from the mimic target portion Ta is acquired from the character 3 “cat” pose image memory 12f, and the background area of the photographed image 12gn is randomly selected. Additional composition is displayed at various positions.
[0084]
As a result, a character image imitating the pose of an arbitrary subject image h included in the captured image 12gn is added to the empty area of the captured image 12gn and combined and displayed.
[0085]
Next, a detailed image processing operation by the image output apparatus 10 having the above configuration will be described.
[0086]
Here, a case where the image output apparatus 10 is implemented as a digital camera will be described.
[0087]
FIG. 9 is a diagram showing an external configuration of the digital camera 10 which is the image output device. FIG. 9A is a front view thereof, and FIG. 9B is a rear view thereof.
[0088]
FIG. 10 is a view showing a shooting display state (part 1) accompanying setting of various frame modes in the composite image output process by the image output apparatus (digital camera) 10. The figure which shows the imaging | photography display state at the time of setting the additional synthetic | combination frame A (3) -2 of a "cat", The same figure (B1)-(B4) set the replacement synthetic frame B (1) -1 of a "rabbit" (C1) to (C4) are diagrams showing the shooting display state when the inverted addition composite frame B <4> -2 of "Rabbit" is set.
[0089]
FIG. 11 is a view showing a photographic display state (part 2) associated with setting of various frame modes in the composite image output process by the image output apparatus (digital camera) 10, and FIGS. 11 (D 1) to (D 4) are “ FIGS. 11E to 11E are diagrams showing the shooting display state when the next image replacement composite frame C <5> -2 of "Bear" is set, and FIGS. It is a figure which shows the imaging | photography display state at the time of setting.
[0090]
FIG. 12 is a flowchart showing composite image output processing (part 1) by the image output apparatus (digital camera) 10.
[0091]
FIG. 13 is a flowchart showing a composite image output process (part 2) by the image output apparatus (digital camera) 10.
[0092]
First, the “PLAY / REC” key 16b is set to the “REC” side, and a desired subject image Hn is captured in the captured image 12g by the image input unit 17 and displayed on the display unit 19 (step A1).
[0093]
When the “MENU” key 16a of the input unit 16 is operated, the “imitation frame function” for combining and displaying the character image imitating the subject image Hn on the captured image 12gn is selected (step A2). ), The first character frame mode (replacement of “cat” (left) composite frame (1) -1) stored in the character character frame list memory 12c (see FIG. 2 and FIG. 3) is initialized ( Steps A3 and A4).
[0094]
Then, the “cat” replacement (left) composite frame {circle around (1)}-1 designated by the initial setting is read from the imitation character frame list memory 12c, for example, as shown in FIGS. 10 (B1) to (B3). It is superimposed and displayed on the image 12gn being photographed (step A6).
[0095]
Here, when the cursor key 16d of the input unit 16 is operated in the left-right direction, the imitated character frame mode being set is arbitrarily set between the replacement composition mode (1) -n to the next screen additional composition mode (5) -n. The image 12gn that has been changed and set is displayed in combination with the image being photographed each time (steps A7 → A8, A5, A6). Is arbitrarily changed and set between the “cat” A to “Kobito” D, and is displayed in combination with the image 12gn being photographed (steps A9 → A10, A5, A6).
[0096]
Then, the subject image Hn to be imitated for the imitation target portion (Tx / Ta) of the imitation character frame synthesized and displayed together with the desired character image selected and set with respect to the image 12gn being photographed. When the cursor key 16d is pushed with the shooting direction and size matched so as to be positioned, the imitation character frame being synthesized and displayed is selected and determined according to the current shot image 12gn, and the frame mode and character are selected. Is set (step A11 → A12).
[0097]
When the “shutter” key 16c of the input unit 16 is operated, the process proceeds to the target image extraction process in FIG. 14 (step A12 ′ → AC).
[0098]
FIG. 14 is a flowchart showing target image extraction processing accompanying the composite image output processing of the image output apparatus (digital camera) 10.
[0099]
A series of captured images 12gn... Sequentially input at a predetermined timing via the image input unit 17 immediately before the shutter operation are stored in the captured image memory 12g in the work area (step C1).
[0100]
Then, a change portion of the image accompanying the movement of the subject is extracted for each block of the subject from each of the series of the captured images 12gn stored in the photographed image memory 12g (Step C2), and each of the extracted images is thereby extracted. The subject image Hn is stored in the image processing work area 12h for each block (step C3).
[0101]
Thus, when each subject image Hn included in the photographed image 12gn is extracted for each block from the photographed image 12gn and stored in the image processing work area 12h (step AC), each of the subject images Hn that have been blocked. The subject image Hn in the block area that most closely matches the imitation target portion (Tx / Ta) of the imitation character frame is extracted and set as the imitation target image (step A13).
[0102]
When the subject image Hn to be imitated is extracted and set, the process proceeds to the corresponding animation image (mimic image) acquisition process in FIG. 15 (step AD).
[0103]
FIG. 15 is a flowchart showing the corresponding animation image acquisition process associated with the composite image output process of the image output apparatus (digital camera) 10.
[0104]
In the corresponding animation image acquisition process, first, the subject image Hn extracted from the photographed image 12gn in accordance with the imitation target portion (Tx / Ta) and set as the imitation target image and each stored in the model pose image memory 12b. The degree of similarity of the pose with the model image is evaluated (step DE), and the pose No. of the model image with the highest degree of similarity is evaluated. Is set as a mimic character image in the currently displayed captured image 12gn and its imitation character frame (step D2 → D3).
[0105]
On the other hand, when “next display” is instructed in response to a user operation on the input unit 16 (left / right operation of the “cursor” key 16d), the model image with the next highest similarity is displayed for each “next display” operation. Pause No. Are set in order (steps D2 → D4).
[0106]
When the character image corresponding to the model pose having the desired similarity is set, the selected pose No. Is set as a mimic character image corresponding to the imitation target image (step D2 → D3).
[0107]
As described above, in the corresponding animation image acquisition process, the subject image Hn as the imitation target image extracted and set from the captured image 12gn according to the imitation target portion (Tx / Ta) is obtained for each pose that is a basic model of a person. The similarity with the model image is evaluated, and based on this, a set character image to be additionally synthesized or replaced with a pose character imitating the subject image Hn is determined.
[0108]
In this case, compared to the subject image Hn as the imitation target image, the degree of similarity between the set character and the character image for each pose is directly evaluated, and the character image to be added or replaced is determined. The model pose No. selected by evaluating the similarity with the model image for each pose. The corresponding animation image acquisition process that determines the character image to be added or replaced from the above uses a person model as the evaluation target of the similarity, so that it is easy to obtain a high similarity with the subject image Hn and is more similar. There is an advantage that it is possible to acquire a character image having high characteristics (similarity).
[0109]
FIG. 16 is a flowchart showing the similarity evaluation process with the imitation target image in the corresponding animation image acquisition process associated with the composite image output process of the image output apparatus 10.
[0110]
FIG. 17 is a view showing an example of similarity evaluation with a model image accompanying the similarity evaluation processing in the corresponding animation image acquisition processing of the image output apparatus 10.
[0111]
For example, as shown in FIG. Model image is read out (step E1), and the vertical and horizontal sizes of the imitation target image H1 shown in FIG.
[0112]
Then, the overlay evaluation of the imitation target image H1 and the model image with the vertical and horizontal sizes is performed, and the evaluation value (%) is calculated and stored as the similarity with the model image of the pose (step E3). ).
[0113]
Here, the pose No. of the similarity evaluation target this time. It is determined whether or not the model image is a left-right asymmetric image (step E4). For example, as shown in FIG. 17A, the model image 12b (1) A of the pose is not a left-right asymmetric image (left-right). If it is determined (Symmetry) (step E4 “No”), the next pose No. Model image is read out (steps E8 → E9), and similarly, the similarity evaluation process between the imitation target image H1 and the model image of the next pose is repeated (steps E2 to E4).
[0114]
On the other hand, for example, as shown in FIG. When it is determined that the 19 model images 12b (19) are left-right asymmetric model images, the pose no. The 19 model images are reversed left and right (steps E4 → E5), and the vertical and horizontal sizes of the inverted model image 12b (19) R and the imitation target image H1 are combined as shown in FIG. 17C. (Step E6).
[0115]
Then, the overlay evaluation of the imitation target image H1 and the inverted model image 12b (19) R in which the vertical and horizontal sizes are combined is performed, and the evaluation value (%) is calculated and the inverted model image 12b (19) of the pose is calculated. The degree of similarity with R is stored (step E7).
[0116]
After this, the next pose No. Is present (step E8), the next pose No. Model images are sequentially read (step E9), and similarly, the similarity evaluation process between the imitation target image and the model image for each pose is repeated (steps E2 to E7).
[0117]
Thus, for example, as shown in FIG. 17, when the similarity evaluation with the model image is performed on the subject image (target image) H1, the pose No. The model image 12b (19) corresponding to 19 is evaluated as the model image of the pose with the highest similarity.
[0118]
As described above, the corresponding animation image acquisition process (step AD) described with reference to FIGS. 15 to 17 is used as the imitation target image extracted and set from the captured image 12gn according to the imitation target portion (Tx / Ta). When the set character image of the pose that imitates the subject image Hn is determined, the currently set imitation character frame mode is “replacement composition mode 1) -n”, “region replacement composition mode 2” -n ”,“ additional composition ” It is determined which of the frame modes (mode {circle over (3)}-n}, “inverted addition composition mode {circle around (4)}-n}} and“ next image replacement composition mode {circle around (5)}-n} ”(step A14).
[0119]
Here, for example, as shown in FIGS. 10 (B1) to (B3), a imitation character frame B (1) -1 of “Rabbit” is selected and set for the photographed image 12g3, and is displayed in a synthesized manner. The “shutter” key 16c is operated in a state where the subject image H1 is aligned with the target portion Tx (steps A1 to A12 ′), and the corresponding animation image acquisition processing (step AD) is performed from the target image extraction processing (step AC). If it is determined that the currently set imitation character frame mode is “replacement synthesis mode {circle around (1)}-n '] (step A14), as shown in FIG. 15), the “rabbit” key imitating the pose of the subject H1, which is the imitation target image extracted according to the imitation target portion Tx in the photographed image 12g3. The character image 12d (1) is replaced with the subject (target image) H1 of the imitation target portion Tx and displayed in combination (steps A14 → A15, A23).
[0120]
In this case, as shown in FIG. 8, a photographic background image 12g3 ′ obtained by cutting out three subject images H2 and H3 including a subject image (target image) H1 extracted from the photographed image 12g3 according to the imitation target portion Tx is obtained. Generated. The “rabbit” character image 12d (1) similar to the subject image (target image) H1 to be imitated and the remaining two subject images H2 and H3 cut out from the photographed image 12g3 are the photographing background. The image 12g3 'is synthesized corresponding to each subject position in order of increasing shooting distance detected by the distance sensor 18 at the time of shooting.
[0121]
Note that a “rabbit” character similar to the subject image (target image) H1 to be imitated on the captured image 12g3 without generating the background image 12g3 ′ obtained by cutting out the subject images H1, H2, and H3. The image 12d (1) and the remaining two subject images H2 and H3 may be superimposed on each subject position in order of increasing shooting distance detected by the distance sensor 18 at the time of shooting.
[0122]
Then, a character image of “rabbit” which is created according to the replacement composition mode {circle around (1)}-1 and imitates the pose of yes cheese in the subject image H1 is the subject image H1. The photographed image 12g3 that is replaced and synthesized is registered in the memory 12 in response to a push (OK) operation on the “cursor” key 16d of the input unit 16 (steps A24 → A25).
[0123]
If the next display of the character image currently being combined and displayed is instructed by the left / right operation of the “cursor” key 16d before the registration processing of the photographed image 12g3 after the image combination accompanying the OK operation is performed, By the corresponding animation image acquisition process (see FIG. 15), the pose No. of the model image having the next highest similarity to the subject image H1 to be imitated. The character image of “rabbit” corresponding to is set, re-synthesized by the same replacement synthesis process, and displayed (steps A24 → AC to A14 → A15, A23).
[0124]
For example, as shown in FIGS. 11 (E1) to (E3), the imitation character frame D (2) -1 of “Kobito” is selected and set for the photographed image 12g5, and is displayed in a composite manner. The “shutter” key 16c is operated (steps A1 to A12 ′) in a state where a plurality of subject images H3 and H4 that do not need to be photographed are combined in the region of the target portion Tx, and this is handled from the target image extraction process (step AC). If it is determined through the animation image acquisition process (step AD) that the currently set mimic character frame mode is “region replacement composition mode {circle around (2)}-n}”, as shown in FIG. The poses of the subjects H3 and H4, which are a plurality of imitation target images extracted according to the imitation target portion Tx in the captured image 12g5, acquired by the corresponding animation image acquisition process (see FIG. 15). The character images 12i (3) and 12i (3) ′ of “Kobito”, which are imitated, are sequentially replaced with a plurality of subjects (target images) H3 and H4 in the area of the imitation target portion Tx and are combined and displayed ( Step A14 → A16, A17, A23).
[0125]
Then, as shown in FIG. 11 (E4), a “Kobito” that imitates the poses of a plurality of subject images H3 and H4 that are unnecessary for the photographed image is created according to the area replacement composition mode (2) -1. A photographed image 12g5 obtained by replacing the character image with each of the subject images H3 and H4 is registered in the memory 12 in response to a push (OK) operation on the “cursor” key 16d of the input unit 16 (step). A24 → A25).
[0126]
If the next display of the character image currently being combined and displayed is instructed by the left / right operation of the “cursor” key 16d before the registration processing of the captured image 12g5 after the image combination accompanying the OK operation is performed, By the corresponding animation image acquisition process (see FIG. 15), the pose No. of the model image having the next highest similarity to the subject images H3 and H4 to be imitated. A character image of “Kobito” corresponding to is set, recombined and displayed by the same area replacement composition processing (steps A24 → AC to A14 → A16, A17, A23).
[0127]
Also, for example, as shown in FIGS. 10A1 to 10A3, a “cat” imitation character frame A (3) -2 is selected and set for the photographed image 12g4, and is displayed in a combined manner. In a state where the subject image H1 is aligned with the portion Ta, the “shutter” key 16c is operated (steps A1 to A12 ′), and through the corresponding image extraction process (step AC) through the corresponding animation image acquisition process (step AD), If it is determined that the currently set mimic character frame mode is “additional composition mode (3) -n”, as shown in FIG. 10 (A4) [see FIG. 8], the subject extracted in the photographed image 12g4 Imitation of the pose “Banzai” of the subject image H1 to be imitated acquired by the corresponding animation image acquisition process (see FIG. 15) at a random position in an empty area other than the block M. The character image 12fn of “cat” is additionally synthesized and displayed (steps A14 → A18, A23).
[0128]
Then, a “cat” character image that is created according to this additional composition mode {circle around (3)}-2 and imitates the pose of the subject image H1 is added to the empty area as shown in FIG. 10 (A4). The synthesized captured image 12g4 is registered in the memory 12 in response to a push (OK) operation on the “cursor” key 16d of the input unit 16 (steps A24 → A25).
[0129]
If the next display of the character image currently being combined and displayed is instructed by the left / right operation of the “cursor” key 16d before performing the registration process of the captured image 12g4 after the image combination accompanying the OK operation, By the corresponding animation image acquisition process (see FIG. 15), the pose No. of the model image having the next highest similarity to the subject image H1 to be imitated. The character image of “cat” corresponding to is set and re-synthesized and displayed by the above-described additional synthesis process (steps A24 → AC to A14 → A18, A23).
[0130]
For example, as shown in FIGS. 10 (C1) to (C3), the imitation character frame B (4) -2 of “Rabbit” is selected and set for the photographed image 12g1, and is displayed in a synthesized manner. In a state where the subject image H is aligned with the portion Ta, the “shutter” key 16c is operated (steps A1 to A12 ′), and through the target image extraction process (step AC) through the corresponding animation image acquisition process (step AD), If it is determined that the currently set mimic character frame mode is “inverted additional composition mode (4) -n”, as shown in FIG. 10 (C4) [see FIG. The character image 12d (19) of the “rabbit” imitating the pose “dance” of the subject image H to be imitated acquired in FIG. 15) is the left of the subject image H in the captured image 12g1. To be symmetrical position is displayed by being added synthesized as a character image 12d (19) R of the inverted "Rabbit" (step A14 → A19, A23).
[0131]
Then, as shown in FIG. 10C4, a “rabbit” character image that is created in accordance with the inverted additional composition mode (4) -2 and imitates the dance pose of the subject image H is the subject image H. The photographed image 12g1 added and synthesized at the reverse position is registered in the memory 12 in response to a push (OK) operation on the “cursor” key 16d of the input unit 16 (steps A24 → A25).
[0132]
If the next display of the character image currently being combined and displayed is instructed by the left / right operation of the “cursor” key 16d before performing the registration processing of the captured image 12g1 after the image combination accompanying the OK operation, By the corresponding animation image acquisition process (see FIG. 15), the pose No. of the model image having the next highest similarity to the subject image H to be imitated. The character image of “rabbit” corresponding to is set, re-synthesized and displayed by the same reverse addition synthesis process (steps A24 → AC to A14 → A19, A23).
[0133]
Further, for example, as shown in FIGS. 11D1 to 11D3, a “bear” imitation character frame C (5) -2 is selected and combined with the photographed image 12g2, and is displayed as a semi-transparent imitation. In a state where the subject image H1 is aligned with the target portion Tx, the “shutter” key 16c is operated (steps A1 to A12 ′), and the corresponding animation image acquisition processing (step AD) is performed from the target image extraction processing (step AC). If it is determined that the currently set imitation character frame mode is “next image replacement composition mode (5) -n”, the subject (target image) H1 set as the imitation target in the first captured image 12g2 is determined. The position is stored as the replacement position of the imitation image (step A14 → A20).
[0134]
Then, as shown in FIG. 11 (D3 ′), when the second captured image 12g2 ′ is acquired (step A21), the stored subject (at the time of the first capturing in the second captured image 12g2 ′). As shown in FIG. 11 (D4) with respect to the position of the target image H1, a “bear” having the first similarity that imitates the subject H1 acquired by the corresponding animation image acquisition process (see FIG. 15). The character image 12e (11) N (in this case, a special character for night use) is combined and displayed in combination with the subject H2 photographed in the second photographed image 12g2 '(step A22).
[0135]
Then, a “bear” character image that is created in accordance with the next image replacement composition mode {circle around (5)}-2 and imitates the pose of the first subject image H1 as shown in FIG. The photographed image 12g2 ′ that is additionally combined with the subject image H2 is registered in the memory 12 in response to a push (OK) operation on the “cursor” key 16d of the input unit 16 (steps A24 → A25). .
[0136]
If the next display of the character image currently being combined and displayed is instructed by the left / right operation of the “cursor” key 16d before the registration processing of the captured image 12g2 ′ after the image combination accompanying the OK operation is performed, By the corresponding animation image acquisition process (see FIG. 15), the pose No. of the model image having the next highest similarity to the first subject image H1 to be imitated. The character image of “bear” corresponding to is set and re-synthesized and displayed on the second captured image 12g2 ′ by the same next image replacement synthesis process (step A24 → AC to A14 → A20 to A23).
[0137]
In the various imitation character frame modes {circle around (1)}-n to {circle around (5)}-n, the captured image 12gn subjected to the replacement composite display process or the additional composite display process is registered in the memory 12 in response to an OK operation. On the other hand, it is output from the image output unit 20, and recording by the memory card 20A, recording by the VTR (recording device) 20B, or printing by the image printer 20C is appropriately performed.
[0138]
Therefore, according to the composite image output function of the image output apparatus 10 having the above-described configuration, for the photographed image 12gn input via the image input unit 17, the types of mimic characters A to E and their composite forms (1) to (5) An imitation character frame A (1) -n to D (5) -n indicating ▼ is selected and set so as to be superimposed on the photographed image 12gn, and an arbitrary subject is displayed on the imitation target portion (Tx / Ta) in the setting frame. When the shutter operation is performed together with the image Hn, the character image of the type selected and set in the pose corresponding to the subject image Hn extracted corresponding to the imitation target portion (Tx / Ta) is the character 1 “rabbit” pose. Image memory 12d, character 2 “bear” pose image memory 12e, character 3 “cat” pose image memory 12f, character 4 “Kobito” pose image memory 12i Since it is acquired and synthesized and displayed by replacement or addition of the subject image Hn in the photographed image 12gn, it does not simply add and synthesize a fixed animation image in the photographed frame, but a simulated target part in the photographed frame. By replacing or additionally synthesizing an animation image that imitates the pose of the subject in accordance with (Tx / Ta), it is possible to easily create a very enjoyable animation image with animation.
[0139]
Further, according to the composite image output function of the image output apparatus 10 having the above-described configuration, each of the imitation character frames A (1) -n to D (5) -n to be selectively superimposed on the captured image 12gn. Since the pre-positioned imitation target portion (Tx / Ta) is shown as a doll (person), the subject image Hn to be imitated on the captured image 12gn with respect to the imitation target portion (Tx / Ta) of the doll. Can be easily and clearly aligned to extract an image.
[0140]
In addition, the imitation target portion Tx that is preset in the imitation character frames A (2) -n to D (2) -n for the area replacement composition mode is shown as a circle, so that the imitation target portion Tx of the circle is displayed. On the other hand, for example, a plurality of unnecessary subject images Hn,... To be imitated on the photographed image 12 gn can be simply and clearly aligned and extracted to obtain a plurality of character images in corresponding poses.
[0141]
Further, for the simulated character portion Tx in each of the simulated character frames {circle over (1)}-n, {circle around (2)}-n, {circle around (5)}-n to be synthesized by replacing the simulated character image of the subject image Hn with the subject image Hn, The subject image Hn to be imitated when it is superimposed and displayed on the captured image 12gn as a translucent frame can be easily recognized as a replacement object by making it translucent.
[0142]
Further, the imitation character frame {circle over (3)}-n, {circle around (4)}-n for adding and synthesizing the imitation character image of the subject image Hn in combination with the subject image Hn is a transparent frame. The subject image Hn to be imitated when superimposed on the photographed image 12gn can be easily recognized as an object remaining in the composite image.
[0143]
In the embodiment, the character image of the pose corresponding to the subject extracted from the photographed image 12gn according to the imitation target portion (Tx / Ta) is selectively acquired, and the acquired anime image of the character is acquired. Are added or replaced and combined and output. However, face images and person images of various expressions by live-action are stored in advance, and the face image and person image by live-action are imitated from the captured image 12gn as a target portion Tx. It is also possible to add or replace as a simulated image corresponding to the subject extracted in accordance with / Ta and output it.
[0144]
Further, as described in the above embodiment, the image output apparatus 10 can be suitably implemented by being incorporated in a digital camera. When implemented with a digital camera with a liquid crystal display, it is possible to shoot an image and confirm and record the composite image on the spot.
[0145]
In the embodiment, the case where the captured image is a still image has been described. However, from the moving image captured and input by, for example, the digital video movie 17B via the image input unit 17, and the imitation target portion (Tx / Ta). , Sequentially extracting subject images that change in time series with respect to the background image in the moving image, and selectively acquiring character images of poses corresponding to the sequentially extracted subject images, A configuration may be adopted in which a moving image is output by being added to or replaced with a subject in the image.
[0146]
Furthermore, by applying the composite image output function in the embodiment, an image of an appearance character that is arbitrarily specified and extracted from a moving image such as a game by a mimic target portion (Tx / Ta) is used as an imitation target image. It is also possible to use a configuration in which the character image is replaced with a person image obtained by actual shooting.
[0147]
Note that the image output device 10 of the above embodiment is preferably configured to be built in a digital camera, and for the photographed image 12gn input via the image input unit 17 included in the output device 10 itself, the character type A ~ E and imitation character frames A showing the composite forms (1) to (5) A (1) -n to D (5) -n are selected and set, and the imitation target extracted in the output device 10 based on this The character image of the pose corresponding to the subject image Hn is acquired and replaced with the subject image Hn or additionally combined and displayed. However, an external communication function is transmitted from the transmission control unit 15 via the communication network (Internet) N. By communicably connecting to a digital camera terminal having the same structure as the above embodiment, the composite image output process is performed. The photographed image input from the user may function as an image distribution server (10) that returns (distributes) the photographed image after the imitation character image composition processing.
[0148]
That is, when functioning as an image distribution server (10), in response to an access from an external digital camera terminal, for the image 12gn being photographed by the camera terminal, the types of mimic characters A to E and their composite forms ▲ The selection setting process of the mimic character frame A (1) -n to D (5) -n indicating 1 ▼ to (5) and its overlay display are performed (steps A1 to A12 '), and the server (10) By receiving a superimposed image of the photographed image 12gn and the imitated character frame selected and set from the camera terminal, a subject image Hn extraction process according to the imitation target portion (Tx / Ta) in the imitation character frame (step) AC), the corresponding mimic character image acquisition process (step A13, AD), the replacement with the subject image Hn or the additional synthesis process (step Performed 14~A22), it may be configured to transmit (deliver) the access source of the digital camera device.
[0149]
It should be noted that each processing method by the image output apparatus 10 described in the above embodiment, that is, the target image extraction associated with the composite image output process shown in the flowcharts of FIGS. 12 and 13 and the composite image output process shown in the flowchart of FIG. Each method of processing, the corresponding animation image acquisition process accompanying the synthetic image output process shown in the flowchart of FIG. 15, the similarity evaluation process with the imitation target image accompanying the corresponding animation image acquisition process shown in the flowchart of FIG. Any of these programs can be executed by a computer, such as a memory card (ROM card, RAM card, etc.), a magnetic disk (floppy disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), and an external recording medium such as a semiconductor memory. 13 can be stored and distributed. Various computer terminals having a communication function with the communication network (Internet) N read the program stored in the external recording medium 13 into the memory 12 by the recording medium reading unit 14, and the operation is performed by the read program. By being controlled, the composite image output function described in the above embodiment can be realized, and the same processing can be executed by the method described above.
[0150]
The program data for realizing each of the above methods can be transmitted on a communication network (Internet) N in the form of a program code, and the above-mentioned data can be transmitted from a computer terminal connected to the communication network (Internet) N. It is also possible to capture the program data and realize the composite image output function described above.
[0151]
Note that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention at the stage of implementation. Further, each of the embodiments includes inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in each embodiment or some constituent features are combined, the problems described in the column of the problem to be solved by the invention can be solved. When the effects described in the column of the effect of the invention can be obtained, a configuration in which these constituent elements are deleted or combined can be extracted as an invention.
[0152]
【The invention's effect】
  As described above, in the image output apparatus according to claim 1 of the present invention,According to the shootingA corresponding image such as a mimic image corresponding to the image of the target portion selected for the image is acquired, and the corresponding image can be combined with the captured image and output according to the combination form of the selected image.
[0155]
  Further, the claims of the present invention1In the image output device according toAccording to the seriesThe image block of the changed part such as the subject image is extracted from the plurality of photographed images, the image block corresponding to the extraction target part is extracted from the image block as the target image, and the corresponding image can be acquired and synthesized. It becomes like this.
[0159]
  Further, the claims of the present invention2In the image output device according toAccording to the synthesisBy selecting the composite form of the image indicated by the morphological image, the target image such as a plurality of subjects included in the extraction target portion of the captured image can be replaced with a plurality of corresponding images, respectively, and combined with the captured image. become.
[0160]
  Further, the claims of the present invention3In the image output device according toAccording to the synthesisBy selecting an image combination form indicated by the form image, a corresponding image corresponding to the target image of the extraction target portion of the captured image can be added to the captured image and combined.
[0161]
  Further, the claims of the present invention4In the image output device according toAccording to the synthesisBy selecting the combination form of the images indicated by the morphological images, a corresponding image corresponding to the target image of the extraction target portion of the captured image can be added and combined with the target image of the target portion on the captured image at a position that is horizontally reversed. It becomes like this.
[0162]
  Further, the claims of the present invention5In the image output device according toAccording to the composite formBy selecting an image combination form indicated by the state image, the corresponding image acquired in accordance with the target image of the extraction target portion of the first captured image can be combined with the second captured image.
[0163]
  Further, the claims of the present invention6In the image output device according toAccording to the shootingA target image such as a person for acquiring a corresponding image to be synthesized with respect to the image can be easily selected as an extraction target portion by a frame of a person shape.
[0164]
  Further, the claims of the present invention7In the image output device according toAccording to the taken imageIt is possible to select a target image for acquiring a corresponding image to be additionally combined with a transparent frame and know that the corresponding image is additionally combined without changing the target image.
[0165]
  Further, the claims of the present invention8In the image output device according toAccording to the taken imageIt is possible to know that the target image for acquiring the corresponding image to be replaced and combined is selected by the semi-transparent frame and is replaced with the target image and the corresponding image is combined.
[0166]
  Therefore, according to the present invention, it is possible to synthesize and output an image corresponding to an object (for example, a person) image in the captured image, rather than simply combining a fixed image with the captured image. Image outputEquipmentCan be provided.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an electronic circuit of an image output apparatus 10 according to an embodiment of the present invention.
FIG. 2 is a view showing a list (No. 1) of imitation target part setting frames for each of various imitation characters stored in an imitation character frame list memory 12c of the image output apparatus 10;
FIG. 3 is a diagram showing a list (part 2) of imitation target portion setting frames for each of various imitation characters stored in an imitation character frame list memory 12c of the image output apparatus 10;
4 corresponds to various poses respectively stored in the character 1 “rabbit” pose image memory 12d: character 2 “bear” pose image memory 12e: character 3 “cat” pose image memory 12f of the image output device 10; The figure which shows each character image.
FIG. 5 is a view showing a model image corresponding to a model pose stored in a model pose image memory 12b of the image output apparatus 10;
FIG. 6 is a diagram showing a left-right inverted position additional composition state by a character image “rabbit” when a mimic character frame B (4) -2 (reverse (right → left)) is selected by the image output device 10;
FIG. 7 is a diagram showing a next image replacement combined state using a character image “bear” when a mimic character frame C (5) -2 (next addition (right)) is selected by the image output device 10;
FIG. 8 is a diagram showing a replacement composition state by the character image “rabbit” when the imitation character frame B (1) -1 (replacement (left)) is selected by the image output apparatus 10;
9A and 9B are diagrams showing an external configuration of a digital camera 10 that is the image output apparatus, in which FIG. 9A is a front view thereof, and FIG. 9B is a rear view thereof.
FIG. 10 is a diagram showing a shooting display state (No. 1) accompanying setting of various frame modes in the composite image output process by the image output apparatus (digital camera) 10; FIGS. The figure which shows the imaging | photography display state at the time of setting the additional synthetic | combination frame A (3) -2 of "cat", The figure (B1)-(B4) set the replacement synthetic frame B (1) -1 of "rabbit" The figure which shows the imaging | photography display state at the time of doing, The figure (C1)-(C4) is a figure which shows the imaging | photography display state when the reverse addition synthetic | combination frame B (4) -2 of "rabbit" is set.
FIG. 11 is a diagram showing a shooting display state (part 2) accompanying setting of various frame modes in the composite image output process by the image output device (digital camera) 10; FIGS. FIGS. 11E to 11E are diagrams showing the shooting display state when the “Bear” next image replacement composite frame C <5> -2 is set. FIGS. The figure which shows the imaging | photography display state when 1 is set.
FIG. 12 is a flowchart showing composite image output processing (part 1) by the image output apparatus (digital camera) 10;
FIG. 13 is a flowchart showing composite image output processing (part 2) by the image output apparatus (digital camera) 10;
FIG. 14 is a flowchart showing a target image extraction process associated with a composite image output process of the image output apparatus (digital camera) 10;
FIG. 15 is a flowchart showing a corresponding animation image acquisition process associated with a composite image output process of the image output apparatus (digital camera) 10;
FIG. 16 is a flowchart showing a similarity evaluation process with an imitation target image in a corresponding animation image acquisition process associated with a composite image output process of the image output apparatus 10;
FIG. 17 is a view showing an example of similarity evaluation with a model image in the similarity evaluation process in the corresponding animation image acquisition process of the image output apparatus 10;
[Explanation of symbols]
10 Image output device
11 ... CPU
12 ... Memory
12a ... Image processing program
12b ... Model pose image memory
12c ... Mimic character list frame memory
12d ... Character 1 "Rabbit" pose image memory
12e… Character 2 “bear” pose image memory
12f… Character 3 “cat” pose image memory
12g ... Captured image memory
12h ... image processing work area
12i… Character 4 “Kobito” pose image memory
13: External recording medium
14 ... Recording medium reader
15 ... Transmission control unit
16: Input section
16a ... “MENU” key
16b ... "PLAY / REC" key
16c ... "Shutter" key
16d ... "Cursor" key
17 Image input unit
17A ... Digital camera
17B ... Digital video movie
17C ... VTR (image playback device)
18 Distance sensor
19: Display section
20 Image output unit
20A ... Memory card
20B ... VTR (recording device)
20C ... Image printer
21 ... Web server
N ... Communication network (Internet)
▲ 1 ▼ -n ... Replacement composite frame
▲ 2 ▼ -n ... area replacement composite frame
▲ 3 ▼ -n ... Additional composite frame
▲ 4 ▼ -n ... Inverted additional composite frame
▲ 5 ▼ -n ... Next image replacement composite frame
Tx ... Replacement (semi-transparent) imitation target part
Ta: Additional (transparent) imitation target part

Claims (8)

撮影画像についての抽出対象部分と画像の合成形態とを対応付けてなる合成形態画像を複数記憶する合成形態画像記憶手段と、
撮影画像を取得する撮影画像取得手段と、
この撮影画像取得手段により取得された撮影画像に対応付けて前記合成形態画像記憶手段記憶されている合成形態画像を選択する合成形態画像選択手段と、
この合成形態画像選択手段により選択された合成形態画像により示される前記撮影画像についての抽出対象部分に応じた対応画像を取得する対応画像取得手段と、
この対応画像取得手段により取得された対応画像を前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態に応じて、前記撮影画像取得手段により取得された撮影画像に合成する画像合成手段と、
この画像合成手段により対応画像の合成された撮影画像を出力する画像出力手段と、
前記合成形態画像選択手段により選択された合成形態画像により示される抽出対象部分に従って前記撮影画像取得手段により取得された撮影画像の中から対象画像を抽出する対象画像抽出手段を備え、
前記対応画像取得手段は、前記対象画像抽出手段により抽出された対象画像に応じた対応画像を取得し、
前記対象画像抽出手段は、
前記撮影画像取得手段により取得された一連の複数の撮影画像の中から変化部分の画像ブロックを抽出する画像ブロック抽出手段を有し、
この画像ブロック抽出手段により抽出された画像ブロックの中から前記合成形態画像選択手段により選択された合成形態画像により示される抽出対象部分に対応した画像ブロックを対象画像として抽出することを特徴とする画像出力装置。
A composite form image storage unit that stores a plurality of composite form images in which an extraction target portion for a captured image is associated with a composite form of the image;
A captured image acquisition means for acquiring a captured image;
A combined form image selecting unit that selects a combined form image stored in the combined form image storage unit in association with the captured image acquired by the captured image acquisition unit;
Corresponding image acquisition means for acquiring a corresponding image corresponding to the extraction target portion for the captured image indicated by the composite form image selected by the composite form image selection means;
The corresponding image acquired by the corresponding image acquisition unit is combined with the captured image acquired by the captured image acquisition unit according to the composite form of the image indicated by the composite form image selected by the composite form image selection unit. Image synthesis means;
Image output means for outputting a captured image in which the corresponding image is synthesized by the image synthesis means;
A target image extracting means for extracting a target image from the photographed image acquired by the photographed image acquiring means according to the extraction target portion indicated by the composite form image selected by the composite form image selecting means;
The corresponding image acquisition unit acquires a corresponding image corresponding to the target image extracted by the target image extraction unit;
The target image extraction means includes
Image block extraction means for extracting an image block of a change portion from a series of captured images acquired by the captured image acquisition means;
An image characterized in that an image block corresponding to an extraction target portion indicated by a composite form image selected by the composite form image selection means is extracted as a target image from the image blocks extracted by the image block extraction means. Output device.
撮影画像についての抽出対象部分と画像の合成形態とを対応付けてなる合成形態画像を複数記憶する合成形態画像記憶手段と、
撮影画像を取得する撮影画像取得手段と、
この撮影画像取得手段により取得された撮影画像に対応付けて前記合成形態画像記憶手段記憶されている合成形態画像を選択する合成形態画像選択手段と、
この合成形態画像選択手段により選択された合成形態画像により示される前記撮影画像についての抽出対象部分に応じた対応画像を取得する対応画像取得手段と、
この対応画像取得手段により取得された対応画像を前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態に応じて、前記撮影画像取得手段により取得された撮影画像に合成する画像合成手段と、
この画像合成手段により対応画像の合成された撮影画像を出力する画像出力手段とを備え、
前記画像の合成形態には、少なくとも領域置き換え合成形態が含まれ、
前記画像合成手段は、前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態が領域置き換え合成形態である場合、前記撮影画像取得手段により取得された撮影画像の中の前記合成形態画像により示される抽出対象部分の複数の対象画像をそれぞれ前記対応画像取得手段により取得された複数の対応画像に置き換えて当該撮影画像に合成することを特徴とする画像出力装置。
A composite form image storage unit that stores a plurality of composite form images in which an extraction target portion for a captured image is associated with a composite form of the image;
A captured image acquisition means for acquiring a captured image;
A combined form image selecting unit that selects a combined form image stored in the combined form image storage unit in association with the captured image acquired by the captured image acquisition unit;
Corresponding image acquisition means for acquiring a corresponding image corresponding to the extraction target portion for the captured image indicated by the composite form image selected by the composite form image selection means;
The corresponding image acquired by the corresponding image acquisition unit is combined with the captured image acquired by the captured image acquisition unit according to the composite form of the image indicated by the composite form image selected by the composite form image selection unit. Image synthesis means;
Image output means for outputting a captured image in which the corresponding image is synthesized by the image synthesis means,
The composite form of the image includes at least a region replacement composite form,
The image synthesizing unit, when the synthetic form of the image indicated by the synthetic form image selected by the synthetic form image selecting unit is a region replacement synthetic form, the image in the photographed image obtained by the photographed image obtaining unit An image output apparatus, wherein a plurality of target images of an extraction target portion indicated by a composite form image are respectively replaced with a plurality of corresponding images acquired by the corresponding image acquisition means and combined with the captured image .
撮影画像についての抽出対象部分と画像の合成形態とを対応付けてなる合成形態画像を複数記憶する合成形態画像記憶手段と、
撮影画像を取得する撮影画像取得手段と、
この撮影画像取得手段により取得された撮影画像に対応付けて前記合成形態画像記憶手段記憶されている合成形態画像を選択する合成形態画像選択手段と、
この合成形態画像選択手段により選択された合成形態画像により示される前記撮影画像についての抽出対象部分に応じた対応画像を取得する対応画像取得手段と、
この対応画像取得手段により取得された対応画像を前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態に応じて、前記撮影画像取得手段により取得された撮影画像に合成する画像合成手段と、
この画像合成手段により対応画像の合成された撮影画像を出力する画像出力手段とを備え、
前記画像の合成形態には、少なくとも追加合成形態が含まれ、
前記画像合成手段は、前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態が追加合成形態である場合、前記対応画像取得手段により取得された対応画像を前記撮影画像取得手段により取得された撮影画像に追加して合成することを特徴とする画像出力装置。
A composite form image storage unit that stores a plurality of composite form images in which an extraction target portion for a captured image is associated with a composite form of the image;
A captured image acquisition means for acquiring a captured image;
A combined form image selecting unit that selects a combined form image stored in the combined form image storage unit in association with the captured image acquired by the captured image acquisition unit;
Corresponding image acquisition means for acquiring a corresponding image corresponding to the extraction target portion for the captured image indicated by the composite form image selected by the composite form image selection means;
The corresponding image acquired by the corresponding image acquisition unit is combined with the captured image acquired by the captured image acquisition unit according to the composite form of the image indicated by the composite form image selected by the composite form image selection unit. Image synthesis means;
Image output means for outputting a captured image in which the corresponding image is synthesized by the image synthesis means,
The composite form of the image includes at least an additional composite form,
The image synthesizing unit acquires the corresponding image acquired by the corresponding image acquiring unit when the synthetic mode of the image indicated by the synthetic mode image selected by the synthetic mode image selecting unit is an additional synthetic mode. An image output apparatus characterized in that it is combined with a photographed image acquired by the means .
撮影画像についての抽出対象部分と画像の合成形態とを対応付けてなる合成形態画像を複数記憶する合成形態画像記憶手段と、
撮影画像を取得する撮影画像取得手段と、
この撮影画像取得手段により取得された撮影画像に対応付けて前記合成形態画像記憶手段記憶されている合成形態画像を選択する合成形態画像選択手段と、
この合成形態画像選択手段により選択された合成形態画像により示される前記撮影画像についての抽出対象部分に応じた対応画像を取得する対応画像取得手段と、
この対応画像取得手段により取得された対応画像を前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態に応じて、前記撮影画像取得手段により取得された撮影画像に合成する画像合成手段と、
この画像合成手段により対応画像の合成された撮影画像を出力する画像出力手段とを備え、
前記画像の合成形態には、少なくとも反転追加合成形態が含まれ、
前記画像合成手段は、前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態が反転追加合成形態である場合、前記対応画像取得手段により取得された対応画像を前記撮影画像取得手段により取得された撮影画像上で前記合成形態画像により示される抽出対象部分の対象画像と左右反転の位置に追加して合成することを特徴とする画像出力装置。
A composite form image storage unit that stores a plurality of composite form images in which an extraction target portion for a captured image is associated with a composite form of the image;
A captured image acquisition means for acquiring a captured image;
A combined form image selecting unit that selects a combined form image stored in the combined form image storage unit in association with the captured image acquired by the captured image acquisition unit;
Corresponding image acquisition means for acquiring a corresponding image corresponding to the extraction target portion for the captured image indicated by the composite form image selected by the composite form image selection means;
The corresponding image acquired by the corresponding image acquisition unit is combined with the captured image acquired by the captured image acquisition unit according to the composite form of the image indicated by the composite form image selected by the composite form image selection unit. Image synthesis means;
Image output means for outputting a captured image in which the corresponding image is synthesized by the image synthesis means,
The composite form of the image includes at least an inverted additional composite form,
The image synthesizing unit is configured to display the corresponding image acquired by the corresponding image acquiring unit when the composite form of the image indicated by the composite form image selected by the composite form image selecting unit is an inverted additional composite form. An image output apparatus characterized by being added to a target image of an extraction target portion indicated by the composite form image and added to a left-right inverted position on a captured image acquired by an acquisition unit.
撮影画像についての抽出対象部分と画像の合成形態とを対応付けてなる合成形態画像を複数記憶する合成形態画像記憶手段と、
撮影画像を取得する撮影画像取得手段と、
この撮影画像取得手段により取得された撮影画像に対応付けて前記合成形態画像記憶手段記憶されている合成形態画像を選択する合成形態画像選択手段と、
この合成形態画像選択手段により選択された合成形態画像により示される前記撮影画像についての抽出対象部分に応じた対応画像を取得する対応画像取得手段と、
この対応画像取得手段により取得された対応画像を前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態に応じて、前記撮影画像取得手段により取得された撮影画像に合成する画像合成手段と、
この画像合成手段により対応画像の合成された撮影画像を出力する画像出力手段とを備え、
前記画像の合成形態には、少なくとも次画像置き換え合成形態が含まれ、
前記対応画像取得手段は、前記撮影画像取得手段により取得された第1の撮影画像について前記合成形態画像選択手段により選択された合成形態画像により示される抽出対象部分に応じた対応画像を取得し、
前記画像合成手段は、前記合成形態画像選択手段により選択された合成形態画像により示される画像の合成形態が次画像置き換え合成形態である場合、前記撮影画像取得手段により取得された第2の撮影画像に対して、前記対応画像取得手段により取得された対応画像を合成することを特徴とする画像出力装置。
A composite form image storage unit that stores a plurality of composite form images in which an extraction target portion for a captured image is associated with a composite form of the image;
A captured image acquisition means for acquiring a captured image;
A combined form image selecting unit that selects a combined form image stored in the combined form image storage unit in association with the captured image acquired by the captured image acquisition unit;
Corresponding image acquisition means for acquiring a corresponding image corresponding to the extraction target portion for the captured image indicated by the composite form image selected by the composite form image selection means;
The corresponding image acquired by the corresponding image acquisition unit is combined with the captured image acquired by the captured image acquisition unit according to the composite form of the image indicated by the composite form image selected by the composite form image selection unit. Image synthesis means;
Image output means for outputting a captured image in which the corresponding image is synthesized by the image synthesis means,
The composite form of the image includes at least a subsequent image replacement composite form,
The corresponding image acquisition means acquires a corresponding image corresponding to the extraction target portion indicated by the composite form image selected by the composite form image selection means for the first captured image acquired by the captured image acquisition means,
The image synthesizing unit is configured to obtain a second captured image acquired by the captured image acquiring unit when a composite form of an image indicated by the composite form image selected by the composite form image selecting unit is a next image replacement composite form On the other hand, an image output apparatus characterized in that the corresponding image acquired by the corresponding image acquisition means is synthesized .
前記合成形態画像記憶手段により記憶される合成形態画像により示される撮影画像についての抽出対象部分は人の形の枠により示されることを特徴とする請求項3に記載の画像出力装置。4. The image output apparatus according to claim 3, wherein an extraction target portion of the photographed image indicated by the composite form image stored by the composite form image storage unit is indicated by a human-shaped frame. 前記合成形態画像記憶手段により記憶される合成形態画像により示される画像の合成形態が追加合成形態である場合、当該合成形態画像により示される撮影画像についての抽出対象部分は透明の枠により示されることを特徴とする請求項3に記載の画像出力装置。When the composite form of the image indicated by the composite form image stored by the composite form image storage means is an additional composite form, the extraction target portion for the captured image indicated by the composite form image is indicated by a transparent frame. The image output apparatus according to claim 3 . 前記合成形態画像記憶手段により記憶される合成形態画像により示される画像の合成形態が置き換え合成形態である場合、当該合成形態画像により示される撮影画像についての抽出対象部分は半透明の枠により示されることを特徴とする請求項2に記載の画像出力装置。When the composite form of the image indicated by the composite form image stored by the composite form image storage means is a replacement composite form, the extraction target portion for the captured image indicated by the composite form image is indicated by a translucent frame. The image output apparatus according to claim 2 .
JP2003091686A 2003-03-28 2003-03-28 Image output device Expired - Fee Related JP4168803B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003091686A JP4168803B2 (en) 2003-03-28 2003-03-28 Image output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003091686A JP4168803B2 (en) 2003-03-28 2003-03-28 Image output device

Publications (2)

Publication Number Publication Date
JP2004304261A JP2004304261A (en) 2004-10-28
JP4168803B2 true JP4168803B2 (en) 2008-10-22

Family

ID=33404999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003091686A Expired - Fee Related JP4168803B2 (en) 2003-03-28 2003-03-28 Image output device

Country Status (1)

Country Link
JP (1) JP4168803B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7098601B2 (en) * 2017-03-31 2022-07-11 ソニーセミコンダクタソリューションズ株式会社 Image processing equipment, imaging equipment, image processing methods, and programs
CN112396494A (en) * 2020-11-23 2021-02-23 北京百度网讯科技有限公司 Commodity guide method, commodity guide device, commodity guide equipment and storage medium
KR102652371B1 (en) * 2021-11-02 2024-03-29 배효만 Video production system for learning motion

Also Published As

Publication number Publication date
JP2004304261A (en) 2004-10-28

Similar Documents

Publication Publication Date Title
US9389768B2 (en) Reproducer, digital camera, slide show reproduction method, program, image display apparatus, image display method, image reproduction method, and image display program
CN101998057B (en) Camera and display control method of same
JPH11219446A (en) Video/sound reproducing system
JP4981370B2 (en) Movie generation system and movie generation method
JP4423929B2 (en) Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
JP2020074041A (en) Imaging device for gaming, image processing device, and image processing method
JP5169111B2 (en) Composite image output apparatus and composite image output processing program
JP5012373B2 (en) Composite image output apparatus and composite image output processing program
JP4392548B2 (en) Movie image printing apparatus, method and program
JP5596844B2 (en) Image processing apparatus, image processing system, and image processing method
JP5407708B2 (en) Captured video processing apparatus, control method, and program
JP6043753B2 (en) Content reproduction system, server, portable terminal, content reproduction method, program, and recording medium
JP4161769B2 (en) Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
KR20100029095A (en) Method for generating a sound series of photographs and apparatus for generating and reproducing such sound series
JP4168803B2 (en) Image output device
JP2004355567A (en) Image output device, image output method, image output processing program, image distribution server and image distribution processing program
JP3901015B2 (en) Image output apparatus, image output processing program, and image output method
JP4962219B2 (en) Composite image output apparatus and composite image output processing program
JP4254391B2 (en) Image output device, image output processing program, and image distribution server
JP4151543B2 (en) Image output apparatus, image output method, and image output processing program
JP6038256B2 (en) Image search system and image search method
JP4284447B2 (en) Morphing camera and morphing method
JP5409852B2 (en) Virtual landscape display device and virtual landscape display method
JP5058842B2 (en) Virtual landscape display device
JP5106240B2 (en) Image processing apparatus and image processing server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080715

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080728

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130815

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees