JP4973622B2 - 画像合成装置および画像合成処理プログラム - Google Patents

画像合成装置および画像合成処理プログラム Download PDF

Info

Publication number
JP4973622B2
JP4973622B2 JP2008197627A JP2008197627A JP4973622B2 JP 4973622 B2 JP4973622 B2 JP 4973622B2 JP 2008197627 A JP2008197627 A JP 2008197627A JP 2008197627 A JP2008197627 A JP 2008197627A JP 4973622 B2 JP4973622 B2 JP 4973622B2
Authority
JP
Japan
Prior art keywords
image data
image
data
mark
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008197627A
Other languages
English (en)
Other versions
JP2009076060A (ja
Inventor
孝 湖城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2008197627A priority Critical patent/JP4973622B2/ja
Priority to US12/200,254 priority patent/US8189864B2/en
Priority to CN2008102144825A priority patent/CN101378463B/zh
Priority to KR1020080084712A priority patent/KR100981002B1/ko
Publication of JP2009076060A publication Critical patent/JP2009076060A/ja
Application granted granted Critical
Publication of JP4973622B2 publication Critical patent/JP4973622B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、動画撮影された人物画像を他のキャラクタ画像に置き換えた合成画像を生成して出力するための画像合成装置および画像合成処理プログラムに関する。
従来、同一出願人において、デジタルカメラにより撮影された撮影画像に含まれる各画像部分までの距離情報に応じて、当該撮影画像から置き換え対象となる人物画像を抽出し、この抽出された対象人物画像のポーズ(姿勢)に応じた他のキャラクタ画像からなるまね画像を、当該対象人物画像に置き換え合成して表示する画像出力装置が考えられている(例えば、特許文献1参照。)。
また、同一出願人において、通信ネットワーク上の端末装置から送られてくる撮影された置き換え対象となる人物画像の姿勢を示すポーズ情報を受信し、このポーズ情報に対応した姿勢のキャラクタ画像をデータベースから読み出して前記端末装置へ送信提供する画像配信サーバも考えられている(例えば、特許文献2参照。)。
このような従来の画像出力装置や画像配信サーバによれば、撮影画像の中の任意の対象人物画像を他のキャラクタ画像に置き換え合成して表示あるいはプリントすることが可能となり、ユーザ本人や知人を他のキャラクタ画像に置き換えて楽しんだり、あるいは他人に見られてはいけない人物を対象に他のキャラクタ画像に置き換え偽装したりして、撮影画像を様々な状況でより効果的に利用することができる。
そして最近では、モーションキャプチャ技術と3D画像処理技術によって、予め動画撮影されたモデル(対象人物)の動きにそのまま対応させた任意のキャラクタ画像を動画表示させることができるようになっている。
特許第3901015号公報 特許第3918632号公報
前記従来における撮影人物画像の他のキャラクタ画像への置き換え合成技術では、静止画、動画、何れの場合でも、その対象人物画像をそのまま置き換え合成しているだけなので、特に、動画撮影された人物画像について、特撮やアニメーションのように対象人物の意志をもって他のキャラクタ画像に変化(変身)させ、一連のシーンとなるような合成画像を生成することは困難である。
本発明は、このような課題に鑑みなされたもので、動画撮影された人物画像について、対象人物のモーション(身振り)に従い他の画像に変化(変身)していく一連の合成画像の生成を可能とすることを目的とする。
請求項1に記載の発明は、表示手段と、合成対象となるモーションと第1の合成画像データと当該第1の合成画像データが合成されることを示すマークとを対応付けて記憶する第1の記憶手段と、順次撮像されることにより複数の画像データを入力する入力手段と、この入力手段によって入力されている複数の画像データにわたって変化している部分の動きが、前記第1の記憶手段に記憶されているモーションと略同一か否かを判断する第1の判断手段と、この第1の判断手段により略同一と判断されると、このモーションに対応して前記第1の記憶手段に記憶されたマークを読み出し、前記変化している部分に付加して表示するよう前記表示手段を制御する表示制御手段と、前記入力されている複数の画像データを記録する際には、前記表示制御手段によって前記マークが付加された前記変化している部分に、前記マークに代えて前記マークに対応する第1の合成画像データを合成する第1の合成手段と、を備えたことを特徴とする。
請求項2に記載の発明は、前記請求項1に記載の発明において、抽出対象の画像データを記憶する第2の記憶手段と、前記入力手段によって入力された画像データに、前記第2の記憶手段に記憶されている抽出対象の画像データが含まれているか否かを判断する第2の判断手段と、この第2の判断手段により抽出対象の画像データが含まれていると判断されると、この抽出対象の画像データと前記変化している部分を有する画像データとの位置関係に基づき、前記第1の合成手段によって合成された画像データに、所定の画像データを追加して合成する第2の合成手段と、を更に備えたことを特徴としている。
請求項3に記載の発明は、前記請求項2に記載の発明において、前記第2の記憶手段は、前記抽出対象の画像データと対応付けて第2の合成画像データを更に記憶し、前記第2の判断手段により抽出対象の画像データが含まれていると判断されると、この抽出対象の画像データと対応付けて記憶された第2の合成画像データを読み出し、前記抽出対象の画像データの位置に追加して合成する第3の合成手段を更に備えたことを特徴としている。
請求項4に記載の発明は、前記請求項3に記載の発明において、前記変化部分を有する画像データのモーションと第3の合成画像データとを対応付けて記憶する第3の記憶手段と、前記入力手段によって入力された複数の画像データにわたって前記変化している部分を有する画像データの動きが、前記第3の記憶手段に記憶されているモーションと略同一か否かを判断する第3の判断手段と、この第3の判断手段により略同一と判断されると、このモーションに対応して前記第3の記憶手段に記憶された第3の合成画像データを読み出し、前記第1の合成手段によって合成された画像データに追加して合成する第4の合成手段と、を更に備えたことを特徴としている。
請求項5に記載の発明は、前記請求項1に記載の発明において、第1の合成画像データを、複数の画像データにわたって変化している部分の画像データの動きに合わせて変化させた動画データを作成する動画データ作成手段を更に備え、前記第1の合成手段は、前記動画データ作成手段によって作成された動画データを含んだ合成動画データを作成する、
ことを特徴としている。
請求項6に記載の発明は、前記請求項1に記載の発明において、前記入力手段は、撮像手段を含むことを特徴としている。
請求項7に記載の発明は、前記請求項1に記載の発明において、前記入力手段は、当該装置外部から通信により前記複数の画像データを入力する通信手段を含むことを特徴としている。
請求項に記載の発明は、前記請求項1に記載の発明において、前記第1の合成画像データは、3D画像であることを特徴としている。
請求項9に記載の発明は、コンピュータを、順次撮像されることにより複数の画像データを入力する入力手段、この入力手段によって入力されている複数の画像データにわたって変化している部分の動きが、合成画像データと当該合成画像データが合成されることを示すマークとに対応付けて設定されているモーションと略同一か否かを判断する判断手段、この判断手段により略同一と判断されると、このモーションに対応して設定されているマークを読み出し、前記変化している部分に付加して表示するよう制御する表示制御手段、前記入力されている複数の画像データを記録する際には、前記表示制御手段によって前記マークが付加された前記変化している部分に、前記マークに代えて前記マークに対応する合成画像データを合成する合成手段、として機能させることを特徴としている。
本発明によれば、動画撮影された人物画像について、対象人物のモーション(身振り)に従い他の画像に変化(変身)していく一連の合成画像を生成することが可能となる。
以下図面により本発明の実施の形態について説明する。
この実施形態では、本発明の画像合成装置を産業上で利用する観点から、より分かり易く具体化した一例を説明する。
図1は、本発明の画像合成装置の実施形態に係るデジタルカメラ10を利用した動画像の撮影状態と合成画像の生成状態を示す概念図である。
このデジタルカメラ10は、その背面にLCD表示部11、入力部12、音声出力部(スピーカ)13を備え、入力部12の操作に応じて撮影される動画像(撮影画像)Gは、リアルタイムで表示部11に表示される。
このデジタルカメラ10は、主要な機能として、撮影中の動画像Gに含まれる人物・物体画像(P,K,A,B)を抽出する機能、抽出された人物画像が予め登録された人物画像(P)であるか否かを顔画像を認識処理して識別する機能、抽出された人物画像が予め登録された人物画像(P)である場合にその登録人物画像(P)に対応付けて予め設定された役柄画像(24Gw)のマーク(役柄変身マーク24Mw)を付加する機能、前記役柄変身マーク24Mwの付加された人物画像(P)を同予め設定された役柄画像(24Gw)に置き換える機能、抽出された人物画像の予め設定された身振り(モーション)を検出する機能、予め設定された身振りが検出された人物画像(K)についてその身振り検出時点から予め設定された変身画像(14Gu)のマーク(変身マーク14Mu)を付加する機能、前記変身マーク14Muの付加された人物画像(K)を同予め設定された変身画像(14Gu)に置き換える機能、抽出された物体画像が予め登録された破壊対象画像(A,B)である場合にその破壊対象画像(A,B)に対応付けて予め設定された破壊画像(15Ga,15Gb)のマーク(破壊マーク15Ma,15Mb)を付加する機能、前記破壊マーク15Ma,15Mbの付加された破壊対象画像(A,B)を同予め設定された破壊画像(15Ga,15Gb)に置き換える機能、そして、前記抽出された人物画像(P,K)の動きを捉えて前記役柄画像(24Gw)や変身画像(14Gu)の3D画像に変換するためのモーションキャプチャ処理機能、3D画像処理機能などを有する。
なお、前記顔画像認識処理、モーションキャプチャ処理、3D画像処理については、周知の画像処理技術であるためその詳細な説明を省略する。
このような主要な機能を有するデジタルカメラ10を、例えば家族で利用してその父親Pを怪獣役、子供Kを○○マン役とした一連のシーンを母親が動画撮影して遊ぶ場合に、当該デジタルカメラ10において、父親Pの顔画像を怪獣画像(役柄画像24Gw)に対応付けて予め登録すると共に、ビール瓶Aと紙飛行機Bの破壊対象画像をそれぞれ塔と飛行機の破壊画像15Gaと15Gbに対応付けて予め登録する。
そして、父親Pによってビール瓶Aを倒したり、飛んで来る紙飛行機Bを叩き落としたりするのに伴い、子供Kが変身のためのモーション(身振り)をして○○マンに変身しようとする一連のシーンを、母親がデジタルカメラ10により動画撮影する。
撮影中の動画像Gは、図1(A)に示すように、リアルタイムで表示部11に表示されると共に、本デジタルカメラ10が有する前記各種の機能によって解析され、父親Pの人物画像には、対応する怪獣画像(役柄画像24Gw)を示す役柄変身マーク24Mwが付加表示され、子供Kの人物画像には、予め設定された身振り(モーション)が検出された時点以降、対応する○○マン画像(変身画像14Gu)を示す変身マーク14Muが付加表示される。また、ビール瓶Aには、対応する塔の破壊画像15Gaを示す破壊マーク15Maが付加表示され、紙飛行機Bには、対応する飛行機の破壊画像15Gbを示す破壊マーク15Maが付加表示される。
これにより撮影中の母親は、父親Pや子供Kの人物画像がその役柄通りに変身処理され、またビール瓶Aや紙飛行機Bの物体画像がその登録通りに置き換え処理されていることを容易に認識することができる。
またこの際、前記怪獣画像(役柄画像24Gw)と○○マン画像(変身画像14Gu)にそれぞれ対応付けられて予め記憶されている音声データ「ガオー」「シュワッチ」が読み出され音声出力部13から出力されることで、各役柄を演じている最中の父親Pや子供Kにあっても、自らがその役柄通りに変身処理されていることを容易に認識することができる。
なお、前記撮影された動画像(撮影画像)Gに対して役柄変身マーク24Mwや変身マーク14Mu、破壊マーク15Ma,15Mbが付加された動画像をマーク付き撮影画像Gmと称する。
この後、前記一連のシーンの動画像Gの撮影が終了すると共にそのマーク付き撮影画像Gmが生成されると、当該マーク付き撮影画像Gmが前記各種の機能によって解析され、図1(B)に示すように、前記役柄変身マーク24Mwの付加された父親Pの人物画像に対応する怪獣の役柄画像24Gwと、前記変身マーク14Muの付加された子供Kの人物画像に対応する○○マンの変身画像14Gu、および前記各破壊マーク15Ma,15Mbの付加されたビール瓶Aと紙飛行機Bの各破壊対象画像に対応する塔と飛行機の各破壊画像15Ga,15Gbが、予め設定された背景画像BGに合成されてなる合成動画像GGが生成される。
なお、前記ビール瓶Aと紙飛行機Bの各破壊対象画像に対応付けられた各破壊画像15Ga,15Gbは、何れもその破壊対象画像(A,B)に対して、前記役柄変身マーク24Mwや変身マーク14Muが付加された父親Pや子供Kの人物画像が接触したことを検知して予め記憶された破壊後の画像に置き換え合成される。
これによりユーザ家族は、容易に特撮風の合成動画像GGを作ることができ、当該生成された合成動画像GGを表示部11に出力表示させて見たり、外部のモニタに出力表示させて見たりすることで、これまでにない楽しみを得ることができる。
図2は、前記デジタルカメラ10(通信端末A)の電子回路の構成を示すブロック図である。
このデジタルカメラ10は、コンピュータであるCPU16を備えている。
CPU16は、メモリ17に予め記憶されたシステムプログラム、あるいはメモリカードなどの外部記録媒体18からカードスロットなどの記録媒体読取部19を介して前記メモリ17に読み込まれたカメラ制御プログラム、あるいは通信ネットワーク(N)上のサーバ装置30(この場合はプログラムサーバ)から電送制御部20を介して前記メモリ17に読み込まれたカメラ制御プログラムに従い回路各部の動作を制御する。
CPU16には、前記LCD表示部11、入力部12、音声出力部13、メモリ17、記録媒体読取部19、電送制御部20が接続される他に、固体撮像素子(CCD)や撮像光学系および距離センサや照度センサを備えた画像撮影部2lが接続される。
前記メモリ17のプログラムメモリ22には、本デジタルカメラ10の全体の動作を司るシステムプログラムや撮影動作を司るカメラ制御プログラム、通信ネットワークN上のサーバ装置30や外部の通信端末B(PC:personal computer)40との通信動作を司る通信制御プログラムが記憶されると共に、前記画像撮影部21(入力手段)により撮影された撮影画像Gに基づいて、前述したマーク付き撮影画像Gmや合成画像GGを生成したり出力したりするための前記各種の機能を司る画像処理プログラムが予め記憶される。
そして、前記プログラムメモリ22に記憶された各種のプログラムは、入力部12からのキー入力信号や画像撮影部21からの撮影入力信号、電送制御部20を介した外部機器(30,40)からの受信入力信号に応じて起動される。
また、前記メモリ17には、変身データメモリ14(第1の記憶手段)、特殊効果データメモリ23、破壊データメモリ15(第2の記憶手段)、変身役柄データメモリ24(第2の記憶手段)、撮影画像データメモリ25、マーク付き撮影画像データメモリ26、合成画像データメモリ27、およびその他の作業用データメモリなどが備えられる。
図3は、前記デジタルカメラ10の変身データメモリ14に予め記憶される変身データの内容を示す図である。
この変身データメモリ14は、変身モーションモデルデータ14Pと変身画像データ14Guと変身マークデータ14Muの記憶領域を有し、変身画像データ14Guの記憶領域には、複数種類の変身画像データ(変身キャラクタ)およびその音声データが、例えば○○マンAの変身画像データ14Gu1およびその音声データ「シュワッチ」14Su1、初代○○マンの変身画像データ14Gu2およびその音声データ「ヤー・ター」14Su2として記憶される。また、変身マークデータ14Muの記憶領域には、前記複数種類の変身画像データ14Gu1,14Gu2をそれぞれ簡易表現する変身マークデータ14Mu1,14Mu2が記憶される。そして、変身モーションモデルデータ14Pの記憶領域には、前記複数種類の変身画像データ14Gu1,14Gu2にそれぞれ変身するための一連のモーション(身振り)からなる変身モーションモデルデータ14P1a〜14P1c,14P2a〜14P2cが記憶される。
なお、前記変身画像データ14Gu1,14Gu2は、様々な動きを表現した画像データそのもの、又は手足の骨格や顔の特徴点の移動データと3D画像生成用データとの組み合わせとして記憶される。また前記変身モーションモデルデータ14P1a〜14P1c,14P2a〜14P2cは、当該変身モーションを表現した画像データそのもの、又は手足の骨格や顔の特徴点の移動データとして記憶される。
図4は、前記デジタルカメラ10の特殊効果データメモリ23に予め記憶される特殊効果データの内容を示す図である。
この特殊効果データメモリ23は、特殊効果モーションモデルデータ23Pと特殊効果画像データ23Guと特殊効果マークデータ23Muの記憶領域を有し、特殊効果画像データ23Guの記憶領域には、前記複数種類の変身画像データ14Gu1,14Gu2にそれぞれ対応する特殊効果画像データおよびその音声データが、例えば○○マンA用の特殊効果画像データ23Gu1およびその音声データ「ビビビビー」23Su1、初代○○マン用の特殊効果画像データ23Gu2およびその音声データ「ピーバリバリー」23Su2として記憶される。また、特殊効果マークデータ23Muの記憶領域には、前記複数種類の特殊効果画像データ23Gu1,23Gu2をそれぞれ簡易表現する特殊効果マークデータ23Mu1,23Mu2が記憶される。そして、特殊効果モーションモデルデータ23Pの記憶領域には、前記複数種類の特殊効果画像データ23Gu1,23Gu2をそれぞれ対応する変身画像データ14Gu1,14Gu2の所定の位置から発生させて付加するための一連のモーション(身振り)からなる特殊効果モーションモデルデータ23P1a〜23P1c,23P2a〜23P2cが記憶される。
なお、前記特殊効果画像データ23Gu1,23Gu2は、画像データそのもの、又は3D画像生成用データとして記憶される。また前記特殊効果モーションモデルデータ23P1a〜23P1c,23P2a〜23P2cは、当該特殊効果モーションを表現した画像データそのもの、又は手足の骨格や顔の特徴点の移動データとして記憶される。
図5は、前記デジタルカメラ10の破壊データメモリ15に予め記憶される破壊データの内容を示す図である。
この破壊データメモリ15は、破壊対象画像データ15Tと破壊画像データ15G(第2の合成画像データ)と破壊(前)マークデータ15Mと破壊(後)マークデータ15M′の記憶領域を有し、破壊画像データ15Gの記憶領域には、複数種類の一連の破壊画像データおよびその破壊途中の音声データが、例えば塔の破壊前,破壊中,破壊後の各画像データ15Ga1〜15Ga3およびその破壊中音声データ「グシャ」15Sa、飛行機の破壊前,破壊中,破壊後の各画像データ15Gb1〜15Gb3およびその破壊中音声データ「ドカーン」15Sb、建物の破壊前,破壊中,破壊後の各画像データ15Gc1〜15Gc3およびその破壊中音声データ「ガラガラ」15Scとして記憶される。また、破壊(前)マークデータ15Mと破壊(後)マークデータ15M′の各記憶領域には、前記複数種類の破壊前後の画像データ15Ga1,15Ga3、15Gb1,15Gb3、15Gc1,15Gc3をそれぞれ簡易表現する同破壊前後のマークデータ15Ma,15Ma′、15Mb,15Mb′、15Mc,15Mc′が記憶される。そして、破壊対象画像データ15Tの記憶領域には、前記複数種類の破壊画像データ15Ga1〜15Ga3,15Gb1〜15Gb3,15Gc1〜15Gc3にそれぞれ置き換えるための対象となる一般家庭にある物体画像が、例えば塔の破壊画像データ15Ga1〜15Ga3の場合にはビール瓶A1やペットボトルA2、飛行機の破壊画像データ15Gb1〜15Gb3の場合には紙飛行機B、建物の破壊画像データ15Gc1〜15Gc3の場合にはティッシュボックスCとして記憶される。
なお、前記破壊画像データ15Ga1〜15Ga3,15Gb1〜15Gb3,15Gc1〜15Gc3は、画像データそのもの、又は3D画像生成用データとして記憶される。また前記破壊対象画像データA1(A2),B,Cは、その物体を撮影した画像データそのもの、又は同物体の特徴を示す形状データとして記憶される。
図6は、前記デジタルカメラ10の変身役柄データメモリ24に記憶される変身役柄データの内容を示す図である。
この変身役柄データメモリ24は、ユーザ登録される変身対象画像データ24T、変身(1)画像データ24Gwと変身(1)マークデータ24Mw、変身(2)画像データ24Gw′と変身(2)マークデータ24Mw′、変身条件データ24Hの記憶領域を有し、変身(1)画像データ24Gwの記憶領域には、複数種類の第1段階の変身画像データ(変身キャラクタ)およびその音声データが、例えば怪獣Aの変身(1)画像データ24Gw1およびその音声データ「ガオー」24Sw1、怪獣Bの変身(1)画像データ24Gw2およびその音声データ「ギャーギャー」24Sw2として記憶される。また、変身(1)マークデータ24Mwの記憶領域には、前記複数種類の変身(1)画像データ24Gw1,24Gw2をそれぞれ簡易表現する変身(1)マークデータ24Mw1,24Mw2が記憶される。また、変身(2)画像データ24Gw′の記憶領域には、前記複数種類の第1段階の変身画像データ24Gw1,24Gw2にそれぞれ対応する第2段階の変身画像データ24Gw1′,24Gw2′およびその音声データ24Sw1′,24Sw2′が記憶される。また、変身(2)マークデータ24Mw′の記憶領域には、前記変身(2)画像データ24Gw1′,24Gw2′を簡易表現する変身(2)マークデータ24Mw1′,24Mw2′が記憶される。さらに、変身条件データ24Hの記憶領域には、前記第1段階の変身(1)画像データ24Gw1,24Gw2から第2段階の変身(2)画像データ24Gw1′,24Gw2′に変身するための条件データ24H1,24H2が記憶される。
なお、本実施形態では、前記第2段階の変身(2)画像データ24Gw1′,24Gw2′は設定しないので、その変身(2)マークデータ24Mw1′,24Mw2′および変身条件データ24H1,24H2も設定されない。
そして、変身対象画像データ24Tの記憶領域には、前記複数種類の変身画像データ24Gw1,24Gw2にそれぞれ変身させて置き換えるための対象となる人物の顔画像が、例えば父親の顔画像P、母親の顔画像Mとしてユーザ登録され記憶される。
なお、前記変身(1)(2)画像データ24Gw,24Gw′は、様々な動きを表現した画像データそのもの、又は手足の骨格や顔の特徴点の移動データと3D画像生成用データとの組み合わせとして記憶される。
撮影画像データメモリ25には、画像撮影部21により静止画または動画撮影されて入力された撮影画像データGが記憶される。
マーク付き撮影画像データメモリ26には、前記撮影画像データメモリ25に動画撮影されて記憶された撮影画像データGに基づき、前記画像処理プログラムに従い撮影にリアルタイムで生成されたマーク付き撮影画像データGm(図1(A)参照)が順次記憶される。
合成画像データメモリ27には、前記マーク付き撮影画像データメモリ26に生成記憶されたマーク付き撮影画像データGmに基づき、前記画像処理プログラムに従い生成された合成画像データGG(図1(B)参照)が記憶される。
なお、前記構成のデジタルカメラ10は、当該デジタルカメラ10自体により動画撮影される撮影画像データGに基づいて、前記マーク付き撮影画像データGm(図1(A)参照)をリアルタイムに生成表示し、この後に当該マーク付き撮影画像データGmから前記合成画像データGG(図1(B)参照)を生成して表示あるいは外部に出力するものである。これに対し、前記デジタルカメラ10が有する撮影機能以外の前記動画撮影された撮影画像データGからマーク付き撮影画像データGm(図1(A)参照)を生成し、このマーク付き撮影画像データGmから合成画像データGG(図1(B)参照)を生成するための各種の機能を、通信ネットワークN上のサーバ装置30に備えさせ、通信機能付きのデジタルカメラ(通信端末A)10′やPC(通信端末B)40から転送された動画撮影データGに基づき、当該サーバ装置30が前記マーク付き撮影画像データGmおよび合成画像データGGを生成し、前記各通信端末(A)10′,(B)40に応答配信してサービスを提供する構成としてもよい。
図7は、本発明の画像合成装置の実施形態に係るサーバ装置30の電子回路の構成を示すブロック図である。
このサーバ装置30は、コンピュータであるCPU31を備えている。
CPU31は、メモリ32に予め記憶されたシステムプログラム、あるいはCD−ROMなどの外部記録媒体33から光ディスクドライブなどの記録媒体読取部34を介して前記メモリ32に読み込まれたサーバ制御プログラムに従い回路各部の動作を制御する。
CPU31には、前記メモリ32、記録媒体読取部34が接続される他に、通信ネットワークN上の通信端末A(デジタルカメラ)10′や通信端末B(PC)40との間でデータの電送制御を行うための電送制御部35(入力手段)、キーボード・マウスなどの入力部36、LCD表示部37が接続される。
前記メモリ32のプログラムメモリ32Aには、本サーバ装置30の全体の動作を司るシステムプログラム、通信ネットワークN上の各通信端末A(デジタルカメラ)10′や通信端末B(PC)40との通信動作を司る通信制御プログラムが記憶されると共に、当該外部の各通信端末A10′,B40から転送された動画撮影画像データGに基づいて、前述したデジタルカメラ10と同様にマーク付き撮影画像Gmや合成画像GGを生成したり出力(配信)したりするための前記図1を参照して説明した各種の機能を司る画像処理プログラムが予め記憶される。
そして、前記プログラムメモリ32Aに記憶された各種のプログラムは、入力部36からの入力信号、電送制御部35を介した外部の各通信端末A10′,B40からの受信入力信号に応じて起動される。
また、前記メモリ32には、前記図1〜図6を参照して説明したデジタルカメラ10におけるそれと略同一のデータ内容である、変身データメモリ32B、特殊効果データメモリ32C、破壊データメモリ32D、変身役柄データメモリ32E、撮影画像データメモリ32F、マーク付き撮影画像データメモリ32G、合成画像データメモリ32H、およびその他の作業用データメモリなどが備えられる。
これにより、サーバ装置30では、通信ネットワークNに接続された通信端末A(デジタルカメラ)10′や通信端末B(PC)40から転送された動画撮影画像データGに基づき、前記同様のマーク付き撮影画像データGm(図1(A)参照)および合成画像データGG(図1(B)参照)を生成すると共に、前記撮影画像データGの転送元である各通信端末A10′,B40に応答配信してサービスを提供できる。
次に、前記構成のデジタルカメラ10あるいはサーバ装置30による画像合成装置の動作について説明する。
図8は、前記画像合成装置による合成画像出力処理の全体過程を示すフローチャートである。
図9は、前記合成画像出力処理に伴い撮影画像(G)中に存在する人物(P,M,K)・物体(A,B,C)の対象画像を抽出する対象画像抽出処理を示すフローチャートである。
図10は、前記合成画像出力処理に伴い役柄登録された人物画像(P,M)に変身マーク(24Mw)を付加する役柄変身マーク処理を示すフローチャートである。
図11は、前記合成画像出力処理に伴い抽出された物体画像(A,B,C)に破壊マーク(15M,15M′)を付加すると共に対応音声(15S)を出力する破壊マーク処理を示すフローチャートである。
図12は、前記合成画像出力処理に伴い変身モーション(14P)の検出された人物画像(K)に変身マーク(14Mu)を付加すると共に対応音声(14Su)を出力するモーション変身マーク処理を示すフローチャートである。
図13は、前記合成画像出力処理に伴い特殊効果モーション(23P)の検出された人物画像(K)に特殊効果マーク(23Gu)を付加すると共に対応音声(23Su)を出力する特殊効果マーク処理を示すフローチャートである。
図14は、前記合成画像出力処理に伴い変身マーク(24Mw)(14Mu)の付加された人物画像(P)(K)を変身画像(24Gw)((14Gu)に置き換え合成すると共に対応音声(24Sw)(14Su)の出力を設定する変身マーク合成処理を示すフローチャートである。
図15は、前記合成画像出力処理に伴い破壊マーク(15M,15M′)の付加された物体画像(A,B)を破壊画像(15G)に置き換え合成すると共に対応音声(15S)の出力を設定する破壊マーク合成処理を示すフローチャートである。
図16は、前記合成画像出力処理に伴い特殊効果マーク(23Gu)の付加された人物画像(K)の所定位置に特殊効果画像23Guを追加合成すると共に対応音声(23Su)の出力を設定する特殊効果マーク合成処理を示すフローチャートである。
図17〜図25は、前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送り(その1)〜(その9)にして示す図であり、同図(A)は撮影画像Gを示す図、同図(B)はマーク付き撮影画像Gmを示す図、同図(C)は合成画像GGを示す図である。
前記図8における合成画像出力処理のステップS1〜S3の処理は、前記図17(A)〜図25(A)に示すように、動画撮影される各コマの撮影画像(G)が取得されるのに伴い繰り返し実行され、前記図17(B)〜図25(B)に示すようなマーク付き撮影画像(Gm)が生成出力される。
そして、前記図8における合成画像出力処理のステップS4〜S7の処理は、前記図17(B)〜図25(B)に示すように生成された一連のマーク付き撮影画像(Gm)に基づき実行され、前記図17(C)〜図25(C)に示すような合成画像(GG)が生成出力される。
なお、ここでは前記デジタルカメラ10(図2参照)において図8における合成画像出力処理を実行した場合を主体にして説明し、前記サーバ装置30(図7参照)において同合成画像出力処理を実行した場合については、略同じ処理内容となるためその説明を省略する。
デジタルカメラ10の画像撮影部13により、例えば図17(A)〜図25(A)で示すように親子によって演じられる一連のシーンが撮影されると、その撮影画像G1〜G9は順次撮影画像データメモリ25に記憶され保存され(ステップS1)(入力手段)、リアルタイムで図9における対象画像抽出処理へ移行される(ステップSA)。
この対象画像抽出処理は、2通りの方式があり、図9(A)に示す対象画像抽出処理(方式1)では、前記撮影画像データメモリ25に順次保存される撮影画像データGnが作業用メモリに一時転送記憶され(ステップA11)、前回の撮影画像データGn−1と今回の撮影画像データGnとの画像の変化部分がブロック化されて抽出される(ステップA12)。
すると、前記撮影画像データGn上でブロック化された位置情報が、人物や物体である対象画像の位置情報となり、当該撮影画像データGnの付加情報として前記撮影画像データメモリ25に記憶される(ステップA13)。
一方、図9(B)に示す対象画像抽出処理(方式2)では、前記撮影画像データメモリ25に順次保存される撮影画像データGnの付加情報である前記画像撮影部21の距離センサにより取得された被写体までの距離情報が読み出され(ステップA21)、その中で近距離に存在する画像部分がブロック化されて抽出される(ステップA22)。
すると、前記撮影画像データGn上でブロック化された位置情報が、人物や物体である対象画像の位置情報となり、当該撮影画像データGnの付加情報として前記撮影画像データメモリ25に記憶される(ステップA23)。
すなわち、図9(B)で示した対象画像抽出処理(方式2)は、撮影画像データGnの付加情報として被写体までの距離情報が必要になるため、デジタルカメラ10での処理に適し、また、図9(A)で示した対象画像抽出処理(方式1)は、逆に前記撮影画像データGnにおける被写体までの距離情報を必要としないので、サーバ装置30での処理に適している。
このように、前記対象画像抽出処理(ステップSA)により、撮影画像データGnの中に存在する人物画像(P,K)や物体画像(A,B)が抽出されると、図10における役柄変身マーク処理へ移行される(ステップSB)。
この役柄変身マーク処理では、前記対象画像抽出処理により抽出された撮影画像データGnの中の人物画像(P,K)や物体画像(A,B)について、前記変身役柄データメモリ24(図6参照)にユーザ登録された変身対象(顔)画像データ24Tとしての人物画像(PやM)が含まれるか否かが前記顔画像認識処理を用いて識別される(ステップB1)(第2の判断手段)。
ここで、図17(A)〜図25(A)の撮影画像データG1〜G9にそれぞれ示すように、変身対象(顔)画像データ24Tとしての父親の人物画像Pが含まれていることが識別されると(ステップB1(Yes))、前記変身役柄データメモリ24(図6参照)に対応付けられて記憶されている怪獣Aの変身マークデータ24Mw1が読み出されると共に、前記識別された父親の人物画像Pの顔画像認識された位置に対応して付加され、図17(B)〜図25(B)に示すようなマーク付き撮影画像データGm1〜Gm9として作業用データメモリに一時保存されると共に表示部11に表示される(ステップB2)。
なお、前記登録された人物画像Pの顔画像の位置に対応付加される変身マークデータ24Mw1は、当該顔画像に重ねて付加されるか、または当該顔画像の近傍に付加されるかの何れであってもよい。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップB3(Yes))、前記変身役柄データメモリ24(図6参照)に対応付けられて記憶されている音声データ「ガオー」24Sw1が読み出され、同図17(B)〜図25(B)に示すように音声出力部13から出力される(ステップB4)。
すると次に、図11における破壊マーク処理へ移行される(ステップSC)。
この破壊マーク処理では、まず、前記対象画像抽出処理により抽出された撮影画像データGnの中の人物画像(P,K)や物体画像(A,B)について、前記破壊データメモリ15(図5参照)に予め記憶された破壊対象画像データ15Tとしての物体画像(AやBやC)が含まれるか否かが画像認識処理により識別される(ステップC1)。
ここで、図17(A)〜図25(A)の撮影画像データG1〜G9にそれぞれ示すように、破壊対象画像データ15Tとしてのビール瓶A1や紙飛行機Bの物体画像が含まれていることが識別されると(ステップC1(Yes))、当該識別されたビール瓶A1や紙飛行機Bの物体画像は破壊後の状態にあるか否かが、当該各物体画像(A1,B)が転倒状態や反転状態にあるか否かの画像認識によって判断される(ステップC2)。
ここで、例えば図17(A)におけるビール瓶A1あるいは図18(A)における紙飛行機Bで示すように、その各物体画像A1,Bは転倒状態や反転状態にないと画像認識されて破壊後の状態ではないと判断された場合には(ステップC2(No))、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている塔と飛行機の破壊(前)マークデータ15Ma,15Mbが読み出されると共に、前記各物体画像A1,Bの位置に対応して付加され、図17(B)あるいは図18(B)に示すようなマーク付き撮影画像データGm1,Gm2として作業用データメモリに一時保存されると共に表示部11に表示される(ステップC3)。
なお、前記破壊対象の各物体画像A1,Bの位置に対応付加される破壊(前)マークデータ15Ma,15Mbは、当該各物体画像A1,Bに重ねて付加されるか、または当該各物体画像A1,Bの近傍に付加されるかの何れであってもよい。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップC4(Yes))、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている飛行機の破壊(前)画像データ15Gb1の音声データ「ビューン」15Sb1が読み出され、同図18(B)に示すように音声出力部13から出力される(ステップC5)。
すると、前記ステップC3において付加表示された塔や飛行機の破壊(前)マークデータ15Ma,15Mbに対応する部分であるビール瓶A1や紙飛行機Bの破壊対象画像データ(物体画像)の位置が、前記対象画像抽出処理(ステップSA)により撮影画像データGnの付加情報として得られているブロックの位置情報から特定され(ステップC6)、他の対象画像抽出ブロックの画像部分と接触したか否か判断される(ステップC7)。
ここで、例えば図18(A)の撮影画像データG2におけるビール瓶A1の物体画像と父親の人物画像Pとの接触状態、あるいは図19(A)の撮影画像データG3における紙飛行機Bの物体画像と同父親の人物画像Pとの接触状態において示すように、前記特定された破壊対象画像データ(A1やB)の位置が、他の抽出画像部分と接触したと判断された場合には(ステップC7(Yes))、当該接触判断された他の抽出画像部分が前記役柄変身マーク処理(ステップSB)にて変身マークデータ24Mwの付加された人物画像の部分であるか否か判断される(ステップC8)。
この場合、前記接触判断された他の抽出画像部分は、怪獣Aの変身マークデータ24Mw1が付加された父親Pの人物画像部分であると判断されるので(ステップC8(Yes))、図18(B)に示すように、ビール瓶A1の破壊対象画像データに対応する位置には、前記破壊データメモリ15に対応付けられて記憶されている塔の破壊(後)マークデータ15Ma′が読み出されて付加され、マーク付き撮影画像データGm2として作業用データメモリに一時保存されると共に表示部11に表示される(ステップC9)。また同様に、図19(B)に示すように、紙飛行機Bの破壊対象画像データに対応する位置には、前記破壊データメモリ15に対応付けられて記憶されている飛行機の破壊(後)マークデータ15Mb′が読み出されて付加され、マーク付き撮影画像データGm3として作業用データメモリに一時保存されると共に表示部11に表示される(ステップC9)。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップC10(Yes))、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている塔の破壊(中)画像データ15Ga2の音声データ「グシャ」15Saが読み出され、同図18(B)に示すように音声出力部13から出力される(ステップC11)。また同様に、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている飛行機の破壊(中)画像データ15Gb2の音声データ「ドカーン」15Sb2が読み出され、同図19(B)に示すように音声出力部13から出力される(ステップC11)。
この後、当該破壊マーク処理における前記ステップC2において、例えば図19(A)〜図25(A)におけるビール瓶A1、あるいは図20(A)〜図25(A)における紙飛行機Bで示すように、その各物体画像A1,Bは転倒状態や反転状態にあると画像認識されて破壊後の状態であると判断された場合には(ステップC2(Yes))、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている塔と飛行機の破壊(後)マークデータ15Ma′,15Mb′が読み出されると共に、前記各物体画像A1,Bの位置に対応して付加され、図19(B)〜図25(B)あるいは図20(B)〜図25(B)に示すようなマーク付き撮影画像データGm3〜Gm9あるいはGm4〜Gm9として作業用データメモリに一時保存され表示部11に表示される(ステップC12)。
すると次に、図12におけるモーション変身マーク処理へ移行される(ステップSD)。
このモーション変身マーク処理では、前記対象画像抽出処理により抽出される一連の撮影画像データGnの中の人物画像(P,K)や物体画像(A,B)について、前記変身データメモリ14(図3参照)に予め記憶された○○マンAの一連の変身モーションモデルデータ14P1a〜14P1cや初代○○マンの一連の変身モーションモデルデータ14P2a〜14P2cと一致する画像部分が検出されたか否か判断される(ステップD1)(第1,第3の判断手段)。
ここで、図20(A)〜図22(A)の撮影画像データG4〜G6に順次示すように、前記対象画像抽出処理により抽出される一連の子供の人物画像Kについて、前記変身データメモリ14(図3参照)に予め記憶された○○マンAの一連の変身モーションモデルデータ14P1a〜14P1cと身振りが一致する画像部分であると検出されると(ステップD1(Yes))、当該変身データメモリ14(図3参照)に対応付けられて記憶されている○○マンAの変身マークデータ14Mu1が読み出されると共に、前記モーション検出された子供の人物画像Kの顔画像認識された位置に対応して付加され、図22(B)〜図25(B)に示すようなマーク付き撮影画像データGm6〜Gm9として作業用データメモリに一時保存され表示部11に表示される(ステップD2)。
なお、前記モーション検出された人物画像Kの顔画像の位置に対応付加される変身マークデータ14Mu1は、当該顔画像に重ねて付加されるか、または当該顔画像の近傍に付加されるかの何れであってもよい。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップD3(Yes))、前記変身データメモリ14(図3参照)に対応付けられて記憶されている○○マンAの音声データ「シュワッチ」14Su1が読み出され、同図22(B)〜図25(B)に示すように音声出力部13から出力される(ステップD4)。
すると次に、図13における特殊効果マーク処理へ移行される(ステップSE)。
この特殊効果マーク処理では、前記対象画像抽出処理により抽出される一連の撮影画像データGnの中の人物画像(P,K)や物体画像(A,B)について、前記特殊効果データメモリ23(図4参照)に予め記憶された特殊効果Aの一連の変身モーションモデルデータ23P1a〜23P1cや特殊効果Bの一連の変身モーションモデルデータ23P2a〜23P2cと一致する画像部分が検出されたか否か判断される(ステップE1)。
ここで、図23(A)〜図25(A)の撮影画像データG7〜G9に順次示すように、前記対象画像抽出処理により抽出される一連の子供の人物画像Kについて、前記特殊効果データメモリ23(図4参照)に予め記憶された特殊効果Aの一連の変身モーションモデルデータ23P1a〜23P1cと身振りが一致する画像部分であると検出されると(ステップE1(Yes))、当該特殊効果データメモリ23(図4参照)に対応付けられて記憶されている特殊効果Aの特殊効果マークデータ23Mu1が読み出されると共に、前記モーション検出された子供の人物画像Kの所定位置(例えば画像上部から3分の1の位置)に対応して前記怪獣Aの変身マークデータ24Mw1が付加されている人物画像(父親)Pの方向へ向けて付加され、図25(B)に示すようなマーク付き撮影画像データGm9として作業用データメモリに一時保存され表示部11に表示される(ステップE2)。
なお、前記モーション検出された人物画像Kの所定位置に対応付加される特殊効果マークデータ24Mu1は、当該人物画像Kに重ねて付加されるか、または当該人物画像Kの近傍に付加されるかの何れであってもよい。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップE3(Yes))、前記特殊効果データメモリ23(図4参照)に対応付けられて記憶されている特殊効果Aの音声データ「ビビビビー」23Su1が読み出され、同図25(B)に示すように音声出力部13から出力される(ステップE4)。
すると、前記図17(B)〜図25(B)で示したように、前記ステップSA〜SEの処理に従い作業用データメモリ上に生成されたマーク付きの連続した撮影画像データGm1〜Gm9がマーク付き撮影画像データメモリ26に記憶され保存される(ステップS2)。
そして、画像撮影部21からの一連の撮影画像データG1〜G9の撮影入力が終了したと判断されると(ステップS3(Yes))、前記マーク付き撮影画像データメモリ26に生成保存された一連のマーク付き撮影画像データGm1〜Gm9に基づく合成画像の生成処理に進むか否か判断される(ステップS4)。
ここで、入力部12に対する合成画像生成のためのユーザ操作に応じて、あるいは前記一連の撮影画像データの取得終了に伴い自動的に、合成画像の生成処理に進むと判断されると(ステップS4(Yes))、前記マーク付き撮影画像データメモリ26から前記一連のマーク付き撮影画像データGm1〜Gm9が作業用メモリに読み出され、図14における変身マーク合成処理へ移行される(ステップSF)(合成手段)。
この変身マーク合成処理では、まず、前記マーク付き撮影画像データメモリ26から作業用メモリに読み出されたマーク付き撮影画像データGm1〜Gm9について、前記変身役柄データメモリ24(図6参照)に予め記憶されている変身マークデータ24Mwや前記変身データメモリ14(図3参照)に予め記憶されている変身マークデータ14muが付加された画像が含まれているか否か判断される(ステップF1)。
ここで、図17(B)〜図25(B)で示すように怪獣Aの変身マークデータ24Mw1が付加された画像、また、図22(B)〜図25(B)で示すように○○マンAの変身マークデータ14Mu1が付加された画像が存在すると判断された場合には(ステップF1(Yes))、当該各変身マークデータ24Mw1,14Mu1が対応付加されている該マーク近傍の人物画像P,Kの位置が、前記対象画像抽出処理(ステップSA)により撮影画像データGnの付加情報として得られているブロックの位置情報から特定される(ステップF2)。
すると、前記特定された人物画像P,Kがモーションキャプチャ処理され、変身役柄データメモリ24(図6参照)に記憶されている前記怪獣Aの変身マークデータ24Mw1に対応するところの変身(1)画像データ24Gw1、変身データメモリ14(図3参照)に記憶されている前記○○マンAの変身マークデータ14Mu1に対応するところの変身画像データ14Gu1に基づき、図17(C)〜図25(C)に示すように当該人物画像(父親)Pと同じポーズ(姿勢)の怪獣Aの変身画像データ24Gw1、図22(C)〜図25(C)に示すように当該人物画像(子供)Kと同じポーズ(姿勢)の○○マンAの変身画像データ14Gu1にそれぞれ予め設定された背景画像BG上で置き換えられて合成され、合成画像データGG1〜GG9,GG6〜GG9が生成される(ステップF3)。
なおこの際、前記図22(C)の矢印xで示すように、人物画像(子供)Kと同じポーズ(姿勢)の○○マンAの変身画像データ14Gu1は拡大処理されて置き換え合成される。
そして、前記変身役柄データメモリ24(図6参照)に対応付けられて記憶されている怪獣Aの音声データ「ガオー」24Sw1が読み出され、前記図17(C)〜図25(C)に示すように生成された合成画像GG1〜GG9に対応付けられて保存され、また、前記変身データメモリ14(図3参照)に対応付けられて記憶されている○○マンAの音声データ「シュワッチ」14Su1が読み出され、前記図22(C)〜図25(C)に示すように生成された合成画像GG6〜GG9に対応付けられて保存される(ステップF4)。
すると次に、図15における破壊マーク合成処理へ移行される(ステップSG)。
この破壊マーク合成処理では、まず、前記マーク付き撮影画像データメモリ26から作業用メモリに読み出されたマーク付き撮影画像データGm1〜Gm9について、前記破壊データメモリ15(図5参照)に予め記憶されている破壊(前)マークデータ15Mや破壊(後)マークデータ15M′が付加された画像が含まれているか否か判断される(ステップG1)。
ここで、図17(B)〜図25(B)で示すように塔の破壊(前/後)マークデータ15Ma/15Ma′が付加された画像、また、図18(B)〜図25(B)で示すように飛行機の破壊(前/後)マークデータ15Mb/15Mb′が付加された画像が存在すると判断された場合には(ステップG1(Yes))、当該各破壊(前/後)マークデータ15Ma/15Ma′や15Mb/15Mb′が対応付加されている該マーク近傍の破壊対象画像データ(ビール瓶)A1,(紙飛行機)Bの位置が、前記対象画像抽出処理(ステップSA)により撮影画像データGnの付加情報として得られているブロックの位置情報から特定される(ステップG2)。
そして、前記特定された破壊対象画像データ(ビール瓶)A1,(紙飛行機)Bの位置が、前記対象画像抽出処理(ステップSA)により抽出されている他の対象画像抽出ブロックの画像部分と接触したか否か判断される(ステップG3)。
ここで、例えば図17(B)のマーク付き撮影画像データGm1における破壊対象画像データ(ビール瓶)A1、あるいは図18(B)のマーク付き撮影画像データGm2における破壊対象画像データ(紙飛行機)Bにおいて示すように、当該特定された破壊対象画像データ(A1やB)の位置が、他の抽出画像部分と接触してないと判断された場合には(ステップG3(No))、該特定されたビール瓶A1や紙飛行機Bの破壊対象画像データは破壊後の状態にあるか否かが、当該各物体画像(A1,B)が転倒状態や反転状態にあるか否かの画像認識によって判断される(ステップG4)。
ここで、例えば図17(B)におけるビール瓶A1あるいは図18(B)における紙飛行機Bで示すように、その各物体画像A1,Bは転倒状態や反転状態にないと画像認識されて破壊後の状態ではないと判断された場合には(ステップG4(No))、その特定されたビール瓶A1あるいは紙飛行機Bの破壊対象画像データが、図17(C)に示すように破壊データメモリ15(図5参照)に記憶されている前記塔の破壊(前)マークデータ15Maに対応するところの破壊(前)画像データ15Ga1、あるいは図18(C)に示すように破壊データメモリ15(図5参照)に記憶されている前記飛行機の破壊(前)マークデータ15Mbに対応するところの破壊(前)画像データ15Gb1にそれぞれ予め設定された背景画像BG上で置き換えられて合成され、合成画像データGG1,GG2が生成される(ステップG5)。
そして、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている飛行機の破壊前音声データ「ビューン」15Sb1が読み出され、前記図18(C)に示すように生成された合成画像GG2に対応付けられて保存される(ステップG6)。
一方、例えば図18(B)のマーク付き画像データGm2における破壊対象画像データ(ビール瓶)A1と人物画像(父親)Pとの接触状態、あるいは図19(B)のマーク付き撮影画像データGm3における破壊対象画像データ(紙飛行機)Bと人物画像(父親)Pとの接触状態において示すように、当該特定された破壊対象画像データ(A1やB)の位置が、他の抽出画像部分と接触したと判断された場合には(ステップG3(Yes))、その特定されたビール瓶A1あるいは紙飛行機Bの破壊対象画像データが、図18(C)に示すように破壊データメモリ15(図5参照)に記憶されている前記塔の破壊(後)マークデータ15Ma′に対応するところの破壊(中)画像データ15Ga2、あるいは図19(C)に示すように破壊データメモリ15(図5参照)に記憶されている前記飛行機の破壊(後)マークデータ15Mb′に対応するところの破壊(中)画像データ15Gb2にそれぞれ予め設定された背景画像BG上で置き換えられて合成され、合成画像データGG2,GG3が生成される(ステップG8)。
そして、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている塔の破壊音データ「グシャ」15Saが読み出され、前記図18(C)に示すように生成された合成画像GG2に対応付けられて保存され、また飛行機の破壊音データ「ドカーン」15Sb2が読み出され、前記19(C)に示すように生成された合成画像GG3に対応付けられて保存される(ステップG9)。
一方、例えば図19(B)〜図25(B)のマーク付き撮影画像データGm3〜Gm9における破壊対象画像データ(ビール瓶)A1、あるいは図20(B)〜図25(B)のマーク付き撮影画像データGm4〜Gm9における破壊対象画像データ(紙飛行機)Bにおいて示すように、当該特定された破壊対象画像データ(A1やB)の位置が、他の抽出画像部分と接触してないと判断された場合であっても(ステップG3(No))、その各破壊対象画像データA1,Bは転倒状態や反転状態にあると画像認識されて破壊後の状態であると判断された場合には(ステップG4(Yes))、当該特定されたビール瓶A1あるいは紙飛行機Bの破壊対象画像データは、同図19(B)〜図25(B)に示すように破壊データメモリ15(図5参照)に記憶されている前記塔の破壊(後)マークデータ15Ma′に対応するところの破壊(後)画像データ15Ga3、あるいは同図20(B)〜図25(B)に示すように破壊データメモリ15(図5参照)に記憶されている前記飛行機の破壊(後)マークデータ15Mb′に対応するところの破壊(後)画像データ15Gb3にそれぞれ予め設定された背景画像BG上で置き換えられて合成され、合成画像データGG3〜GG9あるいはGG4〜GG9が生成される(ステップG10)。
すると次に、図16における特殊効果マーク合成処理へ移行される(ステップSH)。
この特殊効果マーク合成処理では、まず、前記マーク付き撮影画像データメモリ26から作業用メモリに読み出されたマーク付き撮影画像データGm1〜Gm9について、前記特殊効果データメモリ23(図4参照)に予め記憶されている特殊効果マークデータ23Muが付加された画像が含まれているか否か判断される(ステップH1)。
ここで、図25(B)で示すように特殊効果Aの特殊効果マークデータ23Mu1が付加された画像Gm9が存在すると判断された場合には(ステップH1(Yes))、当該特殊効果マークデータ23Mu1が対応付加されている該マーク近傍の人物画像(子供)Kの位置が、前記対象画像抽出処理(ステップSA)により撮影画像データGnの付加情報として得られているブロックの位置情報から特定される(ステップH2)。
すると、前記特殊効果データメモリ23(図4参照)の特殊効果マークデータ23Mu1に対応付けられて記憶されている特殊効果画像データ23Gu1が読み出され、前記特定された人物画像(子供)Kの所定位置(例えば画像上部から3分の1の位置)に対応して前記怪獣Aの変身マークデータ24Mw1が付加されている人物画像(父親)Pの方向へ向けて追加合成され、合成画像データGG9が生成される(ステップH3)。
さらに、前記人物画像(子供)Kの所定位置に追加合成された特殊効果画像データ23Gu1は、その先端部の爆発効果画像部分23Gu1′が前記人物画像(父親)Pに対応する怪獣Aの変身(1)画像データ24Gw1に到達する位置まで延長されて追加合成され、合成画像データGG9が生成される(ステップH4)
そして、前記特殊効果データメモリ23(図4参照)に対応付けられて記憶されている特殊効果Aの音声データ「ビビビビー」23Su1が読み出され、前記図25(C)に示すように生成された合成画像GG9に対応付けられて保存される(ステップH5)。
すると、前記図17(C)〜図25(C)で示したように、前記ステップSF〜SHの処理に従い作業用データメモリ上に生成された一連の合成画像データGG1〜GG9が合成画像データメモリ27に記憶され保存される(ステップS6)。
そして、前記合成画像データメモリ27に記憶された一連の合成画像データ(対応付けられた音声データを含む)GG1〜GG9が、前記図17(C)〜図25(C)で示すように、表示部11により再生表示されると共に音声出力部13により再生出力される(ステップS7)。なお、本画像合成装置がサーバ装置30(図7参照)として構成されている場合には、前記ステップS1において受信された一連の撮影画像データG1〜G9の送信元である通信ネットワークN上の通信端末A(デジタルカメラ)10′や通信端末B(PC)40に対して、前記合成画像データメモリ27に記憶された一連の合成画像データ(対応付けられた音声データを含む)GG1〜GG9が読み出されて応答送信される(ステップS7)。
したがって、前記構成のデジタルカメラ10あるいはサーバ装置30による画像合成装置によれば、画像撮影部21により動画撮影された一連の撮影画像データGnが入力されると、当該撮影画像データGnに含まれる人物画像(P,K)が抽出され、予め設定されたモーション(身振り)をしている人物画像(K)の有無が検出される。そして、撮影画像データGnに含まれる予め設定されたモーション(身振り)をしている人物画像(K)が検出されると、当該設定モーションのモデルデータ14Pに対応付けられて変身データメモリ14に記憶されている例えば○○マンAの3D画像生成用の変身画像データ14Gu1に基づき、前記撮影画像データGnの人物画像(K)がそのモーションを同じにした変身画像データ14Gu1に置き換えられた合成画像データGGnとして生成出力されるので、前記動画撮影に際して被写体となる人物がアニメのヒーローなどに変身するためのモーション(身振り)をするだけで、その変身モーション以降から当該被写体の人物画像を前記ヒーローの画像に置き換えた合成画像を容易に生成することができる。
よって、動画撮影された人物画像について、対象人物の意志に従い他のキャラクタ画像に変化(変身)していく一連のシーンとなる合成画像を手軽に作成することができる。
これにより、例えばユーザ家族において子供をヒーロー役にした動画撮影を行えば、容易に特撮風の合成動画像GGnを作ることができ、当該生成された合成動画像GGnを表示部11に出力表示させて見たり、外部のモニタに出力表示させて見たりすることで、これまでにない楽しみを得ることができる。
また、前記構成のデジタルカメラ10あるいはサーバ装置30による画像合成装置によれば、被写体となる人物画像(K)の予め設定されたモーション(身振り)を検出して、これに対応する例えば○○マンAの変身画像データ14Gu1に前記人物画像(K)を置き換え合成した合成画像GGnを生成した際には、前記変身データメモリ14に記憶されている当該変身画像データ14Gu1の音声データ「シュワッチ」14Su1を、前記合成画像GGnに対応付けて保存し出力させるので、容易且つよりリアルに特撮風の合成動画像GGnを作ることができる。
また、前記構成のデジタルカメラ10による画像合成装置によれば、前記動画撮影中に表示部11にリアルタイムに表示される撮影画像データGnについて、前記予め設定されたモーション(身振り)の人物画像(K)が検出された際には、当該人物画像(K)に対して例えば○○マンAの変身画像データ14Gu1への変身対象となったことを示す変身マークデータ14Mu1を付加したマーク付き撮影画像データGmnとして表示部11に表示させ、しかも前記変身画像データ14Gu1の音声データ「シュワッチ」14Su1も共に音声出力部13から出力させるので、例えば撮影操作中の家族は、被写体の人物画像(子供)Kがその役柄通りに変身され置き換え処理されていることを容易に認識することができ、またこれを演じている最中の被写体自身(子供K)にあっても、自らがその役柄通りに変身処理されていることを音声により容易に認識することができる。
前記実施形態では、撮影画像データGnから対象画像として抽出される人物画像(K)の予め設定されたモーション(身振り)を検出するための変身モーションモデルデータ14Pと、これに対応する変身マークデータ14Muおよび変身画像データ14Guとを、変身データメモリ14により予め記憶する構成としたが、通信ネットワークN上のサーバ装置30(この場合はサービスサイトのデータ提供サーバ)から変身画像データ(変身キャラクタ)の好みの種類を選択してダウンロードし、変身データメモリ14として新たに記憶させ前記同様に機能させる構成としてもよい。
なお、前記実施形態において記載した画像合成装置による各処理の手法、すなわち、図8のフローチャートに示す合成画像出力処理、図9のフローチャートに示す前記合成画像出力処理に伴う対象画像抽出処理、図10のフローチャートに示す前記合成画像出力処理に伴う役柄変身マーク処理、図11のフローチャートに示す前記合成画像出力処理に伴う破壊マーク処理、図12のフローチャートに示す前記合成画像出力処理に伴うモーション変身マーク処理、図13のフローチャートに示す前記合成画像出力処理に伴う特殊効果マーク処理、図14のフローチャートに示す前記合成画像出力処理に伴う変身マーク合成処理、図15のフローチャートに示す前記合成画像出力処理に伴う破壊マーク合成処理、図16のフローチャートに示す前記合成画像出力処理に伴う特殊効果マーク合成処理等の各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶媒体18(33)に格納して配布することができる。そして、変身データ14(32B)、特殊効果データ23(32C)、破壊データ15(32D)、変身役柄データ24(32E)をメモリ17(32)に記憶した種々のコンピュータ端末は、この外部記憶媒体18(33)に記憶されたプログラムをプログラムメモリ22(32A)に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記実施形態において説明した動画撮影画像データGnからの変身画像を用いた合成画像GGnの作成・出力機能を実現し、前述した手法による同様の処理を実行することができる。
また、前記実施形態の各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末(プログラムサーバ)から前記のプログラムデータを取り込み、前述した動画撮影画像データGnからの変身画像を用いた合成画像GGnの作成・出力機能を実現することもできる。
この実施例は、前記実施形態で説明した画像合成装置の具体例の範囲内で、本発明の画像合成装置の主要な部分を簡潔に纏めた例として説明する。
技術的内容は、前記実施形態の内容と同様である。
図26は、本実施例に係るデジタルカメラ50を利用した撮影状態を示す図であり、図27A、及び、図27Bは、表示部51に表示される状態を示す図、及び、撮影後、表示部51に表示される合成画像を示す図である。
デジタルカメラ50は、その背面にLCD表示部51、入力部52、音声出力部(スピーカ)53を備え、入力部52の操作に応じて撮影される撮影画像データGnは、リアルタイムで表示部51に表示される。
そして、演者Poが物体Aoを倒し、飛んで来る物体Boを叩き落とし、演者Koが予め登録された身振りをするシーンをデジタルカメラ50が動画として撮影し、記録する。
時間的に連続して撮影された複数の撮影画像データGnは、図27Aに示すように、リアルタイムで表示部51に表示される。そしてこれと同時に複数の撮影画像データが解析され、演者Poに対応する画像データには置換画像データ64Gwが合成されることを示すマークデータ64Mwが付加されて表示され、演者Koに対応する画像データについては予め設定された身振りが検出されると、置換画像データ54Guが合成されること示すマークデータ54Muが付加されて表示される。
また、物体Aoに対応する画像データには置換画像データ(接触前)55Gaが合成されることを示すマークデータ(接触前)55Maが付加されて表示され、物体画像データBoには置換画像データ(接触前)55Gbが合成されることを示すマークデータ(接触前)55Mbが付加されて表示される。
また撮影時には、夫々のマークデータに対応付けられて予め記憶されている音声データが読み出されて、音声出力部53から出力される。
なお、以降の説明において、撮影された動画にマークデータ64Mw、マークデータ54Mu、マークデータ55Ma,及び、マークデータ55Mbが付加されたものをマーク付き撮影画像Gmと称する。
また、撮影後、マーク付き撮影画像データGmにおいてマークデータ64Mw、54Mu、55Ma、及び、55Mbが付加された各画像データ(置換対象画像データ)は、夫々図27Bに示すような、置換画像データ64Gw、置換画像データ54Gu、置換画像データ55Ga,置換画像データ55Gbに置換され、そして、置換画像データ64Gw、置換画像データ54Guについては、演者KoやPoの動きをキャプチャーした動画として生成され、これらが、背景画像データBGに合成された合成動画像データGGが生成される。
なお、詳細は後述するが、デジタルカメラ50は物体Aoに対応する置換対象画像データや物体Boに対応する置換対象画像データが演者PoやKoに対応する置換対象画像データと接触したことを画像解析により検知すると、マークデータ(接触前)55Ma,及び、マークデータ(接触前)55Mbを、夫々マークデータ55(接触後)Ma’、マークデータ55(接触後)Mb’に差し替えるとともに、置換画像データ(接触前)55Ga,置換画像データ(接触前)55Gbについても接触後に対応した置換画像データ(接触後)55Ga’、 置換画像データ(接触後)55Gb’に置き換えられて合成される。
図28は、デジタルカメラ50の電子回路の構成を示すブロック図である。
このデジタルカメラ50は、コンピュータであるCPU56を備えている。
CPU56は、メモリ57に予め記憶されたシステムプログラム、あるいはメモリカードなどの外部記録媒体58からカードスロットなどの記録媒体読取部59を介してメモリ57に読み込まれたカメラ制御プログラム、あるいは通信ネットワーク(N)上のサーバ装置70から電送制御部60を介してメモリ57に読み込まれたカメラ制御プログラムに従い回路各部の動作を制御する。
また、CPU56は、主に以下の機能を処理する処理部を備えている。
・時間的に連続する複数の撮影画像データGnにわたって、特定のモーションを行う演者Koを変化している物体として認識し置換対象画像データとして、また、物体Ao、Bo、及び、演者Poを画像解析により認識し置換対象画像データとして連続的に抽出する抽出処理部561;
・置換対象画像データが予め登録されたものであるか否かをその画像データの特徴部分や形状を認識して判断する第1の判断処理部562;
・予め登録されたものであると判断した場合、複数の撮影画像データのその置換対象画像データに対応付けて、マークデータを付加して表示する第1のマーキング処理部563;
・予め登録されたものであると判断した場合、その置換対象となる画像が最適な視角状態で撮影されたもの否かを判断し、この判断結果に基づいて、異なるマークデータを付加して表示する第2のマーキング処理部564;
・複数の撮影画像データにおいて、抽出処理された置換対象画像データと他の抽出された置換対象画像データとの位置関係(より具体的には、抽出処理された置換対象画像データと他の抽出された置換対象画像データとが接触或いは重なるか否か)を判断する第2の判断処理部565;
・接触或いは重なると判断した場合、マークデータを差し替えて付加し表示する第3のマーキング処理部566;
・抽出処理された、又はマーキング処理された置換対象画像データの、複数の撮影画像データGnにおける動き(モーション)が、予め登録されたものと略同一であるか否かを判断する第3の判断処理部567;(第1,第3の判断手段)
・予め登録されたものであると判断した場合、マークデータを付加して表示する第4のマーキング処理部568;
・マークデータが付加された複数の撮影画像データについて、置換対象画像データをマークデータに対応する置換画像データに置き換える置換処理部569;(合成手段)
・置換対象画像データの動きをキャプチャーし、置換画像データを三次元的に動かした動画データを生成する動画生成処理部570;(動画データ作成手段)
・生成された動画データを含む合成動画データを生成する合成動画生成処理部571;(合成手段)
これらの処理部561〜571の処理プログラムは、予め画像処理プログラム62に記憶されており、必要に応じてCPU56にロードされる。また、画像データの監視処理、画像認識処理、キャプチャー処理、及び、三次元化処理については、予め画像処理プログラムに記憶されており、適宜ロードされる。
尚、プログラムメモリ62には、デジタルカメラ50の全体の動作を司るシステムプログラムや撮影動作を司るカメラ制御プログラム、通信ネットワークN上のサーバ装置70や外部のPC(personal computer)80との通信動作を司る通信制御プログラム、音声出力処理プログラムが記憶され、そして、入力部52からのキー入力信号や画像撮影部61(入力手段)からの撮影入力信号、電送制御部60を介した外部機器(70,80)からの入力信号に応じてロードされる。
また、CPU56には、LCD表示部51、入力部52、音声出力部53、メモリ57、記録媒体読取部59、電送制御部60が接続される他に、固体撮像素子(CCD)や撮像光学系および距離センサや照度センサを備えた画像撮影部6lが接続される。
メモリ57には、変身データメモリ54(第1の記憶手段)、特殊効果データメモリ63(第3の記憶手段)、破壊データメモリ55(第2の記憶手段)、変身役柄データメモリ64(第2の記憶手段)、撮影画像データメモリ65、マーク付き撮影画像データメモリ66、合成画像データメモリ67、およびその他の作業用データメモリなどが備えられる。
尚、デジタルカメラ50において、演者Poに対応する置換対象画像データの顔部分64Tは置換画像データ64Gwと対応付けて変身役柄データメモリ64に予め記憶される。
また、置換対象画像データ55Tはそれぞれ置換画像データ55Gaと対応付けて、破壊データメモリ55に予め記憶される。
図29は、変身データメモリ54に予め記憶されるデータの内容を示す図である。
この変身データメモリ54には、記憶領域54a、54b夫々に、モーションデータ54P、置換画像データ54Gu、マークデータ54Mu、及び、音声データ54Suが対応付けて記憶される。
また、マークデータ54Muの記憶領域には、複数種類の置換画像データ54Gu1,54Gu2をそれぞれ簡易表現したマークデータ54Mu1,54Mu2が記憶される。
そして、モーションデータ54Pの記憶領域には、置換画像データ54Gu1,54Gu2を読み出すための一連のモーション(身振り)からなるモーションデータ54P1a〜54P1c,54P2a〜54P2cが記憶される。
なお、置換画像データ54Gu1,54Gu2は、人物の手足の骨格や顔の特徴点の移動データと対応付けられて様々な動きを表現した、3D画像生成用データが記憶される。
またモーションデータ54P1a〜54P1c,54P2a〜54P2cは、このモーションで動いた人物の手足の骨格や顔の特徴点の移動データと画像データとが記憶される。
図30は、特殊効果データメモリ63に予め記憶されるデータの内容を示す図である。
この特殊効果データメモリ63には、記憶領域63a、63b夫々に、モーションデータ63P、置換画像データ63Gu、マークデータ63Mu、及び、音声データ63Suが対応付けて記憶される。
マークデータ63Muの記憶領域には、複数種類の置換画像データ63Gu1,63Gu2をそれぞれ簡易表現したマークデータ63Mu1,63Mu2が記憶される。
モーションデータ63Pの記憶領域には、置換画像データ63Gu1,63Gu2のそれぞれを、置換画像データ54Gu1,54Gu2の所定の位置に合成するための一連のモーション(身振り)からなるモーションデータ63P1a〜63P1c,63P2a〜63P2cが記憶される。
なお、置換画像データ63Gu1,63Gu2は、画像データそのもの、又は3D画像生成用データとして記憶される。
またモーションデータ63P1a〜63P1c,63P2a〜63P2cは、このモーションで動いた人物の手足の骨格や顔の特徴点の移動データと画像データとが記憶される。
図31は、破壊データメモリ55に予め記憶されるデータの内容を示す図である。
この破壊データメモリ55は、記憶領域55a〜55c夫々に、置換対象画像データ55T、置換画像データ55G(第2の合成画像データ)、マークデータ(接触前)55M、マークデータ(接触後)55M′、及び、音声データ55Sを対応付けて記憶し、置換画像データ55Gの記憶領域には、例えば接触前,接触時,接触後の各置換画像データ55Ga1〜55Ga3が記憶される。
また、音声データ55Sについては、音声データ55Saは接触時を出力タイミングとして、音声データ55Sb1は接触前を出力タイミングとして、音声データ55Sb2は接触時を出力タイミングとして、音声データ55Scは接触後を出力タイミングとして夫々設定されている。
マークデータ(接触前)55Mとマークデータ55M′(接触後)の各記憶領域には、例えば、記憶領域55aについては、置換画像データ55Ga1を簡易表現するマークデータ55Ma、置換画像データ55Ga3を簡易表現するマークデータ55Ma’が記憶される。そして、置換対象画像データ55Tの記憶領域は、例えば、記憶領域55aには、置換画像データ55Ga1〜55Ga3の置き換え対象となる置換対象画像データ(例えば物体Aoの画像データ)の最適な視角状態が記憶される。
なお、置換画像データ55Ga1〜55Ga3,55Gb1〜55Gb3,55Gc1〜55Gc3は、画像データそのもの、又は3D画像生成用データとして記憶される。
また置換対象画像データ55Tは、その物体を撮影した画像データそのもの、又は同物体の特徴を示す形状データとして記憶される。
図32は、変身役柄データメモリ64に記憶される内容を示す図である。
この変身役柄データメモリ64は、記憶領域64a、64b夫々にユーザが任意に登録することができる置換対象画像データ64T、置換画像データ(1)64Gw、マークデータ(1)64Mw、置換画像データ(2)64Gw′、マークデータ(2)64Mw′及び、音声データ64Sが対応付けて記憶される
置換画像データ(1)64Gwの記憶領域には、例えば、記憶領域64aの場合、複数種類の第1段階の置換画像データ64Gw1が記憶される。
マークデータ(1)64Mwの記憶領域には、例えば、記憶領域64aの場合、置換画像データ64Gw1を簡易表現したマークデータ64Mw1が記憶される。
置換画像データ(2)64Gw′の記憶領域には、例えば、記憶領域64aの場合、第1段階の置換画像データ64Gw1に対応する第2段階の置換画像データ64Gw1′が記憶される。
マークデータ(2)64Mw’の記憶領域には、例えば、記憶領域64aの場合、置換画像データ64Gw1’を簡易表現したマークデータ64Mw1’が記憶される。
置換対象画像データ64Tの記憶領域には、置換画像データ64Gw1,64Gw2の置き換え対象となる演者の顔画像データが登録される。
音声データ64Sの記憶領域には、例えば、記憶領域64aの場合、置換画像データ64Gw1及びマークデータ64Mw1と対応付けて音声データ64Sw1が記憶され、置換画像データ64Gw1’及びマークデータ64Mw1’と対応付けて音声データ64Sw1’が記憶される。
この音声データ64Sは、マーク付き撮影画像データGmが表示されるとき、及び、合成動画像データGGが表示されるときに音声出力部53から出力される。
また、置換画像データ64Gw,64Gw′は、様々な動きを表現した画像データそのもの、又は手足の骨格や顔の特徴点の移動データと3D画像生成用データとの組み合わせとして記憶される。
尚、本実施例では詳述はしないが、第1段階の置換画像データ64Gwから第2段階の置換画像データ64Gw’への表示(合成)の変化は任意に設定できる。例えば、撮影した日付や時間に応じて変化させても良いし、合成画像データとして再生表示した日付や時間に応じて変化させても良い。
また、認識対象画像データ(顔画像部分)について事前に複数種の表情の顔画像を登録しておき、例えば、穏やかな表情には置換画像データ64Gw、怒った表情には置換画像データ64Gw’を読み出して合成するようにしても良い。
撮影画像データメモリ65には、画像撮影部61により時間的に連続して撮影された複数の撮影画像データGnが記憶される。
マーク付き撮影画像データメモリ66には、撮影画像データメモリ65に記憶された複数の撮影画像データGnについて、画像処理プログラムに従い撮影にリアルタイムで生成されたマーク付き撮影画像データGm(図27A参照)が順次記憶される。
合成画像データメモリ67には、マーク付き撮影画像データメモリ66に生成記憶されたマーク付き撮影画像データGmに基づき、画像処理プログラムに従い生成された合成画像データGG(図27B参照)が記憶される。
なお、前記構成のデジタルカメラ50は、画像撮影部61により連続的に撮影される複数の撮影画像データGnにマークデータを付加してマーク付き撮影画像データGm(図27A参照)をリアルタイムに生成して表示し、撮影後に記録されたマーク付き撮影画像データGmから合成画像データGG(図27B参照)を生成して動画として表示するか、この生成された動画をデジタルカメラ50の外部に出力するものである。
また、図33に図示するように、デジタルカメラ50が具備する上記の機能を、通信ネットワークN上のサーバ装置70に備えさせるようにしても良い。
また、このサーバ装置70に、デジタルカメラ110やPC80に通信ネットワークNを介して通信する機能を備えさせ、サーバ装置70にてマーク付き撮影画像データGmおよび合成画像データGGを生成し、デジタルカメラ110,PC80に応答配信してサービスを提供する構成としてもよい。
この場合、サーバ装置70は、コンピュータであるCPU71を備えている。
CPU71は、デジタルカメラ50のCPU56が処理する各処理部561〜571と同等の処理部を備え、且つ、メモリ72に予め記憶されたシステムプログラム、あるいはCD−ROMなどの外部記録媒体73から光ディスクドライブなどの記録媒体読取部74を介してメモリ72に読み込まれたサーバ制御プログラムに従い回路各部の動作を制御する。
また、CPU71には、メモリ72、記録媒体読取部74が接続される他に、通信ネットワークN上のデジタルカメラ110やPC80との間でデータの電送制御を行うための電送制御部75(入力手段)、キーボード・マウスなどの入力部76、LCD表示部77が接続される。
メモリ72のプログラムメモリ72Aには、本サーバ装置70の全体の動作を司るシステムプログラム、デジタルカメラ110やPC80との通信動作を司る通信制御プログラムが記憶されると共に、デジタルカメラ110,PC80から転送された動画撮影画像データGnに基づいて、前述したデジタルカメラ50と同様にマーク付き撮影画像データGmや合成画像データGGを生成したり出力(配信)したりするための各種の機能を司る画像処理プログラムが予め記憶される。
そして、プログラムメモリ72Aに記憶された各種のプログラムは、入力部76からの入力信号、電送制御部75を介したデジタルカメラ110、PC80からの入力信号に応じて起動される。
また、メモリ72には、説明したデジタルカメラ50におけるそれと略同一のデータ内容である、変身データメモリ54、特殊効果データメモリ63、破壊データメモリ55、変身役柄データメモリ64、撮影画像データメモリ65、マーク付き撮影画像データメモリ66、合成画像データメモリ67、およびその他の作業用データメモリなどが備えられる。
これにより、サーバ装置70では、通信ネットワークNに接続されたデジタルカメラ110やPC80から転送された複数の撮影画像データGnに基づき、同様のマーク付き撮影画像データGmおよび合成画像データGGを生成すると共に、撮影画像データGnを送信したデジタルカメラ110、PC80に応答配信するサービスを提供できる。
次に、構成のデジタルカメラ50あるいはサーバ装置70によるCPU56、71の合成画像出力処理について説明する。
図34は、合成画像出力処理の全体過程を示すフローチャートである。
図35は、フローチャートにおけるステップRA、すなわち、撮影画像データGn(G1〜G9)から置換対象画像データを抽出する抽出処理を示すサブフローチャートである。
図36は、フローチャートにおけるステップRB、すなわち、ステップRAにおいて抽出された置換対象画像データにマークデータ64Mwを付加して表示させるマーキング処理Aを示す、サブフローチャートである。
図37は、フローチャートにおけるステップRC、すなわち、ステップRAにおいて抽出された置換対象画像データにマークデータ55M,55M′を付加して表示すると共に音声データ55Sを出力させるマーキング処理Bを示す、サブフローチャートである。
図38は、フローチャートにおけるステップRD、すなわち、ステップRAにおいて抽出された置換対象画像データについて、複数の撮影画像データGnにわたる身振り(モーション)を検出し、このモーションが変身データメモリ54に登録されているモーションデータ54Pと略同一であると判断した場合、その置換対象画像データにマークデータ54Muを付加して表示し、対応する音声データ54Suを出力させるマーキング処理Cを示す、サブフローチャートである。
図39は、フローチャートにおけるステップRE、すなわち、ステップRDにおいてマーキング処理された置換対象画像データについて、複数の撮影画像データGnにわたる身振り(モーション)を検出し、このモーションが特殊効果データメモリ63に登録されているモーション63Pと同じであると判断した場合に、その演者の画像データにマークデータ63Muを更に付加して表示し、対応する音声データ63Suを出力させるマーキング処理Dを示す、サブフローチャートである。
図40は、フローチャートにおけるステップRF(合成手段)、すなわち、合成画像出力処理に伴いマークデータ64Mw、54Muが付加された置換対象画像データを置換画像データ64Gw、54Guに置き換えて合成し、音声データ64Sw、54Suの出力を設定する合成処理Aを示すサブフローチャートである。
図41は、フローチャートにおけるステップRG、すなわち、合成画像出力処理に伴いマークデータ55M,55M′が付加された置換対象画像データを置換画像データ55Gに置き換えて合成し、音声データ55Sの出力を設定する合成処理Bを示すサブフローチャートである。
図42は、フローチャートにおけるステップRH、すなわち、合成画像出力処理に伴いマークデータ63Muが付加された置換対象画像データの所定位置に置換画像データ63Guを追加して合成し、音声データ63Suの出力を設定する合成処理Cを示すサブフローチャートである。
図43〜図51は、合成画像出力処理に伴う撮影画像データGnに基づいた画像処理状態を順次示す図であり、夫々の図において、Aは撮影画像データGnを示す図、Bはマーク付き撮影画像データGmを示す図、Cは合成画像データGGを示す図である。
図34におけるステップR1〜R3の処理は、図43A〜図51Aに示すように、撮影画像データGn(G1〜G9)の取得をトリガーとして実行され、図43B〜図51Bに示すようなマーク付き撮影画像データGm(Gm1〜Gm9)が順次生成出力される。
また、図34におけるステップR4〜R7の処理は、図43B〜図51Bに示すように生成されたマーク付き撮影画像データGmに対して実行され、図43C〜図51Cに示すような合成画像データGG(GG1〜GG9)が生成出力される。
デジタルカメラ50の画像撮影部61により、例えば図43A〜図51Aに示す一連のシーンが撮影されると、複数の撮影画像データGn(G1〜G9)は順次撮影画像データメモリ65に一時的に保存され(ステップR1)(入力手段)、次いで、図35に図示する抽出処理のサブフローチャートが実行処理される(ステップRA)。
・抽出処理
CPU56は、撮影画像データメモリ65に順次保存される撮影画像データGnをCPU56内の作業用メモリに一時転送して記憶する(ステップRA1)。そして、抽出処理部561が、撮影画像データGnの置換対象画像データ55T、64Tを認識し(ステップRA2)、認識された置換対象画像データの撮影画像データGnにおける位置情報を撮影画像データGnに付加し、撮影画像データメモリ65に記憶する(ステップRA3)。
次いで、先に撮影された撮影画像データGn−1と今回の撮影画像データGnとの画像の変化部分をブロック化して抽出し(ステップRA4)、このブロック化された変化部分を有する画像データの位置情報を、撮影画像データGnに付加して撮影画像データメモリ65に記憶する(ステップRA5)。
・マーキング処理A
抽出処理(ステップRA)により撮影画像データGnの中に存在する置換対象画像データを抽出すると、次いで、第1の判断処理部562、及び、第1のマーキング処理部563が図36に図示するマーキング処理Aのサブフローチャートを実行する(ステップRB)。
このマーキング処理Aでは、抽出処理により抽出された置換対象画像データが変身役柄データメモリ64に置換対象画像データ64Tとして登録されているか否かを、既知の顔画像の認識処理を用いて判断する(ステップRB1)(第2の判断手段)。
ここで、置換対象画像データ64Tとして登録されていると判断すると(ステップRB1(Yes))、この置換対象画像データ64Tと対応付けられて記憶されている記憶領域64aのマークデータ64Mw1を読み出すと共に、対応する抽出された置換対象画像データの顔画像の位置に付加して表示し、図43B〜図51Bに示すようなマーク付き撮影画像データGm1〜Gm9として作業用メモリに一時的に保存する(ステップRB2)。
このとき、マークデータ64Mw1は、抽出された置換対象画像データの顔部分に重ねて表示するか、または顔部分の近傍に表示するかの何れであってもよい。
そして、全ての置換対象画像データについて判断が終了したか否かを判断し、判断が終了していなければ(ステップRB3(No))ステップRB1の処理に戻り、判断が終了していれば(ステップRB3(Yes))、ステップRB4の処理に移行する。
そして、現在、デジタルカメラ50による撮影が継続中であると判断すると(ステップRB4(Yes))、変身役柄データメモリ64に対応付けられて記憶されている音声データ64Sw1を読み出し、音声出力部53から出力する(ステップRB5)。
次に、図37に図示するマーキング処理Bのサブフローチャートが実行処理される(ステップRC)。
・マーキング処理B
このマーキング処理Bでは、第2のマーキング処理部564が、抽出処理により抽出された置換対象画像データが破壊データメモリ55に置換対象画像データ55Tとして登録されているか否かを判断する(ステップRC1)。
このステップRC1で、第2のマーキング処理部564が、置換対象画像データ55Tとして登録されていると判断すると(ステップRC1(Yes))、抽出された置換対象画像データが最適な視角状態で撮影されたものか否かを判断する(ステップRC2)。そして、最適な視角状態で撮影されていると判断した場合(ステップRC2(Yes))、この置換対象画像データ55Tに対応付けられて記憶されているマークデータ(接触前)55Mを読み出すと共に、対応する抽出された置換対象画像データの位置に付加して表示する(ステップRC3)。
例えば、図43A、及び、図44Aに図示する物体Ao、Boに対応する抽出された置換対象画像データは、破壊データメモリ55に登録された最適な視角状態の置換対象画像データ55Tとほぼ同じ状態である。
したがって、これらの置換対象画像データ55Tに対応付けて記憶されているマークデータ(接触前)55Maと、マークデータ(接触前)55Mbを読み出すと共に、撮影画像データGm1、Gm2に図示するように、抽出された置換対象画像データの位置に付加して表示する。
このとき、マークデータ(接触前)55Ma、マークデータ(接触前)55Mbは、抽出された置換対象画像データに重ねて表示するか、または置換対象画像データの近傍に表示するかの何れであってもよい。
そして、現在、デジタルカメラ50による撮影が継続中であると判断された場合には(ステップRC4(Yes))、破壊データメモリ55に記憶されている音声データ55Sを読み出し、音声出力部53から出力する(ステップRC5)。
この後、第2の判断処理部565が、マークデータが付加された置換対象画像データと他の抽出された置換対象画像データとの位置関係を、両者の置換対象画像データに付加された位置情報に基づいて監視し(ステップRC6)、その結果、置換対象画像データが他の抽出された置換対象画像データと接触するか、或いは重なったか否を判断する(ステップRC7)。
上記の判断とは、より具体的には、図44Aにおいて、物体Aoに対応する置換対象画像データと演者Poに対応する置換対象画像データとが接触若しくは重なった、図45Aにおいて、物体Boに対応する置換対象画像データと演者Poに対応する置換対象画像データとが接触若しくは重なった、等を判断する。
置換対象画像データの位置情報が他の抽出された置換対象画像データの位置情報と接触若しくは重なったと判断した場合には(ステップRC7(Yes))、この接触若しくは重なった他の抽出された置換対象画像データが、マーキング処理Aにてマークデータ64Mwが付加された置換対象画像データの一部分であるか否かを判断する(ステップRC8)。
上記の判断とは、例えば、図44Aにおいて、演者Poに対応する置換対象画像データにマークデータ(1)64Mw1が付加されているか否か等を判断する。
ステップRC8によりマークデータ64Mwが付加されている他の抽出された置換対象画像データの一部分であると判断すると(ステップRC8(Yes))、第3のマーキング処理部566が、マークデータ(接触後)55M’を読み出すと共に、ステップRC3にて付加されたマークデータ(接触前)55Mに差し替えて付加し、作業用データメモリに一時保存し、マーク付き撮影画像データGmを表示する(ステップRC9)。
このステップRC9の処理を図44Bを用いて説明すると、マークデータ(接触前)55Maの位置には、置換対象画像データ55Tに対応付けられて記憶されているマークデータ(接触後)55Ma′が読み出され、マークデータ(接触前)55Maに差し替えて付加し、作業用データメモリに一時保存すると共に表示部51に表示する(ステップRC9)。
そして、現在、デジタルカメラ50による撮影が継続中であると判断された場合には(ステップRC10(Yes))、置換対象画像データ55Tに対応付けられて記憶されている音声データ55Sを読み出し、音声出力部53から出力する(ステップRC11)。
尚、ステップRC2において、例えば図45A〜図51Aに図示した物体Aoに対応する置換対象画像データ、図46A〜図51Aに図示した物体Boに対応する置換対象画像データのように、抽出された置換対象画像データが最適な視角状態で撮影されていないと判断した場合には(ステップRC2(No))、置換対象画像データ55Tに対応付けられて記憶されているマークデータ(接触後)55M′を読み出すと共に、対応する抽出された置換対象画像データ位置に付加して表示する(ステップRC12)。
そして、現在、デジタルカメラ50による撮影が継続中であると判断された場合には(ステップRC13(Yes))、置換対象画像データ55Tに対応付けられて記憶されている音声データ55Sを読み出し、音声出力部53から出力する(ステップRC14)。
次に、図38に図示するマーキング処理Cのサブフローチャートが実行処理される(ステップRD)。
・マーキング処理C
このマーキング処理Cでは、第3の判断処理部567が、抽出処理により抽出された置換対象画像データが、複数の撮影画像データGnに渡って動いており、その動き(モーション)が変身データメモリ54に予め記憶されたモーションデータ54Pと略同一か否かを判断する(ステップRD1)(第1,第3の判断手段)。
このステップRD1について、図46〜図48を用いて説明する。
図46A〜図48Aに示すように、演者Koに対応する置換対象画像データの動きが、変身データメモリ54に予め記憶された54aのモーションデータ54P(54P1a〜54P1c)と略同一か否かを判断する。
そして、略同一と判断すると(ステップRD1(Yes))、第5のマーキング処理部568が、このモーションデータ54Pと対応付けて記憶されているマークデータ54Mu1を読み出すと共に、抽出された置換対象画像データの顔部分の画像に付加して表示し、図48B〜図51Bに示すようなマーク付き撮影画像データGm6〜Gm9として作業用データメモリに一時保存する(ステップRD2)。
このとき、マークデータ54Mu1は、抽出された置換対象画像データの顔部分に重ねて表示するか、または顔部分の近傍に表示するかの何れであってもよい。
そして、現在、デジタルカメラ50による撮影が継続中であると判断された場合には(ステップRD3(Yes))、モーションデータ54Pに対応付けられて記憶されている音声データ54Suを読み出し、音声出力部53から出力する(ステップRD4)。
次に、図39に図示するマーキング処理Dのサブフローチャートが実行処理される(ステップRE)。
・マーキング処理D
このマーキング処理Dでは、第3の判断処理部567が、マーキング処理Cによりマークデータが付加された置換対象画像データが、複数の撮影画像データGnにおいて更に動いており、その動き(モーション)が特殊効果データメモリ63に予め記憶されたモーションデータと略同一か否かを判断する(ステップRE1)。
このステップRE1について、図49〜図51を用いて説明する。
図49B〜図51Bに示すように、マークデータ54Muが付加された置換対象画像データの動きが、特殊効果データメモリ63に予め記憶された63aのモーションデータ63P(63P1a〜63P1c)と略同一か否かを判断する。
そして、略同一と判断すると(ステップRE1(Yes))、第4のマーキング処理部568が、このモーションデータ63Pと対応付けて記憶されているマークデータ63Mu1を読み出す共に、抽出された置換対象画像データの顔部分の画像に付加して表示し、図51Bに示すようなマーク付き撮影画像データGm9として作業用データメモリに一時保存する(ステップRE2)。
そして、現在、デジタルカメラ50による撮影が継続中であると判断された場合には(ステップRE3(Yes))、モーションデータ63Pに対応付けられて記憶されている音声データ63Suを読み出し、音声出力部53から出力する(ステップRE4)。
そしてこの後、ステップR2の処理に移行する。
尚、マークデータ63Mu1は、抽出された置換対象画像データの顔部分に重ねて表示するか、または顔部分の近傍に表示するかの何れであってもよい。
ステップRA〜REの処理に従い作業用データメモリ上に生成されたマーク付きの連続した撮影画像データGm1〜Gm9は、マーク付き撮影画像データメモリ66に記憶される(ステップR2)。
そして、画像撮影部61からの一連の撮影画像データGn(G1〜G9)の撮影が終了したと判断されると(ステップR3(Yes))、マーク付き撮影画像データメモリ66に生成保存された一連のマーク付き撮影画像データGm(Gm1〜Gm9)に基づいた合成画像の生成処理に進むか否かを判断する(ステップR4)。
CPU56は、入力部52から操作信号の入力検出により合成画像の生成が指示されるか、あるいは、撮影画像データの取得とマーキング処理の終了が検出されると、合成画像の生成処理に進むと判断する(ステップR4(Yes))。
すると、マーク付き撮影画像データメモリ66からマーク付き撮影画像データGm(Gm1〜Gm9)が作業用メモリに読み出され、図40における合成処理Aへ移行する(ステップRF)。
・合成処理A
CPU56は、マーク付き撮影画像データメモリ66から作業用メモリに読み出されたマーク付き撮影画像データGm(Gm1〜Gm9)について、マークデータが付加された置換対象画像データに、マーキング処理A、及び、Cによってマークデータが付加されたものが存在するか否かを判断する(ステップRF1)。
このステップRF1について、図43B〜図51Bを用いて説明すると、マークデータ64Mw1が付加された置換対象画像データ(演者Poの画像データ)や、マークデータ54Mu1が付加された置換対象画像データ(演者Koの画像データ)がマーク付き撮影画像データGmに存在するか否かを判断する。
そして、置換対象画像データが存在すると判断した場合は(ステップRF1(Yes))、動画生成処理部570が、このマークデータが付加されている置換対象画像データに付加されている位置情報に基づき、撮影画像データGm(Gm1〜Gm9)における置換対象画像データの動きをキャプチャーする(ステップRF2)。
そして置換処理部569が、変身役柄データメモリ64におけるマークデータ64Mw1に対応する置換画像データ(1)64Gw1、及び、変身データメモリ54におけるマークデータ54Mu1に対応する置換画像データ54Gu1を読み出し、キャプチャーされた動きに応じた、図43C〜図51Cに図示する複数のポーズで置換画像データを描画する。
その後、合成動画生成処理部570が、この置換画像データを対応する置換対象画像データの位置情報に基づいて置き換えると共に、予め用意された背景画像BGに合成した合成画像データGG(GG1〜GG9)を生成する(ステップRF3)。
なおこの際、図48Cの矢印xで示すように、演者Koと同じポーズが描画された置換画像データ54Gu1は描画の際、拡大処理される。
そして、CPU56は、置換画像データ64Gw1と対応付けられて記憶されている音声データ64Sw1を読み出し、合成画像GG(GG1〜GG9)に対応付けて保存する。
また、置換画像データ54Gu1に対応付けられて記憶されている音声データ54Su1を読み出し、合成画像GG(GG6〜GG9)に対応付けて保存する(ステップRF4)。
次に、図41に図示する合成処理Bのサブフローチャートが実行処理される(ステップRG)。
・合成処理B
CPU56は、マーク付き撮影画像データメモリ66から作業用メモリに読み出されたマーク付き撮影画像データGm(Gm1〜Gm9)において、マークデータが付加された置換対象画像データに、マーキング処理Bによってマークデータが付加されたものが存在するか否かを判断する(ステップRG1)。
このステップRG1について、図43B〜図51Bを用いて説明すると、マークデータ55Ma1が付加された置換対象画像データ(物体Aoの画像データ)や、マークデータ55Mb1が付加された置換対象画像データ(物体Boの画像データ)がマーク付き撮影画像データGmに存在するか否かを判断する。
そして、置換対象画像データが存在すると判断した場合は(ステップRG1(Yes))、破壊データメモリ55におけるマークデータに対応する置換画像データを読み出し、合成動画生成処理部570がこの置換画像データを対応する置換対象画像データの位置情報に基づいて置き換えると共に、ステップRF3にて生成された合成動画データGG(GG1〜GG9)に追加して合成する(ステップRG2)。
このステップRG2について、図43B〜図51Bを用いて説明すると、マークデータ(接触前)55Mb1が付加された置換対象画像データ(物体Boの画像データ)には、置換画像データ55Gb1が置き換えられ、ステップRF3にて生成された合成動画データGGに追加して合成する。
そして、CPU56は、置換画像データ55Gb1と対応付けられて記憶されている音声データ55Sb1を読み出し、合成画像GG(GG1〜GG9)に対応付けて保存する(ステップRG3)。
次に、図42に図示する合成処理Cのサブフローチャートが実行処理される(ステップRH)。
・合成処理C
CPU56は、マーク付き撮影画像データメモリ66から作業用メモリに読み出されたマーク付き撮影画像データGm(Gm1〜Gm9)について、マークデータが付加された置換対象画像データに、マーキング処理Dによってマークデータが付加されたものが存在するか否かを判断する(ステップRH1)。
このステップRH1について、図51Bを用いて説明すると、マークデータ63Mu1が付加された置換対象画像データがマーク付き撮影画像データGmに存在するか否かを判断する。
そして、置換対象画像データが存在すると判断した場合は(ステップRH1(Yes))、特殊効果データメモリ63におけるマークデータに対応する置換画像データを読み出し、合成動画生成処理部570がこの置換画像データを対応するマークデータの位置情報に基づいて置き換えると共に、ステップRG2にて生成された合成動画データGG(GG1〜GG9)に追加して合成する(ステップRH2)。
そして更に、追加して合成された置換画像データの位置情報を取得し、この置換画像データの縁部分と他の置換画像データとの位置関係を判断し、置換画像データの縁部分と他の置換画像データとが接触或いは重なる場合には、その接触或いは重なる位置情報に更に画像データを追加して合成する(ステップRH3)。
このステップRH2とRH3について、図51Cを用いて説明すると、マークデータ63Mu1が付加された位置には、置換画像データ63Gu1が追加して合成され、更に、この置換画像データ63Gu1が置換画像データ64Gw1と接触する位置に画像データ63Gu1’が追加して合成される。
そして、CPU56は、置換画像データ63Gu1と対応付けられて記憶されている音声データ63Su1を読み出し、合成画像GG(GG1〜GG9)に対応付けて保存する(ステップRH4)。
この後、図34に示すように合成処理A〜Cによって合成された合成画像GG(GG1〜GG9)を音声データが付加された合成動画データに変換し、合成画像データメモリ67に保存する(ステップR6)。
そして、この合成動画データを表示部51に出力して再生表示する(ステップR7)。
なお、上記の各処理をサーバ装置70が行う場合には、ステップR1(入力手段)において受信された撮影画像データGn(G1〜G9)の送信元である、デジタルカメラ110やPC80に対して、合成画像データメモリ67に記憶された合成動画データが読み出されて応答送信される(ステップR7)。
したがって、動画撮影された画像について、演者の意志に従った合成動画を手軽に作成することができる。
なお、この実施例において記載した画像合成装置による各処理は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶媒体58(73)に格納して配布することができる。
また、この実施例の各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末(プログラムサーバ)からのプログラムデータを取り込み、前述した撮影画像データGnから合成動画データの作成・出力機能を実現することもできる。
なお、本願発明は、前記実施形態や実施例に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記実施形態や実施例には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、実施形態や実施例に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が異なる形態にして組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。
本発明の画像合成装置の実施形態に係るデジタルカメラ10を利用した動画像の撮影状態と合成画像の生成状態を示す概念図。 前記デジタルカメラ10(通信端末A)の電子回路の構成を示すブロック図。 前記デジタルカメラ10の変身データメモリ14に予め記憶される変身データの内容を示す図。 前記デジタルカメラ10の特殊効果データメモリ23に予め記憶される特殊効果データの内容を示す図。 前記デジタルカメラ10の破壊データメモリ15に予め記憶される破壊データの内容を示す図。 前記デジタルカメラ10の変身役柄データメモリ24に記憶される変身役柄データの内容を示す図。 本発明の画像合成装置の実施形態に係るサーバ装置30の電子回路の構成を示すブロック図。 前記画像合成装置による合成画像出力処理の全体過程を示すフローチャート。 前記合成画像出力処理に伴い撮影画像(G)中に存在する人物(P,M,K)・物体(A,B,C)の対象画像を抽出する対象画像抽出処理を示すフローチャート。 前記合成画像出力処理に伴い役柄登録された人物画像(P,M)に変身マーク(24Mw)を付加する役柄変身マーク処理を示すフローチャート。 前記合成画像出力処理に伴い抽出された物体画像(A,B,C)に破壊マーク(15M,15M′)を付加すると共に対応音声(15S)を出力する破壊マーク処理を示すフローチャート。 前記合成画像出力処理に伴い変身モーション(14P)の検出された人物画像(K)に変身マーク(14Mu)を付加すると共に対応音声(14Su)を出力するモーション変身マーク処理を示すフローチャート。 前記合成画像出力処理に伴い特殊効果モーション(23P)の検出された人物画像(K)に特殊効果マーク(23Gu)を付加すると共に対応音声(23Su)を出力する特殊効果マーク処理を示すフローチャート。 前記合成画像出力処理に伴い変身マーク(24Mw)(14Mu)の付加された人物画像(P)(K)を変身画像(24Gw)((14Gu)に置き換え合成すると共に対応音声(24Sw)(14Su)の出力を設定する変身マーク合成処理を示すフローチャート。 前記合成画像出力処理に伴い破壊マーク(15M,15M′)の付加された物体画像(A,B)を破壊画像(15G)に置き換え合成すると共に対応音声(15S)の出力を設定する破壊マーク合成処理を示すフローチャート。 前記合成画像出力処理に伴い特殊効果マーク(23Gu)の付加された人物画像(K)の所定位置に特殊効果画像23Guを追加合成すると共に対応音声(23Su)の出力を設定する特殊効果マーク合成処理を示すフローチャート。 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その1)であり、同図(A)は撮影画像G1を示す図、同図(B)はマーク付き撮影画像Gm1を示す図、同図(C)は合成画像GG1を示す図。 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その2)であり、同図(A)は撮影画像G2を示す図、同図(B)はマーク付き撮影画像Gm2を示す図、同図(C)は合成画像GG2を示す図。 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その3)であり、同図(A)は撮影画像G3を示す図、同図(B)はマーク付き撮影画像Gm3を示す図、同図(C)は合成画像GG3を示す図。 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その4)であり、同図(A)は撮影画像G4を示す図、同図(B)はマーク付き撮影画像Gm4を示す図、同図(C)は合成画像GG4を示す図。 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その5)であり、同図(A)は撮影画像G5を示す図、同図(B)はマーク付き撮影画像Gm5を示す図、同図(C)は合成画像GG5を示す図。 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その6)であり、同図(A)は撮影画像G6を示す図、同図(B)はマーク付き撮影画像Gm6を示す図、同図(C)は合成画像GG6を示す図。 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その7)であり、同図(A)は撮影画像G7を示す図、同図(B)はマーク付き撮影画像Gm7を示す図、同図(C)は合成画像GG7を示す図。 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その8)であり、同図(A)は撮影画像G8を示す図、同図(B)はマーク付き撮影画像Gm8を示す図、同図(C)は合成画像GG8を示す図。 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その9)であり、同図(A)は撮影画像G9を示す図、同図(B)はマーク付き撮影画像Gm9を示す図、同図(C)は合成画像GG9を示す図。 実施例における動画撮影状態を示す図。 図26において、表示部50に表示される状態を示す図。 撮影後、表示部50に表示される合成画像を示す図。 デジタルカメラ50の回路構成を示すブロック図。 変身データメモリ54に予め記憶される内容を示す図。 特殊効果データメモリ63に予め記憶される内容を示す図。 破壊データメモリ55に予め記憶される内容を示す図。 変身役柄データメモリ64に記憶される内容を示す図。 サーバ装置70の電子回路の構成を示すブロック図。 合成画像出力処理の全体過程を示すフローチャート。 図34におけるステップRAの処理を示すサブフローチャート。 図34におけるステップRBの処理を示すサブフローチャート。 図34におけるステップRCの処理を示すサブフローチャート。 図34におけるステップRDの処理を示すサブフローチャート。 図34におけるステップREの処理を示すサブフローチャート。 図34におけるステップRFの処理を示すサブフローチャート。 図34におけるステップRGの処理を示すサブフローチャート。 図34におけるステップRHの処理を示すサブフローチャート。 撮影画像データG1を示す図。 マーク付き撮影画像データGm1を示す図。 合成画像データGG1を示す図。 撮影画像データG2を示す図。 マーク付き撮影画像データGm2を示す図。 合成画像データGG2を示す図。 撮影画像データG3を示す図。 マーク付き撮影画像データGm3を示す図。 合成画像データGG3を示す図。 撮影画像データG4を示す図。 マーク付き撮影画像データGm4を示す図。 合成画像データGG4を示す図。 撮影画像データG5を示す図。 マーク付き撮影画像データGm5を示す図。 合成画像データGG5を示す図。 撮影画像データG6を示す図。 マーク付き撮影画像データGm6を示す図。 合成画像データGG6を示す図。 撮影画像データG7を示す図。 マーク付き撮影画像データGm7を示す図。 合成画像データGG7を示す図。 撮影画像データG8を示す図。 マーク付き撮影画像データGm8を示す図。 合成画像データGG8を示す図。 撮影画像データG9を示す図。 マーク付き撮影画像データGm9を示す図。 合成画像データGG9を示す図。
符号の説明
(実施形態)
10 …デジタルカメラ(通信端末A)
11(37)…表示部
12(36)…入力部
13 …音声出力部
14(32B)…変身データメモリ
14P…変身モーションモデルデータ
14Gu…変身画像データ
14Su…変身音声データ
14Mu…変身マークデータ
15(32D)…破壊データメモリ
15T…破壊対象画像データ
15G…破壊画像データ
15S…破壊音声データ
15M…破壊(前)マークデータ
15M′…破壊(後)マークデータ
16(31)…CPU
17(32)…メモリ
18(33)…外部記録媒体
19(34)…記録媒体読取部
20(35)…電送制御部
21 …画像撮影部
22(32A)…プログラムメモリ
23(32C)…特殊効果データメモリ
23P…特殊効果モーションモデルデータ
23Gu…特殊効果画像データ
23Su…特殊効果音声データ
23Mu…特殊効果マークデータ
24(32E)…変身役柄データメモリ
24T…変身対象(顔)画像データ
24Gw…変身画像データ
24Sw…変身音声データ
24Mw…変身マークデータ
24H …変身条件データ
25(32F)…撮影画像データメモリ
26(32G)…マーク付き撮影画像データメモリ
27(32H)…合成画像データメモリ
30 …サーバ装置
40 …通信端末B(PC)
N …通信ネットワーク(インターネット)
BG…背景画像データ
Gn…撮影画像データ
Gmn…マーク付き撮影画像データ
GGn…合成画像データ
P …人物画像(父親)
K …人物画像(子供)
M …人物画像(母親)
A1…物体画像(ビール瓶)
A2…物体画像(ペットボトル)
B …物体画像(紙飛行機)
C …物体画像(ティッシュボックス)
(実施例)
50 …デジタルカメラ(通信端末A)
51(77)…表示部
72(76)…入力部
53 …音声出力部
54…変身データメモリ
54P…モーションデータ
54Gu…置換画像データ
54Su…音声データ
54Mu…マークデータ
55 …破壊データメモリ
55T…置換対象画像データ
55G…置換画像データ(接触前)
55S…音声データ
55M…マークデータ(接触前)
55M′…マークデータ(接触後)
56(71)…CPU
561…抽出処理部
562…第1の判断処理部
563…第1のマーキング処理部
564…第2のマーキング処理部
565…第2の判断処理部
566…第3のマーキング処理部
567…第3の判断処理部
568…第4のマーキング処理部
569…置換処理部
570…動画生成処理部
571…合成動画生成処理部
57(72)…メモリ
58(73)…外部記録媒体
59(74)…記録媒体読取部
60(75)…電送制御部
61 …画像撮影部
62(72A)…プログラムメモリ
63 …特殊効果データメモリ
63P…モーションデータ
63Gu…置換画像データ
63Su…音声データ
63Mu…マークデータ
64 …変身役柄データメモリ
64T…置換対象画像データ
64Gw…置換画像データ
64Sw…音声データ
64Mw…マークデータ
65 …撮影画像データメモリ
66 …マーク付き撮影画像データメモリ
67 …合成画像データメモリ
70 …サーバ装置
80 …通信端末B(PC)
Po,Ko…演者
Ao,Bo…物体

Claims (9)

  1. 表示手段と、
    合成対象となるモーションと第1の合成画像データと当該第1の合成画像データが合成されることを示すマークとを対応付けて記憶する第1の記憶手段と、
    順次撮像されることにより複数の画像データを入力する入力手段と、
    この入力手段によって入力されている複数の画像データにわたって変化している部分の動きが、前記第1の記憶手段に記憶されているモーションと略同一か否かを判断する第1の判断手段と、
    この第1の判断手段により略同一と判断されると、このモーションに対応して前記第1の記憶手段に記憶されたマークを読み出し、前記変化している部分に付加して表示するよう前記表示手段を制御する表示制御手段と、
    前記入力されている複数の画像データを記録する際には、前記表示制御手段によって前記マークが付加された前記変化している部分に、前記マークに代えて前記マークに対応する第1の合成画像データを合成する第1の合成手段と、
    を備えたことを特徴とする画像合成装置。
  2. 抽出対象の画像データを記憶する第2の記憶手段と、
    前記入力手段によって入力された画像データに、前記第2の記憶手段に記憶されている抽出対象の画像データが含まれているか否かを判断する第2の判断手段と、
    この第2の判断手段により抽出対象の画像データが含まれていると判断されると、この抽出対象の画像データと前記変化している部分を有する画像データとの位置関係に基づき、前記第1の合成手段によって合成された画像データに、所定の画像データを追加して合成する第2の合成手段と、
    を更に備えたことを特徴とする請求項1に記載の画像合成装置。
  3. 前記第2の記憶手段は、前記抽出対象の画像データと対応付けて第2の合成画像データを更に記憶し、
    前記第2の判断手段により抽出対象の画像データが含まれていると判断されると、この抽出対象の画像データと対応付けて記憶された第2の合成画像データを読み出し、前記抽出対象の画像データの位置に追加して合成する第3の合成手段を更に備えたことを特徴とする請求項2に記載の画像合成装置。
  4. 前記変化部分を有する画像データのモーションと第3の合成画像データとを対応付けて記憶する第3の記憶手段と、
    前記入力手段によって入力された複数の画像データにわたって前記変化している部分を有する画像データの動きが、前記第3の記憶手段に記憶されているモーションと略同一か否かを判断する第3の判断手段と、
    この第3の判断手段により略同一と判断されると、このモーションに対応して前記第3の記憶手段に記憶された第3の合成画像データを読み出し、前記第1の合成手段によって合成された画像データに追加して合成する第4の合成手段と、
    を更に備えたことを特徴とする請求項3に記載の画像合成装置。
  5. 第1の合成画像データを、複数の画像データにわたって変化している部分の画像データの動きに合わせて変化させた動画データを作成する動画データ作成手段を更に備え、
    前記第1の合成手段は、前記動画データ作成手段によって作成された動画データを含んだ合成動画データを作成する、
    ことを特徴とする請求項1に記載の画像合成装置。
  6. 前記入力手段は、撮像手段を含むことを特徴とする請求項1に記載の画像合成装置。
  7. 前記入力手段は、当該装置外部から通信により前記複数の画像データを入力する通信手段を含むことを特徴とする請求項1に記載の画像合成装置。
  8. 前記第1の合成画像データは、3D画像であることを特徴とする請求項1記載の画像合成装置。
  9. コンピュータを、
    順次撮像されることにより複数の画像データを入力する入力手段、
    この入力手段によって入力されている複数の画像データにわたって変化している部分の動きが、合成画像データと当該合成画像データが合成されることを示すマークとに対応付けて設定されているモーションと略同一か否かを判断する判断手段、
    この判断手段により略同一と判断されると、このモーションに対応して設定されているマークを読み出し、前記変化している部分に付加して表示するよう制御する表示制御手段、
    前記入力されている複数の画像データを記録する際には、前記表示制御手段によって前記マークが付加された前記変化している部分に、前記マークに代えて前記マークに対応する合成画像データを合成する合成手段、
    として機能させるようにしたコンピュータ読み込み可能な画像合成処理プログラム。
JP2008197627A 2007-08-29 2008-07-31 画像合成装置および画像合成処理プログラム Expired - Fee Related JP4973622B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008197627A JP4973622B2 (ja) 2007-08-29 2008-07-31 画像合成装置および画像合成処理プログラム
US12/200,254 US8189864B2 (en) 2007-08-29 2008-08-28 Composite image generating apparatus, composite image generating method, and storage medium
CN2008102144825A CN101378463B (zh) 2007-08-29 2008-08-28 图像合成装置和图像合成方法
KR1020080084712A KR100981002B1 (ko) 2007-08-29 2008-08-28 합성화상 출력장치, 및 프로그램을 기록한 기록매체

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007222595 2007-08-29
JP2007222595 2007-08-29
JP2008197627A JP4973622B2 (ja) 2007-08-29 2008-07-31 画像合成装置および画像合成処理プログラム

Publications (2)

Publication Number Publication Date
JP2009076060A JP2009076060A (ja) 2009-04-09
JP4973622B2 true JP4973622B2 (ja) 2012-07-11

Family

ID=40421769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008197627A Expired - Fee Related JP4973622B2 (ja) 2007-08-29 2008-07-31 画像合成装置および画像合成処理プログラム

Country Status (3)

Country Link
JP (1) JP4973622B2 (ja)
KR (1) KR100981002B1 (ja)
CN (1) CN101378463B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101392545B1 (ko) * 2009-11-12 2014-05-08 미쓰비시덴키 가부시키가이샤 영상 정보 전달 표시 시스템 및 영상 정보 전달 표시 방법
US10972680B2 (en) * 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
US9721388B2 (en) 2011-04-20 2017-08-01 Nec Corporation Individual identification character display system, terminal device, individual identification character display method, and computer program
JP5777507B2 (ja) 2011-12-27 2015-09-09 キヤノン株式会社 情報処理装置、情報処理方法、及びそのプログラム
JP2013250773A (ja) * 2012-05-31 2013-12-12 Sega Corp ステージ装置及びステージ施設
JP6121787B2 (ja) * 2013-04-26 2017-04-26 株式会社ソニー・インタラクティブエンタテインメント 撮像装置、情報処理システム、および画像データ処理方法
KR102192704B1 (ko) 2013-10-22 2020-12-17 엘지전자 주식회사 영상 출력 장치
CN105814611B (zh) * 2013-12-17 2020-08-18 索尼公司 信息处理设备和方法以及非易失性计算机可读存储介质
JP6400260B1 (ja) * 2017-10-20 2018-10-03 三菱電機株式会社 データ処理装置、プログラマブル表示器およびデータ処理方法
CN110460893B (zh) * 2018-05-08 2022-06-03 日本聚逸株式会社 动态图像分发系统及其方法和记录介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR9906453A (pt) * 1998-05-19 2000-09-19 Sony Computer Entertainment Inc Dispositivo e método do processamento de imagem, e meio de distribuição.
JP3413128B2 (ja) * 1999-06-11 2003-06-03 キヤノン株式会社 複合現実感提示方法
JP4291963B2 (ja) * 2000-04-13 2009-07-08 富士フイルム株式会社 画像処理方法
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
WO2003100703A2 (en) 2002-05-28 2003-12-04 Casio Computer Co., Ltd. Composite image output apparatus and composite image delivery apparatus
JP4253567B2 (ja) * 2003-03-28 2009-04-15 オリンパス株式会社 データオーサリング処理装置
JP4161769B2 (ja) 2003-03-31 2008-10-08 カシオ計算機株式会社 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム

Also Published As

Publication number Publication date
KR20090023242A (ko) 2009-03-04
CN101378463A (zh) 2009-03-04
CN101378463B (zh) 2010-12-29
KR100981002B1 (ko) 2010-09-07
JP2009076060A (ja) 2009-04-09

Similar Documents

Publication Publication Date Title
JP4973622B2 (ja) 画像合成装置および画像合成処理プログラム
CN108322832B (zh) 评论方法、装置、及电子设备
JP4310916B2 (ja) 映像表示装置
JP5026692B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN109522280B (zh) 一种图像文件格式及生成方法及装置及应用
JP5169111B2 (ja) 合成画像出力装置および合成画像出力処理プログラム
JP5012373B2 (ja) 合成画像出力装置および合成画像出力処理プログラム
CN106534618B (zh) 伪现场解说实现方法、装置和系统
JP4981370B2 (ja) 動画生成システム、及び動画生成方法
CN108540713A (zh) 摄像装置、图像处理装置、摄像方法及存储介质
JP2014187559A (ja) 仮想現実提示システム、仮想現実提示方法
JP4962219B2 (ja) 合成画像出力装置および合成画像出力処理プログラム
JP5252068B2 (ja) 合成画像出力装置および合成画像出力処理プログラム
US8189864B2 (en) Composite image generating apparatus, composite image generating method, and storage medium
JP4935647B2 (ja) 合成画像出力装置および合成画像出力処理プログラム
JP2006227838A (ja) 画像処理装置及び画像処理プログラム
CN115631270A (zh) 虚拟角色的直播方法及装置、计算机存储介质、终端
JP4962218B2 (ja) 合成画像出力装置および合成画像出力処理プログラム
JP4983494B2 (ja) 合成画像出力装置および合成画像出力処理プログラム
JP6559375B1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
CN116503522A (zh) 互动画面的渲染方法、装置、设备、存储介质及程序产品
JP5864789B1 (ja) 鉄道模型観賞用装置、方法、プログラム、専用表示モニタ、合成用情景画像データ
JP2015060061A (ja) カラオケ装置、画像出力方法、およびプログラム
JP7065708B2 (ja) 録画再生装置及びプログラム
JP7344084B2 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120125

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120313

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120326

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150420

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees