JP2005107988A - 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム - Google Patents

画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム Download PDF

Info

Publication number
JP2005107988A
JP2005107988A JP2003341887A JP2003341887A JP2005107988A JP 2005107988 A JP2005107988 A JP 2005107988A JP 2003341887 A JP2003341887 A JP 2003341887A JP 2003341887 A JP2003341887 A JP 2003341887A JP 2005107988 A JP2005107988 A JP 2005107988A
Authority
JP
Japan
Prior art keywords
image
person
imitation
pose
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003341887A
Other languages
English (en)
Inventor
Takashi Koshiro
孝 湖城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003341887A priority Critical patent/JP2005107988A/ja
Publication of JP2005107988A publication Critical patent/JP2005107988A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Abstract

【課題】デジタルカメラなどの画像出力装置であり、その撮影画像について、時や場所に応じて被写体画像に対応した非常に面白味のある合成画像を作成して出力する。
【解決手段】撮影画像12inについてまね対象の被写体画像Hnを抽出指定すると共に、時間または場所に応じて前記まね対象画像Hnの真似をするキャラクタ画像の種類(12fW(3),12h(3))および当該まねキャラクタ画像を追加合成するか置き換え合成するかの合成方法を設定すると、当該撮影画像12inの表示に際して現在時間または現在位置が検知され、この現在時間または現在位置に応じた種類のキャラクタで前記まね対象画像Hnに対応するポーズのキャラクタ画像が取得されると共に、前記設定された合成方法によって当該まね対象画像Hnを前記取得されたまねキャラクタ画像に置き換え合成あるいは追加合成した合成画像12inmが作成されて表示される。
【選択図】 図8

Description

本発明は、デジタルカメラやカメラ付携帯端末などにおける撮影画像に応じた画像を合成して出力するための画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラムに関する。
従来、各種のスチルカメラやビデオカメラにおいて、撮影した画像に対し他の画像を合成して表示あるいは印刷して出力するものがある。
例えば撮影フレームの固定した位置に予め用意された花や人気キャラクタなどのアニメ画像を合成して出力するものや、同予め用意されたアニメ画像を撮影フレーム内の希望の位置に合成して出力するものなどが実用されている。
また、デジタルカメラにより撮影された画像をパーソナルコンピュータの表示画面上に表示させて他の画像と合成して編集することもできるが、この場合に他の画像は例えば他の画像ファイルから選択的に切り出したり、インターネット上の任意のホームページ画面からダウンロードしたりするなどして取得され、撮影画像上の希望位置に合成される。
また、デジタルカメラにより撮影された画像の任意の領域(例えば顔の部分)を切り出し、この切り出し画像を予め用意されたアニメ画像(例えばアニメキャラクタの顔部分)に合成させて新たな別の画像を作成するものや、任意の画像の指定した領域に対して、これに関連付けたアニメ画像を合成する(青空と推定される青色領域に雲画像を合成したり雪景色と推定される白色領域に雪像を合成したりする)ものも考えられている(例えば、特許文献1参照。)。
特開2001−230972号公報
前記従来の画像処理システムでは、撮影画像に対して、予め用意された画像をそのまま固定あるいは希望の位置に合成して出力したり、あるいは任意の切り出し画像に対して予め用意された画像を合成して出力したりするだけのものであるため、撮影画像以外の合成画像が常に固定的で変化が無く、またインターネットから多様な画像をダウンロードして利用するにしても、個々の撮影画像とは密接に関係しない単なる飾りなどでしかないため、面白味に欠け飽きが来やすい問題がある。
一方で近年、小型のデジタルカメラやデジタルカメラ付きの携帯電話が大幅に普及したことにより、各ユーザが撮影画像を常に持ち歩き、当該撮影画像を何時でも,何処でもユーザ自身やその友人,知人などによって見ることのできる状況となっている。
本発明は、前記のような問題に鑑みてなされたもので、撮影画像に対して単に固定的な画像を合成するのではなく、時や場所に応じて被写体画像に対応した非常に面白味のある合成画像を作成して出力することが可能になる画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラムを提供することを目的とする。
本発明の請求項1に係る画像出力装置では、撮影などにより得られた元画像を記憶する元画像記憶手段と、この元画像記憶手段により記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報を記憶するまね対象画像情報記憶手段と、各ポーズごとに人物に応じた形の複数種類のまね画像を記憶するポーズ別まね画像記憶手段とを有し、時間情報取得手段により画像を出力する際の時間情報を取得する。そして、この時間情報取得手段により取得された時間情報に応じた種類のまね画像であって、前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を、対応まね画像取得手段によって前記ポーズ別まね画像記憶手段により記憶された各ポーズごとの複数種類のまね画像の中から取得する。そして、この対応まね画像取得手段により取得されたまね画像を、画像合成手段によって前記元画像に合成し、この画像合成手段により前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を画像出力手段によって出力する。
これによれば、元画像の中のまね対象者の人物画像に応じたポーズのまね画像を取得して当該元画像に合成し出力できるだけでなく、この画像出力時の年・季節・月・日・時刻などの時間情報に応じて様々にまね画像の種類を変更した合成画像を作成出力できることになる。
本発明の請求項2に係る画像出力装置では、前記請求項1に係る画像出力装置にあって、時間情報に対応付けて前記ポーズ別まね画像記憶手段により記憶された複数種類のまね画像の種類を設定するまね画像種類設定手段を備え、前記対応まね画像取得手段は、前記時間情報取得手段により取得された時間情報に応じて前記まね画像種類設定手段により設定された種類のまね画像であって、前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段により記憶された各ポーズごとの複数種類のまね画像の中から取得する。
これによれば、元画像に対しその画像出力時の時間情報に応じて合成すべき、当該元画像のまね対象者の人物画像のポーズに応じたまね画像の種類を、ユーザによって適宜設定できることになる。
本発明の請求項3に係る画像出力装置では、撮影などにより得られた元画像を記憶する元画像記憶手段と、この元画像記憶手段により記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報を記憶するまね対象画像情報記憶手段と、各ポーズごとに人物に応じた形の複数種類のまね画像を記憶するポーズ別まね画像記憶手段を有し、位置情報取得手段により画像を出力する場所の位置情報を取得する。そして、この位置情報取得手段により取得された位置情報に応じた種類のまね画像であって、前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を、対応まね画像取得手段によって前記ポーズ別まね画像記憶手段により記憶された各ポーズごとの複数種類のまね画像の中から取得する。そして、この対応まね画像取得手段により取得されたまね画像を、画像合成手段によって前記元画像に合成し、この画像合成手段により前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を画像出力手段によって出力する。
これによれば、元画像の中のまね対象者の人物画像に応じたポーズのまね画像を取得して当該元画像に合成し出力できるだけでなく、この画像出力を行う場所(会社・学校・他の外出先・自宅など)の位置情報に応じて様々にまね画像の種類を変更した合成画像を作成出力できることになる。
本発明の請求項4に係る画像出力装置では、前記請求項3に係る画像出力装置にあって、位置情報に対応付けて前記ポーズ別まね画像記憶手段により記憶された複数種類のまね画像の種類を設定するまね画像種類設定手段を備え、前記対応まね画像取得手段は、前記位置情報取得手段により取得された位置情報に応じて前記まね画像種類設定手段により設定された種類のまね画像であって、前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段により記憶された各ポーズごとの複数種類のまね画像の中から取得する。
これによれば、元画像に対しその画像出力を行う場所の位置情報に応じて合成すべき、当該元画像のまね対象者の人物画像のポーズに応じたまね画像の種類を、ユーザによって適宜設定できることになる。
本発明の請求項5に係る画像出力装置では、撮影などにより得られた元画像を記憶する元画像記憶手段と、この元画像記憶手段により記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報を記憶するまね対象画像情報記憶手段と、各ポーズごとに人物に応じた形のまね画像を記憶するポーズ別まね画像記憶手段とを有し、時間情報取得手段により画像を出力する際の時間情報を取得する。そして、前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を、対応まね画像取得手段によって前記ポーズ別まね画像記憶手段により記憶された各ポーズごとのまね画像の中から取得する。そして、この対応まね画像取得手段により取得されたまね画像を、画像合成手段によって前記時間情報取得手段により取得された時間情報に応じて前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成し、この画像合成手段により前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を画像出力手段によって出力する。
これによれば、元画像の中のまね対象者の人物画像に応じたポーズのまね画像を取得して当該元画像に合成し出力できるだけでなく、この画像出力時の年・季節・月・日・時刻などの時間情報に応じて、元画像に対しまね画像を追加合成するか又はまね対象者の人物画像と置き換え合成するかを変更して出力できることになる。
本発明の請求項6に係る画像出力装置では、前記請求項5に係る画像出力装置にあって、時間情報に対応付けてまね画像を追加合成するか又は置き換え合成するかの画像合成方法を設定する合成方法設定手段を備え、前記画像合成手段は、前記対応まね画像取得手段により取得されたまね画像を、前記時間情報取得手段により取得された時間情報に応じて前記合成方法設定手段により設定された画像合成方法に従い、前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成する。
これによれば、元画像のまね対象者の人物画像のポーズに応じて取得したまね画像を、当該元画像に対しその画像出力時の時間情報に応じて追加して合成するか又はまね対象者の人物画像と置き換えて合成するかを、ユーザによって適宜設定できることになる。
本発明の請求項7に係る画像出力装置では、撮影などにより得られた元画像を記憶する元画像記憶手段と、この元画像記憶手段により記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報を記憶するまね対象画像情報記憶手段と、各ポーズごとに人物に応じた形のまね画像を記憶するポーズ別まね画像記憶手段とを有し、位置情報取得手段により画像を出力する場所の位置情報を取得する。そして、前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を、対応まね画像取得手段によって前記ポーズ別まね画像記憶手段により記憶された各ポーズごとのまね画像の中から取得する。そして、この対応まね画像取得手段により取得されたまね画像を、画像合成手段によって前記位置情報取得手段により取得された位置情報に応じて前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成し、この画像合成手段により前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を画像出力手段によって出力する。
これによれば、元画像の中のまね対象者の人物画像に応じたポーズのまね画像を取得して当該元画像に合成し出力できるだけでなく、この画像出力を行う場所(会社・学校・他の外出先・自宅など)の位置情報に応じて、元画像に対しまね画像を追加合成するか又はまね対象者の人物画像と置き換え合成するかを変更して出力できることになる。
本発明の請求項8に係る画像出力装置では、前記請求項7に係る画像出力装置にあって、位置情報に対応付けてまね画像を追加合成するか又は置き換え合成するかの画像合成方法を設定する合成方法設定手段を備え、前記画像合成手段は、前記対応まね画像取得手段により取得されたまね画像を、前記位置情報取得手段により取得された位置情報に応じて前記合成方法設定手段により設定された画像合成方法に従い、前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成する。
これによれば、元画像のまね対象者の人物画像のポーズに応じて取得したまね画像を、当該元画像に対しその画像出力を行う場所(会社・学校・他の外出先・自宅など)の位置情報に応じて追加して合成するか又はまね対象者の人物画像と置き換えて合成するかを、ユーザによって適宜設定できることになる。
本発明の請求項9に係る画像出力装置は、前記請求項1〜請求項8の何れか1項に係る画像出力装置にあって、そのまね対象画像情報記憶手段では、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像を抽出する対象画像抽出手段を有し、この対象画像抽出手段により抽出されたまね対象者の人物画像の情報を当該元画像に対応付けて記憶する。
これによれば、元画像におけるまね対象者の人物画像の位置や領域などの情報を、当該元画像から抽出して得ることができる。
本発明の請求項10に係る画像出力装置は、前記請求項9に係る画像出力装置にあって、前記対象画像抽出手段では、前記元画像記憶手段により記憶された一連の複数の元画像の中から変化部分をまね対象者の人物画像として抽出する。
これによれば、例えば撮影に際して連続的にサンプリングされて取り込まれた一連の複数の元画像に基づき、その変化部分をまね対象者の人物画像として容易に抽出できることになる。
本発明の請求項11に係る画像出力装置は、前記請求項9に係る画像出力装置にあって、前記対象画像抽出手段では、前記元画像記憶手段により記憶された元画像の各画像部分間の距離情報に応じてまね対象者の人物画像を抽出する。
これによれば、例えば撮影された1枚の元画像の各画像部分の撮影距離に基づき、その手前画像部分をまね対象者の人物画像として容易に抽出できることになる。
本発明の請求項12に係る画像出力装置は、前記請求項1〜請求項11の何れか1項に係る画像出力装置にあって、前記対応まね画像取得手段では、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像と前記ポーズ別まね画像記憶手段により記憶された各ポーズごとのまね画像との類似度を評価する類似度評価手段を有し、この類似度評価手段により評価されたまね対象者の人物画像と各まね画像との類似度に応じて当該まね対象者の人物画像に対応したポーズのまね画像を取得する。
これによれば、元画像におけるまね対象者の人物画像のポーズにまねて合成すべきまね画像を容易に取得できることになる。
本発明の請求項13に係る画像出力装置は、前記請求項1〜請求項11の何れか1項に係る画像出力装置にあって、前記対応まね画像取得手段では、前記ポーズ別まね画像記憶手段により記憶されたまね画像の各ポーズに対応付けた複数のポーズのモデル画像を記憶するモデル画像記憶手段と、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像と前記モデル画像記憶手段により記憶された各ポーズのモデル画像との類似度を評価する類似度評価手段とを有し、この類似度評価手段により評価されたまね対象者の人物画像と各モデル画像との類似度に応じて当該モデル画像のポーズに対応付けられて前記ポーズ別まね画像記憶手段により記憶されたまね画像を取得する。
これによれば、元画像におけるまね対象者の人物画像のポーズにまねて合成すべきまね画像を容易に取得できるだけでなく、類似度の評価対象に標準的モデルを用いることからまね対象者の人物画像との高い類似(まね)度が得られやすく、より表現の近いまね画像を取得できることになる。
本発明の請求項1に係る画像出力装置によれば、元画像の中のまね対象者の人物画像に応じたポーズのまね画像を取得して当該元画像に合成し出力できるだけでなく、この画像出力時の年・季節・月・日・時刻などの時間情報に応じて様々にまね画像の種類を変更した合成画像を作成出力できるようになる。
本発明の請求項2に係る画像出力装置によれば、前記請求項1に係る画像出力装置にあって、元画像に対しその画像出力時の時間情報に応じて合成すべき、当該元画像のまね対象者の人物画像のポーズに応じたまね画像の種類を、ユーザによって適宜設定できるようになる。
本発明の請求項3に係る画像出力装置によれば、元画像の中のまね対象者の人物画像に応じたポーズのまね画像を取得して当該元画像に合成し出力できるだけでなく、この画像出力を行う場所(会社・学校・他の外出先・自宅など)の位置情報に応じて様々にまね画像の種類を変更した合成画像を作成出力できるようになる。
本発明の請求項4に係る画像出力装置によれば、前記請求項3に係る画像出力装置にあって、元画像に対しその画像出力を行う場所の位置情報に応じて合成すべき、当該元画像のまね対象者の人物画像のポーズに応じたまね画像の種類を、ユーザによって適宜設定できるようになる。
本発明の請求項5に係る画像出力装置によれば、元画像の中のまね対象者の人物画像に応じたポーズのまね画像を取得して当該元画像に合成し出力できるだけでなく、この画像出力時の年・季節・月・日・時刻などの時間情報に応じて、元画像に対しまね画像を追加合成するか又はまね対象者の人物画像と置き換え合成するかを変更して出力できるようになる。
本発明の請求項6に係る画像出力装置によれば、前記請求項5に係る画像出力装置にあって、元画像のまね対象者の人物画像のポーズに応じて取得したまね画像を、当該元画像に対しその画像出力時の時間情報に応じて追加して合成するか又はまね対象者の人物画像と置き換えて合成するかを、ユーザによって適宜設定できるようになる。
本発明の請求項7に係る画像出力装置によれば、元画像の中のまね対象者の人物画像に応じたポーズのまね画像を取得して当該元画像に合成し出力できるだけでなく、この画像出力を行う場所(会社・学校・他の外出先・自宅など)の位置情報に応じて、元画像に対しまね画像を追加合成するか又はまね対象者の人物画像と置き換え合成するかを変更して出力できるようになる。
本発明の請求項8に係る画像出力装置によれば、前記請求項7に係る画像出力装置にあって、元画像のまね対象者の人物画像のポーズに応じて取得したまね画像を、当該元画像に対しその画像出力を行う場所(会社・学校・他の外出先・自宅など)の位置情報に応じて追加して合成するか又はまね対象者の人物画像と置き換えて合成するかを、ユーザによって適宜設定できるようになる。
本発明の請求項9に係る画像出力装置によれば、前記請求項1〜請求項8の何れか1項に係る画像出力装置にあって、元画像におけるまね対象者の人物画像の位置や領域などの情報を、当該元画像から抽出して得ることができる。
本発明の請求項10に係る画像出力装置によれば、前記請求項9に係る画像出力装置にあって、例えば撮影に際して連続的にサンプリングされて取り込まれた一連の複数の元画像に基づき、その変化部分をまね対象者の人物画像として容易に抽出できるようになる。
本発明の請求項11に係る画像出力装置によれば、前記請求項9に係る画像出力装置にあって、例えば撮影された1枚の元画像の各画像部分の撮影距離に基づき、その手前画像部分をまね対象者の人物画像として容易に抽出できるようになる。
本発明の請求項12に係る画像出力装置によれば、前記請求項1〜請求項11の何れか1項に係る画像出力装置にあって、類似度評価手段により評価されたまね対象者の人物画像と各まね画像との類似度に応じて当該まね対象者の人物画像に対応したポーズのまね画像を取得するので、元画像におけるまね対象者の人物画像のポーズにまねて合成すべきまね画像を容易に取得できるようになる。
本発明の請求項13に係る画像出力装置によれば、前記請求項1〜請求項11の何れか1項に係る画像出力装置にあって、類似度評価手段により評価されたまね対象者の人物画像と各モデル画像との類似度に応じて当該モデル画像のポーズに対応付けられてポーズ別まね画像記憶手段により記憶されたまね画像を取得するので、元画像におけるまね対象者の人物画像のポーズにまねて合成すべきまね画像を容易に取得できるだけでなく、類似度の評価対象に標準的モデルを用いることからまね対象者の人物画像との高い類似(まね)度が得られやすく、より表現の近いまね画像を取得できるようになる。
よって、本発明によれば、撮影画像に対して単に固定的な画像を合成するのではなく、時や場所に応じて被写体画像に対応した非常に面白味のある合成画像を作成して出力することが可能になる。
以下、図面を参照して本発明の実施の形態について説明する。
(第1実施形態)
図1は本発明の第1実施形態に係る画像出力装置10の電子回路の構成を示すブロック図である。
この画像出力装置10は、デジタルカメラ、デジタルカメラ付き携帯電話、デジタルカメラ付きPDA(personal digital assistants)などの携帯機器として構成されるもので、各種の記録媒体に記録されたプログラム、又は、伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)11が備えられる。
CPU11は、メモリ12内に予め記憶された装置制御プログラム、あるいはCD−ROMなどの外部記録媒体13から記録媒体読取部14を介して前記メモリ12に読み込まれた装置制御プログラム、あるいはインターネットN上のWebサーバ21(この場合はプログラムサーバ)から電送制御部15を介して前記メモリ12に読み込まれた装置制御プログラムに応じて、回路各部の動作を制御するもので、前記メモリ12に記憶された装置制御プログラムは、キーやタッチパネルからなる入力部16からのユーザ操作に応じた入力信号、あるいは画像入力部17を介して入力される画像信号、あるいは位置情報検出部(GPS:Global Positioning System)18xを介して入力される現在位置情報、あるいは電送制御部15を介して接続されるインターネットN上の各Webサーバ21…との通信信号に応じて起動される。
前記CPU11には、前記メモリ12、記録媒体読取部14、電送制御部15、入力部16、画像入力部17、位置情報検出部18xが接続される他に、距離センサ18、LCDからなる表示部19、画像出力部20などが接続される。
画像入力部17は、撮影画像データを入力するもので、この撮影画像データは、デジタルカメラ部17A、デジタルビデオムービー部17Bなどの画像撮影手段から選択的に取得される。なお、これらの画像撮影手段(17A)(17B)は、携帯機器である画像出力装置10の本体とは別体にして、接続ケーブルにより接続して使用したり、コネクタにより合体一体化して使用する構成としてもよい。
距離センサ18は、前記画像入力部17において入力される撮影画像の被写体までの距離を検出する。
画像出力部20は、前記画像入力部17から入力された撮影画像に基づき本装置により処理された画像データを出力するもので、この出力画像データは、メモリカード20A、VTR(録画装置)20B、画像印刷機20Cに選択的に出力され、当該画像の記憶,録画,印刷が行われる。
メモリ12には、当該画像出力装置10の全体の動作を司るシステムプログラムや電送制御部15を介してインターネットN上の各Webサーバ21…とデータ通信するための通信プログラムが記憶される他に、画像入力部17や画像出力部20を介して撮影画像における指定の対象画像(人物像)に応じた対応画像(例えば対象人物像のポーズをまねたキャラクタなどのアニメ画像)の追加合成出力処理や置き換え合成出力処理などをそのときの時間(時刻)や場所(位置)に関連付けて行うための画像出力処理プログラム12aなどが記憶される。
また、このメモリ12には、モデルポーズ画像メモリ12b、キャラ1「ウサギ(着物)」ポーズ画像メモリ12c、キャラ2「ウサギ(スキー)」ポーズ画像メモリ12d、キャラ3「ウサギ(サンタ)」ポーズ画像メモリ12e…やキャラ13「アニメ(フォーマル)」ポーズ画像メモリ12f、キャラ14「アニメ(カジュアル)」ポーズ画像メモリ12g、キャラ15「サングラス」ポーズ画像メモリ12hなどが用意され、さらに撮影画像メモリ12i、まね対象画像位置メモリ12j、合成設定モードメモリ12k、現在年月日メモリ12l、位置情報登録メモリ12m、そしてワークエリア12nなどが用意される。
図2は前記画像出力装置10のキャラ1「ウサギ(着物)」ポーズ画像メモリ12c:キャラ2「ウサギ(スキー)」ポーズ画像メモリ12d:キャラ3「ウサギ(サンタ)」ポーズ画像メモリ12eにそれぞれ記憶された各種のポーズに対応する各男性ウサギのキャラクタ画像12cM,12dM,12eMを示す図である。
図3は前記画像出力装置10のキャラ1「ウサギ(着物)」ポーズ画像メモリ12c:キャラ2「ウサギ(スキー)」ポーズ画像メモリ12d:キャラ3「ウサギ(サンタ)」ポーズ画像メモリ12eにそれぞれ記憶された各種のポーズに対応する各女性ウサギのキャラクタ画像12cW,12dW,12eWを示す図である。
図4は前記画像出力装置10のキャラ13「アニメ(フォーマル)ポーズ画像メモリ12f:キャラ14「アニメ(カジュアル)」ポーズ画像メモリ12gにそれぞれ記憶された各種のポーズに対応する各女性アニメおよび男性アニメのキャラクタ画像12fW,12gW,12fM,12gMを示す図である。
図5は前記画像出力装置10のキャラ15「サングラス」ポーズ画像メモリ12hに記憶された各種のポーズに対応するサングラスのキャラクタ画像を示す図である。
このキャラ1「ウサギ(着物)」,2「ウサギ(スキー)」,3「ウサギ(サンタ)」の各ポーズ画像メモリ12c,12d,12e,…やキャラ13「アニメ(フォーマル)」,キャラ14「アニメ(カジュアル)」,キャラ15「アニメ(サングラス)」の各ポーズ画像メモリ12f,12g,12h,…に記憶された各キャラクタそれぞれの各種のポーズ画像は、画像入力部17から入力された撮影画像上の被写体画像(人物画像)のポーズに応じた真似画像として選択的に使用されるもので、異なるポーズ毎にそのポーズNo.が対応付けられて記憶される。またこれらの各キャラクタそれぞれのポーズ画像が撮影画像上の被写体画像(対象画像)のポーズに応じた真似画像として使用される際には、そのときの月日・時間(時刻)や場所(位置)に応じて予めユーザにて変更設定されたキャラクタのポーズ画像が使用される。
図6は前記画像出力装置10のモデルポーズ画像メモリ12bに記憶されたモデルポーズに対応するモデル画像を示す図である。
このモデルポーズ画像メモリ12bに記憶された各種ポーズのモデル画像は、画像入力部17から入力された撮影画像上の被写体画像(人物画像)のポーズに応じた類似のモデル画像を取得するために使用されるもので、異なるポーズ毎にそのポーズNo.が対応付けられて記憶され、さらに各ポーズNo.毎に3種のバリエーションA,B,Cのモデル画像が記憶される。
そして、前記キャラ1「ウサギ(着物)」,2「ウサギ(スキー)」,3「ウサギ(サンタ)」の各ポーズ画像メモリ12c,12d,12e,…やキャラ13「アニメ(フォーマル)」,キャラ14「アニメ(カジュアル)」,キャラ15「アニメ(サングラス)」の各ポーズ画像メモリ12f,12g,12h,…にそれぞれ記憶された各キャラクタ画像には、前記モデルポーズ画像メモリ12bに記憶された全てのポーズNo.(No.1A,1B,1C、2A,2B,2C、〜、nA,nB,nC)に対応する同じポーズのキャラクタ画像が用意されて記憶される。
なお、前記キャラ15「サングラス」ポーズ画像メモリ12hに記憶される各ポーズ画像は、サングラスの部分以外の各ポーズに応じた人体部分が透明画像とされ、撮影画像におけるまね対象画像との重ね合わせによる置き換え画像合成を行うことで、まね対象画像にサングラスを掛けた合成画像が作成される。
撮影画像メモリ12iには、画像入力部17を介して入力された撮影画像データおよびこれに基づき作成された合成画像データがその撮影画像単位1,2,…で記憶される。なお、この撮影画像メモリ12iに記憶される各撮影画像データには、当該撮影画像の撮影時直前(例えばシャッタ半押し中)にサンプリングされた複数枚の撮影準備画像が共に記憶されるか、または当該撮影画像のAF(auto focus)処理に伴い取得された画像領域各部における撮影距離データが共に記憶される。
まね対象画像位置メモリ12jには、前記撮影画像メモリ12iに記憶された撮影画像1,2,…のそれぞれにおいて抽出された各被写体画像の中から、ユーザにより指定されたまね対象の被写体画像の位置情報が座標情報などにより各撮影画像単位1,2,…で記憶される。
合成設定モードメモリ12kには、前記撮影画像メモリ12iに記憶された撮影画像1,2,…のそれぞれについてユーザにより設定された画像合成モードの内容が各撮影画像単位1,2,…で記憶されるもので、本実施形態の画像合成モードでは、例えば月日・時間(時刻)に応じて前記撮影画像の中のまね対象画像のまねをするキャラクタ画像(対応画像)の種類または当該まねキャラクタ画像の合成方法(追加/置き換え)の種類を変更設定する時間対応合成変更モード、場所(位置)に応じて前記撮影画像の中のまね対象画像のまねをするキャラクタ画像(対応画像)の種類または当該まねキャラクタ画像の合成方法(追加/置き換え)の種類を変更設定する場所対応合成変更モードがある。
各合成変更モードにおいて、まねキャラクタ画像の種類(含む性別)を変更設定する場合には、これと共に当該まねキャラクタ画像の合成方法を追加合成または置き換え合成に固定設定し、合成方法の種類を変更設定する場合には、これと共にまねキャラクタ画像の種類を固定設定する。
現在年月日メモリ12lには、例えば前記CPU11から出力されるクロック信号に基づき計時される現在の年・月・日・時間(時刻)のデータが記憶される。
位置情報登録メモリ12mには、本画像出力装置10のユーザの移動範囲である例えば自宅,会社,学校などの各場所(位置)の情報が、緯度・経度の情報として各場所(位置)単位1,2,…で適宜入力されて登録される。
ワークエリア12nには、前記画像出力処理プログラム12aに従い処理される画像データがその画像処理に応じて一時記憶される。
このように構成された画像出力装置10について、その合成画像作成動作の概要を説明する。
図7は前記画像出力装置10による撮影画像に対する時間対応合成変更モードで月ごとにまねキャラクタ画像の種類を設定した場合の追加合成状態を示す図である。
この図7の実施例では、撮影画像12i1について、男女二人のまね対象画像H1,H2を指定し、月ごとに種類の異なるまねキャラクタ画像「うさぎ」(男女)12c,12d,12e,…を設定した場合について示す。
図7(A)に示すような撮影画像12i1の表示などの出力作業に伴い、図7(B)に示すように、まね対象として指定された被写体画像(人物画像)H1,H2が抽出され、現在の月が12月であると判断されると、図7(C)に示すように被写体画像(人物画像)H1,H2それぞれのポーズに類似(真似)のポーズNo.2「はいチーズ」のサンタクロース版ウサギ(男女)のまねキャラクタ画像12eM(2),12eW(2)がキャラ3「ウサギ(サンタ)」ポーズ画像メモリ12eから読み出される。すると、図7(D)に示すように、撮影画像12i1上のまね対象画像である被写体(人物画像)H1,H2の隣接位置に、前記キャラ3「ウサギ(サンタ)」ポーズ画像メモリ12eから読み出されたポーズNo.2「はいチーズ」のサンタクロース版ウサギ(男女)のまねキャラクタ画像12eM(2),12eW(2)が追加されて合成される。
これにより、クリスマス月の12月には、撮影画像12i1における被写体(人物画像)H1,H2それぞれのポーズの真似をした「ウサギ(サンタ)」のまねキャラクタ画像12eM(2),12eW(2)が当該被写体(人物画像)H1,H2それぞれの隣接位置に追加合成されて表示される。
また、現在の月が1月であると判断されると、図7(E)に示すように被写体画像(人物画像)H1,H2それぞれのポーズに類似(真似)のポーズNo.2「はいチーズ」の着物版ウサギ(男女)のまねキャラクタ画像12cM(2),12cW(2)がキャラ1「ウサギ(着物)」ポーズ画像メモリ12cから読み出される。すると、図7(F)に示すように、撮影画像12i1上のまね対象画像である被写体(人物画像)H1,H2の隣接位置に、前記キャラ1「ウサギ(着物)」ポーズ画像メモリ12cから読み出されたポーズNo.2「はいチーズ」の着物版ウサギ(男女)のまねキャラクタ画像12cM(2),12cW(2)が追加されて合成される。
これにより、正月の1月には、撮影画像12i1における被写体(人物画像)H1,H2それぞれのポーズの真似をした「ウサギ(着物)」のまねキャラクタ画像12cM(2),12cW(2)が当該被写体(人物画像)H1,H2それぞれの隣接位置に追加合成されて表示される。
図8は前記画像出力装置10による撮影画像に対する時間(又は場所)対応合成変更モードで時間(又は場所)ごとにまねキャラクタ画像の種類を設定した場合の置き換え合成状態を示す図である。
この図8の実施例では、撮影画像12i2について、まね対象画像H1を指定し、時間(又は場所)ごとに種類の異なるまねキャラクタ画像「アニメ(フォーマル)」12f,「サングラス」12hを設定した場合について示す。
図8(A)に示すような撮影画像12i2の表示などの出力作業に伴い、図8(B)に示すように、まね対象として指定された被写体画像(人物画像)H1が抽出され、現在の時間(又は場所)が8:00〜20:00(又は他の場所)であると判断されると、図8(C)に示すように被写体画像(人物画像)H1のポーズに類似(真似)のポーズNo.3「歩く(前)」のフォーマル版アニメ(女性)のまねキャラクタ画像12fW(3)がキャラ13「アニメ(フォーマル)」ポーズ画像メモリ12fから読み出される。すると、図8(D)に示すように、撮影画像12i2上のまね対象画像である被写体(人物画像)H1の位置に、前記キャラ13「アニメ(フォーマル)」ポーズ画像メモリ12fから読み出されたポーズNo.3「歩く(前)」のフォーマル版アニメ(女性)のまねキャラクタ画像12fW(3)が置き換えられて合成される。
これにより、昼間の時間(又は他の場所)では、撮影画像12i2における被写体(人物画像)H1のポーズの真似をした「アニメ(フォーマル)」のまねキャラクタ画像12fW(3)が当該被写体(人物画像)H1と置き換え合成され、元の被写体画像H1をアニメ画像で隠して表示される。
また、時間(又は場所)が20:00〜22:00(又は会社)であると判断されると、図8(E)に示すように被写体画像(人物画像)H1のポーズに類似(真似)のポーズNo.3「歩く(前)」のサングラス版アニメのまねキャラクタ画像12h(3)がキャラ15「サングラス」ポーズ画像メモリ12hから読み出される。すると、図8(F)に示すように、撮影画像12i2上のまね対象画像である被写体(人物画像)H1の位置に、前記キャラ15「サングラス」ポーズ画像メモリ12hから読み出されたポーズNo.3「歩く(前)」のサングラス版アニメのまねキャラクタ画像12h(3)が重ね合わせにより置き換えられて合成される。
これにより、夜の時間(又は会社)では、撮影画像12i2における被写体(人物画像)H1のポーズの真似をした「サングラス」のまねキャラクタ画像12h(3)が当該被写体(人物画像)H1に重ねて置き換えられ、当該被写体(人物画像)H1がサングラスを掛けた本人不明の合成画像として表示される。
なお、時間(又は場所)が22:00〜8:00(自宅)であると判断された場合には、前記撮影画像12i2は、図8(A)で示した元の画像のまま表示される。
図9は前記画像出力装置10による撮影画像に対する時間(又は場所)対応合成変更モードで時間(又は場所)ごとに画像合成方法の種類を設定した場合のまねキャラクタ画像「ウサギ(着物)」の合成状態を示す図である。
この図9の実施例では、撮影画像12i3について、まね対象画像H1,H2を指定し、時間(又は場所)ごとに指定のまねキャラクタ画像「ウサギ(着物)」12cの合成方法(置き換え/追加)を変更設定した場合について示す。
図9(A)に示すような撮影画像12i3の表示などの出力作業に伴い、図9(B)に示すように、まね対象として指定された被写体画像(人物画像)H1,H2が抽出されると、図9(C)に示すように、被写体画像(人物画像)H1,H2のポーズに類似(真似)のポーズNo.2「はいチーズ」の着物版ウサギ(男女)のまねキャラクタ画像12cM(2),12cW(2)がキャラ1「ウサギ(着物)」ポーズ画像メモリ12cから読み出される。そして、現在の時間(又は場所)が8:00〜20:00(又は会社)であると判断されると、図9(D)に示すように、撮影画像12i3上のまね対象画像である被写体(人物画像)H1,H2の位置に、前記キャラ1「ウサギ(着物)」ポーズ画像メモリ12cから読み出されたポーズNo.2「はいチーズ」の着物版ウサギ(男女)のまねキャラクタ画像12cM(2),12cW(2)がそれぞれ置き換えられて合成される。
これにより、昼間の時間(又は会社)では、撮影画像12i3における被写体(人物画像)H1,H2のポーズの真似をした「ウサギ(着物)」のまねキャラクタ画像12cM(2),12cW(2)が当該被写体(人物画像)H1,H2とそれぞれ置き換え合成され、元の被写体画像H1,H2を着物版ウサギ画像で隠して表示される。
また、時間(又は場所)が20:00〜8:00(又は自宅)であると判断されると、図9(E)に示すように、撮影画像12i3上のまね対象画像である被写体(人物画像)H1,H2それぞれの隣接位置に、前記キャラ1「ウサギ(着物)」ポーズ画像メモリ12cから読み出されたポーズNo.2「はいチーズ」の着物版ウサギ(男女)のまねキャラクタ画像12cM(2),12cW(2)がそれぞれ追加されて合成される。
これにより、夜間の時間(又は自宅)では、撮影画像12i3における被写体(人物画像)H1,H2のポーズの真似をした「ウサギ(着物)」のまねキャラクタ画像12cM(2),12cW(2)が当該被写体(人物画像)H1,H2と並んで追加合成されて表示される。
すなわち、各撮影画像12inについて、まね対象の被写体画像Hnを指定するのと共に、時間(時刻)や場所(位置)に応じてまねキャラクタ画像の種類を変更設定したり、画像合成方法を変更設定したりすることで、様々な時間(時刻)や場所(位置)に応じて指定の被写体画像Hnのポーズの真似をした所望の種類のキャラクタ画像を当該被写体画像Hnに隣接して追加合成したり、当該被写体画像Hnと置き換え合成したりして出力することができ、1枚の撮影画像であっても、被写体画像の真似をしたキャラクタ画像の合成によって多様に異なる面白味のある画像を提供できるようになる。
次に、前記構成による画像出力装置10による詳細な画像処理動作について説明する。
ここでは、画像出力装置10をデジタルカメラとして実施した場合について説明する。
図10は前記画像出力装置であるデジタルカメラ10とそのクレードル15xの外観構成を示す図である。
デジタルカメラ10の入力部16としては、メニュー画面を表示させるための「MENU」キー16a、撮影モード(REC)と再生モード(PLAY)とを切り替えるための切り替えキー16b、撮影画像の取り込みを指示するためのシャッタキー16c、表示画面(19)上でのデータ選択やカーソル移動及び選択データ決定などの操作を行うための上下左右に指1本で操作可能な選択/決定キー16dが備えられる。
また、デジタルカメラ10は、当該カメラ10の充電台やユーザPC(personal computer)との通信インターフェイスとなるクレードル15xに対して容易に着脱可能である。このクレードル15xへのデジタルカメラ10の装着状態において、「PHOTO」ボタン15aが押された場合には、撮影画像メモリ12iに保存されている各撮影画像12inやその合成画像12inmの表示部19に対する読み出し表示(フォトスタンド機能)が行われる。
なお、「USB」ボタン15bが押された場合には、撮影画像メモリ12iに保存されている各撮影画像12inやその合成画像12inmのユーザPCへの転送出力が行われる。
なお、シャッタキー16cは、半押し/全押しの2段階で撮影画像の取り込みを指示するキーであり、半押し状態では、画像入力部17から入力された撮影画像12inはAE(auto exposure),AF(auto focus)など調整されて画像処理ワークエリア12nに一旦書き込まれて表示部19に表示され、全押し状態にして撮影画像メモリ12iへの登録が行われる。
図11は前記画像出力装置(デジタルカメラ)10による画像合成設定処理を示すフローチャートである。
この画像合成設定処理では、撮影画像12inに対して画像合成モードの内容設定を行うもので、当該画像合成設定処理が起動されると、まず、月日・時間(時刻)に応じて合成画像の種類変更を行うか(ステップS1)、または場所(位置)に応じて合成画像の種類変更を行うか(ステップS5)の選択メッセージが表示される。
ここで、月日・時間(時刻)に応じて合成画像の種類変更を行う項目が選択されると(ステップS1)、月ごとにまねキャラクタ画像(まね対象画像の対応画像)の種類変更を行うか(ステップS2)、または時間ごとにまねキャラクタ画像(対応画像)の種類変更を行うか(ステップS3)、または時間ごとに画像合成方法の種類変更を行うか(ステップS4)の選択メッセージが表示される。
ここで、月ごとにまねキャラクタ画像(対応画像)の種類変更を行う項目が選択された場合に(ステップS2)、例えば図7(A)で示した撮影画像12i1について、まねキャラクタ画像の種類を1月は着物版ウサギ(男女)12c、2月はスキー版ウサギ(男女)12d、…、12月はサンタ版ウサギ(男女)12eとして順次設定すると(ステップS6)、当該月ごとに変更設定されたまねキャラクタ画像をどのように画像合成するかを指定する選択メッセージが表示される(ステップS7)。
そして、画像の合成方法がまね対象画像との置き換え又は追加の何れかとして指定されると、これまでの設定内容である「月ごとの対応画像の種類・画像合成方法」が合成対象の撮影画像12inに対応付けられて合成設定モードメモリ12kに記憶される。
一方、前記時間ごとにまねキャラクタ画像(対応画像)の種類変更を行う項目が選択された場合に(ステップS3)、例えば図8(A)で示した撮影画像12i2について、まねキャラクタ画像の種類を8:00〜20:00はフォーマル版アニメ(女性)12f、20:00〜22:00はサングラス12h、22:00〜8:00は合成なしとして順次設定すると(ステップS8)、当該時間ごとに変更設定されたまねキャラクタ画像をどのように画像合成するかを指定する選択メッセージが表示される(ステップS9)。
そして、画像の合成方法がまね対象画像との置き換え又は追加の何れかとして指定されると、これまでの設定内容である「時間ごとの対応画像の種類・画像合成方法」が合成対象の撮影画像12inに対応付けられて合成設定モードメモリ12kに記憶される。
また、前記時間ごとに画像合成方法の種類変更を行う項目が選択された場合に(ステップS4)、例えば図9(A)で示した撮影画像12i3について、まねキャラクタ画像の合成方法の種類を8:00〜20:00はまね対象画像との「置き換え合成」、20:00〜8:00は「追加合成」として順次設定すると(ステップS10)、当該時間ごとに変更設定された画像合成方法によって何れの種類のまねキャラクタ画像(対応画像)を合成するかを指定する選択メッセージが表示される(ステップS11)。
そして、画像合成すべきまねキャラクタ画像(対応画像)の種類の何れかが指定されると、これまでの設定内容である「時間ごとの画像合成方法・対応画像の種類」が合成対象の撮影画像12inに対応付けられて合成設定モードメモリ12kに記憶される。
一方、前記ステップS5において、場所(位置)に応じて合成画像の種類変更を行う項目が選択された場合に、例えば図8(A)で示した撮影画像12i2について、まねキャラクタ画像の種類を会社・自宅以外の他の場所ではフォーマル版アニメ(女性)12f、会社ではサングラス12h、自宅では合成なしとして順次設定すると(ステップS12)、当該場所(位置)ごとに変更設定されたまねキャラクタ画像をどのように画像合成するかを指定する選択メッセージが表示される(ステップS13)。
そして、画像の合成方法がまね対象画像との置き換え又は追加の何れかとして指定されると、これまでの設定内容である「場所(位置)ごとの対応画像の種類・画像合成方法」が合成対象の撮影画像12inに対応付けられて合成設定モードメモリ12kに記憶される。
なお、同フローチャートでは省略しているが、前記同様の手順に従い、場所(位置)に応じて画像合成方法の種類変更を設定する場合もあり、この場合には、例えば図9(A)で示した撮影画像12i3について、まねキャラクタ画像の合成方法の種類を会社ではまね対象画像との「置き換え合成」、自宅では「追加合成」として順次設定すると、当該場所ごとに変更設定された画像合成方法によって何れの種類のまねキャラクタ画像(対応画像)を合成するかを指定する選択メッセージが表示される。
そして、画像合成すべきまねキャラクタ画像(対応画像)の種類の何れかが指定されると、これまでの設定内容である「場所(位置)ごとの画像合成方法・対応画像の種類」が合成対象の撮影画像12inに対応付けられて合成設定モードメモリ12kに記憶される。
このように、時間や場所ごとに選択設定された撮影画像12inに対するまねキャラクタ画像(対応画像)の種類およびその画像合成方法が合成設定モードメモリ12kに登録されると、図12における対象画像抽出処理に移行され、当該撮影画像12inから各被写体画像Hnを抽出し所望のまね対象画像を指定するための処理が実施される(ステップSA)。
図12は前記画像出力装置10の画像合成設定処理に伴う対象画像抽出処理を示すフローチャートであり、同図(A)はその対象画像抽出処理(方式1)を示すフローチャート、同図(B)はその対象画像抽出処理(方式2)を示すフローチャートである。
図12(A)における対象画像抽出処理(方式1)では、前記画像入力部17を介して所定のタイミングで順次入力される一連の撮影画像12in…がワークエリアの撮影画像メモリ12iに対し記憶される(ステップA11)。
すると、この撮影画像メモリ12iに記憶された一連の撮影画像12in…のそれぞれから被写体の動きに伴う画像の変化部分が当該各被写体のブロック毎に抽出され(ステップA12)、これにより抽出された各被写体画像Hnがそのブロック毎に画像処理ワークエリア12nに保存される(ステップA13)。
図12(B)における対象画像抽出処理(方式2)では、前記画像入力部17を介して入力される撮影画像12inの各部分毎に距離センサ18による距離測定が行われ(ステップA21)、背景画像と被写体画像との距離差に基づき近距離側として判別される各被写体画像Hnがそのブロック毎に抽出される(ステップA22)。
これにより抽出された各被写体画像Hnがそのブロック毎に画像処理ワークエリア12nに保存される(ステップA23)。
こうして、撮影画像12inから当該撮影画像12inに含まれる各被写体画像Hnがそのブロック毎に抽出されて画像処理ワークエリア12nに保存されると(ステップSA)、例えば図7(A)または図8(A)または図9(A)で示すように、抽出された各被写体画像Hnのそれぞれに囲みマークMが付加された撮影画像12inが表示部19に表示される。そして、入力部16によるユーザ操作に応じて前記囲みマークMが付加された被写体画像Hn…の中から真似の対象画像(人物像)が指定される(ステップS14)。
すると、このステップS14において指定された撮影画像12inの中のまね対象画像Hnの画像部分に対応する位置情報が、当該撮影画像12inに対応付けられてまね対象画像位置メモリ12jに記憶される(ステップS15)。
これにより、撮影画像メモリ12iに記憶された各撮影画像12in…に対しては、それぞれそのまね対象画像Hnの位置情報がまね対象画像位置メモリ12jに記憶され、また画像合成モードの設定内容(時間や場所に応じたまねキャラクタ画像の種類・画像合成方法)が合成設定モードメモリ12kに記憶された状態となる。
図13は前記画像出力装置10の画像表示処理を示すフローチャートである。
この画像表示処理は、撮影画像メモリ12iに記憶された各撮影画像12in…を適宜読み出して表示などの出力を行う場合に起動されるもので、まず出力希望の撮影画像12inが指定されると、当該撮影画像12inに対応付けられて設定された画像合成モードが合成設定モードメモリ12kから読み出される(ステップX1)。
すると、この出力対象の撮影画像12inに対応付けられた画像合成モードの設定内容について、月日・時間(時刻)に応じて合成画像の種類変更を行うものか(ステップX2)、又は場所(位置)に応じて合成画像の種類変更を行うものか(ステップX3)の何れであるか判断される。
ここで、画像合成モードの設定内容が、月日・時間(時刻)に応じて合成画像の種類変更を行うものであると判断されると(ステップX2)、現在年月日メモリ12lに逐次更新されて記憶されている現在の年月日・時刻データが読出されると共に(ステップX4)、当該合成モードの設定内容が月ごとにまねキャラクタ画像(対応画像)の種類変更を行うものか(ステップX5)、または時間ごとにまねキャラクタ画像(対応画像)の種類変更を行うものか(ステップX7)、または時間ごとに画像合成方法の変更を行うものか(ステップX9)、の何れであるか判断される。
ここで、例えば前記図7で示した撮影画像12i1について設定されたように、月ごとにまねキャラクタ画像(対応画像)の種類変更を行うものとして設定されていると判断されると(ステップX5)、同撮影画像12i1に対応する合成設定モードの内容(12k1)から現在の月に対応して設定されたまねキャラクタ画像(対応画像)の種類(1月「着物版ウサギ」・2月「スキー版ウサギ」…12月「サンタ版ウサギ」)、および指定の画像合成方法(追加合成)が読み出される(ステップX6)。
すると、図14における対応画像取得処理に移行され(ステップXB)、撮影画像12i1について指定されたまね対象画像H1,H2に対応(類似)したポーズの前記現在月で設定された種類のまねキャラクタ画像の取得処理が行われ、指定の画像合成方法(追加合成)にて当該撮影画像12i1に対する画像合成が行われる(ステップX13)。
また、例えば前記図8で示した撮影画像12i2について設定されたように、時間ごとにまねキャラクタ画像(対応画像)の種類変更を行うものとして設定されていると判断されると(ステップX7)、同撮影画像12i2に対応する合成設定モードの内容(12k2)から現在の時間に対応して設定されたまねキャラクタ画像(対応画像)の種類(8:00〜20:00「フォーマル版アニメ(女)」・20:00〜22:00「サングラス」・22:00〜8:00「合成なし」)、および指定の画像合成方法(置き換え合成)が読み出される(ステップX8)。
すると、図14における対応画像取得処理に移行され(ステップXB)、撮影画像12i2について指定されたまね対象画像H1に対応(類似)したポーズの前記現在時間で設定された種類のまねキャラクタ画像の取得処理が行われ、指定の画像合成方法(置き換え合成)にて当該撮影画像12i2に対する画像合成が行われる(ステップX13)。
また、例えば前記図9で示した撮影画像12i3について設定されたように、時間ごとに画像合成方法の種類変更を行うものとして設定されていると判断されると(ステップX9)、同撮影画像12i3に対応する合成設定モードの内容(12k3)から現在の時間に対応して設定された合成方法の種類(8:00〜20:00「置き換え合成」・20:00〜8:00「追加合成」)、および指定のまねキャラクタ画像(対応画像)の種類「着物版ウサギ(男女)」が読み出される(ステップX10)。
すると、図14における対応画像取得処理に移行され(ステップXB)、撮影画像12i3について指定されたまね対象画像H1,H2に対応(類似)したポーズの前記指定の種類のまねキャラクタ画像「着物版ウサギ(男女)」の取得処理が行われ、前記現在時間で設定された種類の合成方法にて当該撮影画像12i3に対する画像合成が行われる(ステップX13)。
一方、前記ステップX3において、画像合成モードの設定内容が、場所(位置)に応じて合成画像の種類変更を行うものであると判断されると、位置情報検出部18xにより検出される現在位置情報が検知される(ステップX11)。
ここで、例えば前記図8で示した撮影画像12i2について設定されたように、場所(位置)ごとにまねキャラクタ画像(対応画像)の種類変更を行うものとして設定されている場合には、同撮影画像12i2に対応する合成設定モードの内容(12k2)から現在の位置情報に対応して設定されたまねキャラクタ画像(対応画像)の種類(自宅「合成なし」・会社「サングラス」・その他の場所「フォーマル版アニメ(女)」)、および指定の画像合成方法(置き換え合成)が読み出される(ステップX12)。
すると、図14における対応画像取得処理に移行され(ステップXB)、撮影画像12i2について指定されたまね対象画像H1に対応(類似)したポーズの前記現在位置で設定された種類のまねキャラクタ画像の取得処理が行われ、指定の画像合成方法(置き換え合成)にて当該撮影画像12i2に対する画像合成が行われる(ステップX13)。
また同様に、例えば前記図9で示した撮影画像12i3について設定されたように、場所(位置)ごとに画像合成方法の種類変更を行うものとして設定されている場合には、同撮影画像12i3に対応する合成設定モードの内容(12k3)から現在の位置情報に対応して設定された合成方法の種類(会社「置き換え合成」・自宅「追加合成」)、および指定のまねキャラクタ画像(対応画像)の種類「着物版ウサギ(男女)」が読み出される。
すると、図14における対応画像取得処理に移行され(ステップXB)、撮影画像12i3について指定されたまね対象画像H1,H2に対応(類似)したポーズの前記指定の種類のまねキャラクタ画像「着物版ウサギ(男女)」の取得処理が行われ、前記現在位置で設定された種類の合成方法にて当該撮影画像12i3に対する画像合成が行われる(ステップX13)。
図14は前記画像出力装置10の画像表示処理に伴う対応アニメ画像取得処理を示すフローチャートであり、同図(A)はその対応アニメ画像取得処理(方式1)を示すフローチャート、同図(B)はその対応アニメ画像取得処理(方式2)を示すフローチャートである。
図14(A)における対応アニメ画像取得処理(方式1)では、まず、前記撮影画像12inから抽出されて真似対象画像として設定された被写体画像Hnと前記時間や場所に応じて指定された種類の各ポーズのキャラクタ画像との類似度が評価され(ステップB1C)、最も類似度の高いポーズのキャラクタ画像が表示部19に表示される(ステップB12)。
ここで、入力部16に対するユーザ操作に応じて前記表示部19に表示された真似対象画像Hnに最も類似度の高いポーズのキャラクタ画像が選択されると、この選択されたポーズNo.の指定種類のキャラクタ画像が真似対象画像Hnに対応するアニメ画像として登録される(ステップB13→B14)。
一方、前記表示部19に真似対象画像Hnに最も類似度の高いポーズの指定種類のキャラクタ画像が表示された状態で、入力部16に対するユーザ操作に応じて「次表示」が指示されると、当該「次表示」の操作毎に次に類似度の高いポーズの指定種類のキャラクタ画像が順番に表示される(ステップB13→B15)。
そして、所望の類似度のポーズのキャラクタ画像が選択表示され、入力部16に対するユーザ操作に応じて当該表示されたキャラクタ画像が選択されると、この選択されたポーズNo.の指定種類のキャラクタ画像が真似対象画像Hnに対応するアニメ画像として登録される(ステップB13→B14)。
このように、対応アニメ画像取得処理(方式1)では、撮影画像12inから抽出設定された真似対象画像としての被写体画像Hnに対し、時間や場所に応じて指定された種類の各ポーズ毎のキャラクタ画像との類似度が直接評価され、これに基づき被写体画像Hnを真似たポーズの現在時間や現在位置に応じたキャラクタとして追加または置き換えられるキャラクタ画像が決定される。
図14(B)における対応アニメ画像取得処理(方式2)では、まず、前記撮影画像12inから抽出されて真似対象画像として設定された被写体画像Hnとモデルポーズ画像メモリ12bに記憶されている各ポーズのモデル画像との類似度が評価され(ステップB2C)、最も類似度の高いポーズのモデル画像のポーズNo.に対応する前記時間や場所に応じた指定種類のキャラクタ画像が表示部19に表示される(ステップB22)。
ここで、入力部16に対するユーザ操作に応じて前記表示部19に表示された真似対象画像Hnに最も類似度の高いモデルポーズに対応する指定種類のキャラクタ画像が選択されると、この選択されたポーズNo.の指定種類のキャラクタ画像が真似対象画像Hnに対応するアニメ画像として登録される(ステップB23→B24)。
一方、前記表示部19に真似対象画像Hnに最も類似度の高いポーズのモデル画像のポーズNo.に対応する指定種類のキャラクタ画像が表示された状態で、入力部16に対するユーザ操作に応じて「次表示」が指示されると、当該「次表示」の操作毎に次に類似度の高いモデル画像のポーズNo.に対応する指定種類のキャラクタ画像が順番に表示される(ステップB23→B25)。
そして、所望の類似度のモデルポーズに対応するキャラクタ画像が選択表示され、入力部16に対するユーザ操作に応じて当該表示されたキャラクタ画像が選択されると、この選択されたポーズNo.の指定種類のキャラクタ画像が真似対象画像Hnに対応するアニメ画像として登録される(ステップB23→B24)。
このように、対応アニメ画像取得処理(方式2)では、撮影画像12inから抽出設定された真似対象画像としての被写体画像Hnに対し、人物の基本モデルである各ポーズ毎のモデル画像との類似度が評価され、これに基づき被写体画像Hnを真似たポーズの現在時間や現在位置に応じたキャラクタとして追加または置き換えられるキャラクタ画像が決定される。
この場合、真似対象画像としての被写体画像Hnに対し、指定種類のキャラクタの各ポーズ毎のキャラクタ画像との類似度を直接評価してまねキャラクタ画像を決定するようにした対応アニメ画像取得処理(方式1)に比較して、各ポーズ毎のモデル画像との類似度を評価し選択されたモデルポーズNo.から指定種類のまねキャラクタ画像を決定するようにした対応アニメ画像取得処理(方式2)の方が、類似度の評価対象に標準的人物モデルを用いることから被写体画像Hnとの高い類似度が得られやすく、より類似性(真似度)の高いキャラクタ画像を取得できる利点がある。
図15は前記画像出力装置10の画像表示処理に伴う対応アニメ画像取得処理(方式1)(方式2)での真似対象画像Hnとの類似度評価処理を示すフローチャートである。
対応アニメ画像取得処理(方式1)での類似度評価処理の場合は指定種類のキャラクタの各ポーズ毎のキャラクタ画像との類似度を評価し、対応アニメ画像取得処理(方式2)での類似度評価処理の場合は各ポーズ毎のモデル画像との類似度を評価する。
図16は前記画像出力装置10の対応アニメ画像取得処理(方式1)での類似度評価処理に伴う指定種類のキャラクタ画像との類似度評価例を示す図である。
図17は前記画像出力装置10の対応アニメ画像取得処理(方式2)での類似度評価処理に伴うモデル画像との類似度評価例を示す図である。
類似度評価処理(方式1)の場合、例えば図16(A)に示すように、時間や場所に応じて設定された種類のキャラクタ「アニメ(フォーマル)女」における先頭のポーズNo.のキャラクタ画像(例えば12fw(3))が読み出され(ステップC1)、同図(X)で示す真似対象画像H1との縦・横のサイズが合わされる(ステップC2)。
すると、前記真似対象画像H1と縦横サイズの合わされたキャラクタ画像との重ね合わせ評価が行われ、その評価値(%)が算出されて当該ポーズのキャラクタ画像との類似度として記憶される(ステップC3)。
ここで、今回の類似度評価対象のポーズNo.のキャラクタ画像が左右非対称の画像であるか否か判断され(ステップC4)、当該ポーズのキャラクタ画像が左右非対称の画像ではないと判断された場合には(ステップC4「No」)、例えば図16(B)に示すように、順次、次のポーズNo.の指定種類のキャラクタ画像との間でサイズ合わせ処理と重ね合わせ評価値の算出処理とによる類似度の算出,記憶処理が繰り返される(ステップC8→C9→C2〜C4)。
一方、図16(B)に示すように、今回の類似度評価対象のポーズNo.のキャラクタ画像が左右非対称のキャラクタ画像(例えば12fw(11))であると判断された場合には、図16(C)に示すように、当該ポーズのキャラクタ画像が左右反転され(ステップC4→C5)、この反転されたキャラクタ画像12fw(11)Rについて真似対象画像H1との縦・横のサイズが合わされる(ステップC6)。
すると、前記真似対象画像H1と縦横サイズの合わされた反転キャラクタ画像12fw(11)Rとの重ね合わせ評価が行われ、その評価値(%)が算出されて当該ポーズの反転キャラクタ画像との類似度として記憶される(ステップC7)。
この後、指定種類のキャラクタにおける次のポーズNo.のキャラクタ画像がある場合には(ステップC8)、当該次のポーズNo.のキャラクタ画像が順次読み出され(ステップC9)、前記同様に真似対象画像Hnと各ポーズ毎の指定種類のキャラクタ画像との類似度評価処理が繰り返される(ステップC2〜C7)。
これにより、例えば図16で示したように、被写体画像(対象画像)H1に対して「アニメ(フォーマル)女」のキャラクタ画像との類似度評価を行った場合には、ポーズNo.(3)に対応する「フォーマル版アニメ(女性)」のキャラクタ画像12fw(3)が最も類似度の高いキャラクタ画像として評価される。
次に、類似度評価処理(方式2)の場合、例えば図17(A)に示すように、先頭のポーズNo.のモデル画像(例えば12b(3B))が読み出され(ステップC1)、同図(X)で示す真似対象画像H1との縦・横のサイズが合わされる(ステップC2)。
すると、前記真似対象画像H1と縦横サイズの合わされたモデル画像との重ね合わせ評価が行われ、その評価値(%)が算出されて当該ポーズのモデル画像との類似度として記憶される(ステップC3)。
ここで、今回の類似度評価対象のポーズNo.のモデル画像が左右非対称の画像であるか否か判断され(ステップC4)、例えば図17(A)で示すように、当該ポーズのモデル画像12b(3B)が左右非対称の画像ではないと判断された場合には(ステップC4「No」)、次のポーズNo.のモデル画像が読み出され(ステップC8→C9)、前記同様に真似対象画像H1と次のポーズのモデル画像との類似度評価処理が繰り返される(ステップC2〜C4)。
一方、例えば図17(B)で示すように、今回の類似度評価対象のポーズNo.1Bのモデル画像12b(1B)が左右非対称のモデル画像であると判断された場合には、当該ポーズ1Bのモデル画像が左右反転され(ステップC4→C5)、図17(C)で示すように、この反転されたモデル画像12b(1B)Rについて真似対象画像H1との縦・横のサイズが合わされる(ステップC6)。
すると、前記真似対象画像H1と縦横サイズの合わされた反転モデル画像12b(1B)Rとの重ね合わせ評価が行われ、その評価値(%)が算出されて当該ポーズの反転モデル画像12b(1B)Rとの類似度として記憶される(ステップC7)。
この後、次のポーズNo.のモデル画像がある場合には(ステップC8)、当該次のポーズNo.のモデル画像が順次読み出され(ステップC9)、前記同様に真似対象画像と各ポーズ毎のモデル画像との類似度評価処理が繰り返される(ステップC2〜C7)。
これにより、例えば図17で示したように、被写体画像(対象画像)H1に対してモデル画像との類似度評価を行った場合には、ポーズNo.3Bに対応するモデル画像12b(3B)が最も類似度の高いポーズのモデル画像として評価される。
このように、前記図14〜図17を参照して説明した対応画像取得処理(ステップXB)によって、撮影画像12inから抽出された真似対象画像としての被写体画像Hnを真似たポーズで現在時間や現在位置に応じた設定種類のキャラクタ画像が決定されると、指定された画像の合成方法が「追加合成」又は「置き換え合成」の何れであるか判断され、この合成方法に従い前記取得されたキャラクタ画像の合成が行われる(ステップX13)。
すなわち、例えば図7で示した撮影画像12i1について、同撮影画像12i1に対応する合成設定モードの内容(12k1)から現在の月に対応して設定されたまねキャラクタ画像(対応画像)の種類(1月「着物版ウサギ」・2月「スキー版ウサギ」…12月「サンタ版ウサギ」)、および指定の画像合成方法(追加合成)が読み出された場合に(ステップX5→X6)、現在の月が12月であるときには、図7(C)に示すように、まね対象画像H1,H2に対応(類似)したポーズNo.2「はいチーズ」のサンタ版ウサギ画像12eM(2),12eW(2)が取得される(ステップXB)。そして、図7(D)に示すように、撮影画像12i1上のまね対象画像H1,H2の隣接位置に前記取得された「はいチーズ」のサンタ版ウサギ画像12eM(2),12eW(2)が追加合成され(ステップX13)、その合成画像12i11が表示される(ステップX14)。
また、現在の月が1月であるときには、図7(E)に示すように、まね対象画像H1,H2に対応(類似)したポーズNo.2「はいチーズ」の着物版ウサギ画像12cM(2),12cW(2)が取得される(ステップXB)。そして、図7(F)に示すように、撮影画像12i1上のまね対象画像H1,H2の隣接位置に前記取得された「はいチーズ」の着物版ウサギ画像12cM(2),12cW(2)が追加合成され(ステップX13)、その合成画像12i12が表示される(ステップX14)。
これにより、一枚の撮影画像12i1を見る月によって異なる種類のまねキャラクタ画像を設定し、追加合成画像12i11や12i12として多様に表示できるようになる。
一方、例えば図8で示した撮影画像12i2について、同撮影画像12i2に対応する合成設定モードの内容(12k2)から現在の時間に対応して設定されたまねキャラクタ画像(対応画像)の種類(8:00〜20:00「フォーマル版アニメ(女)」・20:00〜22:00「サングラス」・22:00〜8:00「合成なし」)、および指定の画像合成方法(置き換え合成)が読み出された場合に(ステップX7→X8)、現在時間が8:00〜20:00であるときには、図8(C)に示すように、まね対象画像H1に対応(類似)したポーズNo.3「歩く(前)」のフォーマル版アニメ(女)画像12fw(3)が取得される(ステップXB)。そして、図8(D)に示すように、撮影画像12i2上のまね対象画像H1に置き換えられて前記取得された「歩く(前)」のフォーマル版アニメ(女)画像12fw(3)が合成され(ステップX13)、その合成画像12i21が表示される(ステップX14)。
また、現在時間が20:00〜22:00であるときには、図8(E)に示すように、まね対象画像H1に対応(類似)したポーズNo.3「歩く(前)」のサングラス版透明画像12h(3)が取得される(ステップXB)。そして、図8(F)に示すように、撮影画像12i2上のまね対象画像H1に置き換えられて前記取得された「歩く(前)」のサングラス版透明画像12h(3)が合成され(ステップX13)、その合成画像12i22が表示される(ステップX14)。なお、現在時間が22:00〜8:00であるときには、図8(A)に示すように、撮影画像12i2がそのまま表示される。
これにより、一枚の撮影画像12i2を見る時間帯によって異なる種類のまねキャラクタ画像を設定し、まね対象画像である被写体画像H1との置き換え合成画像12i21や12i22として多様に表示できるようになる。この場合、8:00〜22:00の比較的第3者にも見られ易い時間帯においては、まね対象画像である被写体画像H1をまねキャラクタ画像であるフォーマル版アニメ画像やサングラス画像で置き換えた合成画像12i21,12i22として表示し、22:00〜8:00のプライベートな時間帯においては、合成なしの撮影画像12i3のまま表示することで、第3者に見られたくない人物画像を自然に且つ違和感なく隠して表示できるようになる。
一方、例えば図9で示した撮影画像12i3について、同撮影画像12i3に対応する合成設定モードの内容(12k3)から現在の時間に対応して設定された合成方法の種類(8:00〜20:00「置き換え合成」・20:00〜8:00「追加合成」)、および指定のまねキャラクタ画像(対応画像)の種類「着物版ウサギ(男女)」が読み出された場合に(ステップX9→X10)、現在時間が8:00〜20:00であるときには、図9(C)に示すように、まね対象画像H1,H2に対応(類似)したポーズNo.2「はいチーズ」の着物版ウサギ(男女)画像12cM(2),12cW(2)が取得されると共に(ステップXB)、図9(D)に示すように、撮影画像12i3上のまね対象画像H1,H2にそれぞれ置き換えられて合成され(ステップX13)、その合成画像12i31が表示される(ステップX14)。
また、現在時間が20:00〜8:00であるときには、図9(C)に示すように、まね対象画像H1,H2に対応(類似)したポーズNo.2「はいチーズ」の着物版ウサギ(男女)画像12cM(2),12cW(2)が取得されると共に(ステップXB)、図9(E)に示すように、撮影画像12i3上のまね対象画像H1,H2それぞれの隣接位置に追加合成され(ステップX13)、その合成画像12i32が表示される(ステップX14)。
これにより、一枚の撮影画像12i3を見る時間帯によって異なる種類の合成方式を設定し、まね対象画像である被写体画像H1,H2との置き換え合成画像12i31や追加合成画像12i32として多様に表示できるようになる。この場合、8:00〜20:00の比較的第3者にも見られ易い時間帯においては、まね対象画像である被写体画像H1,H2をまねキャラクタ画像である着物版ウサギ画像(男女)で置き換えた合成画像12i31として表示し、20:00〜8:00のプライベートな時間帯においては、同まねキャラクタ画像である着物版ウサギ画像(男女)を追加しただけの合成画像12i32として表示することで、第3者に見られたくない人物画像を自然に且つ違和感なく隠して表示できるようになる。
一方、例えば前記図8で示した撮影画像12i2について、同撮影画像12i2に対応する合成設定モードの内容(12k2)から現在の位置情報に対応して設定されたまねキャラクタ画像(対応画像)の種類(自宅「合成なし」・会社「サングラス」・その他の場所「フォーマル版アニメ(女)」)、および指定の画像合成方法(置き換え合成)が読み出された場合に(ステップX12)、現在位置が他の場所であるときには、図8(C)に示すように、まね対象画像H1に対応(類似)したポーズNo.3「歩く(前)」のフォーマル版アニメ(女)画像12fw(3)が取得される(ステップXB)。そして、図8(D)に示すように、撮影画像12i2上のまね対象画像H1に置き換えられて前記取得された「歩く(前)」のフォーマル版アニメ(女)画像12fw(3)が合成され(ステップX13)、その合成画像12i21が表示される(ステップX14)。
また、現在位置が会社であるときには、図8(E)に示すように、まね対象画像H1に対応(類似)したポーズNo.3「歩く(前)」のサングラス版透明画像12h(3)が取得される(ステップXB)。そして、図8(F)に示すように、撮影画像12i2上のまね対象画像H1に置き換えられて前記取得された「歩く(前)」のサングラス版透明画像12h(3)が合成され(ステップX13)、その合成画像12i22が表示される(ステップX14)。なお、現在位置が自宅であるときには、図8(A)に示すように、撮影画像12i2がそのまま表示される。
これにより、一枚の撮影画像12i2を見る場所(位置)によって異なる種類のまねキャラクタ画像を設定し、まね対象画像である被写体画像H1との置き換え合成画像12i21や12i22として多様に表示できるようになる。この場合、会社やその他の場所での比較的第3者にも見られ易い場所(位置)においては、まね対象画像である被写体画像H1をまねキャラクタ画像であるフォーマル版アニメ画像やサングラス画像で置き換えた合成画像12i21,12i22として表示し、自宅においては合成なしの撮影画像12i3のまま表示することで、第3者に見られたくない人物画像を自然に且つ違和感なく隠して表示できるようになる。
また同様に、例えば図9で示した撮影画像12i3について、同撮影画像12i3に対応する合成設定モードの内容(12k3)から現在の位置情報に対応して設定された合成方法の種類(会社「置き換え合成」・自宅「追加合成」)、および指定のまねキャラクタ画像(対応画像)の種類「着物版ウサギ(男女)」が読み出された場合に、現在位置が会社であるときには、図9(C)に示すように、まね対象画像H1,H2に対応(類似)したポーズNo.2「はいチーズ」の着物版ウサギ(男女)画像12cM(2),12cW(2)が取得されると共に(ステップXB)、図9(D)に示すように、撮影画像12i3上のまね対象画像H1,H2にそれぞれ置き換えられて合成され(ステップX13)、その合成画像12i31が表示される(ステップX14)。
また、現在位置が自宅であるときには、図9(C)に示すように、まね対象画像H1,H2に対応(類似)したポーズNo.2「はいチーズ」の着物版ウサギ(男女)画像12cM(2),12cW(2)が取得されると共に(ステップXB)、図9(E)に示すように、撮影画像12i3上のまね対象画像H1,H2それぞれの隣接位置に追加合成され(ステップX13)、その合成画像12i32が表示される(ステップX14)。
これにより、一枚の撮影画像12i3を見る場所によって異なる種類の合成方式を設定し、まね対象画像である被写体画像H1,H2との置き換え合成画像12i31や追加合成画像12i32として多様に表示できるようになる。この場合、会社である比較的第3者にも見られ易い場所(位置)においては、まね対象画像である被写体画像H1,H2をまねキャラクタ画像である着物版ウサギ画像(男女)で置き換えた合成画像12i31として表示し、自宅においては、同まねキャラクタ画像である着物版ウサギ画像(男女)を追加しただけの合成画像12i32として表示することで、第3者に見られたくない人物画像を自然に且つ違和感なく隠して表示できるようになる。
なお、前記各時間帯または各場所に応じて異なる種類のキャラクタ画像や画像合成方法によって作成した合成画像12inmは、一旦、元の撮影画像12inと共に撮影画像メモリ12iに記憶させ、当該撮影画像12inの次回の表示処理に際し、そのときの時間帯や場所に変化がない場合には、当該撮影画像12inと共に既に作成記憶された合成画像12inmをそのまま読み出して表示する構成としてもよい。
また、撮影画像メモリ12iに登録された撮影(合成)画像は、必要に応じて画像出力部20から出力され、メモリカード20Aによる記録、またはVTR(録画装置)20Bによる記録、または画像印刷機20Cによる印刷が行われる。
なお、前記実施形態における置き換え合成のためのまねキャラクタ画像の種類としては、まね対象の被写体画像Hnとその全体が置き換わる各種ウサギのポーズ画像12c〜12eや各種人物アニメのポーズ画像12f,12g、およびまね対象画像Hnの一部のみ置き換わる「サングラス」のポーズ画像12hを代表例にあげて説明したが、これ以外にも同様にまね対象画像Hnの一部のみ置き換わるまねキャラクタ画像の種類として、例えば各種洋服のポーズ画像や水着のポーズ画像を用意し、まね対象画像Hnの顔の部分をそのままに着せ替えのみ行える構成としてもよい。
したがって、前記構成の画像出力装置10による画像出力処理機能によれば、撮影画像12inについてまね対象の被写体画像Hnを抽出指定すると共に、時間または場所に応じて前記まね対象画像Hnの真似をするキャラクタ画像の種類(12c〜12h)および当該まねキャラクタ画像を追加合成するか置き換え合成するかの合成方法を設定すると、当該撮影画像12inの表示に際して現在時間または現在位置が検知され、この現在時間または現在位置に応じた種類のキャラクタで前記まね対象画像Hnに対応するポーズのキャラクタ画像が取得されると共に、前記設定された合成方法によって当該まね対象画像Hnを前記取得されたまねキャラクタ画像に置き換え合成あるいは追加合成した合成画像12inmが作成されて表示されるので、撮影画像12inを見る時間帯や場所によって多様な合成画像12inmを、しかも撮影画像12in内の指定のまね対象被写体画像Hnを真似たポーズのキャラクタ画像によって違和感なく非常に面白味のある合成画像12inmとして表示できるようになる。
また、前記構成の画像出力装置10による画像合成設定処理に伴う対象画像抽出機能(方式1)によれば、画像入力部17を介して所定のタイミングで順次入力される一連の撮影画像12in…が画像処理ワークエリアに記憶され、この一連の撮影画像12in…のそれぞれから被写体の動きに伴う画像の変化部分が当該各被写体のブロックM毎に抽出されるので、撮影画像12inを含む一連の取り込み画像12in…に基づき抽出された各被写体画像Hn…の中からまね対象の被写体画像Hnを容易に指定して、当該撮影画像12inに対応付けた対象画像Hnの位置情報としてまね対象画像位置メモリ12jに記憶できるようになる。
また、前記構成の画像出力装置10による画像合成設定処理に伴う対象画像抽出機能(方式2)によれば、画像入力部17を介して入力される撮影画像12inの各部分毎に距離センサ18による距離測定が行われて画像処理ワークエリアに記憶され、背景画像と被写体画像との距離差に基づき近距離側として判別される各被写体画像Hn…がそのブロックM毎に抽出されるので、撮影時点の1枚の取り込み画像に基づき抽出された各被写体画像Hn…の中からまね対象の被写体画像Hnを容易に指定して、当該撮影画像12inに対応付けた対象画像Hnの位置情報としてまね対象画像位置メモリ12jに記憶できるようになる。
また、前記構成の画像出力装置10による画像表示処理に伴う対応画像取得機能(方式1)によれば、撮影画像12inから抽出指定された真似対象画像としての被写体画像Hnに対し、時間や場所に応じて設定された種類のキャラクタの各ポーズ毎のキャラクタ画像との類似度が直接評価され、これに基づき被写体画像Hnを真似たポーズの設定種類のキャラクタ画像が決定されるので、指定の被写体画像Hnにまねた画像合成のためのキャラクタ画像を容易に取得できるようになる。
また、前記構成の画像出力装置10による画像表示処理に伴う対応画像取得機能(方式2)によれば、撮影画像12inから抽出指定された真似対象画像としての被写体画像Hnに対し、人物の基本モデルである各ポーズ毎のモデル画像との類似度が評価され、これに基づき被写体画像Hnを真似たポーズで時間や場所に応じた設定種類のキャラクタ画像が決定されるので、指定の被写体画像Hnにまねた画像合成のためのキャラクタ画像を容易に取得できるだけでなく、類似度の評価対象に標準的人物モデルを用いることから被写体画像Hnとの高い類似度が得られやすく、より類似性(真似度)の高いキャラクタ画像を取得できるようになる。
なお、前記実施形態における画像表示機能では、撮影画像12inから抽出指定された被写体画像Hnに対応するポーズの設定種類のまねキャラクタ画像を選択的に取得して、この取得されたキャラクタ画像を撮影画像12inに合成する構成としたが、実写や実写に近いコンピュータグラフィックスによる様々な表情の顔画像や人物画像を予め記憶させておき、この実写などによる顔画像や人物画像をまね画像の種類として設定し撮影画像12inから抽出指定された被写体画像Hnに対応する真似画像として合成する構成としてもよい。
また、前記実施形態では、撮影画像12inが静止画である場合について説明したが、画像入力部17を介して例えばデジタルビデオムービー17Bにより撮影入力される動画像に基づいて、当該動画像内の背景画像に対して時系列的に変化する被写体画像Hn…を順次抽出し、この順次抽出された被写体画像Hn…の中で指定した被写体画像Hnに対応するポーズの設定種類のキャラクタ画像を取得して、前記撮影動画像内に合成する構成としてもよい。
なお、前記実施形態の画像出力装置10では、デジタルカメラ付き携帯電話やデジタルカメラのその本体において、撮影画像12inにおける表示の時間や場所に応じた画像合成モードの設定を行うと共に、この合成設定モードの内容に従い現在時間や現在位置に応じた撮影画像12inに対する合成画像の作成表示処理を行う構成としたが、次の第2実施形態において説明するように、インターネットなどの通信ネットワークN上にあるWebサーバ30において各アクセスユーザごとに前記同様の撮影画像,まね対象画像位置,合成設定モード,登録位置情報のファイル保存機能を持たせ、このWebサーバ30に対する各通信端末からの撮影画像出力要求に伴い、当該出力要求された撮影画像の合成設定モードの内容に従い現在時間や現在位置に応じた撮影画像に対する合成画像の作成処理およびその出力配信処理を行う構成としてもよい。
(第2実施形態)
図18は本発明の第2実施形態に係る画像配信サーバ30の電子回路の構成を示すブロック図である。
この画像配信サーバ30は、各種の記録媒体に記録されたプログラム、又は、伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)31が備えられる。
CPU31は、メモリ32内に予め記憶されたサーバ制御プログラム、あるいはCD−ROMなどの外部記録媒体33から記録媒体読取部34を介して前記メモリ32に読み込まれたサーバ制御プログラム、あるいはインターネットN上の他のWebサーバ(この場合はプログラムサーバ)から電送制御部35を介して前記メモリ32に読み込まれたサーバ制御プログラムに応じて、回路各部の動作を制御するもので、前記メモリ32に記憶されたサーバ制御プログラムは、電送制御部35を介して接続されるインターネットN上の各通信端末(デジタルカメラ付き携帯電話10A、通信機能付きデジタルカメラ10B、その他PC(personal computer)端末)などや他のWebサーバとの通信信号に応じて起動される。
前記CPU31には、前記メモリ32、記録媒体読取部34、電送制御部35が接続される他に、LCDからなる表示部36などが接続される。
そして、メモリ32には、当該画像配信サーバ30の全体の動作を司るシステムプログラムや電送制御部35を介してインターネットN上の各通信端末(デジタルカメラ付き携帯電話10A、通信機能付きデジタルカメラ10B、その他PC(personal computer)端末)などや他のWebサーバとデータ通信するための通信プログラムが記憶される他に、前記インターネットN上の各通信端末(10A,10など)とのアクセスに基づき、それぞれそのユーザ端末毎の撮影画像ファイル32g1,32g2,…を生成管理し、撮影画像データを保存・配信したり、当該撮影画像に対するまね対象画像位置,合成設定モード,登録位置情報を記憶したり、該合成設定モードの内容に従った撮影画像に対する合成画像の作成処理およびその出力配信処理などを行うための画像出力処理プログラム32aなどが記憶される。
従って、この画像配信サーバ30のメモリ32にも、前記画像出力装置10のメモリ12と同様に、モデルポーズ画像メモリ12b、キャラ1「ウサギ(着物)」ポーズ画像メモリ12c、キャラ2「ウサギ(スキー)」ポーズ画像メモリ12d、キャラ3「ウサギ(サンタ)」ポーズ画像メモリ12e…やキャラ13「アニメ(フォーマル)」ポーズ画像メモリ12f、キャラ14「アニメ(カジュアル)」ポーズ画像メモリ12g、キャラ15「サングラス」ポーズ画像メモリ12hなどが用意され、さらにそのワークエリアには、現在年月日メモリ32fの他、当該画像配信サーバ30によって各ユーザ端末毎の撮影画像データおよび撮影画像合成用の各設定情報が管理される撮影画像ファイル32g1,32g2,…が用意される。
各ユーザ端末毎の撮影画像ファイル(1)32g1,(2)32g2,…には、そのそれぞれのファイル(1)(2)…毎に、ユーザ名:ファイル名:ユーザ認証データ(指紋画像やパスワードなど)32g1a,32g2a,…に対応付けされた撮影画像メモリ32g1b,32g2b,…、まね対象画像位置メモリ32g1c,32g2c,…、合成設定モードメモリ32g1d,32g2d,…、位置情報登録メモリ32g1e,32g2e,…などが用意され、各メモリともに前記第1実施形態の画像出力装置10における各メモリと同様の情報が記憶管理される。
このような構成の画像配信サーバ30をインターネットなどの通信ネットワークN上に開設し、各ユーザ端末としてのデジタルカメラ付き携帯電話10Aや通信機能付きデジタルカメラ10Bなどとの通信を行い、各ユーザ端末における固有の各場所(位置)情報と共に、撮影画像と当該撮影画像に対応付けて設定されたまね対象画像の位置情報や時間または場所に応じた画像合成モードの設定情報を、当該画像配信サーバ30において前記第1実施形態の画像出力装置10と同様に管理する。これにより画像配信サーバ30は、各ユーザ端末からの現在位置情報を伴う撮影画像の配信要求に応じて、当該撮影画像についてその時々の時間または場所に応じた種類のまねキャラクタ画像や画像合成方法に従い前記第1実施形態の画像出力装置10と同様の合成画像を作成することができ、またその合成画像を配信要求元の各ユーザ端末へ配信することができる。
この場合、各撮影画像ファイル32gnに保存された撮影画像の配信処理および該撮影画像に基づく合成画像の作成処理とその配信処理は、その何れも各対応するユーザ端末の認証データ32gnaが入力一致判断された場合にのみ実行される。
したがって、前記構成の画像配信サーバ30において各ユーザ端末との間でアクセスしながら実施される画像合成設定機能やこれに基づく画像合成機能、そして画像配信機能によれば、各ユーザ端末からの操作に従い、その撮影画像32gnbについてまね対象の被写体画像Hnの位置情報を記憶(32gne)すると共に、時間または場所に応じて前記まね対象画像Hnの真似をするキャラクタ画像の種類(32c,32d,32e,…)および当該まねキャラクタ画像を追加合成するか置き換え合成するかの合成方法を設定記憶(32gnd)する。そして、各ユーザ端末からの現在位置情報を伴う撮影画像32gnbの配信要求に応答して、現在時間または端末現在位置が検知され、この現在時間または端末現在位置に応じた種類のキャラクタで前記まね対象画像Hnに対応するポーズのキャラクタ画像が取得されると共に、前記設定記憶された合成方法によって当該まね対象画像Hnを前記取得されたまねキャラクタ画像に置き換え合成あるいは追加合成した合成画像が作成されて配信されるので、各ユーザ端末にて撮影画像32gnbを見る時間帯や場所によって多様な合成画像を、しかも撮影画像32gnb内の指定のまね対象被写体画像Hnを真似たポーズのキャラクタ画像によって違和感なく非常に面白味のある合成画像として作成し配信できるようになる。
なお、前記各実施形態では、デジタルカメラなどよる撮影画像を元画像として種々の合成画像を作成して出力する場合について説明したが、元画像は撮影画像に限らず、画像メモリや光ディスクなどの各種の記録媒体に既に記録されている画像を対象としてもよい。ここで、当該元画像からその撮影情報がないために前記対象画像抽出処理(方式1)(方式2)での各被写体画像の抽出が行えない場合には、元画像に輪郭強調処理を施して肌色部分を広く含む輪郭領域を抽出したり、人体頭部を形作る円形部分を含む輪郭領域を抽出したりすることによって、各被写体画像の抽出を行う構成とすればよい。
なお、前記各実施形態において記載した画像出力装置10(画像配信サーバ30)による各処理の手法、すなわち、図11のフローチャートに示す画像合成設定処理、図12のフローチャートに示す当該画像合成設定処理に伴う対象画像抽出処理、図13のフローチャートに示す画像表示処理、図14のフローチャートに示す当該画像表示処理に伴う対応画像取得処理、図15のフローチャートに示す当該対応画像取得処理に伴う真似対象画像との類似度評価処理等の各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記録媒体13(33)に格納して配布することができる。そして、通信ネットワーク(インターネット)Nとの通信機能を備えた種々のコンピュータ端末は、この外部記録媒体13(33)に記憶されたプログラムを記録媒体読取部14(34)によってメモリ12(32)に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記実施形態において説明した画像出力処理機能を実現し、前述した手法による同様の処理を実行することができる。
また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末から前記のプログラムデータを取り込み、前述した画像出力処理機能を実現することもできる。
なお、本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。
本発明の第1実施形態に係る画像出力装置10の電子回路の構成を示すブロック図。 前記画像出力装置10のキャラ1「ウサギ(着物)」ポーズ画像メモリ12c:キャラ2「ウサギ(スキー)」ポーズ画像メモリ12d:キャラ3「ウサギ(サンタ)」ポーズ画像メモリ12eにそれぞれ記憶された各種のポーズに対応する各男性ウサギのキャラクタ画像12cM,12dM,12eMを示す図。 前記画像出力装置10のキャラ1「ウサギ(着物)」ポーズ画像メモリ12c:キャラ2「ウサギ(スキー)」ポーズ画像メモリ12d:キャラ3「ウサギ(サンタ)」ポーズ画像メモリ12eにそれぞれ記憶された各種のポーズに対応する各女性ウサギのキャラクタ画像12cW,12dW,12eWを示す図。 前記画像出力装置10のキャラ13「アニメ(フォーマル)ポーズ画像メモリ12f:キャラ14「アニメ(カジュアル)」ポーズ画像メモリ12gにそれぞれ記憶された各種のポーズに対応する各女性アニメおよび男性アニメのキャラクタ画像12fW,12gW,12fM,12gMを示す図。 前記画像出力装置10のキャラ15「サングラス」ポーズ画像メモリ12hに記憶された各種のポーズに対応するサングラスのキャラクタ画像を示す図。 前記画像出力装置10のモデルポーズ画像メモリ12bに記憶されたモデルポーズに対応するモデル画像を示す図。 前記画像出力装置10による撮影画像に対する時間対応合成変更モードで月ごとにまねキャラクタ画像の種類を設定した場合の追加合成状態を示す図。 前記画像出力装置10による撮影画像に対する時間(又は場所)対応合成変更モードで時間(又は場所)ごとにまねキャラクタ画像の種類を設定した場合の置き換え合成状態を示す図。 前記画像出力装置10による撮影画像に対する時間(又は場所)対応合成変更モードで時間(又は場所)ごとに画像合成方法の種類を設定した場合のまねキャラクタ画像「ウサギ(着物)」の合成状態を示す図。 前記画像出力装置であるデジタルカメラ10とそのクレードル15xの外観構成を示す図。 前記画像出力装置(デジタルカメラ)10による画像合成設定処理を示すフローチャート。 前記画像出力装置10の画像合成設定処理に伴う対象画像抽出処理を示すフローチャートであり、同図(A)はその対象画像抽出処理(方式1)を示すフローチャート、同図(B)はその対象画像抽出処理(方式2)を示すフローチャート。 前記画像出力装置10の画像表示処理を示すフローチャート。 前記画像出力装置10の画像表示処理に伴う対応アニメ画像取得処理を示すフローチャートであり、同図(A)はその対応アニメ画像取得処理(方式1)を示すフローチャート、同図(B)はその対応アニメ画像取得処理(方式2)を示すフローチャート。 前記画像出力装置10の画像表示処理に伴う対応アニメ画像取得処理(方式1)(方式2)での真似対象画像Hnとの類似度評価処理を示すフローチャート。 前記画像出力装置10の対応アニメ画像取得処理(方式1)での類似度評価処理に伴う指定種類のキャラクタ画像との類似度評価例を示す図。 前記画像出力装置10の対応撮影者画像取得処理(方式2)での類似度評価処理に伴うモデル画像との類似度評価例を示す図。 本発明の第2実施形態に係る画像配信サーバ30の電子回路の構成を示すブロック図。
符号の説明
10 …画像出力装置
10A…デジタルカメラ付き携帯電話
10B…通信機能付きデジタルカメラ
30 …画像配信サーバ
11、31…CPU
12、32…メモリ
12a、32a…画像出力処理プログラム
12b、32b…モデルポーズ画像メモリ
12c、32c…キャラ1「ウサギ(着物)」ポーズ画像メモリ
12d、32d…キャラ2「ウサギ(スキー)」ポーズ画像メモリ
12e、32e…キャラ3「ウサギ(サンタ)」ポーズ画像メモリ
12f…キャラ13「アニメ(フォーマル)」ポーズ画像メモリ
12g…キャラ14「アニメ(カジュアル)」ポーズ画像メモリ
12h…キャラ15「サングラス」ポーズ画像メモリ
32gn…撮影画像ファイル
32gna…ユーザ名:ファイル名:ユーザ認証データ
12i、32gnb…撮影画像メモリ
12j、32gnc…まね対象画像位置メモリ
12k、32gnd…合成設定モードメモリ
12l、32f…現在年月日メモリ
12m、32gne…位置情報登録メモリ
12n…ワークエリア
13、33…外部記録媒体
14、34…記録媒体読取部
15、35…電送制御部
16 …入力部
17 …画像入力部
17A…デジタルカメラ
17B…デジタルビデオムービー
18 …距離センサ
18x…位置情報検出部
19、36…表示部
20 …画像出力部
20A…メモリカード
20B…VTR(録画装置)
20C…画像印刷機
21 …Webサーバ
N …通信ネットワーク(インターネット)

Claims (30)

  1. 元画像を記憶する元画像記憶手段と、
    この元画像記憶手段により記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報を記憶するまね対象画像情報記憶手段と、
    各ポーズごとに人物に応じた形の複数種類のまね画像を記憶するポーズ別まね画像記憶手段と、
    画像を出力する際の時間情報を取得する時間情報取得手段と、
    この時間情報取得手段により取得された時間情報に応じた種類のまね画像であって、前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段により記憶された各ポーズごとの複数種類のまね画像の中から取得する対応まね画像取得手段と、
    この対応まね画像取得手段により取得されたまね画像を、前記元画像に合成する画像合成手段と、
    この画像合成手段により前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を出力する画像出力手段と、
    を備えたことを特徴とする画像出力装置。
  2. 時間情報に対応付けて前記ポーズ別まね画像記憶手段により記憶された複数種類のまね画像の種類を設定するまね画像種類設定手段を備え、
    前記対応まね画像取得手段は、前記時間情報取得手段により取得された時間情報に応じて前記まね画像種類設定手段により設定された種類のまね画像であって、前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段により記憶された各ポーズごとの複数種類のまね画像の中から取得する、
    ことを特徴とする請求項1に記載の画像出力装置。
  3. 元画像を記憶する元画像記憶手段と、
    この元画像記憶手段により記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報を記憶するまね対象画像情報記憶手段と、
    各ポーズごとに人物に応じた形の複数種類のまね画像を記憶するポーズ別まね画像記憶手段と、
    画像を出力する場所の位置情報を取得する位置情報取得手段と、
    この位置情報取得手段により取得された位置情報に応じた種類のまね画像であって、前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段により記憶された各ポーズごとの複数種類のまね画像の中から取得する対応まね画像取得手段と、
    この対応まね画像取得手段により取得されたまね画像を、前記元画像に合成する画像合成手段と、
    この画像合成手段により前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を出力する画像出力手段と、
    を備えたことを特徴とする画像出力装置。
  4. 位置情報に対応付けて前記ポーズ別まね画像記憶手段により記憶された複数種類のまね画像の種類を設定するまね画像種類設定手段を備え、
    前記対応まね画像取得手段は、前記位置情報取得手段により取得された位置情報に応じて前記まね画像種類設定手段により設定された種類のまね画像であって、前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段により記憶された各ポーズごとの複数種類のまね画像の中から取得する、
    ことを特徴とする請求項3に記載の画像出力装置。
  5. 元画像を記憶する元画像記憶手段と、
    この元画像記憶手段により記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報を記憶するまね対象画像情報記憶手段と、
    各ポーズごとに人物に応じた形のまね画像を記憶するポーズ別まね画像記憶手段と、
    画像を出力する際の時間情報を取得する時間情報取得手段と、
    前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段により記憶された各ポーズごとのまね画像の中から取得する対応まね画像取得手段と、
    この対応まね画像取得手段により取得されたまね画像を、前記時間情報取得手段により取得された時間情報に応じて前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成する画像合成手段と、
    この画像合成手段により前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を出力する画像出力手段と、
    を備えたことを特徴とする画像出力装置。
  6. 時間情報に対応付けてまね画像を追加合成するか又は置き換え合成するかの画像合成方法を設定する合成方法設定手段を備え、
    前記画像合成手段は、前記対応まね画像取得手段により取得されたまね画像を、前記時間情報取得手段により取得された時間情報に応じて前記合成方法設定手段により設定された画像合成方法に従い、前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成する、
    ことを特徴とする請求項5に記載の画像出力装置。
  7. 元画像を記憶する元画像記憶手段と、
    この元画像記憶手段により記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報を記憶するまね対象画像情報記憶手段と、
    各ポーズごとに人物に応じた形のまね画像を記憶するポーズ別まね画像記憶手段と、
    画像を出力する場所の位置情報を取得する位置情報取得手段と、
    前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段により記憶された各ポーズごとのまね画像の中から取得する対応まね画像取得手段と、
    この対応まね画像取得手段により取得されたまね画像を、前記位置情報取得手段により取得された位置情報に応じて前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成する画像合成手段と、
    この画像合成手段により前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を出力する画像出力手段と、
    を備えたことを特徴とする画像出力装置。
  8. 位置情報に対応付けてまね画像を追加合成するか又は置き換え合成するかの画像合成方法を設定する合成方法設定手段を備え、
    前記画像合成手段は、前記対応まね画像取得手段により取得されたまね画像を、前記位置情報取得手段により取得された位置情報に応じて前記合成方法設定手段により設定された画像合成方法に従い、前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成する、
    ことを特徴とする請求項7に記載の画像出力装置。
  9. 前記まね対象画像情報記憶手段は、
    前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像を抽出する対象画像抽出手段を有し、
    この対象画像抽出手段により抽出されたまね対象者の人物画像の情報を当該元画像に対応付けて記憶する、
    ことを特徴とする請求項1〜請求項8の何れか1項に記載の画像出力装置。
  10. 前記対象画像抽出手段は、前記元画像記憶手段により記憶された一連の複数の元画像の中から変化部分をまね対象者の人物画像として抽出することを特徴とする請求項9に記載の画像出力装置。
  11. 前記対象画像抽出手段は、前記元画像記憶手段により記憶された元画像の各画像部分間の距離情報に応じてまね対象者の人物画像を抽出することを特徴とする請求項9に記載の画像出力装置。
  12. 前記対応まね画像取得手段は、
    前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像と前記ポーズ別まね画像記憶手段により記憶された各ポーズごとのまね画像との類似度を評価する類似度評価手段を有し、
    この類似度評価手段により評価されたまね対象者の人物画像と各まね画像との類似度に応じて当該まね対象者の人物画像に対応したポーズのまね画像を取得することを特徴とする請求項1〜請求項11の何れか1項に記載の画像出力装置。
  13. 前記対応まね画像取得手段は、
    前記ポーズ別まね画像記憶手段により記憶されたまね画像の各ポーズに対応付けた複数のポーズのモデル画像を記憶するモデル画像記憶手段と、
    前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像と前記モデル画像記憶手段により記憶された各ポーズのモデル画像との類似度を評価する類似度評価手段とを有し、
    この類似度評価手段により評価されたまね対象者の人物画像と各モデル画像との類似度に応じて当該モデル画像のポーズに対応付けられて前記ポーズ別まね画像記憶手段により記憶されたまね画像を取得することを特徴とする請求項1〜請求項11の何れか1項に記載の画像出力装置。
  14. 撮影手段を備え、
    前記元画像記憶手段は、前記撮影手段により撮影された撮影画像を記憶する、
    ことを特徴とする請求項1〜請求項13の何れか1項に記載の画像出力装置。
  15. 元画像をメモリに記憶する元画像記憶ステップと、
    この元画像記憶ステップにて記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報をメモリに記憶するまね対象画像情報記憶ステップと、
    各ポーズごとに人物に応じた形の複数種類のまね画像をメモリに記憶するポーズ別まね画像記憶ステップと、
    画像を出力する際の時間情報を取得する時間情報取得ステップと、
    この時間情報取得ステップにて取得された時間情報に応じた種類のまね画像であって、前記まね対象画像情報記憶ステップにて記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶ステップにて記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶ステップにて記憶された各ポーズごとの複数種類のまね画像の中から取得する対応まね画像取得ステップと、
    この対応まね画像取得ステップにて取得されたまね画像を、前記元画像に合成する画像合成ステップと、
    この画像合成ステップにて前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を出力する画像出力ステップと、
    からなることを特徴とする画像出力方法。
  16. 元画像をメモリに記憶する元画像記憶ステップと、
    この元画像記憶ステップにて記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報をメモリに記憶するまね対象画像情報記憶ステップと、
    各ポーズごとに人物に応じた形の複数種類のまね画像をメモリに記憶するポーズ別まね画像記憶ステップと、
    画像を出力する場所の位置情報を取得する位置情報取得ステップと、
    この位置情報取得ステップにて取得された位置情報に応じた種類のまね画像であって、前記まね対象画像情報記憶ステップにて記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶ステップにて記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶ステップにて記憶された各ポーズごとの複数種類のまね画像の中から取得する対応まね画像取得ステップと、
    この対応まね画像取得ステップにて取得されたまね画像を、前記元画像に合成する画像合成ステップと、
    この画像合成ステップにて前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を出力する画像出力ステップと、
    からなることを特徴とする画像出力方法。
  17. 元画像をメモリに記憶する元画像記憶ステップと、
    この元画像記憶ステップにて記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報をメモリに記憶するまね対象画像情報記憶ステップと、
    各ポーズごとに人物に応じた形のまね画像をメモリに記憶するポーズ別まね画像記憶ステップと、
    画像を出力する際の時間情報を取得する時間情報取得ステップと、
    前記まね対象画像情報記憶ステップにて記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶ステップにて記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶ステップにて記憶された各ポーズごとのまね画像の中から取得する対応まね画像取得ステップと、
    この対応まね画像取得ステップにて取得されたまね画像を、前記時間情報取得ステップにて取得された時間情報に応じて前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成する画像合成ステップと、
    この画像合成ステップにて前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を出力する画像出力ステップと、
    からなることを特徴とする画像出力方法。
  18. 元画像をメモリに記憶する元画像記憶ステップと、
    この元画像記憶ステップにて記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報をメモリに記憶するまね対象画像情報記憶ステップと、
    各ポーズごとに人物に応じた形のまね画像をメモリに記憶するポーズ別まね画像記憶ステップと、
    画像を出力する場所の位置情報を取得する位置情報取得ステップと、
    前記まね対象画像情報記憶ステップにて記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶ステップにて記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶ステップにて記憶された各ポーズごとのまね画像の中から取得する対応まね画像取得ステップと、
    この対応まね画像取得ステップにて取得されたまね画像を、前記位置情報取得ステップにて取得された位置情報に応じて前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成する画像合成ステップと、
    この画像合成ステップにて前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を出力する画像出力ステップと、
    からなることを特徴とする画像出力方法。
  19. コンピュータを制御して画像の出力処理を行うための画像出力処理プログラムであって、
    前記コンピュータを、
    元画像をメモリに記憶する元画像記憶手段、
    この元画像記憶手段にて記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報をメモリに記憶するまね対象画像情報記憶手段、
    各ポーズごとに人物に応じた形の複数種類のまね画像をメモリに記憶するポーズ別まね画像記憶手段、
    画像を出力する際の時間情報を取得する時間情報取得手段、
    この時間情報取得手段にて取得された時間情報に応じた種類のまね画像であって、前記まね対象画像情報記憶手段にて記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段にて記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段にて記憶された各ポーズごとの複数種類のまね画像の中から取得する対応まね画像取得手段、
    この対応まね画像取得手段にて取得されたまね画像を、前記元画像に合成する画像合成手段、
    この画像合成手段にて前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を出力する画像出力手段、
    として機能させるようにしたコンピュータ読み込み可能な画像出力処理プログラム。
  20. コンピュータを制御して画像の出力処理を行うための画像出力処理プログラムであって、
    前記コンピュータを、
    元画像をメモリに記憶する元画像記憶手段、
    この元画像記憶手段にて記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報をメモリに記憶するまね対象画像情報記憶手段、
    各ポーズごとに人物に応じた形の複数種類のまね画像をメモリに記憶するポーズ別まね画像記憶手段、
    画像を出力する場所の位置情報を取得する位置情報取得手段、
    この位置情報取得手段にて取得された位置情報に応じた種類のまね画像であって、前記まね対象画像情報記憶手段にて記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段にて記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段にて記憶された各ポーズごとの複数種類のまね画像の中から取得する対応まね画像取得手段、
    この対応まね画像取得手段にて取得されたまね画像を、前記元画像に合成する画像合成手段、
    この画像合成手段にて前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を出力する画像出力手段、
    として機能させるようにしたコンピュータ読み込み可能な画像出力処理プログラム。
  21. コンピュータを制御して画像の出力処理を行うための画像出力処理プログラムであって、
    前記コンピュータを、
    元画像をメモリに記憶する元画像記憶手段、
    この元画像記憶手段にて記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報をメモリに記憶するまね対象画像情報記憶手段、
    各ポーズごとに人物に応じた形のまね画像をメモリに記憶するポーズ別まね画像記憶手段、
    画像を出力する際の時間情報を取得する時間情報取得手段、
    前記まね対象画像情報記憶手段にて記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段にて記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段にて記憶された各ポーズごとのまね画像の中から取得する対応まね画像取得手段、
    この対応まね画像取得手段にて取得されたまね画像を、前記時間情報取得手段にて取得された時間情報に応じて前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成する画像合成手段、
    この画像合成手段にて前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を出力する画像出力手段、
    として機能させるようにしたコンピュータ読み込み可能な画像出力処理プログラム。
  22. コンピュータを制御して画像の出力処理を行うための画像出力処理プログラムであって、
    前記コンピュータを、
    元画像をメモリに記憶する元画像記憶手段、
    この元画像記憶手段にて記憶された元画像に対応付けて当該元画像におけるまね対象者の人物画像情報をメモリに記憶するまね対象画像情報記憶手段、
    各ポーズごとに人物に応じた形のまね画像をメモリに記憶するポーズ別まね画像記憶手段、
    画像を出力する場所の位置情報を取得する位置情報取得手段、
    前記まね対象画像情報記憶手段にて記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段にて記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段にて記憶された各ポーズごとのまね画像の中から取得する対応まね画像取得手段、
    この対応まね画像取得手段にて取得されたまね画像を、前記位置情報取得手段にて取得された位置情報に応じて前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成する画像合成手段、
    この画像合成手段にて前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を出力する画像出力手段、
    として機能させるようにしたコンピュータ読み込み可能な画像出力処理プログラム。
  23. 各ポーズごとに人物に応じた形の複数種類のまね画像を記憶するポーズ別まね画像記憶手段と、
    端末から元画像と、当該元画像におけるまね対象者の人物画像情報とを受信する元画像受信手段と、
    この元画像受信手段により受信された元画像を記憶する元画像記憶手段と、
    この元画像記憶手段により記憶された元画像に対応付けて前記元画像受信手段により受信された当該元画像におけるまね対象者の人物画像情報を記憶するまね対象画像情報記憶手段と、
    前記端末から画像配信の要求を受信する配信要求受信手段と、
    この配信要求受信手段により受信された画像配信の要求に応答して、画像を配信する際の時間情報を取得する時間情報取得手段と、
    この時間情報取得手段により取得された時間情報に応じた種類のまね画像であって、前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段により記憶された各ポーズごとの複数種類のまね画像の中から取得する対応まね画像取得手段と、
    この対応まね画像取得手段により取得されたまね画像を、前記元画像に合成する画像合成手段と、
    この画像合成手段により前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を前記配信要求元の端末へ送信する合成画像送信手段と、
    を備えたことを特徴とする画像配信サーバ。
  24. 各ポーズごとに人物に応じた形の複数種類のまね画像を記憶するポーズ別まね画像記憶手段と、
    端末から元画像と、当該元画像におけるまね対象者の人物画像情報とを受信する元画像受信手段と、
    この元画像受信手段により受信された元画像を記憶する元画像記憶手段と、
    この元画像記憶手段により記憶された元画像に対応付けて前記元画像受信手段により受信された当該元画像におけるまね対象者の人物画像情報を記憶するまね対象画像情報記憶手段と、
    前記端末から画像配信の要求と当該端末の位置情報とを受信する配信要求受信手段と、
    この配信要求受信手段により受信された端末位置情報に応じた種類のまね画像であって、前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段により記憶された各ポーズごとの複数種類のまね画像の中から取得する対応まね画像取得手段と、
    この対応まね画像取得手段により取得されたまね画像を、前記元画像に合成する画像合成手段と、
    この画像合成手段により前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を前記配信要求元の端末へ送信する合成画像送信手段と、
    を備えたことを特徴とする画像配信サーバ。
  25. 各ポーズごとに人物に応じた形のまね画像を記憶するポーズ別まね画像記憶手段と、
    端末から元画像と、当該元画像におけるまね対象者の人物画像情報とを受信する元画像受信手段と、
    この元画像受信手段により受信された元画像を記憶する元画像記憶手段と、
    この元画像記憶手段により記憶された元画像に対応付けて前記元画像受信手段により受信された当該元画像におけるまね対象者の人物画像情報を記憶するまね対象画像情報記憶手段と、
    前記端末から画像配信の要求を受信する配信要求受信手段と、
    画像を配信する際の時間情報を取得する時間情報取得手段と、
    前記配信要求受信手段により受信された画像配信の要求に応答して、前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段により記憶された各ポーズごとのまね画像の中から取得する対応まね画像取得手段と、
    この対応まね画像取得手段により取得されたまね画像を、前記時間情報取得手段により取得された時間情報に応じて前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成する画像合成手段と、
    この画像合成手段により前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を前記配信要求元の端末へ送信する合成画像送信手段と、
    を備えたことを特徴とする画像配信サーバ。
  26. 各ポーズごとに人物に応じた形のまね画像を記憶するポーズ別まね画像記憶手段と、
    端末から元画像と、当該元画像におけるまね対象者の人物画像情報とを受信する元画像受信手段と、
    この元画像受信手段により受信された元画像を記憶する元画像記憶手段と、
    この元画像記憶手段により記憶された元画像に対応付けて前記元画像受信手段により受信された当該元画像におけるまね対象者の人物画像情報を記憶するまね対象画像情報記憶手段と、
    前記端末から画像配信の要求と当該端末の位置情報とを受信する配信要求受信手段と、
    この配信要求受信手段により受信された画像配信の要求に応答して、前記まね対象画像情報記憶手段により記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段により記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段により記憶された各ポーズごとのまね画像の中から取得する対応まね画像取得手段と、
    この対応まね画像取得手段により取得されたまね画像を、前記配信要求受信手段により受信された端末位置情報に応じて前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成する画像合成手段と、
    この画像合成手段により前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を前記配信要求元の端末へ送信する合成画像送信手段と、
    を備えたことを特徴とする画像配信サーバ。
  27. コンピュータを制御して画像の配信処理を行うための画像配信処理プログラムであって、
    前記コンピュータを、
    各ポーズごとに人物に応じた形の複数種類のまね画像をメモリに記憶するポーズ別まね画像記憶手段、
    端末から元画像と、当該元画像におけるまね対象者の人物画像情報とを受信する元画像受信手段、
    この元画像受信手段にて受信された元画像をメモリに記憶する元画像記憶手段、
    この元画像記憶手段にて記憶された元画像に対応付けて前記元画像受信手段にて受信された当該元画像におけるまね対象者の人物画像情報をメモリに記憶するまね対象画像情報記憶手段、
    前記端末から画像配信の要求を受信する配信要求受信手段、
    この配信要求受信手段にて受信された画像配信の要求に応答して、画像を配信する際の時間情報を取得する時間情報取得手段、
    この時間情報取得手段にて取得された時間情報に応じた種類のまね画像であって、前記まね対象画像情報記憶手段にて記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段にて記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段にて記憶された各ポーズごとの複数種類のまね画像の中から取得する対応まね画像取得手段、
    この対応まね画像取得手段にて取得されたまね画像を、前記元画像に合成する画像合成手段、
    この画像合成手段にて前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を前記配信要求元の端末へ送信する合成画像送信手段、
    として機能させるようにしたコンピュータ読み込み可能な画像配信処理プログラム。
  28. コンピュータを制御して画像の配信処理を行うための画像配信処理プログラムであって、
    前記コンピュータを、
    各ポーズごとに人物に応じた形の複数種類のまね画像をメモリに記憶するポーズ別まね画像記憶手段、
    端末から元画像と、当該元画像におけるまね対象者の人物画像情報とを受信する元画像受信手段、
    この元画像受信手段にて受信された元画像をメモリに記憶する元画像記憶手段、
    この元画像記憶手段にて記憶された元画像に対応付けて前記元画像受信手段にて受信された当該元画像におけるまね対象者の人物画像情報をメモリに記憶するまね対象画像情報記憶手段、
    前記端末から画像配信の要求と当該端末の位置情報とを受信する配信要求受信手段、
    この配信要求受信手段にて受信された端末位置情報に応じた種類のまね画像であって、前記まね対象画像情報記憶手段にて記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段にて記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段にて記憶された各ポーズごとの複数種類のまね画像の中から取得する対応まね画像取得手段、
    この対応まね画像取得手段にて取得されたまね画像を、前記元画像に合成する画像合成手段、
    この画像合成手段にて前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を前記配信要求元の端末へ送信する合成画像送信手段、
    として機能させるようにしたコンピュータ読み込み可能な画像配信処理プログラム。
  29. コンピュータを制御して画像の配信処理を行うための画像配信処理プログラムであって、
    前記コンピュータを、
    各ポーズごとに人物に応じた形のまね画像をメモリに記憶するポーズ別まね画像記憶手段、
    端末から元画像と、当該元画像におけるまね対象者の人物画像情報とを受信する元画像受信手段、
    この元画像受信手段にて受信された元画像をメモリに記憶する元画像記憶手段、
    この元画像記憶手段にて記憶された元画像に対応付けて前記元画像受信手段にて受信された当該元画像におけるまね対象者の人物画像情報をメモリに記憶するまね対象画像情報記憶手段、
    前記端末から画像配信の要求を受信する配信要求受信手段、
    画像を配信する際の時間情報を取得する時間情報取得手段、
    前記配信要求受信手段にて受信された画像配信の要求に応答して、前記まね対象画像情報記憶手段にて記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段にて記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段にて記憶された各ポーズごとのまね画像の中から取得する対応まね画像取得手段、
    この対応まね画像取得手段にて取得されたまね画像を、前記時間情報取得手段にて取得された時間情報に応じて前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成する画像合成手段、
    この画像合成手段にて前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を前記配信要求元の端末へ送信する合成画像送信手段、
    として機能させるようにしたコンピュータ読み込み可能な画像配信処理プログラム。
  30. コンピュータを制御して画像の配信処理を行うための画像配信処理プログラムであって、
    前記コンピュータを、
    各ポーズごとに人物に応じた形のまね画像をメモリに記憶するポーズ別まね画像記憶手段、
    端末から元画像と、当該元画像におけるまね対象者の人物画像情報とを受信する元画像受信手段、
    この元画像受信手段にて受信された元画像をメモリに記憶する元画像記憶手段、
    この元画像記憶手段にて記憶された元画像に対応付けて前記元画像受信手段にて受信された当該元画像におけるまね対象者の人物画像情報をメモリに記憶するまね対象画像情報記憶手段、
    前記端末から画像配信の要求と当該端末の位置情報とを受信する配信要求受信手段、
    この配信要求受信手段にて受信された画像配信の要求に応答して、前記まね対象画像情報記憶手段にて記憶されたまね対象者の人物画像情報に基づき、前記元画像記憶手段にて記憶された元画像におけるまね対象者の人物画像に対応したポーズのまね画像を前記ポーズ別まね画像記憶手段にて記憶された各ポーズごとのまね画像の中から取得する対応まね画像取得手段、
    この対応まね画像取得手段にて取得されたまね画像を、前記配信要求受信手段にて受信された端末位置情報に応じて前記元画像に対し追加して合成するか又はまね対象者の人物画像と置き換えて合成する画像合成手段、
    この画像合成手段にて前記まね対象者の人物画像に対応したポーズのまね画像が合成された合成画像を前記配信要求元の端末へ送信する合成画像送信手段、
    として機能させるようにしたコンピュータ読み込み可能な画像配信処理プログラム。
JP2003341887A 2003-09-30 2003-09-30 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム Pending JP2005107988A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003341887A JP2005107988A (ja) 2003-09-30 2003-09-30 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003341887A JP2005107988A (ja) 2003-09-30 2003-09-30 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム

Publications (1)

Publication Number Publication Date
JP2005107988A true JP2005107988A (ja) 2005-04-21

Family

ID=34536334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003341887A Pending JP2005107988A (ja) 2003-09-30 2003-09-30 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム

Country Status (1)

Country Link
JP (1) JP2005107988A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009071597A (ja) * 2007-09-13 2009-04-02 Canon Inc 撮像装置、その画像処理方法、再生装置、プログラムおよび記憶媒体
JP2012157393A (ja) * 2011-01-28 2012-08-23 Sankyo Co Ltd 遊技システム、遊技機、及びサーバ装置
JP2012157394A (ja) * 2011-01-28 2012-08-23 Sankyo Co Ltd 遊技システム、及びサーバ装置
JP2018518086A (ja) * 2015-05-22 2018-07-05 ゼットティーイー コーポレイション ピクチャ処理方法、送信方法、処理装置及び送信装置
CN111626253A (zh) * 2020-06-02 2020-09-04 上海商汤智能科技有限公司 表情检测的方法、装置、电子设备及存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009071597A (ja) * 2007-09-13 2009-04-02 Canon Inc 撮像装置、その画像処理方法、再生装置、プログラムおよび記憶媒体
JP2012157393A (ja) * 2011-01-28 2012-08-23 Sankyo Co Ltd 遊技システム、遊技機、及びサーバ装置
JP2012157394A (ja) * 2011-01-28 2012-08-23 Sankyo Co Ltd 遊技システム、及びサーバ装置
JP2018518086A (ja) * 2015-05-22 2018-07-05 ゼットティーイー コーポレイション ピクチャ処理方法、送信方法、処理装置及び送信装置
CN111626253A (zh) * 2020-06-02 2020-09-04 上海商汤智能科技有限公司 表情检测的方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
US10671232B2 (en) Information processing apparatus, and part generating and using method
JP6915716B2 (ja) サーバ、端末、画像送信方法、記憶媒体
JP4423929B2 (ja) 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
CN102763404B (zh) 摄影装置、信息取得系统及程序
US8582918B2 (en) Imaging device, image composition and display device, and image composition method
JP3918632B2 (ja) 画像配信サーバ、画像配信プログラム、及び画像配信方法
JP4901258B2 (ja) カメラ及びデータ表示方法
CN112417180B (zh) 生成影集视频的方法、装置、设备及介质
JP2005049939A (ja) 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
JP5596844B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
JP2010045436A (ja) カメラ及び撮影システム
JP4168800B2 (ja) 画像配信装置
JP2005107988A (ja) 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
JP6886048B2 (ja) 情報機器、及びカメラ画像共有システム
JP4151543B2 (ja) 画像出力装置、画像出力方法、および画像出力処理プログラム
JP3901015B2 (ja) 画像出力装置、画像出力処理プログラム、および画像出力方法
JP4254391B2 (ja) 画像出力装置、画像出力処理プログラム、および画像配信サーバ
JP2008271239A (ja) カメラ、コンテンツ作成方法、及びプログラム
JP2009271618A (ja) 画像表示装置、画像表示方法、および画像表示用プログラム
JP2007166383A (ja) デジタルカメラ及び画像合成方法並びにプログラム
JP2019133276A (ja) 画像処理システム、端末
JP5922517B2 (ja) 撮影機能を有する電子機器
JP5458411B2 (ja) 撮影画像表示装置、撮影画像表示方法、及び撮影画像表示方法によって出力される電子地図
JP2020150289A (ja) 撮影システム、撮影装置、管理装置及び撮影方法
JP6849851B2 (ja) 撮影システム、撮影装置及びユーザ撮影方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090317

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090707