JP2004297350A - Picture distribution device, picture delivery method, and picture distribution program - Google Patents
Picture distribution device, picture delivery method, and picture distribution program Download PDFInfo
- Publication number
- JP2004297350A JP2004297350A JP2003085594A JP2003085594A JP2004297350A JP 2004297350 A JP2004297350 A JP 2004297350A JP 2003085594 A JP2003085594 A JP 2003085594A JP 2003085594 A JP2003085594 A JP 2003085594A JP 2004297350 A JP2004297350 A JP 2004297350A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- captured
- character
- synthesizing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、カメラ付携帯端末などにおいて撮影された撮影画像に応じた画像を配信するための画像配信装置、画像配信方法、及び画像配信プログラムに関する。
【0002】
【従来の技術】
従来、各種のスチルカメラやビデオカメラにおいて、撮影した画像に対し他の画像を合成して表示あるいは印刷して出力するものがある。
【0003】
例えば撮影フレームの固定した位置に予め用意された花や人気キャラクタなどのアニメ画像を合成して出力するものや、同予め用意されたアニメ画像を撮影フレーム内の希望の位置に合成して出力するものなどが実用されている。
【0004】
また、デジタルカメラにより撮影された画像をパーソナルコンピュータの表示画面上に表示させて他の画像と合成して編集することもできるが、この場合に他の画像は例えば他の画像ファイルから選択的に切り出したり、インターネット上の任意のホームページ画面からダウンロードしたりするなどして取得され、撮影画像上の希望位置に合成される。
【0005】
また、デジタルカメラにより撮影された画像の任意の領域(例えば顔の部分)を切り出し、この切り出し画像を予め用意されたアニメ画像(例えばアニメキャラクタの顔部分)に合成させて新たな別の画像を作成するものや、任意の画像の指定した領域に対して、これに関連付けたアニメ画像を合成するものも考えられている。(例えば、特許文献1参照。)
【0006】
【特許文献1】
特開2001−230972号公報
【0007】
【発明が解決しようとする課題】
しかしながら、このような従来の画像処理システムでは、撮影画像に対して、予め用意された画像をそのまま固定あるいは希望の位置に合成して出力したり、あるいは任意の切り出し画像に対して予め用意された画像を合成して出力したりするだけのものであるため、撮影画像以外の合成画像が常に固定的で変化が無く、またインターネットから多様な画像をダウンロードして利用するにしても、撮影画像とは関係のない単なる飾りでしかないため、面白味に欠け飽きが来やすい問題がある。
【0008】
本発明は、前記のような問題に鑑みてなされたもので、端末での撮影画像に対して単に固定的な画像を合成配信するのではなく、当該撮影画像中の物体(例えば人物)像に対応した画像を合成して配信することが可能になる画像配信装置、画像配信方法、及び画像配信プログラムを提供することを目的とする。
【0009】
【課題を解決するための手段】
すなわち、本発明の請求項1に係る画像配信装置では、撮影画像受信手段により端末から撮影画像と当該撮影画像に対する対象範囲が受信されると、この受信された撮影画像の対象範囲の画像に応じた対応画像が対応画像取得手段により取得され、この取得された対応画像が画像合成手段により前記撮影画像に合成され、この合成画像が合成画像送信手段により送信される。
【0010】
これによれば、端末による撮影画像上で設定した対象範囲に対応する画像に応じたまね画像などの対応画像を取得して、当該撮影画像に合成した画像を得ることができる。
【0011】
また、本発明の請求項2に係る画像配信装置では、前記請求項1に係る画像配信装置にあって、撮影画像受信手段により受信される撮影画像の対象範囲は、端末において当該撮影画像に対し任意に設定された画像の範囲とされる。
【0012】
これによれば、合成すべき対応画像の基準となる撮影画像上の対象範囲を、任意の被写体などに合わせて設定できることになる。
【0013】
また、本発明の請求項3に係る画像配信装置では、前記請求項2に係る画像配信装置にあって、撮影画像の対象範囲は楕円であり、その大きさ,形状は任意に変更されて設定される。
【0014】
これによれば、合成すべき対応画像の基準となる撮影画像上の対象範囲を大きさ,形状自在な楕円として、任意の人物像などに容易に合わせて設定できることになる。
【0015】
また、本発明の請求項4に係る画像配信装置では、前記請求項1乃至請求項3の何れか1項に係る画像配信装置にあって、輪郭ブロック抽出手段により、前記撮影画像受信手段により受信された撮影画像から輪郭に対応したブロックが抽出され、この抽出されたブロックのうち、前記対象範囲に対応したブロックの画像が対象画像抽出手段により抽出される。すると、対応画像取得手段では、前記対象画像抽出手段により抽出された画像に応じた対応画像が合成すべき対応画像として取得される。
【0016】
これによれば、撮影画像上の対象範囲に存在する被写体などの輪郭ブロックの画像に応じた対応画像を取得して合成できることになる。
【0017】
また、本発明の請求項5に係る画像配信装置では、請求項1乃至請求項4の何れか1項に係る画像配信装置にあって、対応画像取得手段は、複数の対応画像を記憶する対応画像記憶手段と、撮影画像受信手段により受信された撮影画像の対象範囲に対応する画像と前記対応画像記憶手段により記憶された各対応画像との類似度を評価する類似度評価手段とを有し、この類似度評価手段により評価された対象範囲に対応する画像と各対応画像との類似度に応じて当該対象範囲の画像に応じた合成すべき対応画像が取得される。
【0018】
これによれば、撮影画像の対象範囲に対応する人物などの被写体画像と類似度の高い(よく似た)画像を合成すべき対応画像として取得できることになる。
【0019】
また、本発明の請求項6に係る画像配信装置では、前記請求項1乃至請求項4の何れか1項に係る画像配信装置にあって、対応画像取得手段は、複数のモデル画像と複数の対応画像とを対応付けて記憶する対応画像記憶手段と、撮影画像受信手段により受信された撮影画像の対象範囲に対応する画像と前記対応画像記憶手段により記憶された各モデル画像との類似度を評価する類似度評価手段とを有し、この類似度評価手段により評価された対象範囲に対応する画像と各モデル画像との類似度に応じて当該対象範囲の画像に応じたモデル画像に対応付けられて前記対応画像記憶手段により記憶された対応画像が合成すべき対応画像として取得される。
【0020】
これによれば、撮影画像の対象範囲に対応する人物などの被写体画像と類似度の高い(よく似た)画像を、モデル画像を用いた類似度評価により、合成すべき対応画像として容易且つ確実に取得できることになる。
【0021】
また、本発明の請求項7に係る画像配信装置では、前記請求項1乃至請求項6の何れか1項に係る画像配信装置にあって、前記対応画像としては、異なる種類毎に複数の対応画像があり、対応画像取得手段により取得される対応画像は、種類受信手段により端末から受信された種類の対応画像となる。
【0022】
これによれば、端末により選択された動物などの種類の複数の対応画像の中から、撮影画像の対象範囲に対応する人物画像などに応じた対応画像を合成すべき画像として取得できることになる。
【0023】
また、本発明の請求項8に係る画像配信装置では、前記請求項1乃至請求項7の何れか1項に係る画像配信装置にあって、さらに、合成画像送信手段による画像の送信に応じて前記端末に課金する課金手段が備えられる。
【0024】
これによれば、撮影画像の対象範囲に対応する画像に応じた取得画像の合成配信サービスをビジネスとして提供できることになる。
【0025】
また、本発明の請求項9に係る画像配信装置では、前記請求項8に係る画像配信装置にあって、課金手段による課金額は、対応画像取得手段により取得された対応画像の種類に応じた金額とされる。
【0026】
これによれば、撮影画像の対象範囲に対応する画像に応じて取得される合成すべき画像の種類(例えばその需要度)により、異なる金額を課金できることになる。
【0027】
また、本発明の請求項10に係る画像配信装置では、前記請求項8に係る画像配信装置にあって、課金手段による課金額には、対応画像取得手段により取得された対応画像の種類に応じた一定利用回数毎または一定利用期間毎の著作料が含まれる。
【0028】
これによれば、撮影画像の対象範囲に対応する画像に応じて取得される合成すべき画像の種類として、著作料の必要な人気キャラクタなどの画像を用意でき、また、複数の課金形態としてサービスを提供できることになる。
【0029】
また、本発明の請求項11に係る画像配信装置では、前記請求項1乃至請求項10の何れか1項に係る画像配信装置にあって、画像合成手段は、合成方法受信手段により端末から受信された画像の合成方法に従い、対応画像取得手段により取得された対応画像を撮影画像に合成する。
【0030】
これによれば、撮影画像の対象範囲に対応する画像に応じて取得された対応画像を、端末により選択される合成方法に従って、当該撮影画像に合成できることになる。
【0031】
また、本発明の請求項12に係る画像配信装置では、前記請求項11に係る画像配信装置にあって、画像合成手段は、合成方法受信手段により画像の置き換え合成方法が受信された場合、撮影画像受信手段により受信された撮影画像の対象範囲に対応する画像を対応画像取得手段により取得された対応画像に置き換えて当該撮影画像に合成する。
【0032】
これによれば、端末による合成方法の選択により、撮影画像の対象範囲に対応する画像を、これに応じた対応画像に置き換えて当該撮影画像に合成できることになる。
【0033】
また、本発明の請求項13に係る画像配信装置では、前記請求項11に係る画像配信装置にあって、画像合成手段は、合成方法受信手段により画像の背景追加合成方法が受信された場合、対応画像取得手段により取得された対応画像を撮影画像の背景に追加して合成する。
【0034】
これによれば、端末による合成方法の選択により、撮影画像の対象範囲に対応する画像に応じた対応画像を、当該撮影画像の背景に追加して合成できることになる。
【0035】
また、本発明の請求項14に係る画像配信装置では、前記請求項11に係る画像配信装置にあって、画像合成手段は、合成方法受信手段により画像の左右反転合成方法が受信された場合、対応画像取得手段により取得された対応画像を、撮影画像上の対象範囲に対応する画像と左右反転の位置に追加して合成する。
【0036】
これによれば、端末による合成方法の選択により、撮影画像の対象範囲に対応する画像に応じた対応画像を、撮影画像上で当該対象範囲に対応する画像と左右反転の位置に追加して合成できることになる。
【0037】
また、本発明の請求項15に係る画像配信装置では、前記請求項11に係る画像配信装置にあって、対応画像取得手段は、撮影画像受信手段により受信された第1の撮影画像の対象範囲の画像に応じた対応画像を取得し、画像合成手段は、合成方法受信手段により画像の別撮影合成方法が受信された場合、撮影画像受信手段により受信された第2の撮影画像に対して、前記対応画像取得手段により取得された対応画像を合成する。
【0038】
これによれば、端末による合成方法の選択により、第1の撮影画像の対象範囲の画像に応じて取得された対応画像を、第2の撮影画像に対して合成できることになる。
【0039】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
【0040】
(第1実施形態)
図1は本発明の実施形態に係る画像配信システムにおける画像配信サーバ10の電子回路の構成を示すブロック図である。
【0041】
図2は前記画像配信システムにおける端末装置20の電子回路の構成を示すブロック図である。
【0042】
この画像配信システムは、画像配信サーバ10からインターネット,Bluetooth(R)などの通信ネットワークに接続された携帯電話20A,携帯端末(PDA)20B,パーソナルコンピュータ(PC)20C,デジタルカメラ20Dなどの各種の端末装置20…に対して画像を配信するサービスを行うシステムである。この画像配信サーバ10は、各端末装置20(20A〜20D)…において取得された撮影画像中の任意の対象画像に応じた他の画像(例えば撮影画像中の人物画像に応じた(真似た)キャラクタの画像)を該撮影画像に合成して配信する。
【0043】
図1において、画像配信サーバ10は、各種の記録媒体に記録されたプログラム、又は、伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)11が備えられる。
【0044】
CPU11は、メモリ12内に予め記憶されたサーバ制御プログラム、あるいはCD−ROMなどの外部記録媒体13から記録媒体読取部14を介して前記メモリ12に読み込まれたサーバ制御プログラム、あるいはインターネットN上の他のWebサーバ(この場合はプログラムサーバ)から電送制御部15を介して前記メモリ12に読み込まれたサーバ制御プログラムに応じて、回路各部の動作を制御するもので、前記メモリ12に記憶されたサーバ制御プログラムは、伝送制御部15を介して接続されるインターネットN上の各端末装置20(20A〜20C)…からの通信信号、あるいは近距離無線通信部16を介して接続されるデジタルカメラ20Dからの通信信号、あるいはキーやタッチパネルからなる入力部17からのオペレータ操作に応じた入力信号に応じて起動される。
【0045】
前記CPU11には、前記メモリ12、記録媒体読取部14、電送制御部15、近距離無線通信部16、入力部17が接続される他に、LCDやCRTからなる表示部18などが接続される。
【0046】
メモリ12には、当該画像配信サーバ10の全体の動作を司るシステムプログラムや電送制御部15を介してインターネットN上の各端末装置20(20A〜20C)…とデータ通信するための通信プログラム、近距離無線通信部16を介してその通信範囲内に存在するデジタルカメラ20Dとデータ通信するための近距離通信プログラムが記憶される他に、前記電送制御部15や近距離無線通信部16を介して通信接続される各端末装置20(20A〜20D)…から取得された撮影画像に対して当該撮影画像内の任意指定の対象画像に応じた対応画像の生成・合成・配信処理などを行うための画像配信処理プログラム12aなどが記憶される。
【0047】
また、このメモリ12には、モデルポーズ画像メモリ12b、修正モデルポーズ画像メモリ12c、キャラ1「ウサギ」ポーズ画像メモリ12d、キャラ2「クマ」ポーズ画像メモリ12e、キャラ3「ネコ」ポーズ画像メモリ12f、依頼者端末情報メモリ12gが用意され、さらにそのワークエリアには撮影画像メモリ12hや画像処理ワークエリア12iなどが用意される。
【0048】
図3は前記画像配信サーバ10のキャラ1「ウサギ」ポーズ画像メモリ12d:キャラ2「クマ」ポーズ画像メモリ12e:キャラ3「ネコ」ポーズ画像メモリ12fにそれぞれ記憶された各種のポーズに対応する各キャラクタ画像を示す図である。
【0049】
このキャラ1「ウサギ」,2「クマ」,3「ネコ」の各ポーズ画像メモリ12d,12e,12fに記憶された各キャラクタそれぞれの各種のポーズ画像は、通信接続される外部の各端末装置20(20A〜20D)からの依頼に伴い入力された撮影画像上の被写体画像(対象画像)のポーズに応じた真似画像として使用されるもので、異なるポーズ毎にそのポーズNo.が対応付けられて記憶される。
【0050】
図4は前記画像配信サーバ10のモデルポーズ画像メモリ12bに記憶されたモデルポーズに対応するモデル画像を示す図である。
【0051】
このモデルポーズ画像メモリ12bに記憶された各種ポーズのモデル画像は、通信接続される外部の各端末装置20(20A〜20D)…からの依頼に伴い入力された撮影画像上の被写体画像(対象画像)のポーズに応じた類似のモデル画像を取得するために使用されるもので、異なるポーズ毎にそのポーズNo.が対応付けられて記憶され、さらに各ポーズNo.毎に3種のバリエーションA,B,Cのモデル画像が記憶される。
【0052】
そして、前記キャラ1「ウサギ」ポーズ画像メモリ12d,キャラ2「クマ」ポーズ画像メモリ12e,キャラ3「ネコ」ポーズ画像メモリ12fにそれぞれ記憶された各キャラクタ画像には、前記モデルポーズ画像メモリ12bに記憶された全てのポーズNo.(No.1A,1B,1C、2A,2B,2C、〜、nA,nB,nC)に対応する同じポーズのキャラクタ画像が用意されて記憶される。
【0053】
修正モデルポーズ画像メモリ12cに記憶される修正モデル画像は、まず図4のポーズNo.2Aで示した全身ポーズの標準モデル画像が、標準外の被写体画像(対象画像)に合わせて縦横修正され、ポーズNo.2Aに対応する修正モデル画像として得られるもので、このポーズNo.2Aに対応する修正モデル画像の修正比(修正バランス)に従って他の各ポーズに対応する前記全ての標準モデル画像が修正され、当該修正モデルポーズ画像メモリ12cに記憶される。
【0054】
依頼者端末情報メモリ12gには、当該画像配信サーバ10に対して画像配信会員の登録依頼のあった端末装置20(20A〜20D)…それぞれの通信取引個人情報として、各端末ID,銀行口座番号,パスワードなどが記憶され、会員登録される。
【0055】
撮影画像メモリ12hには、通信接続された外部の各端末装置20(20A〜20D)…から入力された撮影画像データがその撮影画像単位で一時記憶される。
【0056】
画像処理ワークエリア12iには、前記画像配信処理プログラム12aに従い処理される画像データがその画像処理に応じて一時記憶される。
【0057】
図2において、端末装置20は、各種の記録媒体に記録されたプログラム、又は、伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)21が備えられる。
【0058】
CPU21は、メモリ22内に予め記憶された端末制御プログラム、あるいはCD−ROMやROMカードなどの外部記録媒体23から記録媒体読取部24を介して前記メモリ22に読み込まれた端末制御プログラム、あるいはインターネットN上のWebサーバ(この場合はプログラムサーバ)から電送制御部25を介して前記メモリ22に読み込まれた端末制御プログラムに応じて、回路各部の動作を制御するもので、前記メモリ22に記憶された端末制御プログラムは、キーやタッチパネルからなる入力部26からのユーザ操作に応じた入力信号、あるいは画像入力部27aを介してデジタルカメラ(部)32から入力される画像信号、あるいは電送制御部25を介して接続されるインターネットN上の画像配信サーバ10など各Webサーバとの通信信号、あるいは近距離無線通信部28を介して接続される画像配信サーバ10との通信信号、あるいはGPS(global positioning system)29からの本端末装置20の移動に応じた現在位置検出信号に応じて起動される。
【0059】
前記CPU21には、前記メモリ22、記録媒体読取部24、電送制御部25、入力部26、画像入力部27a、近距離無線通信部28、GPS29が接続される他に、LCDからなる表示部30、画像出力部27bを介した画像印刷機31などが接続される。
【0060】
画像入力部27は、外部接続されたデジタルカメラ32あるいは内蔵されたデジタルカメラ(部)32からの撮影画像データを入力するもので、例えば本端末装置20がケータイ電話20Aや携帯端末装置(PDA)20B,デジタルカメラ20Dである場合には内蔵されたデジタルカメラ部30からの撮影画像データが入力され、パーソナルコンピュータ(PC)20Cである場合には外部接続されたデジタルカメラ32からの撮影画像データが入力される。
【0061】
画像出力部27bは、前記画像入力部27aから入力された撮影画像データや当該撮影画像に基づいて前記画像配信サーバ10に依頼して画像処理され配信された画像データを出力するもので、この出力画像データは画像印刷機31に出力されて印刷が行われる。
【0062】
メモリ22には、当該端末装置20(20A〜20D)の全体の動作を司るシステムプログラムや電送制御部25を介してインターネットN上にある画像配信サーバ10などの各Webサーバとデータ通信するための通信プログラム、近距離無線通信部28を介してその通信範囲内に存在する画像配信サーバ10とデータ通信するための近距離通信プログラムが記憶される他に、画像入力部27aから入力された撮影画像に基づいた前記画像配信サーバ10への画像処理の依頼処理や当該画像配信サーバ10から配信された画像データの表示や画像出力部27bを介した印刷処理などを行うための通信・画像処理プログラム22aなどが記憶される。
【0063】
前記メモリ22のワークエリアには、前記通信・画像処理プログラム22aに従い処理される画像データがその画像処理に応じて一時記憶される画像処理ワークエリア22bなどが用意される。
【0064】
このように構成された画像配信システムについて、その動作概要を説明する。
【0065】
図5は前記画像配信システムの端末装置20からの画像配信依頼に基づいた画像配信サーバ10による左右反転合成モード(4)指定時のキャラクタ画像「ウサギ」による左右反転位置追加合成状態を示す図である。
【0066】
図5(A)に示すように、端末装置20において、例えばパートナーとのダンスを予め意識した被写体画像(対象画像)Hを撮影し、この撮影画像12h1について、真似対象の被写体画像範囲Tを設定し、画像配信サーバ10へ左右反転合成モード(4)を選択して画像配信を依頼する。
【0067】
すると、図5(B)に示すように、端末装置20から画像配信依頼された撮影画像12h1とその真似対象画像範囲Tに基づいて被写体画像(対象画像)Hが抽出され、左右反転位置追加の真似させるべきキャラクタ画像として「ウサギ」が指定されると、図5(C)に示すように被写体画像(対象画像)Hのポーズに類似のポーズNo.19「ダンス」の「ウサギ」のキャラクタ画像がキャラ1「ウサギ」ポーズ画像メモリ12dから読み出される。すると、このキャラ1「ウサギ」ポーズ画像メモリ12dから読み出された被写体画像(対象画像)Hに類似のポーズNo.19「ダンス」の「ウサギ」のキャラクタ画像が左右反転され、図5(D)に示すように撮影画像12h1上の中心を対称とした被写体(対象画像)Hと反転した位置に合成される。そして、この左右反転位置追加の合成画像は、前記画像配信依頼元の端末装置20へ配信されて表示あるいは印刷出力される。
【0068】
これにより、画像配信サーバ10では、端末装置20での撮影画像12h1において真似対象画像範囲Tを設定したダンスポーズの被写体(対象画像)Hの真似をした「ウサギ」のキャラクタ画像が左右反転され、当該撮影画像12h1上でダンスポーズをする被写体(対象画像)Hと左右対称となる位置にダンスパートナーとして追加合成されて端末装置20に配信される。
【0069】
図6は前記画像配信システムの端末装置20からの画像配信依頼に基づいた画像配信サーバ10による複数回撮影置き換え(別写真合成)モード(2)指定時のキャラクタ画像「クマ」による置き換え合成状態を示す図である。
【0070】
端末装置20において、例えば置き換え画像となる「クマ」のキャラクタと被写体となる自分が“さよなら”をしている画像を作成したい場合には、まず図6(A)に示すように、キャラクタにさせたい“さよなら”のポーズで被写体画像(対象画像)H1を撮影し、この撮影画像12h2について、真似対象の被写体画像範囲Tを設定し、画像配信サーバ10へ複数回撮影置き換え(別写真合成)モード(2)を指定して画像配信を依頼する。
【0071】
すると、図6(B)に示すように、端末装置20から画像配信依頼された1回目の撮影画像12h2とその真似対象画像範囲Tに基づいて被写体画像(対象画像)H1が抽出される。そして、置き換えのキャラクタ画像として「クマ」が指定されると、図6(C)に示すように被写体画像(対象画像)H1のポーズに類似のポーズNo.11「さよなら」の「クマ」のキャラクタ画像がキャラ2「クマ」ポーズ画像メモリ12eから読み出される。この場合、現在時刻「PM8」が検知されて夜であることが判定され、前記「さよなら」のポーズの「クマ」のキャラクタ画像は、例えば月に乗った夜用のキャラクタ画像12e11Nとして読み出される。
【0072】
つぎに図6(D)に示すように、前記1回目の被写体画像(対象画像)H1に対応した相手方となるポーズの被写体画像H2を端末装置20にて撮影すると、この撮影した2回目の撮影画像12h2′に対して、図6(E)に示すように、前記キャラ2「クマ」ポーズ画像メモリ12eから読み出された1回目の被写体画像(対象画像)H1に類似のポーズNo.11「さよなら」の夜時間用の「クマ」のキャラクタ画像が合成される。そして、この複数回撮影置き換え(別写真合成)による合成画像は、前記画像配信依頼元の端末装置20へ配信されて表示あるいは印刷出力される。
【0073】
これにより、画像配信サーバ10では、端末装置20による1回目の撮影画像12h2において真似対象画像範囲Tを設定した被写体(対象画像)H1の真似をした「さよなら」のキャラクタ画像が、同端末装置20による2回目の撮影画像12h2′において撮影された被写体(対象画像)H2に合わせて合成され、当該端末装置20へ配信される。
【0074】
図7は前記画像配信システムの端末装置20からの画像配信依頼に基づいた画像配信サーバ10による被写体選択置き換えモード(1)指定時のキャラクタ画像「ウサギ」による置き換え合成状態を示す図である。
【0075】
図7(A)に示すように、端末装置20において、例えば3人の人物を含む被写体画像(対象画像)H1〜H3を撮影し、この撮影画像12h3について、真似対象の被写体画像範囲Tを設定し、画像配信サーバ10へ被写体選択置き換えモード(1)を指定して画像配信を依頼する。
【0076】
すると、画像配信サーバ10では、図7(B)に示すように、端末装置20から画像配信依頼された撮影画像12h3とその真似対象画像範囲Tに基づいて置き換えの対象となる被写体画像(対象画像)H1が抽出され、置き換えのキャラクタ画像として「ウサギ」が指定されると、図7(C)に示すように被写体画像(対象画像)H1のポーズに類似のポーズNo.1「はいチーズ(アップ)」の「ウサギ」のキャラクタ画像がキャラ1「ウサギ」ポーズ画像メモリ12dから読み出される。
【0077】
一方、図7(D)(E)(F)に示すように、撮影画像12h3から前記真似対象画像範囲Tに対応した被写体画像(対象画像)H1を含めた3つの被写体画像H2,H3を切り出した撮影背景画像12h3′が生成される。
【0078】
すると、図7(G)に示すように、前記キャラ1「ウサギ」ポーズ画像メモリ12dから読み出された指定の被写体画像(対象画像)H1に類似の「ウサギ」のキャラクタ画像と、前記撮影画像12h3から切り出された残り2つの被写体画像H2,H3が、前記撮影背景画像12h3′に対しその撮影距離が遠い順に各被写体位置に対応して合成される。そして、この被写体選択置き換えによる合成画像は、前記画像配信依頼元の端末装置20へ配信されて表示あるいは印刷出力される。
【0079】
これにより、画像配信サーバ10では、端末装置20による撮影画像12h3において真似対象画像範囲Tを設定した被写体(対象画像)H1のポーズの真似をした「ウサギ」のキャラクタ画像が当該範囲Tの被写体(対象画像)H1と置き換えられて合成され、当該端末装置20へ配信される。
【0080】
なお、この動作概要での図示による説明は省略するが、本画像配信システムでの画像処理モードとしては、前記左右反転合成モード(4)、複数回撮影置き換え(別写真合成)モード(2)、被写体選択置き換えモード(1)の他に、背景追加モード(3)がある。
【0081】
すなわち、端末装置20において、任意の被写体(対象画像)Hを撮影すると共に、この撮影画像12h3について、真似対象の被写体画像範囲Tを設定し、画像配信サーバ10へ背景追加モード(3)を指定して画像配信を依頼すると、画像配信サーバ10では、撮影画像12hnにおいて被写体画像範囲Tを設定した被写体(対象画像)Hnのポーズの真似をした任意指定のキャラクタ画像が当該撮影画像12hnの背景エリアのランダムな位置に追加合成され、端末装置20へ配信される。
【0082】
次に、前記構成による画像配信システムの画像配信サーバ10及び端末装置20による詳細な画像配信処理動作について説明する。
【0083】
ここでは、端末装置20をデジタルカメラ付の携帯電話20Aとして実施した場合について説明する。
【0084】
図8は前記画像配信システムの端末装置20であるカメラ付携帯電話20Aの外観構成を示す正面図である。
【0085】
図9は前記画像配信システムのカメラ付携帯電話20Aによる画像処理「まねキャラ工房」での新規作成処理に伴う操作表示状態(その1)を示す図である。
【0086】
図10は前記画像配信システムのカメラ付携帯電話20Aによる画像処理「まねキャラ工房」での新規作成処理に伴う操作表示状態(その2)を示す図である。
【0087】
図11は前記画像配信システムのカメラ付携帯電話20Aによる画像処理「まねキャラ工房」での新規作成処理に伴う操作表示状態(その3)を示す図である。
【0088】
図12は前記画像配信システムのカメラ付携帯電話20Aによる画像処理「まねキャラ工房」での新規作成処理(その1)を示すフローチャートである。
【0089】
図13は前記画像配信システムのカメラ付携帯電話20Aによる画像処理「まねキャラ工房」での新規作成処理(その2)を示すフローチャートである。
【0090】
図14は前記画像配信システムの画像配信サーバ10による画像処理「まねキャラ工房」の新規作成に対応したサーバ処理(その1)を示すフローチャートである。
【0091】
図15は前記画像配信システムの画像配信サーバ10による画像処理「まねキャラ工房」の新規作成に対応したサーバ処理(その2)を示すフローチャートである。
【0092】
まず、カメラ付携帯電話20Aにおいて、入力部26の操作に応じて電送制御部25または近距離無線通信部28を介しインターネットN上または近距離無線通信範囲にある画像配信サーバ10の画像処理サイト「まねキャラ工房」と接続されると、図9(A)に示すように、「まねキャラ工房」の初期メニュー画面Gが受信表示される。
【0093】
この「まねキャラ工房」の初期メニュー画面Gにおいて、入力部26の選択決定キー26Aを操作して「サンプル」を選択し決定(OK)すると、図9(A1)(A2)に示すように、各種の画像合成モード「置き換え合成モード」(1)・「別写真合成モード」(2)・「背景追加合成モード」(3)・「左右反転合成モード」(4)に応じたサンプル画面Gs1,Gs2,…が、それぞれ選択決定キー26Aの左右キー操作に従って選択的に受信表示される。
【0094】
また、図9(B)に示すように、「まねキャラ工房」の初期メニュー画面Gにおいて、入力部26の選択決定キー26Aを操作して「作り方説明」を選択し決定(OK)すると、図9(B1)に示すように、当該「まねキャラ工房」の作り方説明画面Gmが受信表示される。
【0095】
この作り方説明画面Gmでは、当該「まねキャラ工房」による合成画像の作り方が、例えば「▲1▼写真を選びます。」「▲2▼まねさせる対象(人)の画像範囲を指定し登録します。」「▲3▼キャラクタを選びます。」「▲4▼まねキャラの交換(合成)方法を選びます。」「▲5▼完成したまねキャラ画像はダウンロードしたり友達に送ることができます。」として表示される。
【0096】
また、図9(C)に示すように、「まねキャラ工房」の初期メニュー画面Gにおいて、入力部26の選択決定キー26Aを操作して「会員登録/ご利用規約」を選択し決定(OK)すると、図9(C1)に示すように、会員登録画面Grが受信表示される。
【0097】
この会員登録画面Grでは、月額サービス料やキャラクタ画像の利用料などが紹介表示され、さらに数字キー「1」「2」の組み合わせ操作に従って、図9(C2)に示すような利用規約画面Gr1、図9(C3)に示すような登録承諾画面Gr2が受信表示される。
【0098】
この会員登録画面Grに従った会員登録操作を行うと、画像配信サーバ10の依頼者端末情報メモリ12gに対して、当該端末ユーザに対応した端末ID,パスワード,銀行口座番号などの会員個人情報が登録される。
【0099】
会員登録後のカメラ付携帯電話20Aで、図10(D)に示すように、「まねキャラ工房」の初期メニュー画面Gにおいて、入力部26の選択決定キー26Aを操作して「新規作成」を選択し決定(OK)すると、画像配信サーバ10の画像処理サイト「まねキャラ工房」に対して、当該端末ユーザのID及びパスワードが送信される(ステップA1)。
【0100】
そして、図10(E)に示すように、当該携帯電話20Aにより撮影されて画像処理ワークエリア22bに記録されている撮影画像の中から、「まねキャラ工房」での作成対象としたい写真をユーザ選択させるための写真選択ガイド画面G1が表示される(ステップA2)。
【0101】
この写真選択ガイド画面G1では、入力部26の選択決定キー26Aの左右キー操作に従って、例えば図10(E1)(E2)に示すように、画像処理ワークエリア22bに記録されている撮影画像p1,p2,…が順次読み出されて表示される(ステップA3→A4)。
【0102】
ここで、例えば図10(E2)で示したように表示された撮影画像p2を選択して決定(OK)すると(ステップA5)、図10(F)に示すように、選択された撮影画像p2上でまね対象とすべき被写体(この場合は人物)の画像範囲Tをユーザ選択により設定するための範囲選択ガイド画面G2が表示される(ステップA6)。
【0103】
この範囲選択ガイド画面G2では、入力部26の選択決定キー26Aを上下左右操作するのに伴い、図10(F1)(F2)に示すように撮影画像p2の表示された範囲設定画面Gp2において、楕円形の真似対象画像範囲Tが上下左右に自在に移動表示され(ステップA7→A8)、また、数字キーである「2」26U,「8」26D,「4」26L,「6」26Rを操作するのに伴い、当該真似対象画像範囲Tの楕円形サイズが上下左右方向に伸縮変更表示される(ステップA7→A9)。
【0104】
ここで、例えば図10(F2)で示したように表示された範囲設定画面Gp2上での真似対象画像範囲Tの選択設定状態において、入力部26の選択決定キー26Aにより決定(OK)操作すると、「まねキャラ工房」の作成対象として選択された撮影画像p2に対する真似対象画像範囲Tが設定され(ステップA7→A10)、当該選択された撮影画像p2とその真似対象画像範囲Tのデータが画像配信サーバ10へ送信される(ステップA11)。
【0105】
画像配信サーバ10において、インターネットNから電送制御部15を介して接続されたカメラ付携帯電話20Aまたは近距離無線通信部16を介して接続されたカメラ付携帯電話20AからのID及びパスワードが受信されると(ステップB1)、メモリ12内の依頼者端末情報メモリ12gに会員登録された端末IDのパスワードとの一致/不一致に応じて端末“OK”か“NG”が判断される(ステップB2)。
【0106】
ここで、前記接続されたカメラ付携帯電話20Aのパスワードと、予め会員登録された端末IDのパスワードとが不一致となり、端末“NG”と判断された場合には、当該カメラ付携帯電話20Aとの接続が遮断され、エラー処理が行われる(ステップB2→No)。
【0107】
この画像配信サーバ10において、端末“OK”と判断された後、当該端末“OK”と判断された接続中のカメラ付携帯電話20Aから撮影画像p2とその真似対象画像範囲Tのデータが受信されると、この受信された撮影画像p2とその真似対象画像範囲Tのデータは撮影画像メモリ12hに登録される(ステップB2→B3)。
【0108】
すると、前記受信された撮影画像p2とその真似対象画像範囲Tに応じて追加あるいは置き換え合成すべき対応アニメ画像の候補となる各キャラクタの基本画像12d▲1▼〜12f▲1▼が、キャラクタ1「ウサギ」ポーズ画像メモリ12d〜キャラクタ3「ネコ」ポーズ画像メモリ12fから読み出され、各キャラクタ毎の利用情報と共に、キャラクタ一覧情報・画像データとして携帯電話20Aへ送信される(ステップB4)。
【0109】
携帯電話20Aにおいて、前記画像配信サーバ10から送信されたキャラクタ一覧情報・画像データが受信されると(ステップA12)、図11(G)に示すように、当該受信された各キャラクタの中から対応アニメ画像として合成すべき任意のキャラクタをユーザ選択させるためのキャラクタ選択画面G3が表示される(ステップA13)。
【0110】
このキャラクタ選択画面G3では、入力部26の選択決定キー26Aの左右キー操作に従って、例えば図11(G1)(G2)に示すように、前記画像配信サーバ10から受信された各キャラクタ情報とその画像が、各キャラクタ毎のキャラクタ紹介画面Gc1,Gc2,…として順次切り替えられて表示される(ステップA14→A15)。なお、各キャラクタ情報としては、キャラクタに応じた著作料などの利用料が、所定の利用回数毎の金額、月極など所定期間毎の一括払い金額などとして表示される。
【0111】
ここで、例えば図11(G1)で示した「ウサギ」のキャラクタ紹介画面Gc1において、入力部26の選択決定キー26Aの右キー操作により「決定」ボタンを指定すると、前記撮影画像p2に追加合成または置き換え合成すべきキャラクタの種類「ウサギ」が選択決定され(ステップA14→A16)、この決定されたキャラクタの種類「ウサギ」が画像配信サーバ10へ送信される(ステップA17)。
【0112】
画像配信サーバ10において、携帯電話20Aから指定送信されたキャラクタの種類「ウサギ」が受信されると(ステップB5)、この「まねキャラ工房」におけるまねキャラ画像合成モード(1)〜(4)をユーザ選択させるためのモード選択画面G4が生成され、携帯電話20Aへ送信される(ステップB6)。
【0113】
携帯電話20Aにおいて、前記画像配信サーバ10から生成送信されたモード選択画面G4が受信されると、例えば図11(H)に示すように、これまでにユーザ選択した撮影画像p2とその真似対象画像範囲Tおよびこれに応じて合成すべきキャラクタの基本画像12d(n)と共に、まねキャラ画像合成モード(1)〜(4)を一覧にしたモード選択画面G4が表示される(ステップA18)。
【0114】
そして、例えば前記図11(H)で示したモード選択画面G4において、数字キー「1」の操作によりまねキャラ置き換え合成モード(1)が選択設定されると(ステップA19→A20)、この選択されたまねキャラ置き換え合成モードの番号(1)が画像配信サーバ10へ送信される(ステップA21)。
【0115】
画像配信サーバ10において、前記携帯電話20Aから送信されたまねキャラ置き換え合成モードの番号(1)が受信されると(ステップB7)、図16における対象画像抽出処理へ移行される(ステップBC)。
【0116】
図16は前記画像配信システムの画像配信サーバ10におけるサーバ処理に伴う対象画像抽出処理を示すフローチャートである。
【0117】
この対象画像抽出処理では、まず、前記携帯電話20Aから選択受信されてワークエリアの撮影画像メモリ12hに記憶されている撮影画像pnおよびその真似対象画像範囲T(図10(F2)参照)が読み出される(ステップC1)。
【0118】
すると、この撮影画像メモリ12hから読み出された撮影画像pnから当該画像データ中で隣接する輝度値や色差値などに基づき、該撮影画像に含まれる各物体(被写体)それぞれの輪郭に対応した各被写体ブロックが抽出され(ステップC2)、これにより抽出された各被写体画像Hnがそのブロック毎に画像処理ワークエリア12iに保存される(ステップC3)。
【0119】
こうして、撮影画像pnから当該撮影画像pnに含まれる各被写体画像Hnがそのブロック毎に抽出されて画像処理ワークエリア12iに保存されると(ステップBC)、このブロック化された各被写体画像Hnについて、前記真似対象画像範囲Tと最も合致するブロック領域の被写体画像Hnが真似対象画像として抽出設定される(ステップB8)。
【0120】
そして、前記真似対象となる被写体画像Hnが抽出設定されると、図17における対応アニメ画像(まね画像)取得処理に移行される(ステップBD)。
【0121】
図17は前記画像配信システムにおける画像配信サーバ10のサーバ処理に伴う対応アニメ画像取得処理を示すフローチャートである。
【0122】
この対応アニメ画像取得処理では、まず、前記撮影画像pnからその真似対象画像範囲Tに応じて抽出され、真似対象画像として設定された被写体画像Hnとモデルポーズ画像メモリ12bに記憶されている各ポーズのモデル画像との類似度が評価され(ステップDE)、最も類似度の高いポーズのモデル画像のポーズNo.に対応する選択された種類のキャラクタ画像Aが第1の合成画像として設定される(ステップD1)。
【0123】
そして、次に類似度の高いポーズのモデル画像が存在する場合には、当該次に類似度の高い各モデル画像毎に、そのそれぞれの各ポーズNo.に対応する選択種類のキャラクタ画像Aが順番に第2,第3,…の合成画像として設定される(ステップD2→D4)。
【0124】
この後、前記真似対象画像として設定された被写体画像Hnと順次類似度の高いポーズのモデル画像の全てに対応して、選択種類のキャラクタ画像Aが合成画像として設定されると、この被写体画像Hnとの類似度の高い順に設定された各ポーズNo.それぞれのキャラクタ画像が真似対象画像に対応するアニメ画像として類似度順に登録される(ステップD2→D3)。
【0125】
このように、画像配信サーバ10における対応アニメ画像取得処理では、携帯電話20Aによる撮影画像pnから範囲Tに応じて抽出設定された真似対象画像としての被写体画像Hnに対し、人物の基本モデルである各ポーズ毎のモデル画像との類似度が評価され、これに基づき被写体画像Hnを真似たポーズのキャラクタとして追加または置き換えられる選択された種類のキャラクタ画像が類似度順に決定される。
【0126】
この場合、範囲Tで設定した真似対象画像としての被写体画像Hnに対し、選択された種類のキャラクタの各ポーズ毎のキャラクタ画像との類似度を直接評価して追加または置き換えのキャラクタ画像を決定する場合に比較して、各ポーズ毎のモデル画像との類似度を評価し選択されたモデルポーズNo.から追加または置き換えのキャラクタ画像を決定するようにした本対応アニメ画像取得処理の方が、類似度の評価対象に人物モデルを用いることから被写体画像Hnとの高い類似度が得られやすく、より類似性(真似度)の高いキャラクタ画像を取得できる利点がある。
【0127】
図18は前記画像配信システムにおける画像配信サーバ10のサーバ処理に伴う対応アニメ画像取得処理での真似対象画像との類似度評価処理を示すフローチャートである。
【0128】
図19は前記画像配信サーバ10の対応アニメ画像取得処理での類似度評価処理に伴うモデル画像との類似度評価例を示す図である。
【0129】
例えば図19(A)に示すように、先頭のポーズNo.のモデル画像が読み出され(ステップE1)、同図(X)で示す真似対象画像H1との縦・横のサイズが合わされる(ステップE2)。
【0130】
すると、前記真似対象画像H1と縦横サイズの合わされたモデル画像との重ね合わせ評価が行われ、その評価値(%)が算出されて当該ポーズのモデル画像との類似度として記憶される(ステップE3)。
【0131】
ここで、今回の類似度評価対象のポーズNo.のモデル画像が左右非対称の画像であるか否か判断され(ステップE4)、例えば図19(A)で示すように、当該ポーズのモデル画像12b1Aが左右非対称の画像ではないと判断された場合には(ステップE4「No」)、次のポーズNo.のモデル画像が読み出され(ステップE8→E9)、前記同様に真似対象画像H1と次のポーズのモデル画像との類似度評価処理が繰り返される(ステップE2〜E4)。
【0132】
一方、例えば図19(B)で示すように、今回の類似度評価対象のポーズNo.19のモデル画像12b19が左右非対称のモデル画像であると判断された場合には、当該ポーズNo.19のモデル画像が左右反転され(ステップE4→E5)、図19(C)で示すように、この反転されたモデル画像12b19Rについて真似対象画像H1との縦・横のサイズが合わされる(ステップE6)。
【0133】
すると、前記真似対象画像H1と縦横サイズの合わされた反転モデル画像12b19Rとの重ね合わせ評価が行われ、その評価値(%)が算出されて当該ポーズの反転モデル画像12b19Rとの類似度として記憶される(ステップE7)。
【0134】
この後、次のポーズNo.のモデル画像がある場合には(ステップE8)、当該次のポーズNo.のモデル画像が順次読み出され(ステップE9)、前記同様に真似対象画像と各ポーズ毎のモデル画像との類似度評価処理が繰り返される(ステップE2〜E7)。
【0135】
これにより、例えば図19で示したように、被写体画像(対象画像)H1に対してモデル画像との類似度評価を行った場合には、ポーズNo.19に対応するモデル画像12b19が最も類似度の高いポーズのモデル画像として評価される。
【0136】
このように、前記図17〜図19を参照して説明した対応アニメ画像取得処理(ステップBD)によって、撮影画像pnとその範囲Tから抽出設定された真似対象画像としての被写体画像Hnを真似たポーズの選択種類のキャラクタ画像が決定されると、携帯電話20Aからの合成画像作成依頼の待機状態となる(ステップB9)。
【0137】
携帯電話20Aにおいて、前記選択されたまねキャラ置き換え合成モードの番号(1)が画像配信サーバ10へ送信された後(ステップA21)、その合成画像作成依頼が画像配信サーバ10へ送信されると(ステップA22)、画像配信サーバ10において、前記携帯電話20Aから送信された合成画像作成依頼が受信され(ステップB9)、前記対応アニメ画像取得処理(ステップBD)に従い取得された第1類似度のまねキャラクタ画像が読み出される(ステップB10)。
【0138】
すると、前記携帯電話20Aから選択受信された画像の合成モード番号が、番号1「置き換え合成モード」,番号2「別写真合成モード」,番号3「追加合成モード」,番号4「左右反転合成モード」の何れであるか判断される(ステップB11)。
【0139】
ここで、携帯電話20Aにより指定された画像の合成モードが「置き換え合成モード」(1)であると判断された場合には(ステップB11「番号(1)」)、例えば図7で示したように、前記対応アニメ画像取得処理(図17参照)により取得されステップB10にて読み出された、撮影画像12h3において範囲Tで設定された真似対象画像である被写体H1のポーズの真似をした「ウサギ」の第1類似度のキャラクタ画像12d1が当該被写体(対象画像)H1と置き換えられて合成され(ステップB12a)、この合成画像が携帯電話20Aへ送信される(ステップB13)。
【0140】
この場合、撮影画像12h3から前記範囲Tで設定された被写体画像(対象画像)H1を含めた3つの被写体画像H2,H3を切り出した撮影背景画像12h3′が生成される。そして、前記被写体画像(対象画像)H1に類似の「ウサギ」の第1類似度のキャラクタ画像12d1と、前記撮影画像12h3から切り出された残り2つの被写体画像H2,H3とは、例えば前記撮影背景画像12h3′に対しその撮影時に検出された撮影距離が遠い順に各被写体位置に対応して合成される。
【0141】
なお、前記被写体画像H1,H2,H3を切り出した背景画像12h3′の生成をせずに、撮影画像12h3に対して、前記被写体画像(対象画像)H1に類似の「ウサギ」のキャラクタ画像12d1と、残り2つの被写体画像H2,H3とを、その撮影時に検出された撮影距離が遠い順に各被写体位置に重ねて合成してもよい。
【0142】
携帯電話20Aにおいて、例えば前記図11(H)で示したモード選択画面G4において、撮影画像p2について真似対象画像範囲Tを設定し、まねキャラの種類として「ウサギ」キャラクタを選択して、置き換え合成モード(1)が選択されていた場合には、前記図7で示したように第1類似度の「ウサギ」のキャラクタ画像12d1が置き換え合成処理された第1の置き換え合成画像画面Gq1が、図11(H1)に示すように受信表示される(ステップA23)。
【0143】
この携帯電話20Aにおける第1の置き換え合成画像画面Gq1の表示状態において、当該置き換え合成表示された第1類似度の「ウサギ」のキャラクタ画像12d1を次の類似度の「ウサギ」のキャラクタ画像12dnに替えて再合成表示させるために、さらに「置き換え合成モード」を選択するための数字キー「1」を操作すると、繰り返し前記同様の合成画像作成依頼が画像配信サーバ10へ送信される(ステップA24→A22)。
【0144】
すると、画像配信サーバ10では、前記携帯電話20Aから繰り返し送信された新たな合成画像作成依頼が受信され(ステップB14→B9)、前記対応アニメ画像取得処理(ステップBD)に従い取得登録された次の類似度のまねキャラクタ画像が読み出される(ステップB10)。
【0145】
そして、ステップB11における再度の置き換え合成モード(1)の判断に応じて、ステップB12aでの置き換え合成処理が繰り返し行われることで、例えば前記図7における撮影画像12h3において設定された真似対象画像である被写体H1のポーズの真似をした「ウサギ」の第2類似度のキャラクタ画像12dnが当該被写体(対象画像)H1と置き換えられて合成され(ステップB12a)、この合成画像が新たに携帯電話20Aへ送信される(ステップB13)。
【0146】
すなわち、携帯電話20Aにおいて、例えば前記図11(H1)で示したように、第1類似度の「ウサギ」のキャラクタ画像12d1が置き換え合成処理された第1の置き換え合成画像画面Gq1が表示された状態で、さらに、数字キー「1」を操作して繰り返し置き換え合成モード(1)を選択した場合には、第2類似度の「ウサギ」のキャラクタ画像12dnにより再度置き換え合成処理された第2の置き換え合成画像画面Gq2が、図11(H2)に示すように受信表示される(ステップA23)。
【0147】
一方、画像配信サーバ10において、携帯電話20Aにより指定された画像の合成モードが「まねキャラの別写真合成モード」(2)であると判断された場合には(ステップB11「番号(2)」)、例えば図6で示したように、1回目の撮影画像12h2において真似対象画像範囲Tとして設定された被写体(対象画像)H1の位置が真似画像の置き換え位置として記憶される(ステップB11→B12b1)。
【0148】
そして、2回目の撮影画像12h2′が取得されると(ステップB12b2)、この2回目の撮影画像12h2′における前記記憶された1回目撮影時の被写体(対象画像)H1の位置に対して前記対応アニメ画像取得処理(図17参照)により取得された同被写体H1の真似をした第1類似度の「クマ」のキャラクタ画像12e11N(この場合は夜間用の特別キャラクタ)が、2回目の撮影画像12h2′において撮影された被写体H2と組み合わされて合成され(ステップB12b3)、この合成画像が携帯電話20Aへ送信される(ステップB13)。
【0149】
すると、携帯電話20Aにおいて、前記画像配信サーバ10から送信された別写真合成画像が受信表示される(ステップA23)。
【0150】
これにより、画像配信サーバ10では、複数回撮影置き換え(別写真合成)モードに応じて作成され、図6(E)で示したように、1回目撮影の設定範囲Tに対応した被写体画像H1のさよならのポーズを真似た「クマ」のキャラクタ画像(夜間用特別キャラクタ)が2回目の撮影画像12h2′の被写体画像H2と組み合わされて合成されてなる画像データが、携帯電話20Aへ送信されて配信される。
【0151】
そしてこの場合も、携帯電話20Aにおいて、前記まねキャラ別写真合成モード(2)を繰り返し選択操作する毎に(ステップA22)、画像配信サーバ10では、前記対応アニメ画像取得処理(図17参照)により取得された次の類似度の「クマ」のキャラクタ画像12enが読み出され(ステップB9,B10)、前記2回目の撮影画像12h2′において撮影された被写体H2と再度組み合わされて合成され(ステップB11〜B12b3)、この再合成画像が携帯電話20Aへ送信される(ステップB13)。
【0152】
また、画像配信サーバ10において、携帯電話20Aにより指定された画像の合成モードが「まねキャラの背景追加合成モード」(3)であると判断された場合には(ステップB11「番号(3)」)、撮影画像pnにおける真似対象画像範囲Tに応じて抽出された被写体ブロックM以外の空きエリアのランダムな位置に、前記対応アニメ画像取得処理(図17参照)により取得された真似対象の被写体画像H1のポーズの真似をした第1類似度の選択種類のキャラクタ画像が追加合成され(ステップB12c)、この合成画像が携帯電話20Aへ送信される(ステップB13)。
【0153】
すると、携帯電話20Aにおいて、前記画像配信サーバ10から送信された背景追加合成画像が受信表示される(ステップA23)。
【0154】
これにより、画像配信サーバ10では、まねキャラ背景追加合成モードに応じて作成され、範囲Tで設定された被写体画像H1のポーズを真似た選択種類のキャラクタ画像が撮影画像pn上の空きエリアのランダム位置に合成され、この合成画像データが携帯電話20Aへ送信されて配信される。
【0155】
そしてこの場合にも、携帯電話20Aにおいて、前記まねキャラ背景追加合成モード(3)を繰り返し選択操作する毎に(ステップA22)、画像配信サーバ10では、前記対応アニメ画像取得処理(図17参照)により取得された次の類似度の選択種類のキャラクタ画像12enが読み出され(ステップB9,B10)、撮影画像pn上の空きエリアのランダム位置に再合成され(ステップB11n→B12c)、この再合成画像が携帯電話20Aへ送信される(ステップB13)。
【0156】
また、画像配信サーバ10において、携帯電話20Aにより指定された画像の合成モードが「まねキャラの左右反転合成モード」(4)であると判断された場合には(ステップB11「番号(4)」)、例えば図5で示したように、前記対応アニメ画像取得処理(図17参照)により取得された、撮影画像12h1における範囲Tを設定したダンスポーズの被写体(対象画像)Hの真似をした「ウサギ」のキャラクタ画像12d19が左右反転され、当該撮影画像12h1上でダンスポーズをする被写体(対象画像)Hと左右対称となる位置に追加合成され(ステップB12d)、この合成画像が携帯電話20Aへ送信される(ステップB13)。
【0157】
すると、携帯電話20Aにおいて、前記画像配信サーバ10から送信された左右反転合成画像が受信表示される(ステップA23)。
【0158】
これにより、画像配信サーバ10では、左右反転合成モードに応じて作成され、図5(D)で示したように、範囲Tで設定した被写体画像Hのダンスポーズを真似た「ウサギ」のキャラクタ画像が撮影画像12h1上の当該被写体画像Hの左右反対位置に反転合成され、この合成画像データが、端末装置20へ送信されて配信される。
【0159】
そしてこの場合にも、携帯電話20Aにおいて、前記まねキャラ左右反転合成モード(4)を繰り返し選択操作する毎に(ステップA22)、画像配信サーバ10では、前記対応アニメ画像取得処理(図17参照)により取得された次の類似度の「うざき」のキャラクタ画像12enが読み出され(ステップB9,B10)、再度、撮影画像12h1上の被写体画像Hの左右反対位置に反転合成され、(ステップB11→B12d)、この再合成画像が携帯電話20Aへ送信される(ステップB13)。
【0160】
このように、カメラ付携帯電話20Aでの撮影画像に基づいて、範囲Tで設定した被写体画像Hnを真似対象画像とした選択種類のキャラクタ画像による追加合成処理あるいは置き換え合成処理が画像配信サーバ10にて行われ、その合成画像が携帯電話20Aへ配信されて表示された状態で、このまねキャラ合成画像について、入力部26の選択決定キー26Aにより決定(OK)操作すると、当該選択決定されたまねキャラ合成画像が画像処理ワークエリア22bに登録されると共に(ステップA24→A25)、現在のまねキャラ合成画像についての選択決定情報が画像配信サーバ10へ送信される(ステップA26)。
【0161】
画像配信サーバ10において、前記携帯電話20Aから送信された現在のまねキャラ合成画像についての選択決定情報が受信されると、当該まねキャラ合成画像がユーザIDに対応付けて画像処理ワークエリア12iに登録されると共に(ステップB14→B15)、この登録完了情報が携帯電話20Aへ送信される(ステップB16)。
【0162】
すると、携帯電話20Aでは、例えば図11(I)に示すように、前記選択決定したまねキャラ合成画像(この場合は第1の置き換え合成画像画面Gq1)およびその登録完了メッセージと共に、当該合成画像の友人への配信を促すメッセージを表示した合成画像登録画面G5が表示される(ステップA27)。
【0163】
そして、この携帯電話20Aに配信された合成画像を指定の相手端末に送りたい場合には、前記合成画像登録画面G5において「贈る」ボタンを指定操作することで、図11(I1)に示すように、送信情報設定画面G6が表示され、この送信情報設定画面G6において、入力部26の操作に応じて自分の名前、指定の相手端末の宛先アドレス、メッセージなどが入力され、画像配信サーバ10へ送信される(ステップA27→A28)。
【0164】
画像配信サーバ10において、前記携帯電話20Aから送信された指定の相手端末の宛先アドレスおよび送信人の名前・メッセージなどが受信されると(ステップB17)、当該宛先アドレスに従った指定の相手の端末装置20′へ前記合成画像・名前・メッセージが送信され(ステップB18)、今回の画像配信の依頼元ユーザ分及び指定の相手端末送信分からなる課金内容が計算され、当該配信依頼元の携帯電話20Aへ送信される(ステップB19)。
【0165】
すると、配信依頼元の携帯電話20Aでは、前記画像配信サーバ10から送信された指定の相手端末への合成画像の送信分をも含む当該サーバ利用の課金内容が受信され、表示部30に表示される(ステップA29)。
【0166】
一方、携帯電話20Aにおいて、指定の相手端末に対する宛先アドレスの入力・送信が行われない場合には(ステップA27→No)、画像配信サーバ10では、今回の画像配信の依頼元ユーザ分のみからなる課金内容が計算され、当該配信依頼元の携帯電話20Aへ送信される(ステップB17→B20)。
【0167】
すると、配信依頼元の携帯電話20Aでは、前記画像配信サーバ10から送信された当該配信依頼元ユーザ分のみのサーバ利用の課金内容が受信され、表示部30に表示される(ステップA30)。
【0168】
そして、画像配信サーバ10では、前記計算された課金内容に応じたサーバ利用料金が、依頼者端末情報メモリ12gに登録されている配信依頼元端末に対応する銀行口座に対して課金される(ステップB21)。
【0169】
なお、前記ユーザに対する課金処理については、一回利用毎などの利用回数毎の課金実施、または一月毎などの一定期間毎の課金実施の何れであってもよい。
【0170】
したがって、前記構成の画像配信システムによる画像配信処理機能によれば、デジタルカメラ付携帯電話20Aなどの端末装置20による撮影画像を該撮影画像に真似対象画像範囲Tを設定して画像配信サーバ10へ送信すると、画像配信サーバ10では、受信された撮影画像の真似対象画像範囲Tに対応して被写体画像が抽出されると共に、この抽出された被写体画像に対応するポーズの任意選択種のキャラクタ画像がキャラ1「ウサギ」ポーズ画像メモリ12d,キャラ2「クマ」ポーズ画像メモリ12e,キャラ3「ネコ」ポーズ画像メモリ12fから取得され、前記撮影画像における被写体画像との置き換え又は追加によって合成され、前記端末装置20へ配信されるので、単に撮影フレーム内に固定的なアニメ画像を追加合成して配信するのではなく、範囲Tで設定した被写体のポーズを真似たアニメ画像を置き換えあるいは追加合成することによって非常に楽しいアニメ付の撮影画像を作成配信することができる。
【0171】
そして、このような画像配信システムにおける画像配信サーバ10を用いることで、撮影画像の任意設定範囲Tに対応する被写体像を真似たポーズのキャラクタ画像を追加または置き換えにより合成した画像付メールの配信サービス、デジタルカメラ付携帯電話20Aなどの撮影可能な移動端末装置20B,20C,20Dを対象として各撮影画像への設定範囲Tに対応する被写体ポーズを真似たキャラクタ画像の合成配信を行う画像合成有償配信サービス、特定のホームページにおいて特定キャラクタ宣伝のための特定キャラクタを撮影画像の設定範囲Tに対応する被写体ポーズを真似たキャラクタ画像として追加あるいは置き換え合成して有償あるいは無償配信するサービス、さらにはアミューズメントスポットなどでの特定の場所のみにおいて近距離無線通信部16を介して接続されるデジタルカメラ端末装置20Dでの撮影画像の設定範囲Tを対象とする被写体ポーズを真似た人気キャラクタ画像の合成有償配信サービスなどを実現できる。
【0172】
なお、前記実施形態では、撮影画像からその真似対象画像範囲Tに対応して抽出された被写体に対応するポーズのキャラクタ画像を選択的に取得し、追加や置き換えによる画像の合成などを行う構成としたが、実写による様々な表情の顔画像や人物画像を予め記憶させておき、この実写による顔画像や人物画像を撮影画像から抽出された被写体に対応する真似画像として取得し、追加や置き換えによる画像の合成などを行う構成としてもよい。
【0173】
また、前記実施形態では、撮影画像が静止画である場合について説明したが、撮影画像が動画である場合には当該撮影入力される動画像から、その動画像内の背景画像に対して設定範囲Tに対応して時系列的に変化する被写体画像を順次抽出し、この順次抽出される被写体画像にそれぞれ対応する動画用ポーズのキャラクタ画像を選択的に取得して配信、あるいは前記撮影動画像内に追加または被写体と置き換え合成して動画配信する構成としてもよい。
【0174】
さらに、前記実施形態における画像配信サーバ10や端末装置20での画像処理機能を応用し、ゲームなどの動画像を基に任意指定されて抽出される登場キャラクタの画像を真似対象画像として、類似ポーズの予め用意した所望のキャラクタ画像や実写による人物画像を取得配信したり、前記登場キャラクタと置き換えて合成配信したりする構成としてもよい。
【0175】
また、ユーザ自身で撮影した各種ポーズの被写体画像やインターネットN上のゲームサーバ(ゲームHP)からユーザ自身でダウンロードしたゲームに登場する各種ポーズのキャラクタ画像を、画像配信サーバ10におけるメモリ12内のキャラ1「ウサギ」ポーズ画像メモリ12d,キャラ2「クマ」ポーズ画像メモリ12e,キャラ3「ネコ」ポーズ画像メモリ12fなどと同様にメモリ登録しておき、前記実施形態において撮影画像からその設定範囲Tに対応して抽出された被写体画像に対応するポーズのキャラクタ画像を画像配信サーバ10にて取得する際には、前記「ウサギ」「クマ」「ネコ」などの元々登録されたキャラクタ画像と前記ユーザ自身で登録した人物画像やゲームキャラクタ画像を選択して取得し合成できる構成としてもよい。
【0176】
なお、前記実施形態において記載した画像配信システムによる各処理の手法、すなわち、図12,図13のフローチャートに示す端末装置20による画像処理での新規作成処理、図14,図15のフローチャートに示す画像配信サーバ10による新規作成に対応したサーバ処理、図16のフローチャートに示す画像配信サーバ10によるサーバ処理に伴う対象画像抽出処理、図17のフローチャートに示す画像配信サーバ10によるサーバ処理に伴う対応アニメ画像取得処理、図18のフローチャートに示す画像配信サーバ10による対応アニメ画像取得処理に伴う真似対象画像との類似度評価処理等の各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記録媒体13(23)に格納して配布することができる。そして、通信ネットワーク(インターネット)Nとの通信機能を備えた種々のコンピュータ端末は、この外部記録媒体13(23)に記憶されたプログラムを記録媒体読取部14(24)によってメモリ12(22)に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記実施形態において説明した画像配信処理機能を実現し、前述した手法による同様の処理を実行することができる。
【0177】
また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末から前記のプログラムデータを取り込み、前述した画像配信処理機能を実現することもできる。
【0178】
なお、本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。
【0179】
【発明の効果】
以上のように、本発明の請求項1に係る画像配信装置によれば、撮影画像受信手段により端末から撮影画像と当該撮影画像に対する対象範囲が受信されると、この受信された撮影画像の対象範囲の画像に応じた対応画像が対応画像取得手段により取得され、この取得された対応画像が画像合成手段により前記撮影画像に合成され、この合成画像が合成画像送信手段により送信されるので、端末による撮影画像上で設定した対象範囲に対応する画像に応じたまね画像などの対応画像を取得して、当該撮影画像に合成した画像を得ることができる。
【0180】
また、本発明の請求項2に係る画像配信装置によれば、前記請求項1に係る画像配信装置にあって、撮影画像受信手段により受信される撮影画像の対象範囲は、端末において当該撮影画像に対し任意に設定された画像の範囲とされるので、合成すべき対応画像の基準となる撮影画像上の対象範囲を、任意の被写体などに合わせて設定できるようになる。
【0181】
また、本発明の請求項3に係る画像配信装置によれば、前記請求項2に係る画像配信装置にあって、撮影画像の対象範囲は楕円であり、その大きさ,形状は任意に変更されて設定されるので、合成すべき対応画像の基準となる撮影画像上の対象範囲を大きさ,形状自在な楕円として、任意の人物像などに容易に合わせて設定できるようになる。
【0182】
また、本発明の請求項4に係る画像配信装置によれば、前記請求項1乃至請求項3の何れか1項に係る画像配信装置にあって、輪郭ブロック抽出手段により、前記撮影画像受信手段により受信された撮影画像から輪郭に対応したブロックが抽出され、この抽出されたブロックのうち、前記対象範囲に対応したブロックの画像が対象画像抽出手段により抽出される。すると、対応画像取得手段では、前記対象画像抽出手段により抽出された画像に応じた対応画像が合成すべき対応画像として取得されるので、撮影画像上の対象範囲に存在する被写体などの輪郭ブロックの画像に応じた対応画像を取得して合成できるようになる。
【0183】
また、本発明の請求項5に係る画像配信装置によれば、請求項1乃至請求項4の何れか1項に係る画像配信装置にあって、対応画像取得手段は、複数の対応画像を記憶する対応画像記憶手段と、撮影画像受信手段により受信された撮影画像の対象範囲に対応する画像と前記対応画像記憶手段により記憶された各対応画像との類似度を評価する類似度評価手段とを有し、この類似度評価手段により評価された対象範囲に対応する画像と各対応画像との類似度に応じて当該対象範囲の画像に応じた合成すべき対応画像が取得されるので、撮影画像の対象範囲に対応する人物などの被写体画像と類似度の高い(よく似た)画像を合成すべき対応画像として取得できるようになる。
【0184】
また、本発明の請求項6に係る画像配信装置によれば、前記請求項1乃至請求項4の何れか1項に係る画像配信装置にあって、対応画像取得手段は、複数のモデル画像と複数の対応画像とを対応付けて記憶する対応画像記憶手段と、撮影画像受信手段により受信された撮影画像の対象範囲に対応する画像と前記対応画像記憶手段により記憶された各モデル画像との類似度を評価する類似度評価手段とを有し、この類似度評価手段により評価された対象範囲に対応する画像と各モデル画像との類似度に応じて当該対象範囲の画像に応じたモデル画像に対応付けられて前記対応画像記憶手段により記憶された対応画像が合成すべき対応画像として取得されるので、撮影画像の対象範囲に対応する人物などの被写体画像と類似度の高い(よく似た)画像を、モデル画像を用いた類似度評価により、合成すべき対応画像として容易且つ確実に取得できるようになる。
【0185】
また、本発明の請求項7に係る画像配信装置によれば、前記請求項1乃至請求項6の何れか1項に係る画像配信装置にあって、前記対応画像としては、異なる種類毎に複数の対応画像があり、対応画像取得手段により取得される対応画像は、種類受信手段により端末から受信された種類の対応画像となるので、端末により選択された動物などの種類の複数の対応画像の中から、撮影画像の対象範囲に対応する人物画像などに応じた対応画像を合成すべき画像として取得できるようになる。
【0186】
また、本発明の請求項8に係る画像配信装置によれば、前記請求項1乃至請求項7の何れか1項に係る画像配信装置にあって、さらに、合成画像送信手段による画像の送信に応じて前記端末に課金する課金手段が備えられるので、撮影画像の対象範囲に対応する画像に応じた取得画像の合成配信サービスをビジネスとして提供できるようになる。
【0187】
また、本発明の請求項9に係る画像配信装置によれば、前記請求項8に係る画像配信装置にあって、課金手段による課金額は、対応画像取得手段により取得された対応画像の種類に応じた金額とされるので、撮影画像の対象範囲に対応する画像に応じて取得される合成すべき画像の種類(例えばその需要度)により、異なる金額を課金できるようになる。
【0188】
また、本発明の請求項10に係る画像配信装置によれば、前記請求項8に係る画像配信装置にあって、課金手段による課金額には、対応画像取得手段により取得された対応画像の種類に応じた一定利用回数毎または一定利用期間毎の著作料が含まれるので、撮影画像の対象範囲に対応する画像に応じて取得される合成すべき画像の種類として、著作料の必要な人気キャラクタなどの画像を用意でき、また、複数の課金形態としてサービスを提供できるようになる。
【0189】
また、本発明の請求項11に係る画像配信装置によれば、前記請求項1乃至請求項10の何れか1項に係る画像配信装置にあって、画像合成手段は、合成方法受信手段により端末から受信された画像の合成方法に従い、対応画像取得手段により取得された対応画像を撮影画像に合成するので、撮影画像の対象範囲に対応する画像に応じて取得された対応画像を、端末により選択される合成方法に従って、当該撮影画像に合成できるようになる。
【0190】
また、本発明の請求項12に係る画像配信装置によれば、前記請求項11に係る画像配信装置にあって、画像合成手段は、合成方法受信手段により画像の置き換え合成方法が受信された場合、撮影画像受信手段により受信された撮影画像の対象範囲に対応する画像を、対応画像取得手段により取得された対応画像に置き換えて当該撮影画像に合成するので、端末による合成方法の選択により、撮影画像の対象範囲に対応する画像を、これに応じた対応画像に置き換えて当該撮影画像に合成できるようになる。
【0191】
また、本発明の請求項13に係る画像配信装置によれば、前記請求項11に係る画像配信装置にあって、画像合成手段は、合成方法受信手段により画像の背景追加合成方法が受信された場合、対応画像取得手段により取得された対応画像を撮影画像の背景に追加して合成するので、端末による合成方法の選択により、撮影画像の対象範囲に対応する画像に応じた対応画像を、当該撮影画像の背景に追加して合成できるようになる。
【0192】
また、本発明の請求項14に係る画像配信装置によれば、前記請求項11に係る画像配信装置にあって、画像合成手段は、合成方法受信手段により画像の左右反転合成方法が受信された場合、対応画像取得手段により取得された対応画像を、撮影画像上の対象範囲に対応する画像と左右反転の位置に追加して合成するので、端末による合成方法の選択により、撮影画像の対象範囲に対応する画像に応じた対応画像を、撮影画像上で当該対象範囲に対応する画像と左右反転の位置に追加して合成できるようになる。
【0193】
また、本発明の請求項15に係る画像配信装置によれば、前記請求項11に係る画像配信装置にあって、対応画像取得手段は、撮影画像受信手段により受信された第1の撮影画像の対象範囲の画像に応じた対応画像を取得し、画像合成手段は、合成方法受信手段により画像の別撮影合成方法が受信された場合、撮影画像受信手段により受信された第2の撮影画像に対して、前記対応画像取得手段により取得された対応画像を合成するので、端末による合成方法の選択により、第1の撮影画像の対象範囲の画像に応じて取得された対応画像を、第2の撮影画像に対して合成できるようになる。
【0194】
よって、端末での撮影画像に対して単に固定的な画像を合成配信するのではなく、当該撮影画像中の物体(例えば人物)像に対応した画像を合成して配信することが可能になる画像配信装置(画像配信方法及び画像配信プログラム)を提供できる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る画像配信システムにおける画像配信サーバ10の電子回路の構成を示すブロック図である。
【図2】前記画像配信システムにおける端末装置20の電子回路の構成を示すブロック図。
【図3】前記画像配信サーバ10のキャラ1「ウサギ」ポーズ画像メモリ12d:キャラ2「クマ」ポーズ画像メモリ12e:キャラ3「ネコ」ポーズ画像メモリ12fにそれぞれ記憶された各種のポーズに対応する各キャラクタ画像を示す図。
【図4】前記画像配信サーバ10のモデルポーズ画像メモリ12bに記憶されたモデルポーズに対応するモデル画像を示す図。
【図5】前記画像配信システムの端末装置20からの画像配信依頼に基づいた画像配信サーバ10による左右反転合成モード(4)指定時のキャラクタ画像「ウサギ」による左右反転位置追加合成状態を示す図。
【図6】前記画像配信システムの端末装置20からの画像配信依頼に基づいた画像配信サーバ10による複数回撮影置き換え(別写真合成)モード(2)指定時のキャラクタ画像「クマ」による置き換え合成状態を示す図。
【図7】前記画像配信システムの端末装置20からの画像配信依頼に基づいた画像配信サーバ10による被写体選択置き換えモード(1)指定時のキャラクタ画像「ウサギ」による置き換え合成状態を示す図。
【図8】前記画像配信システムの端末装置20であるカメラ付携帯電話20Aの外観構成を示す正面図。
【図9】前記画像配信システムのカメラ付携帯電話20Aによる画像処理「まねキャラ工房」での新規作成処理に伴う操作表示状態(その1)を示す図。
【図10】前記画像配信システムのカメラ付携帯電話20Aによる画像処理「まねキャラ工房」での新規作成処理に伴う操作表示状態(その2)を示す図。
【図11】前記画像配信システムのカメラ付携帯電話20Aによる画像処理「まねキャラ工房」での新規作成処理に伴う操作表示状態(その3)を示す図。
【図12】前記画像配信システムのカメラ付携帯電話20Aによる画像処理「まねキャラ工房」での新規作成処理(その1)を示すフローチャート。
【図13】前記画像配信システムのカメラ付携帯電話20Aによる画像処理「まねキャラ工房」での新規作成処理(その2)を示すフローチャート。
【図14】前記画像配信システムの画像配信サーバ10による画像処理「まねキャラ工房」の新規作成に対応したサーバ処理(その1)を示すフローチャート。
【図15】前記画像配信システムの画像配信サーバ10による画像処理「まねキャラ工房」の新規作成に対応したサーバ処理(その2)を示すフローチャート。
【図16】前記画像配信システムの画像配信サーバ10におけるサーバ処理に伴う対象画像抽出処理を示すフローチャート。
【図17】前記画像配信システムにおける画像配信サーバ10のサーバ処理に伴う対応アニメ画像取得処理を示すフローチャート。
【図18】前記画像配信システムにおける画像配信サーバ10のサーバ処理に伴う対応アニメ画像取得処理での真似対象画像との類似度評価処理を示すフローチャート。
【図19】前記画像配信サーバ10の対応アニメ画像取得処理での類似度評価処理に伴うモデル画像との類似度評価例を示す図。
【符号の説明】
10 …画像配信サーバ
11 …サーバCPU
12 …サーバメモリ
12a…画像配信処理プログラム
12b…モデルポーズ画像メモリ
12c…修正モデルポーズ画像メモリ
12d…キャラ1「ウサギ」ポーズ画像メモリ
12e…キャラ2「クマ」ポーズ画像メモリ
12f…キャラ3「ネコ」ポーズ画像メモリ
12g…依頼者端末情報メモリ
12h…撮影画像メモリ
12i…画像処理ワークエリア
13 …サーバ外部記録媒体
14 …サーバ記録媒体読取部
15 …サーバ電送制御部
16 …サーバ近距離無線通信部
17 …サーバ入力部
18 …サーバ表示部
20 …端末装置
20A…携帯電話端末
20B…携帯端末(PDA)
20C…端末(PC)
20D…デジタルカメラ端末
21 …端末CPU
22 …端末メモリ
22a…通信・画像処理プログラム
22b…画像処理ワークエリア
23 …端末外部記録媒体
24 …端末記録媒体読取部
25 …端末電送制御部
26 …端末入力部
26A…選択決定キー
27a…画像入力部
27b…画像出力部
28 …端末近距離無線通信部
29 …GPS
30 …端末表示部
31 …画像印刷機
32 …デジタルカメラ(部)
N …通信ネットワーク(インターネット)
G …「まねキャラ工房」初期メニュー画面
G1…写真選択ガイド画面
G2…範囲選択ガイド画面
G3…キャラクタ選択画面
G4…モード選択画面
G5…合成画像登録画面
G6…送信情報設定画面[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image distribution device, an image distribution method, and an image distribution program for distributing an image according to a captured image captured by a camera-equipped mobile terminal or the like.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, among various still cameras and video cameras, there is a type in which a captured image is combined with another image to be displayed or printed and output.
[0003]
For example, one that synthesizes and outputs animated images such as flowers and popular characters prepared in advance at a fixed position of a shooting frame, or that synthesizes and outputs the previously prepared animated image at a desired position in a shooting frame Things are in practical use.
[0004]
In addition, an image captured by a digital camera can be displayed on a display screen of a personal computer and combined with another image for editing. In this case, the other image can be selectively selected from other image files, for example. It is acquired by clipping, downloading from an arbitrary homepage screen on the Internet, or the like, and is synthesized at a desired position on a captured image.
[0005]
Also, an arbitrary region (for example, a face portion) of an image photographed by a digital camera is cut out, and this cut out image is combined with a previously prepared animation image (for example, a face portion of an animation character) to form another new image. There is also a proposal for creating an image or combining an animated image associated with a specified region of an arbitrary image. (For example, refer to
[0006]
[Patent Document 1]
JP 2001-230972 A
[0007]
[Problems to be solved by the invention]
However, in such a conventional image processing system, a previously prepared image is fixed as it is or is synthesized at a desired position and output with respect to a photographed image, or an arbitrary prepared image is prepared in advance. Because it is only for synthesizing and outputting images, synthesized images other than captured images are always fixed and unchanged, and even if various images are downloaded from the Internet and used, Is a mere decoration that has nothing to do with it.
[0008]
The present invention has been made in view of the above-described problem, and does not simply synthesize and deliver a fixed image to an image captured by a terminal, but instead applies an image of an object (for example, a person) in the captured image. It is an object of the present invention to provide an image distribution device, an image distribution method, and an image distribution program that can combine and distribute corresponding images.
[0009]
[Means for Solving the Problems]
That is, in the image distribution device according to
[0010]
According to this, it is possible to acquire a corresponding image such as an imitation image corresponding to the image corresponding to the target range set on the image captured by the terminal, and obtain an image synthesized with the captured image.
[0011]
Further, in the image distribution device according to
[0012]
According to this, it is possible to set the target range on the captured image, which is the reference of the corresponding image to be combined, according to an arbitrary subject or the like.
[0013]
Also, in the image distribution device according to a third aspect of the present invention, in the image distribution device according to the second aspect, the target range of the captured image is an ellipse, and the size and shape are arbitrarily changed and set. Is done.
[0014]
According to this, the target range on the captured image, which is the reference of the corresponding image to be synthesized, can be set as an ellipse of any size and shape so that it can be easily adjusted to any human image.
[0015]
According to a fourth aspect of the present invention, there is provided the image distribution apparatus according to any one of the first to third aspects, wherein the contour block extraction unit receives the image data received by the captured image reception unit. A block corresponding to the contour is extracted from the captured image thus obtained, and among the extracted blocks, an image of a block corresponding to the target range is extracted by target image extracting means. Then, the corresponding image acquiring unit acquires a corresponding image corresponding to the image extracted by the target image extracting unit as a corresponding image to be combined.
[0016]
According to this, a corresponding image corresponding to an image of a contour block such as a subject existing in a target range on a captured image can be acquired and synthesized.
[0017]
According to a fifth aspect of the present invention, there is provided the image distribution apparatus according to any one of the first to fourth aspects, wherein the corresponding image acquisition unit stores a plurality of corresponding images. Image storage means, and similarity evaluation means for evaluating the similarity between an image corresponding to the target range of the captured image received by the captured image reception means and each corresponding image stored by the corresponding image storage means. In accordance with the similarity between the image corresponding to the target range evaluated by the similarity evaluation means and each corresponding image, a corresponding image to be synthesized according to the image in the target range is obtained.
[0018]
According to this, an image having a high degree of similarity (very similar) to a subject image such as a person corresponding to the target range of the captured image can be acquired as a corresponding image to be synthesized.
[0019]
Also, in the image distribution device according to
[0020]
According to this, an image having a high degree of similarity (very similar) to a subject image such as a person corresponding to the target range of a captured image can be easily and reliably determined as a corresponding image to be synthesized by similarity evaluation using a model image. Can be obtained.
[0021]
Also, in the image distribution device according to
[0022]
According to this, a corresponding image corresponding to a person image corresponding to the target range of the captured image can be obtained as an image to be synthesized from a plurality of corresponding images of a type such as an animal selected by the terminal.
[0023]
An image distribution apparatus according to an eighth aspect of the present invention is the image distribution apparatus according to any one of the first to seventh aspects, further comprising: A charging unit for charging the terminal is provided.
[0024]
According to this, it is possible to provide, as a business, a composite delivery service of an acquired image corresponding to an image corresponding to a target range of a captured image.
[0025]
In the image distribution device according to a ninth aspect of the present invention, in the image distribution device according to the eighth aspect, the amount charged by the charging unit is determined according to the type of the corresponding image acquired by the corresponding image acquiring unit. The amount is assumed.
[0026]
According to this, different amounts can be charged depending on the type of image to be combined (for example, the degree of demand) acquired according to the image corresponding to the target range of the captured image.
[0027]
In the image distribution device according to claim 10 of the present invention, in the image distribution device according to
[0028]
According to this, an image such as a popular character requiring a copyright can be prepared as a type of an image to be synthesized obtained according to the image corresponding to the target range of the captured image, and the service can be provided as a plurality of billing modes. Can be provided.
[0029]
Also, in the image distribution device according to claim 11 of the present invention, in the image distribution device according to any one of
[0030]
According to this, the corresponding image acquired according to the image corresponding to the target range of the captured image can be combined with the captured image according to the combining method selected by the terminal.
[0031]
In the image distribution apparatus according to a twelfth aspect of the present invention, in the image distribution apparatus according to the eleventh aspect, the image synthesizing unit includes: The image corresponding to the target range of the photographed image received by the image receiving means is replaced with the corresponding image acquired by the corresponding image acquiring means, and is synthesized with the photographed image.
[0032]
According to this, by selecting the synthesizing method by the terminal, the image corresponding to the target range of the captured image can be replaced with the corresponding image corresponding thereto and synthesized with the captured image.
[0033]
Further, in the image distribution device according to claim 13 of the present invention, in the image distribution device according to
[0034]
According to this, by selecting the combining method by the terminal, a corresponding image corresponding to the image corresponding to the target range of the captured image can be added to the background of the captured image and combined.
[0035]
Further, in the image distribution device according to claim 14 of the present invention, in the image distribution device according to
[0036]
According to this, by selecting the combining method by the terminal, the corresponding image corresponding to the image corresponding to the target range of the captured image is added to the image corresponding to the target range on the captured image at the position of left / right inversion and combined You can do it.
[0037]
In the image distribution device according to a fifteenth aspect of the present invention, in the image distribution device according to the eleventh aspect, the corresponding image acquisition unit includes a target area of the first captured image received by the captured image reception unit. Acquisition of a corresponding image corresponding to the image of the above, the image synthesis means, when another shooting synthesis method of the image is received by the synthesis method receiving means, the second captured image received by the captured image receiving means, The corresponding image obtained by the corresponding image obtaining means is synthesized.
[0038]
According to this, by selecting the combination method by the terminal, the corresponding image acquired according to the image in the target range of the first captured image can be combined with the second captured image.
[0039]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0040]
(1st Embodiment)
FIG. 1 is a block diagram showing a configuration of an electronic circuit of the
[0041]
FIG. 2 is a block diagram showing a configuration of an electronic circuit of the
[0042]
This image distribution system includes various types of
[0043]
In FIG. 1, an
[0044]
The
[0045]
The
[0046]
In the
[0047]
The
[0048]
FIG. 3 shows the
[0049]
The various pose images of the characters stored in the
[0050]
FIG. 4 is a view showing a model image corresponding to the model pose stored in the model pose
[0051]
The model images of various poses stored in the model pose
[0052]
The character images stored in the
[0053]
The corrected model image stored in the corrected model pose
[0054]
In the client
[0055]
The photographed
[0056]
Image data processed according to the image
[0057]
In FIG. 2, the
[0058]
The
[0059]
The
[0060]
The image input unit 27 is for inputting captured image data from an externally connected
[0061]
The
[0062]
The
[0063]
In the work area of the
[0064]
An outline of the operation of the image distribution system configured as described above will be described.
[0065]
FIG. 5 is a diagram showing a left-right reversal position additional combination state by the character image “rabbit” when the left-right reversal combination mode (4) is designated by the
[0066]
As shown in FIG. 5A, the
[0067]
Then, as shown in FIG. 5B, the subject image (target image) H is extracted based on the captured image 12h1 requested to be distributed by the
[0068]
Thereby, in the
[0069]
FIG. 6 shows the replacement / combination state by the character image “bear” when the
[0070]
In the
[0071]
Then, as shown in FIG. 6B, the subject image (target image) H1 is extracted based on the first captured image 12h2 requested to be distributed by the
[0072]
Next, as shown in FIG. 6D, when the
[0073]
Thereby, in the
[0074]
FIG. 7 is a diagram showing a replacement synthesis state by the character image “rabbit” when the subject selection replacement mode (1) is designated by the
[0075]
As shown in FIG. 7A, the
[0076]
Then, in the
[0077]
On the other hand, as shown in FIGS. 7D, 7E, and 7F, three subject images H2 and H3 including a subject image (target image) H1 corresponding to the imitation target image range T are cut out from the captured image 12h3. The captured background image 12h3 'is generated.
[0078]
Then, as shown in FIG. 7 (G), a character image of a “rabbit” similar to the designated subject image (target image) H1 read from the
[0079]
Thereby, in the
[0080]
Although illustration of the outline of the operation is omitted, the image processing mode in the present image distribution system includes the left-right reversal combining mode (4), the multiple image capturing / replacement (different photograph combining) mode (2), In addition to the subject selection and replacement mode (1), there is a background addition mode (3).
[0081]
That is, in the
[0082]
Next, a detailed image distribution processing operation by the
[0083]
Here, a case where the
[0084]
FIG. 8 is a front view showing an external configuration of a camera-equipped
[0085]
FIG. 9 is a diagram showing an operation display state (part 1) associated with a new creation process in the image processing “mimic character workshop” by the camera-equipped
[0086]
FIG. 10 is a diagram showing an operation display state (No. 2) associated with a new creation process in the image processing “mimic character workshop” by the camera-equipped
[0087]
FIG. 11 is a diagram showing an operation display state (part 3) associated with a new creation process in the image processing “mimic character workshop” by the camera-equipped
[0088]
FIG. 12 is a flowchart showing a new creation process (No. 1) in the image processing "mimic character workshop" by the camera-equipped
[0089]
FIG. 13 is a flowchart showing a new creation process (No. 2) in the image processing "mimic character workshop" by the camera-equipped
[0090]
FIG. 14 is a flowchart showing a server process (No. 1) corresponding to the new creation of the image process “mimic character workshop” by the
[0091]
FIG. 15 is a flowchart showing a server process (part 2) corresponding to the new creation of the image process “mimic character workshop” by the
[0092]
First, in the camera-equipped
[0093]
In the initial menu screen G of the “imitation character studio”, when the selection sample key 26A of the
[0094]
Further, as shown in FIG. 9B, when the selection determination key 26A of the
[0095]
In this method explanation screen Gm, the method of creating a composite image by the “mimic character studio” is, for example, “(1) Select a photo.” (2) Specify and register the image range of the target (person) to be mimicked "[3] Select a character." [4] Select the method of replacing (compositing) mimic characters. "[5] You can download the completed mimic character image or send it to your friends. "Is displayed.
[0096]
Further, as shown in FIG. 9 (C), on the initial menu screen G of “mimic character studio”, the user operates the selection and determination key 26A of the
[0097]
In this member registration screen Gr, a monthly service fee, a character image usage fee, and the like are introduced and displayed, and further, according to a combination operation of the numeric keys “1” and “2”, a usage agreement screen Gr1 as shown in FIG. A registration approval screen Gr2 as shown in FIG. 9 (C3) is received and displayed.
[0098]
When the member registration operation according to the member registration screen Gr is performed, the member personal information such as the terminal ID, password, and bank account number corresponding to the terminal user is stored in the requester
[0099]
As shown in FIG. 10 (D), on the camera-equipped
[0100]
Then, as shown in FIG. 10 (E), from the captured images captured by the
[0101]
In the photo selection guide screen G1, according to the left / right key operation of the selection determination key 26A of the
[0102]
Here, for example, when the photographed image p2 displayed as shown in FIG. 10 (E2) is selected and determined (OK) (step A5), as shown in FIG. 10 (F), the selected photographed image p2 is displayed. A range selection guide screen G2 for setting the image range T of the subject (in this case, a person) to be imitated above by user selection is displayed (step A6).
[0103]
In this range selection guide screen G2, as the selection determination key 26A of the
[0104]
Here, for example, in the selection setting state of the imitation target image range T on the range setting screen Gp2 displayed as shown in FIG. 10 (F2), when the determination (OK) operation is performed by the selection determination key 26A of the
[0105]
The
[0106]
Here, the password of the connected camera-equipped
[0107]
After the
[0108]
Then, the
[0109]
In the
[0110]
In this character selection screen G3, each character information received from the
[0111]
Here, for example, in the character introduction screen Gc1 of “rabbit” shown in FIG. 11 (G1), when the “decision” button is designated by operating the right key of the selection decision key 26A of the
[0112]
When the
[0113]
In the
[0114]
For example, in the mode selection screen G4 shown in FIG. 11H, when the imitation character replacement synthesis mode (1) is selected and set by operating the numeric key “1” (steps A19 → A20), this selection is made. The number (1) of the mimic character replacement synthesis mode is transmitted to the image distribution server 10 (step A21).
[0115]
When the
[0116]
FIG. 16 is a flowchart showing a target image extraction process accompanying the server processing in the
[0117]
In this target image extraction process, first, the captured image pn and its imitation target image range T (see FIG. 10 (F2)) selectively received from the
[0118]
Then, from the captured image pn read from the captured
[0119]
In this way, when each subject image Hn included in the taken image pn is extracted from the taken image pn for each block and stored in the image processing work area 12i (step BC), the subject images Hn thus divided into blocks are extracted. Then, the subject image Hn of the block area that best matches the imitation target image range T is extracted and set as the imitation target image (step B8).
[0120]
When the subject image Hn to be imitated is extracted and set, the process proceeds to a corresponding animation image (similar image) acquisition process in FIG. 17 (step BD).
[0121]
FIG. 17 is a flowchart showing a corresponding animation image acquisition process accompanying the server processing of the
[0122]
In the corresponding animation image acquisition processing, first, the subject image Hn extracted from the photographed image pn according to the imitation target image range T and set as the imitation target image and each pose stored in the model pose
[0123]
Then, when there is a model image having a pose having the next highest similarity, each pose No. is set for each model image having the next highest similarity. Are sequentially set as the second, third,... Composite images (step D2 → D4).
[0124]
Thereafter, when a selected type of character image A is set as a composite image corresponding to all of the model images of poses having similarities to the subject image Hn set as the imitation target image in sequence, the subject image Hn Each pose No. set in the descending order of similarity with the pose No. Each character image is registered in the order of similarity as an animation image corresponding to the imitation target image (step D2 → D3).
[0125]
As described above, in the corresponding animation image acquisition process in the
[0126]
In this case, an additional or replacement character image is determined by directly evaluating the similarity of the selected type of character to the character image of each pose with respect to the subject image Hn as the imitation target image set in the range T. In comparison with the case, the similarity with the model image for each pose is evaluated, and the selected model pose No. In the present corresponding animation image acquisition process in which the character image to be added or replaced is determined from the above, since a person model is used as the evaluation target of the similarity, a high similarity with the subject image Hn is easily obtained, and the similarity is more improved. There is an advantage that a character image with high character (similarity) can be acquired.
[0127]
FIG. 18 is a flowchart showing the similarity evaluation process with the imitation target image in the corresponding animation image acquisition process accompanying the server process of the
[0128]
FIG. 19 is a diagram illustrating an example of similarity evaluation with a model image accompanying similarity evaluation processing in the corresponding animation image acquisition processing of the
[0129]
For example, as shown in FIG. Is read out (step E1), and the vertical and horizontal sizes of the model image H1 shown in FIG. 8 (X) are matched (step E2).
[0130]
Then, the superimposition evaluation of the imitation target image H1 and the model image whose vertical and horizontal sizes are matched is performed, and the evaluation value (%) is calculated and stored as the degree of similarity with the model image of the pose (step E3). ).
[0131]
Here, the pose number of the similarity evaluation target this time. It is determined whether or not the model image is an asymmetric image (step E4). For example, as shown in FIG. 19A, when it is determined that the model image 12b1A of the pose is not an asymmetric image, (Step E4 “No”), the next pose No. Is read out (steps E8 → E9), and the similarity evaluation processing between the imitation target image H1 and the model image of the next pose is repeated (steps E2 to E4).
[0132]
On the other hand, for example, as shown in FIG. 19 is determined to be a left-right asymmetric model image, the pose No. 19 is determined. The 19 model images are horizontally inverted (steps E4 → E5), and the vertical and horizontal sizes of the inverted model image 12b19R and the imitation target image H1 are matched as shown in FIG. 19C (step E6). ).
[0133]
Then, the superimposition evaluation of the imitation target image H1 and the inverted model image 12b19R whose vertical and horizontal sizes are matched is performed, and the evaluation value (%) is calculated and stored as the similarity with the inverted model image 12b19R of the pose. (Step E7).
[0134]
After this, the next pose No. If there is a model image of the next pose No. (step E8). Are sequentially read out (step E9), and the similarity evaluation process between the imitation target image and the model image for each pose is repeated in the same manner as described above (steps E2 to E7).
[0135]
Thus, for example, as shown in FIG. 19, when the similarity evaluation of the subject image (target image) H1 with the model image is performed, the pose No. The model image 12b19 corresponding to 19 is evaluated as the model image having the pose with the highest similarity.
[0136]
In this way, the subject image Hn as the imitation target image extracted and set from the captured image pn and its range T is imitated by the corresponding animation image acquisition process (step BD) described with reference to FIGS. When the character image of the pose selection type is determined, a standby state is entered for a request to create a composite image from the
[0137]
In the
[0138]
Then, the combination mode numbers of the images selected and received from the
[0139]
Here, when it is determined that the combining mode of the image specified by the
[0140]
In this case, a photographed background image 12h3 'is generated by cutting out three photographed images H2 and H3 including the photographed image (target image) H1 set in the range T from the photographed image 12h3. The character image 12d1 of the first similarity of “rabbit” similar to the subject image (target image) H1 and the remaining two subject images H2 and H3 cut out from the photographed image 12h3 are, for example, the photographing background. The image 12h3 'is synthesized corresponding to each subject position in ascending order of the shooting distance detected at the time of shooting.
[0141]
Note that, without generating a background image 12h3 ′ obtained by cutting out the subject images H1, H2, and H3, a “rabbit” character image 12d1 similar to the subject image (target image) H1 is generated for the captured image 12h3. Alternatively, the remaining two subject images H2 and H3 may be superimposed and synthesized on each subject position in the descending order of the shooting distance detected at the time of shooting.
[0142]
In the
[0143]
In the display state of the first replacement composite image screen Gq1 on the
[0144]
Then, the
[0145]
Then, the replacement synthesis process in step B12a is repeatedly performed in accordance with the determination of the replacement synthesis mode (1) again in step B11, so that, for example, the imitation target image set in the captured image 12h3 in FIG. The character image 12dn of the second similarity of "rabbit" imitating the pose of the subject H1 is replaced with the subject (target image) H1 and combined (step B12a), and the combined image is newly transmitted to the
[0146]
That is, in the
[0147]
On the other hand, when the
[0148]
Then, when the second captured image 12h2 'is obtained (step B12b2), the correspondence between the stored position of the subject (target image) H1 at the time of the first captured image in the second captured image 12h2' is obtained. The character image 12e11N (in this case, a night special character) of the first similarity “bear” imitating the subject H1 acquired by the animation image acquisition process (see FIG. 17) is the second captured image 12h2. ′, The image is combined with the subject H2 photographed in step ′ (step B12b3), and the synthesized image is transmitted to the
[0149]
Then, on the
[0150]
As a result, the
[0151]
In this case as well, each time the imitation character-based photo composition mode (2) is repeatedly selected on the
[0152]
When the
[0153]
Then, the background-added composite image transmitted from the
[0154]
As a result, in the
[0155]
In this case as well, each time the mimicry character background addition / combination mode (3) is repeatedly selected on the
[0156]
When the
[0157]
Then, on the
[0158]
As a result, the
[0159]
In this case as well, each time the imitation character left / right reversal synthesis mode (4) is repeatedly selected on the
[0160]
As described above, based on the image captured by the camera-equipped
[0161]
When the
[0162]
Then, in the
[0163]
When the user wants to send the composite image distributed to the
[0164]
When the
[0165]
Then, in the
[0166]
On the other hand, if the destination address is not input / transmitted to the designated partner terminal in the
[0167]
Then, the
[0168]
Then, in the
[0169]
Note that the charging process for the user may be charging for each number of times of use, such as once, or charging for a fixed period such as every month.
[0170]
Therefore, according to the image distribution processing function of the image distribution system having the above-described configuration, an image captured by the
[0171]
By using the
[0172]
In the above embodiment, a character image of a pose corresponding to a subject extracted corresponding to the imitation target image range T is selectively obtained from a captured image, and an image is synthesized by addition or replacement. However, face images and person images of various facial expressions by actual shooting are stored in advance, and the face images and person images by actual shooting are acquired as imitative images corresponding to subjects extracted from the captured image, and added or replaced. It may be configured to combine images.
[0173]
Further, in the above-described embodiment, the case where the captured image is a still image has been described. However, when the captured image is a moving image, the setting range from the captured and input moving image to the background image in the moving image is set. T sequentially extracts subject images that change in a time series corresponding to T, selectively obtains and distributes a character image of a pose for a moving image corresponding to each of the sequentially extracted subject images, or distributes the image in the captured moving image. The video may be added to or replaced with the subject and synthesized.
[0174]
Further, the image processing function of the
[0175]
In addition, a character image in the
[0176]
The method of each processing by the image distribution system described in the above embodiment, that is, a new creation processing in the image processing by the
[0177]
Further, data of a program for realizing each of the above methods can be transmitted on a communication network (Internet) N in the form of a program code, and a computer terminal connected to the communication network (Internet) N transmits the program data. By taking in program data, it is also possible to realize the image distribution processing function described above.
[0178]
It should be noted that the present invention is not limited to the above-described embodiments, and can be variously modified in an implementation stage without departing from the scope of the invention. Furthermore, the embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some components are deleted from all the components shown in each embodiment or some components are combined, the problem described in the section of the problem to be solved by the invention can be solved. In the case where the effects described in the section of the effects of the invention can be obtained, a configuration in which this component is deleted or combined can be extracted as the invention.
[0179]
【The invention's effect】
As described above, according to the image distribution apparatus according to the first aspect of the present invention, when a captured image and a target range for the captured image are received from the terminal by the captured image receiving unit, the target of the received captured image is A corresponding image corresponding to the image in the range is acquired by the corresponding image acquiring unit, and the acquired corresponding image is combined with the photographed image by the image combining unit, and the combined image is transmitted by the combined image transmitting unit. , A corresponding image such as an imitation image corresponding to the image corresponding to the target range set on the captured image can be obtained, and an image synthesized with the captured image can be obtained.
[0180]
Further, according to the image distribution device of the present invention, in the image distribution device of the first aspect, the target range of the photographed image received by the photographed image receiving means is the same as that of the photographed image in the terminal. , The range of the image is set arbitrarily, so that the target range on the captured image, which is the reference of the corresponding image to be synthesized, can be set according to an arbitrary subject or the like.
[0181]
Further, according to the image distribution device of the third aspect of the present invention, in the image distribution device of the second aspect, the target range of the captured image is an ellipse, and the size and shape thereof are arbitrarily changed. Therefore, the target range on the captured image, which is the reference of the corresponding image to be synthesized, can be set as an ellipse of any size and shape so that it can be easily set to any human image.
[0182]
According to a fourth aspect of the present invention, there is provided the image distribution apparatus according to any one of the first to third aspects, wherein the photographed image receiving unit is provided by the contour block extracting unit. The block corresponding to the contour is extracted from the photographed image received by (1), and among the extracted blocks, the image of the block corresponding to the target range is extracted by the target image extracting means. Then, in the corresponding image obtaining means, a corresponding image corresponding to the image extracted by the target image extracting means is obtained as a corresponding image to be synthesized. A corresponding image corresponding to the image can be acquired and synthesized.
[0183]
According to a fifth aspect of the present invention, in the image distribution apparatus according to any one of the first to fourth aspects, the corresponding image acquisition unit stores a plurality of corresponding images. Corresponding image storage means, and similarity evaluation means for evaluating the similarity between an image corresponding to the target range of the captured image received by the captured image reception means and each corresponding image stored by the corresponding image storage means. Since the corresponding image to be synthesized according to the image of the target range is obtained according to the similarity between the image corresponding to the target range evaluated by the similarity evaluation unit and each corresponding image, the captured image An image having a high degree of similarity (very similar) to a subject image such as a person corresponding to the target range can be obtained as a corresponding image to be synthesized.
[0184]
Further, according to the image distribution device according to
[0185]
Further, according to the image distribution device according to
[0186]
Further, according to the image distribution apparatus according to
[0187]
Further, according to the image distribution device of the ninth aspect of the present invention, in the image distribution device of the eighth aspect, the amount charged by the charging means is determined by the type of the corresponding image acquired by the corresponding image acquiring means. Since the price is set according to the type of the image to be combined (for example, the degree of demand) acquired according to the image corresponding to the target range of the captured image, different amounts can be charged.
[0188]
According to a tenth aspect of the present invention, there is provided the image distributing apparatus according to the eighth aspect, wherein the amount charged by the charging means includes the type of the corresponding image acquired by the corresponding image acquiring means. Since the copyright fee is included for each of a certain number of uses or for a certain period of use according to the type of image to be synthesized obtained according to the image corresponding to the target range of the photographed image, a popular character requiring a copyright fee is included. Images can be prepared, and a service can be provided as a plurality of billing modes.
[0189]
Further, according to the image distribution device of the present invention, in the image distribution device of any one of the above-mentioned claims, the image synthesizing means may include a synthesizing method receiving means. The corresponding image obtained by the corresponding image obtaining means is synthesized with the captured image according to the method of synthesizing the image received from the device, and the corresponding image obtained according to the image corresponding to the target range of the captured image is selected by the terminal. According to the combining method performed, the image can be combined with the photographed image.
[0190]
Further, according to the image distribution device of the present invention, in the image distribution device according to the eleventh aspect, the image synthesizing unit is configured to receive the image replacement synthesizing method by the synthesizing method receiving unit. The image corresponding to the target range of the captured image received by the captured image receiving unit is replaced with the corresponding image acquired by the corresponding image acquiring unit and combined with the captured image. An image corresponding to the target range of the image can be replaced with a corresponding image corresponding to the image and combined with the captured image.
[0191]
Further, according to the image distribution device of the present invention, in the image distribution device according to the eleventh aspect, the image synthesizing unit receives the background additional synthesizing method of the image by the synthesizing method receiving unit. In this case, the corresponding image obtained by the corresponding image obtaining unit is added to the background of the captured image and synthesized, so that the corresponding image corresponding to the image corresponding to the target range of the captured image is selected by the terminal by selecting the synthesis method. It can be added to the background of the captured image and synthesized.
[0192]
According to the image distribution device of the present invention, in the image distribution device of the eleventh aspect, the image synthesizing unit receives the left-right reversal synthesizing method of the image by the synthesizing method receiving unit. In this case, the corresponding image acquired by the corresponding image acquiring unit is added to the image corresponding to the target range on the captured image at the position where the image is flipped horizontally, and then combined. A corresponding image corresponding to the image corresponding to the target range can be added and combined with the image corresponding to the target range on the captured image at the left-right inverted position.
[0193]
Further, according to the image distribution device according to claim 15 of the present invention, in the image distribution device according to
[0194]
Therefore, it is possible to combine and deliver an image corresponding to an object (for example, a person) image in the captured image, instead of simply synthesizing and delivering a fixed image to an image captured by the terminal. A distribution device (an image distribution method and an image distribution program) can be provided.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an electronic circuit of an image distribution server in an image distribution system according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of an electronic circuit of a
FIG. 3 shows a
FIG. 4 is a view showing a model image corresponding to a model pose stored in a model
FIG. 5 is a diagram illustrating a left-right reversal position additional combination state by a character image “rabbit” when the left-right reversal combination mode (4) is designated by the
FIG. 6 shows a state of replacement and synthesis by a character image “bear” when the
FIG. 7 is a diagram showing a replacement / combination state using a character image “rabbit” when an object selection / replacement mode (1) is designated by the
FIG. 8 is a front view showing an external configuration of a camera-equipped
FIG. 9 is a diagram showing an operation display state (No. 1) associated with a new creation process in the image processing “mimic character studio” by the camera-equipped
FIG. 10 is a diagram showing an operation display state (No. 2) associated with a new creation process in the image processing “mimic character workshop” by the camera-equipped
FIG. 11 is a diagram showing an operation display state (part 3) associated with a new creation process in the image processing “mimic character workshop” by the camera-equipped
FIG. 12 is a flowchart showing a new creation process (No. 1) in the image processing “mimic character workshop” by the mobile phone with
FIG. 13 is a flowchart showing a new creation process (No. 2) in the image processing “mimic character workshop” by the mobile phone with
FIG. 14 is a flowchart showing a server process (1) corresponding to a new creation of an image process “mimic character workshop” by the
FIG. 15 is a flowchart showing a server process (part 2) corresponding to a new creation of an image process “imitation character studio” by the
FIG. 16 is a flowchart showing a target image extraction process associated with server processing in the
FIG. 17 is a flowchart showing a corresponding animation image acquisition process associated with server processing of the
FIG. 18 is a flowchart showing a similarity evaluation process with the imitation target image in the corresponding animation image acquisition process accompanying the server process of the
FIG. 19 is a diagram showing an example of similarity evaluation with a model image accompanying similarity evaluation processing in the corresponding animation image acquisition processing of the
[Explanation of symbols]
10 ... image distribution server
11 ... Server CPU
12… server memory
12a: Image distribution processing program
12b: Model pose image memory
12c: Modified model pose image memory
12d ...
12e ...
12f ...
12g: Client terminal information memory
12h: Photographed image memory
12i: Image processing work area
13… server external recording medium
14: Server recording medium reading unit
15: Server transmission control unit
16… server short-range wireless communication unit
17… server input section
18… server display
20… Terminal device
20A: Mobile phone terminal
20B… Mobile terminal (PDA)
20C Terminal (PC)
20D ... Digital camera terminal
21… Terminal CPU
22 ... terminal memory
22a: Communication / image processing program
22b: Image processing work area
23 ... terminal external recording medium
24 ... terminal recording medium reading unit
25 ... terminal transmission control unit
26 ... terminal input section
26A… Selection key
27a ... Image input unit
27b ... Image output unit
28… Terminal short-range wireless communication unit
29 ... GPS
30 Terminal display unit
31 ... Image printing machine
32… Digital camera (part)
N: Communication network (Internet)
G… “Mimi Character Studio” initial menu screen
G1: Photo selection guide screen
G2: Range selection guide screen
G3: Character selection screen
G4: Mode selection screen
G5: Composite image registration screen
G6: Transmission information setting screen
Claims (17)
この撮影画像受信手段により受信された撮影画像の対象範囲の画像に応じた対応画像を取得する対応画像取得手段と、
この対応画像取得手段により取得された対応画像を前記撮影画像に合成する画像合成手段と、
この画像合成手段により合成された画像を送信する合成画像送信手段と、
を備えたことを特徴とする画像配信装置。A captured image receiving means for receiving a captured image and a target range for the captured image from the terminal,
A corresponding image acquiring unit that acquires a corresponding image corresponding to an image in a target range of the captured image received by the captured image receiving unit;
Image synthesizing means for synthesizing the corresponding image obtained by the corresponding image obtaining means with the captured image,
Combined image transmitting means for transmitting the image combined by the image combining means;
An image distribution device comprising:
前記撮影画像受信手段により受信された撮影画像から輪郭に対応したブロックを抽出する輪郭ブロック抽出手段と、
この輪郭ブロック抽出手段により抽出されたブロックのうち、前記対象範囲に対応したブロックの画像を抽出する対象画像抽出手段とを備え、
前記対応画像取得手段は、前記対象画像抽出手段により抽出された画像に応じた対応画像を取得することを特徴とする請求項1乃至請求項3の何れか1項に記載の画像配信装置。further,
Contour block extracting means for extracting a block corresponding to a contour from the photographed image received by the photographed image receiving means,
A target image extracting unit that extracts an image of a block corresponding to the target range among the blocks extracted by the contour block extracting unit;
4. The image distribution device according to claim 1, wherein the corresponding image acquiring unit acquires a corresponding image corresponding to the image extracted by the target image extracting unit. 5.
複数の対応画像を記憶する対応画像記憶手段と、
前記撮影画像受信手段により受信された撮影画像の対象範囲に対応する画像と前記対応画像記憶手段により記憶された各対応画像との類似度を評価する類似度評価手段とを有し、
この類似度評価手段により評価された対象範囲に対応する画像と各対応画像との類似度に応じて当該対象範囲の画像に応じた対応画像を取得することを特徴とする請求項1乃至請求項4の何れか1項に記載の画像配信装置。The corresponding image obtaining means,
Corresponding image storage means for storing a plurality of corresponding images,
A similarity evaluation unit that evaluates a similarity between an image corresponding to the target range of the captured image received by the captured image reception unit and each corresponding image stored by the corresponding image storage unit,
4. The image processing apparatus according to claim 1, wherein a corresponding image corresponding to the image of the target range is acquired according to the similarity between the image corresponding to the target range evaluated by the similarity evaluation unit and each corresponding image. 5. The image distribution device according to claim 4.
複数のモデル画像と複数の対応画像とを対応付けて記憶する対応画像記憶手段と、
前記撮影画像受信手段により受信された撮影画像の対象範囲に対応する画像と前記対応画像記憶手段により記憶された各モデル画像との類似度を評価する類似度評価手段とを有し、
この類似度評価手段により評価された対象範囲に対応する画像と各モデル画像との類似度に応じて当該対象範囲の画像に応じたモデル画像に対応付けられて前記対応画像記憶手段により記憶された対応画像を取得することを特徴とする請求項1乃至請求項4の何れか1項に記載の画像配信装置。The corresponding image obtaining means,
Corresponding image storage means for storing a plurality of model images and a plurality of corresponding images in association with each other,
A similarity evaluation unit that evaluates a similarity between an image corresponding to the target range of the captured image received by the captured image reception unit and each model image stored by the corresponding image storage unit,
According to the similarity between the image corresponding to the target range evaluated by the similarity evaluation unit and each model image, the image is stored by the corresponding image storage unit in association with the model image corresponding to the image in the target range. The image distribution device according to claim 1, wherein a corresponding image is acquired.
前記端末から対応画像の種類を受信する種類受信手段を備え、
前記対応画像取得手段により取得される対応画像は、前記種類受信手段により受信された種類の対応画像であることを特徴とする請求項1乃至請求項6の何れか1項に記載の画像配信装置。In the corresponding image, there are a plurality of corresponding images for different types,
Comprising a type receiving means for receiving the type of the corresponding image from the terminal,
The image distribution apparatus according to claim 1, wherein the corresponding image acquired by the corresponding image acquisition unit is a type of corresponding image received by the type receiving unit. .
前記合成画像送信手段による画像の送信に応じて前記端末に課金する課金手段を備えたことを特徴とする請求項1乃至請求項7の何れか1項に記載の画像配信装置。further,
The image distribution apparatus according to claim 1, further comprising a charging unit configured to charge the terminal according to transmission of an image by the composite image transmission unit.
前記端末から画像の合成方法を受信する合成方法受信手段を備え、
前記画像合成手段は、前記合成方法受信手段により受信された画像の合成方法に従い前記対応画像取得手段により取得された対応画像を前記撮影画像に合成することを特徴とする請求項1乃至請求項10の何れか1項に記載の画像配信装置。further,
A synthesizing method receiving means for receiving an image synthesizing method from the terminal,
11. The image combining unit according to claim 1, wherein the corresponding image acquired by the corresponding image acquiring unit is combined with the photographed image according to a method of combining the images received by the combining method receiving unit. The image distribution device according to any one of claims 1 to 4.
前記画像合成手段は、前記合成方法受信手段により画像の置き換え合成方法が受信された場合、前記撮影画像受信手段により受信された撮影画像の対象範囲に対応する画像を前記対応画像取得手段により取得された対応画像に置き換えて当該撮影画像に合成することを特徴とする請求項11に記載の画像配信装置。The image synthesis method includes at least a replacement synthesis method,
The image synthesizing unit is configured such that, when an image replacement synthesizing method is received by the synthesizing method receiving unit, an image corresponding to a target range of the captured image received by the captured image receiving unit is obtained by the corresponding image obtaining unit. The image distribution device according to claim 11, wherein the image distribution device replaces the captured image with the captured image and synthesizes the captured image.
前記画像合成手段は、前記合成方法受信手段により画像の背景追加合成方法が受信された場合、前記対応画像取得手段により取得された対応画像を前記撮影画像の背景に追加して合成することを特徴とする請求項11に記載の画像配信装置。The image synthesis method includes at least a background addition synthesis method,
The image synthesizing unit adds the corresponding image acquired by the corresponding image acquiring unit to the background of the photographed image and synthesizes the image when the background adding and synthesizing method of the image is received by the synthesizing method receiving unit. The image distribution device according to claim 11, wherein:
前記画像合成手段は、前記合成方法受信手段により画像の左右反転合成方法が受信された場合、前記対応画像取得手段により取得された対応画像を前記撮影画像上の対象範囲に対応する画像と左右反転の位置に追加して合成することを特徴とする請求項11に記載の画像配信装置。The image synthesizing method includes at least a left-right inversion synthesizing method,
The image synthesizing unit is configured to, when the image synthesizing method receiving unit receives a left-right inversion synthesizing method, convert the corresponding image acquired by the corresponding image acquiring unit into an image corresponding to a target range on the captured image and horizontally invert the image. The image distribution apparatus according to claim 11, wherein the image distribution apparatus adds the image to the position and synthesizes the image.
前記対応画像取得手段は、前記撮影画像受信手段により受信された第1の撮影画像の対象範囲の画像に応じた対応画像を取得し、
前記画像合成手段は、前記合成方法受信手段により画像の別撮影合成方法が受信された場合、前記撮影画像受信手段により受信された第2の撮影画像に対して、前記対応画像取得手段により取得された対応画像を合成することを特徴とする請求項11に記載の画像配信装置。The image synthesizing method includes at least another photographing synthesizing method,
The corresponding image obtaining unit obtains a corresponding image corresponding to an image in a target range of the first captured image received by the captured image receiving unit,
The image synthesizing unit, when another synthesizing method of an image is received by the synthesizing method receiving unit, acquiring the second captured image received by the captured image receiving unit by the corresponding image acquiring unit. The image distribution device according to claim 11, wherein the corresponding image is synthesized.
この撮影画像受信ステップにて受信された撮影画像の対象範囲の画像に応じた対応画像を取得する対応画像取得ステップと、
この対応画像取得ステップにて取得された対応画像を前記撮影画像に合成する画像合成ステップと、
この画像合成ステップにて合成された画像を送信する合成画像送信ステップと、
からなることを特徴とする画像配信方法。A captured image receiving step of receiving a captured image and a target range for the captured image from the terminal,
A corresponding image obtaining step of obtaining a corresponding image corresponding to an image in the target range of the captured image received in the captured image receiving step,
An image combining step of combining the corresponding image obtained in the corresponding image obtaining step with the captured image;
A synthesized image transmitting step of transmitting the image synthesized in the image synthesizing step;
An image distribution method comprising:
前記コンピュータを、
端末から撮影画像と当該撮影画像に対する対象範囲を受信する撮影画像受信手段、
この撮影画像受信手段により受信された撮影画像の対象範囲の画像に応じた対応画像を取得する対応画像取得手段、
この対応画像取得手段により取得された対応画像を前記撮影画像に合成する画像合成手段、
この画像合成手段により合成された画像を送信する合成画像送信手段、
として機能させるようにしたコンピュータ読み込み可能な画像配信プログラム。An image distribution program for controlling a computer connected to a network to distribute an image,
Said computer,
Captured image receiving means for receiving a captured image and a target range for the captured image from the terminal,
A corresponding image acquiring unit that acquires a corresponding image corresponding to an image in a target range of the captured image received by the captured image receiving unit;
Image synthesizing means for synthesizing the corresponding image acquired by the corresponding image acquiring means with the photographed image,
Synthesized image transmitting means for transmitting an image synthesized by the image synthesizing means,
A computer-readable image distribution program that functions as a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003085594A JP4168800B2 (en) | 2003-03-26 | 2003-03-26 | Image distribution device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003085594A JP4168800B2 (en) | 2003-03-26 | 2003-03-26 | Image distribution device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004297350A true JP2004297350A (en) | 2004-10-21 |
JP4168800B2 JP4168800B2 (en) | 2008-10-22 |
Family
ID=33400479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003085594A Expired - Fee Related JP4168800B2 (en) | 2003-03-26 | 2003-03-26 | Image distribution device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4168800B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1981254A2 (en) | 2007-04-10 | 2008-10-15 | NTT DoCoMo, Inc. | Communication control device and communication terminal |
EP1983750A2 (en) | 2007-04-16 | 2008-10-22 | NTT DoCoMo, Inc. | Control device, mobile communication system, and communication terminal |
EP1983734A2 (en) | 2007-04-16 | 2008-10-22 | NTT DoCoMo, Inc. | Control device, mobile communication system, and communication terminal |
EP1983751A2 (en) | 2007-04-16 | 2008-10-22 | NTT DoCoMo, Inc. | Control apparatus, mobile communications system, and communications terminal |
EP1983749A2 (en) | 2007-04-16 | 2008-10-22 | NTT DoCoMo, Inc. | Control device, mobile communication system, and communication terminal |
JP2013251745A (en) * | 2012-05-31 | 2013-12-12 | Furyu Kk | Image providing system and method and image generating apparatus |
JP2020046958A (en) * | 2018-09-19 | 2020-03-26 | 大日本印刷株式会社 | Content creation device |
JP2021034065A (en) * | 2019-08-20 | 2021-03-01 | 株式会社Cygames | Electronic device, method, program and system for inferring identifier information using image recognition model |
-
2003
- 2003-03-26 JP JP2003085594A patent/JP4168800B2/en not_active Expired - Fee Related
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1981254A2 (en) | 2007-04-10 | 2008-10-15 | NTT DoCoMo, Inc. | Communication control device and communication terminal |
EP1983750A2 (en) | 2007-04-16 | 2008-10-22 | NTT DoCoMo, Inc. | Control device, mobile communication system, and communication terminal |
EP1983734A2 (en) | 2007-04-16 | 2008-10-22 | NTT DoCoMo, Inc. | Control device, mobile communication system, and communication terminal |
EP1983751A2 (en) | 2007-04-16 | 2008-10-22 | NTT DoCoMo, Inc. | Control apparatus, mobile communications system, and communications terminal |
EP1983749A2 (en) | 2007-04-16 | 2008-10-22 | NTT DoCoMo, Inc. | Control device, mobile communication system, and communication terminal |
JP2013251745A (en) * | 2012-05-31 | 2013-12-12 | Furyu Kk | Image providing system and method and image generating apparatus |
JP2020046958A (en) * | 2018-09-19 | 2020-03-26 | 大日本印刷株式会社 | Content creation device |
JP7196487B2 (en) | 2018-09-19 | 2022-12-27 | 大日本印刷株式会社 | Content creation device |
JP2021034065A (en) * | 2019-08-20 | 2021-03-01 | 株式会社Cygames | Electronic device, method, program and system for inferring identifier information using image recognition model |
JP7335221B2 (en) | 2019-08-20 | 2023-08-29 | 株式会社Cygames | Electronic device, method, program and system for identifier information inference using image recognition model |
Also Published As
Publication number | Publication date |
---|---|
JP4168800B2 (en) | 2008-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3918632B2 (en) | Image distribution server, image distribution program, and image distribution method | |
JP4924721B2 (en) | Mobile terminal and material bank management system | |
JP4453681B2 (en) | Photographic image processing apparatus, photographic image processing apparatus control method, photographic image processing control program, computer-readable recording medium, and composite image communication system | |
JP4423929B2 (en) | Image output device, image output method, image output processing program, image distribution server, and image distribution processing program | |
JP4517790B2 (en) | PHOTO PRINT CHANGE SYSTEM, PHOTOGRAPHIC PRINT DEVICE, PORTABLE INFORMATION TERMINAL, AND CONTROL METHOD IN PHOTO PRINT CHANGE SYSTEM | |
JP4168800B2 (en) | Image distribution device | |
JP2003125361A (en) | Information processing device, information processing method, information processing program, and information processing system | |
CN103198442A (en) | Image creation method and image creation apparatus | |
JP2011019072A (en) | Image processing apparatus, photographing and editing device, image processing method, image processing program, and recording medium with the program recorded thereon | |
JP4742996B2 (en) | Image editing apparatus, image editing method, image editing program, recording medium recording the same, and photo printing apparatus | |
JP2010166435A (en) | Photographed image edit device, mobile terminal, server, image transmission system, photographed image edit device control method, photographed image edit device control program, mobile terminal control program, server control program, and recording medium | |
JP4793107B2 (en) | PHOTOGRAPHIC PRINTING DEVICE, PHOTOGRAPHIC PRINTING DEVICE CONTROL METHOD, IMAGE EDITING PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME | |
JP2023153790A (en) | program | |
JP4050216B2 (en) | Karaoke device that handles personal information of users | |
JP2004302939A (en) | Image output device, image output method, image output processing program, image distribution server, and image distribution processing program | |
JP4534718B2 (en) | PHOTO PRINT CHANGE SYSTEM, PHOTOGRAPHIC PRINT DEVICE, MOBILE INFORMATION TERMINAL, IDENTIFICATION INFORMATION APPARATUS, AND CONTROL METHOD IN PHOTO PRINT CHANGE SYSTEM | |
JP4386050B2 (en) | Fortune-telling processing system, fortune-telling processing method, photo fortune-telling system, fortune-telling processing program, and recording medium | |
KR20040027636A (en) | System for Editing Picture File and Method Thereof | |
JP2005107988A (en) | Image output device, image output method, image output processing program, image delivery server and image delivery processing program | |
JP5168388B2 (en) | PHOTOGRAPHIC PRINTING DEVICE, PHOTOGRAPHIC PRINTING DEVICE CONTROL METHOD, IMAGE EDITING PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME | |
JP6849851B2 (en) | Shooting system, shooting device and user shooting method | |
JP2006293469A (en) | Composite image print system, service base point device to be used for the same system and composite image print service providing method | |
WO2004054812A1 (en) | Print system and print method | |
JP4946674B2 (en) | Image server apparatus, image server apparatus control method, image server apparatus control program, computer-readable recording medium recording the program, image transmission system, image transmission system control method, image transmission system control program, and program A recorded computer-readable recording medium. | |
JP2004180141A (en) | Moving image photographing management system using digital photographing and transmitting unit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080422 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080618 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080715 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080728 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110815 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4168800 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120815 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120815 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130815 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |