JP2005025305A - User characteristic data creation server and creation program - Google Patents

User characteristic data creation server and creation program Download PDF

Info

Publication number
JP2005025305A
JP2005025305A JP2003187411A JP2003187411A JP2005025305A JP 2005025305 A JP2005025305 A JP 2005025305A JP 2003187411 A JP2003187411 A JP 2003187411A JP 2003187411 A JP2003187411 A JP 2003187411A JP 2005025305 A JP2005025305 A JP 2005025305A
Authority
JP
Japan
Prior art keywords
image data
user
specific
data
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003187411A
Other languages
Japanese (ja)
Other versions
JP4261266B2 (en
Inventor
Hideaki Kiko
英朗 木香
Akira Takeshima
章 竹嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CORE COLORS KK
Original Assignee
CORE COLORS KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CORE COLORS KK filed Critical CORE COLORS KK
Priority to JP2003187411A priority Critical patent/JP4261266B2/en
Publication of JP2005025305A publication Critical patent/JP2005025305A/en
Application granted granted Critical
Publication of JP4261266B2 publication Critical patent/JP4261266B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To create image data characteristic of a user by minimizing the user's procedure and terminal load. <P>SOLUTION: A server 12, which creates data characteristic of the user for each scene according to a certain scenario, includes an original picture book data table 18 storing the original image data of each scene in a picture book and mask image data defining a predetermined area of a character in the original image data; a user picture book data table 20 storing the picture book data characteristic of the user, based on the original picture book data, for each scene; and a user characteristic data creation means which transmits the original image data and the mask image data of each scene to a terminal at a request from the terminal and which receives the image data created accordingly at the terminal to create the picture book data characteristic of the user according to the received images and to store the picture book data in the user picture book data table. Subsequent to the creation of the image data characteristic of the user for a certain scene, the image data characteristic of the user for the next scene are created at a request from the user's terminal. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、ユーザ固有の情報を作成するシステムおよびその方法に関する。
【0002】
【従来の技術】
インターネットの普及により、画像を利用した仮想的なシーンを作成するサービスが実現されている。たとえば、衣服のコーディネートや髪型を決定するために、衣服の画像とユーザの顔写真の画像とを合成し、或いは、髪型のみが取り出された画像とユーザの顔写真の画像とを合成し、仮想的に、ユーザが洋服をまとい、或いは、その髪型になった場合の状態を作るようなサービスが提案されている。たとえば、特許文献1には、情報端末に、ユーザの顔の画像データ、身体的データ等を保持し、保持された情報とインターネットを介して供給された商品情報とを、編集&評価アプリケーションソフトウェアにより合成した合成画像を得ることができるシステムが開示されている。
【0003】
【特許文献1】特開2002−150058号公報
【0004】
【発明が解決しようとする課題】
上記特許文献1に開示された情報においては、ユーザ側の情報端末に、ユーザの顔の画像データ、身体的データなどを予め登録し、かつ、当該情報端末に、画像を編集しかつ合成することができるアプリケーションをインストールしておく必要があり、ユーザ側の手順が煩雑であるとともに、端末の負荷も大きい。
【0005】
たとえば、ユーザの顔の画像データを、サーバに登録し、サーバにおいて、画像の編集や合成をすることにより、端末の負荷を小さくすることは可能であるが、ユーザが顔写真を登録する手間を省略することはできない。また、シーンに応じて異なる顔の向き、異なる表情、異なる大きさの画像を利用したい場合には、そのたびに、顔写真を登録する必要がある。
【0006】
たとえば、一定のシナリオにしたがったシーンごとに、ユーザの顔写真を含む画像を作成する場合には、予め画像を登録しておくことは現実的に不可能である。
本発明は、ユーザの手順や端末の負荷を最小限にして、ユーザ固有の画像データを作成することが可能なシステムおよび方法を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明の目的は、一定のシナリオにしたがったシーンごとにユーザ固有のデータを作成するサーバであって、シナリオ中のシーンごとのオリジナル画像データ、および、オリジナル画像データ中、当該シナリオ中の登場人物の所定の領域を画定したマスク画像データを記憶したオリジナル画像データテーブルと、前記シーンごとのオリジナル画像データに基づくユーザ固有の画像データを少なくとも記憶するユーザ画像データテーブルと、ユーザの端末からの要求に応じて、各シーンのオリジナル画像データおよびマスク画像データを、当該端末に伝達するとともに、前記オリジナル画像データおよびマスクデータに基づいて、端末で作成された画像データを受理し、受理した画像に基づいて、ユーザ固有の画像データを生成し、ユーザ画像データテーブルに記憶するユーザ固有データ生成手段とを備え、あるシーンのユーザ固有の画像データの生成に引き続いて、ユーザ端末からの要求に応じて、次のシーンのユーザ固有の画像データが生成されるように構成されたことを特徴とするユーザ固有データ作成サーバにより達成される。
【0008】
本発明によれば、事前に画像を登録することなく、シーンごとに、所望の領域にユーザ固有の画像、たとえば、ユーザ自身や友人の写真を挿入したような画像を取得することができる。たとえば、端末装置がフレーム機能付きの携帯端末であれば、マスク画像データにより確定される領域にユーザの写真が写しこまれるような画像を、ユーザは携帯端末の表示装置の画面を参照しつつ撮影することもできる。したがって、シーンごとに所望の向き、表情、大きさの顔写真を含むようなユーザ固有の画像データを得ることが可能となる。
【0009】
好ましい実施態様においては、さらに、ユーザの端末からの要求に応じて、ユーザ固有の画像データに基づくページ画像データを生成する画像生成手段を備え、ユーザの要求に応じて、シナリオにしたがったシーンごとのユーザ固有の画像データに基づくページ画像データを順次生成するように構成されている。
【0010】
さらに好ましい実施態様においては、前記画像生成手段が、ユーザ画像データテーブルに記憶されたユーザ固有の画像データと、オリジナル画像データテーブル中のマスク画像データとに基づいて、オリジナル画像データから置き換えるべきユーザ固有のデータの部分を抽出し、かつ、オリジナル画像データと、前記抽出された部分のデータとを重ね合わせることにより、ユーザ固有の画像データを生成する。
【0011】
より好ましい実施態様においては、ユーザ固有データ生成手段が、ユーザの端末からの要求に応じて、オリジナル画像データの部分およびマスク画像データの対応する部分を、当該端末に伝達し、端末で作成された、当該部分の画像データを受理し、前記ユーザ画像データテーブルに記憶し、前記画像生成手段が、ユーザ画像データテーブルに記憶されたユーザ固有の部分の画像データと、オリジナル画像データテーブル中の対応するマスク画像データの部分の画像データとに基づき、オリジナル画像データから置き換えるべきユーザ固有のデータの部分を抽出し、かつ、オリジナル画像データと、前記抽出された部分のデータとを重ね合わせることにより、ユーザ固有の画像データを生成する。
【0012】
これにより、たとえば、端末において、画像の一部分のみを拡大して表示させ、その中の所定の部分にユーザ自身や友人の顔写真を撮影して挿入したような画像を作ることができる。
【0013】
また、別の好ましい実施態様においては、さらに、ユーザ固有データ生成手段が、ユーザの端末から送られてきたユーザ固有の画像データ、或いは、部分のデータに対して、送られてきた順にレイヤ番号を付与し、前記画像生成手段が、オリジナル画像データに、前記レイヤ番号にしたがって、抽出された部分データを順次重ね合わせるように構成されている。これにより、画像の一部分のみを拡大して、それに基づいてユーザ固有の画像データの部分が生成されている場合であっても、適切に、ユーザ固有の画像データを再構成することが可能となる。
【0014】
たとえば、一定のシナリオは、絵本に相当し、シーンは、絵本のおけるページに相当する。この場合、オリジナル画像データは、いわゆる「絵」となるが、これに限定されるものではない。一定のストーリーに基づく、複数の写真によって、シナリオおよびシーンが構成されても良い。
【0015】
また、本発明の目的は、ネットワークを介して接続された端末からの要求にしたがって、一定のシナリオにしたがったシーンごとにユーザ固有のデータを作成するために、シナリオ中のシーンごとのオリジナル画像データ、および、オリジナル画像データ中、当該シナリオ中の登場人物の所定の領域を画定したマスク画像データを記憶したオリジナル画像データテーブルと、前記シーンごとのオリジナル画像データに基づくユーザ固有の画像データを少なくとも記憶するユーザ画像データテーブルとを備えたサーバにより読み出し可能なプログラムであって、
【0016】
ユーザの端末からの要求に応じて、各シーンのオリジナル画像データおよびマスク画像データを、当該端末に伝達するステップと、前記オリジナル画像データおよびマスクデータに基づいて、端末で作成された画像データを受理するステップと、受理した画像に基づいて、ユーザ固有の画像データを生成するステップと、生成されたユーザ固有の画像データを、ユーザ画像データテーブルに記憶するステップとを前記サーバに実行させ、あるシーンのユーザ固有の画像データの生成に引き続いて、ユーザ端末からの要求に応じて、次のシーンのユーザ固有の画像データが生成されるように構成されたことを特徴とするプログラムによっても達成される。
【0017】
好ましい実施態様においては、さらに、ユーザの端末からの要求に応じて、ユーザ固有の画像データに基づくページ画像データを生成するステップを、前記サーバに実行させ、ユーザの要求に応じて、シナリオにしたがったシーンごとのユーザ固有の画像データに基づくページ画像データを順次生成するように構成されている。
【0018】
また、好ましい実施態様においては、前記ユーザ固有の画像データを生成するステップにおいて、ユーザ画像データテーブルに記憶されたユーザ固有の画像データと、オリジナル画像データテーブル中のマスク画像データとに基づいて、オリジナル画像データから置き換えるべきユーザ固有のデータの部分を抽出するステップと、オリジナル画像データと、前記抽出された部分のデータとを重ね合わせることにより、ユーザ固有の画像データを生成するステップとを、前記サーバに実行させる。
【0019】
別の好ましい実施態様においては、前記オリジナル画像データおよびマスク画像データを、端末に伝達するステップにおいて、ユーザの端末からの要求に応じて、オリジナル画像データの部分およびマスク画像データの対応する部分を、当該端末に伝達するステップを前記サーバに実行させ、かつ、端末で作成された、当該部分の画像データを受理し、前記ユーザ画像データテーブルに記憶するステップを備え、前記ユーザ固有の画像データを生成するステップにおいて、ユーザ画像データテーブルに記憶されたユーザ固有の部分の画像データと、オリジナル画像データテーブル中の対応するマスク画像データの部分の画像データとに基づき、オリジナル画像データから置き換えるべきユーザ固有のデータの部分を抽出するステップと、オリジナル画像データと、前記抽出された部分のデータとを重ね合わせることにより、ユーザ固有の画像データを生成するステップとを前記サーバに実行させる。
【0020】
別の好ましい実施態様においては、さらに、ユーザの端末から送られてきたユーザ固有の画像データ、或いは、部分のデータに対して、送られてきた順にレイヤ番号を付与するステップと、オリジナル画像データに、前記レイヤ番号にしたがって、抽出された部分データを順次重ね合わせるステップとを、前記サーバに実行させる。
【0021】
【発明の実施の形態】
以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本実施の形態にかかる、システムの概略を示すブロックダイヤグラムである。図1に示すように、この実施の形態においては、ユーザの固有データを作成するサーバ(ユーザ固有データ作成サーバ)12は、インターネット14に接続され、インターネットに接続可能な携帯電話やPDAなど携帯端末16からの、ゲートウェイ(GW)17およびインターネット14を介して要求に応答して必要な処理を実行できるようになっている。この実施の形態において、ユーザ固有データ作成サーバは、一連の関連性を有する画像群として絵本を利用し、ユーザ固有の絵本を作ることができるように構成されている。したがって、本実施の形態においてユーザ固有データ作成サーバは、絵本作成サーバとして機能する。
【0022】
図1に示すように、ユーザ固有データ作成サーバ12は、オリジナルの絵本に関する種々のデータを記憶したオリジナル絵本データテーブル18およびユーザ固有の絵本に関する種々のデータを記憶したユーザ絵本データテーブル20を含むデータベース22と、インターネットを介した携帯端末16との通信を制御する通信インタフェース(I/F)24と、ユーザからの要求に応答して必要が画像を生成する画像生成部26と、ユーザを管理するための処理を実行するユーザ管理部28とを備えている。
【0023】
本実施の形態において、携帯端末16には、カメラ(図示せず)が装着され、ユーザは所望の画像を撮影することができる。さらに、携帯電話16は、いわゆるフレーム機能が備えられており、フレーム画像を表示しながら撮影をすることが可能となっている。
【0024】
図2は、本実施の形態にかかるオリジナル絵本データテーブル18の構成例を示す図である。図2に示すように、オリジナル絵本データテーブル18は、絵本テーブル、登場人物テーブルおよび絵本ページテーブルとを含む。
【0025】
オリジナル絵本データテーブルのレコードは、絵本を一意的に特定するブックID、タイトル、文章の作家、絵の作家および作品に対するコメントから構成される。登場人物テーブルのレコードは、ブックID、絵本に登場するキャラクタを一意的に特定するキャラクタID、および、そのキャラクタの名前から構成される。絵本に複数の登場人物が含まれる場合には、レコードには、登場人物ごとのキャラクタIDおよび名前が設けられる。
【0026】
絵本ページテーブルのレコードは、ブックID、ページ番号、当該ページに含まれる画像の画像データ、当該ページの文章データ、メロディデータ、台詞データ、および、登場人物ごとのマスク画像データを含む。文章データは、たとえば、テキストデータである。また、メロディデータは、波形データであっても良いしMIDIデータであってもよい。無論、他の形態のデータであっても良い。また、台詞データはヴォイスデータの形態をとることができる。
【0027】
本実施の形態においては、ページごとに単一の画像が含まれるため、ページテーブルに単一の画像に対応する画像データが収容される。ページに複数の画像が含まれる場合には、それぞれの画像に対応する画像データが収容されても良い。また、マスク画像データは、後に詳述するように、登場人物の顔或いは顔に対応させることができる部分をマスクするための画像であり、画像に含まれる登場人物の数だけ用意され、それぞれのマスク画像は、対応する登場人物のキャラクタIDと関連付けられる。
【0028】
図3は、ユーザ絵本データテーブルの構成例を示す図である。図3に示すように、ユーザ絵本データテーブルは、ユーザ絵本データテーブル、ユーザ登場人物テーブルおよびユーザ絵本ページテーブルを含む。
【0029】
ユーザ絵本ページテーブルのレコードは、ユーザを一意的に特定するユーザID、このユーザ固有の絵本を一意的に特定するユーザブックID、当該絵本のオリジナルとなる絵本を一意的に特定するオリジナルブックID、タイトル、および、コメントとを含む。本実施の形態において、ユーザ固有の絵本は、ユーザIDおよびユーザブックIDとから特定される。あるユーザは、単一のオリジナルブックIDから特定される絵本から、複数の絵本を作ることもできる。この場合、それぞれに異なるユーザブックIDが付与されることになる。また、オリジナルブックIDと、オリジナル絵本データで用いられるブックIDとは一致する。
【0030】
ユーザ登場人物テーブルのレコードは、ユーザID、ユーザブックID、キャラクタIDおよびキャラクタ名(名前)を含む。また、ユーザ絵本ページテーブルのレコードは、ユーザID,ユーザブックID、ページ番号、レイヤ番号、データ形式、画像データ、テキストデータ、メロディデータおよび台詞データを含む。レイヤ番号については、画像合成の処理に関連して後述する。
【0031】
このように構成されたユーザ固有データ作成サーバ12を利用したユーザ固有データの作成(本実施の形態では、ユーザ固有の絵本の作成)手順について説明する。ユーザ固有データの作成に先立って、ユーザは、携帯端末16を操作して、ユーザ固有データ作成サーバ12にアクセスして、ユーザ登録を済ましておく。これにより、ユーザ管理部28が動作し、ユーザを特定するためのユーザIDや、ユーザ固有データ作成サーバ12にログインするためのパスワードがユーザに対して付与される。なお、以下、ユーザ固有データ作成サーバ12を、単純に、サーバ12と称する。
【0032】
図4は、データ作成の際に実行される処理を示すフローチャートである。ユーザが携帯端末16を操作して、サーバ12にログインし、ユーザ固有の絵本の作成を求めると(ステップ401)、絵本の名称(物語名)のリストが送信される(ステップ402)。図5は、携帯端末16の表示装置の画面上に表示される画像例を示す図であり、図5(a)が、ステップ402で送信され、表示装置の画面上に表示された絵本リストである。
【0033】
さらに、ユーザが所望の絵本の名称(物語名)を選択すると(ステップ403)、サーバ12は、ユーザIDおよび選択された物語名に対応するブックIDに基づいて、ユーザ絵本データテーブル20を参照して、既にユーザにより、同じ絵本についてユーザ固有の絵本が作成されているかを判断する(ステップ404)。この場合には、ユーザが、既に作成されたユーザ固有の絵本を閲覧できるようにするため、絵本のリスト表示のためのリンクを含むような画像を生成して、携帯端末16に返送する(ステップ405)。図5(b)に示すよう、画像501には、新たな絵本の作成を求めるためのリンク(符号502参照)および保存済みの絵本の閲覧を求めるためのリンク(符号503参照)が含まれる。なお、「保存リスト」のリンクが選択された場合については後述する。
【0034】
「新規作成」のリンクが指定されると(ステップ406)、登場人物を選択するための画像が携帯端末16に返される(ステップ407)。図5(c)は、ステップ407により携帯端末16の表示装置の画面上に表示された画像の例を示す。この例では、タイトル入力欄、コメント入力欄、および、ユーザ固有の画像を付したい登場人物の選択欄が設けられる。
【0035】
タイトル入力欄にはデフォルト値として、選択された絵本の名称(物語名)が記述されているが、ユーザは所望の題名に変更することができる。コメント入力欄にも、ユーザは固有のデータを特定するような所望の文字等を入力することができる。また、選択欄には、絵本中の登場人物がリストされる。この例では、「さるかに合戦」に登場する「かに」、「さる」および「うす」が提示されている。ユーザは、携帯端末16のキーを操作して、登場人物中、撮影されたユーザ等の写真を登場させたい者を選択する。上記例では、「かに」、「さる」および「うす」のうち、任意の一以上の登場人物を選択することができる。ユーザ入力にかかる情報(登場人物の選択情報など)は、ユーザがキーを操作して、「作成」ボタン515をオンすることによりサーバ12に伝達される(ステップ408)。
【0036】
サーバ12は、DB22のオリジナル絵本データテーブル18を参照して、選択された絵本のブックIDを特定して、当該ブックIDの絵本ページテーブルから、先頭ページ(第1ページ)の画像データ(オリジナル画像データ)を取得する(ステップ409)。また、サーバ12は、オリジナル絵本データテーブル18を参照して、選択された登場人物のキャラクタIDを参照して、そのページのオリジナル画像データに関連する登場人物ごとのマスク画像データを取得する(ステップ410)。
【0037】
次いで、サーバ12は、オリジナル画像データおよび各登場人物のマスク画像データを合成したフレーム画像データを生成し、これを、携帯端末16に送信する(ステップ411、412)。
【0038】
次に、本実施の形態にかかるオリジナル画像データ、マスク画像データおよびフレーム画像データについて、より詳細に説明する。図6は、オリジナル画像データ等の例を示す図である。図6(a)に示す画像601は、オリジナル画像データを示す。図6(b)および(c)は、マスク画像データの例を示す。図6(b)は、登場人物「さる」のキャラクタIDに関連付けられたマスク画像データであり、オリジナル画像に含まれる「さる」の顔の部分のみが表れ、他の部分がマスクされるようになっている。また、図6(c)は、オリジナル画像データ中に含まれる「かに」の所定の部分(甲羅の部分)のみが表れ、他の部分がマスクされるようになっている。
【0039】
マスク画像データ602、603において、黒く表された部分は、重ねあわされた際の背景(オリジナル画像)が表れ、白抜きの部分は、透過となるようになっている。つまり、白抜きの部分はいわゆる「透過カラー」に対応する値が与えられる。したがって、図9に示すように、オリジナル画像データ901と、マスク画像データ902中の透過カラーの領域903とが重なり合う部分においては、背景となる他の画像データ910の対応する部分911が表れることになる。また、オリジナル画像データ901と、マスク画像データ902中の他の領域904とが重なり合う部分においては、オリジナル画像データが表れる。
【0040】
したがって、ステップ411においては、上述したような、オリジナル画像データ、および、その上にマスク画像データが重ねられた構造のフレーム画像データが生成される。
【0041】
図5(d)は、携帯端末の表示装置の画面上に表示された、フレーム画像を含む画像の例を示す。この画像521においては、フレーム画像522のほか、「半透明版切替」ボタン523および「画像送信」ボタン524を含む。「半透明版切替」ボタン523がオンされると(図7のステップ701)、サーバ12において、半透明フレーム画像が作成され、これが携帯端末16に伝達される(ステップ702)。図8は、半透明フレーム画像を説明するための図である。図8(a)に示す半透明マスク画像データ801において、黒塗りの部分は透過カラーを表している。したがって、フレーム画像データの上に半透明マスク画像データを重ね合わせた場合、黒塗りの部分は、最下部に位置する背景の画像データが表れることになる。このため、半透明フレーム画像802においては、半透明マスク画像データによる黒塗りの部分と、マスク画像データによる登場人物の顔に相当する部分の双方において、背景の画像データが表れる。
【0042】
ユーザは、携帯端末16の表示装置の画面上に表示されたフレーム画像や半透明マスク画像を参照しつつ、携帯端末16のフレーム機能を利用して、写真を撮影する(ステップ703)。ここで、ユーザはフレーム画像中の登場人物の顔に相当する部分に、ユーザ自身或いは友人の顔が入るように、携帯端末16のカメラを調整する。ここで、フレーム画像においては、選択された登場人物の顔などの部分に、カメラで撮影された映像中の対応する部分が表れる。半透明マスク画像においても、これに加えて、多数の微小の領域に、カメラで撮影された映像中の対応する部分が表れる。また、写真撮影を複数回繰り返してもよいことは言うまでもない。
【0043】
所望の画像が得られると、ユーザは「画像送信」ボタン524をオンする。これにより、メール送信画面が呼び出される。なお、メール送信先アドレスは自動的に指定される。これは、ユーザID、ブックIDおよびページ番号により位置的に特定される。ユーザは、当該自動的に指定されたメールアドレス宛てに、作成した画像データを添付したメールを送信する(ステップ704、705)。ここでサーバに、メール添付として送られる画像データは、フレーム画像のうち、マスク画像の透過カラーの領域が写真となっているような画像のデータである。
【0044】
サーバ12は、メールを受理すると、メール送信先アドレスに基づくユーザID、ブックIDおよびページ番号にて特定される、ユーザ絵本ページテーブルの領域に添付された画像データに基づいて、選択された登場人物の顔などの部分が撮影された画像になっているユーザ固有の画像データを記憶する(ステップ706)。
【0045】
次いで、サーバ12は、次のページ番号のオリジナル画像データを読み出し、当該次のページのオリジナル画像データに関連するマスク画像データを取得する。その後、オリジナル画像データおよびマスク画像データからフレーム画像データが生成され、携帯端末に伝達される。これらの処理は、それぞれ、ステップ409〜412に対応する。ここでも、ユーザが半透明フレーム画像を所望すれば、半透明フレーム画像を携帯端末の表示装置の画面上に表示させることもできる。ユーザは、フレーム画像や半透明フレーム画像を参照して、写真を撮影し、得られた画像を添付したメールをサーバ12に送信する。つまり、本実施の形態においては、ページごとに、ステップ409〜412の処理、および、ステップ703〜706の処理、場合によってはこれらに加えてステップ701、702の処理が繰り返される。これにより、ページごとにユーザ固有の画像(本実施の形態では選択した登場人物の顔などがユーザやその友人の顔写真となった画像)が、ユーザ絵本ページテーブルに蓄積される。全てのページについてユーザ固有の画像がユーザ絵本ページテーブルに格納されることで、ユーザ固有の絵本が完成する。
【0046】
また、本実施の形態においては、フレーム画像が表示されている状態(図5(d)参照)で、テンキーを操作することにより、フレーム画像中の領域の移動および拡大/変更が可能である。たとえば、テンキーの「2」、「4」、「5」、「6」、「8」および「0」を、それぞれ、「上」、「左」、「拡大」、「右」、「縮小」および「下」に割り当て、所定のキーの入力にしたがって、指示がサーバ12に伝達され、サーバ12が指示に応答した画像データを送信する。
【0047】
これにより、ユーザは、たとえば、所定の登場人物のみを拡大した画像を取得することができる。拡大した画像を利用すれば、ユーザは、自分単独或いは友人単独の写真を撮影すれば良く、画像を作成するのが容易となる。このように、フレーム画像の部分を利用して撮影した場合、メールアドレスには、ユーザID、ブックIDおよびページ番号に加え、当該画像の部分の位置を表す位置データおよび拡大率が含まれる。サーバ12が添付ファイル付きのメールを受理した際に、サーバ12が、元のフレーム画像との対応を把握することができ、添付ファイルとして受け付けた画像データをフレーム画像と合成した上で記憶することが可能となる。フレーム画像の部分が送られてきた場合には、送られてきた順に、当該部分に対応する画像データに、レイヤ番号が付され、ユーザ絵本データテーブ20中、当該フレーム画像に関するレコードに、当該レイヤ番号と関連付けられて、部分に対応する画像データが収容される。なお、この場合には、画像の部分に対応するデータだけでなく、全体を撮影した画像データについても、撮影の順にレイヤ番号が付与される。
【0048】
次に、ユーザ固有の絵本をユーザが閲覧する場合について説明する。ユーザ固有の絵本を閲覧する場合には、図5(b)に示す画像において、ユーザはキーを操作して、「保存リスト」のリンク503を選択する。これに応答して、サーバ12は、ユーザ絵本データテーブル20を参照して、先に選択された絵本の名称(物語名)に対応するブックIDするユーザ絵本のコメントのリストを含む画像を、ユーザに伝達する(図10(a)参照)。この画像1001においては、「クラスのみんな」、「家族で」、「旅先で」というコメントがそれぞれ付与された、3つの固有の絵本が存在している(符号1002参照)。
【0049】
ユーザは、携帯端末16を操作して、キーを操作してリスト中から所望のコメントを選択する。選択されたコメントの情報は、サーバ12に伝達され、当該コメントが付されたユーザ固有の絵本の閲覧或いは編集を選択させるためのリンクを含む画像を返送する(図10(b)参照)。ユーザが携帯端末16のキーを操作して、画像1011中の「はじめる」というリンク(符号1012参照)を指定すると、閲覧開始の指示がサーバ12に伝達される。
【0050】
図11は、閲覧開始の指示に応答してサーバ12にて実行される処理を示すフローチャートである。図11に示すように、サーバ12は、指定された絵本の名称(物語名)に対応付けられた、ユーザ絵本ページテーブルのレコードから、先頭ページ(第1ページ)の画像データおよびテキストデータを読み出し、これらデータを含むページ画像データを生成する(ステップ1101)。
【0051】
より詳細には、図12(a)に示すように、サーバ12は、ユーザ絵本データテーブル20から、ページの画像データを読み出すとともに(ステップ1201)、オリジナル絵本データテーブル18から、対応するページの、所定の登場人物のマスク画像データを読み出す(ステップ1202)。マスク画像データは、ユーザの画像データ中、登場人物が写真に置き換えられている登場人物に関するものが選ばれる。次いで、画像データとマスク画像データとを重ね合わせて、マスク画像データ中、透過カラーの部分のみが取り出される(ステップ1203)。つまり、背景の部分が除去され、顔写真の部分のみが取り出されることになる。その後、サーバ12は、オリジナル絵本データテーブル18から、対応するページのオリジナル画像データを取得して(ステップ1204)。その上に、ステップ1303で取り出された部分の画像データを重ね合わせた画像データを生成する(ステップ1205)。したがって、ステップ1305にて得られた画像データは、オリジナル画像データ1211上に、顔写真に相当する画像の部分(たとえば、符号1212、1213参照)が、重ね合わされた状態となっており、ハッチングを付された部分が、画像として表れる。このような画像データと、テキストデータとにより、ページ画像データが出来上がる。
【0052】
なお、オリジナル絵本テーブル中、当該ページに関して、レイヤ番号と関連付けられた画像データ、つまり、画像の部分に対応する画像データが含まれている場合についても、以下に説明する。この場合にも、部分に対応する画像データから、マスク画像データを利用して、顔写真の部分のみが取り出される。次いで、オリジナル画像データの上に、レイヤ番号にしたがって、顔写真の部分のみが取り出された画像データが、順次重ねられていく。
【0053】
たとえば、画像中、2つの登場人物に関して、それぞれ、その部分のみを撮影した場合には、図13(a)に示すように、オリジナル画像データ1301の上に、最初に撮影した顔写真に相当するレイヤ1の画像データ(符号1302)、次に撮影した顔写真に相当するレイヤ2の画像データ(符号1303)の順で、データが重ねられていく。また、2つの登場人物に関して、まず、全体の画像を撮影し、その後、一方の登場人物のみを撮影した場合には、図13(b)に示すように、オリジナル画像データ1301の上に、最初に撮影した画像中の2つの顔写真に相当するレイヤ1の画像データ(符号1311、1312)、次に撮影した顔写真に相当するレイヤ2の画像データ(符号1303)の順で、データが重ねられていく。何れかの図においても、ハッチングを付した部分が、画像として表れる。
【0054】
次いで、サーバ12は、ユーザ絵本ページテーブルのレコードから、メロディデータおよび台詞データを読み出す(ステップ1102)。生成されたページ画像データは、メロディデータおよび台詞データとともに、携帯端末12に送信される(ステップ1103)。
【0055】
図10(c)は、図11の処理により携帯端末の表示装置の画面上に表示されたページ画像の例を示す図である。ここで、ページ画像1021において、物語の1シーンを構成する画像1022で、所定の登場人物の顔などがユーザ固有の写真(たとえば、ユーザや友人の写真)になっている。また、当該シーンに相当する物語のテキスト表示がなされる(符号1023参照)。
【0056】
ユーザが次のページに移行したい場合には、キーを操作して、ボタン1024を指定すればよい。指定の情報は、サーバ12に伝達される。サーバ12は、次のページの種々のデータを取得する(ステップ1103、1104等)。或いは、前のページに移行したい場合には、キーを操作して、ボタン1025を指定すればよい。サーバ12は、この情報の受理に応答して、前のページの種々の情報を取得する(ステップ1105、1106等)。このようにして、ユーザは、各ページにユーザ固有の情報を含むような絵本を閲覧することができる。
【0057】
図10(b)に示す画像1011において、ユーザが携帯端末16のキーを操作して、「編集」というリンク(符号1013参照)を指定すると、サーバ12において、図11のステップ1101〜1103と同様の処理が実行され、ページ画像が携帯端末16に伝達される。図10(d)は、編集時のページ画像の例を示す図である。このページ画像には、「フォトアップロード」というリンク(符号1032参照)が含まれる。この「フォトアップロード」のリンクが指定されると、当該ページについて、再度、写真を撮影し、所定の登場人物の顔などの部分が新たな写真になるようなページ画像を作ることができる。これは、図4のステップ407〜412、図7のステップ701〜706と同様の処理が実行されることにより実現される。たとえば、全てのページについて写真撮影が完了していなかった場合に、残りのページだけを編集することも可能である。
【0058】
本実施の形態によれば、選択した登場人物について、その顔にユーザや友人の顔写真を配置したようなページ画像からなる絵本を作成することが可能となる。本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
【0059】
前記実施の形態においては、ユーザ固有の画像を作るために、絵本を利用し、オリジナル画像データ中、選択された登場人物の顔に対応する部分に、撮影された人物の画像が配置されるようになっている。しかしながら、本発明は、絵本に基づいて作成されたオリジナル画像に限定されるものではない。たとえば、人物や動物を含む写真において顔などに対応する部分に、撮影された人物の画像が配置されるように構成しても良い。
【0060】
また、前記実施の形態において、絵本のページごとのオリジナル画像データおよび登場人物に関するマスク画像データを用意し、ページごとにフレーム画像データを形成し、当該フレーム画像データに基づいて、ユーザ固有の画像データが作られる。しかしながら、絵本のように一定のストーリに基づいてページが構成されていない場合であっても、本発明を適用することができる。たとえば、単一の特定のシーンの写真に基づくオリジナル画像データと、そのシーンの登場人物に関するマスク画像データを用意しても良いことはいうまでもない。
【0061】
【発明の効果】
本発明によれば、ユーザの手順や端末の負荷を最小限にして、ユーザ固有の画像データを作成することが可能なシステムおよび方法を提供することが可能となる。
【図面の簡単な説明】
【図1】図1は、本実施の形態にかかる、システムの概略を示すブロックダイヤグラムである。
【図2】図2は、本実施の形態にかかるオリジナル絵本データテーブルの構成例を示す図である。
【図3】図3は、本実施の形態にかかるユーザ絵本データテーブルの構成例を示す図である。
【図4】図4は、本実施の形態において、データ作成の際に実行される処理を示すフローチャートである。
【図5】図5は、本実施の形態において、携帯端末の表示装置の画面上に表示される画像例を示す図である。
【図6】図6は、本実施の形態にかかるオリジナル画像データ等の例を示す図である。
【図7】図7は、本実施の形態において、データ作成の際に実行される処理を示すフローチャートである。
【図8】図8は、本実施の形態にかかる半透明フレーム画像を説明するための図である。
【図9】図9は、本実施の形態にかかるフレーム画像データを説明するための図である。
【図10】図10は、本実施の形態において、携帯端末の表示装置の画面上に表示される画像例を示す図である。
【図11】図11は、閲覧開始の指示に応答してサーバにて実行される処理を示すフローチャートである。
【図12】図12(a)は、閲覧の際の画像データの生成をより詳細に示すフローチャート、図12(b)は、画像データの構成を説明するための図である。
【図13】図13は、本実施の形態において、レイヤ番号による画像の合成を説明するための図である。
【符号の説明】
12 ユーザ固有データ作成サーバ
14 インターネット
16 携帯端末
18 オリジナル絵本データテーブル
20 ユーザ絵本データテーブル
22 データベース
24 通信インタフェース
26 画像生成部
28 ユーザ管理部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a system and method for creating user-specific information.
[0002]
[Prior art]
With the spread of the Internet, services that create virtual scenes using images have been realized. For example, in order to determine the coordinates of the clothes and the hairstyle, the image of the clothes and the image of the user's face photo are combined, or the image of only the hairstyle taken out and the image of the user's face photo are combined, In particular, a service has been proposed in which a user wears clothes or creates a state when the user becomes a hairstyle. For example, in Patent Literature 1, image data and physical data of a user's face are held in an information terminal, and the held information and product information supplied via the Internet are edited and evaluated by application software. A system capable of obtaining a synthesized composite image is disclosed.
[0003]
[Patent Document 1] Japanese Patent Application Laid-Open No. 2002-150058
[0004]
[Problems to be solved by the invention]
In the information disclosed in Patent Document 1, image data and physical data of the user's face are registered in advance in the information terminal on the user side, and the image is edited and synthesized in the information terminal. Must be installed, the procedure on the user side is complicated, and the load on the terminal is large.
[0005]
For example, it is possible to reduce the load on the terminal by registering image data of the user's face in the server, and editing and synthesizing the image in the server. It cannot be omitted. In addition, when it is desired to use images with different face orientations, different facial expressions, and different sizes depending on the scene, it is necessary to register a face photo each time.
[0006]
For example, when an image including a user's face photograph is created for each scene according to a certain scenario, it is practically impossible to register an image in advance.
It is an object of the present invention to provide a system and method capable of creating user-specific image data while minimizing the user's procedure and terminal load.
[0007]
[Means for Solving the Problems]
An object of the present invention is a server that creates user-specific data for each scene according to a certain scenario, and includes original image data for each scene in the scenario, and characters in the scenario in the original image data. An original image data table storing mask image data defining a predetermined area, a user image data table storing at least user-specific image data based on the original image data for each scene, and a request from a user terminal Accordingly, the original image data and the mask image data of each scene are transmitted to the terminal, and based on the original image data and the mask data, the image data created by the terminal is received and the received image is based on the received image. Generate user-specific image data, user image A user-specific data generating means for storing the data in the data table so that the user-specific image data of the next scene is generated in response to a request from the user terminal following the generation of the user-specific image data of a certain scene. This is achieved by a user-specific data creation server characterized by being configured as follows.
[0008]
According to the present invention, it is possible to acquire an image unique to a user, for example, an image in which a user's own or a friend's photograph is inserted in a desired region for each scene without registering the image in advance. For example, if the terminal device is a mobile terminal with a frame function, the user takes an image that captures the user's photograph in the area determined by the mask image data while referring to the screen of the display device of the mobile terminal. You can also Therefore, it is possible to obtain user-specific image data including a face photograph having a desired orientation, expression, and size for each scene.
[0009]
In a preferred embodiment, the image processing device further includes image generation means for generating page image data based on user-specific image data in response to a request from the user's terminal, and each scene according to a scenario according to the user's request. The page image data based on the user-specific image data is sequentially generated.
[0010]
In a further preferred embodiment, the image generating means is adapted to replace the original image data with the original image data based on the user specific image data stored in the user image data table and the mask image data in the original image data table. The image data unique to the user is generated by superimposing the original image data and the data of the extracted portion.
[0011]
In a more preferred embodiment, the user-specific data generating means transmits the part of the original image data and the corresponding part of the mask image data to the terminal in response to a request from the user's terminal, and is created at the terminal The image data of the part is received and stored in the user image data table, and the image generation unit corresponds to the image data of the user-specific part stored in the user image data table and the original image data table. Based on the image data of the mask image data portion, the user-specific data portion to be replaced is extracted from the original image data, and the original image data and the extracted portion data are overlapped, whereby the user Generate unique image data.
[0012]
Thereby, for example, on the terminal, only a part of the image can be enlarged and displayed, and an image in which a photograph of the user himself / herself or a friend's face is taken and inserted in a predetermined part of the image can be created.
[0013]
In another preferred embodiment, the user-specific data generation means further sets the layer number in the order in which the user-specific image data or partial data sent from the user terminal is sent. The image generation means is configured to sequentially superimpose the extracted partial data on the original image data in accordance with the layer number. Accordingly, even when only a part of the image is enlarged and a part of the user-specific image data is generated based on the enlarged part, the user-specific image data can be appropriately reconstructed. .
[0014]
For example, a certain scenario corresponds to a picture book, and a scene corresponds to a page in the picture book. In this case, the original image data is a so-called “picture”, but is not limited thereto. A scenario and a scene may be composed of a plurality of photographs based on a certain story.
[0015]
Another object of the present invention is to create original image data for each scene in a scenario in order to create user-specific data for each scene according to a certain scenario in accordance with a request from a terminal connected via a network. And at least at least original image data table storing mask image data defining a predetermined area of a character in the scenario in the original image data and user-specific image data based on the original image data for each scene A user image data table that can be read by a server,
[0016]
In response to a request from the user's terminal, transmitting the original image data and mask image data of each scene to the terminal, and accepting the image data created by the terminal based on the original image data and mask data A step of causing the server to execute a step of generating user-specific image data based on the received image and a step of storing the generated user-specific image data in a user image data table. This is also achieved by a program configured to generate user-specific image data of the next scene in response to a request from the user terminal following generation of the user-specific image data. .
[0017]
In a preferred embodiment, the server further executes a step of generating page image data based on user-specific image data in response to a request from the user's terminal, and according to a user request, according to a scenario. Further, page image data based on user-specific image data for each scene is sequentially generated.
[0018]
In a preferred embodiment, in the step of generating user-specific image data, based on user-specific image data stored in the user image data table and mask image data in the original image data table, the original image data is generated. Extracting the portion of user-specific data to be replaced from the image data; and generating the user-specific image data by superimposing the original image data and the extracted portion of the data; To run.
[0019]
In another preferred embodiment, in the step of transmitting the original image data and the mask image data to the terminal, in response to a request from the user terminal, the original image data portion and the corresponding portion of the mask image data are Generating the user-specific image data, comprising: causing the server to execute the step of transmitting to the terminal; and receiving the image data of the portion generated by the terminal and storing the image data in the user image data table. The user-specific portion image data stored in the user image data table and the corresponding mask image data portion image data in the original image data table, based on the user-specific portion to be replaced from the original image data. Extracting a portion of the data and A null image data by superimposing the data of the extracted portion, and a step of generating a user-specific image data to the server.
[0020]
In another preferred embodiment, a step of assigning a layer number to the user-specific image data or partial data sent from the user's terminal in the order of sending, and the original image data And causing the server to execute the step of sequentially superimposing the extracted partial data according to the layer number.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a block diagram showing an outline of a system according to the present embodiment. As shown in FIG. 1, in this embodiment, a server (user-specific data creation server) 12 for creating user-specific data is connected to the Internet 14 and is a mobile terminal such as a mobile phone or a PDA that can be connected to the Internet. 16, the necessary processing can be executed in response to the request via the gateway (GW) 17 and the Internet 14. In this embodiment, the user-specific data creation server is configured such that a picture book can be used as a group of images having a series of relationships to create a user-specific picture book. Therefore, in this embodiment, the user-specific data creation server functions as a picture book creation server.
[0022]
As shown in FIG. 1, the user-specific data creation server 12 includes a database including an original picture book data table 18 storing various data relating to an original picture book and a user picture book data table 20 storing various data relating to a user-specific picture book. 22, a communication interface (I / F) 24 that controls communication with the portable terminal 16 via the Internet, an image generation unit 26 that generates an image in response to a request from the user, and manages the user And a user management unit 28 for executing processing for this purpose.
[0023]
In the present embodiment, the mobile terminal 16 is equipped with a camera (not shown), and the user can take a desired image. Further, the mobile phone 16 has a so-called frame function, and can take a picture while displaying a frame image.
[0024]
FIG. 2 is a diagram showing a configuration example of the original picture book data table 18 according to the present embodiment. As shown in FIG. 2, the original picture book data table 18 includes a picture book table, a character table, and a picture book page table.
[0025]
A record in the original picture book data table includes a book ID that uniquely identifies the picture book, a title, a text writer, a picture writer, and a comment on the work. The character table record is composed of a book ID, a character ID that uniquely identifies a character appearing in a picture book, and the name of the character. When a picture book includes a plurality of characters, a character ID and a name for each character are provided in the record.
[0026]
The record of the picture book page table includes a book ID, a page number, image data of an image included in the page, text data of the page, melody data, dialogue data, and mask image data for each character. The sentence data is, for example, text data. The melody data may be waveform data or MIDI data. Of course, other forms of data may be used. The dialogue data can take the form of voice data.
[0027]
In the present embodiment, since a single image is included for each page, image data corresponding to the single image is accommodated in the page table. When a page includes a plurality of images, image data corresponding to each image may be accommodated. Further, as will be described in detail later, the mask image data is an image for masking a face of a character or a portion that can be associated with the face, and is prepared for each character included in the image. The mask image is associated with the character ID of the corresponding character.
[0028]
FIG. 3 is a diagram illustrating a configuration example of a user picture book data table. As shown in FIG. 3, the user picture book data table includes a user picture book data table, a user character table, and a user picture book page table.
[0029]
The record of the user picture book page table includes a user ID that uniquely identifies the user, a user book ID that uniquely identifies the user-specific picture book, an original book ID that uniquely identifies the picture book that is the original of the picture book, Includes titles and comments. In the present embodiment, the picture book unique to the user is specified from the user ID and the user book ID. A user can also create a plurality of picture books from a picture book specified from a single original book ID. In this case, a different user book ID is given to each. In addition, the original book ID and the book ID used in the original picture book data match.
[0030]
The record of the user character table includes a user ID, a user book ID, a character ID, and a character name (name). The record of the user picture book page table includes a user ID, a user book ID, a page number, a layer number, a data format, image data, text data, melody data, and dialogue data. The layer number will be described later in relation to the image composition process.
[0031]
A procedure for creating user-specific data (creating a user-specific picture book in this embodiment) using the user-specific data creation server 12 configured as described above will be described. Prior to the creation of the user specific data, the user operates the portable terminal 16 to access the user specific data creation server 12 and complete user registration. As a result, the user management unit 28 operates, and a user ID for specifying the user and a password for logging in to the user specific data creation server 12 are given to the user. Hereinafter, the user specific data creation server 12 is simply referred to as a server 12.
[0032]
FIG. 4 is a flowchart illustrating processing executed when data is created. When the user operates the portable terminal 16 to log in to the server 12 and requests creation of a user-specific picture book (step 401), a list of picture book names (story names) is transmitted (step 402). FIG. 5 is a diagram illustrating an example of an image displayed on the screen of the display device of the mobile terminal 16. FIG. 5A is a picture book list transmitted in step 402 and displayed on the screen of the display device. is there.
[0033]
Further, when the user selects a desired picture book name (story name) (step 403), the server 12 refers to the user picture book data table 20 based on the user ID and the book ID corresponding to the selected story name. Then, it is determined whether a user-specific picture book has already been created for the same picture book by the user (step 404). In this case, in order to allow the user to browse the picture book unique to the user already created, an image including a link for displaying a list of picture books is generated and returned to the portable terminal 16 (step) 405). As shown in FIG. 5B, the image 501 includes a link for requesting creation of a new picture book (see reference numeral 502) and a link for requesting browsing of a saved picture book (see reference numeral 503). The case where the “save list” link is selected will be described later.
[0034]
When the “new creation” link is designated (step 406), an image for selecting a character is returned to the portable terminal 16 (step 407). FIG. 5C shows an example of an image displayed on the screen of the display device of the mobile terminal 16 in step 407. In this example, a title input field, a comment input field, and a character selection field for a user-specific image are provided.
[0035]
In the title input column, the name (story name) of the selected picture book is described as a default value, but the user can change it to a desired title. Also in the comment input field, the user can input desired characters and the like that specify unique data. In the selection column, characters in the picture book are listed. In this example, “Kani”, “Saru”, and “Usu” appearing in “Sarakan Battle” are presented. The user operates a key of the mobile terminal 16 to select a person who wants to appear a photograph of the photographed user or the like among the characters. In the above example, any one or more characters can be selected from “crab”, “monkey”, and “light”. Information relating to user input (such as character selection information) is transmitted to the server 12 when the user operates a key and turns on the “create” button 515 (step 408).
[0036]
The server 12 refers to the original picture book data table 18 of the DB 22 to identify the book ID of the selected picture book, and from the picture book page table of the book ID, the image data (original image) of the first page (first page) Data) is acquired (step 409). Further, the server 12 refers to the original picture book data table 18 and refers to the character ID of the selected character, and acquires mask image data for each character related to the original image data on the page (step). 410).
[0037]
Next, the server 12 generates frame image data obtained by combining the original image data and the mask image data of each character, and transmits this to the portable terminal 16 (steps 411 and 412).
[0038]
Next, the original image data, mask image data, and frame image data according to the present embodiment will be described in more detail. FIG. 6 is a diagram illustrating an example of original image data and the like. An image 601 shown in FIG. 6A shows original image data. 6B and 6C show examples of mask image data. FIG. 6B is mask image data associated with the character ID of the character “Saru”. Only the face portion of “Saru” included in the original image appears, and the other portions are masked. It has become. Further, in FIG. 6C, only a predetermined portion (shell portion) of “crab” included in the original image data appears, and the other portions are masked.
[0039]
In the mask image data 602 and 603, the black portions indicate the background (original image) when overlaid, and the white portions are transparent. That is, a value corresponding to a so-called “transparent color” is given to the white portion. Therefore, as shown in FIG. 9, in the portion where the original image data 901 and the transparent color region 903 in the mask image data 902 overlap, a corresponding portion 911 of the other image data 910 as the background appears. Become. In addition, the original image data appears in a portion where the original image data 901 and another area 904 in the mask image data 902 overlap.
[0040]
Accordingly, in step 411, the original image data and the frame image data having a structure in which the mask image data is overlaid thereon are generated as described above.
[0041]
FIG. 5D shows an example of an image including a frame image displayed on the screen of the display device of the mobile terminal. The image 521 includes a “translucent version switching” button 523 and an “image transmission” button 524 in addition to the frame image 522. When the “translucent version switching” button 523 is turned on (step 701 in FIG. 7), the server 12 creates a translucent frame image and transmits it to the mobile terminal 16 (step 702). FIG. 8 is a diagram for explaining a translucent frame image. In the translucent mask image data 801 shown in FIG. 8A, the black portion represents a transparent color. Therefore, when the semi-transparent mask image data is superimposed on the frame image data, the background image data located at the bottom appears in the black portion. For this reason, in the translucent frame image 802, background image data appears in both the black-painted portion by the translucent mask image data and the portion corresponding to the character's face by the mask image data.
[0042]
The user takes a picture using the frame function of the portable terminal 16 while referring to the frame image or the translucent mask image displayed on the screen of the display device of the portable terminal 16 (step 703). Here, the user adjusts the camera of the mobile terminal 16 so that the face of the user himself / herself or a friend enters the portion corresponding to the face of the character in the frame image. Here, in the frame image, a corresponding part in the video photographed by the camera appears in a part such as the face of the selected character. Also in the semi-transparent mask image, in addition to this, corresponding portions in the video photographed by the camera appear in a large number of minute regions. Needless to say, photography may be repeated a plurality of times.
[0043]
When the desired image is obtained, the user turns on the “Send Image” button 524. Thereby, the mail transmission screen is called. The mail transmission destination address is automatically specified. This is positionally specified by the user ID, book ID, and page number. The user transmits an email with the created image data attached to the automatically designated email address (steps 704 and 705). Here, the image data sent to the server as an e-mail attachment is image data in which the transparent color area of the mask image is a photograph in the frame image.
[0044]
When the server 12 accepts the mail, the character selected based on the image data attached to the area of the user picture book page table specified by the user ID based on the mail transmission destination address, the book ID, and the page number. The image data unique to the user, which is an image in which a part such as the face of the user is photographed, is stored (step 706).
[0045]
Next, the server 12 reads the original image data of the next page number and acquires mask image data related to the original image data of the next page. Thereafter, frame image data is generated from the original image data and the mask image data and transmitted to the portable terminal. These processes correspond to steps 409 to 412 respectively. Again, if the user desires a translucent frame image, the translucent frame image can be displayed on the screen of the display device of the portable terminal. The user refers to the frame image or the translucent frame image, takes a picture, and transmits an email with the obtained image attached thereto to the server 12. In other words, in the present embodiment, the processing in steps 409 to 412 and the processing in steps 703 to 706 and possibly the processing in steps 701 and 702 are repeated for each page. As a result, an image unique to the user for each page (in the present embodiment, an image in which the face of the selected character becomes a facial photograph of the user or his friend) is accumulated in the user picture book page table. The user-specific picture book is completed by storing the user-specific images for all pages in the user picture book page table.
[0046]
In the present embodiment, the area in the frame image can be moved and enlarged / changed by operating the numeric keypad while the frame image is displayed (see FIG. 5D). For example, the numeric keys “2”, “4”, “5”, “6”, “8” and “0” are respectively set to “up”, “left”, “enlarged”, “right”, “reduced”. In accordance with the input of a predetermined key, the instruction is transmitted to the server 12, and the server 12 transmits the image data in response to the instruction.
[0047]
Thereby, the user can acquire the image which expanded only the predetermined character, for example. If the enlarged image is used, the user only needs to take a picture of himself / herself or a friend alone, and it is easy to create an image. As described above, when the frame image portion is used for photographing, the mail address includes position data representing the position of the image portion and an enlargement ratio in addition to the user ID, the book ID, and the page number. When the server 12 accepts an email with an attached file, the server 12 can grasp the correspondence with the original frame image, and stores the image data received as an attached file after being combined with the frame image. Is possible. When frame image portions are sent, layer numbers are assigned to the image data corresponding to the portions in the order in which they are sent, and the record related to the frame image in the user picture book data table 20 The image data corresponding to the part is accommodated in association with the number. In this case, not only the data corresponding to the image portion but also the image data of the entire image is assigned layer numbers in the order of shooting.
[0048]
Next, a case where the user browses a picture book unique to the user will be described. When browsing a picture book unique to the user, in the image shown in FIG. 5B, the user operates a key to select a link “503” of “save list”. In response to this, the server 12 refers to the user picture book data table 20, and displays an image including a list of comments of the user picture book with the book ID corresponding to the name (story name) of the picture book selected previously. (See FIG. 10A). In this image 1001, there are three unique picture books to which the comments “everyone in class”, “with family”, and “with travel” are assigned (see reference numeral 1002).
[0049]
The user operates the mobile terminal 16 and operates a key to select a desired comment from the list. The information of the selected comment is transmitted to the server 12, and an image including a link for allowing the user to select browsing or editing of the picture book unique to the user is returned (see FIG. 10B). When the user operates a key on the mobile terminal 16 to specify a link “start” (see reference numeral 1012) in the image 1011, an instruction to start browsing is transmitted to the server 12.
[0050]
FIG. 11 is a flowchart illustrating processing executed by the server 12 in response to an instruction to start browsing. As shown in FIG. 11, the server 12 reads the image data and text data of the first page (first page) from the record of the user picture book page table associated with the designated picture book name (story name). Then, page image data including these data is generated (step 1101).
[0051]
More specifically, as shown in FIG. 12 (a), the server 12 reads the image data of the page from the user picture book data table 20 (step 1201), and from the original picture book data table 18, Mask image data of a predetermined character is read (step 1202). As the mask image data, data related to a character in which the character is replaced with a photograph is selected from the image data of the user. Next, the image data and the mask image data are superimposed, and only the transparent color portion is extracted from the mask image data (step 1203). That is, the background portion is removed and only the face photo portion is extracted. Thereafter, the server 12 acquires the original image data of the corresponding page from the original picture book data table 18 (step 1204). In addition, image data is generated by superimposing the image data of the part extracted in step 1303 (step 1205). Accordingly, the image data obtained in step 1305 is in a state where the image portion corresponding to the face photograph (for example, reference numerals 1212 and 1213) is superimposed on the original image data 1211, and hatching is performed. The attached part appears as an image. Page image data is completed by such image data and text data.
[0052]
A case where image data associated with a layer number, that is, image data corresponding to an image portion is included in the original picture book table for the page will be described below. Also in this case, only the portion of the face photograph is extracted from the image data corresponding to the portion using the mask image data. Next, the image data from which only the face photograph portion is extracted is sequentially superimposed on the original image data in accordance with the layer number.
[0053]
For example, when only two portions of two characters are photographed in the image, as shown in FIG. 13A, this corresponds to the first photograph of the face photographed on the original image data 1301. The data is superimposed in the order of layer 1 image data (reference numeral 1302) and layer 2 image data (reference numeral 1303) corresponding to the next photograph of the face photographed. In addition, regarding the two characters, when the entire image is first photographed and then only one of the characters is photographed, first, as shown in FIG. The layer 1 image data (reference numerals 1311 and 1312) corresponding to two face photographs in the photographed image and the layer 2 image data (reference numeral 1303) corresponding to the next photographed face photograph are overlapped in this order. It will be. In any figure, the hatched portion appears as an image.
[0054]
Next, the server 12 reads melody data and dialogue data from the record of the user picture book page table (step 1102). The generated page image data is transmitted to the portable terminal 12 together with the melody data and the dialogue data (step 1103).
[0055]
FIG. 10C is a diagram illustrating an example of a page image displayed on the screen of the display device of the portable terminal by the process of FIG. Here, in the page image 1021, in the image 1022 constituting one scene of the story, the face of a predetermined character is a user-specific photograph (for example, a photograph of a user or a friend). In addition, the text of the story corresponding to the scene is displayed (see reference numeral 1023).
[0056]
When the user wants to move to the next page, the user can operate the key and specify the button 1024. The designated information is transmitted to the server 12. The server 12 acquires various data of the next page (steps 1103, 1104, etc.). Alternatively, if it is desired to move to the previous page, a button 1025 may be designated by operating a key. In response to accepting this information, the server 12 acquires various information of the previous page (steps 1105, 1106, etc.). In this way, the user can browse a picture book that includes user-specific information on each page.
[0057]
In the image 1011 shown in FIG. 10B, when the user operates the key of the mobile terminal 16 and designates a link “edit” (see reference numeral 1013), the server 12 performs the same as steps 1101 to 1103 in FIG. 11. The page image is transmitted to the mobile terminal 16. FIG. 10D is a diagram illustrating an example of a page image at the time of editing. This page image includes a link “photo upload” (see reference numeral 1032). When this “photo upload” link is designated, a picture is taken again for the page, and a page image in which a part such as a face of a predetermined character becomes a new picture can be created. This is realized by executing processing similar to steps 407 to 412 in FIG. 4 and steps 701 to 706 in FIG. For example, if photography has not been completed for all pages, only the remaining pages can be edited.
[0058]
According to the present embodiment, it is possible to create a picture book composed of page images in which a face photograph of a user or a friend is arranged on the face of the selected character. The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.
[0059]
In the embodiment described above, a picture book is used to create a user-specific image, and the photographed person image is arranged in the part corresponding to the face of the selected character in the original image data. It has become. However, the present invention is not limited to the original image created based on the picture book. For example, an image of a photographed person may be arranged in a portion corresponding to a face or the like in a photograph including a person or an animal.
[0060]
In the embodiment, original image data for each page of a picture book and mask image data relating to a character are prepared, frame image data is formed for each page, and user-specific image data is generated based on the frame image data. Is made. However, the present invention can be applied even when a page is not configured based on a certain story like a picture book. For example, it goes without saying that original image data based on a photograph of a single specific scene and mask image data relating to the characters in the scene may be prepared.
[0061]
【The invention's effect】
According to the present invention, it is possible to provide a system and method capable of creating user-specific image data while minimizing the user's procedure and terminal load.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an outline of a system according to an embodiment.
FIG. 2 is a diagram illustrating a configuration example of an original picture book data table according to the present embodiment;
FIG. 3 is a diagram illustrating a configuration example of a user picture book data table according to the present embodiment;
FIG. 4 is a flowchart illustrating processing executed when data is created in the present embodiment.
FIG. 5 is a diagram illustrating an example of an image displayed on a screen of a display device of a mobile terminal in the present embodiment.
FIG. 6 is a diagram illustrating an example of original image data and the like according to the present embodiment.
FIG. 7 is a flowchart showing processing executed when data is created in the present embodiment.
FIG. 8 is a diagram for explaining a translucent frame image according to the present embodiment;
FIG. 9 is a diagram for explaining frame image data according to the present embodiment;
FIG. 10 is a diagram showing an example of an image displayed on the screen of the display device of the mobile terminal in the present embodiment.
FIG. 11 is a flowchart illustrating processing executed by the server in response to an instruction to start browsing.
FIG. 12A is a flowchart showing in more detail the generation of image data at the time of browsing, and FIG. 12B is a diagram for explaining the configuration of the image data.
FIG. 13 is a diagram for explaining image composition by layer number in the present embodiment;
[Explanation of symbols]
12 User-specific data creation server
14 Internet
16 Mobile devices
18 Original picture book data table
20 User picture book data table
22 Database
24 Communication interface
26 Image generator
28 User Management Department

Claims (11)

一定のシナリオにしたがったシーンごとにユーザ固有のデータを作成するサーバであって、
シナリオ中のシーンごとのオリジナル画像データ、および、オリジナル画像データ中、当該シナリオ中の登場人物の所定の領域を画定したマスク画像データを記憶したオリジナル画像データテーブルと、
前記シーンごとのオリジナル画像データに基づくユーザ固有の画像データを少なくとも記憶するユーザ画像データテーブルと、
ユーザの端末からの要求に応じて、各シーンのオリジナル画像データおよびマスク画像データを、当該端末に伝達するとともに、前記オリジナル画像データおよびマスクデータに基づいて、端末で作成された画像データを受理し、受理した画像に基づいて、ユーザ固有の画像データを生成し、ユーザ画像データテーブルに記憶するユーザ固有データ生成手段とを備え、
あるシーンのユーザ固有の画像データの生成に引き続いて、ユーザ端末からの要求に応じて、次のシーンのユーザ固有の画像データが生成されるように構成されたことを特徴とするユーザ固有データ作成サーバ。
A server that creates user-specific data for each scene according to a certain scenario,
An original image data table storing original image data for each scene in the scenario, and mask image data defining a predetermined area of the character in the scenario in the original image data;
A user image data table for storing at least user-specific image data based on the original image data for each scene;
In response to a request from the user's terminal, the original image data and mask image data of each scene are transmitted to the terminal, and the image data created by the terminal is received based on the original image data and mask data. A user-specific data generation unit that generates user-specific image data based on the received image and stores the user-specific image data in a user image data table;
User-specific data creation that is configured to generate user-specific image data of the next scene in response to a request from the user terminal following generation of user-specific image data of a scene server.
さらに、ユーザの端末からの要求に応じて、ユーザ固有の画像データに基づくページ画像データを生成する画像生成手段を備え、ユーザの要求に応じて、シナリオにしたがったシーンごとのユーザ固有の画像データに基づくページ画像データを順次生成するように構成されたことを特徴とする請求項1に記載のユーザ固有データ作成サーバ。In addition, image generation means for generating page image data based on user-specific image data in response to a request from the user's terminal is provided, and user-specific image data for each scene according to a scenario in accordance with the user's request The user-specific data creation server according to claim 1, wherein the page-specific image data is configured to be sequentially generated. 前記画像生成手段が、ユーザ画像データテーブルに記憶されたユーザ固有の画像データと、オリジナル画像データテーブル中のマスク画像データとに基づいて、オリジナル画像データから置き換えるべきユーザ固有のデータの部分を抽出し、かつ、オリジナル画像データと、前記抽出された部分のデータとを重ね合わせることにより、ユーザ固有の画像データを生成することを特徴とする請求項2に記載のユーザ固有データ作成サーバ。The image generation means extracts a portion of user-specific data to be replaced from the original image data based on the user-specific image data stored in the user image data table and the mask image data in the original image data table. 3. The user-specific data creation server according to claim 2, wherein the user-specific image data is generated by superimposing the original image data and the extracted portion data. 前記ユーザ固有データ生成手段が、ユーザの端末からの要求に応じて、オリジナル画像データの部分およびマスク画像データの対応する部分を、当該端末に伝達し、端末で作成された、当該部分の画像データを受理し、前記ユーザ画像データテーブルに記憶し、
前記画像生成手段が、ユーザ画像データテーブルに記憶されたユーザ固有の部分の画像データと、オリジナル画像データテーブル中の対応するマスク画像データの部分の画像データとに基づき、オリジナル画像データから置き換えるべきユーザ固有のデータの部分を抽出し、かつ、オリジナル画像データと、前記抽出された部分のデータとを重ね合わせることにより、ユーザ固有の画像データを生成することを特徴とする請求項3に記載のユーザ固有データ作成サーバ。
In response to a request from the user's terminal, the user-specific data generating unit transmits the part of the original image data and the corresponding part of the mask image data to the terminal, and the image data of the part created by the terminal Is stored in the user image data table,
A user to be replaced from the original image data based on the image data of the user-specific part stored in the user image data table and the image data of the corresponding mask image data part in the original image data table. 4. The user according to claim 3, wherein the user-specific image data is generated by extracting a portion of the unique data and superimposing the original image data and the data of the extracted portion. Specific data creation server.
さらに、ユーザ固有データ生成手段が、ユーザの端末から送られてきたユーザ固有の画像データ、或いは、部分のデータに対して、送られてきた順にレイヤ番号を付与し、
前記画像生成手段が、オリジナル画像データに、前記レイヤ番号にしたがって、抽出された部分データを順次重ね合わせるように構成されたことを特徴とする請求項4に記載のユーザ固有データ作成サーバ。
Furthermore, the user-specific data generation means assigns layer numbers to the user-specific image data sent from the user's terminal or the partial data in the order in which they are sent,
5. The user-specific data creation server according to claim 4, wherein the image generation unit is configured to sequentially superimpose the extracted partial data on the original image data in accordance with the layer number.
一定のシナリオが絵本に相当し、シーンが絵本のおけるページに相当することを特徴とする請求項1ないし5の何れか一項に記載のユーザ固有データ作成サーバ。6. The user-specific data creation server according to claim 1, wherein a certain scenario corresponds to a picture book, and a scene corresponds to a page in the picture book. ネットワークを介して接続された端末からの要求にしたがって、一定のシナリオにしたがったシーンごとにユーザ固有のデータを作成するために、 シナリオ中のシーンごとのオリジナル画像データ、および、オリジナル画像データ中、当該シナリオ中の登場人物の所定の領域を画定したマスク画像データを記憶したオリジナル画像データテーブルと、前記シーンごとのオリジナル画像データに基づくユーザ固有の画像データを少なくとも記憶するユーザ画像データテーブルとを備えたサーバにより読み出し可能なプログラムであって、
ユーザの端末からの要求に応じて、各シーンのオリジナル画像データおよびマスク画像データを、当該端末に伝達するステップと、
前記オリジナル画像データおよびマスクデータに基づいて、端末で作成された画像データを受理するステップと、
受理した画像に基づいて、ユーザ固有の画像データを生成するステップと、
生成されたユーザ固有の画像データを、ユーザ画像データテーブルに記憶するステップとを前記サーバに実行させ、
あるシーンのユーザ固有の画像データの生成に引き続いて、ユーザ端末からの要求に応じて、次のシーンのユーザ固有の画像データが生成されるように構成されたことを特徴とするプログラム。
In order to create user-specific data for each scene according to a certain scenario according to a request from a terminal connected via a network, the original image data for each scene in the scenario, and the original image data, An original image data table storing mask image data defining a predetermined area of a character in the scenario, and a user image data table storing at least user-specific image data based on the original image data for each scene. A program readable by a server,
In response to a request from the user's terminal, transmitting the original image data and mask image data of each scene to the terminal;
Receiving image data created at a terminal based on the original image data and mask data;
Generating user-specific image data based on the received image;
Storing the generated user-specific image data in a user image data table in the server,
A program configured to generate user-specific image data of a next scene in response to a request from a user terminal following generation of user-specific image data of a scene.
さらに、ユーザの端末からの要求に応じて、ユーザ固有の画像データに基づくページ画像データを生成するステップを、前記サーバに実行させ、
ユーザの要求に応じて、シナリオにしたがったシーンごとのユーザ固有の画像データに基づくページ画像データを順次生成するように構成されたことを特徴とする請求項7に記載のプログラム。
Furthermore, in response to a request from the user's terminal, the step of generating page image data based on user-specific image data is executed by the server,
8. The program according to claim 7, wherein the program is configured to sequentially generate page image data based on user-specific image data for each scene according to a scenario in accordance with a user request.
前記ユーザ固有の画像データを生成するステップにおいて、
ユーザ画像データテーブルに記憶されたユーザ固有の画像データと、オリジナル画像データテーブル中のマスク画像データとに基づいて、オリジナル画像データから置き換えるべきユーザ固有のデータの部分を抽出するステップと、
オリジナル画像データと、前記抽出された部分のデータとを重ね合わせることにより、ユーザ固有の画像データを生成するステップとを、前記サーバに実行させることを特徴とする請求項8に記載のプログラム。
In the step of generating the user-specific image data,
Extracting a portion of user-specific data to be replaced from the original image data based on the user-specific image data stored in the user image data table and the mask image data in the original image data table;
The program according to claim 8, wherein the server executes the step of generating user-specific image data by superimposing original image data and the extracted portion of data.
前記オリジナル画像データおよびマスク画像データを、端末に伝達するステップにおいて、
ユーザの端末からの要求に応じて、オリジナル画像データの部分およびマスク画像データの対応する部分を、当該端末に伝達するステップを前記サーバに実行させ、
かつ、端末で作成された、当該部分の画像データを受理し、前記ユーザ画像データテーブルに記憶するステップを備え、
前記ユーザ固有の画像データを生成するステップにおいて、
ユーザ画像データテーブルに記憶されたユーザ固有の部分の画像データと、オリジナル画像データテーブル中の対応するマスク画像データの部分の画像データとに基づき、オリジナル画像データから置き換えるべきユーザ固有のデータの部分を抽出するステップと、
オリジナル画像データと、前記抽出された部分のデータとを重ね合わせることにより、ユーザ固有の画像データを生成するステップとを前記サーバに実行させることを特徴とする請求項9に記載のプログラム。
In the step of transmitting the original image data and the mask image data to the terminal,
In response to a request from the user's terminal, the server is caused to execute a step of transmitting the part of the original image data and the corresponding part of the mask image data to the terminal,
And receiving the image data of the part created by the terminal and storing it in the user image data table,
In the step of generating the user-specific image data,
Based on the image data of the user-specific part stored in the user image data table and the image data of the corresponding mask image data part in the original image data table, the part of the user-specific data to be replaced from the original image data Extracting, and
The program according to claim 9, wherein the server executes the step of generating user-specific image data by superimposing original image data and the extracted portion of data.
さらに、ユーザの端末から送られてきたユーザ固有の画像データ、或いは、部分のデータに対して、送られてきた順にレイヤ番号を付与するステップと、
オリジナル画像データに、前記レイヤ番号にしたがって、抽出された部分データを順次重ね合わせるステップとを、前記サーバに実行させることを特徴とする請求項10に記載のプログラム。
Further, a step of assigning layer numbers in the order in which the user-specific image data sent from the user's terminal or the partial data is sent,
The program according to claim 10, wherein the server executes the step of sequentially superimposing the extracted partial data on the original image data in accordance with the layer number.
JP2003187411A 2003-06-30 2003-06-30 User-specific data creation server and creation program Expired - Fee Related JP4261266B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003187411A JP4261266B2 (en) 2003-06-30 2003-06-30 User-specific data creation server and creation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003187411A JP4261266B2 (en) 2003-06-30 2003-06-30 User-specific data creation server and creation program

Publications (2)

Publication Number Publication Date
JP2005025305A true JP2005025305A (en) 2005-01-27
JP4261266B2 JP4261266B2 (en) 2009-04-30

Family

ID=34186279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003187411A Expired - Fee Related JP4261266B2 (en) 2003-06-30 2003-06-30 User-specific data creation server and creation program

Country Status (1)

Country Link
JP (1) JP4261266B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158602A (en) * 2006-12-21 2008-07-10 Olympus Imaging Corp Image handling method, image handling apparatus, and image handling system
JP2011119962A (en) * 2009-12-03 2011-06-16 Zaitaku Fukushi Shien Suishin Center:Kk Video play presenting system
JP2013191193A (en) * 2012-03-14 2013-09-26 Jdf Group Hybrid fairy tale picture book providing device and method in mobile terminal
WO2014203837A1 (en) * 2013-06-17 2014-12-24 Square Enix Holdings Co., Ltd. Image processing apparatus, image processing system, image processing method and storage medium
JP2015179404A (en) * 2014-03-19 2015-10-08 ヤフー株式会社 Information processor and program
JP2020144598A (en) * 2019-03-06 2020-09-10 大日本印刷株式会社 Picture book production system and picture book manufacturing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158602A (en) * 2006-12-21 2008-07-10 Olympus Imaging Corp Image handling method, image handling apparatus, and image handling system
JP2011119962A (en) * 2009-12-03 2011-06-16 Zaitaku Fukushi Shien Suishin Center:Kk Video play presenting system
JP2013191193A (en) * 2012-03-14 2013-09-26 Jdf Group Hybrid fairy tale picture book providing device and method in mobile terminal
WO2014203837A1 (en) * 2013-06-17 2014-12-24 Square Enix Holdings Co., Ltd. Image processing apparatus, image processing system, image processing method and storage medium
JP2016528563A (en) * 2013-06-17 2016-09-15 株式会社スクウェア・エニックス・ホールディングス Image processing apparatus, image processing system, image processing method, and storage medium
JP2015179404A (en) * 2014-03-19 2015-10-08 ヤフー株式会社 Information processor and program
JP2020144598A (en) * 2019-03-06 2020-09-10 大日本印刷株式会社 Picture book production system and picture book manufacturing method
JP7338173B2 (en) 2019-03-06 2023-09-05 大日本印刷株式会社 Picture book production system and picture book production method

Also Published As

Publication number Publication date
JP4261266B2 (en) 2009-04-30

Similar Documents

Publication Publication Date Title
JP7144571B2 (en) Information equipment and camera image sharing system
JP2008124755A (en) Photographing game machine and photographing game system
JP5278840B1 (en) Photo shooting game system, server, image providing method and image providing program.
JP2008270998A (en) Automatic photograph preparation device, automatic photograph preparation system, and automatic photography creating method
JP2005049939A (en) Image outputting device, image outputting method, image output processing program, image distributing server, and image distribution processing program
JP4261266B2 (en) User-specific data creation server and creation program
JP2002298122A (en) Information disclosure system
CN113014832B (en) Image editing system and image editing method
JP2019071587A (en) CV writing system
JP5802977B2 (en) Photo shooting game machine and photo shooting game system
JP2003259285A (en) Image processing system
JP7276031B2 (en) Imaging device and imaging system
JP2002082957A (en) System for providing electronic album service
JP2003125321A (en) Terminal for making album, system and method for making photographic album, and assisting program
JP2010009255A (en) Photographing game system, and photographing game machine and server used for the same
JP2001358927A (en) Image processing system and image processing method
JP2006086732A (en) Image processor and image processing method
JP4254391B2 (en) Image output device, image output processing program, and image distribution server
JP4216495B2 (en) Image editing device
JP2003122776A (en) System for generating album
JP7276032B2 (en) shooting system
JP2005286496A (en) Image processing method, image processing program, and image processing apparatus
JP2005109555A (en) Image output apparatus, picture output method, and picture output processing program
JP7263791B2 (en) Display system and captured image display method
JP3497061B2 (en) Image editing system of digital camera integrated with printer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081014

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090120

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees