JP3876573B2 - Net game apparatus and caricature image display control method - Google Patents

Net game apparatus and caricature image display control method Download PDF

Info

Publication number
JP3876573B2
JP3876573B2 JP26621299A JP26621299A JP3876573B2 JP 3876573 B2 JP3876573 B2 JP 3876573B2 JP 26621299 A JP26621299 A JP 26621299A JP 26621299 A JP26621299 A JP 26621299A JP 3876573 B2 JP3876573 B2 JP 3876573B2
Authority
JP
Japan
Prior art keywords
game
image
data
displayed
portrait image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26621299A
Other languages
Japanese (ja)
Other versions
JP2001087559A (en
Inventor
嘉行 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP26621299A priority Critical patent/JP3876573B2/en
Publication of JP2001087559A publication Critical patent/JP2001087559A/en
Application granted granted Critical
Publication of JP3876573B2 publication Critical patent/JP3876573B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、ネットワーク回線を介してゲームが実行可能なネットゲーム装置及び似顔絵画像表示制御方法に関する。
【0002】
【従来の技術】
従来から知られている携帯型のゲーム装置は、装置本体内にゲームプログラムが予め内蔵されたタイプのゲーム内蔵型ゲーム装置と、ゲームプログラムを内蔵したカートリッジが装置本体に装着されるタイプのゲーム装着型ゲーム装置とに大別される。
これら携帯型のゲーム装置は、家庭内に装置本体を据え置いて外部コントローラーに対する手動操作によりゲームを行うタイプの据え置き型ゲーム装置と比較して、野外または電車内でも、自由自在にゲームが楽しめるという利便性がある。
【0003】
【発明が解決しようとする課題】
しかしながら、前述した携帯型ゲーム装置にあっても、別なゲーム内容のゲームを楽しむためには、ゲーム内蔵型ゲーム装置の場合では、ゲーム内容が固定的なために別なゲーム装置を購入しなければならないという不便があり、また、ゲーム装着型ゲーム装置の場合では、ゲームプログラムを内蔵したカートリッジを別途購入しなければならないという不便がある。
【0004】
この発明は、ネットワーク回線を介してゲーム管理サーバーと接続しながらネットゲームを制御する各ゲームプレーヤーが作成した似顔絵画像とゲームの進行中に行うチャットとが互いに明確に対応付けて視認することが可能なネットゲーム装置及び似顔絵画像表示制御方法を提供することを目的とする。
【0006】
更に、この発明は、ゲームプレーヤーの心理状況、緊張感などをリアルタイムに、かつ、的確に把握することが可能なネットゲーム装置及び似顔絵画像表示制御方法を提供することをその他の目的とする。
【0007】
【課題を解決するための手段】
本発明は、このような課題を達成するために、次のような特徴を備えている。なお、次に示す手段の説明中、括弧書きにより実施の形態に対応する構成を1例として例示する。符号等は、後述する図面参照符号等である。
【0008】
請求項1記載の発明に係るネットゲーム装置は、ネットワーク回線(図2のネット30)を介してゲーム管理サーバー(図2のホストサーバー20)と接続されるネットゲーム装置(図1、図2のゲーム端末1A)において、複数の部分画像を記憶している記憶手段(図2のROM6;図3のROM6a)と、この記憶手段に記憶されている複数の部分画像の組み合わせからなる似顔絵画像を作成しこの作成された第1の似顔絵画像を表示させる第1の画像表示制御手段 ( 図2のCPU2;図23のF103;図33のH123; ) と、この第1の画像表示制御手段の制御により表示された第1の似顔絵画像の各部分画像を指定するための各画像指定データを、前記ゲーム管理サーバーへ向けて送信する第1の送信手段(図2のCPU2、送受信部9;図33のG118)と、前記第1の画像表示制御手段の制御により表示された第1の似顔絵画像の近傍位置に表示されるチャットデータを入力する入力手段(図2の入力部3;図23のF105;図33のH125)と、この入力手段により入力されたチャットデータを吹き出し付きで第1の似顔絵画像の近傍位置に表示させる第1のチャット表示制御手段 ( 図2のCPU2;図16のD104;図18;図23のF108;図33のH126 ) と、前記ゲーム管理サーバーを介して相手のゲーム端末の似顔絵画像を指定するための各画像指定データが送られてきた場合、この送られてきた各画像指定データを受信する第1の受信手段(図2のCPU2;図2の送受信部9;図33のH124)と、この第 1 の受信手段により受信された各画像指定データにより指定された各部分画像を前記記憶手段から読み出し、この読み出した各部分画像の組み合わせで作成された第2の似顔絵画像を表示させる第2の画像表示制御手段 ( 図2のCPU2;図23のF104;図33のH124 ) と、この第2の画像表示制御手段の制御より第2の似顔絵画像が表示された後に前記相手のゲーム端末から前記ゲーム管理サーバーを介してチャットデータが送られてきた場合、この送られてきたチャットデータを吹き出し付きで前記第2の似顔絵画像の近傍位置に表示させる第2のチャット表示制御手段(図2のCPU2;図16のD104;図23のF110;図33のH127)と、を備えていることを特徴とする。
【0009】
請求項1記載の発明によれば、記憶手段に記憶されている複数の部分画像の組み合わせからなる似顔絵画像を作成しこの作成された第1の似顔絵画像を表示させ、この表示された第1の似顔絵画像の各部分画像を指定するための各画像指定データを、ゲーム管理サーバーへ向けて送信したあとに、チャットデータを入力すると、この入力されたチャットデータを吹き出し付きで第1の似顔絵画像の近傍位置に表示させることができる。
また、ゲーム管理サーバーを介して相手のゲーム端末の似顔絵画像を指定するための各画像指定データが送られてきた場合、この送られてきた各画像指定データを受信すると、この受信された各画像指定データにより指定された各部分画像を記憶手段から読み出し、この読み出した各部分画像の組み合わせで作成された第2の似顔絵画像を表示させることができる一方で、この第2の似顔絵画像が表示された後に相手のゲーム端末からゲーム管理サーバーを介してチャットデータが送られてきた場合、この送られてきたチャットデータを吹き出し付きでその第2の似顔絵画像の近傍位置に表示させることができる。
このため、本発明によれば、ネットワーク回線を介してゲーム管理サーバーと接続しながら、ネットゲームを制御する各ゲームプレーヤーが作成した似顔絵画像とゲームの進行中に行うチャットとが互いに明確に対応付けて視認することが可能になるものである。
【0010】
請求項2記載の発明は、請求項1記載のネットゲーム装置において、前記第1の似顔絵画像の近傍位置は、当該第1の似顔絵画像の口元位置であることを特徴とする。
【0011】
請求項2記載の発明によれば、第1の似顔絵画像の近傍位置は、当該第1の似顔絵画像の口元位置であるために、ゲームプレーヤーが作成した似顔絵画像とゲームの進行中に行うチャットとがより一層に互いに明確に対応付けて視認することが可能になる。
【0012】
請求項3記載の発明は、前記第1の画像表示制御手段の制御により第1の似顔絵画像が表示された後に、ゲーム途中におけるプレーヤーの心理状態を検出する心理状態検出手段と、この心理状態検出手段により検出された心理状態情報に応じて、前記表示制御手段の制御により表示されている第1の似顔絵画像の形態を変更させる変更手段と、を備えていることを特徴とする。
【0013】
請求項3記載の発明によれば、第1の画像表示制御手段の制御により第1の似顔絵画像が表示された後に、ゲーム途中におけるプレーヤーの心理状態を検出し、この検出された心理状態情報に応じて、表示されている第1の似顔絵画像の形態を変更させることができる。
【0014】
請求項4記載の発明のる似顔絵画像表示制御方法は、ネットワーク回線を介してゲーム管理サーバーと接続されるネットゲーム装置に使用される似顔絵画像表示制御方法に関するものであり、複数の部分画像を記憶している記憶手段(図2の ROM 6)をアクセスし、この記憶手段に記憶されている複数の部分画像の組み合わせからなる似顔絵画像を作成しこの作成された第1の似顔絵画像を表示させる第1の画像表示制御ステップ ( 図33の H 123 ) と、この第1の画像表示制御ステップの制御により表示された第1の似顔絵画像の各部分画像を指定するための各画像指定データを、前記ゲーム管理サーバーへ向けて送信する第1の送信ステップ(図33の G 118)と、前記第1の画像表示制御ステップの制御により表示された第1の似顔絵画像の近傍位置に表示されるチャットデータが入力されると、この入力されたチャットデータを吹き出し付きで第1の似顔絵画像の近傍位置に表示させる第1のチャット表示制御ステップ ( 図33の H 126 ) と、前記ゲーム管理サーバーを介して相手のゲーム端末の似顔絵画像を指定するための各画像指定データが送られてきた場合、この送られてきた各画像指定データを受信する第1の受信ステップ(図33の H 124)と、この第 1 の受信ステップにより受信された各画像指定データにより指定された各部分画像を前記記憶手段から読み出し、この読み出した各部分画像の組み合わせで作成された第2の似顔絵画像を表示させる第2の画像表示制御ステップ ( 図33の H 124 ) と、
この第2の画像表示制御ステップの制御より第2の似顔絵画像が表示された後に前記相手のゲーム端末から前記ゲーム管理サーバーを介してチャットデータが送られてきた場合、この送られてきたチャットデータを吹き出し付きで前記第2の似顔絵画像の近傍位置に表示させる第2のチャット表示制御ステップ(図33の H 127)と、を備えていることを特徴とする。
【0015】
請求項5記載の発明のる似顔絵画像表示制御方法は、前記第1の似顔絵画像の近傍位置は、当該第1の似顔絵画像の口元位置である。
【0016】
請求項6記載の発明のる似顔絵画像表示制御方法は、前記第1の画像表示制御ステップの制御により第1の似顔絵画像が表示された後に、ゲーム途中におけるプレーヤーの心理状態を検出する心理状態検出ステップと、この心理状態検出ステップにより検出された心理状態情報に応じて、前記表示制御ステップの制御により表示されている第1の似顔絵画像の形態を変更させる変更ステップと、を備えていることを特徴とする。
請求項4−6の発明によれば、請求項1−3の発明の場合と同様な効果を奏することができる。
【0035】
【発明の実施の形態】
以下、図1〜図37を参照して本発明に係るゲームネットワークシステム、及びネットゲーム装置の実施の形態を詳細に説明する。
【0036】
[第1の実施の形態]
まず、図1〜図33を参照して、第1の実施の形態におけるネットゲーム装置、及びネットゲーム装置1を利用したゲームネットワークシステムについて説明する。
【0037】
第1の実施の形態のゲームネットワークシステムは、当該ゲームネットワークシステムにおいて通信接続されて使用されるネットゲーム装置(以下、ゲーム装置1と呼ぶ。特に自己の扱うゲーム端末1をゲーム端末1Aと呼び、通信先の自己以外の者が扱うゲーム端末1をゲーム端末1Bと呼ぶ。)と、通信ゲームの管理及びゲームプログラムの配信をするためのホストサーバ20と、からなる(図2参照)。
【0038】
ゲーム端末1は、例えば、携帯電話やPHS(Personal Handyphone System)等のデータ通信機能を搭載しており、送受信部9からアンテナ10を経て、インターネット30へ接続し、ホストサーバー20へアクセスすることで、ゲームプログラムデータを入手したり、入手したゲームプログラムデータにしたがって、遠隔地にある他のゲーム端末1Bと通信接続した状態でゲームをプレーすることができる。また、このゲーム端末1は、音声入力部36Aおよび音声発生部36Bを備えており、通話時は、使用者によって音声入力部36Aから入力された音声データを、送受信部9から基地局KK(図34参照)を経てネットワーク回線であるインターネット30を介して通話先の相手に送信し、またインターネット30を介して基地局KKを経て通話相手から送信された音声データを送受信部9において受信して、音声発生部36Bから発生させる。
【0039】
まず構成を説明する。
図1は、ゲーム端末1の外観を示す上面図である。
【0040】
ゲーム端末1は、左右に開く手帳式の筐体を有しており、左操作面には、電源のオン、オフを行う「ON」キー3a、「OFF」キー3bの他、似顔絵画像を作成する際に操作される「モンタージュ作成」キー3c、自己の操作によって部分画像を選択して似顔絵画像を作成する際に操作されるパーツ作成キー3d,バーコードを読み取って似顔絵画像を作成する際に操作されるバーコードキー3e、似顔絵作成に際し対象人物「自分」あるいは「相手」を指定する「自分」キー3f、「相手」キー3g、似顔絵画像作成に際し予め記憶された各部分画像の基本的組み合わせからなる基本モンタージュを選択する基本モンタージュ選択キー3h,3i「△,▽」、似顔絵画像作成に際し変更対象となるパーツ(部位)を指定するためのパーツ指定キー3j,3k「↑,↓」、前記変更対象として指定された被変更パーツの部分画像を選択するための部分画像選択キー3l,3m「←,→」、作成された似顔絵画像を保存する際に操作される「登録」キー3n、「スタート」キー3o、プレーヤーの脈拍数、発汗量などの生体情報を取得するためのセンサである生体センサ11、バーコード読み取り部12、音声入力部36A、及び音声発生部36Bが設けられる。
【0041】
また、前記ゲーム端末1の左操作面には表示部4、及びカメラ13が設けられる。表示部4は例えば液晶ドットマトリクス方式の表示画面であり、この表示部4には、「自分」側の似顔絵画像表示エリア、及び「相手」側の似顔絵画像表示エリアが備えられる。またカメラ部13は、CCDカメラ等によって構成され、撮影キー(図示省略)の操作によって外部の画像を撮影し、画像データとして取り込むことができる。例えば人物の顔画像等を画像データとして取り込むことが可能である。
【0042】
一方、前記ゲーム端末1の右操作面には、数値入力を行う際に操作されるテンキー3p「0〜9」、演算子キー3q「+,−,×,÷,=」、各種データ入力用のアルファベットキー3r「A〜Z」が設けられる。
【0043】
図2は、ゲーム端末1A,1Bとホストサーバー20とがインターネット30を介して通信接続されたゲームネットワークシステムと、ゲーム端末1Aの電子回路の構成とを示すブロック図である。
【0044】
図2に示すようにゲーム端末1Aは、CPU(Central Processing Unit)2、入力部3、表示部4、表示駆動回路5、ROM6、RAM7、合成RAM8、送受信部9、アンテナ部10、生体センサ11、バーコード読み取り部12、カメラ部13、及び音声入力部36A、及び音声発生部36Bから構成される。ゲーム端末1Bも同様の構成である。
【0045】
またホストサーバー20は、図2に示すように、ゲームプログラムデータを格納しているゲームプログラムデータROM22と、通信接続されたゲーム端末1A,1Bに対して要求されたゲームプログラムデータを配信するゲーム配信部23と、ゲーム端末1Aとゲーム端末1Bとの間で各種データ(ゲーム内容データ、モンタージュデータ、ゲームの制御データ等を含む。)を転送する転送部24と、ゲームプログラムデータROM22に記憶されているゲームプログラムデータの要求先への配信処理や、受信したゲームの制御データ等の転送処理を制御するCPU21とから構成される。
【0046】
なお、図2では、通信接続の形態をインターネットによって接続される例で示したが、これに限ることなく、専用の通信回線や、有線あるいは無線で構成されるLAN(Local Area Network)などの各種ネットワーク回線を含む。
【0047】
ゲーム端末1(1A,1B)のCPU2は、前記ゲーム端末1の左右操作面に設けられた入力部3から供給されるキー操作信号に基づき、ROM6の所定の記憶領域に格納されている各種制御プログラムを読み出してRAM7に一時格納し、当該プログラムに基づく各種処理を実行してゲーム端末1の各部を集中制御する。すなわち、CPU2は、前記読み出した所定プログラムに基づいて各種処理を実行し、その処理結果をRAM7に格納するとともに、表示駆動回路5を介して表示部4に表示させる。
【0048】
また、CPU2は、モンタージュ作成キー3cやパーツ作成キー3d、バーコードキー3eといった、各種機能キーの操作に応じて、対応する処理プログラムをROM6から読み出し、各種処理を実行する。例えば、似顔絵画像作成処理(図8〜図10参照)、ゲーム種類選択処理(図11〜図12参照)、ゲーム仲間募集処理(図13〜図15参照)、対戦ルール決定処理(図16〜図19参照)、ゲームダウンロード処理(図20〜図22参照)、ゲーム進行処理(図23〜図30参照)等を実行する。
【0049】
似顔絵画像作成処理(図8〜図10参照)において、CPU2は、自己の操作で部分画像を指定して似顔絵画像を作成するパーツ作成モード、あるいは印刷されているバーコードを読み取り、解読してバーコードに対応するモンタージュデータを取得して似顔絵画像を作成するバーコードモードのいずれかを実行する。
【0050】
パーツ作成モードでは、ROM6の基本パーツROM6aに格納されている各部位の部分画像から任意の部分画像が選択されると、CPU2は選択された各部分画像のパーツNo.をモンタージュデータとしてRAM7に記憶するとともに、このモンタージュデータに対応した部分画像を基本パーツROM6aから読み出して合成RAM8に転送し、各部分画像を組み合わせて似顔絵画像を作成し、表示部4に表示させる。
一方、バーコードモードでは、CPU2はゲーム端末1を移動操作することにより、バーコード読み取り部12によって読み取られたバーコードデータを解読してモンタージュデータを取得し、RAM7に記憶するとともに、このモンタージュデータに対応した部分画像を基本パーツROM6aから読み出して合成RAM8に転送し、各部分画像を組み合わせて似顔絵画像を作成し、表示部4に表示させる。
さらに、作成されたモンタージュデータを、送受信部9を介してホストサーバー20に送信する。
【0051】
ゲーム種類選択処理(図11〜図12参照)において、CPU2は、ホストサーバー20から送信された、プレー可能なゲームの種類に関するデータを受信すると、このゲームの種類データの中からプレーするゲームの選択を催促する催促表示を表示部4に表示する。ゲームの種類が選択されると選択されたゲームのゲームNo.をホストサーバー20へ送信する。
【0052】
ゲーム仲間募集処理(図13〜図15参照)において、CPU2は、ホストサーバー20から送信された、ゲーム仲間募集状況に関するデータを受信すると、このゲーム仲間募集状況の中から参加しようとするゲームの募集状況No.の選択を催促する催促表示を表示部4に表示する。ゲームの募集状況No.が選択されると選択されたゲームの募集状況No.をホストサーバー20へ送信する。また、応募の成否データがホストサーバー20から送信されると、受信した成否データを表示部4に表示する。
【0053】
対戦ルール決定処理(図16〜図19参照)において、CPU2は、ホストサーバー20から送信された、対戦ルールの提示データを受信すると、この提示データに基づいて、対戦者間でチャット(話し合い)により対戦ルールを決定する。すなわち、似顔絵画像作成処理において各ゲーム端末1A,1Bにおいて作成されたモンタージュデータを、ホストサーバー20を介して受信し、モンタージュデータに基づいて自己の似顔絵画像及び相手の似顔絵画像を表示部4に表示させる。また、似顔絵画像が表示された状態で入力部3から入力されるチャットデータを送信し、ホストサーバー20からは相手のチャットデータを受信する。このようなチャットを繰り返し、対戦者全員の承諾を得るとその内容で対戦ルールが決定される。
【0054】
ゲームダウンロード処理(図20〜図22参照)において、CPU2は、ホストサーバー20からゲームプログラムデータをダウンロードするか否かを問うダウンロード要否画面を表示し、ダウンロードが必要であるとされた場合は、まずホストサーバー20からそのゲームの料金データを受信し、受信した料金データを表示部4に表示する。そして入力部3の操作によって前記料金データに対応する仮想通貨データを送信し、ホストサーバー20からゲームプログラムデータをダウンロードする。
【0055】
ゲーム進行処理(図23〜図30参照)において、CPU2は、入手したゲームプログラムデータに基づいてゲームを実行する。まず、生体センサ11によってプレーヤーの生体情報を取得すると、取得した生体情報をRAM7に記憶するとともに、ホストサーバー20に送信し、対戦相手のゲーム端末1Bに転送する。また、ホストサーバー20を介してゲーム内容データや相手のモンタージュデータ、生体情報等のゲームデータを受信する。CPU2は、自己のモンタージュデータ及び相手のモンタージュデータから、自己及び相手の似顔絵画像N1,N2を作成して表示部4に表示する。ゲームの進行途中やゲーム結果の段階では、それぞれゲームの優劣または順除といったゲーム内容データや、プレーヤーの生体情報に応じて似顔絵画像N1,N2の表情や態度を変更して表示させる。
【0056】
入力部3は、前記「ON」キー3a、「OFF」キーb、「モンタージュ作成」キー3c、パーツ作成キー3d、バーコードキー3e、「自分」キー3f、「相手」キー3g、基本モンタージュ選択キー3h,3i「△,▽」、パーツ指定キー3j,3k「↑,↓」、部分画像選択キー3l,3m「←,→」、「登録」キー3n、「スタート」キー3o、テンキー3p、演算子キー3q、アルファベットキー3r、及びオートダイヤルキー3sを備え、押下したキーの押下信号をCPU2に出力する。オートダイヤルキー3sは、ホストサーバー20に対して各種データを送信する際に押下操作されるキーであり、このオートダイヤルキー3sが押下操作されると、送受信部9に備えられた電話自動発信部によって自動的にホストサーバー20へ回線を接続する。
【0057】
ROM6は、前記CPU2がゲーム端末1の各種動作を制御するための各種制御プログラム等を格納する他、基本パーツROM6a、表情パーツROM6b、メッセージROM6c、等の各種ROMを備えている。
【0058】
図3は、基本パーツROM6aに格納されている各部分画像の一例を示す図であり、図4は、表情パーツROM6bに格納されている各部分画像の一例を示す図であり、図5は、メッセージROM6cに格納されている各メッセージ内容の一例を示す図である。
【0059】
基本パーツROM6aは、図3に示すように、大別して顔用基本パーツROMと全身用基本パーツROMとがある。図3(A)は顔用基本パーツROMの記憶内容の一例を示しており、例えば、輪郭、髪、目、鼻、口といった、似顔絵画像を構成する各部分画像について、それぞれパーツNo.1〜20として20種類の部分画像が記憶されている。図3(B)は全身用基本パーツROMの記憶内容を示しており、顔用基本パーツROMと同様に、顔、胴、両手、両足といった全身画像を構成する各部分画像について、それぞれパーツNo.1〜No.20として20種類の部分画像が記憶されている。
【0060】
表情パーツROM6bは、ゲーム進行途中の状態に応じた似顔絵画像を構成する部分画像を格納している。図4(A)は「怒る」状態において使用される部分画像を記憶したゲーム進行途中表示用パーツROMの記憶内容の一例を示しており、ゲーム進行途中の所定の段階において取得される生体情報やゲーム進行等に応じて変更表示される、目及び口の部分画像となる部分画像のうち、「怒る」状態における部分画像がパーツNo.101,102,…として記憶されている。図4(B)に示すゲーム進行途中表示用パーツROMには、同様にゲーム進行途中に変更表示される目及び口の部分画像のうち、「困る」状態における部分画像がパーツNo.111,112,…として記憶されている。また、図4(C)に示すゲーム進行途中表示用パーツROMには、「驚く」状態における部分画像がパーツNo.121,122,…として記憶されている。さらに、ゲームの結果の段階で勝者側の似顔絵画像の背景に組み合わせるための勝背景画像パターン(同図中、「部位:その他」欄)が記憶されている。
【0061】
メッセージROM6cは、ゲームの進行途中あるいは進行結果の段階において、その時の状態に応じて表示あるいは音声出力されるメッセージ内容を格納している。
【0062】
図5に示すように、メッセージ内容は、ゲーム進行途中の状態と、状態に対応して参照する表情パーツROM6bと対応付けて記憶されている。
例えば、「怒る」状態では、表情パーツROM6bのパーツNo.101,102,…(図4(A))が指定され、メッセージ内容として「むかつく!!」が記憶されている。「困る」状態では、表情パーツROM6bのパーツNo.111,112,…(図4(B))が指定され、メッセージ内容として「困っています」が記憶されている。「驚く」状態では、表情パーツROM6bのパーツNo.121,122,…(図4(C))が指定され、メッセージ内容として「これは!!」が記憶されている。
【0063】
CPU2は、ゲーム進行の所定段階で生体センサ11から取得された生体情報、あるいはゲームの進行状況に応じて、「怒る」、「困る」、「驚く」等の状態を決定し、決定した状態に対応したメッセージ内容をメッセージROM6cから読み出して表示部4に表示する、あるいは、音声発生部36Bから音声出力するとともに、状態に対応した表情パーツROM6bから対応する部分画像を読み出して、似顔絵画像の表情を変更し、RAM7に格納するとともに、表示部4に表示させる。
【0064】
図6は、RAM7及び合成RAM8に設定される各種データ格納領域の構成を示す図である。
RAM7は、指定されたアプリケーションプログラム、入力指示、入力データ及び処理結果等を一時格納するワークメモリの他、図6に示すように、登録時モンタージュデータ格納領域7a、送信者IDデータ格納領域7b、ゲームの種類データ(ゲームNo.)格納領域7c、ゲーム仲間募集データ(募集状況No.)格納領域7d、ゲームプログラムデータ格納領域7e、合成RAM8、チャットデータ格納領域7f、対戦ルールデータ格納領域7g、生体情報格納領域7h、ゲーム内容データ格納領域7i、及びゲーム進行途中でのモンタージュデータ格納領域7kを有する。
【0065】
登録時モンタージュデータ格納領域7aには、後述する似顔絵画像作成処理(図8〜図10)において作成される似顔絵画像の各パーツ(輪郭、髪、目、鼻、口)のパーツNo.であるモンタージュデータが格納される。格納されるモンタージュデータには、自己(ゲーム端末1A)の作成した似顔絵画像のモンタージュデータ(図6の「対象者:自分」欄)と、通信相手のゲーム端末1Bにおいて作成され、ホストサーバー20を介して受信した相手の似顔絵画像のモンタージュデータ(図6の「対象者:相手」欄)と、がある。
【0066】
送信者IDデータ格納領域7bには、自己のゲーム端末の送信者IDが記憶される。送信者IDは、例えば、ホストサーバー20から与えられるIDコードや登録コード、または個々のゲーム端末1A,1Bに個別に付与されている個別コード(シリアルナンバー等)である。ゲームの各段階において、ホストサーバー20に各種データを送信する際に、当該送信者IDがともに送信される。
【0067】
ゲームの種類データ格納領域7cには、後述するゲーム種類選択処理(図11〜図12)において選択されたゲームの種類を表すデータであるゲームNo.が記憶される。
【0068】
ゲームの仲間募集データ(募集状況No.)格納領域7dには、後述するゲーム仲間募集処理(図13〜図15)において指定した募集状況No.が格納される。
【0069】
ゲームプログラムデータ格納領域7eには、後述するゲームダウンロード処理(図16〜図19)において、ホストサーバー20からダウンロードしたゲームプログラムデータが格納される。
【0070】
合成RAM8には、モンタージュデータに応じた各部分画像が基本パーツROM6aあるいは表情パーツROM6bから読み出された各部分画像の合成画像(似顔絵画像)が格納される。
【0071】
チャットデータ格納領域7fには、後述する対戦ルール決定処理(図16〜図19)やゲーム進行処理(図23〜図30)等において、プレーヤーによって入力されたチャットデータや送信されたチャットデータが一時格納される。
【0072】
対戦ルールデータ格納領域7gには、後述する対戦ルール決定処理(図16〜図19)において決定された対戦ルールデータが格納される。
【0073】
生体情報格納領域7hには、ゲーム進行処理(図23〜図30)において、生体センサ11から取得される生体情報(脈拍数データ、発汗量データ、体温データ等)が格納される。
【0074】
ゲーム内容データ格納領域7iには、ゲーム進行処理(図23〜図30)において、ホストサーバー20から送信されたゲームの優劣や順位等といったゲーム内容データが格納される。
【0075】
ゲーム進行途中でのモンタージュデータ格納領域7kには、ゲームの進行途中において、ゲーム内容データや生体情報等に応じて変更されるモンタージュデータが格納される。
【0076】
送受信部9は、携帯電話、PHS(Personal Handy Phone System)等の電話手段によって構成されている。入力部3のオートダイヤルキー3sが操作されると、送受信部9の電話自動発信部は所定のプロトコルを用いてホストサーバー20へ自動的に回線を接続し、各種データを送信する。またホストサーバー20から送信される各種データを受信する。
【0077】
送受信されるデータには、例えば、ホストサーバー20から配信されるゲームプログラムデータや他のゲーム端末1Bからホストサーバー20を介して転送されるゲーム内容データ、ゲームの制御データ、生体情報、及びモンタージュデータ等が含まれる。また送受信部9は前記各種データをホストサーバー20へ送信する際、ゲーム端末1の送信者IDをともに送信する。
【0078】
生体センサ11は、プレーヤーの脈拍数や発汗状況または体温等の生体情報を計測するためのセンサである。図11に示すように、左操作面に設けられた生体センサ11のタッチ面にプレーヤーの指等が触れられると、前記生体情報を検出する。
【0079】
バーコード読取部12は、ゲーム端末1本体の左操作面下部に設けられ、何らかの物品等に印刷されているバーコードを光学的に読み取る装置である。入力部3のバーコードキー3eが操作されるとCPU2のバーコード読み込み処理によって前記バーコードを読み込み、バーコード解読処理によって、読み込んだバーコードをモンタージュデータに変換して、CPU2に送る。バーコード解読処理によって得られたモンタージュデータはRAM7のモンタージュデータ格納領域7aに格納される。
【0080】
次に動作を説明する。
以下の説明では、はじめに(1)ゲーム端末1(1A,1B)において実行される各種処理について説明し、次に、(2)ゲームネットワークシステムのホストサーバー20で実行される各種処理について、ゲーム端末1(1A,1B)における処理との関係に触れながら説明する。
【0081】
(1)ゲーム端末1(1A、1B)において実行される各種処理について
図7は、ゲーム端末1において実行されるゲームの全体の処理の流れを説明するフローチャートである。まず、図7を参照してゲーム全体の流れの概略を説明し、その後、各処理の流れについて詳述する。
【0082】
まず、ゲーム端末1のモンタージュ作成キー3cのキー操作信号が入力されるとCPU2は、後述する似顔絵画像作成処理(図8〜図10参照)を開始する。似顔絵画像作成処理は、部分画像を合成して似顔絵画像を作成する処理である。例えば、入力部3のキー操作によって指定されるパーツNo.の部分画像の合成や、バーコード読み取り部12によって読み取られたバーコードNo.に対応するパーツNo.の部分画像の合成等によって似顔絵画像が作成される。CPU2は、作成された似顔絵画像を構成する各部分画像を指定するデータである画像指定データ(以下、モンタージュデータと呼ぶ。)を、当該ゲーム端末1の送信者IDとともに送受信部9を介してホストサーバー20へ送信する(ステップS1)。モンタージュデータは、似顔絵画像を構成する各パーツの部分画像のパーツNo.である。
【0083】
次に、CPU2は、後述するゲーム種類選択処理(図11、図12参照)を開始する。ゲーム種類選択処理は、プレーヤーの遊びたいゲームの種類を選択する処理である。ホストサーバー20から受信した複数種類のゲームのうち、遊びたいゲームの種類が選択されると、CPU2は選択されたゲームの種類を示すゲームNo.を送受信部9を介してホストサーバー20へ送信する(ステップS2)。
【0084】
そして、CPU2は、後述するゲーム仲間募集処理(図13、図14、図15参照)を開始する。ゲーム仲間募集処理は、ゲームネットワークシステムに通信接続している他のゲーム端末1Bとの間でゲームを実行するために、ホストサーバー20からゲームの仲間募集状況を受信し、受信した募集状況の中から参加したいゲームに応募する処理である。ゲーム端末1AのCPU2は、ホストサーバー20からゲーム仲間募集状況データを受信し、参加したいゲームについての募集状況No.を送信者IDとともホストサーバー20へ返信することによってゲームへの参加を応募する(ステップS3)。ゲームへの参加の応募が成功する(ゲーム参加が認められる)と、後述する対戦ルール決定処理を開始する。
【0085】
対戦ルールの決定処理(図16〜図19参照)は、ゲームの参加者同士のチャット形式でこれから実行しようとするゲームのルールを決定する処理である。ゲーム端末1Aは他のゲーム端末1Bとの間でホストサーバー20を介して互いのチャットデータを送受信する(ステップS4)。ゲーム参加者全員の合意の下でルールを決定することができる。
【0086】
さらに、CPU2は、使用するゲームプログラムについてのゲームダウンロード処理(図20〜図22参照)を開始する。後述するゲームダウンロード処理は、前記ゲーム種類選択処理において選択されたゲームがゲーム端末1に格納されていない場合にホストサーバー20からゲームプログラムデータをダウンロードし、その料金を仮想通貨データを利用してホストサーバー20に支払う処理である(ステップS5)。
【0087】
上述した似顔絵画像作成処理、ゲーム種類選択処理、ゲーム仲間募集処理、対戦ルール決定処理、ゲームダウンロード処理が終了した状態で、ゲーム端末1Aのスタートキー3oが押下されると(ステップS6;Yes)、ゲームの進行処理を実行する(図23〜図30参照)。ゲーム進行処理とは、例えば、ゲームプログラムデータに応じたゲームの実行、及びゲーム進行の各段階における生体情報の取得、似顔絵画像の表示、似顔絵画像の形態変更等の処理である(ステップS7)。
【0088】
次に上述の各処理について、それぞれ詳細に説明する。
まず、図8〜図10を参照して似顔絵画像作成処理を説明する。
図8は、似顔絵画像作成処理を説明するフローチャートであり、図9は、合成・表示処理を説明するフローチャートであり、図10(A)は、作成された似顔絵画像の例を示す図である。図10(B)は、バーコード読取部12にてバーコード上を移動操作して似顔絵画像を作成する場合の例を示す図である。
【0089】
図8に示す似顔絵画像作成処理において、まず、入力部3のモンタージュ作成キー3cが操作され、CPU2が当該キー操作信号を検出すると(ステップA101;Yes)、モンタージュ作成モードに設定される。
【0090】
このモンタージュ作成モードにおいて、パーツ作成キー3dが操作されると(ステップA102)、パーツを指定することで似顔絵画像を作成するパーツ作成モードに設定される。CPU2はモンタージュデータの格納先としてモンタージュデータ格納領域7aの「自分」側のモンタージュデータ格納領域を指定する(ステップA103)。
【0091】
すると、まず、CPU2は、基本パーツROM6aから第1の基本モンタージュを構成する各部分画像「No.1」を読み出す(ステップA104)。
【0092】
一方、ステップA102においてパーツ作成キー3dが操作されない場合は(ステップA102;No)、バーコードキー3eが操作されたか否かが判断される。バーコードキー3eが操作された場合は(ステップA105;Yes)、バーコードを読み取ってモンタージュデータに変換し似顔絵画像を作成するバーコード作成モードに設定される。
【0093】
このバーコード作成モードによれば、自分が似顔絵画像を作成する手間を省き、ネットゲームの際に表示される似顔絵画像として、有名人(例えば、外人俳優等のモンタージュ画像)、子供モンタージュ画像、地域別モンタージュ画像を迅速かつ確実に作成することができる。また、自分の顔画像をネットゲームに表示するのも恥ずかしいと感じているゲームプレーヤーにとって、自分の似顔絵画像として有名人等の似顔絵画像を用いることができ、有効である。
【0094】
CPU2はモンタージュデータの格納先としてモンタージュデータ格納領域7aの「自分」側のモンタージュデータ格納領域を指定する(ステップA106)。その後、バーコードデータの読み込み処理を行う。この処理では、何らかの物品に印刷されたバーコードがゲーム端末1に設けられたバーコード読取部12による光学的なデータ読み取り方法により読み取られる。
【0095】
または、図10(B)に示すように、似顔絵画像収集用書籍35を各ゲームプレーヤーに配布または販売しておけば、この書籍35の表面35aには、予め複数の似顔絵画像N21が印刷されているとともに、これら似顔絵画像N21を作成する際に使われるモンタージュデータを示すバーコードN20が対応づけて印刷されているので、この各バーコードN20のなかから希望するバーコードN20上を、ゲーム端末1に設けられたバーコード読取部12を押し当てながら移動操作するのみで、このバーコードN20は、ゲーム端末1に設けられたバーコード読取部12による光学的なデータ読み取り方法により読み取られる。
【0096】
バーコードデータの読み取りが完了すると(ステップA107)、CPU2はバーコード解読処理を開始する。このバーコード解読処理では、読み取ったバーコードデータが、似顔絵画像を構成する部分画像のパーツNo.であるモンタージュデータに変換される(ステップA108)。バーコード解読処理が完了したと判断されると(ステップA109;Yes)、取得したモンタージュデータをRAMのモンタージュデータ格納領域7aに格納する(ステップA110)。
【0097】
次にCPU2は、ステップA104において読み出された基本パーツNo.1の各部分画像、あるいは、ステップA106〜ステップA110においてバーコードデータから取得したモンタージュデータに対応する各部分画像を、合成RAM8に転送して合成し、基本モンタージュとして表示部4に表示させる(ステップA111)。
【0098】
ここで図9を参照して合成・表示処理について説明する。
基本パーツROM6aに記憶されている各部分画像のパーツNo.が指定されると、CPU2は、そのパーツNo.に対応した部分画像を読み出して自分側のモンタージュデータ格納領域7aに格納するとともに、合成RAM8に転送する(ステップA201〜A205)。この場合、合成RAM8では第1の基本似顔絵画像(基本モンタージュ)を構成する各部分画像が合成され、表示部4に表示される(ステップA206;図10(A)参照)。
【0099】
ここで、入力部3の基本モンタージュ選択キー「△,▽」キーが操作されると(ステップS112)、基本モンタージュを指定する各パーツNo.が、「No.1」から「No.2」に変更される(ステップA113)。すると、前記基本モンタージュとして指定された部分画像を示すパーツNo.「2」に応じて、基本パーツROM6aに記憶された各部分画像(この場合、全てパーツNo.「2」)を読み出し、合成・表示処理を実行して第2の基本モンタージュを表示部4に表示する。
【0100】
すなわち、基本モンタージュ選択キー3h,3i「△,▽」が操作されると、CPU2は、ステップA111〜A113を繰り返し実行し、パーツNo.「1」〜「20」として記憶されている20種類の基本モンタージュが順次変更合成されて表示される。これによりプレーヤーは自分の希望する似顔絵画像に近い基本モンタージュを選択して表示部4に表示させる。
【0101】
パーツ指定キー3j,3k「↑,↓」が操作されると(ステップA114;Yes)、パターン変更の対象パーツを任意のパーツに変更する(ステップA115)。例えば、前記ステップA111〜ステップA113の処理により、表示部4に表示されている、プレーヤーの希望する似顔絵画像に近い基本モンタージュを構成する各部分画像のうち、ある特定の部分画像を他の異なる部分画像に変更する場合には、パーツ指定キー3j,3k「↑,↓」を操作することで、前記変更対象パーツを指定する。
【0102】
その後、部分画像選択キー3l,3m「←,→」が操作されると(ステップA116;Yes)、前記変更対象パーツに対応する部分画像のパーツNo.を変更する(ステップA117)。CPU2は変更選択されたパーツNo.に対応する部分画像を基本パーツROM6aから読み出し、合成・表示処理を実行して部分画像が変更されたモンタージュを表示部4に表示する(ステップA111)。
【0103】
これにより、プレーヤーは、表示部4に予め選択表示させた基本モンタージュのうちの、希望の部分画像(変更対象パーツ)について、他の部分画像に変更することができる。さらに、他のパーツを指定して部分画像を変更する場合は、ステップA114〜ステップA117の処理を繰り返し、パーツ指定キー3j,3k「↑,↓」の操作、及び部分画像選択キー3l,3m「←,→」の操作によって、変更対象パーツについての部分画像を変更し、合成・表示処理を実行して、変更されたモンタージュを表示部4に表示させる。
【0104】
そしてプレーヤーが希望する似顔絵画像が得られた場合には、入力部3の「登録」キー3nを操作すると(ステップA118;Yes)、部分画像の合成処理が完了し、合成RAM8にて合成保持されている似顔絵画像に対応する各部分画像のパーツNo.がモンタージュデータとしてRAM7の登録時モンタージュデータ格納領域7aに格納される(ステップA119)。
【0105】
この似顔絵画像作成処理では、例えば図10(A)に示すような似顔絵画像N1を得ることができる。この図10(A)に示す似顔絵画像N1は、基本パーツROM6aから、輪郭、髪、目、口についてはパーツNo.が「No.1」、鼻についてはパーツNo.が「No.2」の部分画像が選択されて合成されている。
【0106】
その後、CPU2は、モンタージュデータ格納領域7aに格納されているモンタージュデータを、送信者IDとともに、送受信部9を介してホストサーバー20へ送信する(ステップA120)。ホストサーバー20では、受信したモンタージュデータ、及び送信者IDを一時保存するとともに、モンタージュデータを受信した旨の確認メッセージを送信元(ゲーム端末1)に返信する。ゲーム端末1は、確認メッセージを受信すると、その確認メッセージを表示部4に表示する(ステップA121)。
【0107】
次に、図11〜図12を参照してゲーム種類選択処理を説明する。
図11は、ゲーム種類選択処理を説明するフローチャートであり、図12は、ゲーム選択画面4aの表示例を示す図である。
【0108】
図11に示すゲーム種類選択処理において、まず、CPU2はホストサーバー20から選択可能なゲームの種類のデータを受信して、図12に示すようなゲーム選択画面4aを表示部4に表示する(ステップB101)。
【0109】
すなわち、ゲーム端末1からホストサーバー20に対して、プレー可能なゲームの種類のデータを要求すると、ホストサーバー20は、ゲームプログラムデータROM22に記憶されているゲームプログラムの中からプレー可能なゲームの種類のデータ(ゲームNo.、ゲーム名称を含む。)をゲーム端末1に対して返信する。図12に示すゲーム選択画面4aには、「次のゲームから選んで下さい」という選択を催促するメッセージM1と、ゲームNo.「1」の「トランプゲーム」の種類表示G1、ゲームNo.「2」の「楽器演奏ゲーム」の種類表示G2、ゲームNo.「3」の「カーレースゲーム」の種類表示G3、…といったゲームの種類が複数表示されており、選択するゲームを指示するポインタPが表示される。
【0110】
その後、入力部3のパーツ指定キー3j,3k「↑,↓」の操作によって、前記種類表示G1,G2,…のうち、プレーヤーのプレーしたいゲームの種類表示に対してポインタPが移動され、選択を確定するため「登録」キー3nが操作されると(ステップB102;Yes)、CPU2は選択したゲームのゲームNo.をRAM7のゲームの種類格納領域7cに格納する(ステップB103)。さらにCPU2は、選択されたゲームのゲームNo.を送信者IDとともにホストサーバー20へ送信する(ステップB104)。
【0111】
そして、ホストサーバー20では、ゲームプログラムデータの要求を受信すると、要求を受信した旨の確認メッセージを自動作成して送信元へ返信する。
ゲーム端末では、ホストサーバー20から配信された受信確認のメッセージを受信すると、受信したメッセージを表示部4に表示する(ステップB105)。
【0112】
次に、図13〜図15を参照してゲーム仲間募集処理を説明する。
図13は、ゲーム仲間募集処理を説明するフローチャート、図14は、ゲーム仲間の募集状況の表示例を示す図、図15は、ゲーム応募の成否に関するメッセージ表示の表示例を示す図である。
【0113】
図13に示すゲーム仲間募集処理において、ゲーム端末1は、ホストサーバー20に対して、ゲーム仲間募集状況の配信を要求すると、ホストサーバー20は、配信要求を受けた時点で仲間を募集しているゲームの種類や、そのゲーム開始時間、募集人数等のデータを要求元に送信する。
【0114】
ゲーム端末1は、送受信部9を介して、ホストサーバー20からゲーム募集状況のデータを受信すると、受信した募集状況データを表示部4に表示する(ステップC101;図14参照)。
【0115】
図14は、受信したゲーム仲間の募集状況を表示した表示画面4bの例を示している。ゲーム仲間の募集状況の表示画面4bには、ゲームの種類、ゲーム開始時刻、定員(募集人数)等の情報が表示される。図14に示す例では、募集状況No.「1」には、「ABCゲーム第1試合 PM3:00〜 定員2名(あと2名)」という募集状況B1、ゲーム仲間募集No.「2」には、「XYZゲーム第1試合 PM3:00〜 定員4名(あと1名)」という募集状況B2、といったゲームの仲間の募集状況が、募集状況No.とともに表示されている。また、プレーヤーがどのゲーム仲間募集状況に応募するかを指定するポインタPが表示される。
【0116】
ゲーム仲間の募集状況の表示画面4bにおいて、入力部3を介するポインタPの移動操作によりプレーヤーの応募したい募集情報が選択され、「登録」キー3nの操作によって選択が決定されると(ステップC102;Yes)、選択・決定したゲームの仲間募集No.をRAM7のゲーム仲間募集データ(募集状況No.)格納領域7dに格納し(ステップC103)、その後ホストサーバー20へ、前記募集状況No.を送信者IDとともに送信する(ステップC104)。
【0117】
ゲーム端末1からゲーム仲間募集No.を受信したホストサーバー20では、受信した募集状況No.について、今回受信した応募が募集定員内であるか否かを確認し、募集定員内である場合は、応募が成功したとして、その旨のメッセージを、応募元のゲーム端末に返信する。また、受信した募集状況No.についての応募が募集定員を超えている場合は、既に応募が締め切られている旨のメッセージを応募元のゲーム端末に返信する。
【0118】
ホストサーバー20から応募の成否についてのメッセージを受信したゲーム端末1では、受信したメッセージを表示部4に表示する(ステップC105;図15参照)。図15は、ゲーム仲間募集状況に対する応募の成否を示すメッセージを表示した表示画面4cの一例であり、ここではゲーム端末1のプレーヤーが応募したゲーム仲間の募集情報は締め切られた旨のメッセージを示している。例えば、「・応募した「No.2のXYZゲーム 第1試合 PM3:00〜 定員4名」は、締切られました。」というメッセージM2と、「・まだ募集中のゲームは、「No.1のABCゲーム第1試合 PM3:00〜 定員2名」です。」というメッセージM3とが表示されている。
【0119】
その後、「登録」キー3nを押す、または再度募集状況を受信する等、応募の成否に対する処理が終了すると(ステップC106;Yes)、ゲーム仲間募集処理を終了する。
【0120】
次に、図16〜図19を参照して対戦ルール決定処理を説明する。
図16は、対戦ルール決定処理を説明するフローチャートであり、図17は、対戦ルールの提示データを表示した表示画面4dの一例を示す図であり、図18は、対戦ルールについてのチャット中に表示されるチャット画面4eの表示例を示す図であり、図19は、決定した対戦ルールを表示した表示画面4fの一例を示す図である。
【0121】
図16に示す対戦ルール決定処理では、まず、ホストサーバー20から参加の決定したゲームについての提示データを受信し、受信した提示データを表示部4に表示する(ステップD101;図17参照)。ここで表示される対戦ルールの提示データは、対戦を行うために対戦相手同士で互いに承諾しておかなければならないルールとしてホストサーバー20で提示するデータである。例えば、図17に示すように、「A 試合数」という提示データT1、「B 対戦時間」という提示データT2等である。
【0122】
その後、ゲーム端末1では対戦相手のモンタージュデータを受信する。CPU2は、受信したモンタージュデータを、RAM7の登録時モンタージュデータ格納領域7aの相手側の格納領域に格納する。
【0123】
そして、CPU2は、モンタージュデータ格納領域7aに格納されている全てのモンタージュデータ(自己及び相手のモンタージュデータ)について、似顔絵画像の合成・表示処理(図9参照)を実行する。すなわち、モンタージュデータに対応する各部分画像を基本パーツROM6aから読み出して、合成RAM8に転送する。さらにCPU2は合成RAM8で各部分画像を合成して似顔絵画像を作成し、表示部4に表示する(ステップD102)。この合成・表示処理は、ゲームに参加する全ての参加者のモンタージュデータについて行われ、ゲーム参加者の似顔絵画像がその人数分、表示部4に表示されることとなる。
【0124】
その後、ゲーム端末はホストサーバー20から、対戦者全員による対戦ルールについての話し合いの開始を催促する旨のデータを受信して表示部4に表示する(ステップD103)。
【0125】
次にゲームに参加する各ゲーム端末間で、対戦ルールについてのチャット(会話)を開始する。すなわち、プレーヤーによって相手に伝えたい内容がチャットデータとして入力部3から入力されると、CPU2は入力されたチャットデータをRAM7のチャットデータ格納領域7fに格納するとともに、ホストサーバー20へ送信する。また、自己の似顔絵画像N1の近傍に、自己の入力したチャットデータを表示する。さらに、対戦相手からホストサーバー20を介して、チャットデータが送信された場合は、そのチャットデータを受信してそのチャットデータの送信元のプレーヤーの似顔絵画像N2の近傍にチャットデータを表示する(ステップD104;図18参照)。
【0126】
例えば、図18は、二人で対戦する場合のチャット画面4eの一例を示しており、左側に自己の似顔絵画像N1、右側に相手の似顔絵画像N2が表示されている。また、それぞれのチャットデータの内容は吹き出し表示F1,F2の内部に表示される。自己の似顔絵画像N1の近傍の吹き出し表示F1の内部には、自己の入力したチャットデータCH1「試合数は2回でどうでしょうか?」が表示され、相手の似顔絵画像N2の近傍の吹き出し表示F2の内部には、相手から送信されたチャットデータCH2「OKです。」が表示されている。
【0127】
このように、前記対戦ルールの各提示データT1,T2(「A 試合数」、「B 対戦時間」)について、参戦者全員のチャットによって対戦ルールが決定されるまでチャットが続行され、全員が対戦ルールについて承諾する(「OK」キー)と(ステップD105;Yes)、決定した対戦ルールデータをRAM7の対戦ルールデータ格納領域7gに格納するとともに表示部4に表示する(ステップD106;図19参照)。
【0128】
例えば、試合数は5回、対戦時間は一回につき30分というルールが決定された場合は、図19に示すように表示部4には、「・次のルールに決定」というメッセージM5と「A 試合数:5回」という対戦ルールデータT’1、「B 対戦時間:30分/1回」という対戦ルールデータT’2とが表示される。
以上のように、ゲームの参加者全てのチャットで対戦ルールを決定すると対戦ルール決定処理を終了する。
【0129】
次に、図20〜図22を参照してゲームダウンロード処理を説明する。
図20は、ゲームダウンロード処理の流れを説明するフローチャートであり、図21は、ダウンロード要否画面4gの表示例を示す図であり、図22は、料金表示画面4hの表示例を示す図である。
【0130】
図20に示すゲームダウンロード処理において、まず、ゲーム端末1のCPU2は、ゲームに使うゲームプログラムデータが必要か否かをプレーヤーに対して問うダウンロード要否画面4gを表示する(ステップE101;図21参照)。
【0131】
ダウンロード要否画面4gには、例えば図21に示すように、「使うゲームは?」というメッセージM6と、「1 自分のものを使う」というダウンロードの必要がない場合に指示するダウンロード不要表示Y1と、「ダウンロードして使う」というダウンロードを必要とする場合に指示するダウンロード要表示Y2とが表示され、前記ダウンロード要表示Y2及びダウンロード不要表示Y1のいずれかを指示するためのポインタPが表示されている。
【0132】
このダウンロード要否画面4gにおいて、入力部3のパーツ指定キー3j,3kの操作によってポインタPが上下に移動され、ダウンロード要表示Y2が指示された場合(ステップE102)は、ゲーム端末1のCPU2は、ホストサーバー20に対して、料金データを要求する信号をダウンロードするゲームのゲームNo.とともに送信する。このとき、送信者IDも同時に送信される。
ホストサーバー20では、料金データの要求を受信すると、この受信したゲームNo.の料金データを確認し、要求送信元に返信する。
【0133】
ゲーム端末1では料金データを受信すると、その料金データを表示部4に表示する(ステップE103;図22参照)。表示部4に表示された料金表示画面4hには、例えば図22に示すように、「ゲームプログラム料金」として、ゲームの種類「カーレースゲーム」と「1000円」という料金データRとが表示される。
【0134】
プレーヤーによって料金表示画面4hでのゲームの料金の確認が終了し、入力部3の「登録」キー3nが操作されると(ステップE104)、CPU2は、提示された料金に応じたネットワーク用の仮想通貨データを、ダウンロードを要求するゲームNo.とともにホストサーバー20へ送信する(ステップE105)。このとき同時に送信者IDも送信する。
【0135】
前記仮想通貨データを受信したホストサーバー20は、受信した仮想通貨データ、及びゲームの種類を確認し、ゲームプログラムデータROM22から該当するゲームプログラムデータを読み出し、送信元へ返信する。
【0136】
ゲーム端末1では要求したゲームプログラムデータを受信すると、そのゲームプログラムデータをRAM7のゲームプログラムデータ格納領域7eに格納し(ステップE106)、ゲームプログラムデータの受信が完了すると(ステップE107)、ゲームダウンロード処理を終了する。
【0137】
次に、図23〜図30を参照してゲーム進行処理を説明する。
図23は、ゲーム進行処理の流れを説明するフローチャートであり、図24は、生体センサ11へのタッチを催促するメッセージの表示された催促表示画面4iを示す図であり、図25は、ゲーム進行途中に表示される似顔絵画像N1,N2の表示例を示す図であり、図26は、似顔絵の変更処理(1)を説明するフローチャートであり、図27は、脈拍数の時間変化を表すグラフであり、図28は、似顔絵の変更処理(1)において変更表示された似顔絵画像N1,N2の表示例を示す図であり、図29は、似顔絵の変更処理(2)を説明するフローチャートであり、図30は、似顔絵の変更処理(2)において変更表示された似顔絵画像N1,N2の表示例を示す図である。
【0138】
ゲーム進行処理では、実行するゲームの所定の段階、例えば、ゲームの開始時の段階、ゲームの進行途中の各段階、及びゲームの結果の段階、等の各段階において、生体情報やゲームの進行状況に応じて、表示部4に表示されている似顔絵画像を構成する部分画像を変更する。具体的には、ゲームの進行途中に、自己の生体センサ11からプレーヤーの生体情報を取得して、その生体情報に応じて自己の似顔絵画像N1の各部分画像を変更して表示させ、表情や態度を変更する。また、送受信部9を介して対戦相手の生体情報を取得して、その生体情報に応じて相手の似顔絵画像N2の各部分画像を変更して表示させ、表情や態度を変更する。また、ゲームの結果の段階では、ゲームの勝敗などの結果に応じて、前記似顔絵画像N1,N2の各部分画像をさらに変更して表示させる。また、このゲーム進行処理では、ゲームの進行途中に対戦相手とのチャットが可能である。
【0139】
以下、図23を参照してゲーム進行処理について説明する。
上述の似顔絵画像作成処理において作成された自己のモンタージュデータがRAM7に格納され、上述のゲーム種類選択処理において選択したゲームについてのゲームプログラムデータがゲームダウンロード処理によってダウンロードされてRAM7に格納され、上述のゲームの仲間募集処理によって対戦相手が決定し、上述の対戦ルール決定処理によって対戦相手との間で対戦ルールが決定されて、RAM7に対戦ルールが格納されている状態において、CPU2は、ゲームの開始時刻を計時すると、ゲーム進行処理を開始する。
【0140】
ゲーム開始の段階で、まず、ホストサーバー20から、生体センサ11へタッチするよう、プレーヤーへの催促データが送信されてくる。ゲーム端末1のCPU2は受信した催促データを、図24に示す催促表示画面4iに表示する。催促表示画面には、例えば「ゲーム開始に先立って生体センサ上に貴方の指先をタッチして下さい。」という指示M7が表示される(ステップF101;図24参照)。
【0141】
この催促指示4iにしたがって、プレーヤーの指先が生体センサ11に触れると生体センサ11においてプレーヤーの脈拍数や発汗量といった生体情報が計測され、CPU2は計測されたデータを取得してRAM7の生体情報格納領域7hに格納するとともに表示部4に表示する。またCPU2は、前記生体情報を送信者IDとともに、ホストサーバー20へ送信する(ステップF102)。
【0142】
その後、CPU2は、RAM7に格納されている自己のモンタージュデータに対応する各部分画像を基本パーツROM6aから読み出して、上述した合成・表示処理(図9参照)を実行して、表示部4に自己の似顔絵画像N1を表示する(ステップF103)。
【0143】
そして、ホストサーバー20から、対戦相手のモンタージュデータを受信すると、ゲーム端末1のCPU2は、受信した通信相手のモンタージュデータを、RAM7のモンタージュデータ格納領域7aの相手側の格納領域に格納する。さらに、そのモンタージュデータに対応する各部分画像を基本パーツROM6aから読み出して、上述した合成・表示処理(図9参照)を実行して、表示部4に相手の似顔絵画像N2を表示する(ステップF104)。
【0144】
その後、入力部3からチャットデータが入力されると、このチャットデータをRAM7のチャットデータ格納領域7fに格納するとともに表示部4に表示する(ステップF105)。そしてチャットデータの入力が終了し、「登録」キー3nが操作されると(ステップF106;Yes)、CPU2は、前記チャットデータを送信者IDとともにホストサーバー20へ送信する(ステップF107)。
【0145】
その後CPU2は、送信したチャットデータを、自己の似顔絵画像N1の口元に付された吹き出し表示F1の中に表示させる(ステップF108;図25参照)。そして、さらにホストサーバー20からの対戦相手のチャットデータを受信すると(ステップF109)、この受信したチャートデータを相手の似顔絵画像N2の口元に付された吹き出し表示F2の中に表示させる(ステップF110;図25参照)。
【0146】
ここまでの段階で、表示部4には、自己及び対戦相手のそれぞれについての似顔絵画像N1,N2と吹き出し表示F1,F2とチャットデータCH3,CH4が表示される。図24に示す例では、自己の似顔絵画像N1の口元に表示された吹き出し表示F1の中には、「東京の村田です」というチャットデータCH3が表示され、対戦相手の似顔絵画像N2の口元に表示された吹き出し表示F2の中には、「最後まで頑張ろう!!」というチャットデータCH4が表示されている。
【0147】
次に、CPU2は表示されている似顔絵画像N1,N2を、生体情報に対応した表示や態度を表す似顔絵画像に変更して表示させる処理を実行する。以下、似顔絵の変更処理(1)として図26を参照して説明する。
【0148】
図26に示す似顔絵の変更処理(1)において、まず、ホストサーバー20から、対戦相手の生体情報を受信すると、ゲーム端末1のCPU2は、受信した生体情報をRAM7の生体情報格納領域7hに格納する(ステップF201)。
【0149】
そして、自己及び相手の生体情報の値がどのような心理状況にあるかを判断するため、予め設定した設定値の何れの範囲に属するかを判別する。図27は、脈拍数の時間変化を示すグラフである。この図27に示すグラフは、縦軸を脈拍数、横軸を時間軸として、生体センサ11で検出した脈拍数の経時変化を表している。図27中、(A)に示す直線、(B)に示す直線は、それぞれ脈拍数の設定値である。
【0150】
ステップF202の判別において脈拍数が設定値(A)以下であると判別された場合は、心理状況は落ち着いており、大きな変化がないと判断して、似顔絵画像の表情や態度を変化させない。一方、脈拍数が設定値(A)から設定値(B)の範囲に属すると判別された場合は、心理状況に変化があると判断して、この範囲の脈拍数から決定される状態に対応する表情パーツROM6bから、対応するパーツNo.を読み出し、モンタージュデータ格納領域7aに格納されているモンタージュデータに代えて記憶する。さらに脈拍数が設定値(B)以上になると、やはり心理状況に変化があると判断して、この範囲の脈拍数から決定される状態に対応する表情パーツROM6bから、対応するパーツNo.を読み出し、モンタージュデータ格納領域7aに格納されているモンタージュデータに代えて記憶する。
【0151】
そして、CPU2は脈拍数等の生体情報に応じて更新されたモンタージュデータに対応する部分画像を表情パーツROM6bから読み出して、表示されている部分画像と差し替えて表示させる(ステップF203)。さらに、脈拍数等の生体情報から決定される状態に対応するメッセージをメッセージROM6cから読み出し、吹き出し表示F1,F2の中に表示されているチャットデータCH3,CH4に代えて表示させる。
【0152】
図28は、生体情報に応じて似顔絵画像の部分画像が変化された状態の画像である。ゲーム(この例では、カーレースゲーム)の進行途中で、自己の脈拍数が「120」と計測され、CPU2によって、例えば設定値(B)以上の範囲(図27の時間t2における脈拍数)にあると判別した場合は、この時の心理状態を設定値(B)以上の状態である「怒る」状態と判断する。そして図5に示すように「怒る」状態に対応する表情パーツROM6b(図4(A)参照)から、対応するパーツNo.の部分画像を読み出す。登録時のパーツNo.が「1」である場合は、パーツNo.「101」の部分画像が読み出されて、目及び口の部分画像が変更表示される。さらにメッセージROM4c(図5参照)からメッセージM7「むかつく!!」を読み出して、吹き出し表示F1の中のチャットデータCH3に代えて表示する。
【0153】
また、ゲームの進行途中で、ホストサーバー20から送信された相手の脈拍数が「70」である場合は、CPU2によって、例えば設定値(A)と(B)との間の範囲(図27の時間t1、t3、t4における脈拍数)にあると判別した場合は、この時の心理状態を設定値(A)と(B)との間の状態である「驚く」状態と判断する。そして図5に示すように「驚く」状態に対応する表情パーツROM6b(図4(C)参照)から、対応するパーツNo.の部分画像を読み出す。登録時のパーツNo.が「2」である場合は、パーツNo.「102」の部分画像が読み出されて、目及び口の部分画像が変更表示される。
【0154】
このようにゲームの進行途中で似顔絵の変更処理(1)が実行されて、プレーヤーの脈拍や発汗量といった生体情報から心理状態を判断し、心理状態に応じてて似顔絵画像が変更され、状態に対応するメッセージが表示される。
【0155】
次に、CPU2は表示されている似顔絵画像を、ゲームの進行中における優劣または順位などのゲーム内容にしたがって似顔絵画像の表情、態度を変更して表示させる処理を実行する。以下に似顔絵の変更処理(2)として図29を参照して説明する。
【0156】
図29に示す似顔絵の変更処理(2)において、まず、ホストサーバー20から、ゲーム内容(ゲームの優劣、順位等)のデータを受信すると、ゲーム端末1のCPU2は、受信したゲーム内容データをRAM7のゲーム内容データ格納領域7iに格納する(ステップF301)。
【0157】
そして、受信したゲーム内容データにしたがって、対応する表情パーツROM6bから、対応するパーツNo.を読み出し、モンタージュデータ格納領域7aに格納されているモンタージュデータに代えて記憶する。
【0158】
そして、CPU2はゲーム内容に応じて更新されたモンタージュデータに対応する部分画像を表情パーツROM6bから読み出して、表示されている部分画像と差し替えて表示させる(ステップF302;図30参照)。さらに、ゲーム内容データから決定される状態に対応するメッセージをメッセージROM6cから読み出し、吹き出し表示F1,F2の中に表示させる(ステップF303;図30のM8,M9参照)。
【0159】
図30は、ゲーム内容に応じて似顔絵画像の表情や態度が変化された状態の画像である。例えばゲーム(この例では、カーレースゲーム)の結果段階で、相手が第1位、自分が第2位となった場合は、CPU2は、RAM7のゲーム内容データ格納領域7iに現在時点で格納されている各順位からプレーヤーの状態(ここでは、相手側が「勝ち」、自分が「負け」)を決定する。そして決定された状態に対応する表情パーツROM6bから、対応するパーツNo.の部分画像を読み出す。さらにメッセージROM6cから対応するメッセージを読み出して、吹き出し表示F1,F2の中のメッセージに代えて表示する。
【0160】
第1位の相手側の似顔絵画像N2は、「勝ち」の状態に対応する表情を表すように、目や口などの部分画像が変更され、また「勝ったぜウォー!!」というメッセージM8が吹き出し表示F2内に表示される。また、第2位の自分の似顔絵画像N1は、「負け」の状態に対応する表情を表すように、目や口などの部分画像が変更され、また「負けました許して!!」というメッセージM9が吹き出し表示F1内に表示される。
【0161】
このようにゲームの進行途中や結果段階で、ゲームの優劣や順位といったゲーム内容に応じて、似顔絵画像を構成する部分画像が変更され、状態に対応したメッセージが表示される。
【0162】
(2)ホストサーバー20で実行される各種処理について
次に、上述のゲームにおいて、ホストサーバー20における処理を、通信接続されているゲーム端末1A,1Bとのデータ交換との関係を示しながら説明する。
図31〜図33は、ホストサーバー20、自己のゲーム端末1A、及び相手のゲーム端末1Bの三者の処理の関係を説明するフローチャートである。ゲーム端末1(1A,1B)の処理については、詳述したので、ホストサーバー20の処理を中心に説明する。
【0163】
まず、通信接続されているゲーム端末1A,1Bから、ホストサーバー20に対して、本ゲームネットワークシステムで実行されるゲームの申し込みがなされ(ステップH101,J101)、ホストサーバー20においてその申込みデータを受信すると、その申し込みを送信したゲーム端末1A,1Bの送信者ID等のデータをホストサーバー20に設置されたホストサーバー20のRAM21Aに記憶する(ステップG101)。そして、各ゲーム端末において似顔絵作成処理を実行させるよう、ホストサーバー20のCPU21は、似顔絵画像の作成を催促する表示を表示させるための催促表示データをゲーム装置1A,1Bに送信する(ステップG102)。
【0164】
ゲーム端末1A,1Bは、受信した催促表示データを表示画面に表示し(ステップH102,J102)、その後、似顔絵画像作成処理によって作成されたモンタージュデータ、及び送信者IDを送信する(ステップH103,J103;図8参照)。
【0165】
ホストサーバー20では、ゲーム端末1A,1Bからモンタージュデータ等を受信すると(ステップG103)、RAM21Aに確保し、その後、図示しないホストサーバー20内のメッセージROMからモンタージュデータを受信した旨の確認メッセージを読み出して、モンタージュデータの送信先へ確認メッセージを送信する(ステップG104)。ゲーム端末1A、1Bは、表示部4に受信した確認メッセージを表示する(ステップH104,J104)。
【0166】
次いで、ホストサーバー20のCPU21は、各ゲーム端末1A,1Bにおいてゲーム種類選択処理を実行させるよう、ゲームの種類の選択を催促するための表示画面であるゲーム選択画面(図12参照)を表示させるための表示データをゲーム装置1A,1Bに送信する(ステップG105)。ゲーム端末1A,1Bは、受信した表示データを表示部4に表示し(ステップH105,J105;図11、図12参照)、その後、各ゲーム端末のプレーヤーの手動操作によって選択されたゲームの種類のゲームNo.及び送信者IDを送信する(ステップH106,J106)。
【0167】
ホストサーバー20では、ゲーム端末1A,1BからゲームNo.を受信すると(ステップG106)、RAM21Aに確保し、その後、ホストサーバー20内の図示しないメッセージROMから選択ゲームNo.を受信した旨の確認メッセージを読み出して、選択ゲームNo.の送信先へ確認メッセージを送信する(ステップG107)。ゲーム端末1A,1Bは、受信した確認メッセージを表示部4に表示する(ステップH107,J107)。
【0168】
次に、ホストサーバー20のCPU21は、各ゲーム端末1A,1Bに対して、ゲーム仲間募集状況データを送信する(ステップG108)。ゲーム端末1A,1Bは、受信したゲーム仲間募集状況データを表示部4に表示し(ステップH108,J108;図13、図14参照)、その後、各ゲーム端末1A,1Bのプレーヤーの操作によって選択されたゲームの仲間募集No.及び送信者IDを送信する(ステップH109,J109)。ホストサーバー20では、ゲーム端末1A,1Bからゲームの仲間募集No.を受信すると、RAM21Aに確保し、応募したゲームへの参加が認められるか否かを判断し、その判断結果を各ゲーム端末1A,1Bへ送信する(ステップG109;図15参照)。
【0169】
次に、ホストサーバー20のCPU21は、各ゲーム端末1A,1Bに対して、ゲームの対戦ルールの提示データを送信する(ステップG110)。ゲーム端末1A,1Bは、受信したゲームの対戦ルールの提示データを表示部4に表示する(ステップH110,J110;図16,図17参照)。さらに、ホストサーバー20は転送部24によってゲーム端末1A,1Bに対して対戦相手のモンタージュデータを転送する(ステップG111)。すなわち、ホストサーバー20のCPU21は、RAM21Aに記憶されている各ゲーム端末1A,1Bから送信されたモンタージュデータのうち、ゲーム仲間募集処理においてゲームへの参加が決定したゲーム端末1A,1B間で各々のモンタージュデータを交換する。ゲーム端末1A,1Bは、それぞれ対戦相手のモンタージュデータを受信すると、受信したモンタージュデータから似顔絵画像を作成し表示部4に表示する(ステップH111,J111;図18参照)。
【0170】
また、ホストサーバー20は、図示しないメッセージROMから、ゲームの対戦ルールについてゲーム参戦者全員の話し合い(チャット)を開始するよう催促する表示画面を表示させるためのデータを各ゲーム端末1A,1Bに送信する(ステップG112)。ゲーム端末1A,1Bは、対戦ルールについての話し合いを催促する旨のデータを受信すると、その催促データを表示画面に表示し、各ゲーム端末1A,1B間でのチャットを開始する。互いのチャットデータは、ホストサーバー20を介して各ゲーム端末1A,1B間で交換される(ステップH113,J113)。すなわち、ホストサーバー20は、各ゲーム端末1A、1Bで入力され、送信されたチャットデータを受信すると、受信したチャットデータを転送部24へ渡し、各々の対戦相手となるゲーム端末1A,1Bへ転送する。
【0171】
その後、ゲームに参加する全てのゲーム端末1A,1Bにおいてゲームのルールについての承認を得ると、対戦ルールを決定し、ルールデータとして各ゲーム端末1A,1Bに送信する(ステップG113)。各ゲーム端末1A,1Bは、決定した対戦ルールを受信すると、表示部4に表示する(ステップH114,J114;図19参照)。
【0172】
次に、ホストサーバー20は、各データ端末1A,1Bに対して、ゲームプログラムのダウンロード要否確認のデータを送信する(ステップG114)。ゲーム端末1A,1Bは、その要否確認データを受信すると、受信したデータに基づいてゲームプログラムのダウンロード要否画面(図21参照)を表示部4に表示する(ステップH115,J115;図20、図21参照)。そしてダウンロードする必要がある場合は、ゲーム端末1A,1Bは、ダウンロードが必要である旨をホストサーバー20に送信する(ステップH116,J116)。
【0173】
ホストサーバー20では、ダウンロードが必要とされたゲームプログラムの料金データを、料金データRAM(図示省略)から読み出し、ゲーム端末1A,1Bに対して返信する(ステップG115)。ゲーム端末1A,1Bは、受信した料金データを表示し(ステップH117,J117;図22参照)、表示された料金を確認ための登録キー3mが操作されると、料金の支払いを確認した旨をホストサーバー20に送信する(ステップH118、J118)とともに、料金データに対応する仮想通貨データをホストサーバー20に送信する(ステップH119、J119)。
【0174】
ホストサーバー20では、料金データに対する確認、及び料金データに対応する仮想通貨データを受信すると、ダウンロードが必要とされているゲームプログラムデータをゲームプログラムデータROM22から読み出して、ゲーム配信部23へ渡し、ゲーム配信部23を介して、ゲーム端末1A,1Bへ配信する(ステップG116)。ゲーム端末1A,1Bでは、受信したゲームプログラムデータをRAM7のゲームプログラムデータ格納領域7eに格納する(ステップH120,J120)
【0175】
次に、ホストサーバー20では、ゲームの進行を開始すべく、各ゲーム端末に対して、生体センサ11へのタッチを催促する旨のデータを送信する(ステップG117)。各ゲーム端末は生体センサ11へのタッチ催促データを受信すると、この催促データを表示部4に表示し(ステップH122,J122;図24参照)、生体センサ11によって取得された生体情報をホストサーバー20へ送信する(ステップH122,J122)。さらに、ゲーム端末は、自己の似顔絵画像N1を表示部4に表示させる(ステップH123,J123)。ホストサーバー20は、受信した生体情報をRAM21Aに記憶する。
【0176】
その後、ホストサーバー20は、RAM21Aに格納されている対戦相手のモンタージュデータを各ゲーム端末1A,1Bに送信する(ステップG118)。ゲーム端末1A,1Bでは、受信したモンタージュデータから対戦相手の似顔絵画像N2を表示し(ステップH124,J124)、入力されたチャットデータを表示部4に表示して、ホストサーバー20に送信する(ステップH125,J125)。また、ホストサーバー20は自己の似顔絵画像N1に吹き出し付きのチャットデータを表示させる(ステップH126,J126;図25参照)。
【0177】
ホストサーバー20は、RAM21Aに格納されている対戦相手のチャットデータを各ゲーム端末1A,1Bへ送信する(ステップG119)。ゲーム端末1A,1Bでは、対戦相手のチャットデータを受信すると、相手の似顔絵画像N2に吹き出し付きのチャットデータを表示する(ステップH127,J127;図25参照)。
【0178】
その後、ホストサーバー20は、RAM21Aに格納されている対戦者の生体情報を各ゲーム端末1A,1Bに送信する(ステップG120)。ゲーム端末1A,1Bは対戦相手の生体情報を受信すると、似顔絵の変更処理(1)(図26参照)を実行して、各プレーヤーの心理状態を生体情報から判断して、心理状態に応じて似顔絵画像N1,N2の部分画像を変更して表示し、表情を変化させる(ステップH128,J128;図28参照)。さらに状態に対応したメッセージを各似顔絵画像に表示する(H129、J129)。
【0179】
また、ホストサーバー20は、ゲームの優劣、順位等のゲームの内容データを各ゲーム端末1A,1Bに対して送信する(ステップG121)。ゲーム端末1A,1Bはゲーム内容データを受信すると、似顔絵の変更処理(2)(図29参照)を実行して、各プレーヤーの状態(優劣、順位等)に応じて似顔絵画像N1,N2の部分画像を変更して表示し、表情を変化させる(ステップH130,J130;図30参照)。さらに状態に対応したメッセージを各似顔絵画像に表示する(H129、J129)。
【0180】
以上説明したように、本発明の第1の実施の形態におけるゲームネットワークシステムは、ホストサーバー20と複数のゲーム端末1A,1Bとから構成される。ホストサーバー20は、複数のゲームプログラムを格納したゲームプログラムデータROM22を備えており、各ゲーム端末1A,1Bにおいて実行されるゲーム種類選択処理(図11参照)及びゲームダウンロード処理(図20参照)によって、ゲーム端末からダウンロードが要求されたゲームの種類のゲームプログラムを、前記プログラムデータROM22に格納された複数のゲームプログラムの中からゲーム配信部23を介して配信する。また、ホストサーバー20は、各ゲーム端末1A,1Bで実行されるゲーム進行処理(図23参照)において実行されるゲームに伴うゲームデータ(モンタージュデータ、ゲーム内容データ、生体情報等を含む。)を受信すると、それぞれの対戦相手のゲーム端末1A,1Bに対して、受信したゲームデータを転送する。
【0181】
また、本発明の第1の実施の形態におけるゲームネットワークシステムでは、各ゲーム端末1A,1Bは、似顔絵画像作成処理(図8参照)を実行して自己の似顔絵画像を作成し、この似顔絵画像を構成する各部分画像のモンタージュデータをRAM7に格納するとともに、ホストサーバー20へ送信する。ホストサーバー20では、受信したモンタージュデータを一旦ホストサーバー20のRAM21Aに格納し、各ゲーム端末1A,1B間で実行されるチャット時やゲーム実行時等に、このモンタージュデータを対戦相手のゲーム端末1A,1Bに転送する。そして、各ゲーム端末1A,1Bでは、ホストサーバー20から転送された対戦相手のモンタージュデータを受信し、この受信した相手のモンタージュデータから相手の似顔絵画像を作成して表示部4に表示させるとともに、前記似顔絵画像作成処理によって作成した自己の似顔絵画像を、表示部4に表示させる。そして、各ゲーム端末1A,1Bでは、ホストサーバー20を介して対戦相手のゲーム端末1A,1Bとの間でゲームを実行する。
【0182】
ゲームの進行途中では、各ゲーム端末1A,1Bでは、実行されているゲームの内容に応じて、表示部4に表示されている似顔絵画像の形態を変更させる。例えば、ゲームの優劣、順位等のゲーム内容に応じて、自己または相手の似顔絵画像の表情や態度を変更する(似顔絵の変更処理(2)(図29参照))。具体的には似顔絵画像の目や口といった部分画像を変更して表示させ、メッセージROM6cから状態(ゲーム内容)に応じたメッセージを読み出して表示させる。
【0183】
また、各ゲーム端末1A,1Bに備えられた生体センサ11を用いてゲーム進行の各段階でプレーヤーの脈拍数や発汗状態などを検出し、この生体情報から心理状態情報を検出し、検出した心理状態情報に応じて似顔絵画像の表情や態度を変更する(似顔絵の変更処理(1)(図26参照))。ゲームの進行途中ではホストサーバー20を介して相手のゲーム内容データや、生体情報等を受信するので対戦相手の似顔絵画像についても、その表情や態度を変更することができる。
【0184】
したがって、自己のゲーム端末に、たとえゲームプログラムデータが格納されていない場合でも、プレーをしたいゲームプログラムデータを迅速かつ簡単に入手(ダウンロード)することができるばかりでなく、この入手されたゲームプログラムデータに従って、遠隔地にいる複数のプレーヤとゲームを楽しむことができる。
【0185】
また、各プレーヤのゲーム端末に表示されている各自の似顔絵画像の形態(表情、態度など)をゲームの進行内容、プレーヤの心理状況に従ってリアルタイムに変更することができ、ゲームの緊張感などを実感することができる。また、プレーヤ自身の実際の顔画像をカメラなどで各プレーヤのゲーム機に送信して表示させるのでなく、自己の分身として似顔絵画像を送信して表示させるようにしているので、ゲームを安心して楽しむことができる。
【0186】
[第2の実施の形態]
次に、図34を参照して本発明を適用した第2の実施の形態における腕時計(リスト)型のネットゲーム装置、及びこのリスト型ネットゲーム装置100を利用して構成されるゲームネットワークシステムについて説明する。
図34は、本発明の第2の実施の形態としてのリスト型ゲーム装置100の外観を示す上面図である。
【0187】
この図34に示すリスト型ゲーム装置100は、図2に示す前記第1の実施の形態のゲーム端末1の回路構成と同一の回路構成を有するゲーム装置本体101と、当該ゲーム装置本体101をプレーヤーの腕に装着するためのバンド102とによって構成されている。
【0188】
ゲーム装置本体101の上面には、アンテナ部10、表示部4、入力部3、及び生体センサ11が設けられる。また、図示せぬが、ゲーム装置本体101の内部には、CPU2、ROM6、RAM7、合成RAM8、及び送受信部9を備えている。各部の構成は、第1の実施の形態において説明したものと同様であるので、同一の符号を付し、その説明を省略する。
【0189】
また、このリスト型ゲーム装置100は時計機能を備える他、送受信部9からアンテナ部10を介して基地局KK(図34参照)を経て、公衆回線網あるいはインターネットといったネットワーク回線にアクセスする、という電話機能を備える。したがって、第1の実施の形態において示したゲームネットワークシステムと同様に、前記電話機能を利用してネットワーク回線を介してホストサーバー20にアクセスすることができ、他のゲーム端末とネットワーク回線を介したゲームを実行することができる。
【0190】
さらに、本第2の実施の形態のリスト型ゲーム端末100は、バンド102を用いてプレーヤーの腕に巻きつけた状態で、第1の実施の形態において説明した、似顔絵画像作成処理、ゲーム種類選択処理、ゲーム仲間募集処理、対戦ルールの決定処理、ゲームダウンロード処理、ゲーム進行処理等の各処理を実行することができる。すなわち、リストに装着し、携帯して使用している時にも、容易にホストサーバー20から所望のゲームプログラムデータをダウンロードしたり、ダウンロードしたゲームプログラムを用いてその場でゲームを開始することができる。
【0191】
また、生体センサ11のタッチ面をリスト型ゲーム装置1の裏面に設けることにより、腕に装着した状態でゲームを実行する際は、常に生体センサ11のタッチ面がプレーヤーの体に触れており、プレーヤーが意識的に生体センサ11に触れなくとも生体情報を取得することができる。その結果、より自然な生体情報を取得することができ、似顔絵画像の表情や態度をより現実的に変化させることができる。
【0192】
以上説明したように、第2の実施の形態におけるリスト型ゲーム装置100、またはこのリスト型ゲーム装置100を利用したゲームネットワークシステムによれば、前記第1の実施の形態において説明したようなゲーム端末1と同等の処理を実行することが可能なゲーム装置本体101を、バンド102によってユーザの腕に装着することができるため、携帯性を向上させることができる。携帯して使用する際は、どのような場所からでもネットワーク回線を介してホストサーバー20にアクセスし、所望のゲームプログラムデータをホストサーバー20からダウンロードすることができる。またこのゲームプログラムデータに基づいて、インターネットなどのネットワーク回線を介したネットワークゲームを、携帯時にも楽しむことができる。
【0193】
[第3の実施の形態]
次に、図35を参照して本発明を適用した第3の実施の形態におけるリスト型ゲーム装置200及びこのリスト型ゲーム装置200を利用して構成されるゲームネットワークシステムについて詳細に説明する。
【0194】
図35は、本発明の第3の実施の形態としてのリスト型ゲーム装置200を示す外観図であり、図35(A)は上面図、図35(B)は側面図である。この図35に示すリスト型ゲーム装置200は、開閉部204を備えるゲーム装置本体201が、上下方向に弾性変形するプロテクタ203によって、ユーザの腕に着用するためのバンド202に装着されることによって構成されている。
【0195】
ゲーム装置本体201の上面には、アンテナ部10、表示部4、入力部3、及び生体センサ11が設けられる。また、図示せぬが、ゲーム装置本体201の内部には、CPU2、ROM6、RAM7、合成RAM8、及び送受信部9を備えている。図35(A),(B)においては、図2に示す各構成要素を示す部分に同一符号を付し、同一部分の構成は、第1の実施の形態において説明したものと同様であるので、その説明を省略する。
【0196】
バンド202には、凹部を設けられた台座205が備えられており、またゲーム装置本体201の裏面側には台座205に設けられた凹部に対応する凸部(図示せず)が設けられている。そして、携帯ゲーム機201をバンド202に装着する際には、上下方向に弾性変形するプロテクタ203を適宜変形して台座205上にゲーム装置本体201を装着する空間を確保した上で、ゲーム装置本体201の凸部を台座205の凹部にはめ込むようにして台座205に対するゲーム装置201の位置を決定し、更に、プロテクタ203を所定の定位置に戻すことによってゲーム装置本体201を台座205に固定する。
【0197】
このリスト型ゲーム装置200は時計機能を備える他、送受信部9からアンテナ部10を介して基地局KKを経て、公衆回線網あるいはインターネットといったネットワーク回線にアクセスする、という電話機能を備える。したがって、第1の実施の形態において示したゲームネットワークシステムと同様に、ネットワーク回線を介してホストサーバー20にアクセスすることができ、他のゲーム端末とネットワーク回線を介したゲームを実行することができる。
【0198】
また、リスト型ゲーム装置200同士の間で赤外線通信部10Aを介してデータ通信を行うことが可能である。すなわち、複数のリスト型ゲーム装置200のそれぞれの赤外線通信部10Aの通信窓を所定距離内において対面させることにより、リスト型ゲーム装置200同士のデータ通信が可能となり、似顔絵画像作成処理(図8参照)において作成した似顔絵画像の交換や、ゲーム進行中における似顔絵の変更処理(図26、図29参照)、あるいは、相性占いゲーム処理、リスト型ゲーム装置200間でキャラクターを移動させるようなゲーム等が行われる他、例えば、一方のリスト型ゲーム装置側に記憶されたゲームプログラムを読み出して、他方のリスト型ゲーム装置側に転送する処理等が行われる。
【0199】
ゲーム装置本体201をバンド202に装着したままの状態でデータ通信を行うことが可能であるため、ゲーム装置本体201をバンド202から取り外す手間を省くことができる。また、それぞれのリスト型ゲーム装置200がプレーヤーの腕に着用されている状態のままでもデータ通信を行うことが可能である。
【0200】
以上説明したようにリスト型ゲーム装置200、またはこのリスト型ゲーム装置200を適用したゲームネットワークシステムによれば、前記第1の実施の形態において説明したようなゲーム端末1と同等の処理を実行することが可能なゲーム装置本体201を、バンド202によってユーザの腕に装着したり、バンド203から取り外してユーザのポケットに入れて携帯することができるため、携帯性を向上させることができる。そして、携帯して使用する場合でも、必要なゲームプログラムをネットワーク回線を介してホストサーバー20からダウンロードしたり、赤外線通信によって一方のゲーム装置側に格納されているゲームプログラムをダウンロードして使用することができる。
【0201】
[第4の実施の形態]
次に、図36を参照して本発明を適用した第4の実施の形態における移動電話型ゲーム装置300及びこの移動電話型ゲーム装置300を利用して構成されるゲームネットワークシステムについて詳細に説明する。
【0202】
図36は、本発明の第4の実施の形態としての移動電話型ゲーム装置300を示す外観図である。この図36に示す移動電話型ゲーム装置300は、図2に示すゲーム端末1の回路構成と同様の構成を持ち、アンテナ部10、表示部4、入力部3、及び生体センサ11を備え、また内部には、CPU2、ROM6、RAM7、合成RAM8、及び送受信部9を備えている。また、後述する回転スイッチ301を備えている。
【0203】
さらに、移動電話型ゲーム装置300は、音声入力部36Aおよび音声発生部36Bを備えており、通話時は、使用者によって音声入力部36Aから入力された音声データを、送受信部9から基地局KKを経てネットワーク回線を介して通話先の相手に送信し、またネットワーク回線を介して基地局KKを経て通話相手から送信された音声データを送受信部9において受信して、音声発生部36Bから発生させる。
【0204】
図36においては、図2に示す各構成要素を示す部分に同一符号を付し、同一部分の構成は、第1の実施の形態において説明したものと同様であるので、その説明を省略する。
【0205】
回転スイッチ301は、使用者の指(例えば親指310)によって操作され、同図中、破線矢印Y1の方向へ回転スイッチを回動させる回転操作と、実線矢印Y2の方向へ押圧する押圧操作とが可能である。回転操作では、その回転操作方向(上下方向)に連動して、表示部4の表示画面をスクロールすることや、画面に表示されているポインタPを移動することができ、押圧操作では、ポインタPの指示している項目の選択を確定することができる。
【0206】
たとえば、図12に示すゲーム種類選択処理において表示される各種ゲームの種類、図14に示すゲーム仲間募集処理において表示される各種募集状況、あるいは図21に示すゲームダウンロード処理において表示されるダウンロードの要否確認といった、表示画面に行表示される各種選択項目のうち、選択しようとする項目上に回転スイッチの回転操作によってポインタPを移動させ、押圧操作によって選択を確定する。
【0207】
この移動電話型ゲーム装置300を片手で持ったとき、使用者の指先が触れる位置に生体センサ11のタッチ面が設けられている。ゲームを実行する際は、常に生体センサ11のタッチ面がプレーヤーの指先に触れており、プレーヤーが意識的に生体センサ11に触れなくとも生体情報を取得することができる。その結果、より自然な生体情報を取得することができ、似顔絵画像の表情や態度をより現実的に変化させることができる。
【0208】
この移動電話型ゲーム装置300は、送受信部9からアンテナ部10を介して基地局KKを経て、公衆回線網あるいはインターネットといったネットワーク回線にアクセスする、という電話機能を備える。したがって、第1の実施の形態において示したゲームネットワークシステムと同様に、ネットワーク回線を介してホストサーバー20にアクセスすることができ、他のゲーム端末とネットワーク回線を介したゲームを実行することができる。また、通常の電話と同様に通話やデータ通信をすることも可能である。
【0209】
また、ゲーム実行時に音声入力部36Aから入力された音声データを相手側の移動電話型ゲーム装置300に送信し、相手側の移動電話型ゲーム装置300の音声発生部36Bから、リアルタイムに音声を発生させることができる。ゲーム実行状況や生体情報を音声データとともに送信することによって、相手の状況をより現実的に確認することができる。
【0210】
以上説明したように、移動電話型ゲーム装置300、またはこの移動電話型ゲーム装置300を適用したゲームネットワークシステムによれば、前記第1の実施の形態において説明したようなゲーム端末1と同等の処理を実行することが可能である。そして、携帯して使用する場合でも、必要なゲームプログラムをネットワーク回線を介してホストサーバー20からダウンロードして使用することができる。また、回転スイッチを用いて指操作で各種選択操作をすることができるので、操作性が向上する。そして生体センサ11を、使用者が常に触れる位置に設けることにより、プレーヤーが意識的に生体センサ11に触れなくとも生体情報を取得することができる。その結果、より自然な生体情報を取得することができ、似顔絵画像の表情や態度をより現実的に変化させることができる。また、音声情報をゲーム内容データや生体情報データ等とともに送信することによって、相手の状況を似顔絵だけでなく、音声を用いて表現することができ、より現実的なゲームを楽しむことができる。
【0211】
[第5の実施の形態]
次に、図37を参照して本発明を適用した第5の実施の形態における移動電話接続型ゲーム装置400及びこの移動電話接続型ゲーム装置400を利用して構成されるゲームネットワークシステムについて詳細に説明する。
【0212】
図37は、本発明の第5の実施の形態としての移動電話接続型ゲーム装置400を示す外観図である。この図37に示す移動電話接続型ゲーム装置400は、図2に示すゲーム端末1の回路構成と同様の構成を持つゲーム装置本体401と、携帯電話やPHSといった移動電話402と、アダプタ403とから構成される。
【0213】
なお、図37においては、図2に示す各構成要素を示す部分に同一符号を付し、同一部分の構成は、第1の実施の形態において説明したものと同様であるので、その説明を省略する。
【0214】
アダプタ403は、前記ゲーム装置本体401と前記移動電話402とを着脱可能に接続するための接続具である。アダプタ403は、図37に示すようにケーブルの両端に接続部405を備えており、この接続部405を、前記ゲーム装置本体401や移動電話402に設けられた接続孔404に対して差し込むことで、移動電話と接続させる。
【0215】
移動電話と接続された状態では、移動電話の電話機能を利用して、ネットワーク回線にアクセスし、ホストサーバー20や他のゲーム端末とデータ交換が可能となる。したがって、第1の実施の形態において説明したように、ゲームネットワークシステムにおける各種処理を行うことができる。したがって、通信接続した状態で、ホストサーバー20から所望のゲームプログラムをダウンロードし、ダウンロード終了後、アダプタを外した状態で、そのゲームプログラムを実行することができる。
【0216】
以上説明したように、移動電話接続型ゲーム装置400、またはこの移動電話接続型ゲーム装置400を適用したゲームネットワークシステムによれば、前記第1の実施の形態において説明したようなゲーム端末1と同等の処理を実行することが可能である。そして、携帯して使用する場合でも、必要なゲームプログラムをネットワーク回線を介してホストサーバー20からダウンロードして使用することができる。
【0217】
なお、本発明は上述の第1〜第5の実施の形態に限ることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。例えば、第1の実施の形態では、似顔絵画像は、基本パーツROM6aに予め記憶されている部分画像から所望の部分画像を読み出して組み合わせることによって似顔絵画像を作成する例を説明したが、これに限られない。例えば、各実施の形態におけるゲーム端末1、1A、1B、ゲーム装置100、200、300、400にそれぞれカメラ13を設けておき、このカメラ部13によってプレーヤーの顔画像をリアルタイムに撮影して、顔画像データとしてRAM7に確保するとともにホストサーバー20に送信し、ホストサーバー20では、受信した顔画像データを対戦相手のゲーム端末に対して転送し、各プレーヤーのゲーム端末に対戦相手や自己の顔画像をリアルタイムで表示させるようにしてもよい。そしてゲームの進行状況や心理状況によって現在表示中の顔画像の形態(表情、態度)等を画像処理による変形処理技術を用いて、リアルタイムに変更するようにしてもよい。このように、カメラ部13において撮影した実際の顔画像を用いることによって、対戦相手に親しみを持つことができ、ゲームに対する感情移入が容易となる。
【0218】
【発明の効果】
請求項1記載の発明によれば、記憶手段に記憶されている複数の部分画像の組み合わせからなる似顔絵画像を作成しこの作成された第1の似顔絵画像を表示させ、この表示された第1の似顔絵画像の各部分画像を指定するための各画像指定データを、ゲーム管理サーバーへ向けて送信したあとに、チャットデータを入力すると、この入力されたチャットデータを吹き出し付きで第1の似顔絵画像の近傍位置に表示させることができる。
また、ゲーム管理サーバーを介して相手のゲーム端末の似顔絵画像を指定するための各画像指定データが送られてきた場合、この送られてきた各画像指定データを受信すると、この受信された各画像指定データにより指定された各部分画像を記憶手段から読み出し、この読み出した各部分画像の組み合わせで作成された第2の似顔絵画像を表示させることができる一方で、この第2の似顔絵画像が表示された後に相手のゲーム端末からゲーム管理サーバーを介してチャットデータが送られてきた場合、この送られてきたチャットデータを吹き出し付きでその第2の似顔絵画像の近傍位置に表示させることができる。
このため、本発明によれば、ネットワーク回線を介してゲーム管理サーバーと接続しながらネットゲームを制御する各ゲームプレーヤーが作成した似顔絵画像とゲームの進行中に行うチャットとが互いに明確に対応付けて視認することが可能になるものである。
【0219】
請求項2記載の発明のネットゲーム装置によれば、第1の似顔絵画像の近傍位置は、当該第1の似顔絵画像の口元位置であるために、ゲームプレーヤーが作成した似顔絵画像とゲームの進行中に行うチャットとがより一層に互いに明確に対応付けて視認することが可能になる。
【0223】
請求項3記載の発明によれば、各プレーヤのゲーム端末に表示されている各自の似顔絵画像の形態(表情、態度など)をプレーヤの心理状況に従ってリアルタイムに変更することができるので、遠隔地のプレーヤーとの間でゲームを実行する際も、相手の心理状況、緊張感などをリアルタイムに、かつ、的確に把握し、現実的なゲームを実感することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態としてのゲーム端末1の外観を示す上面図である。
【図2】ゲーム端末1A,1Bとホストサーバー20とがインターネット30を介して通信接続されたゲームネットワークシステムと、ゲーム端末1Aの電子回路の構成とを示すブロック図である。
【図3】基本パーツROM6aに格納されている各部分画像の一例を示す図である。
【図4】表情パーツROM6bに格納されている各部分画像の一例を示す図である。
【図5】メッセージROM6cに格納されている各メッセージ内容の一例を示す図である。
【図6】RAM7及び合成RAM8に設定される各種データ格納領域を示す図である。
【図7】ゲーム端末1において実行されるゲームの全体の処理の流れを説明するフローチャートである。
【図8】似顔絵画像作成処理を説明するフローチャートである。
【図9】合成・表示処理を説明するフローチャートである。
【図10】(A)は、作成された似顔絵画像の例を示す図である。(B)は、バーコード読取部にてバーコード上を移動操作して似顔絵画像を作成する場合の例を示す図である。
【図11】ゲーム種類選択処理を説明するフローチャートである。
【図12】ゲーム選択画面4aの表示例を示す図である。
【図13】ゲーム仲間募集処理を説明するフローチャートである。
【図14】ゲーム仲間の募集状況の表示例を示す図である。
【図15】ゲーム応募の成否に関するメッセージ表示の一例を示す図である。
【図16】対戦ルール決定処理を説明するフローチャートである。
【図17】対戦ルールの提示データを表示した表示画面4dの一例を示す図である。
【図18】対戦ルールについてのチャット中に表示されるチャット画面4eの表示例を示す図である。
【図19】決定した対戦ルールを表示した表示画面4fの一例を示す図である。
【図20】ゲームダウンロード処理の流れを説明するフローチャートである。
【図21】ダウンロード要否画面4gの表示例を示す図である。
【図22】料金表示画面4hの表示例を示す図である。
【図23】ゲーム進行処理の流れを説明するフローチャートである。
【図24】生体センサ11へのタッチを催促するメッセージの表示された催促表示画面4iの一例を示す図である。
【図25】ゲーム進行途中に表示される似顔絵画像N1,N2の表示例を示す図である。
【図26】似顔絵の変更処理(1)を説明するフローチャートである。
【図27】脈拍数の経時変化を表すグラフである。
【図28】似顔絵の変更処理(1)において変更表示された似顔絵画像N1,N2の表示例を示す図である。
【図29】似顔絵の変更処理(2)を説明するフローチャートである。
【図30】似顔絵の変更処理(2)において変更表示された似顔絵画像N1,N2の表示例を示す図である。
【図31】ホストサーバー20、自己のゲーム端末1A、及び相手のゲーム端末1Bの三者の処理の関係を説明するフローチャート(1)である。
【図32】ホストサーバー20、自己のゲーム端末1A、及び相手のゲーム端末1Bの三者の処理の関係を説明するフローチャート(2)である。
【図33】ホストサーバー20、自己のゲーム端末1A、及び相手のゲーム端末1Bの三者の処理の関係を説明するフローチャート(3)である。
【図34】本発明の第2の実施の形態としてのリスト型ゲーム装置100の外観を示す上面図である。
【図35】本発明の第3の実施の形態としてのリスト型ゲーム装置200を示す外観図であり、図35(A)は上面図、図35(B)は側面図である。
【図36】本発明の第4の実施の形態としての移動電話型ゲーム装置300を示す外観図である。
【図37】本発明の第5の実施の形態としての移動電話接続型ゲーム装置400を示す外観図である。
【符号の説明】
1(1A,1B) ゲーム端末
2 CPU
3 入力部
4 表示部
5 表示駆動回路
6 ROM
7 RAM
8 合成RAM
9 送受信部
10 アンテナ部
11 生体センサ
12 バーコード読取部
13 カメラ部
20 ホストサーバー
21 CPU
22 ゲームプログラムデータROM
23 ゲーム配信部
24 転送部
30 インターネット
100 リスト型ゲーム装置
200 リスト型ゲーム装置
300 移動電話型ゲーム装置
400 移動電話接続型ゲーム装置
[0001]
BACKGROUND OF THE INVENTION
  The present invention can execute a game via a network line.Net game apparatus and caricature image display control methodAbout.
[0002]
[Prior art]
Conventionally known portable game devices include a game built-in game device in which a game program is built in the device main body, and a game wear type in which a cartridge containing the game program is mounted in the device main body. It is roughly divided into type game devices.
These portable game devices can be enjoyed freely in the field or on the train as compared to stationary game devices of the type in which the device main body is placed at home and the game is performed by manual operation of the external controller. There is sex.
[0003]
[Problems to be solved by the invention]
However, even in the above-described portable game device, in order to enjoy a game with a different game content, in the case of a game device with a built-in game, the game content is fixed, so another game device must be purchased. In the case of a game-mounted game device, there is an inconvenience that a cartridge containing a game program must be purchased separately.
[0004]
  This inventionA net game device capable of visually associating a portrait image created by each game player that controls a net game while connected to a game management server via a network line and a chat performed while the game is in progress clearly associated with each other And caricature image display control methodThe purpose is to provide.
[0006]
  Furthermore, the present invention can accurately grasp the game player's psychological state, tension, etc. in real time.Net game apparatus and caricature image display control methodFor other purposes.
[0007]
[Means for Solving the Problems]
The present invention has the following features in order to achieve such a problem. In the following description of the means, the configuration corresponding to the embodiment is illustrated as an example in parentheses. Reference numerals and the like are reference numerals for drawings to be described later.
[0008]
  Invention of Claim 1The net game device according to the present invention is a network game device (game terminal 1A in FIGS. 1 and 2) connected to a game management server (host server 20 in FIG. 2) via a network line (net 30 in FIG. 2). A portrait image comprising a combination of a storage means (ROM 6 in FIG. 2; ROM 6a in FIG. 3) storing a plurality of partial images and a plurality of partial images stored in the storage means is created. First image display control means for displaying one portrait image ( CPU 2 in FIG. 2; F103 in FIG. 23; H123 in FIG. 33; ) And first transmission means for transmitting image designation data for designating each partial image of the first portrait image displayed by the control of the first image display control means to the game management server. (CPU 2 in FIG. 2, transmission / reception unit 9; G118 in FIG. 33) and input means for inputting chat data displayed in the vicinity of the first portrait image displayed by the control of the first image display control means (Input unit 3 in FIG. 2; F105 in FIG. 23; H125 in FIG. 33) and first chat display control for displaying chat data input by this input means at a position near the first portrait image with a balloon. means ( CPU 2 in FIG. 2; D104 in FIG. 16; FIG. 18; F108 in FIG. 23; H126 in FIG. ) When each image designation data for designating the portrait image of the opponent game terminal is sent via the game management server, first receiving means for receiving the sent image designation data ( CPU 2 in FIG. 2; transceiver 9 in FIG. 2; H124 in FIG. 1 Second image display for reading out each partial image designated by each image designation data received by the receiving means from the storage means and displaying a second portrait image created by the combination of the read partial images Control means ( 2 in FIG. 2; F104 in FIG. 23; H124 in FIG. ) When the second caricature image is displayed under the control of the second image display control means and the chat data is sent from the opponent game terminal via the game management server, this is sent. A second chat display control means (CPU 2 in FIG. 2; D104 in FIG. 16; F110 in FIG. 23; H127 in FIG. 33) for displaying chat data with a balloon in the vicinity of the second portrait image.It is characterized by having.
[0009]
  According to invention of Claim 1,In order to create a portrait image composed of a combination of a plurality of partial images stored in the storage means, display the created first portrait image, and designate each partial image of the displayed first portrait image When the chat data is input after the image designation data is transmitted to the game management server, the input chat data can be displayed near the first portrait image with a balloon.
  In addition, when each image designation data for designating a portrait image of the opponent game terminal is sent via the game management server, when each image designation data sent is received, each received image Each partial image designated by the designated data can be read from the storage means, and a second portrait image created by a combination of the read partial images can be displayed, while the second portrait image is displayed. After that, when chat data is sent from the opponent game terminal via the game management server, the sent chat data can be displayed near the second portrait image with a balloon.
  Therefore, according to the present invention, the portrait image created by each game player controlling the net game and the chat performed during the game are clearly associated with each other while connected to the game management server via the network line. Can be visually recognized.
[0010]
  According to a second aspect of the present invention, in the net game device according to the first aspect, the vicinity position of the first portrait image is a mouth position of the first portrait image.
[0011]
  According to the second aspect of the present invention, since the vicinity position of the first portrait image is the mouth position of the first portrait image, the portrait image created by the game player and the chat performed while the game is in progress Can be visually recognized in association with each other more clearly.
[0012]
  According to a third aspect of the present invention, there is provided a psychological state detecting means for detecting a psychological state of the player during the game after the first portrait image is displayed under the control of the first image display control means, and the psychological state detection And changing means for changing the form of the first portrait image displayed under the control of the display control means in accordance with the psychological state information detected by the means.
[0013]
  According to the third aspect of the present invention, after the first portrait image is displayed by the control of the first image display control means, the psychological state of the player during the game is detected, and the detected psychological state information is included in the detected psychological state information. Accordingly, the form of the displayed first portrait image can be changed.
[0014]
  A portrait image display control method according to a fourth aspect of the present invention relates to a portrait image display control method used for a network game device connected to a game management server via a network line, and stores a plurality of partial images. Storage means (in FIG. ROM A first image display control step of accessing 6), creating a portrait image comprising a combination of a plurality of partial images stored in the storage means, and displaying the created first portrait image ( Of FIG. H 123 ) And a first transmission step of transmitting, to the game management server, image designation data for designating each partial image of the first portrait image displayed by the control of the first image display control step. (Fig. 33 G 118), and chat data to be displayed in the vicinity of the first portrait image displayed by the control of the first image display control step is input, the input chat data is first displayed with a balloon. First chat display control step for displaying in the vicinity of the portrait image of ( Of FIG. H 126 ) When each image designation data for designating a portrait image of the opponent game terminal is sent via the game management server, a first reception step of receiving each sent image designation data ( Of FIG. H 124) 1 A second image display for reading out each partial image designated by each piece of image designation data received in the receiving step from the storage means and displaying a second portrait image created by the combination of the read partial images. Control step ( Of FIG. H 124 ) When,
  When chat data is sent from the opponent game terminal via the game management server after the second portrait image is displayed by the control of the second image display control step, the sent chat data In a second chat display control step (shown in FIG. 33) for displaying in the vicinity of the second portrait image with a balloon. H 127).
[0015]
  In the portrait image display control method according to the fifth aspect of the present invention, the vicinity position of the first portrait image is the mouth position of the first portrait image.
[0016]
  According to a sixth aspect of the present invention, there is provided a caricature image display control method for detecting a psychological state of a player in the middle of a game after the first caricature image is displayed by the control of the first image display control step. And a changing step of changing the form of the first portrait image displayed by the control of the display control step according to the psychological state information detected by the psychological state detecting step. Features.
  According to invention of Claim 4-6, there can exist an effect similar to the case of Invention of Claim 1-3.
[0035]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of a game network system and a net game device according to the present invention will be described in detail with reference to FIGS.
[0036]
[First Embodiment]
First, with reference to FIG. 1 to FIG. 33, a net game device according to the first embodiment and a game network system using the net game device 1 will be described.
[0037]
The game network system of the first embodiment is a net game device (hereinafter referred to as game device 1) that is used by communication connection in the game network system. In particular, the game terminal 1 handled by itself is called a game terminal 1A. A game terminal 1 handled by a person other than the communication destination is called a game terminal 1B.) And a host server 20 for managing communication games and distributing game programs (see FIG. 2).
[0038]
The game terminal 1 is equipped with a data communication function such as a mobile phone or PHS (Personal Handyphone System), for example, and is connected to the Internet 30 via the antenna 10 from the transmission / reception unit 9 to access the host server 20. The game program data can be obtained, or the game can be played in communication with the other game terminal 1B at a remote place according to the obtained game program data. The game terminal 1 also includes a voice input unit 36A and a voice generation unit 36B. During a call, the game terminal 1 receives voice data input from the voice input unit 36A by the user from the transmission / reception unit 9 to the base station KK (FIG. 34) and the voice data transmitted from the call partner via the base station KK via the Internet 30 is received by the transmission / reception unit 9 via the Internet 30 which is a network line. Generated from the sound generator 36B.
[0039]
First, the configuration will be described.
FIG. 1 is a top view showing an appearance of the game terminal 1.
[0040]
The game terminal 1 has a notebook-type housing that opens to the left and right, and creates a portrait image on the left operation surface, in addition to an “ON” key 3 a and an “OFF” key 3 b for turning the power on and off. “Montage creation” key 3c that is operated when selecting a part image, a part creation key 3d that is operated when a partial image is selected by the user's own operation to generate a portrait image, and a portrait image by reading a barcode Barcode key 3e to be operated, “self” key 3f for designating a target person “self” or “partner” when creating a portrait, “partner” key 3g, basic combinations of partial images stored in advance when creating a portrait image Basic montage selection keys 3h and 3i for selecting a basic montage consisting of “△, ▽”, a part for designating a part (part) to be changed when creating a portrait image Constant keys 3j, 3k “↑, ↓”, partial image selection keys 3l, 3m “←, →” for selecting the partial image of the part to be changed designated as the change target, and the created portrait image are saved. “Register” key 3n, “start” key 3o, biosensor 11 which is a sensor for acquiring biometric information such as the pulse rate and sweating amount of the player, barcode reading unit 12, voice input unit 36A And a sound generator 36B.
[0041]
Further, a display unit 4 and a camera 13 are provided on the left operation surface of the game terminal 1. The display unit 4 is, for example, a liquid crystal dot matrix display screen. The display unit 4 includes a portrait image display area on the “self” side and a portrait image display area on the “partner” side. The camera unit 13 is configured by a CCD camera or the like, and can capture an external image by operating a shooting key (not shown) and can take it as image data. For example, it is possible to capture a human face image or the like as image data.
[0042]
On the other hand, on the right operation surface of the game terminal 1, a numeric keypad 3p “0 to 9”, an operator key 3q “+, −, ×, ÷, =”, which are operated when inputting numerical values, are used for inputting various data. Alphabet key 3r "AZ" is provided.
[0043]
FIG. 2 is a block diagram showing a game network system in which the game terminals 1A and 1B and the host server 20 are communicatively connected via the Internet 30, and a configuration of an electronic circuit of the game terminal 1A.
[0044]
As shown in FIG. 2, the game terminal 1 </ b> A includes a CPU (Central Processing Unit) 2, an input unit 3, a display unit 4, a display drive circuit 5, a ROM 6, a RAM 7, a synthesis RAM 8, a transmission / reception unit 9, an antenna unit 10, and a biosensor 11. , A barcode reading unit 12, a camera unit 13, an audio input unit 36A, and an audio generation unit 36B. The game terminal 1B has the same configuration.
[0045]
As shown in FIG. 2, the host server 20 distributes the requested game program data to the game program data ROM 22 storing the game program data and the game terminals 1A and 1B connected in communication. Stored in the game program data ROM 22 and the transfer unit 24 for transferring various data (including game content data, montage data, game control data, etc.) between the unit 23, the game terminal 1A and the game terminal 1B. The CPU 21 controls distribution processing of game program data to a request destination and transfer processing of received game control data and the like.
[0046]
Note that FIG. 2 shows an example in which the form of communication connection is connected via the Internet. However, the present invention is not limited to this, and various types such as a dedicated communication line, a wired or wireless LAN (Local Area Network), etc. Includes network lines.
[0047]
The CPU 2 of the game terminal 1 (1A, 1B) performs various controls stored in a predetermined storage area of the ROM 6 based on a key operation signal supplied from the input unit 3 provided on the left and right operation surfaces of the game terminal 1. The program is read out and temporarily stored in the RAM 7, and various processes based on the program are executed to centrally control each unit of the game terminal 1. That is, the CPU 2 executes various processes based on the read predetermined program, stores the processing results in the RAM 7, and causes the display unit 4 to display the display results via the display drive circuit 5.
[0048]
Further, the CPU 2 reads the corresponding processing program from the ROM 6 in accordance with the operation of various function keys such as the montage creation key 3c, the parts creation key 3d, and the barcode key 3e, and executes various processes. For example, a portrait image creation process (see FIGS. 8 to 10), a game type selection process (see FIGS. 11 to 12), a game fellow recruitment process (see FIGS. 13 to 15), and a battle rule determination process (see FIGS. 16 to 16). 19), a game download process (see FIGS. 20 to 22), a game progress process (see FIGS. 23 to 30), and the like.
[0049]
In the portrait image creation processing (see FIGS. 8 to 10), the CPU 2 reads a part creation mode for creating a portrait image by designating a partial image by its own operation, or reads and decodes a printed barcode. Execute one of the barcode modes to acquire montage data corresponding to the code and create a portrait image.
[0050]
In the part creation mode, when an arbitrary partial image is selected from the partial images stored in the basic parts ROM 6a of the ROM 6, the CPU 2 selects the part number of each selected partial image. Is stored in the RAM 7 as montage data, and a partial image corresponding to the montage data is read from the basic parts ROM 6a and transferred to the synthesis RAM 8, and a portrait image is created by combining the partial images and displayed on the display unit 4.
On the other hand, in the barcode mode, the CPU 2 moves the game terminal 1 to decode the barcode data read by the barcode reading unit 12 to acquire montage data, store it in the RAM 7, and store the montage data. Are read from the basic parts ROM 6 a and transferred to the synthesis RAM 8, and a portrait image is created by combining the partial images and displayed on the display unit 4.
Further, the created montage data is transmitted to the host server 20 via the transmission / reception unit 9.
[0051]
In the game type selection process (see FIGS. 11 to 12), when the CPU 2 receives data relating to the types of playable games transmitted from the host server 20, the CPU 2 selects a game to be played from the game type data. Is displayed on the display unit 4. When the game type is selected, the game No. of the selected game is displayed. Is transmitted to the host server 20.
[0052]
In the game buddies recruitment process (see FIGS. 13 to 15), when the CPU 2 receives the data related to the game buddies recruitment status transmitted from the host server 20, the CPU 2 recruits games to participate in the game buddies recruitment status. Situation No. The display unit 4 displays a prompting display prompting selection of Game recruitment status No. Is selected, the recruitment status No. of the selected game is displayed. Is transmitted to the host server 20. When the application success / failure data is transmitted from the host server 20, the received success / failure data is displayed on the display unit 4.
[0053]
In the battle rule determination process (see FIGS. 16 to 19), when the CPU 2 receives the presentation data of the battle rule transmitted from the host server 20, the CPU 2 performs chat (discussion) between the opponents based on the presentation data. Determine the battle rules. That is, the montage data created in each game terminal 1A, 1B in the portrait image creation process is received via the host server 20, and the own portrait image and the other person's portrait image are displayed on the display unit 4 based on the montage data. Let Further, chat data input from the input unit 3 is transmitted in a state where the portrait image is displayed, and the chat data of the other party is received from the host server 20. When such chat is repeated and the consent of all the opponents is obtained, the battle rules are determined based on the contents.
[0054]
In the game download process (see FIGS. 20 to 22), the CPU 2 displays a download necessity screen asking whether or not to download the game program data from the host server 20, and if the download is necessary, First, fee data for the game is received from the host server 20, and the received fee data is displayed on the display unit 4. Then, virtual currency data corresponding to the fee data is transmitted by operating the input unit 3, and game program data is downloaded from the host server 20.
[0055]
In the game progress process (see FIGS. 23 to 30), the CPU 2 executes the game based on the acquired game program data. First, when the biometric information of the player is acquired by the biometric sensor 11, the acquired biometric information is stored in the RAM 7, and transmitted to the host server 20, and transferred to the opponent game terminal 1B. Further, game data such as game content data, opponent montage data, and biometric information is received via the host server 20. The CPU 2 creates the portrait images N1 and N2 of the self and the partner from the montage data of the self and the montage data of the partner and displays them on the display unit 4. In the course of the game or at the game result stage, the facial expressions and attitudes of the portrait images N1 and N2 are changed and displayed in accordance with game content data such as superiority or inferiority of the game, and biological information of the player.
[0056]
The input unit 3 includes the "ON" key 3a, the "OFF" key b, the "create montage" key 3c, the part creation key 3d, the barcode key 3e, the "self" key 3f, the "partner" key 3g, and the basic montage selection. Keys 3h, 3i “△, ▽”, parts designation keys 3j, 3k “↑, ↓”, partial image selection keys 3l, 3m “←, →”, “Register” key 3n, “Start” key 3o, numeric keypad 3p, An operator key 3q, an alphabet key 3r, and an auto dial key 3s are provided, and a pressed signal of the pressed key is output to the CPU 2. The auto-dial key 3s is a key that is pressed when transmitting various data to the host server 20. When the auto-dial key 3s is pressed, an automatic telephone transmission unit provided in the transmission / reception unit 9 To automatically connect the line to the host server 20.
[0057]
The ROM 6 stores various control programs for the CPU 2 to control various operations of the game terminal 1, and includes various ROMs such as a basic part ROM 6 a, an expression part ROM 6 b, and a message ROM 6 c.
[0058]
3 is a diagram showing an example of each partial image stored in the basic parts ROM 6a, FIG. 4 is a diagram showing an example of each partial image stored in the facial expression parts ROM 6b, and FIG. It is a figure which shows an example of each message content stored in message ROM6c.
[0059]
As shown in FIG. 3, the basic parts ROM 6a is roughly classified into a face basic parts ROM and a whole body basic parts ROM. FIG. 3A shows an example of the contents stored in the face basic part ROM. For example, for each partial image constituting a portrait image such as an outline, hair, eyes, nose, and mouth, part no. 20 types of partial images are stored as 1 to 20. FIG. 3B shows the stored contents of the whole-body basic part ROM. Like the basic part ROM for the face, each part image constituting the whole-body image such as the face, the torso, both hands, and both feet is part No. 1-No. 20 types of partial images are stored as 20.
[0060]
The facial expression part ROM 6b stores partial images constituting a portrait image according to the state of the game in progress. FIG. 4A shows an example of the contents stored in the game progress display part ROM that stores partial images used in the “anger” state. Of the partial images that are changed and displayed in accordance with the progress of the game and the like and become partial images of the eyes and mouth, the partial image in the “anger” state is the part number. 101, 102,... In the game progress display part ROM shown in FIG. 4B, among the partial images of the eyes and mouth that are changed and displayed during the progress of the game, the partial image in the “problem” state is the part number. 111, 112,... Further, in the game progress display part ROM shown in FIG. 121, 122,... Further, a winning background image pattern (in the “part: other” column in the figure) to be combined with the background of the portrait image on the winner side at the game result stage is stored.
[0061]
The message ROM 6c stores message contents that are displayed or output in sound in accordance with the state at the time during the progress of the game or at the progress result stage.
[0062]
As shown in FIG. 5, the message content is stored in association with the state in the middle of the game and the facial expression parts ROM 6b referred to in correspondence with the state.
For example, in the “anger” state, the part number of the expression part ROM 6b is changed. 101, 102,... (FIG. 4A) are designated, and “Mukatsu!” Is stored as the message content. In the “problem” state, the part number of the facial expression ROM 6b is changed. 111, 112,... (FIG. 4B) are designated, and “I am in trouble” is stored as the message content. In the “surprise” state, the part number of the expression part ROM 6b is changed. 121, 122,... (FIG. 4C) are specified, and “This is!” Is stored as the message content.
[0063]
The CPU 2 determines states such as “angry”, “worried”, and “surprise” in accordance with the biological information acquired from the biological sensor 11 at a predetermined stage of the game progress or the progress of the game. Corresponding message contents are read from the message ROM 6c and displayed on the display unit 4, or output from the sound generation unit 36B, and a corresponding partial image is read from the expression part ROM 6b corresponding to the state to express the facial expression of the portrait image. The data is changed, stored in the RAM 7 and displayed on the display unit 4.
[0064]
FIG. 6 is a diagram showing the configuration of various data storage areas set in the RAM 7 and the synthesis RAM 8.
In addition to the work memory that temporarily stores the designated application program, input instructions, input data, processing results, and the like, the RAM 7 includes a registration montage data storage area 7a, a sender ID data storage area 7b, as shown in FIG. Game type data (game No.) storage area 7c, game buddy recruitment data (recruitment status No.) storage area 7d, game program data storage area 7e, synthesis RAM 8, chat data storage area 7f, match rule data storage area 7g, It has a biometric information storage area 7h, a game content data storage area 7i, and a montage data storage area 7k during the progress of the game.
[0065]
In the registration montage data storage area 7a, the part number of each part (contour, hair, eyes, nose, mouth) of the portrait image created in the portrait image creation process (FIGS. 8 to 10) described later is stored. Montage data is stored. The stored montage data includes the montage data of the portrait image created by the user (game terminal 1A) ("target person: me" field in FIG. 6) and the communication terminal game terminal 1B. And montage data of the other person's portrait image received via the “subject: opponent” field in FIG. 6.
[0066]
The sender ID data storage area 7b stores the sender ID of the game terminal of the player. The sender ID is, for example, an ID code or a registration code given from the host server 20, or an individual code (such as a serial number) individually assigned to each game terminal 1A, 1B. When transmitting various data to the host server 20 at each stage of the game, the sender ID is transmitted together.
[0067]
In the game type data storage area 7c, a game No., which is data representing the type of game selected in the game type selection process (FIGS. 11 to 12) described later. Is memorized.
[0068]
In the game friend recruitment data (recruitment status No.) storage area 7d, the recruitment status No. specified in the game friend recruitment process (FIGS. 13 to 15) described later is stored. Is stored.
[0069]
The game program data storage area 7e stores game program data downloaded from the host server 20 in a game download process (FIGS. 16 to 19) described later.
[0070]
The composite RAM 8 stores a composite image (portrait image) of each partial image obtained by reading each partial image corresponding to the montage data from the basic part ROM 6a or the expression part ROM 6b.
[0071]
In the chat data storage area 7f, chat data input by the player or transmitted chat data is temporarily stored in a battle rule determination process (FIGS. 16 to 19) and a game progress process (FIGS. 23 to 30) described later. Stored.
[0072]
The battle rule data storage area 7g stores battle rule data determined in a battle rule determination process (FIGS. 16 to 19) described later.
[0073]
The biological information storage area 7h stores biological information (pulse rate data, sweating amount data, body temperature data, etc.) acquired from the biological sensor 11 in the game progress process (FIGS. 23 to 30).
[0074]
In the game content data storage area 7i, game content data such as superiority or inferiority of the game and ranking transmitted from the host server 20 in the game progress processing (FIGS. 23 to 30) are stored.
[0075]
In the montage data storage area 7k during the progress of the game, montage data that is changed in accordance with the game content data, biometric information, and the like during the progress of the game is stored.
[0076]
The transmission / reception unit 9 is configured by telephone means such as a mobile phone and a PHS (Personal Handy Phone System). When the auto dial key 3s of the input unit 3 is operated, the automatic telephone transmission unit of the transmission / reception unit 9 automatically connects the line to the host server 20 using a predetermined protocol and transmits various data. It also receives various data transmitted from the host server 20.
[0077]
Examples of data transmitted and received include game program data distributed from the host server 20, game content data transferred from the other game terminals 1B via the host server 20, game control data, biometric information, and montage data. Etc. are included. The transmitter / receiver 9 also transmits the sender ID of the game terminal 1 when transmitting the various data to the host server 20.
[0078]
The biometric sensor 11 is a sensor for measuring biometric information such as a player's pulse rate, sweating condition, or body temperature. As shown in FIG. 11, when the player's finger or the like is touched on the touch surface of the biosensor 11 provided on the left operation surface, the biometric information is detected.
[0079]
The barcode reading unit 12 is a device that is provided below the left operation surface of the main body of the game terminal 1 and optically reads a barcode printed on some article or the like. When the barcode key 3e of the input unit 3 is operated, the barcode is read by the barcode reading process of the CPU 2, and the read barcode is converted into montage data by the barcode decoding process and sent to the CPU 2. The montage data obtained by the barcode decoding process is stored in the montage data storage area 7a of the RAM 7.
[0080]
Next, the operation will be described.
In the following description, first, (1) various processes executed in the game terminal 1 (1A, 1B) will be described, and then (2) various processes executed in the host server 20 of the game network system. Description will be made while referring to the relationship with the processing in 1 (1A, 1B).
[0081]
(1) Various processes executed on the game terminal 1 (1A, 1B)
FIG. 7 is a flowchart for explaining the overall processing flow of the game executed on the game terminal 1. First, an outline of the flow of the entire game will be described with reference to FIG. 7, and then the flow of each process will be described in detail.
[0082]
First, when a key operation signal of the montage creation key 3c of the game terminal 1 is input, the CPU 2 starts a portrait image creation process (see FIGS. 8 to 10) described later. The portrait image creation process is a process for creating a portrait image by combining partial images. For example, the part number designated by the key operation of the input unit 3 is changed. And the barcode No. read by the barcode reader 12. Part No. corresponding to A portrait image is created by combining the partial images. The CPU 2 hosts image designation data (hereinafter referred to as montage data), which is data for designating each partial image constituting the created portrait image, via the transmission / reception unit 9 together with the sender ID of the game terminal 1. It transmits to the server 20 (step S1). The montage data is the part number of the partial image of each part constituting the caricature image. It is.
[0083]
Next, the CPU 2 starts a game type selection process (see FIGS. 11 and 12) described later. The game type selection process is a process of selecting the type of game that the player wants to play. When a game type desired to be played is selected from a plurality of types of games received from the host server 20, the CPU 2 displays a game number indicating the type of the selected game. Is transmitted to the host server 20 via the transmission / reception unit 9 (step S2).
[0084]
Then, the CPU 2 starts a game friend recruiting process (see FIGS. 13, 14, and 15) described later. The game mate recruiting process receives a game mate recruitment status from the host server 20 in order to execute a game with another game terminal 1B that is communicatively connected to the game network system. It is a process to apply for the game you want to participate from. The CPU 2 of the game terminal 1A receives the game friend recruitment status data from the host server 20, and the recruitment status No. Is sent back to the host server 20 together with the sender ID to apply for participation in the game (step S3). When the application for participation in the game is successful (game participation is permitted), a battle rule determination process described later is started.
[0085]
The battle rule determination process (see FIGS. 16 to 19) is a process of determining a rule of a game to be executed in the chat format between game participants. The game terminal 1A transmits and receives chat data to and from the other game terminals 1B via the host server 20 (step S4). Rules can be determined under the agreement of all game participants.
[0086]
Furthermore, CPU2 starts the game download process (refer FIGS. 20-22) about the game program to be used. The game download process described later downloads game program data from the host server 20 when the game selected in the game type selection process is not stored in the game terminal 1, and uses the virtual currency data to charge the game program data. This is a process of paying to the server 20 (step S5).
[0087]
When the start key 3o of the game terminal 1A is pressed in a state where the above-described portrait image creation process, game type selection process, game friend recruitment process, battle rule determination process, and game download process are completed (step S6; Yes), Game progress processing is executed (see FIGS. 23 to 30). The game progress processing is, for example, processing such as execution of a game according to game program data, acquisition of biometric information at each stage of game progress, display of a portrait image, and change of the shape of the portrait image (step S7).
[0088]
Next, each process described above will be described in detail.
First, the portrait image creation process will be described with reference to FIGS.
FIG. 8 is a flowchart for explaining the portrait image creation process, FIG. 9 is a flowchart for explaining the composition / display process, and FIG. 10A is a diagram showing an example of the created portrait image. FIG. 10B is a diagram illustrating an example in which a portrait image is created by moving the barcode on the barcode reading unit 12.
[0089]
In the portrait image creation process shown in FIG. 8, first, when the montage creation key 3c of the input unit 3 is operated and the CPU 2 detects the key operation signal (step A101; Yes), the montage creation mode is set.
[0090]
In this montage creation mode, when the part creation key 3d is operated (step A102), the part creation mode for creating a portrait image by setting the part is set. The CPU 2 designates the montage data storage area on the “self” side of the montage data storage area 7a as the montage data storage destination (step A103).
[0091]
Then, first, the CPU 2 reads each partial image “No. 1” constituting the first basic montage from the basic parts ROM 6a (step A104).
[0092]
On the other hand, when the part creation key 3d is not operated in step A102 (step A102; No), it is determined whether or not the barcode key 3e is operated. When the bar code key 3e is operated (step A105; Yes), the bar code creation mode for reading the bar code and converting it into montage data to create a portrait image is set.
[0093]
According to this barcode creation mode, you can save yourself the trouble of creating a caricature image, and as a caricature image displayed during an online game, celebrities (for example, montage images of foreign actors, etc.), child montage images, Montage images can be created quickly and reliably. In addition, it is effective for a game player who feels embarrassed to display his / her face image in a network game, because a portrait image of a celebrity or the like can be used as his / her portrait image.
[0094]
The CPU 2 designates the montage data storage area on the “self” side of the montage data storage area 7a as the montage data storage destination (step A106). Thereafter, barcode data reading processing is performed. In this process, a barcode printed on some article is read by an optical data reading method by a barcode reading unit 12 provided in the game terminal 1.
[0095]
Alternatively, as shown in FIG. 10B, if a portrait image collection book 35 is distributed or sold to each game player, a plurality of portrait images N21 are printed on the surface 35a of the book 35 in advance. Since the barcode N20 indicating the montage data used in creating the portrait image N21 is printed in association with each other, the desired barcode N20 is displayed on the game terminal 1 from among the barcodes N20. The bar code N20 is read by an optical data reading method by the bar code reading unit 12 provided in the game terminal 1 only by moving the bar code reading unit 12 provided in the bar.
[0096]
When the reading of the barcode data is completed (step A107), the CPU 2 starts barcode decoding processing. In this barcode decoding process, the read barcode data is the part number of the partial image constituting the portrait image. Is converted into montage data (step A108). If it is determined that the barcode decoding process has been completed (step A109; Yes), the acquired montage data is stored in the montage data storage area 7a of the RAM (step A110).
[0097]
Next, the CPU 2 determines the basic part number read in step A104. Each partial image of 1 or each partial image corresponding to the montage data acquired from the barcode data in steps A106 to A110 is transferred to the synthesis RAM 8 to be synthesized and displayed on the display unit 4 as a basic montage (steps). A111).
[0098]
Here, the composition / display processing will be described with reference to FIG.
The part number of each partial image stored in the basic part ROM 6a. Is specified, the CPU 2 determines the part number. Are read out, stored in the montage data storage area 7a on the own side, and transferred to the synthesis RAM 8 (steps A201 to A205). In this case, in the synthesis RAM 8, the partial images constituting the first basic portrait image (basic montage) are synthesized and displayed on the display unit 4 (step A206; see FIG. 10A).
[0099]
Here, when the basic montage selection key “Δ, ▽” key of the input unit 3 is operated (step S112), each part No. specifying the basic montage is displayed. Is changed from “No. 1” to “No. 2” (step A113). Then, a part number indicating the partial image designated as the basic montage is displayed. In response to “2”, each partial image stored in the basic part ROM 6a (in this case, all part numbers “2”) is read out, and the composition / display processing is executed to display the second basic montage on the display unit 4. indicate.
[0100]
That is, when the basic montage selection keys 3h and 3i “Δ, ▽” are operated, the CPU 2 repeatedly executes steps A111 to A113, and the part No. Twenty kinds of basic montages stored as “1” to “20” are sequentially changed and synthesized and displayed. As a result, the player selects a basic montage close to the desired portrait image and displays it on the display unit 4.
[0101]
When the part designation keys 3j and 3k “↑, ↓” are operated (step A114; Yes), the pattern change target part is changed to an arbitrary part (step A115). For example, a specific partial image is replaced with another different part among the partial images constituting the basic montage displayed near the player's desired portrait image displayed on the display unit 4 by the processing of Step A111 to Step A113. When changing to an image, the part designation keys 3j and 3k “↑, ↓” are operated to designate the part to be changed.
[0102]
Thereafter, when the partial image selection keys 3l and 3m “←, →” are operated (step A116; Yes), the part number of the partial image corresponding to the part to be changed is changed. Is changed (step A117). The CPU 2 changes the selected part number. Is read from the basic parts ROM 6a, and the composition / display processing is executed to display the montage in which the partial image is changed on the display unit 4 (step A111).
[0103]
Thereby, the player can change the desired partial image (part to be changed) in the basic montage selected and displayed in advance on the display unit 4 to another partial image. Further, when the partial image is changed by designating another part, the processing of step A114 to step A117 is repeated, the operation of the part designation keys 3j, 3k “↑, ↓” and the partial image selection keys 3l, 3m “ By the operation “←, →”, the partial image of the part to be changed is changed, the composition / display process is executed, and the changed montage is displayed on the display unit 4.
[0104]
Then, when the portrait image desired by the player is obtained, when the “registration” key 3n of the input unit 3 is operated (step A118; Yes), the partial image combining process is completed and the combined RAM 8 holds the combined image. Part No. of each partial image corresponding to the caricature image being displayed. Is stored in the montage data storage area 7a in the RAM 7 as montage data (step A119).
[0105]
In this portrait image creation process, for example, a portrait image N1 as shown in FIG. 10A can be obtained. The caricature image N1 shown in FIG. 10 (A) is obtained from the basic part ROM 6a from the part No. for the outline, hair, eyes and mouth. Is “No. 1” and the part no. Is selected and synthesized.
[0106]
Thereafter, the CPU 2 transmits the montage data stored in the montage data storage area 7a together with the sender ID to the host server 20 via the transmission / reception unit 9 (step A120). The host server 20 temporarily stores the received montage data and the sender ID, and returns a confirmation message indicating that the montage data has been received to the transmission source (game terminal 1). When the game terminal 1 receives the confirmation message, the game terminal 1 displays the confirmation message on the display unit 4 (step A121).
[0107]
Next, the game type selection process will be described with reference to FIGS.
FIG. 11 is a flowchart illustrating the game type selection process, and FIG. 12 is a diagram illustrating a display example of the game selection screen 4a.
[0108]
In the game type selection process shown in FIG. 11, the CPU 2 first receives selectable game type data from the host server 20, and displays a game selection screen 4a as shown in FIG. B101).
[0109]
That is, when the game terminal 1 requests the host server 20 for data of a game type that can be played, the host server 20 can play a game type that can be played from the game programs stored in the game program data ROM 22. Data (including game No. and game name) is returned to the game terminal 1. In the game selection screen 4a shown in FIG. 12, a message M1 prompting a selection “Please select from the next game” and a game No. “1” “card game” type display G1, game no. “2” “instrument playing game” type display G2, game no. A plurality of game types such as “3” “car racing game” type display G3,... Are displayed, and a pointer P indicating a game to be selected is displayed.
[0110]
After that, by the operation of the part designation keys 3j, 3k “↑, ↓” of the input unit 3, the pointer P is moved and selected from the type indications G1, G2,. When the “registration” key 3n is operated to confirm the game (step B102; Yes), the CPU 2 determines the game No. of the selected game. Is stored in the game type storage area 7c of the RAM 7 (step B103). Further, the CPU 2 determines the game No. of the selected game. Together with the sender ID to the host server 20 (step B104).
[0111]
When the host server 20 receives a request for game program data, the host server 20 automatically creates a confirmation message indicating that the request has been received and returns it to the sender.
When the game terminal receives the reception confirmation message distributed from the host server 20, the game terminal displays the received message on the display unit 4 (step B105).
[0112]
Next, the game friend recruiting process will be described with reference to FIGS.
FIG. 13 is a flowchart for explaining game buddies recruitment processing, FIG. 14 is a view showing a display example of the game buddies recruitment status, and FIG. 15 is a view showing a display example of a message display regarding success or failure of the game application.
[0113]
In the game mate recruiting process shown in FIG. 13, when the game terminal 1 requests the host server 20 to distribute the game mate recruitment status, the host server 20 recruits the mate when the distribution request is received. Data such as the type of game, the game start time, the number of people recruited, etc. is transmitted to the request source.
[0114]
When the game terminal 1 receives game recruitment status data from the host server 20 via the transmission / reception unit 9, the game terminal 1 displays the received recruitment status data on the display unit 4 (step C101; see FIG. 14).
[0115]
FIG. 14 shows an example of the display screen 4b that displays the received recruitment status of game friends. Information such as game type, game start time, capacity (recruitment number), and the like are displayed on the display screen 4b of the game fellow recruitment status. In the example shown in FIG. In “1”, “ABC game first game PM3: 00-capacity 2 (and 2 more)” recruitment status B1, game buddy recruitment No. In “2”, the recruitment status of the game friends, such as the recruitment status B2, “XYZ game first game PM3: 00 to 4 people (1 more)”, is the recruitment status No.2. It is displayed with. In addition, a pointer P for designating which game fellow recruitment situation the player applies for is displayed.
[0116]
When the recruitment information that the player wants to apply for is selected by moving the pointer P via the input unit 3 on the display screen 4b of the game fellow recruitment status, and the selection is determined by operating the “Register” key 3n (step C102; Yes), recruiting no. Is stored in the game fellow recruitment data (recruitment status No.) storage area 7d of the RAM 7 (step C103), and then the recruitment status No. is stored in the host server 20. Is transmitted together with the sender ID (step C104).
[0117]
Recruitment of game friends from game terminal 1 The host server 20 that has received the received recruitment status No. If the application received this time is within the recruitment capacity, and if it is within the recruitment capacity, a message to that effect is sent back to the application's game terminal, assuming that the application was successful. The received recruitment status No. If the number of applications exceeds the recruitment capacity, a message indicating that the application has already been closed is returned to the application terminal.
[0118]
The game terminal 1 that has received the message about the success or failure of the application from the host server 20 displays the received message on the display unit 4 (step C105; see FIG. 15). FIG. 15 is an example of a display screen 4c displaying a message indicating success or failure of application for the game mate recruitment status. Here, the recruitment information of the game mate for which the player of the game terminal 1 has applied is a message indicating that it has been closed. ing. For example, “・ No. 2 XYZ game, first game, PM3: 00 to 4 people,” was closed. “The game that is still being recruited is“ No. 1 ABC game 1st game PM3: 00 to 2 capacity ”. Message M3 is displayed.
[0119]
Thereafter, when the process for the success or failure of the application is completed, such as pressing the “registration” key 3n or receiving the recruitment status again (step C106; Yes), the game fellow recruitment process is terminated.
[0120]
Next, the battle rule determination process will be described with reference to FIGS.
FIG. 16 is a flowchart for explaining the battle rule determination process, FIG. 17 is a diagram showing an example of a display screen 4d displaying the battle rule presentation data, and FIG. 18 is displayed during a chat about the battle rule. FIG. 19 is a diagram illustrating a display example of the chat screen 4e to be displayed, and FIG. 19 is a diagram illustrating an example of the display screen 4f displaying the determined battle rule.
[0121]
In the battle rule determination process shown in FIG. 16, first, presentation data for a game determined to be participated is received from the host server 20, and the received presentation data is displayed on the display unit 4 (step D101; see FIG. 17). The presentation data of the battle rule displayed here is data presented by the host server 20 as a rule that must be mutually agreed between the opponents in order to perform a battle. For example, as shown in FIG. 17, the presentation data T <b> 1 is “A number of games”, the presentation data T <b> 2 is “B battle time”, and the like.
[0122]
Thereafter, the game terminal 1 receives the montage data of the opponent. The CPU 2 stores the received montage data in the storage area on the other side of the registration-time montage data storage area 7 a of the RAM 7.
[0123]
Then, the CPU 2 executes a portrait image composition / display process (see FIG. 9) for all the montage data (self and partner montage data) stored in the montage data storage area 7a. That is, each partial image corresponding to the montage data is read from the basic parts ROM 6 a and transferred to the synthesis RAM 8. Further, the CPU 2 generates a portrait image by combining the partial images in the combining RAM 8 and displays it on the display unit 4 (step D102). This composition / display processing is performed on montage data of all participants participating in the game, and the portrait images of the game participants are displayed on the display unit 4 for the number of persons.
[0124]
After that, the game terminal receives data from the host server 20 to prompt the start of the discussion about the battle rules by all the opponents and displays the data on the display unit 4 (step D103).
[0125]
Next, a chat (conversation) about the battle rule is started between the game terminals participating in the game. That is, when the content to be transmitted to the other party by the player is input from the input unit 3 as chat data, the CPU 2 stores the input chat data in the chat data storage area 7 f of the RAM 7 and transmits it to the host server 20. Also, the chat data input by the user is displayed in the vicinity of the own portrait image N1. Further, when chat data is transmitted from the opponent via the host server 20, the chat data is received and the chat data is displayed in the vicinity of the portrait image N2 of the player who has transmitted the chat data (step). D104; see FIG. 18).
[0126]
For example, FIG. 18 shows an example of a chat screen 4e when two people are competing with each other, and the portrait image N1 of the self is displayed on the left side, and the portrait image N2 of the opponent is displayed on the right side. The contents of each chat data are displayed inside the balloon displays F1 and F2. Inside the balloon display F1 in the vicinity of the self-portrait image N1, the chat data CH1 inputted by the user “How about the number of matches is 2?” Is displayed. Inside, the chat data CH2 “OK” sent from the other party is displayed.
[0127]
In this way, the chat is continued until the battle rules are determined by the chats of all the participants with respect to the presentation data T1, T2 (“A number of games”, “B battle time”) of the battle rules. When the rule is accepted (“OK” key) (step D105; Yes), the determined battle rule data is stored in the battle rule data storage area 7g of the RAM 7 and displayed on the display unit 4 (step D106; see FIG. 19). .
[0128]
For example, when the rule that the number of games is 5 times and the game time is 30 minutes per game is decided, as shown in FIG. Match rule data T′1 “A number of games: 5” and match rule data T′2 “B match time: 30 minutes / once” are displayed.
As described above, when the battle rule is determined in the chat for all the participants of the game, the battle rule determination process is terminated.
[0129]
Next, the game download process will be described with reference to FIGS.
FIG. 20 is a flowchart for explaining the flow of the game download process, FIG. 21 is a diagram showing a display example of the download necessity screen 4g, and FIG. 22 is a diagram showing a display example of the fee display screen 4h. .
[0130]
In the game download process shown in FIG. 20, first, the CPU 2 of the game terminal 1 displays a download necessity screen 4g asking the player whether or not game program data to be used for the game is necessary (step E101; see FIG. 21). ).
[0131]
On the download necessity screen 4g, for example, as shown in FIG. 21, a message M6 “What game to use?” And a download unnecessary display Y1 instructed when there is no need to download “1 use your own” are displayed. , A download necessary display Y2 that is instructed when download is necessary, such as “download and use”, is displayed, and a pointer P for indicating either the download necessary display Y2 or the download unnecessary display Y1 is displayed. Yes.
[0132]
In the download necessity screen 4g, when the pointer P is moved up and down by the operation of the part designation keys 3j and 3k of the input unit 3 and the download necessity display Y2 is instructed (step E102), the CPU 2 of the game terminal 1 , Game No. of the game that downloads a signal requesting fee data to the host server 20. Send with. At this time, the sender ID is also transmitted at the same time.
When receiving the fee data request, the host server 20 receives the received game number. Check the charge data for and send it back to the request sender.
[0133]
When the game terminal 1 receives the fee data, the fee data is displayed on the display unit 4 (step E103; see FIG. 22). On the fee display screen 4h displayed on the display unit 4, for example, as shown in FIG. 22, game type “car racing game” and fee data R of “1000 yen” are displayed as “game program fee”. The
[0134]
When the confirmation of the game fee on the fee display screen 4h is finished by the player and the “registration” key 3n of the input unit 3 is operated (step E104), the CPU 2 determines the virtual network for the network according to the presented fee. Game No. requesting download of currency data. At the same time, the data is transmitted to the host server 20 (step E105). At this time, the sender ID is also transmitted.
[0135]
The host server 20 that has received the virtual currency data confirms the received virtual currency data and the type of the game, reads the corresponding game program data from the game program data ROM 22, and returns the game program data to the transmission source.
[0136]
When the game terminal 1 receives the requested game program data, the game program data is stored in the game program data storage area 7e of the RAM 7 (step E106), and when the reception of the game program data is completed (step E107), the game download process is performed. Exit.
[0137]
Next, the game progress process will be described with reference to FIGS.
FIG. 23 is a flowchart for explaining the flow of the game progress process. FIG. 24 is a diagram showing a prompt display screen 4i on which a message prompting the touch to the biometric sensor 11 is displayed. FIG. FIG. 26 is a diagram illustrating a display example of portrait images N1 and N2 displayed in the middle, FIG. 26 is a flowchart for explaining the portrait change process (1), and FIG. 27 is a graph showing a time change of the pulse rate. FIG. 28 is a view showing a display example of the portrait images N1 and N2 changed and displayed in the portrait change process (1). FIG. 29 is a flowchart for explaining the portrait change process (2). FIG. 30 is a diagram illustrating a display example of the portrait images N1 and N2 that have been changed and displayed in the portrait change process (2).
[0138]
In the game progress process, the biological information and the progress of the game at a predetermined stage of the game to be executed, for example, the stage at the start of the game, each stage in the middle of the game, and the stage of the game result, etc. In response, the partial image constituting the portrait image displayed on the display unit 4 is changed. Specifically, while the game is in progress, the player's biometric information is acquired from his / her own biosensor 11, and each partial image of his / her portrait image N1 is changed and displayed in accordance with the biometric information. Change attitude. Also, the biological information of the opponent is acquired via the transmission / reception unit 9, and each partial image of the opponent's portrait image N2 is changed and displayed according to the biological information, thereby changing the expression and attitude. In the game result stage, the partial images of the portrait images N1 and N2 are further changed and displayed according to the result of the game win or loss. In this game progress process, chatting with an opponent can be performed during the progress of the game.
[0139]
Hereinafter, the game progress process will be described with reference to FIG.
The self montage data created in the above-mentioned portrait image creation processing is stored in the RAM 7, the game program data for the game selected in the above-described game type selection processing is downloaded by the game download processing and stored in the RAM 7, and the above-mentioned In the state where the opponent is determined by the game recruitment process, the battle rule is determined with the opponent by the above-described battle rule determination process, and the battle rule is stored in the RAM 7, the CPU 2 starts the game When the time is counted, the game progress process is started.
[0140]
At the stage of starting the game, first, the host server 20 transmits prompting data to the player so as to touch the biometric sensor 11. The CPU 2 of the game terminal 1 displays the received prompt data on the prompt display screen 4i shown in FIG. For example, an instruction M7 “Please touch your fingertip on the biometric sensor before starting the game” is displayed on the prompting display screen (step F101; see FIG. 24).
[0141]
When the player's fingertip touches the biosensor 11 in accordance with the prompt instruction 4i, biometric information such as the player's pulse rate and perspiration is measured by the biosensor 11, and the CPU 2 acquires the measured data and stores the biometric information in the RAM 7. The information is stored in the area 7h and displayed on the display unit 4. Further, the CPU 2 transmits the biometric information together with the sender ID to the host server 20 (step F102).
[0142]
Thereafter, the CPU 2 reads out each partial image corresponding to its own montage data stored in the RAM 7 from the basic parts ROM 6a, executes the above-described composition / display processing (see FIG. 9), and causes the display unit 4 to display the self-montage data. The portrait image N1 is displayed (step F103).
[0143]
When the opponent's montage data is received from the host server 20, the CPU 2 of the game terminal 1 stores the received communication partner's montage data in the storage area of the opponent side in the montage data storage area 7 a of the RAM 7. Further, each partial image corresponding to the montage data is read from the basic parts ROM 6a, and the above-described composition / display processing (see FIG. 9) is executed to display the other person's portrait image N2 on the display unit 4 (step F104). ).
[0144]
Thereafter, when chat data is input from the input unit 3, the chat data is stored in the chat data storage area 7f of the RAM 7 and displayed on the display unit 4 (step F105). When the input of chat data is completed and the “registration” key 3n is operated (step F106; Yes), the CPU 2 transmits the chat data together with the sender ID to the host server 20 (step F107).
[0145]
Thereafter, the CPU 2 displays the transmitted chat data in the balloon display F1 attached to the mouth of the own portrait image N1 (step F108; see FIG. 25). When the chat data of the opponent is further received from the host server 20 (step F109), the received chart data is displayed in the balloon display F2 attached to the mouth of the opponent's portrait image N2 (step F110; FIG. 25).
[0146]
At this stage, the display unit 4 displays the portrait images N1 and N2, balloon display F1 and F2, and chat data CH3 and CH4 for the self and the opponent. In the example shown in FIG. 24, the chat data CH3 “I am Murata in Tokyo” is displayed in the balloon display F1 displayed at the mouth of the own portrait image N1, and is displayed at the mouth of the opponent's portrait image N2. In the displayed balloon display F2, chat data CH4 “Let's do our best to the end!” Is displayed.
[0147]
Next, the CPU 2 executes processing for changing the displayed portrait images N1 and N2 to portrait images representing the display and attitude corresponding to the biological information and displaying them. Hereinafter, the caricature change process (1) will be described with reference to FIG.
[0148]
In the caricature change process (1) shown in FIG. 26, first, when the opponent's biological information is received from the host server 20, the CPU 2 of the game terminal 1 stores the received biological information in the biological information storage area 7h of the RAM 7. (Step F201).
[0149]
Then, in order to determine what kind of psychological state the values of the biological information of the self and the other party are, it is determined which range of preset setting values belongs. FIG. 27 is a graph showing changes in pulse rate over time. The graph shown in FIG. 27 represents changes over time in the pulse rate detected by the biosensor 11 with the vertical axis representing the pulse rate and the horizontal axis representing the time axis. In FIG. 27, the straight line shown in (A) and the straight line shown in (B) are set values of the pulse rate.
[0150]
If it is determined in step F202 that the pulse rate is equal to or less than the set value (A), it is determined that the psychological state is calm and there is no significant change, and the facial expression and attitude of the portrait image are not changed. On the other hand, if it is determined that the pulse rate belongs to the range from the set value (A) to the set value (B), it is determined that there is a change in the psychological situation and corresponds to the state determined from the pulse rate in this range. From the facial expression part ROM 6b, the corresponding part No. Is stored in place of the montage data stored in the montage data storage area 7a. Further, when the pulse rate becomes equal to or higher than the set value (B), it is determined that the psychological state is still changed, and the corresponding part No. is read from the facial expression part ROM 6b corresponding to the state determined from the pulse rate within this range. Is stored in place of the montage data stored in the montage data storage area 7a.
[0151]
Then, the CPU 2 reads out the partial image corresponding to the montage data updated according to the biological information such as the pulse rate from the facial expression parts ROM 6b, and displays it by replacing the displayed partial image (step F203). Further, a message corresponding to the state determined from the biological information such as the pulse rate is read from the message ROM 6c and displayed instead of the chat data CH3 and CH4 displayed in the balloon displays F1 and F2.
[0152]
FIG. 28 is an image in a state in which the partial image of the portrait image is changed according to the biometric information. During the progress of the game (in this example, a car racing game), the pulse rate of the player is measured as “120”, and the CPU 2 sets the pulse rate to, for example, a range equal to or greater than the set value (B) (pulse rate at time t2 in FIG. 27). If it is determined that there is a state, the psychological state at this time is determined to be an “angry” state that is equal to or greater than the set value (B). Then, as shown in FIG. 5, from the expression part ROM 6b (see FIG. 4A) corresponding to the “anger” state, the corresponding part No. The partial image is read out. Part No. at registration Is “1”, the part no. The partial image “101” is read, and the partial images of the eyes and mouth are changed and displayed. Further, the message M7 “Mukatsu!” Is read from the message ROM 4c (see FIG. 5) and displayed instead of the chat data CH3 in the balloon display F1.
[0153]
Further, when the opponent's pulse rate transmitted from the host server 20 is “70” during the progress of the game, the CPU 2 sets, for example, a range between the set values (A) and (B) (FIG. 27). If it is determined that the pulse rate is at time t1, t3, t4), the psychological state at this time is determined to be a “surprise” state that is a state between the set values (A) and (B). Then, as shown in FIG. 5, from the expression part ROM 6b corresponding to the “surprise” state (see FIG. 4C), the corresponding part No. The partial image is read out. Part No. at registration Is “2”, the part no. The partial image “102” is read, and the partial images of the eyes and mouth are changed and displayed.
[0154]
In this way, the caricature changing process (1) is executed during the progress of the game, the psychological state is determined from the biological information such as the player's pulse and the amount of sweating, and the caricature image is changed according to the psychological state. A corresponding message is displayed.
[0155]
Next, the CPU 2 executes a process of displaying the displayed portrait image by changing the expression and attitude of the portrait image according to the game content such as superiority or inferiority or ranking during the game. Hereinafter, the caricature change process (2) will be described with reference to FIG.
[0156]
In the caricature change process (2) shown in FIG. 29, first, when game content (game superiority, rank, etc.) data is received from the host server 20, the CPU 2 of the game terminal 1 stores the received game content data in the RAM 7. Is stored in the game content data storage area 7i (step F301).
[0157]
Then, according to the received game content data, the corresponding part No. is read from the corresponding facial expression part ROM 6b. Is stored in place of the montage data stored in the montage data storage area 7a.
[0158]
Then, the CPU 2 reads out the partial image corresponding to the montage data updated according to the game content from the facial expression part ROM 6b, and displays it by replacing the displayed partial image (step F302; see FIG. 30). Further, a message corresponding to the state determined from the game content data is read from the message ROM 6c and displayed in the balloon displays F1 and F2 (step F303; see M8 and M9 in FIG. 30).
[0159]
FIG. 30 is an image in a state where the facial expression and attitude of the portrait image are changed according to the game content. For example, in the result stage of a game (in this example, a car racing game), if the opponent is 1st and 1st is 2nd, the CPU 2 is stored in the game content data storage area 7i of the RAM 7 at the current time. The player's state (in this case, the opponent is “winning” and the player is “losing”) is determined from each ranking. Then, from the expression part ROM 6b corresponding to the determined state, the corresponding part No. The partial image is read out. Further, the corresponding message is read from the message ROM 6c and displayed instead of the message in the balloon displays F1 and F2.
[0160]
In the caricature image N2 of the first opponent, the partial images such as eyes and mouth are changed so as to represent the facial expression corresponding to the “winning” state, and the message M8 is “I won! It is displayed in the balloon display F2. In addition, in the second-place portrait image N1, the partial images of the eyes and mouth are changed so as to express the facial expression corresponding to the “losing” state, and the message “Lose forgive me!” Is displayed. M9 is displayed in the balloon display F1.
[0161]
In this way, during the progress of the game or in the result stage, the partial images constituting the portrait image are changed according to the game content such as superiority or inferiority of the game, and a message corresponding to the state is displayed.
[0162]
(2) Various processes executed by the host server 20
Next, in the above-described game, processing in the host server 20 will be described while showing a relationship with data exchange with the game terminals 1A and 1B connected in communication.
FIGS. 31 to 33 are flowcharts for explaining the relationship between the three processes of the host server 20, the own game terminal 1A, and the opponent game terminal 1B. Since the processing of the game terminal 1 (1A, 1B) has been described in detail, the processing of the host server 20 will be mainly described.
[0163]
First, an application for a game to be executed in the game network system is made to the host server 20 from the game terminals 1A and 1B connected via communication (steps H101 and J101), and the application data is received at the host server 20. Then, data such as the sender ID of the game terminals 1A and 1B that transmitted the application is stored in the RAM 21A of the host server 20 installed in the host server 20 (step G101). Then, the CPU 21 of the host server 20 transmits prompting display data for displaying a display prompting creation of a portrait image to the game apparatuses 1A and 1B so that the portrait creation process is executed in each game terminal (step G102). .
[0164]
The game terminals 1A and 1B display the received prompt display data on the display screen (steps H102 and J102), and then transmit the montage data created by the portrait image creation process and the sender ID (steps H103 and J103). See FIG. 8).
[0165]
When the host server 20 receives montage data or the like from the game terminals 1A and 1B (step G103), the host server 20 secures it in the RAM 21A, and then reads a confirmation message indicating that the montage data has been received from a message ROM in the host server 20 (not shown). The confirmation message is transmitted to the montage data transmission destination (step G104). The game terminals 1A and 1B display the received confirmation message on the display unit 4 (steps H104 and J104).
[0166]
Next, the CPU 21 of the host server 20 displays a game selection screen (see FIG. 12) which is a display screen for prompting selection of the game type so that the game type selection processing is executed in each of the game terminals 1A and 1B. Display data for transmitting is transmitted to the game apparatuses 1A and 1B (step G105). The game terminals 1A and 1B display the received display data on the display unit 4 (steps H105 and J105; see FIGS. 11 and 12), and then the type of game selected by manual operation of the player of each game terminal. Game No. The sender ID is transmitted (steps H106, J106).
[0167]
In the host server 20, the game terminal 1A, 1B receives the game No. Is received in the RAM 21A (step G106), and then the selected game No. is read from the message ROM (not shown) in the host server 20. Is read out, and the selected game No. is read out. A confirmation message is transmitted to the transmission destination (step G107). The game terminals 1A and 1B display the received confirmation message on the display unit 4 (steps H107 and J107).
[0168]
Next, the CPU 21 of the host server 20 transmits game fellow recruitment status data to the game terminals 1A and 1B (step G108). The game terminals 1A and 1B display the received game buddy recruitment status data on the display unit 4 (steps H108 and J108; see FIGS. 13 and 14), and then selected by the operation of the players of the game terminals 1A and 1B. Recruitment of game friends No. The sender ID is transmitted (steps H109 and J109). In the host server 20, game recruitment numbers No. 1 from the game terminals 1A and 1B. Is secured in the RAM 21A, it is determined whether or not participation in the applied game is permitted, and the determination result is transmitted to each of the game terminals 1A and 1B (step G109; see FIG. 15).
[0169]
Next, the CPU 21 of the host server 20 transmits game competition rule presentation data to the game terminals 1A and 1B (step G110). The game terminals 1A and 1B display the received game competition rule presentation data on the display unit 4 (steps H110 and J110; see FIGS. 16 and 17). Further, the host server 20 transfers the opponent's montage data to the game terminals 1A and 1B by the transfer unit 24 (step G111). That is, the CPU 21 of the host server 20 is connected between the game terminals 1A and 1B determined to participate in the game in the game mate recruiting process among the montage data transmitted from the game terminals 1A and 1B stored in the RAM 21A. Exchange montage data. Upon receiving the opponent's montage data, the game terminals 1A and 1B create a portrait image from the received montage data and display it on the display unit 4 (steps H111 and J111; see FIG. 18).
[0170]
Further, the host server 20 transmits data for displaying a display screen for prompting to start discussion (chatting) of all the game participants about the game battle rules from the message ROM (not shown) to each of the game terminals 1A and 1B. (Step G112). When the game terminals 1A and 1B receive data prompting a discussion about the battle rules, the game terminals 1A and 1B display the prompt data on the display screen and start chatting between the game terminals 1A and 1B. The mutual chat data is exchanged between the game terminals 1A and 1B via the host server 20 (steps H113 and J113). That is, when the host server 20 receives chat data input and transmitted from the game terminals 1A and 1B, the host server 20 passes the received chat data to the transfer unit 24 and transfers it to the game terminals 1A and 1B that are the opponents. To do.
[0171]
Thereafter, when the game rules are approved in all the game terminals 1A and 1B participating in the game, the battle rules are determined and transmitted to the game terminals 1A and 1B as rule data (step G113). When each game terminal 1A, 1B receives the determined battle rule, it displays it on the display unit 4 (steps H114, J114; see FIG. 19).
[0172]
Next, the host server 20 transmits game program download necessity confirmation data to the data terminals 1A and 1B (step G114). Upon receiving the necessity confirmation data, the game terminals 1A and 1B display a game program download necessity screen (see FIG. 21) on the display unit 4 based on the received data (steps H115, J115; FIG. 20, (See FIG. 21). When it is necessary to download, the game terminals 1A and 1B transmit to the host server 20 that the download is necessary (steps H116 and J116).
[0173]
The host server 20 reads the charge data of the game program that is required to be downloaded from the charge data RAM (not shown), and returns it to the game terminals 1A and 1B (step G115). The game terminals 1A and 1B display the received fee data (steps H117 and J117; see FIG. 22), and when the registration key 3m for confirming the displayed fee is operated, the fact that the payment of the fee has been confirmed. In addition to transmitting to the host server 20 (steps H118 and J118), the virtual currency data corresponding to the charge data is transmitted to the host server 20 (steps H119 and J119).
[0174]
When the host server 20 receives the confirmation of the charge data and the virtual currency data corresponding to the charge data, the host server 20 reads out the game program data that needs to be downloaded from the game program data ROM 22 and passes it to the game distribution unit 23, Distribution is made to the game terminals 1A and 1B via the distribution unit 23 (step G116). In the game terminals 1A and 1B, the received game program data is stored in the game program data storage area 7e of the RAM 7 (steps H120 and J120).
[0175]
Next, the host server 20 transmits data for prompting the touch to the biometric sensor 11 to each game terminal in order to start the progress of the game (step G117). When each game terminal receives touch prompting data for the biometric sensor 11, the game terminal displays the prompting data on the display unit 4 (steps H122, J122; see FIG. 24), and the biometric information acquired by the biometric sensor 11 is displayed on the host server 20. (Steps H122 and J122). Further, the game terminal displays his / her portrait image N1 on the display unit 4 (steps H123 and J123). The host server 20 stores the received biometric information in the RAM 21A.
[0176]
Thereafter, the host server 20 transmits the montage data of the opponent stored in the RAM 21A to the game terminals 1A and 1B (step G118). The game terminals 1A and 1B display a portrait image N2 of the opponent from the received montage data (steps H124 and J124), display the input chat data on the display unit 4, and transmit it to the host server 20 (steps). H125, J125). In addition, the host server 20 displays chat data with a balloon on its own portrait image N1 (steps H126 and J126; see FIG. 25).
[0177]
The host server 20 transmits the chat data of the opponent stored in the RAM 21A to the game terminals 1A and 1B (step G119). When the game terminal 1A, 1B receives the chat data of the opponent, it displays the chat data with a balloon on the opponent's portrait image N2 (steps H127, J127; see FIG. 25).
[0178]
Thereafter, the host server 20 transmits the opponent's biometric information stored in the RAM 21A to the game terminals 1A and 1B (step G120). When the game terminals 1A and 1B receive the opponent's biological information, the game terminals 1A and 1B execute a caricature change process (1) (see FIG. 26), determine the psychological state of each player from the biological information, and according to the psychological state. The partial images of the portrait images N1 and N2 are changed and displayed to change the facial expression (steps H128 and J128; see FIG. 28). Further, a message corresponding to the state is displayed on each portrait image (H129, J129).
[0179]
In addition, the host server 20 transmits game content data such as the superiority and inferiority of the game and the ranking to the game terminals 1A and 1B (step G121). When the game terminals 1A and 1B receive the game content data, they execute a portrait change process (2) (see FIG. 29), and the portrait images N1 and N2 corresponding to the state (excellence, inferiority, rank, etc.) of each player. The image is changed and displayed, and the expression is changed (steps H130 and J130; see FIG. 30). Further, a message corresponding to the state is displayed on each portrait image (H129, J129).
[0180]
As described above, the game network system according to the first embodiment of the present invention includes the host server 20 and the plurality of game terminals 1A and 1B. The host server 20 includes a game program data ROM 22 in which a plurality of game programs are stored. By the game type selection process (see FIG. 11) and the game download process (see FIG. 20) executed in each game terminal 1A, 1B. The game program of the type of game requested to be downloaded from the game terminal is distributed through the game distribution unit 23 from among the plurality of game programs stored in the program data ROM 22. The host server 20 also includes game data (including montage data, game content data, biometric information, etc.) associated with the game executed in the game progress process (see FIG. 23) executed on each game terminal 1A, 1B. When received, the received game data is transferred to the game terminals 1A and 1B of the opponents.
[0181]
Further, in the game network system according to the first embodiment of the present invention, each game terminal 1A, 1B executes a portrait image creation process (see FIG. 8) to create its own portrait image, and this portrait image is displayed. Montage data of each partial image to be configured is stored in the RAM 7 and transmitted to the host server 20. In the host server 20, the received montage data is temporarily stored in the RAM 21A of the host server 20, and this montage data is used as an opponent game terminal 1A when a chat or game is executed between the game terminals 1A and 1B. , 1B. Each game terminal 1A, 1B receives the opponent's montage data transferred from the host server 20, creates a portrait image of the opponent from the received opponent's montage data, and displays it on the display unit 4, The self-portrait image created by the portrait image creation process is displayed on the display unit 4. The game terminals 1A and 1B execute a game with the opponent game terminals 1A and 1B via the host server 20.
[0182]
During the progress of the game, each game terminal 1A, 1B changes the form of the portrait image displayed on the display unit 4 according to the content of the game being executed. For example, the facial expression or attitude of the caricature image of the person or the opponent is changed according to the game content such as superiority or inferiority of the game, ranking, etc. (caricature change process (2) (see FIG. 29)) Specifically, partial images such as eyes and mouth of the portrait image are changed and displayed, and a message corresponding to the state (game content) is read from the message ROM 6c and displayed.
[0183]
In addition, the player's pulse rate and sweating state are detected at each stage of the game progress using the biosensor 11 provided in each game terminal 1A, 1B, and psychological state information is detected from the biometric information, and the detected psychology is detected. The expression and attitude of the portrait image are changed according to the state information (caricature change process (1) (see FIG. 26)). During the course of the game, the opponent's game content data, biometric information, etc. are received via the host server 20, so that the facial expression and attitude of the opponent's portrait image can also be changed.
[0184]
Therefore, even when game program data is not stored in the game terminal of the player, not only can the game program data desired to be played be obtained (downloaded) quickly and easily, but also the obtained game program data can be obtained. Accordingly, it is possible to enjoy a game with a plurality of players at remote locations.
[0185]
In addition, the form (expression, attitude, etc.) of each person's caricature image displayed on the game terminal of each player can be changed in real time according to the progress of the game and the psychological state of the player, so that the player can feel the tension of the game. can do. In addition, the player's actual face image is not transmitted to the game machine of each player with a camera or the like and displayed, but the portrait image is transmitted and displayed as a substitute for himself, so that the user can enjoy the game with peace of mind. be able to.
[0186]
[Second Embodiment]
Next, with reference to FIG. 34, a wristwatch (list) type net game device and a game network system configured using this list type net game device 100 according to the second embodiment to which the present invention is applied. explain.
FIG. 34 is a top view showing an appearance of wrist type game apparatus 100 as the second embodiment of the present invention.
[0187]
The list type game apparatus 100 shown in FIG. 34 includes a game apparatus main body 101 having the same circuit configuration as that of the game terminal 1 of the first embodiment shown in FIG. 2, and the game apparatus main body 101 as a player. And a band 102 to be worn on the arm.
[0188]
An antenna unit 10, a display unit 4, an input unit 3, and a biological sensor 11 are provided on the upper surface of the game apparatus main body 101. Although not shown, the game apparatus main body 101 includes a CPU 2, a ROM 6, a RAM 7, a synthesis RAM 8, and a transmission / reception unit 9. Since the structure of each part is the same as that described in the first embodiment, the same reference numerals are given and description thereof is omitted.
[0189]
In addition to the clock function, the wrist-type game apparatus 100 accesses a network line such as a public line network or the Internet via the base station KK (see FIG. 34) from the transmission / reception unit 9 via the antenna unit 10. With ability. Therefore, similarly to the game network system shown in the first embodiment, the host server 20 can be accessed via the network line using the telephone function, and can be accessed with other game terminals via the network line. You can run the game.
[0190]
Furthermore, the wrist-type game terminal 100 according to the second embodiment has the portrait image creation process and game type selection described in the first embodiment in a state where the wrist-type game terminal 100 is wrapped around the player's arm using the band 102. Each process such as a process, a game mate recruiting process, a battle rule determination process, a game download process, and a game progress process can be executed. That is, even when worn on the list and carried with the user, desired game program data can be easily downloaded from the host server 20, or a game can be started on the spot using the downloaded game program. .
[0191]
Further, by providing the touch surface of the biometric sensor 11 on the back surface of the wrist game device 1, the touch surface of the biosensor 11 always touches the player's body when the game is executed with the arm worn. The biological information can be acquired without the player consciously touching the biological sensor 11. As a result, more natural biological information can be acquired, and the facial expression and attitude of the portrait image can be changed more realistically.
[0192]
As described above, according to the list type game device 100 in the second embodiment or the game network system using the list type game device 100, the game terminal as described in the first embodiment. Since the game apparatus main body 101 capable of executing the process equivalent to 1 can be attached to the user's arm by the band 102, portability can be improved. When used by being carried, the host server 20 can be accessed from any location via the network line, and desired game program data can be downloaded from the host server 20. Further, based on the game program data, a network game via a network line such as the Internet can be enjoyed even when being carried.
[0193]
[Third Embodiment]
Next, with reference to FIG. 35, the list type game apparatus 200 and the game network system configured using the list type game apparatus 200 according to the third embodiment to which the present invention is applied will be described in detail.
[0194]
FIG. 35 is an external view showing a wrist-type game apparatus 200 as a third embodiment of the present invention, FIG. 35 (A) is a top view, and FIG. 35 (B) is a side view. The wrist-type game apparatus 200 shown in FIG. 35 is configured by attaching a game apparatus body 201 having an opening / closing section 204 to a band 202 to be worn on a user's arm by a protector 203 that elastically deforms in the vertical direction. Has been.
[0195]
An antenna unit 10, a display unit 4, an input unit 3, and a biological sensor 11 are provided on the upper surface of the game apparatus main body 201. Although not shown, the game apparatus main body 201 includes a CPU 2, a ROM 6, a RAM 7, a synthesis RAM 8, and a transmission / reception unit 9. 35 (A) and 35 (B), the same reference numerals are given to the portions indicating the respective components shown in FIG. 2, and the configuration of the same portions is the same as that described in the first embodiment. The description is omitted.
[0196]
The band 202 is provided with a pedestal 205 provided with a recess, and a convex portion (not shown) corresponding to the recess provided in the pedestal 205 is provided on the back side of the game apparatus main body 201. . When the portable game machine 201 is mounted on the band 202, the protector 203 that is elastically deformed in the vertical direction is appropriately deformed to secure a space for mounting the game apparatus body 201 on the pedestal 205, and then the game apparatus body. The position of the game device 201 with respect to the pedestal 205 is determined by fitting the convex portion of the 201 into the concave portion of the pedestal 205, and the game device main body 201 is fixed to the pedestal 205 by returning the protector 203 to a predetermined fixed position.
[0197]
In addition to the clock function, the list-type game apparatus 200 has a telephone function of accessing a network line such as a public line network or the Internet from the transmission / reception unit 9 via the antenna unit 10 via the base station KK. Therefore, similarly to the game network system shown in the first embodiment, the host server 20 can be accessed via the network line, and a game can be executed with other game terminals via the network line. .
[0198]
In addition, data communication can be performed between the list type game devices 200 via the infrared communication unit 10A. That is, by making the communication windows of the respective infrared communication units 10A of the plurality of list-type game devices 200 face each other within a predetermined distance, data communication between the list-type game devices 200 becomes possible, and a portrait image creation process (see FIG. 8). ), A portrait change process (see FIGS. 26 and 29) while the game is in progress (see FIGS. 26 and 29), a fortune telling game process, a game in which a character is moved between the list-type game devices 200, and the like. In addition to this, for example, a process of reading a game program stored on one list-type game device side and transferring it to the other list-type game device side is performed.
[0199]
Data communication can be performed while the game apparatus main body 201 is attached to the band 202, so that the trouble of removing the game apparatus main body 201 from the band 202 can be saved. Further, data communication can be performed even when each wrist game device 200 is worn on the player's arm.
[0200]
As described above, according to the list type game device 200 or the game network system to which the list type game device 200 is applied, processing equivalent to that of the game terminal 1 as described in the first embodiment is executed. The portable game device body 201 can be worn on the user's arm by the band 202 or removed from the band 203 and carried in the user's pocket, so that portability can be improved. And even when carrying and using, downloading a necessary game program from the host server 20 via a network line, or downloading and using the game program stored in one game device side by infrared communication Can do.
[0201]
[Fourth Embodiment]
Next, with reference to FIG. 36, a mobile telephone game apparatus 300 and a game network system configured using the mobile telephone game apparatus 300 according to the fourth embodiment to which the present invention is applied will be described in detail. .
[0202]
FIG. 36 is an external view showing a mobile phone type game apparatus 300 as the fourth embodiment of the present invention. 36 has the same configuration as the circuit configuration of the game terminal 1 shown in FIG. 2, and includes an antenna unit 10, a display unit 4, an input unit 3, and a biosensor 11. Inside, a CPU 2, a ROM 6, a RAM 7, a synthesis RAM 8, and a transmission / reception unit 9 are provided. Moreover, the rotation switch 301 mentioned later is provided.
[0203]
Further, the mobile phone type game apparatus 300 includes a voice input unit 36A and a voice generation unit 36B. During a call, voice data input from the voice input unit 36A by the user is transmitted from the transmission / reception unit 9 to the base station KK. The voice data transmitted from the other party through the network line to the other party via the network line is received by the transmission / reception unit 9 and generated from the voice generation unit 36B. .
[0204]
In FIG. 36, the same reference numerals are given to the portions indicating the respective components shown in FIG. 2, and the configuration of the same portions is the same as that described in the first embodiment, and thus the description thereof is omitted.
[0205]
The rotation switch 301 is operated by a user's finger (for example, the thumb 310). In the figure, a rotation operation for rotating the rotation switch in the direction of the broken line arrow Y1 and a pressing operation for pressing in the direction of the solid line arrow Y2 are performed. Is possible. In the rotation operation, the display screen of the display unit 4 can be scrolled or the pointer P displayed on the screen can be moved in conjunction with the rotation operation direction (vertical direction). The selection of the item indicated by can be confirmed.
[0206]
For example, various game types displayed in the game type selection process shown in FIG. 12, various recruitment situations displayed in the game friend recruitment process shown in FIG. 14, or download requirements displayed in the game download process shown in FIG. Of the various selection items displayed in a row on the display screen, such as confirmation of rejection, the pointer P is moved by the rotation operation of the rotary switch on the item to be selected, and the selection is confirmed by the pressing operation.
[0207]
When the mobile phone type game apparatus 300 is held with one hand, the touch surface of the biosensor 11 is provided at a position where the fingertip of the user touches. When the game is executed, the touch surface of the biosensor 11 always touches the fingertip of the player, and the biometric information can be acquired without the player consciously touching the biosensor 11. As a result, more natural biological information can be acquired, and the facial expression and attitude of the portrait image can be changed more realistically.
[0208]
The mobile phone type game apparatus 300 has a telephone function of accessing a network line such as a public line network or the Internet from the transmission / reception unit 9 via the antenna unit 10 via the base station KK. Therefore, similarly to the game network system shown in the first embodiment, the host server 20 can be accessed via the network line, and a game can be executed with other game terminals via the network line. . It is also possible to make telephone calls and data communications in the same way as ordinary telephones.
[0209]
Also, the voice data input from the voice input unit 36A during game execution is transmitted to the other party's mobile phone game device 300, and the voice generation unit 36B of the other party's mobile phone game device 300 generates voice in real time. Can be made. By transmitting the game execution status and biometric information together with the voice data, the status of the opponent can be confirmed more realistically.
[0210]
As described above, according to the mobile phone game device 300 or the game network system to which the mobile phone game device 300 is applied, processing equivalent to that of the game terminal 1 as described in the first embodiment is performed. Can be performed. And even when carrying and using, a required game program can be downloaded and used from the host server 20 via a network line. Further, since various selection operations can be performed by finger operation using the rotary switch, operability is improved. By providing the biosensor 11 at a position where the user always touches, the biometric information can be acquired without the player consciously touching the biosensor 11. As a result, more natural biological information can be acquired, and the facial expression and attitude of the portrait image can be changed more realistically. Also, by transmitting voice information together with game content data, biometric information data, etc., the situation of the other party can be expressed using not only a portrait but also voice, and a more realistic game can be enjoyed.
[0211]
[Fifth Embodiment]
Next, with reference to FIG. 37, the mobile phone connection game apparatus 400 and the game network system configured using the mobile phone connection game apparatus 400 according to the fifth embodiment to which the present invention is applied will be described in detail. explain.
[0212]
FIG. 37 is an external view showing a mobile telephone connection type game apparatus 400 as a fifth embodiment of the present invention. A mobile phone connection type game apparatus 400 shown in FIG. 37 includes a game apparatus main body 401 having the same configuration as the circuit configuration of the game terminal 1 shown in FIG. 2, a mobile phone 402 such as a mobile phone and a PHS, and an adapter 403. Composed.
[0213]
In FIG. 37, the same reference numerals are given to the portions showing the respective components shown in FIG. 2, and the configuration of the same portions is the same as that described in the first embodiment, and thus the description thereof is omitted. To do.
[0214]
The adapter 403 is a connection tool for detachably connecting the game apparatus main body 401 and the mobile phone 402. As shown in FIG. 37, the adapter 403 includes connection portions 405 at both ends of the cable. By inserting the connection portions 405 into connection holes 404 provided in the game apparatus main body 401 and the mobile phone 402, Connect with a mobile phone.
[0215]
When connected to the mobile phone, the telephone function of the mobile phone is used to access the network line and exchange data with the host server 20 and other game terminals. Therefore, as described in the first embodiment, various processes in the game network system can be performed. Therefore, a desired game program can be downloaded from the host server 20 in a communication connection state, and the game program can be executed with the adapter removed after the download is completed.
[0216]
As described above, according to the mobile phone connection type game apparatus 400 or the game network system to which the mobile phone connection type game apparatus 400 is applied, it is equivalent to the game terminal 1 as described in the first embodiment. It is possible to execute the process. And even when carrying and using, a required game program can be downloaded and used from the host server 20 via a network line.
[0217]
The present invention is not limited to the first to fifth embodiments described above, but can be changed as appropriate without departing from the spirit of the present invention. For example, in the first embodiment, the portrait image has been described as an example in which a portrait image is created by reading out and combining desired partial images from partial images stored in advance in the basic parts ROM 6a. I can't. For example, each of the game terminals 1, 1 A, 1 B and game devices 100, 200, 300, 400 in each embodiment is provided with a camera 13, and the camera unit 13 shoots a face image of the player in real time, The image data is secured in the RAM 7 and transmitted to the host server 20, and the host server 20 transfers the received face image data to the opponent game terminal, and the opponent and own face images are transferred to the game terminals of each player. May be displayed in real time. Then, the form (expression, attitude), etc. of the currently displayed face image may be changed in real time by using a deformation processing technique based on image processing, depending on the progress and psychological state of the game. In this way, by using the actual face image photographed by the camera unit 13, it is possible to get close to the opponent and to easily transfer emotions to the game.
[0218]
【The invention's effect】
  Invention of Claim 1According to the above, a portrait image composed of a combination of a plurality of partial images stored in the storage means is created, the created first portrait image is displayed, and each partial image of the displayed first portrait image is displayed. When chat data is input after each image specification data for specifying the image is sent to the game management server, the input chat data is displayed in a position near the first portrait image with a balloon. Can do.
  In addition, when each image designation data for designating a portrait image of the opponent game terminal is sent via the game management server, when each image designation data sent is received, each received image Each partial image designated by the designated data can be read from the storage means, and a second portrait image created by a combination of the read partial images can be displayed, while the second portrait image is displayed. After that, when chat data is sent from the opponent game terminal via the game management server, the sent chat data can be displayed near the second portrait image with a balloon.
  Therefore, according to the present invention, the portrait image created by each game player that controls the net game while connected to the game management server via the network line and the chat performed during the game are clearly associated with each other. It becomes possible to visually recognize.
[0219]
  According to the network game device of the second aspect of the present invention, since the vicinity position of the first portrait image is the mouth position of the first portrait image, the portrait image created by the game player and the game in progress It is possible to visually recognize the chats to be performed in association with each other more clearly.
[0223]
Invention of Claim 3AccordingThen, the form (expression, attitude, etc.) of each person's caricature image displayed on the game terminal of each player can be changed in real time according to the player's psychological situation, so that a game can be played with a remote player. When executing, it is possible to accurately grasp the other person's psychological situation and feeling of tension in real time and to realize a realistic game.
[Brief description of the drawings]
FIG. 1 is a top view showing an appearance of a game terminal 1 as a first embodiment of the present invention.
FIG. 2 is a block diagram showing a game network system in which game terminals 1A and 1B and a host server 20 are communicatively connected via the Internet 30 and a configuration of an electronic circuit of the game terminal 1A.
FIG. 3 is a diagram illustrating an example of each partial image stored in a basic parts ROM 6a.
FIG. 4 is a diagram illustrating an example of each partial image stored in a facial expression part ROM 6b.
FIG. 5 is a diagram showing an example of each message content stored in a message ROM 6c.
6 is a diagram showing various data storage areas set in a RAM 7 and a synthesis RAM 8. FIG.
FIG. 7 is a flowchart for explaining the overall processing flow of the game executed on the game terminal 1;
FIG. 8 is a flowchart illustrating a portrait image creation process.
FIG. 9 is a flowchart for explaining composition / display processing;
FIG. 10A is a diagram showing an example of a portrait image created. (B) is a figure which shows the example in the case of producing a portrait image by moving operation on a barcode in a barcode reading part.
FIG. 11 is a flowchart illustrating a game type selection process.
FIG. 12 is a diagram showing a display example of a game selection screen 4a.
FIG. 13 is a flowchart for explaining game friend recruiting processing;
FIG. 14 is a view showing a display example of a recruiting status of game friends.
FIG. 15 is a diagram illustrating an example of a message display regarding success or failure of a game application.
FIG. 16 is a flowchart illustrating a battle rule determination process.
FIG. 17 is a diagram showing an example of a display screen 4d displaying battle rule presentation data.
FIG. 18 is a diagram illustrating a display example of a chat screen 4e displayed during a chat about a battle rule.
FIG. 19 is a diagram showing an example of a display screen 4f displaying the determined battle rules.
FIG. 20 is a flowchart illustrating the flow of game download processing.
FIG. 21 is a diagram showing a display example of a download necessity screen 4g.
FIG. 22 is a diagram showing a display example of a charge display screen 4h.
FIG. 23 is a flowchart illustrating a flow of game progress processing.
FIG. 24 is a diagram showing an example of a prompt display screen 4i on which a message prompting a touch on the biosensor 11 is displayed.
FIG. 25 is a diagram showing a display example of portrait images N1 and N2 displayed during the progress of the game.
FIG. 26 is a flowchart illustrating a portrait change process (1).
FIG. 27 is a graph showing changes in pulse rate over time.
FIG. 28 is a diagram illustrating a display example of portrait images N1 and N2 that are changed and displayed in the portrait change process (1).
FIG. 29 is a flowchart illustrating a portrait change process (2).
30 is a diagram illustrating a display example of portrait images N1 and N2 that are changed and displayed in the portrait change process (2). FIG.
FIG. 31 is a flowchart (1) illustrating the relationship among the three processes of the host server 20, its own game terminal 1A, and the opponent game terminal 1B.
FIG. 32 is a flowchart (2) for explaining the relationship between the three processes of the host server 20, its own game terminal 1A, and the opponent game terminal 1B.
FIG. 33 is a flowchart (3) for explaining the relationship among the three processes of the host server 20, its own game terminal 1A, and the opponent game terminal 1B.
FIG. 34 is a top view showing the outer appearance of a wrist game apparatus 100 as a second embodiment of the present invention.
FIGS. 35A and 35B are external views showing a wrist-type game apparatus 200 according to a third embodiment of the present invention. FIG. 35A is a top view and FIG. 35B is a side view.
FIG. 36 is an external view showing a mobile phone type game apparatus 300 as a fourth embodiment of the present invention.
FIG. 37 is an external view showing a mobile telephone connection type game apparatus 400 as a fifth embodiment of the present invention.
[Explanation of symbols]
1 (1A, 1B) Game terminal
2 CPU
3 Input section
4 display section
5 Display drive circuit
6 ROM
7 RAM
8 Synthesis RAM
9 Transceiver
10 Antenna section
11 Biosensor
12 Bar code reader
13 Camera section
20 Host server
21 CPU
22 Game program data ROM
23 Game Distribution Department
24 Transfer section
30 Internet
100 list type game device
200 List-type game device
300 Mobile phone game device
400 Mobile phone connection game device

Claims (6)

ネットワーク回線を介してゲーム管理サーバーと接続されるネットゲーム装置において、In a network game device connected to a game management server via a network line,
複数の部分画像を記憶している記憶手段と、Storage means for storing a plurality of partial images;
この記憶手段に記憶されている複数の部分画像の組み合わせからなる似顔絵画像を作成しこの作成された第1の似顔絵画像を表示させる第1の画像表示制御手段と、First image display control means for creating a portrait image comprising a combination of a plurality of partial images stored in the storage means and displaying the created first portrait image;
この第1の画像表示制御手段の制御により表示された第1の似顔絵画像の各部分画像を指定するための各画像指定データを、前記ゲーム管理サーバーへ向けて送信する第1の送信手段と、First transmission means for transmitting image designation data for designating each partial image of the first portrait image displayed by the control of the first image display control means to the game management server;
前記第1の画像表示制御手段の制御により表示された第1の似顔絵画像の近傍位置に表示されるチャットデータを入力する入力手段と、Input means for inputting chat data to be displayed in the vicinity of the first portrait image displayed by the control of the first image display control means;
この入力手段により入力されたチャットデータを吹き出し付きで第1の似顔絵画像の近傍位置に表示させる第1のチャット表示制御手段と、First chat display control means for displaying the chat data input by the input means at a position near the first portrait image with a balloon;
前記ゲーム管理サーバーを介して相手のゲーム端末の似顔絵画像を指定するための各画像指定データが送られてきた場合、この送られてきた各画像指定データを受信する第1の受信手段と、A first receiving means for receiving each image designation data sent when each image designation data for designating a portrait image of the opponent game terminal is sent via the game management server;
この第This first 11 の受信手段により受信された各画像指定データにより指定された各部分画像を前記記憶手段から読み出し、この読み出した各部分画像の組み合わせで作成された第2の似顔絵画像を表示させる第2の画像表示制御手段と、A second image display for reading out each partial image designated by each image designation data received by the receiving means from the storage means and displaying a second portrait image created by a combination of the read partial images Control means;
この第2の画像表示制御手段の制御より第2の似顔絵画像が表示された後に前記相手のゲーム端末から前記ゲーム管理サーバーを介してチャットデータが送られてきた場合、この送られてきたチャットデータを吹き出し付きで前記第2の似顔絵画像の近傍位置に表示させる第2のチャット表示制御手段と、When chat data is sent from the opponent game terminal via the game management server after the second portrait image is displayed under the control of the second image display control means, the sent chat data A second chat display control means for displaying the image at a position near the second portrait image with a balloon;
を備えていることを特徴とするネットゲーム装置。An internet game device comprising:
前記第1の似顔絵画像の近傍位置は、当該第1の似顔絵画像の口元位置であることを特徴とする請求項1記載のネットゲーム装置。The network game device according to claim 1, wherein the position near the first portrait image is a mouth position of the first portrait image. 前記第1の画像表示制御手段の制御により第1の似顔絵画像が表示された後に、ゲーム途中におけるプレーヤーの心理状態を検出する心理状態検出手段と、Psychological state detection means for detecting the psychological state of the player during the game after the first portrait image is displayed under the control of the first image display control means;
この心理状態検出手段により検出された心理状態情報に応じて、前記表示制御手段の制御により表示されている第1の似顔絵画像の形態を変更させる変更手段と、Changing means for changing the form of the first portrait image displayed by the control of the display control means according to the psychological state information detected by the psychological state detection means;
を備えていることを特徴とする請求項1記載のネットゲーム装置。The net game device according to claim 1, further comprising:
ネットワーク回線を介してゲーム管理サーバーと接続されるネットゲーム装置に使用される似顔絵画像表示制御方法において、In a portrait image display control method used for a network game device connected to a game management server via a network line,
複数の部分画像を記憶している記憶手段をアクセスし、この記憶手段に記憶されている複数の部分画像の組み合わせからなる似顔絵画像を作成しこの作成された第1の似顔絵画像を表示させる第1の画像表示制御ステップと、A storage means storing a plurality of partial images is accessed, a portrait image composed of a combination of a plurality of partial images stored in the storage means is created, and the created first portrait image is displayed. Image display control steps of
この第1の画像表示制御ステップの制御により表示された第1の似顔絵画像の各部分画像を指定するための各画像指定データを、前記ゲーム管理サーバーへ向けて送信する第1の送信ステップと、A first transmission step of transmitting image designation data for designating each partial image of the first portrait image displayed by the control of the first image display control step to the game management server;
前記第1の画像表示制御ステップの制御により表示された第1の似顔絵画像の近傍位置に表示されるチャットデータが入力されると、この入力されたチャットデータを吹き出し付きで第1の似顔絵画像の近傍位置に表示させる第1のチャット表示制御ステップと、When chat data displayed in the vicinity of the first portrait image displayed by the control of the first image display control step is input, the input chat data is added to the first portrait image with a balloon. A first chat display control step for displaying in the vicinity position;
前記ゲーム管理サーバーを介して相手のゲーム端末の似顔絵画像を指定するための各画像指定データが送られてきた場合、この送られてきた各画像指定データを受信する第1の受信ステップと、A first receiving step of receiving each image designation data sent when each image designation data for designating a portrait image of the opponent game terminal is sent via the game management server;
この第This first 11 の受信ステップにより受信された各画像指定データにより指定された各部分画Each partial image designated by each image designation data received in the receiving step 像を前記記憶手段から読み出し、この読み出した各部分画像の組み合わせで作成された第2の似顔絵画像を表示させる第2の画像表示制御ステップと、A second image display control step of reading an image from the storage means and displaying a second portrait image created by a combination of the read partial images;
この第2の画像表示制御ステップの制御より第2の似顔絵画像が表示された後に前記相手のゲーム端末から前記ゲーム管理サーバーを介してチャットデータが送られてきた場合、この送られてきたチャットデータを吹き出し付きで前記第2の似顔絵画像の近傍位置に表示させる第2のチャット表示制御ステップと、When chat data is sent from the opponent game terminal via the game management server after the second portrait image is displayed by the control of the second image display control step, the sent chat data A second chat display control step for displaying the image in the vicinity of the second portrait image with a balloon;
を備えていることを特徴とする似顔絵画像表示制御方法。A caricature image display control method characterized by comprising:
前記第1の似顔絵画像の近傍位置は、当該第1の似顔絵画像の口元位置であることを特徴とする請求項4記載の似顔絵画像表示制御方法。5. The method for controlling the display of a portrait image according to claim 4, wherein the vicinity position of the first portrait image is a mouth position of the first portrait image. 前記第1の画像表示制御ステップの制御により第1の似顔絵画像が表示された後に、ゲーム途中におけるプレーヤーの心理状態を検出する心理状態検出ステップと、A psychological state detecting step of detecting the psychological state of the player during the game after the first portrait image is displayed by the control of the first image display control step;
この心理状態検出ステップにより検出された心理状態情報に応じて、前記表示制御ステップの制御により表示されている第1の似顔絵画像の形態を変更させる変更ステップと、A change step for changing the form of the first portrait image displayed by the control of the display control step according to the psychological state information detected by the psychological state detection step;
を備えていることを特徴とする請求項4記載の似顔絵画像表示制御方法。5. The portrait image display control method according to claim 4, further comprising:
JP26621299A 1999-09-20 1999-09-20 Net game apparatus and caricature image display control method Expired - Fee Related JP3876573B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26621299A JP3876573B2 (en) 1999-09-20 1999-09-20 Net game apparatus and caricature image display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26621299A JP3876573B2 (en) 1999-09-20 1999-09-20 Net game apparatus and caricature image display control method

Publications (2)

Publication Number Publication Date
JP2001087559A JP2001087559A (en) 2001-04-03
JP3876573B2 true JP3876573B2 (en) 2007-01-31

Family

ID=17427828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26621299A Expired - Fee Related JP3876573B2 (en) 1999-09-20 1999-09-20 Net game apparatus and caricature image display control method

Country Status (1)

Country Link
JP (1) JP3876573B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9060708B2 (en) 2008-03-05 2015-06-23 Proteus Digital Health, Inc. Multi-mode communication ingestible event markers and systems, and methods of using the same
US9083589B2 (en) 2006-11-20 2015-07-14 Proteus Digital Health, Inc. Active signal processing personal health signal receivers
US9198608B2 (en) 2005-04-28 2015-12-01 Proteus Digital Health, Inc. Communication system incorporated in a container
US9433371B2 (en) 2007-09-25 2016-09-06 Proteus Digital Health, Inc. In-body device with virtual dipole signal amplification
US9603550B2 (en) 2008-07-08 2017-03-28 Proteus Digital Health, Inc. State characterization based on multi-variate data fusion techniques
US9756874B2 (en) 2011-07-11 2017-09-12 Proteus Digital Health, Inc. Masticable ingestible product and communication system therefor
US9883819B2 (en) 2009-01-06 2018-02-06 Proteus Digital Health, Inc. Ingestion-related biofeedback and personalized medical therapy method and system
US9941931B2 (en) 2009-11-04 2018-04-10 Proteus Digital Health, Inc. System for supply chain management
US10084880B2 (en) 2013-11-04 2018-09-25 Proteus Digital Health, Inc. Social media networking based on physiologic information
US10187121B2 (en) 2016-07-22 2019-01-22 Proteus Digital Health, Inc. Electromagnetic sensing and detection of ingestible event markers
US10223905B2 (en) 2011-07-21 2019-03-05 Proteus Digital Health, Inc. Mobile device and system for detection and communication of information received from an ingestible device
US10238604B2 (en) 2006-10-25 2019-03-26 Proteus Digital Health, Inc. Controlled activation ingestible identifier
US10398161B2 (en) 2014-01-21 2019-09-03 Proteus Digital Heal Th, Inc. Masticable ingestible product and communication system therefor
US10441194B2 (en) 2007-02-01 2019-10-15 Proteus Digital Heal Th, Inc. Ingestible event marker systems
US10517506B2 (en) 2007-05-24 2019-12-31 Proteus Digital Health, Inc. Low profile antenna for in body device
US10529044B2 (en) 2010-05-19 2020-01-07 Proteus Digital Health, Inc. Tracking and delivery confirmation of pharmaceutical products
US11464423B2 (en) 2007-02-14 2022-10-11 Otsuka Pharmaceutical Co., Ltd. In-body power source having high surface area electrode
US11744481B2 (en) 2013-03-15 2023-09-05 Otsuka Pharmaceutical Co., Ltd. System, apparatus and methods for data collection and assessing outcomes
US11928614B2 (en) 2006-05-02 2024-03-12 Otsuka Pharmaceutical Co., Ltd. Patient customized therapeutic regimens

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3418728B2 (en) * 2000-04-28 2003-06-23 光寛 鍋田 Character evaluation control system and character evaluation control method in video game battle system
US8817045B2 (en) 2000-11-06 2014-08-26 Nant Holdings Ip, Llc Interactivity via mobile image recognition
KR20020083187A (en) * 2001-04-25 2002-11-02 (주) 그라비티 Instant messenger server and method for supporting on-line game and storage media having program source thereof
KR20020088353A (en) 2001-05-18 2002-11-27 아르재 가부시키가이샤 Game Method Using Network, Server Executing The Game Method, and Storage Medium Storing Program Executing The Game Method
JP4648571B2 (en) * 2001-05-23 2011-03-09 株式会社バンダイナムコゲームス Privilege grant system, program and information storage medium
GB2375970B (en) * 2001-05-31 2005-11-23 Nokia Corp Electronic gaming
JP5067993B2 (en) * 2001-08-24 2012-11-07 株式会社バンダイナムコゲームス Server, program and information storage medium
EP1326445B1 (en) * 2001-12-20 2008-01-23 Matsushita Electric Industrial Co., Ltd. Virtual television phone apparatus
JP4135412B2 (en) 2002-06-28 2008-08-20 株式会社ニコン Image information processing system
JP2004049313A (en) 2002-07-16 2004-02-19 Aruze Corp Game machine, server, and program
JP2004349851A (en) * 2003-05-20 2004-12-09 Ntt Docomo Inc Portable terminal, image communication program, and image communication method
WO2005052861A1 (en) 2003-11-27 2005-06-09 Smart Internet Technology Crc Pty Ltd Systems and methods for communicating
JP4997970B2 (en) * 2004-05-02 2012-08-15 株式会社セガ Game system
JP3958773B2 (en) 2005-03-31 2007-08-15 株式会社コナミデジタルエンタテインメント Battle game system and game device
JP2006326021A (en) * 2005-05-27 2006-12-07 Dainippon Printing Co Ltd Fighting video game apparatus, fighting management server, program, and recording medium
WO2007027738A2 (en) 2005-08-29 2007-03-08 Evryx Technologies, Inc. Interactivity via mobile image recognition
JP2007159631A (en) * 2005-12-09 2007-06-28 Taito Corp Game machine and game program
JP4598018B2 (en) 2007-04-20 2010-12-15 株式会社コナミデジタルエンタテインメント Referral system, referral method, and program
KR101036298B1 (en) * 2007-06-14 2011-05-23 (주)인성정보 Real-time game system and service using bio-sensor and communication terminal
JP2009254406A (en) * 2008-04-11 2009-11-05 Nintendo Co Ltd Game apparatus and game program
WO2010045385A2 (en) * 2008-10-14 2010-04-22 Proteus Biomedical, Inc. Method and system for incorporating physiologic data in a gaming environment
JP5285010B2 (en) * 2010-03-16 2013-09-11 株式会社スクウェア・エニックス Game with character image modification function
JP5271397B2 (en) * 2011-08-10 2013-08-21 株式会社バンダイナムコゲームス Server and program
JP6040745B2 (en) * 2012-12-11 2016-12-07 富士通株式会社 Information processing apparatus, information processing method, information processing program, and content providing system
US10346753B2 (en) 2013-10-28 2019-07-09 Nant Holdings Ip, Llc Intent engines, systems and method
US10453097B2 (en) 2014-01-13 2019-10-22 Nant Holdings Ip, Llc Sentiments based transaction systems and methods
JP6479700B2 (en) * 2016-02-23 2019-03-06 株式会社ソニー・インタラクティブエンタテインメント Event management server, information processing system, and event realization method
CN112423950B (en) 2018-08-10 2024-06-14 川崎重工业株式会社 Mediating apparatus and mediating method
JP7281349B2 (en) * 2018-08-10 2023-05-25 川崎重工業株式会社 remote control system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08126765A (en) * 1994-11-01 1996-05-21 Casio Comput Co Ltd Game machine and game data storage device to be used for the same
JPH10295932A (en) * 1997-04-28 1998-11-10 Kyushu Hitachi Maxell Ltd Portable game machine
JP3697530B2 (en) * 1998-01-14 2005-09-21 オムロンエンタテインメント株式会社 Person image output apparatus, person image output method, and computer readable recording medium recording person image output program
JPH11212934A (en) * 1998-01-23 1999-08-06 Sony Corp Information processing device and method and information supply medium
JP3144375B2 (en) * 1998-03-17 2001-03-12 カシオ計算機株式会社 Electronic game device and image display control method

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9198608B2 (en) 2005-04-28 2015-12-01 Proteus Digital Health, Inc. Communication system incorporated in a container
US11928614B2 (en) 2006-05-02 2024-03-12 Otsuka Pharmaceutical Co., Ltd. Patient customized therapeutic regimens
US10238604B2 (en) 2006-10-25 2019-03-26 Proteus Digital Health, Inc. Controlled activation ingestible identifier
US11357730B2 (en) 2006-10-25 2022-06-14 Otsuka Pharmaceutical Co., Ltd. Controlled activation ingestible identifier
US9083589B2 (en) 2006-11-20 2015-07-14 Proteus Digital Health, Inc. Active signal processing personal health signal receivers
US9444503B2 (en) 2006-11-20 2016-09-13 Proteus Digital Health, Inc. Active signal processing personal health signal receivers
US10441194B2 (en) 2007-02-01 2019-10-15 Proteus Digital Heal Th, Inc. Ingestible event marker systems
US11464423B2 (en) 2007-02-14 2022-10-11 Otsuka Pharmaceutical Co., Ltd. In-body power source having high surface area electrode
US10517506B2 (en) 2007-05-24 2019-12-31 Proteus Digital Health, Inc. Low profile antenna for in body device
US9433371B2 (en) 2007-09-25 2016-09-06 Proteus Digital Health, Inc. In-body device with virtual dipole signal amplification
US9060708B2 (en) 2008-03-05 2015-06-23 Proteus Digital Health, Inc. Multi-mode communication ingestible event markers and systems, and methods of using the same
US9258035B2 (en) 2008-03-05 2016-02-09 Proteus Digital Health, Inc. Multi-mode communication ingestible event markers and systems, and methods of using the same
US11217342B2 (en) 2008-07-08 2022-01-04 Otsuka Pharmaceutical Co., Ltd. Ingestible event marker data framework
US10682071B2 (en) 2008-07-08 2020-06-16 Proteus Digital Health, Inc. State characterization based on multi-variate data fusion techniques
US9603550B2 (en) 2008-07-08 2017-03-28 Proteus Digital Health, Inc. State characterization based on multi-variate data fusion techniques
US9883819B2 (en) 2009-01-06 2018-02-06 Proteus Digital Health, Inc. Ingestion-related biofeedback and personalized medical therapy method and system
US9941931B2 (en) 2009-11-04 2018-04-10 Proteus Digital Health, Inc. System for supply chain management
US10305544B2 (en) 2009-11-04 2019-05-28 Proteus Digital Health, Inc. System for supply chain management
US10529044B2 (en) 2010-05-19 2020-01-07 Proteus Digital Health, Inc. Tracking and delivery confirmation of pharmaceutical products
US9756874B2 (en) 2011-07-11 2017-09-12 Proteus Digital Health, Inc. Masticable ingestible product and communication system therefor
US10223905B2 (en) 2011-07-21 2019-03-05 Proteus Digital Health, Inc. Mobile device and system for detection and communication of information received from an ingestible device
US11744481B2 (en) 2013-03-15 2023-09-05 Otsuka Pharmaceutical Co., Ltd. System, apparatus and methods for data collection and assessing outcomes
US10084880B2 (en) 2013-11-04 2018-09-25 Proteus Digital Health, Inc. Social media networking based on physiologic information
US10398161B2 (en) 2014-01-21 2019-09-03 Proteus Digital Heal Th, Inc. Masticable ingestible product and communication system therefor
US10797758B2 (en) 2016-07-22 2020-10-06 Proteus Digital Health, Inc. Electromagnetic sensing and detection of ingestible event markers
US10187121B2 (en) 2016-07-22 2019-01-22 Proteus Digital Health, Inc. Electromagnetic sensing and detection of ingestible event markers

Also Published As

Publication number Publication date
JP2001087559A (en) 2001-04-03

Similar Documents

Publication Publication Date Title
JP3876573B2 (en) Net game apparatus and caricature image display control method
US8613674B2 (en) Methods, devices, and systems for video gaming
US9457266B2 (en) Portable electronic device having mobile communication capability
JP2014508335A (en) Method and system for promoting athletic activity
CN101208141A (en) Toys
JP2001327749A (en) Server device, content-distributing method, and game program
WO2021182258A1 (en) Program, terminal, game system, and game management device
US7507153B2 (en) Mahjong game system and mahjong ranking list display method
JP7231500B2 (en) Program and information processing device
JPH08131654A (en) Game device and movement measuring device to be used for the game device
CN112995687B (en) Interaction method, device, equipment and medium based on Internet
Xiao et al. Exploring the Player Experiences of Wearable Gaming Interfaces: A User Elicitation Study
JP6766238B1 (en) Programs, terminals, game management devices and game systems
JP2005021526A (en) Mahjong game machine and control program for game device
JP2002292128A (en) Electronic game system, electronic game device, information downloading terminal unit, display control method, and recording medium
JP7452996B2 (en) Computer systems, server systems and programs
JP2021159218A (en) Program, terminal, game system, and game management device
JP7328189B2 (en) Program, terminal, game management device and game system
JP2006060438A (en) State communication device and service providing system
US20230059767A1 (en) Program, terminal, server, and game system
JP7044818B2 (en) Information processing system, information processing program, information processing device, and information processing method
JP2019063208A (en) Program, computer system, server system, and game system
JP7375143B1 (en) Programs and information processing systems
JP6828106B1 (en) Video distribution system, video distribution method and video distribution program
JP7274256B2 (en) Programs, terminals, game systems and game management devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061023

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101110

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101110

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111110

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111110

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121110

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131110

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees