JP2000181897A - キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体 - Google Patents

キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体

Info

Publication number
JP2000181897A
JP2000181897A JP35331498A JP35331498A JP2000181897A JP 2000181897 A JP2000181897 A JP 2000181897A JP 35331498 A JP35331498 A JP 35331498A JP 35331498 A JP35331498 A JP 35331498A JP 2000181897 A JP2000181897 A JP 2000181897A
Authority
JP
Japan
Prior art keywords
character
voice
displayed
display control
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP35331498A
Other languages
English (en)
Other versions
JP3381648B2 (ja
Inventor
Yoshiyuki Murata
嘉行 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP35331498A priority Critical patent/JP3381648B2/ja
Priority to CNB991260864A priority patent/CN1192808C/zh
Publication of JP2000181897A publication Critical patent/JP2000181897A/ja
Application granted granted Critical
Publication of JP3381648B2 publication Critical patent/JP3381648B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 本発明の課題は、使用者の感情移入が直接的
であり、かつ変化に優れ、しかも遊技性に富んだキャラ
クター表示制御装置、キャラクター表示制御システム、
及び記録媒体を提供することをである。 【解決手段】 CPU2は、まず、表示/操作/音声パ
ネル1aのカーソル移動キー8及びモード設定スイッチ
MSの入力操作に従ったモード設定の内容に応じて、現
在表示中の複数のキャラクターの内、特定のキャラクタ
ーのみに対して声をかけると、そのキャラクターのみが
反応するキャラクター反応処理、入力した音声の特性に
応じて現在表示中のキャラクターの表情または動作を変
更するキャラクター表情変更処理、一方のキャラクター
表示制御装置から他方のキャラクター表示制御装置へキ
ャラクターに声をかけて移動させるキャラクター移動処
理等のを各モード毎の処理を実行する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、動物、人間、仮
想生物などのキャラクターを表示制御させるキャラクタ
ー表示制御装置、キャラクター表示制御システムおよび
このような表示制御装置に使用される記録媒体に関す
る。
【0002】
【従来の技術】本件出願人は、(1)動物、人間、仮想
生物などのキャラクターに対して、成長要素データをキ
ー操作で与えて、携帯型の電子機器の表示部に現在表示
されているキャラクターを変身成長させる、または
(2)動物、人間、仮想生物などのキャラクターに対し
て、成長要素データを与えたこと、および、予め定まら
れた時間が経過したことの双方が満たされたことを条件
として、携帯型の電子機器の表示部に現在表示されてい
るキャラクターを次の成長過程のキャラクターへ変身成
長させる、いわゆる携帯型の生物育成ゲーム装置を開発
し、提案している(特開平7―160853号、特開平
9―237328号など)。
【0003】その後、このような携帯型の生物育成ゲー
ム装置が広く市場に受け入れられ、各社がこれを改善し
た製品を開発し、平成8年(1996年)11月頃か
ら、市場で販売した結果、爆発的な流行となってきてい
る。
【0004】
【発明が解決しようとする課題】ところで、このような
従来の携帯型の生物育成ゲーム装置の場合、キャラクタ
ーを使用者の世話の仕方で育成してゆく点で、現実の動
物を育成することが困難となっている現実社会におい
て、現実の動物を育成していると同様な体験を味わうこ
とができることから、広く受け入れられているものの、
使用者の手入力にて世話を行わなければならないことも
あり、育成ゲームではありながら、遊技性に乏しいとい
う問題点がある。
【0005】この発明は、このような問題点を解消する
ためになされたものである。
【0006】本発明の課題は、使用者の感情移入が直接
的であり、かつ変化に優れ、しかも遊技性に富んだキャ
ラクター表示制御装置、キャラクター表示制御システム
およびこのような表示制御装置に使用される記録媒体を
提供することである。
【0007】
【課題を解決するための手段】本発明は、このような課
題を達成するために、次のような特徴を備えている。な
お、各要素毎に付した符号等は、後述する図面参照符号
等である。
【0008】請求項1記載の発明は、複数のキャラクタ
ーを表示部に表示させるキャラクター表示制御装置にお
いて、音声を入力する音声入力手段(図2の3;図9の
ステップS102)と、この音声入力手段により入力さ
れた音声を認識する音声認識手段(図2の25;図9の
ステップS104)と、この音声認識手段により認識さ
れた音声に関係するキャラクターを前記複数のキャラク
ターのなかから特定し、この特定されたキャラクターが
前記音声に反応するように制御する制御手段(図2の2
0)と、を備えていることを特徴としている。
【0009】請求項1記載の発明によれば、複数のキャ
ラクターを表示部に表示させるキャラクター表示制御装
置において、音声入力手段は、音声を入力し、音声認識
手段は、この音声入力手段により入力された音声を認識
し、制御手段は、この音声認識手段により認識された音
声に関係するキャラクターを前記複数のキャラクターの
なかから特定し、この特定されたキャラクターが前記音
声に反応するように制御する。
【0010】また、請求項10記載の記録媒体は、複数
のキャラクターを表示部に表示させるキャラクター表示
制御装置を制御するために使用される、読み出し可能な
プログラムが記録されている記録媒体において、前記プ
ログラムは、音声が入力されると、これに応答して、入
力された音声を認識し、この認識された音声に関係する
キャラクターを前記複数のキャラクターのなかから特定
し、この特定されたキャラクターが前記音声に反応する
ように制御する、ことを特徴としている。
【0011】この請求項10記載の発明によれば、プロ
グラムによりコンピュータは、音声が入力されると、こ
れに応答して、入力された音声を認識し、この認識され
た音声に関係するキャラクターを前記複数のキャラクタ
ーのなかから特定し、この特定されたキャラクターが前
記音声に反応するように制御する。
【0012】したがって、音声入力手段により表示部に
表示されている複数のキャラクターに対して音声を入力
し、音声認識手段は、この入力された音声を認識し、制
御手段は、この音声認識手段により認識された音声に関
係するキャラクターを複数のキャラクターの内から特定
し、この特定されたキャラクターのみを音声に反応させ
ることができるため、手入力によらず音声入力により表
示部に表示されている特定のキャラクターとコミュニケ
ーションをとることが可能となり、ユーザは感情移入し
やすくなり、かつ、より面白味を感じることができる。
【0013】また、請求項2記載の発明は、請求項1記
載のキャラクター表示制御装置において、前記制御手段
は、前記各キャラクターと当該各キャラクターの名前と
を対応づけて記憶している記憶手段(図2の21a;図
3(A))と、前記音声認識手段により認識された音声
の内容と同じ名前のキャラクターと対応づけられている
キャラクターを前記記憶手段から読み出して前記音声に
関係するキャラクターとして特定し、この特定されたキ
ャラクターの一部の形態が異なるキャラクターを前記音
声に反応するものとして前記表示部に表示させるように
制御するキャラクター表示制御手段(図2の20;図1
0(B))と、を備えていることを特徴としている。
【0014】この請求項2記載の発明によれば、記憶手
段は前記各キャラクターと当該各キャラクターの名前と
を対応づけて記憶し、キャラクター表示制御手段は、前
記音声認識手段により認識された音声の内容と同じ名前
のキャラクターと対応づけられているキャラクターを前
記記憶手段から読み出して前記音声に関係するキャラク
ターとして特定し、この特定されたキャラクターの一部
の形態が異なるキャラクターを前記音声に反応するもの
として前記表示部に表示させるように制御する。
【0015】したがって、キャラクター表示制御手段
は、音声認識手段により認識された音声の内容と同じ名
前のキャラクターと対応づけられているキャラクターを
記憶手段から読み出して前記音声に関係するキャラクタ
ーとして特定し、この特定されたキャラクターの一部の
形態が異なるキャラクターを前記音声に反応するものと
して表示部に表示させることができるため、表示部に表
示されている特定のキャラクターの名前を音声入力する
ことによって当該キャラクターの表示形態が変化し、当
該キャラクターが自分の名前を理解しているように思え
るため、ユーザは感情移入しやすくなり、かつ、より面
白味を感じることができる。
【0016】請求項3記載の発明は、複数のキャラクタ
ー表示制御装置の間で通信を行うキャラクター表示制御
システムにおいて、前記複数のキャラクター表示制御装
置のうち、一方のキャラクター表示制御装置に対して音
声を入力する音声入力手段(図2の3)と、この音声入
力手段により入力された音声を認識する音声認識手段
(図2の25)と、この音声認識手段により認識された
音声の内容と名前が一致または類似するキャラクター
が、他方のキャラクター表示制御装置に表示されている
のか否かを検索する検索手段(図2の20;図18のス
テップS610、S611)と、この検索手段により表
示されていると検索された際は、その一方のキャラクタ
ー表示制御装置に設けられている表示部に、前記名前が
一致または類似するキャラクターを表示させる表示制御
手段(図2の20,図20(B))と、を備えているこ
とを特徴としている。
【0017】この請求項3記載の発明によれば、複数の
キャラクター表示制御装置の間で通信を行うキャラクタ
ー表示制御システムにおいて、音声入力手段は、前記複
数のキャラクター表示制御装置のうち、一方のキャラク
ター表示制御装置に対して音声を入力し、音声認識手段
は、この音声入力手段により入力された音声を認識し、
検索手段はこの音声認識手段により認識された音声の内
容と名前が一致または類似するキャラクターが、他方の
キャラクター表示制御装置に表示されているのか否かを
検索し、表示制御手段は、この検索手段により表示され
ていると検索された際は、その一方のキャラクター表示
制御装置に設けられている表示部に、前記名前が一致ま
たは類似するキャラクターを表示させる。
【0018】したがって、音声入力手段により複数のキ
ャラクター表示制御装置のうち、一方のキャラクター表
示制御装置に対して音声を入力し、音声認識手段は、入
力された音声を認識し、検索手段はこの認識された音声
の内容と名前が一致または類似するキャラクターが、他
方のキャラクター表示制御装置に表示されているのか否
かを検索し、表示制御手段は、この検索手段により表示
されていると検索された際は、その一方のキャラクター
表示制御装置に設けられている表示部に、前記名前が一
致または類似するキャラクターを表示させることができ
るため、複数のキャラクター表示制御装置の間でキャラ
クターを移動させることができ遊技性を高いキャラクタ
ー表示制御システムを実現できる。
【0019】また、請求項4記載の発明は、請求項3記
載のキャラクター表示制御システムにおいて、前記他方
のキャラクター表示制御装置は、前記名前が一致または
類似するキャラクターを消去させる消去制御手段を備え
ていることを特徴としている。
【0020】この請求項4記載の発明によれば、前記他
方のキャラクター表示制御装置の消去制御手段は、前記
名前が一致または類似するキャラクターを消去させる。
【0021】したがって、消去制御手段は、一方のキャ
ラクター表示制御装置において認識された音声の内容と
名前が一致または類似するキャラクターを、他方のキャ
ラクター表示制御装置から消去させることができるた
め、より遊技性を高めて、より実際の生物に近い感覚を
ユーザに与えることができる。
【0022】請求項5記載の発明は、他方のキャラクタ
ー表示制御装置との間でゲームを行うために、ゲームで
使われるキャラクターが表示される表示部を有するキャ
ラクター表示制御装置において、音声を入力する音声入
力手段(図2の3)と、この音声入力手段により入力さ
れた音声を認識する音声認識手段(図2の25)と、こ
の音声認識手段により認識された音声の内容と名前が一
致または類似するキャラクターが前記他方キャラクター
表示制御装置に表示されているのか否かを検索するため
の検索データを送信する送信手段(図2の24;ステッ
プS610)と、この送信手段により送信された検索デ
ータによる検索結果、前記名前が一致または類似するキ
ャラクターが前記他方のキャラクター表示制御装置に表
示されていると検索された際は、前記表示部に前記キャ
ラクターと同じキャラクターを表示させる表示制御手段
(図2の20;図20(B))と、を備えていることを
特徴としている。
【0023】この請求項5記載の発明によれば、他方の
キャラクター表示制御装置との間でゲームを行うため
に、ゲームで使われるキャラクターが表示される表示部
を有するキャラクター表示制御装置において、音声入力
手段は、音声を入力し、音声認識手段は、この音声入力
手段により入力された音声を認識し、送信手段は、この
音声認識手段により認識された音声の内容と名前が一致
または類似するキャラクターが前記他方のキャラクター
表示制御装置に表示されているのか否かを検索するため
の検索データを送信し、表示制御手段は、この送信手段
により送信された検索データによる検索結果、前記名前
が一致または類似するキャラクターが前記他方キャラク
ター表示制御装置に表示されていると検索された際は、
前記表示部に前記キャラクターと同じキャラクターを表
示させる。
【0024】また、請求項11記載の記録媒体は、他方
のキャラクター表示制御装置との間でゲームを行うため
に、ゲームで使われるキャラクターが表示される表示部
を有するキャラクター表示制御装置を制御するために使
用される、読み出し可能なプログラムが記録されている
記録媒体において、前記プログラムは、外部から音声が
入力されると、これに応答して、この入力された音声を
認識し、この認識された音声の内容と名前が一致または
類似するキャラクターが前記他方のキャラクター表示制
御装置に表示されているのか否かを検索するための検索
データを送信し、この送信された検索データによる検索
結果、前記名前が一致または類似するキャラクターが前
記他方のキャラクター表示制御装置に表示されていると
検索された際は、前記表示部に前記キャラクターと同じ
キャラクターを表示させる、ことを特徴としている。
【0025】この請求項11記載の発明によれば、プロ
グラムによりコンピュータは、外部から音声が入力され
ると、これに応答して、この入力された音声を認識し、
この認識された音声の内容と名前が一致または類似する
キャラクターが前記他方のキャラクター表示制御装置に
表示されているのか否かを検索するための検索データを
送信し、この送信された検索データによる検索結果、前
記名前と一致または類似するキャラクターが前記他方の
キャラクター表示制御装置に表示されていると検索され
た際は、前記表示部に前記キャラクターと同じキャラク
ターを表示させる。
【0026】したがって、送信手段により、認識された
音声の内容と名前が一致または類似するキャラクターが
他方のキャラクター表示制御装置に表示されているのか
否かを検索するための検索データを送信し、表示制御手
段は、送信された検索データによる検索結果、前記名前
が一致または類似するキャラクターが前記他方キャラク
ター表示制御装置に表示されていると検索された際は、
表示部に前記キャラクターと同じキャラクターを表示さ
せることができるため、物理的に距離がある二つのキャ
ラクター表示制御装置の間においても、キャラクターを
移動させることができ、より遊技性を高めることがで
き、任意の複数のユーザとのコミュニケーションツール
としての役割を果たせる。
【0027】請求項6記載の発明は、キャラクターが表
示される表示手段(図2の2)と、現在時刻を計時する
計時手段(図2の28)と、複数の時刻帯毎にそれぞれ
対応した挨拶データを記憶している挨拶データ記憶手段
(図2の21b;図3(B))と、前記挨拶データに従
って予め定められた順序で表示される一連のキャラクタ
ーの動作画像が記憶されている動作画像記憶手段(図2
の21c;図3(C))と、前記計時手段により計時さ
れた現在の時刻帯に対応した挨拶データを前記記憶手段
から読み出してこの読み出された挨拶データを音声で外
部に出力させるとともに、前記挨拶データに従って予め
定められた順序で一連のキャラクターの動作画像を前記
動作画像記憶手段から読み出して前記表示手段に表示さ
せる制御手段(図2の20;図20)と、を備えたこと
を特徴としている。
【0028】この請求項6記載の発明によれば、表示手
段はキャラクターを表示し、計時手段は現在時刻を計時
し、挨拶データ記憶手段は複数の時刻帯毎にそれぞれ対
応した挨拶データを記憶し、動作画像記憶手段は前記挨
拶データに従って予め定められた順序で表示される一連
のキャラクターの動作画像を記憶し、制御手段は前記計
時手段により計時された現在の時刻帯に対応した挨拶デ
ータを前記記憶手段から読み出してこの読み出された挨
拶データを音声で外部に出力させるとともに、前記挨拶
データに従って予め定められた順序で一連のキャラクタ
ーの動作画像を前記動作画像記憶手段から読み出して前
記表示手段に表示させる。
【0029】したがって、制御手段により計時された現
在の時刻帯に対応した挨拶データを記憶手段から読み出
してこの読み出された挨拶データを音声で外部に出力さ
せるとともに、前記挨拶データに従って予め定められた
順序で一連のキャラクターの動作画像を動作画像記憶手
段から読み出して表示手段に表示させることができるた
め、ユーザは当該キャラクターが現在時刻を知っている
ように錯覚するため、より身近に感じて親近感をもつこ
とができ、面白味を感じるだけでなく、より感情移入し
やすくなる。
【0030】請求項7記載の発明は、キャラクターが表
示される表示手段(図2の2)と、温度を検出する温度
検出手段(図2の27)と、複数の温度帯毎にそれぞれ
対応した振動形態を設定している設定手段(図2の21
b,21e;図3(B),図5)と、振動する振動手段
(図2の23)と、振動形態に従って予め定められた順
序で表示される一連のキャラクターの動作画像が記憶さ
れている動作画像記憶手段(図2の21d;図4)と、
前記温度検出手段により検出された現在の温度帯に対応
して前記設定手段にて設定されている振動形態で前記振
動手段を振動させるとともに、前記温度帯に従って予め
定められた順序で一連のキャラクターの動作画像を前記
動作画像記憶手段から読み出して前記表示手段に表示さ
せる制御手段(図2の20;図20)と、を備えたこと
を特徴としている。
【0031】この請求項7記載の発明によれば、表示手
段はキャラクターを表示し、温度検出手段は温度を検出
し、設定手段は、複数の温度帯毎にそれぞれ対応した振
動形態を設定し、振動手段は振動し、動作画像記憶手段
は振動形態に従って予め定められた順序で表示される一
連のキャラクターの動作画像が記憶し、制御手段は、前
記温度検出手段により検出された現在の温度帯に対応し
て前記設定手段にて設定されている振動形態で前記振動
手段を振動させるとともに、前記温度帯に従って予め定
められた順序で一連のキャラクターの動作画像を前記動
作画像記憶手段から読み出して前記表示手段に表示させ
る。
【0032】したがって、制御手段により、検出された
現在の温度帯に対応して設定手段にて設定されている振
動形態で振動手段を振動させるとともに、前記温度帯に
従って予め定められた順序で一連のキャラクターの動作
画像を動作画像記憶手段から読み出して表示手段に表示
させることができるため、ユーザは当該キャラクターが
温度を感じているように錯覚するため、より身近に感じ
て親近感をもつことができ、面白味を感じるだけでな
く、より感情移入しやすくなる。
【0033】請求項8記載の発明は、キャラクターが表
示される表示手段(図2の2)と、現在時刻を計時する
計時手段(図2の28)と、複数の時刻帯毎にそれぞれ
対応した挨拶データを記憶している挨拶データ記憶手段
(図2の21b;図3(B))と、挨拶データに従って
予め定められた順序で表示される一連のキャラクターの
動作画像が記憶されている第1の動作画像記憶手段(図
2の21c;図3(C))と、温度を検出する温度検出
手段(図2の27)と、複数の温度帯毎にそれぞれ対応
した振動形態を設定している設定手段(図2の21b,
21e;図3(B),図5)と、振動する振動手段(図
2の23)と、振動形態に従って予め定められた順序で
表示される一連のキャラクターの動作画像が記憶されて
いる第2の動作画像記憶手段(図2の21d;図4)
と、前記計時手段により計時された現在の時刻帯に対応
した挨拶データを前記記憶手段から読み出してこの読み
出された挨拶データを音声で外部に出力させるととも
に、前記挨拶データに従って予め定められた順序で一連
のキャラクターの動作画像を前記第1の動作画像記憶手
段から読み出して前記表示手段に表示させる第1の制御
手段(図2の20;図20)と、前記温度検出手段によ
り検出された現在の温度帯に対応して前記設定手段にて
設定されている振動形態で前記振動手段を振動させると
ともに、前記温度帯に従って予め定められた順序で一連
のキャラクターの動作画像を前記第2の動作画像記憶手
段から読み出して前記表示手段に表示させる第2の制御
手段(図2の20;図20)と、を備えたことを特徴と
している。
【0034】この請求項8記載の発明によれば、表示手
段は、キャラクターを表示し、計時手段は、現在時刻を
計時し、挨拶データ記憶手段は、複数の時刻帯毎にそれ
ぞれ対応した挨拶データを記憶し、第1の動作画像記憶
手段は、挨拶データに従って予め定められた順序で表示
される一連のキャラクターの動作画像が記憶し、温度検
出手段は、温度を検出し、設定手段は、複数の温度帯毎
にそれぞれ対応した振動形態を設定し、振動手段は振動
し、第2の動作画像記憶手段は、振動形態に従って予め
定められた順序で表示される一連のキャラクターの動作
画像を記憶し、第1の制御手段は、前記計時手段により
計時された現在の時刻帯に対応した挨拶データを前記記
憶手段から読み出してこの読み出された挨拶データを音
声で外部に出力させるとともに、前記挨拶データに従っ
て予め定められた順序で一連のキャラクターの動作画像
を前記第1の動作画像記憶手段から読み出して前記表示
手段に表示させ、第2の制御手段は前記温度検出手段に
より検出された現在の温度帯に対応して前記設定手段に
て設定されている振動形態で前記振動手段を振動させる
とともに、前記温度帯に従って予め定められた順序で一
連のキャラクターの動作画像を前記第2の動作画像記憶
手段から読み出して前記表示手段に表示させる。
【0035】したがって、第1の制御手段により、計時
された現在の時刻帯に対応した挨拶データを記憶手段か
ら読み出してこの読み出された挨拶データを音声で外部
に出力させるとともに、挨拶データに従って予め定めら
れた順序で一連のキャラクターの動作画像を表示手段に
表示させ、それと同時に、第2の制御手段により、検出
された現在の温度帯に対応して設定手段にて設定されて
いる振動形態で振動手段を振動させるとともに、前記温
度帯に従って予め定められた順序で一連のキャラクター
の動作画像を表示手段に表示させることができるため、
ユーザは当該キャラクターが現在時刻を知っていて、か
つ、温度を感じているように錯覚するため、前記キャラ
クターが実際の生物であるかのように感じることがで
き、面白味を感じるだけでなく、より感情移入しやすく
なる。
【0036】請求項9記載の発明は、キャラクターが表
示される表示部を有するキャラクター表示制御装置にお
いて、前記表示部に表示されているキャラクターに対し
て音声を入力する音声入力手段(図2の3)と、この音
声入力手段により音声が入力された後に、その入力され
た音声に関わる情報に基づいて、キャラクターに対する
親密度を判定する判定手段(図2の20;図11のステ
ップS204)と、この判定手段による判定結果に応じ
て、前記表示部に表示されているキャラクターの表情ま
たは動作を制御させる制御手段(図2の20;図15)
と、を備えたことを特徴としている。
【0037】この請求項9記載の発明によれば、キャラ
クターが表示される表示部を有するキャラクター表示制
御装置において、音声入力手段は前記表示部に表示され
ているキャラクターに対して音声を入力し、判定手段は
この音声入力手段により音声が入力された後に、その入
力された音声に関わる情報に基づいて、キャラクターに
対する親密度を判定し、制御手段はこの判定手段による
判定結果に応じて、前記表示部に表示されているキャラ
クターの表情または動作を制御させる。
【0038】また、請求項12記載の記録媒体は、キャ
ラクターが表示される表示部を有するキャラクター表示
制御装置を制御するために使用される、読み出し可能な
プログラムが記録されている記録媒体において、前記プ
ログラムは、前記表示部に表示されているキャラクター
に対して音声が入力された際に、この入力された音声に
関わる情報に基づいて、キャラクターに対する親密度を
判定し、この判定結果に応じて、前記表示部に表示され
ているキャラクターの表情または動作を制御させる、こ
とを特徴としている。
【0039】この請求項12記載の発明によれば、プロ
グラムによりコンピュータは、前記表示部に表示されて
いるキャラクターに対して音声が入力された際に、この
入力された音声に関わる情報に基づいて、キャラクター
に対する親密度を判定し、この判定結果に応じて、前記
表示部に表示されているキャラクターの表情または動作
を制御させる。
【0040】したがって、音声入力手段により表示部に
表示されているキャラクターに対して音声を入力し、判
定手段はこの入力された音声に関わる情報、例えば音声
の口調、及び呼掛回数等に基づいて、前記キャラクター
に対する親密度を判定し、制御手段はこの判定手段によ
る判定結果に応じて、前記表示部に表示されているキャ
ラクターの表情または動作を制御させることができるた
め、表示されているキャラクターの感情を知ることがで
きて、現実の動物を育成しているのと同様な体験を味わ
うことができ、ユーザはより感情移入しやすくなり、か
つより面白味を感じることができる。
【0041】
【発明の実施の形態】(第1の実施の形態)以下、図1
〜図15を参照して本発明の第1の実施の形態に係るキ
ャラクター表示制御装置を詳細に説明する。
【0042】まず構成を説明する。
【0043】図1は、本発明の第1の実施の形態に係わ
るキャラクター表示制御装置を適用した電子手帳1の概
略構成を示す図である。この図1において、電子手帳本
体1は、蝶番状部材1cを介して開閉自在に連結される
表示/操作/音声パネル1aとデータ入力パネル1bと
から構成されている。
【0044】表示/操作/音声パネル1aには、液晶ド
ットマトリクス表示装置等で構成される表示部2、マイ
ク等で構成される音声入力部3、スピーカー等で構成さ
れる音声出力部4、各種操作キーが配置されている。
【0045】各種操作キーの内、主なものを説明する
と、前記表示部2の真下には、電子手帳1の各種モード
を設定するモード設定スイッチMSが配設されている。
【0046】また、その下方には、電源のオン/オフス
イッチ5、音声を登録する音声登録キー6、キャラクタ
ーの種別、住所、年齢等を登録する登録キー7、表示部
2に表示される各種データの指定等を行うカーソル移動
キー8等が配設されている。
【0047】また、データ入力パネル1bには、数値デ
ータを入力するテンキー9と、文字データを入力するア
ルファベットキー10が配設されている。
【0048】次にキャラクター表示制御装置Sの回路構
成を説明する。図2は、本実施例に係わるキャラクター
表示制御装置Sの回路構成の一例を示すブロック図であ
る。
【0049】キャラクター表示制御装置Sは、CPU
(Central Processing Unit)20、ROM(Read On
ly Memory)21、RAM(Random Access Memory)
22、キー入力部1b(テンキー9,アルファベットキ
ー10)、振動発生部23、赤外線通信部24、音声入
力部3、音声認識部25、音声出力部(スピーカ)4、
音声発生部26、温度センサ27、計時部28、表示部
2、及び表示駆動回路29によって構成されている。
【0050】CPU20は、キー入力部1b(テンキー
9,アルファベットキー10)から供給されるキー操作
信号に基づき、ROM21の所定の記憶領域に格納され
ている各種制御プログラムを読み出してRAM22に一
時格納し、当該プログラムに基づく各種処理を実行して
キャラクター表示制御装置Sの各部を集中制御する。す
なわち、CPU2は、前記読み出した所定プログラムに
基づいて各種処理を実行し、その処理結果をRAM22
に格納するとともに、表示駆動回路29を介して表示部
2に表示させる。
【0051】また、CPU2は、まず、表示/操作/音
声パネル1aのカーソル移動キー8及びモード設定スイ
ッチMSの入力操作に従って、各種処理に対応する所定
のモードの設定を行う。ここで、CPU20は、キャラ
クター反応処理(図9)が設定された場合は、図9に従
って現在表示中の複数のキャラクターの内、特定のキャ
ラクターのみに対して声をかけると、そのキャラクター
のみが反応するキャラクター反応処理を実行し、キャラ
クター表情変更処理(図11〜図14)が設定された場
合は、図11〜図14に従って入力した音声の特性に応
じて現在表示中のキャラクターの表情または動作を変更
するキャラクター表情変更処理を実行し、キャラクター
移動処理(図18及び図21)が設定された場合は、図
18及び図21に従って一方のキャラクター表示制御装
置から他方のキャラクター表示制御装置へキャラクター
に声をかけて移動させるキャラクター移動処理を実行す
る。
【0052】ROM21は、前記CPU20がキャラク
ター表示制御装置Sの各種動作を制御するための各種制
御プログラム等を格納する他、個人データ用ROM21
a、挨拶データ用ROM21b、親密度用ROM21
c、画像ROM21d、音声振動用ROM21e、表示
順序用ROM21f、状態変化用ROM21g、呼掛回
数用ROM21h等の各種ROMを設けている。
【0053】また、個人データ用ROM21aは、表示
部2に表示されるキャラクター(図10(A)参照)の
名前と、そのキャラクターの種別、年齢、体重、及びキ
ャラクター画像No等の特性、及びキャラクター同士の
親密度を対応づけて格納している。
【0054】例えば、図3(A)に示すように、名前
「ポチ」は、種別「犬」、住所「○○○」、年齢「2才
(小犬)」、体重「50g」、キャラクター画像
「1」、ポチとの親密度「○」、タマとの親密度
「○」、及びグルタンとの親密度「×」と対応づけて格
納されている。
【0055】また、挨拶データ用ROM21bは、計時
部により計時される現在時刻と、温度センサにより測定
される気温と、挨拶文(前段と後段)と、画像データN
o.とを対応づけて格納している。
【0056】例えば、図3(B)に示すように、現在時
刻「7時〜9時」と、挨拶前段「おはよう」と、気温
「−10℃以下」と、挨拶後段「超寒いね」と、画像N
o「90」が対応づけられて格納されている。
【0057】また、音声親密度用ROM21cは、ユー
ザの口調と、親密度(M)と、当該親密度レベルを示す
ビットマップデータである親密度マークSMとを対応づ
けて格納している。
【0058】例えば、図3(C)に示すように、口調
「元気!!」と、親密度M「+N(Nは整数)」と、親
密度マークSM(ハート型の記号表示が5つ)とが対応
づけて格納されている。
【0059】また、画像ROM21dは、本実施例にお
けるあらゆる処理において、表示部2に表示される全て
の画像データを前記画像Noと対応づけてビットマップ
データとして格納している。
【0060】例えば、図4に示すように、画像No「0
1」は、「初期画面の画像」としての犬の画像を示す画
像データと対応づけられて格納されている。そして、画
像No「01」に対応する犬は、初期表示画面におい
て、個人データ用ROM22aに格納されている名前
「ポチ」を示すキャラクターK01の画像データとして
表示される。
【0061】また、画像No「30」及び画像No「3
1」は、「棒をとれ!」と命令された際の画像として犬
が後ろを向いた様子K30及び犬が棒をくわえている様
子K31を示す画像データと対応づけられて格納されて
いる。そして、後述する表示キャラクター反応処理(図
8)において、ユーザによって「棒をとれ!」と命令さ
れた場合に、一連の動作画像データとして画像No「3
0」及び画像No「31」に対応づけられた画像データ
K30,K31が順次表示される。
【0062】また、音声振動用ROM21eは、前記画
像Noと、当該画像Noが示すキャラクターが発声する
言葉として音声データ(PCMデータ)と、振動発声部
23を振動させるため振動指示データとを対応づけて格
納している。
【0063】例えば、図5(A)に示すように、画像N
o「01」は、音声データ「ワン!!」、及び振動指示
データ(図中では1度の振動(ブル)の振動状態を示す
表示)と対応づけられて格納されている。
【0064】表示順序用ROM21fは、本実施例にお
けるあらゆる処理におけるキャラクターの動作と、当該
動作を表す一連の画像データ群を表示させる際の画像デ
ータの表示順序とを対応づけて格納している。
【0065】図5(B)に示すように、画像Noと、
「「名前」をよばれた際」,「ジャンプと命令された
際」,…等の動作と、「1」,「2」,…等の画像デー
タの表示順序とが対応づけられて格納されている。例え
ば、「ジャンプ」と命令された際の動作として、まず、
画像No20または画像No22に対応する各画像デー
タが画像ROM21dがらよみだされ、犬または猫が両
腕をあげている様子K20またはK22を示す画像が表
示部2に表示される。次に、画像No21または画像N
o23に対応する各画像データK21またはK23が画
像ROM21dがらよみだされ、犬または猫ガチャがん
でいる様子を示す画像が表示部2に表示される。
【0066】また、状態変化用ROM21gは、親密度
Mと、親密度Mの値によって変化するキャラクターの顔
の表情とを対応づけて格納している。
【0067】例えば、図6(A)に示すように、画像R
OM21d内の画像No「01」に対応する犬の様子を
示す画像データK01は、状態変化用ROM21gにお
いて、親密度M「0」と対応づけられていて(K01
B)、親密度が高くなるにつれて対応する画像データが
変化し、親密度「+N」には、笑っている犬の様子を示
す画像データK01Aが、親密度「−N」には、さみし
げな犬の様子を示す画像データK01Cが対応づけられ
て格納されている。
【0068】さらに、呼掛回数用ROM21hは、ユー
ザが表示部に表示されているキャラクターに対して声を
かけた回数を示す変数NAと、声をかけた回数に応じて
変化するキャラクターが発声する言葉を示す音声データ
とを対応づけて格納している。
【0069】例えば、図6(B)に示すように、例え
ば、NAの値「+N(Nは整数)」と、音声データ「最
高!!」とが、NAの値「+1」と、音声データ「はじ
めまして!」とが対応づけられて格納されている。
【0070】RAM22は、指定されたアプリケーショ
ンプログラム、入力指示、入力データ及び処理結果等を
一時格納する他、図7に示すように、表示部2に表示さ
せるべき被表示データがイメージデータとして書き込ま
れる表示レジスタ22a、計時部28により計時された
現在時刻データが順次更新されて格納される計時レジス
タ22b、温度センサ27により計測された気温データ
が順次更新されて格納される温度レジスタ22c、ユー
ザによって設定された設定時刻データ等を格納する設定
レジスタ22d、音声認識部25により認識した認識音
声データを格納する認識音声データレジスタ22e、及
び表示部2に表示中のキャラクターの画像Noを格納す
るキャラクターレジスタ22f等の各種レジスタを備え
ている。
【0071】また、RAM22の認識音声データレジス
タ22eに格納されている認識音声データの一例として
は、図7に示すように、「ポチ」、「棒をとれ!」、
「皆で」、及び「元気!!」等が挙げられる。
【0072】振動発生部23は、バイブレータ等から構
成されており、CPU20から入力される振動指示デー
タに従って振動を開始/停止する。
【0073】赤外線通信部24は、図示しない発光部と
受光部から構成されている。発光部は赤外線ダイオード
を内部に含む送信回路等から構成されていて、CPU2
0からの指示により所定周波数の赤外線を発光する。受
光部は赤外線フォトトランジスタを内部に含む受信回路
等から構成され、他方キャラクター表示制御装置Sから
発光された赤外線を受光して、その受光状態を受信信号
としてCPU20に出力する。
【0074】音声認識部25は、例えば、ユーザの音声
をマイク等の音声入力部3によって電気信号に変換し、
この信号について音声スペクトラム短縮化等の分析処理
を行った後に、標準パターン等とのパターンマッチング
を行って音声認識結果を出力する音声認識装置等が適用
可能である。音声認識結果は、PCM(Pulse Code Mod
ulation)データとしてCPU20を介してRAM22
の前記認識音声データレジスタ22eに格納される。
【0075】音声発生部26は、RAM22の前記認識
音声データレジスタにPCM(Pulse Code Modulatio
n)データとして格納されている音声データに基づいて
音声を合成する音声合成チップ等で構成されている。
【0076】温度センサ27は、現在の気温を計測し、
計測された現在の気温を示す気温データは、CPU20
を介してRAM22の温度レジスタ22cに送られて順
次更新セットされる。
【0077】計時部28は、現在時刻を計時し、計時さ
れた現在時刻を示す現在時刻データは、CPU20を介
してRAM22の計時レジスタ22bに送られて順次更
新セットされる。例えば、所定周波数の電気信号を発振
する発振回路(図示省略)と該発振回路からの信号を分
周して所定周波数の信号を得る分周回路とから構成され
その信号をカウントすることによって現在時刻を計時す
る構成としてもよい。
【0078】次に動作を説明する。
【0079】図8は、CPU20により実行されるモー
ド設定処理の流れを示すフローチャートである。
【0080】図8において、CPU2は、まず、表示/
操作/音声パネル1aのカーソル移動キー8及びモード
設定スイッチMSの入力操作に従って、各種処理に対応
する所定のモードの設定を行う(ステップS1)。ここ
で、CPU20は、キャラクター反応処理(図9)が設
定された場合は、図9に従って現在表示中の複数のキャ
ラクターの内、特定のキャラクターのみに対して声をか
けると、そのキャラクターのみが反応するキャラクター
反応処理を実行し、キャラクター表情変更処理(図11
〜図14)が設定された場合は、図11〜図14に従っ
て入力した音声の特性に応じて現在表示中のキャラクタ
ーの表情または動作を変更するキャラクター表情変更処
理を実行し、キャラクター移動処理(図18及び図2
1)が設定された場合は、図18及び図21に従って一
方のキャラクター表示制御装置から他方のキャラクター
表示制御装置へキャラクターに声をかけて移動させるキ
ャラクター移動処理を実行する。
【0081】図9は、CPU20により実行されるキャ
ラクター反応処理の流れを示すフローチャートである。
【0082】図9において、まず、CPU20は、RO
M21からキャラクター反応処理用プログラムを読み出
してキャラクター反応処理を開始し、初期画面として画
像ROM21dから初期画面の画像データを読み出す
(ステップS101)(図10(A))。次いで、CP
U20は、ユーザの発声した音声を音声入力部3により
集音させて(ステップS102)、当該音声を電気信号
に変換させて、音声認識部25により当該信号について
音声スペクトラム短縮化等の分析処理を行った後に、標
準パターン等とのパターンマッチングを行って音声認識
させる(ステップS103)。次いで、CPU20は、
音声認識結果をPCMデータとしてRAM22の認識音
声データレジスタ22eに格納する(ステップS10
4)。
【0083】その後、CPU20は、認識音声データレ
ジスタ22eに格納した認識音声データが現在表示部2
に表示されているキャラクターに対応する「名前」と一
致しているか否かを判別する(ステップS105)。一
致している場合は(ステップS105:YES)、CP
U20は、画像ROM21dから当該キャラクターの
「名前」を呼ばれた際の画像データを読み出し、表示画
面に表示されているキャラクターの内、呼ばれた「名
前」に対応するキャラクターの画像データと差し替え
て、呼ばれた「名前」に対応するキャラクターの画像デ
ータのみを変更する(ステップS106)(図10
(B))。それとともに、CPU20は、音声振動用R
OM21eから呼ばれた「名前」に対応しているキャラ
クターに対応する音声データ及び振動指示データを読み
出して、音声発声部26及び振動発生部23に出力し、
音声発声部26に音声を合成させるとともに、振動部発
生部23を振動させる(ステップS107)。
【0084】そして、CPU20は、動作を命令する認
識音声データが認識音声データレジスタ22eに格納さ
れているか否かを判別する(ステップS108)。格納
されていない場合は(ステップS108:NO)、CP
U20は、ステップS102に戻り、格納されている場
合は(ステップ108:YES)、画像ROM21dか
ら前記動作に対応して格納されている一連の動作を示す
画像データ群を読み出し、さらに、表示順序用ROM2
1fから、前記動作に対応する画像表示順序を読み出
し、当該画像表示順序に従って前記画像データ群を表示
させる(ステップS109)(図10(C),図10
(D))。前記画像データ群を表示させる動作と同時
に、CPU20は、音声振動用ROM21eから前記画
像データ群に対応する音声データ及び振動指示データを
読み出して、音声発声部26及び振動発生部に出力し、
音声発声部26に音声を合成させるとともに、振動部発
生部23を振動させる(ステップS110)(図10
(C),図10(D))。
【0085】ステップS105において、認識音声デー
タレジスタ22eに格納した認識音声データが現在表示
部2に表示されているキャラクターに対応する「名前」
と一致していない場合は(ステップS105:NO)、
CPU20は、認識音声データレジスタ22eに格納し
た認識音声データが、「全員」またはこれに類似する言
葉(例えば、皆で)であるか否かを判別する(ステップ
S111)。「全員」またはこれに類似する言葉でない
場合は(ステップS111:NO)、CPU20は、ス
テップS102に戻り、「全員」またはこれに類似する
言葉である場合は(ステップS111:YES)、画像
ROM21dから表示部2に現在表示されている全ての
キャラクターに対する「名前」を呼ばれた際の画像を複
数読み出し、表示部2に現在表示されている全てのキャ
ラクターの画像データと差し替えて、現在表示されてい
る全てのキャラクターの画像データを同時に変更する
(ステップS112)。それとともに、CPU20は、
音声振動用ROM21eから現在表示されている全ての
キャラクターに対応する音声データ及び振動指示データ
を読み出して、音声発声部26及び振動発生部23に出
力し、音声発声部26に音声を合成させるとともに、振
動部発生部23を振動させる(ステップS113)。
【0086】そして、CPU20は、動作を命令する認
識音声データが認識音声データレジスタ22eに格納さ
れているか否かを判別する(ステップS114)。格納
されていない場合は(ステップS114:NO)、CP
U20は、ステップS102に戻り、格納されている場
合は(ステップ114:YES)、画像ROM21dか
ら前記動作に対応して格納されている一連の動作を示す
画像データ群を複数読み出し、さらに、表示順序用RO
M21fから、前記動作に対応する画像表示順序を複数
読み出し、当該各画像表示順序に従って前記各画像デー
タ群を表示させる(ステップS115)。前記各画像デ
ータ群を表示させる動作と同時に、CPU20は、音声
振動用ROM21eから前記各画像データ群に含まれる
画像データの複数の画像Noに対応する音声データ及び
振動指示データを、各画像データ群毎に複数読み出し
て、音声発声部26及び振動発生部23に出力し、音声
発声部26に音声を合成させるとともに、振動部発生部
23を振動させる(ステップS116)。
【0087】ステップS110及びステップS116の
処理の終了後、CPU20は、一連のキャラクター反応
処理を終了する。
【0088】図10は、上記キャラクター反応処理にお
いて、キャラクターの表示形態が変化する様子を示す図
である。
【0089】(A)は初期画面の表示例を示し、(B)
は現在表示されているキャラクターに対して「名前」が
呼ばれた際の表示画面を示し、(C)及び(D)は現在
表示されているキャラクターに対して動作命令「棒をと
れ!」がなされた際の一連の動作を示す画像の表示画面
を示している。
【0090】同図(A)に示すように、まず、初期表示
画面として名前「ポチ」に対応する画像データK1(片
腕を挙げている犬)及び名前「タマ」に対応する画像デ
ータK2(片腕を挙げている猫)が表示される。ここ
で、ユーザがマイク3に対して「ポチ」と発声すると、
現在表示されているキャラクターの内、名前「ポチ」に
対応する画像データK1のみが反応して他の画像データ
K10(両腕を挙げている犬)に変更されて表示される
(図10(B))。それとともに、スピーカ4から「ワ
ン」という音声が出力され、さらに、振動発生部23が
振動を開始する(「ブル」)(図10(B))。
【0091】その後、ユーザがマイク3に対して「棒を
とれ!」と発声すると、スピーカ4から「ワン」という
音声が出力され、振動発生部23が振動を開始するとと
もに(「ブル」)、図10(B)に示した反応した画像
データK10(両腕を挙げている犬)から、動作命令に
従った一連の動作画像データの内の前段の画像データK
30(後ろを向いた犬)に変更される(図10
(C))。それから、所定の時間が経過すると、図10
(D)に示すように、動作命令に従った一連の動作画像
データの内の後段の画像データK31(棒をくわえた
犬)に画像が変更されるとともに、スピーカ4から「ウ
グー」という音声が出力され、振動発生部23が振動を
開始する(ブール)。
【0092】以上説明したように、本実施の形態におけ
る電子手帳1によれば、キャラクター反応処理におい
て、CPU20は、まず、ユーザの発声した音声を音声
入力部3により集音させて、当該音声を電気信号に変換
させて、音声認識部25により音声認識させる。次い
で、CPU20は、認識音声データが現在表示部2に表
示されているキャラクターに対応する「名前」と一致し
ている場合は、画像ROM21dから当該キャラクター
の「名前」を呼ばれた際の画像データを読み出し、表示
画面に表示されているキャラクターの内、呼ばれた「名
前」に対応するキャラクターの画像データのみを変更す
るとともに、CPU20は、音声発声部26に音声を合
成させ、振動部発生部23を振動させる。そして、CP
U20は、動作を命令する認識音声データが認識音声デ
ータレジスタ22eに格納されている場合は、画像RO
M21dから前記動作に対応して格納されている一連の
動作を示す画像データ群を読み出し、さらに、表示順序
用ROM21fから、前記動作に対応する画像表示順序
を読み出し、当該画像表示順序に従って前記画像データ
群を表示させる。前記画像データ群を表示させる動作と
同時に、CPU20は、音声発声部26に音声を合成さ
せるとともに、振動部発生部23を振動させる。
【0093】したがって、表示画面に表示されているキ
ャラクターの内、ユーザによって呼ばれた「名前」に対
応するキャラクターの画像データのみを変更するととも
に、音声を出力させたり、振動を発生させたりすること
ができるため、手入力によらず音声入力により表示画面
に表示されているキャラクターとコミュニケーションを
とることが可能となり、ユーザはより感情移入しやすく
なり、かつ、面白味を感じることができる。
【0094】さらに、表示画面に表示されているキャラ
クターの内、ユーザによって呼ばれた「名前」に対応す
るキャラクターのみに動作を命令することができ、当該
キャラクターは命令された動作に応じて表示画面上で一
連の動作を行うとともに、一連の動作に対応する音声や
振動を発生させることができ変化に優れているため、遊
戯性を高めることができる。
【0095】図11は、CPU20により実行されるキ
ャラクター表情変更処理の流れを示すフローチャートで
ある。図11において、まず、CPU20は、ROM2
1からキャラクター表情変更処理用プログラムを読み出
してキャラクター表情変更処理を開始し、表示部2に表
示されているキャラクターに対してユーザが発声した音
声を音声入力部3により集音させて(ステップS20
1)、当該音声を電気信号に変換させて、音声認識部2
5により当該信号について音声スペクトラム短縮化等の
分析処理を行った後に、標準パターン等とのパターンマ
ッチングを行って音声認識させる(ステップS20
2)。次いで、CPU20は、音声認識結果をPCMデ
ータとしてRAM22の認識音声データレジスタ22e
に格納(ステップS203)した後、親密度判定処理
(ステップS204)に移行する。その後、CPU20
は、ステップS204において判定した親密度Mの値に
応じて親密度マークSMを親密度用ROM21cから読
み出して表示部2に表示させるとともに(ステップS2
05)(図15参照)、親密度Mの値に応じてキャラク
ターの顔の表情及び表示形態が変化する画像データを状
態変化用ROM21gから読み出して表示部2に表示さ
せる(ステップS206)。例えば、親密度Mが「+
N」の場合は、「超にこにこ顔の画像データ」のキャラ
クターK03Xを、また、親密度Mが「−N」の場合
は、「超哀しい顔の画像データ」のキャラクターK03
Zを、表示部2に表示させる(図15参照)。その後、
CPU20は、一連のキャラクター表情変更処理を終了
する。
【0096】図12は、上記キャラクター表情変更処理
のステップS204において実行される親密度判定処理
の一例としての時刻変化親密度処理について詳細に説明
するフローチャートである。
【0097】図12において、まず、CPU20は、R
AM22内の計時レジスタ22bから現在時刻データを
読み出し(ステップS301)、親密度Mを「0」とす
る(ステップS302)。次いで、CPU20は、予め
ユーザによって設定レジスタ22d(図7)に設定され
た設定時間(例えば、7時)のデータ及び所定時間(例
えば、1時間)のデータを、設定レジスタ22dから読
み出し、前記現在時刻データが設定時間のデータ(例え
ば、7時)から所定時間(例えば、1時間)経過したか
否かを判別する(ステップS303)。例えば、設定時
間が7時、所定時間が1時間と設定されている場合に、
7時30分にユーザが表示されているキャラクターに対
して声をかけたとすると、現在時刻は設定時刻から所定
時間経過していないと判別する。ステップS303にお
いて所定時間経過したと判別された場合は(ステップS
303:YES)、CPU20は、親密度Mの値をイン
クリメントする(ステップS304)。ステップS30
3において所定時間経過していないと判別された場合は
(ステップS303:NO)、CPU20は、親密度を
示す変数Mの値をデクリメントする(ステップS30
5)。ステップS304及びステップS305の処理が
終了後、CPU20は、一連の時間変化親密度処理を終
了させ、キャラクター表情変更処理(図11)のステッ
プS205に移行する。
【0098】図13は、上記キャラクター表情変更処理
(図11)のステップS204において実行される親密
度判定処理の一例としての口調変化親密度処理について
詳細に説明するフローチャートである。
【0099】図13において、まず、CPU20は、キ
ャラクター表情変更処理(図11)のステップS203
において音声認識結果として認識音声データレジスタ2
2eに格納されている認識音声データを読み出す(ステ
ップS401)。次いで、CPU20は、親密度用RO
M21cから当該認識音声データ(口調)に対応する親
密度Mを読み出し(ステップS402)、一連の口調変
化親密度処理を終了させ、キャラクター表情変更処理
(図11)のステップS205に移行する。
【0100】図14は、上記キャラクター表情変更処理
(図11)のステップS204において実行される親密
度判定処理の一例としての呼掛回数変化親密度処理につ
いて詳細に説明するフローチャートである。
【0101】図14において、まず、CPU20は、キ
ャラクター表情変更処理(図11)のステップS203
において音声認識結果として認識音声データレジスタ2
2eに格納されている認識音声データを読み出し、当該
認識音声データが表示部2に現在表示されているキャラ
クターに対応する「名前」であるか否かを判別する(ス
テップS501)。キャラクターに対応する「名前」で
ない場合は(ステップS501:NO)、CPU20
は、表示されているキャラクターの名前をユーザが呼ん
だ回数を示す変数NAの値(初期値:NA=0)をデク
リメントし(ステップS502)、キャラクターに対応
する「名前」である場合は(ステップS501:YE
S)、変数NAの値をインクリメントする(ステップS
503)。そして、CPU20は、呼掛回数ROM21
hから変数NAの値に対応する音声データを読み出し、
音声発生部26に出力して「初めまして!」,「最高!
!」,…等の音声を合成させる(ステップS504)。
ステップS502及びステップS504の処理が終了
後、CPU20は、親密度Mに呼掛回数を示す変数NA
の値を代入し(ステップS505)、一連の呼掛回数変
化親密度処理を終了させ、キャラクター表情変更処理
(図11)のステップS205に移行する。
【0102】図15は、上記キャラクター表情変更処理
(図11)において、キャラクターの表情及び表示形態
が変化する様子を示す図である。
【0103】(A)は親密度Mが「+N」(最高値)の
際のキャラクターの表示例を示し、(B)は親密度Mが
「0」(初期値)の際のキャラクターの表示例を示し、
(C)は親密度Mが「−N」(最低値)の際のキャラク
ターの表示例を示している。
【0104】親密度Mが「+N」(最高値)である場合
は、同図(A)に示すように、「超にこにこ顔」に対応
したキャラクターの画像K03X(笑顔で両腕を上げて
いるキャラクター)が表示され、当該キャラクター画像
の上部に親密度Mのレベルを示すハート型の記号表示
(親密度マークSM)が5つ表示される。
【0105】親密度Mが「0」(初期値)である場合
は、同図(B)に示すように、「普通の顔」に対応した
キャラクターの画像K03Y(普通の顔のキャラクタ
ー)が表示され、当該キャラクター画像の上部に親密度
Mのレベルを示すハート型の記号表示(親密度マークS
M)が3つ表示される。
【0106】親密度Mが「−N」(最低値)である場合
は、同図(C)に示すように、「超哀しい顔」に対応し
たキャラクターの画像K03Z(哀しい顔のキャラクタ
ー)が表示されるが、当該キャラクター画像の上部に親
密度Mのレベルを示すハート型の記号表示(親密度マー
クSM)は1つも表示されない。
【0107】以上説明したように、本実施の形態におけ
る電子手帳1によれば、キャラクター表情変更処理にお
いて、CPU20は、表示部2に表示されているキャラ
クターに対してユーザが発声した音声を音声入力部3に
より集音させて、音声認識部25により音声認識させ
る。次いで、CPU20は、親密度判定処理に移行す
る。CPU20は、親密度判定処理として、予めユーザ
によって設定された設定時間から所定時間経過する前
に、表示されているキャラクターに対してユーザが声を
かけたか否かによって親密度を判定する時間変化親密度
処理、表示されているキャラクターに対してユーザが声
をかけた口調によって親密度を判定する口調変化親密度
処理、または表示されているキャラクターに対してユー
ザが声をかけた呼掛回数によって親密度を判定する呼掛
回数親密度処理を実行する。その後、CPU20は、判
定した親密度Mの値に応じて親密度マークSMを表示部
2に表示させるとともに、親密度Mの値に応じてキャラ
クターの顔の表情及び表示形態が変化する画像データを
表示部2に表示させる。
【0108】したがって、ユーザが入力した音声の特
性、例えば、呼び掛けた時刻と設定時間の時間差、音声
の口調、及び呼掛回数等に応じて表示部2に表示中のキ
ャラクターの顔の表情及び表示形態を変化させるととも
に、ユーザに対するキャラクターの親密度を親密度マー
クSM(ハート型の記号表示)を表示させることができ
るため、表示されているキャラクターの感情を知ること
ができて、現実の動物を育成しているのと同様な体験を
味わうことができ、ユーザはより感情移入しやすくな
り、かつより面白味を感じることができる。
【0109】(第2の実施の形態)次に、図16〜図2
2を参照して本発明の第2の実施の形態におけるキャラ
クター表示制御システム30について詳細に説明する。
図16は、本発明の第2の実施の形態としてのキャラク
ター表示制御システム30の全体構成を示す図である。
【0110】この図1に示すように、キャラクター表示
制御システム30は、送信側の電子手帳50及び受信側
の電子手帳80によって構成され、電子手帳50及び電
子手帳80は赤外線データ通信によりデータの送受信を
行っている。
【0111】なお、本実施の形態においては、赤外線を
使用して赤外線データ通信を行っているが、データ通信
用ケーブルを使用した有線接続によるデータ通信を行う
形態としてもよい。第2の実施の形態における電子手帳
50及び電子手帳80の構成は上記第1の実施の形態に
おける電子手帳1と同様の構成であるので同一符号を付
してその図示及び説明を省略するものとし、以下、上記
第1の実施の形態における電子手帳1との相異点につい
て説明する。
【0112】RAM22は、図17に示すように、指定
されたアプリケーションプログラム、入力指示、入力デ
ータ及び処理結果等を一時格納する他、表示部2に表示
させるべき被表示データがイメージデータとして書き込
まれる表示レジスタ22a、計時部28により計時され
た現在時刻データが順次更新されて格納される計時レジ
スタ22b、温度センサ27により計測された気温デー
タが順次更新されて格納される温度レジスタ22c、ユ
ーザによって設定された設定時刻データを格納する設定
レジスタ22d、音声認識部25により認識した認識音
声データを格納する認識音声データレジスタ22e、表
示部2に表示中のキャラクターの画像Noを格納するキ
ャラクターレジスタ22f等の各種レジスタと、他方キ
ャラクター表示制御装置から赤外線通信部24を介して
受信したデータを格納する受信データレジスタ22gと
を備えている。
【0113】また、RAM22の受信データレジスタ2
2gに格納されている受信データの一例としては、図1
7に示すように、名前「タマ」、命令「頂戴」、及び画
像No「02」等が挙げられる。
【0114】次に動作を説明する。
【0115】図18は、本発明の第2の実施の形態にお
けるキャラクター表示制御システム30の送信側の電子
手帳50におけるキャラクター移動処理について説明す
るフローチャートである。
【0116】図18において、電子手帳50は、まず、
ROM21からキャラクター移動処理用プログラムを読
み出してキャラクター移動処理を開始し、初期画面とし
て画像ROM21dから初期画面の画像データを読み出
して表示させる(ステップS601)(図19(A)参
照)。次いで、電子手帳50は、計時レジスタ22bか
ら現在時刻データを読み出し(ステップS602)、表
示部2に現在時刻GZを表示させるとともに(ステップ
S603)(図19(A)参照)、温度レジスタ22c
から現在の気温データを読み出し(ステップS60
4)、表示部2に現在の気温GKを表示させる(ステッ
プS605)。
【0117】その後、電子手帳50は、ユーザの発声し
た音声を音声入力部3により集音させて(ステップS6
06)、当該音声を電気信号に変換させて、音声認識部
25により当該信号について音声スペクトラム短縮化等
の分析処理を行った後に、標準パターン等とのパターン
マッチングを行って音声認識させて、音声認識結果をP
CMデータとしてRAM22の認識音声データレジスタ
22eに格納する(ステップS607)。
【0118】その後、電子手帳50は、認識音声データ
レジスタ22eに格納した認識音声データの内に「名
前」のデータがあるか否かを判別する(ステップS60
8)。「名前」のデータがない場合は(ステップS60
8:NO)、電子手帳50は、ステップS602に戻
り、「名前」のデータがある場合は(ステップS60
8:YES)、認識音声データレジスタ22eに格納し
た認識音声データの内に「頂戴」のデータがあるか否か
を判別する(ステップS609)。「頂戴」のデータが
ない場合は(ステップS609:NO)、電子手帳50
は、ステップS602に戻り、「頂戴」のデータがある
場合は(ステップS609:YES)、「名前」、「頂
戴」、「電子手帳50に表示中の第1のキャラクターの
画像No」の各データを赤外線通信部24を介して受信
側の電子手帳80に送信する(ステップS610)。
【0119】受信側の電子手帳80は、前記各データを
受信すると、該受信した「名前」データに対応するキャ
ラクターが表示されているか否かを検索し、表示されて
いると検索した場合に、電子手帳50に対して表示され
ている旨を示す信号を送信する。
【0120】そして、電子手帳50は、受信側の電子手
帳80から送信された表示されている旨の信号を受信し
たか否かを判別する(ステップS611)。受信してい
ない場合は(ステップS611:NO)、電子手帳50
は、「相手先には該当する名前のキャラクターは不在で
す。」というメッセージM2を表示部2に表示させる
(ステップS612)。受信した場合は(ステップS6
11:YES)、電子手帳50は、「あと数秒後に訪問
します。」というメッセージを表示部2に表示させて
(ステップS613)、30秒経過したか否かを判別す
る(ステップS614)。30秒経過していない場合は
(ステップS614:NO)、電子手帳50は、再びス
テップS614に戻り、30秒経過している場合は(ス
テップS614:YES)、画像ROM21dからドア
を開けた背景画像を読み出し、表示部2に表示させると
ともに(図20(A))、音声振動用ROM21eから
ドアをノックする時の音声データ「トン、トン、ガチ
ャ」と、それに対応する振動指示データ「ブ、ブ、ブ
ー」を読み出し、音声発生部26及び振動発生部23に
出力して、音声「トン、トン、ガチャ」をスピーカから
出力させるとともに、振動発生部を振動させる(ステッ
プS615)。
【0121】そして、電子手帳50は、前記ユーザによ
って発声された「名前」に対応したキャラクターを画像
ROM21dから読み出し、表示部2に表示されている
キャラクターの隣に表示させる(ステップS616)
(図20(B))。そして、電子手帳50は、計時レジ
スタ22b及び温度レジスタ22cから現在時刻データ
及び温度データ読み出し(ステップS617)、当該現
在時刻及び温度に対応する「あいさつ」データを挨拶用
データROM21bから読み出して、音声発生部26に
送信して音声を合成する(ステップS618)。さら
に、電子手帳50は、音声振動用ROM21eから「あ
いさつ」データに対応する画像データまたは一連の動作
を示す画像データ群の画像Noと、振動指示データを読
み出し、読み出した画像Noに対応する画像を画像RO
M21dから読み出した表示部2に表示させるとともに
(ステップS619)(図20(C))、前記振動指示
データを振動発生部23に出力して振動させる(ステッ
プS620)。
【0122】その後、電子手帳50は、画像ROM21
dからドアを閉じた背景画像を読み出し、表示部2に表
示させるとともに(ステップS621)、音声振動用R
OM21eからドアを閉じる時の音声データ「ガチャ」
と、それに対応する振動指示データ「ブル」を読み出
し、音声発生部26及び振動発生部23に出力して、音
声「ガチャ」をスピーカから出力させるとともに、振動
発生部を振動させる(ステップS622)。ステップS
612またはステップS621の処理が終了後、電子手
帳50は、一連のキャラクター移動処理を終了する。
【0123】図19は、上記キャラクター表示制御シス
テム30の送信側の電子手帳50におけるキャラクター
移動処理において、受信側の電子手帳80に表示されて
いるキャラクターが訪問する前の表示画面の様子を示す
図である。
【0124】(A)は電子手帳50の初期表示画面の表
示例を示し、(B)は受信側の電子手帳80に表示され
ているキャラクターの訪問を待機している電子手帳50
の表示画面の表示例を示し、(C)はユーザが呼んだ
「名前」に対応するキャラクターが受信側の電子手帳8
0に表示されていない場合の電子手帳50の表示画面を
示している。
【0125】同図(A)に示すように、まず、初期表示
画面として閉じたドアK80、テーブルーK85、窓K
82等からなる室内の背景が表示されており、その中
に、キャラクターとして名前「ポチ」に対応する画像デ
ータK01(片腕を挙げている犬)のみが表示されてい
る。なお、現在時刻GZ、気温GK、…等のデータが壁
際に表示されている。ここで、ユーザがマイク3に対し
て電子手帳80の表示部に表示されているキャラクター
の「名前」(例えば、タマ)を発声した後、「頂戴」と
発声すると、同図(B)に示すように、表示画面の下部
にM1「あと数秒後に訪問します。」というメッセージ
が表示される。
【0126】一方、受信側の電子手帳80の表示部に表
示されていないキャラクターの「名前」(例えば、グル
タン)とユーザが発声した場合は、同図(C)に示すよ
うに、表示画面の下部にM2「相手先には該当する名前
のキャラクターは不在です。」というメッセージが表示
される。
【0127】図20は、上記キャラクター表示制御シス
テム30の送信側の電子手帳50におけるキャラクター
移動処理において、受信側の電子手帳80に表示されて
いるキャラクターが訪問した際の表示画面の様子を示す
図である。
【0128】(A)はドアがノックされて開く様子を示
し、(B)は受信側の電子手帳80に表示されているキ
ャラクター(タマ)が訪問した様子を示し、(C)は受
信側の電子手帳80に表示されているキャラクター(タ
マ)が訪問した後に、あいさつする様子を示している。
【0129】表示画面の下部にM1「あと数秒後に訪問
します。」というメッセージが表示されてから(図19
(B))しばらく時間が経過すると、同図(A)に示す
ように、初期画面では閉じていたドアが、音声「トン、
トン、ガチャ」が出力されるとともに、開かれる。そし
て、受信側の電子手帳80に表示されているキャラクタ
ー(タマ)K02が電子手帳50の表示画面にはじめか
ら表示されているキャラクター(ポチ)K01の隣に表
示される(図20(B))。その後、図20(C)に示
すように、訪問したキャラクター(タマ)K02の画像
が、寒がっている画像K92に変更されるとともに、ス
ピーカ4から音声「超寒いね!」が出力され、振動発生
部23が振動を開始する(ブルブルブルブル)。
【0130】図21は、本発明の第2の実施の形態にお
けるキャラクター表示制御システム30の受信側の電子
手帳80におけるキャラクター移動処理について説明す
るフローチャートである。
【0131】図21において、電子手帳80は、まず、
送信側の電子手帳50から「名前」、「頂戴」、「電子
手帳50に表示中のキャラクターの画像No」の各デー
タを赤外線通信部24を介して受信したか否かを判別す
る(ステップS701)。受信していない場合は(ステ
ップS701:NO)、電子手帳80は、ステップS7
01に戻り、受信した場合は(ステップS701:YE
S)、当該受信した前記各データをRAM22内の受信
データレジスタ22gに格納する(ステップS70
2)。
【0132】そして、電子手帳80は、RAM22内の
キャラクターレジスタ22fに格納されている画像No
を検索し、受信した名前に対応したキャラクターが電子
手帳80の表示部に現在表示中であるか否かを判別する
(ステップS703)。現在表示中でない場合は(ステ
ップS703:NO)、電子手帳80は、ステップS7
01に戻り、現在表示中である場合は(ステップS70
3:YES)、個人データ用ROM21aに基づいて、
電子手帳50の表示部に表示中のキャラクターと、電子
手帳80の表示部に現在表示中のキャラクターとの間の
親密度が高いか否かを判別する(ステップS704)。
親密度が低いと判別した場合は(ステップS704:N
O)、電子手帳80は、表示部にM4「今日は自分の家
にいます。」のメッセージを表示させ(ステップS70
5)(図22(C))、親密度が高いと判別した場合は
(ステップS704:YES)、表示部に、例えば、M
3「ポチの家に行ってきます。」のメッセージを表示さ
せる(ステップS706)(図22(A))。そして、
電子手帳80は、前記「名前」に対応するキャラクター
が現在表示中の旨をあらわすデータを電子手帳50に対
して送信する(ステップS707)。
【0133】その後、電子手帳80は、電子手帳80の
表示部に表示されているキャラクターを表示画面から消
去する(ステップS708)。ステップS708及びス
テップS705の処理が終了後、電子手帳80は、一連
のキャラクター移動処理を終了する。
【0134】図22は、上記キャラクター表示制御シス
テム30の受信側の電子手帳80におけるキャラクター
移動処理において、電子手帳80に表示されているキャ
ラクターの様子を示す図である。
【0135】(A)は電子手帳80に表示されているキ
ャラクター(タマ)が訪問する際の表示例を示し、
(B)電子手帳80に表示されているキャラクター(タ
マ)が訪問した後の表示例を示し、(C)電子手帳80
に表示されているキャラクター(タマ)が訪問を拒否し
た際の表示例を示している。
【0136】電子手帳50にポチが表示されている状態
でユーザが電子手帳50のマイク3に対して、「タ
マ」、「頂戴」と発声し、電子手帳80に「タマ」に対
応するキャラクターK93が表示されいる場合は、「タ
マ」と「ポチ」は親密度が高いため、同図(A)に示す
ように、電子手帳80の表示部の下部にM3「ポチの家
に行ってきます。」というメッセージが表示され、しば
らくすると、同図(B)に示すように、電子手帳80の
表示部から「タマ」に対応するキャラクターK93が消
去される。
【0137】また、電子手帳50にグルタンが表示され
ている状態でユーザが電子手帳50のマイクに対して、
「タマ」、「頂戴」と発声し、電子手帳80に「タマ」
に対応するキャラクターK93が表示されいる場合は、
「タマ」と「グルタン」は親密度が低いため、同図
(C)に示すように、電子手帳80の表示部の下部にM
4「今日は自分の家にいます。」というメッセージが表
示される。
【0138】以上説明したように、本実施の形態におけ
るによれば、キャラクター表示制御システム30は、キ
ャラクター移動処理において、送信側の電子手帳50
は、初期画面として室内の背景画面を表示させるととも
に、現在時刻及び現在の気温データを表示部2に表示さ
せる。その後、電子手帳50は、ユーザの発声した音声
を音声入力部3により集音させて、音声認識部25によ
り音声認識させて、RAM22の認識音声データレジス
タ22eに格納する。その後、電子手帳50は、認識音
声データレジスタ22eに格納した認識音声データの内
に「名前」のデータがある場合は、認識音声データレジ
スタ22eに格納した認識音声データの内に「頂戴」の
データがあるか否かを判別し、「頂戴」のデータがある
場合は、「名前」、「頂戴」、「電子手帳50に表示中
の第1のキャラクターの画像No」の各データを受信側
の電子手帳80に送信する。そして、電子手帳50は、
受信側の電子手帳80から送信された表示されている旨
の信号を受信した場合は、「あと数秒後に訪問しま
す。」というメッセージを表示部2に表示させて、30
秒経過した場合は、ドアを開けた背景画像を表示させる
とともに、ノックする時の音声と振動を発生させる。そ
して、電子手帳50は、前記ユーザによって発声された
「名前」に対応したキャラクターを画像ROM21dか
ら読み出し、表示部2に表示されているキャラクターの
隣に表示させる。そして、電子手帳50は、「名前」に
対応したキャラクターに当該現在時刻及び温度に応じて
「あいさつ」をさせるとともに、あいさつに応じた音声
と振動を発生させる。
【0139】また、受信側の電子手帳80は、まず、送
信側電子手帳50から「名前」、「頂戴」、「電子手帳
50に表示中のキャラクターの画像No」の各データを
受信したか否かを判別し、受信した場合は、当該受信し
た前記各データをRAM22内の受信データレジスタ2
2gに格納する。そして、電子手帳80は、受信した名
前に対応したキャラクターが電子手帳80の表示部に現
在表示中である場合に、電子手帳50の表示部に表示中
のキャラクターと、電子手帳80の表示部に現在表示中
のキャラクターとの間の親密度が高いか否かを判別し、
親密度が高いと判別した場合は、表示部に、例えば、
「ポチの家に行ってきます。」のメッセージを表示させ
て、前記「名前」に対応するキャラクターが現在表示中
の旨の信号を送信側の電子手帳50に対して送信する。
その後、電子手帳80は、電子手帳80の表示部に表示
されているキャラクターを表示画面から消去する。
【0140】したがって、受信側の電子手帳80に表示
されているキャラクターの名前と、頂戴という言葉を、
送信側の電子手帳50のマイクに対して呼び掛けると、
受信側の電子手帳80に表示されているキャラクターを
消去して、送信側の電子手帳50に新たに表示させるこ
とができるため、任意の二つの電子手帳の間でキャラク
ターを移動させることができ遊技性を高めることができ
る。また、二つの電子手帳にそれぞれ表示されているキ
ャラクターの親密度の高さによって、二つの電子手帳の
間のキャラクター移動を禁止することができるため、ユ
ーザはキャラクターの感情を知ることができより面白味
を感じることができる。
【0141】また、現在時刻及び現在の気温に応じて変
化するあいさつを、画像または一連の動作を示す画像を
表示させることにより、移動してきたキャラクターにさ
せるとともに、あいさつを示す音声及び振動を発生させ
ることができるため、ユーザは移動してきたキャラクタ
ーが現在時刻を知っていて、さらに気温を感じているよ
うに錯覚するため、より身近に感じて親近感をもつこと
ができ、面白味を感じるだけでなく、より感情移入しや
すくなる。
【0142】(第3の実施の形態)次に、図23〜図2
5を参照して本発明のキャラクター表示制御装置を適用
した第3の実施の形態における腕装着型ゲーム装置10
0及びこの腕装着型ゲーム装置100を利用して構成さ
れるキャラクター表示制御システム200、300につ
いて詳細に説明する。
【0143】図23は、本発明の第3の実施の形態とし
ての腕装着型ゲーム装置100を示す外観図であり、図
23(A)は上面図、図23(B)は側面図である。こ
の図23に示す腕装着型ゲーム装置100は、開閉部1
02を備える小型ゲーム装置本体101が、上下方向に
弾性変形するプロテクタ104によって、ユーザの腕に
着用するためのバンド103に装着されることによって
構成されている。
【0144】小型ゲーム装置本体101は、図2に示す
キャラクター表示制御装置Sを内蔵したゲーム装置であ
り、図23(A),(B)においては、図2に示す各構
成要素を示す部分に同一符号を付している。この小型ゲ
ーム装置本体101は、モード設定スイッチMSによっ
て選択されたモードに従って、キャラクター反応処理
(図9)、キャラクター表情変更処理(図11〜図1
4)、キャラクター移動処理(図18及び図21)等の
各処理を実行し、ユーザのカーソル移動キー8等の操作
に従う処理内容に基づくキャラクター等を表示部2に表
示するほか、例えば、現在時刻表示機能やストップウォ
ッチ機能等の各種時計機能を実現する時計モードや、カ
ーソル移動キー8をコントローラとして使用してゲーム
を行うゲームモード等の各種モードを有している。
【0145】また、図24は、小型ゲーム装置本体10
1をバンド103に装着する前の状態あるいはバンド1
03から取り外した状態を示す図である。
【0146】図24において、バンド103には、凹部
を設けられた台座105が備えられており、また小型ゲ
ーム装置本体101の裏面側には台座105に設けられ
た凹部に対応する凸部(図示せず)が設けられている。
そして、小型ゲーム装置本体101をバンド103に装
着する際には、上下方向に弾性変形するプロテクタ10
4を適宜変形して台座105上に小型ゲーム装置本体1
01を装着する空間を確保した上で、小型ゲーム装置本
体101の凸部を台座105の凹部にはめ込むようにし
て台座105に対する小型ゲーム装置本体101の位置
を決定し、更に、プロテクタ104を所定の定位置に戻
すことによって小型ゲーム装置本体101を台座105
に固定する。
【0147】また、図25(A)は、小型ゲーム装置本
体101をゲーム装置201に装着して構成されるキャ
ラクター表示制御システム200の外観を示す斜視図で
ある。
【0148】図24に示すようにバンド103から取り
外された状態においては、小型ゲーム装置本体101の
開閉部102を開閉することが可能となる。そして、こ
の開閉部102を開状態にすると、コネクタ部106が
露出され、このコネクタ部106をゲーム装置201に
設けられたコネクタ部(図示せず)と接続することによ
り、小型ゲーム装置本体101とゲーム装置201との
間のデータ通信が可能となる。
【0149】こうして行われるデータ通信の機能を利用
して、キャラクター移動処理(図18及び図21)が行
われる他、例えば、ゲーム装置201側にゲームを記憶
した記録媒体を装着し、この記録媒体に記憶されるゲー
ムプログラムを読み出して小型ゲーム装置本体101側
に転送する処理等が行われる。
【0150】また、図25(B)は、腕装着型ゲーム装
置100どうしの間で赤外線通信部24を介してデータ
通信を行うキャラクター表示制御システム300を示す
模式図である。
【0151】この図25(B)に示すように、複数の腕
装着型ゲーム装置100のそれぞれの赤外線通信部24
の通信窓を所定距離内において対面させることにより、
腕装着型ゲーム装置100どうしのデータ通信が可能と
なり、キャラクター移動処理(図18及び図21)が行
われる他、例えば、一方の腕装着型ゲーム装置100側
に記憶されたゲームプログラムを読み出して、他方の小
型ゲーム装置本体101側に転送する処理等が行われ
る。
【0152】この図25(B)に示すキャラクター表示
制御システム300では、同図に示すように小型ゲーム
装置本体101をバンド103に装着したままの状態で
データ通信を行うことが可能であるため、図25(A)
に示す場合のように、小型ゲーム装置本体101をバン
ド103から取り外す手間を省くことができる。また、
それぞれの腕装着型ゲーム装置100がユーザの腕に着
用されている状態のままでもデータ通信を行うことが可
能である。
【0153】以上説明したように腕装着型ゲーム装置1
00、またはこの腕装着型ゲーム装置100を適用した
キャラクター表示制御システム200、キャラクター表
示制御システム300によれば、内蔵されたキャラクタ
ー表示制御装置Sによって前記第1または第2の実施の
形態において説明したような電子手帳1またはキャラク
ター表示システム30と同等の処理を実行することが可
能な小型ゲーム装置本体101を、バンド103によっ
てユーザの腕に装着したり、バンド103から取り外し
てユーザのポケットに入れて携帯することができるた
め、携帯性を向上させることができる。そして、携帯性
の向上によって、ユーザが常に腕装着型ゲーム装置10
0を携帯して、キャラクターと頻繁に接することができ
るようになるため、ユーザはキャラクターに対して更に
身近に感じて親近感をもつことができ、腕装着型ゲーム
装置100の遊技性を向上させることができる。また、
バンド103に装着する小型ゲーム装置本体101を、
例えば、他の種類のキャラクターを記憶した小型ゲーム
装置本体101に交換することもできるため、ユーザの
気分によって携帯するものを交換したり、友人同士で交
換したりすることが可能となり、更に興趣を喚起させる
ことができる。
【0154】(第4の実施の形態)次に、図26を参照
して本発明のキャラクター表示制御装置を適用した第4
の実施の形態における腕装着型ゲーム装置400及びこ
の腕装着型ゲーム装置400を利用して構成されるキャ
ラクター表示制御システム500について詳細に説明す
る。
【0155】前記第3の実施の形態における腕装着型ゲ
ーム装置100は、図25(A)に示すようなキャラク
ター表示制御システム200を構成する場合には、小型
ゲーム装置本体101をバンド103から取り外して使
用したが、本第4の実施の形態においては、小型ゲーム
装置本体をバンドから取り外さずにゲーム装置に装着可
能とする腕装着型ゲーム装置400について説明する。
【0156】図26は、本発明の第4の実施の形態とし
ての腕装着型ゲーム装置400を示す外観図であり、図
26(A)は上面図、図26(B)は側面図、図26
(C)は、この腕装着型ゲーム装置400とゲーム装置
201とによって構成されるキャラクター表示制御シス
テム500を示す斜視図である。この図26に示す腕装
着型ゲーム装置400は、開閉部402を備える小型ゲ
ーム装置本体401が、バンド405上を図中の回動方
向A,B両方向に回動可能なように、回動支軸403に
よって、ユーザの腕に着用するためのバンド405に装
着されることによって構成されている。
【0157】小型ゲーム装置本体401は、図2に示す
キャラクター表示制御装置Sを内蔵したゲーム装置であ
り、図26(A),(B)においては、図2に示す各構
成要素を示す部分に同一符号を付している。この小型ゲ
ーム装置本体401は、図23に示す小型ゲーム装置本
体101と同等の機能を有し、モード設定スイッチMS
によって選択されたモードに従って、キャラクター反応
処理(図9)、キャラクター表情変更処理(図11〜図
14)、キャラクター移動処理(図18及び図21)等
の各処理を行う他、時計モードや、ゲームモード等の各
種モードを有している。
【0158】この腕装着型ゲーム装置400は、図26
(A)に示すように、回動支軸403を回動の軸とし
て、バンド405に対して小型ゲーム装置本体401を
A,Bの各方向に回動可能であり、例えば、ユーザが小
型ゲーム装置本体401の時計モードを使用する場合に
は図中点線で示すように、バンド405の長手方向と小
型ゲーム装置本体401の長手方向をそろえて使用す
る。また、図26(C)に示すようなキャラクター表示
制御システム500を構成する場合には、バンド405
の長手方向と小型ゲーム装置本体401の長手方向が垂
直となるような状態で使用する。そして、腕装着型ゲー
ム装置400とゲーム装置201とによってキャラクタ
ー表示制御システム500を構成する際には、前記第3
の実施の形態における小型ゲーム装置本体101の場合
と同様に、小型ゲーム装置本体401の開閉部402を
開状態にすると、コネクタ部404が露出され、このコ
ネクタ部404をゲーム装置201に設けられたコネク
タ部(図示せず)と接続することにより、小型ゲーム装
置本体401とゲーム装置201との間のデータ通信が
可能となる。
【0159】こうして行われるデータ通信の機能を利用
して、キャラクター移動処理(図18及び図21)が行
われる他、例えば、ゲーム装置201側にゲームを記憶
した記録媒体を装着し、この記録媒体に記憶されるゲー
ムプログラムを読み出して小型ゲーム装置本体401側
に転送する処理等が行われる。
【0160】以上説明したように腕装着型ゲーム装置4
00、またはこの腕装着型ゲーム装置400を適用した
キャラクター表示制御システム500によれば、内蔵さ
れたキャラクター表示制御装置Sによって前記第1また
は第2の実施の形態において説明したような電子手帳1
またはキャラクター表示システム30と同等の処理を実
行することが可能な小型ゲーム装置本体401を、バン
ド405によってユーザの腕に装着して携帯することが
できるため、携帯性を向上させることができる。そし
て、携帯性の向上によって、ユーザが常に腕装着型ゲー
ム装置400を携帯して、キャラクターと頻繁に接する
ことができるようになるため、ユーザはキャラクターに
対して更に身近に感じて親近感をもつことができ、腕装
着型ゲーム装置400の遊技性を向上させることができ
る。また、バンド405に対する小型ゲーム装置本体4
01の方向をユーザの使用目的に応じて、変更すること
ができるため、腕装着型ゲーム装置400の操作性を向
上させることができる。
【0161】
【発明の効果】請求項1及び10記載の発明によれば、
音声入力手段により表示部に表示されている複数のキャ
ラクターに対して音声を入力し、音声認識手段は、この
入力された音声を認識し、制御手段は、この音声認識手
段により認識された音声に関係するキャラクターを複数
のキャラクターの内から特定し、この特定されたキャラ
クターのみを音声に反応させることができるため、手入
力によらず音声入力により表示部に表示されている特定
のキャラクターとコミュニケーションをとることが可能
となり、ユーザは感情移入しやすくなり、かつ、より面
白味を感じることができる。
【0162】請求項2記載の発明によれば、請求項1記
載の発明の効果に加えて、キャラクター表示制御手段
は、音声認識手段により認識された音声の内容と同じ名
前のキャラクターと対応づけられているキャラクターを
記憶手段から読み出して前記音声に関係するキャラクタ
ーとして特定し、この特定されたキャラクターの一部の
形態が異なるキャラクターを前記音声に反応するものと
して表示部に表示させることができるため、表示部に表
示されている特定のキャラクターの名前を音声入力する
ことによって当該キャラクターの表示形態が変化し、当
該キャラクターが自分の名前を理解しているように思え
るため、ユーザは感情移入しやすくなり、かつ、より面
白味を感じることができる。
【0163】請求項3記載の発明によれば、音声入力手
段により複数のキャラクター表示制御装置のうち、一方
のキャラクター表示制御装置に対して音声を入力し、音
声認識手段は、入力された音声を認識し、検索手段はこ
の認識された音声の内容と名前が一致または類似するキ
ャラクターが、他方のキャラクター表示制御装置に表示
されているのか否かを検索し、表示制御手段は、この検
索手段により表示されていると検索された際は、その一
方のキャラクター表示制御装置に設けられている表示部
に、前記名前が一致または類似するキャラクターを表示
させることができるため、複数のキャラクター表示制御
装置の間でキャラクターを移動させることができ遊技性
を高いキャラクター表示制御システムを実現できる。
【0164】請求項4記載の発明によれば、請求項3記
載の発明の効果に加えて、消去制御手段は、一方のキャ
ラクター表示制御装置において認識された音声の内容と
名前が一致または類似するキャラクターを、他方のキャ
ラクター表示制御装置から消去させることができるた
め、より遊技性を高めて、より実際の生物に近い感覚を
ユーザに与えることができる。
【0165】請求項5及び11記載の発明によれば、送
信手段により、認識された音声の内容と名前が一致また
は類似するキャラクターが他方のキャラクター表示制御
装置に表示されているのか否かを検索するための検索デ
ータを送信し、表示制御手段は、送信された検索データ
による検索結果、前記名前が一致または類似するキャラ
クターが前記他方キャラクター表示制御装置に表示され
ていると検索された際は、表示部に前記キャラクターと
同じキャラクターを表示させることができるため、物理
的に距離がある二つのキャラクター表示制御装置の間に
おいても、キャラクターを移動させることができ、より
遊技性を高めることができ、任意の複数のユーザとのコ
ミュニケーションツールとしての役割を果たせる。
【0166】請求項6記載の発明によれば、制御手段に
より計時された現在の時刻帯に対応した挨拶データを記
憶手段から読み出してこの読み出された挨拶データを音
声で外部に出力させるとともに、前記挨拶データに従っ
て予め定められた順序で一連のキャラクターの動作画像
を動作画像記憶手段から読み出して表示手段に表示させ
ることができるため、ユーザは当該キャラクターが現在
時刻を知っているように錯覚するため、より身近に感じ
て親近感をもつことができ、面白味を感じるだけでな
く、より感情移入しやすくなる。
【0167】請求項7記載の発明によれば、制御手段に
より、検出された現在の温度帯に対応して設定手段にて
設定されている振動形態で振動手段を振動させるととも
に、前記温度帯に従って予め定められた順序で一連のキ
ャラクターの動作画像を動作画像記憶手段から読み出し
て表示手段に表示させることができるため、ユーザは当
該キャラクターが温度を感じているように錯覚するた
め、より身近に感じて親近感をもつことができ、面白味
を感じるだけでなく、より感情移入しやすくなる。
【0168】請求項8記載の発明によれば、第1の制御
手段により、計時された現在の時刻帯に対応した挨拶デ
ータを記憶手段から読み出してこの読み出された挨拶デ
ータを音声で外部に出力させるとともに、挨拶データに
従って予め定められた順序で一連のキャラクターの動作
画像を表示手段に表示させ、それと同時に、第2の制御
手段により、検出された現在の温度帯に対応して設定手
段にて設定されている振動形態で振動手段を振動させる
とともに、前記温度帯に従って予め定められた順序で一
連のキャラクターの動作画像を表示手段に表示させるこ
とができるため、ユーザは当該キャラクターが現在時刻
を知っていて、かつ、温度を感じているように錯覚する
ため、前記キャラクターが実際の生物であるかのように
感じることができ、面白味を感じるだけでなく、より感
情移入しやすくなる。
【0169】請求項9及び12記載の発明によれば、音
声入力手段により表示部に表示されているキャラクター
に対して音声を入力し、判定手段はこの入力された音声
に関わる情報、例えば音声の口調、及び呼掛回数等に基
づいて、前記キャラクターに対する親密度を判定し、制
御手段はこの判定手段による判定結果に応じて、前記表
示部に表示されているキャラクターの表情または動作を
制御させることができるため、表示されているキャラク
ターの感情を知ることができて、現実の動物を育成して
いるのと同様な体験を味わうことができ、ユーザはより
感情移入しやすくなり、かつより面白味を感じることが
できる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係わるキャラクタ
ー表示制御装置を適用した電子手帳1の概略構成を示す
図である。
【図2】本実施例に係わるキャラクター表示制御装置S
の回路構成の一例を示すブロック図である。
【図3】同図(A)は、キャラクター表示制御装置Sの
個人データ用ROM21aのキャラクターの名前と、そ
のキャラクターの特性と、キャラクター同士の親密度の
格納状態を示す図である。同図(B)は、キャラクター
表示制御装置Sの挨拶データ用ROM21bの現在時刻
と、気温と、挨拶文(前段と後半)と、画像データN
o.の格納状態を示す図である。同図(C)は、キャラ
クター表示制御装置Sの音声親密度用ROM21cのユ
ーザの口調と、親密度(M)と、親密度マークSMの格
納状態を示す図である。
【図4】キャラクター表示制御装置Sの画像ROM21
dにおいて全ての画像データと、画像Noとが対応づけ
られて格納されている格納状態を示す図である。
【図5】同図(A)は、キャラクター表示制御装置Sの
音声振動用ROM21eの画像Noと、音声データと、
振動指示データの格納状態を示す図である。同図(B)
は、キャラクター表示制御装置Sの表示順序用ROM2
1fのキャラクターの動作と、当該動作を表す一連の画
像データ群を表示させる際の画像データの表示順序の格
納状態を示す図である。
【図6】同図(A)は、キャラクター表示制御装置Sの
状態変化用ROM21gの親密度Mと、親密度Mの値に
よって変化するキャラクターの画像データの格納状態を
示す図である。同図(B)は、キャラクター表示制御装
置Sの呼掛回数用ROM21hの声をかけた回数を示す
変数NAと、声をかけた回数に応じて変化するキャラク
ターが発声する言葉を示す音声データの格納状態を示す
図である。
【図7】キャラクター表示制御装置SのRAM22の内
部構成を詳細に説明する図である。
【図8】キャラクター表示制御装置SのCPU20によ
り実行されるモード設定処理の流れを示すフローチャー
トである。
【図9】キャラクター表示制御装置SのCPU20によ
り実行されるキャラクター反応処理の流れを示すフロー
チャートである。
【図10】図9のキャラクター反応処理において、キャ
ラクターの表示形態が変化する様子を示す図である。
【図11】キャラクター表示制御装置SのCPU20に
より実行されるキャラクター表情変更処理の流れを示す
フローチャートである。
【図12】図11のキャラクター表情変更処理のステッ
プS204において実行される親密度判定処理の一例と
しての時刻変化親密度処理について詳細に説明するフロ
ーチャートである。
【図13】図11のキャラクター表情変更処理のステッ
プS204において実行される親密度判定処理の一例と
しての口調変化親密度処理について詳細に説明するフロ
ーチャートである。
【図14】図11のキャラクター表情変更処理のステッ
プS204において実行される親密度判定処理の一例と
しての呼掛回数変化親密度処理について詳細に説明する
フローチャートである。
【図15】図11のキャラクター表情変更処理におい
て、キャラクターの表情及び表示形態が変化する様子を
示す図である。
【図16】本発明の第2の実施の形態としてのキャラク
ター表示制御システム30の全体構成を示す図である。
【図17】本発明の第2の実施の形態におけるRAM2
2の内部構成を詳細に説明する図である。
【図18】本発明の第2の実施の形態におけるキャラク
ター表示制御システム30の送信側の電子手帳50にお
けるキャラクター移動処理について説明するフローチャ
ートである。
【図19】キャラクター表示制御システム30の送信側
の電子手帳50におけるキャラクター移動処理におい
て、受信側の電子手帳80に表示されているキャラクタ
ーが訪問する前の表示画面の様子を示す図である。
【図20】キャラクター表示制御システム30の送信側
の電子手帳50におけるキャラクター移動処理におい
て、受信側の電子手帳80に表示されているキャラクタ
ーが訪問した際の表示画面の様子を示す図である。
【図21】本発明の第2の実施の形態におけるキャラク
ター表示制御システム30の受信側の電子手帳80にお
けるキャラクター移動処理について説明するフローチャ
ートである。
【図22】キャラクター表示制御システム30の受信側
の電子手帳80におけるキャラクター移動処理におい
て、電子手帳80に表示されているキャラクターの様子
を示す図である。
【図23】本発明の第3の実施の形態としての腕装着型
ゲーム装置100を示す外観図であり、同図(A)は上
面図、同図(B)は側面図である。
【図24】図23に示す小型ゲーム装置本体101をバ
ンド103に装着する前の状態あるいはバンド103か
ら取り外した状態を示す図である。
【図25】同図(A)は、小型ゲーム装置本体101を
ゲーム装置201に装着して構成されるキャラクター表
示制御システム200の外観を示す斜視図である。同図
(B)は、腕装着型ゲーム装置100どうしの間で赤外
線通信部24を介してデータ通信を行うキャラクター表
示制御システム300を示す模式図である。
【図26】本発明の第4の実施の形態としての腕装着型
ゲーム装置400を示す外観図であり、同図(A)は上
面図、同図(B)は側面図、同図(C)は、この腕装着
型ゲーム装置400とゲーム装置201とによって構成
されるキャラクター表示制御システム500を示す斜視
図である。
【符号の説明】
S キャラクター表示制御装置 1 電子手帳 2 表示部 3 音声入力部 4 音声出力部 5 電源のオン/オフスイッチ 6 音声登録キー 7 登録キー 8 カーソル移動キー 9 テンキー 10 アルファベットキー 20 CPU 21 ROM 21a 個人データ用ROM 21b 挨拶データ用ROM 21c 親密度用ROM 21d 画像ROM 21e 音声振動用ROM 21f 表示順序用ROM 21g 状態変化用ROM 21h 呼掛回数用ROM 22 RAM 23 振動発生部 24 赤外線通信部 25 音声認識部 26 音声発生部 27 温度センサ 28 計時部 29 表示駆動回路 30 キャラクター表示制御システム 50 電子手帳 80 電子手帳 100 腕装着型ゲーム装置 101 小型ゲーム装置本体 102 開閉部 103 バンド 104 プロテクタ 105 台座 106 コネクタ部 200 キャラクター表示制御システム 201 ゲーム装置 300 キャラクター表示制御システム 400 腕装着型ゲーム装置 401 小型ゲーム装置本体 402 開閉部 403 回動支軸 404 コネクタ部 405 バンド 500 キャラクター表示制御システム
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C001 BA00 BA02 BA06 BA07 BB00 BB04 BB05 BB10 BC00 BC05 CA00 CA02 CA07 CB01 CC03 CC08 DA00 DA03 5E501 AA11 AA17 AC15 AC16 AC37 BA17 CA04 CB03 CB15 EA21 EB05 FA02 FA14 FA32 FB22 FB25 FB34 9A001 HH17 JJ76 KK62

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】複数のキャラクターを表示部に表示させる
    キャラクター表示制御装置において、 音声を入力する音声入力手段と、 この音声入力手段により入力された音声を認識する音声
    認識手段と、 この音声認識手段により認識された音声に関係するキャ
    ラクターを前記複数のキャラクターのなかから特定し、
    この特定されたキャラクターが前記音声に反応するよう
    に制御する制御手段と、 を備えていることを特徴とするキャラクター表示制御装
    置。
  2. 【請求項2】請求項1に記載のキャラクター表示制御装
    置において、 前記制御手段は、前記各キャラクターと当該各キャラク
    ターの名前とを対応づけて記憶している記憶手段と、 前記音声認識手段により認識された音声の内容と同じ名
    前のキャラクターと対応づけられているキャラクターを
    前記記憶手段から読み出して前記音声に関係するキャラ
    クターとして特定し、この特定されたキャラクターの一
    部の形態が異なるキャラクターを前記音声に反応するも
    のとして前記表示部に表示させるように制御するキャラ
    クター表示制御手段と、 を備えていることを特徴とするキャラクター表示制御装
    置。
  3. 【請求項3】複数のキャラクター表示制御装置の間で通
    信を行うキャラクター表示制御システムにおいて、 前記複数のキャラクター表示制御装置のうち、一方のキ
    ャラクター表示制御装置に対して音声を入力する音声入
    力手段と、 この音声入力手段により入力された音声を認識する音声
    認識手段と、 この音声認識手段により認識された音声の内容と名前が
    一致または類似するキャラクターが、他方のキャラクタ
    ー表示制御装置に表示されているのか否かを検索する検
    索手段と、 この検索手段により表示されていると検索された際は、
    その一方のキャラクター表示制御装置に設けられている
    表示部に、前記名前が一致または類似するキャラクター
    を表示させる表示制御手段と、 を備えていることを特徴とするキャラクター表示制御シ
    ステム。
  4. 【請求項4】請求項3に記載のキャラクター表示制御シ
    ステムにおいて、 前記他方キャラクター表示制御装置は、前記名前が一致
    または類似するキャラクターを消去させる消去制御手段
    を備えていることを特徴とするキャラクター表示制御シ
    ステム。
  5. 【請求項5】他方のキャラクター表示制御装置との間で
    ゲームを行うために、ゲームで使われるキャラクターが
    表示される表示部を有するキャラクター表示制御装置に
    おいて、 音声を入力する音声入力手段と、 この音声入力手段により入力された音声を認識する音声
    認識手段と、 この音声認識手段により認識された音声の内容と名前が
    一致または類似するキャラクターが前記他方のキャラク
    ター表示制御装置に表示されているのか否かを検索する
    ための検索データを送信する送信手段と、 この送信手段により送信された検索データによる検索結
    果、前記名前が一致または類似するキャラクターが前記
    他方のキャラクター表示制御装置に表示されていると検
    索された際は、前記表示部に前記キャラクターと同じキ
    ャラクターを表示させる表示制御手段と、 を備えていることを特徴とするキャラクター表示制御装
    置。
  6. 【請求項6】キャラクターが表示される表示手段と、 現在時刻を計時する計時手段と、 複数の時刻帯毎にそれぞれ対応した挨拶データを記憶し
    ている挨拶データ記憶手段と、 前記挨拶データに従って予め定められた順序で表示され
    る一連のキャラクターの動作画像が記憶されている動作
    画像記憶手段と、 前記計時手段により計時された現在の時刻帯に対応した
    挨拶データを前記記憶手段から読み出してこの読み出さ
    れた挨拶データを音声で外部に出力させるとともに、前
    記挨拶データに従って予め定められた順序で一連のキャ
    ラクターの動作画像を前記動作画像記憶手段から読み出
    して前記表示手段に表示させる制御手段と、 を備えたことを特徴とするキャラクター表示制御装置。
  7. 【請求項7】キャラクターが表示される表示手段と、 温度を検出する温度検出手段と、 複数の温度帯毎にそれぞれ対応した振動形態を設定して
    いる設定手段と、 振動する振動手段と、 振動形態に従って予め定められた順序で表示される一連
    のキャラクターの動作画像が記憶されている動作画像記
    憶手段と、 前記温度検出手段により検出された現在の温度帯に対応
    して前記設定手段にて設定されている振動形態で前記振
    動手段を振動させるとともに、前記温度帯に従って予め
    定められた順序で一連のキャラクターの動作画像を前記
    動作画像記憶手段から読み出して前記表示手段に表示さ
    せる制御手段と、 を備えたことを特徴とするキャラクター表示制御装置。
  8. 【請求項8】キャラクターが表示される表示手段と、 現在時刻を計時する計時手段と、 複数の時刻帯毎にそれぞれ対応した挨拶データを記憶し
    ている挨拶データ記憶手段と、 挨拶データに従って予め定められた順序で表示される一
    連のキャラクターの動作画像が記憶されている第1の動
    作画像記憶手段と、 温度を検出する温度検出手段と、 複数の温度帯毎にそれぞれ対応した振動形態を設定して
    いる設定手段と、 振動する振動手段と、 振動形態に従って予め定められた順序で表示される一連
    のキャラクターの動作画像が記憶されている第2の動作
    画像記憶手段と、 前記計時手段により計時された現在の時刻帯に対応した
    挨拶データを前記記憶手段から読み出してこの読み出さ
    れた挨拶データを音声で外部に出力させるとともに、前
    記挨拶データに従って予め定められた順序で一連のキャ
    ラクターの動作画像を前記第1の動作画像記憶手段から
    読み出して前記表示手段に表示させる第1の制御手段
    と、 前記温度検出手段により検出された現在の温度帯に対応
    して前記設定手段にて設定されている振動形態で前記振
    動手段を振動させるとともに、前記温度帯に従って予め
    定められた順序で一連のキャラクターの動作画像を前記
    第2の動作画像記憶手段から読み出して前記表示手段に
    表示させる第2の制御手段と、 を備えたことを特徴とするキャラクター表示制御装置。
  9. 【請求項9】キャラクターが表示される表示部を有する
    キャラクター表示制御装置において、 前記表示部に表示されているキャラクターに対して音声
    を入力する音声入力手段と、 この音声入力手段により音声が入力された後に、その入
    力された音声に関わる情報に基づいて、キャラクターに
    対する親密度を判定する判定手段と、 この判定手段による判定結果に応じて、前記表示部に表
    示されているキャラクターの表情または動作を制御させ
    る制御手段と、 を備えることを特徴とするキャラクター表示制御装置。
  10. 【請求項10】複数のキャラクターを表示部に表示させ
    るキャラクター表示制御装置を制御するために使用され
    る、読み出し可能なプログラムが記録されている記録媒
    体において、 前記プログラムは、 音声が入力されると、これに応答して、入力された音声
    を認識し、 この認識された音声に関係するキャラクターを前記複数
    のキャラクターのなかから特定し、この特定されたキャ
    ラクターが前記音声に反応するように制御する、 ことを特徴とする記録媒体。
  11. 【請求項11】他方のキャラクター表示制御装置との間
    でゲームを行うために、ゲームで使われるキャラクター
    が表示される表示部を有するキャラクター表示制御装置
    を制御するために使用される、読み出し可能なプログラ
    ムが記録されている記録媒体において、 前記プログラムは、 外部から音声が入力されると、これに応答して、この入
    力された音声を認識し、 この認識された音声の内容と名前が一致または類似する
    キャラクターが前記他方キャラクター表示制御装置に表
    示されているのか否かを検索するための検索データを送
    信し、 この送信された検索データによる検索結果、前記名前が
    一致または類似するキャラクターが前記他方のキャラク
    ター表示制御装置に表示されていると検索された際は、
    前記表示部に前記キャラクターと同じキャラクターを表
    示させる、 ことを特徴とする記録媒体。
  12. 【請求項12】キャラクターが表示される表示部を有す
    るキャラクター表示制御装置を制御するために使用され
    る、読み出し可能なプログラムが記録されている記録媒
    体において、 前記表示部に表示されているキャラクターに対して音声
    が入力された際に、この入力された音声に関わる情報に
    基づいてキャラクターに対する親密度を判定し、 この判定結果に応じて、前記表示部に表示されているキ
    ャラクターの表情または動作を制御させる、ことを特徴
    とする記録媒体。
JP35331498A 1998-12-11 1998-12-11 キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体 Expired - Fee Related JP3381648B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP35331498A JP3381648B2 (ja) 1998-12-11 1998-12-11 キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体
CNB991260864A CN1192808C (zh) 1998-12-11 1999-12-13 图样显示控制设备和图样显示控制系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35331498A JP3381648B2 (ja) 1998-12-11 1998-12-11 キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP11277192A Division JP2000176177A (ja) 1999-01-01 1999-09-29 腕装着型電子ゲ―ム装置、及び腕装着型電子ゲ―ムシステム

Publications (2)

Publication Number Publication Date
JP2000181897A true JP2000181897A (ja) 2000-06-30
JP3381648B2 JP3381648B2 (ja) 2003-03-04

Family

ID=18430016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35331498A Expired - Fee Related JP3381648B2 (ja) 1998-12-11 1998-12-11 キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体

Country Status (2)

Country Link
JP (1) JP3381648B2 (ja)
CN (1) CN1192808C (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053251A (ja) * 2001-11-13 2004-02-19 Equos Research Co Ltd 車載装置、データ作成装置、及びデータ作成プログラム
WO2004024263A1 (ja) * 2002-09-13 2004-03-25 Konami Corporation ゲーム装置、ゲーム装置の制御方法、プログラム、プログラム配信装置及び情報記憶媒体
US6973430B2 (en) 2000-12-28 2005-12-06 Sony Computer Entertainment Inc. Method for outputting voice of object and device used therefor
JP2007264400A (ja) * 2006-03-29 2007-10-11 Yamaha Corp アクセサリ、電子楽器、教習装置およびプログラム
JP2010038590A (ja) * 2008-07-31 2010-02-18 Fujitsu Ten Ltd 車載ナビゲーション装置、ナビゲーションシステム、及びその制御方法
US8186682B2 (en) 2005-01-10 2012-05-29 Cantor Index Llc Method and apparatus for providing advice regarding gaming strategies
JP2012138035A (ja) * 2010-12-28 2012-07-19 Casio Comput Co Ltd 画像表示装置及びプログラム
US8734226B2 (en) 2001-12-12 2014-05-27 Bgc Partners, Inc. Systems and methods for assisting in game play and wagering
JP2018014575A (ja) * 2016-07-19 2018-01-25 Gatebox株式会社 画像表示装置、画像表示方法及び画像表示プログラム
JP2018504707A (ja) * 2015-01-20 2018-02-15 華為技術有限公司Huawei Technologies Co.,Ltd. マルチメディア情報提示方法および端末
US10713006B2 (en) 2016-07-19 2020-07-14 Gatebox Inc. Image display apparatus, topic selection method, topic selection program, image display method, and image display program
JP2021072944A (ja) * 2016-06-06 2021-05-13 ソニーグループ株式会社 仮想生物制御システム、仮想生物制御方法およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1609950B (zh) * 2003-10-20 2010-05-12 上海科技馆 用语音控制动物影像运动的方法及装置

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6973430B2 (en) 2000-12-28 2005-12-06 Sony Computer Entertainment Inc. Method for outputting voice of object and device used therefor
JP2004053251A (ja) * 2001-11-13 2004-02-19 Equos Research Co Ltd 車載装置、データ作成装置、及びデータ作成プログラム
US8734226B2 (en) 2001-12-12 2014-05-27 Bgc Partners, Inc. Systems and methods for assisting in game play and wagering
US11238697B2 (en) 2001-12-12 2022-02-01 Cfph, Llc Systems and methods for assisting in game play and wagering
WO2004024263A1 (ja) * 2002-09-13 2004-03-25 Konami Corporation ゲーム装置、ゲーム装置の制御方法、プログラム、プログラム配信装置及び情報記憶媒体
US7753796B2 (en) 2002-09-13 2010-07-13 Konami Digital Entertainment Co., Ltd. Game device, game device control method, program, program distribution device, information storage medium
US9536396B2 (en) 2005-01-10 2017-01-03 Cantor Index Llc Method and apparatus for providing advice regarding gaming strategies
US10096210B2 (en) 2005-01-10 2018-10-09 Cantor Index, Llc Method and apparatus for providing advice regarding gaming strategies
US8727352B2 (en) 2005-01-10 2014-05-20 Cantor Index Llc Method and apparatus for providing advice regarding gaming strategies
US8186682B2 (en) 2005-01-10 2012-05-29 Cantor Index Llc Method and apparatus for providing advice regarding gaming strategies
US11341821B2 (en) 2005-01-10 2022-05-24 Cantor Index Llc Method and apparatus for providing advice regarding gaming strategies
US10777046B2 (en) 2005-01-10 2020-09-15 Cantor Index, Llc Method and apparatus for providing advice regarding gaming strategies
JP2007264400A (ja) * 2006-03-29 2007-10-11 Yamaha Corp アクセサリ、電子楽器、教習装置およびプログラム
JP2010038590A (ja) * 2008-07-31 2010-02-18 Fujitsu Ten Ltd 車載ナビゲーション装置、ナビゲーションシステム、及びその制御方法
JP2012138035A (ja) * 2010-12-28 2012-07-19 Casio Comput Co Ltd 画像表示装置及びプログラム
JP2018504707A (ja) * 2015-01-20 2018-02-15 華為技術有限公司Huawei Technologies Co.,Ltd. マルチメディア情報提示方法および端末
JP2021072944A (ja) * 2016-06-06 2021-05-13 ソニーグループ株式会社 仮想生物制御システム、仮想生物制御方法およびプログラム
JP7188471B2 (ja) 2016-06-06 2022-12-13 ソニーグループ株式会社 仮想生物制御システム、仮想生物制御方法およびプログラム
US11826898B2 (en) 2016-06-06 2023-11-28 Sony Corporation Virtual creature control system and virtual creature control method
US10713006B2 (en) 2016-07-19 2020-07-14 Gatebox Inc. Image display apparatus, topic selection method, topic selection program, image display method, and image display program
JP2018014575A (ja) * 2016-07-19 2018-01-25 Gatebox株式会社 画像表示装置、画像表示方法及び画像表示プログラム

Also Published As

Publication number Publication date
JP3381648B2 (ja) 2003-03-04
CN1260225A (zh) 2000-07-19
CN1192808C (zh) 2005-03-16

Similar Documents

Publication Publication Date Title
JP3855653B2 (ja) 電子玩具
JP2000181897A (ja) キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体
CN101795831B (zh) 机器人控制系统、机器人
US7750223B2 (en) Musical interaction assisting apparatus
EP1631049A1 (en) Apparatus and method for controlling music play in a mobile communication terminal using a motion recognition sensor
JP2000187435A (ja) 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法
JP4729171B2 (ja) 電子書籍装置および音声再生システム
JP2000176177A (ja) 腕装着型電子ゲ―ム装置、及び腕装着型電子ゲ―ムシステム
JP2002172270A (ja) サイバー共同体を利用した玩具学習装置及びその駆動方法
JP3684420B1 (ja) 電子楽器装置および仮想楽器の演奏方法並びに仮想楽器の演奏処理のプログラムおよびそのプログラムを記録した記録媒体
JP2018110709A (ja) 振動制御システム、振動制御装置、振動制御プログラムおよび振動制御方法
JP3846085B2 (ja) 電子ゲーム装置
KR101055752B1 (ko) 음악 교습 기능이 구비된 이동 통신 단말기 및 그 음악교습 방법
CN111338598B (zh) 一种消息处理方法及电子设备
CN111596841A (zh) 图像显示方法及电子设备
JP2000338859A (ja) 電子機器の情報管理方法及び電子機器システム
JP2001265566A (ja) 電子書籍装置、及び音声再生システム
KR100673613B1 (ko) 이동통신 단말기
JPH11119641A (ja) 生物画像表示制御装置、生物画像表示制御方法、及び生物画像表示処理プログラムを記録した記録媒体
JPH10328421A (ja) 自動応答玩具
CN112402952A (zh) 一种基于音频和虚拟形象的互动方法及终端
KR20200085433A (ko) 탈부착형 스피커를 포함한 음성합성 시스템 및 방법
JP2002292127A (ja) ペットモデル育成システム、ペットモデル育成処理装置、ペットモデル育成処理方法、ペットモデル育成処理プログラムが格納された記憶媒体、及び、ペットモデル育成処理プログラム
KR100421089B1 (ko) 지문인식기능을 갖춘 대화형 완구
JP2001195419A (ja) 情報提供システム

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071220

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081220

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081220

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091220

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101220

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101220

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111220

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111220

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121220

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121220

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131220

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees