JP2000181676A - 画像処理装置 - Google Patents

画像処理装置

Info

Publication number
JP2000181676A
JP2000181676A JP10353612A JP35361298A JP2000181676A JP 2000181676 A JP2000181676 A JP 2000181676A JP 10353612 A JP10353612 A JP 10353612A JP 35361298 A JP35361298 A JP 35361298A JP 2000181676 A JP2000181676 A JP 2000181676A
Authority
JP
Japan
Prior art keywords
word
data
display
voice
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10353612A
Other languages
English (en)
Inventor
Muneaki Ozawa
宗明 小澤
Koji Mitsunari
幸司 三成
Takeshi Nagareda
武 流田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
UMBRELLA KK
Nintendo Co Ltd
Original Assignee
UMBRELLA KK
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by UMBRELLA KK, Nintendo Co Ltd filed Critical UMBRELLA KK
Priority to JP10353612A priority Critical patent/JP2000181676A/ja
Priority to US09/458,671 priority patent/US6538666B1/en
Priority to GB9929147A priority patent/GB2351637B/en
Priority to CA002292395A priority patent/CA2292395A1/en
Publication of JP2000181676A publication Critical patent/JP2000181676A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】 プログラムの進行に従って、音声認識結果の
処理態様を変えることができるような画像処理装置を提
供することである。 【解決手段】 ビデオゲーム機本体10は、ROMカー
トリッジ20に格納されたゲームプログラムに従って、
テレビジョン受像機30に所定の画像を表示させ、所定
の音声を出力させる。プレイヤによってマイクロフォン
60から音声が入力されると、音声認識ユニット50
は、当該音声に対応する単語を認識し、その結果をビデ
オゲーム機本体10に送出する。ビデオゲーム機本体1
0は、音声認識ユニット50から受け取った認識結果に
基づいて、テレビジョン受像機30に表示された対話相
手オブジェクトの表示状態を変化させる。ここで、認識
結果と対話相手オブジェクトの表示制御との関係は、プ
ログラムの進行に応じて変化し、それによってゲームに
変化を持たせ、面白みが増すようにしている。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像処理装置に関
し、より特定的には、入力される使用者の音声に応答し
て対話相手オブジェクトの表示状態を変化させるような
画像処理装置に関する。
【0002】
【従来の技術】音声で入力された言葉の意味を認識する
音声認識装置は、従来から様々な分野で利用されてい
る。例えば、認識された音声に応答して、ディスプレイ
の表示画像の内容(例えば、キャラクタ)を変化させる
ような画像処理装置(例えば、ビデオゲーム装置)が従
来から知られている(例えば、特開平9−230890
号公報)。
【0003】
【発明が解決しようとする課題】しかしながら、音声認
識を利用した従来の画像処理装置は、特定の単語が入力
されたときのみ画像を変化させるように構成されている
ので、オペレータは、事前に入力可能な単語を知ってお
く必要があった。もし、オペレータが入力可能な単語を
知らなければ、オペレータは、やみくもに当てずっぽう
で単語を入力するしか手だてが無く、そのような画像処
理装置は、はなはだ使い勝手の悪いものになる。また、
音声認識を利用した従来の画像処理装置は、不適切な単
語が入力された場合、表示が変わらないので、オペレー
タは、誤った単語を入力したのか、あるいは装置が故障
しているのかを判別できず、とまどうことになる。
【0004】また、音声認識を利用した従来の画像処理
装置では、プログラムの進行にかかわらず、常に固定的
な方法で音声認識結果を処理するようにしていた。しか
しながら、画像処理装置が実行するプログラムの種類に
よっては、プログラムの進行に応じて、音声認識結果の
処理方法を変えていくことが好ましい場合もある。例え
ば、画像処理装置の実行するプログラムがビデオゲーム
プログラムの場合、いくつかのステージをクリアしてプ
レイヤの熟練度が上がるにつれて、音声認識結果とキャ
ラクタの動作との関係を変化させることが、ゲームの面
白みを増す上で効果的な手法となる。また、画像処理装
置の実行するプログラムが幼児に言葉を覚えさせるよう
な教育プログラムである場合、幼児の学習が進むにつれ
て、より正確な発音を要求するように音声認識結果の処
理方法を変えることが、無理のない学習を行う上で効果
的な手法となる。
【0005】それゆえに、本発明の目的は、オペレータ
が使用可能な特定の言葉を事前に知らなくても、容易に
使用可能な画像処理装置を提供することである。また、
本発明の他の目的は、プログラムの進行に従って、音声
認識結果の処理態様を変えることができるような画像処
理装置を提供することである。
【0006】
【課題を解決するための手段および発明の効果】上記の
ような目的を達成するために、本発明は、以下に述べる
ような特徴を有している。
【0007】第1の発明は、表示装置に表示された対話
相手オブジェクトの動作を、マイクロフォンから入力さ
れた使用者の単語音声に応答して変化させるための画像
処理装置であって、マイクロフォンから入力されたアナ
ログの音声信号をディジタル音声データに変換する変換
手段と、変換手段によって変換されたディジタル音声デ
ータに該当する単語を認識するための音声認識手段と、
音声認識手段によって認識された単語が、そのとき入力
されるべき単語と一致するか否かを判断する判断手段
と、判断手段によって単語の一致が判断されたとき、認
識された単語に対応する動作をさせるように、対話相手
オブジェクトの表示状態を制御する第1の表示制御手段
と、判断手段によって単語の不一致が判断されたとき、
当該判断手段の判断を使用者に伝えるための判断伝達表
示を表示装置上で行う第2の表示制御手段とを備えてい
る。
【0008】上記のように、第1の発明によれば、入力
されるべき単語と異なる単語が入力されても、単語の不
一致を示す判断伝達表示が行われるので、使用者は、と
まどうことがない。
【0009】第2の発明は、第1の発明に従属する発明
であって、第2の表示制御手段は、判断伝達表示とし
て、対話相手オブジェクトが入力された単語音声を理解
できない旨の表示を表示装置上で行うことを特徴とす
る。
【0010】上記のように、第2の発明によれば、入力
されるべき単語と異なる単語が入力されたとき、対話相
手オブジェクトが入力された単語音声を理解できない旨
の表示がなされるので、使用者は、より明確に誤った単
語を入力したことを認識できる。
【0011】第3の発明は、第2の発明に従属する発明
であって、第2の表示制御手段は、判断手段による単語
不一致の判断が所定時間以上継続して行われたとき、判
断伝達表示として、そのとき入力されるべき単語を含む
メッセージ文をさらに表示装置に表示させることを特徴
とする。
【0012】上記のように、第3の発明によれば、正確
な単語が入力されない状態が所定時間以上継続した場合
は、そのとき入力されるべき単語を含むメッセージ文を
さらに表示するようにしているので、使用者は、誤った
単語の入力を繰り返すことがない。
【0013】第4の発明は、第2の発明に従属する発明
であって、第2の表示制御手段は、判断手段による単語
不一致の判断が所定回数以上繰り返して行われたとき、
判断伝達表示として、そのとき入力されるべき単語を含
むメッセージ文をさらに表示装置に表示させることを特
徴とする。
【0014】上記のように、第4の発明によれば、誤っ
た単語の入力が所定回数以上繰り返して行われた場合
は、そのとき入力されるべき単語を含むメッセージ文を
さらに表示するようにしているので、使用者は、誤った
単語の入力を繰り返すことがない。
【0015】第5の発明は、第3または第4の発明に従
属する発明であって、第2の表示制御手段は、メッセー
ジ文において、そのとき入力されるべき単語の部分とそ
の他の部分とが異なる色で表示されるように、表示装置
の表示制御を行うことを特徴とする。
【0016】上記のように、第5の発明によれば、メッ
セージ文中において、そのとき入力されるべき単語の部
分をその他の部分と異なる色で表示するようにしている
ので、使用者は、入力すべき単語を容易に認識すること
ができる。
【0017】第6の発明は、設定されたプログラムデー
タに従って表示装置に所定の画像を表示すると共に、当
該表示装置に表示された対話相手オブジェクトの動作
を、マイクロフォンから入力された使用者の単語音声に
応答して変化させるための画像処理装置であって、マイ
クロフォンから入力されたアナログの音声信号をディジ
タル音声データに変換する変換手段と、変換手段によっ
て変換されたディジタル音声データに該当する単語を認
識するための音声認識手段と、音声認識手段の認識結果
に基づいて、対話相手オブジェクトの表示状態を制御す
る表示制御手段と、プログラムデータの進行程度を検出
する進行程度検出手段とを備え、表示状態制御手段は、
進行程度検出手段によって検出されたプログラムデータ
の進行程度に応じて、対話相手オブジェクトの表示状態
の制御態様を段階的に変化させることを特徴とする。
【0018】上記のように、第6の発明によれば、プロ
グラムデータの進行程度に応じて、対話相手オブジェク
トの表示状態の制御態様を段階的に変化させるようにし
ているので、変化に富んだ対話制御が行える。
【0019】第7の発明は、第6の発明に従属する発明
であって、表示制御手段は、進行程度検出手段によって
検出されたプログラムデータの進行程度が相対的に初期
のレベルであるとき、音声認識手段によって認識された
単語の種類にかかわらず、対話相手オブジェクトに対し
て予め定める動作を行わせる第1の表示制御手段と、進
行程度検出手段によって検出されたプログラムデータの
進行程度が相対的に上位のレベルであるとき、音声認識
手段によって認識された単語の種類に応じて、対話相手
オブジェクトに対応する動作を行わせる第2の表示制御
手段とを含んでいる。
【0020】上記のように、第7の発明によれば、プロ
グラムデータの進行程度が相対的に初期のレベルである
ときは、認識された単語の種類にかかわらず、対話相手
オブジェクトに対して予め定める動作を行わせ、プログ
ラムデータの進行程度が相対的に上位のレベルであると
きは、認識された単語の種類に応じて、対話相手オブジ
ェクトに対応する動作を行わせるようにしているので、
プログラムデータの進行に応じて認識結果が対話相手オ
ブジェクトの表示制御に関与する程度を変えることがで
きる。
【0021】第8の発明は、第7の発明に従属する発明
であって、第2の表示制御手段は、音声認識手段によっ
て認識された単語が、そのとき入力されるべき単語と一
致するか否かを判断する判断手段と、判断手段によって
単語の一致が判断されたとき、対話相手オブジェクトに
一致が判断された単語に対応する動作を行わせる対応動
作制御手段とを含んでいる。
【0022】上記のように、第8の発明によれば、認識
された単語が、そのとき入力されるべき単語と一致した
ときに、対話相手オブジェクトに一致が判断された単語
に対応する動作を行わせるようにしているので、対話相
手オブジェクトが行う動作を、プログラム上で任意に定
めることができる。
【0023】第9の発明は、第8の発明に従属する発明
であって、音声認識手段は、基準となる複数の単語デー
タが格納された辞書手段と、ディジタル音声データと辞
書手段に格納された各単語データとを比較することによ
り、各単語データそれぞれに対して類似の程度を示す相
関距離を計算する相関距離計算手段と、相関距離計算手
段によって計算された相関距離に基づいて、辞書手段に
格納された各単語データに対して類似度の高い順番に順
位を付与する順位付与手段と、辞書手段に格納された複
数の単語データの内、上から所定順位までの単語データ
を候補単語データとして判断手段に出力する候補単語デ
ータ出力手段とを含み、判断手段は、候補単語データ出
力手段から与えられた候補単語データの内、最も類似度
の高い候補単語データから順番に、そのとき入力される
べき単語と一致するか否かを判断し、一致を判断した時
点で判断動作を停止して、対応動作制御手段に一致判断
出力を与えることを特徴とする。
【0024】上記のように、第9の発明によれば、与え
られた候補単語データの内、最も類似度の高い候補単語
データから順番に、そのとき入力されるべき単語と一致
するか否かを判断し、一致を判断した時点で対話相手オ
ブジェクトに対応する動作を行わせるようにしているの
で、音声認識の精度が低くても対話相手オブジェクトに
所望の動作を行わせることができる。
【0025】第10の発明は、第9の発明に従属する発
明であって、判断手段は、進行程度検出手段によって検
出されたプログラムデータの進行程度が進むにつれて、
候補単語データの中から一致判断の対象として選択する
単語データの数を減少させることを特徴とする。
【0026】上記のように、第10の発明によれば、プ
ログラムデータの進行程度が進むにつれて、候補単語デ
ータの中から一致判断の対象として選択する単語データ
の数を減少させるようにしているので、プログラムデー
タの進行程度に応じて音声認識の厳しさを増すことがで
き、使用者に対してより正確な音声入力を要求すること
ができる。
【0027】第11の発明は、第8の発明に従属する発
明であって、音声認識手段は、そのとき入力されるべき
単語のデータが格納された辞書手段と、ディジタル音声
データと辞書手段に格納された各単語データとを比較す
ることにより、各単語データそれぞれに対して類似の程
度を示す相関距離を計算する相関距離計算手段と、相関
距離計算手段によって計算された相関距離に基づいて、
最も類似度の高い単語データを選択し、当該選択した単
語データをその相関距離と共に候補単語データとして判
断手段に出力する候補単語データ出力手段とを含み、判
断手段は、候補単語データに含まれる相関距離によって
規定される第1の類似度が、予め設定されたしきい値に
よって規定される第2の類似度よりも高いか否かを検出
し、第1の類似度のほうが第2の類似度よりも高い場合
は、音声認識手段によって認識された単語が、そのとき
入力されるべき単語と一致したと判断し、第2の類似度
のほうが第1の類似度よりも高い場合は、音声認識手段
によって認識された単語が、そのとき入力されるべき単
語と不一致であると判断することを特徴とする。
【0028】第12の発明は、第6〜第11の発明のい
ずれかに従属する発明であって、プログラムデータは、
可搬型の記憶媒体に格納されたビデオゲームのためのプ
ログラムデータである。
【0029】第13の発明は、表示装置に表示された対
話相手オブジェクトの動作を、マイクロフォンから入力
された使用者の単語音声に応答して変化させるための画
像処理装置において実行されるプログラムデータを記憶
した記憶媒体であって、画像処理装置は、前記プログラ
ムデータを実行したとき、マイクロフォンから入力され
たアナログの音声信号をディジタル音声データに変換
し、変換されたディジタル音声データに該当する単語を
認識し、認識された単語が、そのとき入力されるべき単
語と一致するか否かを判断し、単語の一致が判断された
とき、認識された単語に対応する動作をさせるように、
対話相手オブジェクトの表示状態を制御し、単語の不一
致が判断されたとき、当該判断結果を使用者に伝えるた
めの判断伝達表示を表示装置上で行うことを特徴とす
る。
【0030】第14の発明は、表示装置に表示された対
話相手オブジェクトの動作を、マイクロフォンから入力
された使用者の単語音声に応答して変化させるための画
像処理装置において実行されるプログラムデータを記憶
した記憶媒体であって、画像処理装置は、プログラムデ
ータを実行したとき、マイクロフォンから入力されたア
ナログの音声信号をディジタル音声データに変換し、変
換されたディジタル音声データに該当する単語を認識
し、認識された単語に基づいて、対話相手オブジェクト
の表示状態を制御し、プログラムデータの進行程度に応
じて、対話相手オブジェクトの表示状態の制御態様が段
階的に変化することを特徴とする。
【0031】
【発明の実施の形態】図1は、本発明の一実施形態に係
るビデオゲームシステムの構成を示す外観図である。図
1において、本実施形態のビデオゲームシステムは、ビ
デオゲーム機本体10と、ROMカートリッジ20と、
ビデオゲーム機本体10に接続されるテレビジョン受像
機30と、コントローラ40と、音声認識ユニット50
と、マイクロフォン60とを備えている。
【0032】ROMカートリッジ20は、ゲームプログ
ラムやキャラクタデータ等のゲームに関するデータを固
定的に記憶した外部ROMを含み、ビデオゲーム機本体
10に着脱自在に構成される。コントローラ40は、両
手または片手で把持可能な形状のハウジングに、複数の
スイッチを設けて構成される。各スイッチの機能は、ゲ
ームプログラムによって任意に定義され得る。なお、コ
ントローラ40は、本実施形態に興味あるスイッチとし
て、ハウンジングの裏側に設けられるZボタン40Zを
含む。音声認識ユニット50は、マイクロフォン60で
ピックアップされた音声の単語認識を行う。
【0033】図2は、図1に示したビデオゲームシステ
ムの電気的な構成を示すブロック図である。図2におい
て、ビデオゲーム機本体10には、中央処理ユニット
(以下「CPU」と略称する)11およびリアリティ・
コプロセッサ(以下「RCP」と略称する)12が内蔵
される。RCP12には、バスの制御を行うためのバス
制御回路121と、ポリゴンの座標変換や陰影処理等を
行うための画像処理ユニット(リアリティー・シグナル
・プロセッサ;以下「RSP」と略称する)122と、
ポリゴンデータを表示すべき画像にラスタライズしかつ
フレームメモリに記憶可能なデータ形式(ドットデー
タ)に変換するための画像処理ユニット(リアリティー
・ディスプレイ・プロセッサ;以下「RDP」と略称す
る)123とが含まれる。RCP12には、ROMカー
トリッジ20を着脱自在に装着するためのカートリッジ
用コネクタ13と、ディスクドライブ26を着脱自在に
装着するためのディスクドライブ用コネクタ14と、R
AM15とが接続される。また、RCP12には、CP
U11によって処理された音声信号を出力するための音
声信号発生回路16と、CPU11によって処理された
画像信号を出力するための画像信号発生回路17とが接
続される。さらに、RCP12には、1つまたは複数の
コントローラの操作データおよび/または音声認識ユニ
ット50のデータをシリアル転送するためのコントロー
ラ制御回路18が接続される。
【0034】RCP12に含まれるバス制御回路121
は、CPU11からバスを介してパラレル信号の形で与
えられたコマンドをパラレル−シリアル変換して、シリ
アル信号としてコントローラ制御回路18に供給する。
また、バス制御回路121は、コントローラ制御回路1
8から入力されたシリアル信号をパラレル信号に変換
し、バスを介してCPU11に与える。コントローラ4
0から読み込んだ操作状態を示すデータは、CPU11
によって処理されたり、RAM15に一時的に記憶され
る。換言すれば、RAM15は、CPU11によって処
理されるデータを一時的に記憶する記憶領域を含み、バ
ス制御回路121を介してデータの読み出しまたは書き
込みを円滑に行うために利用される。
【0035】音声信号発生回路16の出力部には、ビデ
オゲーム機本体10の後面に設けられるコネクタ195
が接続される。画像信号発生回路17の出力部には、ビ
デオゲーム機本体10の後面に設けられるコネクタ19
6が接続される。コネクタ195には、テレビジョン受
像機30に内蔵されたスピーカ32が着脱自在に接続さ
れる。コネクタ196には、テレビジョン受像機30に
内蔵されたCRT等のディスプレイ31が着脱自在に接
続される。
【0036】コントローラ制御回路18には、ビデオゲ
ーム機本体10の前面に設けられるコントローラ用コネ
クタ(以下「コネクタ」と略称する)191〜194が
接続される。各コネクタ191〜194には、接続用ジ
ャックを介してコントローラ40が着脱自在に接続され
得る。また、各コネクタ191〜194には、音声認識
ユニット50が着脱自在に接続され得る。なお、図2で
は、一例として、コネクタ191が接続され、コネクタ
194にコントローラ50が接続されている。このよう
に、コネクタ191〜194にコントローラ40および
/または音声認識ユニット50を接続することにより、
コントローラ40および/または音声認識ユニット50
がビデオゲーム機本体10と電気的に接続され、相互間
のデータの送受信または転送が可能となる。
【0037】図3は、音声認識ユニット50のより詳細
な構成を示すブロック図である。図3において、音声認
識ユニット50は、A/D変換器51と、制御部52
と、音声データROM53と、辞書RAM54と、イン
タフェイス55とを備えている。制御部52は、DSP
(ディジタル・シグナル・プロセッサ)521と、プロ
グラムROM522と、ワークRAM523とを含む。
【0038】A/D変換器51は、マイクロフォン60
がピックアップしたアナログ音声信号をディジタル音声
データに変換する。A/D変換器51から出力されるデ
ィジタル音声データは、DSP521に与えられる。D
SP521は、プログラムROM522に記憶されてい
る動作プログラムに従って動作を行う。ワークRAM5
23は、DSP521がデータ処理を行う上で必要とな
るデータを記憶する。音声データROM53は、音声合
成の元となる各素音(すなわち、母音および子音)につ
いての音声データを記憶している。辞書RAM54は、
ゲームにおいて使用する(換言すれば、マイクロフォン
60から入力されることが予定されている)複数の単語
のデータをコードデータの形で記憶している。DSP5
21は、マイクロフォン60から音声データが入力され
ると、辞書RAM54からいずれか1つの単語データを
選択して読み出し、音声データROM53に記憶されて
いる複数の素音データの中から対応する素音データを読
み出して合成することにより、単語として構成された音
声データを作成する。そして、DSP521は、合成し
た単語の音声データと、マイクロフォン60から入力さ
れた単語の音声データとを比較し、その類似度を表す相
関距離を計算する。ここでは、相関距離が小さいほど類
似度が高くなるものとする。DSP521は、類似度す
なわち相関距離の計算を辞書RAM54に記憶されてい
る全ての単語について行う。その後、DSP521は、
入力された単語と類似度の高い単語について、計算した
相関距離と対応する単語のコード番号とを、インタフェ
イス55を介してビデオゲーム機本体10に送る。
【0039】ROMカートリッジ20は、外部ROM2
1が実装された基板をハウジングに収納して構成され
る。外部ROM21は、ゲーム等の画像処理のための画
像データやプログラムデータを記憶するとともに、必要
に応じて音楽や効果音やメッセージ等の音声データを記
憶する。
【0040】図4は、外部ROM21のメモリ空間を図
解的に示したメモリマップである。図5は、外部ROM
21のメモリ空間の一部(画像データ領域24)を詳細
に示したメモリマップである。図4に示すように、外部
ROM21は、記憶領域として、プログラム領域22
と、文字コード領域23と、画像データ領域24と、サ
ウンドメモリ領域25とを含み、各種のプログラムを予
め固定的に記憶している。
【0041】プログラム領域22は、ゲーム等の画像処
理を行うために必要なプログラムや、ゲーム内容に応じ
たゲームデータ等を記憶している。より具体的には、プ
ログラム領域22は、CPU11の動作プログラム(後
述の図7,図8,図10〜図18に示すフローチャート
に対応する動作を実行させるためのプログラム)を予め
固定的に記憶するための記憶領域22a〜22jを含
む。
【0042】メインプログラム領域22aには、後述の
図7に示すゲーム等のメインルーチンの処理プログラム
が格納される。コントロールパッドデータ(操作状態)
判断プログラム領域22bには、コントローラ40の操
作状態等を示すデータを処理するためのプログラムが格
納される。書込プログラム領域22cには、CPU11
がRCP12によってフレームメモリおよびZバッファ
へデータを書き込むときに実行される書込プログラムが
格納される。例えば、書込プログラム領域22cには、
1つの背景画面で表示すべき複数の移動オブジェクトま
たは背景オブジェクトのテクスチュアデータに基づく画
像データとして、色データをRAM15のフレームメモ
リ領域(図6に示す記憶領域152)に書き込むための
プログラムと、奥行データをZバッファ領域(図6に示
す記憶領域153)に書き込むためのプログラムとが格
納される。カメラ制御プログラム領域22dには、移動
オブジェクトや背景オブジェクトを、三次元空間中のど
の位置からどの方向に向けて撮影するかを制御するため
のカメラ制御プログラムが格納される。対話相手オブジ
ェクトプログラム領域22eには、移動オブジェクトの
一種であり、プレイヤが音声入力によって対話する相手
となるオブジェクト(以下、対話相手オブジェクトと称
す)の表示制御のためのプログラムが格納される。背景
オブジェクトプログラム領域22fには、CPU11が
RCP12に作用して、三次元の背景画面(静止画面ま
たはコース画面等)を作成させるための背景作成プログ
ラムが格納される。ゲームプログラム領域には、ゲーム
処理のためのプログラム(図8参照)が格納される。そ
して、このゲーム処理のためのプログラムは、レベル1
用のゲームプログラム(図12参照)と、レベル2用の
ゲームプログラム(図13参照)と、レベル3用のゲー
ムプログラム(図16参照)とが格納される。本実施形
態では、ゲームの進行に応じて、レベル1→レベル2→
レベル3と、実行されるゲームプログラムが変わってい
く。メッセージ処理プログラム領域22hには、プレイ
ヤに対して所定のメッセージを表示し、それによってプ
レイヤが所定の音声を入力できるようにするためのプロ
グラム(図14参照)が格納される。音声処理プログラ
ム領域22iには、効果音や音楽や音声によるメッセー
ジを発生するためのプログラムが格納される。ゲームオ
ーバー処理プログラム領域22jには、ゲームオーバー
になった場合の処理(例えば、ゲームオーバー状態の検
出処理や、ゲームオーバに達したときにそれまでのゲー
ム状態のバックアップデータを保存する処理)のための
プログラムが格納される。
【0043】文字コード領域23は、複数種類の文字コ
ードを記憶する領域であって、例えばコードに対応した
複数種類の文字のドットデータを記憶している。文字コ
ード領域23に記憶されている文字コードデータは、ゲ
ームの進行においてプレイヤに説明文を表示するために
利用される。例えば、対話相手オブジェクトが位置して
いる場所の周囲の環境(例えば、場所,障害物の種類,
敵オブジェクトの種類)や、対話相手オブジェクトの置
かれている状況に応じて、適切な操作方法を適切なタイ
ミングで文字によるメッセージ(またはセリフ)で表示
するために使用される。
【0044】画像データ領域24は、図5に示すような
記憶領域24aおよび24bを含む。画像データ領域2
4は、背景オブジェクトおよび/または移動オブジェク
トの各オブジェクト毎に、複数のポリゴンの座標データ
およびテクスチュアデータ等の画像データを記憶すると
ともに、これらのオブジェクトを所定の位置に固定的に
表示しまたは移動表示させるための表示制御プログラム
を記憶している。例えば、記憶領域24aには、対話相
手オブジェクトを表示するためのプログラムが格納され
る。また、記憶領域24bには、複数の背景(または静
止)オブジェクト1〜nを表示するための背景オブジェ
クトプログラムが格納される。
【0045】サウンドメモリ領域25には、場面毎に対
応して、その場面に適したメッセージを音声で出力する
ためのセリフや、対話相手オブジェクトの声や、効果音
や、ゲーム音楽等のサウンドデータが記憶される。
【0046】なお、ビデオゲーム機本体10に接続され
る外部記憶装置としては、ROMカートリッジ20に代
えて、またはROMカートリッジ20に加えて、CD−
ROMや磁気ディスク等の各種記憶媒体を用いてもよ
い。その場合、CD−ROMや磁気ディスク等の光学式
または磁気式等のディスク状記憶媒体に対してゲームの
ための各種データ(プログラムデータおよび画像表示の
ためのデータを含む)を読み出しまたは必要に応じて書
き込むために、ディスクドライブ(記録再生装置)26
が設けられる。ディスクドライブ26は、外部ROM2
1と同様のプログラムデータが磁気的または光学的に記
憶された磁気ディスクまたは光ディスクから記憶データ
を読み出し、そのデータをRAM15に転送する。
【0047】図6は、RAM15のメモリ空間を図解的
に示したメモリマップである。RAM15は、記憶領域
として、例えば、表示リスト領域150と、プログラム
領域151と、1フレーム分の画像データを一時的に記
憶するフレームメモリ(またはイメージバッファメモ
リ)領域152と、フレームメモリ領域に記憶された画
像データのドット毎の奥行データを記憶するZバッファ
領域153と、画像データ領域154と、サウンドメモ
リ領域155と、コントロールパッドの操作状態データ
を記憶するコントロールパッドデータ領域156と、作
業用(ワーキング)メモリ領域157と、音声リスト領
域158と、レジスタ・フラグ領域159とを含む。
【0048】各記憶領域150〜159は、CPU11
がバス制御回路121を介してアクセスできるメモリ空
間、またはRCP12が直接アクセスできるメモリ空間
であり、使用されるゲームによって任意の容量(または
メモリ空間)が割り当てられる。また、プログラム領域
151,画像データ領域154,サウンドメモリ領域1
55は、外部ROM21の記憶領域22,24,25に
記憶されている1つのゲームの全てのステージ(また
は、場面,フィールドとも言う)のゲームプログラムの
内の一部のデータ(例えば、アクションやロールプレイ
ングのゲームでは、或る1つのステージまたはフィール
ド(レースゲームではコース)に必要なゲームプログラ
ム)が転送されたとき、対応するデータを一時的に記憶
するものである。このように、ある場面に必要な各種プ
ログラムデータの一部を各記憶領域151,154,1
55に記憶させておけば、CPU11が必要の生じる毎
に、直接外部ROM21から読み出して処理するより
も、CPU11の処理効率を高めることができ、画像処
理速度を高速化できる。
【0049】具体的には、フレームメモリ領域152
は、(ディスプレイ30の画素(ピクセルまたはドッ
ト)数)×(1画素当たりの色データのビット数)に相
当する記憶容量を有しており、ディスプレイ30の画素
に対応してドット毎の色データを記憶する。フレームメ
モリ領域152は、画像処理モードにおいて、画像デー
タ領域154に記憶されている1つの背景画面中に表示
すべき静止オブジェクトおよび/または移動オブジェク
トの1つ以上のオブジェクトを複数のポリゴンの集合体
で表示するための三次元座標データに基づいて、視点位
置から見える物体のドット毎の色データを一時的に記憶
する。また、フレームメモリ領域152は、表示モード
において、画像データ領域154に記憶されている対話
相手オブジェクト,仲間オブジェクト,敵オブジェク
ト,ボスオブジェクト等の移動オブジェクトや、背景
(または静止)オブジェクト等の各種オブジェクトを表
示する際に、ドット毎の色データを一時的に記憶する。
【0050】Zバッファ領域153は、(ディスプレイ
31の画素(ピクセルまたはドット)数)×(1画素当
たりの奥行データのビット数)に相当する記憶容量を有
しており、ディスプレイ31の各画素に対応してドット
毎の奥行データを記憶するものである。Zバッファ領域
153は、画像処理モードにおいて静止オブジェクトお
よび/または移動オブジェクトの1つ以上のオブジェク
トを複数のポリゴンの集合体で表示するための三次元座
標データに基づいて視点位置から見える部分のオブジェ
クトのドット毎に奥行データを一時的に記憶するととも
に、表示モードにおいて移動および/または静止の各オ
ブジェクトのドット毎の奥行データを一時的に記憶す
る。
【0051】画像データ領域154は、外部ROM21
に記憶されているゲーム表示のための静止および/また
は移動の各オブジェクト毎に、複数の集合体で構成され
るポリゴンの座標データとテクスチュアデータとを記憶
する。この画像データ領域154には、画像処理動作に
先立って、少なくとも1つのステージまたはフィールド
分のデータが外部ROM21から転送されてくる。
【0052】サウンドメモリ領域155には、外部RO
M21の記憶領域に記憶されている音声データ(セリ
フ,音楽,効果音のデータ)の一部が転送されてくる。
サウンドメモリ領域155は、外部ROM21から転送
されてきたデータを、スピーカ32から発生すべき音声
(対話相手オブジェクトの声、BGM、効果音等)のデ
ータとして一時的に記憶する。音声リスト領域158
は、スピーカ32から発生される音を作成するための音
声データを記憶している。
【0053】コントロールパッドデータ(操作状態デー
タ)記憶領域156は、コントローラ40から読み込ん
だ操作状態を示す操作状態データを一時的に記憶する。
作業用メモリ領域157は、CPU11がプログラムを
実行中にパラメータ等のデータを一時的に記憶する。
【0054】レジスタ・フラグ領域159は、各種パラ
メータやデータを記憶するデータレジスタ領域159R
と、各種フラグを記憶するフラグ領域159Fとを含
む。
【0055】本実施形態の詳細な動作を説明する前に、
本実施形態が想定しているゲームの概要について説明す
る。このゲームは、対話相手オブジェクトが三次元空間
中の様々なステージまたはフィールドを移動しながら用
意された種々のイベントをクリアしたり、敵を倒して各
ステージをクリアするゲームである。ゲームの進行は、
プレイヤがコントローラ40を操作することにより進め
られる。また、このゲームは、ゲームの途中でプレイヤ
が、予め決められた単語の音声をマイクロフォン60か
ら入力することにより、対話相手オブジェクトに対して
所定の動作を行わせる。対話相手オブジェクトは、移動
オブジェクトの一種であり、通常はゲームの主人公のキ
ャラクタが選ばれる。
【0056】所定の単語音声が入力された場合に対話相
手オブジェクトを変化させる具体例としては、お辞儀を
させたり、歩く方向を変えたり、釣りやスイカ割りをさ
せたりすることが考えられる。また、本ゲーム中では、
クイズが準備されており、クイズの答えを入力するため
に音声入力が利用される。
【0057】図7は、図2に示すゲーム機本体10の全
体的な動作を示すメインルーチンのフローチャートであ
る。以下には、図7のメインルーチンフローチャートに
沿って、本実施形態の動作を説明する。
【0058】電源が投入されると、スタートに際して、
ビデオゲーム機本体10が所定の初期状態に設定され
る。応じて、CPU11は、外部ROM21のプログラ
ム領域に記憶されているゲームプログラムの内の立ち上
げプログラムをRAM15のプログラム領域151に転
送し、各パラメータを初期値に設定した後、図7に示す
メインルーチンのフローチャートの処理を実行する。
【0059】図7に示すメインルーチン処理は、CPU
11によって、1フレーム(1/60秒)毎に実行され
る。すなわち、CPU11は、1つのステージ(または
フィールド若しくはコース)をクリアするまでステップ
S1〜S9の動作を行った後、ステップS2〜ステップ
S9の動作を繰り返し行う。ただし、ステップS5,S
6は、RCP12によって処理される。また、CPU1
1は、ステージクリアに成功することなくゲームオーバ
になると、ステップS10のゲームオーバ処理を行う。
また、ステージクリアに成功すると、ステップS10か
らステップS1へと戻る。
【0060】具体的には、ステップS1において、ゲー
ム開始のための初期設定(すなわち、ゲーム開始処理)
が行われる。このとき、例えばゲームが複数のステージ
またはコースの何れの位置からでもスタートできる場合
は、ステージまたはコースの選択画面の表示が行われ
る。ただし、スタート直後はステージ1のゲームが行わ
れるので、そのステージのゲーム開始処理が行われる。
すなわち、レジスタ領域159Rおよびフラグ領域15
9Fがクリアされ、ステージ1(選択されたステージま
たはコースでも可)のゲームを行うのに必要な各種デー
タが外部ROM21から読み出されて、RAM15の記
憶領域151〜155に転送される。
【0061】次に、ステップS2において、コントロー
ラ処理が行われる。この処理は、コントローラ40のス
イッチまたはボタンの何れが操作されたかを検出し、そ
の操作状態の検出データ(コントローラデータ)を読み
込み、読み込んだコントローラデータを書き込むことに
よって行われる。
【0062】次に、ステップS3において、ゲーム処理
が行われる。この処理は、プレイヤによって操作される
コントローラ40の操作状態と、マイクロフォン60か
ら入力される音声とに基づいて、ゲームの進行を制御す
る処理である。ゲーム処理の詳細は、図8を参照して後
述する。
【0063】次に、ステップS4において、カメラ処理
が行われる。このカメラ処理では、例えば、カメラのフ
ァインダーを通して見たときの視線または視界がプレイ
ヤの指定したアングルとなるように、各オブジェクトを
指定された角度で見たときの座標値の演算が行われる。
【0064】次に、ステップS5において、RCP12
が描画処理を行う。すなわち、RCP12は、CPU1
1の制御の下に、RAM15の画像データ領域154に
記憶されている敵,プレイヤ,背景のそれぞれのテクス
チュアデータに基づいて、移動オブジェクトおよび静止
オブジェクトの表示処理のための画像データの変換処理
(座標変換処理およびフレームメモリ描画処理)を行
う。具体的には、複数の移動オブジェクトや静止オブジ
ェクト毎の複数のポリゴンによって構成される各三角形
の面に対応する記憶領域154の各番地には、各オブジ
ェクト毎に決められたテクスチャデータで指定される色
等を貼りつけるために、色データが書込まれる。描画処
理の詳細は、図17を参照して後述する。
【0065】次に、ステップS6において、メッセージ
や音楽や効果音等の音声データに基づいて、音声処理が
行われる。音声処理の詳細は、図18を参照して後述す
る。
【0066】次に、ステップS7において、RCP12
は、ステップS5の描画処理の結果に基づいて、フレー
ムメモリ領域152に記憶されている画像データを読出
すことにより、対話相手オブジェクト,静止オブジェク
ト,敵オブジェクト等を表示画面31上に表示させる。
【0067】次に、ステップS8において、RCP12
は、ステップS6の音声処理によって得られる音声デー
タを読み出すことにより、スピーカ32から音楽,効果
音または会話等の音声を出力させる。
【0068】次に、ステップS9において、ステージま
たはフィールドをクリアしたか否かが判断(クリア検
出)される。クリアしていなければ、ステップS9にお
いてゲームオーバになったか否かが判断され、ゲームオ
ーバでなければステップS2へ戻り、ゲームオーバの条
件が検出されるまでステップS2〜S9の動作が繰り返
される。そして、所定のゲームオーバ条件(プレイヤに
許容されているミス回数が所定の回数になる、対話相手
オブジェクトのライフを所定数量使い切る等)が成立し
たことが検出されると、続くステップS10において、
所定のゲームオーバ処理(ゲームを継続するか否かを選
択する処理、バックアップデータを記憶するか否かを選
択する処理等)が行われる。
【0069】なお、ステップS9において、ステージを
クリアした条件(例えば、ボスを倒す等)が検出される
と、ステップS10において所定のクリア処理をした
後、ステップS1へ戻る。
【0070】図8〜図10および図12〜図18は、図
7のフローチャートにおける各サブルーチンの詳細を示
すフローチャートである。また、図11は、音声認識ユ
ニット50における音声認識処理を示すフローチャート
である。また、図19〜図25は、ゲーム処理中におけ
るディスプレイ31での表示画面の一例を示す図であ
る。以下、これら図8〜図25を参照して、各サブルー
チンの詳細な動作を説明する。
【0071】まず、図8を参照して、ゲーム処理(図7
のステップS3)の詳細を説明する。CPU11は、ま
ず、音声認識をすべきタイミングであるか否かを判断す
る(ステップS301)。この判断は、CPU11が後
述する音声認識ゲーム処理を実行中であり、かつZボタ
ン40Zが押圧中であるときに、「YES」となる。本
実施形態のビデオゲーム装置で想定しているゲームは、
ゲームモードとして、音声認識ゲームモードと、その他
のゲームモードとを有している。音声認識ゲームモード
では、コントローラ40の操作およびマイクロフォン6
0から入力されるプレイヤの音声に応答してゲームが進
行する。一方、その他のゲームモードでは、単にコント
ローラ40の操作に応答してゲームが進行する。最初
は、その他のゲームモードが起動されるため、初期状態
でのステップS301の判断は、「NO」である。
【0072】次に、CPU11は、音声認識ユニット5
0における音声認識処理が完了したか否かを判断する
(ステップS302)。このとき、CPU11は、音声
認識ユニット50に対して音声認識処理の実行を指示し
ていないため、その判断は、「NO」となる。次に、C
PU11は、Zボタン処理を実行する(ステップS30
3)。このZボタン処理の詳細は、図9に示されてい
る。図9を参照して、CPU11は、音声認識ゲーム処
理を実行中か否かを判断する(ステップS304)。前
述したように、最初は、その他のゲーム処理モードが起
動されるため、ステップS304の判断は、「NO」と
なる。次に、CPU11の動作は、音声認識ゲーム処理
ルーチンに入る(ステップS305)。この音声認識ゲ
ーム処理ルーチンの詳細は、図10に示されている。図
10を参照して、CPU11は、まず音声認識ゲームを
実行すべきか否かを判断する(ステップS306)。こ
のとき、その他のゲーム処理モードが起動しているた
め、ステップS306の判断は、「NO」となる。
【0073】次に、CPU11は、その他のゲーム処理
を実行する(ステップS307)。次に、CPU11
は、ゲームにおける1つのステージがクリアされたか否
かを判断する(ステップS308)。本実施形態のビデ
オゲームでは、1つのステージがクリアされる毎に、レ
ベルアップ処理が行われる(ステップS309)。この
レベルアップ処理は、後述する音声認識ゲーム処理にお
いて関連してくる。なお、本実施形態では、一例とし
て、3段階のレベルが存在する。レベルアップ処理が終
了すると、CPU11は、セーブ処理を実行する(ステ
ップS310)。このセーブ処理では、プレイヤからの
セーブ要求に応答して、CPU11は、そのときのゲー
ムの状態を保持するための様々なパラメータを所定の記
憶部(例えば、ROMカートリッジ20内に設けられた
セーブメモリ(図示せず))に格納する。
【0074】その後、ゲームプログラムの処理が進行し
て、ゲームモードが音声認識ゲームモードに移行した場
合の動作について説明する。この場合、まず、図9のス
テップS304において、音声認識ゲーム処理を実行中
であることが判断される。従って、プレイヤからの音声
入力が必要となるが、本実施形態では、可能な限りプレ
イヤの音声のみが入力されるような配慮がなされてい
る。すなわち、本実施形態は、プレイヤがZボタン40
Zを押圧中のときのみ音声入力を受け付ける構成となっ
ている。これによって、Zボタン押圧時以外にプレイヤ
が発声する音声以外の音(例えば、生活雑音)が入力さ
れるのをある程度避けることができる。しかしながら、
プレイヤは、しばしば音声入力のためにZボタン40Z
を押圧するのを忘れる場合がある。そこで、CPU11
は、Zボタン40Zが押圧されているか否かを判断し
(ステップS311)、押圧されていない場合は、押圧
されていない時間を計測する(ステップS312)。そ
して、CPU11は、この計測時間が所定時間を越えた
か否かを判断し(ステップS313)、越えた場合は、
Zボタン40Zの押圧を促すようなメッセージを表示す
るための表示データをRAM15の表示リスト領域15
0(図6参照)に登録する(ステップS314)。登録
された表示データは、後に説明する図7の描画処理(ス
テップS5)において、ディスプレイ31に表示され
る。
【0075】自発的にあるいはディスプレイ31に表示
されたメッセージに促されてプレイヤがZボタン40Z
を押圧すると、CPU11は、図8のステップS301
において、音声認識ゲーム処理を実行中であり、かつZ
ボタン40Zが押圧中であることを判断し、音声認識ユ
ニット50に対して音声認識処理の実行を指示する(ス
テップS315)。応じて、音声認識ユニット50は、
図11に示すフローチャートに沿って音声認識動作を実
行する。図11を参照して、音声認識ユニット50のD
SP521は、まずCPU11からの音声認識命令を受
け取ったことを判断し(ステップS316)、マイクロ
フォン60から出力される音声信号を入力する(ステッ
プS317)。次に、DSP521は、入力したアナロ
グの音声信号を、A/D変換器51によって、ディジタ
ル音声信号に変換させる(ステップS318)。次に、
DSP521は、入力された音声と辞書RAM54に記
憶された各単語とを比較する(ステップS320)。こ
のとき、DSP521は、前述したように、辞書RAM
54からいずれか1つの単語データを選択して読み出
し、音声データROM53に記憶されている複数の素音
データの中から対応する素音データを読み出して合成す
ることにより、単語として構成された音声データを作成
する。そして、DSP521は、合成した単語の音声デ
ータと、マイクロフォン60から入力された単語の音声
データとを比較し、その類似度を表す相関距離を計算す
る。ここでは、相関距離が小さいほど類似度が高くなる
ものとする。DSP521は、類似度すなわち相関距離
の計算を辞書RAM54に記憶されている全ての単語に
ついて行う。全単語についての相関距離の計算が終了す
ると、DSP521は、処理完了フラグをONする(ス
テップS320)。この処理完了フラグは、例えばRA
M15内のフラグ領域159F(図6参照)に設けられ
ている。その後、DSP521は、ステップS316の
動作に戻る。
【0076】一方、CPU11は、処理完了フラグがO
Nされたことに基づいて、音声認識ユニット50での音
声認識処理が完了したと判断する(ステップS30
2)。そして、CPU11は、音声認識ユニット50に
対して取込命令を出力する(ステップS321)。応じ
て、音声認識ユニット50のDSP521は、CPU1
1から取込命令が出されたことを判断し(ステップS3
22)、第1順位の単語(すなわち、辞書RAM54に
登録された単語の中で、音声入力された単語と最も類似
度の高い単語)のコード番号と相関距離値とを、インタ
フェイス55を介してビデオゲーム機本体10に送る
(ステップS323)。さらに、DSP521は、第2
順位の単語(すなわち、辞書RAM54に登録された単
語の中で、音声入力された単語と2番目に類似度の高い
単語)のコード番号と相関距離値とを、インタフェイス
55を介してビデオゲーム機本体10に送る(ステップ
S324)。次に、DSP521は、処理完了フラグを
OFFする(ステップS325)。その後、DSP52
1は、ステップS316の動作に戻る。
【0077】CPU11は、上記ステップS323およ
びS324でDSP521から送られてくる単語のコー
ド番号と相関距離値とを取り込む(ステップS32
6)。次に、CPU11の動作は、ステップS303の
Zボタン処理を経由した後、ステップS305の音声認
識ゲーム処理ルーチンに入る。このステップS305に
おいて、CPU11は、音声認識ゲーム処理の実行中で
あることを判断し(ステップS306)、現在のゲーム
のレベルが、レベル1であるか、レベル2であるか、レ
ベル3であるかを判断する(ステップS327およびS
328)。CPU11は、判断の結果、現在のゲームの
レベルがレベル1である場合は、レベル1のゲーム処理
を実行し(ステップS329)、レベル2である場合
は、レベル2のゲーム処理を実行し(ステップS33
0)、レベル3である場合は、レベル3のゲーム処理を
実行する(ステップS331)。
【0078】次に、図12を参照して、レベル1のゲー
ム処理について説明する。このレベル1のゲーム処理で
は、マイクロフォン60からの音声入力があると、入力
された音声が辞書RAM54に登録されている単語と一
致しているか否かにかかわらず、対話相手オブジェクト
に対して所定の動作を行わせる。すなわち、レベル1の
ゲーム処理では、音声認識の結果は関与せず、単に音声
入力の有無に応じて、対話相手オブジェクトにプログラ
ムで決められている所定の動作(お辞儀する、飛び跳ね
る、喜ぶ等の動作)を行わせる。
【0079】図12を参照して、CPU11は、まず、
プレイヤから音声入力が有ったか否かを判断する(ステ
ップS332)。音声入力がない場合、CPU11は、
対話相手オブジェクトに対して何の動作も行わせない。
これに対し、プレイヤから音声入力が有った場合、CP
U11は、対話相手オブジェクトに対して所定の動作を
行わせる。すなわち、CPU11は、対話相手オブジェ
クトが現在行うべき動作を検出する(ステップS33
3)。次に、CPU11は、検出した動作が第1の動作
であるか、第2の動作であるか、第3の動作であるか、
その他の動作であるかを判断する(ステップS334〜
S336)。次に、CPU11は、対話相手オブジェク
トに対応する動作を行わせるための表示データをRAM
15の表示リスト領域150(図6参照)に登録する
(ステップS337〜S340)。このとき登録された
表示データは、後に説明する図7の描画処理(ステップ
S5)において、ディスプレイ31に表示される。図1
9にこのときの一表示例を示しておく。次に、CPU1
1は、対話相手オブジェクトに対応する音声を発声させ
るための音声データをRAM15の音声リスト領域15
8に登録する(ステップS341〜S344)。このと
き登録された音声データは、後に説明する図7の音声処
理(ステップS6)において、スピーカ32から出力さ
れる。
【0080】次に、図13を参照して、レベル2のゲー
ム処理について説明する。このレベル2のゲーム処理で
は、プレイヤの音声入力に応答して、対話相手オブジェ
クトに対応する動作を行わせる。対話相手オブジェクト
が行う動作としては、プログラム上で予め複数種類の動
作が準備されている。従って、対話相手オブジェクトに
プレイヤが意図する動作を行わせるためには、その動作
に対応する単語の音声を入力する必要がある。マイクロ
フォン60から音声入力があると、辞書RAM54に登
録されている単語の内、入力された音声と最も似ている
単語が選択され、予め準備された動作に対応する単語と
比較される。比較の結果、一致するものがあると、その
単語に対応する動作が実行される。比較の結果、一致す
るものがない場合は、辞書RAM54に登録されている
単語の内、入力された音声と2番目に似ている単語が選
択され、予め準備された動作に対応する単語と比較され
る。比較の結果、一致するものがあると、その単語に対
応する動作が実行される。比較の結果、一致するものが
ない場合は、正しい単語を入力させるための処理が行わ
れる。
【0081】図13を参照して、CPU11は、まず、
メッセージ表示処理を行う(ステップS345)。この
メッセージ表示処理の詳細は、図14に示されている。
図14を参照して、CPU11は、まず、表示すべきメ
ッセージを決定する(ステップS346)。次に、CP
U11は、決定されたメッセージのデータをRAM15
から読み出す(ステップS347)。次に、CPU11
は、辞書RAM54に記憶されている全単語データを検
出し(ステップS348)、当該単語データとRAM1
5から読み出したメッセージデータとを比較することに
より、当該メッセージデータ中に当該単語と対応する単
語が存在するか否かを判断する(ステップS349)。
次に、CPU11は、メッセージデータ中に辞書RAM
54に登録された単語と一致する単語が存在する場合、
当該単語に相当する部分の表示色を、他のメッセージ文
の表示色と変化させるように、メッセージデータの色デ
ータを補正する(ステップS350)。次に、CPU1
1は、色補正が施されたメッセージデータをRAM15
の表示リスト領域150(図6参照)に登録する(ステ
ップS351)。このとき登録された表示データは、後
に説明する図7の描画処理(ステップS5)において、
ディスプレイ31に表示される。図20は、ディスプレ
イ31に表示されるメッセージの一例を示している。図
20には、メッセージとして「さいしょはれんしゅうじ
ゃ。ピカチュウがスイカのそばにちかよったらそこだと
おしえてやるのじゃ。」と表示されている。そして、
「ピカチュウ」「スイカ」「そこだ」の表示色が他のメ
ッセージ文と異なる表示色になっている。このように、
メッセージ文中において、辞書RAM54に登録されて
いる単語の部分の表示色を他の部分の表示色と異ならせ
ることにより、プレイヤは、入力可能な単語を容易に知
ることができる。その結果、プレイヤは、入力すべき単
語が分からずに、やみくもに発声を繰り返すことが無く
なり、ゲームに対して興味を無くしてしまうような事態
を防止できる。なお、実際のゲームでは、ゲームの進行
に応じて、ステップS345で表示するメッセージの内
容が変更されるであろう。ステップS351の後、メッ
セージ表示処理が終了し、CPU11は、図13のレベ
ル2のゲーム処理に戻る。
【0082】再び図13に戻って、CPU11は、マイ
クロフォン60から音声入力があったか否かを判断する
(ステップS352)。音声入力があった場合、CPU
11は、対話相手オブジェクトが音声入力に応答する動
作を行うことが可能か否かを判断する(ステップS35
3)。例えば、プログラム中で規定された一連の画像処
理であって、音声入力に応答しない画像処理を実行中で
ある場合は、対話相手オブジェクトが音声入力に応答す
る動作を行うことが不可能であると判断される。次に、
CPU11は、図8のステップS326で取り込まれた
音声認識ユニット50の音声認識結果の中から、第1順
位の単語(すなわち、音声入力された単語に最も類似す
る単語)を検出する(ステップS354)。次に、CP
U11は、検出された第1順位の単語が、プログラム上
で予め予定されているいずれかの単語に該当するか否か
を判断する(ステップS355〜S357)。いずれか
の単語に該当する場合、CPU11は、対話相手オブジ
ェクトに該当する動作をさせるための表示データの演算
を行う(ステップS358〜S360)。一方、第1順
位の単語がプログラム上で予定されている単語のいずれ
にも該当しない場合、CPU11は、図8のステップS
326で取り込まれた音声認識ユニット50の音声認識
結果の中から、第2順位の単語(すなわち、音声入力さ
れた単語に2番目に類似する単語)を検出する(ステッ
プS361)。次に、CPU11は、検出された第2順
位の単語が、プログラム上で予め予定されているいずれ
かの単語に該当するか否かを判断する(ステップS36
2〜S364)。いずれかの単語に該当する場合、CP
U11は、対話相手オブジェクトに該当する動作をさせ
るための表示データの演算を行う(ステップS365〜
S367)。なお、本実施形態では、レベル2のゲーム
処理の一例として、図21の画面表示例に示すように、
対話相手オブジェクトに対してスイカ割りを行わせるこ
とを想定している。このスイカ割りゲームは、目隠しを
された対話相手オブジェクトがプレイヤの指示する方向
へ進んでいき、指示されたところで所持している棒を振
り下ろしてスイカを割るゲームである。そのため、プロ
グラム上で予定されている単語としては、対話相手オブ
ジェクトの移動方向を決めるための単語「右」「左」
と、棒を振り下ろしてスイカを割らせるための単語「そ
こだ」とが示されている。もっともゲームの進行度合い
あるいはゲームの種類によっては、予定されている単語
を増減することも、他の単語を採用することも可能であ
る。
【0083】上記ステップS358〜S360、ステッ
プS365〜S367における表示データの演算処理が
終了すると、CPU11は、ステップS368の認識不
能処理を実行する。この認識不能処理の詳細は、図15
に示されている。図15を参照して、CPU11は、ま
ず、入力された音声が認識されなかった連続回数を計算
する(ステップS369)。ここで、認識されなかった
とは、第1順位および第2順位の単語の両方が、プログ
ラム上で予定されている単語(すなわち、「右」「左」
「そこだ」)のいずれにも該当しない場合を言う。この
場合、ステップS358〜S360、ステップS365
〜S367のいずれかを通過しているのであるから、入
力されている単語の認識が行われており、計算される認
識不能連続回数は0回となる。従って、CPU11は、
計算された認識不能連続回数が予め定める所定回数以下
であることを判断し(ステップS370)、今度は、認
識できなかった継続時間を計算する(ステップS37
1)。このとき計算される継続時間は、0秒である。従
って、CPU11は、計算された認識不能継続時間が予
め定める所定時間以下であることを判断し、ステップS
368の認識不能処理を終了する。このように、第1順
位または第2順位の単語がプログラム上で予定されてい
る単語のいずれかに該当すると判断された場合は、ステ
ップS368の認識不能処理をスルーすることになる。
ステップS368の後、CPU11は、ステップS35
8〜S360、ステップS365〜S367のいずれか
で演算された表示データをRAM15の表示リスト領域
150(図6参照)に登録する(ステップS373)。
このとき登録された表示データは、後に説明する図7の
描画処理(ステップS5)において、ディスプレイ31
に表示される。
【0084】一方、第1順位および第2順位の単語の両
方が、プログラム上で予定されている単語のいずれにも
該当しない場合、CPU11は、ステップS374にお
いて疑問処理を行う。この疑問処理では、例えば図22
に示すように、対話相手オブジェクトが入力された単語
を理解できない旨の表示がなされる。図22では、一例
として、“?”マークが対話相手オブジェクトの頭上に
表示されている。その後、CPU11の動作は、ステッ
プS368の認識不能処理に移行する。
【0085】図15に示す認識不能処理において、ステ
ップS369で計算された認識不能連続回数が所定回数
を越えた場合、CPU11は、プレイヤに対して適切な
単語入力を促すようなメッセージのための表示データ作
成し、RAM15の表示リスト領域150(図6参照)
に登録する(ステップS375)。このとき登録された
表示データは、後に説明する図7の描画処理(ステップ
S5)において、ディスプレイ31に表示される。ま
た、ステップS371で計算された認識不能継続時間が
所定時間を越えた場合も、CPU11は、プレイヤに対
して適切な単語入力を促すようなメッセージのための表
示データ作成し、RAM15の表示リスト領域150に
登録する(ステップS376)。このとき登録された表
示データも、後に説明する図7の描画処理(ステップS
5)において、ディスプレイ31に表示される。なお、
上記ステップS375およびS376で登録される表示
データは、図14を参照して説明したメッセージ表示の
場合と同様に、入力すべき単語の部分が他の部分と異な
る色で表示されるようなデータとなっている。
【0086】上記のように、第2レベルのゲーム処理で
は、第2順位までの単語がプログラム上で予定されてい
る単語との比較対象となるが、さらに多くの順位の単語
を比較の対象とするようにしても良い。
【0087】また、ステージ,フィールドまたは場面が
切り替わる毎に、そのステージ,フィールドまたは場面
で使用が予定されている単語のデータのみをCPU11
から辞書RAM54に送って書き換えるようにしても良
い。この場合、DSP521は、CPU11からの音声
認識処理の指示を受け取ると、入力された音声と最も類
似する単語を辞書RAM54に記憶された単語データの
中から選択し、当該選択した単語データとその相関距離
とをCPU11に送る。一方、CPU11は、DSP5
21から受け取った認識結果に含まれる相関距離が予め
設定されたしきい値よりも大きいか小さいかを検出し、
小さい場合は認識結果が正しいもの(すなわち、入力さ
れた音声がそのとき入力されるべき単語と一致してい
る)と判断し、大きい場合は認識結果が誤っている(す
なわち、入力された音声がそのとき入力されるべき単語
と一致していない)と判断する。認識結果が正しいと判
断した場合、CPU11は、対話相手オブジェクトに対
応する動作を行わせる。一方、認識結果が誤っていると
判断した場合、CPU11は、ステップS374の疑問
処理や、ステップS365の認識不能処理を行う。
【0088】次に、図16を参照して、レベル3のゲー
ム処理について説明する。このレベル3のゲーム処理で
は、プレイヤは、一例として、シルエットクイズと呼ば
れるイベントを行うことになる。ここで、シルエットク
イズとは、シルエットのみが表示されたキャラクタの名
称を当てるクイズを意味する。プレイヤは、ディスプレ
イ31に表示されたキャラクタのシルエットを見て、該
当する名称をマイクロフォン60から音声入力する。マ
イクロフォン60から音声入力があると、辞書RAM5
4に登録されている単語の内、入力された音声と最も似
ている単語が選択され、対応するキャラクタの名称と比
較される。比較の結果、一致すると、正解動作が行わ
れ、不一致の場合は、不正解動作が行われる。
【0089】前述したように、レベル1のゲーム処理で
は、音声認識の結果にかかわらず、単に音声入力が有っ
たことに応じて、対話相手オブジェクトにプログラムで
決められている所定の動作を行わせる。また、レベル2
のゲーム処理では、第2順位までの単語が比較の対象と
なる。これに対し、レベル3のゲーム処理では、第1順
位の単語のみが比較の対象となる。このことは、ゲーム
のレベルが上がるにつれて、より正確な単語の音声入力
が要求されることを意味する。これによって、ゲームの
進行に応じて、その難易度に変化を与えることができ、
容易に飽きられないゲームを実現できる。
【0090】図16を参照して、CPU11は、まず、
シルエットクイズ表示処理を行う(ステップS37
7)。このシルエットクイズ表示処理の一表示例を図2
3に示す。図23から分かるように、ディスプレイ31
にキャラクタのシルエットが表示される。応じて、プレ
イヤは、シルエットに該当するキャラクタの名称をマイ
クロフォン60から入力する。次に、CPU11は、マ
イクロフォン60から音声入力があったか否かを判断す
る(ステップS378)。音声入力があった場合、CP
U11は、図8のステップS326で取り込まれた音声
認識ユニット50の音声認識結果の中から、第1順位の
単語(すなわち、音声入力された単語に最も類似する単
語)を検出する(ステップS379)。次に、CPU1
1は、検出された第1順位の単語がそのとき表示されて
いるシルエットのキャラクタと一致するか否か、すなわ
ちシルエットクイズの答えとして音声入力された単語が
正解か否かを判断する(ステップS380)。なお、シ
ルエットクイズでは、複数のキャラクタのシルエットが
用意されており、ランダムな順番でいずれかのキャラク
タのシルエットが表示される。ステップS380での判
断が正解の場合、CPU11は、正解動作を表示するた
めの表示データの演算を行う(ステップS381)。一
方、ステップS380での判断が不正解の場合、CPU
11は、不正解動作を表示するための表示データの演算
を行う(ステップS382)。また、ステップS378
において音声入力がないと判断された場合、CPU11
は、シルエットの表示が行われてから所定時間が経過し
たか否かを判断し(ステップS383)、所定時間経過
した場合は、不正解動作を表示するための表示データの
演算を行う(ステップS384)。次に、CPU11
は、ステップS381、S382またはS384で演算
された表示データをRAM15の表示リスト領域150
(図6参照)に登録する(ステップS373)。このと
き登録された表示データは、後に説明する図7の描画処
理(ステップS5)において、ディスプレイ31に表示
される。図24は正解動作の表示例を、図25は不正解
動作の表示例を示している。
【0091】次に、図17を参照して、図7の描画処理
(ステップS5)の詳細を説明する。まず、ステップS
501において、座標変換処理が行われる。この座標変
換処理では、RCP12の制御の下に、RAM15の表
示リスト領域150に記憶されている表示データに含ま
れる移動オブジェクトおよび静止オブジェクトに対応す
るポリゴンの座標データが画像データ領域154から読
み出され、それぞれがカメラの視点座標に変換される。
具体的には、カメラの視点から見た画像を得るために、
複数の移動オブジェクトや静止オブジェクトを構成する
各ポリゴンデータを、絶対座標からカメラ座標のデータ
に変換するための演算が行われる。次に、ステップS5
02において、フレームメモリ領域152に対する描画
処理が行われる。この処理は、カメラ座標に変換後のポ
リゴン座標によって囲まれる各オブジェクトを構成する
ある1つの三角形の面に、テクスチュアデータに基づい
て決定される色データをフレームメモリ領域152のド
ット毎に書き込むことによって行われる。このとき、各
ポリゴン毎の奥行きデータに基づいて、手前(近く)に
あるオブジェクトが優先的に表示されるように、近くの
オブジェクトの色データを書き込み、それに併せて色デ
ータを書き込んだドットに対応する奥行データがZバッ
ファ領域153の対応の番地に書き込まれる。その後、
図7のメインルーチンのステップS6へ戻る。
【0092】なお、ステップS501および502の動
作は、フレーム毎に一定時間内で行われるが、1画面に
表示すべき複数のオブジェクトのそれぞれを構成するポ
リゴン毎に順次処理され、かつ1画面に表示すべき全て
のオブジェクトの処理が終了するまで繰り返して行われ
る。
【0093】次に、図18を参照して、図7の音声処理
(ステップS6)の詳細を説明する。まず、ステップS
601において、音声フラグがオンされているか否かが
判断される。音声フラグがオンされていることが判断さ
れると、ステップS602において、RAM15の音声
リスト領域158に記憶されている音声データが読み出
され、1フレーム(1/60秒)間で再生すべきサンプ
リングされたデジタル音声データがバッファ(図示せ
ず)へ出力される。次に、ステップS603において、
音声発生回路16は、上記バッファに記憶されているデ
ジタル音声データをアナログ音声信号に変換し、順次、
スピーカ32に出力する。その後、図7のメインルーチ
ンのステップS7へ戻り、ステップS7〜S10の処理
が行われる。
【0094】なお、上記実施形態では、本発明をビデオ
ゲーム装置に適用した場合について説明したが、本発明
は、ゲームプログラム以外のプログラム(例えば、言葉
を教える教育用プログラム)を実行する画像処理装置に
も適用が可能である。すなわち、本発明は、音声認識を
介して画面上の表示物と対話が可能な全ての画像処理装
置に適用することが可能である。
【図面の簡単な説明】
【図1】本発明の一実施形態に係るビデオゲームシステ
ムの構成を示す外観図である。
【図2】図1に示したビデオゲームシステムの電気的な
構成を示すブロック図である。
【図3】図1に示した音声認識ユニット50のより詳細
な構成を示すブロック図である。
【図4】図2に示した外部ROM21のメモリ空間を図
解的に示したメモリマップである。
【図5】外部ROM21のメモリ空間の一部(画像表示
データ領域24)を詳細に示したメモリマップである。
【図6】図2に示すRAM15のメモリ空間を図解的に
示したメモリマップである。
【図7】図1に示すゲーム機本体10の全体的な動作を
示すメインルーチンのフローチャートである。
【図8】図7に示すゲーム処理(ステップS3)の詳細
な動作を示すサブルーチンフローチャートである。
【図9】図8に示すZボタン処理(ステップS303)
の詳細な動作を示すサブルーチンフローチャートであ
る。
【図10】図8に示す音声認識ゲーム処理(ステップS
305)の詳細な動作を示すサブルーチンフローチャー
トである。
【図11】図1の音声認識ユニット50が行う音声認識
処理の詳細な動作を示すフローチャートである。
【図12】図10に示すレベル1のゲーム処理(ステッ
プS329)の詳細な動作を示すサブルーチンフローチ
ャートである。
【図13】図10に示すレベル2のゲーム処理(ステッ
プS330)の詳細な動作を示すサブルーチンフローチ
ャートである。
【図14】図13に示すメッセージ表示処理(ステップ
S345)の詳細な動作を示すサブルーチンフローチャ
ートである。
【図15】図13に示す認識不能処理(ステップS36
8)の詳細な動作を示すサブルーチンフローチャートで
ある。
【図16】図10に示すレベル3のゲーム処理(ステッ
プS331)の詳細な動作を示すサブルーチンフローチ
ャートである。
【図17】図7に示す描画処理(ステップS5)の詳細
な動作を示すサブルーチンフローチャートである。
【図18】図7に示す音声処理(ステップS6)の詳細
な動作を示すサブルーチンフローチャートである。
【図19】レベル1のゲーム処理における画面表示例を
示す図である。
【図20】図13のメッセージ表示処理(ステップS3
45)における画面表示例を示す図である。
【図21】レベル2のゲーム処理で実行されるスイカ割
りゲームの画面表示例を示す図である。
【図22】図13の疑問処理(ステップS374)にお
ける画面表示例を示す図である。
【図23】レベル3のゲーム処理で実行されるシルエッ
トクイズの画面表示例を示す図である。
【図24】レベル3のゲーム処理で実行されるシルエッ
トクイズの正解時における画面表示例を示す図である。
【図25】レベル3のゲーム処理で実行されるシルエッ
トクイズの不正解時における画面表示例を示す図であ
る。
【符号の説明】
10…ビデオゲーム機本体 20…ROMカートリッジ 30…テレビジョン受像機 40…コントローラ 50…音声認識ユニット 60…マイクロフォン 11…CPU 12…RCP 15…RAM 16…音声信号発生回路 17…画像信号発生回路 18…コントローラ制御回路 121…バス制御回路 122…RSP 123…RDP 31…ディスプレイ 32…スピーカ 51…A/D変換器 52…制御部 53…音声データROM 54…辞書RAM 55…インタフェイス 521…DSP 522…プログラムROM 523…ワークRAM
フロントページの続き (72)発明者 三成 幸司 京都府京都市東山区福稲上高松町60番地 任天堂株式会社内 (72)発明者 流田 武 京都府京都市東山区福稲上高松町60番地 任天堂株式会社内 Fターム(参考) 2C001 AA00 AA11 BA00 BA06 BB00 BB03 BB10 BC00 BC05 CA00 CA01 CA07 CB01 CB05 CC02 CC08 5D015 BB01 KK01 9A001 BB04 BB06 EE02 HH15 HH18 HH23 HH24 JJ76 KZ09

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】 表示装置に表示された対話相手オブジェ
    クトの動作を、マイクロフォンから入力された使用者の
    単語音声に応答して変化させるための画像処理装置であ
    って、 前記マイクロフォンから入力されたアナログの音声信号
    をディジタル音声データに変換する変換手段と、 前記変換手段によって変換されたディジタル音声データ
    に該当する単語を認識するための音声認識手段と、 前記音声認識手段によって認識された単語が、そのとき
    入力されるべき単語と一致するか否かを判断する判断手
    段と、 前記判断手段によって単語の一致が判断されたとき、認
    識された単語に対応する動作をさせるように、前記対話
    相手オブジェクトの表示状態を制御する第1の表示制御
    手段と、 前記判断手段によって単語の不一致が判断されたとき、
    当該判断手段の判断を使用者に伝えるための判断伝達表
    示を前記表示装置上で行う第2の表示制御手段とを備え
    た、画像処理装置。
  2. 【請求項2】 前記第2の表示制御手段は、前記判断伝
    達表示として、前記対話相手オブジェクトが入力された
    単語音声を理解できない旨の表示を前記表示装置上で行
    う、請求項1に記載の画像処理装置。
  3. 【請求項3】 前記第2の表示制御手段は、前記判断手
    段による単語不一致の判断が所定時間以上継続して行わ
    れたとき、前記判断伝達表示として、そのとき入力され
    るべき単語を含むメッセージ文をさらに前記表示装置に
    表示させる、請求項2に記載の画像処理装置。
  4. 【請求項4】 前記第2の表示制御手段は、前記判断手
    段による単語不一致の判断が所定回数以上繰り返して行
    われたとき、前記判断伝達表示として、そのとき入力さ
    れるべき単語を含むメッセージ文をさらに前記表示装置
    に表示させる、請求項2に記載の画像処理装置。
  5. 【請求項5】 前記第2の表示制御手段は、前記メッセ
    ージ文において、そのとき入力されるべき単語の部分と
    その他の部分とが異なる色で表示されるように、前記表
    示装置の表示制御を行うことを特徴とする、請求項3ま
    たは4に記載の画像処理装置。
  6. 【請求項6】 設定されたプログラムデータに従って表
    示装置に所定の画像を表示すると共に、当該表示装置に
    表示された対話相手オブジェクトの動作を、マイクロフ
    ォンから入力された使用者の単語音声に応答して変化さ
    せるための画像処理装置であって、 前記マイクロフォンから入力されたアナログの音声信号
    をディジタル音声データに変換する変換手段と、 前記変換手段によって変換されたディジタル音声データ
    に該当する単語を認識するための音声認識手段と、 前記音声認識手段の認識結果に基づいて、前記対話相手
    オブジェクトの表示状態を制御する表示制御手段と、 前記プログラムデータの進行程度を検出する進行程度検
    出手段とを備え、 前記表示状態制御手段は、前記進行程度検出手段によっ
    て検出されたプログラムデータの進行程度に応じて、前
    記対話相手オブジェクトの表示状態の制御態様を段階的
    に変化させることを特徴とする、画像処理装置。
  7. 【請求項7】 前記表示制御手段は、 前記進行程度検出手段によって検出されたプログラムデ
    ータの進行程度が相対的に初期のレベルであるとき、前
    記音声認識手段によって認識された単語の種類にかかわ
    らず、前記対話相手オブジェクトに対して予め定める動
    作を行わせる第1の表示制御手段と、 前記進行程度検出手段によって検出されたプログラムデ
    ータの進行程度が相対的に上位のレベルであるとき、前
    記音声認識手段によって認識された単語の種類に応じ
    て、前記対話相手オブジェクトに対応する動作を行わせ
    る第2の表示制御手段とを含む、請求項6に記載の画像
    処理装置。
  8. 【請求項8】 前記第2の表示制御手段は、 前記音声認識手段によって認識された単語が、そのとき
    入力されるべき単語と一致するか否かを判断する判断手
    段と、 前記判断手段によって単語の一致が判断されたとき、前
    記対話相手オブジェクトに一致が判断された単語に対応
    する動作を行わせる対応動作制御手段とを含む、請求項
    7に記載の画像処理装置。
  9. 【請求項9】 前記音声認識手段は、 基準となる複数の単語データが格納された辞書手段と、 前記ディジタル音声データと前記辞書手段に格納された
    各単語データとを比較することにより、各単語データそ
    れぞれに対して類似の程度を示す相関距離を計算する相
    関距離計算手段と、 前記相関距離計算手段によって計算された相関距離に基
    づいて、前記辞書手段に格納された各単語データに対し
    て類似度の高い順番に順位を付与する順位付与手段と、 前記前記辞書手段に格納された複数の単語データの内、
    上から所定順位までの単語データを候補単語データとし
    て前記判断手段に出力する候補単語データ出力手段とを
    含み、 前記判断手段は、前記候補単語データ出力手段から与え
    られた候補単語データの内、最も類似度の高い候補単語
    データから順番に、そのとき入力されるべき単語と一致
    するか否かを判断し、一致を判断した時点で判断動作を
    停止して、前記対応動作制御手段に一致判断出力を与え
    ることを特徴とする、請求項8に記載の画像処理装置。
  10. 【請求項10】 前記判断手段は、前記進行程度検出手
    段によって検出されたプログラムデータの進行程度が進
    むにつれて、前記候補単語データの中から一致判断の対
    象として選択する単語データの数を減少させることを特
    徴とする、請求項9に記載の画像処理装置。
  11. 【請求項11】 前記音声認識手段は、 そのとき入力されるべき単語のデータが格納された辞書
    手段と、 前記ディジタル音声データと前記辞書手段に格納された
    各単語データとを比較することにより、各単語データそ
    れぞれに対して類似の程度を示す相関距離を計算する相
    関距離計算手段と、 前記相関距離計算手段によって計算された相関距離に基
    づいて、最も類似度の高い単語データを選択し、当該選
    択した単語データをその相関距離と共に候補単語データ
    として前記判断手段に出力する候補単語データ出力手段
    とを含み、 前記判断手段は、 前記候補単語データに含まれる相関距離によって規定さ
    れる第1の類似度が、予め設定されたしきい値によって
    規定される第2の類似度よりも高いか否かを検出し、 前記第1の類似度のほうが前記第2の類似度よりも高い
    場合は、前記音声認識手段によって認識された単語が、
    そのとき入力されるべき単語と一致したと判断し、 前記第2の類似度のほうが前記第1の類似度よりも高い
    場合は、前記音声認識手段によって認識された単語が、
    そのとき入力されるべき単語と不一致であると判断する
    ことを特徴とする、請求項8に記載の画像処理装置。
  12. 【請求項12】 前記プログラムデータは、可搬型の記
    憶媒体に格納されたビデオゲームためのプログラムデー
    タである、請求項6〜11のいずれかに記載の画像処理
    装置。
  13. 【請求項13】 表示装置に表示された対話相手オブジ
    ェクトの動作を、マイクロフォンから入力された使用者
    の単語音声に応答して変化させるための画像処理装置に
    おいて実行されるプログラムデータを記憶した記憶媒体
    であって、 前記画像処理装置は、前記プログラムデータを実行した
    とき、 前記マイクロフォンから入力されたアナログの音声信号
    をディジタル音声データに変換し、 変換された前記ディジタル音声データに該当する単語を
    認識し、 前記認識された単語が、そのとき入力されるべき単語と
    一致するか否かを判断し、 単語の一致が判断されたとき、認識された単語に対応す
    る動作をさせるように、前記対話相手オブジェクトの表
    示状態を制御し、 単語の不一致が判断されたとき、当該判断結果を使用者
    に伝えるための判断伝達表示を前記表示装置上で行うこ
    とを特徴とする、画像処理装置。
  14. 【請求項14】 表示装置に表示された対話相手オブジ
    ェクトの動作を、マイクロフォンから入力された使用者
    の単語音声に応答して変化させるための画像処理装置に
    おいて実行されるプログラムデータを記憶した記憶媒体
    であって、 前記画像処理装置は、前記プログラムデータを実行した
    とき、 前記マイクロフォンから入力されたアナログの音声信号
    をディジタル音声データに変換し、 変換された前記ディジタル音声データに該当する単語を
    認識し、 前記認識された単語に基づいて、前記対話相手オブジェ
    クトの表示状態を制御し、 前記プログラムデータの進行程度に応じて、前記対話相
    手オブジェクトの表示状態の制御態様が段階的に変化す
    ることを特徴とする、記憶媒体。
JP10353612A 1998-12-11 1998-12-11 画像処理装置 Pending JP2000181676A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP10353612A JP2000181676A (ja) 1998-12-11 1998-12-11 画像処理装置
US09/458,671 US6538666B1 (en) 1998-12-11 1999-12-10 Image processing device using speech recognition to control a displayed object
GB9929147A GB2351637B (en) 1998-12-11 1999-12-10 Image processing device
CA002292395A CA2292395A1 (en) 1998-12-11 1999-12-10 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10353612A JP2000181676A (ja) 1998-12-11 1998-12-11 画像処理装置

Publications (1)

Publication Number Publication Date
JP2000181676A true JP2000181676A (ja) 2000-06-30

Family

ID=18432030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10353612A Pending JP2000181676A (ja) 1998-12-11 1998-12-11 画像処理装置

Country Status (4)

Country Link
US (1) US6538666B1 (ja)
JP (1) JP2000181676A (ja)
CA (1) CA2292395A1 (ja)
GB (1) GB2351637B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1201277A3 (en) * 2000-10-30 2004-10-27 Sony Computer Entertainment Inc. Entertainment apparatus and method for reflecting input voice in operation of character
EP1603115A1 (en) 2004-06-03 2005-12-07 Nintendo Co., Limited Speech command processing apparatus
US7571103B2 (en) 2005-02-23 2009-08-04 Nintendo Co., Ltd. Command processing apparatus and program product executed thereby
KR200452901Y1 (ko) 2010-08-02 2011-03-31 김태형 노트북컴퓨터용 마우스
JP2011078508A (ja) * 2009-10-05 2011-04-21 Namco Bandai Games Inc プログラムおよび情報記憶媒体
TWI469814B (zh) * 2013-02-07 2015-01-21 Univ Southern Taiwan Sci & Tec Voice - based and brain waves, supplemented by the role of video game control system Methods and methods

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6766036B1 (en) * 1999-07-08 2004-07-20 Timothy R. Pryor Camera based man machine interfaces
US7136080B1 (en) * 1999-09-02 2006-11-14 Sony Computer Entertainment Inc. Entertainment system, entertainment apparatus, recording medium, and program providing color coded display messages
US6720980B1 (en) * 2000-03-01 2004-04-13 Microsoft Corporation Method and system for embedding voice notes
JP2002041276A (ja) * 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
JP3584021B2 (ja) * 2000-11-13 2004-11-04 株式会社ソニー・コンピュータエンタテインメント 外部記憶装置ユニット、及びこれを備えている情報処理装置
JP2002239226A (ja) * 2000-12-13 2002-08-27 Sony Computer Entertainment Inc コンピュータに実行させるためのオブジェクトの表示プログラムを記録したコンピュータ読み取り可能な記録媒体、オブジェクトの表示プログラムを実行するプログラム実行装置、コンピュータに実行させるためのオブジェクトの表示プログラム、コンピュータに実行させるためのキャラクタの表示プログラムを記録した記録媒体、キャラクタの表示プログラムを実行するプログラム実行装置、コンピュータに実行させるためのキャラクタの表示プログラム
US7107533B2 (en) * 2001-04-09 2006-09-12 International Business Machines Corporation Electronic book with multimode I/O
US7085722B2 (en) 2001-05-14 2006-08-01 Sony Computer Entertainment America Inc. System and method for menu-driven voice control of characters in a game environment
EP1450351A4 (en) * 2001-09-27 2006-05-17 Matsushita Electric Ind Co Ltd DIALOGUE DEVICE, FATHER DIALOGUE DEVICE, DIALOGUE THREAD DEVICE, DIALOGUE CONTROL METHOD, AND DIALOGUE CONTROL PROGRAM
GB2383247A (en) * 2001-12-13 2003-06-18 Hewlett Packard Co Multi-modal picture allowing verbal interaction between a user and the picture
GB0129787D0 (en) * 2001-12-13 2002-01-30 Hewlett Packard Co Method and system for collecting user-interest information regarding a picture
TW571812U (en) * 2003-06-11 2004-01-11 Vision Electronics Co Ltd Audio device for TV game machine
TWM253395U (en) * 2003-07-03 2004-12-21 Zeroplus Technology Co Ltd Audio device for TV game device
US20050009604A1 (en) * 2003-07-11 2005-01-13 Hsien-Ta Huang Monotone voice activation device
EP1498163A1 (en) * 2003-07-16 2005-01-19 Hsien-Ta Huang Device for game control using voice recognition
US8133115B2 (en) 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
US20050169252A1 (en) * 2004-02-03 2005-08-04 Andrew Riggs Game controller including an integrated communicator
JP2005312758A (ja) * 2004-04-30 2005-11-10 Nintendo Co Ltd ゲームシステムおよびゲームプログラム
US7976385B2 (en) * 2004-05-11 2011-07-12 Mattel, Inc. Game controller with sensitivity adjustment
US7580837B2 (en) 2004-08-12 2009-08-25 At&T Intellectual Property I, L.P. System and method for targeted tuning module of a speech recognition system
US20060046845A1 (en) * 2004-08-26 2006-03-02 Alexandre Armand Device for the acoustic control of a game system and application
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US7242751B2 (en) * 2004-12-06 2007-07-10 Sbc Knowledge Ventures, L.P. System and method for speech recognition-enabled automatic call routing
US7751551B2 (en) 2005-01-10 2010-07-06 At&T Intellectual Property I, L.P. System and method for speech-enabled call routing
JP3734823B1 (ja) * 2005-01-26 2006-01-11 任天堂株式会社 ゲームプログラムおよびゲーム装置
US7657020B2 (en) 2005-06-03 2010-02-02 At&T Intellectual Property I, Lp Call routing system and method of using the same
US7636126B2 (en) 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US7880746B2 (en) * 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US9108108B2 (en) 2007-09-05 2015-08-18 Sony Computer Entertainment America Llc Real-time, contextual display of ranked, user-generated game play advice
US9126116B2 (en) 2007-09-05 2015-09-08 Sony Computer Entertainment America Llc Ranking of user-generated game play advice
US20090204391A1 (en) * 2008-02-12 2009-08-13 Aruze Gaming America, Inc. Gaming machine with conversation engine for interactive gaming through dialog with player and playing method thereof
US20090210217A1 (en) * 2008-02-14 2009-08-20 Aruze Gaming America, Inc. Gaming Apparatus Capable of Conversation with Player and Control Method Thereof
CN101377797A (zh) * 2008-09-28 2009-03-04 腾讯科技(深圳)有限公司 一种应用语音控制游戏系统的方法和游戏系统
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US8562434B2 (en) 2011-01-16 2013-10-22 Google Inc. Method and system for sharing speech recognition program profiles for an application
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos
US9256396B2 (en) * 2011-10-10 2016-02-09 Microsoft Technology Licensing, Llc Speech recognition for context switching
US9833707B2 (en) 2012-10-29 2017-12-05 Sony Interactive Entertainment Inc. Ambient light control and calibration via a console
US10561942B2 (en) 2017-05-15 2020-02-18 Sony Interactive Entertainment America Llc Metronome for competitive gaming headset
US10128914B1 (en) 2017-09-06 2018-11-13 Sony Interactive Entertainment LLC Smart tags with multiple interactions
EP3602272B1 (en) * 2017-11-06 2023-11-22 Google LLC Methods and systems for attending to a presenting user
US11698927B2 (en) 2018-05-16 2023-07-11 Sony Interactive Entertainment LLC Contextual digital media processing systems and methods
JP7202853B2 (ja) * 2018-11-08 2023-01-12 シャープ株式会社 冷蔵庫
CN112233647A (zh) * 2019-06-26 2021-01-15 索尼公司 信息处理设备和方法以及计算机可读存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4333152A (en) * 1979-02-05 1982-06-01 Best Robert M TV Movies that talk back
US4569026A (en) * 1979-02-05 1986-02-04 Best Robert M TV Movies that talk back
US4540176A (en) * 1983-08-25 1985-09-10 Sanders Associates, Inc. Microprocessor interface device
US4704696A (en) 1984-01-26 1987-11-03 Texas Instruments Incorporated Method and apparatus for voice control of a computer
US5027406A (en) * 1988-12-06 1991-06-25 Dragon Systems, Inc. Method for interactive speech recognition and training
US5651678A (en) * 1993-12-23 1997-07-29 Phillips Associates, Inc. Educational reading aid and method for using same
JPH07219587A (ja) * 1994-01-28 1995-08-18 Canon Inc 音声処理装置および方法
US5583965A (en) * 1994-09-12 1996-12-10 Sony Corporation Methods and apparatus for training and operating voice recognition systems
US5777614A (en) * 1994-10-14 1998-07-07 Hitachi, Ltd. Editing support system including an interactive interface
US5774859A (en) * 1995-01-03 1998-06-30 Scientific-Atlanta, Inc. Information system having a speech interface
JP3671259B2 (ja) * 1995-05-31 2005-07-13 カシオ計算機株式会社 表示装置
US5890123A (en) * 1995-06-05 1999-03-30 Lucent Technologies, Inc. System and method for voice controlled video screen display
JP3116802B2 (ja) * 1996-02-20 2000-12-11 株式会社セガ・エンタープライゼス 音声認識方法、電子装置及び情報記憶媒体
JPH09297595A (ja) * 1996-04-30 1997-11-18 Nec Corp 音声認識装置
JPH10230890A (ja) 1997-02-19 1998-09-02 Matsushita Electric Ind Co Ltd 電動自転車
JPH10297595A (ja) 1997-05-01 1998-11-10 Ishigaki:Kk ウォータージェット艇の舵取装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1201277A3 (en) * 2000-10-30 2004-10-27 Sony Computer Entertainment Inc. Entertainment apparatus and method for reflecting input voice in operation of character
EP1603115A1 (en) 2004-06-03 2005-12-07 Nintendo Co., Limited Speech command processing apparatus
US8447605B2 (en) 2004-06-03 2013-05-21 Nintendo Co., Ltd. Input voice command recognition processing apparatus
US7571103B2 (en) 2005-02-23 2009-08-04 Nintendo Co., Ltd. Command processing apparatus and program product executed thereby
JP2011078508A (ja) * 2009-10-05 2011-04-21 Namco Bandai Games Inc プログラムおよび情報記憶媒体
KR200452901Y1 (ko) 2010-08-02 2011-03-31 김태형 노트북컴퓨터용 마우스
TWI469814B (zh) * 2013-02-07 2015-01-21 Univ Southern Taiwan Sci & Tec Voice - based and brain waves, supplemented by the role of video game control system Methods and methods

Also Published As

Publication number Publication date
US6538666B1 (en) 2003-03-25
GB9929147D0 (en) 2000-02-02
GB2351637B (en) 2003-03-12
CA2292395A1 (en) 2000-06-11
GB2351637A (en) 2001-01-03

Similar Documents

Publication Publication Date Title
JP2000181676A (ja) 画像処理装置
US7233904B2 (en) Menu-driven voice control of characters in a game environment
KR100534502B1 (ko) 음성인식장치,음성인식방법및이것을이용한게임기
JP3420953B2 (ja) エンタテインメントシステム及び記録媒体
US6485369B2 (en) Video game apparatus outputting image and music and storage medium used therefor
JP2007301039A (ja) ゲームプログラム及びゲーム装置
US20120196681A1 (en) Game system and game program medium
US8393962B2 (en) Storage medium storing game program and game device
JP2001276419A (ja) 画像処理装置、集団キャラクタの移動制御方法、集団キャラクタの移動制御を含む遊技装置、遊技成績の演算方法及び記録媒体
JP2002169590A (ja) 模擬会話システム、模擬会話方法、および情報記憶媒体
CN111695777A (zh) 教学方法、装置、电子设备以及存储介质
JP3955756B2 (ja) 動作制御装置、方法及びプログラム
JP3684651B2 (ja) ラリーゲーム装置及びその記憶媒体
JP4476255B2 (ja) ゲームプログラム、ゲーム装置及びゲーム制御方法
JP3554866B2 (ja) ゲームプログラム
EP1125611A2 (en) Method and apparatus for communicating with a game character
JP3740149B2 (ja) ゲーム装置及びプログラム
JP2001286677A (ja) 手話ゲーム装置および情報記憶媒体
JP3197133B2 (ja) カラオケ装置
JP2002278437A (ja) 知育玩具
KR20040021092A (ko) 음성인식을 이용한 유아교육장치 및 그 방법
JP3772373B2 (ja) 画像表示制御装置および画像表示制御方法
JPH11316587A (ja) 音発生装置
JP4026081B2 (ja) ゲーム機における音声発生装置及び方法
JP3699101B2 (ja) ゲーム装置及びプログラム