JP2023012965A - 音声ユーザインターフェースプログラム、記録媒体、音声ユーザインターフェース処理方法 - Google Patents

音声ユーザインターフェースプログラム、記録媒体、音声ユーザインターフェース処理方法 Download PDF

Info

Publication number
JP2023012965A
JP2023012965A JP2021116771A JP2021116771A JP2023012965A JP 2023012965 A JP2023012965 A JP 2023012965A JP 2021116771 A JP2021116771 A JP 2021116771A JP 2021116771 A JP2021116771 A JP 2021116771A JP 2023012965 A JP2023012965 A JP 2023012965A
Authority
JP
Japan
Prior art keywords
action
uttered
player
word
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021116771A
Other languages
English (en)
Inventor
裕介 石原
Yusuke Ishihara
仁 門田
Hitoshi Kadota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Holdings Co Ltd
Original Assignee
Koei Tecmo Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Holdings Co Ltd filed Critical Koei Tecmo Holdings Co Ltd
Priority to JP2021116771A priority Critical patent/JP2023012965A/ja
Priority to US17/863,395 priority patent/US20230017974A1/en
Publication of JP2023012965A publication Critical patent/JP2023012965A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone

Abstract

【課題】プレイヤとゲームキャラクタとの間で自然なコミュニケーションをとることを可能とする。【解決手段】音声ユーザインターフェースプログラムは、ヘッドマウントディスプレイ3の制御部7を、予め設定された言葉の最初の一部がプレイヤにより発声されたか否かを判定する第1発声判定処理部25、言葉の最初の一部が発声されたと判定した場合に、言葉が最後まで発声される前に、言葉に対応する第1の処理を実行する第1アクション実行処理部27、第1の処理の実行と並行して、プレイヤにより言葉が最後まで発声されたか否かを判定する第2発声判定処理部29、言葉が最後まで発声されたか否かの判定結果に基づいて第2の処理を実行する第2アクション実行処理部31、として機能させる。【選択図】図4

Description

本発明は、音声ユーザインターフェースプログラム、記録媒体、及び音声ユーザインターフェース処理方法に関する。
従来、音声入力式ヒューマンインタフェースを備えたゲーム機が知られている。例えば特許文献1には、プレイヤの語りかけが音声認識されると、その言語的意味がゲーム映像上の対話相手キャラクタのつぎの振る舞いに反映し、現実世界のプレイヤとゲーム世界の仮想コミュニティのキャラクタとがコミュニケーションを行うことが可能なゲーム機が記載されている。
特開2000-377号公報
上記従来技術では、プレイヤが発した音声を単語として認識し、当該認識した単語の内容に応じたアクションをキャラクタに行わせる。このため、例えば音声とアクションとが同時並行して行われるコミュニケーションの場合には、キャラクタのアクションが遅れることとなり、不自然なコミュニケーションとなってしまう場合があった。
本発明はこのような問題点に鑑みてなされたものであり、プレイヤとゲームキャラクタとの間で自然なコミュニケーションをとることが可能な音声ユーザインターフェースプログラム、記録媒体、及び音声ユーザインターフェース処理方法を提供することを目的とする。
上記目的を達成するために、本発明の音声ユーザインターフェースプログラムは、情報処理装置を、予め設定された言葉の最初の一部がプレイヤにより発声されたか否かを判定する第1発声判定処理部、前記言葉の最初の一部が発声されたと判定した場合に、前記言葉が最後まで発声される前に、前記言葉に対応する第1の処理を実行する第1処理実行処理部、前記第1の処理の実行と並行して、前記プレイヤにより前記言葉が最後まで発声されたか否かを判定する第2発声判定処理部、前記言葉が最後まで発声されたか否かの判定結果に基づいて第2の処理を実行する第2処理実行処理部、として機能させる。
上記目的を達成するために、本発明の記録媒体は、上記音声ユーザインターフェースプログラムを記録した、情報処理装置が読み取り可能な記録媒体である。
上記目的を達成するために、本発明の音声ユーザインターフェース処理方法は、情報処理装置によって実行されるゲーム処理方法であって、予め設定された言葉の最初の一部がプレイヤにより発声されたか否かを判定するステップと、前記言葉の最初の一部が発声されたと判定した場合に、前記言葉が最後まで発声される前に、前記言葉に対応する第1の処理を実行するステップと、前記第1の処理の実行と並行して、前記プレイヤにより前記言葉が最後まで発声されたか否かを判定するステップと、前記言葉が最後まで発声されたか否かの判定結果に基づいて第2の処理を実行するステップと、を有する。
本発明の音声ユーザインターフェースプログラム等によれば、プレイヤとゲームキャラクタとの間で自然なコミュニケーションをとることができる。
実施形態に係るゲームシステムの全体構成の一例を表すシステム構成図である。 ヘッドマウントディスプレイの概略構成の一例を表すブロック図である。 ヘッドマウントディスプレイの表示部に表示されるゲーム画面の一例を表す図である。 ヘッドマウントディスプレイの制御部の機能的構成の一例を表すブロック図である。 「あっち向いてホイ」の遊戯を実行する場合にヘッドマウントディスプレイの表示部に表示されるゲーム画面の具体例を表す図である。 「あっち向いてホイ」の遊戯を実行する場合にヘッドマウントディスプレイの表示部に表示されるゲーム画面の具体例を表す図である。 「あっち向いてホイ」の遊戯を実行する場合にヘッドマウントディスプレイの表示部に表示されるゲーム画面の具体例を表す図である。 「じゃんけんぽん」の遊戯を実行する場合にヘッドマウントディスプレイの表示部に表示されるゲーム画面の具体例を表す図である。 「じゃんけんぽん」の遊戯を実行する場合にヘッドマウントディスプレイの表示部に表示されるゲーム画面の具体例を表す図である。 制御部によって実行される処理手順の一例を表すフローチャートである。 じゃんけん処理の詳細手順の一例を表すフローチャートである。 ゲームシステムの他の例を表すシステム構成図である。 ゲームシステムのさらに他の例を表すシステム構成図である。 制御部のハードウェア構成の一例を表すブロック図である。
以下、本発明の実施形態について図面を参照しつつ説明する。
<1.ゲームシステムの構成>
まず、図1及び図2を用いて、実施形態に係るゲームシステム1の構成の一例について説明する。図1に示すように、ゲームシステム1は、ヘッドマウントディスプレイ3を有する。なお、ゲームシステム1は、ヘッドマウントディスプレイ3に加えて、ゲーム機本体や、プレイヤが操作するためのゲームコントローラ等を有してもよい。
ヘッドマウントディスプレイ3は、プレイヤの頭部又は顔部に装着可能な、いわゆるMR(Mixed Reality:複合現実)を実現する表示装置である。ヘッドマウントディスプレイ3は、透過型の表示部5を有しており、制御部7(図2参照)により生成されたゲームに係る仮想的な画像を現実空間の画像に重ね合わせて表示する。
図2に示すように、ヘッドマウントディスプレイ3は、表示部5と、頭部方向検出部9と、位置検出部11と、音声入力部13と、音声出力部15と、手動作検出部17と、制御部7とを有する。
表示部5は、例えば透過型(シースルー)の液晶ディスプレイや有機ELディスプレイ等で構成されており、透過して見える現実空間の画像に、制御部7により生成されたゲームに係る仮想的な画像を、例えばホログラフィック映像として重ね合わせて表示する。仮想的な画像は、2次元画像又は3次元画像のいずれでもよく、また静止画又は動画のいずれでもよい。なお、表示部5を非透過型とし、例えばカメラで撮像した現実空間の画像に、制御部7により生成された仮想的な画像を重ね合わせて表示してもよい。
頭部方向検出部9は、プレイヤの頭部の角度、角速度、又は角加速度等を検出し、当該検出結果に基づいて頭部の向き(顔の向き)を検出する。頭部の向きは、例えば深度センサやカメラを用いてプレイヤの周囲の現実空間を認識する空間認識処理によって生成される現実空間の静止座標系における方向(ベクトル)として検出されてもよい。頭部の方向の検出手法は特に限定されるものではなく、種々の検出手法を採用することができる。例えば、ヘッドマウントディスプレイ3に加速度センサやジャイロセンサ等を設けておき、これらのセンサによる検出結果に基づいて、制御部7がプレイヤの頭部の方向を算出してもよい。
位置検出部11は、プレイヤの頭部の位置を検出する。頭部の位置の検出手法は特に限定されるものではなく、種々の検出手法を採用することが可能である。例えば、ヘッドマウントディスプレイ3の周囲複数個所にカメラ及び深度センサを設けておき、深度センサを用いてプレイヤの周囲空間(現実の空間)を認識させ、複数のカメラによる検出結果に基づいて、制御部7が周囲空間におけるプレイヤの頭部の位置を認識する手法でもよい。また例えば、ヘッドマウントディスプレイ3の外部にカメラを設置すると共に、ヘッドマウントディスプレイ3に発光部などの目印を設置しておき、外部カメラによりプレイヤの頭部の位置を検出してもよい。
音声入力部13は、例えばマイクロフォン等で構成されており、プレイヤが発する音声やその他の外部音を入力する。入力されたプレイヤの音声は、制御部7が音声認識処理により言葉として認識し、認識した言葉に基づいて所定の処理を実行する。
音声出力部15は、例えばスピーカ等で構成されており、プレイヤの耳に対して音声を出力する。例えばキャラクタが発する音声、効果音、BGM等が出力される。
手動作検出部17は、例えばカメラや赤外線センサ等で構成されており、プレイヤの手の形や動作をハンドアクションとして検出する。制御部7は、検出されたハンドアクションに基づいて所定の処理を実行する。
制御部7は、各種のセンサの検出信号や音声入力に基づいて各種の処理を実行する。各種の処理は、例えば画像表示処理、位置検出処理、空間認識処理、音声認識処理、音声出力処理、ハンドアクション検出処理等である。また、この他にも多種多様な処理を実行可能としてもよい。制御部7は、ヘッドマウントディスプレイ3の頭部方向検出部9、位置検出部11、音声入力部13、音声出力部15、手動作検出部17等による処理結果に基づいて、表示部5に表示する仮想画像を生成し、又は変化させ、MR(複合現実)を表現する。
<2.ゲームの概略内容>
本実施形態では、制御部7により、音声ユーザインターフェースプログラムの一例であるゲームプログラム、及び、音声ユーザインターフェース処理方法の一例であるゲーム処理方法が実行される場合について説明する。次に、本実施形態のゲームプログラム及びゲーム処理方法が制御部7によって実行されることにより提供されるゲームの概略内容の一例について説明する。
本実施形態に係るゲームは、現実空間の画像に仮想的なゲームキャラクタの画像を重ね合わせることで、プレイヤに対して現実空間に存在するように見えるゲームキャラクタとのコミュニケーションを可能とする。ゲームキャラクタの動作や行動等は、プレイヤによる各種の操作入力(頭部の動作、手の動作、音声入力等)に応じて変化する。ゲームキャラクタの種類は特に限定されるものではないが、典型的には人間の男性キャラクタ又は女性キャラクタである。なお、ゲームキャラクタは、人間以外の動物キャラクタ、人間や動物以外の仮想的な生物キャラクタ、生物以外のロボットや物体(いわゆるオブジェクト)等のキャラクタでもよい。
図3に、ゲーム画面の一例を示す。この例では、女性のゲームキャラクタ19が、例えば現実空間であるプレイヤの部屋の画像21に重ね合わせて表示されている。
本実施形態では、プレイヤとゲームキャラクタ19とが、音声とアクションの少なくとも一部が同時並行して行われるコミュニケーションを実行する。以下では、そのようなコミュニケーションの一例として、例えば「あっち向いてホイ」や「じゃんけん」等、プレイヤとゲームキャラクタ19とが勝敗を競う遊戯を実行する場合について、処理の詳細を説明する。
<3.制御部の機能的構成>
図4を用いて、ヘッドマウントディスプレイ3の制御部7の機能的構成の一例について説明する。
図4に示すように、制御部7(情報処理装置の一例)は、音声認識処理部23と、第1発声判定処理部25と、第1アクション実行処理部27と、第2発声判定処理部29と、第2アクション実行処理部31と、アクション検出処理部33と、第3アクション実行処理部35とを有する。
音声認識処理部23は、音声入力部13により入力したプレイヤの音声を対応するテキスト(文字列)に変換する。具体的には、例えば音声を周波数解析等により分析し、音声認識辞書(音響モデル、言語モデル、発音辞書等)を用いて音素を認識し、テキストに変換する。なお、音声認識処理に機械学習やディープラーニング等の技術を用いてもよい。
第1発声判定処理部25は、上記音声認識処理部23により変換されたテキストに基づいて、予め設定された言葉の最初の一部がプレイヤにより発声されたか否かを判定する。「予め設定された言葉」は、プレイヤとゲームキャラクタとの間で音声とアクションの少なくとも一部が同時並行して行われるコミュニケーションを表す言葉であれば、特に限定されるものではない。例えば、プレイヤとゲームキャラクタとが勝敗を競う遊戯を表す言葉としてもよい。具体的には「あっち向いてホイ」や「じゃんけんぽん」等である。「最初の一部」は、言葉が「あっち向いてホイ」の場合には例えば「あっち・・・」又は「あっち向いて・・・」等である。言葉が「じゃんけんぽん」の場合には例えば「じゃん・・・」又は「じゃんけん・・・」等である。なお、上記は一例であり、上記とは異なる部分で区切って最初の一部としてもよい。
なお、予め設定された言葉に、地域や年代等に応じて表現にバリエーションがある場合には、それらが含まれるように言葉を設定してもよい。
第1アクション実行処理部27(第1処理実行処理部の一例)は、上記第1発声判定処理部25により言葉の最初の一部が発声されたと判定した場合に、言葉が最後まで発声される前に、言葉に対応する第1の処理を実行する。具体的には、第1アクション実行処理部27は、「第1の処理」として、言葉に対応する第1のアクションをゲームキャラクタに開始させる。「言葉に対応する第1のアクション」は、言葉が例えば遊戯を表す言葉である場合には当該遊戯の動作である。例えば「あっち向いてホイ」の場合には、「あっち向いて」の部分に対応する準備動作(例えば顔や身体を揺らしてリズムを取る動作や、プレイヤの指差しを待っている動作等。顔をいずれかの向きに動かし始める動作でもよい)、及び、「ホイ」の部分に対応する顔を上下左右のいずれかの方向に向ける動作である。したがって、第1アクション実行処理部27は、プレイヤにより例えば「あっち」が発声されたタイミングでゲームキャラクタに上記準備動作を開始させる。なお、顔を向ける方向は、例えばランダムに決定されてもよいし、例えばゲームキャラクタの性格や能力等を反映させて決定されてもよい。
第1のアクションは上記の準備動作と顔を動かす動作により構成されるが、その切り替えタイミングは、例えば「あっち向いてホイ」の一般的な発声の速さに対応する固定的なタイミングで切り替わるように設定されてもよい。この場合、処理を簡素化でき、処理負荷を軽減できる。また、例えば「ホイ」の「ホ」が発声されたことを検出したタイミングで準備動作から顔を動かす動作に切り替わるように設定されてもよい。この場合、例えばプレイヤが「あっち向いて~」と声を伸ばした後に「ホイ」と発声するような場合にも対応でき、プレイヤの発声とゲームキャラクタの動作とを精度良く同期させることができる。
また、例えば「じゃんけんぽん」の場合には、「じゃんけん」の部分に対応する準備動作(例えば手や腕を揺らしてリズムを取る動作やプレイヤが手を出すのを待っている動作等。手でいずれかの形を作り始める動作でもよい)、及び、「ぽん」の部分に対応する手をグー、チョキ、パーのいずれかの形にして出す動作である。したがって、第1アクション実行処理部27は、プレイヤにより例えば「じゃん」が発声されたタイミングでゲームキャラクタに上記準備動作を開始させる。なお、手の形は、例えばランダムに決定されてもよいし、例えばゲームキャラクタの性格や能力等を反映させて決定されてもよい。
第1のアクションは上記の準備動作と手でじゃんけんの形を作って出す動作により構成されるが、その切り替えタイミングは、例えば「じゃんけんぽん」の一般的な発声の速さに対応する固定的なタイミングで切り替わるように設定されてもよい。この場合、処理を簡素化でき、処理負荷を軽減できる。また、例えば「ぽん」の「ぽ」が発声されたことを検出したタイミングで準備動作から手で形を作って出す動作に切り替わるように設定されてもよい。この場合、例えばプレイヤが「じゃーんけん」と声を伸ばした後に「ぽん」と発声するような場合にも対応でき、プレイヤの発声とゲームキャラクタの動作とを精度良く同期させることができる。
第2発声判定処理部29は、上記音声認識処理部23により変換されたテキストに基づいて、上記第1アクション実行処理部27による第1のアクションの実行と並行して、プレイヤにより言葉が最後まで発声されたか否かを判定する。つまり、第1発声判定処理部25は言葉の最初の一部が発声されたか否かを判定するのに対し、第2発声判定処理部29は言葉の全部がプレイヤにより発声されたか否かを判定する。第2発声判定処理部29による判定は、第1発声判定処理部25による判定が満たされてゲームキャラクタが第1のアクションを開始した後も続行され、当該第1のアクションと同時並行して実行される。
例えば、言葉が遊戯を表す言葉である場合には、第2発声判定処理部29は遊戯のアクションの実行と並行してプレイヤにより遊戯を表す言葉が最後まで発声されたか否かを判定する。例えば、言葉が「あっち向いてホイ」の場合には、第2発声判定処理部29は「あっち向いてホイ」の上述した準備動作及び顔を動かす動作の実行と並行して、プレイヤにより「あっち向いてホイ」の言葉が最後まで発声されたか否かを判定する。例えば、言葉が「じゃんけんぽん」の場合には、第2発声判定処理部29は「じゃんけんぽん」の上述した準備動作及び手を出す動作の実行と並行して、プレイヤにより「じゃんけんぽん」の言葉が最後まで発声されたか否かを判定する。
第2アクション実行処理部31(第2処理実行処理部の一例)は、上記第2発声判定処理部29による言葉が最後まで発声されたか否かの判定結果に基づいて第2の処理を実行する。具体的には、第2アクション実行処理部31は、上記第2発声判定処理部29により言葉が最後まで発声されなかったと判定した場合に、「第2の処理」として、第1のアクションとは異なる第2のアクションをゲームキャラクタに実行させる。「言葉が最後まで発声されなかった」とは、プレイヤが言葉の途中で発声を止めたり、言葉の残りの部分において設定された言葉とは異なる言葉を発声した場合を含む。「第2のアクション」は、例えばプレイヤが予め定められた言葉を最後まで発声しなかったことに対するゲームキャラクタの反応を表す動作等である。第2アクション実行処理部31は、第2のアクションとして、例えばプレイヤに対して怒るアクションをゲームキャラクタに実行させてもよい。なお、怒るアクションに限らず、その他の感情(例えば笑う、すねる、哀しむ等)を表現するアクションを実行させてもよい。
アクション検出処理部33は、プレイヤのアクションを検出する。例えば、アクション検出処理部33は、手動作検出部17により検出されたプレイヤの手の形や動作に基づいて、プレイヤの指が上下左右のどの方向を指しているか(アクションの一例)、又は、プレイヤの手の形がグー、チョキ、パーのいずれの形であるか(アクションの一例)等を検出する。また、アクション検出処理部33は、頭部方向検出部9により検出されたプレイヤの頭部の角度、角速度、又は角加速度等に基づいて、プレイヤの顔が上下左右のどの方向を向いているか(アクションの一例)を検出する。
第3アクション実行処理部35(第2処理実行処理部の一例)は、上記第2発声判定処理部29による言葉が最後まで発声されたか否かの判定結果に基づいて第2の処理を実行する。具体的には、第3アクション実行処理部35は、上記第2発声判定処理部29により言葉が最後まで発声されたと判定した場合に、「第2の処理」として、ゲームキャラクタに実行させた第1のアクションの内容と、上記アクション検出処理部33により検出したプレイヤのアクションの内容とに基づいて第3のアクションを決定し、当該第3のアクションをゲームキャラクタに実行させる。例えば、プレイヤとゲームキャラクタとが勝敗を競う遊戯を実行する場合、第3アクション実行処理部35は、ゲームキャラクタに実行させた遊戯のアクションの内容と検出したプレイヤのアクションの内容とに基づいて勝敗を決定し、当該勝敗の結果に対応した第3のアクションをゲームキャラクタに実行させてもよい。
例えば、プレイヤとゲームキャラクタとが「あっち向いてホイ」の遊戯を行う場合、第3アクション実行処理部35は、ゲームキャラクタに実行させたアクションによる顔の向きと検出したプレイヤのアクションによる指の向きとに基づいて勝敗を決定し、当該勝敗の結果に対応した第3のアクションを実行させる。例えば、顔の向きと指の向きが一致してゲームキャラクタが負けた場合には、第3のアクションとして悔しがるアクションを実行させてもよい。また例えば、顔の向きと指の向きが一致しなかった場合には、第3のアクションとして次のじゃんけんに進むアクションを実行させてもよい。
例えば、プレイヤとゲームキャラクタとが「じゃんけんぽん」の遊戯を行う場合、第3アクション実行処理部35は、ゲームキャラクタに実行させたアクションによる手の形と検出したプレイヤのアクションによる手の形とに基づいて勝敗を決定し、当該勝敗の結果に対応した第3のアクションを実行させる。例えば、ゲームキャラクタが勝った場合には、第3のアクションとして喜ぶアクションを実行させてもよい。また例えば、ゲームキャラクタが負けた場合には、第3のアクションとして悔しがるアクションを実行させてもよい。また例えば、あいこである場合には、第3のアクションとしてつぎのじゃんけんに進むアクション(例えば「あいこでしょ!」等)を実行させてもよい。
なお、以上説明した各処理部における処理等は、これらの処理の分担の例に限定されるものではなく、例えば、更に少ない数の処理部(例えば1つの処理部)で処理されてもよく、また、更に細分化された処理部により処理されてもよい。また、上述した各処理部の機能は、後述するCPU301(後述の図14参照)が実行するゲームプログラムにより実装されるものであるが、例えばその一部がASICやFPGA等の専用集積回路、その他の電気回路等の実際の装置により実装されてもよい。
<4.ゲーム画面の具体例>
図5乃至図9を用いて、ヘッドマウントディスプレイ3の表示部5に表示されるゲーム画面の具体例について説明する。
図5に、「あっち向いてホイ」においてプレイヤの指の向きとゲームキャラクタ19の顔の向きが一致しなかった場合のゲーム画面の一例を示す。なお、ゲーム画面の横にプレイヤの発声37を吹き出しで示す。
図5(a)は、プレイヤが「あっち向いてホイ」の言葉の発声を開始する前又は発声開始後「あっち」が発声し終わる前のゲームキャラクタ19の状態である。この時点では、ゲームキャラクタ19は「あっち向いてホイ」の遊戯に係るアクションを開始していない。
図5(b)は、プレイヤが「あっち向いてホイ」の言葉の発声を開始し、その最初の一部である「あっち」を発声し終えた時点でのゲームキャラクタ19の状態である。この時点で、ゲームキャラクタ19は第1のアクションとして前述した準備動作を開始する。図5に示す例では、ゲームキャラクタ19は例えばドキドキ、ワクワクしながらプレイヤの指差しを待っている動作(第1のアクションの一例)を行っている。「向いて」が発声されている間もこの状態が継続される。
図5(c)は、プレイヤが「ホイ」を発声した時点でのゲームキャラクタ19の状態である。ゲームキャラクタ19は顔を上下左右のいずれかの向きに動かす動作を実行する。図5に示す例では、ゲームキャラクタ19はプレイヤから見て右方向に顔を動かし、プレイヤは左方向に指39を向けている。この場合、顔の向きと指の向きが一致していないので、この後ゲームキャラクタ19は次のじゃんけんに進むアクション(第3のアクションの一例)を実行する。
図6に、「あっち向いてホイ」においてプレイヤの指の向きとゲームキャラクタ19の顔の向きが一致した場合のゲーム画面の一例を示す。
図6(a)及び図6(b)は、上述した図5(a)及び図5(b)と同様であるので、説明を省略する。
図6(c)は、プレイヤが「ホイ」を発声した時点でのゲームキャラクタ19の状態である。図6に示す例では、ゲームキャラクタ19はプレイヤから見て左方向に顔を動かし、プレイヤは左方向に指39を向けている。この場合、顔の向きと指の向きが一致しており、ゲームキャラクタ19の負けが決定したので、図6(d)に示すように、ゲームキャラクタ19は負けに対応したアクション(第3のアクションの一例)を実行する。
図7に、「あっち向いてホイ」においてプレイヤが最後まで言葉を発声しなかった場合のゲーム画面の一例を示す。
図7(a)及び図7(b)は、上述した図5(a)及び図5(b)と同様であるので、説明を省略する。
図7(c)は、プレイヤが「あっち向いて」までしか発声せず、その後「ホイ」を発声しなかった場合のゲームキャラクタ19の状態である。図7(c)に示す例は、準備動作から顔を動かす動作に切り替えるタイミングが固定的に設定された場合であり、ゲームキャラクタ19は例えばプレイヤから見て右方向に顔を動かす動作まで実行している。この場合、プレイヤが「あっち向いてホイ」を最後まで発声していないので、図7(d)に示すように、ゲームキャラクタ19はプレイヤに対して怒るアクション(第2のアクションの一例)を実行する。
なお、例えば「ホイ」の「ホ」が発声されたことを検出したタイミングで準備動作から顔を動かす動作に切り替える場合等には、「ホイ」が発声されていないため顔を動かす動作に切り替わらない。この場合、ゲームキャラクタ19は上記図7(c)のアクションを実行せずに上記図7(b)の状態から直接図7(d)のアクションを実行してもよい。
図8に、「じゃんけんぽん」においてプレイヤが最後まで言葉を発声した場合のゲーム画面の一例を示す。
図8(a)は、プレイヤが「じゃんけんぽん」の言葉の発声を開始する前又は発声開始後「じゃん」が発声し終わる前のゲームキャラクタ19の状態である。この時点では、ゲームキャラクタ19は「じゃんけんぽん」の遊戯に係るアクションを開始していない。
図8(b)は、プレイヤが「じゃんけんぽん」の言葉の発声を開始し、その最初の一部である「じゃん」を発声し終えた時点でのゲームキャラクタ19の状態である。この時点で、ゲームキャラクタ19は第1のアクションとして前述した準備動作を開始する。図8に示す例では、ゲームキャラクタ19は例えば手を上下に揺らしてリズムを取る動作(第1のアクションの一例)を行っている。「けん」が発声されている間もこの状態が継続される。
図8(c)は、プレイヤが「ぽん」を発声した時点でのゲームキャラクタ19の状態である。ゲームキャラクタ19は手41をグー、チョキ、パーのいずれかの形にして出す動作を実行する。図8に示す例では、ゲームキャラクタ19は手41をチョキの形にして出し、プレイヤは手43をパーの形にして出している。この場合、ゲームキャラクタ19の勝ちが決定したので、この後ゲームキャラクタ19は例えば喜ぶ等、勝ちに対応したアクション(第3のアクションの一例)を実行してもよい。あるいは、「あっち向いてホイ」の遊戯を実行している場合には「あっち向いてホイ」の掛け声と指を指すアクション(第3のアクションの一例)を実行してもよい。
図9に、「じゃんけんぽん」においてプレイヤが最後まで言葉を発声しなかった場合のゲーム画面の一例を示す。
図9(a)及び図9(b)は、上述した図8(a)及び図8(b)と同様であるので、説明を省略する。
図9(c)は、プレイヤが「じゃんけん」までしか発声せず、その後「ぽん」を発声しなかった場合のゲームキャラクタ19の状態である。図9(c)に示す例は、準備動作から手でじゃんけんの形を作って出す動作に切り替えるタイミングが固定的に設定された場合であり、ゲームキャラクタ19は例えば手41をチョキの形にして出す動作まで実行している。この場合、プレイヤが「じゃんけんぽん」を最後まで発声していないので、図9(d)に示すように、ゲームキャラクタ19はプレイヤに対して怒るアクション(第2のアクションの一例)を実行する。
なお、例えば「ぽん」の「ぽ」が発声されたことを検出したタイミングで準備動作から手でじゃんけんの形を作って出す動作に切り替える場合等には、「ぽん」が発声されていないため手を出す動作に切り替わらない。この場合、ゲームキャラクタ19は上記図9(c)のアクションを実行せずに上記図9(b)の状態から直接図9(d)のアクションを実行してもよい。
<5.制御部が実行する処理手順>
次に、図10及び図11を用いて、制御部7によって実行される処理手順の一例について説明する。
図10に示すように、ステップS100では、制御部7は、プレイヤとゲームキャラクタ19とが「じゃんけんぽん」の遊戯を行うじゃんけん処理を実行する。じゃんけん処理の詳細については後述する(図11参照)。
ステップS5では、制御部7は、上記ステップS100のじゃんけん処理でプレイヤが勝利したか否かを判定する。プレイヤが勝利した場合には(ステップS5:YES)、次のステップS10に移る。
ステップS10では、制御部7は、第1発声判定処理部25により、「あっち向いてホイ」の最初の一部である「あっち」がプレイヤにより発声されたか否かを判定する。「あっち」が発声されるまで本ステップS10を繰り返し(ステップS10:NO)、「あっち」が発声された場合には(ステップS10:YES)、次のステップS15に移る。
ステップS15では、制御部7は、第1アクション実行処理部27により、「あっち向いてホイ」が最後まで発声される前に、「あっち向いてホイ」の遊戯に対応するアクションをゲームキャラクタ19に開始させる。当該アクションは、例えば前述した準備動作と顔を上下左右のいずれかの向きに動かす動作により構成される。
ステップS20では、制御部7は、第2発声判定処理部29により、上記ステップS15で開始したゲームキャラクタ19によるアクションの実行と並行して、プレイヤが発した音声を認識する。
ステップS25では、制御部7は、第2発声判定処理部29により、プレイヤにより「あっち向いてホイ」が最後まで発声されたか否かを判定する。「あっち向いてホイ」が最後まで発声されなかった場合には(ステップS25:NO)、ステップS30に移る。
ステップS30では、制御部7は、第2アクション実行処理部31により、プレイヤに対して怒るアクションをゲームキャラクタ19に実行させる。その後、後述のステップS80に移る。
一方、上記ステップS25において、「あっち向いてホイ」が最後まで発声された場合には(ステップS25:YES)、ステップS35に移る。
ステップS35では、制御部7は、アクション検出処理部33により、プレイヤのハンドアクション(指39が上下左右のどの方向を指しているか)を検出する。
ステップS40では、制御部7は、第3アクション実行処理部35により、ゲームキャラクタ19に実行させたアクションの内容と、上記ステップS35で検出したプレイヤのハンドアクションとに基づいて、プレイヤの指の向きとゲームキャラクタ19の顔の向きが一致しているか否かを判定する。一致していない場合には(ステップS40:NO)、最初のステップS100に戻る。一方、一致している場合には(ステップS40:YES)、次のステップS45に移る。
ステップS45では、制御部7は、第3アクション実行処理部35により、プレイヤの勝利を決定する。
ステップS50では、制御部7は、第3アクション実行処理部35により、例えば悔しがる等の負けに対応したアクションをゲームキャラクタ19に実行させる。その後、後述のステップS80に移る。
なお、先のステップS5において、上記ステップS100のじゃんけん処理でゲームキャラクタ19が勝利したと判定した場合には(ステップS5:NO)、次のステップS55に移る。
ステップS55では、制御部7は、ゲームキャラクタ19に、「あっち向いてホイ」の掛け声と共に指で上下左右のいずれかの向きを指す動作を実行させる。
ステップS60では、制御部7は、アクション検出処理部33により、プレイヤの顔が上下左右のどの方向を向いているかを検出する。
ステップS65では、制御部7は、ゲームキャラクタ19に実行させたアクションの内容と、上記ステップS60で検出したプレイヤの顔の向きとに基づいて、ゲームキャラクタ19の指の向きとプレイヤの顔の向きが一致しているか否かを判定する。一致していない場合には(ステップS65:NO)、最初のステップS100に戻る。一方、一致している場合には(ステップS65:YES)、次のステップS70に移る。
ステップS70では、制御部7は、ゲームキャラクタ19の勝利を決定する。
ステップS75では、制御部7は、例えば喜ぶ等の勝ちに対応したアクションをゲームキャラクタ19に実行させる。その後、ステップS80に移る。
ステップS80では、制御部7は、「あっち向いてホイ」の遊戯をもう一度実行するか否かを判定する。プレイヤが所定の再実行操作を実行する等により、「あっち向いてホイ」の遊戯をもう一度実行する場合には(ステップS80:YES)、最初のステップS100に戻る。一方、プレイヤが所定の終了操作を実行する等により、「あっち向いてホイ」の遊戯を終了する場合には(ステップS80:NO)、本フローチャートを終了する。
図11に、上述したステップS100のじゃんけん処理の詳細手順の一例を示す。
図11に示すように、ステップS110では、制御部7は、第1発声判定処理部25により、「じゃんけんぽん」の最初の一部である「じゃん」がプレイヤにより発声されたか否かを判定する。「じゃん」が発声されるまで本ステップS110を繰り返し(ステップS110:NO)、「じゃん」が発声された場合には(ステップS110:YES)、次のステップS120に移る。
ステップS120では、第1アクション実行処理部27により、「じゃんけんぽん」が最後まで発声される前に、「じゃんけんぽん」の遊戯に対応するアクションをゲームキャラクタ19に開始させる。当該アクションは、例えば前述した準備動作と手でじゃんけんのいずれかの形を作って出す動作により構成される。
ステップS130では、制御部7は、第2発声判定処理部29により、上記ステップS120で開始したゲームキャラクタ19によるアクションの実行と並行して、プレイヤが発した音声を認識する。
ステップS140では、制御部7は、第2発声判定処理部29により、プレイヤにより「じゃんけんぽん」が最後まで発声されたか否かを判定する。「じゃんけんぽん」が最後まで発声されなかった場合には(ステップS140:NO)、ステップS150に移る。
ステップS150では、制御部7は、第2アクション実行処理部31により、プレイヤに対して怒るアクションをゲームキャラクタ19に実行させる。その後、図10のステップS80に移る。
一方、上記ステップS140において、「じゃんけんぽん」が最後まで発声された場合には(ステップS140:YES)、ステップS160に移る。
ステップS160では、制御部7は、アクション検出処理部33により、プレイヤのハンドアクション(手43の形がグー、チョキ、パーのいずれの形であるか)を検出する。
ステップS170では、制御部7は、第3アクション実行処理部35により、ゲームキャラクタ19に実行させたアクションによる手の形と、上記ステップS160で検出したプレイヤのハンドアクションによる手の形とに基づいて勝敗を決定する。
ステップS180では、制御部7は、勝敗の判定があいこであるか否かを判定する。あいこである場合には(ステップS180:YES)、最初のステップS110に戻る。一方、あいこでない場合には(ステップS180:NO)、本ルーチンを終了し、図10のステップS5に移る。
なお、上述した処理手順は一例であって、上記手順の少なくとも一部を削除又は変更してもよいし、上記以外の手順を追加してもよい。また、上記手順の少なくとも一部の順番を変更してもよいし、複数の手順が単一の手順にまとめられてもよい。
<6.実施形態の効果>
以上説明したように、本実施形態のゲームプログラム(音声ユーザインターフェースプログラムの一例)は、ヘッドマウントディスプレイ3の制御部7を、予め設定された言葉の最初の一部がプレイヤにより発声されたか否かを判定する第1発声判定処理部25、言葉の最初の一部が発声されたと判定した場合に、言葉が最後まで発声される前に、言葉に対応する第1の処理を実行する第1アクション実行処理部27、第1の処理の実行と並行して、プレイヤにより言葉が最後まで発声されたか否かを判定する第2発声判定処理部29、言葉が最後まで発声されたか否かの判定結果に基づいて第2の処理を実行する第2アクション実行処理部31、として機能させる。
また本実施形態において、第1アクション実行処理部27は、言葉の最初の一部が発声されたと判定した場合に、言葉が最後まで発声される前に、第1の処理として、言葉に対応する第1のアクションをゲームキャラクタに開始させ、第2アクション実行処理部31は、言葉が最後まで発声されなかったと判定した場合に、第2の処理として、第1のアクションとは異なる第2のアクションをゲームキャラクタに実行させてもよい。
一般に音声入力機能を備えたゲームシステムでは、プレイヤの発する音声を単語として認識し、当該認識した単語の内容に応じたアクションをゲームキャラクタに行わせることで、プレイヤとゲームキャラクタとの間でコミュニケーションをとる。このため、プレイヤの発声が終わるのを待つ必要があるが、例えば発声とアクションとが同時並行して行われるコミュニケーションの場合には、ゲームキャラクタのアクションが遅れることとなり、不自然なコミュニケーションとなってしまう場合がある。
本実施形態のゲームプログラムでは、予め設定された言葉の最初の一部がプレイヤにより発声された場合に、当該言葉が最後まで発声される前に、当該言葉に対応する第1のアクションをゲームキャラクタ19に開始させる。これにより、プレイヤが言葉の最初の一部を発声したタイミングで想定される言葉の内容に対応するアクションをゲームキャラクタ19に開始させることができる。このようにして、プレイヤが言葉を言い切る前に当該言葉に対応するアクションをゲームキャラクタ19に即座に開始させることができるので、プレイヤの発声と同時並行してゲームキャラクタ19にアクションを実行させることができる。したがって、ゲームキャラクタ19のアクションに遅れが生じるのを抑制できる。
一方で、例えばプレイヤが言葉の途中で発声を止めたり、言葉の残りの部分において設定された言葉とは異なる言葉を発声する等、プレイヤが予め設定された言葉を最後まで発声しない場合も考えられる。このような場合には、第1のアクションとは異なる第2のアクションをゲームキャラクタ19に実行させることにより、第1のアクションを実行したことが不自然とならないようにリカバリーすることができる。以上により、プレイヤとゲームキャラクタ19との間で、リアルタイム性及びインタラクティブ性を両立させた自然なコミュニケーションをとることができる。
また、取り急ぎ第1のアクションを実行させて、最終的にプレイヤが言葉の全部を発声しなかった場合には第2のアクションを加えてリカバリーさせる処理とすることにより、例えばプレイヤの発声内容とゲームキャラクタ19のアクション内容とが相違しないように音声を細かく分割して音声認識処理を実行したり、分割した単語ごとに整合性をチェックする等の複雑な処理が不要となるので、処理負担を軽減でき、処理速度を向上できる。
また本実施形態において、制御部7を、プレイヤのアクションを検出するアクション検出処理部33、言葉が最後まで発声されたと判定した場合に、ゲームキャラクタ19に実行させた第1のアクションの内容と検出したプレイヤのアクションの内容とに基づいて第3のアクションを決定し、当該第3のアクションをゲームキャラクタ19に実行させる第3アクション実行処理部35、としてさらに機能させてもよい。
この場合、ゲームキャラクタ19に実行させたアクションの内容とプレイヤのアクション内容とを加味して次のアクションを決定し、ゲームキャラクタ19に実行させることができる。これにより、プレイヤが予め設定された言葉を最後まで発声した場合には、第2のアクションのような発声のエラー処理を挟むことなく、プレイヤとゲームキャラクタ19との間で自然なコミュニケーションをスムーズに継続することができる。
また本実施形態において、第1発声判定処理部25は、プレイヤとゲームキャラクタ19とが勝敗を競う遊戯を表す言葉の最初の一部がプレイヤにより発声されたか否かを判定し、第1アクション実行処理部27は、言葉の最初の一部が発声されたと判定した場合に、言葉が最後まで発声される前に、遊戯のアクションをゲームキャラクタに開始させ、第2発声判定処理部29は、遊戯のアクションの実行と並行して、プレイヤにより言葉が最後まで発声されたか否かを判定し、第3アクション実行処理部35は、言葉が最後まで発声されたと判定した場合に、ゲームキャラクタ19に実行させた遊戯のアクションの内容と検出したプレイヤのアクションの内容とに基づいて勝敗を決定し、当該勝敗の結果に対応した第3のアクションをゲームキャラクタ19に実行させてもよい。
この場合、プレイヤとゲームキャラクタ19との間で、勝敗を競う遊戯をリアルタイム且つインタラクティブに実行することができる。
また本実施形態において、第2アクション実行処理部31は、第2のアクションとして、プレイヤに対して怒るアクションをゲームキャラクタ19に実行させてもよい。
この場合、例えばプレイヤが言葉の途中で発声を止めたり、言葉の残りの部分において想定された言葉とは異なる言葉を発声した場合に、ゲームキャラクタ19を怒らせることができる。これにより、プレイヤとゲームキャラクタ19との間で行うコミュニケーションのリアリティを向上できる。
また本実施形態において、第1発声判定処理部25は、「あっち向いてホイ」の言葉の最初の一部がプレイヤにより発声されたか否かを判定し、第1アクション実行処理部27は、「あっち向いてホイ」の最初の一部が発声されたと判定した場合に、「あっち向いてホイ」が最後まで発声される前に、「あっち向いてホイ」の遊戯のアクションをゲームキャラクタ19に開始させ、第2発声判定処理部29は、「あっち向いてホイ」の遊戯のアクションの実行と並行して、プレイヤにより「あっち向いてホイ」の言葉が最後まで発声されたか否かを判定し、第2アクション実行処理部31は、「あっち向いてホイ」の言葉が最後まで発声されなかったと判定した場合に、第2のアクションをゲームキャラクタ19に実行させ、第3アクション実行処理部35は、「あっち向いてホイ」の言葉が最後まで発声されたと判定した場合に、ゲームキャラクタ19に実行させたアクションによる顔の向きと検出したプレイヤのアクションによる指の向きとに基づいて勝敗を決定し、当該勝敗の結果に対応した第3のアクションをゲームキャラクタ19に実行させてもよい。
この場合、プレイヤとゲームキャラクタ19との間で、「あっち向いてホイ」の遊戯をリアルタイム且つインタラクティブに実行することができる。
また本実施形態において、第1発声判定処理部25は、「じゃんけんぽん」の言葉の最初の一部がプレイヤにより発声されたか否かを判定し、第1アクション実行処理部27は、「じゃんけんぽん」の最初の一部が発声されたと判定した場合に、「じゃんけんぽん」が最後まで発声される前に、「じゃんけんぽん」の遊戯のアクションをゲームキャラクタ19に開始させ、第2発声判定処理部29は、「じゃんけんぽん」の遊戯のアクションの実行と並行して、プレイヤにより「じゃんけんぽん」の言葉が最後まで発声されたか否かを判定し、第2アクション実行処理部31は、「じゃんけんぽん」の言葉が最後まで発声されなかったと判定した場合に、第2のアクションをゲームキャラクタ19に実行させ、第3アクション実行処理部35は、「じゃんけんぽん」の言葉が最後まで発声されたと判定した場合に、ゲームキャラクタ19に実行させたアクションによる手の形と検出したプレイヤのアクションによる手の形とに基づいて勝敗を決定し、当該勝敗の結果に対応した第3のアクションをゲームキャラクタ19に実行させてもよい。
この場合、プレイヤとゲームキャラクタとの間で、「じゃんけん」の遊戯をリアルタイム且つインタラクティブに実行することができる。
<7.変形例>
なお、本発明は、上記の実施形態に限られるものではなく、その趣旨及び技術的思想を逸脱しない範囲内で種々の変形が可能である。
例えば、以上では、プレイヤとゲームキャラクタとの間で「あっち向いてホイ」や「じゃんけんぽん」の遊戯を行ってコミュニケーションをとる場合について説明したが、音声とアクションの少なくとも一部が同時並行して行われるコミュニケーションであれば、その種類は限定されるものではない。上記以外にも、例えば、プレイヤとゲームキャラクタの各々が親指を0本、1本、又は2本立てて合計の本数(0本~4本)を言い合てることができるか否かで勝敗を競う「いっせーのせ」等の遊戯を実行してもよい。この場合、例えば「いっせーのせ」の最初の一部である「いっせ」が発声された場合に、「いっせーのせ」が最後まで発声される前に、「いっせーのせ」の遊戯のアクションをゲームキャラクタ19に開始させてもよい。
また以上では、プレイヤとゲームキャラクタとが一対一でコミュニケーションをとる場合について説明したが、例えば「じゃんけんぽん」や「いっせーのせ」等の遊戯を行う場合には、プレイヤ又はゲームキャラクタの少なくとも一方を複数としてもよい。プレイヤが複数となる場合には、各プレイヤのヘッドマウントディスプレイ3の制御部7同士が通信を行い、各プレイヤのハンドアクションの検出結果を共有することで、ゲームキャラクタ及び各プレイヤの勝敗をそれぞれ判定すればよい。ゲームキャラクタが複数となる場合には、各ゲームキャラクタを独立して制御し、各ゲームキャラクタに対して個別に各アクションを実行させればよい。
また以上では、プレイヤがいわゆるMRを実現する表示装置であるヘッドマウントディスプレイ3を装着してゲームプレイを行う場合について説明したが、音声入力機能やハンドアクション検出機能を備えたゲーム機であれば、ゲーム機の種類はヘッドマウントディスプレイに限定されるものではない。例えば図12に示すように、情報処理装置45と、ゲームコントローラ47と、表示装置49と、マイク51と、カメラ53等を有するゲームシステム1Aとしてもよい。ゲームコントローラ47、表示装置49、マイク51、及びカメラ53の各々は、情報処理装置45と有線又は無線により通信可能に接続されている。
情報処理装置45は、例えば据え置き型のゲーム機である。但しこれに限定されるものではなく、例えば入力部や表示部等を一体に備えた携帯型のゲーム機でもよい。また、ゲーム機以外にも、例えば、サーバコンピュータ、デスクトップ型コンピュータ、ノート型コンピュータ、タブレット型コンピュータ等のように、コンピュータとして製造、販売等されているものや、スマートフォン、携帯電話、ファブレット等のように、電話機として製造、販売等されているものでもよい。
プレイヤは、ゲームコントローラ47を用いて各種の操作入力を行う。マイク51は、プレイヤが発した音声を入力する。カメラ53は、プレイヤの頭部の向き、手の形、手の動作等を検出する。なお、マイク51又はカメラ53は、図12に示すように単体として設けられてもよいし、情報処理装置45、ゲームコントローラ47又は表示装置49のいずれかに一体的に設けられてもよい。
また、例えば図13に示すように、スマートフォン55を有するゲームシステム1B(図示省略)としてもよい。スマートフォン55(情報処理装置の一例)は、各種の表示及びプレイヤによる各種の入力操作が行われるタッチパネル57と、音声入力機能と、ハンドアクションを検出可能なカメラ機能等を備えている。
また以上では、本発明の音声ユーザインターフェースプログラムがゲームプログラムである場合を一例として説明したが、ゲームプログラムに限定されるものではない。例えば、情報処理装置がカーナビ装置、鉄道や飲食店等における自動券売機、自動販売機、金融機関のATM、コピー機やFAX等のOA機器等、音声認識機能を備えた各種の機器である場合に、それらの機器に適用される音声ユーザインターフェースプログラムであってもよい。
また、以上既に述べた以外にも、上記実施形態や各変形例による手法を適宜組み合わせて利用しても良い。その他、一々例示はしないが、上記実施形態や各変形例は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。
<8.制御部のハードウェア構成>
次に、図14を用いて、上記で説明したCPU301等が実行するプログラムにより実装された各処理部を実現する、ヘッドマウントディスプレイ3の制御部7のハードウェア構成の一例について説明する。なお、情報処理装置45やスマートフォン55が同様のハードウェア構成を有してもよい。
図14に示すように、制御部7は、例えば、CPU301と、ROM303と、RAM305と、GPU306と、例えばASIC又はFPGA等の特定の用途向けに構築された専用集積回路307と、入力装置313と、出力装置315と、記録装置317と、ドライブ319と、接続ポート321と、通信装置323を有する。これらの構成は、バス309や入出力インターフェース311等を介し相互に信号を伝達可能に接続されている。
ゲームプログラム(音声ユーザインターフェースプログラムの一例)は、例えば、ROM303やRAM305、ハードディスク等の記録装置317等に記録しておくことができる。
また、ゲームプログラムは、例えば、フレキシブルディスクなどの磁気ディスク、各種のCD、MOディスク、DVD等の光ディスク、半導体メモリ等のリムーバブルな記録媒体325に、一時的又は永続的(非一時的)に記録しておくこともできる。このような記録媒体325は、いわゆるパッケージソフトウエアとして提供することもできる。この場合、これらの記録媒体325に記録されたゲームプログラムは、ドライブ319により読み出されて、入出力インターフェース311やバス309等を介し上記記録装置317に記録されてもよい。
また、ゲームプログラムは、例えば、ダウンロードサイト、他のコンピュータ、他の記録装置等(図示せず)に記録しておくこともできる。この場合、ゲームプログラムは、LANやインターネット等のネットワークNWを介し転送され、通信装置323がこのプログラムを受信する。そして、通信装置323が受信したプログラムは、入出力インターフェース311やバス309等を介し上記記録装置317に記録されてもよい。
また、ゲームプログラムは、例えば、適宜の外部接続機器327に記録しておくこともできる。この場合、ゲームプログラムは、適宜の接続ポート321を介し転送され、入出力インターフェース311やバス309等を介し上記記録装置317に記録されてもよい。
そして、CPU301が、上記記録装置317に記録されたプログラムに従い各種の処理を実行することにより、前述の音声認識処理部23、第1発声判定処理部25、第1アクション実行処理部27、第2発声判定処理部29、第2アクション実行処理部31、アクション検出処理部33、第3アクション実行処理部35等による処理が実現される。この際、CPU301は、例えば、上記記録装置317からプログラムを、直接読み出して実行してもよく、RAM305に一旦ロードした上で実行してもよい。更にCPU301は、例えば、プログラムを通信装置323やドライブ319、接続ポート321を介し受信する場合、受信したプログラムを記録装置317に記録せずに直接実行してもよい。
また、CPU301は、必要に応じて、例えばゲームコントローラや、例えばマイク、マウス、キーボード等(図示せず)の入力装置313から入力する信号や情報に基づいて各種の処理を行ってもよい。
GPU306は、CPU301からの指示に応じて例えばレンダリング処理などの画像表示のための処理を行う。
そして、CPU301及びGPU306は、上記の処理を実行した結果を、例えば前述のヘッドマウントディスプレイ3の表示部5を含む、出力装置315から出力する。さらにCPU301及びGPU306は、必要に応じてこの処理結果を通信装置323や接続ポート321を介し送信してもよく、上記記録装置317や記録媒体325に記録させてもよい。
1 ゲームシステム
1A ゲームシステム
1B ゲームシステム
3 ヘッドマウントディスプレイ
5 表示部
7 制御部(情報処理装置)
25 第1発声判定処理部
27 第1アクション実行処理部(第1処理実行処理部)
29 第2発声判定処理部
31 第2アクション実行処理部(第2処理実行処理部)
33 アクション検出処理部
35 第3アクション実行処理部(第2処理実行処理部)
45 情報処理装置
55 スマートフォン(情報処理装置)
325 記録媒体

Claims (9)

  1. 情報処理装置を、
    予め設定された言葉の最初の一部がプレイヤにより発声されたか否かを判定する第1発声判定処理部、
    前記言葉の最初の一部が発声されたと判定した場合に、前記言葉が最後まで発声される前に、前記言葉に対応する第1の処理を実行する第1処理実行処理部、
    前記第1の処理の実行と並行して、前記プレイヤにより前記言葉が最後まで発声されたか否かを判定する第2発声判定処理部、
    前記言葉が最後まで発声されたか否かの判定結果に基づいて第2の処理を実行する第2処理実行処理部、
    として機能させるための音声ユーザインターフェースプログラム。
  2. 前記第1処理実行処理部は、
    前記言葉の最初の一部が発声されたと判定した場合に、前記言葉が最後まで発声される前に、前記第1の処理として、前記言葉に対応する第1のアクションをゲームキャラクタに開始させ、
    前記第2処理実行処理部は、
    前記言葉が最後まで発声されなかったと判定した場合に、前記第2の処理として、前記第1のアクションとは異なる第2のアクションを前記ゲームキャラクタに実行させる、
    請求項1に記載の音声ユーザインターフェースプログラム。
  3. 前記情報処理装置を、
    前記プレイヤのアクションを検出するアクション検出処理部、
    としてさらに機能させ、
    前記第2処理実行処理部は、
    前記言葉が最後まで発声されたと判定した場合に、前記第2の処理として、前記ゲームキャラクタに実行させた前記第1のアクションの内容と検出した前記プレイヤのアクションの内容とに基づいて第3のアクションを決定し、当該第3のアクションを前記ゲームキャラクタに実行させる、
    請求項2に記載の音声ユーザインターフェースプログラム。
  4. 前記第1発声判定処理部は、
    前記プレイヤと前記ゲームキャラクタとが勝敗を競う遊戯を表す前記言葉の最初の一部がプレイヤにより発声されたか否かを判定し、
    前記第1処理実行処理部は、
    前記言葉の最初の一部が発声されたと判定した場合に、前記言葉が最後まで発声される前に、前記第1の処理として、前記遊戯のアクションをゲームキャラクタに開始させ、
    前記第2発声判定処理部は、
    前記遊戯のアクションの実行と並行して、前記プレイヤにより前記言葉が最後まで発声されたか否かを判定し、
    前記第2処理実行処理部は、
    前記言葉が最後まで発声されたと判定した場合に、前記第2の処理として、前記ゲームキャラクタに実行させた前記遊戯のアクションの内容と検出した前記プレイヤのアクションの内容とに基づいて勝敗を決定し、当該勝敗の結果に対応した前記第3のアクションを前記ゲームキャラクタに実行させる、
    請求項3に記載の音声ユーザインターフェースプログラム。
  5. 前記第2処理実行処理部は、
    前記第2のアクションとして、前記プレイヤに対して怒るアクションを前記ゲームキャラクタに実行させる、
    請求項2乃至4のいずれか1項に記載の音声ユーザインターフェースプログラム。
  6. 前記第1発声判定処理部は、
    「あっち向いてホイ」の言葉の最初の一部がプレイヤにより発声されたか否かを判定し、
    前記第1処理実行処理部は、
    前記「あっち向いてホイ」の最初の一部が発声されたと判定した場合に、前記「あっち向いてホイ」が最後まで発声される前に、前記「あっち向いてホイ」の遊戯のアクションを前記ゲームキャラクタに開始させ、
    前記第2発声判定処理部は、
    前記「あっち向いてホイ」の遊戯のアクションの実行と並行して、前記プレイヤにより前記「あっち向いてホイ」の言葉が最後まで発声されたか否かを判定し、
    前記第2処理実行処理部は、
    前記「あっち向いてホイ」の言葉が最後まで発声されなかったと判定した場合に、前記第2のアクションを前記ゲームキャラクタに実行させ、
    前記「あっち向いてホイ」の言葉が最後まで発声されたと判定した場合に、前記ゲームキャラクタに実行させたアクションによる顔の向きと検出した前記プレイヤのアクションによる指の向きとに基づいて勝敗を決定し、当該勝敗の結果に対応した前記第3のアクションを前記ゲームキャラクタに実行させる、
    請求項4に記載の音声ユーザインターフェースプログラム。
  7. 前記第1発声判定処理部は、
    「じゃんけんぽん」の言葉の最初の一部がプレイヤにより発声されたか否かを判定し、
    前記第1処理実行処理部は、
    前記「じゃんけんぽん」の最初の一部が発声されたと判定した場合に、前記「じゃんけんぽん」が最後まで発声される前に、前記「じゃんけんぽん」の遊戯のアクションを前記ゲームキャラクタに開始させ、
    前記第2発声判定処理部は、
    前記「じゃんけんぽん」の遊戯のアクションの実行と並行して、前記プレイヤにより前記「じゃんけんぽん」の言葉が最後まで発声されたか否かを判定し、
    前記第2処理実行処理部は、
    前記「じゃんけんぽん」の言葉が最後まで発声されなかったと判定した場合に、前記第2のアクションを前記ゲームキャラクタに実行させ、
    前記「じゃんけんぽん」の言葉が最後まで発声されたと判定した場合に、前記ゲームキャラクタに実行させたアクションによる手の形と検出した前記プレイヤのアクションによる手の形とに基づいて勝敗を決定し、当該勝敗の結果に対応した前記第3のアクションを前記ゲームキャラクタに実行させる、
    請求項4に記載の音声ユーザインターフェースプログラム。
  8. 請求項1乃至7のいずれか1項に記載の音声ユーザインターフェースプログラムを記録した、情報処理装置が読み取り可能な記録媒体。
  9. 情報処理装置によって実行されるゲーム処理方法であって、
    予め設定された言葉の最初の一部がプレイヤにより発声されたか否かを判定するステップと、
    前記言葉の最初の一部が発声されたと判定した場合に、前記言葉が最後まで発声される前に、前記言葉に対応する第1の処理を実行するステップと、
    前記第1の処理の実行と並行して、前記プレイヤにより前記言葉が最後まで発声されたか否かを判定するステップと、
    前記言葉が最後まで発声されたか否かの前記判定結果に基づいて第2の処理を実行するステップと、
    を有する、音声ユーザインターフェース処理方法。
JP2021116771A 2021-07-14 2021-07-14 音声ユーザインターフェースプログラム、記録媒体、音声ユーザインターフェース処理方法 Pending JP2023012965A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021116771A JP2023012965A (ja) 2021-07-14 2021-07-14 音声ユーザインターフェースプログラム、記録媒体、音声ユーザインターフェース処理方法
US17/863,395 US20230017974A1 (en) 2021-07-14 2022-07-13 Voice user interface processing method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021116771A JP2023012965A (ja) 2021-07-14 2021-07-14 音声ユーザインターフェースプログラム、記録媒体、音声ユーザインターフェース処理方法

Publications (1)

Publication Number Publication Date
JP2023012965A true JP2023012965A (ja) 2023-01-26

Family

ID=84891520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021116771A Pending JP2023012965A (ja) 2021-07-14 2021-07-14 音声ユーザインターフェースプログラム、記録媒体、音声ユーザインターフェース処理方法

Country Status (2)

Country Link
US (1) US20230017974A1 (ja)
JP (1) JP2023012965A (ja)

Also Published As

Publication number Publication date
US20230017974A1 (en) 2023-01-19

Similar Documents

Publication Publication Date Title
US7877262B2 (en) Displaying a menu of commands in a video game environment
KR100995735B1 (ko) 음성처리장치, 음성처리방법 및 프로그램을 기억하는 컴퓨터 판독 가능한 정보기록매체
KR100985694B1 (ko) 컴퓨터 상호 작용 프로세싱과 관련된 선택적 음원 청취
US20060040718A1 (en) Audio-visual games and game computer programs embodying interactive speech recognition and methods related thereto
JP2002190034A (ja) 情報処理装置および方法、並びに記録媒体
JP2010530286A (ja) ビデオ・ゲームにおける応答カットシーン
US11554315B2 (en) Communication with augmented reality virtual agents
JP7137294B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
US20030036431A1 (en) Entertainment system, recording medium
JP2001351125A (ja) 画像表示方法
JPH11137842A (ja) 画像処理装置
KR20240038941A (ko) 텍스트 기반 아바타 생성 방법 및 시스템
JP2023012965A (ja) 音声ユーザインターフェースプログラム、記録媒体、音声ユーザインターフェース処理方法
JP7330518B2 (ja) ゲームシステム、ゲームシステムの制御方法及びゲームプログラム
JP2022081279A (ja) ゲームプログラム、記録媒体、ゲーム処理方法、情報処理装置
JP2000000377A (ja) 音声入力式ヒューマンインタフェースに特徴を有するビデオゲーム機およびプログラム記録媒体
JPH06315572A (ja) 音声ゲーム機
TWI729323B (zh) 互動式遊戲系統
JP2022531056A (ja) インタラクティブ対象の駆動方法、装置、デバイス、及び記録媒体
JP2002085834A (ja) ゲーム装置
JP7428775B1 (ja) プログラム、コンピュータ装置及び方法
EP1125611A2 (en) Method and apparatus for communicating with a game character
Hariprasad et al. Voice Stimulated Inclusive Multiplayer Game Development with Speaker Recognition
JP3740149B2 (ja) ゲーム装置及びプログラム
JP2010263951A (ja) プログラム、情報記憶媒体及び電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240419