WO2011145431A1 - ゲーム装置及びコンピュータプログラム - Google Patents

ゲーム装置及びコンピュータプログラム Download PDF

Info

Publication number
WO2011145431A1
WO2011145431A1 PCT/JP2011/059940 JP2011059940W WO2011145431A1 WO 2011145431 A1 WO2011145431 A1 WO 2011145431A1 JP 2011059940 W JP2011059940 W JP 2011059940W WO 2011145431 A1 WO2011145431 A1 WO 2011145431A1
Authority
WO
WIPO (PCT)
Prior art keywords
scales
character
combination
data
scale
Prior art date
Application number
PCT/JP2011/059940
Other languages
English (en)
French (fr)
Inventor
翼 内海
真一 島貫
Original Assignee
株式会社バンダイ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社バンダイ filed Critical 株式会社バンダイ
Publication of WO2011145431A1 publication Critical patent/WO2011145431A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Definitions

  • the present invention relates to a game device, and more particularly to a technique related to a portable game device.
  • This game apparatus collects sound and makes it possible to acquire a character corresponding to the collected sound. Specifically, feature information included in a plurality of sounds and sounds is associated with individual identification information of a plurality of characters in advance, and the character is identified by collating with the collected sound feature information. The identified character is displayed on the display unit.
  • an object of the present invention is to make it possible to identify a character by distinguishing the type of sound collected by the game device.
  • the present invention for solving the above problems is a game device for executing a game, comprising: a display means for displaying a game screen; a collection means for collecting sound to generate sound data; and analyzing the sound data Analysis means; storage means for storing a character table for registering characters displayed on the game screen; and selection means for selecting a character to be displayed on the game screen from the character table based on an analysis result of the analysis means.
  • the analysis means analyzes whether or not a combination of signals of a plurality of predetermined scales is included in the sound data, specifies a combination of scales included in the sound data, and
  • the character table registers the character in association with any one of the predetermined plurality of scale combinations,
  • the selection means selects a character to be displayed on the game screen based on a combination of scales associated with characters registered in the character table and the combination of scales specified by the analysis means, When the analysis means cannot identify the combination of the scales, it selects one of the characters registered in the character table.
  • An object of the present invention is to make it possible to identify a character by distinguishing the type of sound collected by a game device.
  • FIG. 1 It is a figure which shows an example of the external appearance of the portable game device which concerns on embodiment of invention. It is a block diagram which shows an example of the hardware constitutions of the portable game device 100 which concerns on embodiment of invention. It is a flowchart which shows an example of the game process corresponding to embodiment of invention. It is a figure for demonstrating the analysis method of the recording data corresponding to embodiment of invention. It is a figure which shows an example of a structure of the character table corresponding to embodiment of invention. It is a figure which shows the structural example of the audio
  • FIG. 1 is a diagram illustrating an example of the appearance of a portable game device according to the present embodiment.
  • the portable game apparatus 100 includes a microphone 101, a display unit 102, an infrared light emitting / receiving unit 103, a jog dial 104, and buttons 105 and 106. *
  • the portable game device is described as having the appearance configuration shown in FIG. 1, but the arrangement and shape of the display unit 102 and the button groups 104 to 106 are limited to those shown in FIG. Without limitation, various modifications can be considered. And it will become clear by the following description that the following description is applicable also to each modification. *
  • FIG. 1 and the following drawings parts used in the following description are mainly shown. For example, parts not directly related to the gist of the present embodiment such as a power switch are omitted. *
  • FIG. 2 is a block diagram illustrating an example of a hardware configuration of the portable game apparatus 100 according to the present embodiment. *
  • the CPU 201 controls the entire portable game device 100 using programs and data stored in the ROM 203, data temporarily stored in the RAM 202, and the like, and executes game processing described later. *
  • the RAM 202 can appropriately provide an area for temporarily storing data being processed.
  • the ROM 203 stores a program and data for causing the CPU 201 to control the entire portable game apparatus 100 and to execute a game process to be described later.
  • This data includes a character table 500 described later. Then, the data of the table is appropriately loaded into the RAM 202 and used in processing.
  • the display unit 204 has a configuration corresponding to the display unit 102 in FIG. 1 and displays characters and the like.
  • the operation unit 205 has a configuration corresponding to the button groups 104 to 106 and accepts an operation from the user.
  • the microphone 206 is a sound collecting means for collecting sound output from a specific device capable of outputting sound, such as a television, or collecting ambient sounds around the portable game device 100 during the progress of the game. It is.
  • the microphone 206 includes an amplifier that amplifies the collected audio signal and a filter for removing noise.
  • the infrared light receiving / emitting unit 207 has a configuration corresponding to the infrared light receiving / emitting unit 103 and is used to perform infrared communication with another portable game device 100 or the like. *
  • FIG. 3 is a flowchart illustrating an example of the game process corresponding to the present embodiment.
  • a program and data for causing the CPU 201 to execute processing according to the flowchart shown in FIG. 3 are stored in the ROM 203, and the CPU 201 executes processing using the program and data, whereby the mobile phone according to the present embodiment is executed.
  • the game device 100 executes each process described below. *
  • step S301 it is determined whether or not to start the game. If the game is started (“YES” in step S301), the process proceeds to step S302. *
  • step S302 it is determined whether or not the portable game device 100 is instructed to start collecting sounds around the device.
  • An instruction to start collection can be received based on an operation of a switch at the center of the jog dial of the game main body 100, for example.
  • the microphone portion may be configured to be slidable, and a slide switch may be provided so that it is considered that a collection start instruction has been made when the slide switch is operated.
  • the microphone 206 can be realized by hardware, while the blocks 401 to 407 can be realized by software by the CPU 201 executing a program stored in the ROM 203. Note that a dedicated logic circuit may be used instead of the CPU 201. *
  • an analog audio signal acquired by the microphone 206 is amplified by an amplifier in the microphone 206, noise is removed by a filter, and then input to the A / D conversion unit 401.
  • the A / D converter 401 converts the input analog audio signal into 12-bit (or 10-bit) digital audio data having a sampling frequency of 44 kHz.
  • the digital audio data is subsampled by the subsampling unit 402 to reduce the number of bits, and is input to the digital filter 403.
  • the digital filter 403 is a filter for extracting a signal having a predetermined frequency, and uses eight frequencies in the present embodiment.
  • the frequencies correspond to the scales C6, C # 6, D6, D # 6, E6, F6, F # 6, and G6, which are 10,046.5 Hz, 1,108.7 Hz, and 1,174. 0.7 Hz, 1,244.5 Hz, 1,318.5 Hz, 1,396.9 Hz, 1,480,0 Hz, 1,568.0 Hz. *
  • the comparison pattern is a pattern representing the result of digital filter processing when a predetermined input is obtained, and a comparison pattern is prepared for each of the eight scales described above.
  • the comparison pattern can be tabulated and stored in the ROM 203. If any one of the eight output signals matches any one of the eight scale comparison patterns, it is determined that the signal is an audio signal of the corresponding scale. In the case of an audio signal of any scale, a value indicating the corresponding scale is output to the START / END synchronization detection unit 405.
  • the START / END synchronization detection unit 405 holds the value from the level determination quantization unit, and determines whether or not a value indicating any scale has been continuously input. Further, it is determined whether or not a value indicating a silent section is output before and after a value indicating a continuously input scale. In the present embodiment, a pattern in which three values indicating a musical scale exist in a section sandwiched between silent sections is detected as a data set. The detected data set is output to the code data output unit 406. *
  • the chord data output unit 406 generates chord data from the combination of values indicating the scale included in the data set acquired from the START / END synchronization detection unit 405, and outputs the chord data to the character selection unit 407.
  • the chord data is data indicating a combination of musical scales and can be expressed as, for example, a 9-bit signal. More specifically, each of the 8 scales C6, C # 6, D6, D # 6, E6, F6, F # 6, and G6 is a number that can be expressed by 3 bits from 0 to 7. Assign one. Assuming that 0 to 7 in order, (C6, C # 6, D6) can be expressed as code data of (0, 1, 2). When this code data is generated, it can be considered that the analysis of the voice data is completed.
  • the chord data may be generated only when a combination of three scales is detected a predetermined number of times (for example, three times) continuously. *
  • the code data output unit 406 When an environmental sound value is input instead of a data set, the code data output unit 406 outputs a value assigned in advance to the environmental sound value as code data to the character selection unit 407. *
  • FIG. 5 is a diagram illustrating a configuration example of a table for selecting a character using code data.
  • a character name 501 a character name 501, scale 1 (502), scale 2 (503), scale 3 (504), and main body data 505 are registered.
  • scale 1 to scale 3 values indicating any one of the above-described eight scales C6, C # 6, D6, D # 6, E6, F6, F # 6, and G6 are registered.
  • the value preferably corresponds to a value indicating each scale in the chord data.
  • the character name 501 the names of the characters associated with the combinations of the three scales are registered.
  • main body data 505 character data including data for displaying the character on the display unit 102 is registered. . For example, when the code data indicates (0, 2, 4), the character having the character name ABC is selected.
  • scales 1 to 3 are registered, but values corresponding to scales 1 to 3 may be registered as character identification numbers. In that case, the character can be immediately identified by the code data.
  • chord data represents an environmental sound value
  • any one of the characters registered in the table can be selected at random with a certain probability.
  • the voice output from a specific device such as a television with a specific pattern as shown in FIG. 6 is collected, and the character corresponding to the scale included in the voice can be acquired. It becomes possible. On the other hand, even when environmental sounds around the device 100 are collected, it is possible to acquire characters randomly with a certain probability.
  • FIG. 6 is a diagram illustrating an example of a data structure of audio reproduced by a specific device such as a television.
  • the audio data 600 shown in FIG. 6 is data for one time, and is repeated three times during reproduction on the television.
  • the sound data has a silent period (601, 602) at the beginning and end of 0.5 seconds, which makes it possible to identify the above-described data set. It is not always necessary to provide silence periods (601, 602) at the beginning and end of audio data.
  • the last silence interval (602) has a predetermined number of scales. It is also possible to identify a data set when it exists in the audio data sandwiched between detection periods of the above signal and detection periods of a predetermined number of scale signals.
  • the voice recognition sections 602 to 604 each include scale data for 0.5 seconds.
  • the voice data section 605 may include arbitrary voice data, but the scale of the start sound is preferably different from the scale in the scale recognition section 602. This is to prevent erroneous determination of the data set.
  • the voice data section can be set to 0.8 seconds, for example. In FIG. 6, the time of each section is described as an example, and may be longer or shorter than this. Due to the presence of the voice data section (for example, by inserting a birth sound of a character in the voice data section), the user can recognize what kind of voice the voice is. *
  • the comparison pattern corresponding to the type of scale used in the scale recognition section is prepared using the voice data 600 as shown in FIG. 6, it is based on the voice data reproduced by a specific device such as a television.
  • the user can be made to acquire a specific character.
  • environmental sounds that do not match the pattern of FIG. 6 are collected, the user can acquire a character based on a certain probability.
  • the above processing (for example, processing according to the flowchart shown in FIG. 3 in the above embodiment) is stored as a computer program in a storage medium such as a CD-R, ROM, DVD-ROM, or MO.
  • a storage medium such as a CD-R, ROM, DVD-ROM, or MO.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】ゲーム装置において採取する音の種別を区別して、キャラクタを識別可能とする。【解決手段】ゲームを実行するゲーム装置であって、ゲーム画面を表示する表示手段と、音声を採取して音声データを生成する採取手段と、前記音声データを解析する解析手段と、前記ゲーム画面に表示されるキャラクタを登録するキャラクタテーブルを記憶する記憶手段と、前記解析手段の解析結果に基づいて、前記ゲーム画面に表示するキャラクタを前記キャラクタテーブルから選択する選択手段とを備える。

Description

ゲーム装置及びコンピュータプログラム
本発明は、ゲーム装置、特に携帯型ゲーム装置に係る技術に関する。
携帯可能なゲーム装置には様々なものがある。そのうちの1つに、特許文献1に開示されているゲーム装置がある。 
このゲーム装置は音声を採取して、採取した音声に応じたキャラクタを取得することを可能とする。具体的には、複数の音や音声に含まれる特徴情報を複数のキャラクタの個々の識別情報と予め対応付けておき、採取した音の特徴情報と照合してキャラクタを識別する。識別されたキャラクタは、表示部に表示される。
特開2007-175290号公報
しかし、上述のゲーム装置では、採取する音の種別、例えばテレビで放送された予め定められたパターンの音と、それ以外の環境音とを区別して、キャラクタを識別することはできない。 
そこで、本発明は、ゲーム装置において採取する音の種別を区別して、キャラクタを識別可能とすることを目的とする。
上記課題を解決するための本発明は、ゲームを実行するゲーム装置であって、 ゲーム画面を表示する表示手段と、 音声を採取して音声データを生成する採取手段と、 前記音声データを解析する解析手段と、 前記ゲーム画面に表示されるキャラクタを登録するキャラクタテーブルを記憶する記憶手段と、 前記解析手段の解析結果に基づいて、前記ゲーム画面に表示するキャラクタを前記キャラクタテーブルから選択する選択手段とを備え、 前記解析手段は、前記音声データについて予め定められた複数の音階の信号の組合せが含まれているか否かを解析して、該音声データに含まれる音階の組合せを特定し、 前記キャラクタテーブルは、前記キャラクタを前記予め定められた複数の音階の組合せのいずれかと関連づけて登録し、 前記選択手段は、  前記キャラクタテーブルに登録されているキャラクタが関連づけられている音階の組合せと、前記解析手段が特定した前記音階の組合せとに基づいて、前記ゲーム画面に表示するキャラクタを選択し、  前記解析手段が前記音階の組合せを特定できなかった場合に、前記キャラクタテーブルに登録されているキャラクタのうちのいずれかを選択することを特徴とする。
本発明によれば、ゲーム装置において採取する音の種別を区別して、キャラクタを識別可能とすることを目的とする。
発明の実施形態に係る携帯型ゲーム装置の外観の一例を示す図である。 発明の実施形態に係る携帯型ゲーム装置100のハードウェア構成の一例を示すブロック図である。 発明の実施形態に対応するゲーム処理の一例を示すフローチャートである。 発明の実施形態に対応する録音データの解析手法を説明するための図である。 発明の実施形態に対応するキャラクタテーブルの構成の一例を示す図である。 発明の実施形態に対応する再生用音声データの構成例を示す図である。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。 
[第1の実施形態] 図1は、本実施形態に係る携帯型ゲーム装置の外観の一例を示す図である。同図に示すように、携帯型ゲーム装置100は、マイク101、表示部102、赤外線受発光部103、ジョグダイアル104、ボタン105、106を有する。 
なお、本実施形態では、携帯型ゲーム装置は図1の外観構成を有するものであるとして説明するが、表示部102、ボタン群104~106の配置やその形状などは同図のものに限定することなく、様々な変形例が考えられる。そして、それぞれの変形例についても以下の説明が適用可能であることは、以下の説明により明らかとなるであろう。 
また、図1、及び以下の図面には、以下の説明で用いる部分を中心に示しており、例えば電源スイッチなど、本実施形態の趣旨に直接関連しない部分については、図示を省略している。 
図2は、本実施形態に係る携帯型ゲーム装置100のハードウェア構成の一例を示すブロック図である。 
CPU201は、ROM203に格納されているプログラムやデータ、RAM202に一時的に保持されているデータ等を用いて携帯型ゲーム装置100全体の制御を行うと共に、後述するゲーム処理を実行する。 
RAM202は、処理中のデータを一時的に記憶する為のエリアを適宜提供することができる。ROM203は、CPU201に本携帯型ゲーム装置100全体の制御を行わせたり、後述するゲーム処理を実行させたりする為のプログラムやデータが格納されている。このデータには、後述するキャラクタテーブル500が含まれる。そして、該テーブルのデータは、適宜RAM202にロードされ、処理で用いられる。 
表示部204は、図1の表示部102に対応する構成であって、キャラクタの表示などを行う。操作部205は、ボタン群104から106に対応する構成であって、ユーザーからの操作を受けつける。マイク206は、ゲーム進行時において、テレビ等の音声出力が可能な特定の装置から出力される音声を採取したり、携帯型ゲーム装置100の周囲の環境音を採取したりするための音声採取手段である。マイク206には、採取した音声信号を増幅するアンプ及び、雑音を除去するためのフィルタが含まれる。赤外線受発光部207は、赤外線受発光部103に対応する構成であって、他の携帯型ゲーム装置100等と赤外線通信を行うために用いられる。 
次に、本実施形態に対応する携帯型ゲーム装置100を用いて実施されるゲーム処理について説明する。図3は、本実施形態に対応するゲーム処理の一例を示すフローチャートである。図3に示したフローチャートに従った処理をCPU201に実行させるためのプログラムやデータはROM203に格納されており、CPU201がこのプログラムやデータを用いて処理を実行することで、本実施形態に係る携帯型ゲーム装置100は以下説明する各処理を実行する。 
まず、ステップS301では、ゲームを開始するか否かを判定する。もし、ゲームが開始された場合には(ステップS301において「YES」)、ステップS302に移行する。 
ゲームが開始されると、ステップS302では、携帯型ゲーム装置100で、装置周辺の音声の採取開始が指示されたか否かを判定する。採取開始の指示は、例えばゲーム本体100のジョグダイアルの中央のスイッチを操作に基づいて受け付けることができる。或いは、マイク部分をスライド可能に構成し、スライドスイッチを設けることで、スライドスイッチが操作された場合に採取開始指示がなされたとみなしてもよい。 
採取開始指示を受け付けると(S302で「YES」)、S303でマイク206を用いて音声採取を開始する。採取が開始されるとS304にて、採取した音声データの解析を併せて開始する。S305では、解析が終了したか否かを判定する。もし解析が終了した場合には(S305で「YES」)、S306に移行して解析結果に基づきキャラクタ選択を行う。続くS307では、選択されたキャラクタを表示部102に表示する。 
次に、図4を参照して、S304における音声データの解析手法及びS307におけるキャラクタ選択手法について説明する。図4において、マイク206は、ハードウェア的に実現可能である一方、ブロック401から407は、CPU201がROM203に記憶されたプログラムを実行することにより、ソフトウェア的に実現することが可能である。なお、CPU201でなくとも、専用のロジック回路を用いてもよい。 
まず、マイク206で取得されたアナログの音声信号は、マイク206内のアンプで増幅され、フィルタによりノイズが除去されたのち、A/D変換部401に入力される。A/D変換部401は、入力されたアナログ音声信号をサンプリング周波数44kHzの12ビット(或いは10ビット)のデジタル音声データに変換する。続いて、デジタル音声データは、サブサンプリング部402において、サブサンプリングされてビット数が削減され、デジタルフィルタ403に入力される。デジタルフィルタ403は、所定の周波数の信号を抽出するためのフィルタであって、本実施形態では、8つの周波数を利用する。具体的には、音階C6、C#6、D6、D#6、E6、F6、F#6、G6に対応する周波数であって、1,046.5Hz、1,108.7Hz、1,174.7Hz、1,244.5Hz、1,318.5Hz、1,396.9Hz、1,480,0Hz、1,568.0Hzである。 
デジタルフィルタからの8通りのフィルタ処理結果は、レベル判定量子化部404に入力され、所定の比較用パターンと照合される。当該比較用パターンは、予め決定された入力が得られたときのデジタルフィルタ処理の結果を表すパターンであって、上述の8つの音階のそれぞれについて、比較用のパターンが用意される。当該比較用のパターンは、テーブル化されてROM203に格納しておくことができる。もし、8つの出力信号のうち、いずれか1つが、8つの音階用の比較用パターンのいずれか1つと一致する場合には、当該信号は、対応する音階の音声信号であると判定される。いずれかの音階の音声信号である場合には、対応する音階を示す値がSTART/END同期検出部405に対して出力される。一方、いずれのパターンとも一致しない場合には、エラー判定が行われ、エラー値がSTART/END同期検出部405に対して出力される。また、無音区間については、フィルタからの出力結果が一定のレベルを有していないため、無音区間を表す値を出力する。 
START/END同期検出部405では、レベル判定量子化部からの値を保持しておき、いずれかの音階を示す値が連続して入力されたか否かを判定する。また、連続して入力された音階を示す値の前後に、無音区間を表す値が出力されたか否かを判定する。本実施形態では、無音区間で挟まれた区間内に、音階を示す値が3つ存在するパターンを、データセットとして検出する。検出されたデータセットはコードデータ出力部406に出力される。 
なお、上記のデータセットとしては検出できなかった場合であっても、何らかの音階を示す値が検出された場合には、当該音階が検出されたことを示す値(環境音値)をコードデータ出力部406に出力する。 
コードデータ出力部406は、START/END同期検出部405から取得したデータセットに含まれる音階を示す値の組合せから、コードデータを生成してキャラクタ選択部407に出力する。コードデータは、音階の組合せを示すデータであり、例えば、9ビットの信号として表現することができる。より具体的には、上述の音階C6、C#6、D6、D#6、E6、F6、F#6、G6の8音階のそれぞれに、0~7までの3ビットで表現可能な数字のいずれかを割り当てる。順に0から7とすると、(C6、C#6、D6)は、(0、1、2)のコードデータとして表すことができる。このコードデータが生成されると、音声データの解析が終了したと見なすことができる。なお、コードデータは、3つの音階の組合せが所定回数(例えば3回)連続して検出された場合にのみ生成することにしてもよい。 
また、データセットではなく環境音値が入力された場合には、コードデータ出力部406は、当該環境音値について予め割り当てられた値をコードデータとして、キャラクタ選択部407に出力する。 
ここで更に図5を参照する。図5は、コードデータを用いてキャラクタを選択するためのテーブルの構成例を示す図である。テーブル500には
、キャラクタ名501、音階1(502)、音階2(503)、音階3(504)及び本体データ505が登録されている。音階1乃至音階3には、上述の音階C6、C#6、D6、D#6、E6、F6、F#6、G6の8音階のいずれかを示す値がそれぞれ登録されている。当該値は、好ましくはコードデータで各音階を示す値と対応していることが望ましい。キャラクタ名501には、3つの音階の組合せにそれぞれ対応づけられたキャラクタの名称が登録され、本体データ505には、当該キャラクタを表示部102に表示するためのデータを含むキャラクタデータが登録される。例えば、コードデータが(0,2,4)を示す場合には、キャラクタ名ABCのキャラクタが選択されることとなる。 
なお、図5では、音階1乃至音階3をそれぞれ登録したが、キャラクタの識別番号として音階1乃至3に対応する値を登録してもよい。その場合には、コードデータにより、直ちにキャラクタを特定することが可能となる。 
なお、コードデータが環境音値を表している場合には、テーブルに登録されているキャラクタの中から、一定確率でランダムにいずれかのキャラクタを選択することができる。 
以上の実施形態によれば、図6に示すようなある特定のパターンでテレビ等の特定の装置から出力された音声を採取して、当該音声に含まれる音階に対応するキャラクタを取得することが可能となる。その一方で、装置100の周囲の環境音を採取した場合であっても、一定確率でランダムにキャラクタを取得することが可能となる。 
図6は、テレビ等の特定の装置で再生される音声のデータ構造の一例を示す図である。図6に示す音声データ600は、1回分のデータであってテレビでの再生時には3回繰り返される。音声データは先頭と最後に無音期間(601、602)が0.5秒設けられており、これにより上述のデータセットの識別が可能となる。なお、音声データは必ずしも先頭と最後に無音期間(601、602)を設ける必要はなく、先頭には無音期間(601)を設けない場合には、最後の無音区間(602)が所定数の音階の信号の検出区間と所定数の音階の信号の検出区間とに挟まれて音声データ内に存在する場合にデータセットを識別することも可能である。音声認識区間602から604には、それぞれ0.5秒間の音階データが含まれる。音声データ区間605には、任意の音声データが含まれてもよいが、開始音の音階は、音階認識区間602における音階とは異なっていることが望ましい。これは、データセットの誤判定を防止するためである。音声データ区間は例えば、0.8秒間とすることができる。なお、図6において、各区間の時間はあくまで一例として記載したものであって、これよりも長くても短くてもよい。この音声データ区間の存在により(この音声データ区間に例えばキャラクタの誕生音等を挿入することにより)、ユーザーに対して、その音声が何の音声であるのか認識させることが可能となる。 
図6のような音声データ600を用いて、かつ、音階認識区間に用いる音階の種類に対応する比較用パターンを用意しておけば、テレビ等の特定の装置で再生された音声データに基づいて、ユーザーに特定のキャラクタを取得させることが可能となる。その一方で、図6のパターンに合致しない環境音が採取された場合は、一定の確率に基づいてユーザーがキャラクタを取得することができる。 
[その他の実施形態] 以上の処理(例えば上記実施形態では図3に示したフローチャートに従った処理)をコンピュータプログラムとしてCD-R、ROMやDVD-ROM、MO等の記憶媒体に記憶させ、この記憶媒体に記憶されているプログラムをコンピュータに読み込ませる(インストール、もしくはコピーさせる)ことで、このコンピュータは、本発明に対応するゲーム装置として機能することができる。よって、このようなコンピュータプログラム及びそれを記憶する記憶媒体も本発明の範疇にあることは明白である。

Claims (7)

  1. ゲームを実行するゲーム装置であって、 ゲーム画面を表示する表示手段と、 音声を採取して音声データを生成する採取手段と、 前記音声データを解析する解析手段と、 前記ゲーム画面に表示されるキャラクタを登録するキャラクタテーブルを記憶する記憶手段と、 前記解析手段の解析結果に基づいて、前記ゲーム画面に表示するキャラクタを前記キャラクタテーブルから選択する選択手段とを備え、 前記解析手段は、前記音声データについて予め定められた複数の音階の信号の組合せが含まれているか否かを解析して、該音声データに含まれる音階の組合せを特定し、 前記キャラクタテーブルは、前記キャラクタを前記予め定められた複数の音階の組合せのいずれかと関連づけて登録し、 前記選択手段は、  前記キャラクタテーブルに登録されているキャラクタが関連づけられている音階の組合せと、前記解析手段が特定した前記音階の組合せとに基づいて、前記ゲーム画面に表示するキャラクタを選択し、  前記解析手段が前記音階の組合せを特定できなかった場合に、前記キャラクタテーブルに登録されているキャラクタのうちのいずれかを選択することを特徴とするゲーム装置。
  2. 前記解析手段は、前記音声データに含まれる無音区間を抽出し、所定数の音階の信号が前記無音区間に挟まれて前記音声データ内に存在する場合に、当該所定数の音階を、前記音階の組合せとして特定することを特徴とする請求項1に記載のゲーム装置。
  3. 前記解析手段は、前記音声データに含まれる無音区間を抽出し、前記無音区間が所定数の音階の信号の検出区間と所定数の音階の信号の検出区間とに挟まれて前記音声データ内に存在する場合に、当該所定数の音階を、前記音階の組合せとして特定することを特徴とする請求項1に記載のゲーム装置。
  4. 前記解析手段は、前記無音区間に挟まれて存在する前記所定数の音階の組合せであって、同一の組合せを連続して複数回検出した場合に、当該所定数の音階を、前記音階の組合せとして特定することを特徴とする請求項2または3に記載のゲーム装置。
  5. 前記解析手段は、所定数の音階の信号が前記無音区間に挟まれて存在しない場合に、前記音階の組合せを特定できないと判定することを特徴とする請求項2または4に記載のゲーム装置。
  6. 前記解析手段は、前記複数の音階の信号に対応する周波数に基づくフィルタリング結果に応じて、前記音階の組合せを特定することを特徴とする請求項1乃至5のいずれか1項に記載のゲーム装置。
  7. 情報処理装置を、請求項1乃至6のいずれか1項に記載のゲーム装置として機能させるためのコンピュータプログラム。
PCT/JP2011/059940 2010-05-19 2011-04-22 ゲーム装置及びコンピュータプログラム WO2011145431A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010115808 2010-05-19
JP2010-115808 2010-05-19

Publications (1)

Publication Number Publication Date
WO2011145431A1 true WO2011145431A1 (ja) 2011-11-24

Family

ID=44975482

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/059940 WO2011145431A1 (ja) 2010-05-19 2011-04-22 ゲーム装置及びコンピュータプログラム

Country Status (4)

Country Link
KR (1) KR20110127597A (ja)
CN (1) CN102247695A (ja)
TW (1) TW201204443A (ja)
WO (1) WO2011145431A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015059741A1 (ja) * 2013-10-21 2017-03-09 株式会社日立製作所 遺伝子解析システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102479705B1 (ko) * 2017-09-14 2022-12-21 주식회사 넥슨코리아 사용자 인터랙션 방법 및 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61140497A (ja) * 1984-12-10 1986-06-27 日産自動車株式会社 フオ−クリフトのサイドシフト操作ハンドル格納構造
JPH08185196A (ja) * 1994-12-28 1996-07-16 Sony Corp 音声区間検出装置
JP2000184490A (ja) * 1998-12-17 2000-06-30 Olympus Optical Co Ltd マイクロフォン装置及び音声記録装置
JP2003019364A (ja) * 2001-07-06 2003-01-21 Takara Co Ltd テレビ連動動作玩具
JP2006102270A (ja) * 2004-10-06 2006-04-20 Sony Computer Entertainment Inc 情報処理方法および情報処理端末
JP2008054851A (ja) * 2006-08-30 2008-03-13 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003291320A1 (en) * 2002-11-05 2004-06-07 Disney Enterprises, Inc. Video actuated interactive environment
ZA200504242B (en) * 2004-05-27 2006-02-22 Aruze Corp Gaming machine.
US8226011B2 (en) * 2005-04-06 2012-07-24 Eidgenoessische Technische Hochshcule Zuerich Method of executing an application in a mobile device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61140497A (ja) * 1984-12-10 1986-06-27 日産自動車株式会社 フオ−クリフトのサイドシフト操作ハンドル格納構造
JPH08185196A (ja) * 1994-12-28 1996-07-16 Sony Corp 音声区間検出装置
JP2000184490A (ja) * 1998-12-17 2000-06-30 Olympus Optical Co Ltd マイクロフォン装置及び音声記録装置
JP2003019364A (ja) * 2001-07-06 2003-01-21 Takara Co Ltd テレビ連動動作玩具
JP2006102270A (ja) * 2004-10-06 2006-04-20 Sony Computer Entertainment Inc 情報処理方法および情報処理端末
JP2008054851A (ja) * 2006-08-30 2008-03-13 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015059741A1 (ja) * 2013-10-21 2017-03-09 株式会社日立製作所 遺伝子解析システム

Also Published As

Publication number Publication date
KR20110127597A (ko) 2011-11-25
CN102247695A (zh) 2011-11-23
TW201204443A (en) 2012-02-01

Similar Documents

Publication Publication Date Title
JP2006208482A (ja) 会議の活性化を支援する装置,方法,プログラム及び記録媒体
JP2003163745A5 (ja)
WO2014141413A1 (ja) 情報処理装置、出力方法およびプログラム
WO2011145431A1 (ja) ゲーム装置及びコンピュータプログラム
JP7157377B2 (ja) 演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、電子楽器
JP6514874B2 (ja) リファレンスの音高差と歌唱音声の音高差を比較して採点を行うカラオケ採点装置
JP2016224462A (ja) 楽譜表示装置、楽譜表示方法、および当該楽譜表示方法を実現するためのプログラム
JP3166581U (ja) ゲーム装置
JP6708537B2 (ja) カラオケシステム
JP2014077965A (ja) 楽譜表示装置、楽譜表示方法、および当該楽譜表示方法を実現するためのプログラム
KR20120096880A (ko) 사용자가 자신의 음성에 기초하여 디지털 악기를 연주할 수 있도록 하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
CN212395828U (zh) 游戏音频提取识别装置
KR20130058384A (ko) 휴대용 드럼연주시스템
KR20010112729A (ko) 악보출력기능을 갖는 노래반주 시스템 및 악보출력기능구현방법
KR101162437B1 (ko) 음악 게임 방법 및 이를 위한 음악 게임 장치
JP6954780B2 (ja) カラオケ装置
JP6720797B2 (ja) 演奏教習装置、演奏教習プログラム、および演奏教習方法
JP2002041065A (ja) 音楽療法における診断支援方法および診断支援装置
CN110838211A (zh) 语音抢答方法、装置和系统
JP7312639B2 (ja) カラオケ用入力装置
KR20010091798A (ko) 기악 연주 교육장치 및 방법
CN111046220B (zh) 一种听写过程中的报读语音的重播方法及电子设备
JP6508567B2 (ja) カラオケ装置、カラオケ装置用プログラム、およびカラオケシステム
US9514724B2 (en) Sampling device, electronic instrument, method, and program
JP2024042346A (ja) 携帯端末

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11783368

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11783368

Country of ref document: EP

Kind code of ref document: A1