JP2008054851A - Program, information storage medium, and game device - Google Patents

Program, information storage medium, and game device Download PDF

Info

Publication number
JP2008054851A
JP2008054851A JP2006234164A JP2006234164A JP2008054851A JP 2008054851 A JP2008054851 A JP 2008054851A JP 2006234164 A JP2006234164 A JP 2006234164A JP 2006234164 A JP2006234164 A JP 2006234164A JP 2008054851 A JP2008054851 A JP 2008054851A
Authority
JP
Japan
Prior art keywords
character
scale
input
data
birth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006234164A
Other languages
Japanese (ja)
Other versions
JP4108719B2 (en
Inventor
Yoshikazu Hado
嘉一 羽藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2006234164A priority Critical patent/JP4108719B2/en
Priority to US11/892,789 priority patent/US20080058101A1/en
Priority to GB0716859A priority patent/GB2446677B/en
Publication of JP2008054851A publication Critical patent/JP2008054851A/en
Application granted granted Critical
Publication of JP4108719B2 publication Critical patent/JP4108719B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/301Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device using an additional display connected to the game console, e.g. on the controller
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6072Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/609Methods for processing data by generating or executing the game program for unlocking hidden game elements, e.g. features, items, levels
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • A63F2300/638Methods for processing data by generating or executing the game program for controlling the execution of the game in time according to the timing of operation or a time limit
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8058Virtual breeding, e.g. tamagotchi
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Abstract

<P>PROBLEM TO BE SOLVED: To permit a player to predict the relation between a character made to appear anew and input sounds to some extent in a game where characters appear. <P>SOLUTION: The game machine relates the kinds of codes to the attributes of characters in advance. The game device judges whether or not the codes materialize at every detection time t of a prescribed time interval from input sounds, and decides on first to third attributes as attributes of characters to be brought into existence from among the attributes of a plurality of characters on the basis of the materialization number of the kinds of codes and decides on the probability of bringing into existence for every first to third attributes on the basis of the materialization number of corresponding kinds of codes. The game device creates a character of an attribute decided on in accordance with the probability of bringing to existence from among the first to third attributes. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、入力音に基づく新規なキャラクタが登場するゲーム装置等に関する。   The present invention relates to a game device in which a new character based on an input sound appears.

近年のゲーム装置では、マイク等の音声入力手段を備え、この音声入力手段からの入力音声がゲーム処理に利用されるものが知られている。例えば、入力音声を基に、新規に登場させるキャラクタのパラメータを決定する技術が知られている。かかる技術では、アナログ信号である入力音声がデジタル信号化され、更に、周波数帯毎に数値化した数列データに変換される。そして、変換された数列データ中の任意の数値と、予め定められた判定基準データとの合致が判定され、この判定結果に応じてキャラクタのパラメータが決定される(例えば、特許文献1参照)。
特許第2860097号公報
2. Description of the Related Art A game device in recent years includes a voice input unit such as a microphone, and an input voice from the voice input unit is used for game processing. For example, a technique for determining a parameter of a character to newly appear based on input speech is known. In such a technique, an input voice which is an analog signal is converted into a digital signal and further converted into numerical sequence data which is digitized for each frequency band. Then, a match between an arbitrary numerical value in the converted number sequence data and predetermined criterion data is determined, and a character parameter is determined according to the determination result (see, for example, Patent Document 1).
Japanese Patent No. 2860097

上述の特許文献1の技術では、入力音声を基に新規に登場させるキャラクタのパラメータを決定するが、その音声が持つ意味内容とは全く関係ないパラメータが生成される。即ち、入力音声からどのようなパラメータが生成されるか全く予想がつかず、キャラクタのパラメータがランダムに決定されるに等しい。このため、新規なキャラクタを生成させるための音声を入力する作業が手間となり、却ってゲームに対する興味を低下させるおそれがある。   In the technique of the above-described Patent Document 1, a parameter of a character to be newly introduced is determined based on an input voice, but a parameter that is completely unrelated to the meaning content of the voice is generated. In other words, it is completely impossible to predict what parameters will be generated from the input speech, which is equivalent to determining the parameters of the character at random. For this reason, the operation | work which inputs the audio | voice for producing | generating a new character becomes an effort, and there exists a possibility of reducing the interest with respect to a game on the contrary.

本発明は、上記事情に鑑みて為されたものであり、新規に登場させるキャラクタと入力音声との関係を、ある程度プレーヤに予測可能とさせることを目的としている。   The present invention has been made in view of the above circumstances, and an object of the present invention is to allow a player to predict to some extent the relationship between a newly appearing character and an input voice.

上記課題を解決するための第1の発明は、
音声入力手段(例えば、図5の音入力部200)を有するコンピュータに、キャラクタが登場するゲームを実行させるためのプログラム(例えば、図5のゲームプログラム710)であって、
予め定められた音階の組合せでなる複数種類の音階組(例えば、実施形態における「コード」)のうち、前記音声入力手段に入力された入力音に含まれる音階組を検出する音階組検出手段(例えば、図5の誕生確率決定部321;図31のステップ7)、
前記音階組検出手段の検出結果に基づいて、新規に登場させるキャラクタを選択するキャラ選択手段(例えば、図5のキャラ誕生制御部320;図30のステップB9)、
前記キャラ選択手段により選択されたキャラクタを新規に登場させるキャラ登場制御手段(例えば、図5のキャラ誕生制御部320;図30のステップB13)、
として前記コンピュータを機能させるためのプログラムである。
The first invention for solving the above-described problems is
A program (for example, a game program 710 in FIG. 5) for causing a computer having voice input means (for example, the sound input unit 200 in FIG. 5) to execute a game in which a character appears,
Of a plurality of types of musical scale combinations (for example, “chord” in the embodiment) composed of predetermined musical scale combinations, a musical scale detection means for detecting a musical scale set included in the input sound input to the voice input means ( For example, birth probability determination unit 321 in FIG. 5; step 7) in FIG.
Character selection means (for example, a character birth control unit 320 in FIG. 5; step B9 in FIG. 30) for selecting a character to appear newly based on the detection result of the scale group detection means,
Character appearance control means (for example, character birth control unit 320 in FIG. 5; step B13 in FIG. 30) for newly appearing the character selected by the character selection means,
As a program for causing the computer to function.

また、第13の発明は、
音声入力手段を有し、キャラクタが登場するゲームを実行するゲーム装置(例えば、図1,5の携帯型ゲーム機1)であって、
予め定められた音階の組合せでなる複数種類の音階組のうち、前記音声入力手段に入力された入力音に含まれる音階組を検出する音階組検出手段と、
前記音階組検出手段の検出結果に基づいて、新規に登場させるキャラクタを選択するキャラ選択手段と、
前記キャラ選択手段により選択されたキャラクタを新規に登場させるキャラ登場制御手段と、
を備えるゲーム装置である。
The thirteenth invention
A game device (for example, the portable game machine 1 in FIGS. 1 and 5) that has a voice input means and executes a game in which a character appears,
A scale set detecting means for detecting a scale set included in the input sound input to the voice input means among a plurality of types of scale sets composed of predetermined scale combinations;
Based on the detection result of the scale group detection means, a character selection means for selecting a character to appear newly,
Character appearance control means for newly appearing the character selected by the character selection means;
It is a game device provided with.

この第1又は第13の発明によれば、予め定められた音階の組合せでなる複数種類の音階組のうち、入力音に含まれる音階組が検出され、検出結果に基づいて選択されたキャラクタが新規にゲームに登場される。つまり、入力音に含まれる音階組を基に、新規にゲームに登場するキャラクタが決定される。ここで、例えば、音階組として、「メジャーコード」や「マイナーコード」といったいわゆる「コード」を検出することにした場合、入力音に含まれるコードによって新規に登場するキャラクタが決まる。コードは入力音のイメージを決める大きな要素であるため、プレーヤに対して、入力音のイメージからどのようなキャラクタが新規に登場するのかといった予想を楽しませ、該キャラクタに対する興味を高めることが可能となる。   According to the first or thirteenth invention, a musical scale included in the input sound is detected from a plurality of types of musical scales composed of predetermined musical scale combinations, and a character selected based on the detection result is detected. Newly appeared in the game. That is, a character newly appearing in the game is determined based on the musical scale included in the input sound. Here, for example, when a so-called “code” such as “major chord” or “minor chord” is detected as a musical scale, a newly appearing character is determined by a code included in the input sound. Since the code is a large element that determines the image of the input sound, it is possible for the player to enjoy the prediction of what character will appear from the image of the input sound and to increase interest in the character. Become.

第2の発明は、第1の発明のプログラムであって、
音階組とキャラクタとが予め対応付けられており、
前記キャラ選択手段が、前記音階組検出手段により検出された音階組に対応するキャラクタを少なくとも含む選択候補キャラクタを決定し、該決定した選択候補キャラクタの中から新規に登場させるキャラクタを選択するように前記コンピュータを機能させるためのプログラムである。
The second invention is the program of the first invention,
The scale group and the character are associated in advance,
The character selection means determines a selection candidate character including at least a character corresponding to the scale set detected by the scale set detection means, and selects a character to be newly appeared from the determined selection candidate characters. A program for causing the computer to function.

この第2の発明によれば、音階組とキャラクタとが予め対応付けられており、検出された音階組に対応するキャラクタを少なくとも含む選択候補キャラクタの中から、新規に登場させるキャラクタが選択される。つまり、検出された音階組に対応するキャラクタを含む選択候補キャラクタの中から選択されたキャラクタが、新規なキャラクタとして登場する。これにより、検出された音階組に対応するキャラクタが確率性を持ちながら登場することになるため、同一の入力音であっても、その時々に応じて登場するキャラクタが異なり、プレーヤを飽きさせない。   According to the second aspect, the scale group and the character are associated with each other in advance, and the newly appearing character is selected from the selection candidate characters including at least the character corresponding to the detected scale group. . That is, the character selected from the selection candidate characters including the character corresponding to the detected musical scale appears as a new character. As a result, the character corresponding to the detected musical scale appears with probability, so even if the input sound is the same, the appearing character differs depending on the time and the player is not bored.

第3の発明は、第2の発明のプログラムであって、
前記音階組検出手段が、所与の時間間隔で、当該時点の入力音に含まれる音階組を検出していき、
前記キャラ選択手段が、前記音階組検出手段による各音階組の検出延べ数に基づいて選択候補キャラクタを決定する、
ように前記コンピュータを機能させるためプログラムである。
The third invention is the program of the second invention,
The scale set detection means detects a scale set included in the input sound at the time point at a given time interval,
The character selection means determines a selection candidate character based on the total number of detections of each scale set by the scale set detection means;
A program for causing the computer to function.

この第3の発明によれば、所与の時間間隔で当該時点の入力音に含まれる音階組が検出され、各音階組の検出延べ数に基づいて選択候補キャラクタが決定される。これにより、例えば、音階組の検出延べ数が所定数以上の音階組数に対応するキャラクタを選択候補キャラクタとすることで、入力音のイメージ(音の調)に対応するとして定められたキャラクタが新規なキャラクタとして登場する確率がより高くなる。   According to the third aspect, the musical scale included in the input sound at the time is detected at a given time interval, and the selection candidate character is determined based on the detected total number of each musical scale. As a result, for example, by selecting a character corresponding to the number of musical scales with a total number of musical scale detections equal to or greater than a predetermined number as a selection candidate character, a character determined to correspond to the input sound image (tone) is newly created. The probability of appearing as a character is higher.

またこの場合、第4の発明のように、第3の発明のプログラムを、
前記キャラ選択手段が、検出延べ数の多い検出組に対応する選択候補キャラクタ程、高確度に選択するように新規に登場させるキャラクタを選択する、ように前記コンピュータを機能させるためのプログラムとしても良い。
In this case, as in the fourth invention, the program of the third invention is
The character selection means may be a program for causing the computer to function so that a selection candidate character corresponding to a detection set having a larger total number of detections selects a newly appearing character so as to select with high accuracy.

この第4の発明によれば、検出延べ数の多い検出組に対応する選択候補キャラクタ程、高確度に選択されるように新規に登場させるキャラクタが選択される。つまり、検出延べ数が最も多い音階組に対応するキャラクタが、新規なキャラクタとして登場する確率が最も高くなるため、入力音のイメージ(音の調)に対応するとして定められたキャラクタが、高確率で新規なキャラクタとして登場することになる。   According to the fourth aspect of the present invention, a newly appearing character is selected so that the selection candidate character corresponding to the detection set having a larger detection total number is selected with higher accuracy. In other words, the character corresponding to the musical scale with the largest total number of detections has the highest probability of appearing as a new character, so the character defined as corresponding to the input sound image (tone) has a high probability. It will appear as a new character.

第5の発明は、第2〜第4の何れかの発明のプログラムであって、
入力音に、予め設定された音階音(例えば、実施形態における「黒鍵音階」)が含まれている比率である設定音階含有比率(例えば、実施形態における「全音階の検出延べ数に対する全黒鍵音階の検出延べ数の割合」)に応じて選択候補とするキャラクタが予め対応付けられており、
前記音声入力手段に入力された入力音の設定音階含有比率を判定する含有比率判定手段(例えば、図5の誕生確率決定部321;図32のステップD9、図31のステップC23)として前記コンピュータを機能させ、
前記キャラ選択手段が、更に、前記含有比率判定手段により判定された設定音階含有比率に応じたキャラクタを選択候補キャラクタに含めるように前記コンピュータを機能させる、
ためのプログラムである。
The fifth invention is a program according to any one of the second to fourth inventions,
A set scale content ratio (for example, “all black keys for the detected total number of all scales” in the embodiment) is a ratio in which the input sound includes a preset scale sound (for example, “black key scale” in the embodiment). Characters to be selected as candidates according to the ratio of the total number of detected scales ”)
The computer is used as content ratio determination means (for example, birth probability determination unit 321 in FIG. 5; step D9 in FIG. 32, step C23 in FIG. 31) for determining the set scale content ratio of the input sound input to the voice input means. Make it work
The character selection means further causes the computer to function as a selection candidate character including a character corresponding to the set scale content ratio determined by the content ratio determination means;
It is a program for.

この第5の発明によれば、入力音の設定音階含有比率に応じたキャラクタが、更に、選択候補キャラクタに含められる。つまり、入力音に含まれる特定の音階の比率に応じて新規に登場し得る特別なキャラクタが存在し、これにより、プレーヤに対して、新規に登場されるキャラクタに対する興味をより高めるといったことが可能となる。   According to the fifth aspect, a character corresponding to the set scale content ratio of the input sound is further included in the selection candidate character. In other words, there is a special character that can appear newly according to the ratio of a specific scale included in the input sound, and this makes it possible for the player to be more interested in the newly appearing character. It becomes.

第6の発明は、第2〜第4の何れかの発明のプログラムであって、
予め設定された音階音である設定音階音が、前記音声入力手段に入力された入力音の所与の時間間隔の各時点に含まれているかを検出する設定音階検出手段として前記コンピュータを機能させ、
前記キャラ選択手段が、更に、前記設定音階検出手段により検出された検出延べ数が所定数に達している場合に、特別キャラクタを選択候補キャラクタに含めるように前記コンピュータを機能させる、
ためのプログラムである。
A sixth invention is a program according to any one of the second to fourth inventions,
Causing the computer to function as set scale detection means for detecting whether a set scale sound, which is a preset scale sound, is included in each time point of a given time interval of the input sound input to the voice input means. ,
The character selection means further causes the computer to include a special character as a selection candidate character when the total number of detections detected by the set scale detection means has reached a predetermined number;
It is a program for.

この第6の発明によれば、設定音階音が入力音の所与の時間間隔の各時点に含まれているかが検出され、検出された延べ数が所定数に達している場合に、更に特別キャラクタが選択候補キャラクタに含められる。つまり、入力音に設定音階音が所定数以上含まれている場合にのみ登場し得る特別キャラクタが存在することになる。   According to the sixth aspect of the present invention, when it is detected whether the set scale sound is included at each time point of the given time interval of the input sound, and the detected total number reaches a predetermined number, the special character is further added. Is included in the selection candidate character. That is, there is a special character that can appear only when a predetermined number or more of the set scale sounds are included in the input sound.

第7の発明は、第1〜第6の何れかの発明のプログラムであって、
入力音が入力され得る時期を日付及び/又は時刻によって分けた複数の時期的条件ごとにキャラクタが予め対応付けられており、
前記キャラ選択手段が、前記複数の時期的条件のうち、前記音声入力手段からの入力音の入力時期が満足する時期的条件に対応するキャラクタを新規に登場させるキャラクタとして選択するように前記コンピュータを機能させるためプログラムである。
A seventh invention is a program according to any one of the first to sixth inventions,
Characters are associated in advance for each of a plurality of time conditions in which the input sound can be input by date and / or time,
The character selection means selects the computer so as to select a character corresponding to a timing condition that satisfies an input timing of an input sound from the voice input means among the plurality of timing conditions as a new character to appear. It is a program to make it function.

この第7の発明によれば、入力音が入力され得る時期を日付及び/又は時刻によって分けた複数の時期的条件のうち、入力音の入力時期が満足する時期的条件に予め対応付けられているキャラクタが新規に登場される。つまり、同じ入力音であっても入力する時期が異なると登場するキャラクタが異なり、これにより、ゲーム性を高めることが可能となる。   According to the seventh aspect, among the plurality of time conditions in which the time when the input sound can be input is divided according to the date and / or time, it is associated in advance with the time condition where the input time of the input sound is satisfied. A new character appears. That is, even if the input sound is the same, different characters appear at different times of input, which makes it possible to improve the game performance.

第8の発明は、第1〜第7の何れかの発明のプログラムであって、
前記音声入力手段に入力された入力音に含まれる各音階音の入力タイミングを検出する入力タイミング検出手段(例えば、図5の誕生確率決定部321;図32のステップD15)として前記コンピュータを機能させ、
前記音階組検出手段が、前記複数種類の音階組のうち、入力タイミングが同じ音同士で構成される音階組を検出する同時音音階組検出手段(例えば、図5の誕生確率決定部321;図33のステップE3)を有するように前記コンピュータを機能させる、
ためのプログラムである。
The eighth invention is a program according to any one of the first to seventh inventions,
The computer is caused to function as input timing detection means (for example, birth probability determination unit 321 in FIG. 5; step D15 in FIG. 32) for detecting the input timing of each scale sound included in the input sound input to the voice input means. ,
The musical scale detection means detects simultaneous musical scale detection means (for example, birth probability determination unit 321 in FIG. 5; FIG. 5) that detects a musical scale composed of sounds having the same input timing among the plurality of types of musical scales. Operating said computer to have 33 steps E3),
It is a program for.

この第8の発明によれば、入力音に含まれる各音階音の入力タイミングが検出され、複数種類の音階組のうち、入力タイミングが同じ音同士で構成される音階組が検出される。   According to the eighth aspect of the invention, the input timing of each scale sound included in the input sound is detected, and a scale set composed of sounds having the same input timing is detected from among a plurality of types of scale sets.

第9の発明は、第1〜第8の何れかの発明のプログラムであって、
前記音階組検出手段が、音名が同じ音階を同じ音階とみなして、前記音声入力手段に入力された入力音に含まれる音階組を検出するように前記コンピュータを機能させるためのプログラムである。
A ninth invention is a program according to any one of the first to eighth inventions,
The scale group detection means is a program for causing the computer to function so as to detect a scale group included in an input sound input to the voice input means by regarding a scale having the same pitch name as the same scale.

この第9の発明によれば、音名が同じ音階を同じ音階とみなして、入力音に含まれる音階組が検出される。これにより、オクターブの違いに関わらず、音名が同じならば同じ音階とみなされて音階組が検出されるので、音階組がより検出され易くなる。   According to the ninth aspect, the scales included in the input sound are detected by regarding the scales having the same pitch name as the same scales. Thus, regardless of the octave difference, if the pitch names are the same, they are regarded as the same scale and the scale set is detected, so that the scale set is more easily detected.

第10の発明は、第1〜第9の何れかの発明のプログラムであって、
前記音声入力手段に入力された入力音に含まれる各音のうち、所定の強さに達した音のみを検出することで入力音をフィルタ処理するフィルタ処理手段(例えば、図5の誕生確率決定部321;図32のステップD3)として前記コンピュータを機能させ、
前記音階組検出手段が、前記フィルタ処理手段によりフィルタ処理された入力音を、前記音声入力手段に入力された入力音として、音階組を検出するように前記コンピュータを機能させる、
ためのプログラムである。
The tenth invention is the program of any one of the first to ninth inventions,
Filter processing means for filtering the input sound by detecting only the sound that has reached a predetermined intensity among the sounds included in the input sound input to the sound input means (for example, determination of birth probability in FIG. 5) Unit 321; causing the computer to function as step D3) of FIG.
The scale group detection means causes the computer to function to detect a scale group by using the input sound filtered by the filter processing means as the input sound input to the voice input means;
It is a program for.

この第10の発明によれば、入力音に含まれる各音のうち、所定の強さに達した音のみに基づいて音階組が検出される。つまり、入力音に含まれる各音のうち、所定の強さに達しない弱い音は音階音として検出されない。   According to the tenth aspect, the musical scale is detected based only on the sound that has reached the predetermined intensity among the sounds included in the input sound. That is, a weak sound that does not reach a predetermined intensity among the sounds included in the input sound is not detected as a scale sound.

第11の発明は、第10の発明のプログラムであって、
前記フィルタ処理手段が、前記音声入力手段に入力された入力音のうち、所定数以上の音階音が同時に入力されている時間部分を無音化する無音化手段(例えば、図5の誕生確率決定部321;図32のステップD5,D13)を有するように前記コンピュータを機能させるためのプログラムである。
The eleventh invention is the program of the tenth invention,
The filter processing means silences a time part in which a predetermined number or more of the scale sounds are simultaneously input among the input sounds input to the voice input means (for example, the birth probability determination unit in FIG. 5) 321; a program for causing the computer to function so as to have steps D5 and D13) of FIG.

この第11の発明によれば、入力音のうち、所定数以上の音階音が同時に入力されている時間部分が無音化される。例えば、1オクターブに亘るピアノの鍵盤を同時に弾いて多数の音階音を同時に入力すると、ほぼ必ず何らかの音階組が検出されることになるが、本発明によれば、所定数以上の音階音が同時に入力される時間部分が無音化されるため、多数の音階音を同時に入力するといった不正な入力を防止できる。   According to the eleventh aspect of the present invention, the time portion in which a predetermined number or more of scale sounds are simultaneously input is silenced among the input sounds. For example, when a large number of scales are input simultaneously by playing the piano keyboard over one octave at the same time, a certain scale set is almost always detected. Since the time portion to be input is silenced, it is possible to prevent unauthorized input such as inputting a large number of scale sounds simultaneously.

第12の発明は、第1〜第11の何れかの発明のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体(例えば、図5の記憶部700)である。   The twelfth invention is a computer-readable information storage medium (for example, the storage unit 700 in FIG. 5) storing the program of any one of the first to eleventh inventions.

ここで、情報記憶媒体とは、記憶されている情報をコンピュータが読み取り可能な、例えばハードディスクやMO、CD−ROM、DVD、メモリカード、ICメモリ等の記憶媒体である。従って、この第12の発明によれば、情報記憶媒体に記憶されている情報をコンピュータに読み取らせて演算処理を実行させることで、第1〜第11の発明と同様の効果を奏することができる。   Here, the information storage medium is a storage medium such as a hard disk, an MO, a CD-ROM, a DVD, a memory card, or an IC memory that can be read by a computer. Therefore, according to the twelfth aspect, the same effect as the first to eleventh aspects can be obtained by causing the computer to read the information stored in the information storage medium and executing the arithmetic processing. .

本発明によれば、予め定められた音階の組合せでなる複数種類の音階組のうち、入力音に含まれる音階組が検出され、検出結果に基づいて選択されたキャラクタが新規にゲームに登場される。つまり、入力音に含まれる音階組を基に、新規にゲームに登場するキャラクタが決定される。ここで、例えば、音階組としていわゆる「コード」を検出することにした場合、入力音に含まれるコードによって新規に登場するキャラクタが決まる。コードは入力音のイメージ(音の調)を決める大きな要素であるため、プレーヤに対して、入力音のイメージからどのようなキャラクタが新規に登場するのかといった予想を楽しませ、該キャラクタに対する興味を高めることが可能となる。   According to the present invention, a musical scale set included in an input sound is detected from a plurality of types of musical scale combinations including predetermined musical scale combinations, and a character selected based on the detection result is newly added to the game. The That is, a character newly appearing in the game is determined based on the musical scale included in the input sound. Here, for example, when a so-called “chord” is detected as a musical scale, a newly appearing character is determined by a code included in the input sound. Since the chord is a large element that determines the image (tone) of the input sound, the player can enjoy the prediction of what character will appear from the image of the input sound, and will be interested in the character. It becomes possible to raise.

以下、図面を参照して本発明の好適な実施形態を説明する。尚、以下では、携帯型ゲーム機において育成ゲームを実行する場合を説明するが、本発明を適用可能な実施形態がこれに限定されるものではない。   Preferred embodiments of the present invention will be described below with reference to the drawings. In the following, a case where a breeding game is executed in a portable game machine will be described, but an embodiment to which the present invention can be applied is not limited to this.

[ゲーム装置の外観]
図1は、本実施形態における携帯型ゲーム機1の外観の一例を示す図である。同図によれば、携帯型ゲーム機1は、上側の筐体10Aと下側の筐体10Bとがヒンジ11を介して開閉可能に連結されて構成された折り畳み式であり、同図では、使用時である携帯型ゲーム機1の開状態を示している。
[Appearance of game device]
FIG. 1 is a diagram illustrating an example of an appearance of a portable game machine 1 according to the present embodiment. According to the figure, the portable game machine 1 is a folding type in which an upper casing 10A and a lower casing 10B are connected to each other via a hinge 11 so as to be opened and closed. The open state of the portable game machine 1 in use is shown.

各筐体10A,10Bの内側面には、使用時においてヒンジ11を挟んで上下に並ぶように配置された2つのディスプレイ12A,12Bやスピーカ13、マイク14、各種の操作ボタン15等が設けられている。また、ディスプレイ12Bには、その表示領域全体に亘ってタッチパネルが一体的に形成されている。タッチパネルは、感圧式や光学式、静電式、電磁誘導式等の検出原理によって、タッチ操作位置を、例えばディスプレイ12Bを構成するドット単位で検出する。プレーヤは、付属のスタイラスペン30や手指によるディスプレイ12B上のタッチ操作によって、各種の操作入力を行うことができる。   On the inner surface of each housing 10A, 10B, two displays 12A, 12B, a speaker 13, a microphone 14, various operation buttons 15, etc. are arranged so as to be lined up and down with the hinge 11 in use. ing. The display 12B is integrally formed with a touch panel over the entire display area. The touch panel detects the touch operation position in units of dots constituting the display 12B, for example, by a detection principle such as a pressure-sensitive type, an optical type, an electrostatic type, or an electromagnetic induction type. The player can perform various operation inputs by touch operations on the display 12B with the attached stylus pen 30 or fingers.

携帯型ゲーム機1がゲーム処理を実行するために必要なプログラムやデータ等を含むゲーム情報は、筐体10Bの側面に設けられたスロット16に着脱自在なカートリッジ20に格納されている。尚、このゲーム情報は、携帯型ゲーム機1が内蔵する無線通信装置18を介して無線通信回線に接続し、外部機器から取得することにしても良い。   Game information including programs and data necessary for the portable game machine 1 to execute game processing is stored in a cartridge 20 that is detachable from a slot 16 provided on a side surface of the housing 10B. This game information may be acquired from an external device by connecting to a wireless communication line via the wireless communication device 18 built in the portable game machine 1.

また、携帯型ゲーム機1は、CPUやICメモリ類を搭載した制御装置17、無線LAN規格に従った無線通信を行うための無線通信装置18、カートリッジ20の読取装置等を内蔵する。制御装置17に搭載されたCPUは、ICメモリやカートリッジ20から読み出したプログラムやデータ、タッチパネルにより検出されたタッチ操作位置、マイク14から入力される音声信号、操作ボタン15から入力される操作信号、無線通信装置18による受信データ等に基づいて種々のゲーム処理を実行し、ゲーム画面の画像信号及びゲーム音の音信号を生成する。そして、生成した画像信号をディスプレイ12A,12Bに出力してゲーム画面を表示させるとともに、音信号をスピーカ13に出力してゲーム音を出力させる。プレーヤは、ディスプレイ12A,12Bに表示されるゲーム画面を見ながら、操作ボタン15を操作或いはディスプレイ12B上をタッチ操作して育成ゲームを楽しむ。   The portable game machine 1 includes a control device 17 equipped with a CPU and IC memories, a wireless communication device 18 for performing wireless communication in accordance with the wireless LAN standard, a reading device for the cartridge 20, and the like. The CPU mounted on the control device 17 includes a program and data read from the IC memory and the cartridge 20, a touch operation position detected by the touch panel, an audio signal input from the microphone 14, an operation signal input from the operation button 15, Various game processes are executed based on data received by the wireless communication device 18 and the like, and an image signal of the game screen and a sound signal of the game sound are generated. Then, the generated image signal is output to the displays 12A and 12B to display the game screen, and the sound signal is output to the speaker 13 to output the game sound. The player enjoys the breeding game by operating the operation buttons 15 or touching the display 12B while watching the game screens displayed on the displays 12A and 12B.

[ゲーム概要]
本実施形態の育成ゲームでは、ゲーム進行中、アイテムの一種として「タマゴ」が獲得される。そして、このタマゴに「メロディを聴かせる」ことでキャラクタを誕生(登場)させ、誕生させたキャラクタを育成する。ここで、「メロディを聴かせる」ことは、マイク14からメロディ音声(楽曲)を入力することで実現される。
[Game Overview]
In the breeding game of this embodiment, “egg” is acquired as a kind of item while the game is in progress. Then, the egg is born (appears) by “sounding the melody” to the egg, and the born character is nurtured. Here, “to listen to the melody” is realized by inputting a melody voice (song) from the microphone 14.

タマゴは、外見が異なる複数種類が用意されており、タマゴの種類毎に、該タマゴから誕生するキャラクタとして複数種類のキャラクタが設定されている。そして、これら設定されている複数種類のキャラクタのうちから、聴かせたメロディに応じたキャラクタが誕生する。即ち、同一種類のタマゴであっても、聴かせるメロディが異なれば異なるキャラクタが誕生する。また、同一のメロディを聴かせた場合であっても、タマゴの種類が異なれば誕生するキャラクタも異なる。   A plurality of types of eggs having different appearances are prepared, and a plurality of types of characters are set as characters born from the eggs for each type of eggs. Then, a character corresponding to the melody heard is born from the plurality of types of characters set. That is, even if the eggs are of the same type, different characters are born if the melody to be heard is different. Even if the same melody is heard, if the type of egg is different, the character to be born is different.

また、各キャラクタには属性が設定されている。この属性は、各キャラクタを分類するパラメータであり、キャラクタの育成やゲーム進行等に影響を与える。ここでは、属性として、「火」、「風」、「土」、「水」、「光」及び「闇」の合計6種類がある。   In addition, an attribute is set for each character. This attribute is a parameter for classifying each character, and affects character development, game progress, and the like. Here, there are a total of six types of attributes: “fire”, “wind”, “earth”, “water”, “light”, and “darkness”.

[ゲーム画面]
図2は、キャラクタを誕生させる際のゲーム画面の一例を示す図である。同図(a)は、ディスプレイ12Bに表示されるゲーム画面であり、同図(b)は、ディスプレイ12Aに表示されるゲーム画面である。
[Game screen]
FIG. 2 is a diagram illustrating an example of a game screen when a character is born. FIG. 4A is a game screen displayed on the display 12B, and FIG. 4B is a game screen displayed on the display 12A.

同図(a)によれば、ディスプレイ12Bには、キャラクタを誕生させるタマゴを選択するためのタマゴ選択画面が表示される。タマゴ選択画面には、用意されている複数種類のタマゴOBが現在の所有数とともに一覧表示されている。そして、一覧表示されているタマゴOBのうち、1種類のタマゴOBが選択状態となっている。同図(a)では、全種類のタマゴOBのうち3種類のタマゴOBが表示されている。その他のタマゴOBについては、当該画面をスクロールさせることで表示される。また、表示されている3種類のタマゴOBのうち、画面中央のタマゴOBが選択状態となっており、選択状態であることを示す枠Mで囲まれて表示されている。   According to FIG. 5A, an egg selection screen for selecting an egg for giving birth to a character is displayed on the display 12B. On the egg selection screen, a plurality of prepared egg OBs are listed together with the current number of possessions. Then, one type of egg OB is selected in the list of eggs OB. In FIG. 9A, three types of eggs OB are displayed among all types of eggs OB. Other eggs OB are displayed by scrolling the screen. Further, among the three types of displayed eggs OB, the egg OB at the center of the screen is in a selected state, and is displayed surrounded by a frame M indicating the selected state.

また、同図(b)によれば、ディスプレイ12Aには、タマゴに設定されているキャラクタの一覧であるキャラ一覧画面が表示される。キャラ一覧画面には、タマゴ選択画面において選択状態となっているタマゴに設定されているキャラクタ(即ち、該タマゴから誕生し得るキャラクタ)が、属性毎に一覧表示されている。また、一覧表示されているキャラクタのうち、既に誕生して所有されているキャラクタについてはその名称が表示され、所有されていないキャラクタについては名称が表示されていない(同図では、「???」と表示されている)。これにより、各キャラクタを所有しているか否かを一目で把握できるようになっている。   Also, according to FIG. 5B, a character list screen that is a list of characters set in the egg is displayed on the display 12A. In the character list screen, characters set in the eggs selected in the egg selection screen (that is, characters that can be born from the eggs) are listed for each attribute. Among the characters displayed in the list, the names of the characters that are already born and owned are displayed, and the names of the characters that are not owned are not displayed (in the figure, “???”). ”). Thereby, it is possible to grasp at a glance whether or not each character is owned.

プレーヤは、タマゴ選択画面において所望のタマゴを選択し、選択を決定する。次いで、例えばディスプレイ12Aに表示されるカウントダウン指示に従い、発声や楽器の演奏等を行ってマイク14からメロディ音声を入力する。すると、入力音声に対する所定の解析処理が行われ、処理結果に応じたキャラクタが、先に選択したタマゴから誕生する。但し、必ずしもキャラクタが誕生するわけではなく、入力音声によっては誕生が失敗することもある。   The player selects a desired egg on the egg selection screen and determines the selection. Next, for example, in accordance with a countdown instruction displayed on the display 12A, a melody voice is input from the microphone 14 by uttering or playing a musical instrument. Then, a predetermined analysis process is performed on the input voice, and a character corresponding to the processing result is born from the previously selected egg. However, the character is not necessarily born, and the birth may fail depending on the input voice.

キャラクタの誕生が成功した場合、キャラクタの誕生に先立ち、所定時間の間、キャラクタの誕生を演出するキャラ誕生演出画面が表示される。図3は、キャラ誕生演出画面の一例を示す図である。同図によれば、キャラ誕生演出画面には、選択したタマゴOBとともに、多数の粒子状のパーティクルPが表示されている。   If the birth of the character is successful, a character birth effect screen for directing the birth of the character is displayed for a predetermined time prior to the birth of the character. FIG. 3 is a diagram illustrating an example of a character birth effect screen. According to the figure, a large number of particulate particles P are displayed together with the selected egg OB on the character birth effect screen.

パーティクルPは、誕生するキャラクタを示唆するものであり、複数種類(同図では、3種類)のパーティクルP(P1〜P3)が混じり合って表示される。各パーティクルPは、何れも同一形状であるが、種類毎に色が異なっている。また、各パーティクルPは、タマゴOBから発生し、タマゴOBの周囲を移動して拡散するようにアニメーション表示される。そして、所定時間(数秒程度)の寿命を持って消滅する。   The particle P suggests a character to be born, and a plurality of types (three types in the figure) of particles P (P1 to P3) are mixed and displayed. Each particle P has the same shape, but has a different color for each type. Each particle P is generated from an egg OB and is displayed as an animation so as to move and diffuse around the egg OB. Then, it disappears with a predetermined time (several seconds).

更に、各パーティクルPの表示数は、時間経過に伴って変化する。具体的には、キャラ誕生演出画面の表示開始時点では、各パーティクルPの表示数はほぼ同数となっているが、時間経過に伴って、各パーティクルPの表示数が徐々に変化(増加/減少)する。そして、キャラ誕生演出画面の表示終了間際の時点では、表示されるパーティクルPは、ある1種類のパーティクルP(具体的には、誕生するキャラクタの属性に応じた色のパーティクルP)が殆どとなり、他の2種類のパーティクルPの表示数は非常に少なくなる。尚、このパーティクルPの表示数の変化は、該パーティクルPの発生量が可変されることで制御される。   Further, the display number of each particle P changes with time. Specifically, the display number of each particle P is substantially the same at the start of display of the character birth effect screen, but the display number of each particle P gradually changes (increase / decrease with time). ) At the time of the end of the display of the character birth effect screen, the displayed particles P are mostly one kind of particles P (specifically, particles P having a color according to the attributes of the character to be born) The number of displays of the other two types of particles P is very small. The change in the display number of the particles P is controlled by changing the generation amount of the particles P.

キャラ誕生演出画面の表示開始から所定時間が経過し、該画面の表示が終了すると、その後、誕生したキャラクタのキャラ誕生画面が表示される。図4は、キャラ誕生画面の一例を示す図である。同図によれば、キャラ誕生画面には、選択したタマゴOBから新たなキャラクタCHが誕生する様子が表示される。そして、誕生したキャラクタCHが新たに所有されたとして所有キャラクタに追加されるとともに、選択した種類のタマゴが1つ消費される(減少される)。   When a predetermined time elapses from the display start of the character birth effect screen and the display of the screen ends, the character birth screen of the born character is then displayed. FIG. 4 is a diagram illustrating an example of a character birth screen. According to the figure, the character birth screen displays a state in which a new character CH is born from the selected egg OB. Then, the born character CH is added to the owned character as newly owned, and one selected type of egg is consumed (reduced).

[機能構成]
図5は、携帯型ゲーム機1の機能構成を示すブロック図である。同図によれば、携帯型ゲーム機1は、機能的には、操作入力部100と、音入力部200と、処理部300と、画像表示部400と、音出力部500と、通信部600と、記憶部700とを備えて構成される。
[Function configuration]
FIG. 5 is a block diagram showing a functional configuration of the portable game machine 1. According to the figure, the portable game machine 1 functionally includes an operation input unit 100, a sound input unit 200, a processing unit 300, an image display unit 400, a sound output unit 500, and a communication unit 600. And a storage unit 700.

操作入力部100は、プレーヤによる操作指示入力を受け付け、操作に応じた操作信号を処理部300に出力する。この機能は、例えばボタンスイッチやレバー、ダイヤル、マウス、キーボード、各種センサ等によって実現される。図1では、操作ボタン15や、ディスプレイ12Bに一体的に形成されたタッチパネルがこれに該当する。   The operation input unit 100 receives an operation instruction input from the player, and outputs an operation signal corresponding to the operation to the processing unit 300. This function is realized by, for example, a button switch, lever, dial, mouse, keyboard, various sensors, and the like. In FIG. 1, the operation button 15 and the touch panel formed integrally with the display 12B correspond to this.

音入力部200は、プレーヤにより入力される音声等の音を集音し、集音した音に応じた音信号を処理部300に出力する。この機能は、例えばマイク等によって実現される。図1では、マイク14がこれに該当する。   The sound input unit 200 collects sound such as voice input by the player and outputs a sound signal corresponding to the collected sound to the processing unit 300. This function is realized by a microphone or the like, for example. In FIG. 1, the microphone 14 corresponds to this.

処理部300は、携帯型ゲーム機1の全体制御やゲームの進行、画像生成等の各種演算処理を行う。この機能は、例えばCPU(CISC型、RISC型)、ASIC(ゲートアレイ等)等の演算装置やその制御プログラムにより実現される。図1では、制御装置17に実装されているCPU等がこれに該当する。   The processing unit 300 performs various arithmetic processes such as overall control of the portable game machine 1, game progress, and image generation. This function is realized by, for example, an arithmetic device such as a CPU (CISC type, RISC type), ASIC (gate array, etc.) or a control program thereof. In FIG. 1, a CPU or the like mounted on the control device 17 corresponds to this.

また、処理部300は、主にゲームの実行に係る演算処理を行うゲーム演算部310と、ゲーム演算部310の処理によって求められた各種のデータに基づくゲーム画像を生成する画像生成部330と、効果音やBGM等のゲーム音を生成する音生成部340とを含んでいる。   The processing unit 300 mainly includes a game calculation unit 310 that performs calculation processing related to game execution, an image generation unit 330 that generates a game image based on various data obtained by the processing of the game calculation unit 310, And a sound generator 340 for generating game sounds such as sound effects and BGM.

ゲーム演算部310は、操作入力部100から入力された操作信号や、音入力部200から入力された音信号、記憶部700から読み出したプログラムやデータ等に基づいて種々のゲーム処理を実行する。本実施形態では、ゲーム演算部310は、キャラ誕生制御部320を含み、ゲームプログラム710に基づくゲーム処理を実行することで育成ゲームを実現する。   The game calculation unit 310 executes various game processes based on the operation signal input from the operation input unit 100, the sound signal input from the sound input unit 200, the program and data read from the storage unit 700, and the like. In the present embodiment, the game calculation unit 310 includes a character birth control unit 320 and realizes a breeding game by executing game processing based on the game program 710.

キャラ誕生制御部320は、誕生確率決定部321と、誕生演出部322とを含み、キャラクタの誕生に関する処理を行う。具体的には、キャラ誕生制御部320は、所有アイテムデータ731を参照し、用意されている複数種類のタマゴそれぞれを現在の所有数とともに一覧表示させたタマゴ選択画面を、例えば図2(a)に一例を示したように画像表示部400に表示させる。   The character birth control unit 320 includes a birth probability determination unit 321 and a birth production unit 322, and performs processing related to the birth of a character. Specifically, the character birth control unit 320 refers to the possessed item data 731 and displays an egg selection screen in which each of the prepared plural types of eggs is displayed together with the current number of possessions, for example, FIG. The image display unit 400 displays the image as shown in FIG.

所有アイテムデータ731は、現在の所有アイテムに関するデータである。図6に、所有アイテムデータ731のデータ構成の一例を示す。同図によれば、所有アイテムデータ731は、所有タマゴデータ731aと、所有キャラデータ731dとを含んでいる。所有タマゴデータ731aは、タマゴの所有に関するデータであり、タマゴ種別731bと、所有数731cとを対応付けて格納している。所有キャラデータ731dは、キャラクタの所有に関するデータであり、キャラクタの属性731e毎に、キャラ種別731fと、所有数731gとを対応付けて格納している。   The owned item data 731 is data related to the current owned item. In FIG. 6, an example of a data structure of the possession item data 731 is shown. According to the figure, the owned item data 731 includes owned egg data 731a and owned character data 731d. The owned egg data 731a is data relating to the possession of the egg, and stores the egg type 731b and the owned number 731c in association with each other. The owned character data 731d is data relating to the possession of the character, and stores the character type 731f and the owned number 731g in association with each character attribute 731e.

また、キャラ誕生制御部320は、キャラ設定テーブル732を参照して、タマゴ選択画面において選択状態となっているタマゴに対応するキャラクタ一覧を表示したキャラクタ一覧画面を、例えば図2(b)に一例を示したように画像表示部400に表示させる。   In addition, the character birth control unit 320 refers to the character setting table 732 and displays a character list screen that displays a character list corresponding to the egg selected in the egg selection screen, for example, as shown in FIG. Is displayed on the image display unit 400 as shown in FIG.

キャラ設定テーブル732は、各タマゴに設定されているキャラクタに関するデータテーブルである。図7に、キャラ設定テーブル732のデータ構成の一例を示す。同図によれば、キャラ設定テーブル732は、タマゴ種別毎に用意されており、各キャラ設定テーブル732は、該当するタマゴ種別732aを格納しているとともに、キャラクタの属性732b毎に、複数のキャラ種別732cを対応付けて格納している。   The character setting table 732 is a data table related to characters set in each egg. FIG. 7 shows an example of the data configuration of the character setting table 732. According to the figure, a character setting table 732 is prepared for each egg type, each character setting table 732 stores a corresponding egg type 732a, and a plurality of characters for each character attribute 732b. The type 732c is stored in association with each other.

タマゴ選択画面においてタマゴの選択が決定されると、キャラ誕生制御部320は、所定のカウントダウン表示等を行った後、入力音声の録音を開始する。即ち、音入力部200からの入力音声をデジタル信号に変換し、入力音声データ721として記憶部700に蓄積記憶させる。録音が終了すると、誕生確率決定部321が、この入力音声データ721に対する所定の解析処理を行い、処理結果を基に、誕生させる候補のキャラクタの属性として3つの候補属性それぞれの誕生確率を決定する。   When the selection of the egg is determined on the egg selection screen, the character birth control unit 320 starts recording the input voice after performing a predetermined countdown display or the like. That is, the input sound from the sound input unit 200 is converted into a digital signal, and is stored in the storage unit 700 as input sound data 721. When the recording is completed, the birth probability determining unit 321 performs a predetermined analysis process on the input voice data 721, and determines the birth probability of each of the three candidate attributes as the attributes of the candidate characters to be born based on the processing result. .

具体的には、誕生確率決定部321は、先ず、入力音声データ721から、所定時間間隔(例えば、1/8秒間隔)で、所定のオクターブ範囲(例えば3オクターブ)の音階を検出する。ここで、音階は、「ド」、「ド♯」、「レ」、「レ♯」、「ミ」、「ファ」、「ファ♯」、「ソ」、「ソ♯」、「ラ」、「ラ♯」及び「シ」の合計12種類を1オクターブとする所定のオクターブ範囲分(例えば、3オクターブ)である。尚、この12種類を音名という。   Specifically, the birth probability determination unit 321 first detects a scale in a predetermined octave range (for example, 3 octaves) from the input voice data 721 at a predetermined time interval (for example, 1/8 second interval). Here, the scales are “de”, “de #”, “le”, “le #”, “mi”, “fa”, “fa #”, “so”, “so #”, “la”, This is a predetermined octave range (for example, 3 octaves) where a total of 12 types of “La #” and “Sh” are one octave. These 12 types are called pitch names.

音階の検出結果は、検出音階データ722に格納される。図8に、検出音階データ722の一例を示す。同図によれば、検出音階データ722は、検出時刻722a毎に、各音階722bの検出有無を格納している。同図において、「○」は検出されたことを表し、「×」は検出されないこと(非検出)を表している。   The scale detection result is stored in the detected scale data 722. FIG. 8 shows an example of detected scale data 722. According to the figure, the detected scale data 722 stores the presence / absence of detection of each scale 722b for each detection time 722a. In the same figure, “◯” indicates that it has been detected, and “X” indicates that it has not been detected (not detected).

次いで、誕生確率決定部321は、検出した各音階のレベル(音の強さ)のうち、最大レベルを判定する。そして、検出音階データ722において、検出された音階のうち、所定のレベル条件を満足しない音階を非検出とする。   Next, the birth probability determination unit 321 determines the maximum level among the detected levels (sound intensity) of each scale. Then, in the detected scale data 722, a scale that does not satisfy a predetermined level condition among the detected scales is not detected.

このレベル条件は、レベル条件データ733に格納されている。図9に、レベル条件データ733のデータ構成の一例を示す。同図によれば、レベル条件データ733は、検出された音階の最大レベルを基準とした音階のレベル条件を格納している。   This level condition is stored in level condition data 733. FIG. 9 shows an example of the data configuration of the level condition data 733. According to the figure, the level condition data 733 stores a scale level condition based on the maximum level of the detected scale.

続いて、誕生確率決定部321は、検出音階データ722において、検出時刻t毎に、検出された音階を判断し、互いに隣り合う5つ以上の音階が検出されているならば、該時刻tの全ての音階を非検出として無音化する。具体的には、例えば、図10(a)では、時刻tにおいて、「ミ」から「ラ」までの隣り合う6つの音階が検出されている。これを、同図(b)に示すように、これら6つの音階を含む全ての音階を非検出とし、時刻tを無音化する。 Subsequently, the birth probability determining unit 321 determines the detected scale for each detection time t in the detected scale data 722. If five or more adjacent scales are detected, the birth probability determination unit 321 All scales are silenced as non-detection. Specifically, for example, in FIG. 10A, six adjacent scales from “mi” to “la” are detected at time t n . This, as shown in FIG. (B), all scale comprising these six scales and non-detection, to silence the time t n.

その後、誕生確率決定部321は、検出音階データ722を基に、各音階が検出された延べ数(検出延べ数)を算出する。このとき、オクターブが異なっても同じ音名ならば同じ音階として数える。そして、各音階の検出延べ数を合計して、全音階の検出延べ数を算出する。また、音階のうち、半音記号「♯」が付いた音階(黒鍵音階)それぞれの検出延べ数を合計して、全黒鍵音階の検出延べ数を算出する。ここで、黒鍵音階は、「ド♯」、「レ♯」、「ファ♯」、「ソ♯」及び「ラ♯」の合計5種類である。   After that, the birth probability determination unit 321 calculates the total number (detected total number) in which each scale is detected based on the detected scale data 722. At this time, even if the octaves are different, if they have the same note name, they are counted as the same scale. Then, the total number of detections for each scale is summed to calculate the total number of detections for all scales. Further, the total number of detections of the scales (black key scales) with the semitone “#” in the scales is summed to calculate the total number of detections of all black key scales. Here, there are a total of five types of black key scales: “Do #”, “Le #”, “Fa #”, “So #”, and “La #”.

算出された検出延べ数は、音階検出延べ数データ741に格納される。図11に、音階検出延べ数データ741のデータ構成の一例を示す。同図によれば、音階検出延べ数データ741は、音階741aと、検出延べ数741bとを対応付けて格納しているとともに、全音階の検出延べ数741cと、全黒鍵音階の検出延べ数741dとを格納している。   The calculated total detection number is stored in the scale detection total number data 741. FIG. 11 shows an example of the data structure of the scale detection total number data 741. According to the figure, the scale detection total number data 741 stores the scale 741a and the detection total number 741b in association with each other, and stores the total scale detection number 741c and the total black key scale detection total number 741d. is doing.

また、誕生確率決定部321は、検出音階データ722を基に、検出された各音階の立ち上がり(入力タイミング)を判定する。即ち、検出音階データ722において検出された各音階について、次の条件A1〜A3のいずれかを満たす場合、該音階を「立ち上がり」と判定する。
条件A1:直前の検出時刻t−1において該音階が検出されておらず、且つ、直後の検出時刻t+1において該音階が検出されていない。
条件A2:直前の時刻t−1において該音階が検出されておらず、且つ、直後の時刻t+1において該音階が検出されているとともに、該時刻t+1において検出された該音階のレベルが現在の検出時刻tで検出された該音階のレベルより高い。
条件A3:直前の検出時刻t−1において該音階が検出されておらず、且つ、直後の検出時刻t+1において該音階が検出されているとともに、直後の検出時刻t+1において検出された該音階のレベルが現在の検出時刻tにおいて検出された該音階のレベルより低い。
Further, the birth probability determining unit 321 determines the rising (input timing) of each detected scale based on the detected scale data 722. In other words, when each of the scales detected in the detected scale data 722 satisfies any of the following conditions A1 to A3, the scale is determined to be “rise”.
Condition A1: The scale is not detected at the immediately preceding detection time t −1 , and the scale is not detected at the immediately following detection time t +1 .
Condition A2: The scale is not detected at the immediately preceding time t− 1 , the scale is detected at the immediately following time t + 1 , and the level of the scale detected at the time t + 1 is currently Higher than the level of the scale detected at the detection time t.
Condition A3: The scale is not detected at the immediately preceding detection time t− 1 , is detected at the immediately following detection time t + 1 , and is detected at the immediately following detection time t + 1 . Is lower than the level of the scale detected at the current detection time t.

立ち上がりの判定結果は、立ち上がり音階データ723に格納される。図12に、立ち上がり音階データ723の一例を示す。同図によれば、立ち上がり音階データ723は、検出音階データ722と同様に、検出時刻723a毎に、各音階723bが立ち上がりの音階であるか否かを格納している。同図において、「○」は、立ち上がりの音階であることを表し、「×」は、立ち上がりの音階でないこと(非立ち上がり)を表している。   The rising determination result is stored in the rising scale data 723. FIG. 12 shows an example of the rising scale data 723. According to the figure, the rising scale data 723 stores whether each scale 723b is a rising scale at each detection time 723a, as with the detected scale data 722. In the figure, “◯” represents a rising scale, and “x” represents that it is not a rising scale (non-rising).

続いて、誕生確率決定部321は、3オクターブ分のデータである検出音階データ722を音名別に1オクターブに纏め、音名別検出データ724とする。即ち、図13に示すように、検出時刻t毎に、オクターブが異なっても同じ音名の音階ならば同じ音階とし、1オクターブの音名別検出データ724とする。   Subsequently, the birth probability determining unit 321 collects the detected scale data 722, which is data for three octaves, into one octave for each pitch name, and sets it as the detected data for each pitch name 724. That is, as shown in FIG. 13, even if the octave is different at every detection time t, if the scale has the same pitch name, the scale is the same, and the detection data 724 by pitch name is one octave.

そして、誕生確率決定部321は、音名別検出データ724において、検出時刻t毎に、検出された音階の数を算出し、算出した音階の数が7以上ならば、該時刻tの全ての音階を非検出として無音化する。例えば、図14(a)では、時刻tにおいて、「ド」、「ド♯」、「ミ」、「ファ」、「ファ♯」、「ラ」、「ラ♯」及び「シ」の合計8つの音階が検出されている。これを、同図(b)に示すように、この時刻tにおいて、これらの8つの音階を含む全ての音階を非検出とする。 Then, the birth probability determination unit 321 calculates the number of detected scales at each detection time t in the detection data 724 by pitch name, and if the calculated number of scales is 7 or more, all of the times t are calculated. Silence the scale as non-detection. For example, in FIG. 14A, the sum of “do”, “do #”, “mi”, “fa”, “fa #”, “la”, “la #”, and “si” at time t n . Eight scales are detected. This, as shown in FIG. (B), at time t n, to all of the scale comprising these eight scales undetected.

また、立ち上がり音階データ723についても同様に、同じ音名の音階を同じ音階として1オクターブに纏め、音名別立ち上がりデータ725とする。   Similarly, with respect to the rising scale data 723, the scales having the same pitch name are grouped into one octave as the same scale, and are set as the rising data 725 by pitch name.

その後、誕生確率決定部321は、音名別検出データ724に対してコードの成立を判定する。ここで、コードとは、メジャーコードやマイナーコードといった予め定められた複数の音階の組合せ(音階組)であり、複数種類のコードの成立が判定される。即ち、図15に示すように、音名別検出データ724において、検出時刻t毎にコードの成立を判定し、コードの種類毎の成立数を算出する。このとき、各検出時刻tにおいて最大1つのコードの成立が判定される。また、音名別立ち上がりデータ725においても同様に、検出時刻t毎にコードの成立を判定し、コードの種類毎の成立数を算出する。そして、コードの種類毎に、音名別検出データ724及び音名別立ち上がりデータ725それぞれの成立数を加算して、成立数の合計を算出する。   After that, the birth probability determination unit 321 determines the establishment of the chord for the detection data 724 by pitch name. Here, the chord is a combination of a plurality of predetermined scales (scale group) such as a major chord and a minor chord, and it is determined that a plurality of types of chords are established. That is, as shown in FIG. 15, in the detection data by pitch name 724, the establishment of a chord is determined at each detection time t, and the number of establishments for each type of chord is calculated. At this time, it is determined that a maximum of one code is established at each detection time t. Similarly, in the rise data 725 by pitch name, the establishment of a chord is determined at each detection time t, and the number of establishments for each chord type is calculated. Then, for each chord type, the number of formations of the detection data for each pitch name 724 and the rising data for each pitch name 725 is added to calculate the total number of formations.

算出されたコードの成立数は、コード成立数データ742に格納される。図16に、コード成立数データ742のデータ構成の一例を示す。同図によれば、コード成立数データ742は、コードの判定順742aと、コード742bと、成立数742cとを対応付けて格納している。判定順742aは、4つの音階から成る4音コードのほうが、3つの音階から成る3音コードより順位が高くなるように設定されている。また、成立数742cには、音名別検出データ724及び音名別立ち上がりデータ725それぞれの成立数と、その合計とが含まれている。   The calculated number of formed codes is stored in code number formed data 742. FIG. 16 shows an example of the data configuration of the code establishment number data 742. According to the figure, the code establishment number data 742 stores a code determination order 742a, a code 742b, and an establishment number 742c in association with each other. The determination order 742a is set so that the four-tone chord composed of four scales has a higher rank than the three-tone chord composed of three scales. In addition, the number of formations 742c includes the number of formations of the detection data by pitch name 724 and the rising data by pitch name 725, and the sum thereof.

誕生確率決定部321は、コード成立数データ742で定められた判定順に従って、各コードの成立を判定する。即ち、音名別検出データ724において、検出時刻t毎に定められた判定順に従って各種類のコードの成立を判定し、最初に成立が判定されたコードを該時刻tでの成立コードとする。また、音名別立ち上がりデータ725についても同様に、検出時刻t毎に定められた判定順に従って各種類のコードの成立を判定し、最初に成立が判定されたコードを該時刻tでの成立コードとする。そして、コードの種類毎に、音名別検出データ724及び音名別立ち上がりデータ725それぞれでの成立数を加算して、成立数の合計とする。   The birth probability determination unit 321 determines the establishment of each code in accordance with the determination order determined by the code establishment number data 742. That is, in the detection data by pitch name 724, the formation of each type of code is determined according to the determination order determined for each detection time t, and the code that is determined to be formed first is set as the formation code at the time t. Similarly, with respect to the rise data 725 by pitch name, the formation of each type of code is determined according to the determination order determined at each detection time t, and the code that is determined to be formed first is the formation code at the time t. And Then, for each type of chord, the number of formations in each of the detection data by pitch name 724 and the rising data by name 725 is added to obtain the total number of formations.

続いて、誕生確率決定部321は、コード分類テーブル734に従い、コードの種類を分類したグループ(A)〜(D)それぞれについて、該グループに属する各コードの成立数の合計を該グループのポイントとする。   Subsequently, according to the code classification table 734, the birth probability determining unit 321 determines, for each of the groups (A) to (D) in which the code types are classified, the total number of established codes belonging to the group as the point of the group. To do.

コード分類テーブル734は、コードの分類を定義したデータテーブルである。図17に、コード分類テーブル734のデータ構成の一例を示す。同図によれば、コード分類テーブル734は、グループ734aと、コード734bとを対応付けて格納している。グループ734aには、グループ(A)〜(D)の4つがある。   The code classification table 734 is a data table in which code classification is defined. FIG. 17 shows an example of the data configuration of the code classification table 734. According to the figure, the code classification table 734 stores a group 734a and a code 734b in association with each other. There are four groups (A) to (D) in the group 734a.

グループ(A)〜(D)のポイントは、ポイントデータ743に格納される。図18に、ポイントデータ743のデータ構成の一例を示す。同図によれは、ポイントデータ743は、グループ743aと、ポイント743bとを対応付けて格納している。グループ743aには、グループ(A)〜(F)の6つのグループがあるが、ここでは、グループ(A)〜(D)のみのポイントを決定し、他のグループ(E),(F)についてはポイントを「0」とする。   The points of the groups (A) to (D) are stored in the point data 743. FIG. 18 shows an example of the data configuration of the point data 743. According to the figure, the point data 743 stores a group 743a and a point 743b in association with each other. There are six groups (A) to (F) in the group 743a. Here, only the points of the groups (A) to (D) are determined, and the other groups (E) and (F) are determined. Sets the point to “0”.

そして、誕生確率決定部321は、グループ(A)〜(D)のポイントが次の条件Bを満足するか否かを判断する。
条件B:グループ(A)〜(D)のうち、少なくとも1つのグループのポイントが「5」以上であり、且つ、3つ以上のグループのポイントが「1」以上である。
Then, the birth probability determination unit 321 determines whether or not the points of the groups (A) to (D) satisfy the following condition B.
Condition B: Among the groups (A) to (D), at least one group point is “5” or more, and three or more group points are “1” or more.

この条件Bを満足するならば、グループ(A)〜(D)から、ポイントが上位の3つのグループを選択する。そして、グループ/属性対応テーブル735を参照し、選択したグループそれぞれに対応する属性を、ポイントが上位の属性から順に、誕生させる候補のキャラクタの属性である第1〜第3属性とする。   If this condition B is satisfied, three groups with higher points are selected from the groups (A) to (D). Then, referring to the group / attribute correspondence table 735, the attributes corresponding to the selected groups are set as the first to third attributes that are the attributes of the candidate characters to be born in order from the attribute having the highest point.

グループ/属性対応テーブル735は、グループ(A)〜(D)とキャラクタの属性との対応を定義したデータテーブルである。図19に、グループ/属性対応テーブル735のデータ構成の一例を示す。同図によれば、グループ/属性対応テーブル735は、グループ735aと、キャラクタの属性735bとを対応付けて格納している。   The group / attribute correspondence table 735 is a data table that defines the correspondence between groups (A) to (D) and character attributes. FIG. 19 shows an example of the data configuration of the group / attribute correspondence table 735. According to the figure, the group / attribute correspondence table 735 stores a group 735a and a character attribute 735b in association with each other.

例えば、図18の場合、第1属性は、ポイントが最も多いグループ(C)に対応する「土」、第2属性は、ポイントが次に多いグループ(D)に対応する「水」、そして第3属性は、ポイントがその次に多いグループ(A)に対応する「火」となる。   For example, in the case of FIG. 18, the first attribute is “Soil” corresponding to the group (C) with the most points, the second attribute is “Water” corresponding to the group (D) with the next most points, and The three attributes are “fire” corresponding to the group (A) having the second most points.

そして、誕生確率決定部321は、第1〜第3の属性それぞれの誕生確率を、選択した各グループのポイントを基に決定する。即ち、選択した3つのグループそれぞれのポイントの和に対する各グループのポイントの割合を、該グループに対応する属性の誕生確率とする。例えば、図18の場合、第1属性「土」に対応するグループ(C)のポイントは「27」であり、第2属性「水」に対応するグループ(D)のポイントは「23」であり、第3属性「火」に対応するグループ(A)のポイントは「10」である。そして、第1属性「土」の誕生確率は「45%(=27/60(=27+23+10))」となり、第2属性「水」の誕生確率は「38%(=23/60)」となり、第3属性「火」の誕生確率は「17%(=10/60)」となる。   Then, the birth probability determining unit 321 determines the birth probability of each of the first to third attributes based on the points of each selected group. That is, the ratio of the point of each group to the sum of the points of each of the three selected groups is set as the birth probability of the attribute corresponding to the group. For example, in the case of FIG. 18, the point of the group (C) corresponding to the first attribute “Sat” is “27”, and the point of the group (D) corresponding to the second attribute “water” is “23”. The point of the group (A) corresponding to the third attribute “fire” is “10”. The birth probability of the first attribute “Sat” is “45% (= 27/60 (= 27 + 23 + 10))”, the birth probability of the second attribute “Water” is “38% (= 23/60)”, The birth probability of the third attribute “fire” is “17% (= 10/60)”.

決定された各属性の誕生確率は、決定誕生確率データ744に格納される。図20に、決定誕生確率データ744のデータ構成の一例を示す。同図によれば、決定誕生確率データ744は、属性744aと、誕生確率744bとを対応付けて格納している。属性744aは、第1〜第3属性を含んでいる。誕生確率744bは、合計が100%となるように設定されている。   The determined birth probability of each attribute is stored in the determined birth probability data 744. FIG. 20 shows an example of the data configuration of the determined birth probability data 744. According to the figure, the determined birth probability data 744 stores an attribute 744a and a birth probability 744b in association with each other. The attribute 744a includes first to third attributes. The birth probability 744b is set so that the total is 100%.

つまり、上述の条件Bを満足する場合、グループ(A)〜(D)それぞれに対応する属性、即ち「火」、「風」、「土」及び「水」の4種類の属性のキャラクタが誕生候補のキャラクタ(選択候補キャラクタ)となり、これらのキャラクタのうちから誕生させるキャラクタが選択されることになる。   That is, when the above-mentioned condition B is satisfied, characters having attributes corresponding to the groups (A) to (D), that is, “fire”, “wind”, “earth”, and “water” are born. A candidate character (selection candidate character) is selected, and a character to be born is selected from these characters.

ところで、グループ(A)〜(D)のポイントが条件Bを満足しない場合、誕生確率決定部321は、第1〜第3属性それぞれの属性及び誕生確率を次のように決定する。但し、グループ(A)〜(D)の全てのポイントが「0」の場合、即ちコードが1つも成立していない場合には、キャラクタの誕生を「失敗」と判断し、誕生確率を決定しない。   By the way, when the points of the groups (A) to (D) do not satisfy the condition B, the birth probability determination unit 321 determines the attributes and the birth probabilities of the first to third attributes as follows. However, when all the points of the groups (A) to (D) are “0”, that is, when no code is established, the birth of the character is determined as “failure” and the birth probability is not determined. .

即ち、“グループ(A)〜(D)のうち、ポイントが「5」以上のグループが1つもない”ために上述の条件Bが満足されない場合、検出音階データ722に基づく全黒鍵音階の検出延べ数を基に、ポイント設定テーブル736を参照して、グループ(E)、(F)のポイントを決定する。   That is, when the above condition B is not satisfied because “there is no group having points“ 5 ”or more among the groups (A) to (D)”, detection of the all-black key scale based on the detected scale data 722 Based on the total number, the points of the groups (E) and (F) are determined with reference to the point setting table 736.

図21に、ポイント設定テーブル736のデータ構成の一例を示す。同図によれば、ポイント設定テーブル736は、全音階の検出総述べ数に対する全黒鍵音階の検出延べ数割合736aと、グループ(E),(F)それぞれのポイント736bとを対応付けて格納している。   FIG. 21 shows an example of the data configuration of the point setting table 736. According to the figure, the point setting table 736 stores the detected total number ratio 736a of all black key scales with respect to the detected total number of all scales and the points 736b of the groups (E) and (F) in association with each other. ing.

誕生確率決定部321は、音階検出延べ数データ741を参照し、全音階の検出延べ数に対する全黒鍵音階の検出延べ数の割合(設定音階含有比率)を算出する。そして、ポイント設定テーブル736において、算出した検出延べ数割合に対応付けられているポイントを、グループ(E),(F)のポイントとして設定する。次いで、グループ(A)〜(F)のうちから、ポイントが上位の3グループを選択し、グループ/属性対応テーブル735を参照して、選択した3つのグループそれぞれに対応する属性を、ポイントが上位の属性から順に第1〜第3属性とする。そして、選択した各グループのポイントを基に、第1〜第3属性それぞれの誕生確率を決定する。即ち、選択した3つのグループそれぞれのポイントの和に対する各グループのポイントの割合を、該グループに対応する属性の誕生確率とする。   The birth probability determining unit 321 refers to the scale detection total number data 741 and calculates the ratio of the total number of detected black key scales to the total number of detected scales (set scale content ratio). Then, in the point setting table 736, the points associated with the calculated detected total number ratio are set as the points of the groups (E) and (F). Next, from the groups (A) to (F), the top three groups having the highest points are selected, and the group / attribute correspondence table 735 is referred to. The first to third attributes are set in order from the first attribute. Then, the birth probability of each of the first to third attributes is determined based on the points of each selected group. That is, the ratio of the point of each group to the sum of the points of each of the three selected groups is set as the birth probability of the attribute corresponding to the group.

また、グループ(A)〜(D)のポイントが、“グループ(A)〜(D)のうち、ポイントが「1」以上のグループが3つ未満である”ために上述の条件Bが満足されない場合、誕生確率決定部321は、検出音階データ722に基づく各音階の検出延べ数を基に、第1〜第3属性それぞれの属性及び誕生確率を決定する。   Further, since the points of the groups (A) to (D) are “there are less than three groups of the groups (A) to (D) whose points are“ 1 ”or more”, the above condition B is not satisfied. In this case, the birth probability determining unit 321 determines the attributes and the birth probabilities of the first to third attributes based on the detected total number of each scale based on the detected scale data 722.

即ち、グループ(A)〜(D)のうち、ポイントが「1」以上のグループが2つの場合、ポイントが多い一方のグループを第1グループとするとともに、グループ/属性対応テーブル735を参照して、該グループに対応する属性を第1属性とする。そして、他方のグループに対応する属性を第2属性とする。   That is, of the groups (A) to (D), when there are two groups with points “1” or more, one group with many points is set as the first group, and the group / attribute correspondence table 735 is referred to. The attribute corresponding to the group is the first attribute. The attribute corresponding to the other group is set as the second attribute.

また、グループ(A)〜(F)のうち、ポイントが「1」以上のグループが1つの場合、誕生確率決定部321は、該グループを第1グループとするとともに、グループ/属性対応テーブル735を参照して、該グループに対応する属性を第1属性とする。次いで、音階分類テーブル737に従って、音階の種類を分類したグループ(a)〜(f)それぞれについて、該グループに属する各音階の検出延べ数の合計を算出する。   Also, when there is one group with points “1” or more among the groups (A) to (F), the birth probability determination unit 321 sets the group as the first group, and sets the group / attribute correspondence table 735. Referring to the attribute corresponding to the group as the first attribute. Next, according to the scale classification table 737, for each of the groups (a) to (f) in which the scale types are classified, the total number of detections of each scale belonging to the group is calculated.

音階分類テーブル737は、音階の分類を定義したデータテーブルである。図22に、音階分類テーブル737のデータ構成の一例を示す。同図によれば、音階分類テーブル737は、グループ737aと、音階737bと、キャラクタの属性737cとを対応付けて格納している。グループ737aには、グループ(a)〜(f)の6つがあり、それぞれに2種類の音階が対応付けられている。   The scale classification table 737 is a data table that defines the scale classification. FIG. 22 shows an example of the data configuration of the scale classification table 737. According to the figure, the scale classification table 737 stores a group 737a, a scale 737b, and a character attribute 737c in association with each other. There are six groups (a) to (f) in the group 737a, and two types of scales are associated with each group.

算出された各グループの音階の検出延べ数の合計は、音階分類データ745に格納される。図23に、音階分類データ745のデータ構成の一例を示す。同図によれば、音階分類データ745は、グループ745aと、検出延べ数745bとを対応付けて格納している。   The calculated total number of detected scales of each group is stored in the scale classification data 745. FIG. 23 shows an example of the data configuration of the scale classification data 745. According to the figure, the scale classification data 745 stores a group 745a and a detected total number 745b in association with each other.

誕生確率決定部321は、音階検出延べ数データ741を参照し、グループ(a)〜(f)それぞれについて、該グループに属する各音階の検出延べ数の合計を算出する。そして、グループ(a)〜(f)のうち、検出延べ数の合計が最多のグループを判断し、判断したグループに対応する属性を第2属性とする。尚このとき、音階数が最多のグループに対応する属性が第1属性に一致する場合、音階数が次に多いグループに対応する属性を第2属性とする。   The birth probability determining unit 321 refers to the scale detection total number data 741 and calculates the total detection total number of each scale belonging to the group (a) to (f). Then, among the groups (a) to (f), the group having the largest total detection count is determined, and the attribute corresponding to the determined group is set as the second attribute. At this time, if the attribute corresponding to the group having the largest scale number matches the first attribute, the attribute corresponding to the group having the next largest scale number is set as the second attribute.

第1及び第2属性を決定すると、誕生確率決定部321は、続いて、所有キャラクタを基に第3属性を決定する。即ち、キャラクタを誕生させるとして選択されたタマゴの種別に該当するキャラ設定データ732及び所有キャラデータ731dを参照し、キャラクタの属性毎に、キャラクタの総数に対する、所有している該属性のキャラクタの数の割合である所有割合を算出する。そして、算出した所有割合が最小の属性を第3属性とする。   When the first and second attributes are determined, the birth probability determining unit 321 subsequently determines the third attribute based on the possessed character. That is, with reference to the character setting data 732 and possessed character data 731d corresponding to the type of egg selected to give birth to the character, the number of characters of the attribute possessed with respect to the total number of characters for each character attribute Calculate the ownership ratio, which is the ratio of. The attribute having the smallest calculated ownership ratio is set as the third attribute.

このように、第1〜第3属性それぞれの属性を決定すると、誕生確率決定部321は、誕生確率設定テーブル746を参照し、第1〜第3属性それぞれの誕生確率を決定する。   As described above, when the attributes of the first to third attributes are determined, the birth probability determining unit 321 refers to the birth probability setting table 746 and determines the birth probabilities of the first to third attributes.

図24に、誕生確率設定テーブル746のデータ構成の一例を示す。同図によれば、誕生確率設定テーブル746は、第1グループのポイント746aと、第1〜第3属性それぞれの誕生確率746bとを対応付けて格納している。   FIG. 24 shows an example of the data configuration of the birth probability setting table 746. According to the figure, the birth probability setting table 746 stores the first group point 746a and the birth probabilities 746b of the first to third attributes in association with each other.

誕生確率決定部321は、誕生確率設定テーブル746において、第1グループ(即ち、グループ(a)〜(f)のうち、第1属性とした属性に対応するグループ)のポイントに対応付けられている誕生確率を、第1〜第3属性それぞれの誕生確率として決定する。   The birth probability determination unit 321 is associated with the points of the first group (that is, the group corresponding to the attribute set as the first attribute among the groups (a) to (f)) in the birth probability setting table 746. A birth probability is determined as a birth probability for each of the first to third attributes.

つまり、上述の条件Bが満足されない場合、グループ(A)〜(F)それぞれに対応する属性、即ち「火」、「風」、「土」、「水」、「光」及び「闇」の6種類の属性のキャラクタが誕生候補のキャラクタとなり、これらのキャラクタのうちから誕生させるキャラクタが選択されることになる。   That is, when the above condition B is not satisfied, the attributes corresponding to the groups (A) to (F), that is, “fire”, “wind”, “earth”, “water”, “light”, and “darkness” Characters with six types of attributes become birth candidate characters, and a character to be born is selected from these characters.

このように、誕生確率決定部321が、入力音声から検出したコードを基にキャラクタの属性毎の誕生確率を決定すると、キャラ誕生制御部320が、誕生確率決定部321により決定された属性毎の誕生確率に従って、誕生させるキャラクタを決定する。即ち、第1〜第3属性のうちから、その誕生確率に従って、誕生させるキャラクタの属性を決定する。次いで、所有キャラデータ731d及び選択したタマゴに該当するキャラ設定データ732を参照し、決定した属性のキャラクタであって所有していないキャラクタのうちから、例えばランダムに選択したキャラクタを誕生させるキャラクタとする。   As described above, when the birth probability determining unit 321 determines the birth probability for each attribute of the character based on the code detected from the input voice, the character birth control unit 320 performs the determination for each attribute determined by the birth probability determining unit 321. The character to be born is determined according to the birth probability. That is, the attribute of the character to be born is determined from the first to third attributes according to the birth probability. Next, referring to the owned character data 731d and the character setting data 732 corresponding to the selected egg, a character that is a character that has been determined and is not owned, for example, is a character that gives birth to a randomly selected character. .

その後、誕生演出部322が、決定したキャラクタの誕生を演出する誕生演出を行う。具体的には、先ず、表示する3種類のパーティクルPである第1〜第3パーティクルそれぞれの色及び発生割合を決定する。ここで、第1〜第3パーティクルは、それぞれ、第1〜第3属性に対応している。また、発生割合は、第1〜第3パーティクルそれぞれの発生量の合計である発生総数に対する各パーティクルの発生量の割合である。即ち、各パーティクルPは全て同一の所定の寿命(数秒程度)を持っているため、各パーティクルPの表示数の比率は、該パーティクルPの発生割合に比例したものとなる。   After that, the birth production unit 322 performs a birth production that produces the birth of the determined character. Specifically, first, the colors and generation ratios of the first to third particles, which are the three types of particles P to be displayed, are determined. Here, the first to third particles correspond to the first to third attributes, respectively. The generation ratio is the ratio of the generation amount of each particle to the total generation amount that is the total generation amount of each of the first to third particles. That is, since each particle P has the same predetermined lifetime (several seconds), the ratio of the display number of each particle P is proportional to the generation rate of the particle P.

誕生演出部322は、決定誕生確率データ744及び属性/色対応テーブル751を参照し、第1〜第3属性それぞれに対応する色を、対応する第1〜第3パーティクルそれぞれの色とする。   The birth effect section 322 refers to the determined birth probability data 744 and the attribute / color correspondence table 751 and sets the colors corresponding to the first to third attributes as the colors of the corresponding first to third particles.

属性/色対応テーブル751は、キャラクタの属性と色との対応関係を定義したデータテーブルである。図25に、属性/色対応テーブル751のデータ構成の一例を示す。同図によれば、属性/色対応テーブル751は、キャラクタの属性751aと、色751bとを対応付けて格納している。   The attribute / color correspondence table 751 is a data table that defines the correspondence between character attributes and colors. FIG. 25 shows an example of the data configuration of the attribute / color correspondence table 751. According to the figure, the attribute / color correspondence table 751 stores character attributes 751a and colors 751b in association with each other.

また、誕生演出部322は、各パーティクルの発生割合として、キャラ誕生演出の開始時点での発生割合である初期発生割合、途中の時点での発生割合である中間発生割合、及び終了時点での発生割合である最終発生割合を決定する。具体的には、初期発生割合は、第1〜第3パーティクルの全てについて等しく33%とする。また、中間発生割合は、第1〜第3属性それぞれの誕生確率を、対応する第1〜第3パーティクルそれぞれの中間発生割合とする。そして、最終発生割合は、誕生させるキャラクタの属性に対応するパーティクルについては90%とし、他のパーティクルについては5%とする。   Further, the birth effect unit 322 generates, as an occurrence rate of each particle, an initial occurrence rate that is an occurrence rate at the start of the character birth effect, an intermediate occurrence rate that is an occurrence rate at an intermediate time, and an occurrence at the end time. Determine the final occurrence rate as a percentage. Specifically, the initial generation ratio is set to 33% equally for all of the first to third particles. Further, the intermediate generation ratio is determined by using the birth probability of each of the first to third attributes as the intermediate generation ratio of the corresponding first to third particles. The final generation ratio is 90% for the particles corresponding to the character attributes to be born, and 5% for the other particles.

決定した各パーティクルPの色及び発生割合は、パーティクルデータ752に格納される。図26に、パーティクルデータ752のデータ構成の一例を示す。同図によれば、パーティクルデータ752は、パーティクル752aと、色752bと、発生割合752cとを対応付けて格納している。パーティクル752aは、第1〜第3パーティクルの3種類がある。発生割合752cは、初期発生割合と、中間発生割合と、最終発生割合とを含んでいる。   The determined color and generation ratio of each particle P are stored in the particle data 752. FIG. 26 shows an example of the data structure of the particle data 752. According to the figure, the particle data 752 stores particles 752a, colors 752b, and occurrence ratios 752c in association with each other. There are three types of particles 752a: first to third particles. The generation ratio 752c includes an initial generation ratio, an intermediate generation ratio, and a final generation ratio.

続いて、誕生演出部322は、決定した各パーティクルの発生割合を基に、各パーティクルの発生を制御するための発生割合制御データ754を生成する。   Subsequently, the birth effect unit 322 generates generation ratio control data 754 for controlling the generation of each particle based on the determined generation ratio of each particle.

図27に、発生割合制御データ754の一例を示す。同図では、横軸を時刻t、縦軸を発生割合として、時刻tに対する各パーティクルPの発生割合を示している。同図によれば、第1〜第3パーティクルそれぞれの発生割合は、キャラ誕生演出の開始時刻t0では、全て等しく初期発生割合である33%である。そして、キャラ誕生演出の途中の時刻t1において定められた中間発生割合となり、終了時刻t2において定められた最終発生割合になるよう、徐々に変化(増加/減少)する。   FIG. 27 shows an example of the generation rate control data 754. In the figure, the generation rate of each particle P with respect to time t is shown with time t on the horizontal axis and the generation rate on the vertical axis. According to the figure, the generation ratios of the first to third particles are all 33%, which is the same initial generation ratio at the start time t0 of the character birth effect. And it changes gradually (increase / decrease) so that it becomes the intermediate generation ratio determined at time t1 in the middle of the character birth effect and the final generation ratio determined at end time t2.

その後、誕生演出部322は、選択されたタマゴ及び各パーティクルを表示したキャラ誕生演出画面を、例えば図3に一例を示したように画像表示部400に表示させるとともに、所定の演出音を音出力部500から出力させる。そして、このキャラ誕生演出画面において、発生総数制御データ753及び生成した発生割合制御データ754に従った各パーティクルの制御を開始する。   After that, the birth effect unit 322 displays the character birth effect screen displaying the selected egg and each particle on the image display unit 400 as shown in FIG. 3, for example, and outputs a predetermined effect sound. Output from the unit 500. Then, on this character birth effect screen, control of each particle is started in accordance with the total generation number control data 753 and the generated generation ratio control data 754.

発生総数制御データ753は、各パーティクルの発生数の総和である発生総数を制御するためのデータである。図28に、発生総数制御データ753の一例を示す。同図では、横軸を時刻t、縦軸を発生量Nとして、時刻tに対する発生総数Nを示している。同図によれば、発生総数Nは、キャラ誕生演出の開始時刻t0から途中の時刻t1までは発生総数N1で一定であり、それ以降は、終了時刻t2において予め定められた発生総数N2に達するよう、徐々に増加する。   The total generation number control data 753 is data for controlling the total generation number that is the sum of the generation number of each particle. FIG. 28 shows an example of the total generation number control data 753. In the figure, the total number N of occurrences at time t is shown with time t on the horizontal axis and the amount of generation N on the vertical axis. According to the figure, the total number of occurrences N is constant at the total number of occurrences N1 from the start time t0 of the character birth effect to the intermediate time t1, and thereafter reaches the predetermined total number of occurrences N2 at the end time t2. So gradually increase.

即ち、誕生演出部322は、所定時間毎に、発生総数制御データ753から現在の時点での発生総数Nを判断するとともに、発生割合制御データ754から第1〜第3パーティクルそれぞれの発生割合を判断する。そして、第1〜第3パーティクルそれぞれについて、発生総数Nに該パーティクルの発生割合を乗じて発生数を決定し、決定した発生数だけ該パーティクルPを発生させるように制御する。また、所定の寿命に達したパーティクルPを消滅(消去)させる。   That is, the birth effect unit 322 determines the total number N of occurrences at the current time point from the total generation number control data 753 at predetermined time intervals, and determines the generation ratios of the first to third particles from the generation ratio control data 754. To do. Then, for each of the first to third particles, the generation number is determined by multiplying the total generation number N by the generation ratio of the particles, and control is performed so as to generate the particles P by the determined generation number. Further, the particles P that have reached a predetermined lifetime are extinguished (erased).

更に、誕生演出部322は、現在表示されている各パーティクルPの移動を制御する。具体的には、タマゴの位置を発生基点(中心)としたパーティクルPに作用する移動力場を設定する。この移動力場は、発生基点の中心に向かってパーティクルPを引き寄せるように働く正(+)の力場、或いは、発生基点からパーティクルPを遠ざけるように働く負(−)の力場として設定される。そして、この移動力場により与えられる、力場基点との距離に応じた外力と、各パーティクルPに与えられた初速度に従って、各パーティクルPを移動させる。ここで、初速度として、例えば移動力場の発生基点を中心として回転する方向の速度ベクトルが与えられた場合、各パーティクルPは、タマゴOBを中心に回転しながら拡散或いは引き寄せられるように移動することになる。   Further, the birth effect section 322 controls the movement of each particle P currently displayed. Specifically, a moving force field acting on the particle P with the egg position as the generation base point (center) is set. This moving force field is set as a positive (+) force field that works to attract the particle P toward the center of the generation base point, or a negative (-) force field that works to keep the particle P away from the generation base point. The And each particle P is moved according to the external force according to the distance with the force field base point given by this moving force field and the initial velocity given to each particle P. Here, for example, when a velocity vector in the direction of rotation about the generation base point of the moving force field is given as the initial velocity, each particle P moves so as to be diffused or attracted while rotating around the egg OB. It will be.

そして、キャラクタの誕生演出を行うとして予め定められた所定時間が経過すると、誕生演出部322は、キャラ誕生画面の表示を終了し、続いて、誕生させるキャラクタを表示したキャラ誕生画面を、例えば図4に一例を示したように表示させる。また、誕生させたキャラクタを所有キャラクタに追加して所有キャラデータ731dを更新するとともに、選択された種別のタマゴを1つ消化して所有タマゴデータ731aを更新する。   Then, when a predetermined time elapses for performing the character's birth effect, the birth effect unit 322 terminates the display of the character birth screen, and then displays the character birth screen displaying the character to be born, for example, as shown in FIG. 4 is displayed as shown in the example. In addition, the born character is added to the owned character to update the owned character data 731d, and one selected type of egg is digested to update the owned egg data 731a.

図5において、画像生成部330は、ゲーム演算部310による演算結果に基づき、ゲーム画面を表示するためのゲーム画像を生成し、生成した画像の画像信号を画像表示部400に出力する。画像表示部400は、画像生成部330からの画像信号に基づいて、例えば1/60秒毎に1フレームの画面を再描画しながらゲーム画面を表示する。この機能は、例えばCRT、LCD、ELD、PDP、HMD等のハードウェアによって実現される。図1では、ディスプレイ12A,12Bがこれに該当する。   In FIG. 5, the image generation unit 330 generates a game image for displaying the game screen based on the calculation result by the game calculation unit 310, and outputs an image signal of the generated image to the image display unit 400. Based on the image signal from the image generation unit 330, the image display unit 400 displays the game screen while redrawing the screen of one frame every 1/60 seconds, for example. This function is realized by hardware such as CRT, LCD, ELD, PDP, and HMD. In FIG. 1, the displays 12A and 12B correspond to this.

音生成部340は、ゲーム中に使用される効果音やBGM等のゲーム音を生成し、生成したゲーム音の音信号を音出力部500に出力する。音出力部500は、音生成部340からの音信号に基づいてBGMや効果音等のゲーム音声を出力する。この機能は、例えばスピーカ等によって実現される。図1では、スピーカ13がこれに該当する。   The sound generator 340 generates game sounds such as sound effects and BGM used during the game, and outputs a sound signal of the generated game sounds to the sound output unit 500. The sound output unit 500 outputs game sounds such as BGM and sound effects based on the sound signal from the sound generation unit 340. This function is realized by, for example, a speaker. In FIG. 1, the speaker 13 corresponds to this.

通信部600は、処理部300からの制御信号に従って、他の携帯型ゲーム機1等の外部装置とのデータ通信を行う。この機能は、無線通信モジュール、有線用の通信ケーブルのジャックや制御回路などによって実現される。図1では、無線通信装置18がこれに該当する。   The communication unit 600 performs data communication with an external device such as another portable game machine 1 in accordance with a control signal from the processing unit 300. This function is realized by a wireless communication module, a wired communication cable jack, a control circuit, or the like. In FIG. 1, the wireless communication device 18 corresponds to this.

記憶部700は、処理部300に携帯型ゲーム機1を統合的に制御させるための諸機能を実現するためのシステムプログラムや、ゲームを実行させるために必要なプログラムやデータ等を記憶するとともに、処理部300の作業領域として用いられ、処理部300が各種プログラムに従って実行した演算結果や操作入力部100から入力される入力データ等を一時的に記憶する。この機能は、例えば各種ICメモリやハードディスク、CD−ROM、DVD、MO、RAM、VRAM等によって実現される。図1では、制御装置17に実装されているROMやRAM等がこれに該当する。   The storage unit 700 stores a system program for realizing various functions for causing the processing unit 300 to control the portable game machine 1 in an integrated manner, a program and data necessary for executing the game, and the like. Used as a work area of the processing unit 300, temporarily stores calculation results executed by the processing unit 300 according to various programs, input data input from the operation input unit 100, and the like. This function is realized by, for example, various IC memories, hard disks, CD-ROMs, DVDs, MOs, RAMs, VRAMs, and the like. In FIG. 1, ROM, RAM, and the like mounted on the control device 17 correspond to this.

また、記憶部700は、処理部300をゲーム演算部310として機能させるためのゲームプログラム710及びゲームデータを記憶している。ゲームプログラム710には、キャラ誕生制御部320として機能させるためのキャラ誕生プログラム711が含まれている。また、ゲームデータには、入力音声データ721と、検出音階データ722と、立ち上がり音階データ723と、音名別検出データ724と、音名別立ち上がりデータ725と、所有アイテムデータ731と、キャラ設定テーブル732と、レベル条件データ733と、コード分類テーブル734と、グループ/属性対応テーブル735と、ポイント設定テーブル736と、音階分類テーブル737と、音階検出延べ数データ741と、コード成立数データ742と、ポイントデータ743と、決定誕生確率データ744と、音階分類データ745と、誕生確率設定テーブル746と、属性/色対応テーブル751と、パーティクルデータ752と、発生総数制御データ753と、発生割合制御データ754とが含まれている。   In addition, the storage unit 700 stores a game program 710 and game data for causing the processing unit 300 to function as the game calculation unit 310. The game program 710 includes a character birth program 711 for causing the character birth control unit 320 to function. The game data includes input voice data 721, detected scale data 722, rising scale data 723, detection data by pitch name 724, rising data by pitch name 725, owned item data 731 and character setting table. 732, level condition data 733, chord classification table 734, group / attribute correspondence table 735, point setting table 736, scale classification table 737, scale detection total number data 741, chord formation number data 742, point Data 743, determined birth probability data 744, scale classification data 745, birth probability setting table 746, attribute / color correspondence table 751, particle data 752, total occurrence control data 753, and occurrence ratio control data 754 It is included.

[処理の流れ]
図29は、本実施形態におけるゲーム処理の流れを説明するためのフローチャートである。この処理は、ゲーム演算部310が、ゲームプログラム710に従った処理を実行することで実現される。
[Process flow]
FIG. 29 is a flowchart for explaining the flow of the game processing in the present embodiment. This process is realized by the game calculation unit 310 executing a process according to the game program 710.

同図によれば、ゲーム演算部310は、操作入力部100からの操作入力等に従って、公知の育成ゲームの進行制御を行う(ステップA1)。そして、新たにタマゴを獲得したならば(ステップA3:YES)、獲得したタマゴを所有タマゴに追加して所有タマゴデータ731aを更新する(ステップA5)。また、キャラクタを誕生させるならば(ステップA7:YES)、キャラ誕生制御部320がキャラ誕生処理を実行する(ステップA9)。   According to the figure, the game calculation unit 310 controls the progress of a known breeding game in accordance with an operation input from the operation input unit 100 (step A1). If the egg is newly acquired (step A3: YES), the acquired egg is added to the owned egg to update the owned egg data 731a (step A5). If a character is born (step A7: YES), the character birth control unit 320 executes a character birth process (step A9).

図30は、キャラ誕生処理の流れを説明するためのフローチャートである。
同図によれば、キャラ誕生制御部320は、所有タマゴデータ731aを参照し、用意されている複数種類のタマゴ及びその所有数の一覧であるタマゴ選択画面を画像表示部400に表示させるとともに、タマゴ選択画面において選択状態となっているタマゴに該当するキャラ設定テーブル732を参照し、選択状態となっているタマゴに設定されているキャラクタの一覧であるキャラ一覧画面を画像表示部400に表示させる。そして、操作入力部100からの操作入力に従って、所有しているタマゴのうちから1つのタマゴの選択を決定する(ステップB1)。
FIG. 30 is a flowchart for explaining the flow of the character birth process.
According to the figure, the character birth control unit 320 refers to the possessed egg data 731a and causes the image display unit 400 to display an egg selection screen that is a list of a plurality of types of eggs prepared and the number of possessed eggs. With reference to the character setting table 732 corresponding to the selected egg in the egg selection screen, the image display unit 400 displays a character list screen that is a list of characters set in the selected egg. . Then, according to the operation input from the operation input unit 100, the selection of one egg from the possessed eggs is determined (step B1).

タマゴの選択を決定すると、キャラ誕生制御部320は、所定のカウントダウン表示等を行ってプレーヤにメロディ音声を入力させ、音入力部200から入力される音声データを入力音声データ721として蓄積記憶する音声入力処理を行う(ステップB3)。その後、誕生確率決定部321が、入力音声データ721に基づく誕生確率決定処理を行う(ステップB5)。   When the selection of the egg is determined, the character birth control unit 320 performs a predetermined countdown display or the like, causes the player to input the melody sound, and stores and stores the sound data input from the sound input unit 200 as the input sound data 721. An input process is performed (step B3). Thereafter, the birth probability determination unit 321 performs a birth probability determination process based on the input voice data 721 (step B5).

図31は、誕生確率決定処理の流れを説明するためのフローチャートである、
同図によれば、誕生確率決定部321は、入力音声データ721から所定オクターブ内の各音階を検出し、検出音階データ722とする(ステップC1)。次いで、検出音階データ722に対するフィルタ処理を行う(ステップC3)。
FIG. 31 is a flowchart for explaining the flow of birth probability determination processing.
According to the figure, the birth probability determining unit 321 detects each scale within a predetermined octave from the input voice data 721 and sets it as detected scale data 722 (step C1). Next, the detected scale data 722 is filtered (step C3).

図32は、フィルタ処理の流れを説明するためのフローチャートである。
同図によれば、誕生確率決定部321は、検出音階データ722を基に、検出された各音階のレベルのうち、最大レベルを判定する(ステップD1)。そして、レベル条件データ733を参照し、検出音階データ722において、所定のレベル条件を満たさない音階を非検出とする(ステップD3)。次いで、検出音階データ722において、検出時刻t毎に、検出された音階を判断し、互いに隣り合う5つ以上の音階が検出されている場合、該時刻tの全ての音階を非検出とする(ステップD5)。
FIG. 32 is a flowchart for explaining the flow of the filtering process.
According to the figure, the birth probability determination unit 321 determines the maximum level among the levels of each detected scale based on the detected scale data 722 (step D1). Then, with reference to the level condition data 733, in the detected scale data 722, a scale that does not satisfy a predetermined level condition is not detected (step D3). Next, in the detected scale data 722, the detected scale is determined at each detection time t. When five or more adjacent scales are detected, all the scales at the time t are not detected ( Step D5).

次いで、誕生確率決定部321は、検出音階データ722において、各音階の検出延べ数を算出し、算出した各音階の検出延べ数を加算して全音階の検出延べ数の合計を算出する(ステップD7)。また、検出音階データ722において、各黒鍵音階の検出延べ数を加算し、全黒鍵音階の検出延べ数を算出する(ステップD9)。   Next, the birth probability determining unit 321 calculates the total number of detections of each scale in the detected scale data 722, and adds the calculated total number of detections of each scale to calculate the total number of detections of all scales (step D7). Further, in the detected scale data 722, the detected total number of each black key scale is added to calculate the detected total number of all black key scales (step D9).

続いて、検出音階データ722を音名別に1オクターブに纏め、音名別検出データ724を生成する(ステップD11)。そして、生成した音名別検出データ724において、検出時刻t毎に、検出された音階の種類数を算出し、算出した種類数が7以上ならば、該時刻tの全ての音階を非検出とする(ステップD13)。   Subsequently, the detected scale data 722 is grouped into one octave for each pitch name, and the pitch-specific detection data 724 is generated (step D11). Then, in the generated detection data by pitch 724, the number of types of detected scales is calculated for each detection time t. If the calculated number of types is 7 or more, all scales at the time t are not detected. (Step D13).

また、誕生確率決定部321は、検出音階データ722において、検出された各音階の立ち上がりを判定して、立ち上がり音階データ723を生成する(ステップD15)。そして、生成した立ち上がり音階データ723を音名別に1オクターブに纏め、音名別立ち上がりデータ725を生成する(ステップD17)。
以上の処理を行うと、誕生確率決定部321はフィルタ処理を終了する。
Further, the birth probability determination unit 321 determines the rising of each detected scale in the detected scale data 722, and generates rising scale data 723 (step D15). Then, the generated rising scale data 723 is collected into one octave for each pitch name, and the rising data for each pitch name 725 is generated (step D17).
When the above process is performed, the birth probability determination unit 321 ends the filter process.

図31において、フィルタ処理が終了すると、誕生確率決定部321は、音階検出延べ数データ741を参照して、検出音階データ722における全音階の検出延べ数を判断し、「10」以上ならば(ステップC5:YES)、続いて、コード成立判定処理を実行して、グループ(A)〜(D)のポイントを決定する(ステップC7)。   In FIG. 31, when the filtering process is completed, the birth probability determining unit 321 refers to the scale detection total number data 741 to determine the total number of detected scales in the detected scale data 722, and if “10” or more (step C5) : YES) Subsequently, a code establishment determination process is executed to determine points of the groups (A) to (D) (step C7).

図33は、コード成立判定処理の流れを説明するためのフローチャートである。
同図によれば、誕生確率決定部321は、音名別検出データ724において、各検出時刻tでのコードの成立を判定して、コードの種類毎の成立数を算出する(ステップE1)。また、音名別立ち上がりデータ725においても同様に、各検出時刻tでのコードの成立を判定して、コードの種類毎の成立数を算出する(ステップE3)。
FIG. 33 is a flowchart for explaining the flow of the code establishment determination process.
According to the figure, the birth probability determination unit 321 determines the formation of chords at each detection time t in the detection data 724 by pitch name, and calculates the number of formations for each type of chord (step E1). Similarly, in the rise data 725 by pitch name, it is determined whether a chord is established at each detection time t, and the number of establishments for each chord type is calculated (step E3).

そして、コードの種類毎に、音名別検出データ724及び音名別立ち上がりデータ725それぞれでの成立数を加算して、成立数の合計を算出する(ステップE5)。次いで、コードの種類を分類したグループ(A)〜(D)それぞれについて、該グループに分類されたコードの成立数の合計を、該グループのポイントとする(ステップE7)。
以上の処理を行うと、誕生確率決定部321はコード成立判定処理を終了する。
Then, for each type of chord, the number of formations in each of the detection data by pitch name 724 and the rising data by name 725 is added to calculate the total number of formations (step E5). Next, for each of the groups (A) to (D) into which the code types are classified, the total number of codes that are classified into the group is set as the point of the group (step E7).
When the above process is performed, the birth probability determination unit 321 ends the code establishment determination process.

図31において、コード成立判定処理が終了すると、誕生確率決定部321は、グループ(A)〜(D)それぞれのポイントを判断し、グループ(A)〜(D)のうち、少なくとも1つのグループのポイントが「5」以上であり(ステップC9:YES)、且つ、3つ以上のグループのポイントが「1」であるならば(ステップC11:YES)、グループ(A)〜(D)のうちから、ポイントが上位の3グループを選択する(ステップC13)。そして、選択した各グループに対応する属性を、ポイントの上位から順に、第1〜第3属性とし(ステップC15)、選択した各グループのポイントを基に、第1〜第3属性それぞれの誕生確率を決定する(ステップC17)。また、キャラクタの誕生を“成功”と判定する(ステップC19)。   In FIG. 31, when the code establishment determination process ends, the birth probability determination unit 321 determines each point of the groups (A) to (D), and at least one of the groups (A) to (D). If the point is “5” or more (step C9: YES) and the points of three or more groups are “1” (step C11: YES), the group is selected from the groups (A) to (D). , Three groups with higher points are selected (step C13). Then, the attributes corresponding to the selected groups are set as the first to third attributes in order from the top of the points (step C15), and the birth probabilities of the first to third attributes are based on the points of the selected groups. Is determined (step C17). Further, the birth of the character is determined as “success” (step C19).

また、グループ(A)〜(D)のうち、少なくとも1つのグループのポイントが「5」以上であるが(ステップC9:YES)、ポイントが「1」以上のグループ数が3に満たないならば(ステップC11:NO)、誕生確率決定部321は、続いて、グループ数不足時処理を実行して、第1〜第3属性それぞれの属性及び誕生確率を決定する(ステップC19)。   In addition, if the point of at least one of the groups (A) to (D) is “5” or more (step C9: YES), but the number of groups whose points are “1” or more is less than 3. (Step C11: NO), the birth probability determining unit 321 subsequently executes a process when the number of groups is insufficient to determine the attributes and birth probabilities of the first to third attributes (Step C19).

図34は、グループ数不足時処理の流れを説明するためのフローチャートである。
同図によれば、誕生確率決定部321は、グループ(A)〜(F)のうち、ポイントが最多のグループを第1グループとするとともに、該グループに対応する属性を第1属性とする(ステップF1)。
FIG. 34 is a flowchart for explaining the flow of processing when the number of groups is insufficient.
According to the figure, the birth probability determining unit 321 sets the group with the most points among the groups (A) to (F) as the first group and the attribute corresponding to the group as the first attribute ( Step F1).

次いで、グループ(A)〜(F)それぞれのポイントを判断し、グループ(A)〜(F)のうち、ポイントが「1」以上のグループが1つならば(ステップF3:YES)、音階検出延べ数データ741を参照し、音階の種類を分類したグループ(a)〜(f)それぞれについて、該グループに属する各音階の検出音階データ722における検出延べ数の合計を算出する(ステップF5)。   Next, the points of each of the groups (A) to (F) are determined, and if there is one group having the point “1” or more among the groups (A) to (F) (step F3: YES), the scale is detected. With reference to the total number data 741, for each of the groups (a) to (f) into which the scale types are classified, the total number of detections in the detected scale data 722 of each scale belonging to the group is calculated (step F5).

そして、グループ(a)〜(f)のうち、検出延べ数が最多のグループを選択し、選択したグループに対応する属性が、第1属性に一致するか否かを判断する。選択したグループが第1属性に一致しないならば(ステップF7:YES)、該選択したグループを第2属性とする(ステップF9)。一方、選択したグループが第1属性に一致するならば(ステップF7:NO)、グループ(a)〜(f)のうち、ポイントが2番目に多いグループを選択し、選択したグループに対応する属性を第2属性とする(ステップF11)。   Then, the group with the largest total number of detections is selected from the groups (a) to (f), and it is determined whether or not the attribute corresponding to the selected group matches the first attribute. If the selected group does not match the first attribute (step F7: YES), the selected group is set as the second attribute (step F9). On the other hand, if the selected group matches the first attribute (step F7: NO), the group having the second highest point is selected from the groups (a) to (f), and the attribute corresponding to the selected group is selected. Is the second attribute (step F11).

また、ステップF3において、グループ(A)〜(F)のうち、ポイントが「1」以上のグループが2つならば(ステップF3:NO)、グループ(A)〜(F)のうち、ポイントが2番目に多いグループに対応する属性を第2属性とする(ステップF13)。   In step F3, if there are two groups (A) to (F) whose points are “1” or more (step F3: NO), the points are out of groups (A) to (F). The attribute corresponding to the second largest group is set as the second attribute (step F13).

続いて、誕生確率決定部321は、選択されたタマゴの種別に該当するキャラ設定テーブル732及び所有アイテムデータ731を参照して、該選択した種別のタマゴに設定されている各キャラクタの属性のうち、所有率が最小の属性を判定する(ステップF15)。そして、判定した属性が第1又は第2属性に一致するか否かを判断し、何れにも一致しないならば(ステップF17:YES)、該判定した属性を第3属性とする(ステップF21)。一方、判定した属性が第1又は第2属性に一致するならば(ステップF17:NO)、所有率が次に小さいキャラクタの属性を判定した後(ステップF19)、ステップF17に戻り、同様に、第1又は第2属性との一致を判断する(ステップF17)。   Subsequently, the birth probability determining unit 321 refers to the character setting table 732 and the possessed item data 731 corresponding to the selected egg type, and among the attributes of each character set in the selected type egg. The attribute with the smallest ownership rate is determined (step F15). Then, it is determined whether or not the determined attribute matches the first or second attribute, and if it does not match either (step F17: YES), the determined attribute is set as the third attribute (step F21). . On the other hand, if the determined attribute matches the first or second attribute (step F17: NO), after determining the attribute of the character having the next smallest ownership rate (step F19), the process returns to step F17, and similarly, A match with the first or second attribute is determined (step F17).

そして、ポイント設定テーブル736を参照し、第1グループのポイントに応じて第1〜第3属性それぞれの誕生確率を決定する(ステップF23)。
以上の処理を行うと、誕生確率決定部321はグループ数不足時処理を終了する。
Then, with reference to the point setting table 736, the birth probabilities of the first to third attributes are determined according to the points of the first group (step F23).
When the above processing is performed, the birth probability determining unit 321 ends the processing when the number of groups is insufficient.

図31において、グループ数不足時処理が終了すると、誕生確率決定部321は、キャラクタの誕生を“成功”と判断する(ステップC29)。   In FIG. 31, when the process when the number of groups is insufficient is completed, the birth probability determining unit 321 determines that the character is “successful” (step C29).

また、グループ(A)〜(D)のうち、ポイントが「5」以上のグループが1つもないならば(ステップC9:NO)、誕生確率決定部321は、音階検出延べ数データ741を参照して、検出音階データ722における検出された音階の種類数を判断し、2未満ならば(ステップC21:NO)、キャラクタの誕生を“失敗”と判定する(ステップC31)。   Also, if there is no group having points “5” or more among the groups (A) to (D) (step C9: NO), the birth probability determining unit 321 refers to the scale detection total number data 741. Then, the number of types of scales detected in the detected scale data 722 is determined, and if it is less than 2 (step C21: NO), the birth of the character is determined as “failure” (step C31).

一方、音階の種類数が2以上ならば(ステップC21:YES)、音階検出延べ数データ741を参照して、検出音階データ722における全黒鍵音階の検出延べ数を基に、ポイント設定テーブル736を参照して、グループ(E),(F)のポイントを決定する(ステップC23)。次いで、グループ(A)〜(F)それぞれのポイントを判断し、グループ(A)〜(F)のうち、3つ以上のグループのポイントが「1」以上ならば(ステップC25:YES)、グループ(A)〜(F)のうちから、ポイントが上位の3グループを選択する(ステップC27)。そして、選択した各グループに対応する属性を、ポイントの上位から順に、第1〜第3属性とし(ステップC15)、選択した各グループのポイントを基に、第1〜第3属性それぞれの誕生確率を決定する(ステップC17)。また、キャラクタの誕生を“成功”と判定する(ステップC29)。   On the other hand, if the number of types of scales is 2 or more (step C21: YES), the point setting table 736 is referred to based on the detected total number of all black key scales in the detected scale data 722 with reference to the scale detection total number data 741. Then, the points of the groups (E) and (F) are determined (step C23). Next, the points of each of the groups (A) to (F) are determined. If the points of three or more groups among the groups (A) to (F) are “1” or more (step C25: YES), the group From (A) to (F), the top three groups are selected (step C27). Then, the attributes corresponding to the selected groups are set as the first to third attributes in order from the top of the points (step C15), and the birth probabilities of the first to third attributes are based on the points of the selected groups. Is determined (step C17). Further, the birth of the character is determined as “success” (step C29).

また、グループ(A)〜(F)のうち、ポイントが「1」以上のグループ数が3に満たないならば(ステップC25:YES)、誕生確率決定部321は、続いて、グループ数不足時処理を実行して、第1〜第3属性それぞれの属性及び誕生確率を決定する(ステップC19)。また、キャラクタの誕生を“成功”を判定する(ステップC29)。
以上の処理を行うと、誕生確率決定部321は誕生確率決定処理を終了する。
If the number of groups with points “1” or more among the groups (A) to (F) is less than 3 (step C25: YES), the birth probability determination unit 321 continues when the number of groups is insufficient. Processing is executed to determine the attributes and birth probabilities of the first to third attributes (step C19). Also, the success of the character is determined as “success” (step C29).
When the above process is performed, the birth probability determination unit 321 ends the birth probability determination process.

図30において、誕生確率決定処理が終了すると、キャラ誕生制御部320は、キャラクタの誕生が成功か否かを判断し、成功ならば(ステップB7:YES)、選択したタマゴの種別及び決定された属性毎の誕生確率に従って、誕生させるキャラクタを決定する。即ち、決定された属性毎の誕生確率に従って、誕生させるキャラクタの属性を決定する。次いで、選択したタマゴの種別に該当するキャラ設定テーブル732を参照し、決定した属性のキャラクタであって所有されていないキャラクタのうちから、例えばランダムに選択したキャラクタを誕生させるキャラクタとする(ステップB9)。そして、選択した種別のタマゴを1つ消化(減少)して所有タマゴデータ731aを更新する(ステップB11)。その後、誕生演出部322がキャラ誕生演出処理を実行する(ステップB13)。   In FIG. 30, when the birth probability determination process is completed, the character birth control unit 320 determines whether or not the character has been successfully created. If successful (step B7: YES), the selected egg type and the selected egg type are determined. The character to be born is determined according to the birth probability for each attribute. That is, the character attribute to be born is determined according to the determined birth probability for each attribute. Next, with reference to the character setting table 732 corresponding to the selected egg type, a character that is a character of the determined attribute and is not owned, for example, is a character that gives birth to a randomly selected character (step B9). ). Then, the selected type of egg is digested (decreased) to update the possessed egg data 731a (step B11). Thereafter, the birth effect production unit 322 executes the character birth effect process (step B13).

図35は、キャラ誕生演出処理の流れを説明するためのフローチャートである。
同図によれば、誕生演出部322は、第1〜第3属性に対応する色を、それぞれ、対応する第1〜第3パーティクルの色とする(ステップG1)。
FIG. 35 is a flowchart for explaining the flow of the character birth effect process.
According to the figure, the birth effect section 322 sets the colors corresponding to the first to third attributes as the colors of the corresponding first to third particles, respectively (step G1).

次いで、誕生演出部322は、第1〜第3パーティクルそれぞれの発生割合を決定する。即ち、第1〜第3パーティクルそれぞれの初期発生割合を、全て同割合(33%)とする(ステップG3)。また、第1〜第3属性の誕生確率を、それぞれ、対応する第1〜第3パーティクルの中間発生割合とする(ステップG5)。そして、第1〜第3パーティクルのうち、誕生させるキャラクタの属性に対応するパーティクルの最終発生割合を90%とするとともに、他の各パーティクルの最終発生割合を5%とする(ステップG7)。続いて、パーティクルデータ752を参照し、第1〜第3パーティクルそれぞれの発生割合に従って発生割合制御データ754を生成する(ステップG9)。   Next, the birth effect unit 322 determines the generation ratio of each of the first to third particles. That is, the initial generation ratios of the first to third particles are all set to the same ratio (33%) (step G3). Further, the birth probabilities of the first to third attributes are set as intermediate generation ratios of the corresponding first to third particles, respectively (step G5). Then, among the first to third particles, the final generation rate of particles corresponding to the attribute of the character to be born is set to 90%, and the final generation rate of other particles is set to 5% (step G7). Subsequently, by referring to the particle data 752, generation rate control data 754 is generated according to the generation rates of the first to third particles (step G9).

その後、誕生演出部322は、選択された種別のタマゴ及び各パーティクルを配置したキャラ誕生演出画面を画像表示部400に表示させ、発生総数制御データ753及び生成した発生割合制御データ754に従って、このキャラ誕生画面における各パーティクルの制御を開始する(ステップG11)。そして、キャラ誕生演出画面の表示から所定時間が経過すると(ステップG13:YES)、誕生演出部322は、キャラ誕生演出画面の表示を終了し、誕生させるキャラクタの誕生の様子を表示したキャラ誕生画面を画像表示部400に表示させる(ステップG15)。また、誕生させたキャラクタを所有キャラクタに追加して所有キャラデータ731dを更新する(ステップG17)。
以上の処理を行うと、誕生演出部322はキャラ誕生演出処理を終了する。
Thereafter, the birth effect unit 322 causes the image display unit 400 to display a character birth effect screen on which the selected type of egg and each particle are arranged, and this character according to the generated total number control data 753 and the generated generation rate control data 754. Control of each particle on the birth screen is started (step G11). When a predetermined time elapses from the display of the character birth effect screen (step G13: YES), the birth effect production unit 322 ends the display of the character birth effect screen, and displays the character birth screen on which the character to be born is displayed. Is displayed on the image display unit 400 (step G15). Further, the born character is added to the owned character to update the owned character data 731d (step G17).
If the above process is performed, the birth effect production | generation part 322 will complete | finish a character birth effect process.

また、図30のステップB7において、キャラクタの誕生が失敗ならば(ステップB7:NO)、キャラ誕生制御部320は、例えばキャラクタの誕生が失敗であることを示す誕生失敗画面を画像表示部400に表示させる、或いは音声を音出力部500から出力させるといったキャラ誕生失敗演出処理を行う(ステップB15)。
以上の処理を行うと、キャラ誕生制御部320はキャラ誕生処理を終了する。
If the birth of the character fails in step B7 of FIG. 30 (step B7: NO), the character birth control unit 320 displays a birth failure screen on the image display unit 400 indicating that, for example, the birth of the character is unsuccessful. Character birth failure effect processing such as displaying or outputting sound from the sound output unit 500 is performed (step B15).
If the above process is performed, the character birth control part 320 will complete | finish a character birth process.

図29において、キャラ誕生処理が終了すると、ゲーム演算部310は、ゲームを終了するか否かを判断し、終了しないならば(ステップA11:NO)、ステップA1に移行し、終了するならば(ステップA11:YES)、ゲーム処理を終了してゲームを終了する。   In FIG. 29, when the character birth process is finished, the game calculation section 310 determines whether or not to finish the game. If not finished (step A11: NO), the process proceeds to step A1, and if finished ( Step A11: YES), the game process is terminated and the game is terminated.

[作用・効果]
このように、本実施形態によれば、入力音声から、所定時間間隔の検出時間t毎にコードの成立が判定され、判定されたコードの種類毎の成立数を基に、複数のキャラクタの属性のうちから誕生させる候補のキャラクタの属性として第1〜第3属性が決定されるとともに、この第1〜第3属性それぞれの誕生確率が決定される。そして、第1〜第3属性のうち、誕生確率に従って決定された属性のキャラクタが誕生され、所有キャラクタに追加される。
[Action / Effect]
Thus, according to the present embodiment, the establishment of the code is determined from the input voice at each detection time t at a predetermined time interval, and the attributes of the plurality of characters are determined based on the number of formations for each determined code type. The first to third attributes are determined as the attributes of the candidate characters to be born, and the birth probabilities of the first to third attributes are determined. And the character of the attribute determined according to the birth probability among the first to third attributes is born and added to the owned character.

つまり、入力音声に含まれるコードの種類に応じたキャラクタが確率性を持ちながら誕生するため、同一のメロディを入力した場合であっても、その時々に応じて誕生するキャラクタが異なり、プレーヤを飽きさせない。また、第1〜第3属性それぞれの誕生確率は、対応するコードの成立数によって決まる。つまり、特定のコードを多く含む場合、該コードに対応付けられている属性のキャラクタが誕生される確率が高くなる。また、コードはメロディのイメージを決める大きな要素である。これにより、入力したメロディのイメージから誕生するキャラクタを予想するといった楽しみをプレーヤに与えることができる。   In other words, because the character corresponding to the type of code included in the input speech is born with probability, even when the same melody is input, the born character differs depending on the time and the player gets bored. I won't let you. Further, the birth probability of each of the first to third attributes is determined by the number of corresponding codes formed. That is, when a lot of specific codes are included, the probability that a character having an attribute associated with the code is born is increased. The chord is a big factor that determines the image of the melody. Accordingly, it is possible to give the player an enjoyment of predicting a character to be born from the input melody image.

[変形例]
尚、本発明の適用可能な実施形態は、上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能なのは勿論である。
[Modification]
It should be noted that embodiments to which the present invention can be applied are not limited to the above-described embodiments, and can be appropriately changed without departing from the spirit of the present invention.

(A)黒鍵音階の検出延べ数
例えば、上述の実施形態では、全音階の検出延べ数に対する全黒鍵音階の検出延べ数の割合に応じてグループ(E),(F)それぞれのポイントを決定することで、該グループ(E),(F)それぞれに対応する属性「光」及び「闇」のキャラクタを更に誕生候補のキャラクタの属性に含めることにしたが、これを、全黒鍵音階の検出延べ数に応じて、属性「光」及び「闇」のキャラクタを更に誕生候補のキャラクタに含めることにしても良い。具体的には、例えば、全黒鍵音階の検出延べ数が第1の所定数以上であり、且つ第2の所定数未満の場合、属性「光」或いは「闇」の一方の属性のキャラクタを誕生候補のキャラクタに含め、第2の所定数以上である場合には、属性「光」及び「闇」の両方の属性のキャラクタを誕生候補のキャラクタに含める。但し、第1の所定数<第2の所定数、である。
(A) Number of detected black key scales For example, in the above-described embodiment, the points of the groups (E) and (F) are determined according to the ratio of the detected number of all black key scales to the detected number of all scales. Then, the characters “light” and “darkness” corresponding to each of the groups (E) and (F) are further included in the attributes of the birth candidate characters. This is the total number of detected all black key scales. Accordingly, characters having the attributes “light” and “darkness” may be further included in the birth candidate characters. Specifically, for example, when the total number of detected black key scales is equal to or greater than the first predetermined number and less than the second predetermined number, a character having one attribute of “light” or “darkness” is born. If it is included in the candidate character and the number is equal to or greater than the second predetermined number, characters having both the attributes “light” and “darkness” are included in the birth candidate character. However, the first predetermined number <the second predetermined number.

(B)パーティクルP
また、上述の実施形態では、パーティクルPは粒子状であるとしたが、例えば三角形状や四角形状、線状といった他の形状であっても良いし、パーティクルPを微粒子状とし、パーティクルPが混じり合った様子が雲や煙のように表示されることにしても良い。
(B) Particle P
In the above-described embodiment, the particles P are in the form of particles. However, for example, other shapes such as a triangle shape, a quadrangular shape, and a line shape may be used. The combined state may be displayed like clouds or smoke.

また、各パーティクルPの大きさや形状、輝度といった表示態様を、時間経過に従って変化させることにしても良い。但しこの場合、パーティクルPの色は該当する属性を示唆するものであるため、変化させないことが望ましい。   Further, the display mode such as the size, shape, and luminance of each particle P may be changed as time passes. However, in this case, since the color of the particle P suggests the corresponding attribute, it is desirable not to change it.

また、上述の実施形態では、パーティクルPを発生/消滅させることで各パーティクルPの数を可変することにしたが、これを、パーティクルPは発生/消滅させずに総数を一定とし、各パーティクルPの色を変化させることで、各種類のパーティクルPの数の比率を可変することにしても良い。更に、各パーティクルPの寿命を一定としたが、これを、種類毎に各パーティクルPの寿命を可変することで、各種類のパーティクルPの数の比率を可変することにしても良い。   In the above-described embodiment, the number of each particle P is made variable by generating / disappearing the particle P. However, the particle P is not generated / disappeared, and the total number is kept constant. By changing the color, the ratio of the number of each type of particles P may be varied. Furthermore, although the lifetime of each particle P is made constant, this may be changed by changing the lifetime of each particle P for each type, thereby changing the ratio of the number of particles P of each type.

(C)音階
また、上述の実施形態では、音階として、「ドレミファソラシド」といった西洋音楽の音階を例にあげて説明したが、他の音階に適用することにしても良い。
(C) Scale In the above embodiment, the scale of Western music such as “Doremifasolaside” has been described as an example of the scale. However, the scale may be applied to other scales.

(D)誕生させるキャラクタの決定
また、上述の実施形態では、入力音声を基に決定した属性に対応するキャラクタのうちから、例えばランダムに選択したキャラクタを誕生させることにしたが、この誕生させるキャラクタの選択を、日時(日付及び時刻)を基に行うことにしても良い。具体的には、各キャラクタに、1日24時間を複数の時間帯(例えば、朝、昼及び夜)に分けた各時間帯毎の選択確率を設定しておく。そして、決定した属性に対応するキャラクタそれぞれについて設定されている時間帯毎の選択確率のうち、メロディ音声の入力を行った時刻に該当する時間帯に対応する選択確率に従って、誕生させるキャラクタを選択する。また、時刻ではなく、1年365日を複数の季節(例えば、春、夏、秋及び冬)に分けた各季節毎の選択確率を設定しておき、メロディ音声の入力を行った日付に該当する選択確率に従うことにしても良い。これによれば、メロディ音声を入力した日時に応じて、誕生するキャラクタが変更されることになる。
(D) Determination of character to be born In the above-described embodiment, a character selected at random from among the characters corresponding to the attribute determined based on the input voice is born. This selection may be performed based on the date and time (date and time). Specifically, selection probabilities for each time slot in which 24 hours a day are divided into a plurality of time slots (for example, morning, noon, and night) are set for each character. Then, of the selection probabilities set for each character corresponding to the determined attribute, the character to be born is selected according to the selection probability corresponding to the time zone corresponding to the time when the melody voice is input. . Also, instead of the time, set the selection probability for each season that divides 365 days a year into multiple seasons (for example, spring, summer, autumn, and winter), and corresponds to the date on which the melody voice was input You may decide to follow the selection probability to do. According to this, the character to be born is changed according to the date and time when the melody voice is input.

或いは、選択確率ではなく、時間帯とキャラクタとを対応付けておき、メロディ音声の入力を行った時刻に該当する時間帯に対応するキャラクタを誕生させることにしても良い。   Alternatively, instead of the selection probability, a time zone and a character may be associated with each other, and a character corresponding to the time zone corresponding to the time when the melody voice is input may be born.

(E)キャラクタの誕生タイミング
また、上述の実施形態では、誕生候補のキャラクタそれぞれの属性に対応するパーティクルPを表示させる誕生演出を行った後、キャラクタを誕生させることにしたが、誕生演出の途中でキャラクタを誕生させることにしても良いし、誕生演出と同時にキャラクタを誕生させることにしても良いし、或いは、キャラクタを誕生させた後(直後)、誕生演出を行うことにしても良い。
(E) Character Birth Timing In the above-described embodiment, the character is born after the birth effect for displaying the particles P corresponding to the attributes of the birth candidate characters. The character may be born, the character may be born at the same time as the birth effect, or the birth effect may be performed after the character is born (immediately after).

(F)属性
また、上述の実施形態では、各キャラクタを分類するパラメータとして、予め各キャラクタに属性を設定することにしたが、例えば、各キャラクタの攻撃力や守備力、発動可能な魔法技といった能力パラメータとしても良い。
(F) Attribute In the above-described embodiment, the attribute is set in advance for each character as a parameter for classifying each character. For example, the attack power or defense power of each character, or a magic technique that can be activated. It may be a capability parameter.

(G)適用するゲーム装置
また、上述の実施形態では、本発明を携帯型ゲーム機に適用した場合について説明したが、家庭用ゲーム装置や業務用ゲーム装置、携帯電話機といった、ゲームを実行可能な装置であれば同様に適用可能である。
(G) Game Device to be Applied In the above-described embodiment, the case where the present invention is applied to a portable game machine has been described. However, a game such as a home game device, a business game device, or a mobile phone can be executed. The same applies to any apparatus.

(H)適用するゲーム
更に、上述の実施形態では、本発明を育成ゲームに適用した場合について説明したが、ロールプレイングゲームといったキャラクタが登場する他のゲームについても同様に適用可能なのは勿論である。
(H) Game to be applied Further, in the above-described embodiment, the case where the present invention is applied to the breeding game has been described. However, it is needless to say that the present invention can be similarly applied to other games such as role-playing games.

携帯型ゲーム機の外観例。An appearance example of a portable game machine. (a)タマゴ選択画面、(b)キャラ一覧画面の一例。An example of (a) egg selection screen and (b) character list screen. キャラ誕生演出画面の一例。An example of a character birth effect screen. キャラ誕生画面の一例。An example of a character birth screen. 携帯型ゲーム機の機能構成例。2 is a functional configuration example of a portable game machine. 所有アイテムデータのデータ構成例。Data configuration example of owned item data. キャラ設定テーブルのデータ構成例。Data configuration example of character setting table. 検出音階データのデータ構成例。The data structural example of detected scale data. レベル条件データのデータ構成例。Data configuration example of level condition data. 連続する5つ以上の音階が検出された検出時刻tの無音化を説明する図。The figure explaining the silence of the detection time t when five or more continuous scales were detected. 音階検出延べ数データのデータ構成例。Data configuration example of scale detection total number data. 立ち上がり音階データのデータ構成例。Data structure example of rising scale data. 検出音階データから音名別検出データの生成を説明する図。The figure explaining the production | generation of the detection data classified by pitch name from detection scale data. 7つ以上の音階が検出された検出時刻の無音化を説明する図。The figure explaining the silence of the detection time when seven or more scales were detected. 音名別検出データにおけるコードの成立判定を説明する図。The figure explaining the formation determination of the chord in the detection data classified by pitch name. コード成立数データのデータ構成例。Data configuration example of code formation number data. コード分類テーブルのデータ構成例。Data configuration example of code classification table. ポイントデータのデータ構成例。Data configuration example of point data. グループ/属性対応テーブルのデータ構成例。6 is a data configuration example of a group / attribute correspondence table. 決定誕生確率データのデータ構成例。The data structural example of decision birth probability data. ポイント設定テーブルのデータ構成例。The data structural example of a point setting table. 音階分類テーブルのデータ構成例。The data structural example of a scale classification table. 音階分類データのデータ構成例。The data structural example of a scale classification data. 誕生確率設定テーブルのデータ構成例。The data structural example of a birth probability setting table. 属性/色対応テーブルのデータ構成例。9 is a data configuration example of an attribute / color correspondence table. パーティクルデータのデータ構成例。Data configuration example of particle data. 発生割合制御データの一例。An example of occurrence rate control data. 発生総数制御データの一例。An example of total occurrence control data. ゲーム処理の流れ図。Flow chart of game processing. ゲーム処理中に実行されるキャラ誕生処理の流れ図。The flowchart of the character birth process performed during a game process. キャラ誕生処理中に実行される誕生確率決定処理の流れ図。The flowchart of the birth probability determination process performed during a character birth process. 誕生確率決定処理中に実行されるフィルタ処理の流れ図。The flowchart of the filter process performed during a birth probability determination process. 誕生確率決定処理中に実行されるコード成立判定処理の流れ図。The flowchart of the code formation determination process performed during a birth probability determination process. 誕生確率決定処理中に実行されるグループ数不足時処理の流れ図。The flowchart of the process at the time of insufficient number of groups performed during a birth probability determination process. キャラ誕生処理中に実行されるキャラ誕生演出処理の流れ図。The flowchart of the character birth direction process performed during a character birth process.

符号の説明Explanation of symbols

1 携帯型ゲーム機
100 操作入力部
200 音入力部
300 処理部
310 ゲーム演算部
320 キャラ誕生制御部
321 誕生確率決定部
322 誕生演出部
330 画像生成部
340 音生成部
400 画像表示部
500 音出力部
600 通信部
700 記憶部
710 ゲームプログラム
711 キャラ誕生プログラム
721 入力音声データ
722 検出音階データ
723 立ち上がり音階データ
724 音名別検出データ
725 音名別立ち上がりデータ
731 所有アイテムデータ
732 キャラ設定データ
733 レベル条件データ
734 コード分類テーブル
735 グループ/属性対応テーブル
736 ポイント設定テーブル
737 音階分類テーブル
741 音階検出延べ数データ
742 コード成立数データ
743 ポイントデータ
744 決定誕生確率データ
745 音階分類データ
746 誕生確率設定テーブル
751 属性/色対応テーブル
752 パーティクルデータ
753 発生総数制御データ
754 発生割合制御データ
DESCRIPTION OF SYMBOLS 1 Portable game machine 100 Operation input part 200 Sound input part 300 Processing part 310 Game operation part 320 Character birth control part 321 Birth probability determination part 322 Birth production part 330 Image generation part 340 Sound generation part 400 Image display part 500 Sound output part 600 Communication Unit 700 Storage Unit 710 Game Program 711 Character Birth Program 721 Input Voice Data 722 Detected Scale Data 723 Rising Scale Data 724 Pitch Name Detection Data 725 Pitch Name Rise Data 731 Owned Item Data 732 Character Setting Data 733 Level Condition Data 734 Code classification table 735 Group / attribute correspondence table 736 Point setting table 737 Scale classification table 741 Scale detection total number data 742 Code establishment number data 743 Point data 44 determines birth probability data 745 scale classification data 746 birth probability setting table 751 attribute / color correspondence table 752 particle data 753 occurrence total control data 754 generated rate control data

Claims (13)

音声入力手段を有するコンピュータに、キャラクタが登場するゲームを実行させるためのプログラムであって、
予め定められた音階の組合せでなる複数種類の音階組のうち、前記音声入力手段に入力された入力音に含まれる音階組を検出する音階組検出手段、
前記音階組検出手段の検出結果に基づいて、新規に登場させるキャラクタを選択するキャラ選択手段、
前記キャラ選択手段により選択されたキャラクタを新規に登場させるキャラ登場制御手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a computer having voice input means to execute a game in which a character appears,
A scale set detecting means for detecting a scale set included in the input sound input to the voice input means among a plurality of types of scale sets formed by combinations of predetermined scales;
Character selection means for selecting a character to appear newly based on the detection result of the scale group detection means,
Character appearance control means for newly appearing the character selected by the character selection means,
A program for causing the computer to function as
音階組とキャラクタとが予め対応付けられており、
前記キャラ選択手段が、前記音階組検出手段により検出された音階組に対応するキャラクタを少なくとも含む選択候補キャラクタを決定し、該決定した選択候補キャラクタの中から新規に登場させるキャラクタを選択するように前記コンピュータを機能させるための請求項1に記載のプログラム。
The scale group and the character are associated in advance,
The character selection means determines a selection candidate character including at least a character corresponding to the scale set detected by the scale set detection means, and selects a character to be newly appeared from the determined selection candidate characters. The program according to claim 1 for causing said computer to function.
前記音階組検出手段が、所与の時間間隔で、当該時点の入力音に含まれる音階組を検出していき、
前記キャラ選択手段が、前記音階組検出手段による各音階組の検出延べ数に基づいて選択候補キャラクタを決定する、
ように前記コンピュータを機能させるための請求項2に記載のプログラム。
The scale set detection means detects a scale set included in the input sound at the time point at a given time interval,
The character selection means determines a selection candidate character based on the total number of detections of each scale set by the scale set detection means;
The program according to claim 2 for causing the computer to function.
前記キャラ選択手段が、検出延べ数の多い音階組に対応する選択候補キャラクタ程、高確度に選択するように新規に登場させるキャラクタを選択するように前記コンピュータを機能させるための請求項3に記載のプログラム。   4. The computer according to claim 3, wherein the character selection means causes the computer to select a newly appearing character so that a selection candidate character corresponding to a musical scale having a larger total number of detections is selected with higher accuracy. program. 入力音に、予め設定された音階音が含まれている比率である設定音階含有比率に応じて選択候補とするキャラクタが予め対応付けられており、
前記音声入力手段に入力された入力音の設定音階含有比率を判定する含有比率判定手段として前記コンピュータを機能させ、
前記キャラ選択手段が、更に、前記含有比率判定手段により判定された設定音階含有比率に応じたキャラクタを選択候補キャラクタに含めるように前記コンピュータを機能させる、
ための請求項2〜4の何れか一項に記載のプログラム。
Characters to be selected as candidates according to a set scale content ratio that is a ratio in which a preset scale sound is included in the input sound are associated in advance,
Causing the computer to function as a content ratio determining means for determining a set scale content ratio of the input sound input to the voice input means;
The character selection means further causes the computer to function as a selection candidate character including a character corresponding to the set scale content ratio determined by the content ratio determination means;
The program as described in any one of Claims 2-4 for.
予め設定された音階音である設定音階音が、前記音声入力手段に入力された入力音の所与の時間間隔の各時点に含まれているかを検出する設定音階検出手段として前記コンピュータを機能させ、
前記キャラ選択手段が、更に、前記設定音階検出手段により検出された検出延べ数が所定数に達している場合に、特別キャラクタを選択候補キャラクタに含めるように前記コンピュータを機能させる、
ための請求項2〜4の何れか一項に記載のプログラム。
Causing the computer to function as set scale detection means for detecting whether a set scale sound, which is a preset scale sound, is included in each time point of a given time interval of the input sound input to the voice input means. ,
The character selection means further causes the computer to include a special character as a selection candidate character when the total number of detections detected by the set scale detection means has reached a predetermined number;
The program as described in any one of Claims 2-4 for.
入力音が入力され得る時期を日付及び/又は時刻によって分けた複数の時期的条件ごとにキャラクタが予め対応付けられており、
前記キャラ選択手段が、前記複数の時期的条件のうち、前記音声入力手段からの入力音の入力時期が満足する時期的条件に対応するキャラクタを新規に登場させるキャラクタとして選択するように前記コンピュータを機能させるための請求項1〜6の何れか一項に記載のプログラム。
Characters are associated in advance for each of a plurality of time conditions in which the input sound can be input by date and / or time,
The character selection means selects the computer so as to select a character corresponding to a timing condition that satisfies an input timing of an input sound from the voice input means among the plurality of timing conditions as a new character to appear. The program as described in any one of Claims 1-6 for functioning.
前記音声入力手段に入力された入力音に含まれる各音階音の入力タイミングを検出する入力タイミング検出手段として前記コンピュータを機能させ、
前記音階組検出手段が、前記複数種類の音階組のうち、入力タイミングが同じ音同士で構成される音階組を検出する同時音音階組検出手段を有するように前記コンピュータを機能させる、
ための請求項1〜7の何れか一項に記載のプログラム。
Causing the computer to function as input timing detection means for detecting the input timing of each scale sound included in the input sound input to the voice input means;
The scale function detecting means causes the computer to function as a simultaneous sound scale detecting means for detecting a musical scale composed of sounds having the same input timing among the plurality of types of musical scale sets;
The program as described in any one of Claims 1-7 for.
前記音階組検出手段が、音名が同じ音階を同じ音階とみなして、前記音声入力手段に入力された入力音に含まれる音階組を検出するように前記コンピュータを機能させるための請求項1〜8の何れか一項に記載のプログラム。   The scale setting detection means regards the scales having the same pitch name as the same scale, and causes the computer to function to detect a scale set included in the input sound input to the voice input means. 9. The program according to any one of 8. 前記音声入力手段に入力された入力音に含まれる各音のうち、所定の強さに達した音のみを検出することで入力音をフィルタ処理するフィルタ処理手段として前記コンピュータを機能させ、
前記音階組検出手段が、前記フィルタ処理手段によりフィルタ処理された入力音を、前記音声入力手段に入力された入力音として、音階組を検出するように前記コンピュータを機能させる、
ための請求項1〜9の何れか一項に記載のプログラム。
Causing the computer to function as filter processing means for filtering the input sound by detecting only the sound reaching a predetermined intensity among the sounds included in the input sound input to the voice input means;
The scale group detection means causes the computer to function to detect a scale group by using the input sound filtered by the filter processing means as the input sound input to the voice input means;
The program as described in any one of Claims 1-9 for.
前記フィルタ処理手段が、前記音声入力手段に入力された入力音のうち、所定数以上の音階音が同時に入力されている時間部分を無音化する無音化手段を有するように前記コンピュータを機能させるための請求項10に記載のプログラム。   To cause the computer to function so that the filter processing means has a silencer that silences a time portion in which a predetermined number or more of scale sounds are simultaneously input among the input sounds input to the voice input means. The program according to claim 10. 請求項1〜11の何れか一項に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。   The computer-readable information storage medium which memorize | stored the program as described in any one of Claims 1-11. 音声入力手段を有し、キャラクタが登場するゲームを実行するゲーム装置であって、
予め定められた音階の組合せでなる複数種類の音階組のうち、前記音声入力手段に入力された入力音に含まれる音階組を検出する音階組検出手段と、
前記音階組検出手段の検出結果に基づいて、新規に登場させるキャラクタを選択するキャラ選択手段と、
前記キャラ選択手段により選択されたキャラクタを新規に登場させるキャラ登場制御手段と、
を備えるゲーム装置。
A game device that has a voice input means and executes a game in which a character appears,
A scale set detecting means for detecting a scale set included in the input sound input to the voice input means among a plurality of types of scale sets formed by combinations of predetermined scales;
Based on the detection result of the scale group detection means, a character selection means for selecting a character to appear newly,
Character appearance control means for newly appearing the character selected by the character selection means;
A game device comprising:
JP2006234164A 2006-08-30 2006-08-30 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE Active JP4108719B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006234164A JP4108719B2 (en) 2006-08-30 2006-08-30 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
US11/892,789 US20080058101A1 (en) 2006-08-30 2007-08-27 Game process control method, information storage medium, and game device
GB0716859A GB2446677B (en) 2006-08-30 2007-08-30 Game process control method, information storage medium, and game device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006234164A JP4108719B2 (en) 2006-08-30 2006-08-30 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Publications (2)

Publication Number Publication Date
JP2008054851A true JP2008054851A (en) 2008-03-13
JP4108719B2 JP4108719B2 (en) 2008-06-25

Family

ID=38616989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006234164A Active JP4108719B2 (en) 2006-08-30 2006-08-30 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Country Status (3)

Country Link
US (1) US20080058101A1 (en)
JP (1) JP4108719B2 (en)
GB (1) GB2446677B (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011030761A1 (en) * 2009-09-11 2011-03-17 株式会社コナミデジタルエンタテインメント Music game system, computer program of same, and method of generating sound effect data
WO2011145431A1 (en) * 2010-05-19 2011-11-24 株式会社バンダイ Gaming device and computer program
JP2017154016A (en) * 2017-06-15 2017-09-07 株式会社スクウェア・エニックス Video game processor, and video game processing program
JP2020054842A (en) * 2016-09-05 2020-04-09 グリー株式会社 Game control method, computer, and control program

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5411425B2 (en) * 2007-12-25 2014-02-12 任天堂株式会社 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5925413B2 (en) * 2010-09-07 2016-05-25 リコーイメージング株式会社 Imaging apparatus and game system
JP5757452B2 (en) * 2010-09-07 2015-07-29 リコーイメージング株式会社 Imaging device
EP2772904B1 (en) * 2013-02-27 2017-03-29 Yamaha Corporation Apparatus and method for detecting music chords and generation of accompaniment.
KR20150093971A (en) * 2014-02-10 2015-08-19 삼성전자주식회사 Method for rendering music on the basis of chords and electronic device implementing the same

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3894186A (en) * 1972-10-20 1975-07-08 Sound Sciences Inc Tone analysis system with visual display
US4024789A (en) * 1973-08-30 1977-05-24 Murli Advani Tone analysis system with visual display
US4081829A (en) * 1976-08-23 1978-03-28 Atari, Inc. Audio activated video display
US4267561A (en) * 1977-11-02 1981-05-12 Karpinsky John R Color video display for audio signals
US4257062A (en) * 1978-12-29 1981-03-17 Meredith Russell W Personalized audio-visual system
US4392409A (en) * 1979-12-07 1983-07-12 The Way International System for transcribing analog signals, particularly musical notes, having characteristic frequencies and durations into corresponding visible indicia
US4301703A (en) * 1980-04-14 1981-11-24 Kimball International, Inc. High note data generator
US4331062A (en) * 1980-06-02 1982-05-25 Rogers Allen E Visual note display apparatus
US4366741A (en) * 1980-09-08 1983-01-04 Musitronic, Inc. Method and apparatus for displaying musical notations
US4363482A (en) * 1981-02-11 1982-12-14 Goldfarb Adolph E Sound-responsive electronic game
AU600896B2 (en) * 1985-03-20 1990-08-30 Roger M. Paist Video display of two-channel audio signals
US5513129A (en) * 1993-07-14 1996-04-30 Fakespace, Inc. Method and system for controlling computer-generated virtual environment in response to audio signals
JPH11509336A (en) * 1995-07-14 1999-08-17 トランスパフォーマンス,エルエルシー Multi-frequency display for musical sounds
US6313843B1 (en) * 1997-08-27 2001-11-06 Casio Computer Co., Ltd. Apparatus and method for controlling image display, and recording medium storing program for controlling image display
JP2922509B2 (en) * 1997-09-17 1999-07-26 コナミ株式会社 Music production game machine, production operation instruction system for music production game, and computer-readable storage medium on which game program is recorded
US6464585B1 (en) * 1997-11-20 2002-10-15 Nintendo Co., Ltd. Sound generating device and video game device using the same
JP3384314B2 (en) * 1997-12-02 2003-03-10 ヤマハ株式会社 Tone response image generation system, method, apparatus, and recording medium therefor
JP2860097B1 (en) * 1998-01-08 1999-02-24 テクモ株式会社 Medium recording game program and game device
JPH11219443A (en) * 1998-01-30 1999-08-10 Konami Co Ltd Method and device for controlling display of character image, and recording medium
US5990405A (en) * 1998-07-08 1999-11-23 Gibson Guitar Corp. System and method for generating and controlling a simulated musical concert experience
US7096186B2 (en) * 1998-09-01 2006-08-22 Yamaha Corporation Device and method for analyzing and representing sound signals in the musical notation
JP2000237455A (en) * 1999-02-16 2000-09-05 Konami Co Ltd Music production game device, music production game method, and readable recording medium
US6280329B1 (en) * 1999-05-26 2001-08-28 Nintendo Co., Ltd. Video game apparatus outputting image and music and storage medium used therefor
JP3704001B2 (en) * 1999-08-09 2005-10-05 株式会社トミー Game device
US6541692B2 (en) * 2000-07-07 2003-04-01 Allan Miller Dynamically adjustable network enabled method for playing along with music
US7174510B2 (en) * 2001-10-20 2007-02-06 Hal Christopher Salter Interactive game providing instruction in musical notation and in learning an instrument
US6905414B2 (en) * 2002-05-16 2005-06-14 Microsoft Corporation Banning verbal communication to and from a selected party in a game playing system
WO2005022322A2 (en) * 2003-08-25 2005-03-10 Blue Street Studios, Inc. Video game system and method
JP4307193B2 (en) * 2003-09-12 2009-08-05 株式会社バンダイナムコゲームス Program, information storage medium, and game system
JP2006102270A (en) * 2004-10-06 2006-04-20 Sony Computer Entertainment Inc Information processing method, and information processing terminal
US7601904B2 (en) * 2005-08-03 2009-10-13 Richard Dreyfuss Interactive tool and appertaining method for creating a graphical music display
US20070163427A1 (en) * 2005-12-19 2007-07-19 Alex Rigopulos Systems and methods for generating video game content

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011030761A1 (en) * 2009-09-11 2011-03-17 株式会社コナミデジタルエンタテインメント Music game system, computer program of same, and method of generating sound effect data
JP2011056122A (en) * 2009-09-11 2011-03-24 Konami Digital Entertainment Co Ltd Music game system, computer program of the same, and generating method of sound effect data
WO2011145431A1 (en) * 2010-05-19 2011-11-24 株式会社バンダイ Gaming device and computer program
JP2020054842A (en) * 2016-09-05 2020-04-09 グリー株式会社 Game control method, computer, and control program
JP2017154016A (en) * 2017-06-15 2017-09-07 株式会社スクウェア・エニックス Video game processor, and video game processing program

Also Published As

Publication number Publication date
US20080058101A1 (en) 2008-03-06
GB2446677B (en) 2008-12-31
GB2446677A (en) 2008-08-20
GB0716859D0 (en) 2007-10-10
JP4108719B2 (en) 2008-06-25

Similar Documents

Publication Publication Date Title
JP4108719B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP6236765B2 (en) Music data editing apparatus and music data editing method
JP3058051B2 (en) Musical amusement system
US9061205B2 (en) Music video game with user directed sound generation
JP6004358B1 (en) Speech synthesis apparatus and speech synthesis method
KR20200003022A (en) Role play simulation method and terminal device in VR scenario
KR20060112633A (en) System and method for grading singing data
JP2012504834A (en) A system for musically interacting incarnations
JP4137148B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
KR101931087B1 (en) Method for providing a melody recording based on user humming melody and apparatus for the same
JP4928195B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
ES2356386T3 (en) METHOD FOR SUPPLYING AN AUDIO SIGNAL AND METHOD FOR GENERATING BACKGROUND MUSIC.
JP2011182841A (en) Game device, method for controlling game device, and program
JP2015163982A (en) Voice synthesizer and program
JP2011164162A (en) Support device for giving expression to performance
JP6617784B2 (en) Electronic device, information processing method, and program
JP2017097332A (en) Voice synthesizer and voice synthesizing method
JP2013148864A (en) Music data editing device
JP2003177751A (en) Playing data processing device
JP3787642B2 (en) Performance instruction device and recording medium on which performance instruction program is recorded
US20230244646A1 (en) Information processing method and information processing system
JP2004233573A (en) System, method, and program for musical performance
JP4243921B2 (en) Karaoke device with typing game function
JP4069890B2 (en) Musical amusement system
JP2005099844A (en) Musical amusement system

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080402

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110411

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4108719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110411

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110411

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120411

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130411

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130411

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140411

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250