JP3563034B2 - Entertainment system, entertainment device, recording medium, and program - Google Patents

Entertainment system, entertainment device, recording medium, and program Download PDF

Info

Publication number
JP3563034B2
JP3563034B2 JP2000393519A JP2000393519A JP3563034B2 JP 3563034 B2 JP3563034 B2 JP 3563034B2 JP 2000393519 A JP2000393519 A JP 2000393519A JP 2000393519 A JP2000393519 A JP 2000393519A JP 3563034 B2 JP3563034 B2 JP 3563034B2
Authority
JP
Japan
Prior art keywords
frame
display
moving image
fitted
entertainment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000393519A
Other languages
Japanese (ja)
Other versions
JP2002066132A (en
Inventor
孝史 藤澤
直人 中井
智朗 立澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2000393519A priority Critical patent/JP3563034B2/en
Publication of JP2002066132A publication Critical patent/JP2002066132A/en
Application granted granted Critical
Publication of JP3563034B2 publication Critical patent/JP3563034B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、各種プログラムを実行するエンタテインメント装置に接続され、使用者による操作要求を前記エンタテインメント装置に入力する少なくとも1つの操作装置を有するエンタテインメントシステムと、操作装置や表示装置が接続可能とされたエンタテインメント装置と、前記エンタテインメントシステムやエンタテインメント装置にて使用されるプログラムやデータが記録された記録媒体と、プログラム自体に関する。
【0002】
【従来の技術】
ビデオゲーム機を含むエンタテインメント装置のような情報機器(エンタテインメントシステム)として、例えばCD−ROM等の記録媒体に格納されたゲーム内容をテレビジョン受像機の画面上に表示させながら、操作装置で操作してゲームを進行させるものがある。
【0003】
このエンタテインメントシステムにおけるエンタテインメント装置と操作装置との間は、通常、シリアルインターフェースで接続され、エンタテインメント装置からクロックが送られると、そのクロックに同期して操作装置から使用者の操作に対応したキースイッチ情報等を送るようになっている。
【0004】
また、最近では、操作装置内に外部(例えばエンタテインメント装置)からの要求によって使用者に振動を与える振動発生手段を設けるようにして、例えばゲームの進行中において、使用者の操作に応答するように種々の振動を使用者に与えるようにしたシステムが開発され、実用化に至っている。
【0005】
【発明が解決しようとする課題】
ところで、上述のようなエンタテインメントシステムを使った音楽のビデオゲームとしては、操作装置に配列されたボタンのうち、表示装置に表示された指定のボタンをリズムに合わせて押したり、床に敷いた平面上のコントローラに配置されたボタンをリズムに合わせて足で踏んで楽しむなどのビデオゲームがある。
【0006】
これらのゲームは、指定されたボタンを決められたタイミングで操作したかどうかを判定して勝敗を決めるものであるため、音楽というよりは、スポーツをしている感覚が強く、音楽を楽しむという部分に欠ける。
【0007】
音楽のリズムに乗る場合、強制的に指定されたボタンを押すよりも、自由な発想で任意のボタンを好き勝手にリズムに合わせて押していく方が、使用者の興味が持続できるという効果があり、しかも、面白い。
【0008】
また、使用者による操作入力のタイミングに従って、任意の音声が発生し、しかも、操作入力の種類に応じて動画が組み合わされてゆき、最終的に1つのシーンの映像が作成されるようになれば、1つの音楽を作成するという楽しみと1つのシーンの映像を作成するという楽しみを同時に享受することができ、ビデオゲームに対する興味を持続させることができる。
【0009】
本発明はこのような課題を考慮してなされたものであり、使用者による操作入力のタイミングに従って、任意の音声が発生し、更に操作入力の種類に応じて動画が組み合わされて、最終的に1つのシーンの映像を作成することができ、1つの音楽を作成するという楽しみと1つのシーンの映像を作成するという楽しみを同時に享受することができるエンタテインメントシステム、エンタテインメント装置、記録媒体及びプログラムを提供することを目的とする。
【0010】
【課題を解決するための手段】
本発明に係るエンタテインメントシステムは、各種プログラムを実行するエンタテインメント装置と、使用者による操作要求を前記エンタテインメント装置に入力する少なくとも1つの操作装置と、前記エンタテインメント装置から出力された画像を表示する表示装置とを有するエンタテインメントシステムにおいて、所定のテンポに合わせて移動する枠を前記表示装置に表示するように制御する枠表示手段と、前記表示装置に、複数種類のオブジェクトのうち、選択された1つのオブジェクトが投げ上げられ、その後、前記枠に向かって落下する表示を行うように制御するオブジェクト表示手段と、前記オブジェクトが前記枠に落下した際の前記使用者からの操作入力のタイミングを検出するタイミング検出手段と、前記操作入力のあった時点で、前記オブジェクトの一部又は全部が前記枠の表示範囲に含まれている場合に、前記オブジェクトが前記枠にはめ込まれたと判別し、前記オブジェクトが前記枠の表示範囲から外れている場合に、前記オブジェクトが前記枠にはめ込まれていないと判別する判別手段と、前記オブジェクトが前記枠にはめ込まれていると判別された場合に、前記オブジェクトの種類に対応した動画データを読み出す動画読出し手段と、前記枠表示手段による処理、前記オブジェクト表示手段による処理、前記タイミング検出手段による処理、前記判別手段による処理及び前記動画読出し手段による処理を含む一連の処理を繰り返すことによって順次読み出される動画データを順番に組み合わせて長編の動画データとする手段とを有することを特徴とする。
【0011】
また、本発明に係るエンタテインメント装置は、使用者による操作要求を受ける操作装置と、画像を表示するための表示装置が接続可能であって、かつ、各種プログラムを実行するエンタテインメント装置において、所定のテンポに合わせて移動する枠を前記表示装置に表示するように制御する枠表示手段と、前記表示装置に、複数種類のオブジェクトのうち、選択された1つのオブジェクトが投げ上げられ、その後、前記枠に向かって落下する表示を行うように制御するオブジェクト表示手段と、前記オブジェクトが前記枠に落下した際の前記使用者からの操作入力のタイミングを検出するタイミング検出手段と、前記操作入力のあった時点で、前記オブジェクトの一部又は全部が前記枠の表示範囲に含まれている場合に、前記オブジェクトが前記枠にはめ込まれたと判別し、前記オブジェクトが前記枠の表示範囲から外れている場合に、前記オブジェクトが前記枠にはめ込まれていないと判別する判別手段と、前記オブジェクトが前記枠にはめ込まれていると判別された場合に、前記オブジェクトの種類に対応した動画データを読み出す動画読出し手段と、前記枠表示手段による処理、前記オブジェクト表示手段による処理、前記タイミング検出手段による処理、前記判別手段による処理及び前記動画読出し手段による処理を含む一連の処理を繰り返すことによって順次読み出される動画データを順番に組み合わせて長編の動画データとする手段とを有することを特徴とする。
【0012】
また、本発明に係る記録媒体は、各種プログラムを実行するエンタテインメント装置と、使用者による操作要求を前記エンタテインメント装置に入力する少なくとも1つの操作装置と、前記エンタテインメント装置から出力された画像を表示する表示装置とを有するエンタテインメントシステムを、所定のテンポに合わせて移動する枠を前記表示装置に表示するように制御する枠表示手段、前記表示装置に、複数種類のオブジェクトのうち、選択された1つのオブジェクトが投げ上げられ、その後、前記枠に向かって落下する表示を行うように制御するオブジェクト表示手段、前記オブジェクトが前記枠に落下した際の前記使用者からの操作入力のタイミングを検出するタイミング検出手段、前記操作入力のあった時点で、前記オブジェクトの一部又は全部が前記枠の表示範囲に含まれている場合に、前記オブジェクトが前記枠にはめ込まれたと判別し、前記オブジェクトが前記枠の表示範囲から外れている場合に、前記オブジェクトが前記枠にはめ込まれていないと判別する判別手段、前記オブジェクトが前記枠にはめ込まれていると判別された場合に、前記オブジェクトの種類に対応した動画データを読み出す動画読出し手段、前記枠表示手段による処理、前記オブジェクト表示手段による処理、前記タイミング検出手段による処理、前記判別手段による処理及び前記動画読出し手段による処理を含む一連の処理を繰り返すことによって順次読み出される動画データを順番に組み合わせて長編の動画データとする手段として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。
【0013】
また、本発明に係るプログラムは、各種プログラムを実行するエンタテインメント装置と、使用者による操作要求を前記エンタテインメント装置に入力する少なくとも1つの操作装置と、前記エンタテインメント装置から出力された画像を表示する表示装置とを有するエンタテインメントシステムを、所定のテンポに合わせて移動する枠を前記表示装置に表示するように制御する枠表示手段、前記表示装置に、複数種類のオブジェクトのうち、選択された1つのオブジェクトが投げ上げられ、その後、前記枠に向かって落下する表示を行うように制御するオブジェクト表示手段、前記オブジェクトが前記枠に落下した際の前記使用者からの操作入力のタイミングを検出するタイミング検出手段、前記操作入力のあった時点で、前記オブジェクトの一部又は全部が前記枠の表示範囲に含まれている場合に、前記オブジェクトが前記枠にはめ込まれたと判別し、前記オブジェクトが前記枠の表示範囲から外れている場合に、前記オブジェクトが前記枠にはめ込まれていないと判別する判別手段、前記オブジェクトが前記枠にはめ込まれていると判別された場合に、前記オブジェクトの種類に対応した動画データを読み出す動画読出し手段、前記枠表示手段による処理、前記オブジェクト表示手段による処理、前記タイミング検出手段による処理、前記判別手段による処理及び前記動画読出し手段による処理を含む一連の処理を繰り返すことによって順次読み出される動画データを順番に組み合わせて長編の動画データとする手段として機能させることを特徴とする。
【0014】
これにより、複数種類のオブジェクトが枠にはめ込まれるたびに、該枠にはめ込まれたオブジェクトに対応した複数種類の動画データが組み合わされて、1つのシーンの映像が作成されることとなる。
【0015】
この場合、強制的に指定されたボタンを押すのではなく、自由な発想で任意のボタンを好き勝手にリズムに合わせて押すことによって動画が組み合わされていくため、使用者のビデオゲームに対する興味が持続され、使用者は、音楽のリズムに乗りながら1シーンの映像を作成するという、音楽と映像が組み合わされたビデオゲームを楽しむことができる。
【0017】
そして、前記動画読出し手段は、前記オブジェクトが前記枠にはめ込まれていないと判別された場合に、前記動画データの代わりにノイズ画像データを読み出すようにしてもよい。
【0018】
また、前記使用者によるリプレイを示す操作入力に従って、前記長編の動画データを前記表示装置に表示するように制御する手段を有するようにしてもよい。
【0019】
更に、前記動画読出し手段によって読み出されたデータを前記表示装置に表示するように制御する動画表示手段を有するようにしてもよい。
【0020】
また、前記オブジェクトが前記枠にはめ込まれていると判別された場合に、任意の音声を出力する音声処理手段を有するようにしてもよい。この場合、オブジェクトの投げ上げから落下への連続動作が一種のメトロノームの役割を果たすこととなり、使用者は、この連続動作を見ながら該オブジェクトを任意のボタン操作で枠にはめ込んでいくことで、任意の音声が出力され、オブジェクトが枠にはめ込まれるたびに出力される音声とBGMとで1つの音楽が完成していくことになる。
【0021】
この場合、強制的に指定されたボタンを押すのではなく、自由な発想で任意のボタンを好き勝手にリズムに合わせて押すことによって任意の音声が出力されていくことになるため、使用者のビデオゲームに対する興味が持続され、音楽のリズムに乗るという意味で音楽のビデオゲームを楽しむことができる。
【0022】
そして、前記オブジェクト表示手段は、前回、前記オブジェクトが前記枠にはめ込まれていると判別された場合に、今回、前記複数種類のオブジェクトのうち、前回の前記オブジェクトが前記枠にはめ込まれていると判別されたときの前記使用者からの操作入力の種類に応じたオブジェクトを、投げ上げ、その後、前記枠に向かって落下する表示を行うように制御するようにしてもよい。
【0023】
また、前記オブジェクト表示手段は、投げ上げ表示される前記オブジェクトの種類と、前記所定のテンポに応じた滞空時間となるように、前記オブジェクトを投げ上げ、その後、前記枠に向かって落下する表示を行うように制御するようにしてもよい。
【0024】
この場合、取得側オブジェクトが所定のテンポに合わせて一方向に移動し、更に、オブジェクトがその形状並びに所定のテンポに対応した滞空時間で投げ上げられて落下することとなる。従って、BGM(バックグラウンドミュージック)のテンポに合わせて枠が移動し、投げ上げられたオブジェクトが枠にはめ込まれる時点で、任意の音声が発生するというビデオゲームが実現できることとなる。
【0025】
そして、このビデオゲームでは、オブジェクトの形状によって4分音符や8分音符などのように音の長さが変化し、その後に操作入力すべきタイミングを変化させることができる。即ち、操作入力の種類によって単純な入力タイミングや複雑な入力タイミングを任意に選択することができ、完成される音楽についてのリズムの多様化を図ることができる。
【0026】
また、前記判別手段にて、連続して前記オブジェクトが前記枠にはめ込まれたと判別されたときの前記オブジェクトの種類と組み合わせに基づいて得点を計算し、表示するように制御する得点処理手段を有するようにしてもよい。この場合、操作入力の種類によって操作入力すべきタイミングが変化し、同時にリズムも変化することになるが、複雑なリズムに乗ってタイミングよく操作入力することによって、例えば得点が上がるように設定することにより、使用者は、より複雑なリズムに挑戦することができ、上述のビデオゲームにスポーツ的な面を持たせることが可能となる。
【0027】
また、本発明は、前記判別手段にて、オブジェクトが前記枠にはめ込まれていると判別される毎に、前記枠にはめ込まれていると判別された前記オブジェクトの種類に関する情報を登録するブロック情報登録手段と、複数種類の音声情報のうち、登録されたオブジェクトの種類に応じた音声情報を読み出す音声読出し手段と、読み出された音声情報を順番に出力する音声出力手段を有するようにしてもよい。この場合、多彩な音声の変化やリズムバリエーションを楽しむことができる。
【0028】
【発明の実施の形態】
本発明に係るエンタテインメントシステム及びエンタテインメント装置をビデオゲーム装置に適用した実施の形態例と、本発明に係る記録媒体並びにプログラムを前記ビデオゲーム装置で実行されるプログラムやデータが記録された記録媒体並びにプログラムに適用した実施の形態例について図1〜図28を参照しながら説明する。
【0029】
まず、本実施の形態に係るエンタテインメントシステム10は、基本的には、図1に示すように、各種プログラムを実行させるエンタテインメント装置12と、該エンタテインメント装置12に対して着脱自在とされるメモリカード14と、エンタテインメント装置12に対してコネクタ62により着脱自在とされた操作装置(コントローラ)16と、エンタテインメント装置12からの映像・音声信号が供給されるテレビ受像機等の表示装置であるモニタ(ディスプレイ)18とから構成される。
【0030】
エンタテインメント装置12は、例えば、CD−ROM等の光ディスク20等の大容量記憶媒体に記録されているプログラムを読み出して、ユーザ(使用者:例えばゲームプレイヤ等)からの指示に応じてゲーム等を実行するためのものである。なお、ゲームの実行とは、主として、操作装置16からの入力をコネクタ62を通じて受け、モニタ18上における表示や音声を制御しながらゲームの進行を制御することをいう。
【0031】
このエンタテインメント装置12は、ほぼ扁平な直方体状の形状を有しており、その中央部にビデオゲーム等のアプリケーションプログラムやデータが記憶された光ディスク20が装着されるディスク装着部22と、現在実行中のプログラムを任意にリセットするためのリセットスイッチ24と、光ディスク20の装着を操作するためのディスク操作スイッチ26と、電源スイッチ28と、例えば2つのスロット部30、32とを備えて構成されている。
【0032】
なお、アプリケーションプログラムを供給するための記録媒体は光ディスク20に限定されるものではなく、通信回線を介してアプリケーションプログラムが供給されるようにしてもよい。
【0033】
スロット部30、32は、それぞれ上側のスロット部30B、32Bと下側のスロット部30A、32Aとを備えており、下側のスロット部30A、32Aには、それぞれ操作装置16を接続することができ、上側のスロット部30B、32Bには、それぞれゲーム等の途中状態を示すフラグ等を記憶することの可能なメモリカード14や該メモリカード14としても機能する携帯型情報端末(図示せず)を装着することができるようになっている。なお、スロット部30(30A、30B)、32(32A、32B)は、それぞれ誤挿入を回避するために非対称の形状とされている。
【0034】
操作装置16は、図2〜図4に示すように、第1及び第2の操作部34及び36と、Lボタン38L及びRボタン38Rと、スタートボタン40、選択ボタン42とを有し、更にアナログ操作が可能な左右のジョイスティック44及び46と、これらのジョイスティック44及び46の操作モードを選択するモード選択スイッチ48と、選択された操作モードを表示するための表示部50とを有している。表示部50は、発光ダイオード等の発光素子によって構成される。
【0035】
また、この操作装置16は、図2に示すように、上ハーフ100と下ハーフ102を互いに突き合わせ、ネジ等の固定手段を用いて結合された操作装置本体104を有する。
【0036】
図2及び図3に示すように、操作装置本体104の各端部側の一側からは、この操作装置16をエンタテインメント装置12に接続して例えば情報の検索やゲームを実行するとき、左右の手のひらで内包するように把持される左右の把持部106及び108が突設されている。
【0037】
これら左右の把持部106及び108は、図3に示すように、先端部側に向かって互いに離間するとともに操作装置本体104の下方側に向かうように突設されている。
【0038】
左右の把持部106及び108は、長時間にわたっての把持を可能とするため、図3に示すように、操作装置本体104への連接部側から先端側に向かって先細り状となるように形成されるとともに、周面が円弧面を有し、更に、先端側が円弧状に形成されている。
【0039】
操作装置本体104の一端部側には、図2及び図3に示すように、操作装置本体104の上面側に突出する4つの操作子110a〜110d(上方向の操作子110a、右方向の操作子110b、下方向の操作子110c及び左方向の操作子110d)を互いに直交するように配列した前記第1の操作部34が配設されている。
【0040】
第1の操作部34には、4つの操作子110a〜110dに対応してそれぞれ信号入力素子としてのスイッチ素子が設けられる。第1の操作部34は、例えば表示キャラクタの移動を制御する方向指示制御部として機能し、操作子110a〜110dを選択的に押圧操作し、これら操作子110a〜110dに対応するスイッチ素子をオン/オフさせることにより、画面上の例えば表示キャラクタが押圧操作された各操作子110a〜110dの配列方向に移動することになる。
【0041】
また、操作装置本体104の他端部側には、図2及び図3に示すように、操作装置本体104の上面側に突出する4つの操作子112a〜112d{△マークの操作子(△ボタン)112a、□マークの操作子(□ボタン)112b、×マークの操作子(×ボタン)112c及び○マークの操作子(○ボタン)112d}を互いに直交するように配列した第2の操作部36が配設されている。
【0042】
これら4つの操作子112a〜112dは、それぞれ独立の部材として形成され、各操作子112a〜112dに対応して信号入力素子としてのスイッチ素子が設けられる。
【0043】
第2の操作部36は、例えば、4つの操作子112a〜112dに対応したスイッチをオン操作することによって、例えば各操作子112a〜112dに割り付けられた表示キャラクタの機能を設定し、あるいは表示キャラクタが有する機能を実行する機能設定実行部として用いられる。
【0044】
また、操作装置本体104の左右の把持部106及び108が突設された一側面である背面側と対向する前面側の左右の各端部側に位置してLボタン38L及びRボタン38Rが配設されている。図2及び図4に示すように、Lボタン38Lは、左側第1操作子(L1ボタン)114a及び左側第2操作子(L2ボタン)114bを備え、Rボタン38Rは、右側第1操作子(R1ボタン)116a及び右側第2操作子(R2ボタン)116bを備えている。
【0045】
これらL1ボタン114a及びL2ボタン114b並びにR1ボタン116a及びR2ボタン116bには、それぞれの操作子に対応してスイッチ素子が設けられている。
【0046】
Lボタン38L及びRボタン38Rは、例えば、L1ボタン114a及びL2ボタン114b並びにR1ボタン116a及びR2ボタン116bに対応したスイッチをオン操作することによって、例えばL1ボタン114a及びL2ボタン114b並びにR1ボタン116a及びR2ボタン116bに割り付けられた表示キャラクタの機能を設定し、あるいは表示キャラクタが有する機能を実行する機能設定実行部として用いられる。
【0047】
また、この操作装置16は、図2及び図3に示すように、左右の把持部106及び108の基端部側である操作装置本体104への連結部側のコーナ部の相対向する位置に左右のアナログ操作部118及び120が配設されている。
【0048】
これら左右のアナログ操作部118及び120は、操作軸を中心に360°方向に傾動及び回転可能な左右のジョイスティック44及び46と、これら左右のジョイスティック44及び46によって操作される可変抵抗素子等の信号入力素子を備えている。即ち、左右のジョイスティック44及び46は、付勢部材により中立位置に復帰するように取り付けられた操作軸の先端側に設けられ、操作軸の回動支点を中心に360°方向に回転操作される。
【0049】
これら左右のアナログ操作部118及び120は、左右のジョイスティック44及び46を回転操作することにより、例えば表示キャラクタを回転しながら移動させ、あるいは速度を可変しながら移動させ、さらには形態を変更させる等のアナログ的な動きを行うことを可能とする指令信号を入力することが可能な操作部として用いられる。
【0050】
そして、モード選択スイッチ48の切り替え操作によって、例えば、左右のアナログ操作部118及び120からの指令信号の入力を可能とする操作モードと、左右のアナログ操作部118及び120からの指令信号の入力を禁止する操作モードが選択される。
【0051】
また、前記モード選択スイッチ48の切り替え操作によって、第2の操作部36の各操作子112a〜112dの各機能や、Lボタン38L及びRボタン38RのL1ボタン114a及びL2ボタン114b並びにR1ボタン116a及びR2ボタン116bの各機能も、前記切り替えに伴う操作モードに応じて変化することとなる。これら操作モードの状態に応じて、表示部50が点滅され、更に表示光の切り替えが行われる。
【0052】
上述したように、操作装置本体104から左右の把持部106及び108を突設した操作装置16は、図4に示すように、左右の把持部106及び108を両手Rf及びLfの手のひらで包み込むように把持することにより、操作装置本体104を指で支持する必要がなくなり、両手Rf及びLfの最大10本の指、少なくとも6本の指を自由に動かせる状態で把持することができる。
【0053】
図4に示すように、例えば、左右の把持部106及び108を両手Rf及びLfの手のひらで包み込むように把持したとき、左右の手Rf及びLfの各親指Rf1及びLf1をそれぞれ左右のアナログ操作部118及び120の左右のジョイスティック44及び46上、第1の操作部34の第1〜第4の操作子110a〜110d上及び第2の操作部36の第1〜第4の操作子112a〜112d上に延在させ、これら各ジョイスティック44及び46、各操作子110a〜110d及び112a〜112dを選択的に押圧することができる。
【0054】
特に、左右のアナログ操作部118及び120の各ジョイスティック44及び46は、両手Rf及びLfの手のひらで包み込むように把持される左右の把持部106及び108の操作装置本体104への連結部側である基端部側に相対向して配置されているので、左右の把持部106及び108を左右の手Rf及びLfによって把持したとき、左右の手Rf及びLfの親指Rf1及びLf1に最も近い位置に延在させる。従って、各ジョイスティック44及び46を、左右の手Rf及びLfの親指Rf1及びLf1により容易に回転操作することが可能となる。
【0055】
また、図4に示すように、左右の把持部106及び108を、両手の手のひらで包み込むように把持したとき、左右の手Rf及びLfの人差し指Rf2及びLf2及び中指Rf3及びLf3をRボタン38R及びLボタン38LのR1ボタン116a及びR2ボタン116b並びにL1ボタン114a及びL2ボタン114bを選択的に押圧操作可能とする位置に延在させることができる。
【0056】
また、図5に示すように、この操作装置16には、一層の臨場感に優れたゲームの実行を行い得るように使用者に振動を付与する2つの振動付与機構128R及び128Lが設けられている。
【0057】
各振動付与機構128R及び128Lは、図5に示すように、操作装置16を把持するとき手指によって把持される左右の把持部106及び108の基端部側にそれぞれ配置されている。
【0058】
代表的に右側の振動付与機構128Rは、エンタテインメント装置12から供給される振動発生コマンドによって駆動される駆動モータ130Rと、この駆動モータ130Rの駆動軸に取り付けられた偏心部材134Rとから構成される。左側の振動付与機構128Lも同様の構成を有する。
【0059】
偏心部材134R及び134Lは、それぞれ重量の大きな金属部材により形成され、駆動軸に嵌合されて回転中心となる嵌合孔に対し偏心して取り付けられ、半円状のおもりとして構成されている。
【0060】
このように構成される振動付与機構128R及び128Lは、駆動モータ130R及び130Lが駆動し、偏心部材134R及び134Lが回転されることにより、駆動モータ130R及び130Lが振動され、その振動が左側の把持部106や右側の把持部108に伝達され、これら左側の把持部106や右側の把持部108を把持する手指にその振動が伝達される。
【0061】
ここで、左右の把持部106及び108にそれぞれ配設される振動付与機構128R及び128Lは、それぞれ振動特性を異にするように構成されている。
【0062】
例えば、左側の振動付与機構128Lにおける駆動モータ130Lは、右側の駆動モータ130Rよりも大きく構成され、エンタテインメント装置12から送信される振動発生コマンドに含まれる振動値に応じて、回転速度が変化し、発生する振動の周波数が前記振動値に応じて変化するようになっている。この例では、振動値に比例して振動の周波数が大きくなるように設定されている。
【0063】
一方、右側の振動付与機構128Rにおける駆動モータ130Rは、前記振動発生コマンドに含まれる振動値の論理値「1」又は「0」に応じて、「駆動」又は「停止」するようになっており、左側の振動付与機構128Lと異なり、ある一定の振動が行われるか、振動が行われないかのどちらかとなる。
【0064】
上述したように、駆動モータ130R及び130Lを駆動させて操作装置16全体を振動させるためには、操作装置16とエンタテインメント装置12との間を双方向通信機能を備えた構成とすることが必要であるが、この機能については後述する。
【0065】
次に、エンタテインメント装置12と操作装置16の回路構成について図6〜図8を参照しながら説明する。
【0066】
まず、エンタテインメント装置12は、図6に示すように、中央演算処理装置(CPU:Central Processing Unit )80及びその周辺装置等からなる制御システム82と、図示していないフレームバッファを含み該フレームバッファに描画を行う画像処理装置(GPU:Graphic Processing Unit )等からなるグラフィックシステム84と、楽音・効果音等を発生する音声処理装置(SPU:Sound Processing Unit )等からなるサウンドシステム86と、アプリケーションプログラムやデータが記録されている光ディスク20の読出し制御を行う光ディスク制御部88と、操作装置16とメモリカード14に対してデータ等の入出力制御を行う通信制御部90と、これら各部が接続されたシステムバス92を備えている。
【0067】
この場合、エンタテインメント装置12を構成するグラフィックシステム84とサウンドシステム86から出力される映像信号と音声信号とがモニタ18に供給され、モニタ18の画面に映像が表示されるとともに、モニタ18のスピーカ94から音声が出力される。
【0068】
一方、操作装置16は、図7に示すように、通信制御部、CPU、プログラムメモリ、動作用RAM、デジタル入力ブロック、アナログ入力ブロック、モータドライバ150、駆動モータ130を備えている。これら各部はバスに接続されている。
【0069】
前記デジタル入力ブロックは、例えば第1の操作部34や第2の操作部36を構成する各操作子110a〜110d並びに112a〜112dに対する入力操作部としての機能を有して構成されており、前記アナログ入力ブロックは、左右のジョイスティック44及び46に対する入力操作部としての機能を有して構成されている。従って、デジタル入力ブロックやアナログ入力ブロックにより使用者による各種情報の入力が可能になる。
【0070】
通信制御部は、外部機器とのシリアル通信を行う機能を有して構成されている。この通信制御部は、例えば、エンタテインメント装置12の通信制御部90(図6参照)に電気的に接続可能とされており、これにより、当該エンタテインメント装置12とのデータの通信処理を行うことができる。
【0071】
一方、エンタテインメント装置12と操作装置16との間の双方向通信機能は、図8に示すように、操作装置16と双方向のシリアル通信を行うコネクタ62をエンタテインメント装置12と接続して行うことができる。
【0072】
操作装置16側の双方向通信機能を行う構成は、エンタテインメント装置12とシリアル通信を行うシリアルI/OインターフェースSIOと、複数の操作ボタンからの操作データを入力するパラレルI/OインターフェースPIO、CPU、RAM及びROMであるワンチップマイクロコンピュータ(以下、マイコンと記す)と、振動付与機構128R及び128Lの各駆動モータ130(130R及び130L)を回転駆動させるそれぞれ対応するモータドライバ170とから構成され、各駆動モータ130は対応するモータドライバ170からの供給電圧及び電流により回転駆動する。
【0073】
エンタテインメント装置12側には、操作装置16間でシリアル通信を行うシリアルI/OインターフェースSIOを設けた構造となつており、操作装置16のコネクタ62を接続すると、このコネクタ62を介して操作装置16側のシリアルI/OインターフェースSIOと接続され、双方向の通信手段、即ち、双方向のシリアル通信を行うことができる構成となっている。なお、エンタテインメント装置12のその他の詳細な構成は省略してある。
【0074】
双方向のシリアル通信を行う信号線及び制御線は、エンタテインメント装置12から操作装置16に対してデータを送るデータ伝送用の信号線TXD(Transmit X’ for Data)と、操作装置16側からエンタテインメント装置12側にデータを送るデータ伝送用の信号線RXD(Received X’ for Data)と、各データ伝送用の信号線TXD、RXDからデータを抜き出すシリアル同期クロック用の信号線SCK(Serial Clock)と、ターミナル側である操作装置16の通信の確立及び中断等を行うための制御線DTR(Data Terminal Ready )と、大量のデータ転送を行うためのフロー制御用の制御線DSR(Data Set Ready)とから構成されている。
【0075】
また、この双方向のシリアル通信を行う信号線及び制御線からなるケーブルには、図7に示すように、信号線及び制御線の他にエンタテインメント装置12側の電源から直接に取り出した電源用ケーブル12が含まれており、この電源用ケーブル12は操作装置16側のモータドライバ170に接続され、各駆動モータ130を回転させる電源を供給する。
【0076】
このような構成からなる双方向のシリアル通信手順は、例えばエンタテインメント装置12が操作装置16と通信をして、デジタル入力ブロック及びアナログ入力ブロックからの操作データを取り込むために、まず、エンタテインメント装置12は制御線DTRに選択データを出力する。この結果、操作装置16は制御線DTRによって選択されたことを確認して、それに続く信号線TXDの受信待ち状態になる。続いてエンタテインメント装置12は、データ伝送用の信号線TXDに操作装置16を示す識別コードを送出する。これにより操作装置16が信号線TXDよりこの識別コードを受け取る。
【0077】
操作装置16が識別コードを認識することにより、これ以降、エンタテインメント装置12との通信を開始する。即ち、エンタテインメント装置12からは制御データ等がデータ伝送用の信号線TXDを介して操作装置16側に送信され、逆に操作装置16からはデジタル入力ブロックやアナログ入力ブロックで操作された操作データ等がデータ伝送用の信号線RXDを介してエンタテインメント装置12に送信される。このようにしてエンタテインメント装置12と操作装置16との間で双方向のシリアル通信が行われ、この通信はエンタテインメント装置12が制御線DTRを通じて選択中止データを出力することにより終了する。
【0078】
このようにして双方向のシリアル通信機能を備えていれば、操作装置16側からの主としてデジタル入力ブロックやアナログ入力ブロックの操作データをエンタテインメント装置12側に送信することができると共に、エンタテインメント装置12側からは、データ伝送用信号線TXDを介して各振動付与機構128R及び128Lの駆動モータ130R及び130Lを回転させるための振動発生コマンドを操作装置16側に送出することができる。
【0079】
各駆動モータ130R及び130Lを回転させるための振動発生コマンドは、エンタテインメント装置12にセットされた光ディスク20によって予め設定されたものや、エンタテインメント装置12にて新たに作成されたものがあり、例えばゲームを行う利用者の動作ターゲットに応じて、エンタテインメント装置12から操作装置16自体に一定時間の振動伝達によるフィードバックが行われるようになっている。
【0080】
次に、この実施の形態に係るエンタテインメントシステム10が有する特徴的な機能について図8〜図19を参照しながら説明する。
【0081】
この機能は、モニタ18に所定のテンポに合わせて移動する枠のオブジェクト(以下、単に枠オブジェクトと記す)を表示させ、ユーザに、前記枠オブジェクトへの複数種類のブロックのオブジェクト(以下、単にブロックオブジェクトと記す)のはめ込みを試行させ、前記枠オブジェクトにはめ込まれたブロックオブジェクトに対応した複数種類の動画データを組み合わせて、1つのシーンの映像を作成するというものである。
【0082】
具体的には、例えば図8に示すように、モニタ18の画面200に、投げ上げと落下の連続動作が行われるブロックオブジェクト202と、映画のフイルムの形態をし、一方向に移動される枠オブジェクト204と、該枠オブジェクト204にはめ込まれたブロックオブジェクト202の種類に対応した動画206とを表示する。
【0083】
ブロックオブジェクト202は、例えば図9Aに示すように、投げ上げ開始位置において初速度vで投げ上げられ、上向きの速度vが0になった段階で、最高点に達する。その後、ブロックオブジェクト202は、自由落下し、下向きの速度が初速度vと同じになった段階で元の位置(投げ上げ位置)に戻り、この時点でユーザが所定の操作入力を行うことで、図9Bに示すように、ブロックオブジェクト202が枠オブジェクト204にはまり込むことになる。ブロックオブジェクト202が枠オブジェクト204にはまり込んだ段階で、再びブロックオブジェクト202は投げ上げられ、前記と同様の動作を行うことになる。
【0084】
ブロックオブジェクト202が枠オブジェクト204に差し掛かっても何もしなければ、あるいは操作入力のタイミングがずれていれば、ブロックオブジェクト202はそのまま落下して、画面から見えなくなることとなる。
【0085】
前記ブロックオブジェクト202は、枠オブジェクト204にはまり込んだ時点で、ユーザによる操作入力の種類に応じて様々な形態のブロックに変化し、その変化したブロックの状態で再び上方に投げ上げられることになる。
【0086】
例えば、図10に示すように、△ボタン112aを操作した場合は、1個のブロック202a(以下、1組ブロックと記す)に変化し、□ボタン112bを操作した場合は、2つのブロックが横方向に結合されたブロック202b(以下、2組ブロックと記す)に変化する。
【0087】
また、○ボタン112dを操作した場合は、3つのブロックが横方向に結合されたブロック202c(以下、3組ブロックと記す)に変化し、×ボタン112cを操作した場合は、4つのブロックが横方向に結合されたブロック202d(以下、4組ブロックと記す)に変化する。初期段階では、4組ブロック202dが投げ上げられる。
【0088】
枠オブジェクト204は、BGM(バックグラウンドミュージック)のテンポに合わせて一方向(例えば左方向)に移動し、前記ブロックオブジェクト202は、そのブロックの形状と前記BGMのテンポに対応した滞空時間となるように投げ上げられる。ここで、滞空時間とは、ブロックオブジェクト202が投げ上げ位置から投げ上げられた時点から再び投げ上げ位置に落下した時点までの時間を指す。
【0089】
この実施の形態では、前記ブロックオブジェクト202の滞空時間は、枠オブジェクト204がブロックオブジェクト202のブロックの個数に対応するコマ数分だけ移動する時間に合わせられている。つまり、ブロックオブジェクト202が1組ブロック202aの場合は、1コマ分だけ移動する時間が滞空時間となり、ブロックオブジェクト202が2組ブロック202bの場合は、2コマ分だけ移動する時間が滞空時間となり、以下同様である。
【0090】
前記ブロックオブジェクト202の滞空時間の調整は、該ブロックオブジェクト202の垂直方向の変位yを表す以下の関係式から導くことができる。
【0091】
y=vt−gt/2
つまり、ブロックオブジェクト202が例えば1組ブロック202aの場合、枠オブジェクト204がBGMのテンポに合わせて1コマ分だけ移動する時間内に、1組ブロック202aが投げ上げられ、最高点に達し、更に、元の位置に落下するという一連の動作が行われるように、例えば初速度vや重力加速度g(この機能において擬似的に定義された重力加速度である)を調整する。2組ブロック202bや3組ブロック202c等も同様である。
【0092】
この滞空時間は、音の長さに置き換えることができる。具体的には、ブロックオブジェクト202の8コマ分の長さ(1つの連番の長さ)を1小節としたとき、1組ブロック202aは8分音符、2組ブロック202bは4分音符、3組ブロック202cは付点4分音符、4組ブロック202dは2分音符となる。
【0093】
動画206に関しては、例えば8コマを1小節とし、4小節を1フレーズ、3フレーズを1シーンとしたとき、図11A〜図11Cに示すように、各シーンに対して、4組ブロック202d用の動画データが複数配列された第1の動画データファイル群210(図11A参照)と、3組ブロック202c用の動画データが複数配列された第2の動画データファイル群212(図11B参照)と、2組ブロック202b用の動画データが複数配列された第3の動画データファイル群214(図11C参照)が用意され、各動画データファイル群210、212及び214は、1シーンを構成する3つのフレーズに対応してそれぞれ3種類の動画データファイル(210a、210b、210c)、(212a、212b、212c)及び(214a、214b、214c)が用意されている。
【0094】
ここで、1フレーズに対応する動画データの設定は、例えば4組ブロック202dに関しては、該4組ブロック202dの滞空時間分の動画データが例えば3種類用意され、3組ブロック202cに関しては、該3組ブロック202cの滞空時間分の動画データが例えば4種類用意され、2組ブロック202bに関しては、該2組ブロック202bの滞空時間分の動画データが例えば6種類用意される。
【0095】
これらの動画データは、カメラの視点を種類に応じて変えて作成された3D画像の動画データである。
【0096】
そして、ユーザによる操作入力によって例えば4組ブロック202dが選択されるたびに、例えば動画データファイル210aに格納された3種類の動画データが順番に出力表示され、前記操作入力によって3組ブロック202cが選択されるたびに、例えば動画データファイル212aに格納された4種類の動画データが順番に出力表示され、2組ブロック202bについても同様である。
【0097】
ユーザが操作入力によって1組ブロック202aを選択した場合は、前回選択されたブロックに対応した動画データの次の種類の動画データを、前記1組ブロック202aの滞空時間だけ表示するというもので、つまり、カメラの視点が変化するだけである。
【0098】
そして、この機能をビデオゲームとして実現させる場合、ブロックオブジェクト202が枠オブジェクト204に落下してきた時点のユーザによる操作入力のタイミングに応じて枠オブジェクト204に対するブロックオブジェクト202のはめ込み状態を段階的に表示することが好ましい。
【0099】
具体的には、ブロックオブジェクト202が枠オブジェクト204に落下してきた時点においてちょうど操作入力があった場合は、図12Aに示すように、枠オブジェクト204の中心線(図示せず)とブロックオブジェクト202の中心線(図示せず)とがほぼ一致するように、ブロックオブジェクト202が枠オブジェクト204に挿入された状態の表示を行い、操作入力がわずかに遅れた場合は、図12Bに示すように、枠オブジェクト204の中心線に対し、ブロックオブジェクト202の中心線がわずかに下方に位置するように、ブロックオブジェクト202が枠オブジェクト204に挿入された状態の表示を行う。
【0100】
また、操作入力がわずかに早い場合は、図12Cに示すように、枠オブジェクト204の中心線に対し、ブロックオブジェクト202の中心線がわずかに上方に位置するように、ブロックオブジェクト202が枠オブジェクト204に挿入された状態の表示を行う。
【0101】
更に、ブロックオブジェクト202が枠オブジェクト204にはめ込まれた時点で、任意の音声を出力させるようにしてもよい。これにより、操作入力に合わせて例えば1つの打楽器の音声が出力されることとなり、BGMとこの打楽器の音声の融合によって1つの音楽が完成するという面白みを付加させることができる。
【0102】
また、ユーザの好き勝手な操作入力によってブロックオブジェクト202のブロック形状を選択していくようにしてもよいが、定期的にあるいは一時的にブロック形状を指定し、この指定されたブロック形状(以下、課題ブロックと記す)に対応する操作入力があったか否かを判定するようにしてもよい。これにより、スポーツ的な要素も加えることができる。
【0103】
例えば、8コマを1小節とし、4小節を1フレーズとしたとき、図13に示すように、4小節の最後の部分で課題ブロック220を指定する。図13の例では、課題ブロック220として2組ブロック202bが指定された例を示している。
【0104】
そして、前記4小節の最後の部分で指定された課題ブロック220に対応するブロックを操作入力で選択することによって、次のフレーズに進めるようにし、課題ブロック220に対応するブロックを選択しなかった場合に、現在のフレーズの最初に戻るというシナリオにしてもよい。この場合、決められた時間内に一定のフレーズ数をこなしたときに、1つのシーンが完成(クリア)するという設定にすれば、更にゲーム性を高めることができる。
【0105】
また、現在のフレーズの最初に戻る例としては、上述の課題ブロック220に対応したブロックを選択しなかった場合のほかに、各小節においてブロックオブジェクト202が枠オブジェクト204から落下してしまった場合や1小節に規定の8つのブロックオブジェクト202を挿入できなかった場合などがある。
【0106】
1小節に8つのブロックオブジェクト202を挿入する例としては、例えば図14Aに示すように、4組ブロック202dを2つ挿入する場合や、図14Bに示すように、3組ブロック202cを2つ、2組ブロック202bを1つ挿入する場合、あるいは図14Cに示すように、2組ブロック202bを2つ、1組ブロック202aを4つ挿入する場合など種々のパターンがある。
【0107】
一方、図14Dに示すように、例えば1つの4組ブロック202d、1つの2組ブロック202b及び1つの3組ブロック202cを挿入した場合は、全体として9つのブロックとなって、1個分のブロックがはみ出すことになる。つまり、1小節に規定の8つのブロックを挿入したことにはならず、この場合、NGとなる。
【0108】
また、1小節にブロックを挿入する場合、その挿入パターンにおいて難易度が存在する。例えば図14Aに示すように、4組ブロック202dを2つ挿入する場合よりも、図14Bに示すように、3組ブロック202cを2つ、2組ブロック202bを1つ挿入する場合や、図14Cに示すように、2組ブロック202bを2つ、1組ブロック202aを4つ挿入する方が難しい。
【0109】
そこで、本実施の形態では、例えば1小節毎の挿入パターンを検査し、その挿入パターンに応じた難易度に基づいて得点を計算し、その得点をバーや指標で表示する。図8の例では、得点スケール230を上下動する指標232で現在の得点を表示する例を示している。
【0110】
ここで、例えばビデオゲームのシナリオとして、1週間のテレビ番組を作成する際に、ユーザ自身が監督あるいはディレクターとなって、1日1シーンの番組枠を担当し、その1シーンにユーザ自身が作成した映像を組み込むというテレビ番組作成の疑似体験のシナリオを想定する。
【0111】
この場合、ユーザは、枠オブジェクト204にブロックオブジェクト202を次々にはめ込んで、ユーザ独自の1シーンの映像(動画の組合せ)を作成し、この作成された1シーンの映像を指定された番組枠に組み込む。この処理を7シーン分だけ行って、1週間の番組を作り上げ、放映する。この放映シーンは、図15に示すように、作成された動画の組合せのみを映像としてモニタ18上に表示するというものである。
【0112】
ビデオゲーム上で流れる擬似的な時間の流れの中で、ユーザの作成した映像が順次放映され、その過程で、視聴率が計算される。視聴率は、映像の品質と作成時の得点に基づいて計算され、視聴率が所定値(例えば10%)未満になった段階で番組の打ち切りとなってゲームオーバーとなり、10%以上の視聴率を維持した場合に、次の週の番組作成に移るという形態をとることが可能となる。
【0113】
そして、前記視聴率を決定づける1つの要素である映像の品質は、ブロックオブジェクト202の枠オブジェクト204へのはめ込み状態(挿入状態)や1シーンを完成させるまでの時間に応じて変化させることができる。
【0114】
例えば、ブロックオブジェクト202の枠オブジェクト204へのはめ込みが失敗(操作入力のミス)した場合は、失敗した時点から当該フレーズの最初に戻る間において、動画の代わりに、ノイズの画像データを出力表示するようにして、映像の品質を劣化させる。また、図16に示すように、1シーンの作成時間が制限時間に近づくにつれて例えば縦スジのノイズ240を発生させて品質を悪くさせる。
【0115】
従って、高視聴率を得るためには、ユーザは、ブロックオブジェクト202の枠オブジェクト204へのはめ込みを、失敗せずに、迅速に1シーンを完成させ、しかも、複雑なブロックオブジェクト202の挿入パターン(2組ブロック202bや3組ブロック202cを駆使した挿入パターン)で1シーンを完成させる必要がある。
【0116】
このように、シナリオを設定することにより、枠オブジェクト204にブロックオブジェクト202をはめ込むという単純なゲームに様々な要素を盛り込むことができ、ユーザは、視聴率を高めながら1週間の番組を演出するという、いままでにないビデオゲームを楽しむことができる。
【0117】
次に、上述の機能を実現するためのソフトウエア(映像作成手段300)について図17〜図25を参照しながら説明する。
【0118】
この映像作成手段300は、例えばCD−ROMやメモリカード14のようなランダムアクセス可能な記録媒体、さらにはネットワークによって前記エンタテインメントシステム10に提供されるようになっている。ここでは、CD−ROMのような光ディスク20からエンタテインメント装置12に読み込まれて動作する場合を想定して説明を進める。
【0119】
即ち、映像作成手段300は、例えば予めエンタテインメント装置12によって再生される特定の光ディスク20から所定の処理を経てエンタテインメント装置12の制御システム82内のメインメモリにダウンロードされることによって該制御システム82のCPU80上で動作されるようになっている。
【0120】
この映像作成手段300は、図17に示すように、モニタ18上にブロックオブジェクト202、枠オブジェクト204、動画206等を表示する表示処理手段302と、スピーカ94にBGMやユーザの操作入力に応じて所定の音声データを出力する音声処理手段304と、これら表示処理手段302と音声処理手段304に対して種々の指示や制御を行う指示制御手段306と、作成された動画の組合せや音声をリプレイするリプレイ処理手段308とを有する。
【0121】
指示制御手段306は、課題ブロック220に関する処理を行う課題ブロック処理手段310と、投げ上げるブロックオブジェクト202の種類を指示するブロック投上げ指示手段312と、操作装置16からの操作入力に対応した処理を行う操作入力処理手段314と、ブロックオブジェクト202の枠オブジェクト204へのはめ込み状態を計算したり、判別するはめ込み状態処理手段316と、1小節単位にブロックオブジェクト202の挿入パターンから得点を計算する得点計算手段318とを有する。
【0122】
表示処理手段302は、図18に示すように、ブロックオブジェクト202(この場合、指示されたブロック)の3D画像データをグラフィックシステム84の画像メモリ320に描画するオブジェクト描画手段322と、枠オブジェクト204の3D画像データを画像メモリ320に描画する枠描画手段324と、得点データに基づいて指標232の3D画像データを画像メモリ320に描画する指標描画手段326と、枠オブジェクト204にはめ込まれたブロックオブジェクト202の種類に応じた動画データを描画する動画描画手段328と、操作入力が失敗した場合などにノイズ画像を描画するノイズ画像描画手段330と、画像メモリ320に描画された3D画像データをモニタ18に表示する画像表示手段332とを有する。
【0123】
音声処理手段304は、図17に示すように、スピーカ94に指定されたBGMを出力するBGM出力手段340と、操作入力のタイミングに合わせてスピーカ94に音声データを出力する音声データ出力手段342とを有する。
【0124】
リプレイ処理手段308は、作成された動画の組合せを順次モニタ18に表示する表示リプレイ手段350と、動画の組合せの作成時に出力されたBGMや音声データをリプレイする音声リプレイ手段352とを有する。
【0125】
次に、前記映像作成手段300を構成する指示制御手段306、表示処理手段302、音声処理手段304及びリプレイ処理手段308の各処理動作を図17及び図18の機能ブロック図並びに図19〜図25のフローチャートを参照しながら説明する。
【0126】
まず、指示制御手段306は、図19のステップS1において、シーン(場面)の更新に使用されるインデックスレジスタmに初期値「0」を格納して、該インデックスレジスタmを初期化する。
【0127】
次に、ステップS2において、m番目のイベント画像をモニタ18に表示する。このイベント画像としては、例えばこれから試行されるシーンの説明や操作説明などがある。
【0128】
次に、ステップS3において、表示処理手段302を起動し、次のステップS4において、音声処理手段304を起動する。これら指示制御手段306、表示処理手段302及び音声処理手段304は、それぞれマルチタスク方式で動作するようになっている。
【0129】
次に、ステップS5において、フレーズの更新に使用されるインデックスレジスタkに初期値「0」を格納して、該インデックスレジスタkを初期化する。
【0130】
次に、ステップS6において、小節の更新に使用されるインデックスレジスタiと課題ブロック220の出現タイミングMに使用されるインデックスレジスタnにそれぞれ初期値「0」を格納して、これらインデックスレジスタi及びnを初期化する。
【0131】
次に、ステップS7において、課題ブロック処理手段310を通じて、当該フレーズについての課題ブロック220の情報(1組ブロック202aや2組ブロック202b等の情報)を読み出す。
【0132】
次に、ステップS8において、前記読み出された課題ブロック220の情報に基づいて課題ブロック220の出現タイミングMを計算する。この計算は、例えば4小節の最後に課題ブロック220を出現させる場合を想定すると、
M=4(小節)×8(ブロック)−X(課題ブロックのブロック数)
で求めることができる。ここで、Xは、課題ブロック220のタイプに基づく数(ブロック数)を示し、1組ブロック202aの場合は「1」、2組ブロック202bの場合は「2」、3組ブロック202cの場合は「3」、4組ブロック202dの場合は「4」である。
【0133】
次に、ステップS9において、前記取得したブロックオブジェクト202の更新に使用されるインデックスレジスタjに初期値「0」を格納して該インデックスレジスタjを初期化する。
【0134】
次に、ステップS10において、ブロック投上げ指示手段312を通じて、4組ブロック202dの投上げを指示する。この指示に従って、表示処理手段302は、4組ブロック202dを上方に投げ上げる表示を行う。表示処理手段302での処理については後述する。
【0135】
次に、ステップS11において、操作入力処理手段314を通じて、操作装置16からの操作入力があるか否かが判別される。操作入力がなければ、ステップS12に進み、タイムオーバーであるか否かが判別される。この時間は、ブロックオブジェクト202の投上げ時点からブロックオブジェクト202が落下して画面から見えなくなる時点までの時間である。タイムオーバーでなければ、再びステップS11において、操作入力の判別を行う。
【0136】
そして、操作入力があった時点で、次のステップS13に進み、はめ込み状態処理手段316を通じて、はめ込み状態の計算を行う。この計算方法としては、時間計算やアドレス計算がある。
【0137】
時間計算は、ブロックオブジェクト202の投上げ時点からブロックオブジェクト202が枠オブジェクト204のコマにほぼ一致する位置に挿入された時点(図12A参照)までの時間を規定時間としたとき、ブロックオブジェクト202の投上げ時点から操作入力があった時点までの時間と前記規定時間とを比較する方法である。
【0138】
アドレス計算は、枠オブジェクト204の代表的な頂点の画面上のアドレス(特に行アドレス)を規定アドレスとしたとき、操作入力があった時点におけるブロックオブジェクト202の代表的な頂点の画面上のアドレス(特に行アドレス)と前記規定アドレスとを比較する方法である。
【0139】
次に、ステップS14において、前記比較した結果が許容範囲内にあるか否かが判別される。比較結果が、許容範囲内にあれば、図20のステップS16に進む。
【0140】
一方、図19の前記ステップS14において許容範囲外であると判別された場合、あるいは、ステップS12において、タイムオーバーと判別された場合は、ステップS15に進んで、やり直し指示を行い、前記ステップS6に戻る。ステップS15でのやり直し指示によって、枠オブジェクト204が現在のフレーズの最初の部分に戻ると同時にBGMも最初に戻って出力される。
【0141】
また、前記ステップS11において、操作入力があった時点で、音声処理手段304を通じて、音声データが出力され、BGMのテンポに合った例えば打楽器の音声がスピーカ94から出力されることになる。
【0142】
ここで、音声処理手段304での処理を図22のフローチャートを参照しながら説明する。
【0143】
この音声処理手段304は、まず、図22のステップS101において、指示制御手段306からやり直しの指示があったか否かが判別される。やり直しの指示があれば、次のステップS102に進み、ノイズ音をスピーカ94に出力する。
【0144】
次に、ステップS103において、所定時間(当該フレーズの最初の部分に戻るまでの時間)が経過したか否かが判別される。所定時間が経過していなければ、前記ステップS102に戻り、ノイズ音の出力を継続する。
【0145】
所定時間が経過した段階で、次のステップS104に進み、BGM出力手段340を通じて、現在のフレーズに関するBGMの情報を読み出す。次いで、ステップS105において、音声データ出力手段342を通じて、ブロックオブジェクト202がはめ込まれた時点に出力される音声データの情報を読み出す。
【0146】
次に、ステップS106において、BGM出力手段340を通じて、前記読み出されたBGM情報に対応するBGMの出力を開始する。この段階で、当該フレーズに対応するBGMがスピーカ94から連続して出力されることになる。
【0147】
次に、ステップS107において、操作入力があったか否かが判別される。この判別は、指示制御手段306からの操作入力に基づく割込みがあったかどうかで行われる。
【0148】
操作入力があった場合、次のステップS108に進み、音声データ出力手段342を通じて、前記読み出された今回の音声データをスピーカ94に出力する。このステップS108での処理が終了した段階、あるいは前記ステップS107において、操作入力がなかったと判別された場合に、次のステップS109に進み、フレーズが変化したか否かが判別される。この判別は、指示制御手段306からのフレーズに関する情報に基づいて行われる。
【0149】
フレーズが変化していなければ、前記ステップS107に戻り、該ステップS107以降の処理を繰り返す。そして、フレーズが変化した時点で、次のステップS110に進み、今度は、この音声処理手段304に対するプログラム終了要求(ゲームオーバーや電源断等)があるか否かが判別される。プログラム終了要求がなければ、前記ステップS101に戻り、次のフレーズについての処理が行われ、プログラム終了要求があった段階で、この音声処理手段304での処理が終了する。
【0150】
図20のメインルーチンに戻り、次のステップS16において、課題ブロック処理手段310を通じて、課題ブロック220の指示があったか否かが判別される。課題ブロック220の指示は後述するステップS23において行われる。課題ブロック220の指示があった場合は、課題ブロック220に対応する規定のブロックを操作入力で選択したか否かが判別される。規定のブロックであれば、ステップS18に進み、規定のブロックでなければ、図19のステップS15のやり直し指示を経てステップS6に戻る。
【0151】
図20のステップS18においては、操作入力によって選択されたブロックのタイプに基づく数(ブロック数A)をインデックスレジスタjの値に累算し、次いで、ステップS19において、前記ブロック数Aをインデックスレジスタnの値に累算する。
【0152】
次に、ステップS20において、はめ込み状態処理手段316を通じて、1小節分のブロックオブジェクト202のはめ込みが終了したか否かが判別される。この判別は、インデックスレジスタjの値が8以上であるかどうかで行われる。
【0153】
1小節分のはめ込みが終了していない場合は、ステップS21に進み、ブロック投上げ指示手段312を通じて、操作入力に対応したブロックオブジェクト202の投上げを指示する。この指示によって、表示処理手段302は、△ボタン112aを操作した場合は1組ブロック202aを投げ上げ、□ボタン112bを操作した場合は2組ブロック202bを投げ上げ、○ボタン112dを操作した場合は3組ブロック202cを投げ上げ、×ボタン112cを操作した場合は4組ブロック202dを投げ上げる表示を行う。
【0154】
ここで、表示処理手段302での処理について図23のフローチャートを参照しながら説明する。
【0155】
この表示処理手段302は、まず、図23のステップS201において、ブロックオブジェクト202の投上げ指示の発生を待つ。指示があった段階で、次のステップS202に進み、必要なパラメータを受け取る。このパラメータとしては、投げ上げるブロックオブジェクト202の種類(1組ブロック202aや2組ブロック202b等の区別)やBGMのテンポ、そして、何番目のシーンで何番目のフレーズであるかなどの情報がある。
【0156】
次に、ステップS203において、指示制御手段306からやり直しの指示があったか否かが判別される。やり直しの指示がなければ、次のステップS204に進み、シーンとフレーズの情報に基づいて、対応する動画データファイルからアドレス順次に動画データを読み出す。
【0157】
次に、ステップS205において、前記読み出された動画データをリプレイ用の動画データファイルにアドレス順次に登録する。続いて、ステップS206において、動画描画手段328を通じて、前記読み出された動画データを画像メモリ320に描画する。
【0158】
この場合、動画206として映し出される各オブジェクトの頂点データを動画データに基づいて書き換える。そして、画像メモリ320のうち、前記書き換えられた頂点データに基づく位置(座標)に、それぞれのオブジェクトの画像データを描画する。
【0159】
次に、ステップS207において、現在の経過時間と制限時間との時間差に基づいて、縦すじのノイズ画像の有無を決定し、ノイズを表現する場合は、ノイズ画像描画手段330を通じて、時間差に応じた数のノイズを画像メモリ320に描画する。この縦すじノイズの表現は、制限時間の例えば20秒前の時点から行われ、制限時間に近づくに連れて縦すじのノイズの数が増加するように描画が行われる。
【0160】
次に、ステップS208において、前記動画データの登録に併せて縦すじのノイズの情報(ノイズの数など)をリプレイ用の動画データファイルに登録する。
【0161】
次に、ステップS209において、投上げ指示されたブロックオブジェクト202の軌道を計算する。具体的には、投上げ時点からの経過時間tのデータを受け取り、更に、指示されたブロックオブジェクト202に対応する重力加速度gのデータと、初速度vのデータを受け取って、以下の関係式
y=vt−gt/2
からブロックオブジェクト202の垂直方向の変位yを求める。
【0162】
次に、ステップS210において、オブジェクト描画手段322を通じて、前記指示されたブロックオブジェクト202の各頂点データ(特に座標に関する情報)を前記変位yに基づいて書き換える。
【0163】
一方、前記ステップS203において、やり直しの指示があったと判別された場合は、ステップS211に進み、ノイズ画像の情報をリプレイ用の動画データファイルにアドレス順次に登録する。続いて、ステップS212において、ノイズ画像描画手段330を通じて、ノイズの画像データを画像メモリ320に描画する。
【0164】
ステップS210あるいはステップS212での処理が終了した段階で、ステップS213に進み、枠描画手段324を通じて、枠オブジェクト204の画像データを画像メモリ320に描画する。この場合、現在のBGMのテンポと現在のフレーズの開始からの経過時間に基づいて、枠オブジェクト204の頂点データを書き換え、画像メモリ320のうち、該頂点データに基づく位置(座標)に、枠オブジェクト204の画像データを画像メモリ320に描画する。
【0165】
次に、ステップS214において、指標描画手段326を通じて、指標232の画像データを画像メモリ320に描画する。この場合、指示制御手段306における得点計算手段318を通じて計算された得点データに基づいて指標232の頂点データを書き換え、画像メモリ320のうち、該頂点データに基づく位置(座標)に、前記指標232の画像データを画像メモリ320に描画する。
【0166】
次に、ステップS215において、画像表示手段332を通じて、前記画像メモリ320に描画されている画像データをモニタ18に出力して、該モニタ18に、ブロックオブジェクト202、枠オブジェクト204、指標232及び動画206を表示させる。
【0167】
次に、ステップS216において、一時終了要求があるか否かが判別される。この判別は、指示制御手段306を通じて、操作入力があったかどうか、あるいはやり直し指示の後、所定時間(当該フレーズの最初の部分に戻るまでの時間)が経過したかどうかで行われる。
【0168】
一時終了要求がなかった場合は、前記ステップS203に戻り、該ステップS203以降の処理を繰り返す。このステップS203〜S216の処理が繰り返されることで、指示されたブロックオブジェクト202の投上げと落下の連続動作が行われ、ブロックオブジェクト202の種類に応じた動画が表示されることになる。
【0169】
前記ステップS216において、一時終了要求があった段階で、次のステップS217に進み、今度は、この表示処理手段302に対するプログラム終了要求(ゲームオーバーや電源断など)があるか否かが判別される。プログラム終了要求がなければ、前記ステップS201に戻り、次の投上げ指示を待つ。
【0170】
そして、前記ステップS217において、プログラム終了要求があった段階で、この表示処理手段302での処理が終了する。
【0171】
図20のメインルーチンに戻り、次のステップS22において、課題ブロック処理手段310を通じて、所定のタイミングであるか否か、即ち、次のターンで課題ブロック220の出現タイミングMとなるか否かが判別される。この判別は、インデックスレジスタnの値が出現タイミングMと一致したかどうかで行われる。
【0172】
次のターンで課題ブロック220の出現タイミングMであると判別された場合は、次のステップS23に進み、課題ブロック220であることを示す指示を行う。この指示は、前記ステップS16で判別されることになる。
【0173】
前記ステップS23での処理が終了した段階、あるいは前記ステップS22において所定のタイミングでないと判別された場合は、図19のステップS11に戻り、該ステップS11以降の処理が繰り返される。
【0174】
一方、前記ステップS20において、1小節分のブロックオブジェクトのはめ込みが終了していると判別された場合は、次のステップS24に進み、取得されたブロックの数が規定の8つであるか否かが判別される。図14Dに示すように、ブロックの数が8つよりも多い場合は、図19のステップS15に進み、やり直し指示を経てステップS6に戻る。
【0175】
枠オブジェクト204にはめ込まれたブロックの数が規定の8つである場合は、次のステップS25に進み、得点計算手段318を通じて、得点計算を行う。この計算は、1小節におけるブロックオブジェクト202の挿入パターンに応じた難易度に基づいて得点を計算する。計算された得点は、前記表示処理手段302を通じて、指標表示される。
【0176】
次に、ステップS26において、インデックスレジスタiの値を+1更新した後、次のステップS27において、はめ込み状態処理手段316を通じて、1フレーズ分のブロックオブジェクト202のはめ込みが終了したか否かが判別される。この判別は、インデックスレジスタiの値が4以上であるかどうかで行われる。
【0177】
1フレーズ分のブロックオブジェクト202のはめ込みが終了していなければ、図19のステップS7に進み、次のフレーズについての処理が行われる。1フレーズ分のブロックオブジェクト202の取得が終了していれば、次のステップS28に進み、課題ブロック処理手段310を通じて、課題ブロック220に対するはめ込み処理を実行したか否かが判別される。この判別は、ステップS23のルーチンを通ったかどうかで行われる。
【0178】
課題ブロック220に対するはめ込み処理を行っていなければ、図19のステップS15に進み、やり直し指示を経てステップS6に戻る。課題ブロック220に対するはめ込み処理を行っていれば、図21のステップS29に進み、1フレーズ分の評価を計算する。この評価は、ブロックオブジェクトの枠オブジェクト204へのはめ込み状態や得点に基づいて計算される。
【0179】
次に、ステップS30において、インデックスレジスタkの値を+1更新した後、次のステップS31において、ブロック投上げ指示手段312を通じて、4組ブロック202dの投上げを指示する。この指示に従って、表示処理手段302は、4組ブロック202dを上方に投げ上げる表示を行う。
【0180】
次に、ステップS32において、所定時間が経過したか否かが判別される。この時間は、4組ブロック202dの投上げ時点から枠オブジェクト204に落下するまでの時間である。所定時間が終了した時点で次のステップS33に進み、4組ブロック202dを所定回数投げ上げたか否かが判別される。
【0181】
このステップS31〜S33までの処理は、枠オブジェクト204のフレーズ間に挿入された例えば1小節分のインターバルにおける4組ブロック202dの投上げ処理であって、例えば2回にわたる投上げが終了した段階で、次のステップS34に進む。
【0182】
ステップS34においては、はめ込み状態処理手段316を通じて、3フレーズ分(1シーン分)のブロックオブジェクト202のはめ込み処理が終了したか否かが判別される。終了していなければ、図19のステップS6に戻り、次のフレーズについての処理を行う。
【0183】
1シーン分の処理が終了した段階で、次のステップS35に進み、インデックスレジスタmの値を+1更新した後、次のステップS36において、全てのシーンについて処理を終了したか否かが判別される。この判別は、インデックスレジスタmの値が7以上であるかどうかで行われる。
【0184】
全てのシーンについての処理が終了していなければ、図19の前記ステップS2に戻り、次のシーンについての処理を行い、全てのシーンについて処理が終了した段階で、この指示制御手段306での処理が終了する。
【0185】
次に、リプレイ処理手段308を構成する表示リプレイ手段350と音声リプレイ手段352の各処理動作について図24及び図25のフローチャートを参照しながら説明する。これら表示リプレイ手段350と音声リプレイ手段352は、それぞれマルチタスク方式で動作するようになっている。
【0186】
まず、表示リプレイ手段350は、図24のステップS301において、シーン(場面)の更新に使用されるインデックスレジスタmに初期値「0」を格納して、該インデックスレジスタmを初期化する。
【0187】
次に、ステップS302において、フレーズの更新に使用されるインデックスレジスタkに初期値「0」を格納して、該インデックスレジスタkを初期化する。
【0188】
次に、ステップS303において、多数のリプレイ用の動画データファイルのうち、前記インデックスレジスタm及びkの各値に基づくリプレイ用の動画データファイルから動画データをアドレス順次に読み出す。
【0189】
次に、ステップS304において、前記動画データの読み出しと併せてノイズ情報を読み出す。
【0190】
次に、ステップS305において、当該フレーズで動画として映し出される各オブジェクトの頂点データを前記読み出された動画データに基づいて書き換え、画像メモリのうち、前記書き換えられた頂点データに基づく位置(座標)に、それぞれオブジェクトの画像データを描画する。
【0191】
次に、ステップS306において、前記画像メモリ320に描画されている画像データをモニタ18に出力して、図15に示すように、モニタ18に、動画206を表示させる。
【0192】
次に、ステップS307において、1フレーズ分の動画の表示が終了したか否かが判別される。1フレーズ分の動画の表示が終了していなければ、前記ステップS303に戻り、当該フレーズにおける次の動画データを読み出して、動画206を表示させる。
【0193】
1フレーズ分の動画の表示が終了した段階で、次のステップS308に進み、視聴率を計算する。この計算は、前記指示制御手段306におけるステップS30(図21参照)で計算された1フレーズ毎の評価に基づいて行われる。
【0194】
次に、ステップS309において、動画の表示の打ち切りか否かが判別される。この判別は、前記計算された視聴率が10%未満であるかどうかで行われる。表示が打ち切りでなければ、次のステップS310に進み、インデックスレジスタkの値を+1更新した後、次のステップS311において、3フレーズ分(1シーン分)の動画の表示が終了したか否かが判別される。表示が終了していなければ、前記ステップS303に戻り、次のフレーズにおける動画の表示が行われる。
【0195】
1シーン分の動画の表示が終了した段階で、次のステップS312に進み、インデックスレジスタmの値を+1更新した後、次のステップS313において、全てのシーンについて処理を終了したか否かが判別される。この判別は、インデックスレジスタmの値が7以上であるかどうかで行われる。
【0196】
全てのシーンについての処理が終了していなければ、前記ステップS302に戻り、次のシーンについての処理を行い、全てのシーンについて処理が終了した段階で、このリプレイ処理手段308での処理が終了する。
【0197】
また、前記ステップS302〜S313での処理が繰り返されているうちに、前記ステップS309において、打ち切りであると判別された段階で、ステップS314に進み、ゲームオーバーのための種々の処理、例えば動画206を消去し、ゲームオーバーを示す画像の表示等を行う。
【0198】
一方、音声リプレイ手段352は、まず、図25のステップS401において、現在、ノイズ画像が表示されているか否かが判別される。ノイズ画像が表示されていれば、次のステップS402に進み、ノイズ音をスピーカ94に出力する。
【0199】
次に、ステップS403において、所定時間(当該フレーズの最初の部分に戻るまでの時間)が経過したか否かが判別される。所定時間が経過していなければ、前記ステップS402に戻り、ノイズ音の出力を継続する。
【0200】
所定時間が経過した段階で、次のステップS404に進み、現在のフレーズに関するBGMの情報を読み出す。次いで、ステップS405において、ブロックオブジェクト202がはめ込まれた時点に出力される音声データの情報を読み出す。
【0201】
次に、ステップS406において、前記読み出されたBGM情報に対応するBGMの出力を開始する。この段階で、当該フレーズに対応するBGMがスピーカ94から連続して出力されることになる。
【0202】
次に、ステップS407において、表示される動画データの切り換え(操作入力に基づく動画データの切り換え履歴)があったか否かが判別される。動画データの切り換えがあった場合、次のステップS408に進み、前記読み出された今回の音声データをスピーカ94に出力する。このステップS408での処理が終了した段階、あるいは前記ステップS407において、動画データの切り換えがなかったと判別された場合に、次のステップS409に進み、フレーズが変化したか否かが判別される。
【0203】
フレーズが変化していなければ、前記ステップS407に戻り、該ステップS407以降の処理を繰り返す。そして、フレーズが変化した時点で、次のステップS410に進み、今度は、この音声リプレイ手段352に対するプログラム終了要求(ゲームオーバーや電源断等)があるか否かが判別される。プログラム終了要求がなければ、前記ステップS401に戻り、次のフレーズについての処理が行われ、プログラム終了要求があった段階で、この音声リプレイ手段352での処理が終了する。
【0204】
この音声リプレイ手段352としては、上述の処理のほか、以下の処理を行うようにしてもよい。
【0205】
即ち、フレーズ毎に種々のBGMを割り当て、更に、各小節に割り当てられる音声を該小節に組み込まれたブロックの種類に応じて変化させるようにする。
【0206】
この再生処理を図26〜図28を参照しながら説明する。まず、図26のステップS501において、フレーズの更新に使用されるインデックスレジスタkに初期値「1」を格納して、該インデックスレジスタkを初期化する。
【0207】
次に、ステップS502において、k番目のフレーズに関する音声情報(BGM)を読み出す。その後、ステップS503において、小節数の更新に使用されるインデックスレジスタiに初期値「1」を格納して、該インデックスレジスタiを初期化する。
【0208】
次に、ステップS504において、前記読み出された音声情報からi番目の小節における音声情報(以下、便宜的に小節単位音声情報と記す)を読み出す。
【0209】
次に、ステップS505において、ブロック数の更新に使用されるインデックスレジスタpに初期値「0」を格納し、更にブロックの検索に使用されるインデックスレジスタjに初期値「1」を格納して、それぞれインデックスレジスタp及びjを初期化する。
【0210】
次に、ステップS506において、i番目の小節におけるブロックの配置情報から、j番目のブロックの種類を読み出す。
【0211】
次に、ステップS507において、再生のタイミングが小節の前半であるか後半であるかを判別する。この判別は、インデックスレジスタpの値が4未満であるかどうかで行われる。
【0212】
インデックスレジスタpの値が4未満、即ち、小節の前半であると判別された場合は、次のステップS508に進み、前記読み出された小節単位音声情報の先頭から今回のブロックの種類に相当する音声を再生する。
【0213】
一方、前記ステップS507において後半であると判別された場合は、ステップS509に進み、前記読み出された小節単位音声情報の中間から今回のブロックの種類に相当する音声を再生する。
【0214】
前記ステップS508あるいはステップS509での処理が終了した段階で、次のステップS510に進み、インデックスレジスタpの値に今回のブロックの種類に応じたブロック数Aを累算する。
【0215】
次に、ステップS511において、インデックスレジスタjの値を+1更新した後、1小節分の処理が終了したか否かを判別する。この判別は、インデックスレジスタpの値が「8」以上であるかどうかで行われる。1小節分の処理が終了していなければ、前記ステップS506に戻り、該ステップS506以降の処理を繰り返す。
【0216】
ここで、ステップS506〜S512での処理について図27及び図28を参照しながら具体的に説明すると、図27に示すように、1小節に8ブロックがはめ込まれると仮定し、該小節に割り当てられた音声を再生順に「ぼくのだいすきな」としたとき、まず、図28の項目▲1▼に示すように、当該小節について4組ブロック202dが2つはめ込まれている場合は、最初の4組ブロック202dは当該小節の前半に位置するから、音声の先頭から「ぼくのだ」が再生され、次の4組ブロック202dは当該小節の後半に位置するから、音声の中間から「いすきな」が再生される。
【0217】
次に、図28の項目▲2▼に示すように、当該小節について2組ブロック202b、3組ブロック202c、2組ブロック202b及び1組ブロック202aが順にはめ込まれている場合は、最初の2組ブロック202bは当該小節の前半に位置するから、音声の先頭から「ぼく」が再生され、次の3組ブロック202cは当該小節の前半に位置するから、再び音声の先頭から「ぼくの」が再生され、次の2組ブロック202bは当該小節の後半に位置するから、音声の中間から「いす」が再生され、最後の1組ブロック202aは当該小節の後半に位置するから、音声の中間から「い」が再生される。
【0218】
その他の例として、項目▲3▼に、1小節に3組ブロック202c、1組ブロック202a及び2つの2組ブロック202bを並べた場合を示し、項目▲4▼に、1小節に4つの1組ブロック202a及び1つの4組ブロック202dを並べた場合を示し、項目▲5▼に、1小節に2組ブロック202b、4組ブロック202d及び2つの1組ブロック202aを並べた場合を示し、項目▲6▼に、1小節に2つの3組ブロック202c及び1つの2組ブロック202bを並べた場合についての例を示す。
【0219】
図26に示すルーチンの説明に戻り、次のステップS513において、インデックスレジスタiの値を+1更新した後、ステップS514において、1フレーズに関する全ての小節について処理したか否かを判別する。この判別は、インデックスレジスタiの値が1フレーズの小節数Bを超えたかどうかで行われる。
【0220】
1フレーズに関する全ての小節について処理していなければ、前記ステップS504に戻り、該ステップS504以降の処理を繰り返す。1フレーズに関する全ての小節について処理を行った段階で、次のステップS515に進み、インデックスレジスタkの値を+1更新した後、次のステップS516において、全てのフレーズについて処理したか否かを判別する。この判別は、インデックスレジスタkの値がフレーズ数Cを超えたかどうかで行われる。
【0221】
全てのフレーズについて処理していなければ、前記ステップS502に戻り、該ステップS502以降の処理を繰り返す。そして、全てのフレーズについて処理した段階で、この一連の再生処理が終了する。
【0222】
前記再生処理によれば、小節内で和声進行(コードチェンジ)が行われている場合にも違和感のない再生が可能となる。プレイヤーがある程度意識的にコントロールできる程度の再生規則であるため、違和感がない。小節内での強拍の位置をブロックの組み替えによりずらすことが可能なため多彩なリズムバリエーションを得ることができる。
【0223】
このように、本実施の形態に係るエンタテインメントシステム10においては、モニタ18に所定のテンポに合わせて移動する枠オブジェクト204を表示させ、ユーザに、枠オブジェクト204への複数種類のブロックオブジェクト202のはめ込みを試行させ、枠オブジェクト204にはめ込まれたブロックオブジェクト202に対応した複数種類の動画データを組み合わせて、1つのシーンの映像を作成するようにしている。
【0224】
このため、複数種類のオブジェクトが枠にはめ込まれるたびに、該枠にはめ込まれたオブジェクトに対応した複数種類の動画データが組み合わされて、1つのシーンの映像が作成されることとなる。
【0225】
この場合、強制的に指定されたボタンを押すのではなく、自由な発想で任意のボタンを好き勝手にリズムに合わせて押すことによって動画が組み合わされていくため、ユーザのビデオゲームに対する興味が持続され、ユーザは、音楽のリズムに乗りながら1シーンの映像を作成するという、音楽と映像が組み合わされたビデオゲームを楽しむことができる。
【0226】
特に、本実施の形態では、ブロックオブジェクト202の枠オブジェクト204へのはめ込み時に任意の音声を出力するようにしているため、ブロックオブジェクト202の投げ上げから落下への連続動作が一種のメトロノームの役割を果たすこととなり、ユーザは、この連続動作を見ながらブロックオブジェクト202を任意のボタン操作で枠オブジェクト204にはめ込んでいくことで、任意の音声が出力され、ブロックオブジェクト202が枠オブジェクト204にはめ込まれるたびに出力される音声とBGMとで1つの音楽が完成していくことになる。
【0227】
この場合、強制的に指定されたボタンを押すのではなく、自由な発想で任意のボタンを好き勝手にリズムに合わせて押すことによって任意の音声が出力されていくことになるため、ユーザのビデオゲームに対する興味が持続され、音楽のリズムに乗るという意味で音楽のビデオゲームを楽しむことができる。
【0228】
更に、本実施の形態では、上述したように、例えば1週間の架空のテレビ番組を作成する際に、ユーザ自身が監督あるいはディレクターとなって、1日1シーンの番組枠を担当し、その1シーンにユーザ自身が作成した映像を組み込むというテレビ番組作成の疑似体験を楽しむことができる。
【0229】
この場合、枠オブジェクト204にブロックオブジェクト202をはめ込むという単純なゲームに様々な要素を盛り込むことができ、ユーザは、視聴率を高めながら1週間の番組を演出するという、いままでにないビデオゲームを楽しむことができる。
【0230】
また、本実施の形態においては、表示処理手段302に、ブロックオブジェクト202の落下地点において所定のテンポに合わせて一方向に移動する枠オブジェクト204を描画するための枠描画手段324と、ブロックオブジェクト202の形状を、該ブロックオブジェクト202のはめ込み時における操作入力の種類に応じて変化させ、かつ、ブロックオブジェクト202をその形状と所定のテンポに対応した滞空時間となるように投げ上げ表示するためのオブジェクト描画手段322とを有するようにしている。
【0231】
この場合、枠オブジェクト204が所定のテンポに合わせて一方向に移動し、更に、ブロックオブジェクト202がその形状並びに所定のテンポに対応した滞空時間で投げ上げられて落下することとなる。従って、BGMのテンポに合わせて枠オブジェクト204が移動し、投げ上げられたブロックオブジェクト202が枠オブジェクト204にはめ込まれた時点で、任意の音声が発生するというビデオゲームが実現できることとなる。
【0232】
そして、このビデオゲームでは、ブロックオブジェクト202の形状によって4分音符や8分音符などのように音の長さが変化し、その後に操作入力すべきタイミングを変化させることができる。即ち、操作入力の種類によって単純な入力タイミングや複雑な入力タイミングを任意に選択することができ、完成される音楽についてのリズムの多様化を図ることができる。
【0233】
また、本実施の形態では、ブロックオブジェクト202のはめ込み時における種々の形状の組合せに応じて計算された得点を指標表示するようにしている。この場合、操作入力の種類によって操作入力すべきタイミングが変化し、同時にリズムも変化することになるが、複雑なリズムに乗ってタイミングよく操作入力することによって、例えば得点が上がるように設定することにより、ユーザは、より複雑なリズムに挑戦したくなり、上述のビデオゲームにスポーツ的な要素を持たせることが可能となる。
【0234】
なお、この発明に係るエンタテインメントシステム、エンタテインメント装置、記録媒体及びプログラムは、上述の実施の形態に限らず、この発明の要旨を逸脱することなく、種々の構成を採り得ることはもちろんである。
【0235】
【発明の効果】
以上説明したように、本発明に係るエンタテインメントシステム、エンタテインメント装置、記録媒体及びプログラムによれば、使用者による操作入力のタイミングに従って、任意の音声が発生し、更に操作入力の種類に応じて動画が組み合わされて、最終的に1つのシーンの映像を作成することができ、1つの音楽を作成するという楽しみと1つのシーンの映像を作成するという楽しみを同時に享受することができる。また、多彩な音声の変化やリズムバリエーションを楽しむこともできる。
【図面の簡単な説明】
【図1】本実施の形態に係るエンタテインメントシステムを示す構成図である。
【図2】操作装置を示す斜視図である。
【図3】操作装置を示す平面図である。
【図4】操作装置の使用状態を示す斜視図である。
【図5】左右の把持部内に振動付与機構を配設した状態を示す一部破断底面図である。
【図6】エンタテインメント装置の回路構成を示すブロック図である。
【図7】操作装置とエンタテインメント装置との双方向のシリアル通信を行う要部を示すブロック図である。
【図8】モニタに、ブロックオブジェクト、枠オブジェクト、指標及び動画を表示させた例を示す説明図である。
【図9】図9Aは、オブジェクトが投上げ位置から投げ上げられて最高点に達した状態を示す説明図であり、図9Bは、落下中のオブジェクトが取得側オブジェクトで取得された状態を示す説明図である。
【図10】操作装置の各ボタンに割り付けられたオブジェクトの種類の一例を示す説明図である。
【図11】図11Aは、4組ブロックに対応する第1の動画データファイル群を示す説明図であり、図11Bは、3組ブロックに対応する第2の動画データファイル群を示す説明図であり、図11Cは、2組ブロックに対応する第3の動画データファイル群を示す説明図である。
【図12】図12Aは、ブロックオブジェクトが枠オブジェクトに規定通りはめ込まれた状態を示す説明図であり、図12Bは、操作入力がわずかに遅かった場合のブロックオブジェクトのはめ込み状態を示す説明図であり、図12Cは、操作入力がわずかに早かった場合のブロックオブジェクトのはめ込み状態を示す説明図である。
【図13】課題ブロックの一例を示す説明図である。
【図14】図14Aは、ブロックオブジェクトの第1の挿入パターンを示す説明図であり、図14Bは、ブロックオブジェクトの第2の挿入パターンを示す説明図であり、図14Cは、ブロックオブジェクトの第3の挿入パターンを示す説明図であり、図14Dは、はみ出して挿入されたパターンの一例を示す説明図である。
【図15】ユーザが作成した動画の組合せをリプレイ機能によってモニタに映し出した模様を示す説明図である。
【図16】制限時間が近づいて動画の部分に縦すじのノイズが現れていく様子を示す説明図である。
【図17】映像作成手段の構成を示す機能ブロック図である。
【図18】表示処理手段の構成を示す機能ブロック図である。
【図19】映像作成手段を構成する指示制御手段の処理動作を示すフローチャート(その1)である。
【図20】指示制御手段の処理動作を示すフローチャート(その2)である。
【図21】指示制御手段の処理動作を示すフローチャート(その3)である。
【図22】音声処理手段の処理動作を示すフローチャートである。
【図23】表示処理手段の処理動作を示すフローチャートである。
【図24】表示リプレイ手段の処理動作を示すフローチャートである。
【図25】音声リプレイ手段の処理動作を示すフローチャートである。
【図26】音声リプレイ手段の処理動作の他の例を示すフローチャートである。
【図27】曲(映像)の再生順序とそのソースを示す説明図である。
【図28】ブロックの配置状態、曲の再生順序並びに再生音声の関係を示す表図である。
【符号の説明】
10…エンタテインメントシステム 12…エンタテインメント装置
16…操作装置 18…モニタ
20…光ディスク 80…CPU
84…グラフィックシステム 86…サウンドシステム
94…スピーカ 202…ブロックオブジェクト
202a…1組ブロック 202b…2組ブロック
202c…3組ブロック 202d…4組ブロック
204…枠オブジェクト 206…動画
220…課題ブロック 232…指標
300…映像作成手段 302…表示処理手段
304…音声処理手段 306…指示制御手段
308…リプレイ処理手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an entertainment system that is connected to an entertainment device that executes various programs, and that has at least one operation device that inputs an operation request by a user to the entertainment device, and an entertainment device in which the operation device and the display device can be connected. The present invention relates to a device, a recording medium on which a program and data used in the entertainment system and entertainment device are recorded, and the program itself.
[0002]
[Prior art]
As an information device (entertainment system) such as an entertainment device including a video game machine, for example, a game content stored in a recording medium such as a CD-ROM is displayed on the screen of a television receiver, and is operated with an operation device. There is something that makes the game progress.
[0003]
In the entertainment system, the entertainment device and the operation device are normally connected by a serial interface, and when a clock is sent from the entertainment device, key switch information corresponding to the operation of the user from the operation device in synchronization with the clock. Etc. are to be sent.
[0004]
Also, recently, a vibration generating means for applying vibration to the user in response to a request from the outside (for example, an entertainment device) is provided in the operation device so as to respond to the user's operation while the game is in progress, for example. A system that gives various vibrations to the user has been developed and put into practical use.
[0005]
[Problems to be solved by the invention]
By the way, as a music video game using the entertainment system as described above, among the buttons arranged on the operation device, a designated button displayed on the display device is pressed in accordance with the rhythm, or a plane laid on the floor. There are video games such as enjoying the buttons arranged on the controller on the foot with the rhythm.
[0006]
In these games, it is determined whether or not the specified button is operated at the determined timing, and the victory or defeat is determined. Therefore, rather than music, there is a strong sense of playing sports and enjoying music Lack.
[0007]
When you get on the rhythm of music, you can sustain the user's interest by pressing any button according to the rhythm as you like, rather than pressing the designated button forcibly. And it's interesting.
[0008]
Also, if an arbitrary sound is generated in accordance with the timing of operation input by the user, and moving images are combined according to the type of operation input, an image of one scene is finally created. The pleasure of creating one music and the pleasure of creating a video of one scene can be enjoyed at the same time, and the interest in video games can be maintained.
[0009]
The present invention has been made in consideration of such problems, and according to the timing of operation input by the user, an arbitrary sound is generated, and a moving image is combined according to the type of operation input. Provided are an entertainment system, an entertainment device, a recording medium, and a program that can create a video of one scene and can simultaneously enjoy the pleasure of creating one music and the pleasure of creating one video of a scene. The purpose is to do.
[0010]
[Means for Solving the Problems]
An entertainment system according to the present invention includes an entertainment device that executes various programs, at least one operation device that inputs an operation request from a user to the entertainment device, and a display device that displays an image output from the entertainment device. In the entertainment system having A frame display unit that controls the display device to display a frame that moves in accordance with a predetermined tempo, and the display device throws one selected object out of a plurality of types of objects, and then Object display means for controlling the display to fall toward the frame, timing detection means for detecting the timing of operation input from the user when the object falls on the frame, and At that time, when a part or all of the object is included in the display range of the frame, it is determined that the object is fitted in the frame, and the object is out of the display range of the frame. Determining means for determining that the object is not fitted in the frame, and the object is fitted in the frame. If it is determined, the moving image reading means for reading the moving image data corresponding to the type of the object, the processing by the frame display means, the processing by the object display means, the processing by the timing detection means, and the processing by the determination means And means for combining the moving image data sequentially read out by repeating a series of processes including the processing by the moving image reading means into a long-length moving image data It is characterized by having.
[0011]
An entertainment device according to the present invention includes an operation device that receives an operation request from a user, and a display device for displaying an image. When In an entertainment device that can be connected and that executes various programs, A frame display unit that controls the display device to display a frame that moves in accordance with a predetermined tempo, and the display device throws one selected object out of a plurality of types of objects, and then Object display means for controlling the display to fall toward the frame, timing detection means for detecting the timing of operation input from the user when the object falls on the frame, and At that time, when a part or all of the object is included in the display range of the frame, it is determined that the object is fitted in the frame, and the object is out of the display range of the frame. Determining means for determining that the object is not fitted in the frame, and the object is fitted in the frame. If it is determined, the moving image reading means for reading the moving image data corresponding to the type of the object, the processing by the frame display means, the processing by the object display means, the processing by the timing detection means, and the processing by the determination means And means for combining the moving image data sequentially read out by repeating a series of processes including the processing by the moving image reading means into a long-length moving image data It is characterized by having.
[0012]
The recording medium according to the present invention includes an entertainment device that executes various programs, at least one operating device that inputs an operation request by a user to the entertainment device, and a display that displays an image output from the entertainment device. An entertainment system having a device, A frame display means for controlling the display device to display a frame that moves in accordance with a predetermined tempo, and the display device throws one selected object out of a plurality of types of objects. Object display means for controlling the display to fall toward the frame, timing detection means for detecting the operation input timing from the user when the object falls on the frame, and the time when the operation input has occurred Then, when a part or all of the object is included in the display range of the frame, it is determined that the object is fitted in the frame, and when the object is out of the display range of the frame, Discriminating means for discriminating that the object is not fitted in the frame, and judging that the object is fitted in the frame. A moving image reading means for reading out moving image data corresponding to the type of the object, processing by the frame display means, processing by the object display means, processing by the timing detection means, processing by the determination means, and reading the moving image Means for combining moving image data sequentially read out by repeating a series of processes including processing by means to make feature-length moving image data Recorded a program to function as Computer It is a readable recording medium.
[0013]
The program according to the present invention includes an entertainment device that executes various programs, at least one operation device that inputs an operation request by a user to the entertainment device, and a display device that displays an image output from the entertainment device. An entertainment system having A frame display means for controlling the display device to display a frame that moves in accordance with a predetermined tempo, and the display device throws one selected object out of a plurality of types of objects. Object display means for controlling the display to fall toward the frame, timing detection means for detecting the operation input timing from the user when the object falls on the frame, and the time when the operation input has occurred Then, when a part or all of the object is included in the display range of the frame, it is determined that the object is fitted in the frame, and when the object is out of the display range of the frame, Discriminating means for discriminating that the object is not fitted in the frame, and judging that the object is fitted in the frame. A moving image reading means for reading out moving image data corresponding to the type of the object, processing by the frame display means, processing by the object display means, processing by the timing detection means, processing by the determination means, and reading the moving image The moving image data sequentially read out by repeating a series of processes including the processing by means is combined in order to make a long moving image data It is made to function as a means.
[0014]
As a result, each time a plurality of types of objects are fitted into the frame, a plurality of types of moving image data corresponding to the objects fitted into the frame are combined to create one scene video.
[0015]
In this case, instead of forcibly pressing the designated button, the videos are combined by freely pressing any button according to the rhythm with any idea, so the user's interest in the video game Sustained, the user can enjoy a video game that combines music and video, creating a video of a scene while riding the rhythm of music.
[0017]
And The above Read video Means Above object Instead of the video data when it is determined that is not fitted in the frame. Noise image Read data You may do it.
[0018]
Also, the above In accordance with an operation input indicating replay by a user, control is performed to display the feature video data on the display device. You may make it have a means.
[0019]
Furthermore, Moving image display means for controlling the data read by the moving image reading means to be displayed on the display device You may make it have.
[0020]
Also ,Previous Object Is determined to be in the frame, You may make it have an audio | voice processing means which outputs arbitrary audio | voices. In this case, the continuous movement from throwing up to dropping of the object will play a role of a kind of metronome, and the user can fit the object into the frame with any button operation while watching this continuous movement, Arbitrary audio is output, and one music is completed with the audio and BGM output each time the object is fitted into the frame.
[0021]
In this case, instead of forcibly pressing the designated button, any sound is output by pressing any button in accordance with the rhythm as desired. Interest in video games is sustained and music video games can be enjoyed in the sense of getting on the music rhythm.
[0022]
And the object display Means When it was determined last time that the object was fitted in the frame, the user when it was determined that the previous object was fitted in the frame among the plurality of types of objects this time. Controls to throw up an object according to the type of operation input from and then display it falling toward the frame You may make it do.
[0023]
Also, The object display means throws up the object so as to have a flying time corresponding to the type of the object to be thrown up and the predetermined tempo, and then performs a display of falling toward the frame. Control You may make it do.
[0024]
In this case, the acquisition-side object moves in one direction according to a predetermined tempo, and further, the object is thrown up and dropped in the dwell time corresponding to the shape and the predetermined tempo. Accordingly, it is possible to realize a video game in which an arbitrary sound is generated when the frame moves in accordance with the tempo of BGM (background music) and the thrown object is inserted into the frame.
[0025]
In this video game, the length of the sound changes like a quarter note or an eighth note depending on the shape of the object, and then the timing for operation input can be changed. That is, a simple input timing or a complicated input timing can be arbitrarily selected according to the type of operation input, and the rhythm of the completed music can be diversified.
[0026]
Also, Based on the type and combination of the objects when it is determined by the determining means that the object has been continuously inserted into the frame. score Calculate indicate To control score processing You may make it have a means. In this case, the timing at which the operation should be input changes depending on the type of operation input, and the rhythm also changes at the same time. Thus, the user can challenge a more complicated rhythm, and can give the above-mentioned video game a sporty aspect.
[0027]
The present invention also provides: A block information registration unit for registering information on the type of the object determined to be fitted in the frame each time the discrimination unit determines that the object is fitted in the frame; and a plurality of types Out of the audio information of, depending on the type of registered object Audio information Audio reading means to read out and output the read audio information in order Voice output means When You may make it have. In this case, various voice changes and rhythm variations can be enjoyed.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments in which an entertainment system and an entertainment device according to the present invention are applied to a video game device, a recording medium and a recording medium according to the present invention, and a recording medium and a program in which data and programs executed by the video game device are recorded Embodiments applied to the above will be described with reference to FIGS.
[0029]
First, as shown in FIG. 1, an entertainment system 10 according to the present embodiment basically includes an entertainment device 12 that executes various programs, and a memory card 14 that is detachable from the entertainment device 12. An operation device (controller) 16 that is detachable from the entertainment device 12 by a connector 62, and a monitor (display) that is a display device such as a television receiver to which video / audio signals are supplied from the entertainment device 12 18.
[0030]
The entertainment device 12 reads out a program recorded on a large-capacity storage medium such as an optical disc 20 such as a CD-ROM, and executes a game or the like in accordance with an instruction from a user (user: for example, a game player). Is to do. The execution of the game mainly means that the input from the operation device 16 is received through the connector 62 and the progress of the game is controlled while controlling the display and sound on the monitor 18.
[0031]
The entertainment device 12 has a substantially flat rectangular parallelepiped shape, and a disc mounting unit 22 in which an optical disc 20 in which application programs and data such as video games are stored is mounted at the center thereof, and is currently being executed. The program includes a reset switch 24 for arbitrarily resetting the program, a disk operation switch 26 for operating the mounting of the optical disk 20, a power switch 28, and two slot portions 30 and 32, for example. .
[0032]
Note that the recording medium for supplying the application program is not limited to the optical disc 20, and the application program may be supplied via a communication line.
[0033]
Each of the slot portions 30 and 32 includes an upper slot portion 30B and 32B and a lower slot portion 30A and 32A, and the operating device 16 can be connected to each of the lower slot portions 30A and 32A. In the upper slot portions 30B and 32B, a memory card 14 capable of storing a flag indicating an intermediate state of a game or the like and a portable information terminal (not shown) that also functions as the memory card 14 can be stored. Can be installed. The slot portions 30 (30A, 30B) and 32 (32A, 32B) have asymmetric shapes in order to avoid erroneous insertion.
[0034]
As shown in FIGS. 2 to 4, the operation device 16 includes first and second operation units 34 and 36, an L button 38 </ b> L and an R button 38 </ b> R, a start button 40, and a selection button 42. Left and right joysticks 44 and 46 capable of analog operation, a mode selection switch 48 for selecting an operation mode of these joysticks 44 and 46, and a display unit 50 for displaying the selected operation mode are provided. . The display unit 50 is configured by a light emitting element such as a light emitting diode.
[0035]
Further, as shown in FIG. 2, the operating device 16 has an operating device main body 104 in which the upper half 100 and the lower half 102 are brought into contact with each other and are coupled using fixing means such as screws.
[0036]
As shown in FIGS. 2 and 3, from one side of each end portion of the operating device main body 104, when the operating device 16 is connected to the entertainment device 12, for example, when searching for information or executing a game, the left and right Left and right grips 106 and 108 that are gripped so as to be included in the palm of the hand are projected.
[0037]
As shown in FIG. 3, the left and right grips 106 and 108 are provided so as to be separated from each other toward the distal end side and toward the lower side of the operation device main body 104.
[0038]
The left and right grips 106 and 108 are formed so as to taper from the connecting part side to the operating device main body 104 toward the tip side, as shown in FIG. In addition, the peripheral surface has an arc surface, and the tip side is formed in an arc shape.
[0039]
As shown in FIG. 2 and FIG. 3, the four operation elements 110 a to 110 d (upward operation element 110 a and rightward operation element 110) projecting to the upper surface side of the operation apparatus body 104 are provided on one end portion side of the operation apparatus body 104. The first operation section 34 is arranged in which a child 110b, a downward operation element 110c and a left operation element 110d) are arranged so as to be orthogonal to each other.
[0040]
The first operation unit 34 is provided with switch elements as signal input elements corresponding to the four operators 110a to 110d. The first operation unit 34 functions as, for example, a direction instruction control unit that controls the movement of the display character, and selectively presses the operation elements 110a to 110d to turn on the switch elements corresponding to these operation elements 110a to 110d. By turning it off, for example, a display character on the screen moves in the arrangement direction of the operation elements 110a to 110d that are pressed.
[0041]
Further, as shown in FIG. 2 and FIG. 3, the four operation elements 112 a to 112 d {Δ mark operation elements (Δ buttons) projecting to the upper surface side of the operation apparatus main body 104 are provided on the other end side of the operation apparatus main body 104. ) 112a, □ mark operator (□ button) 112b, xmark operator (xbutton) 112c and ○ mark operator (◯ button) 112d} are arranged so as to be orthogonal to each other. Is arranged.
[0042]
These four operation elements 112a to 112d are formed as independent members, and switch elements as signal input elements are provided corresponding to the respective operation elements 112a to 112d.
[0043]
The second operation unit 36, for example, sets the function of the display character assigned to each of the operators 112a to 112d by turning on the switches corresponding to the four operators 112a to 112d, or displays the display character. Is used as a function setting execution unit for executing the functions of the.
[0044]
Further, the L button 38L and the R button 38R are arranged on the left and right end portions on the front side facing the back side, which is one side surface where the left and right grips 106 and 108 of the operating device main body 104 project. It is installed. As shown in FIGS. 2 and 4, the L button 38L includes a left first operator (L1 button) 114a and a left second operator (L2 button) 114b, and the R button 38R has a right first operator ( R1 button) 116a and a right second operator (R2 button) 116b.
[0045]
The L1 button 114a and the L2 button 114b, and the R1 button 116a and the R2 button 116b are provided with switch elements corresponding to the respective operators.
[0046]
For example, the L button 38L and the R button 38R are operated by turning on the switches corresponding to the L1 button 114a and the L2 button 114b and the R1 button 116a and the R2 button 116b, for example, the L1 button 114a and the L2 button 114b and the R1 button 116a and It is used as a function setting execution unit for setting the function of the display character assigned to the R2 button 116b or executing the function of the display character.
[0047]
Further, as shown in FIGS. 2 and 3, the operating device 16 is located at a position opposite to the corner portion on the connecting portion side to the operating device main body 104, which is the proximal end side of the left and right grip portions 106 and 108. Left and right analog operation units 118 and 120 are provided.
[0048]
These left and right analog operation units 118 and 120 are signals such as left and right joysticks 44 and 46 that can be tilted and rotated in the direction of 360 ° around the operation axis, and variable resistance elements that are operated by these left and right joysticks 44 and 46. An input element is provided. That is, the left and right joysticks 44 and 46 are provided on the distal end side of the operation shaft attached so as to return to the neutral position by the urging member, and are rotated in a 360 ° direction around the rotation fulcrum of the operation shaft. .
[0049]
These left and right analog operation units 118 and 120 rotate the left and right joysticks 44 and 46, for example, move the display character while rotating it, or move it while changing the speed, and change the form. It is used as an operation unit capable of inputting a command signal that enables analog movement of the above.
[0050]
Then, by switching the mode selection switch 48, for example, an operation mode that enables input of command signals from the left and right analog operation units 118 and 120 and input of command signals from the left and right analog operation units 118 and 120 are performed. The operation mode to be prohibited is selected.
[0051]
Further, by the switching operation of the mode selection switch 48, the functions of the operators 112a to 112d of the second operation unit 36, the L1 button 114a and the L2 button 114b of the L button 38L and the R button 38R, and the R1 button 116a and Each function of the R2 button 116b also changes according to the operation mode accompanying the switching. Depending on the state of these operation modes, the display unit 50 blinks, and the display light is switched.
[0052]
As described above, the operating device 16 in which the left and right grips 106 and 108 protrude from the operating device main body 104 wraps the left and right grips 106 and 108 with the palms of both hands Rf and Lf as shown in FIG. Therefore, it is not necessary to support the operation device main body 104 with fingers, and it is possible to hold the fingers 10 of the two hands Rf and Lf in a state where at least 6 fingers can be freely moved.
[0053]
As shown in FIG. 4, for example, when the left and right grips 106 and 108 are gripped by the palms of both hands Rf and Lf, the left and right hand Rf and Lf thumbs Rf1 and Lf1 are respectively left and right analog operation units. On the left and right joysticks 44 and 46 of 118 and 120, the first to fourth of the first operation unit 34 Operation 1st to 4th of the second operation part 36 on the puppets 110a to 110d Operation Each of these joysticks 44 and 46 extends over the puppets 112a-112d. Each operation The puppies 110a to 110d and 112a to 112d can be selectively pressed.
[0054]
In particular, the joysticks 44 and 46 of the left and right analog operation units 118 and 120 are on the connection side to the operating device main body 104 of the left and right grips 106 and 108 that are gripped so as to be wrapped by the palms of both hands Rf and Lf. Since the left and right grips 106 and 108 are gripped by the left and right hands Rf and Lf, they are positioned closest to the thumbs Rf1 and Lf1 of the left and right hands Rf and Lf. Extend. Accordingly, the joysticks 44 and 46 can be easily rotated by the left and right hands Rf and Lf with the thumbs Rf1 and Lf1.
[0055]
Also, as shown in FIG. 4, when the left and right grips 106 and 108 are gripped so as to be wrapped by the palms of both hands, the left and right hands Rf and Lf are index fingers Rf2 and Lf2, and middle fingers Rf3 and Lf3 are R buttons 38R and The R1 button 116a and the R2 button 116b of the L button 38L, and the L1 button 114a and the L2 button 114b can be extended to positions where they can be selectively pressed.
[0056]
Further, as shown in FIG. 5, the operation device 16 is provided with two vibration imparting mechanisms 128R and 128L that impart vibrations to the user so that the game can be executed with a higher level of presence. Yes.
[0057]
As shown in FIG. 5, each of the vibration applying mechanisms 128 </ b> R and 128 </ b> L is disposed on the base end side of the left and right grips 106 and 108 that are gripped by fingers when gripping the operation device 16.
[0058]
Typically, the right vibration applying mechanism 128R includes a drive motor 130R driven by a vibration generation command supplied from the entertainment device 12, and an eccentric member 134R attached to the drive shaft of the drive motor 130R. The left vibration imparting mechanism 128L has the same configuration.
[0059]
Each of the eccentric members 134R and 134L is formed of a heavy metal member, and is eccentrically attached to a fitting hole that is fitted to a drive shaft and serves as a rotation center, and is configured as a semicircular weight.
[0060]
In the vibration applying mechanisms 128R and 128L configured in this way, the drive motors 130R and 130L are driven and the eccentric members 134R and 134L are rotated, so that the drive motors 130R and 130L are vibrated, and the vibrations are gripped on the left side. The vibration is transmitted to the finger that holds the left grip 106 and the right grip 108.
[0061]
Here, the vibration applying mechanisms 128R and 128L disposed in the left and right grips 106 and 108 are configured to have different vibration characteristics.
[0062]
For example, the drive motor 130L in the left vibration applying mechanism 128L is configured to be larger than the right drive motor 130R, and the rotational speed changes according to the vibration value included in the vibration generation command transmitted from the entertainment device 12, The frequency of the generated vibration changes according to the vibration value. In this example, the vibration frequency is set so as to increase in proportion to the vibration value.
[0063]
On the other hand, the drive motor 130R in the vibration applying mechanism 128R on the right side is configured to “drive” or “stop” according to the logical value “1” or “0” of the vibration value included in the vibration generation command. Unlike the left vibration applying mechanism 128L, either a certain vibration is performed or no vibration is performed.
[0064]
As described above, in order to drive the drive motors 130R and 130L to vibrate the entire operation device 16, it is necessary to provide a configuration having a bidirectional communication function between the operation device 16 and the entertainment device 12. This function will be described later.
[0065]
Next, circuit configurations of the entertainment device 12 and the operation device 16 will be described with reference to FIGS.
[0066]
First, as shown in FIG. 6, the entertainment device 12 includes a control system 82 including a central processing unit (CPU) 80 and its peripheral devices, and a frame buffer (not shown). A graphic system 84 composed of an image processing device (GPU) that performs drawing, a sound system 86 composed of a sound processing device (SPU) that generates musical sounds, sound effects, and the like, an application program, An optical disc control unit 88 that controls reading of the optical disc 20 on which data is recorded, an operating device 16 and a memo Rica The communication control unit 90 performs input / output control of data and the like with respect to the mode 14, and a system bus 92 to which these units are connected.
[0067]
In this case, the video signal and the audio signal output from the graphic system 84 and the sound system 86 constituting the entertainment apparatus 12 are supplied to the monitor 18, and the video is displayed on the screen of the monitor 18 and the speaker 94 of the monitor 18. Will output audio.
[0068]
On the other hand, as shown in FIG. Part, CP U, Program memo Li, RA for operation M, Digital input block Click, Analog input block Spider Data driver 1 50, driving Dynamic motor 13 0 I have. These parts are To It is connected.
[0069]
The digital input block Is For example, each of the operation elements 110a to 110d and 112a to 112d constituting the first operation unit 34 and the second operation unit 36 has a function as an input operation unit. Is The left and right joysticks 44 and 46 have a function as an input operation unit. Therefore, the digital input block Ku Analog input block To Various information can be input by the user.
[0070]
Communication control Part is In addition, it has a function of performing serial communication with an external device. This communication control Part is For example, it is possible to electrically connect to the communication control unit 90 (see FIG. 6) of the entertainment device 12, thereby performing data communication processing with the entertainment device 12.
[0071]
On the other hand, the bidirectional communication function between the entertainment device 12 and the operation device 16 can be performed by connecting a connector 62 that performs bidirectional serial communication with the operation device 16 to the entertainment device 12, as shown in FIG. it can.
[0072]
The configuration for performing the bidirectional communication function on the operation device 16 side includes a serial I / O interface SIO that performs serial communication with the entertainment device 12, a parallel I / O interface PIO that inputs operation data from a plurality of operation buttons, a CPU, A one-chip microcomputer (hereinafter referred to as a microcomputer), which is a RAM and a ROM, and each drive motor 130 (130R and 130L) of the vibration applying mechanisms 128R and 128L are rotationally driven. Corresponding to each Motor driver 17 0 and Each drive motor 13 0 is Corresponding motor driver 17 0 These are driven to rotate by supply voltage and current.
[0073]
On the entertainment device 12 side, a serial I / O interface SIO that performs serial communication between the operation devices 16 is provided. When the connector 62 of the operation device 16 is connected, the operation device 16 is connected via the connector 62. Is connected to the serial I / O interface SIO on the side, and is configured to perform bidirectional communication means, that is, bidirectional serial communication. The other detailed configuration of the entertainment device 12 is omitted.
[0074]
A signal line and a control line for performing bidirectional serial communication are a data transmission signal line TXD (Transmit X 'for Data) for transmitting data from the entertainment device 12 to the operation device 16, and an entertainment device from the operation device 16 side. A data transmission signal line RXD (Received X 'for Data) for sending data to the side 12, and a serial synchronous clock signal line SCK (Serial Clock) for extracting data from the respective data transmission signal lines TXD, RXD; From a control line DTR (Data Terminal Ready) for establishing and interrupting communication of the operating device 16 on the terminal side, and a control line DSR (Data Set Ready) for flow control for transferring a large amount of data It is configured.
[0075]
In addition, as shown in FIG. 7, the cable composed of the signal line and the control line for bidirectional serial communication includes a power cable taken directly from the power supply on the entertainment apparatus 12 side in addition to the signal line and the control line. 1 5 2 is included and this power cable 1 5 2 is the operating device 1 6 side Motor driver 17 To zero Connected to each drive motor 13 0 Supply power to rotate.
[0076]
The bidirectional serial communication procedure configured as described above is performed by, for example, the entertainment device 12 communicating with the operation device 16 and the digital input block. And Analog input block Or In order to capture the operation data, the entertainment apparatus 12 first outputs selection data to the control line DTR. As a result, the controller device 16 confirms that it has been selected by the control line DTR and waits for reception of the subsequent signal line TXD. Subsequently, the entertainment device 12 sends an identification code indicating the operation device 16 to the signal line TXD for data transmission. As a result, the operating device 16 receives this identification code from the signal line TXD.
[0077]
When the controller device 16 recognizes the identification code, communication with the entertainment device 12 is started thereafter. In other words, control data or the like is transmitted from the entertainment device 12 to the operation device 16 side via the data transmission signal line TXD, and conversely, the operation device 16 receives a digital input block. Ku Analog input block In The operated operation data and the like are transmitted to the entertainment apparatus 12 through the data transmission signal line RXD. In this way, bidirectional serial communication is performed between the entertainment device 12 and the operation device 16, and this communication is terminated when the entertainment device 12 outputs selection stop data through the control line DTR.
[0078]
If the bidirectional serial communication function is provided in this way, the digital input block mainly from the operation device 16 side. Ku Analog input block Of The operation data can be transmitted to the entertainment device 12 side, and vibrations for rotating the drive motors 130R and 130L of the vibration applying mechanisms 128R and 128L from the entertainment device 12 side via the data transmission signal line TXD. The generated command can be sent to the operation device 16 side.
[0079]
The vibration generation commands for rotating the drive motors 130R and 130L may be preset by the optical disc 20 set in the entertainment device 12 or newly created by the entertainment device 12, for example, a game According to the operation target of the user to perform, feedback by vibration transmission for a certain time is performed from the entertainment device 12 to the operation device 16 itself.
[0080]
Next, characteristic functions of the entertainment system 10 according to this embodiment will be described with reference to FIGS.
[0081]
This function causes the monitor 18 to display a frame object (hereinafter simply referred to as a frame object) that moves at a predetermined tempo, and allows the user to display a plurality of types of block objects (hereinafter simply referred to as block objects) on the frame object. (Referred to as an object), and a plurality of types of moving image data corresponding to the block object inserted into the frame object are combined to create a video of one scene.
[0082]
Specifically, as shown in FIG. 8, for example, a screen object 200 on the monitor 18 has a block object 202 that is continuously thrown and dropped, and a frame that is in the form of a film and is moved in one direction. An object 204 and a moving image 206 corresponding to the type of the block object 202 inserted in the frame object 204 are displayed.
[0083]
For example, as shown in FIG. 9A, the block object 202 has an initial velocity v at the throwing-up start position. 0 Is thrown up and the upward speed v t When the value reaches 0, the highest point is reached. Thereafter, the block object 202 falls freely and the downward speed is the initial speed v. 0 When the user returns to the original position (throw-up position) at the same stage, the user performs a predetermined operation input at this point, so that the block object 202 fits into the frame object 204 as shown in FIG. 9B. become. When the block object 202 gets stuck in the frame object 204, the block object 202 is thrown up again, and the same operation as described above is performed.
[0084]
Even if the block object 202 reaches the frame object 204, if nothing is done or if the operation input timing is deviated, the block object 202 will fall as it is and will not be visible on the screen.
[0085]
When the block object 202 gets stuck in the frame object 204, the block object 202 changes into various blocks according to the type of operation input by the user, and is thrown upward again in the changed block state. .
[0086]
For example, as shown in FIG. 10, when the △ button 112a is operated, the block changes to one block 202a (hereinafter referred to as one set block), and when the □ button 112b is operated, the two blocks are displayed horizontally. The block 202b (hereinafter referred to as two sets of blocks) connected in the direction is changed.
[0087]
In addition, when the ○ button 112d is operated, the block changes to a block 202c (hereinafter, referred to as three sets of blocks) in which the three blocks are combined in the horizontal direction, and when the X button 112c is operated, the four blocks are changed horizontally. The block 202d (hereinafter, referred to as four sets of blocks) connected in the direction is changed. In the initial stage, four sets of blocks 202d are thrown up.
[0088]
The frame object 204 moves in one direction (for example, leftward) in accordance with the tempo of BGM (background music), and the block object 202 has an airtime corresponding to the shape of the block and the tempo of the BGM. Thrown up. Here, the flight time refers to the time from when the block object 202 is thrown up from the throwing position to when it is dropped again into the throwing position.
[0089]
In this embodiment, the hover time of the block object 202 is adjusted to the time required for the frame object 204 to move by the number of frames corresponding to the number of blocks of the block object 202. That is, if the block object 202 is a set of blocks 202a, the time to move by one frame is the hover time, and if the block object 202 is the two sets of blocks 202b, the time to move by two frames is the hover time, The same applies hereinafter.
[0090]
The adjustment of the flight time of the block object 202 can be derived from the following relational expression representing the displacement y of the block object 202 in the vertical direction.
[0091]
y = v 0 t-gt 2 / 2
That is, when the block object 202 is, for example, one set block 202a, the one set block 202a is thrown up within the time in which the frame object 204 moves by one frame in accordance with the BGM tempo, and reaches the highest point. For example, the initial speed v is set so that a series of actions of falling to the original position is performed. 0 And the gravitational acceleration g (which is the gravitational acceleration defined in this function). The same applies to the second set block 202b and the third set block 202c.
[0092]
This flight time can be replaced by the length of the sound. Specifically, when the length of eight frames (the length of one serial number) of the block object 202 is one measure, the first block 202a is an eighth note, the second block 202b is a quarter note, The group block 202c is a dotted quarter note, and the group block 202d is a half note.
[0093]
As for the moving picture 206, for example, when 8 frames are 1 bar, 4 bars are 1 phrase, and 3 phrases are 1 scene, as shown in FIGS. A first moving image data file group 210 (see FIG. 11A) in which a plurality of moving image data are arranged; a second moving image data file group 212 (see FIG. 11B) in which a plurality of moving image data for the three sets of blocks 202c are arranged; A third moving image data file group 214 (see FIG. 11C) in which a plurality of moving image data for the two sets of blocks 202b are arranged is prepared, and each moving image data file group 210, 212, and 214 includes three phrases constituting one scene. Corresponding to the three types of moving image data files (210a, 210b, 210c), (212a, 212b, 212c) and (21 a, 214b, 214c) are prepared.
[0094]
Here, for example, three types of moving image data corresponding to the hover time of the four-set block 202d are prepared for the four-set block 202d, and three sets of the moving-image data corresponding to one phrase are set for the three-set block 202c. For example, four types of moving image data corresponding to the stagnation time of the set block 202c are prepared, and six types of moving image data corresponding to the stagnation time of the two set block 202b are prepared for the two set block 202b.
[0095]
These moving image data are 3D image moving image data created by changing the viewpoint of the camera according to the type.
[0096]
For example, every time the four-set block 202d is selected by the user's operation input, for example, three types of moving image data stored in the moving image data file 210a are sequentially output and displayed, and the three-set block 202c is selected by the operation input. Each time, for example, four types of moving image data stored in the moving image data file 212a are sequentially output and displayed, and the same applies to the two sets of blocks 202b.
[0097]
When the user selects the one set block 202a by the operation input, the moving image data of the next type of the moving image data corresponding to the previously selected block is displayed only for the stagnant time of the one set block 202a. Only the camera viewpoint changes.
[0098]
When this function is realized as a video game, the state of the block object 202 being inserted into the frame object 204 is displayed step by step in accordance with the operation input timing by the user when the block object 202 has dropped onto the frame object 204. It is preferable.
[0099]
Specifically, when there is an operation input at the time when the block object 202 has dropped onto the frame object 204, as shown in FIG. 12A, the center line (not shown) of the frame object 204 and the block object 202 If the block object 202 is inserted into the frame object 204 so that the center line (not shown) substantially matches, and the operation input is slightly delayed, as shown in FIG. The state in which the block object 202 is inserted into the frame object 204 is displayed so that the center line of the block object 202 is positioned slightly below the center line of the object 204.
[0100]
When the operation input is slightly early, the block object 202 is placed in the frame object 204 so that the center line of the block object 202 is positioned slightly above the center line of the frame object 204 as shown in FIG. 12C. The state of being inserted into is displayed.
[0101]
Furthermore, any sound may be output when the block object 202 is fitted into the frame object 204. Thereby, for example, the sound of one percussion instrument is output in accordance with the operation input, and it is possible to add the fun that one music is completed by the fusion of the sound of BGM and this percussion instrument.
[0102]
The block shape of the block object 202 may be selected by a user's arbitrary operation input. However, the block shape is designated periodically or temporarily, and the designated block shape (hereinafter referred to as “block shape”) is selected. It may be determined whether or not there is an operation input corresponding to (issue block). Thereby, a sporty element can also be added.
[0103]
For example, when 8 frames are 1 bar and 4 bars are 1 phrase, as shown in FIG. 13, the task block 220 is designated at the last part of the 4 bars. In the example of FIG. 13, an example is shown in which two sets of blocks 202 b are designated as the task block 220.
[0104]
When the block corresponding to the task block 220 specified in the last part of the four bars is selected by an operation input, the next phrase is advanced, and the block corresponding to the task block 220 is not selected. Alternatively, the scenario may return to the beginning of the current phrase. In this case, if the setting is such that one scene is completed (cleared) when a certain number of phrases are handled within a predetermined time, the game performance can be further improved.
[0105]
As an example of returning to the beginning of the current phrase, in addition to the case where the block corresponding to the above-mentioned task block 220 is not selected, the block object 202 falls from the frame object 204 in each measure, There are cases where the eight specified block objects 202 cannot be inserted in one measure.
[0106]
As an example of inserting eight block objects 202 in one measure, for example, as shown in FIG. 14A, when two four set blocks 202d are inserted, as shown in FIG. 14B, two three set blocks 202c, There are various patterns such as inserting one two-set block 202b or inserting two two-set blocks 202b and four one-set blocks 202a as shown in FIG. 14C.
[0107]
On the other hand, as shown in FIG. 14D, for example, when one four-set block 202d, one two-set block 202b, and one three-set block 202c are inserted, there are nine blocks as a whole, and one block Will protrude. In other words, eight specified blocks are not inserted in one measure, and in this case, it is NG.
[0108]
In addition, when a block is inserted in one measure, there is a difficulty level in the insertion pattern. For example, as shown in FIG. 14A, rather than inserting two 4-set blocks 202d, as shown in FIG. 14B, when inserting two 3-set blocks 202c and one 2-set block 202b, As shown in FIG. 5, it is more difficult to insert two 2 set blocks 202b and 4 1 set blocks 202a.
[0109]
Therefore, in the present embodiment, for example, an insertion pattern for each measure is inspected, a score is calculated based on the degree of difficulty corresponding to the insertion pattern, and the score is displayed with a bar or an index. In the example of FIG. 8, an example is shown in which the current score is displayed with an index 232 that moves up and down the score scale 230.
[0110]
Here, for example, when creating a one-week TV program as a video game scenario, the user himself / herself becomes the director / director and takes charge of the program frame of one scene per day, and the user himself / herself creates the scene for that scene. Assuming a simulated experience scenario of creating a TV program that incorporates the video.
[0111]
In this case, the user inserts the block object 202 into the frame object 204 one after another to create a video of one user's own scene (combination of moving images), and the generated video of the one scene is assigned to the designated program frame. Include. This process is performed for seven scenes, and a one-week program is created and broadcast. In this broadcast scene, as shown in FIG. 15, only a combination of created moving images is displayed on the monitor 18 as a video.
[0112]
In the pseudo time flow that flows on the video game, videos created by the user are broadcast in sequence, and the audience rating is calculated in the process. The audience rating is calculated based on the quality of the video and the score at the time of creation. When the audience rating becomes less than a predetermined value (for example, 10%), the program is terminated and the game is over, and the audience rating is 10% or more. In the case where the program is maintained, it is possible to take the form of moving to program creation for the next week.
[0113]
The quality of the video, which is one element that determines the audience rating, can be changed according to the insertion state (insertion state) of the block object 202 into the frame object 204 and the time until one scene is completed.
[0114]
For example, when the fitting of the block object 202 to the frame object 204 fails (operation input error), the noise image data is output and displayed instead of the moving image during the period from the failure to the beginning of the phrase. In this way, the quality of the video is degraded. Further, as shown in FIG. 16, as the creation time of one scene approaches the time limit, for example, vertical stripe noise 240 is generated to deteriorate the quality.
[0115]
Therefore, in order to obtain a high audience rating, the user can quickly complete one scene without failing to fit the block object 202 into the frame object 204, and the insertion pattern ( It is necessary to complete one scene with an insertion pattern that makes full use of the second set block 202b and the third set block 202c.
[0116]
In this way, by setting a scenario, various elements can be included in a simple game in which the block object 202 is inserted into the frame object 204, and the user produces a one week program while increasing the audience rating. , You can enjoy an unprecedented video game.
[0117]
Next, software (image creation means 300) for realizing the above functions will be described with reference to FIGS.
[0118]
The video creation means 300 is provided to the entertainment system 10 by a random accessible recording medium such as a CD-ROM or a memory card 14 or a network. Here, the description will be made on the assumption that the optical disk 20 such as a CD-ROM is read and operated by the entertainment apparatus 12.
[0119]
That is, the video creation means 300 is downloaded to a main memory in the control system 82 of the entertainment apparatus 12 through a predetermined process, for example, from a specific optical disc 20 that is reproduced in advance by the entertainment apparatus 12, for example. It is supposed to be operated on.
[0120]
As shown in FIG. 17, the video creation means 300 includes a display processing means 302 that displays a block object 202, a frame object 204, a moving image 206, and the like on the monitor 18, and a speaker 94 that responds to BGM or user operation input. Audio processing means 304 for outputting predetermined audio data, instruction control means 306 for giving various instructions and control to the display processing means 302 and the audio processing means 304, and replay of the created moving image combination and audio Replay processing means 308.
[0121]
The instruction control unit 306 performs a task block processing unit 310 that performs processing related to the task block 220, a block throwing instruction unit 312 that instructs the type of the block object 202 to be thrown up, and a process corresponding to an operation input from the operation device 16. The operation input processing means 314 to be performed, the inset state of the block object 202 to the frame object 204, the inset state processing means 316 for determining, and the score calculation for calculating the score from the insertion pattern of the block object 202 for each bar Means 318.
[0122]
As shown in FIG. 18, the display processing unit 302 includes an object drawing unit 322 that draws 3D image data of the block object 202 (in this case, the designated block) in the image memory 320 of the graphic system 84, and a frame object 204. A frame drawing unit 324 for drawing 3D image data in the image memory 320, an index drawing unit 326 for drawing 3D image data of the index 232 in the image memory 320 based on the score data, and a block object 202 fitted in the frame object 204 The moving image drawing means 328 for drawing moving image data according to the type of the image, the noise image drawing means 330 for drawing a noise image when the operation input fails, and the 3D image data drawn in the image memory 320 are displayed on the monitor 18. And an image display means 332 for displaying.
[0123]
As shown in FIG. 17, the audio processing unit 304 includes a BGM output unit 340 that outputs BGM designated to the speaker 94, and an audio data output unit 342 that outputs audio data to the speaker 94 in accordance with the operation input timing. Have
[0124]
The replay processing unit 308 includes a display replay unit 350 that sequentially displays the created moving image combinations on the monitor 18, and an audio replay unit 352 that replays the BGM and audio data output when the moving image combination is created.
[0125]
Next, the processing operations of the instruction control unit 306, the display processing unit 302, the audio processing unit 304, and the replay processing unit 308 constituting the video creation unit 300 are shown in the functional block diagrams of FIGS. 17 and 18 and FIGS. This will be described with reference to the flowchart.
[0126]
First, in step S1 of FIG. 19, the instruction control unit 306 stores an initial value “0” in the index register m used for updating the scene, and initializes the index register m.
[0127]
Next, in step S2, the mth event image is displayed on the monitor 18. Examples of the event image include a description of a scene to be tried and an operation description.
[0128]
Next, in step S3, the display processing unit 302 is activated, and in the next step S4, the audio processing unit 304 is activated. The instruction control unit 306, the display processing unit 302, and the voice processing unit 304 are each operated in a multitask system.
[0129]
Next, in step S5, an initial value “0” is stored in the index register k used to update the phrase, and the index register k is initialized.
[0130]
Next, in step S6, initial values “0” are stored in the index register i used for updating the measure and the index register n used for the appearance timing M of the task block 220, respectively. Is initialized.
[0131]
Next, in step S7, information of the task block 220 (information such as the first set block 202a and the second set block 202b) regarding the phrase is read through the task block processing unit 310.
[0132]
Next, in step S8, the appearance timing M of the task block 220 is calculated based on the read information of the task block 220. For example, assuming that the task block 220 appears at the end of four bars, this calculation is as follows.
M = 4 (measures) × 8 (blocks) −X (number of blocks of task blocks)
Can be obtained. Here, X represents a number (number of blocks) based on the type of the task block 220, and is “1” for the one-set block 202a, “2” for the two-set block 202b, and “3” for the three-set block 202c. In the case of “3” and the 4-set block 202d, “4”.
[0133]
Next, in step S9, an initial value “0” is stored in the index register j used for updating the acquired block object 202, and the index register j is initialized.
[0134]
Next, in step S10, the block raising instruction unit 312 is used to instruct the four sets of blocks 202d to be raised. In accordance with this instruction, the display processing unit 302 performs a display in which the four sets of blocks 202d are thrown upward. The processing in the display processing unit 302 will be described later.
[0135]
Next, in step S <b> 11, it is determined whether or not there is an operation input from the operation device 16 through the operation input processing unit 314. If there is no operation input, the process proceeds to step S12, where it is determined whether the time is over. This time is the time from when the block object 202 is thrown up to the time when the block object 202 falls and disappears from the screen. If the time is not over, the operation input is determined again in step S11.
[0136]
Then, when there is an operation input, the process proceeds to the next step S13, and the inset state is calculated through the inset state processing means 316. This calculation method includes time calculation and address calculation.
[0137]
In the time calculation, when the time from when the block object 202 is thrown up to when the block object 202 is inserted at a position almost coincident with the frame of the frame object 204 (see FIG. 12A) is defined as the specified time, This is a method of comparing the time from the time of throwing up to the time of operation input with the specified time.
[0138]
In the address calculation, when the address (especially the row address) of the representative vertex of the frame object 204 is defined as the specified address, the address of the representative vertex of the block object 202 at the time of the operation input ( In particular, this is a method of comparing a row address) and the specified address.
[0139]
Next, in step S14, it is determined whether or not the result of the comparison is within an allowable range. If the comparison result is within the allowable range, the process proceeds to step S16 in FIG.
[0140]
On the other hand, if it is determined in step S14 in FIG. 19 that the time is out of the allowable range, or if it is determined in step S12 that the time is over, the process proceeds to step S15 to instruct a redo, and the process returns to step S6. . In response to the redo instruction in step S15, the frame object 204 returns to the first part of the current phrase, and at the same time, the BGM returns to the beginning and is output.
[0141]
In step S11, when there is an operation input, audio data is output through the audio processing unit 304, and for example, percussion instrument audio that matches the BGM tempo is output from the speaker 94.
[0142]
Here, the processing in the voice processing unit 304 will be described with reference to the flowchart of FIG.
[0143]
The voice processing unit 304 first determines in step S101 in FIG. 22 whether or not an instruction to redo has been received from the instruction control unit 306. If there is an instruction to redo, the process proceeds to the next step S102, and a noise sound is output to the speaker 94.
[0144]
Next, in step S103, it is determined whether or not a predetermined time (time until returning to the first part of the phrase) has elapsed. If the predetermined time has not elapsed, the process returns to step S102, and the output of the noise sound is continued.
[0145]
When the predetermined time has elapsed, the process proceeds to the next step S104, and BGM information related to the current phrase is read out through the BGM output means 340. Next, in step S105, the audio data output means 342 reads out the audio data information that is output when the block object 202 is inserted.
[0146]
In step S106, output of BGM corresponding to the read BGM information is started through the BGM output means 340. At this stage, BGM corresponding to the phrase is continuously output from the speaker 94.
[0147]
Next, in step S107, it is determined whether or not there is an operation input. This determination is made based on whether or not there is an interruption based on an operation input from the instruction control unit 306.
[0148]
When there is an operation input, the process proceeds to the next step S108, and the read current voice data is output to the speaker 94 through the voice data output means 342. When the process in step S108 is completed, or when it is determined in step S107 that there is no operation input, the process proceeds to the next step S109 to determine whether or not the phrase has changed. This determination is performed based on information on the phrase from the instruction control unit 306.
[0149]
If the phrase has not changed, the process returns to step S107, and the processes after step S107 are repeated. When the phrase changes, the process proceeds to the next step S110, where it is determined whether or not there is a program end request (game over, power off, etc.) to the sound processing means 304. If there is no program end request, the process returns to step S101, the processing for the next phrase is performed, and the processing in the voice processing means 304 ends when the program end request is received.
[0150]
Returning to the main routine of FIG. 20, in the next step S <b> 16, it is determined whether or not there is an instruction for the task block 220 through the task block processing means 310. The assignment block 220 is instructed in step S23 described later. When the assignment block 220 is instructed, it is determined whether or not a specified block corresponding to the assignment block 220 is selected by an operation input. If it is a prescribed block, the process proceeds to step S18, and if it is not a prescribed block, the process returns to step S6 through the redo instruction in step S15 of FIG.
[0151]
In step S18 of FIG. 20, a number (number of blocks A) based on the type of block selected by the operation input is accumulated in the value of the index register j. Next, in step S19, the number of blocks A is added to the index register n. Accumulate to the value of.
[0152]
Next, in step S20, it is determined whether or not the insertion of the block object 202 for one measure has been completed through the inset state processing means 316. This determination is made based on whether the value of the index register j is 8 or more.
[0153]
If the insertion of one measure has not been completed, the process proceeds to step S21, and the block throwing instruction unit 312 is used to instruct to throw the block object 202 corresponding to the operation input. In response to this instruction, the display processing means 302 throws up one set block 202a when operating the △ button 112a, throws up two set blocks 202b when operating the □ button 112b, and operates the ○ button 112d. When the three-set block 202c is thrown up and the X button 112c is operated, a display for raising the four-set block 202d is performed.
[0154]
Here, the processing in the display processing unit 302 will be described with reference to the flowchart of FIG.
[0155]
The display processing unit 302 first waits for generation of a throwing instruction for the block object 202 in step S201 of FIG. When instructed, the process proceeds to the next step S202 to receive necessary parameters. This parameter includes information such as the type of block object 202 to be thrown up (distinguishment between 1 set block 202a, 2 set block 202b, etc.), BGM tempo, and what number phrase in which scene. .
[0156]
Next, in step S <b> 203, it is determined whether or not a redo instruction has been received from the instruction control unit 306. If there is no instruction to redo, the process proceeds to the next step S204, and the moving image data is read out sequentially from the corresponding moving image data file based on the scene and phrase information.
[0157]
Next, in step S205, the read moving image data is registered sequentially in the moving image data file for replay. Subsequently, in step S206, the read moving image data is drawn in the image memory 320 through the moving image drawing means 328.
[0158]
In this case, the vertex data of each object displayed as the moving image 206 is rewritten based on the moving image data. Then, the image data of each object is drawn at a position (coordinates) based on the rewritten vertex data in the image memory 320.
[0159]
Next, in step S207, the presence / absence of a vertical streak noise image is determined based on the time difference between the current elapsed time and the time limit, and when noise is expressed, the noise image rendering unit 330 is used to respond to the time difference. A number of noises are drawn in the image memory 320. The expression of the vertical streak noise is performed from a time point, for example, 20 seconds before the time limit, and drawing is performed so that the number of vertical streak noise increases as the time limit is approached.
[0160]
In step S208, vertical streak noise information (such as the number of noises) is registered in the replay video data file in conjunction with the registration of the video data.
[0161]
In step S209, the trajectory of the block object 202 instructed to be thrown is calculated. Specifically, the data of the elapsed time t from the time of throwing is received, and further the data of the gravitational acceleration g corresponding to the designated block object 202 and the initial velocity v 0 The following relational expression is received
y = v 0 t-gt 2 / 2
From this, the vertical displacement y of the block object 202 is obtained.
[0162]
Next, in step S210, object Through the drawing means 322, each vertex data (particularly information regarding coordinates) of the instructed block object 202 is rewritten based on the displacement y.
[0163]
On the other hand, if it is determined in step S203 that a redo instruction has been issued, the process proceeds to step S211 to register noise image information in the replay video data file in order of address. Subsequently, in step S <b> 212, noise image data is drawn in the image memory 320 through the noise image drawing unit 330.
[0164]
When the processing in step S210 or step S212 is completed, the process proceeds to step S213, and the image data of the frame object 204 is drawn in the image memory 320 through the frame drawing means 324. In this case, the vertex data of the frame object 204 is rewritten based on the current BGM tempo and the elapsed time from the start of the current phrase, and the frame object is positioned at the position (coordinates) based on the vertex data in the image memory 320. The image data 204 is drawn in the image memory 320.
[0165]
Next, in step S <b> 214, the image data of the index 232 is rendered in the image memory 320 through the index rendering unit 326. In this case, the vertex data of the index 232 is rewritten based on the score data calculated through the score calculation means 318 in the instruction control means 306, and the position of the index 232 in the position (coordinates) based on the vertex data in the image memory 320 is rewritten. The image data is drawn in the image memory 320.
[0166]
In step S 215, the image data drawn in the image memory 320 is output to the monitor 18 through the image display unit 332, and the block object 202, the frame object 204, the index 232, and the moving image 206 are output to the monitor 18. Is displayed.
[0167]
Next, in step S216, it is determined whether there is a temporary termination request. This determination is made based on whether or not an operation input has been made through the instruction control means 306 or whether or not a predetermined time (time until returning to the first part of the phrase) has elapsed after a redo instruction.
[0168]
If there is no temporary termination request, the process returns to step S203, and the processes after step S203 are repeated. By repeating the processes in steps S203 to S216, the instructed block object 202 is continuously raised and dropped, and a moving image corresponding to the type of the block object 202 is displayed.
[0169]
In the step S216, when there is a temporary termination request, the process proceeds to the next step S217, where it is determined whether or not there is a program termination request (game over, power off, etc.) to the display processing means 302. . If there is no program termination request, the process returns to step S201 to wait for the next throwing instruction.
[0170]
In step S217, when there is a program end request, the processing in the display processing unit 302 ends.
[0171]
Returning to the main routine of FIG. 20, in the next step S22, it is determined whether or not it is the predetermined timing through the task block processing means 310, that is, whether or not the task block 220 appears at the next turn. Is done. This determination is made based on whether or not the value of the index register n matches the appearance timing M.
[0172]
When it is determined that it is the appearance timing M of the task block 220 in the next turn, the process proceeds to the next step S23 to give an instruction indicating that it is the task block 220. This instruction is determined in step S16.
[0173]
When the process in step S23 is completed or when it is determined in step S22 that the predetermined timing is not reached, the process returns to step S11 in FIG. 19, and the processes after step S11 are repeated.
[0174]
On the other hand, if it is determined in step S20 that the insertion of the block object for one measure has been completed, the process proceeds to the next step S24, and whether or not the number of acquired blocks is the prescribed eight. Is determined. As shown in FIG. 14D, when the number of blocks is more than 8, the process proceeds to step S15 in FIG. 19, and the process returns to step S6 through a redo instruction.
[0175]
If the number of blocks fitted in the frame object 204 is the prescribed eight, the process proceeds to the next step S25, and score calculation is performed through the score calculation means 318. In this calculation, a score is calculated based on the degree of difficulty corresponding to the insertion pattern of the block object 202 in one measure. The calculated score is displayed as an index through the display processing means 302.
[0176]
Next, after the value of the index register i is updated by +1 in step S26, in the next step S27, it is determined whether or not the insertion of the block object 202 for one phrase has been completed through the fitting state processing unit 316. . This determination is made based on whether the value of the index register i is 4 or more.
[0177]
If the insertion of the block object 202 for one phrase has not been completed, the process proceeds to step S7 in FIG. 19 and the process for the next phrase is performed. If the acquisition of the block object 202 for one phrase has been completed, the process proceeds to the next step S28, and it is determined whether or not the fitting process for the assignment block 220 has been executed through the assignment block processing means 310. This determination is made based on whether or not the routine of step S23 is passed.
[0178]
If the inset process for the task block 220 has not been performed, the process proceeds to step S15 in FIG. If the inset processing for the task block 220 has been performed, the process proceeds to step S29 in FIG. 21, and the evaluation for one phrase is calculated. This evaluation is calculated based on the fit state of the block object to the frame object 204 and the score.
[0179]
Next, in step S30, after updating the value of the index register k by +1, in the next step S31, the block raising instruction unit 312 is used to instruct the raising of the four sets of blocks 202d. In accordance with this instruction, the display processing means 302 performs a display in which the four sets of blocks 202d are thrown upward.
[0180]
Next, in step S32, it is determined whether or not a predetermined time has elapsed. This time is the time from when the four sets of blocks 202d are thrown to when the four sets of blocks 202d are dropped onto the frame object 204. When the predetermined time ends, the process proceeds to the next step S33, and it is determined whether or not the four-set block 202d has been thrown up a predetermined number of times.
[0181]
The processing from step S31 to S33 is a throwing process of the four sets of blocks 202d, for example, at intervals of one measure inserted between phrases of the frame object 204. For example, at the stage when the throwing is completed twice. The process proceeds to the next step S34.
[0182]
In step S34, it is determined whether or not the fitting process of the block objects 202 for three phrases (one scene) is completed through the fitting state processing unit 316. If not completed, the process returns to step S6 in FIG. 19 to perform processing for the next phrase.
[0183]
After the processing for one scene is completed, the process proceeds to the next step S35, and after updating the value of the index register m by +1, in the next step S36, it is determined whether or not the processing has been completed for all scenes. . This determination is made based on whether the value of the index register m is 7 or more.
[0184]
If processing for all scenes has not been completed, the process returns to step S2 in FIG. 19 to perform processing for the next scene, and when processing for all scenes has been completed, processing by the instruction control unit 306 is performed. Ends.
[0185]
Next, each processing operation of the display replay unit 350 and the audio replay unit 352 constituting the replay processing unit 308 will be described with reference to the flowcharts of FIGS. The display replay unit 350 and the audio replay unit 352 are each operated in a multitasking manner.
[0186]
First, in step S301 in FIG. 24, the display replay unit 350 stores an initial value “0” in the index register m used for updating the scene, and initializes the index register m.
[0187]
Next, in step S302, an initial value “0” is stored in the index register k used to update the phrase, and the index register k is initialized.
[0188]
Next, in step S303, moving image data is sequentially read out from the moving image data file for replay based on the respective values of the index registers m and k among a large number of moving image data files for replay.
[0189]
Next, in step S304, noise information is read together with the reading of the moving image data.
[0190]
Next, in step S305, the vertex data of each object displayed as a moving image with the phrase is rewritten based on the read moving image data, and the position (coordinates) based on the rewritten vertex data in the image memory. The image data of each object is drawn.
[0191]
Next, in step S306, the image data drawn in the image memory 320 is output to the monitor 18, and the moving image 206 is displayed on the monitor 18 as shown in FIG.
[0192]
Next, in step S307, it is determined whether or not the display of one phrase of moving images has been completed. If the display of the video for one phrase is not completed, the process returns to step S303, the next video data in the phrase is read, and the video 206 is displayed.
[0193]
At the stage where the display of the video for one phrase is completed, the process proceeds to the next step S308, and the audience rating is calculated. This calculation is performed based on the evaluation for each phrase calculated in step S30 (see FIG. 21) in the instruction control unit 306.
[0194]
Next, in step S309, it is determined whether or not the moving image display is discontinued. This determination is made based on whether or not the calculated audience rating is less than 10%. If the display is not aborted, the process proceeds to the next step S310, and after updating the value of the index register k by +1, in the next step S311, it is determined whether or not the display of moving pictures for three phrases (one scene) has been completed. Determined. If the display is not completed, the process returns to step S303, and the moving image is displayed in the next phrase.
[0195]
When the display of the moving image for one scene is completed, the process proceeds to the next step S312, and after updating the value of the index register m by +1, it is determined in the next step S313 whether or not the processing has been completed for all the scenes. Is done. This determination is made based on whether the value of the index register m is 7 or more.
[0196]
If the processing for all the scenes has not been completed, the process returns to step S302, the processing for the next scene is performed, and the processing in the replay processing means 308 ends when the processing for all the scenes has been completed. .
[0197]
In addition, while the processes in steps S302 to S313 are repeated, when it is determined in step S309 that the process is terminated, the process proceeds to step S314, and various processes for game over, such as the moving image 206, are performed. Is deleted, and an image indicating game over is displayed.
[0198]
On the other hand, the audio replay unit 352 first determines in step S401 in FIG. 25 whether or not a noise image is currently displayed. If a noise image is displayed, the process proceeds to the next step S402, and a noise sound is output to the speaker 94.
[0199]
Next, in step S403, it is determined whether or not a predetermined time (time until returning to the first part of the phrase) has elapsed. If the predetermined time has not elapsed, the process returns to step S402 and the output of the noise sound is continued.
[0200]
When the predetermined time has elapsed, the process proceeds to the next step S404, where BGM information relating to the current phrase is read out. Next, in step S405, the audio data information output when the block object 202 is inserted is read.
[0201]
Next, in step S406, output of BGM corresponding to the read BGM information is started. At this stage, BGM corresponding to the phrase is continuously output from the speaker 94.
[0202]
Next, in step S407, it is determined whether or not the moving image data to be displayed has been switched (moving image data switching history based on operation input). When the moving image data is switched, the process proceeds to the next step S408, and the read current audio data is output to the speaker 94. When the process in step S408 is completed, or when it is determined in step S407 that the moving image data has not been switched, the process proceeds to the next step S409 to determine whether or not the phrase has changed.
[0203]
If the phrase has not changed, the process returns to step S407, and the processes after step S407 are repeated. Then, when the phrase changes, the process proceeds to the next step S410, where it is determined whether or not there is a program end request (game over, power off, etc.) to the sound replay means 352. If there is no program end request, the process returns to step S401, the process for the next phrase is performed, and the process in the audio replay means 352 ends when the program end request is received.
[0204]
The audio replay unit 352 may perform the following processing in addition to the above processing.
[0205]
That is, various BGMs are assigned to each phrase, and the sound assigned to each measure is changed in accordance with the type of block incorporated in the measure.
[0206]
This reproduction process will be described with reference to FIGS. First, in step S501 of FIG. 26, an initial value “1” is stored in the index register k used for phrase update, and the index register k is initialized.
[0207]
Next, in step S502, voice information (BGM) related to the kth phrase is read. Thereafter, in step S503, an initial value “1” is stored in the index register i used for updating the number of measures, and the index register i is initialized.
[0208]
Next, in step S504, audio information in the i-th measure (hereinafter referred to as measure-unit audio information for convenience) is read from the read audio information.
[0209]
Next, in step S505, the initial value “0” is stored in the index register p used for updating the number of blocks, and the initial value “1” is stored in the index register j used for searching for blocks. Initialize index registers p and j, respectively.
[0210]
Next, in step S506, the type of the j-th block is read from the block arrangement information in the i-th measure.
[0211]
In step S507, it is determined whether the reproduction timing is the first half or the second half of the measure. This determination is made based on whether or not the value of the index register p is less than 4.
[0212]
The value of index register p is 4 Less than That is, if it is determined that the first half of the measure, the process proceeds to the next step S508, and the sound corresponding to the type of the current block is reproduced from the head of the read measure-unit sound information.
[0213]
On the other hand, if it is determined in step S507 that it is the latter half, the process proceeds to step S509, and the sound corresponding to the type of the current block is reproduced from the middle of the read bar-unit sound information.
[0214]
When the processing in step S508 or step S509 is completed, the process proceeds to the next step S510, and the number A of blocks corresponding to the type of the current block is accumulated in the value of the index register p.
[0215]
Next, in step S511, after updating the value of the index register j by +1, it is determined whether or not the processing for one measure has been completed. This determination is made based on whether the value of the index register p is “8” or more. If the process for one measure has not been completed, the process returns to step S506, and the processes after step S506 are repeated.
[0216]
Here, the processing in steps S506 to S512 will be described in detail with reference to FIG. 27 and FIG. 28. As shown in FIG. 27, it is assumed that 8 blocks are inserted into one bar and assigned to the bar. When the voice is set to “My favorite” in the order of playback, first, as shown in item (1) in FIG. 28, if two sets of four blocks 202d are inserted for the measure, the first four sets Since block 202d is located in the first half of the measure, “Bokunoda” is reproduced from the beginning of the sound, and the next four sets of blocks 202d are located in the second half of the measure, so “Isukina” is located from the middle of the sound. Is played.
[0217]
Next, as shown in item (2) in FIG. 28, when the second set block 202b, the third set block 202c, the second set block 202b, and the first set block 202a are inserted in order for the measure, the first two sets Since block 202b is located in the first half of the measure, "I" is played from the beginning of the audio, and the next three sets of blocks 202c are located in the first half of the measure, so "I" is played again from the beginning of the audio. Since the next two sets of blocks 202b are located in the latter half of the measure, the “chair” is reproduced from the middle of the sound, and the last one set block 202a is located in the latter half of the measure. Is played.
[0218]
As another example, item (3) shows a case where three sets of blocks 202c, one set of blocks 202a and two sets of two blocks 202b are arranged in one measure, and item (4) shows one set of four in one measure. The case where the block 202a and one four-set block 202d are arranged is shown, and the item {circle around (5)} shows the case where the two sets of blocks 202b, four sets of blocks 202d and two one-set blocks 202a are arranged in one measure, 6 shows an example in which two three-set blocks 202c and one two-set block 202b are arranged in one measure.
[0219]
Returning to the description of the routine shown in FIG. 26, after the value of the index register i is updated by +1 in the next step S513, it is determined in step S514 whether or not all the measures related to one phrase have been processed. This determination is made based on whether or not the value of the index register i exceeds the number of measures B of one phrase.
[0220]
If all the measures related to one phrase have not been processed, the process returns to step S504, and the processes after step S504 are repeated. At the stage where all the measures related to one phrase have been processed, the process proceeds to the next step S515, and after updating the value of the index register k by +1, it is determined whether or not all the phrases have been processed in the next step S516. . This determination is made based on whether or not the value of the index register k exceeds the phrase number C.
[0221]
If all the phrases have not been processed, the process returns to step S502, and the processes after step S502 are repeated. Then, when all the phrases have been processed, this series of reproduction processing ends.
[0222]
According to the reproduction process, reproduction without a sense of incongruity is possible even when harmony progression (chord change) is performed within a measure. There is no sense of incongruity because the playback rules are such that the player can consciously control to some extent. Since the position of the strong beat within the measure can be shifted by rearranging the blocks, various rhythm variations can be obtained.
[0223]
As described above, in the entertainment system 10 according to the present embodiment, the frame object 204 that moves at a predetermined tempo is displayed on the monitor 18, and the user inserts a plurality of types of block objects 202 into the frame object 204. The video of one scene is created by combining a plurality of types of moving image data corresponding to the block object 202 inserted into the frame object 204.
[0224]
For this reason, each time a plurality of types of objects are fitted into a frame, a plurality of types of moving image data corresponding to the objects fitted into the frame are combined to create a video of one scene.
[0225]
In this case, the user's interest in the video game is sustained because the videos are combined by pressing any button according to the rhythm as desired, instead of forcing the specified button. Then, the user can enjoy a video game in which music and video are combined, in which a video of one scene is created while riding the music rhythm.
[0226]
In particular, in the present embodiment, since an arbitrary sound is output when the block object 202 is fitted into the frame object 204, the continuous movement from the throwing-up of the block object 202 to the fall plays a role of a kind of metronome. When the user inserts the block object 202 into the frame object 204 with an arbitrary button operation while watching this continuous motion, an arbitrary sound is output and the block object 202 is inserted into the frame object 204 each time. One music will be completed by the sound and BGM output to.
[0227]
In this case, instead of forcibly pressing the designated button, the user's video will be output as any sound is output by freely pressing any button according to the rhythm with any idea. Interest in games is sustained and music video games can be enjoyed in the sense of getting on the rhythm of music.
[0228]
Further, in the present embodiment, as described above, for example, when creating a fictitious TV program for one week, the user himself / herself becomes a director or director and takes charge of a program frame of one scene per day. You can enjoy a simulated experience of creating a TV program by incorporating a user-created video into the scene.
[0229]
In this case, various elements can be included in a simple game in which the block object 202 is inserted into the frame object 204, and the user can create an unprecedented video game in which a program for one week is produced while increasing the audience rating. I can enjoy it.
[0230]
Further, in the present embodiment, the display processing unit 302 includes a frame drawing unit 324 for drawing a frame object 204 that moves in one direction at a predetermined tempo at the drop point of the block object 202, and the block object 202. The shape of the block object 202 is changed according to the type of operation input when the block object 202 is fitted, and the block object 202 is thrown up and displayed so as to have an airtime corresponding to the shape and a predetermined tempo. object And a drawing means 322.
[0231]
In this case, the frame object 204 moves in one direction according to a predetermined tempo, and further, the block object 202 is thrown up and dropped in the flight time corresponding to the shape and the predetermined tempo. Therefore, it is possible to realize a video game in which an arbitrary sound is generated when the frame object 204 moves in accordance with the BGM tempo and the thrown block object 202 is inserted into the frame object 204.
[0232]
In this video game, the length of the sound changes like a quarter note or an eighth note depending on the shape of the block object 202, and then the timing for operation input can be changed. That is, a simple input timing or a complicated input timing can be arbitrarily selected according to the type of operation input, and the rhythm of the completed music can be diversified.
[0233]
In this embodiment, the score calculated according to the combination of various shapes when the block object 202 is fitted is displayed as an index. In this case, the timing at which the operation should be input changes depending on the type of operation input, and the rhythm also changes at the same time. As a result, the user wants to challenge a more complicated rhythm, and the above-mentioned video game can have a sporting element.
[0234]
The entertainment system, entertainment device, recording medium, and program according to the present invention are not limited to the above-described embodiments, and various configurations can be adopted without departing from the gist of the present invention.
[0235]
【The invention's effect】
As described above, according to the entertainment system, entertainment device, recording medium, and program according to the present invention, an arbitrary sound is generated according to the operation input timing by the user, and a moving image is generated according to the type of the operation input. In combination, the video of one scene can be finally created, and the pleasure of creating one music and the pleasure of creating one video of a scene can be enjoyed simultaneously. You can also enjoy various audio changes and rhythm variations.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing an entertainment system according to the present embodiment.
FIG. 2 is a perspective view showing an operating device.
FIG. 3 is a plan view showing the operating device.
FIG. 4 is a perspective view showing a usage state of the operating device.
FIG. 5 is a partially broken bottom view showing a state in which a vibration applying mechanism is disposed in the left and right gripping portions.
FIG. 6 is a block diagram showing a circuit configuration of the entertainment apparatus.
FIG. 7 is a block diagram showing a main part that performs bidirectional serial communication between the operating device and the entertainment device.
FIG. 8 is an explanatory diagram illustrating an example in which a block object, a frame object, an index, and a moving image are displayed on a monitor.
FIG. 9A is an explanatory diagram showing a state in which an object has been thrown up from a throwing position and has reached the highest point, and FIG. 9B shows a state in which a falling object is acquired by an acquisition-side object; It is explanatory drawing.
FIG. 10 is an explanatory diagram illustrating an example of types of objects assigned to buttons of the operation device.
FIG. 11A is an explanatory diagram showing a first moving image data file group corresponding to four sets of blocks, and FIG. 11B is an explanatory diagram showing a second moving image data file group corresponding to three sets of blocks; FIG. 11C is an explanatory diagram showing a third moving image data file group corresponding to two sets of blocks.
FIG. 12A is an explanatory diagram illustrating a state in which a block object is inserted into a frame object as specified, and FIG. 12B is an explanatory diagram illustrating an inset state of the block object when an operation input is slightly delayed. Yes, FIG. 12C is an explanatory diagram showing the inset state of the block object when the operation input is slightly earlier.
FIG. 13 is an explanatory diagram showing an example of a task block.
FIG. 14A is an explanatory diagram illustrating a first insertion pattern of a block object, FIG. 14B is an explanatory diagram illustrating a second insertion pattern of the block object, and FIG. 14C is a diagram illustrating a first insertion pattern of the block object; FIG. 14D is an explanatory diagram illustrating an example of a pattern that protrudes and is inserted.
FIG. 15 is an explanatory diagram showing a pattern in which a combination of moving images created by a user is displayed on a monitor by a replay function;
FIG. 16 is an explanatory diagram showing a state in which vertical streak noise appears in the moving image portion as the time limit approaches.
FIG. 17 is a functional block diagram showing a configuration of video creation means.
FIG. 18 is a functional block diagram showing a configuration of display processing means.
FIG. 19 is a flowchart (No. 1) showing a processing operation of an instruction control unit constituting the video creation unit.
FIG. 20 is a flowchart (No. 2) showing the processing operation of the instruction control unit;
FIG. 21 is a flowchart (No. 3) showing the processing operation of the instruction control unit;
FIG. 22 is a flowchart showing the processing operation of the voice processing means.
FIG. 23 is a flowchart showing the processing operation of the display processing means.
FIG. 24 is a flowchart showing the processing operation of the display replay means.
FIG. 25 is a flowchart showing the processing operation of the audio replay means.
FIG. 26 is a flowchart showing another example of the processing operation of the audio replay means.
FIG. 27 is an explanatory diagram showing the playback order of music (video) and its source.
FIG. 28 is a table showing the relationship between the block arrangement state, the tune playback order, and the playback audio.
[Explanation of symbols]
10 ... Entertainment system 12 ... Entertainment equipment
16 ... Operating device 18 ... Monitor
20 ... Optical disc 80 ... CPU
84 ... Graphic system 86 ... Sound system
94 ... Speaker 202 ... Block object
202a ... 1 set block 202b ... 2 set blocks
202c ... 3 set blocks 202d ... 4 set blocks
204 ... Frame object 206 ... Movie
220 ... assignment block 232 ... indicator
300 ... Video creation means 302 ... Display processing means
304 ... Audio processing means 306 ... Instruction control means
308 ... Replay processing means

Claims (28)

各種プログラムを実行するエンタテインメント装置と、
使用者による操作要求を前記エンタテインメント装置に入力する少なくとも1つの操作装置と、
前記エンタテインメント装置から出力された画像を表示する表示装置とを有するエンタテインメントシステムにおいて、
所定のテンポに合わせて移動する枠を前記表示装置に表示するように制御する枠表示手段と、
前記表示装置に、複数種類のオブジェクトのうち、選択された1つのオブジェクトが投げ上げられ、その後、前記枠に向かって落下する表示を行うように制御するオブジェクト表示手段と、
前記オブジェクトが前記枠に落下した際の前記使用者からの操作入力のタイミングを検出するタイミング検出手段と、
前記操作入力のあった時点で、前記オブジェクトの一部又は全部が前記枠の表示範囲に含まれている場合に、前記オブジェクトが前記枠にはめ込まれたと判別し、前記オブジェクトが前記枠の表示範囲から外れている場合に、前記オブジェクトが前記枠にはめ込まれていないと判別する判別手段と、
前記オブジェクトが前記枠にはめ込まれていると判別された場合に、前記オブジェクトの種類に対応した動画データを読み出す動画読出し手段と、
前記枠表示手段による処理、前記オブジェクト表示手段による処理、前記タイミング検出手段による処理、前記判別手段による処理及び前記動画読出し手段による処理を含む一連の処理を繰り返すことによって順次読み出される動画データを順番に組み合わせて長編の動画データとする手段と、
を有することを特徴とするエンタテインメントシステム。
An entertainment device for executing various programs;
At least one operating device for inputting an operation request by a user to the entertainment device;
In an entertainment system having a display device for displaying an image output from the entertainment device,
Frame display means for controlling the display device to display a frame that moves in accordance with a predetermined tempo;
An object display means for controlling the display device to perform a display in which one selected object among a plurality of types of objects is thrown up and then dropped toward the frame;
Timing detection means for detecting operation input timing from the user when the object falls on the frame;
When a part or all of the object is included in the display range of the frame at the time of the operation input, it is determined that the object is fitted in the frame, and the object is displayed in the display range of the frame. Discriminating means for discriminating that the object is not fitted in the frame when it is out of the range;
Moving image reading means for reading moving image data corresponding to the type of the object when it is determined that the object is fitted in the frame;
The moving image data sequentially read out by repeating a series of processing including processing by the frame display unit, processing by the object display unit, processing by the timing detection unit, processing by the determination unit, and processing by the moving image reading unit is sequentially performed. A means for combining long-form video data,
An entertainment system characterized by comprising:
請求項1記載のエンタテインメントシステムにおいて、
前記動画読出し手段は、前記オブジェクトが前記枠にはめ込まれていないと判別された場合に、前記動画データの代わりにノイズ画像データを読み出すことを特徴とするエンタテインメントシステム。
In claim 1 Symbol placement of the entertainment system,
The video reading means, entertainment system the object when it is determined that it is not fitted to the frame, characterized in that reading the noise image data instead of the moving image data.
請求項1又は2記載のエンタテインメントシステムにおいて
記使用者によるリプレイを示す操作入力に従って、前記長編の動画データを前記表示装置に表示するように制御する手段を有することを特徴とするエンタテインメントシステム。
The entertainment system according to claim 1 or 2 ,
According to the operation input indicating replay by prior Symbol user, the entertainment system characterized by having a means for controlling to display the moving image data of the feature in the display device.
請求項1又は2記載のエンタテインメントシステムにおいて、The entertainment system according to claim 1 or 2,
前記動画読出し手段によって読み出されたデータを前記表示装置に表示するように制御する動画表示手段を有することを特徴とするエンタテインメントシステム。An entertainment system comprising moving image display means for controlling the data read by the moving image reading means to be displayed on the display device.
請求項1〜4のいずれか1項に記載のエンタテインメントシステムにおいて
記オブジェクトが前記枠にはめ込まれていると判別された場合に、
任意の音声を出力する音声処理手段を有することを特徴とするエンタテインメントシステム。
In the entertainment system of any one of Claims 1-4 ,
If it is determined that pre-Symbol object is fitted to the frame,
An entertainment system comprising voice processing means for outputting an arbitrary voice.
請求項1〜5のいずれか1項に記載のエンタテインメントシステムにおいて、
前記オブジェクト表示手段は、
前回、前記オブジェクトが前記枠にはめ込まれていると判別された場合に、今回、前記複数種類のオブジェクトのうち、前回の前記オブジェクトが前記枠にはめ込まれていると判別されたときの前記使用者からの操作入力の種類に応じたオブジェクトを、投げ上げ、 その後、前記枠に向かって落下する表示を行うように制御することを特徴とするエンタテインメントシステム。
In the entertainment system of any one of Claims 1-5 ,
The object display means includes
When it was determined last time that the object was fitted in the frame, the user when it was determined that the previous object was fitted in the frame among the plurality of types of objects this time. the object corresponding to the type of operation input from, it is thrown, the entertainment system then characterized that you control to perform display to fall towards the frame.
請求項1〜6のいずれか1項に記載のエンタテインメントシステムにおいて、
前記オブジェクト表示手段は、
投げ上げ表示される前記オブジェクトの種類と、前記所定のテンポに応じた滞空時間となるように、前記オブジェクトを投げ上げ、その後、前記枠に向かって落下する表示を行うように制御することを特徴とするエンタテインメントシステム。
In the entertainment system of any one of Claims 1-6 ,
The object display means includes
Control is performed so that the object is thrown up and then dropped toward the frame so as to have a flying time corresponding to the type of the object to be thrown up and the predetermined tempo. Entertainment system.
請求項1〜7のいずれか1項に記載のエンタテインメントシステムにおいて、
前記判別手段にて、連続して前記オブジェクトが前記枠にはめ込まれたと判別されたときの前記オブジェクトの種類と組み合わせに基づいて得点を計算し、表示するように制御する得点処理手段を有することを特徴とするエンタテインメントシステム。
In the entertainment system of any one of Claims 1-7 ,
A score processing means for controlling to calculate and display a score based on the type and combination of the object when it is determined by the determination means that the object is continuously inserted into the frame. A featured entertainment system.
請求項記載のエンタテインメントシステムにおいて、
前記判別手段にて、オブジェクトが前記枠にはめ込まれていると判別される毎に、前記枠にはめ込まれていると判別された前記オブジェクトの種類に関する情報を登録するブロック情報登録手段と、
複数種類の音声情報のうち、登録されたオブジェクトの種類に応じた音声情報を読み出す音声読出し手段と、
読み出された音声情報を順番に出力する音声出力手段と、
を有することを特徴とするエンタテインメントシステム。
The entertainment system according to claim 1 ,
Block information registration means for registering information on the type of the object determined to be fitted in the frame every time the discrimination means determines that the object is fitted in the frame;
Audio reading means for reading out audio information corresponding to the type of the registered object among the plurality of types of audio information;
Audio output means for sequentially outputting the read audio information;
An entertainment system characterized by comprising:
使用者による操作要求を受ける操作装置と、画像を表示するための表示装置が接続可能であって、かつ、各種プログラムを実行するエンタテインメント装置において、
所定のテンポに合わせて移動する枠を前記表示装置に表示するように制御する枠表示手段と、
前記表示装置に、複数種類のオブジェクトのうち、選択された1つのオブジェクトが投げ上げられ、その後、前記枠に向かって落下する表示を行うように制御するオブジェクト表示手段と、
前記オブジェクトが前記枠に落下した際の前記使用者からの操作入力のタイミングを検出するタイミング検出手段と、
前記操作入力のあった時点で、前記オブジェクトの一部又は全部が前記枠の表示範囲に含まれている場合に、前記オブジェクトが前記枠にはめ込まれたと判別し、前記オブジェクトが前記枠の表示範囲から外れている場合に、前記オブジェクトが前記枠にはめ込まれていないと判別する判別手段と、
前記オブジェクトが前記枠にはめ込まれていると判別された場合に、前記オブジェクトの種類に対応した動画データを読み出す動画読出し手段と、
前記枠表示手段による処理、前記オブジェクト表示手段による処理、前記タイミング検出手段による処理、前記判別手段による処理及び前記動画読出し手段による処理を含む一連の処理を繰り返すことによって順次読み出される動画データを順番に組み合わせて長編の動画データとする手段と、
を有することを特徴とするエンタテインメント装置。
An operation unit which receives an operation request by the user, the image display device for displaying the be connectable to, and, in the entertainment apparatus for executing various programs,
Frame display means for controlling the display device to display a frame that moves in accordance with a predetermined tempo;
An object display means for controlling the display device to perform a display in which one selected object among a plurality of types of objects is thrown up and then dropped toward the frame;
Timing detection means for detecting operation input timing from the user when the object falls on the frame;
When a part or all of the object is included in the display range of the frame at the time of the operation input, it is determined that the object is fitted in the frame, and the object is displayed in the display range of the frame. Discriminating means for discriminating that the object is not fitted in the frame when it is out of the range;
Moving image reading means for reading moving image data corresponding to the type of the object when it is determined that the object is fitted in the frame;
The moving image data sequentially read out by repeating a series of processing including processing by the frame display unit, processing by the object display unit, processing by the timing detection unit, processing by the determination unit, and processing by the moving image reading unit is sequentially performed. A means for combining long-form video data,
An entertainment device comprising:
請求項10記載のエンタテインメント装置において、
前記動画読出し手段は、前記オブジェクトが前記枠にはめ込まれていないと判別された場合に、前記動画データの代わりにノイズ画像データを読み出すことを特徴とするエンタテインメント装置。
The entertainment device according to claim 10 ,
The video reading means, when the object is judged to be not fitted to the frame, entertainment and wherein the reading the noise image data instead of the moving image data.
請求項10又は11記載のエンタテインメント装置において
記使用者によるリプレイを示す操作入力に従って、前記長編の動画データを前記表示装置に表示するように制御する段を有することを特徴とするエンタテインメント装置。
The entertainment device according to claim 10 or 11 ,
According to the operation input indicating replay by prior Symbol user, the entertainment apparatus characterized by having a means to control so as to display the video data of the feature in the display device.
請求項10又は11記載のエンタテインメント装置において、The entertainment device according to claim 10 or 11,
前記動画読出し手段によって読み出されたデータを前記表示装置に表示するように制御する動画表示手段を有することを特徴とするエンタテインメント装置。An entertainment apparatus comprising moving image display means for controlling the data read by the moving image reading means to be displayed on the display device.
請求項10〜13のいずれか1項に記載のエンタテインメント装置において
記オブジェクトが前記枠にはめ込まれていると判別された場合に、
任意の音声を出力する音声処理手段を有することを特徴とするエンタテインメント装置。
The entertainment device according to any one of claims 10 to 13 ,
If it is determined that pre-Symbol object is fitted to the frame,
An entertainment apparatus comprising voice processing means for outputting an arbitrary voice.
請求項10〜14のいずれか1項に記載のエンタテインメント装置において、
前記オブジェクト表示手段は、
前回、前記オブジェクトが前記枠にはめ込まれていると判別された場合に、今回、前記複数種類のオブジェクトのうち、前回の前記オブジェクトが前記枠にはめ込まれていると判別されたときの前記使用者からの操作入力の種類に応じたオブジェクトを、投げ上げ、その後、前記枠に向かって落下する表示を行うように制御することを特徴とするエンタテインメント装置。
The entertainment device according to any one of claims 10 to 14 ,
The object display means includes
When it was determined last time that the object was fitted in the frame, the user when it was determined that the previous object was fitted in the frame among the plurality of types of objects this time. the object corresponding to the type of operation input from, it is thrown, then the control to the entertainment device, wherein Rukoto to perform display to fall towards the frame.
請求項1〜15のいずれか1項に記載のエンタテインメント装置において、
前記オブジェクト表示手段は、
投げ上げ表示される前記オブジェクトの種類と、前記所定のテンポに応じた滞空時間となるように、前記オブジェクトを投げ上げ、その後、前記枠に向かって落下する表示を行うように制御することを特徴とするエンタテインメント装置。
The entertainment device according to any one of claims 1 to 15 ,
The object display means includes
Control is performed so that the object is thrown up and then dropped toward the frame so as to have a flying time corresponding to the type of the object to be thrown up and the predetermined tempo. Entertainment equipment.
請求項10〜16のいずれか1項に記載のエンタテインメント装置において、
前記判別手段にて、連続して前記オブジェクトが前記枠にはめ込まれたと判別されたときの前記オブジェクトの種類と組み合わせに基づいて得点を計算し、表示するように制御する得点処理手段を有することを特徴とするエンタテインメント装置。
The entertainment device according to any one of claims 10 to 16 ,
It has score processing means for controlling to calculate and display a score based on the type and combination of the object when it is determined by the determination means that the object is continuously inserted into the frame. A featured entertainment device.
請求項10記載のエンタテインメント装置において、The entertainment device according to claim 10,
前記判別手段にて、オブジェクトが前記枠にはめ込まれていると判別される毎に、前記枠にはめ込まれていると判別された前記オブジェクトの種類に関する情報を登録するブロック情報登録手段と、Block information registration means for registering information on the type of the object determined to be fitted in the frame every time the discrimination means determines that the object is fitted in the frame;
複数種類の音声情報のうち、登録されたオブジェクトの種類に応じた音声情報を読み出す音声読出し手段と、Audio reading means for reading out audio information corresponding to the type of the registered object among the plurality of types of audio information;
読み出された音声情報を順番に出力する音声出力手段と、Audio output means for sequentially outputting the read audio information;
を有することを特徴とするエンタテインメント装置。An entertainment device comprising:
各種プログラムを実行するエンタテインメント装置と、
使用者による操作要求を前記エンタテインメント装置に入力する少なくとも1つの操作装置と、
前記エンタテインメント装置から出力された画像を表示する表示装置とを有するエンタテインメントシステムを、
所定のテンポに合わせて移動する枠を前記表示装置に表示するように制御する枠表示手段、
前記表示装置に、複数種類のオブジェクトのうち、選択された1つのオブジェクトが投げ上げられ、その後、前記枠に向かって落下する表示を行うように制御するオブジェクト表示手段、
前記オブジェクトが前記枠に落下した際の前記使用者からの操作入力のタイミングを検出するタイミング検出手段、
前記操作入力のあった時点で、前記オブジェクトの一部又は全部が前記枠の表示範囲に含まれている場合に、前記オブジェクトが前記枠にはめ込まれたと判別し、前記オブジェクトが前記枠の表示範囲から外れている場合に、前記オブジェクトが前記枠にはめ込まれていないと判別する判別手段、
前記オブジェクトが前記枠にはめ込まれていると判別された場合に、前記オブジェクトの種類に対応した動画データを読み出す動画読出し手段、
前記枠表示手段による処理、前記オブジェクト表示手段による処理、前記タイミング検出手段による処理、前記判別手段による処理及び前記動画読出し手段による処理を含む一連の処理を繰り返すことによって順次読み出される動画データを順番に組み合わせて長編の動画データとする手段、
として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
An entertainment device for executing various programs;
At least one operating device for inputting an operation request by a user to the entertainment device;
An entertainment system having a display device for displaying an image output from the entertainment device;
Frame display means for controlling the display device to display a frame that moves in accordance with a predetermined tempo;
Object display means for controlling the display device so that a selected one of a plurality of types of objects is thrown up and then dropped toward the frame;
Timing detection means for detecting timing of an operation input from the user when the object falls on the frame;
When a part or all of the object is included in the display range of the frame at the time of the operation input, it is determined that the object is fitted in the frame, and the object is displayed in the display range of the frame. Discriminating means for discriminating that the object is not fitted in the frame when it is off
Moving image reading means for reading moving image data corresponding to the type of the object when it is determined that the object is fitted in the frame;
The moving image data sequentially read out by repeating a series of processing including processing by the frame display unit, processing by the object display unit, processing by the timing detection unit, processing by the determination unit, and processing by the moving image reading unit is sequentially performed. A means to combine long video data,
A computer- readable recording medium on which a program for functioning as a computer is recorded.
請求項19記載の記録媒体において、
前記動画読出し手段は、前記オブジェクトが前記枠にはめ込まれていないと判別された場合に、前記動画データの代わりにノイズ画像データを読み出すことを特徴とする記録媒体。
The recording medium according to claim 19 ,
The video reading means, when the object is judged to be not fitted to the frame, a recording medium, characterized in that reading the noise image data instead of the moving image data.
請求項19又は20記載の記録媒体において、
前記プログラムは、さらに、
前記使用者によるリプレイを示す操作入力に従って、前記長編の動画データを前記表示装置に表示するように制御する手段を有することを特徴とする記録媒体。
The recording medium according to claim 19 or 20 ,
The program further includes:
A recording medium comprising: means for controlling to display the feature video data on the display device in accordance with an operation input indicating replay by the user .
請求項19又は20記載の記録媒体において、The recording medium according to claim 19 or 20,
前記プログラムは、さらに、The program further includes:
前記動画読出し手段によって読み出されたデータを前記表示装置に表示するように制御する動画表示手段を有することを特徴とする記録媒体。A recording medium comprising: moving image display means for controlling the data read by the moving image reading means to be displayed on the display device.
請求項19〜22のいずれか1項に記載の記録媒体において、
前記プログラムは、さらに、
前記オブジェクトが前記枠にはめ込まれていると判別された場合に
任意の音声を出力する音声処理手段を有することを特徴とする記録媒体。
The recording medium according to any one of claims 19 to 22 ,
The program further includes:
When it is determined that the object is fitted in the frame ,
Recording medium characterized in that it have a voice processing means for outputting any sound.
請求項19〜23のいずれか1項に記載の記録媒体において、
前記オブジェクト表示手段は、
前回、前記オブジェクトが前記枠にはめ込まれていると判別された場合に、今回、前記複数種類のオブジェクトのうち、前回の前記オブジェクトが前記枠にはめ込まれていると判別されたときの前記使用者からの操作入力の種類に応じたオブジェクトを、投げ上げ、その後、前記枠に向かって落下する表示を行うように制御することを特徴とする記録媒体。
The recording medium according to any one of claims 19 to 23 ,
The object display means includes
When it was determined last time that the object was fitted in the frame, the user when it was determined that the previous object was fitted in the frame among the plurality of types of objects this time. A recording medium that controls to throw up an object according to the type of operation input from the camera, and then drop the object toward the frame .
請求項19〜24のいずれか1項に記載の記録媒体において、
前記オブジェクト表示手段は、
投げ上げ表示される前記オブジェクトの種類と、前記所定のテンポに応じた滞空時間となるように、前記オブジェクトを投げ上げ、その後、前記枠に向かって落下する表示を行うように制御することを特徴とする記録媒体。
The recording medium according to any one of claims 19 to 24 ,
The object display means includes
Control is performed so that the object is thrown up and then dropped toward the frame so as to have a flying time corresponding to the type of the object to be thrown up and the predetermined tempo. A recording medium.
請求項19〜25のいずれか1項に記載の記録媒体において、
前記プログラムは、さらに、
前記判別手段にて、連続して前記オブジェクトが前記枠にはめ込まれたと判別されたときの前記オブジェクトの種類と組み合わせに基づいて得点を計算し、表示するように制御する得点処理段を有することを特徴とする記録媒体。
The recording medium according to any one of claims 19 to 25 ,
The program further includes:
Wherein at discriminating means, the object score is calculated based on the type and combination of the object when it is determined to have been fitted in the frame in succession, to have a score processing means to control so as to display A recording medium characterized by the above.
請求項19記載の記録媒体において、
前記プログラムは、さらに、
前記判別手段にて、オブジェクトが前記枠にはめ込まれていると判別される毎に、前記枠にはめ込まれていると判別された前記オブジェクトの種類に関する情報を登録するブロック情報登録手段と、
複数種類の音声情報のうち、登録されたオブジェクトの種類に応じた音声情報を読み出す音声読出し手段と
読み出された音声情報を順番に出力する音声出力手段と、
を有することを特徴とする記録媒体。
The recording medium according to claim 19 ,
The program further includes:
Block information registration means for registering information on the type of the object determined to be fitted in the frame every time the discrimination means determines that the object is fitted in the frame;
Among a plurality of types of audio information, the audio read hand stage for reading the audio information corresponding to the type of the registered object,
Audio output means for sequentially outputting the read audio information ;
A recording medium comprising:
各種プログラムを実行するエンタテインメント装置と、
使用者による操作要求を前記エンタテインメント装置に入力する少なくとも1つの操作装置と、
前記エンタテインメント装置から出力された画像を表示する表示装置とを有するエンタテインメントシステムを、
所定のテンポに合わせて移動する枠を前記表示装置に表示するように制御する枠表示手段、
前記表示装置に、複数種類のオブジェクトのうち、選択された1つのオブジェクトが投げ上げられ、その後、前記枠に向かって落下する表示を行うように制御するオブジェクト表示手段、
前記オブジェクトが前記枠に落下した際の前記使用者からの操作入力のタイミングを検出するタイミング検出手段、
前記操作入力のあった時点で、前記オブジェクトの一部又は全部が前記枠の表示範囲に含まれている場合に、前記オブジェクトが前記枠にはめ込まれたと判別し、前記オブジェクトが前記枠の表示範囲から外れている場合に、前記オブジェクトが前記枠にはめ込まれていないと判別する判別手段、
前記オブジェクトが前記枠にはめ込まれていると判別された場合に、前記オブジェクトの種類に対応した動画データを読み出す動画読出し手段、
前記枠表示手段による処理、前記オブジェクト表示手段による処理、前記タイミング検出手段による処理、前記判別手段による処理及び前記動画読出し手段による処理を含む一連の処理を繰り返すことによって順次読み出される動画データを順番に組み合わせて長編の動画データとする手段、
として機能させるためのプログラム。
An entertainment device for executing various programs;
At least one operating device for inputting an operation request by a user to the entertainment device;
An entertainment system having a display device for displaying an image output from the entertainment device;
Frame display means for controlling the display device to display a frame that moves in accordance with a predetermined tempo;
Object display means for controlling the display device so that a selected one of a plurality of types of objects is thrown up and then dropped toward the frame;
Timing detection means for detecting timing of an operation input from the user when the object falls on the frame;
When a part or all of the object is included in the display range of the frame at the time of the operation input, it is determined that the object is fitted in the frame, and the object is displayed in the display range of the frame. Discriminating means for discriminating that the object is not fitted in the frame when it is off
Moving image reading means for reading moving image data corresponding to the type of the object when it is determined that the object is fitted in the frame;
The moving image data sequentially read out by repeating a series of processing including processing by the frame display unit, processing by the object display unit, processing by the timing detection unit, processing by the determination unit, and processing by the moving image reading unit is sequentially performed. A means to combine long video data,
Program to function as.
JP2000393519A 1999-12-24 2000-12-25 Entertainment system, entertainment device, recording medium, and program Expired - Fee Related JP3563034B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000393519A JP3563034B2 (en) 1999-12-24 2000-12-25 Entertainment system, entertainment device, recording medium, and program

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP36794099 1999-12-24
JP2000-179189 2000-06-14
JP2000179189 2000-06-14
JP11-367940 2000-06-14
JP2000393519A JP3563034B2 (en) 1999-12-24 2000-12-25 Entertainment system, entertainment device, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2002066132A JP2002066132A (en) 2002-03-05
JP3563034B2 true JP3563034B2 (en) 2004-09-08

Family

ID=27341765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000393519A Expired - Fee Related JP3563034B2 (en) 1999-12-24 2000-12-25 Entertainment system, entertainment device, recording medium, and program

Country Status (1)

Country Link
JP (1) JP3563034B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010041358A1 (en) * 2008-10-08 2010-04-15 株式会社ソニー・コンピュータエンタテインメント Game control program, game device and method for controlling game
JP2010088692A (en) * 2008-10-08 2010-04-22 Sony Computer Entertainment Inc Control program, game apparatus, and game control method
JP5199053B2 (en) 2008-12-16 2013-05-15 株式会社スクウェア・エニックス GAME DEVICE, GAME REPLAY DISPLAY METHOD, GAME PROGRAM, AND RECORDING MEDIUM
JP6714753B2 (en) * 2019-04-26 2020-06-24 シャープ株式会社 Washing machine

Also Published As

Publication number Publication date
JP2002066132A (en) 2002-03-05

Similar Documents

Publication Publication Date Title
JP5420833B2 (en) Game system
JP3338005B2 (en) Music game communication system
JP5651324B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP5358071B2 (en) GAME PROGRAM AND GAME DEVICE
JP4081754B2 (en) Image processing apparatus and game apparatus
JP4012981B2 (en) Video game control method, video game apparatus, and medium on which video game program is recorded
EP1199702B1 (en) Game machine and game processing method
EP1080755A2 (en) Entertainment system, entertainment apparatus, recording medium, and program
EP1199703A2 (en) Game machine and game processing method
US20100255910A1 (en) Game apparatus, recording medium having game program recorded thereon, and game system
JP2003299879A (en) Game program and game apparatus
JP2010063840A (en) Game machine and game program
JP2009011568A (en) Game program and game machine
EP1127598A2 (en) Entertainment system, entertainment apparatus, recording medium, and program
US6881149B2 (en) Entertainment system, entertainment apparatus, recording medium, and program
JP2000189678A (en) Video game device, play control method for video game, and readable recording medium with the method recorded thereon
US8814687B1 (en) Multi-player music game
JP3563034B2 (en) Entertainment system, entertainment device, recording medium, and program
US20030171146A1 (en) Quick passing feature for sports video games
JP3445780B2 (en) Entertainment system, entertainment apparatus, recording medium, and data processing method
EP1044706A2 (en) Entertainment system, entertainment apparatus, recording medium, and program
JP6088748B2 (en) GAME SYSTEM, GAME PROCESSING METHOD, GAME DEVICE, AND GAME PROGRAM
JP2001145783A (en) Entertainment system, entertainment apparatus, recording medium and program
JP2001195593A (en) System and device for entertainment, recording medium and program
JP2001246158A (en) Entertainment system, entertainment device, and recording medium and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040601

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080611

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090611

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100611

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100611

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110611

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110611

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120611

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees