JP2003531703A - Embed your own audio into video games in real time - Google Patents

Embed your own audio into video games in real time

Info

Publication number
JP2003531703A
JP2003531703A JP2001579921A JP2001579921A JP2003531703A JP 2003531703 A JP2003531703 A JP 2003531703A JP 2001579921 A JP2001579921 A JP 2001579921A JP 2001579921 A JP2001579921 A JP 2001579921A JP 2003531703 A JP2003531703 A JP 2003531703A
Authority
JP
Japan
Prior art keywords
file
sound
sound file
video game
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001579921A
Other languages
Japanese (ja)
Inventor
アンディー シー,
ブレット ティー. ドー,
Original Assignee
チョイス ゲーム ミュージック エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by チョイス ゲーム ミュージック エルエルシー filed Critical チョイス ゲーム ミュージック エルエルシー
Publication of JP2003531703A publication Critical patent/JP2003531703A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/335Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using Internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Abstract

(57)【要約】 本発明は、ユーザ独自の音楽および/またはサウンドをビデオゲーム内に組み込むコンピュータの方法およびシステムを提供する。一部には、本発明は、ビデオゲームとの間にインターフェースを繋げて、複数のユーザ独自のサウンドファイルを上記ビデオゲームに提供する音楽エンジンに関する。本発明はさらに、プログラム中の特定の点において再生されるユーザ独自のサウンドファイルを識別する、符号化されたタグテキストファイルに関する。 SUMMARY The present invention provides a computer method and system for incorporating user-specific music and / or sound into a video game. In part, the present invention relates to a music engine that interfaces with a video game to provide a plurality of user-specific sound files to the video game. The invention further relates to an encoded tag text file that identifies a user-specific sound file to be played at a particular point in the program.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】 (技術分野) 本発明は、ユーザ独自の音楽および/またはサウンドをビデオゲームに組み込
むコンピュータ方法およびシステムに関する。
TECHNICAL FIELD The present invention relates to computer methods and systems for incorporating user-specific music and / or sound into video games.

【0002】 (発明の背景) 現在、ほとんどのビデオゲームのサウンドトラックアーキテクチャは、控えめ
な音声サンプルの使用に関与する。各ビデオゲームは、所定のセットのサウンド
ファイル(サンプルまたは歌)を有する。サウンドファイルは、ゲーム内のサウ
ンドトラックの可能性のすべてを規定する。これらのサウンドファイルの技術仕
様およびゲームプレイパラメータ(例えば、ファイルの長さ、およびゲームプレ
イのステージに対する配置)は、ゲーム開発者によって予め設定されている。し
たがって、現在のシステムでは、ゲーム開発者が選択したサウンドトラックをユ
ーザ(すなわち、ビデオゲームプレイヤー)が聞くことが必要である。これは、
ユーザの意向に沿わないか、または最終的にはユーザを飽きさせるかのいずれか
であり得るか、あるいはこれらの両方であり得る。
BACKGROUND OF THE INVENTION Currently, most video game soundtrack architectures involve the use of conservative audio samples. Each video game has a predetermined set of sound files (samples or songs). The sound file defines all of the possibilities for the soundtrack in the game. The technical specifications and gameplay parameters of these sound files (e.g., file length and placement with respect to the gameplay stage) are preset by the game developer. Therefore, current systems require the user (ie, video game player) to hear the soundtrack selected by the game developer. this is,
It may either not be in line with the user's intent, and may eventually bore the user, or both.

【0003】 したがって、ユーザがサウンドトラックをユーザの嗜好に合うように修正する
ことを可能にし、および/または飽きさせないシステムが必要である。
Therefore, there is a need for a system that allows a user to modify a soundtrack to their tastes and / or keeps them tired.

【0004】 (発明の要旨) 本発明は、ユーザがユーザ独自の歌およびサウンドをビデオゲーム内に組み込
むことを可能にするシステムおよび方法を提供することによって、ビデオゲーム
に関する現在の問題を解決する。
SUMMARY OF THE INVENTION The present invention solves current problems with video games by providing a system and method that allows users to incorporate their own songs and sounds into the video game.

【0005】 本発明の一局面において、ユーザ独自のサウンドをビデオゲームに組み込む方
法を提供する。上記方法は、a)音楽エンジン、および上記音楽エンジンと上記
ビデオゲームとの間にインターフェースを提供する工程であって、上記音楽エン
ジンは、複数のサウンドファイルを上記ビデオゲームに提供することが可能であ
り、さらに、上記インターフェースは、上記音楽エンジンからサウンドファイル
を取得し、そして上記ビデオゲームに再生する上記サウンドファイルを提示する
ことが可能である、工程と、b)上記ビデオゲームから第1の信号を上記インタ
ーフェースに送信して、上記音楽エンジンから第1のサウンドファイルを再生し
、これにより、上記音楽エンジンが再生する上記第1のサウンドファイルを上記
ビデオゲームに送信する工程とを含む。
In one aspect of the invention, a method of incorporating user-specific sound into a video game is provided. The method comprises: a) providing a music engine and an interface between the music engine and the video game, the music engine being capable of providing a plurality of sound files to the video game. And further, the interface is capable of obtaining a sound file from the music engine and presenting the sound file for playback to the video game, and b) a first signal from the video game. To the interface to play a first sound file from the music engine, thereby sending the first sound file played by the music engine to the video game.

【0006】 本発明の別の局面において、ユーザ独自のサウンドを組み込むことが可能なビ
デオゲーム装置を提供する。上記装置は、a)複数のサウンドファイルにアクセ
スすることが可能な音楽エンジン手段と、b)上記音楽エンジンからサウンドフ
ァイルを取得し、再生する上記サウンドファイルを提示することが可能なインタ
ーフェース手段と、c)信号を上記インターフェースに送信して、上記音楽エン
ジンからサウンドファイルを再生するトリガ手段と、d)サウンドファイルを再
生する再生手段とを含む。
In another aspect of the present invention, a video game device capable of incorporating a user's own sound is provided. The device comprises: a) a music engine means capable of accessing a plurality of sound files; b) an interface means capable of obtaining a sound file from the music engine and presenting the sound file for playback. c) It includes a trigger means for transmitting a signal to the interface to play a sound file from the music engine, and d) a playing means for playing a sound file.

【0007】 本発明のさらに別の局面において、サウンドファイルを提供する。上記サウン
ドファイルは、a)歌またはサンプルを符号化するデータと、b)上記データの
使用法に関する情報を含むデータに関連付けられた第1の符号化されたタグとを
含む。
In yet another aspect of the invention, a sound file is provided. The sound file includes a) data encoding a song or sample, and b) a first encoded tag associated with the data that includes information regarding usage of the data.

【0008】 本発明のさらなる局面において、再生されるサウンドファイルを識別する符号
化されたタグテキストファイルを提供する。上記テキストファイルは、a)上記
サウンドファイルの位置を符号化する第1のデータと、b)上記サウンドファイ
ルの継続期間を符号化する第2のデータと、c)上記サウンドファイルの再生を
トリガする命令を符号化する第3のデータと、d)上記サウンドファイルに関す
る情報を符号化する第4のデータとを含む。
In a further aspect of the invention, an encoded tag text file is provided that identifies the sound file to be played. The text file comprises a) first data encoding the position of the sound file, b) second data encoding the duration of the sound file, and c) triggering the reproduction of the sound file. Includes third data encoding instructions and d) fourth data encoding information about the sound file.

【0009】 本発明のさらに別の局面において、サウンドファイルの再生を、上記サウンド
ファイルに関連付けられた符号化されたタグテキストファイルによって組み込む
コンピュータプログラムを提供する。上記プログラムは、a)上記サウンドファ
イルの再生をトリガする、上記符号化されたタグテキストファイル内の命令に対
応する命令と、b)上記符号化されたタグテキストファイルから上記サウンドフ
ァイルの位置データを取得する手段を含むサウンドファイル取り出し手段と、c
)上記符号化されたタグテキストファイルから再生の開始点および終了点がどこ
であるかに関するデータを取得する手段を含むサウンドファイル再生手段とを含
む。
In yet another aspect of the invention, a computer program is provided that incorporates the playback of a sound file by means of an encoded tag text file associated with the sound file. The program includes: a) an instruction corresponding to an instruction in the encoded tag text file that triggers the reproduction of the sound file; and b) the position data of the sound file from the encoded tag text file. Sound file extracting means including means for acquiring, c
) Sound file playback means including means for obtaining data regarding where the playback start and end points are from the encoded tag text file.

【0010】 本発明のさらに別の局面において、コンピュータプログラムに関連付けられた
ユーザ独自のサウンド再生の方法を提供する。上記方法は、a)上記プログラム
中に含まれ、ユーザによって選択されたサウンドファイルに関連付けられる1つ
以上のイベントのリストを生成する工程と、b)上記ユーザによって選択される
各サウンドファイルに関して、上記サウンドファイルに関連付けられた符号化さ
れたタグテキストファイルを生成するようにユーザを促す工程であって、上記符
号化されたタグテキストファイルは、上記サウンドファイルの位置を符号化する
第1のデータと、上記サウンドファイルの継続期間を符号化する第2のデータと
、上記サウンドファイルの再生をトリガする命令を符号化する第3のデータと、
上記サウンドファイルに関する情報を符号化する第4のデータとを含む、工程と
、c)上記生成された符号化されたタグテキストファイルを用いて上記サウンド
ファイルを再生する工程とを含む。
In yet another aspect of the present invention, there is provided a method of user-specific sound reproduction associated with a computer program. The method comprises: a) generating a list of one or more events included in the program and associated with a sound file selected by the user; and b) with respect to each sound file selected by the user, A step of prompting a user to generate an encoded tag text file associated with a sound file, the encoded tag text file including first data encoding a location of the sound file. Second data encoding the duration of the sound file, and third data encoding an instruction to trigger the reproduction of the sound file,
Including the fourth data encoding information about the sound file, and c) playing the sound file using the generated encoded tag text file.

【0011】 (発明の詳細な説明) (定義) 本明細書で用いる「音楽エンジン」は、ビデオゲームまたはコンピュータゲー
ムなどの媒体プログラムと、パーソナルコンピュータまたはビデオゲームコンソ
ールなどの媒体プログラムのオペレーティングプラットフォームとの間の中間音
声コントローラとして機能するデバイスを指す。音楽エンジンはソフトウェアプ
ログラムであることが最も多い。
DETAILED DESCRIPTION OF THE INVENTION Definitions “Music engine” as used herein refers to a media program, such as a video game or computer game, and an operating platform for the media program, such as a personal computer or video game console. A device that functions as an intermediate voice controller between. Music engines are most often software programs.

【0012】 本明細書において用いる「インターフェース」は、外部と相互通信する音楽エ
ンジンの一部を指す。音楽エンジンは、ビデオゲームまたはコンピュータゲーム
などの媒体プログラム、1セットのサウンドファイル、およびゲームプレーヤー
と相互通信するインターフェースを有する。
As used herein, “interface” refers to the part of the music engine that interacts with the outside world. A music engine has a media program, such as a video game or computer game, a set of sound files, and an interface that interacts with a game player.

【0013】 本明細書で用いる「ユーザ独自の」は、ビデオゲームまたはコンピュータゲー
ムなどの媒体プログラムの、ユーザ(例えば、ビデオゲームまたはコンピュータ
ゲームのプレイヤー)が個人の選好に合うようにそのプログラムの局面を変更す
ることを可能にする能力を指す。ユーザ独自のプログラムの特定の局面は、プロ
グラムに関連付けられた音楽およびサウンドである。
As used herein, “user-specific” refers to aspects of a media program, such as a video game or computer game, that program (eg, a player of the video game or computer game) may personalize to suit its personal preferences. Refers to the ability to change. A particular aspect of a user's own program is the music and sounds associated with the program.

【0014】 本明細書で用いる「信号」は、デバイスの別の一部によって送信される電子メ
ッセージを指す。デバイスのこの部分は、デバイスの別の部分によって認識され
、そして応答される。
As used herein, “signal” refers to an electronic message sent by another part of a device. This part of the device is recognized and responded to by another part of the device.

【0015】 本明細書で用いる「サウンドファイル」は、読み出し、そして所定の種類のサ
ウンドとして再生されることが可能な、電子的に格納されたデータファイルを指
す。典型的なサウンドファイルはサンプルまたは歌を符号化する。本明細書にお
いて用いる「歌」は、1曲の音楽を指す。本明細書で用いる「サンプル」は歌の
一部を指す。
As used herein, “sound file” refers to an electronically stored data file that can be read and played as a sound of a given type. A typical sound file encodes a sample or song. As used herein, "song" refers to a piece of music. As used herein, "sample" refers to a portion of a song.

【0016】 本明細書で用いる「符号化されたタグ」は、サウンドファイルの一部であり得
るか、またはサウンドファイルに関連付けられ得るが、サウンドとしては再生さ
れない電子的に格納された1個のデータを指す。代わりに、タグは、タグに関連
付けられたサウンドファイルがいつ、そして、いかに再生されるかを音楽エンジ
ンが決定することを支援する、サウンドファイルの1つ以上の特徴(例えば、そ
のタイトル、関数、継続期間およびコンポーネントなど)を識別する。符号化さ
れたタグは、他の符号化されたタグに対するタグの関係、または符号化されたタ
グを用いてサウンドファイル(単数または複数)を取り出すプログラムに対する
タグの関係に関する情報も含み得る。
As used herein, an “encoded tag” may be part of a sound file, or may be associated with a sound file, but which is a single electronically stored record that is not played as a sound. Refers to data. Instead, a tag is one or more characteristics of a sound file (eg, its title, function, etc.) that help the music engine determine when and how the sound file associated with the tag is played. Identifying the duration and components). The encoded tag may also include information regarding the relationship of the tag to other encoded tags, or to the program that retrieves the sound file (s) using the encoded tag.

【0017】 本明細書において用いる「ストリーミング」は、サウンドファイルの再生モー
ドを指す。サウンドファイルは、2つ以上のセクションにおいてメモリエリア内
にロードされ、それぞれの続くセクションは、前のセクションが再生を終了する
前にバッファにロードされる。ストリーミングの再生を、ローカル(例えば、同
じデバイス上)または遠隔(例えば、ネットワークまたはインターネット上)の
サウンドファイルで用い得る。例えば、サウンドファイルを、ハードドライブか
ら直接「ストリーミング」してもよいし、またはインターネット上のサーバから
ストリーミングしてもよい。
As used herein, “streaming” refers to the playback mode of a sound file. The sound file is loaded into the memory area in more than one section, each subsequent section being loaded into the buffer before the previous section finishes playing. Streaming playback may be used with local (eg, on the same device) or remote (eg, network or Internet) sound file. For example, the sound file may be "streamed" directly from the hard drive, or it may be streamed from a server on the Internet.

【0018】 ある種類のインターネットまたはネットワークベースのストリーミングにおい
て、ストリーミング再生を用いて、インターネットまたはネットワーク上の基本
的に「無線局」である「ストリーミング音声」にアクセスする。すなわち、一連
の2つ以上の歌は、1つのサイトまたは「チャンネル」から連続的に「ストリー
ミング」される。しばしば、エアウェーブベースの無線局と同様、1つのチャン
ネル上の歌は、ジャズ、ライトロック(lite rock)またはクラシック
音楽などに何らかの点で関連する。
In some types of internet or network based streaming, streaming playback is used to access “streaming voice”, which is essentially a “wireless station” on the internet or network. That is, a series of two or more songs are continuously "streamed" from one site or "channel." Often, as with airwave-based radio stations, songs on one channel are somehow associated with jazz, light rock, or classical music.

【0019】 (音楽エンジン) 本発明の音楽エンジンは、ビデオゲームなどの媒体プログラムが、例えば、事
実上任意の種類のサウンドファイルにアクセスし、そして、プログラム中の規定
されたスポットまたは予め取り決められたスポットにサウンドファイルを挿入す
ることを可能にするデバイスである。この様態で、音楽エンジンにより、ユーザ
独自のサウンドまたは音楽を媒体プログラムに組み込むことが可能になる。好適
には、音楽エンジンは、ソフトウェアまたはコンピュータプログラムである。音
楽エンジンソフトウェアは、任意の種類のプログラミング言語で書き込まれ得る
。好適には、音楽エンジンソフトウェアは、多数の他の言語と相互通信すること
が可能なプログラミング言語で書き込まれる。音楽エンジンはサウンドファイル
と相互通信する必要もある。好適には、音楽エンジンのソフトウェアは、MP3
、Liquid Audio、Red Book Audio、Realaud
io、Windows(R)MediaおよびWAVなど、複数のサウンドファ
イルフォーマットと相互通信することが可能であるようにプログラミングされる
Music Engine The music engine of the present invention allows a media program, such as a video game, to access, for example, virtually any type of sound file, and define a defined spot or prearranged point in the program. A device that allows you to insert a sound file into a spot. In this manner, the music engine allows user-specific sounds or music to be incorporated into the media program. Suitably, the music engine is software or a computer program. Music engine software can be written in any type of programming language. Preferably, the music engine software is written in a programming language that can interact with many other languages. The music engine also needs to interact with the sound file. Preferably, the music engine software is MP3
, Liquid Audio, Red Book Audio, Realaud
It is programmed to be able to interact with multiple sound file formats such as io, Windows (R) Media and WAV.

【0020】 本発明の音楽エンジンの好適な使用は、ビデオゲームまたはコンピュータゲー
ムと共に使用することである。この実施形態において、音楽エンジンは、PC、
Macintosh、Sony Playstation 1、Sony Pl
aystation 2、Sega Dreamcast、Nintendo
64、Nintendo Game CubeおよびMicrosoftのX−
Boxなどのゲームのプラットフォームと相互通信するように設計される。ブラ
ウザまたはインターネットと互換性のある音楽エンジン、あるいは1人または複
数のプレイヤーとのオンラインゲームにインターフェースを取り付けられた音楽
エンジンも含まれる。しかし、音楽エンジンは、種々の媒体プログラムと共に用
いられることも意図される。両方の音楽エンジンが公知であるが、まだ用いられ
ていない。本発明を限定せずに、音楽エンジンと相互通信し得る他の所定の媒体
プログラムは、フィルム、ビデオ、DVDおよびCD−ROMである。
The preferred use of the music engine of the present invention is with video games or computer games. In this embodiment, the music engine is a PC,
Macintosh, Sony Playstation 1, Sony Pl
alignment 2, Sega Dreamcast, Nintendo
64, Nintendo Game Cube and Microsoft X-
It is designed to interact with gaming platforms such as Box. Also included are music engines compatible with browsers or the internet, or music engines interfaced to online games with one or more players. However, the music engine is also intended to be used with a variety of media programs. Both music engines are known but not yet used. Without limiting the invention, other predetermined media programs that can interact with the music engine are film, video, DVD and CD-ROM.

【0021】 ビデオゲームなどの媒体プログラムが音楽エンジンを用いると、図1に示すよ
うに、音楽エンジンはまず初期化1の手順を実行する。初期化の手順は、サウン
ドファイルがユーザソース(例えば、コンピュータのハードドライブ)から取り
出されて再生され得るように、例えば、DirectSoundなどのサウンド
再生システムおよび複数のバッファを設定する。初期化の手順はさらに、中央の
位置からすべての必要なユーザ定義のスキーム情報を取得する。このスキーム情
報は、送信されるイベント、これらのイベントに関連付けられたサウンドファイ
ル、およびサウンドトラックモードでこれに関連付けられたサウンドファイルを
含む。初期化はさらに、サウンドファイルが再生された場合に、バッファにサー
ビスを提供するワーカースレッド(worker thread)を開始する。
When a media program such as a video game uses a music engine, the music engine first executes the procedure of initialization 1 as shown in FIG. The initialization procedure sets up a sound playback system and multiple buffers, such as DirectSound, so that the sound file can be retrieved from a user source (eg, a computer hard drive) and played. The initialization procedure also gets all necessary user-defined scheme information from the central location. This scheme information includes the events that are sent, the sound files associated with these events, and the sound files associated with it in the soundtrack mode. Initialization also starts a worker thread that services the buffer when the sound file is played.

【0022】 次いで、音楽エンジンは、取得したスキーム情報から、音楽エンジンがイベン
トまたはサウンドトラックモードのいずれで再生するかを決定する(2)。イベ
ントモードにおいて、エンジンは媒体プログラムからイベント番号を取得して(
3)、適切なイベントのサウンドファイルを取り出し、このファイルを再生する
。エンジンは続けて、続くイベント信号を受信して(4)これを再生し、送信さ
れたイベントがなくなり、そして破壊信号(destroy signal)が
受信される(6)までこれを継続する。破壊コマンドはサウンド再生システムを
シャットダウンして、ファイルを再生するために用いられるバッファをクリアす
る。音楽の再生またはサウンドファイルの格納に割り当てられたあらゆるメモリ
が破壊される。ワーカースレッドも、これがもはや必要でないため停止される。
The music engine then determines from the acquired scheme information whether the music engine plays in event or soundtrack mode (2). In event mode, the engine gets the event number from the media program (
3) Take out the sound file of the appropriate event and play this file. The engine continues to receive (4) subsequent event signals and replay them, continuing until no events have been sent and a destroy signal is received (6). The destroy command shuts down the sound playback system and clears the buffer used to play the file. Any memory allocated to play music or store sound files is destroyed. The worker thread is also stopped as it is no longer needed.

【0023】 サウンドトラックモード(5)において、媒体プログラム用のサウンドトラッ
クを含む「歌」を含むサウンドファイルは、エンジンによって取り出され、破壊
コマンド(6)が受信されるまで再生される。
In soundtrack mode (5), the sound file containing the “song” containing the soundtrack for the media program is retrieved by the engine and played until a destroy command (6) is received.

【0024】 音楽エンジンは以下の方法も用いる。[0024]   The music engine also uses the following method.

【0025】 DisplayPreferences():この方法は、特定のイベントお
よびサウンドトラックに関連付けられたサウンドファイルを変更するために用い
られるウィンドウダイアログを生成する。この方法は、呼び出された場合、中央
の位置に格納された情報すべてを取得する。ユーザがダイアログ中の「OK」を
選択することによって選好を確証すると、DisplayPreference
s()は変更した情報を採用し、これを中央の位置で格納する。
DisplayPreferences (): This method creates a window dialog that is used to modify the sound file associated with a particular event and soundtrack. This method, when called, retrieves all the information stored in the central location. If the user confirms the preference by selecting "OK" in the dialog, the DisplayPreference
s () adopts the changed information and stores it at the central position.

【0026】 GetEventCount():初期化の間、ゲーム用に登録されたイベン
トの総数が格納される。GetEventCount()は単に、用いられるイ
ベント数を返す。
GetEventCount (): Stores the total number of events registered for the game during initialization. GetEventCount () simply returns the number of events used.

【0027】 GetEventName():初期化の間、各イベントはそのイベントに関
連付けられた番号および名前が付与される。この方法は単に、任意の所与のイベ
ント番号にイベント名を返す。
GetEventName (): During initialization, each event is given the number and name associated with it. This method simply returns the event name for any given event number.

【0028】 PlayEvent():この方法は、再生されるイベント番号を採用し、上
述の工程3に示すように、この番号を用いてこのイベントに関連付けられたサウ
ンドファイルを探し出す。ファイルおよびファイル名が探し出されると、音楽エ
ンジンにより、サウンドファイルが再生する。
PlayEvent (): The method takes the event number that is played and uses this number to locate the sound file associated with this event, as shown in step 3 above. When the file and filename are located, the music engine plays the sound file.

【0029】 PlayFile():この方法はファイル名を採用し、ファイルを探し出し
、そしてサウンドファイルを再生する。この方法は、イベント番号ではなくファ
イル名を採用することを除けばPlayEvent()と同じである。
PlayFile (): This method takes a file name, locates the file, and plays the sound file. This method is the same as PlayEvent () except that it uses a file name instead of an event number.

【0030】 PlaySoundtrack():この方法は、サウンドトラック内の第1
のファイルを開き、サウンドファイルを再生する。第1のファイルの再生が終了
すると、サウンドトラックリスト内の次のファイルが開かれて再生される。エン
ジンは、図2に示すようなプロトコルに従う。
PlaySoundtrack (): This method is the first in the soundtrack.
Open the file and play the sound file. When the playback of the first file ends, the next file in the soundtrack list is opened and played. The engine follows a protocol as shown in FIG.

【0031】 Stop():この方法は、開いているサウンドファイルを終了し、Dire
ctSoundにファイルの再生を停止するように伝える。
Stop (): This method terminates the open sound file and
Tell ctSound to stop playing the file.

【0032】 本発明の音楽エンジンは、サウンドファイルを再生する。サウンドファイルは
種々の様態で再生され得る。サンプル(通常、サウンドまたは音楽のより短い断
片、あるいは歌)は、初めから終わりまで1度再生され得るか、または「ループ
」され得る(中断されることなく、繰返し何度も再生される)。歌(より長い音
楽)も1度再生され得るか、または「ループ」され得る。歌またはサンプルはさ
らに、最初以外の点から開始して再生され得、そして、全サウンドファイルより
短い部分を繰り返すようにループされ得る。このような技術は符号化されたタグ
を用いることによって達成され得る。
The music engine of the present invention plays a sound file. Sound files can be played in various ways. A sample (usually a shorter piece of sound or music, or song) may be played once from beginning to end, or may be "looped" (played repeatedly, without interruption). Songs (longer music) may also be played once or “looped”. The song or sample may also be played starting from a point other than the beginning and then looped to repeat a portion shorter than the entire sound file. Such techniques can be achieved by using encoded tags.

【0033】 (符号化されたタグ) 符号化されたタグをサウンドファイル内で用いると、音楽エンジンがサウンド
ファイルのアイデンティティを認識し、媒体プログラムから発行された、対応す
るサウンドファイルの再生コマンドとこれを照合することが支援される。タグは
再生の初めおよび終わりを識別し得、そして、「ループ」の再生が、ある場合に
は、開始および終了する位置を識別し得る。タグはさらに、サウンドファイルに
関連付けられた以下の情報を指定し得る。以下の情報とは、1)ゲームのタイト
ル、2)プラットフォームおよび3)媒体プログラム中のファイルを再生する位
置である。
(Encoded Tag) When the encoded tag is used in the sound file, the music engine recognizes the identity of the sound file, and the corresponding sound file playback command and the corresponding command issued by the media program are generated. Is helped. The tag may identify the beginning and end of the playback, and where the "loop" playback, in some cases, begins and ends. The tag may further specify the following information associated with the sound file. The following information is 1) the title of the game, 2) the platform and 3) the position in the media program where the file is played.

【0034】 基本的に、符号化されたタグはデータを含むテキストファイルである。テキス
トファイル内のデータは、1つ以上の以下を含み得る。これらは、位置データ、
継続期間データ、再生トリガデータおよびサウンドファイルデータである。好適
には、符号化されたタグは、少なくとも位置データおよび再生トリガデータを含
む。
Basically, the encoded tags are text files containing data. The data in the text file may include one or more of the following. These are location data,
These are duration data, playback trigger data, and sound file data. Preferably the encoded tag comprises at least position data and playback trigger data.

【0035】 位置データは、関連付けられたサウンドファイルが存在する位置に関するデー
タを含む。例えば、位置データは、ファイルが存在するローカルまたはネットワ
ークコンピュータ上にメモリアドレス、あるいは、ファイルが存在するインター
ネットウェブサイト上の位置を含み得る。さらに、位置データは、必要に応じて
、URLまたはハイパーリンクを含み得る。URLまたはハイパーリンクは、ユ
ーザがサウンドファイル内に記載されたコンテンツを自動的に購入するか、また
はこれにアクセスし得る電子商取引のサイトにユーザを向ける。他の関連題材へ
のハイパーリンクも含まれ得る。位置データは、時間応答的URLまたはハイパ
ーリンクも含み得る。時間応答的URLまたはハイパーリンクは、ライブコンサ
ートまたはウェブキャスト(webcast)などの、時間が制限されたイベン
トにユーザを向ける「入場券」として機能し得る。
Location data includes data regarding the location of the associated sound file. For example, location data may include a memory address on a local or network computer where the file resides, or a location on an internet website where the file resides. Further, the location data may include URLs or hyperlinks, if desired. The URL or hyperlink directs the user to an electronic commerce site where the user may automatically purchase or access the content described in the sound file. Hyperlinks to other related material may also be included. Location data may also include time-responsive URLs or hyperlinks. The time-responsive URL or hyperlink may serve as an "admission ticket" that directs the user to a time-limited event, such as a live concert or webcast.

【0036】 継続期間データは、サウンドファイル内のどこで再生が開始および終了し、そ
してどのぐらい再生が続くかに関するデータを含む。したがって、継続期間デー
タは、開始時間(サウンドファイル内の再生が開始する点)、終了時間(サウン
ドファイル内の再生が終了する点)、継続期間(開始時間から終了時間までの距
離)およびループ情報(サウンドファイルの一部が一度再生されるか、またはル
ープの様態で繰返し再生されるか)を含み得る。
Duration data includes data about where in the sound file playback begins and ends and how long it lasts. Therefore, the duration data is the start time (the point where the playback in the sound file starts), the end time (the point where the playback in the sound file ends), the duration (the distance from the start time to the end time) and the loop information. (A part of the sound file is played once or repeatedly played in a loop).

【0037】 再生トリガデータは、どの種類のプログラムイベントが関連付けられたサウン
ドファイルの再生をトリガするかを決定するデータを含む。例えば、再生トリガ
データは、特定のプログラムイベントの名前(例えば、「導入」)を含み得るか
、ビデオゲームのプログラムの場合には、特定のビデオゲームイベントの名前(
例えば、「monster attack」または「health low」)
を含み得る。再生トリガデータはさらに、ゲームの世界の位置に基づき得る。例
えば、データは、市場、クラブ、またはプレイヤーのホームベース(homeb
ase)など、ゲーム世界における特定の「バーチャル」の位置を指し得る。こ
の実施形態において、再生トリガデータは、バーチャルプレイヤーが特定のバー
チャルの位置に到達した場合に、特定のサウンドファイルをトリガする。
Play trigger data includes data that determines which type of program event triggers the play of the associated sound file. For example, the playback trigger data may include the name of a particular program event (eg, "introduction") or, in the case of a video game program, the name of a particular video game event (
For example, "monster attack" or "health low")
Can be included. The replay trigger data may also be based on the world position of the game. For example, the data may be a market, club, or home base of a player.
as)), etc., and may refer to a particular “virtual” position in the game world. In this embodiment, the playback trigger data triggers a particular sound file when the virtual player reaches a particular virtual position.

【0038】 サウンドファイルデータはサウンドファイルに関するデータを含む。例えば、
サウンドファイルデータは、ファイルの種類(例えば、歌、ループ、サウンド)
、ファイルプログラムの種類(例えば、mp3、wavなど)、ファイル名(例
えば、歌の題名および作者/演奏者のデータ)を含み得る。
The sound file data includes data related to the sound file. For example,
Sound file data is the type of file (eg song, loop, sound)
, File program type (eg mp3, wav, etc.), file name (eg song title and author / performer data).

【0039】 必要に応じて、符号化されたタグは効果処理データも含み得る。効果処理デー
タは、第2のファイルによって符号化されたサウンドを処理するための1つ以上
の命令を含む。サウンド処理命令は、例えば、サウンドエンベロープ(均一化す
なわちEQ)を改変する命令、当該技術において周知の残響音(残響)およびト
レモロなどの効果を追加する命令を含む。例えば、効果処理データは、音楽エン
ジンに、さらなる「ホールの残響」および「ジャズのようなEQ」でサウンドフ
ァイルを再生するように命令し得る。このような処理を、注文製造されたかまた
は市販されている「効果プラグイン」を呼び出すことによって達成し得る。
If desired, the encoded tag may also include effects processing data. The effect processing data includes one or more instructions for processing the sound encoded by the second file. Sound processing instructions include, for example, instructions that modify the sound envelope (homogenization or EQ), and instructions that add effects well known in the art, such as reverberation and tremolo. For example, the effects processing data may instruct the music engine to play the sound file with additional "hall reverberation" and "jazz-like EQ." Such processing may be accomplished by invoking custom-made or commercially available "effect plug-ins."

【0040】 タグシステムを用いると、音楽エンジンは、ファイル内の所与の点を見つける
だけでよく、ファイルが終わるまでファイルを再生する代わりに、タグが指定す
る継続期間、ファイルを再生する。1つのサウンドファイルは、再生するために
、種々の「開始」点および「終了」点として異なるセクションにおいて「タグ付
け」され得る。さらに、2つ以上の符号化されたタグの群は、符号化されたタグ
リスト(必要に応じて、符号化されたタグに関連付けられたサウンドファイルを
含む)になるように組み立てられ得る。したがって、符号化されたタグリストは
、ゲームプログラム用の1セットの命令として機能し、音楽エンジンは、ユーザ
独自のサウンドファイルの再生を特定のゲームイベントまたは位置に方向付ける
With the tag system, the music engine need only find a given point in the file and instead of playing the file until the end of the file, it plays the file for the duration specified by the tag. A sound file may be "tagged" in different sections as various "start" and "end" points for playback. In addition, a group of two or more encoded tags may be assembled into an encoded tag list, optionally including sound files associated with the encoded tags. Thus, the encoded tag list acts as a set of instructions for the game program and the music engine directs the playback of the user's own sound file to a particular game event or location.

【0041】 (符号化されたタグ生成器) ユーザは、符号化されたタグを生成することを支援するコンピュータプログラ
ムも用い得る。このコンピュータプログラム、「符号化されたタグ生成器」は、
最初のコンピュータプログラムを採用し、ユーザによって選択されたサウンドフ
ァイルに関連付けられる、プログラム内に含まれる1つ以上のイベントのリスト
を生成する。次いで、それぞれのこのように生成されたイベントに関して、符号
化されたタグ生成器は、イベントに関連付けられるサウンドファイルを識別する
ようにユーザを促す。次いで、生成器は、各イベントに対して1つ以上の符号化
されたタグを生成する。タグは、位置データ、継続期間データ、再生トリガデー
タおよびサウンドファイルデータを含む。次いで、最初のコンピュータプログラ
ムがここで、再生の間にユーザが選択したサウンドファイルを用いて実行するよ
うに、生成器は生成された符号化されたタグを提供する。
Encoded Tag Generator The user may also use a computer program that assists in producing encoded tags. This computer program, "Encoded Tag Generator",
The first computer program is employed to generate a list of one or more events contained within the program that are associated with the sound file selected by the user. Then, for each such generated event, the encoded tag generator prompts the user to identify the sound file associated with the event. The generator then generates one or more encoded tags for each event. The tag includes position data, duration data, playback trigger data and sound file data. The generator then provides the generated encoded tags for execution by the first computer program, now with the user-selected sound file during playback.

【0042】 広範囲の最初のコンピュータプログラムを用いて符号化されたタグ生成器を用
い得る。このようなプログラムは、ビデオゲーム、フィルム、TVまたはラジオ
などの放送されるコンテンツ、DVD、ビデオ、VCD、CD−ROM、または
最後の媒体製品の位置を合わせるか組み立てる任意のプログラムを含む。複数の
コンテンツのエレメント(サウンド、画像、テキストなど)は、完全、かつ、一
貫した統一体として再生する編集命令によって構成される。
A wide variety of original computer programs can be used to encode the tag generator. Such programs include video games, film, broadcast content such as TV or radio, DVDs, videos, VCDs, CD-ROMs, or any program that aligns or assembles the final media product. Elements of multiple content (sounds, images, text, etc.) are composed of editing instructions that play as a complete and consistent whole.

【図面の簡単な説明】[Brief description of drawings]

【図1】 図1は、音楽エンジンを実行するパスを説明するフローチャートである。[Figure 1]   FIG. 1 is a flowchart illustrating a path for executing a music engine.

【図2】 図2は、サウンドトラックまたはイベントのサウンドファイルを再生するプロ
セスを説明するフローチャートである。
FIG. 2 is a flowchart illustrating a process of playing a soundtrack or a sound file of an event.

【図3】 図3は、音楽エンジンがいかに実施されるかを説明するクラスの図である。[Figure 3]   FIG. 3 is a class diagram illustrating how a music engine is implemented.

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE,TR),CA,J P,KR,US (72)発明者 ドー, ブレット ティー. アメリカ合衆国 ノースカロライナ 27513, キャリー, ハイド パーク コート 103−ワイ Fターム(参考) 2C001 BA07 BB08 BC09 CB01 CB08 CC08 5D044 AB05 BC08 CC09 DE49 FG18 FG21 FG23 GK08 GK12 HL12─────────────────────────────────────────────────── ─── Continued front page    (81) Designated countries EP (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, I T, LU, MC, NL, PT, SE, TR), CA, J P, KR, US (72) Inventor Daw, Bullet Tea.             United States North Carolina             27513, Carry, Hyde Park             Court 103-Y F term (reference) 2C001 BA07 BB08 BC09 CB01 CB08                       CC08                 5D044 AB05 BC08 CC09 DE49 FG18                       FG21 FG23 GK08 GK12 HL12

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 再生されるサウンドファイルを識別する符号化されたタグテ
キストファイルであって、 a)該サウンドファイルの位置を符号化する第1のデータと、 b)該第2のファイルの再生をトリガする該命令を符号化する第2のデータと
を含む、符号化されたタグテキストファイル。
1. A coded tag text file for identifying a sound file to be played back, comprising: a) first data encoding a position of the sound file; and b) playback of the second file. And a second data encoding the instruction that triggers.
【請求項2】 c)前記サウンドファイルの継続期間を符号化する第3のデ
ータをさらに含む、請求項1に記載の符号化されたタグテキストファイル。
2. The encoded tag text file of claim 1, further comprising c) third data encoding a duration of the sound file.
【請求項3】 d)前記サウンドファイルに関する情報を符号化する第4の
データをさらに含む、請求項2に記載の符号化されたタグテキストファイル。
3. The encoded tag text file of claim 2, further comprising: d) fourth data encoding information about the sound file.
【請求項4】 前記第3のデータは前記サウンドファイル内に存在する開始
時間および終了時間を含む、請求項2に記載の符号化されたタグテキストファイ
ル。
4. The encoded tag text file of claim 2, wherein the third data includes a start time and an end time that are present in the sound file.
【請求項5】 前記第2のデータはイベントである、請求項1に記載の符号
化されたタグテキストファイル。
5. The encoded tag text file of claim 1, wherein the second data is an event.
【請求項6】 前記第4のデータは、ファイルの種類、ファイル名およびフ
ァイルの作者からなる群から選択された1つ以上のデータを含む、請求項3に記
載の符号化されたタグテキストファイル。
6. The encoded tag text file of claim 3, wherein the fourth data includes one or more data selected from the group consisting of file type, file name and file author. .
【請求項7】 a)歌またはサンプルを符号化するデータと、 b)該データに関連付けられた請求項1に記載の前記符号化されたタグテキス
トファイルと を含む、サウンドファイル。
7. A sound file comprising: a) data encoding a song or sample; and b) the encoded tag text file of claim 1 associated with the data.
【請求項8】 サウンドファイルの再生を、該サウンドファイルに関連付け
られた符号化されたタグテキストファイルによって組み込むコンピュータプログ
ラムであって、 a)該サウンドファイルの再生をトリガする、該符号化されたタグテキストフ
ァイル内の命令に対応する命令と、 b)該符号化されたタグテキストファイルから該サウンドファイルの位置デー
タを取得する手段を含むサウンドファイル取り出し手段と、 c)該符号化されたタグテキストファイルから再生の開始点および終了点がど
こであるかに関するデータを取得する手段を含むサウンドファイル再生手段と を含む、コンピュータプログラム。
8. A computer program that incorporates the reproduction of a sound file by means of an encoded tag text file associated with the sound file, wherein: a) the encoded tag which triggers the reproduction of the sound file. Instructions corresponding to the instructions in the text file; b) sound file retrieval means including means for obtaining position data of the sound file from the encoded tag text file; and c) the encoded tag text file. And a sound file playing means including means for obtaining data as to where the start and end points of playback are.
【請求項9】 コンピュータプログラムに関連付けられたユーザ独自のサウ
ンド再生の方法であって、 a)該プログラム中に含まれ、ユーザによって選択されたサウンドファイルに
関連付けられる1つ以上のイベントのリストを生成する工程と、 b)該ユーザによって選択される各サウンドファイルに関して、該サウンドフ
ァイルに関連付けられた符号化されたタグテキストファイルを生成するようにユ
ーザを促す工程であって、該符号化されたタグテキストファイルは、該サウンド
ファイルの位置を符号化する第1のデータ、該サウンドファイルの再生をトリガ
する命令を符号化する第2のデータ、該サウンドファイルの継続期間を符号化す
る第3のデータ、および該サウンドファイルに関する情報を符号化する第4のデ
ータを含む、工程と、 c)該生成された符号化されたタグテキストファイルを用いて該サウンドファ
イルを再生する工程と を包含する、方法。
9. A method of user-specific sound reproduction associated with a computer program, comprising: a) generating a list of one or more events contained in the program and associated with a sound file selected by the user. B) for each sound file selected by the user, prompting the user to generate an encoded tag text file associated with the sound file, the encoded tag being The text file is a first data encoding a position of the sound file, a second data encoding a command for triggering the reproduction of the sound file, and a third data encoding a duration of the sound file. And fourth data encoding information about the sound file. , C) using said generated coded tag text file comprises the step of reproducing the sound file, the method.
【請求項10】 工程b)において、前記第3のデータは、リアルタイムで
前記サウンドファイルを再生して、該終了点をリアルタイムで送信することによ
って再生の開始点および終了点を指定するように前記ユーザに促すことによって
生成される、請求項9に記載の方法。
10. In step b), the third data is used to specify a start point and an end point of reproduction by reproducing the sound file in real time and transmitting the end point in real time. The method of claim 9, generated by prompting a user.
【請求項11】 前記送信はキーボードのキーを押すことによって達成され
る、請求項10に記載の方法。
11. The method of claim 10, wherein the sending is accomplished by pressing a key on the keyboard.
【請求項12】 ユーザ独自のサウンドをビデオゲームに組み込む方法であ
って、 a)音楽エンジン、および該音楽エンジンと該ビデオゲームとの間にインター
フェースを提供する工程であって、該音楽エンジンは、複数のサウンドファイル
を該ビデオゲームに提供することが可能であり、さらに、該インターフェースは
、該音楽エンジンからサウンドファイルを取得し、そして該ビデオゲームに再生
する該サウンドファイルを提示することが可能である、工程と、 b)該ビデオゲームから第1の信号を該インターフェースに送信して、該音楽
エンジンから第1のサウンドファイルを再生し、これにより、該音楽エンジンが
再生する該第1のサウンドファイルを該ビデオゲームに送信する工程と を包含する、方法。
12. A method of incorporating user-specific sound into a video game, comprising the steps of: a) providing a music engine and an interface between the music engine and the video game, the music engine comprising: Multiple sound files can be provided to the video game, and further, the interface can obtain the sound file from the music engine and present the sound file for playback to the video game. A. B) sending a first signal from the video game to the interface to play a first sound file from the music engine, thereby causing the first sound to be played by the music engine. Sending a file to the video game.
【請求項13】 c)前記ビデオゲームから第2の信号を前記インターフェ
ースに送信して、該音楽エンジンから第2のサウンドファイルを再生し、これに
より、該音楽エンジンが再生する該第2のサウンドファイルを該ビデオゲームに
送信する工程をさらに包含する、請求項12に記載の方法。
13. c) Sending a second signal from the video game to the interface to play a second sound file from the music engine, thereby causing the second sound to be played by the music engine. 13. The method of claim 12, further comprising sending a file to the video game.
【請求項14】 前記第1のサウンドファイルは、 a)第1の符号化されたタグテキストファイルと、 b)歌またはサンプルと を含む、請求項12に記載の方法。14. The first sound file comprises:   a) a first encoded tag text file,   b) with a song or sample 13. The method of claim 12, comprising: 【請求項15】 工程b)において、前記ビデオゲームの再生は音声をスト
リーミングすることによって達成される、請求項12に記載の方法。
15. The method of claim 12, wherein in step b) playing of the video game is accomplished by streaming audio.
【請求項16】 ユーザ独自のサウンドを組み込むことが可能なビデオゲー
ム装置であって、 a)複数のサウンドファイルにアクセスすることが可能な音楽エンジン手段と
、 b)該音楽エンジンからサウンドファイルを取得し、再生する該サウンドファ
イルを提示することが可能なインターフェース手段と、 c)信号を該インターフェースに送信して、該音楽エンジンからサウンドファ
イルを再生するトリガ手段と、 d)サウンドファイルを再生する再生手段と を含む、ビデオゲーム装置。
16. A video game device capable of incorporating a user's own sound, comprising: a) music engine means capable of accessing a plurality of sound files; and b) obtaining a sound file from the music engine. Interface means capable of presenting the sound file to be played, c) trigger means for sending a signal to the interface to play the sound file from the music engine, and d) playing to play the sound file. A video game device including means.
【請求項17】 複数のサウンドファイルをさらに含む、請求項16に記載
の装置。
17. The device of claim 16, further comprising a plurality of sound files.
【請求項18】 前記再生手段は、音声をストリーミングすることによって
サウンドファイルを再生することが可能である、請求項16に記載の装置。
18. The apparatus according to claim 16, wherein said reproducing means is capable of reproducing a sound file by streaming audio.
【請求項19】 前記再生手段は、インターネットから音声をストリーミン
グすることによってサウンドファイルを再生することが可能である、請求項18
に記載の装置。
19. The reproducing means is capable of reproducing a sound file by streaming audio from the Internet.
The device according to.
【請求項20】 前記再生手段は、ループの様態でサウンドファイルを再生
することが可能である、請求項16に記載の装置。
20. The apparatus according to claim 16, wherein the reproducing means is capable of reproducing a sound file in a loop manner.
JP2001579921A 2000-05-02 2001-05-02 Embed your own audio into video games in real time Withdrawn JP2003531703A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US20116300P 2000-05-02 2000-05-02
US60/201,163 2000-05-02
US25276000P 2000-11-22 2000-11-22
US60/252,760 2000-11-22
PCT/US2001/014106 WO2001083055A2 (en) 2000-05-02 2001-05-02 Real time audio in video game

Publications (1)

Publication Number Publication Date
JP2003531703A true JP2003531703A (en) 2003-10-28

Family

ID=26896460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001579921A Withdrawn JP2003531703A (en) 2000-05-02 2001-05-02 Embed your own audio into video games in real time

Country Status (3)

Country Link
EP (1) EP1287442A4 (en)
JP (1) JP2003531703A (en)
WO (1) WO2001083055A2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7218739B2 (en) 2001-03-09 2007-05-15 Microsoft Corporation Multiple user authentication for online console-based gaming
US20020128067A1 (en) 2001-03-09 2002-09-12 Victor Keith Blanco Method and apparatus for creating and playing soundtracks in a gaming system
US7794325B2 (en) 2005-11-17 2010-09-14 Microsoft Corporation Dynamic in-game soundtrack for a console game machine
CN111198682B (en) * 2018-11-19 2023-06-09 上海宜奇信息科技有限公司 Video game application software development engine and implementation method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6096962A (en) * 1995-02-13 2000-08-01 Crowley; Ronald P. Method and apparatus for generating a musical score
US6021491A (en) * 1996-11-27 2000-02-01 Sun Microsystems, Inc. Digital signatures for data streams and data archives
US6248946B1 (en) * 2000-03-01 2001-06-19 Ijockey, Inc. Multimedia content delivery system and method

Also Published As

Publication number Publication date
WO2001083055A2 (en) 2001-11-08
WO2001083055A3 (en) 2002-02-21
EP1287442A4 (en) 2005-01-26
EP1287442A2 (en) 2003-03-05

Similar Documents

Publication Publication Date Title
US20030227473A1 (en) Real time incorporation of personalized audio into video game
US9545578B2 (en) Jukebox entertainment system having multiple choice games relating to music
US8173883B2 (en) Personalized music remixing
US5987525A (en) Network delivery of interactive entertainment synchronized to playback of audio recordings
JP5259083B2 (en) Mashup data distribution method, mashup method, mashup data server device, and mashup device
US20030046283A1 (en) Method and system for finding approximate matches in database
US7228280B1 (en) Finding database match for file based on file characteristics
US20070266843A1 (en) Intelligent audio selector
JP2005309029A (en) Server device and method for providing streaming of musical piece data, and streaming using electronic music device
JP4860513B2 (en) Music video playback device that specifies the music for viewing the continuation of the video work
US20070011279A1 (en) System and method for providing and displaying multimedia content in correlation with music files in an audio disc
US5827990A (en) Karaoke apparatus applying effect sound to background video
JP4326669B2 (en) Beat information distribution system
US20080195593A1 (en) Online Media Content Transfer
Diallo Collective participation and audience engagement in rap music
JP2003531703A (en) Embed your own audio into video games in real time
JP5902119B2 (en) Karaoke device, karaoke program, and recording medium
KR20010096297A (en) System of advertisement by union of digital sound and advertisement and thereof method
WO2004015651A1 (en) Training system
JP4365087B2 (en) Method and apparatus for providing content via network, and method and apparatus for acquiring content
JP2004313767A (en) Program, storage medium, and game device
JP2000330576A (en) Method and apparatus for evaluating singing with karaoke sing-along
EP1303817A2 (en) Method and system for finding match in database related to waveforms
JP2005070472A (en) Recorded medium play-back device, database server, recorded medium play-back method, and program
JP2005300739A (en) Device for editing musical performance data

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805