JP4557899B2 - サウンド処理プログラムおよびサウンド処理装置 - Google Patents

サウンド処理プログラムおよびサウンド処理装置 Download PDF

Info

Publication number
JP4557899B2
JP4557899B2 JP2006027482A JP2006027482A JP4557899B2 JP 4557899 B2 JP4557899 B2 JP 4557899B2 JP 2006027482 A JP2006027482 A JP 2006027482A JP 2006027482 A JP2006027482 A JP 2006027482A JP 4557899 B2 JP4557899 B2 JP 4557899B2
Authority
JP
Japan
Prior art keywords
sound
operation input
region
output information
sound output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006027482A
Other languages
English (en)
Other versions
JP2007206556A (ja
Inventor
裕一 尾崎
健誌 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2006027482A priority Critical patent/JP4557899B2/ja
Priority to EP06018669.9A priority patent/EP1816640B1/en
Priority to US11/520,674 priority patent/US7563974B2/en
Publication of JP2007206556A publication Critical patent/JP2007206556A/ja
Application granted granted Critical
Publication of JP4557899B2 publication Critical patent/JP4557899B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/814Musical performances, e.g. by evaluating the player's ability to follow a notation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6081Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8047Music games
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/135Musical aspects of games or videogames; Musical instrument-shaped game input interfaces
    • G10H2220/145Multiplayer musical games, e.g. karaoke-like multiplayer videogames
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/221Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
    • G10H2220/241Keyboards, i.e. configuration of several keys or key-like input devices relative to one another on touchscreens, i.e. keys, frets, strings, tablature or staff displayed on a touchscreen display for note input purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/015PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/075Spint stringed, i.e. mimicking stringed instrument features, electrophonic aspects of acoustic stringed musical instruments without keyboard; MIDI-like control therefor
    • G10H2230/135Spint guitar, i.e. guitar-like instruments in which the sound is not generated by vibrating strings, e.g. guitar-shaped game interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/441Gensound string, i.e. generating the sound of a string instrument, controlling specific features of said sound
    • G10H2250/451Plucked or struck string instrument sound synthesis, controlling specific features of said sound

Description

本発明は、サウンド処理プログラムおよびサウンド処理装置に関し、より特定的には、パーソナルコンピュータやゲーム装置等の装置を利用して模擬的に楽器を演奏する電子楽器を実現するサウンド処理プログラムおよびサウンド処理装置に関する。
従来、パーソナルコンピュータやゲーム装置等を利用して模擬的に楽器を演奏する電子楽器を実現する装置がある。これら装置は、マウス等のポインティングデバイスやコントローラ等の操作手段からの出力に応じて演奏が行われ、何れも本来の楽器の演奏形態とは異なる入力方法を用いてサウンドを出力している。
例えば、表示装置に弦楽器のフィンガーボードを表示して、弦楽器を演奏する奏法の情報を入力する装置がある(例えば、特許文献1参照)。フィンガーボードは、模擬的なギターのフレットと弦とが表示されている。そして、ギター特有の奏法であるチョーキングに関する演奏の情報を入力するとき、マウスを用いてチョーキングしたい弦をチョーキング奏法するように画像上で操作して、当該チョーキング奏法の情報を入力することができるようにしている。ここで、チョーキングとは、ある音から半音〜1音半だけ音程を上げるギターテクニックであり、少なくとも1本の弦を一般的に同じフレット内で押さえたまま上下させる奏法である。また、演奏操作面および演奏操作子を用いて入力を行い、当該入力に応じて演奏情報を生成する電子楽器もある(例えば、特許文献2参照)。
特開平10−282956号公報 特開平4−98297号公報
しかしながら、上記特許文献1で開示された装置は、チョーキング奏法の情報をマウスで入力することに特化しており、実際にマウスを用いてギターの弦を弾くような模擬的な演奏をシミュレートして、ユーザに電子楽器演奏の楽しみを提供するものではない。また上記特許文献2で開示された装置は、ユーザが演奏するために用いる主体は鍵盤であって、演奏操作面および演奏操作子を用いた入力による模擬的な電子楽器演奏の楽しみを演奏者に与えることを意図したものではない。さらに、上記特許文献1および上記特許文献2で開示された装置を組み合わせたものを仮定しても、電子楽器に演奏させるための演奏情報を入力することだけにとどまるものであり、ユーザに対して模擬的な電子楽器演奏の楽しみを提供するものにはならない。
それ故に、本発明の目的は、上述した課題の少なくとも1つを解決するものであり、パーソナルコンピュータやゲーム装置等の表示画面に楽器の一部を模した画像を表示し、ポインティングデバイスやコントローラ等の操作手段を使用してあたかも表示画面に表示されている楽器を演奏しているような操作環境を実現するサウンド処理プログラムおよびサウンド処理装置を提供することである。
上記の目的を達成するために、本発明は以下の構成を採用した。なお、括弧内の参照符号やステップ番号(ステップをSと略称しステップ番号のみを記載する)等は、本発明の理解を助けるために後述する実施形態との対応関係を示したものであって、本発明の範囲を何ら限定するものではない。
第1の発明は、プレイヤの操作に応じた入力装置(14、15)からの操作入力に応じて操作されるサウンド処理装置(1)を音楽演奏装置として機能させるサウンド処理プログラムである。サウンド処理プログラムは、領域設定ステップ(S51)、演奏指標表示制御ステップ(S53)、操作履歴記憶ステップ(S52)、領域検出ステップ(S55、S57〜S60、S62、S76、S80、S82)、サウンド出力情報生成ステップ(S72、S73、S77、S78)、およびサウンド出力制御ステップ(S74、S79)を、サウンド処理装置のコンピュータ(21)に実行させる。領域設定ステップは、表示画面(12)に表示される画像に対して、複数の領域(A)を設定する。演奏指標表示制御ステップは、設定された複数の領域の範囲をそれぞれ示し、メモリ(24)に記憶された演奏指標(ST1〜ST6)を表示画面に表示する。操作履歴記憶ステップは、入力装置からの操作入力の履歴をメモリに記憶する(Da)。領域検出ステップは、操作入力に応じて指定される領域を検出する。サウンド出力情報生成ステップは、操作入力の履歴に基づいて、複数の領域の何れかの領域を指定してから他の領域を指定する操作入力が領域検出ステップで検出されたことに応じて、サウンド出力情報を生成する。サウンド出力制御ステップは、サウンド出力情報に応じて、スピーカ(30a、30b)からサウンドを出力する。
第2の発明は、上記第1の発明において、領域設定ステップでは、並列に隣接させて複数の領域が設定される(図4)。演奏指標表示制御ステップでは、隣接する領域間の境界を示す演奏指標が表示画面に表示される。
第3の発明は、上記第2の発明において、領域設定ステップでは、隣接する領域間の境界付近に所定幅(Dmax)の境界範囲がそれぞれ設定される。領域検出ステップでは、操作入力が境界範囲内または境界範囲外を指定していることがさらに検出される(S76)。サウンド出力情報生成ステップでは、操作入力の履歴に基づいて、複数の領域の何れかの領域を指定してからその領域と隣接する他の領域との境界に設定された境界範囲を越えて他の領域を指定する操作入力が領域検出ステップで検出されたことに応じて(S76でYes)、サウンド出力情報が生成される(S77、S78)。
第4の発明は、上記第2の発明において、サウンド処理プログラムは、操作入力検出ステップ(S54)を、さらにコンピュータに実行させる。操作入力検出ステップは、入力装置からの操作入力の有無を検出する。領域設定ステップでは、隣接する領域間の境界付近に所定幅の境界範囲がそれぞれ設定される。領域検出ステップでは、操作入力が境界範囲内または境界範囲外を指定していることがさらに検出される。サウンド出力情報生成ステップでは、操作入力の履歴に基づいて、複数の領域の何れかの領域を指定してからその領域と隣接する他の領域との境界を越えて他の領域内に設定された境界範囲内を指定する操作入力が領域検出ステップで検出された後、操作入力検出ステップでその操作入力が無くなったことが検出されたことに応じて(S71でYes)、サウンド出力情報が生成される(S72、S73)。
第5の発明は、上記第3または第4の発明において、演奏指標表示制御ステップでは、操作入力に応じて、演奏指標を境界範囲内で変形させて表示画面に表示される。
第6の発明は、上記第1の発明において、サウンド出力情報生成ステップでは、複数の領域の何れかの領域が指定されてから他の領域が指定されたとき、それら領域の組み合わせに応じて再生するサウンドの音程が決定される。
第7の発明は、上記第2の発明において、サウンド出力情報生成ステップでは、複数の領域の何れかの領域が指定されてから他の領域が指定されたとき、それら領域の境界に表示されている演奏指標の種別に応じて再生するサウンドの音程が決定される。
第8の発明は、上記第1の発明において、入力装置は、プレイヤの操作に応じて表示画面の座標系に基づいた入力座標を操作入力として出力するポインティングデバイス(15)を含む。領域設定ステップでは、並列に隣接させて複数の領域が設定される。演奏指標は、楽器の一部を模した画像(弦画像)であり、隣接する領域間の境界上にそれぞれ配置される。操作履歴記憶ステップでは、ポインティングデバイスから出力される入力座標の履歴がメモリに記憶される。領域検出ステップでは、入力座標が示す位置を含む領域が操作入力に応じて指定される領域として検出される。サウンド出力情報生成ステップでは、入力座標の履歴に基づいて、その入力座標が示す位置を含む領域が変化したことを領域検出ステップで検出されたことに応じて、それらの領域間の境界に配置された演奏指標の種別に応じてサウンド出力情報が生成される。なお、ポインティングデバイスは、画面上での入力位置や座標を指定する入力装置であり、例えば、タッチパネル、マウス、トラックパッド、トラックボールなどで実現される。
第9の発明は、上記第8の発明において、サウンド出力情報生成ステップでは、入力座標の移動速度に応じて、再生するサウンドの音量が決定される(S73、S78)。
第10の発明は、上記第8の発明において、ポインティングデバイスは、表示画面を覆うタッチパネル(15)である。操作履歴記憶ステップでは、プレイヤがタッチパネルをタッチ操作したタッチ座標の履歴がメモリに記憶される。領域検出ステップでは、タッチ座標が示す位置と重なる領域が操作入力に応じて指定される領域として検出される。サウンド出力情報生成ステップでは、タッチ座標の履歴に基づいて、そのタッチ座標が示す位置と重なる領域が変化したことを領域検出ステップで検出されたことに応じて、サウンド出力情報が生成される。
第11の発明は、上記第8の発明において、入力装置は、ポインティングデバイスとそのポインティングデバイスとは別の操作部(14a、14L)とを含む。サウンド処理プログラムは、操作信号取得ステップ(S52)を、さらにコンピュータに実行させる。操作信号取得ステップは、操作部からの操作信号を取得する(Db)。サウンド出力情報生成ステップでは、入力座標が示す位置を含む領域が変化したとき、それら領域の組み合わせに応じて音程が設定され、さらに取得した操作信号に応じてその音程を変化させて再生するサウンドの音程が決定される。
第12の発明は、プレイヤの操作に応じた入力装置からの操作入力に応じて操作されるサウンド処理装置である。サウンド処理装置は、記憶手段、領域設定手段、演奏指標表示制御手段、操作履歴記憶手段、領域検出手段、サウンド出力情報生成手段、およびサウンド出力制御手段を備える。領域設定手段は、表示画面に表示される画像に対して、複数の領域を設定する。演奏指標表示制御手段は、設定された複数の領域の範囲をそれぞれ示し、記憶手段に記憶された演奏指標を表示画面に表示する。操作履歴記憶手段は、入力装置からの操作入力の履歴を記憶手段に記憶する。領域検出手段は、操作入力に応じて指定される領域を検出する。サウンド出力情報生成手段は、操作入力の履歴に基づいて、複数の領域の何れかの領域を指定してから他の領域を指定する操作入力を領域検出手段が検出したことに応じて、サウンド出力情報を生成する。サウンド出力制御手段は、サウンド出力情報に応じて、スピーカからサウンドを出力する。
上記第1の発明によれば、何れかの領域が指定されたことに応じてサウンドを再生するのではなく、指定された領域が変化する操作に合わせてサウンドが再生される。したがって、上記領域を表示画面に表示し、ポインティングデバイスやコントローラ等の入力装置を使用してあたかも表示画面に表示されている弦楽器等の楽器を演奏しているような操作環境を実現することができる。
上記第2の発明によれば、領域間に配置された演奏指標を弾いてサウンドが再生されるような操作環境を提供できる。
上記第3および第4の発明によれば、領域間の境界を示す演奏指標が所定の範囲でたわむような設定となるため、演奏指標にリアルな弦のような性質を与えることができ、よりリアルな操作環境を提供できる。
上記第5の発明によれば、領域間の境界を示す演奏指標が操作入力に応じて所定の範囲でたわむように変形して表示されるため、演奏指標をリアルな弦のように表現することができる。
上記第6および第7の発明によれば、領域の組み合わせや演奏指標の種別に応じて音程が変化するため、弦楽器においてそれぞれ発する音の音程が異なる複数弦を表現できる。
上記第8の発明によれば、ポインティングデバイスを操作入力に使用するので、画像として表示されている演奏指標(楽器)を直接操作するかのような環境を実現でき、よりリアルな楽器を演奏しているような操作環境を提供できる。
上記第9の発明によれば、実際の弦楽器において弦を弾く強さによって発する音の音量が変化するような現象を模擬的に表現することができる。
上記第10の発明によれば、タッチパネルを操作入力に使用するので、画像として表示されている演奏指標(楽器)を直接触れているかのような環境を実現でき、さらにリアルな楽器を演奏しているような操作環境を提供できる。
上記第11の発明によれば、ポインティングデバイスによる操作と他の操作部による操作とに応じて、再生するサウンドの音程が変化するため、再生するサウンドのバリエーションが豊富になる。
また、本発明のサウンド処理装置によれば、上述したサウンド処理プログラムと同様の効果を得ることができる。
図面を参照して、本発明の一実施形態に係るサウンド処理プログラムを実行するサウンド処理装置について説明する。本発明のサウンド処理プログラムは、表示装置に表示可能な任意のコンピュータシステムで実行されることによって適用することができるが、情報処理装置の一例としてゲーム装置1で実行されるゲームプログラムに含まれるサウンド処理プログラムを用いて説明する。なお、図1は、本発明のゲームプログラムを実行するゲーム装置1の外観図である。ここでは、ゲーム装置1の一例として、携帯ゲーム装置を示す。
図1において、ゲーム装置1は、第1のLCD(Liquid Crystal Display:液晶表示装置)11および第2のLCD12を含む。ハウジング13は、上側ハウジング13aと下側ハウジング13bとによって構成されており、第1のLCD11は上側ハウジング13aに収納され、第2のLCD12は下側ハウジング13bに収納される。第1のLCD11および第2のLCD12の解像度は、いずれも256dot×192dotである。なお、本実施形態では表示装置としてLCDを用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置等、他の任意の表示装置を利用することができる。また、第1のLCD11および第2のLCD12は、任意の解像度のものを利用することができる。
上側ハウジング13aには、後述する1対のスピーカ(図2の30a、30b)からの音を外部に放出するための音抜き孔18a、18bが形成されている。
下側ハウジング13bには、入力装置として、十字スイッチ14a、スタートスイッチ14b、セレクトスイッチ14c、Aボタン14d、Bボタン14e、Xボタン14f、Yボタン14g、電源スイッチ14h、Lボタン14L、およびRボタン14Rが設けられている。また、さらなる入力装置として、第2のLCD12の画面上にタッチパネル15が装着されている。また、下側ハウジング13bには、メモリカード17やスティック16を収納するための挿入口も設けられている。
タッチパネル15としては、例えば抵抗膜方式や光学式(赤外線方式)や静電容量結合式等、任意の方式のものを利用することができる。タッチパネル15は、その表面をスティック16で触れると、その接触位置に対応する座標データを出力する機能を有するポインティングデバイスの一例である。なお、以下ではプレイヤがタッチパネル15をスティック16で操作するものとして説明を行うが、スティック16の代わりにペン(スタイラスペン)や指でタッチパネル15を操作することももちろん可能である。本実施形態では、タッチパネル15として、第2のLCD12の解像度と同じく256dot×192dotの解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル15の解像度と第2のLCD12との解像度が一致している必要はない。
メモリカード17は、ゲームプログラム等を記録した記録媒体であり、下部ハウジング13bに設けられた挿入口に着脱自在に装着される。
次に、図2を参照して、ゲーム装置1の内部構成を説明する。なお、図2は、ゲーム装置1の内部構成を示すブロック図である。
図2において、ハウジング13に収納される電子回路基板20には、CPUコア21が実装される。CPUコア21には、バス22を介して、コネクタ23が接続されるとともに、入出力インターフェース回路(図面ではI/F回路と記す)25、第1GPU(Graphics Processing Unit)26、第2GPU27、RAM24、LCDコントローラ31、およびワイヤレス通信部33が接続される。コネクタ23には、メモリカード17が着脱自在に接続される。メモリカード17は、ゲームプログラムを記憶するROM17aと、バックアップデータを書き換え可能に記憶するRAM17bを搭載する。メモリカード17のROM17aに記憶されたゲームプログラムは、RAM24にロードされ、RAM24にロードされたゲームプログラムがCPUコア21によって実行される。RAM24には、ゲームプログラムの他にも、適宜、CPUコア21がプログラムを実行して得られる一時的なデータを生成するためのデータ等が記憶される。I/F回路25には、タッチパネル15、右スピーカ30a、左スピーカ30b、および図1の十字スイッチ14aやAボタン14d等から成る操作スイッチ部14が接続される。右スピーカ30aおよび左スピーカ30bは、音抜き孔18aおよび18bの内側にそれぞれ配置され、CPUコア21が生成したサウンド出力情報に応じたサウンドを再生する。
第1GPU26には、第1VRAM(Video RAM)28が接続され、第2GPU27には、第2VRAM29が接続される。第1GPU26は、CPUコア21からの指示に応じて、RAM24に記憶されている表示画像を生成するためのデータに基づいて第1の表示画像を生成し、第1VRAM28に描画する。第2GPU27は、同様にCPUコア21からの指示に応じて第2の表示画像を生成し、第2VRAM29に描画する。第1VRAM28および第2VRAM29は、LCDコントローラ31に接続されている。
LCDコントローラ31は、レジスタ32を含む。レジスタ32は、CPUコア21からの指示に応じて0または1の値を記憶する。LCDコントローラ31は、レジスタ32の値が0の場合は、第1VRAM28に描画された第1のゲーム画像を第1のLCD11に出力し、第2VRAM29に描画された第2のゲーム画像を第2のLCD12に出力する。また、レジスタ32の値が1の場合は、第1VRAM28に描画された第1のゲーム画像を第2のLCD12に出力し、第2VRAM29に描画された第2のゲーム画像を第1のLCD11に出力する。
ワイヤレス通信部33は、他のゲーム装置のワイヤレス通信部33との間で、ゲーム処理に利用されるデータやその他のデータをやりとりする機能を有しており、一例としてIEEE802.11の無線LAN規格に則った無線通信機能を提供する。そして、ワイヤレス通信部33は、受信したデータをCPUコア21に出力する。また、ワイヤレス通信部33は、CPUコア21から指示されたデータを他のゲーム装置へ送信する。
なお、本発明のゲームプログラムは、メモリカード17等の外部記憶媒体を通じてコンピュータシステムに供給されるだけでなく、有線または無線の通信回線を通じてコンピュータシステムに供給されてもよい。また、ゲームプログラムは、コンピュータシステム内部の不揮発性記憶装置に予め記録されていてもよい。なお、ゲームプログラムを記憶する情報記憶媒体としては、上記不揮発性半導体メモリに限らず、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体でもよい。
次に、図3〜図6を参照して、ゲーム装置1で実行されるゲームプログラムによる具体的な処理動作を説明する前に、当該処理動作によって第1のLCD11および第2のLCD12に表示される表示形態例や処理例等について説明する。以下の説明においては、説明を具体的にするために、弦楽器をゲーム装置1で模擬的に演奏する形態を用い、特に6弦ギターを模擬的に演奏する例を用いる。なお、図3は、第1のLCD11および第2のLCD12に表示される画面表示例を示す図である。図4は、第2のLCD12に表示されるゲーム画像に対して設定される各領域や位置座標を説明するための図である。図5および図6は、第2のLCD12に表示された領域間を横切るようなスライド操作をタッチパネル15に対して行った際の処理を説明するための図である。
図3において、ゲーム装置1の第1のLCD11および第2のLCD12には、それぞれゲーム画像が表示される。そして、本発明に関わる演奏指標を表示する画像は、第2のLCD12に表示されるため、以下、第2のLCD12に表示される画像を単に演奏指標画像と記載する。また、第1のLCD11には、プレイヤの操作入力に応じて本ゲーム装置1で模擬的な演奏をする楽器を演奏するようなキャラクタ画像や、操作スイッチ部14によって選択可能な音程を示す画像が表示される。
第2のLCD12には、演奏指標としてギターの6本の弦を示した弦画像ST1〜ST6が表示される。弦画像ST1〜ST6は、それぞれギターの第1弦〜第6弦を演奏指標として示している。例えば、弦画像ST1〜ST6は、ギターの第1弦〜第6弦がゲーム装置1に対して縦方向(紙面上下方向)に張られたように並列して第2のLCD12に表示される。なお、弦画像ST1〜ST6は、ギターの第1弦〜第6弦の上端から下端までの少なくとも一部が第2のLCD12に表示される。図3の例では、ギターをストロークしたりピッキングしたりするギターボディ部の第1弦〜第6弦を示す弦画像ST1〜ST6が第2のLCD12に表示される。具体的には、右から順に第1弦〜第6弦を示す弦画像ST1〜ST6が第2のLCD12に表示される。
ゲーム装置1のプレイヤは、第2のLCD12の表面に設けられたタッチパネル15をタッチ操作することによって、弦画像ST1〜ST6の何れかとタッチ位置とが重なったとき、重なった弦画像ST1〜ST6が示すギターの弦を鳴らす対象とした演奏が可能となる。なお、以下の説明において、演奏の対象となった弦画像ST1〜ST6の何れかを対象弦画像STと記載することがある。そして、対象弦画像STを左右にドラッグするようなタッチ操作(以下、スライド操作と記載する)をタッチパネル15に入力した場合、対象弦画像STがそのスライド操作によって引っ張られたように変形する。図3においては、第3弦を示す弦画像ST3が対象弦画像STであり、スティック16による右方向へのスライド操作に応じて対象弦画像STの中央部が右へ引っ張られたように変形している。そして、対象弦画像STに対して、その変形限界(張力限界値Dmax)を超えるスライド操作を行ったとき、当該対象弦画像STが弾かれたように表現され、その弦に応じたサウンドが右スピーカ30aおよび左スピーカ30bから再生される。
第1のLCD11には、タッチパネル15に対するタッチ操作に応じて、ギターを演奏するキャラクタを表現するキャラクタ画像PCが表示される。また、第1のLCD11には、コード選択キー表示CKが表示され、十字キー14aの上下左右方向に応じて選択可能なギターコードが表示される。例えば、図3の例では、十字キー14aの上方向を押下することによってギターコードAmが、十字キー14aの右方向を押下することによってギターコードDmが、十字キー14aの下方向を押下することによってギターコードGが、十字キー14aの左方向を押下することによってギターコードFが選択され、十字キー14aの何れの方向も押下しないことによってギターコードCが選択されることが示されている。そして、上述したように、プレイヤがタッチパネル15をスライド操作することによって、何れかの弦画像ST1〜ST6を弾くような操作をした場合、十字キー14aで選択されているギターコードに応じた音程で各弦が弾かれたサウンドを再生する。つまり、タッチパネル15を操作して弦が弾かれたとき、十字キー14aで選択された音程のサウンドが再生されることになる。
図4において、上述したタッチパネル15を用いた演奏を実現するために、演奏指標画像に弦位置座標xstや複数の領域Aが設定される。第2のLCD12に演奏指標画像を表示するための画面座標系には、その左右方向(つまり、弦画像ST1〜ST6が張られて表示される上下方向とは垂直となる方向)にx軸座標が設定される。そして、x軸座標の右方向をx軸正方向とする。なお、当該画面座標系には、x軸座標の垂直方向となる上下方向にy軸座標が設定されるが、以下の説明においてy軸座標を用いないため詳細な説明を省略する。
弦画像ST1〜ST6は、x軸座標に対してそれぞれ弦位置座標xst1〜xst6に配置されて表示される。そして、演奏指標画像は、6つの弦画像ST1〜ST6によって7つの領域Aに分割される。具体的には、第2のLCD12の表示画面右端から弦画像ST1までの間に領域A01が設定される。弦画像ST1から弦画像ST2までの間に領域A12が設定される。弦画像ST2から弦画像ST3までの間に領域A23が設定される。弦画像ST3から弦画像ST4までの間に領域A34が設定される。弦画像ST4から弦画像ST5までの間に領域A45が設定される。弦画像ST5から弦画像ST6までの間に領域A56が設定される。弦画像ST6から第2のLCD12の表示画面左端までの間に領域A67が設定される。図4から明らかなように、7つの領域Aは、x軸方向に並列した矩形領域で形成されるため、x軸座標を指定するだけで何れかの領域Aを示すことができる。
また、弦画像ST1〜ST6の左右一定範囲には、それぞれ張力限界範囲が設定される。具体的には、弦画像ST1〜ST6に対して、それぞれx軸正方向側の長さDmax以内およびx軸負方向側の長さDmax以内となる範囲が張力限界範囲となる。張力限界範囲は、弦画像ST1〜ST6が対象弦画像STとなった場合に、スライド操作に応じて引っ張られた変形が可能な範囲を示している。つまり、弦画像ST1〜ST6が左右に変形可能な最大変形量が、左右にそれぞれ長さDmaxとなる。
また、タッチパネル15をタッチ操作した際に出力されるタッチ座標TP(TX,TY)は、所定の関数を用いて当該タッチ座標TP(TX,TY)と重なる画面座標系の位置座標tp(xt,yt)に座標変換される。以下、画面座標系に変換後の位置座標tp(xt,yt)をタッチ座標tp(xt,yt)と呼ぶ。図4の例では、プレイヤはスティック16を用いて領域A45上を右方向(x軸正方向;図示白抜き矢印方向)へスライド操作するタッチ操作をしており、当該領域A45内にタッチ座標tpが設定されている。
図5において、図4に示したタッチ操作の状態からさらに右方向へのスライド操作を行うと、やがて領域A45の右端に配置されている弦画像ST4とタッチ座標tpとが重なる。つまり、タッチ座標tpのx座標tx(以下、単にタッチx座標txと記載する)と弦画像ST4の弦位置座標xst4とが等しくなる。そして、さらに右方向へのスライド操作を行うと、タッチx座標txが弦画像ST4の右側に設定された張力限界範囲を超えない(tx≦xst4+Dmax)限り、弦画像ST4がそのスライド操作によって右へ引っ張られるように変形していく。図5に示される弦画像ST4のように、タッチ座標tpと重なった後に当該タッチ座標tpの移動に応じて変形していくような状態を拘束状態(HOLD)と記載する。一方、他の弦画像ST1〜ST3、ST5、およびST6は、タッチ座標tpの影響を受けておらず、このような状態を自由状態(FREE)と記載する。例えば、図4に示した弦画像ST1〜ST6は、全て自由状態である。
図6において、図5に示したタッチ操作の状態からさらに右方向へのスライド操作を行うと、タッチx座標txが弦画像ST4の右側に設定された張力限界範囲を超える(tx>xst4+Dmax)。そのとき、弦画像ST4がタッチ操作による拘束から放たれて弾かれたように表現され、第4弦に応じたサウンドが右スピーカ30aおよび左スピーカ30bから再生される。その際の音程は、十字キー14aで選択されているギターコードによって決定される。そして、弦画像ST4は、拘束状態から自由状態に変化する。
上述した説明では、右方向へのスライド操作を用いたが、左方向へのスライド操作でも弦画像ST1〜ST6の張力限界範囲を超えるとき、その弦に応じたサウンドが再生される。このように、タッチパネル15に対する左右のスライド操作が弦画像ST1〜ST6の張力限界範囲を超えるとき、それぞれの弦に応じたサウンドが再生される。ここで、何れかの弦画像ST1〜ST6をスライド操作によって左右に引っ張った拘束状態(例えば、図5に示した状態)にして、タッチパネル15からタッチオフしたときも、その弦に応じたサウンドが再生される。したがって、演奏指標画像に設定された7つの領域Aに対してある領域Aから張力限界値Dmaxを超えた他の領域Aまで横断するスライド操作、またはある領域Aから張力限界値Dmaxを超えない他の領域A内まで横断するスライド操作の後にタッチオフする操作を行ったとき、それらの領域間に配置されている弦に応じたサウンドが再生される。つまり、複数の領域が設定された画面において、同一領域内をタッチ操作しただけではサウンドが再生されず、タッチ操作する領域が変わるようなスライド操作をした場合にサウンドが再生されることになる。このようなタッチ操作によってサウンドが再生されることによって、第2のLCD12に表示された弦がタッチパネル15を用いて弾くような操作を実現することができ、あたかも弦楽器を演奏しているかのような環境を実現することができる。
次に、図7〜図9を参照して、ゲーム装置1で実行されるゲームプログラムによる具体的な処理動作について説明する。なお、図7は、ゲームプログラムを実行することに応じて、RAM24に記憶される各種プログラムや各種データの一例を示す図である。図8は、当該ゲームプログラムを実行することによってゲーム装置1がゲーム処理を行う前半の動作を示すフローチャートである。図9は、当該ゲームプログラムを実行することによってゲーム装置1がゲーム処理を行う後半の動作を示すフローチャートである。なお、これらの処理を実行するためのプログラムは、ROM17aに格納されたゲームプログラムに含まれており、ゲーム装置1の電源がオンになったときに、ROM17aからRAM24に読み出されて、CPUコア21によって実行される。また、後述するステップ55〜ステップ83の処理は、6つの弦毎に並行して行われる処理である。したがって、ステップ55〜ステップ83の処理は、各弦の設定状態に応じて異なった処理となることがある。
図7において、RAM24には、ROM17aから読み出されたプログラムやゲーム処理において生成される一時的なデータが記憶される。図7において、RAM24のプログラム記憶領域24aには、ゲーム処理プログラムPa、画像処理プログラムPb、タッチ検出プログラムPc、タッチ座標検出プログラムPd、タッチ−弦間距離算出プログラムPe、弦状態設定プログラムPf、音量・音程決定プログラムPg、タッチ領域検出プログラムPh、およびタッチ履歴記録プログラムPi等が記憶される。
ゲーム処理プログラムPaは、ゲーム処理全体を定義するプログラムである。このゲーム処理プログラムPaの実行開始によってゲーム処理が開始される。画像処理プログラムPbは、後述する画像データDiに基づいて、第1のLCD11および第2のLCD12に弦画像ST1〜ST6、キャラクタ画像PC、およびコード選択キー表示CK等の画像(図3参照)を表示制御する処理を定義する。タッチ検出プログラムPcは、プレイヤがタッチパネル15をタッチ操作しているか否かを検出する処理を定義する。タッチ座標検出プログラムPdは、プレイヤがタッチパネル15をタッチ操作しているタッチ座標tpを検出する処理を定義する。タッチ−弦間距離算出プログラムPeは、タッチ座標tpから各弦位置座標xst1〜xst6までの距離を算出する処理を定義する。また、タッチ−弦間距離算出プログラムPeは、算出された距離の正負に基づいて、弦画像ST1〜ST6をそれぞれ基準としたタッチ座標tpの方向を区別する処理を定義する。弦状態設定プログラムPfは、各弦を拘束状態または自由状態に設定する処理を定義する。音量・音程決定プログラムPgは、弦が弾かれた際に再生するサウンドの音量および音程を決定する処理を定義する。タッチ領域検出プログラムPhは、タッチ座標tpが配置されている領域Aを検出する処理を定義する。タッチ履歴記録プログラムPiは、検出されたタッチ座標tpの履歴をデータ記録領域24bに記録する処理を定義する。
RAM24のデータ記憶領域24bには、タッチ座標データDa、キー操作データDb、弦位置座標データDc、領域データDd、タッチおよび弦間方向データDe、タッチおよび弦間距離データDf、弦状態データDg、サウンドデータDh、および画像データDi等が格納される。
タッチ座標データDaは、プレイヤがタッチパネル15をタッチ操作しているタッチ座標tpを示すデータであり、過去数フレーム分のタッチ座標tpの履歴が格納される。ここで、フレームとは、ゲーム装置1がゲーム処理する時間単位(例えば、1/60秒)である。そして、タッチ座標データDaには、現フレームで取得したタッチ座標tp1、前フレームで取得したタッチ座標tp0、前々フレームで取得したタッチ座標tp00が少なくとも格納される。キー操作データDbは、操作スイッチ部14から出力された操作信号または当該操作信号に基づいて演算されたパラメータが適宜格納される。弦位置座標データDcは、画面座標系における弦画像ST1〜ST6の位置をそれぞれ示す弦位置座標xst1〜xst6を示すデータである。領域データDdは、画面座標系における複数の領域Aの位置をそれぞれ示すデータである。
タッチおよび弦間方向データDeは、弦画像ST1〜ST6をそれぞれ基準としてタッチ座標tpが位置する方向を示す方向データtp_dirを格納する。具体的には、弦画像に対して右側(x軸正方向側)にタッチ座標tpが位置しているとき、方向データtp_dir=1に設定される。弦画像に対して左側(x軸負方向側)にタッチ座標tpが位置しているとき、方向データtp_dir=−1に設定される。そして、タッチ座標tpが存在しない(つまり、タッチされていない)とき、方向データtp_dir=0に設定される。なお、方向データtp_dirは、弦画像ST1〜ST6毎に設定され、タッチおよび弦間方向データDeとしてそれぞれ格納される。タッチおよび弦間距離データDfは、弦画像ST1〜ST6をそれぞれ基準としてタッチ座標tpが位置する距離を示す距離データdxを格納する。具体的には、距離データdxは、タッチx座標txから各弦位置座標xst1〜xst6を減算することによって得られる値であり、弦画像に対して右側(x軸正方向側)にタッチ座標tpが位置しているときに正の値を示し、弦画像に対して左側(x軸負方向側)にタッチ座標tpが位置しているときに負の値を示す。なお、距離データdxも弦画像ST1〜ST6毎に設定され、タッチおよび弦間距離データDfとしてそれぞれ格納される。弦状態データDgは、各弦が拘束状態(stat=HOLD)か自由状態(stat=FREE)かを設定するデータであり、弦画像ST1〜ST6毎に格納される。
サウンドデータDhは、決定された音程に応じて再生するサウンドの再生ピッチを設定したり、決定された音量に応じて再生するサウンドのボリュームを設定したりすることによって、右スピーカ30aおよび左スピーカ30bからサウンドを再生するためのデータである。画像データDiは、弦画像ST1〜ST6、キャラクタ画像PC、およびコード選択キー表示CK等の画像をゲーム画面に表示するための画像データである。
まず、ゲーム装置1の電源(図示せず)がONされると、CPUコア21によってブートプログラム(図示せず)が実行され、これによりメモリカード17に格納されているゲームプログラムがRAM24にロードされる。当該ロードされたゲームプログラムに含まれるゲーム処理プログラムPaがCPUコア21で実行されることによって、図8および図9に示すステップ(図8および図9では「S」と略称する)が実行される。
図8において、CPUコア21は、ゲームの初期設定を行って(ステップ51)、処理を次のステップに進める。例えば、CPUコア21がステップ51で行う初期設定として、弦位置座標データDcおよび領域データDdが設定されて演奏指標画像に含まれる弦画像ST1〜ST6や領域Aが設定される。また、十字キー14aの操作によって選択可能なギターコードが設定される。
次に、CPUコア21は、タッチ座標検出プログラムPdおよびタッチ履歴記録プログラムPiに基づいて、プレイヤの操作に応じたタッチパネル15からのタッチ入力を取得して、タッチパネル15をタッチしている画面座標系のタッチ位置を示すタッチ座標tp(tx,ty)をタッチ座標データDaとしてRAM24に記憶し(ステップ52)、処理を次のステップに進める。また、ステップ52において、CPUコア21は、操作スイッチ部14から出力された操作信号または当該操作信号に基づいて演算されたパラメータも取得してキー操作データDbとしてRAM24に記憶する。
次に、CPUコア21は、画像処理プログラムPbに基づいて、ゲーム・画像処理を行って(ステップ53)、処理を次のステップに進める。CPUコア21は、図3〜図6を用いて説明した画像(弦画像ST1〜ST6、キャラクタ画像PC、およびコード選択キー表示CK等)を、現在のゲーム進行状況(例えば、それぞれの弦の状態、サウンド再生状況、キー操作状況等)に応じて第1のLCD11および第2のLCD12に表示する処理を行う。
次に、CPUコア21は、タッチ検出プログラムPcに基づいて、タッチパネル15がタッチされているか否かを判断する(ステップ54)。そして、CPUコア21は、タッチパネル15がタッチされている場合、処理を次のステップ55に進める。一方、CPUコア21は、タッチパネル15がタッチされていない場合、処理を次のステップ56に進める。
ステップ54において、CPUコア21は、タッチ−弦間距離算出プログラムPeに基づいて、各弦に対する距離データdxをそれぞれ算出してタッチおよび弦間距離データDfとして格納して、処理を次のステップに進める。ここで、距離データdxは、上記ステップ52で得られたタッチ座標tpのx座標(タッチx座標tx)から各弦位置座標xst1〜xst6を減算することによって得られる。なお、図4から明らかなように、弦位置座標xstに対して右側(x軸正方向側)にタッチ座標tpが位置しているときはdx>0であり、弦位置座標xstに対して左側(x軸負方向側)にタッチ座標tpが位置しているときはdx<0である。例えば、図4で示した位置のタッチ座標tpが取得された場合、弦画像ST4に対してタッチ座標tpがx軸負方向側に配置されているため、弦画像ST4に対して距離データdx=tx−xst4<0が格納される。一方、弦画像ST5に対してタッチ座標tpがx軸正方向側に配置されているため、弦画像ST5に対して距離データdx=tx−xst5>0が格納される。
次に、CPUコア21は、各弦に設定されている方向データtp_dirがそれぞれ0か否かを判断する(ステップ57)。そして、CPUコア21は、タッチ領域検出プログラムPhに基づいて、方向データtp_dir=0である場合、距離データdx≧0(ステップ58でYes)に設定されている弦の方向データtp_dirを1に設定してタッチおよび弦間方向データDeとして格納し(ステップ59)、処理を次のステップ61に進める。また、CPUコア21は、タッチ領域検出プログラムPhに基づいて、方向データtp_dir=0である場合、距離データdx<0(ステップ58でNo)に設定されている弦の方向データtp_dirを−1に設定してタッチおよび弦間方向データDeとして格納し(ステップ60)、処理を次のステップ61に進める。一方、CPUコア21は、方向データtp_dir0である場合、そのまま処理を次のステップ61に進める。
一方、上記ステップ54において、タッチパネル15がタッチされていない場合、CPUコア21は、タッチおよび弦間方向データDeとして格納されている全ての弦の方向データtp_dirを0に設定して(ステップ56)、処理を次のステップ61に進める。このように、タッチパネル15がタッチされていない場合、全ての弦の方向データtp_dirは0に設定される。つまり、上記ステップ57において、タッチパネル15がタッチされているにもかかわらず方向データtp_dir=0であるときは、タッチパネル15がタッチされて最初の処理であるとき(つまり、前フレームにおいてタッチ座標が取得されていない)である。したがって、上記ステップ58〜ステップ60の処理は、タッチパネル15がタッチされた最初のタッチ座標tpが、各弦に対して左右どちらに位置しているか設定する処理となる。
ステップ61において、CPUコア21は、弦状態設定プログラムPfに基づいて、各弦の状態が自由状態か否かを判断する。そして、CPUコア21は、弦状態データDgが自由状態(stat=FREE)に設定されている弦については、ステップ62に進めて処理を行う。一方、CPUコア21は、弦状態データDgが拘束状態(stat=HOLD)に設定されている弦については、ステップ71(図9)に進めて処理を行う。
ステップ62において、CPUコア21は、タッチ領域検出プログラムPhに基づいて、tp_dir*dxが0未満か否かを自由状態に設定された弦について判定する。そして、CPUコア21は、弦状態設定プログラムPfに基づいて、tp_dir*dxが0未満となった弦に対して弦状態データDgを拘束状態(stat=HOLD)に設定して(ステップ63)、上記ステップ52に戻って処理を繰り返す。一方、CPUコア21は、tp_dir*dxが0以上である場合、そのまま上記ステップ52に戻って処理を繰り返す。
ここで、上述したように方向データtp_dirは、タッチパネル15がタッチされて最初の処理であるとき、距離データdx≧0ではtp_dir=1、距離データdx<0ではtp_dir=−1に設定され、タッチパネル15がタッチされていないときにtp_dir=0に設定される。したがって、方向データtp_dirが設定された初期やタッチパネル15からタッチオフされているときは、tp_dir*dxが正の値または0となるため上記ステップ62ではtp_dir*dxが0以上であると判断される。一方、タッチパネル15がタッチされている場合、上記ステップ55が実行されて距離データdxが逐次算出される。そして、上述したように、距離データdxは、弦位置座標xstに対するx軸正方向側と負方向側とによって、その正負が入れ替わるパラメータである。したがって、プレイヤがタッチパネル15に対して、何れかの弦画像ST1〜ST6上を越えるようなスライド操作を行った場合、距離データdxの正負が入れ替わることになる。このとき、tp_dir*dxが0未満と判断される。つまり、上記ステップ62の処理は、自由状態(stat=FREE)に設定されている弦画像ST1〜ST6上を越えるようなスライド操作が行われたか否かを判定し、越えた弦を拘束状態に設定していることになる。
弦状態データDgが拘束状態(stat=HOLD)に設定されている弦については、ステップ71(図9参照)が実行される。ステップ71において、CPUコア21は、拘束状態の弦に設定されている方向データtp_dirが0か否かを判断する。そして、CPUコア21は、方向データtp_dirが0である場合、処理を次のステップ72に進める。一方、CPUコア21は、方向データtp_dirが0でない場合、処理を次のステップ76に進める。なお、ステップ72以降は、プレイヤが張力限界値Dmaxを超えない状態でタッチオフしたときに行われる処理であり、以下の説明では、まずステップ76以降の処理について説明する。
ステップ76において、CPUコア21は、タッチ領域検出プログラムPhに基づいて、拘束状態に設定されている弦について、|dx|>|Dmax|であるか否かを判断する。そして、CPUコア21は、|dx|>|Dmax|である場合、処理を次のステップ77に進める。一方、CPUコア21は、|dx|≦|Dmax|である場合、処理を次のステップ82に進める。なお、拘束状態に設定されている弦について、|dx|>|Dmax|となることは、図6に示したようにプレイヤが張力限界範囲を超える領域まで何れかの弦画像ST1〜ST6をスライド操作したときである。
ステップ77において、CPUコア21は、音量・音程決定プログラムPgに基づいて、拘束状態に設定されている弦の種類および格納されているキー操作データDbが示すキー操作に応じて、再生するサウンドの音程を決定し、処理を次のステップに進める。具体的には、拘束状態に設定されている弦がギターの第1弦〜第6弦のうちどれか、およびプレイヤがキー操作によってどのギターコードを選択しているかに応じて、再生するサウンドの音程を決定する。
次に、CPUコア21は、音量・音程決定プログラムPgに基づいて、タッチ座標データDaとして格納されている過去のタッチ座標tpの履歴に基づいて、再生するサウンドの音量を決定し(ステップ78)、処理を次のステップに進める。具体的には、CPUコア21は、現フレームの処理において取得したタッチ座標tpのx座標値(tp1のxt)と前フレームの処理において取得したタッチ座標tpのx座標値(tp0のxt)とをRAM24から抽出し、|(tp1のxt)−(tp0のxt)|を算出する。そして、CPUコア21は、算出結果に基づいて、再生するサウンドの音量を決定する。ここで、|(tp1のxt)−(tp0のxt)|は、タッチ座標tpが移動したx軸方向の速度を示しており、CPUコア21は、スライド操作する速度に応じて音量を決定していることになる。
次に、CPUコア21は、上記ステップ77で決定された音程、上記ステップ78で決定された音量、およびサウンドデータDhを用いてサウンド出力情報を生成し、当該サウンド出力情報に応じて右スピーカ30aおよび左スピーカ30bからサウンドを再生する(ステップ79)。そして、CPUコア21は、拘束状態に設定されている弦のタッチおよび弦間方向データDeを方向データtp_dirの正負を反転させて設定し(ステップ80)、弦状態データDgを自由状態(stat=FREE)に設定して(ステップ81)、上記ステップ52(図8)に戻って処理を繰り返す。
一方、CPUコア21は、上記ステップ76において|dx|≦|Dmax|である場合、タッチ領域検出プログラムPhに基づいて、tp_dir*dxが0より大きいか否かを拘束状態に設定された弦について判定する(ステップ82)。ここで、上記ステップ62およびステップ63の処理で説明したように、tp_dir*dxが0未満となった弦が拘束状態に設定される。したがって、弦が拘束状態にありながらtp_dir*dxが0より大きくなる場合は、弦画像ST1〜ST6上を越えるようなスライド操作をした後、当該弦画像の張力限界範囲を超える前に引き返すようなスライド操作を行って、越える前に位置していた元の領域A内まで戻ったときである。つまり、プレイヤは、弦画像ST1〜ST6の何れかをタッチしたが、弾かずに弦を戻して弦をそっと離すようなスライド操作をしたときに生じる現象である。弦が拘束状態にありながらtp_dir*dxが0より大きくなる場合(ステップ82でYes)、CPUコア21は、サウンドを再生する処理を行わずに拘束状態に設定されている弦の弦状態データDgを自由状態(stat=FREE)に設定して(ステップ83)、上記ステップ52(図8)に戻って処理を繰り返す。一方、CPUコア21は、tp_dir*dxが0以下である場合、そのまま上記ステップ52に戻って処理を繰り返す。
一方、上記ステップ71において、弦状態データDgが拘束状態に設定されている弦に設定されている方向データtp_dirが0である場合、ステップ72が実行される。ここで、拘束状態に設定されている弦の方向データtp_dirが0である状態は、プレイヤが張力限界値Dmaxを超えない状態でタッチオフしたときに生じる。
ステップ72において、CPUコア21は、音量・音程決定プログラムPgに基づいて、拘束状態に設定されている弦の種類および格納されているキー操作データDbが示すキー操作に応じて、再生するサウンドの音程を決定し、処理を次のステップに進める。なお、ステップ72の処理は、上述したステップ77の処理と同様であるため、詳細な説明を省略する。
次に、CPUコア21は、音量・音程決定プログラムPgに基づいて、タッチ座標データDaとして格納されている過去のタッチ座標tpの履歴に基づいて、再生するサウンドの音量を決定し(ステップ73)処理を次のステップに進める。ここで、ステップ73を実行するときはタッチパネル15にタッチ操作が行われていないため、現フレームの処理においてタッチ座標tpを取得していない。したがって、CPUコア21は、前フレームの処理において取得したタッチ座標tpのx座標値(tp0のxt)と前々フレームの処理において取得したタッチ座標tpのx座標値(tp00のxt)とをRAM24から抽出し、|(tp0のxt)−(tp00のxt)|を算出する。
次に、CPUコア21は、上記ステップ72で決定された音程、上記ステップ73で決定された音量、およびサウンドデータDhを用いてサウンド出力情報を生成し、当該サウンド出力情報に応じて、右スピーカ30aおよび左スピーカ30bからサウンドを再生する(ステップ74)。そして、CPUコア21は、拘束状態に設定されている弦の弦状態データDgを自由状態(stat=FREE)に設定して(ステップ75)、上記ステップ52(図8)に戻って処理を繰り返す。なお、ステップ74およびステップ75の処理は、上述したステップ79およびステップ81の処理と同様であるため、詳細な説明を省略する。このように、ステップ72〜ステップ75の処理によって、何れかの弦画像ST1〜ST6をスライド操作によって左右に引っ張った拘束状態にして、タッチパネル15からタッチオフしたときも、その弦に応じたサウンドが再生される。
このように、ゲーム装置1で実行されるサウンド処理では、タッチパネル15を用いて何れかの領域をタッチ操作したことに応じてサウンドを再生するのではなく、タッチ操作する領域が変化するスライド操作、すなわち領域間の境界を越えるようなスライド操作に合わせてサウンドが再生される。したがって、上記領域間の境界に弦楽器の弦画像ST1〜ST6を配置した楽器の一部を模した画像を表示し、ポインティングデバイスやコントローラ等の操作手段を使用してあたかも表示画面に表示されている楽器を演奏しているような操作環境を実現することができる。ここで、第2のLCD12に表示される演奏指標は弦画像ST1〜ST6であり、当該弦画像ST1〜ST6がそれぞれ上記複数領域の境界を示す表示となっている。
また、上述した説明では、弦画像ST1〜ST6が変形可能な範囲(張力限界範囲、境界範囲)を領域A間に設け、弦画像ST1〜ST6がスライド操作に応じて引っ張られるような表示を第2のLCD12に行っている。そして、弦画像ST1〜ST6の変形可能範囲を超えるスライド操作が行われたとき、あるいは弦画像ST1〜ST6が変形した状態でタッチオフされたときに、変形していた弦に対するサウンドが再生される。つまり、第2のLCD12に表示されている弦画像ST1〜ST6を弾くようなタッチ操作をしたときにサウンドが再生されるため、あたかも表示画面に表示されている弦を変形させて弾いているような操作感覚を味わうことができる。
なお、このような弦の変形に関する効果を期待しないときは、弦画像ST1〜ST6の張力限界範囲(張力限界値Dmax)を設けなくてもかまわない。例えば、図4等で示したように、隣接して形成される複数の領域A01、A12、A23、A34、A45、A56、およびA67に対して、他の領域A内にタッチ座標tpが移るようなスライド操作に応じて即刻サウンドを再生する処理を行ってもかまわない。また、上記複数の領域の間に所定の隙間を形成してもかまわない。この場合も、ある領域内から他の領域内にタッチ座標tpが移るようなスライド操作に応じて、サウンドを再生する処理が行われる。
また、上述した説明では、第2のLCD12に表示される演奏指標画像として演奏指標である弦画像ST1〜ST6を縦方向に並列させて表示したが、他の方向に弦画像ST1〜ST6を並列させて表示してもかまわない。例えば、第2のLCD12に表示される演奏指標画像として弦画像ST1〜ST6を横方向や斜め方向に並列させて表示しても、同様に本発明を実現できることは言うまでもない。
また、第2のLCD12に表示される演奏指標は、6本の弦画像ST1〜ST6でなくてもかまわない。上述したように弦画像ST1〜ST6は、複数領域の境界を示す表示であるとも考えることができ、本発明はサウンドを再生するスライド操作を検出するための領域Aが複数設定されていれば実現可能である。したがって、隣接する2つの領域Aを設定する場合、それら領域Aの境界に1本の弦画像を第2のLCD12に表示すれば、同様に本発明を実現することができる。また、上記複数の領域の境界を示す演奏指標は、2〜5本や7本以上の弦画像であってもかまわない。さらに、上記複数の領域の境界を示す演奏指標は、弦を模したような直線に限らず、曲線や閉曲線であってもかまわない。
また、上述した説明では、弾かれた弦の種類に応じて、再生されるサウンドの音程が決定されるが、スライド操作で変化した領域の組み合わせによって再生されるサウンドの音程を決定してもかまわない。
また、上述した説明では、弾かれた弦の種類と十字キー14aによるキー操作に応じて、再生されるサウンドの音程が決定されるが、さらに他のキー操作に応じて再生するサウンドの音程を変化させてもかまわない。例えば、プレイヤがLボタン14Lを押下しながら演奏した場合、再生されるサウンドの音程をさらに半音〜1音半上げて再生してもかまわない。これによって、いわゆるチョーキング奏法による音楽演奏がゲーム装置1を用いて可能となる。
また、上述した実施形態では、2画面分の液晶表示部の一例として、物理的に分離された第1のLCD11および第2のLCD12を互いに上下に配置した場合(上下2画面の場合)を説明した。しかしながら、2画面分の表示画面の構成は、他の構成でもかまわない。例えば、下側ハウジング13bの一方主面に第1のLCD11および第2のLCD12を左右に配置してもかまわない。また、第2のLCD12と横幅が同じで縦の長さが2倍のサイズからなる縦長サイズのLCD(すなわち、物理的には1つで、表示サイズが縦に2画面分あるLCD)を下側ハウジング13bの一方主面に配設して、ゲーム画像と演奏指標画像とを上下に表示(すなわち上下の境界部分無しに隣接して表示)するように構成してもよい。また、第2のLCD12と縦幅が同じで横の長さが2倍のサイズからなる横長サイズのLCDを下側ハウジング13bの一方主面に配設して、横方向にゲーム画像と演奏指標画像とを左右に表示(すなわち左右の境界部分無しに隣接して表示)するように構成してもよい。すなわち、物理的に1つの画面を2つに分割して使用することによりゲーム画像と演奏指標画像とを表示してもかまわない。いずれの画像の形態に対しても、演奏指標画像が表示される画面上にタッチパネル15を配設すれば、同様に本発明を実現することができる。また、物理的に1つの画面を2つに分割して使用することによりゲーム画像と演奏指標画像とを表示する場合、当該画面全面にタッチパネル15を配設してもかまわない。
また、上述した実施例では、ゲーム装置1にタッチパネル15が一体的に設けられているが、ゲーム装置とタッチパネルとを別体にして構成しても、本発明を実現できることは言うまでもない。また、第1のLCD11の上面にタッチパネル15を設けて第1のLCD11に演奏指標画像を表示しても良い。さらに、上記実施例では表示画面を2つ(第1のLCD11、第2のLCD12)を設けたが、表示画面は1つであってもかまわない。すなわち、上記実施例において、第1のLCD11設けず単に演奏指標画像を表示する第2のLCD12のみを表示画面としてタッチパネル15を設けるように構成してもよい。また、上記実施例において、第2のLCD12を設けずに演奏指標画像を表示する第1のLCD11の上面にタッチパネル15を設けても良い。
また、上記実施例では、ゲーム装置1の入力手段としてタッチパネルを用いたが、他のポインティングデバイスを用いてもかまわない。ここで、ポインティングデバイスは、画面上での入力位置や座標を指定する入力装置であり、例えば、マウス、トラックパッド、トラックボールなどを入力手段として使用し、入力手段から出力される出力値から計算された画面座標系の位置情報を用いれば、本発明を同様に実現することができる。また、上述したプレイヤが直接的に演奏指標画像を触っているような効果を期待しない場合は、ポインティングデバイス以外の入力装置(例えば、方向指示キーやジョイスティック等)によって指示される領域を検出して本発明を実現してもかまわない。この場合、ポインティングデバイスによる操作が不可能なゲーム装置でも、本発明を実現することができる。
また、上記実施例では、携帯型のゲーム装置1を用いて説明しているが、据置型のゲーム装置や一般的なパーソナルコンピュータ等の情報処理装置で本発明のサウンド処理プログラムを実行して、本発明を実現してもかまわない。
本発明のサウンド処理プログラムおよびサウンド処理装置は、パーソナルコンピュータやゲーム装置等の表示画面に楽器の一部を模した画像を表示し、ポインティングデバイスやコントローラ等の操作手段を使用してあたかも表示画面に表示されている楽器を演奏しているような操作環境を実現することができ、電子楽器等を実現する装置やその装置で実行されるプログラム等として有用である。
本発明のゲームプログラムを実行するゲーム装置1の外観図 図1のゲーム装置1の内部構成を示すブロック図 第1のLCD11および第2のLCD12に表示される画面表示例を示す図 第2のLCD12に表示されるゲーム画像に対して設定される各領域や位置座標を説明するための図 第2のLCD12に表示された領域間を横切るようなスライド操作をタッチパネル15に対して行った際の処理を説明するための図 第2のLCD12に表示された領域間を横切るようなスライド操作をタッチパネル15に対して行った際の処理を説明するための図 RAM24に記憶される各種プログラムや各種データの一例を示す図 ゲームプログラムを実行することによってゲーム装置1がゲーム処理を行う前半の動作を示すフローチャート ゲームプログラムを実行することによってゲーム装置1がゲーム処理を行う後半の動作を示すフローチャート
符号の説明
1 ゲーム装置
11 第1のLCD
12 第2のLCD
13 ハウジング
13a 上側ハウジング
13b 下側ハウジング
14 操作スイッチ部
14a 十字スイッチ
14b スタートスイッチ
14c セレクトスイッチ
14d Aボタン
14e Bボタン
14f Xボタン
14g Yボタン
14h 電源スイッチ
14L Lボタン
14R Rボタン
15 タッチパネル
16 スティック
17 メモリカード
17a ROM
17b RAM
18a、18b 音抜き孔
20 電子回路基板
21 CPUコア
22 バス
23 コネクタ
24 RAM
25 I/F回路
26 第1GPU
27 第2GPU
28 第1VRAM
29 第2VRAM
30a 右スピーカ
30b 左スピーカ
31 LCDコントローラ
32 レジスタ
33 ワイヤレス通信部

Claims (9)

  1. プレイヤの操作に応じた入力装置からの操作入力に応じて操作されるサウンド処理装置を音楽演奏装置として機能させるサウンド処理プログラムであって、
    前記サウンド処理装置のコンピュータに、
    表示画面に表示される画像に対して、複数の領域を設定する領域設定ステップと、
    前記設定された複数の領域の範囲をそれぞれ示し、メモリに記憶された演奏指標を前記表示画面に表示する演奏指標表示制御ステップと、
    前記入力装置からの操作入力の履歴をメモリに記憶する操作履歴記憶ステップと、
    前記操作入力に応じて指定される前記領域を検出する領域検出ステップと、
    前記操作入力の履歴に基づいて、前記複数の領域の何れかの領域を指定してから他の領域を指定する前記操作入力が前記領域検出ステップで検出されたことに応じて、サウンド出力情報を生成するサウンド出力情報生成ステップと、
    前記サウンド出力情報に応じて、スピーカからサウンドを出力するサウンド出力制御ステップと
    前記入力装置からの操作入力の有無を検出する操作入力検出ステップとを実行させ
    前記領域設定ステップでは、並列に隣接させて前記複数の領域が設定されるとともに、当該隣接する領域間の境界付近に所定幅の境界範囲がそれぞれ設定され、
    前記演奏指標表示制御ステップでは、前記隣接する領域間の境界を示す演奏指標が前記表示画面に表示され、
    前記領域検出ステップでは、前記操作入力が前記境界範囲内または前記境界範囲外を指定していることがさらに検出され、
    前記サウンド出力情報生成ステップでは、前記操作入力の履歴に基づいて、前記複数の領域の何れかの領域を指定してから当該領域と隣接する他の領域との境界に設定された境界範囲を越えて当該他の領域を指定する前記操作入力が前記領域検出ステップで検出されたことに応じて、サウンド出力情報が生成され、
    前記サウンド出力情報生成ステップでは、前記操作入力の履歴に基づいて、前記複数の領域の何れかの領域を指定してから当該領域と隣接する他の領域との境界を越えて当該他の領域内に設定された境界範囲内を指定する前記操作入力が前記領域検出ステップで検出された後、前記操作入力検出ステップで当該操作入力が無くなったことが検出されたことに応じて、サウンド出力情報が生成される、サウンド処理プログラム。
  2. 前記演奏指標表示制御ステップでは、前記操作入力が指定する位置に応じて、前記演奏指標を前記境界範囲内で変形させて前記表示画面に表示される、請求項に記載のサウンド処理プログラム。
  3. 前記サウンド出力情報生成ステップでは、前記複数の領域の何れかの領域が指定されてから他の領域が指定されたとき、それら領域の組み合わせに応じて再生するサウンドの音程が決定される、請求項1に記載のサウンド処理プログラム。
  4. 前記サウンド出力情報生成ステップでは、前記複数の領域の何れかの領域が指定されてから他の領域が指定されたとき、それら領域の境界に表示されている演奏指標の種別に応じて再生するサウンドの音程が決定される、請求項1に記載のサウンド処理プログラム。
  5. 前記入力装置は、プレイヤの操作に応じて前記表示画面の座標系に基づいた入力座標を前記操作入力として出力するポインティングデバイスを含み、
    前記演奏指標は、楽器の一部を模した画像であり、前記隣接する領域間の境界上にそれぞれ配置され、
    前記操作履歴記憶ステップでは、前記ポインティングデバイスから出力される前記入力座標の履歴がメモリに記憶され、
    前記領域検出ステップでは、前記入力座標が示す位置を含む領域が前記操作入力に応じて指定される領域として検出され、
    前記サウンド出力情報生成ステップでは、前記入力座標の履歴に基づいて、当該入力座標が示す位置を含む領域が変化したことを前記領域検出ステップで検出されたことに応じて、それらの領域間の境界に配置された演奏指標の種別に応じてサウンド出力情報が生成される、請求項1に記載のサウンド処理プログラム。
  6. 前記サウンド出力情報生成ステップでは、前記入力座標の移動速度に応じて、再生するサウンドの音量が決定される、請求項に記載のサウンド処理プログラム。
  7. 前記ポインティングデバイスは、前記表示画面を覆うタッチパネルであり、
    前記操作履歴記憶ステップでは、プレイヤが前記タッチパネルをタッチ操作したタッチ座標の履歴がメモリに記憶され、
    前記領域検出ステップでは、前記タッチ座標が示す位置と重なる領域が前記操作入力に応じて指定される領域として検出され、
    前記サウンド出力情報生成ステップでは、前記タッチ座標の履歴に基づいて、当該タッチ座標が示す位置と重なる領域が変化したことを前記領域検出ステップで検出されたことに応じて、サウンド出力情報が生成される、請求項に記載のサウンド処理プログラム。
  8. 前記入力装置は、前記ポインティングデバイスと当該ポインティングデバイスとは別の操作部とを含み、
    前記サウンド処理プログラムは、前記操作部からの操作信号を取得する操作信号取得ステップを、さらに前記コンピュータに実行させ、
    前記サウンド出力情報生成ステップでは、前記入力座標が示す位置を含む領域が変化したとき、それら領域の組み合わせに応じて音程が設定され、さらに取得した操作信号に応じて当該音程を変化させて再生するサウンドの音程が決定される、請求項に記載のサウンド処理プログラム。
  9. プレイヤの操作に応じた入力装置からの操作入力に応じて操作されるサウンド処理装置であって、
    記憶手段と、
    表示画面に表示される画像に対して、複数の領域を設定する領域設定手段と、
    前記設定された複数の領域の範囲をそれぞれ示し、前記記憶手段に記憶された演奏指標を前記表示画面に表示する演奏指標表示制御手段と、
    前記入力装置からの操作入力の履歴を前記記憶手段に記憶する操作履歴記憶手段と、
    前記操作入力に応じて指定される前記領域を検出する領域検出手段と、
    前記操作入力の履歴に基づいて、前記複数の領域の何れかの領域を指定してから他の領域を指定する前記操作入力を前記領域検出手段が検出したことに応じて、サウンド出力情報を生成するサウンド出力情報生成手段と、
    前記サウンド出力情報に応じて、スピーカからサウンドを出力するサウンド出力制御手段と
    前記入力装置からの操作入力の有無を検出する操作入力検出手段とを備え
    前記領域設定手段は、並列に隣接させて前記複数の領域を設定するとともに、当該隣接する領域間の境界付近に所定幅の境界範囲をそれぞれ設定し、
    前記演奏指標表示制御手段は、前記隣接する領域間の境界を示す演奏指標を前記表示画面に表示し、
    前記領域検出手段は、前記操作入力が前記境界範囲内または前記境界範囲外を指定していることをさらに検出し、
    前記サウンド出力情報生成手段は、前記操作入力の履歴に基づいて、前記複数の領域の何れかの領域を指定してから当該領域と隣接する他の領域との境界に設定された境界範囲を越えて当該他の領域を指定する前記操作入力が前記領域検出手段で検出されたことに応じて、サウンド出力情報を生成し、
    前記サウンド出力情報生成手段は、前記操作入力の履歴に基づいて、前記複数の領域の何れかの領域を指定してから当該領域と隣接する他の領域との境界を越えて当該他の領域内に設定された境界範囲内を指定する前記操作入力が前記領域検出手段で検出された後、前記操作入力検出手段で当該操作入力が無くなったことが検出されたことに応じて、サウンド出力情報を生成する、サウンド処理装置。
JP2006027482A 2006-02-03 2006-02-03 サウンド処理プログラムおよびサウンド処理装置 Active JP4557899B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006027482A JP4557899B2 (ja) 2006-02-03 2006-02-03 サウンド処理プログラムおよびサウンド処理装置
EP06018669.9A EP1816640B1 (en) 2006-02-03 2006-09-06 Sound processing apparatus and storage medium storing sound processing program
US11/520,674 US7563974B2 (en) 2006-02-03 2006-09-14 Storage medium storing sound processing program and sound processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006027482A JP4557899B2 (ja) 2006-02-03 2006-02-03 サウンド処理プログラムおよびサウンド処理装置

Publications (2)

Publication Number Publication Date
JP2007206556A JP2007206556A (ja) 2007-08-16
JP4557899B2 true JP4557899B2 (ja) 2010-10-06

Family

ID=37575164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006027482A Active JP4557899B2 (ja) 2006-02-03 2006-02-03 サウンド処理プログラムおよびサウンド処理装置

Country Status (3)

Country Link
US (1) US7563974B2 (ja)
EP (1) EP1816640B1 (ja)
JP (1) JP4557899B2 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8096866B2 (en) * 2007-04-06 2012-01-17 Konami Gaming, Inc. Gaming machine and method for gaming machine
US8961309B2 (en) * 2007-05-08 2015-02-24 Disney Enterprises, Inc. System and method for using a touchscreen as an interface for music-based gameplay
US7671269B1 (en) 2007-05-14 2010-03-02 Leapfrog Enterprises Methods and systems for graphical actuation of a velocity and directionally sensitive sound generation application
US7714220B2 (en) * 2007-09-12 2010-05-11 Sony Computer Entertainment America Inc. Method and apparatus for self-instruction
US20090091543A1 (en) * 2007-10-08 2009-04-09 Sony Ericsson Mobile Communications Ab Handheld Electronic Devices Supporting Operation as a Musical Instrument with Touch Sensor Input and Methods and Computer Program Products for Operation of Same
JP2011514986A (ja) * 2008-03-11 2011-05-12 ミーサ デジタル ピーティーワイ リミテッド デジタル楽器
JP2010021690A (ja) * 2008-07-09 2010-01-28 Yamaha Corp 通信端末装置
EP2321019B1 (en) * 2008-08-11 2019-04-10 Immersion Corporation A haptic enabled gaming peripheral for a musical game
US8749495B2 (en) * 2008-09-24 2014-06-10 Immersion Corporation Multiple actuation handheld device
US7906720B2 (en) * 2009-05-05 2011-03-15 At&T Intellectual Property I, Lp Method and system for presenting a musical instrument
KR101554221B1 (ko) 2009-05-11 2015-09-21 삼성전자주식회사 휴대단말기를 이용한 악기 연주 방법 및 장치
WO2011031848A2 (en) * 2009-09-09 2011-03-17 Mattel, Inc. An system and method for displaying, navigating and selecting electronically stored content on a multifunction handheld device
KR101081493B1 (ko) * 2009-12-31 2011-11-08 주식회사 금영 휴대용 전자기기를 이용한 노래반주기 협연방법
JP4768861B2 (ja) * 2010-01-29 2011-09-07 株式会社東芝 情報処理装置および情報処理装置における音声出力制御方法
US8093486B2 (en) * 2010-05-18 2012-01-10 Red Chip Company, Ltd. Touch screen guitar
WO2012064847A1 (en) 2010-11-09 2012-05-18 Smule, Inc. System and method for capture and rendering of performance on synthetic string instrument
CN103019426A (zh) * 2011-09-28 2013-04-03 腾讯科技(深圳)有限公司 触摸终端中的交互方法及装置
US9082380B1 (en) 2011-10-31 2015-07-14 Smule, Inc. Synthetic musical instrument with performance-and/or skill-adaptive score tempo
WO2013090831A2 (en) 2011-12-14 2013-06-20 Smule, Inc. Synthetic multi-string musical instrument with score coded performance effect cues and/or chord sounding gesture capture
JP5994991B2 (ja) * 2012-01-24 2016-09-21 パナソニックIpマネジメント株式会社 電子機器
JP5399583B1 (ja) * 2013-06-11 2014-01-29 株式会社バンダイ 画像表示装置
US20160030849A1 (en) * 2014-08-04 2016-02-04 Music Players Group, LLC Mobile-Based Virtual Reality Game for the Music Industry
US10671278B2 (en) * 2017-11-02 2020-06-02 Apple Inc. Enhanced virtual instrument techniques
IL259059A (en) * 2018-04-30 2018-06-28 Arcana Instr Ltd A musical instrument with a joystick with variable voltage and a variable range of motion and a method of using it
US11615715B2 (en) 2020-04-17 2023-03-28 Disney Enterprises, Inc. Systems and methods to improve brushing behavior

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02297596A (ja) * 1989-05-11 1990-12-10 Roland Corp 電子弦楽器
JPH09101781A (ja) * 1995-10-05 1997-04-15 Roland Corp 演奏用パラメータ入力装置
JPH10282956A (ja) * 1997-04-10 1998-10-23 Yamaha Corp 弦楽器奏法入力装置
JPH1138967A (ja) * 1997-07-18 1999-02-12 Sony Corp 電子楽器
JPH11338470A (ja) * 1998-05-28 1999-12-10 Canon Inc 電子楽器及び電子楽器制御方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5290966A (en) * 1989-11-24 1994-03-01 Yamaha Corporation Control apparatus and electronic musical instrument using the same
JP2626211B2 (ja) 1990-08-17 1997-07-02 ヤマハ株式会社 電子楽器
JP2631030B2 (ja) * 1990-09-25 1997-07-16 株式会社光栄 ポインティング・デバイスによる即興演奏方式
JP3608229B2 (ja) * 1994-09-21 2005-01-05 ソニー株式会社 適応型フィルタ方法および装置
US5890116A (en) * 1996-09-13 1999-03-30 Pfu Limited Conduct-along system
US6063994A (en) * 1997-05-01 2000-05-16 Creative Technology Ltd. Simulated string instrument using a keyboard
JP3617323B2 (ja) * 1998-08-25 2005-02-02 ヤマハ株式会社 演奏情報発生装置及びそのための記録媒体
TW594667B (en) * 2000-03-20 2004-06-21 Creative Tech Ltd Multimedia console
US20010035087A1 (en) * 2000-04-18 2001-11-01 Morton Subotnick Interactive music playback system utilizing gestures
KR100387238B1 (ko) * 2000-04-21 2003-06-12 삼성전자주식회사 오디오 변조 기능을 갖는 오디오 재생 장치 및 방법, 그장치를 적용한 리믹싱 장치 및 방법
DE10042300A1 (de) * 2000-08-29 2002-03-28 Axel C Burgbacher Elektronisches Musikinstrument
JP4267925B2 (ja) * 2001-04-09 2009-05-27 ミュージックプレイグラウンド・インコーポレーテッド 対話型再生によるマルチパートオーディオ演奏を記憶する媒体
US20020144588A1 (en) * 2001-04-09 2002-10-10 Naples Bradley J. Multimedia data file
JP3778024B2 (ja) * 2001-07-30 2006-05-24 ソニー株式会社 情報処理装置及び情報処理方法、並びに記憶媒体
US20030159567A1 (en) * 2002-10-18 2003-08-28 Morton Subotnick Interactive music playback system utilizing gestures
JP4211672B2 (ja) * 2004-04-28 2009-01-21 ヤマハ株式会社 演奏データ作成装置及びプログラム
JP2006195718A (ja) * 2005-01-13 2006-07-27 Fujitsu Ltd 電子装置、入力処理制御方法およびそのためのプログラム
US20080147216A1 (en) * 2006-12-19 2008-06-19 Sandisk Il Ltd. Secured Storage Media
KR100831024B1 (ko) * 2006-12-20 2008-05-20 삼성전자주식회사 터치스크린을 구비한 휴대단말기 및 기능 표시 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02297596A (ja) * 1989-05-11 1990-12-10 Roland Corp 電子弦楽器
JPH09101781A (ja) * 1995-10-05 1997-04-15 Roland Corp 演奏用パラメータ入力装置
JPH10282956A (ja) * 1997-04-10 1998-10-23 Yamaha Corp 弦楽器奏法入力装置
JPH1138967A (ja) * 1997-07-18 1999-02-12 Sony Corp 電子楽器
JPH11338470A (ja) * 1998-05-28 1999-12-10 Canon Inc 電子楽器及び電子楽器制御方法

Also Published As

Publication number Publication date
US20070180978A1 (en) 2007-08-09
EP1816640B1 (en) 2016-12-21
JP2007206556A (ja) 2007-08-16
US7563974B2 (en) 2009-07-21
EP1816640A1 (en) 2007-08-08

Similar Documents

Publication Publication Date Title
JP4557899B2 (ja) サウンド処理プログラムおよびサウンド処理装置
US8961309B2 (en) System and method for using a touchscreen as an interface for music-based gameplay
US7435169B2 (en) Music playing apparatus, storage medium storing a music playing control program and music playing control method
US8360836B2 (en) Gaming device, game processing method and information memory medium
US8414369B2 (en) Music game system and method of providing same
US20180350337A1 (en) Electronic musical instrument with separate pitch and articulation control
JP2014200454A (ja) 記録媒体、ゲーム装置及びゲーム進行方法
JP5578701B2 (ja) 楽音生成プログラム、楽音生成装置、楽音生成システム、および、楽音生成方法
JP6217275B2 (ja) 曲データ表示装置、曲データ表示方法及びプログラム
JP2007075426A (ja) プログラム、情報記憶媒体、携帯型ゲーム機及びゲームシステム
JP6411412B2 (ja) プログラム、ゲーム装置及びゲーム進行方法
JP2016062081A (ja) 音楽教習装置
TWI743472B (zh) 虛擬電子樂器系統及其運作方法
WO2014174621A1 (ja) 記録媒体、ゲーム装置及びゲーム進行方法
JP5999689B2 (ja) 演奏システム及びプログラム
JP2010122616A (ja) 楽譜表示装置、楽譜表示方法及びプログラム
JP6401061B2 (ja) ゲームプログラム
JP2008165098A (ja) 電子楽器
CN109801613B (zh) 一种基于终端的大提琴演奏方法、装置及终端
JP2011039248A (ja) 携帯型音出力装置、コンピュータプログラムおよび記録媒体
JP4281636B2 (ja) 音楽アミューズメント装置および同装置に適用されるコンピュータプログラム
JP2020171733A (ja) プログラム、ゲーム装置及びゲーム進行方法
JP2020203126A (ja) ゲームプログラム
JP2019025346A (ja) プログラム、ゲーム装置及びゲーム進行方法
JP2018196775A (ja) ゲームプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100720

R150 Certificate of patent or registration of utility model

Ref document number: 4557899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250