JP4328828B2 - 携帯型和音出力装置、コンピュータプログラムおよび記録媒体 - Google Patents

携帯型和音出力装置、コンピュータプログラムおよび記録媒体 Download PDF

Info

Publication number
JP4328828B2
JP4328828B2 JP2008523768A JP2008523768A JP4328828B2 JP 4328828 B2 JP4328828 B2 JP 4328828B2 JP 2008523768 A JP2008523768 A JP 2008523768A JP 2008523768 A JP2008523768 A JP 2008523768A JP 4328828 B2 JP4328828 B2 JP 4328828B2
Authority
JP
Japan
Prior art keywords
chord
output
operator
touch
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008523768A
Other languages
English (en)
Other versions
JPWO2008004690A1 (ja
Inventor
耕介 朝倉
デェラクナー セス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Plato Corp
Original Assignee
Plato Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Plato Corp filed Critical Plato Corp
Application granted granted Critical
Publication of JP4328828B2 publication Critical patent/JP4328828B2/ja
Publication of JPWO2008004690A1 publication Critical patent/JPWO2008004690A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G7/00Other auxiliary devices or accessories, e.g. conductors' batons or separate holders for resin or strings
    • G10G7/02Tuning forks or like devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/011Lyrics displays, e.g. for karaoke applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/015PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/641Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Description

この発明は、例えばギター、ピアノ等のような実楽器で奏でられる和音を操作者主導で行えるようにする携帯型和音出力装置およびその関連品に関する。
音処理その他の情報処理技術の発達により、実楽器で奏でられる音を電子的手段により出力する電子楽器装置が実現されている。この種の電子楽器装置は、例えば、実楽器を模した形状の筐体に、複数のセンサ、音出力ユニットおよび制御ユニットを設けて構成される。センサは、操作者が操作する部位に設けられ、操作者がある操作を行ったことを検知したときに所定のデータを出力する。制御ユニットには、楽音出力用のプログラムおよびデータが格納されており、センサ出力に応じた音源データを生成し、これをスピーカを含む音出力ユニットから出力させる。
電子楽器装置の中には、発光素子又はディスプレイ等の表示ユニットを備えたものもある。このような電子楽器装置では、表示ユニットに操作の手順を逐次表示し、操作者がその手順に従う操作入力を行うことにより、実楽器と同様の楽音を出力させる。電子楽器装置の中には、さらに、いわゆる「カラオケ」のように、歌詞の表示を伴うものもある。すなわち、装置内のメモリに、操作者が操作すべき操作内容を表す操作指示データとリンクした歌詞データを保存しておき、歌詞データを表示ユニットに表示させる際に操作指示データを併せて表示することにより、歌詞表示と操作指示内容とを連動させている。
上記例に示されるとおり、従来の電子楽器装置は、高価な実楽器ないしカラオケに代わって、楽音を低廉に出力できるという利点がある。また、これらの電子楽器装置は、装置固有の操作手順さえ覚えてしまえば、実楽器を弾けない者でも、簡単に演奏操作できるようになる。
音楽は、楽器を巧みに演奏できなければ楽しめないというものではない。音楽は身近なものである。例えばギターの場合、旋律を弾けなくとも、和音さえ弾ければ一人でも大勢でも気軽にどこでも音楽を楽しむことができる。しかしながら、和音には膨大な種類があり、それを覚えるのは大変である。例えば三つの音から成る和音だけでもC、Dm、Em、F、G、Am、Bm等がある。四つの音から成る和音にはCmaj7、Dm7、Em7、Fmaj7、G7、Am7、Bm7♭5等がある。これらの和音に、基音から数えて9度の音や11度等と言ったテンションノートを加えた和音もある。また、ギターの場合、指板上のどのポジションで押さえるかによっても和音のフォームが異なる。すなわちCコードといえども、ローポジションでの指押さえ位置と、ハイポジションでの指押さえ位置、若しくは、それらの間のミドルポジションでの指押さえ位置とそれぞれ異なる。このような膨大な種類の和音について、楽曲毎に、適切な指押さえ位置を紙上に示すことも行われているが、印刷物そのものが嵩張り、取扱性が悪い。また、調べたい特定の和音の指押さえ位置を知るのに、複数頁を捲りながらその中から該当するものを抽出しなければならず、使い勝手も悪い。
上述した従来の電子楽器装置において、和音データを予め用意しておき、装置側から操作者に対して和音の操作入力を指示する構成にすることが考えられる。しかし、ディスプレイを備えない電子楽器装置でこれを実現しようとすると、操作者の側で和音出力のための操作内容を覚えていなければならないという不便さがある。ディスプレイを備える電子楽器装置であっても、装置主導で進行する表示内容にあわせて和音の操作指示を入力しなければならないため、操作に熟練を要する。カラオケのような電子楽器装置では、歌を歌う者のペースで操作指示を入力することができないため、同じ楽曲をそのときの気分に合わせてゆっくり歌ったり、早いテンポで歌ったりするということができない。また、弾き語りのようなことを行うことができない。
従来の電子楽器装置は、また、装置の操作を覚えてしまえば一定の楽音が出力されるので、熟練者になるほど魅力度が低くなって飽きてしまうという問題があった。
このような事情は、ギターに限らず、和音を出力できる他の実楽器、例えばピアノ等の音を電子的に実現する小型の電子楽器装置に共通となっている。
本発明は、熟練の程度にかかわらず、操作者が、任意の場所で、自分のペースで自由かつ簡単な操作により出力して、弾き語りを可能にしたり、あるいは、大勢の仲間が集まって合唱するときの伴奏を、操作者主導で行えるようにする携帯型の和音出力装置を提供することを課題とする。
本発明の和音出力装置は、携帯サイズの筐体に、それぞれ操作者が一方の片手指で選択可能な複数の操作子と、操作者が他方の片手指で直接又は間接にタッチ操作可能なタッチセンサとが形成されており、前記筐体には、相互に結合されたデータメモリ、制御機構及び音出力機構が設けられており、前記データメモリには、実楽器が奏でる音特性を有する和音を前記音出力機構から出力させるための和音データファイルが、当該和音を識別するための和音IDと共に複数記録されており、前記複数の操作子の各々には、いずれかの前記和音IDが割り当てられている。
前記制御機構は、操作者がどの操作子を選択し始めてその選択を何時解除したかを検出する操作子選択状況検出手段と、前記タッチセンサへのタッチ開始時期を含む操作内容を検出する操作内容検出手段と、前記操作子選択状況検出手段で検出した操作子に割り当てられている前記和音IDをもとに特定した和音データファイルを、前記データメモリより読み出して前記音出力機構に供給し、これにより出力可能になる和音を、前記操作内容検出手段が検出した操作内容と連動する態様で前記音出力機構から出力させる和音出力制御手段とを備えるものである。
本発明の和音出力装置において、前記操作内容検出手段は、例えば、前記タッチ開始時期のほか、前記タッチセンサへのタッチ操作方向、タッチ操作速度、およびタッチ操作位置の少なくとも一つを検出するものである。この場合において、前記和音出力制御手段は、前記タッチ操作方向又はタッチ操作速度が検出されたときは検出方向又は検出速度に応じて定められた和音を前記音出力機構から出力させ、当該タッチ操作方向の変化が検出されたときはその出力周波数を変化方向に応じて変化させ、タッチ操作速度の変化が検出されたときはその出力強度を変化速度に応じて変化させ、前記タッチ操作位置が検出されたときは当該検出位置に予め割り当てられた出力態様で出力させる。
前記和音データファイルは、例えば、実楽器で奏でられた和音を録音して成るデータファイルであり、実楽器は、複数の弦がほぼ同じ時間に弾かれることにより前記和音が奏でられる弦使用楽器である。このようなデータファイルを用いることにより、あたかも実楽器で奏でたような特性の和音を出力することができる。
ある実施の態様では、前記データメモリを前記制御機構及び音出力機構と離脱自在に結合するためのメモリ収脱機構を備えて和音出力装置が構成される。このデータメモリには、前記弦楽器使用楽器を含む実楽器毎の前記データファイルが記録されている。データメモリには、また、連続する複数の小節から構成される楽曲の表示用画像データが記録されており、各小節には、それぞれ、当該実楽器用に割り当てられた1又は複数の前記和音IDが関連付けられている。このようなデータメモリへのアクセスを可能にする和音出力装置において、前記制御機構は、前記楽曲の表示用画像データに基づいて所定の画像表示領域に、1つ又は複数の小節毎の楽曲画像を表示させるとともに、表示中の楽曲画像の小節に関連付けられている前記和音IDをもとに特定された和音データファイルが前記音出力機構から出力されたときに、当該表示中の楽曲画像に代えて次の1つ又は複数の小節を含む楽曲画像を前記画像表示領域に表示させる表示制御手段をさらに備えており、操作者の前記操作子の選択ならびに前記タッチセンサの操作に起因して前記画像表示領域における楽曲画像の表示変更を進行させる。
これにより、装置主導ではなく、操作者主導で楽曲画像を進めることができる。
前記画像表示領域に表示される楽曲画像は、例えば、当該1つ又は複数の小節に割り当てられた、当該楽曲の歌詞と、和音出力のための前記タッチセンサの操作タイミングを案内する情報と、前記楽器における和音の生成を案内する情報との少なくともいずれかを伴うものとするものである。
前記制御機構は、前記楽曲画像の表示変更の進行履歴、該楽曲画像の表示に伴う前記操作子の選択履歴および前記タッチセンサのタッチ操作履歴をそれぞれ相互に関連付けて記録する履歴記録手段をさらに備えたものとすることができる。このような制御機構を有する和音出力装置は、操作者の指示の入力を契機に、前記履歴記録手段に記録されている情報のうち、前記進行履歴を前記表示制御手段に供給することにより、該表示制御手段に前記画像表示領域への楽曲画像の表示変更を再現させ、前記選択履歴および前記タッチ操作履歴を前記和音出力制御手段に供給することにより、該和音出力制御手段に前記表示変更に連動する和音の出力並びにその態様の変化を再現させる。
前記データメモリには、音の振動画像を表現するための振動画像データが記録されており、前記制御機構は、前記データメモリから読み出した振動画像ファイルを前記画像表示領域と異なる振動画像表示領域に表示させるとともに、表示中の振動画像を、前記和音の出力に従って変化させ、出力強度がゼロになった時点で静止させる振動画像表示制御手段をさらに備えているものとすることができる。
本発明は、携帯サイズの筐体に搭載されたコンピュータを携帯型和音出力装置として動作させるためのコンピュータプログラムを提供する。前記筐体には、それぞれ操作者が一方の片手指で選択可能な複数の操作子と、操作者が他方の片手指で直接又は間接にタッチ操作可能なタッチセンサとが形成されており、さらに、データメモリ及び音出力機構が前記コンピュータに設けられており、前記データメモリには、実楽器が奏でる音特性を有する和音を前記音出力機構から出力させるための和音データファイルが、当該和音を識別するための和音IDと共に複数記録されている。このようなものにおいて、本発明のコンピュータプログラムは、前記コンピュータを、前記複数の操作子の各々に、いずれかの前記和音IDを割り当てる割当手段、操作者がどの操作子を選択し始めてその選択を何時解除したかを検出する操作子選択状況検出手段、前記タッチセンサへのタッチ開始時期を含む操作内容を検出する操作内容検出手段、前記操作子選択状況検出手段で検出した操作子に割り当てられている前記和音IDをもとに特定した和音データファイルを、前記データメモリより読み出して前記音出力機構に供給し、これにより出力可能になる和音を、前記操作内容検出手段が検出した操作内容と連動する態様で前記音出力機構から出力させる和音出力制御手段、として機能させるものである。このようなコンピュータプログラムは、コンピュータ読み取り可能な記録媒体に記録される。
以下、本発明を、アコースティックギターの和音を出力する和音出力装置に適用した場合の実施形態例を説明する。
<全体構造>
図1は、この実施形態による和音出力装置の構造説明図である。(a)は正面図、(b)は上底面図、(c)は下底面図である。この和音出力装置は、片手で把持可能なサイズの筐体10を有し、この筐体10内にメモリカード20を離脱自在に収容できるように構成される。
筐体10のほぼ中央部には、タッチセンサパネルを兼ねるディスプレイ11が設けられている。ディスプレイ11(タッチセンサパネル)は、例えばLCD (Liquid Crystal Display) あるいはEL(Electronic Luminescence)から成る表示パネルの表面をタッチセンサで覆ったものである。ディスプレイ11の外縁部は筐体10の表面に対して多少窪んでおり、後述するステイラスペンが、その外縁部に沿ってなぞれるようになっている。タッチセンサとしては、抵抗膜方式、光学式(赤外線方式)および静電容量結合式のいずれかの種類のものを用いることができる。ディスプレイ11は、タッチパネルの上面をスタイラスペンのペン先あるいは指(以下、「スタイラスペン等」という場合がある。)で、押圧したり、撫でたりしてタッチ操作することにより、スタイラスペン等によるタッチ開始時期、タッチ座標位置およびその変化を含む操作内容を後述する制御ユニットへ伝達する。
筐体10の表面には、また、短辺方向の中心軸に対してほぼ左右対称となる部位に、操作スイッチ121,122が設けられ、さらに、音出力孔141,142が形成されている。操作スイッチ121は、ディジタルジョイスティックとして機能するもので、8つの操作子を有しており、操作者がこれらの操作子の1つを押圧操作することによって、押圧操作している間だけ最大8種類のデータを選択的に入力できるようになっている。すなわち、操作者がどの操作子を選択し始めてその選択を何時解除したかを、後述する制御ユニット40において検出できるようになっている。操作スイッチ122は、ディジタルスイッチとして機能するもので、8つの操作接点を有しており、これらの8つの操作接点の1つを押圧操作することによって、最大8種類のデータの入力を許容する。
本実施形態では、紙面に向かって左側の操作スイッチ121は、左手の親指で傾き押圧操作、すなわち中心部を起点として0度、45度、90度、135度、180度、225度、270度、315度の8つの方向のいずれかに傾けた状態で押圧操作する方向指示スイッチとして用い、他方、右側の操作スイッチ122は、右手親指で操作する動作モード、オプション機能その他の動作選択用スイッチとして用いる。右ききと左ききの操作者が存在することを考慮して、両スイッチ121,122は、それぞれ相互交換が可能になっている。
なお、操作スイッチ121,122として、共にデジタルジョイスティックとして機能するものを用い、どちらの操作スイッチを方向指示スイッチにするか、あるいは動作選択スイッチにするかを任意に設定できるようにしても良い。また、操作スイッチ122は、必ずしも8つの操作接点を持たなくとも良く、2〜4個の接点を共用しても良い。
音出力孔141の上方には電源スイッチ15が設けられており、音出力孔142の上方にはスタートスイッチ161とファンクションスイッチ162が設けられている。これらのスイッチ15,161,162には、例えばプッシュボタンを用いることができる。スタートスイッチ161は、動作開始(再開)したり、一時停止(Pause)したりするときに、操作者が押圧操作するものである。ファンクションスイッチ162は、各種設定画面、和音出力のための操作画面等の表示内容選択等を行うときに押圧操作するものである。
筐体10の上側面部には、短辺方向の中心軸に対してほぼ左右対称の部位に一対の拡張操作スイッチ131、132が設けられている。さらに、ほぼ中央部に、スタイラスペン30の収容空間とスタイラスペン30の係止部17が形成されている。拡張操作スイッチ131は、操作スイッチ121で指示可能な8つの方向のグループを、予め設定された他のグループに切り替えるためのものであり、操作者が左手で筐体10を把持したときに、左手の人差指又は中指で操作できる部位に配置されている。操作者が拡張操作スイッチ131を押したり、押さなかったりすることにより、左手だけの操作で最大で16の方向を指示入力することができる。拡張操作スイッチ132と操作スイッチ122も、上記と同じとなる。すなわち、拡張操作スイッチ132は、操作スイッチ122で選択可能な最大で8種類の選択内容のグループを別のグループに切り替えることができる。つまり、この和音出力装置で出力可能な和音の種類は、最大で(16×8)種類となる。
筐体10の下側面部には、メモリカード20の収容空間18と、和音出力装置から出力する和音データをスピーカが接続された外部増幅器に導くための外部出力端子19とが形成されている。
<制御ユニット等>
本実施形態の和音出力装置は、筐体10の内部に、コンピュータの一種である制御ユニット及びその周辺電子部品を備えている。
図2は、筐体10の内部構成図と各種部品の接続状態を示している。
図2に示される制御ユニット40は、メモリカード20を離脱自在に収容するためのコネクタ41、メインプロセッサを含んで成るCPU(Central Processing Unit)コア42、キャッシュメモリとして機能するRAM(Random Access Memory)43、音処理を実行するSPU(Sound Processing Unit) 44、画像処理を行う2つのGPU(Graphic Processor Unit)451,452、2つの画像領域11a,11bへの画像表示を可能にする表示コントローラ47、及び、I/O(Input/Output)インタフェース48が、内部バスB1を介して接続されている。
SPU44およびGPU451,452は、例えばシングルチップASICで構成される。SPU44は、CPUコア42からのサウンドコマンドを受け取り、このサウンドコマンドに従って音処理を行う。「音処理」は、具体的には、二つの音出力ユニット241,242の各々で再生可能なステレオ和音を出力するための情報処理である。GPU451,452は、CPUコア42からの描画コマンドを受け、その描画コマンドに従って画像データを生成する。CPUコア42は、描画コマンドに加えて、画像データの生成に必要な画像生成指示をGPU451,452のそれぞれに与える。CPUコア42から各GPU451,452への描画コマンドの内容は、場面によって様々に変化するので、これについては後述する。
2つのGPU451,452には、それぞれ画像データを描画するためのVRAM(Video Random Access Memory)461,462が接続されている。VRAM461には、GPU451により、ディスプレイ11の第1表示領域11aに表示させる画像データが描画される。他方、VRAM462には、GPU452により、ディスプレイ11の第2表示領域11aに表示させる画像データが描画される。画像データの内容については、後述する。
表示コントローラ47は、これらのVRAM461,462に描画されている画像データを読み出して所要の表示制御処理を行う。表示コントローラ47はレジスタを含む。レジスタは、CPUコア42の指示によって「00」、「01」、「10」、「11」のデータ値を格納する。データ値は、例えば、ファンクションスイッチ162を通じて選択された操作者の指示内容に従って決定される。表示コントローラ47は、レジスタのデータ値に応じて、例えば以下のような制御を行う。
データ値「00」・・・VRAM461,462に描画された画像データの各表示領域11a,11bへの出力を行わない。例えば和音出力装置の操作に慣れてディスプレイ11への表示を必要としなくなった場合等に、ファンクションスイッチ162でこのデータ値が表示コントローラ47に出力されるようにすることができる。
データ値「01」・・・VRAM462に描画された画像データのみを第2表示領域11bに出力する。第2表示領域11bは、ディスプレイ11の全表示領域とする。
データ値「10」・・・VRAM461に描画された画像データのみを第1表示領域11aに出力する。第1表示領域11aは、ディスプレイ11の全表示領域とする。
データ値「11」・・・ディスプレイ11の表示領域を第1表示領域11aと第2表示領域11bに2分割し、VRAM461に描画された画像データを第1表示領域11aに出力し、VRAM462に描画された画像データを第2表示領域11bに出力する。
メモリカード20は、ROM(Read Only Memory)21およびEEPROM(Electronically Erasable and Programmable Read Only Memory)22を搭載している。EEPROMに代えて、フラッシュメモリその他の不揮発性メモリを用いることもできる。ROM21およびEEPROMRAM22は、互いにバス(図示省略)で接続されており、さらに、このバスが、制御ユニット40の内部バスB1とコネクタ41を介して接合される。これにより、CPUコア42、SPU44、GPU451、452は、メモリカード20のROM21およびEEPROM22に直接アクセスすることができる。
I/Oインタフェース48には、上述した各種スイッチ121,122,131,132,15,161,162からの押圧操作データと、ディスプレイ11からのタッチ操作データとが入力される。押圧操作データは、操作者がどのボタンを押したかを表すデータであり、タッチ操作データは、操作者によるタッチ操作内容を表すデータである。各スイッチ121,122,131,132,15,161,162が操作されると、対応するデータがI/Oインタフェース48を介してCPUコア42に入力される。I/Oインタフェース48からは、音出力ユニット241,242へ和音データが出力される。和音データは、CPUコア42とSPU44との協働により生成された音データである。音出力ユニット241,242は、この音データをアンプで増幅し、スピーカで再生する。
メモリカード20のROM21には、各種画像データ、和音データファイルおよび和音出力用のプログラムが記録されている。和音出力用プログラムは、制御ユニット40を、和音出力装置として動作させるための各種機能、例えば、操作者による操作子選択状況を検出する機能、タッチセンサへのタッチ開始時期を含む操作内容を検出する機能、操作子に割り当てられている和音をタッチセンサの操作内容と連動する態様で出力させる機能、履歴管理機能等を構築するものであり、CPUコア42により実行される。
画像データは、大別して、音の振動画像を表現するための振動画像データ、歌詞を含む楽曲画像を表現するための楽曲画像データ、初期画像を表現するための初期表示画像データ並びに各種設定用画像データである。まず、これらのデータについて説明する。
振動画像データは、制御ユニット40から音出力ユニット241,242に音データが出力されるときの音強度に合わせた振動画像を表現するためのデータである。本例では、初期振動画像をもとに、「弱」、「中」、「強」の3種類の振幅値の振動画像を表現できるようにする。図3は、これらの振動画像の表示例を示している。図3(a)は初期振動画像50である。図3(b)の振動画像51は「中」、図3(c)の振動画像52は「強」、図3(d)の振動画像53は「弱」のときの振幅値であり、これらの振幅値を最大絶対値として、実際に振幅の絶対値が変化するようにしている。
初期振動画像50および振動画像51,52,53は、後述する振動波形モードが選択されたときに、ディスプレイ11に表示される。図3(b)〜(d)において、破線の方向は、ディスプレイ11をスタイラスペン等でタッチ操作した方向を表し、破線の太さは、スタイラスペン等がタッチ操作したときの速度(タッチ操作速度)を表している。実際には、破線は表示されない。「中」、「強」、「弱」のいずれに該当するかは、例えばCPUコア42が、ディスプレイ11のタッチセンサで検出されるタッチ開始時期、タッチ座標位置およびその変化速度を含む操作内容の検出データを、I/Oインタフェース48を通じて受け取り、これらの検出データと図示しないテーブルに記録されている所定の基準データとを比較することにより判別する。
なお、振動画像の表現形態は、「中」、「強」、「弱」の3種類でなければならないものではなく、4種類以上であっても良い。また、1つの振動画像データを画像処理によって複数の振幅値および振動数を表現できるようにしても良い。
楽曲画像データは、楽曲毎に用意される。ディスプレイ11の表示画面例を示した図4を参照すると、楽曲画像は、例えば、それぞれ連続する複数の小節61と、曲の進行グラフ62と、和音ガイダンス用の操作子画像63と、実楽器であるギターにおける和音毎の指押さえ位置を示す案内画像64とから成る。各小節61の該当領域には、それぞれ、歌詞611と和音表示612とが記述される。なお、小節毎に、操作子の操作タイミングを案内するタイミング情報を併せて記述しても良いし、逆に、歌詞611の記述を省略しても良い。最低限必要なのは、和音表示612である。各小節は、それぞれ小節IDにより識別されており、小節ID毎に、和音表示612、操作子画像63、案内画像64に対応するデータならびに歌詞データが関連付けられている。さらに、各和音表示612には、それぞれ、当該和音を識別するための和音IDが関連付けられている。
楽曲画像は、例えばGPU452によりVRAM462に選択的に描画され、表示コントローラ47を通じて第2表示領域11bに表示される。
楽曲画像データは、一部のみを読み出して表示することができる。例えば、図5は後述するガイダンスモード時の表示画面例であり、操作子画像63と案内画像64のみが読み出され、図3(b)に示した振動画像51と共に表示される例が示されている。
初期表示画像データは、電源オン時にディスプレイ11上に表示される画像である。
設定用画像データは、各種スイッチ121,122,131,132,15,161,162の画像およびこれらに割り当てる機能内容を表示するための画面を表示するためのデータである。これらの画像データは、ファンクションスイッチ162により「設定」が選択されたときに、例えばGPU452によりVRAM462に描画され、表示コントローラ47を通じて第2表示領域11bに表示される。「設定」のときは、ディスプレイ11には、第2表示領域11bの表示内容が表示される。
例えば、図6は拡張スイッチ131の8つの操作子にどの和音を設定(登録済なら修正)するかを操作者に選ばせるための画面の例、図7は、現在の設定内容の確認用の画面の例をそれぞれ示している。設定用画像データの表示は、例えば、ファンクションスイッチ162を所定回押すことにより可能になる。
図6の上段左は、操作スイッチ121を押さない状態で操作スイッチ121で選択入力できる最大8種類の和音、上段右は、拡張スイッチ131を押した状態で操作スイッチ121で選択入力できる最大8種類の和音を設定する操作子の配列画像である。下段の図表部分は、各操作子に設定する和音の紹介画像である。操作者は、図6上段左右のいずれかの操作子を選択スイッチ122で選択し、「登録」ボタンを選択した後、その操作子で選択入力する和音を選択スイッチ122で選択し、再び図6下段の「登録」を押す。これを繰り返す。これにより、設定された内容が、メモリカード20のEEPROM22に記録され、装置起動時に読み込まれて、操作スイッチ121の各操作子に和音IDが割り当てられる。なお、設定内容の登録手順は任意であって良く、操作子の選択と和音の選択の順序は、上述した順序と逆であっても良い。
図7を参照すると、デフォルト状態では、選択スイッチ122の8つの操作子には、それぞれ「曲調#1」〜「曲調#4」、「ユーザ設定1」〜「ユーザ設定4」がそれぞれ割り当てられる。「曲調#1」〜「曲調#4」には、それぞれ、図6に示した16種類の和音が設定されている。操作者が微調整したい場合は、図6に示した画面下段の「修正」を押し、上述した手順で修正登録を行えば良い。「ユーザ設定1」〜「ユーザ設定4」は、それぞれ、図6のような表示画面を通じて、操作者が自分の好みに応じて設定するためのものである。
図8(a)〜(c)は、上記のように設定(修正)されたことにより、操作スイッチ121で実際に選択入力できる和音の種類を示している。
EEPROM22には、上述した和音IDの操作子への設定内容、初期画面表示後の動作モードの設定内容、及び各種履歴情報が記録される。動作モードは、本実施形態では、振動波形モード、ガイダンスモードおよびカラオケモードの3種類とする。振動波形モードは、ディスプレイ11の全面に、図3(a)〜(d)の振動画像50〜53を表示させるモードである。ガイダンスモードは、ディスプレイ11の全面に、図5のような画像を表示させるモードである。カラオケモードは、ディスプレイ11の全面に、図4のような画像を表示させるモードである。これらの動作モードの詳細については、後述する。
履歴情報は、楽曲画像の表示内容の進行履歴、楽曲画像の表示に伴う操作子の選択履歴およびタッチ操作履歴を表すデータと、各データが生じた時刻データと、それが消去されるまで保持される通し番号データである。時刻データは図示しないタイマで計測される。通し番号データは、履歴を表すデータを記録する際に採番される。
ROM21に記録される和音データファイルは、電子的に作成されたものではなく、いわゆる名手といわれる弾き手が実楽器であるギターで実際に奏でられた和音を録音して成るデータファイルである。和音の各々について、それぞれギターのサウンドホールの上から下方向(第1方向)、下から上方向(第2方向)、「弱」(第1レベル)、「中」(第2レベル)、「強」(第3レベル)で採取し、それぞれを上述した和音IDおよびその下位層のファイルIDで識別される1つのデータファイルとしている。つまり、1和音(例えばAm)で6ファイル用意する。
このように1つの和音毎に複数のデータファイルにするのは、事後の波形加工処理を少なくすることにより、実際に奏でられた和音の響きをできるだけ損なわないようにすることが主たる理由である。また、波形加工処理を少なくすることにより、CPUコア42およびSPU44での情報処理を迅速にさせる、あるいは、処理能力をさほど要求しなくとも和音出力の機能を実現できる、という副次的効果も得られるようにするためである。
和音IDおよびファイルIDは、図示しないテーブルで階層的に管理する。図9は、このテーブルの内容説明図である。「c10100」は「Am」を識別するための和音IDであり、その下位層にはファイルID「c101001」〜「c101006」が続く。「c101001」は和音がAmで第1方向(上から下方向)でレベル1(弱)の和音データファイルを識別するためのファイルIDである。「c101006」は和音がAmで第2方向(下から上方向)でレベル3(強)の和音データファイルを識別するためのファイルIDである。他の和音ID並びにファイルIDについても同様のルールでIDが割り当てられている。
<和音出力装置の動作>
次に、上記のように構成される和音出力装置の動作を説明する。
和音出力装置は、例えば、操作者が、左手で筐体10を把持し、左手指で操作スイッチ121等を操作(押す/離す)するとともに、右手でスタイラスペン30を持ち、あるいは、指を使って、ペン先又は指先でディスプレイ11へのタッチ操作することにより動作可能になる。
メモリカード20を筐体10に装着した状態で、操作者が電源スイッチ15をオンにすると、制御ユニット40(CPUコア42)は、メモリカード20のROM21にアクセスして和音出力用プログラムの実行を開始する。制御ユニット40は、また、メモリカード20のROM21およびEEPROM22に記録されているデータ並びにテーブルの一部又は全部をRAM43にロードする。これにより、操作者が本装置を楽器として操作するための動作環境が構築される。
電源オン直後、制御ユニット40は、ディスプレイ11の全面に初期画面を表示させる。初期画面には、操作者による動作モードの選択項目が含まれる。上述した振動波形モード、ガイダンスモード、カラオケモードのいずれかを操作者がファンクションキー162で選択し、スタートボタン161を押すと、制御ユニット40は、初期画面を、選択された動作モードの動作画面に切り替え、各動作モード下での処理を行う。以下、図10〜図15を参照して、各動作モードにおける動作手順を説明する。
図10は、振動波形モードでの手順説明図である。
振動波形モードが選択されると、制御ユニット40は、初期振動波形画像をディスプレイ11に全画面表示させる(S101)。この処理は、CPUコア42からGPU451に描画コマンドと画像データとを送出し、且つ、表示コントローラ47に、上述したデータ値「10」を送出することにより実現される。
操作者によって操作スイッチ121(あるいは、拡張スイッチ131と共に)のいずれかの操作子が押されたことを検知すると(S102:Yes)、制御ユニット40は、当該操作子に割り当てられた和音IDにより特定される和音データファイルをRAM43又はROM21から読み出し、SPU44で音処理可能の状態にする(S103)。この時点では、和音はまだ出力されない。
なお、この例では、制御ユニット40は、その操作子が押されている間だけ、当該操作子に割り当てられた和音IDにより特定される和音データファイルをRAM43又はROM21から読み出し、SPU44で音処理可能な状態にする(S103)。これにより、操作子が押されている間のみ和音が出力され、操作子が離されると和音が出力されなくなるので、ユーザは、和音の出力時間を容易に制御することができる。他の形態、例えば操作子が離されてから所定時間経過するまでSPU44で音処理可能な状態にする(この場合、操作子が離されてから音をだんだん小さくしてフェードアウトさせてもよい)等、種々の形態が可能である。
タッチセンサからの出力データに基づいてタッチ操作内容を検知すると(S104:Yes)、制御ユニット40は、タッチ操作内容に連動した態様で、和音データに対する音処理を行い、和音を出力させる(S105)。タッチ操作内容が検知されない場合は(S104:No)、タッチ操作内容が検出されるまでS104を繰り返す。
「タッチ操作内容に連動する態様」の例として、ここでは、タッチ操作方向とタッチ操作速度、並びにその変化に応じて和音の出力音の音色、強度を異ならせる例を挙げる。すなわち、同じ和音が指定された場合であっても、上から下方向(第1方向)にタッチ操作されたときは多少周波数が高く、下から上方向(第2方向)にタッチ操作されたときは、低くなる。これは、実楽器であるギターの弦操作がそのようになっているためである。また、タッチ操作速度が速いときは、遅いときよりも出力強度が高くなる(レベル3>レベル1)。そっと触る程度のタッチ操作速度では、微弱な音(レベル1)が出力される。
タッチ操作がどの方向になされたかは、タッチ操作開始位置の検出を契機に、タッチ操作が連続して進行する方向を検出することにより判別する。タッチ操作速度は、単位時間におけるタッチ連続操作量を検出することにより判別する。操作方向の変化は、例えばタッチ操作位置の変化のパターンマッチング等により判別する。これらの検出を容易にするため、RAM43に、操作開始位置を一時的に保存しておくことが好ましい。また、パターンマッチングの際の指標となる基本パターンを用意しておく。
図9に例示したいずれかの和音データファイルをファイルIDをもとに選択し、これをSPU44に送出することによりステップS105が実現される。このようにしてSPU44から和音が出力されるときは、ディスプレイ11に表示中の振動波形画像の振幅値を和音の出力態様、例えば音強度(レベル1〜レベル3)に応じて変化(振動)させる(S106)。
それまで押されていた操作子が離されたことを検知したとき、つまり、操作を止めるか別の操作子を指定したときは、ステップS102の処理に戻る(S107:Yes)。操作子が離されない場合(S107:No)、和音出力レベルがゼロになるまでステップS106以降の処理を繰り返す(S108:No)。これにより、所定の時間にわたって余韻音が出力され続けることになる。余韻音がなくなって和音出力レベルがゼロになったときは、ステップS102に戻る(S108:Yes)。
このように、振動波形モードでは、操作者は、振動波形をみて実楽器で奏でられた和音の余韻を楽しみながら、和音出力装置を操作することができる。また、操作者自身のペースで、自由かつ簡単な操作だけで和音が出力されるので、従来の電子楽器装置と異なって弾き語りが容易になり、大勢の仲間が集まって合唱するときの伴奏も、操作者主導で行えるようになる。
次に、先にある和音(第1の和音)を出力し、その後再度タッチ操作を行うことで次の和音(第2の和音)を出力する場合の処理を説明する。第1の和音の出力及び第2の和音の出力に関しては、種々の処理が可能である。例えば、「第1の和音に関しては、第1の和音をミュート(消音)させて第2の和音出力のみ行う」、「第2の和音の出力がない場合と同様に第1の和音出力をそのまま継続して第2の和音に重ねる」、「第1の和音をフェードアウトさせて第2の和音出力に重ねる」等の処理が挙げられる。
また、第2の和音に関しては、「先に第1の和音が出力されていないときと同様にして出力する」、「出力当初の音量を小さくして徐々に大きくする(フェードイン)ことで第1の和音に重ねる」等、種々の処理が挙げられる。これら第1の和音出力の処理と第2の和音出力の処理を適宜組み合わせて実行することができる。
以下、図11A、Bを参照して、第1の和音を出力した後に更に第2の和音を出力する場合の第1の和音、第2の和音それぞれの処理の一例を示す。
図11A、Bにおいて、振動波形モードが選択されると、制御ユニット40は、初期振動波形画像をディスプレイ11に全画面表示させる(T101)。この処理は、CPUコア42からGPU451に描画コマンドと画像データとを送出し、且つ、表示コントローラ47に、上述したデータ値「10」を送出することにより実現される。
操作者によって操作スイッチ121(あるいは、拡張スイッチ131と共に)のいずれかの操作子が押されたことを検知すると(T102:Yes)、制御ユニット40は、その操作子が押されている間、及び後述するように二つの和音を重ねる場合等のように操作子が離されても和音の出力が必要となる間は、当該操作子に割り当てられた和音IDにより特定される第1の和音データファイルをRAM43又はROM21から読み出し、SPU44で音処理可能の状態にする(T103)。この時点では、第1の和音はまだ出力されない。タッチセンサからの出力データに基づいてタッチ操作内容を検知すると(T104:Yes)、制御ユニット40は、タッチ操作内容に連動した態様で、第1の和音データに対する音処理を行い、第1の和音を出力させる(T105)。
この際、図11A、Bの実施形態では、和音を出力するチャンネルがチャンネルA、Bの二種類あり、これらのチャンネルからそれぞれ同時に同じ和音、あるいは異なる和音を出力することができ、T105では、チャンネルAから和音を出力するものとした。なお、この例ではチャンネルはA、Bの二つとしたが、チャンネルA、B、C…のように三つ以上のチャンネルからそれぞれ和音出力を行うようにすることもできる。また、制御ユニット40は、各チャンネル毎に、操作子に割り当てられた和音IDにより特定される和音データファイルをRAM43又はROM21から読み出し、SPU44で音処理可能の状態にする。タッチ操作内容が検出されると、制御ユニットは、タッチ操作内容に連動した態様で、和音データに対する音処理を行い、和音を出力させる。
この例では、第1の和音がCコードで、かつ上から下方向(第1方向)にタッチ操作されたものとして説明する。
タッチ操作内容が検知されない場合は(T104:No)、タッチ操作内容が検出されるまでT104を繰り返す。
「タッチ操作内容に連動する態様」に関しては、図10の例と同様に、上から下方向(第1方向)、下から上方向(第2方向)にタッチ操作されたときで周波数を変えることや、音レベルを変えることなどが可能である。
図9に例示したいずれかの和音データファイルをファイルIDをもとに選択し、これをSPU44に送出することによりステップT105が実現される。このようにしてSPU44から和音が出力されるときは、ディスプレイ11に表示中の振動波形画像の振幅値を和音の出力態様、例えば音強度(レベル1〜レベル3)に応じて変化(振動)させる(T106)。
次に、それまで押されていた操作子が離されたか否かを判定し、操作子が離されていないとき(T107:No)は、和音出力レベルがゼロか否かを検出し、ゼロであれば(T108:Yes)T102に戻る。ゼロでなければ(T108:No)、タッチ操作がなされたかを判定する。タッチ操作されていないとき(T109:No)は、T107に戻る。
T109でタッチ操作が検出された場合(T109:Yes)、そのタッチ操作がT104におけるタッチ操作と逆方向のタッチ操作であるか否かを検出する。逆方向のタッチ操作である場合(T110:Yes)、チャンネルAからの第1の和音(この例では第1方向でタッチ操作されたコードCの和音)に加えて、T108における逆方向のタッチ操作に対応した和音(第2の和音)をチャンネルBから出力させる。この例ではT104でCコードが第1方向でタッチ操作されているので、同じCコードのままで第2方向でのタッチ操作が検出され、ROM21に記録された和音データファイルからこれに対応する和音データが第2の和音として読み出される。制御ユニット40は、この和音データに対する音処理を行い、第2の和音を出力させ(T111)、T106へと戻る。
この場合のチャンネルA(図中ではCh.A)、チャンネルB(図中ではCh.B)それぞれから出力される和音の説明図を図12(a)に示す。この図に示されるように、チャンネルAからの第1の和音出力に加えて、チャンネルBからの第2の和音が出力される。チャンネルBから第2の和音を出力することによってチャンネルAから出力される和音を特に変化させることはなく、チャンネルAからの和音は、チャンネルBからの出力を行わないときと同様に、上記の所定の時間にわたって余韻音が出力される。従って、この場合、スピーカーからは、チャンネルAからの第1の和音とチャンネルBからの第2の和音とがミックスされて出力される。
ギター等の実際の楽器を演奏する場合、あるコードで所定方向にストロークして和音を弾いた後に同じコードで逆方向にストロークして和音を弾いた場合、楽器本体の共鳴や残響等の影響から、逆方向にストロークして和音を弾いた後であっても、その前の所定方向のストロークで弾かれた和音が、逆方向にストロークした和音と重なって聞こえる。
一方、電子的な和音をスピーカから出力する場合、上述のような楽器における本体の共鳴の効果は得られないので、単に第1の和音を出力した後に第2の和音を出力しただけでは、ユーザが「実際の楽器とは聞こえ方が違う」と認識し、聴覚的に不自然であると感じることになる。
この例では、上述のように第1の和音と第2の和音とをミックスして出力することから、実際の楽器と同様に、第1の和音と第2の和音とが重なって出力され、聴覚的な違和感をユーザにあたえるおそれが少なくなっている。
次に、T109で検出されたタッチ操作がT104におけるタッチ操作と逆方向のタッチ操作ではない場合(T110:No)、つまり、T104におけるタッチ操作と同じコードで同方向のタッチ操作である場合には、これに対応する和音、この例では第1方向でタッチ操作されたCコードが第2の和音としてチャンネルBから出力され(T112)、ステップT106へと戻る。従って、チャンネルAから出力されている第1の和音とチャンネルBから出力される第2の和音とは同じ和音となる。
この例では、図13(a)に示すように、チャンネルAから出力される和音は、T104でのタッチ操作と同方向のタッチ操作が検出された時点をt0として、t0から音がだんだん小さくされてt1の時点で音量がゼロとなるようにする。一方、図13(b)に示すように、チャンネルBから出力される和音は、t0で最小音量で出力され、だんだん大きくなってt1の時点で所定の音量に達するようになっている。t0からt1までの期間は任意に決定でき、この例では、ユーザの聴覚的に自然であると感じられるように、千分の二秒(0.002秒)とした。しかし、適宜この期間を0.002秒より長く、あるいは短く設定することができる。また、この期間を、音の高さ、タッチ操作の強さ、タッチ操作と次のタッチ操作との間隔の長さ等によりアクティブに変更させてもよい。この制御は、SPU44で行うことができる。
このように、短期間(この例では0.002秒程度)でチャンネルAの音を小さくしていき、チャンネルBを小さな音から大きくしていくことを「クロスフェード」と称する。クロスフェードを行わない場合、第1の和音の出力を停止して第2の和音を出力するまでにタイムラグが生じて無音となる時間が発生してしまうおそれがあり、また、仮にタイムラグをなくすことができたとしても、第1の和音と第2の和音が同時にだされる期間がまったくない場合、聴覚的に不自然に感じられるが、クロスフェードを行うことで、聴覚的に自然に聞こえるようにできる。
クロスフェードでは、チャンネルAとチャンネルBとの音量の和が、常にt0におけるチャンネルAからの音量値と同じ値となるようにしてもよい。この例では、T109におけるタッチ操作がなされてそれに対応する和音が出力されたことをユーザに強調するために、チャンネルBからの音を大きめにして、チャンネルAとチャンネルBとの音量の和が、t0におけるチャンネルAからの音量値よりも大きくなるように設定した。チャンネルAとチャンネルBとの音量の和に関しては、特に制限はなく、種々の手法で設定することが可能である。
次に、T107において、操作子が離されたことを検知したとき、つまり、操作を止めるか別の操作子を指定したときは、その直後に別の操作子が押されてかつタッチ操作がなされたか否かを判定する。なお、ユーザが操作子を離して再度押すためには、ある程度の時間を要し、この時間内で操作がなされた場合に、「直後に操作子が押された」として判定する。直後に別の操作子がおされてかつタッチ操作がなされた場合(T113:Yes)、この操作子及びタッチ操作方向に対応した和音(第2の和音)を、ROM21に記録された和音データファイルから読み出し、第1の和音と第2の和音を上述のようにクロスフェードさせ(T114)、ステップT106へと戻る。T113において、その直後に別の操作子がおされてかつタッチ操作がなされたと判定されなかった場合(T113:No)は、T102へと戻る。
このように、第2の和音が第1の和音と同じ和音でタッチ操作方向(実際のギター等の楽器でのストローク方向)が逆である場合と、その他の場合と、を区別して、和音の出力処理方法を変えることで、一層実際の楽器に近い、自然な和音出力を行っている。
特に、本実施形態では、第1の和音を出力してから同じ和音で同じ方向へのタッチ操作により音の強さ以外は互いに等しい第2の和音を出力する場合、これら二つの和音をミックスし、それ以外の場合は、第1の和音と第2の和音をクロスフェードして出力することで、一層自然な和音出力を行うことができる。
従来の和音出力装置では、上記のような区別の必要性が認識されておらず、第1の和音とその後に出力される第2の和音との種類に関わらず音の出力処理を行っていたことから、ユーザは聴覚上、出力される和音が不自然であると感じるおそれがあった。しかし、本実施形態では、このような不自然さが解消されている。
なお、本実施形態では、スタイラスペン等の操作方向を途中変化させることにより和音の余韻の音色を変化させる余韻効果処理を実行できるようにしてある。
例えば図14(a)〜(d)は、スタイラスペン等を上から下方向に操作した後に左右方向に途中変化させた場合の例、(e)〜(h)は、下から上方向に操作した後に左右方向に途中変化させた場合の例である。このように操作されたときの制御ユニット40の処理手順は、図15のようになる。すなわち、スタイラスペン等の操作方向転換を検出し(A101:Yes)、それが右方向であったときは(A102:Yes)、余韻音のピッチを高くして出力する(A103)。これにより、余韻音の周波数が若干高くなる。他方、方向転換が左方向であったときは(A102:No)、余韻音のピッチを低くして出力する(A104)。これにより、余韻音の周波数が若干低くなる。以上の手順を余韻音が続く限り行う(A105:Yes)。これにより、アコースティックギターでありながら、エレキギターのようなビブラートを表現することができ、操作に幅を持たせることができる。
次に、図16を参照して、ガイダンスモードにおける動作手順を説明する。
ガイダンスモードが選択されたときは、初期ガイダンス画像を表示する(B101)。初期ガイダンス画像は、図5のうち振動画像51を図3(a)に示した初期振動画像50に置き換えた画像であり、表示コントローラ47に上記のデータ値「11」を出力することにより実現される。
ある操作子が押されたことを検知すると(B102:Yes)、制御ユニット40は、振動波形モード時と同様、操作子に割り当てられた和音データファイルを読み出して、音処理可能状態にする(B103)。また、押された操作子に割り当てられた和音に関する画像の表示状態を変化させる(B104)。例えば、図5のように、押された操作子がわかるように、他の押されない操作子よりも目立つ表示に変化させる。
以後の操作は、振動波形モード時と同様である。すなわち、タッチ操作されたことを検知したときは(B105:Yes)、タッチ操作内容に応じた態様で、和音データに対する音処理を行い、和音を出力させる(B106)。また、表示中の振動波形画像の振幅値を和音の出力態様に応じて変化(振動)させる(B107)。操作子が離されたときは、ステップB102の処理に戻る(B108:Yes)。操作子が離されない場合(B108:No)、和音出力レベルがゼロになるまでステップB107以降の処理を繰り返す(B109:No)。和音出力レベルがゼロになったときはステップB102に戻る(B109:Yes)。このガイダンスモードにより、和音ガイダンス用の操作子画像63と案内画像64とを見ながら操作できるので、操作がより容易になる。
次に、図17および図18を参照して、カラオケモードにおける動作手順を説明する。
カラオケモードが選択されたときは、楽曲画像を表示する(K101)。楽曲画像は、例えば図4に示したものである。ある操作子が押されたことを検知すると(K102:Yes)、振動波形モード時と同様、その操作子に割り当てられた和音データファイルを読み出して、音処理可能状態にする(K103)。また、ガイダンスモード時と同様、押された操作子に割り当てられた和音に関する画像の表示状態を変化させる(K104)。
タッチ操作されたときは(K105:Yes)、タッチ操作内容に応じた態様で、和音データに対する音処理を行い、和音を出力させる(K106)。また、表示中の振動波形画像の振幅値を和音の出力態様に応じて変化(振動)させる(K107)。
操作者により操作子が正しく押されたかを判別する(K108)。この判別は、例えば指定すべき和音表示(図4の現在の和音表示66)の出力と、押された操作子に割り当てられている和音IDとが適合するかどうかにより行う。正しく押されたときは、表示中の楽曲画像の進行を進める(K108:Yes、K109)。他方、正しく押されなかったときはK109の処理をバイパスする(K108:No)。操作子が離されたときは、ステップK102の処理に戻る(K110:Yes)。操作子が離されない場合(K110:No)、和音出力レベルがゼロになるまでステップK107以降の処理を繰り返す(K111:No)。和音出力レベルがゼロになったときはステップK102に戻る(K111:Yes)。
以上の処理により、ディスプレイ11に表示される画像は、和音を正しく指定できたときは、楽曲画像が予め決められた方向に進行する。そして、進行状況に応じて、進行グラフ62における現在の位置を変化させる。ゆっくり歌いたい場合は、和音をゆっくり指定しながらタッチ操作すれば良い。このようにすることで、装置主導ではなく、操作者の都合で曲を進行させることができる。他方、誤操作したときは、楽曲画像が進行しないので、操作者は、どの辺で誤操作したかのが容易にわかる。例えば、楽曲画像が図18上段(案内画像64は省略してある)のように、操作すべき和音表示66を、操作者が正しく操作したとき(成功)は、図18中段のように小節が進行する。他方、和音表示66通りの和音を指定しなかったとき(失敗)は、楽曲画像は進行しない。
図19に、上記例における複数のチャンネルを用いて操作子の操作方向によりミックス、クロスフェードを使い分ける場合のディスプレイ11の表示画面例を示す。楽曲画像は、例えば、その長さがタッチ操作を行ってから次のタッチ操作を行うまでの時間を表すバー71(図中において個々のバー71をb1、b2、…b12として表す)と、和音ガイダンス用の操作子画像73とから成る。各バー71の該当領域には、それぞれ、歌詞711と和音表示712とが記述される。また、上から下方向へのタッチ操作を表すタイミング記号(図中においてvで表される)714と、下から上方向へのタッチ操作を表すタイミング記号(図中において逆向きのvで表される)715も表示される。
図19における各バー71は、その長さがタッチ操作を行ってから次のタッチ操作を行うまでの時間を表すので、バー71の長さとタイミング記号とにより、ユーザは、タッチ操作を行うタイミング及びタッチ操作の向き(実際のギターにおいてはストロークの向き)を容易に視認することができる。図17の例においては、b1〜b9までは同じ間隔で下向きにタッチ操作を行い、バーb4、b7の先頭においては上向きに、それ以外のバーの先頭において下向きにタッチ操作を行う。バーb10の長さはバーb1〜b9の長さの半分であり、バー11の先頭においてはタイミング記号が逆vとなっているので、バーb10の先頭において上から下方向にタッチ操作を行った後、それまでの半分の時間経過後に下から上方向にタッチ操作を行う。バーb11は、バーb1〜b9の1.5倍の長さであり、かつ、バーb12の先頭においてタイミング記号がvとなっていることから、バーb1〜b9における時間の1.5倍の時間経過後に上から下方向にタッチ操作を行う。
また、図4の例では、操作子として8方向ボタンを用いた例が示されているが、この例では、和音出力装置の操作子として十字ボタンを使用して操作子画像73として示している。バーb1においては、操作子の左(十字ボタンの左)を押すことで和音Cを選択することが示される。同様に、バーb3では操作子の右を押すことで和音F、バーb6では操作子の上(十字ボタンの上)を押すことで和音Dm7、バーb9では操作子の下(十字ボタンの下)を押すことで和音Gを選択することが示される。なお、これ以外のバーでは、操作子画像73が示されていないが、これらは、その前に示されたボタンを押し続けることを示す。例えば、b2においては、b1の操作子画像73が操作子の左を押すことを示していることから、b1で押さえた操作子の左を押し続けることになる。
このように画面表示を行うことで、タッチ操作を行う(ギターでのストロークを行う)タイミングとストローク方向、及び押さえるべき操作子をユーザにわかり易く伝えることができる。また、個々のバーには、図4の例における小節IDと同様に、和音表示712、操作子画像73ならびに歌詞データが関連付けられている。さらに、各和音表示712には、それぞれ、当該和音を識別するための和音IDが関連付けられている。
楽曲画像は、例えばGPU452によりVRAM462に選択的に描画され、表示コントローラ47を通じて第2表示領域11bに表示される。
[履歴管理]
制御ユニット40は、操作者が操作したことの履歴を管理する機能を有する。この機能は、主として、カラオケモードのときに有効となる。すなわち、楽曲画像の表示変更の進行履歴、楽曲画像の表示に伴う操作子の選択履歴およびディスプレイ11への操作者のタッチ操作履歴をそれぞれ相互に関連付けてEEPROM22に記録する。EEPPROM22に記録されている情報は、例えば操作者の指示に基づき、いつでも再現させることができる。例えば、楽曲画像の進行履歴は、例えばそれをGPU452に供給することにより再現することができ、操作子の選択履歴およびタッチ操作履歴は、それをSPU44に供給することにより再現させることができる。この機能は、例えば操作者が、本装置の現在の操作能力をチェックしたり、「自動カラオケ」として使用するとき等に利用される。
また、操作履歴から演奏を再現しているときに、演奏されているディスプレイ11に、図4の和音表示612や図17の和音表示712を表示するようにしてもよい。また、図4の操作子画像63や図17の操作子画像73を表示するようにしてもよい。
これにより、再生時に、演奏されている和音や、録音時に操作子のどのボタンを押さえたかを確認することができる。
このように、本実施形態の和音出力装置は、片手で把持できるサイズなので、何処にでも持参することができる。使用に際しては、操作者が、例えば左手で筐体10を把持しつつ左手指で操作スイッチ121を操作し、右手又はスタイラスペンでタッチ操作するだけで和音を出力するので、非常に手軽であり、必ずしも熟練を要しない。また、装置主導でなく、操作者が自分のペースで自由に操作できるので、自分のそのときの気分にまかせて、あるときは、ゆっくり歌ったり、早いテンポで歌ったりするということができる。弾き語りのようなことも気軽に行えるようになる。
初心者は、例えばガイダンスモード又はカラオケモードを選択して操作することにより、和音を覚えていなくとも操作することができるし、和音は、実楽器を実際に奏でた音をベースに出力されるので、初心者は初心者なりの、また、熟練者は熟練者なりの楽しみ方ができる。
[変形例]
本発明は、上記の実施の形態例に限定されるものではなく、種々の構成変更が可能である。例えば、制御ユニット40は、タッチ開始時期、タッチ操作方向、タッチ操作速度のみならず、タッチ操作位置を操作内容として検出する構成にしても良い。すなわち、所定のタッチ操作位置に予め和音表示と和音IDとを割り当てておき、操作者がディスプレイ11上の和音表示の位置を選択することにより、操作スイッチ121の押圧操作と同様に機能するようにしても良い。
本実施形態では、カラオケモード時に誤操作しても和音は出力されるが、誤操作のときには、該当和音を出力しないようにしても良い。このようにすれば、誤操作したことをより迅速に判断することができる。
本実施形態では、振動画像等は第1表示領域11a、楽曲画像等は第2表示領域11bに表示させるようにしたが、これらの表示領域は適宜に変更され得る。本実施形態では、また、第1表示領域11a,第2表示11bを切り替えて1つのディスプレイ11表示させるようにしたが、ディスプレイを2つ設け、これらのディスプレイの一方に第1表示領域11aと第2表示11bの一方、ディスプレイの他方に第1表示領域11aと第2表示11bの他方を表示させるようにしても良い。
本発明は、ギターのみならず、他の楽器、例えばピアノで弾かれる音色の和音を出力する場合にも適用が可能である。
本発明の和音出力装置の実施形態例を示す構造説明図であり、(a)は正面図、(b)は上底面図、(c)は下底面図である。 筐体の内部構成図と各種部品の接続状態図である。 図3(a)は初期振動画像、(b)は「中」レベルの振動画像、(c)は「強」レベルの振動画像、(d)は「弱」レベルの振動画像の例である。 楽曲画像の一例を示す表示画面である。 ガイダンス画像の一例を示す表示画面である。 操作スイッチおよび拡張スイッチの8つの操作子にどの和音を設定(登録済なら修正)するかを操作者に選ばせるための画面の例である。 現在の設定内容の確認用の画面の例である。 図8(a)〜(c)は、設定(修正)されたことにより、操作スイッチで実際に選択入力できる和音の種類を示した図である。 和音IDおよびファイルIDを管理するテーブルの内容説明図である。 振動波形モードでの手順説明図である。 第1の和音を出力した後に更に第2の和音を出力する場合の第1の和音、第2の和音それぞれの処理の一例を示す手順説明図である。 第1の和音を出力した後に更に第2の和音を出力する場合の第1の和音、第2の和音それぞれの処理の一例を示す手順説明図である。 図12(a)〜(c)はチャンネルA、チャンネルBのそれぞれから出力される和音の説明図である。 図13(a)はチャンネルAから出力される和音の出力状態の説明図、(b)はチャンネルBから出力される和音の出力状態の説明図である。 図14(a)〜(d)はスタイラスペン等を上から下方向に操作した後に左右方向に途中変化させた場合の例、(e)〜(h)は、下から上方向に操作した後に左右方向に途中変化させた場合の例である。 余韻効果処理の手順説明図である。 ガイダンスモードでの手順説明図である。 カラオケモードでの手順説明図である。 カラオケモードにおける成功時と失敗時の画面遷移の違いを示した図である。 複数のチャンネルを用いて操作子の操作方向によりミックス、クロスフェードを使い分ける場合のディスプレイ11の表示画面例である。

Claims (12)

  1. 片手で把持可能な携帯サイズの筐体に、それぞれ操作者が一方の片手指で選択可能な複数の操作子と、操作者が他方の片手指で直接又は間接にタッチ操作可能なタッチセンサとが形成されており、
    前記筐体には、相互に結合されたデータメモリ、制御機構及び音出力機構が設けられており、
    前記データメモリには、実楽器が奏でる音特性を有する和音を前記音出力機構から出力させるための和音データファイルが、当該和音を識別するための和音IDと共に複数記録されており、
    前記複数の操作子の各々には、いずれかの前記和音IDが割り当てられており、
    前記制御機構は、
    操作者がどの操作子を選択し始めてその選択を何時解除したかを検出する操作子選択状況検出手段と、
    前記タッチセンサへのタッチ開始時期を含む操作内容を検出する操作内容検出手段と、
    前記操作子選択状況検出手段で検出した操作子に割り当てられている前記和音IDをもとに特定した和音データファイルを、当該操作子が選択されている間だけ前記データメモリより読み出して前記音出力機構に供給し、これにより出力可能になる和音を、前記操作内容検出手段が検出した操作内容と連動する態様で前記音出力機構から出力させる和音出力制御手段とを備えるものであり、
    前記操作内容検出手段は、前記タッチ開始時期のほか、前記タッチセンサへのタッチ操作方向を検出するものであり、
    前記和音出力制御手段は、前記音出力機構から第1の和音が前記操作内容と連動する態様で出力された後に、前記操作内容検出手段が前記タッチセンサが再度タッチされたことを検出すると、再度タッチされたときの前記操作状況で検出した操作子に割り当てられている前記和音IDにより出力可能になる和音を前記操作内容と連動する態様で前記音出力機構から第2の和音として出力するとともに、
    前記第1の和音と前記第2の和音の比較と、前記第1の和音におけるタッチ操作方向と前記第2の和音におけるタッチ操作方向との比較と、を行い、これらの比較結果に連動して、前記操作内容と連動する態様で出力される第1の和音の音量及び音の出力時間と、前記操作内容と連動する態様で出力される第2の和音の音量とをそれぞれ変化させる、
    携帯型和音出力装置。
  2. 前記操作内容検出手段は、前記タッチ開始時期のほか、前記タッチセンサへのタッチ操作速度、およびタッチ操作位置の少なくとも一つを検出するものであり、
    前記和音出力制御手段は、タッチ操作方向の変化が検出されたときはその出力周波数を変化方向に応じて変化させ、タッチ操作速度が検出されたときはその出力強度をタッチ操作速度に応じた強度とする、
    請求項1に記載の携帯型和音出力装置。
  3. 前記和音出力制御手段は、前記第1の和音と前記第2の和音とが等しく、かつ、前記第1の和音におけるタッチ操作方向と前記第2の和音におけるタッチ操作方向とが互いに反対方向である場合に、前記操作内容と連動する態様で出力される第1の和音に、前記操作内容と連動する態様で出力される第2の和音を合成して出力させ、
    その他の場合には、前記操作内容と連動する態様で出力される第1の和音を、前記再度タッチされた時点から小さくしていき所定時間で消音させ、前記操作内容と連動する態様で出力される第2の和音を、前記再度タッチされた時点では最小音量とし、その後は前記所定時間に渡ってその音量を徐々に大きくさせて出力する、
    請求項1記載の携帯型和音出力装置。
  4. 前記和音データファイルが、実楽器で奏でられた和音を録音して成るデータファイルである、請求項1、2又は3に記載の携帯型和音出力装置。
  5. 前記実楽器が、複数の弦がほぼ同じ時間に弾かれることにより前記和音が奏でられる弦使用楽器である、
    請求項4に記載の携帯型和音出力装置。
  6. 前記データメモリを前記制御機構及び音出力機構と離脱自在に結合するためのメモリ収脱機構を備えており、
    前記データメモリには、前記弦使用楽器を含む実楽器毎の前記データファイルが記録されている、
    請求項5に記載の携帯型和音出力装置。
  7. 前記データメモリには、連続する複数の小節から構成される楽曲の表示用画像データが記録されており、各小節には、それぞれ、当該実楽器用に割り当てられた1又は複数の前記和音IDが関連付けられており、
    前記制御機構は、前記楽曲の表示用画像データに基づいて所定の画像表示領域に、1つ又は複数の小節毎の楽曲画像を表示させるとともに、表示中の楽曲画像の小節に関連付けられている前記和音IDをもとに特定された和音データファイルが前記音出力機構から出力されたときに、当該表示中の楽曲画像に代えて次の1つ又は複数の小節を含む楽曲画像を前記画像表示領域に表示させる表示制御手段をさらに備えており、操作者の前記操作子の選択ならびに前記タッチセンサの操作に起因して前記画像表示領域における楽曲画像の表示変更を進行させる、
    請求項6記載の携帯型和音出力装置。
  8. 前記画像表示領域に表示される楽曲画像が、当該1つ又は複数の小節に割り当てられた、当該楽曲の歌詞と、和音出力のための前記タッチセンサの操作タイミングを案内する情報と、前記楽器における和音の生成を案内する情報との少なくともいずれかを伴うものである、
    請求項7に記載の携帯型和音出力装置。
  9. 前記制御機構は、前記楽曲画像の表示変更の進行履歴、該楽曲画像の表示に伴う前記操作子の選択履歴および前記タッチセンサのタッチ操作履歴をそれぞれ相互に関連付けて記録する履歴記録手段をさらに備えており、操作者の指示の入力を契機に、前記履歴記録手段に記録されている情報のうち、前記進行履歴を前記表示制御手段に供給することにより、該表示制御手段に前記画像表示領域への楽曲画像の表示変更を再現させ、前記選択履歴および前記タッチ操作履歴を前記和音出力制御手段に供給することにより、該和音出力制御手段に前記表示変更に連動する和音の出力並びにその態様の変化を再現させる、
    請求項8に記載の携帯型和音出力装置。
  10. 前記データメモリには、音の振動画像を表現するための振動画像データが記録されており、
    前記制御機構は、前記データメモリから読み出した振動画像ファイルを前記画像表示領域と異なる振動画像表示領域に表示させるとともに、表示中の振動画像を、前記和音の出力に従って変化させ、出力強度がゼロになった時点で静止させる振動画像表示制御手段をさらに備えている、
    請求項7に記載の携帯型和音出力装置。
  11. 片手で把持可能な携帯サイズの筐体に搭載されたコンピュータを携帯型和音出力装置として動作させるためのコンピュータプログラムであって、前記筐体には、それぞれ操作者が一方の片手指で選択可能な複数の操作子と、操作者が他方の片手指で直接又は間接にタッチ操作可能なタッチセンサとが形成されており、さらに、データメモリ及び音出力機構が前記コンピュータに設けられており、前記データメモリには、実楽器が奏でる音特性を有する和音を前記音出力機構から出力させるための和音データファイルが、当該和音を識別するための和音IDと共に複数記録されているものにおいて、
    前記コンピュータを、
    前記複数の操作子の各々に、いずれかの前記和音IDを割り当てる割当手段、
    操作者がどの操作子を選択し始めてその選択を何時解除したかを検出する操作子選択状況検出手段、
    前記タッチセンサへのタッチ開始時期及び前記タッチセンサへのタッチ操作方向を含む操作内容を検出する操作内容検出手段、
    前記操作子選択状況検出手段で検出した操作子に割り当てられている前記和音IDをもとに特定した和音データファイルを、当該操作子が選択されている間だけ前記データメモリより読み出して前記音出力機構に供給し、これにより出力可能になる和音を、前記操作内容検出手段が検出した操作内容と連動する態様で前記音出力機構から出力させ、更に、前記音出力機構から第1の和音が前記操作内容と連動する態様で出力された後に、前記操作内容検出手段が前記タッチセンサが再度タッチされたことを検出すると、再度タッチされたときの前記操作状況で検出した操作子に割り当てられている前記和音IDにより出力可能になる和音を前記操作内容と連動する態様で前記音出力機構から第2の和音として出力するとともに、前記第1の和音と前記第2の和音の比較と、前記第1の和音におけるタッチ操作方向と前記第2の和音におけるタッチ操作方向との比較と、を行い、これらの比較結果に連動して、前記操作内容と連動する態様で出力される第1の和音の音量及び音の出力時間と、前記操作内容と連動する態様で出力される第2の和音の音量とをそれぞれ変化させる和音出力制御手段、として機能させる、コンピュータプログラム。
  12. 請求項11に記載のコンピュータプログラムを記録してなる、コンピュータ読み取り可能な記録媒体。
JP2008523768A 2006-07-03 2007-07-03 携帯型和音出力装置、コンピュータプログラムおよび記録媒体 Expired - Fee Related JP4328828B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006183775 2006-07-03
JP2006183775 2006-07-03
PCT/JP2007/063630 WO2008004690A1 (fr) 2006-07-03 2007-07-03 Dispositif portatif de production d'accords, programme d'ordinateur et support d'enregistrement

Publications (2)

Publication Number Publication Date
JP4328828B2 true JP4328828B2 (ja) 2009-09-09
JPWO2008004690A1 JPWO2008004690A1 (ja) 2009-12-10

Family

ID=38894651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008523768A Expired - Fee Related JP4328828B2 (ja) 2006-07-03 2007-07-03 携帯型和音出力装置、コンピュータプログラムおよび記録媒体

Country Status (5)

Country Link
US (1) US8003874B2 (ja)
EP (1) EP2045796A4 (ja)
JP (1) JP4328828B2 (ja)
CN (1) CN101506870A (ja)
WO (1) WO2008004690A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111667554A (zh) * 2019-03-08 2020-09-15 卡西欧计算机株式会社 信息处理装置的控制方法、电子设备、演奏数据显示系统

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4815471B2 (ja) * 2008-06-10 2011-11-16 株式会社コナミデジタルエンタテインメント 音声処理装置、音声処理方法、ならびに、プログラム
US8269094B2 (en) * 2009-07-20 2012-09-18 Apple Inc. System and method to generate and manipulate string-instrument chord grids in a digital audio workstation
KR101657963B1 (ko) * 2009-12-08 2016-10-04 삼성전자 주식회사 단말기의 터치 면적 변화율에 따른 운용 방법 및 장치
US8822801B2 (en) * 2010-08-20 2014-09-02 Gianni Alexander Spata Musical instructional player
CN101996624B (zh) * 2010-11-24 2012-06-13 曾科 电子吉它单弦演奏和弦节奏音型的方法
US8426716B2 (en) * 2011-01-07 2013-04-23 Apple Inc. Intelligent keyboard interface for virtual musical instrument
KR20120110928A (ko) * 2011-03-30 2012-10-10 삼성전자주식회사 음원처리 장치 및 방법
BR112014003719B1 (pt) 2011-08-26 2020-12-15 Ceraloc Innovation Ab Revestimento de painel
US20130104039A1 (en) * 2011-10-21 2013-04-25 Sony Ericsson Mobile Communications Ab System and Method for Operating a User Interface on an Electronic Device
US8614388B2 (en) * 2011-10-31 2013-12-24 Apple Inc. System and method for generating customized chords
US9082380B1 (en) * 2011-10-31 2015-07-14 Smule, Inc. Synthetic musical instrument with performance-and/or skill-adaptive score tempo
JP5569543B2 (ja) * 2012-01-31 2014-08-13 ブラザー工業株式会社 ギターコード表示装置及びプログラム
US8937237B2 (en) 2012-03-06 2015-01-20 Apple Inc. Determining the characteristic of a played note on a virtual instrument
US8878043B2 (en) * 2012-09-10 2014-11-04 uSOUNDit Partners, LLC Systems, methods, and apparatus for music composition
JP5590350B2 (ja) * 2012-09-24 2014-09-17 ブラザー工業株式会社 楽曲演奏装置及び楽曲演奏用プログラム
WO2016111716A1 (en) 2015-01-08 2016-07-14 Muzik LLC Interactive instruments and other striking objects
US9805702B1 (en) 2016-05-16 2017-10-31 Apple Inc. Separate isolated and resonance samples for a virtual instrument
US20210407473A1 (en) * 2017-08-04 2021-12-30 Eventide Inc. Musical Instrument Tuner
US11107447B2 (en) * 2017-08-04 2021-08-31 Eventide Inc. Musical instrument tuner
USD874558S1 (en) * 2018-06-05 2020-02-04 Evets Corporation Clip-on musical instrument tuner with removable pick holder
JP7354539B2 (ja) * 2019-01-10 2023-10-03 ヤマハ株式会社 音制御装置、音制御方法およびプログラム
EP3985659A4 (en) * 2019-06-12 2023-01-04 Instachord Corp. CHORD PLAY INPUT DEVICE, ELECTRONIC MUSICAL INSTRUMENT, AND CHORD PLAY INPUT PROGRAM
JP7306711B2 (ja) * 2019-06-12 2023-07-11 雄一 永田 和音演奏入力装置、電子楽器、及び、和音演奏入力プログラム
US20210366448A1 (en) * 2020-05-21 2021-11-25 Parker J. Wonser Manual music generator
US11842709B1 (en) 2022-12-08 2023-12-12 Chord Board, Llc Chord board musical instrument

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4339979A (en) * 1978-12-21 1982-07-20 Travis Norman Electronic music instrument
US4480521A (en) * 1981-06-24 1984-11-06 Schmoyer Arthur R System and method for instruction in the operation of a keyboard musical instrument
JPS5871797U (ja) * 1981-11-10 1983-05-16 ヤマハ株式会社 電子楽器
US4794838A (en) * 1986-07-17 1989-01-03 Corrigau Iii James F Constantly changing polyphonic pitch controller
JP3177992B2 (ja) 1991-02-14 2001-06-18 カシオ計算機株式会社 電子楽器
US5440071A (en) * 1993-02-18 1995-08-08 Johnson; Grant Dynamic chord interval and quality modification keyboard, chord board CX10
JPH0744172A (ja) 1993-07-30 1995-02-14 Roland Corp 自動演奏装置
JP3204014B2 (ja) 1995-01-10 2001-09-04 ヤマハ株式会社 演奏指示装置および電子楽器
JPH0934392A (ja) 1995-07-13 1997-02-07 Shinsuke Nishida 音とともに画像を提示する装置
US6111179A (en) * 1998-05-27 2000-08-29 Miller; Terry Electronic musical instrument having guitar-like chord selection and keyboard note selection
JP2000148168A (ja) 1998-11-13 2000-05-26 Taito Corp 楽器演奏習得装置及びカラオケ装置
JP3684892B2 (ja) * 1999-01-25 2005-08-17 ヤマハ株式会社 和音提示装置および記憶媒体
JP3838353B2 (ja) 2002-03-12 2006-10-25 ヤマハ株式会社 楽音生成装置および楽音生成用コンピュータプログラム
US6670535B2 (en) * 2002-05-09 2003-12-30 Clifton L. Anderson Musical-instrument controller with triad-forming note-trigger convergence points
JP2004240077A (ja) * 2003-02-05 2004-08-26 Yamaha Corp 楽音制御装置、映像制御装置及びプログラム
US20040244566A1 (en) * 2003-04-30 2004-12-09 Steiger H. M. Method and apparatus for producing acoustical guitar sounds using an electric guitar
US7365263B2 (en) * 2003-05-19 2008-04-29 Schwartz Richard A Intonation training device
JP2005078046A (ja) 2003-09-04 2005-03-24 Takara Co Ltd ギター玩具
US7420114B1 (en) * 2004-06-14 2008-09-02 Vandervoort Paul B Method for producing real-time rhythm guitar performance with keyboard
US7161080B1 (en) * 2005-09-13 2007-01-09 Barnett William J Musical instrument for easy accompaniment
DE102006008260B3 (de) * 2006-02-22 2007-07-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Analyse eines Audiodatums
US20070240559A1 (en) * 2006-04-17 2007-10-18 Yamaha Corporation Musical tone signal generating apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111667554A (zh) * 2019-03-08 2020-09-15 卡西欧计算机株式会社 信息处理装置的控制方法、电子设备、演奏数据显示系统
CN111667554B (zh) * 2019-03-08 2023-08-15 卡西欧计算机株式会社 信息处理装置的控制方法、电子设备、演奏数据显示系统

Also Published As

Publication number Publication date
US20100294112A1 (en) 2010-11-25
JPWO2008004690A1 (ja) 2009-12-10
EP2045796A1 (en) 2009-04-08
WO2008004690A1 (fr) 2008-01-10
CN101506870A (zh) 2009-08-12
EP2045796A4 (en) 2012-10-24
US8003874B2 (en) 2011-08-23

Similar Documents

Publication Publication Date Title
JP4328828B2 (ja) 携帯型和音出力装置、コンピュータプログラムおよび記録媒体
JP4752425B2 (ja) 合奏システム
JP4797523B2 (ja) 合奏システム
JP4692189B2 (ja) 合奏システム
US7405354B2 (en) Music ensemble system, controller used therefor, and program
JP4379291B2 (ja) 電子音楽装置及びプログラム
JP2004271783A (ja) 電子楽器および演奏操作装置
US7838754B2 (en) Performance system, controller used therefor, and program
JP5842383B2 (ja) カラオケシステム及びカラオケ装置
JP6803294B2 (ja) カラオケ装置
JP4211854B2 (ja) 合奏システム、コントローラ、およびプログラム
JP2011039248A (ja) 携帯型音出力装置、コンピュータプログラムおよび記録媒体
JP2005078046A (ja) ギター玩具
JP5590350B2 (ja) 楽曲演奏装置及び楽曲演奏用プログラム
JP6991620B1 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP7070538B2 (ja) プログラム、方法、電子機器、及び演奏データ表示システム
JP2018146716A (ja) 教習装置、教習プログラムおよび教習方法
JP2003223165A (ja) 楽譜表示装置および電子楽器
JP4218688B2 (ja) 合奏システム、このシステムに用いるコントローラ及びプログラム
JP6394366B2 (ja) カラオケ装置及びカラオケ用プログラム
JP6291913B2 (ja) 楽曲生成システム
JP2008233614A (ja) 小節番号表示装置、小節番号表示方法及び小節番号表示プログラム
JP2004258050A (ja) 自動演奏装置及び自動演奏方法
JP2002196760A (ja) 楽音生成装置
Brock GarageBand for iPad

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090602

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090615

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120619

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120619

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130619

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees