JP7053465B2 - 音楽教育支援システム - Google Patents

音楽教育支援システム Download PDF

Info

Publication number
JP7053465B2
JP7053465B2 JP2018530416A JP2018530416A JP7053465B2 JP 7053465 B2 JP7053465 B2 JP 7053465B2 JP 2018530416 A JP2018530416 A JP 2018530416A JP 2018530416 A JP2018530416 A JP 2018530416A JP 7053465 B2 JP7053465 B2 JP 7053465B2
Authority
JP
Japan
Prior art keywords
data
block data
sound
phrase block
phrase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018530416A
Other languages
English (en)
Other versions
JPWO2018021519A1 (ja
Inventor
清 宮浦
寿夫 安倍
Original Assignee
清 宮浦
寿夫 安倍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 清 宮浦, 寿夫 安倍 filed Critical 清 宮浦
Publication of JPWO2018021519A1 publication Critical patent/JPWO2018021519A1/ja
Application granted granted Critical
Publication of JP7053465B2 publication Critical patent/JP7053465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Description

この発明は音楽教育支援システムに関する。
従来、音楽教育支援システムの一つとして、特許文献1には、楽曲の作曲が容易に行え、その作曲を行った実感がより得られる作曲支援装置、及びプログラムが提案されている。
特許文献1記載の発明は、音符の種類をゲートルーレットにより自動的に選択し、音符のピッチをピッチルーレットにより自動的に選択して作曲を支援するものである。
特開2006-84855号公報
これまでの幼児期の子供に対する音楽教育は、楽器の操作を通じて行うものであった。そのため、音楽が好きであるが楽器の操作が苦手、あるいは音符や楽譜を理解できないという理由で結局音楽が嫌いになる子供が多かった。
このような状況のもと、音楽の楽しさや音楽への興味、感動を聴覚と視覚を通じて体験させるような音楽教育支援システムの提案が望まれていた。
特許文献1記載の発明では、音符や楽譜、音名、音階等を理解していることが要求されるので、感覚的な操作で音楽教育を行うためには改善の余地がある。
この発明は、楽器の操作が苦手、あるいは音符や楽譜等が分からなくても幼児期の子供に対して音楽の楽しさ、音楽への興味、感動を伝える音楽教育支援システムを提供することを目的とする。
請求項1の発明は、
通信ネットワークに接続されているコンピュータからなり、
一又は複数の音を表す音データと、前記音の数を表す第一の図形データとが関連付けられてなる第一のフレーズブロックデータを記憶している第一のフレーズブロックデータ記憶部と、
複数の前記第一のフレーズブロックデータの中から任意の前記第一のフレーズブロックデータの選択を促すフレーズブロックデータ選択指示部と、
前記選択された第一のフレーズブロックデータに関連付けられている前記音データを出力する音声出力手段と、
前記音データと、前記音の数を表す第二の図形データとが関連付けられてなる第二のフレーズブロックデータを記憶している第二のフレーズブロックデータ記憶部と、
一又は複数の前記第二のフレーズブロックデータからなるソングブロックデータが記憶されているソングブロックデータ記憶部と、
複数の前記ソングブロックデータの中から任意の前記ソングブロックデータの選択を促すソングブロックデータ選択指示部と、
前記選択されたソングブロックデータを構成する前記第二のフレーズブロックデータに対応する前記第一のフレーズブロックデータの選択を促す対応フレーズブロックデータ選択指示部と、
前記選択された第一のフレーズブロックデータに関連付けられている前記音データと、前記選択された第二のフレーズブロックデータに関連付けられている前記音データとが一致しているか否かを判別する判別部と、を備え、
前記音声出力手段は、前記選択されたソングブロックデータを構成する前記第二のフレーズブロックデータの前記第二の図形データに関連付けられている前記音データを出力する
音楽教育支援システムである。
この発明によれば、楽器の操作が苦手、あるいは音符や楽譜等が分からなくても幼児期の子供に対して音楽の楽しさ、音楽への興味、感動を伝える音楽教育支援システムを提供することができる。
本発明に係る音楽教育支援システムの構成の一例を表す。 本発明が備えるサーバ装置の構成の一例を表す。 本発明が備えるユーザ端末の構成の一例を表す。 (a)、(b)共に本発明が備える情報通信装置の構成の一例を表す。 (a)はブロック枠データを表す。(b)~(e)はそれぞれ第一の図形データ及び音データの一例を表す。(f)、(g)は第一のフレーズブロックデータの一例を表す。 (a)~(d)はそれぞれ第一の図形データ及び音データの他の例を表す。(e)は第一のフレーズブロックデータの他の例を表す。 (a)複数の第一のフレーズブロックデータがユーザ端末に表示された状態の一例を表す。(b)音色データの一例を表す。 (a)作曲データが作成される状態の一例を表す。(b)作成された作曲データの他の例を表す。 図8(a)図示の作曲データに図8(b)図示の音色データが組み合わされた状態の一例を表す。 本発明の第二の実施形態の一例を表し、(a)はブロック枠データを表す。(b)~(e)はそれぞれ第二の図形データ及び音データの一例を表す。(f)、(g)は第二のフレーズブロックデータの一例を表す。 第二のフレーズブロックデータに対応する第一のフレーズブロックデータを選択している状態の一例を表す。 図11に引き続き、第二のフレーズブロックデータに対応する第一のフレーズブロックデータを選択している状態の一例を表す。 図12に引き続き、第二のフレーズブロックデータに対応する第一のフレーズブロックデータを選択している状態の一例を表す。 図13に引き続き、第二のフレーズブロックデータに対応する第一のフレーズブロックデータを選択している状態の一例を表す。 第二のフレーズブロックデータに関連付けられている音データと、選択した第一のフレーズブロックデータに関連付けられている音データとの比較を表す図であって、(a)、(c)、(e)、(g)は両音データが一致している場合を表す。(b)、(d)、(f)、(h)は両音データが異なっている場合を表す。 本発明の第三の実施形態に係る音声記憶構造体の一例を表し、(a)は音声記憶構造体の形状を表す。(b)は第一のフレーズブロックデータを表す図形が音声記憶構造体に表示されている状態を表す。 音声記憶構造体に記憶される第一のフレーズブロックデータの一例を表す。 (a)第三の実施形態に係る配置盤の一例を表す。(b)、(c)それぞれ、配置盤に音声記憶構造体が配置され、ユーザ端末から音が出力されている状態の一例を表す。 本発明の第四の実施形態の一例を表し、(a)配置盤の一例を表す。(b)配置盤に音声記憶構造体が配置された状態の一例を表す。(c)音声記憶構造体から音が出力されている状態の一例を表す。 本発明の第四の実施形態の他の例を表す。 本発明の第一の実施形態の処理フローの一例を表す。 本発明の第二の実施形態の処理フローの一例を表す。 本発明の第三の実施形態の処理フローの一例を表す。 本発明の第四の実施形態の処理フローの一例を表す。 本発明の第四の実施形態の他の例の処理フローを一例表す。
以下、添付図面を参照して、本発明の実施形態を説明する。
本実施形態の音楽教育支援システム1は、インターネット通信網、無線通信規格で定められている無線通信網を含む通信ネットワーク46に接続可能なコンピュータからなる。
後述する第二、第三、第四の実施形態において、第一の実施形態で説明する構成と共通する構成については同じ符号を付し、その説明を省略する。
[第一の実施形態]
本実施形態の音楽教育支援システム1は、前記コンピュータを構成するユーザが使用するユーザ端末3(図3)と、本発明に係る音楽教育支援サービスを提供する事業者が通信ネットワーク46に接続可能に設置しているサーバ装置2(図2)とが、通信ネットワーク46を介して接続されて構成されている。
ユーザ端末3には、パーソナルコンピュータ、タブレット端末、スマートフォン、ウェブ閲覧機能などを有する携帯電話機、等の端末が含まれ、本実施形態に係る音楽教育支援サービスをウェブ上で利用するためのウェブブラウザを備えている。あるいは、ユーザ端末3には、前記音楽教育支援サービスの提供を受けるためのアプリケーションプログラムがサーバ装置2からダウンロード、インストールされている。
ユーザ端末3は、サーバ装置2と相互に情報の送受信を行う情報送受信部16を備えている。
ユーザ端末3は、例えば、記憶部17として内蔵ストレージ、情報表示手段18として液晶ディスプレイ、情報入力手段19としてキーボード、マウス、タッチパネル、音声出力手段20として内部スピーカを備えている。これらが行う情報処理はCPU、RAM等を備える制御部21によって制御される。
サーバ装置2は、ユーザ端末3と相互に情報の送受信を行う情報送受信部5を備えている。
サーバ装置2は、各種の情報を記憶する記憶部6を備えている。本実施形態の記憶部6は、第一のフレーズブロックデータ記憶部6a、作曲データ記憶部6c、音色データ記憶部6eを備えている。
第一のフレーズブロックデータ記憶部6aには、一又は複数の音を表す音データ36と、前記音の数を表す第一の図形データとが関連付けられてなる第一のフレーズブロックデータ38が記憶されている。
本明細書において、音データ36には、一音、二音等、種々の音の数の音データと、休符を表す音データが含まれる。
図5(b)、(f)に示す例では、一つの4分音符を表す音データ36aと、その音データ36aの音の数が一つであることを表す円形の第一の図形データ37aとが関連付けられて第一のフレーズブロックデータ38aとなっている。
図5(c)、(f)に示す例では、二つの8分音符を表す音データ36bと、その音データ36bの音の数が二つであることを表す二つの半円形が組み合わされた円形の第一の図形データ37bとが関連付けられて第一のフレーズブロックデータ38bとなっている。
図5(d)、(f)に示す例では、三つの3連音符を表す音データ36cと、その音データ36cの音の数が三つであることを表す正三角形の第一の図形データ37cとが関連付けられて第一のフレーズブロックデータ38cとなっている。
図5(e)、(f)に示す例では、四つの16分音符を表す音データ36dと、その音データ36dの音の数が四つであることを表す正方形の第一の図形データ37dとが関連付けられて第一のフレーズブロックデータ38dとなっている。
このような第一のフレーズブロックデータ38が複数組み合わされて、図5(f)に示すような特定のメロディ及びリズムを有するソングブロックデータ40が作成される。
また、図5(a)に示す1拍の長さを表すブロック枠データ39を準備しておき、このブロック枠データ39と、第一のフレーズブロックデータ38とを関連付けてもよい。
このようなブロック枠データ39が関連付けられた第一のフレーズブロックデータ38が複数組み合わされて、図5(g)に示すような特定のメロディ及び4拍のリズムを有するソングブロックデータ40が作成される。
図6(a)~(c)に示す例では、一音、二音の音の数の音データ36e~36gと、その音データそれぞれの音の数を表す第一の図形データ37a、37bとが関連付けられて第一のフレーズブロックデータ38a、38bとなっている。図6(e)に示す例では、休符についての音データ37eと、その休符を表す円形に記号が付された第一の図形データ37eとが関連付けられて第一のフレーズブロックデータ38eとなっている。
このような第一のフレーズブロックデータ38が複数組み合わされて、図6(e)に示すような特定のメロディ及びリズムを有するソングブロックデータ40が作成される。
また、図6に示す例では、第一の図形データ37a、37bが表す各図形は、音データ36e~36gの音の特徴、すなわち、音の拍数、高低を示す色彩又は模様を有する。図6に示す例では、音の高低と音程の変化を色彩又は模様で示している。
図6(a)に示す第一の図形データ37aは、一音の音名「ラ」が所定の音の高さを有していることを表す模様を有している。
図6(b)に示す第一の図形データ37bは、二音の音名「ドソ」のうち、一音目の「ド」よりも二音目の「ソ」の音程が高いことを表す色彩を有している。
図6(c)に示す第一の図形データ37bは、二音の音名「ミレ」のうち、一音目の「ミ」よりも二音目の「レ」の音程が低いことを表す格子状の模様を有している。
図6(b)図示の第一の図形データ37bと図6(c)図示の第一の図形データ37bとは、二音の音の数を表す同一の円形を有している点で共通しているが、一音目と二音目の音の変化が異なるので各図形が有する色彩又は模様は異なっている。
音色データ記憶部6eには、音データ36の音に組み合わせる音色が音色データ41として記憶されている。図7(b)に示す音色データ41a~41fはそれぞれ、種々の音色を表す円形及び模様を有している。
作曲データ記憶部6cには、後述する複数のソングブロックデータ40の組み合わせからなる作曲データ45が記憶される。
サーバ装置2は、複数の第一のフレーズブロックデータ38をユーザ端末3に送信して、任意の第一のフレーズブロックデータ38の選択を促す処理を行うフレーズブロックデータ選択指示部7を備えている。ユーザ端末3には、図7(a)に示すように種々の第一のフレーズブロックデータ38(38a~38e)が表示される。
なお、本実施形態では、ユーザ端末3には、第一のフレーズブロックデータ38に含まれている音の数、拍数、高低を示す形状と色彩又は模様のみが表示され、例えば「ラ」、「ドソ」等、どの音名なのかを認識できる情報は表示されない。この他、第一のフレーズブロックデータ38を表示させる処理を行う際に、どの音名なのかを認識できる情報を表示させてもよい。
サーバ装置2は、複数の第一のフレーズブロックデータ38を組み合わせるためのフレーム枠データ42をユーザ端末3に送信して、フレーム枠データ42が表しているフレーム枠内に、選択された第一のフレーズブロックデータ38を複数組み合わせることを促す処理を行うフレーズブロックデータ組み合わせ指示部8を備えている。ユーザ端末3には、図8(a)に示すような1小節の長さを表すフレーム枠データ42が表示され、情報入力手段19を用いて図7(a)に示す種々の第一のフレーズブロックデータ38の中から任意の第一のフレーズブロックデータ38を選択して、1小節の長さを表すフレーム枠データ42が表しているフレーム枠内に配置する。
図8(a)に示す例では、一つのフレーム枠内に四つの第一のフレーズブロックデータ38が組み合わされてなる1小節の長さのソングブロックデータ40が四つ作成されている。図8(b)に示す例では、一つのフレーム枠内に四つの第一のフレーズブロックデータ38が組み合わされてなる1小節の長さのソングブロックデータ40が、俳句を表す五-七-五形式で作成されている。このような一又は複数のソングブロックデータ40で一つの作曲データ45が作成される。作曲データ45は作曲データ記憶部6dに記憶される。
サーバ装置2は、複数の音色データ41をユーザ端末3に送信して、任意の音色データ41の選択を促す処理を行う音色データ選択指示部14を備えている。ユーザ端末3には、図7(b)に示すような音色データ41(41a~41f)が表示され、情報入力手段19を用いて図9に示すように、1小節の長さを表すフレーム枠データ42が表しているフレーム枠内に配置された第一のフレーズブロックデータ38に付加する音色データ41を選択する。音色データ41が付加された作曲データ45も作曲データ記憶部6cに記憶される。
これらの各情報処理部が行う情報処理はCPU、RAM等を備える制御部15によって制御される。
ユーザ端末3では、第一のフレーズブロックデータ38が選択されると、選択した第一のフレーズブロックデータ38に関連付けられている音データ36が音声出力手段20によって出力される。すなわち、選択された第一のフレーズブロックデータ38に関連付けられている音データ36がどのような音、あるいはメロディなのかを聞くことができる。
また、音声出力手段20は、作曲データ45に含まれている選択された複数の第一のフレーズブロックデータ38の組み合わせに基づいて、当該組み合わされた複数の第一のフレーズブロックデータ38に関連付けられている音データ36を出力する処理を行う。図8(a)に示す例では、1小節の長さを表す左側のフレーム枠データ42が表しているフレーム枠内に配置されている左側の第一のフレーズブロックデータ38bに関連付けられている音データ36から順番に出力される。また、図9に示す例では、1小節の長さを表す左側のフレーム枠データ42が表しているフレーム枠内に配置されている音色データ41aが付加された左側の第一のフレーズブロックデータ38bに関連付けられている音データ36から順番に出力される。
本実施形態では、フレーズブロックデータ選択指示部7、フレーズブロックデータ組み合わせ指示部8、音色データ選択指示部14が行う上述の処理をサーバ装置2が行う構成としている。この他、これらの情報処理を実行するために必要なアプリケーションプログラムをサーバ装置2からユーザ端末3へダウンロード、インストールさせ、ユーザ端末3が前記アプリケーションブログラムを実行して、フレーズブロックデータ選択指示部7、フレーズブロックデータ組み合わせ指示部8、音色データ選択指示部14が行う上述の処理をユーザ端末3が行う構成とすることもできる。
図21を参照して本実施形態の処理フローを説明する。この処理フローでは、ユーザ端末3が予めサーバ装置2から前記アプリケーションブログラムをダウンロード、インストールしており、サーバ装置2が記憶している各種データも保有している。
(S101)ユーザはユーザ端末3を使用して本実施形態に係る音楽教育支援サービスの提供を受けるためのアプリケーションプログラムを起動する。
(S102)フレーズブロックデータ選択指示部7は、図7(a)に示すような種々の第一のフレーズブロックデータ38(38a~38e)をユーザ端末3に表示する処理を行い、任意の第一のフレーズブロックデータ38の選択を促す処理を行う。
(S103)フレーズブロックデータ組み合わせ指示部8は、図8(a)に示すような1小節の長さを表すフレーム枠データ42をユーザ端末3に表示する処理を行い、フレーム枠データ42が表しているフレーム枠内に、選択された第一のフレーズブロックデータ38を複数組み合わせることを促す処理を行う。
(S104)音色データ選択指示部14は、図7(b)に示すような音色データ41(41a~41f)をユーザ端末3に表示する処理を行い、任意の音色データ41の選択を促す処理を行う。
(S105)ユーザ端末3では、図7(a)に示すような種々の第一のフレーズブロックデータ38の中から任意の第一のフレーズブロックデータ38を選択する処理が行われる。
(S106、S108)ユーザは、情報入力手段19を操作して第一のフレーズブロックデータ38を選択して、音声出力手段20が出力する当該第一のフレーズブロックデータ38に関連付けられている音データ36を聞きながら、選択した第一のフレーズブロックデータ38を、1小節の長さを表すフレーム枠データ42が表しているフレーム枠内に配置して組み合わせる処理を繰り返し行う。その結果図8に示すような複数の第一のフレーズブロックデータ38の組み合わせからなる1小節の長さのソングブロックデータ40が一又は複数含まれた作曲データ45が完成する。
(S107、S108)S103、S104の処理後、1小節の長さを表すフレーム枠データ42が表しているフレーム枠内に配置された第一のフレーズブロックデータ38に付加する音色データ41を選択すると、図9に示すような音色データ41が付加された作曲データ45が完成する。
(S109)作成された作曲データ45はサーバ装置2へ送信され、作曲データ記憶部6cに記憶される。
(S110)ユーザ端末3では、音声出力手段20が作曲データ45に含まれている選択された複数の第一のフレーズブロックデータ38の組み合わせに基づいて、当該組み合わされた第一のフレーズブロックデータ38に関連付けられている音データ36を出力する処理を行う。
このように、本実施形態では一音又は複数の音を一つの音のフレーズとしてブロック化し、音のブロックごとに音の特徴(音数、インターバル、高低)を色彩、模様を有する平面形状でインターフェース化している。そこで、音や音の流れがビジュアル化され、音を聞きながら感覚的に音のブロックを並べて遊ぶことができる。従って、具体的な音名、音符や楽譜が分からなくても音楽を学ぶことが可能なので音楽教育やトレーニング等に活用することができる。
[第二の実施形態]
本実施形態では、第一の実施形態の構成に以下の構成が追加されている。
サーバ装置2の記憶部6は、第二のフレーズブロックデータ記憶部6bとソングブロックデータ記憶部6dとを備えている。
第二のフレーズブロックデータ記憶部6bには、音データ36と、前記音の数を表す第二の図形データ43とが関連付けられてなる第二のフレーズブロックデータ44が記憶されている。
図10に示す例では、図5、図6の例で説明したように、一音、複数音を表す音データ36e~36hと、その音データそれぞれの音の数を表す第二の図形データ43a、43b、43cとが関連付けられて第二のフレーズブロックデータ44a~44dとなっている。
このような第二のフレーズブロックデータ44が複数組み合わされて、図10(f)に示すような特定のメロディ及びリズムを有する1小節の長さのソングブロックデータ40が作成されている。
また、図5の例で説明したように、図10(a)に示す1拍の長さを表すブロック枠データ39を準備しておき、このブロック枠データ39と、第二のフレーズブロックデータ44とを関連付けてもよい。
このようなブロック枠データ39が関連付けられた第二のフレーズブロックデータ44が複数組み合わされて、図10(g)に示すような特定のメロディ及び4拍のリズムを有する1小節の長さのソングブロックデータ40が作成されている。
第二の図形データ43が表す各図形は、音データ36の音の特徴、すなわち、音の数、拍数、高低を示す形状と色彩又は模様を有する。本実施形態でも、第一の実施形態と同様に音の数を形状で示し、音の高低と音程の変化を色彩又は模様で示している。
図10(f)、(g)に示す第二のフレーズブロックデータ44aの第二の図形データ43aは、一音の音名「ラ」が所定の音の高さを有していることを表す色彩(無色)を有している。
図10(f)、(g)に示す第二のフレーズブロックデータ44bの第二の図形データ43bは、二音の音名「ミレ」のうち、一音目の「ミ」よりも二音目の「レ」の音程が高いことを表す色彩(無色)を有している。
図10(f)、(g)に示す第二のフレーズブロックデータ44cの第二の図形データ43bは、二音の音名「ファミ」のうち、一音目の「ファ」よりも二音目の「ミ」の音程が低いことを表す色彩(無色)を有している。
図10(f)、(g)に示す第二のフレーズブロックデータ44dの第二の図形データ43cは、四音の音名「ラシドレ」が所定の音の高さを有していることを表す色彩(無色)を有している。
このように、第二の図形データ43a~43cが表す図形の色彩は、関連付けられている音データ36e~36hの音の数、高低にかかわらず同一となっている。
また、図10に示す第二の図形データ43が表す図形と、当該第二の図形データ43に関連付けられている音データ36と同じ音データ36が関連付けられている図5、図6に示す第一の図形データ37が表す図形とは、形状、色彩又は模様が同一である場合がある。
図10(f)、(g)に示す「ラ」の音データ36eが関連付けられている第二の図形データ43aと、図5(f)、(g)に示す前記「ラ」の音データ36eが関連付けられている第一の図形データ37aとは、それぞれの図形データが表す図形の形状、色彩が同一となっている。
また、図10に示す第二の図形データ43が表す図形と、当該第二の図形データ43に関連付けられている音データ36と同じ音データ36が関連付けられている図5、図6に示す第一の図形データ37が表す図形とは、形状は同一であるが、色彩又は模様が異なる場合がある。
図10(f)、(g)に示す「ドソ」の音データ36fが関連付けられている第二の図形データ43bと、図6(b)、(d)に示す前記「ドソ」の音データ36fが関連付けられている第一の図形データ37bとは、それぞれの図形データが表す図形の形状は同一でるが、色彩が異なっている。
ソングブロックデータ記憶部6dには、一又は複数の第二のフレーズブロックデータ44 からなるソングブロックデータ40が記憶されている。図10(f)、(g)に示す例では、四つの第二のフレーズブロックデータ44(44a~44d)からなる1小節の長さのソングブロックデータ40がソングブロックデータ記憶部6dに記憶されている。
サーバ装置2は、複数のソングブロックデータ40をユーザ端末3に送信して、任意のソングブロックデータ40の選択を促すソングブロックデータ選択指示部9を備えている。ユーザ端末3には、例えば、1小節の長さのソングブロックデータ40を表す図形(アイコン)が複数表示される(非図示)。
ユーザ端末3による操作によってソングブロックデータ40が選択されると、図11~図14に示すように、ソングブロックデータ40を構成する一又は複数の第二のフレーズブロックデータ44が表示される。図示の例では、第二のフレーズブロックデータ44d、44b、44a、44aが表示されている。
なお、本実施形態では、ユーザ端末3には、第二のフレーズブロックデータ44に含まれている音の数、拍数、高低を示す形状と色彩又は模様のみが表示され、例えば「ラ」、「ドソ」等、どの音名なのかを認識できる情報は表示されない。この他、第二のフレーズブロックデータ44を表示させる処理を行う際に、どの音名なのかを認識できる情報を表示させてもよい。
ユーザ端末3によって第二のフレーズブロックデータ44が選択されると、選択した第二のフレーズブロックデータ44の第二の図形データ43に関連付けられている音データ36が音声出力手段20によって出力される。すなわち、選択された第二のフレーズブロックデータ44がどのようなメロディ及びリズムなのかを聞くことができる。
サーバ装置2は、選択された第二のフレーズブロックデータ44に対応する第一のフレーズブロックデータ38の選択を促す対応フレーズブロックデータ選択指示部10を備えている。図11に示す例では、四つの第一のフレーズブロックデータ38dがユーザ端末3に表示されている。図12に示す例では、四つの第一のフレーズブロックデータ38bがユーザ端末3に表示されている。図13、図14に示す例ではそれぞれ、四つの第一のフレーズブロックデータ38aがユーザ端末3に表示されている。いずれの例においても、第二のフレーズブロックデータ44に対応する第一のフレーズブロックデータ38が一つ表示されており、残りの三つの第一のフレーズブロックデータ38は第二のフレーズブロックデータ44とは音データ36の種類、高低が異なっている。
対応フレーズブロックデータ選択指示部10は、ユーザ端末3に表示されているソングブロックテータ40を構成する第二のフレーズブロックデータ44に関連付けられている音データ36と同じ音データ36が関連付けられている第一のフレーズブロックデータ38を選択するよう促す処理を行う。図11に示す例では、第二のフレーズブロックデータ44dに関連付けられている音データ36h「ラシドレ」と同じ音データ36hが関連付けられている第一のフレーズブロックデータ38dを、四つの第一のフレーズブロックデータ38dの中から選択するよう促す処理が行われる。図12~図14においても同様の処理が行われる。
ユーザは、第二のフレーズブロックデータ44を選択して、音声出力手段20が出力する当該第二のフレーズブロックデータ44に関連付けられている音データ36を聞いた後、当該音データ36の音の数、拍数、高低と同じ音データ36が関連付けられている第一のフレーズブロックデータ38を選択する。ユーザ端末3によって第一のフレーズブロックデータ38が選択されると、選択した第一のフレーズブロックデータ38に関連付けられている音データ36が音声出力手段20によって出力される。すなわち、選択された第一のフレーズブロックデータ38に関連付けられている音データ38がどのような音なのかを聞くことができる。
なお、図11~図14に示すように、サーバ装置2からユーザ端末3へ鍵盤データ47を送信し、第一のフレーズブロックデータ38を選択した際に、第一のフレーズブロックデータ38に関連付けられている音データ36がどのような音なのかを鍵盤データ47に表示させることもできる。このようにすることで、出力された音データ36が鍵盤データ47のどの位置にあるのかを認識しながらピアノ等の音楽学習を行うことができる。
サーバ装置2は、選択された第一のフレーズブロックデータ38をフレーム枠データ42が表しているフレーム枠内に配置することを促す対応フレーズブロックデータ配置指示部11を備えている。
ユーザはユーザ端末3の情報入力手段19を用いて、図11~図14に示すように選択した第一のフレーズブロックデータ38をドラッグ等の操作を行って矢印の方向へ移動させ、前記フレーム枠内に配置する。
サーバ装置2は、ユーザ端末3から前記フレーム枠内に配置された第一のフレーズブロックデータ38を取得して、当該第一のフレーズブロックデータ38に関連付けられている音データ36と、前記選択された第二のフレーズブロックデータ44に関連付けられている音データ36とが一致しているか否かを判別する判別部12を備えている。
図11、図15(a)に示す例では、前記選択された第二のフレーズブロックデータ44dに関連付けられている音データ36h「ラシドレ」に対して、前記フレーム枠内に配置された第一のフレーズブロックデータ38dに関連付けられている音データ36hが「ラシドレ」であるので、判別部12は両フレーズブロックデータに関連付けられている音データは一致していると判別する。
図11、図15(b)に示す例では、前記選択された第二のフレーズブロックデータ44dに関連付けられている音データ36h「ラシドレ」に対して、前記フレーム枠内に配置された第一のフレーズブロックデータ38dに関連付けられている音データ36iが「ラドレシ」であるので、判別部12は両フレーズブロックデータに関連付けられている音データは一致していないと判別する。
図12、図15(c)に示す例では、前記選択された第二のフレーズブロックデータ44bに関連付けられている音データ36f「ドソ」に対して、前記フレーム枠内に配置された第一のフレーズブロックデータ38bに関連付けられている音データ36fが「ドソ」であるので、判別部12は両フレーズブロックデータに関連付けられている音データは一致していると判別する。
図12、図15(d)に示す例では、前記選択された第二のフレーズブロックデータ44bに関連付けられている音データ36f「ドソ」に対して、前記フレーム枠内に配置された第一のフレーズブロックデータ38bに関連付けられている音データ36jが「ドファ」であるので、判別部12は両フレーズブロックデータに関連付けられている音データは一致していないと判別する。
図13、図15(e)に示す例では、前記選択された第二のフレーズブロックデータ44aに関連付けられている音データ36e「ラ」に対して、前記フレーム枠内に配置された第一のフレーズブロックデータ38aに関連付けられている音データ36eが「ラ」であるので、判別部12は両フレーズブロックデータに関連付けられている音データは一致していると判別する。
図13、図15(f)に示す例では、前記選択された第二のフレーズブロックデータ44aに関連付けられている音データ36e「ラ」に対して、前記フレーム枠内に配置された第一のフレーズブロックデータ38aに関連付けられている音データ36kが「シ」であるので、判別部12は両フレーズブロックデータに関連付けられている音データは一致していないと判別する。
図14、図15(g)に示す例では、前記選択された第二のフレーズブロックデータ44aに関連付けられている音データ36e「ラ」に対して、前記フレーム枠内に配置された第一のフレーズブロックデータ38aに関連付けられている音データ36eが「ラ」であるので、判別部12は両フレーズブロックデータに関連付けられている音データは一致していると判別する。
図14、図15(h)に示す例では、前記選択された第二のフレーズブロックデータ44aに関連付けられている音データ36e「ラ」に対して、前記フレーム枠内に配置された第一のフレーズブロックデータ38aに関連付けられている音データ36lが「シ」であるので、判別部12は両フレーズブロックデータに関連付けられている音データは一致していないと判別する。
音声出力手段20は、前記フレーム枠内に配置された複数の第一のフレーズブロックデータ38の組み合わせに基づいて、当該組み合わされた複数の第一のフレーズブロックデータ38に関連付けられている音データ36を出力する処理を行う。図11~図14図に示す例では、判別部12による上記判別処理後、前記フレーム枠内に配置された第一のフレーズブロックデータ38d、38b、38a、38aそれぞれに関連付けられている音データ36h、36f、36e、36eが出力される。
サーバ装置2は、第一のフレーズブロックデータ38及び第二のフレーズブロックデータ44に関連付けられている音データ36の音名を音名データとして生成する音名データ生成部13を備えている。
図11~図14に示す例では、判別部12が前記フレーム枠内に配置された第一のフレーズブロックデータ38に関連付けられている音データ36と、前記選択された第二のフレーズブロックデータ44に関連付けられている音データ36とが一致していると判別した際に、音名データ生成部13は、第二のフレーズブロックデータ44d、44b、44a、44aに関連付けられている音データ36h、36f、36e、36eの音名データ「ラシドレ」、「ドソ」、「ラ」、「ラ」をユーザ端末3に送信する。
ユーザ端末3では、取得した前記音名データ「ラシドレ」、「ドソ」、「ラ」、「ラ」を音声出力手段20が出力する。これにより、ユーザは、選択したソングブロックデータ40を構成する第二のフレーズブロックデータ44に関連付けられている音データ36がどの音名なのかを知ることができる。
本実施形態では、第一の実施形態の構成に追加されたソングブロックデータ選択指示部9、対応フレーズブロックデータ選択指示部10、対応フレーズブロックデータ配置指示部11、判別部12、音名データ生成部13が行う上述の処理をサーバ装置2が行う構成としている。この他、これらの情報処理を実行するために必要なアプリケーションプログラムをサーバ装置2からユーザ端末3へダウンロード、インストールさせ、ユーザ端末3が前記アプリケーションブログラムを実行して、ソングブロックデータ選択指示部9、対応フレーズブロックデータ選択指示部10、対応フレーズブロックデータ配置指示部11、判別部12、音名データ生成部13が行う上述の処理をユーザ端末3が行う構成とすることもできる。
図22を参照して本実施形態の処理フローを説明する。この処理フローでも、ユーザ端末3が予めサーバ装置2から前記アプリケーションブログラムをダウンロード、インストールしており、サーバ装置2が記憶している各種データも保有している。
(S201)ユーザはユーザ端末3を使用して本発明に係る音楽教育支援サービスの提供を受けるためのアプリケーションプログラムを起動する。
(S202)フレーズブロック選択指示部7は、図11~図14に示すような種々の第一のフレーズブロックデータ38をユーザ端末3に表示する処理を行う。
(S203)ソングブロックデータ選択指示部9は、複数のソングブロックデータ40をユーザ端末3に表示して、任意のソングブロックデータ40の選択を促す処理を行う。ユーザ端末3には、1小節の長さのソングブロックデータ40を表す図形(アイコン)が複数表示される(非図示)。
(S204)ユーザ端末3による操作によってソングブロックデータ40が選択されると、図11に示すように、1小節の長さのソングブロックデータ40を構成する第二のフレーズブロックデータ44が表示される。
(S205、S206)ユーザ端末3によって第二のフレーズブロックデータ44が選択されると、選択した第二のフレーズブロックデータ44に関連付けられている音データ36が音声出力手段20によって出力される。
(S207)対応フレーズブロックデータ選択指示部10は、図11~図14に示す順番に従って、第二のフレーズブロックデータ44に関連付けられている音データ36と同じ音データが関連付けられている第一のフレーズブロックデータ38を、複数の第一のフレーズブロックデータ38の中から選択するよう促す処理を行う。
(S208)ユーザ端末3によって第一のフレーズブロックデータ38が選択されると、選択した第一のフレーズブロックデータ38に関連付けられている音データ36が音声出力手段20によって出力される。
(S209)対応フレーズブロックデータ配置指示部11は、選択された第一のフレーズブロックデータ38を1小節の長さを表すフレーム枠データ42が表しているフレーム枠内に配置することを促す処理を行う。
ユーザは、ユーザ端末3の音声出力手段20から出力される選択した第二のフレーズブロックデータ44に関連付けられている音データ36と、選択した第一のフレーズブロックデータ38に関連付けられている音データ36を聞きながら、情報入力手段19を用いて、図11~図14に示すように、選択した第一のフレーズブロックデータ38d、38b、38a、38aをドラッグ等の操作を行って矢印の方向へ移動させ、前記フレーム枠内にそれぞれ配置する。
(S210)判別部12は、前記フレーム枠内に配置された第一のフレーズブロックデータ38に関連付けられている音データ36と、前記選択された第二のフレーズブロックデータ44に関連付けられている音データ36とが一致しているか否かを判別する処理を行う。
図15(b)、(d)、(f)、(h)に示すような、前記選択された第二のフレーズブロックデータ44d、44b、44a、44aそれぞれに関連付けられている音データ36h、36f、36e、36eと、前記フレーム枠内に配置された第一のフレーズブロックデータ38d、38b、38a、38aそれぞれに関連付けられている音データとが一致していないと判別した場合、再度S207~S209の処理が行われる。
(S211)図15(a)、(c)、(e)、(g)に示すような、前記選択された第二のフレーズブロックデータ44d、44b、44a、44aそれぞれに関連付けられている音データ36h、36f、36e、36eと、前記フレーム枠内に配置された第一のフレーズブロックデータ38d、38b、38a、38aそれぞれに関連付けられている音データとが一致していると判別した場合、音名データ生成部13は、第二の第二のフレーズブロックデータ44d、44b、44a、44aに関連付けられている音データ「ラシドレ」、「ドソ」、「ラ」、「ラ」の音名データをユーザ端末3に送信する処理を行う。
(S212)ユーザ端末3では、取得した前記音名データ「ラシドレ」、「ドソ」、「ラ」、「ラ」を音声出力手段20が出力する。
このように、本実施形態でも一音又は複数の音を一つの音のフレーズとしてブロック化し、音のブロックごとに音の特徴(音数、インターバル、高低)を色彩、模様を有する平面形状でインターフェース化している。そこで、音や音の流れがビジュアル化され、音を聞きながら感覚的に音のブロックを並べて遊ぶことができる。従って、具体的な音名、音符や楽譜が分からなくても音楽を学ぶことが可能なので音楽教育やトレーニング等に活用することができる。
[第三の実施形態]
本実施形態では、第一の実施形態の構成に情報通信装置4が通信ネットワーク46を介してサーバ装置2及びユーザ端末3に接続された構成が追加されている。
本実施形態の情報通信装置4aは、図4(a)に示すように、複数の音声記憶構造体22と、音声記憶構造体22が配置される配置盤27とを備えている。
音声記憶構造体22は直方体の形状を有している。図16に示す例では、音声記憶構造体22aは立方体の形状を有している。
音声記憶構造体22は、ユーザ端末3と配置盤27それぞれと相互に情報の送受信を行う情報送受信部23を備えている。
音声記憶構造体22は、第一の実施形態で説明したサーバ装置2又はユーザ端末3から第一のフレーズブロックデータ38を取得する。例えば、上述したサーバ装置2のフレーズブロックデータ選択指示部7が複数の第一のフレーズブロックデータ38をユーザ端末3に送信して、任意の第一のフレーズブロックデータ38の選択を促す処理を行う際に、当該複数の第一のフレーズブロックデータ38を音声記憶構造体22にも送信する。あるいは、ユーザ端末3が、サーバ装置2から取得した図7(a)に示すような種々の第一のフレーズブロックデータ38を音声記憶構造体22に送信する。
図16(b)に示す例では、音声記憶構造体22aの前面部47、背面部48、両側面部49、50、上面部51、下面部52にそれぞれ、「ド」、「レ」、「ミ」、「ファ」、「ソ」、「ラ」についての第一のフレーズブロックデータ38aが記憶されている。そのため、第一のフレーズブロックデータ38は、図17に示すように、音データ36と第一の図形データ37と記憶先とが関連付けられて構成されている。図16、図17に示す例では、一音に関する第一のフレーズブロックデータ38aについて説明しているが、図5(f)に示す第一のフレーズブロックデータ38b、38c、38d等種々の第一のフレーズブロックデータを音声記憶構造体22aに記憶しておくことができる。
また、音声記憶構造体22aの前面部47、背面部48、両側面部49、50、上面部51、下面部52にそれぞれ、第一のフレーズブロックデータ38aを表す図形が表示されている。
音声記憶構造体22は、一例として記憶部24としての内蔵メモリを備えている。これらが行う情報処理はCPU、RAM等を備える制御部26によって制御される。
配置盤27は、音声記憶構造体22と相互に情報の送受信を行う情報送受信部27aを備えている。
配置盤27は、音声記憶構造体22を検知する検知部29を備えている。検知部29は、例えば近距離無線通信規格を利用した非接触通信方式により音声記憶構造体22を検知することができる。
また、配置盤27は、音声記憶構造体22が配置される一又は複数の配置部28を備えている。図18(a)に示す例では、配置部28は立方体形状の音声記憶構造体22aの一部が嵌め込まれる凹部を有している。
検知部29は、配置部28に音声記憶構造体22が配置された際に、当該音声記憶構造体22が配置されたこと及び当該音声記憶構造体22が記憶している第一のフレーズブロックデータ38を検知する。例えば、図16(a)図示の音声記憶構造体22aが配置部28に配置されると、検知部29は配置部28に音声記憶構造体22aの下面部52が接触していること及び音声記憶構造体22aに記憶されている「ラ」についての第一のフレーズブロックデータ38aを検知する。
配置盤27は、ユーザ端末3に対し、検知部29が音声記憶構造体22を検知した後、音声記憶構造体22が記憶している第一のフレーズブロックデータ38に関連付けられている音データ36の出力を指示する音声出力指示部30を備えている。例えば、検知部29が検知した音声記憶構造体22aの下面部52に記憶されている第一のフレーズブロックデータ38aに関連付けられている「ラ」についての音データ36を出力する指示を行う。
これらの各情報処理部が行う情報処理はCPU、RAM等を備える制御部31によって制御される。
ユーザ端末3の音声出力手段20は、配置盤27の音声出力指示部30からの音データ出力指示に基づいて、サーバ装置2から取得した第一のフレーズブロックデータ38に関連付けられている音データ38を出力する。図18(b)に示す例では、検知部29が検知した音声記憶構造体22aの下面部52に記憶されている第一のフレーズブロックデータ38aに関連付けられている「ラ」についての音データ36を出力する。図18(c)に示す例では、四つの配置部28それぞれに図16(a)に示す音声記憶構造体22aで定義した下面部52、背面部48、上面部51、前面部47が接触している。そして、四つの検知部29それぞれが検知した下面部52、背面部48、上面部51、前面部47に記憶されている第一のフレーズブロックデータ38aに関連付けられている「ラ」、「レ」、「ソ」、「ド」についての音データ36を出力する。
図23を参照して情報通信装置4aを用いた本実施形態の処理フローについて説明する。この処理フローでも、ユーザ端末3が予めサーバ装置2から前記アプリケーションブログラムをダウンロード、インストールしており、サーバ装置2が記憶している各種データも保有している。
(S301)ユーザはユーザ端末3を使用して本実施形態に係る音楽教育支援サービスの提供を受けるためのアプリケーションプログラムを起動する。
(S302)フレーズブロックデータ選択指示部7は、図17に示すような種々の第一のフレーズブロックデータ38aをユーザ端末3に表示する。
(S303)音声記憶構造体22aは、ユーザ端末3から図17に示すような種々の第一のフレーズブロックデータ38aを取得する。
(S304)ユーザは、図18(b)、(c)に示すように、第一のフレーズブロックデータ38aを取得した複数の音声記憶構造体22aを自由な組み合わせで配置盤27の配置部28に配置する。
(S305)配置盤27の検知部29は、音声記憶構造体22aが配置部28に配置されると、配置部28に接触している音声記憶構造体22aの部分(例えば下面部52)及び当該音声記憶構造体22aに記憶されている第一のフレーズブロックデータ38aを検知する。
(S306)音声出力指示部30は、音声出力手段20に対し、検知部29が検知した音声記憶構造体22aの配置部28に接触している部分(例えば下面部52)に記憶されている第一のフレーズブロックデータ38aに関連付けられている音データ36を出力する指示を行う。
(S307)ユーザ端末3の音声出力手段20は、配置盤27の音声出力指示部30からの音データ出力指示に基づいて、サーバ装置2から取得した第一のフレーズブロックデータ38に関連付けられている音データ38を出力する。
このように、本実施形態では一音又は複数の音を一つの音のフレーズとしてブロック化し、音のブロックごとに音の特徴(音数、インターバル、高低)を立体形状でインターフェース化している。そこで、音や音の流れがビジュアル化され、音を聞きながら感覚的に音のブロックを並べて遊ぶことができる。従って、具体的な音名、音符や楽譜が分からなくても音楽を学ぶことが可能なので音楽教育やトレーニング等に活用することができる。
[第四の実施形態]
本実施形態では、第三の実施形態の構成の一部を変更した形態である。
本実施形態の情報通信装置4aは、図4(a)に示すように、複数の情報通信構造体22と、音声記憶構造体22が配置される配置盤27とを備えている。
音声記憶構造体22は、第一の図形データ37の図形を立体化した形状を有している。図19に示す例では、音声記憶構造体22aは、図5(b)に示す第一の図形データ37aが表す円形の図形を球体にした形状を有している。また、音声記憶構造体22bは、図5(e)に示す第一の図形データ37dが表す正方形の図形を立方体にした形状を有している。
音声記憶構造体22は、第一の実施形態で説明したユーザ端末3によって選択された第一のフレーズブロックデータ38を取得する。例えば図5(f)に示す第一のフレーズブロックデータ38aを、第一の図形データ37aが表す円形の図形に対応した球体形状の音声記憶構造体22aが取得する。また、図5(f)に示す第一のフレーズブロックデータ38dを、第一の図形データ37dが表す正方形の図形に対応した立方体形状の音声記憶構造体22bが取得する。その結果、音声記憶構造体22は第一のフレーズブロックデータ38に関連付けられている音データ36を保有することになる。
音声記憶構造体22は、音声出力手段25として内部スピーカを備えている。これらが行う情報処理はCPU、RAM等を備える制御部26によって制御される。
なお、音声記憶構造体22が第一のフレーズブロックデータ38を取得する構成は上記の他、記憶部24に予め種々の第一のフレーズブロックデータ38を記憶させる構成にすることもできる。例えば、音声記憶構造体22aに音データ36e「ラ」が関連付けられている第一のフレーズブロックデータ38aを予め保有させておくことや、音声記憶構造体22bに音データ36f「ドソ」が関連付けられている第一のフレーズブロックデータ38bを予め記憶させておくことができる。
配置盤27は、音声記憶構造体22が配置される一又は複数の配置部28を備えている。図19(a)に示す例では、配置部28は球体形状の音声記憶構造体22aの一部が嵌め込まれる凹部と、立方体形状の音声記憶構造体22bの一部が嵌め込まれる凹部を有している。この他、これらの凹部が組み合わされた形状の配置部とすることもできる。
本実施形態では、検知部29は、例えば音声記憶構造体22の重量等を検知することにより、音声記憶構造体22が配置部28に配置されたことを検知する処理を行う。
本実施形態では、音声出力指示部30は、配置部28に配置された音声記憶構造体22に対し、検知部29が検知した音声記憶構造体22が記憶している第一のフレーズブロックデータ38に関連付けられている音データ36の出力を指示する処理を行う。例えば、音声記憶構造体22aが取得した第一のフレーズブロックデータ38aに関連付けられている「ラ」についての音データ36eを出力する指示を行う。また、音声記憶構造体22bが取得した第一のフレーズブロックデータ38dに関連付けられている「ラシドレ」についての音データ36hを出力する指示を行う。
これらの各情報処理部が行う情報処理はCPU、RAM等を備える制御部31によって制御される。
音声記憶構造体22の音声出力手段25は、配置盤27の音声出力指示部30からの音データ出力指示に基づいて、取得した第一のフレーズブロックデータ38に関連付けられている音データ38を出力する。図19(c)に示す例では、左側の配置部28に配置されている左側の音声記憶構造体22bが取得した第一のフレーズブロックデータ38dに関連付けられている「ラシドレ」についての音データ36hから順番に出力される。
図24を参照して情報通信装置4aを用いた本実施形態の処理フローについて説明する。この処理フローでも、ユーザ端末3が予めサーバ装置2から前記アプリケーションブログラムをダウンロード、インストールしており、サーバ装置2が記憶している各種データも保有している。
(S401)図21のS105で説明したユーザ端末3によって第一のフレーズブロックデータ38を選択する処理が行われた後、ユーザ端末3は選択した第一のフレーズブロックデータ37を情報通信装置4aに送信する。
(S402)情報通信装置4aでは、例えば図5(f)に示す第一のフレーズブロックデータ38aを、第一の図形データ37aが表す円形の図形に対応した球体形状の音声記憶構造体22aが取得する。また、図5(f)に示す第一のフレーズブロックデータ37dを、第一の図形データ37dが表す正方形の図形に対応した立方体形状の音声記憶構造体22bが取得する。
(S403)ユーザは、図19(b)に示すように、第一のフレーズブロックデータ38aを取得した球体形状の音声記憶構造体22aと、第一のフレーズブロックデータ38dを取得した立方体形状の音声記憶構造体22bを自由な組み合わせで配置盤27の配置部28に配置する。
(S404)配置盤27の検知部29は、音声記憶構造体22の重量等を検知すること等により、音声記憶構造体22が配置部28に配置されたこと及び当該音声記憶構造体22が記憶している第一のフレーズブロックデータ38を検知する処理を行う。
(S405)配置盤27の音声出力指示部30は、配置部28に配置された音声記憶構造体22に対し、検知部29が検知した音声記憶構造体22が記憶している第一のフレーズブロックデータ38に関連付けられている音データ36の出力を指示する処理を行う。
(S406)音声記憶構造体22の音声出力手段25は、配置盤27の音声出力指示部30からの音データ出力指示に基づいて、取得した第一のフレーズブロックデータ38に関連付けられている音データ36を出力する。
本実施形態の情報通信装置4については、上述した情報通信装置4aの他、図20に示す電子キーボード等の情報通信装置4bを使用することもできる。
情報通信装置4bはユーザ端末3と相互に情報の送受信を行う情報送受信部32を備えている(図4(b))。情報通信装置4bは、第一の実施形態で説明したユーザ端末3によって選択された第一のフレーズブロックデータ38を取得する。例えば図5(f)、(g)に示す第一のフレーズブロックデータ38a~38dを取得する。
情報通信装置4bは鍵盤33を備えている(図4(b))。
情報通信装置4bは、ユーザ端末3から取得した第一のフレーズブロックデータ38に基づいて、当該第一のフレーズブロックデータ38に関連付けられている音データ36に対応する鍵盤33の位置をガイドするガイド表示手段34を備えている(図4(b))。ガイド表示手段34は、例えば発光素子等を備えた発光部を発光させて、第一のフレーズブロックデータ38に関連付けられている音データ36に対応する鍵盤33の位置をガイドすることができる。
これらの各情報処理部が行う情報処理はCPU、RAM等を備える制御部35によって制御される。
図25を参照して情報通信装置4bを用いた本実施形態の処理フローについて説明する。この処理フローでも、ユーザ端末3が予めサーバ装置2から前記アプリケーションブログラムをダウンロード、インストールしており、サーバ装置2が記憶している各種データも保有している。
(S501)図21のS108で説明したユーザ端末3によって作曲データ45が完成した後、ユーザ端末3は作曲データ45を情報通信装置4bに送信する。
(S502)情報通信装置4bは、作曲データ45を構成する第一のフレーズブロックデータ38を取得する。例えば図8(a)に示す作曲データ45を構成する複数の第一のフレーズブロックデータ38を取得する。
(S503)ガイド表示手段34は、ユーザ端末3から取得した第一のフレーズブロックデータ38に基づいて、発光素子等を備えた発光部を発光させる等、当該第一のフレーズブロックデータ38に関連付けられている音データ36に対応する鍵盤33の位置をガイドする処理を行う。
このように、本実施形態では一音又は複数の音を一つの音のフレーズとしてブロック化し、音のブロックごとに音の特徴(音数、インターバル、高低)を平面形状や立体形状でインターフェース化している。そこで、音や音の流れがビジュアル化され、音を聞きながら感覚的に音のブロックを並べて遊ぶことができる。従って、具体的な音名、音符や楽譜が分からなくても音楽を学ぶことが可能なので音楽教育やトレーニング等に活用することができる。
1 音楽教育支援システム
2 サーバ装置
3 ユーザ端末
4(4a、4b) 情報通信装置
5 情報送受信部
6 記憶部
6a 第一のフレーズブロックデータ記憶部
6b 第二のフレーズブロックデータ記憶部
6c 作曲データ記憶部
6d ソングブロックデータ記憶部
6e 音色データ記憶部
7 フレーズブロックデータ選択指示部
8 フレーズブロックデータ組み合わせ指示部
9 ソングブロックデータ選択指示部
10 対応フレーズブロックデータ選択指示部
11 対応フレーズブロックデータ配置指示部
12 判別部
13 音名データ生成部
14 音色データ選択指示部
15 制御部
16 情報送受信部
17 記憶部
18 情報表示手段
19 情報入力手段
20 音声出力手段
21 制御部
22(22a、22b) 音声記憶構造体
23 情報送受信部
24 記憶部
25 音声出力手段
26 制御部
27 配置盤
27a 情報送受信部
28 配置部
29 検知部
30 音声出力指示部
31 制御部
32 情報送受信部
33 鍵盤
34 ガイド表示手段
35 制御部
36(36a~36l) 音データ
37(37a~37e) 第一の図形データ
38(38a~38e) 第一のフレーズブロックデータ
39 ブロック枠データ
40 ソングブロックデータ
41(41a~41f) 音色データ
42 フレーム枠データ
43(43a~43d) 第二の図形データ
44(44a~44d) 第二のフレーズブロックデータ
45 作曲データ
46 通信ネットワーク
47 鍵盤データ

Claims (12)

  1. 通信ネットワークに接続されているコンピュータからなり、
    一又は複数の音を表す音データと、前記音の数を表す第一の図形データとが関連付けられてなる第一のフレーズブロックデータを記憶している第一のフレーズブロックデータ記憶部と、
    複数の前記第一のフレーズブロックデータの中から任意の前記第一のフレーズブロックデータの選択を促すフレーズブロックデータ選択指示部と、
    前記選択された第一のフレーズブロックデータに関連付けられている前記音データを出力する音声出力手段と、
    前記音データと、前記音の数を表す第二の図形データとが関連付けられてなる第二のフレーズブロックデータを記憶している第二のフレーズブロックデータ記憶部と、
    一又は複数の前記第二のフレーズブロックデータからなるソングブロックデータが記憶されているソングブロックデータ記憶部と、
    複数の前記ソングブロックデータの中から任意の前記ソングブロックデータの選択を促すソングブロックデータ選択指示部と、
    前記選択されたソングブロックデータを構成する前記第二のフレーズブロックデータに対応する前記第一のフレーズブロックデータの選択を促す対応フレーズブロックデータ選択指示部と、
    前記選択された第一のフレーズブロックデータに関連付けられている前記音データと、前記選択された第二のフレーズブロックデータに関連付けられている前記音データとが一致しているか否かを判別する判別部と、を備え、
    前記音声出力手段は、前記選択されたソングブロックデータを構成する前記第二のフレーズブロックデータの前記第二の図形データに関連付けられている前記音データを出力する
    音楽教育支援システム。
  2. 前記第一の図形データの図形は、前記音データに含まれている音の数、拍数、高低を示す形状と色彩もしくは模様を有する
    請求項1記載の音楽教育支援システム。
  3. 前記第一の図形データの図形は、前記音データに含まれている音の数、拍数、高低を示す形状と色彩もしくは模様を有し、
    前記第二の図形データの図形は、前記第一の図形データの図形と同一の形状、色彩もしくは模様を有する
    請求項1記載の音楽教育支援システム。
  4. 前記第一の図形データの図形は、前記音データに含まれている音の数、拍数、高低を示す形状と色彩又は模様を有し、
    前記第二の図形データの図形は、前記第一の図形データの図形と同一の形状を有し、前記第一の図形データの図形とは異なる色彩もしくは模様を有する
    請求項記載の音楽教育支援システム。
  5. 前記第一のフレーズブロックデータ及び前記第二のフレーズブロックデータに関連付けられている前記音データの音名を音名データとして生成する音名データ生成部を備え、
    前記音声出力手段は、前記第一のフレーズブロックデータ又は前記第二のフレーズブロックデータが選択された際に、前記音名データを出力する
    請求項1~4記載の音楽教育支援システム。
  6. 前記コンピュータを構成するユーザ端末と情報通信装置を備え、
    前記情報通信装置は、複数の音声記憶構造体と、当該音声記憶構造体が配置される配置盤とを備え、
    前記音声記憶構造体は、
    立体形状を有し、
    前記第一の図形データと、前記音データとが関連付けられてなる前記第一のフレーズブロックデータを記憶しており、
    前記配置盤は、
    前記音声記憶構造体を検知する検知部と、
    前記ユーザ端末に対し、前記検知部が検知した前記音声記憶構造体が記憶している前記第一のフレーズブロックデータに関連付けられている前記音データの出力を指示する音声出力指示部と、を備える
    請求項1~5の何れか一項に記載の音楽教育支援システム。
  7. 前記コンピュータを構成する情報通信装置を備え、
    前記情報通信装置は、
    鍵盤と、
    前記選択された前記第一のフレーズブロックデータを受信する情報受信部と、
    前記受信した第一のフレーズブロックデータに基づいて、当該第一のフレーズブロックデータに関連付けられている前記音データに対応する前記鍵盤の位置をガイドするガイド表示手段と、を備える
    請求項1~の何れか一項に記載の音楽教育支援システム。
  8. 前記コンピュータを構成する情報通信装置を備え、
    前記情報通信装置は、複数の音声記憶構造体と、当該音声記憶構造体が配置される配置盤とを備え、
    前記音声記憶構造体は、
    立体形状を有し、
    前記第一の図形データと、前記音データとが関連付けられてなる前記第一のフレーズブロックデータを記憶しており、
    前記第一のフレーズブロックデータに関連付けられている前記音データを出力する音声記憶構造体側の音声出力手段と、を備え、
    前記配置盤は、
    前記音声記憶構造体を検知する検知部と、
    前記音声記憶構造体が配置される一又は複数の配置部と、
    前記配置部に配置された前記音声記憶構造体に対し、前記検知部が検知した前記音声記憶構造体が記憶している前記第一のフレーズブロックデータに関連付けられている前記音データの出力を指示する音声出力指示部と、を備える
    請求項1~の何れか一項に記載の音楽教育支援システム。
  9. 前記検知部は、前記配置部に前記音声記憶構造体が配置された際に、当該音声記憶構造体が配置されたこと及び当該音声記憶構造体が記憶している前記第一のフレーズブロックデータを検知する
    請求項記載の音楽教育支援システム。
  10. 前記配置盤は、
    前記音声記憶構造体が配置される一又は複数の配置部を備え、
    前記検知部は、前記配置部に前記音声記憶構造体が配置された際に、当該音声記憶構造体が配置されたこと及び当該音声記憶構造体が記憶している前記第一のフレーズブロックデータを検知する
    請求項記載の音楽教育支援システム。
  11. 前記音データの音の音色が音色データとして記憶されている音色データ記憶部と、
    複数の前記音色データの中から任意の前記音色データの選択を促す音色データ選択指示部を備え、
    前記音声出力手段は、前記第一のフレーズブロックデータに関連付けられている前記音データに前記選択された音色データを付加して、当該付加された音データを出力する
    請求項1~の何れか一項に記載の音楽教育支援システム。
  12. 前記音データの音の音色が音色データとして記憶されている音色データ記憶部と、
    複数の前記音色データの中から任意の前記音色データの選択を促す音色データ選択指示部を備え、
    前記音声記憶構造体側の音声出力手段は、前記第一のフレーズブロックデータに関連付けられている前記音データに前記音色データを付加して、当該付加された音データを出力する
    請求項記載の音楽教育支援システム。
JP2018530416A 2016-07-29 2017-07-28 音楽教育支援システム Active JP7053465B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016149661 2016-07-29
JP2016149661 2016-07-29
PCT/JP2017/027393 WO2018021519A1 (ja) 2016-07-29 2017-07-28 音楽教育支援システム

Publications (2)

Publication Number Publication Date
JPWO2018021519A1 JPWO2018021519A1 (ja) 2019-12-12
JP7053465B2 true JP7053465B2 (ja) 2022-04-12

Family

ID=61016092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018530416A Active JP7053465B2 (ja) 2016-07-29 2017-07-28 音楽教育支援システム

Country Status (2)

Country Link
JP (1) JP7053465B2 (ja)
WO (1) WO2018021519A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015113360A1 (en) 2014-01-30 2015-08-06 Zheng Shi System and method for learning,composing,and playing music with physical objects
US20150331657A1 (en) 2012-11-20 2015-11-19 Caber Enterprises Limited Methods and apparatus for audio output composition and generation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150331657A1 (en) 2012-11-20 2015-11-19 Caber Enterprises Limited Methods and apparatus for audio output composition and generation
WO2015113360A1 (en) 2014-01-30 2015-08-06 Zheng Shi System and method for learning,composing,and playing music with physical objects

Also Published As

Publication number Publication date
JPWO2018021519A1 (ja) 2019-12-12
WO2018021519A1 (ja) 2018-02-01

Similar Documents

Publication Publication Date Title
US10803844B2 (en) Information processing device, information processing method, storage medium, and electronic musical instrument
JP5154399B2 (ja) 操作可能なインタラクティブ装置
Brewster et al. Earcons as a method of providing navigational cues in a menu hierarchy
EP2251857A1 (en) Music composition method and system for portable device having touchscreen
US20150068387A1 (en) System and method for learning, composing, and playing music with physical objects
CN101118742A (zh) 训练设置设备和系统及其分组方法
WO2015113360A1 (en) System and method for learning,composing,and playing music with physical objects
CN106205571A (zh) 一种歌声语音的处理方法和装置
WO2018067358A1 (en) Automatically altering characteristics of audio alerts
CN111831249A (zh) 音频播放方法、装置、存储介质及电子设备
JP7053465B2 (ja) 音楽教育支援システム
CN102760051B (zh) 一种获得声音信号的方法及电子设备
KR20010076489A (ko) 센서를 이용한 가상 연주장치 및 그 방법
US20170352340A1 (en) Reference display device, reference display method, and program
CN101952869A (zh) 音乐控制器
JP2008131515A (ja) 情報処理装置、情報処理方法およびプログラム
JP5402253B2 (ja) 動作評価装置及びプログラム
KR101476526B1 (ko) 스마트기기를 이용한 음악 학습방법
Suzuki et al. iSoundScape: adaptive walk on a fitness soundscape
JP7266154B2 (ja) ゲーム装置
JP7214703B2 (ja) ゲーム装置
JP2008165098A (ja) 電子楽器
JP4240052B2 (ja) 楽音信号発生装置
KR101251959B1 (ko) 음악게임 프로그램이 저장된 서버 시스템 및 그 프로그램이 저장된 컴퓨터로 읽을 수 있는 매체
JP6682954B2 (ja) 楽譜表示方法、楽譜表示装置、楽譜表示プログラム

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191017

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220331

R150 Certificate of patent or registration of utility model

Ref document number: 7053465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150