JP2008276169A - オンライン作曲のためのシステム、方法及びコンピュータ読取り可能な記録媒体 - Google Patents

オンライン作曲のためのシステム、方法及びコンピュータ読取り可能な記録媒体 Download PDF

Info

Publication number
JP2008276169A
JP2008276169A JP2007278789A JP2007278789A JP2008276169A JP 2008276169 A JP2008276169 A JP 2008276169A JP 2007278789 A JP2007278789 A JP 2007278789A JP 2007278789 A JP2007278789 A JP 2007278789A JP 2008276169 A JP2008276169 A JP 2008276169A
Authority
JP
Japan
Prior art keywords
music
blocked
user
sound
composition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007278789A
Other languages
English (en)
Inventor
Taegoo Kang
テグ カン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KLAMU Inc
Original Assignee
KLAMU Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KLAMU Inc filed Critical KLAMU Inc
Publication of JP2008276169A publication Critical patent/JP2008276169A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H5/00Instruments in which the tones are generated by means of electronic generators
    • G10H5/005Voice controlled instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/106Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/145Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】 オンライン作曲システム、方法、及びその方法を実行するためのコンピュータプログラムを記録するコンピュータ読取り可能な記録媒体に関する。
【解決手段】 作曲システムであって、多数のブロック化された音楽要素を含むデータベース、及び作曲サーバを含み、前記作曲サーバは、端末装置から使用者によって入力されたメロディの形状と関連した電気信号を受信するための受信部、前記受信された電気信号から前記メロディの形状で表現された音の音程及び拍子を分析して標準化するための音標準化部、及び前記音標準化部で標準化された音を記憶する記憶装置を含み、前記標準化された音は少なくとも一つのブロック化された音楽要素として前記端末装置に送信されるシステムが提供される。
【選択図】 図2

Description

本発明は、専門的な作曲家ではない一般人もオンラインサーバに備えられている音楽データベースを利用して容易に作曲することができるシステム、方法、及びコンピュータ読取り可能な記録媒体に関する。
一般的によく知られている従来の作曲方法によれば、作曲者は自分が楽器を演奏しながら別途の五線紙に一つ一つ音程及び拍子を記録する方式で楽譜を作成し、前記の作業を行った後、楽譜を修正しようとする場合には、再び演奏しながら音程及び拍子を修正する過程を経なければならなかった。したがって、前記のような従来の作曲方法によれば、作曲者は高い水準の音楽的知識と才能を兼ねそろえなければならず、難解で複雑な作曲過程によって音楽を完成するのにより多くの努力と時間を消費するしかなかった。特に、多様な楽器が同時に演奏される合奏音楽の場合は、作曲過程がさらに難解で複雑であった。
その後、前記のような不便を解決しようとコンピュータ音楽が導入された。コンピュータ音楽とは、作曲、音響調整、合成、演奏などの音楽的過程にコンピュータを介入させる音楽を総称する。さらに詳しくは、コンピュータ音楽は作曲プログラムと様々な楽器の音響を出力する音響装置を利用することにより作曲及び/または演奏を行うことをいう。コンピュータ音楽の場合にも、作曲家が曲を構想し、それによって作曲プログラムを使って作曲するので、作曲家の個性や音楽観が曲にありのまま反映される。
コンピュータ音楽の例として、1957年にアメリカの数学者であるヒラーとL.M.アイザックソンがイリノイ大学で「弦楽四重奏のためのイリアック組曲」を実験的に作曲したことが挙げられる。以後、ほかの作曲家たちもコンピュータを用いて音楽を作曲し始めた。
一般的に、コンピュータを用いて作曲する時には、様々な楽器を用いて音楽を演奏し、演奏された楽器の音をミディ(MIDI)信号に変換するプログラムを通じて音程及び拍子を入力することにより楽譜が作成される。この場合、楽譜の作成中や作成後に前記演奏された楽器以外の種類の楽器を選択し、その楽器の音を楽譜に容易に含ませることができ、作曲された音楽の演奏も容易に聞くことができる。
一方、コンピュータ音楽に使われるプログラムによって楽器を直接演奏しなくても作曲することができる。普通、楽器の演奏に不慣れな使用者または楽器のない使用者に有用な方法として、コンピュータの入力装置であるマウスやキーボードを用いて画面上のピアノ鍵盤をクリックして楽譜を作成する方法がある。しかし、このような方法は使用者がマウスやキーボードなどを用いていちいち音程及び拍子を入力する方式であるため、直接、楽器を演奏して楽譜を作成する方法に比べて相当な時間がかかり、非効率的になる。また、専門的な作曲家ではない一般人が音符一つ一つを選択して入力することで調和した和音を完成することは相当に難解である。
以上で述べたように、コンピュータを用いた作曲技法は発展を重ねて容易に作曲することができるようになっている。しかし、コンピュータを用いて作曲する場合にも、最小限の音楽的知識が必須である。また、前記作曲プログラムは相当に高価であるのに加え、多様な楽器の音を表現するための音源を使用者のコンピュータに格納しておくためには、10Gbyte以上の容量を要するという短所がある。このため、従来の作曲プログラムでは、演奏するのが上手でない人や作曲に関する専門的な知識のない人などが作曲するのは難しいのが実情である。
本発明は、前記のような従来技術の問題点を解決することにより専門的な音楽的知識のない使用者も手軽に作曲することができ、また音楽ファイルを使用者のコンピュータに格納する必要がないようにすることにより、使用者のコンピュータの必要容量を減らすことをその目的とする。
本発明は、前記のような従来技術の問題点を解決するための新たな作曲システム、方法、及びコンピュータ読取り可能な記録媒体を次のように提供する。
本発明の一態様によれば、作曲システムであって、多数のブロック化された音楽要素を含むデータベース、及び作曲サーバを含み、前記作曲サーバは、端末装置から使用者によって入力されたメロディの形状と関連した電気信号を受信するための受信部、前記受信された電気信号から前記メロディの形状で表現された音の音程及び拍子を分析して標準化するための音標準化部、及び前記音標準化部で標準化された音を記憶する記憶装置を含み、前記標準化された音は少なくとも一つのブロック化された音楽要素として前記端末装置に送信されるシステムが提供される。
本発明のその他の態様によれば、作曲システムであって、多数のブロック化された音楽要素を含むデータベース、及び作曲サーバを含み、前記作曲サーバは、端末装置から、前記端末装置で作曲中の音楽の和音に関する情報を受信する受信部、及び前記受信された和音に関する情報に基づき前記多数のブロック化された音楽要素のうち少なくとも一つを推薦するための音楽要素推薦部を含み、前記音楽要素推薦部で推薦された前記少なくとも一つのブロック化された音楽要素が前記端末装置に送信されるシステムが提供される。
本発明のまた他の態様によれば、作曲システムであって、多数のブロック化された音楽要素を含むデータベース、及び作曲サーバを含み、前記作曲サーバは、端末装置から、前記端末装置で作曲中の音楽の音調に関する情報を受信する受信部、及び前記受信された音調に関する情報に基づき前記データベースから前記多数のブロック化された音楽要素のうち少なくとも一つを抽出する音楽要素抽出部を含み、前記音楽要素抽出部で抽出された前記少なくとも一つのブロック化された音楽要素が前記端末装置に送信されるシステムが提供される。
本発明のまた他の態様によれば、作曲システムであって、多数のブロック化された音楽要素を含むデータベース、及び作曲サーバを含み、前記作曲サーバは、端末装置から使用者によって入力されたメロディの形状と関連した電気信号を受信するための第1の受信部、前記端末装置で作曲中の音楽の和音に関する情報を受信するための第2の受信部、前記受信された電気信号から前記メロディの形状で表現された音の音程及び拍子を分析して標準化するための音標準化部、前記受信された和音に関する情報に基づき前記標準化された音の和音を調整する和音調整部、前記標準化されて和音調整された音を記憶する記憶装置、及び前記標準化されて和音調整された音を演奏する仮想楽器を含み、前記仮想楽器で演奏された音が少なくとも一つのブロック化された音楽要素として前記端末装置に送信されるシステムが提供される。
また、本発明によれば、作曲方法及び作曲のためのコンピュータ読取り可能な記録媒体がさらに提供される。
本発明によって、専門的な作曲家ではない一般人もより容易に作曲することができる。本発明の具体的な効果の例を挙げると次のとおりである。
1. ブロック化された音楽要素を含むデータベースを介入させたサーバ−クライアント通信を行うことにより、使用者のコンピュータの格納容量の負担がなくても膨大な量の音楽データベースを利用して手軽に作曲することができる。
2. 使用者の音声や使用者が直接描いたメロディの形状をブロック化された音楽要素として利用することにより、より簡単に作曲することができる。また、このような作曲技法は一般的な使用者の興味を誘発できる。
3. 使用者は一つのトラックを完成することにより提供される和音推薦機能を利用することによって、手軽に合奏曲を作曲することができる。
4. 作曲された音楽の音調を調整する場合、少ない演算的負担だけで音調調整が可能であり、音調調整を再び繰り返しても音調調整による音質低下が発生しない。
5. 高価の作曲装備を購入しなくてもマイクロホンの備えられている使用者のコンピュータだけで作曲することができる。
後述する本発明に対する詳細な説明は、本発明が実施される特定の実施例を例示として図示する添付図面を参照する。これらの実施例は当業者が本発明を実施することができるように十分に詳しく説明される。
本発明の多様な実施例は互いに異なるが、互いに排他的である必要はない。例えば、ここに記載されている特定の形状、構造及び特性は一実施例に関して本発明の精神及び範囲を超えずその他の実施例で具現される。また、各々の開示された実施例の個別構成要素の位置または配置は、本発明の精神及び範囲を超えずに変更することが可能である。したがって、後述する詳細な説明は限定的な意味として解釈されるものではなく、本発明の範囲は、適切に説明されれば、その請求項が主張することと均等な全ての範囲と共に添付された請求項によってのみ限定される。図面で類似する参照符号は様々な側面において同一または類似する機能を指し示している。
以下、添付図面を参照して本発明によるオンライン作曲システム及び方法に関して詳しく説明する。
まず、図1は本発明の全体システムの概略的な構成図である。
図1に示すように、本発明による全体作曲システムは大きく分けてサーバ100、データベース200、インターネット300、使用者のコンピュータ400,402で構成される。本発明の好ましい実施態様によれば、サーバ100はインターネット300を通じてデータベース200及び使用者のコンピュータ400,402と通信し、必要に応じて、使用者のコンピュータ400,402にデータベース200から抽出されたデータを送信したり、使用者のコンピュータ400,402からデータを受信する。インターネット300と使用者のコンピュータ400,402は各々公知のコンピュータネットワーク及び端末の使用者のコンピュータである。
本実施態様では、データベース200がサーバ100と分離され、サーバ100と通信するものと記載されているが、本発明のその他の実施態様でデータベース200はサーバ100に含まれる場合も含まれる。また、本実施態様で使用者のコンピュータ400,402が2台が接続されている例が記載されているが、サーバ100に接続される使用者のコンピュータ400,402の数には特別な制限がない。
図1を参考にし、本発明の好ましい実施態様についてさらに説明する。
まず、サーバ100は音楽ファイルの抽出及び送信のためのプログラムモジュール(図示しない)を含む。また、サーバ100には使用者のコンピュータ400,402から受信された使用者の音声や、使用者が入力した所定のメロディの形状を受信して格納するための記憶装置(図示しない)が含まれる場合もある。また、サーバ100には使用者のコンピュータ400,402から受信された使用者音声や、使用者が入力したメロディ形状に基づき標準化された楽譜を生成するためのプログラムモジュール(図示しない)が含まれる場合もある。また、サーバ100には必要に応じて音楽をジャンルによって、または歌手の音楽スタイルによって、分類するためのプログラムモジュール(図示しない)も含まれる場合もある。また、サーバ100には使用者のコンピュータ400,402にダウンロードされてインストールされるダウンロード可能な作曲ソフトウェアパッケージ(図示しない)が含まれる場合もある。このような作曲ソフトウェアパッケージは、使用者のコンピュータ400,402にインストールされ、使用者がサーバ100から送信される音楽ファイルを受けてより容易に作曲を行えるようにするユーザインターフェースを提供する。前記ユーザインターフェースに対しては図2を参考にして後述する。
データベース200には、好ましくは音楽ファイルが格納される。このようなデータベース200に格納されている音楽ファイルは、公知の音楽分析技法によってジャンル別または歌手の音楽スタイルによって分類されて格納される。本出願人は、本明細書を通じて公知の音楽分析技法の例として、ユン ワンジュン外2名著「マルチ フューチャ クラスタリングを利用した強固なコンテンツベースを基盤とした音楽ジャンル分類システムに関する研究」大韓電子工学会論文誌、(韓国)、大韓電子工学会、2005年5月第42巻SP編第3号、p.115−120や、キム ジェチョンのk−NN分類アルゴリズムを利用した音楽ジャンル分類方法に関する韓国特許公開公報第10−2006−0102757号や、キム ジェチョン外のベイズ法を利用した楽器信号の認識及びジャンル分類方法に関する韓国特許公開公報第10−2006−0110988号に開示されている技術的思想の利用を参考にして説明する。更に、本発明の具現に必要な場合、上記技術文献に開示されている技術的思想以外の公知の技術的思想を採用することも可能である。
サーバ100はデータベース200から音楽ファイルを抽出して使用者のコンピュータ400,402に送信する。より好ましくは、データベース200に格納される音楽ファイルは小節単位、節単位またはその他の小さな単位にブロック化された音楽要素、すなわち、小さな単位の再生が可能な音楽ファイルである。このようにブロック化された音楽要素を用いる技術的思想については、株式会社サイレントミュージックバンドの韓国特許公開公報第10−2006−0114760号に開示されている。前記出願では、多様な種類の音楽ファイルをジャンルなどによって分類、格納して使用者が所望する音楽ファイルを引き出して作曲を行えるように手伝うための音楽データベースについて開示している。
使用者のコンピュータ400,402には、上記で説明したようにサーバ100からダウンロードされた作曲ソフトウェアパッケージも含まれる場合がある。このようなダウンロードされた作曲ソフトウェアパッケージは、サーバ100から音楽データベース200の少なくとも一部、例えば、使用者が選択したジャンルや歌手の音楽スタイルに該当するブロック化された音楽要素をダウンロードし、これを使用者のコンピュータ400,402に格納することができる。上記ダウンロード後に、本発明の作曲ソフトウェアパッケージは音楽データベース200のダウンロードされた一部を直接利用することで、上記で説明したようなサーバ100での処理のうち全部または一部を行うこともできる。このような作曲ソフトウェアパッケージは使用者がより容易に作曲できるようにユーザインターフェースを提供する場合もある。
以下に、図1及び図2を参照して、本発明の好ましい実施態様による全体システムの動作に関して説明する。
まず、使用者が、使用者のコンピュータ400,402を通じてサーバ100から作曲ソフトウェアパッケージをダウンロードする。次いで、使用者が上記作曲ソフトウェアパッケージを実行させ、ブロック化された音楽要素に対応するジャンルや歌手の音楽スタイルを選択する。ここで、選択される音楽ジャンルには、一般的に知られている音楽のジャンルである、ロック、リズム・アンド・ブルース(R&B)、ヒップホップ、ジャズ、演歌、ダンス、ラップ、バラード、フォーク、クラシック等が含まれる。また、歌手の音楽スタイルを選択する場合には、該当する歌手と類似するスタイルのブロック化された音楽要素が提供される。
すなわち、本発明によれば、ジャンルや歌手の音楽スタイルによってブロック化された音楽要素が分類されるが、このようにジャンルや歌手によって音楽を分類することは、ウェスターゲレン(Tim Westergren)等によって2000年1月に成立されたミュージック ゲノム プロジェクト(Music Genome Project)による400余種の音楽要素のうち少なくとも一部を互いに比較する公知のロジックによって行われる。
使用者によってジャンルや歌手の音楽スタイルが選択されると、図2に図示されたようなユーザインターフェース210が起動される。ユーザインターフェース210には音楽ブロックグループ表示部202、トラック設定部204、音楽ブロック配置部206、及び操作部208が含まれる。
使用者はユーザインターフェース210の左側端に位置したトラック設定部204で所望の音響を出す楽器を選択することができる。図2の例示によれば、トラック設定部204で1番目のトラックに対してドラムがまず選択された。このようにドラムが選択されると、音楽ブロックグループ表示部202には使用者がドラッグ−アンド−ドロップで音楽ブロック配置部206に配置可能な、ドラムで演奏された小単位の音楽をブロック化した音楽グループが表示される。ここで、音楽ブロックグループ表示部202に表示されるブロック化された音楽要素は、全てが選択されたジャンルまたは歌手の音楽スタイルに該当する。また、使用者の便宜のために、音楽ブロックグループ表示部202に表示される各々の音楽ブロック群は類似するジャンルまたは歌手の音楽スタイルだけでなく類似する雰囲気の音楽をグループ化した音楽要素で構成されること好ましい。
使用者が音楽ブロックグループ表示部202上で所定の音楽ブロックグループを選択してプレビューを行うと、当該音楽ブロックグループに該当するブロック化された音楽要素が再生されるので、使用者はブロック化された音楽要素を音楽ブロック配置部206に配置する前に予め聞いてみることができる。
使用者がマウスまたはその他の使用者のコンピュータ400,402の入力装置を用いて音楽ブロックグループ表示部202上に表示されたブロック化された音楽要素のうち一つを選択した後、これをドラッグ−アンド−ドロップで音楽ブロック配置部206に配置すると、選択されたブロック化された音楽要素に該当する音楽ファイルがサーバ100を通じてデータベース200から抽出されて使用者のコンピュータ400,402に送信される。また、使用者が音楽のジャンルや歌手の音楽スタイルを選択する時に、当該ジャンルのブロック化された音楽要素がデータベース200から使用者のコンピュータ400,402に一括的にダウンロードされる場合には、使用者のコンピュータ400,402はドラッグ−アンド−ドロップする度にサーバ100に接続することは必要なく、ハードディスクに格納されているブロック化された音楽要素が用いられる。
次いで、使用者は操作部208を操作することにより、当該音楽要素を再生してみることもできる。この際に、一般的な再生関連機能である早送り、巻戻し、一時停止などの実行も可能である。また、操作部208には音量調整及び音楽再生に関連する操作手段と、作曲された全ての音楽ファイルを開いたり格納するためのファイル入出力手段がさらに含まれる場合がある。すなわち、本発明の一実施態様によれば、作曲された音楽は公知の記録フォーマットであるMP3やその他の多様な形式の音楽ファイルとして格納される。
以後、使用者は続いてトラック設定部204で2番目のトラック及びその後のトラックに対して楽器を設定し、当該楽器の音響で録音されたブロック化された音楽要素を選択して音楽ブロック配置部206に配置することによって、トラックを完成することができる。
以上のように本発明によるブロック化された音楽要素は単に音程及び拍子からなるものではなく、各楽器の独特な音色までも含んで表現するものなので、本発明によって作曲を行う場合、単に機械的な音源の音からなった曲よりずっと深みのある曲を作ることができる。一方、このような配置を行う時に、使用者はトラック設定部204でモード設定をトグリングすることにより、音楽ブロック配置部206上の既に配置されたブロック化された音楽要素をコピーまたは移動させることもできる。
すなわち、使用者は各々のトラックに対する作曲を順次に行うことによって、容易に合奏曲を作曲することができ、また各トラックの音量を別個に調整することによって、より深みのある合奏曲を完成することもできる。
また、本発明の好ましい実施態様によれば、さきに完成されたトラックのブロック化された音楽要素の和音に基づく和音推薦機能が具現される。図2を参考にすると、2番以後のトラックには互いに異なるメロディを演奏することができる楽器が選択されていることが分かる。このように様々な楽器、特に、メロディ表現が可能な楽器で構成される合奏曲を作曲する場合、各々の楽器によって演奏される音楽間に不協和音が発生しないようにすることが重要であるが、使用者が直接に耳で音楽を聞いてブロック化された音楽要素を音楽ブロック配置部206に配置する場合、このような不協和音が発生する可能性が相当に高くなる。
したがって、本発明の好ましい実施態様では、このように使用者が意図していない不協和音の含まれた合奏曲が作曲されるのを防ぐため、とりあえず上位トラック、例えば、ベースギターで演奏される2番目のトラックで各ブロック毎の和音が決定されたら、下位トラックを作曲する時には音楽ブロックグループ表示部202上に既に作曲された上位トラックの音楽にふさわしい和音を有するブロック化された音楽要素が優先的に推薦されるようにする。このような推薦は該当するブロック化された音楽要素がハイライトで表示されることによって行われる場合もあるし、初めから該当するブロック化された音楽要素以外の他のブロック化された音楽要素は音楽ブロック配置部206に配置されないようにすることによって行われる場合もある。本発明の一実施態様によれば、上記のような下位トラックに配置されるブロック化された音楽要素の推薦機能をより容易に具現するために、データベース200に格納されている全てのブロック化された音楽要素には和音に関する情報を現わすメタデータを含ませることもできる。
本発明の他の好ましい実施態様によれば、録音された使用者の音声をブロック化された音楽要素として用いることも可能である。図3を参照して詳しく説明する。
図3は、本発明による作曲システムが提供する音声録音機能を用いる一実施態様の動作を表すフローチャートである。図3に図示されたように、使用者は自分が作曲したい音楽のジャンルを選択する(ステップS302)。そして、ユーザインターフェース210が起動されると、使用者は音声録音機能を選択することができる(ステップS304)。音声録音機能が選択されると、使用者は使用者のコンピュータ400,402に取り付けられている公知の音声入力手段、例えば、マイクロホンを用いて音声を録音して入力する(ステップS306)。その後、サーバ100は使用者のコンピュータ400,402から録音された音声信号を受信し、該音声に含まれている音程及び拍子を分析する(ステップS308)。これは、場合によって、録音された音声信号の受信及び音程、拍子の分析は使用者のコンピュータ400,402の作曲ソフトウェアパッケージによって行われる。
サーバ100には前述のように音声を標準化するためのプログラムモジュールが含まれているが、このような音声標準化プログラムモジュールは、先に入力された使用者の音声の音程を分析してこれを標準音階に代入して標準化された音程を抽出し、再び各音程間の音の長さを標準化する機能を行う(ステップS310)。また、このような標準化機能は使用者のコンピュータ400,402の作曲プログラムパッケージによっても行われる。
このような音声の標準化は、使用者の音声の不完全な音程が正確な音程に合うようにしたり、音声の各音の長さが標準音の長さに合うように調整するものであって、連続信号の形態である使用者音声を一定の間隔でサンプリングし、サンプリングされた音声の音程を正確な音程値のうち一番近い値に選択する量子化過程と、調整された音程を有する音声の各音の長さを標準音の長さに対応させる過程を含む。
以後、標準化された使用者音声はサーバ100または使用者のコンピュータ400,402の所定の記憶装置に格納されたブロック化された音楽要素の一つとして、データベース200内の既存のブロック化された音楽要素と同様に作曲に用いられる(ステップS312)。
本発明の他の好ましい実施態様によれば、音声録音機能の代りに、使用者が直接に所定のユーザインターフェースを用いて描いたメロディの形状を活かしてブロック化された音楽要素を生成することもできる。以下、図6を参照にして詳しく説明する。
図6は本発明による作曲システムの他のユーザインターフェース600を例示する図面である。より詳しくは、図6は本発明によって使用者が直接にメロディの形態を描けるようにするユーザインターフェース600を例示する図面である。
本実施態様によるユーザインターフェース600によると、使用者はマウスポインタを左から右に動かしながらポインタの高低を調節することができる。そして、図6に図示されたように、ユーザインターフェース600には使用者のマウスポインタの動きに合わせて高低が変わる連続する棒が表現される。この棒グラフの横軸の一ます1/16拍子に該当し、縦軸の一ますは一つのオクターブに該当するように決めることが好ましい。
しかし、棒グラフ上では1/16拍子を最小単位として音の長さを表現するので、このように棒グラフで表現された高低を直接に音の高低に決める場合に音程が合わない場合には、既に音の長さは棒グラフ生成の時に標準化されたものである可能性がある。
本発明によるサーバ100または使用者のコンピュータ400,402に含まれる作曲ソフトウェアパッケージは、上記で説明された音声の標準化の場合と同じ方式で入力されたメロディの形状による音程を標準化してくれる。したがって、本実施例によれば、使用者は頭に浮かんでいるメロディの形状を描くことによっても、新しくブロック化された音楽要素を生成して利用することができる。
本発明のまた他の好ましい実施態様によれば、既に作曲されたメロディを有するトラックが存在し、使用者の録音された音声が標準化されてブロック化された音楽要素として獲得された場合、先に作曲されたトラックの和音に関する情報に基づき、使用者の録音された音声の和音をもう一度調整することもできる。
以下、図4を参照にして詳しく説明する。
図4は本発明による作曲システムが提供する音声録音機能を用いる他の実施態様の動作を表すフローチャートである。
図4に図示されたように、使用者はジャンルを選択した後(ステップS410)、ユーザインターフェース210を起動させ、所定の楽器を用いて一つのトラックに対して作曲を行う(ステップS411)。この際に作曲されたトラックは和音にふさわしい一つ以上の音を有するトラックである。使用者は一つのメロディを有する上位トラックを完成させた後、新たなトラックに対して音声録音機能を選択することができる(ステップS412)。以後の音声録音/入力段階(ステップS414)、入力された音声の音程及び拍子を分析する段階(ステップS416)、及び分析された音程及び拍子に従って音声を標準化する段階(ステップS418)は前述のステップS306ないしステップS310と同一のステップである。以後、標準化された使用者の音声は先に作曲された上位トラックにふさわしい和音を有するように再び調整される(ステップS420)。標準化されて和音の調整された使用者音声はブロック化された音楽要素として用いられる。
ステップS420をより詳しく説明すると、次のようである。ステップS420で和音調整の対象となる使用者の音声は、個別の音の音程と拍子の面では既に標準化されたものである。しかし、このように標準化された使用者の音声のメロディに該当する和音が先に作曲されたトラックの和音と一致していない場合、不協和音が発生することになる。これを防ぐために、本発明では使用者の音声のメロディのうち上位トラックの和音にふさわしい音、例えば、上位トラックがCコードである場合には、ド、ミ、ソを把握し、これらがより強調されるように、すなわち、より長く強い音になるように調整することができる。例えば、上位トラックのCコードに合わせるために使用者の音声に含まれている半拍子のド音とミ音はより長い音、すなわち1拍子ないし1.5拍子の音に調整される。
本発明の他の好ましい実施態様によれば、標準化されて和音の調整された音声の代りに、上記標準化されて和音の調整された音声に対応するように仮想楽器で演奏される音をブロック化された音楽要素として利用することもできる。このように標準化されて和音調整された使用者の音声を仮想楽器によって演奏された音に代替することは、前述の実施例のように標準化及び和音調整によって使用者の音声が元々入力された音声と相当異なる場合により有用である。この実施例での仮想楽器とは、所定の楽譜を入力して、この入力に基づき実際の楽器を演奏しているように楽器の音色を表現できる公知のプログラムモジュールをいう。
前述したように、標準化された使用者の音声に対する和音の調整は、入力されたメロディの形状が標準化されたものについても同一に適用される。
本発明のまた他の好ましい実施態様によれば、ブロック化された音楽要素の音調(key)を調整してからもブロック化された音楽要素の音質を良好に維持できる。
以下、図5を参照して詳しく説明する。
従来から知られているように、所定の音楽要素に対して音調の調整を行うためには、当該音楽の各音楽要素に対するピッチの調整が必須であった。すなわち、従来は、まず所定の音楽要素が選択された後、当該音楽要素に対する全体的な音調の調整が必要な場合、当該音楽要素のピッチを演算的に分析し把握した後、必要な分だけのピッチの増減分、例えば、半音上げまたは全音上げを各音楽要素のピッチに加減する方式で音楽要素に対する音調調整を行った。したがって、従来の技術によれば、音調調整に多くの演算負荷がかかり、音調調整の繰り返しが行われる場合、音質自体が低下する問題点があった。
このような問題点を解決するために、本発明の好ましい実施態様では、一つのメロディに対して互いに異なる様々な音調を有するブロック化された音楽要素を予めデータベース200に備えている。
すなわち、本発明による作曲システムが提供する音調調整機能を用いる他の実施態様の動作フローチャートである図5に図示されたように、本発明では使用者のコンピュータ400,402が音調調整のための要請を行うと(ステップS502)、サーバ100が同一のメロディを有するブロック化された音楽要素または要請された音調を有するブロック化された音楽要素をデータベース200から抽出し(ステップS504)、以後既に音楽ブロック配置部206に配置されていたブロック化された音楽要素を抽出されたブロック化された音楽要素に代替することにより(ステップS506)、音調の調整による音質低下と演算負担の加重を防ぐことができる。本発明の他の好ましい実施態様によれば、前述したような音調調整機能は作曲ソフトウェアパッケージが使用者のコンピュータ400,402にダウンロードされている音楽データベース200の一部を参照することによっても行われる。
本発明の全体システムの概略的な構成図である。 本発明による作曲システムのユーザインターフェースを例示する図面である。 本発明による作曲システムが提供する音声録音機能を用いる一実施態様の動作フローチャートである。 本発明による作曲システムが提供する音声録音機能を用いる他の実施態様の動作フローチャートである。 本発明による作曲システムが提供する音調調整機能を用いるまた他の実施態様の動作フローチャートである。 本発明による作曲システムの他のユーザインターフェースを例示する図面である。
符号の説明
100…サーバ、200…データベース、202…音楽ブロックグループ表示部、204…トラック設定部、206…音楽ブロック配置部、208…操作部、210…ユーザインターフェース、300…インターネット、400,402…使用者のコンピュータ

Claims (16)

  1. 作曲システムであって、多数のブロック化された音楽要素を含むデータベース、及び作曲サーバを含み、前記作曲サーバは、端末装置から使用者によって入力されたメロディの形状と関連した電気信号を受信するための受信部、前記受信された電気信号から前記メロディの形状で表現された音の音程及び拍子を分析して標準化するための音標準化部、及び前記音標準化部で標準化された音を記憶する記憶装置を含み、前記標準化された音は少なくとも一つのブロック化された音楽要素として前記端末装置に送信されるシステム。
  2. 作曲システムであって、多数のブロック化された音楽要素を含むデータベース、及び作曲サーバを含み、前記作曲サーバは、端末装置から、前記端末装置で作曲中の音楽の和音に関する情報を受信する受信部、及び前記受信された和音に関する情報に基づき前記多数のブロック化された音楽要素のうち少なくとも一つを推薦するための音楽要素推薦部を含み、前記音楽要素推薦部で推薦された前記少なくとも一つのブロック化された音楽要素が前記端末装置に送信されるシステム。
  3. 作曲システムであって、多数のブロック化された音楽要素を含むデータベース、及び作曲サーバを含み、前記作曲サーバは、端末装置から、前記端末装置で作曲中の音楽の音調に関する情報を受信する受信部、及び前記受信された音調に関する情報に基づき前記データベースから前記多数のブロック化された音楽要素のうち少なくとも一つを抽出する音楽要素抽出部を含み、前記音楽要素抽出部で抽出された前記少なくとも一つのブロック化された音楽要素が前記端末装置に送信されるシステム。
  4. 作曲システムであって、多数のブロック化された音楽要素を含むデータベース、及び作曲サーバを含み、前記作曲サーバは、端末装置から使用者によって入力されたメロディの形状と関連した電気信号を受信するための第1の受信部、前記端末装置で作曲中の音楽の和音に関する情報を受信するための第2の受信部、前記受信された電気信号から前記メロディの形状で表現された音の音程及び拍子を分析して標準化するための音標準化部、前記受信された和音に関する情報に基づき前記標準化された音の和音を調整する和音調整部、前記標準化されて和音調整された音を記憶する記憶装置、及び前記標準化されて和音調整された音を演奏する仮想楽器を含み、前記仮想楽器で演奏された音が少なくとも一つのブロック化された音楽要素として前記端末装置に送信されるシステム。
  5. 多数のブロック化された音楽要素を含むデータベース及び作曲サーバを含む作曲システムで行われる作曲方法であって、端末装置から使用者によって入力されたメロディの形状と関連した電気信号を受信する段階、前記受信された電気信号から前記メロディの形状で表現された音の音程及び拍子を分析して標準化する段階、及び前記標準化された音を格納する段階を含み、前記標準化された音は少なくとも一つのブロック化された音楽要素として前記端末装置に送信される方法。
  6. 多数のブロック化された音楽要素を含むデータベース及び作曲サーバを含む作曲システムで行われる作曲方法であって、端末装置から、前記端末装置で作曲中の音楽の和音に関する情報を受信する段階、及び前記受信された和音に関する情報に基づき前記多数のブロック化された音楽要素のうち少なくとも一つを推薦する段階を含み、前記推薦された前記少なくとも一つのブロック化された音楽要素が前記端末装置に送信される方法。
  7. 多数のブロック化された音楽要素を含むデータベース及び作曲サーバを含む作曲システムで行われる作曲方法であって、端末装置から、前記端末装置で作曲中の音楽の音調に関する情報を受信する段階、及び前記受信された音調に関する情報に基づき前記データベースから前記多数のブロック化された音楽要素のうち少なくとも一つを抽出する段階を含み、前記抽出された前記少なくとも一つのブロック化された音楽要素が前記端末装置に送信される方法。
  8. 多数のブロック化された音楽要素を含むデータベース及び作曲サーバを含む作曲システムで行われる作曲方法であって、端末装置から使用者によって入力されたメロディの形状と関連した電気信号及び前記端末装置で作曲中の音楽の和音に関する情報を受信する段階、前記受信された電気信号から前記メロディの形状で表現された音の音程及び拍子を分析して標準化する段階、前記受信された和音に関する情報に基づき前記標準化された音の和音を調整する段階、及び前記標準化されて和音調整された音を仮想楽器で演奏する段階を含み、前記仮想楽器で演奏された音が少なくとも一つのブロック化された音楽要素として前記端末装置に送信される方法。
  9. 多数のブロック化された音楽要素を含むデータベースを含む使用者のコンピュータで行われる作曲方法であって、使用者の音声と関連した電気信号を受信して格納する段階、前記受信されて格納された電気信号から前記使用者の音声の音程及び拍子を分析して標準化する段階、及び前記標準化された使用者の音声を格納する段階を含み、前記標準化された使用者の音声は少なくとも一つのブロック化された音楽要素として提供される方法。
  10. 多数のブロック化された音楽要素を含むデータベースを含む使用者のコンピュータで行われる作曲方法であって、使用者によって入力されたメロディの形状と関連した電気信号を受信して格納する段階、前記受信されて格納された電気信号から前記メロディの形状で表現された音の音程及び拍子を分析して標準化する段階、及び前記標準化された音を格納する段階を含み、前記標準化された音は少なくとも一つのブロック化された音楽要素として提供される方法。
  11. 多数のブロック化された音楽要素を含むデータベースを含む使用者のコンピュータで行われる作曲方法であって、作曲中の音楽の和音に関する情報を獲得する段階、及び前記獲得された和音に関する情報に基づき前記多数のブロック化された音楽要素のうち少なくとも一つを推薦する段階を含む方法。
  12. 多数のブロック化された音楽要素を含むデータベースを含む使用者のコンピュータで行われる作曲方法であって、作曲中の音楽の音調に関する情報を獲得する段階、及び前記獲得された音調に関する情報に基づき前記データベースから前記多数のブロック化された音楽要素のうち少なくとも一つを抽出する段階を含む方法。
  13. 多数のブロック化された音楽要素を含むデータベースを含む使用者のコンピュータで行われる作曲方法であって、使用者の音声と関連した電気信号及び作曲中の音楽の和音に関する情報を受信する段階、前記受信された電気信号から前記使用者の音声の音程及び拍子を分析して標準化する段階、前記受信された和音に関する情報に基づき前記標準化された使用者の音声の和音を調整する段階、及び前記標準化されて和音調整された使用者の音声を格納する段階を含み、前記標準化されて和音調整された使用者の音声は少なくとも一つのブロック化された音楽要素として提供される方法。
  14. 多数のブロック化された音楽要素を含むデータベースを含む使用者のコンピュータで行われる作曲方法であって、使用者の音声と関連した電気信号及び作曲中の音楽の和音に関する情報を受信する段階、前記受信された電気信号から前記使用者の音声の音程及び拍子を分析して標準化する段階、前記受信された和音に関する情報に基づき前記標準化された使用者の音声の和音を調整する段階、及び前記標準化されて和音調整された使用者の音声に対応する音を仮想楽器で演奏する段階を含み、前記仮想楽器で演奏された音が少なくとも一つのブロック化された音楽要素として提供される方法。
  15. 多数のブロック化された音楽要素を含むデータベースを含む使用者のコンピュータで行われる作曲方法であって、使用者によって入力されたメロディの形状と関連した電気信号及び作曲中の音楽の和音に関する情報を受信する段階、前記受信された電気信号から前記メロディの形状で表現された音の音程及び拍子を分析して標準化する段階、前記受信された和音に関する情報に基づき前記標準化された音の和音を調整する段階、及び前記標準化されて和音調整された音を仮想楽器で演奏する段階を含み、前記仮想楽器で演奏された音が少なくとも一つのブロック化された音楽要素として提供される方法。
  16. 第9項ないし第15項のうちいずれか一項による方法を実行するためのコンピュータプログラムを格納するためのコンピュータ読取り可能な記録媒体。
JP2007278789A 2007-02-13 2007-10-26 オンライン作曲のためのシステム、方法及びコンピュータ読取り可能な記録媒体 Pending JP2008276169A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20070014992 2007-02-13
KR1020070036922A KR100784075B1 (ko) 2007-02-13 2007-04-16 온라인 작곡을 위한 시스템, 방법 및 컴퓨터 판독 가능한기록 매체

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2008119683A Division JP2008197678A (ja) 2007-02-13 2008-05-01 オンライン作曲のためのシステム、方法及びコンピュータ読取り可能な記録媒体
JP2008273220A Division JP2009042784A (ja) 2007-02-13 2008-10-23 オンライン作曲のためのシステム、方法及びコンピュータ読取り可能な記録媒体

Publications (1)

Publication Number Publication Date
JP2008276169A true JP2008276169A (ja) 2008-11-13

Family

ID=39140417

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2007278789A Pending JP2008276169A (ja) 2007-02-13 2007-10-26 オンライン作曲のためのシステム、方法及びコンピュータ読取り可能な記録媒体
JP2008119683A Pending JP2008197678A (ja) 2007-02-13 2008-05-01 オンライン作曲のためのシステム、方法及びコンピュータ読取り可能な記録媒体
JP2008273220A Pending JP2009042784A (ja) 2007-02-13 2008-10-23 オンライン作曲のためのシステム、方法及びコンピュータ読取り可能な記録媒体

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2008119683A Pending JP2008197678A (ja) 2007-02-13 2008-05-01 オンライン作曲のためのシステム、方法及びコンピュータ読取り可能な記録媒体
JP2008273220A Pending JP2009042784A (ja) 2007-02-13 2008-10-23 オンライン作曲のためのシステム、方法及びコンピュータ読取り可能な記録媒体

Country Status (3)

Country Link
US (1) US20080190270A1 (ja)
JP (3) JP2008276169A (ja)
KR (1) KR100784075B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020054064A1 (ja) * 2018-09-14 2020-03-19 Dmet Products株式会社 楽曲編集システム、及び楽曲編集方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090125799A1 (en) * 2007-11-14 2009-05-14 Kirby Nathaniel B User interface image partitioning
US11132983B2 (en) 2014-08-20 2021-09-28 Steven Heckenlively Music yielder with conformance to requisites
US9818385B2 (en) * 2016-04-07 2017-11-14 International Business Machines Corporation Key transposition
US10957297B2 (en) * 2017-07-25 2021-03-23 Louis Yoelin Self-produced music apparatus and method
EP3730196A4 (en) * 2017-12-19 2021-06-09 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
KR101887333B1 (ko) * 2018-05-30 2018-08-09 문찬규 패턴을 이용한 작곡방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4951544A (en) * 1988-04-06 1990-08-28 Cadio Computer Co., Ltd. Apparatus for producing a chord progression available for a melody
US5736666A (en) * 1996-03-20 1998-04-07 California Institute Of Technology Music composition
US5728960A (en) * 1996-07-10 1998-03-17 Sitrick; David H. Multi-dimensional transformation systems and display communication architecture for musical compositions
KR100654417B1 (ko) * 1999-12-14 2006-12-05 아이디어플라자(주) 웹페이지상에서의 작곡서비스 제공방법
JP3666577B2 (ja) * 2000-07-18 2005-06-29 ヤマハ株式会社 コード進行修正装置、コード進行修正方法及び同装置に適用されるプログラムを記録したコンピュータ読取り可能な記録媒体
KR100731761B1 (ko) * 2005-05-02 2007-06-22 주식회사 싸일런트뮤직밴드 인터넷을 통한 음악제작 시스템 및 방법
KR20060118094A (ko) * 2005-05-16 2006-11-23 최효택 작곡 서비스 시스템 및 그 운영방법
US7598449B2 (en) * 2006-08-04 2009-10-06 Zivix Llc Musical instrument
US7935877B2 (en) * 2007-04-20 2011-05-03 Master Key, Llc System and method for music composition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020054064A1 (ja) * 2018-09-14 2020-03-19 Dmet Products株式会社 楽曲編集システム、及び楽曲編集方法

Also Published As

Publication number Publication date
US20080190270A1 (en) 2008-08-14
JP2008197678A (ja) 2008-08-28
JP2009042784A (ja) 2009-02-26
KR100784075B1 (ko) 2007-12-10

Similar Documents

Publication Publication Date Title
US10657934B1 (en) Enhancements for musical composition applications
US8035020B2 (en) Collaborative music creation
KR100658869B1 (ko) 음악생성장치 및 그 운용방법
US8710343B2 (en) Music composition automation including song structure
US9875304B2 (en) Music selection and organization using audio fingerprints
JP4199097B2 (ja) 楽曲自動分類装置及び方法
US10242097B2 (en) Music selection and organization using rhythm, texture and pitch
US6528715B1 (en) Music search by interactive graphical specification with audio feedback
US8173883B2 (en) Personalized music remixing
US10225328B2 (en) Music selection and organization using audio fingerprints
JP2008537180A (ja) 音楽作曲装置の運用方法
CN1750116B (zh) 自动表演风格确定设备和方法
JP2008541149A (ja) インターネットを通したパターン組み合わせによる音楽製作システム及び方法
TW201238279A (en) Semantic audio track mixer
JP2012103603A (ja) 情報処理装置、楽曲区間抽出方法、及びプログラム
Lu et al. Musecoco: Generating symbolic music from text
JP2009042784A (ja) オンライン作曲のためのシステム、方法及びコンピュータ読取り可能な記録媒体
Nunes et al. I like the way it sounds: The influence of instrumentation on a pop song’s place in the charts
US20060016322A1 (en) Drum loops method and apparatus for musical composition and recording
WO2015154159A1 (en) Systems and methods for musical analysis and determining compatibility in audio production
JP2008139426A (ja) 評価用データのデータ構造、カラオケ装置及び記録媒体
KR20090023912A (ko) 음악 데이터 처리 시스템
JP4305315B2 (ja) 自動演奏データ特性変更装置及びそのプログラム
JP6611633B2 (ja) カラオケシステム用サーバ
JP2007233078A (ja) 評価装置、制御方法及びプログラム

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080704

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20081001