JP2008537180A - 音楽作曲装置の運用方法 - Google Patents

音楽作曲装置の運用方法 Download PDF

Info

Publication number
JP2008537180A
JP2008537180A JP2008507535A JP2008507535A JP2008537180A JP 2008537180 A JP2008537180 A JP 2008537180A JP 2008507535 A JP2008507535 A JP 2008507535A JP 2008507535 A JP2008507535 A JP 2008507535A JP 2008537180 A JP2008537180 A JP 2008537180A
Authority
JP
Japan
Prior art keywords
melody
file
chord
accompaniment
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008507535A
Other languages
English (en)
Inventor
ソン,ジュン・ミン
パク,ヨン・チュル
イ,ジュン・ユプ
イ,ヨン・ヒー
Original Assignee
エルジー エレクトロニクス インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エルジー エレクトロニクス インコーポレーテッド filed Critical エルジー エレクトロニクス インコーポレーテッド
Publication of JP2008537180A publication Critical patent/JP2008537180A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • G10H3/12Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
    • G10H3/125Extracting or recognising the pitch or fundamental frequency of the picked up signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/081Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/141Riff, i.e. improvisation, e.g. repeated motif or phrase, automatically added to a piece, e.g. in real time
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/221Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
    • G10H2220/261Numeric keypad used for musical purposes, e.g. musical input via a telephone or calculator-like keyboard
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/015PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/021Mobile ringtone, i.e. generation, transmission, conversion or downloading of ringing tones or other sounds for mobile telephony; Special musical data formats or protocols herefor

Abstract

【課題】音楽作曲装置の運用方法を提供する。
【解決手段】音楽作曲装置の運用方法は、メロディが入力されるステップと、前記入力されたメロディに対応するメロディファイルを生成するステップと、前記メロディファイルに対する分析を行って、前記メロディに適した和音伴奏ファイルを生成するステップと、
前記メロディファイルと前記和音伴奏ファイルとを合成して音楽ファイルを生成するステップとを含む。
【選択図】図5

Description

本発明は、音楽作曲装置の運用方法に関する。
音楽は、メロディ、和音、リズムを3要素として形成される。このような音楽は、時代によって変化しており、人々の生活において非常に親しい存在である。
メロディは、音楽を構成する最も基本になる1つの要素である。このようなメロディは、音楽的な表現と人間の感情を最もよく表す要素であって、各種の音の高さと長さを有した音を横に結合、形成する音の線的連結である。和音が複数音の同時的(垂直的)結合であれば、メロディは、高さの異なる音の水平的、単音的配列である。しかしながら、このような音の連続が音楽的な意味を持つためには、時間的な秩序、すなわちリズムを含まなければならない。
人々は、自身の感情をメロディとして表現して作曲を行い、ここに歌詞を付けて歌を完成する。しかしながら、音楽専門家でない一般人が、自身の作ったメロディに適切な和音伴奏とリズム伴奏まで創作するには多くの難しさがある。したがって、一般人が自身の感情をメロディとして表現すれば、そのメロディに適した和音伴奏とリズム伴奏とを自動に生成することができる音楽作曲装置に対する研究が進められている。
そこで、本発明は、上述の問題点に鑑みてなされたもので、その目的は、表現されたメロディに適した和音伴奏とリズム伴奏とを自動に生成することができる音楽作曲装置の運用方法を提供することにある。
また、本発明の他の目的は、表現されたメロディに適した和音伴奏とリズム伴奏とを自動に生成する音楽作曲モジュール付き携帯用端末機の運用方法を提供することにある。
また、本発明のさらに他の目的は、表現されたメロディに適した和音伴奏とリズム伴奏とを自動に生成する音楽作曲モジュールを備え、前記音楽作曲モジュールによって生成された音楽を着信音として使用する移動通信端末機の運用方法を提供することにある。
上記の目的を達成すべく、本発明による音楽作曲装置の運用方法は、メロディが入力されるステップと、前記入力されたメロディに対応するメロディファイルを生成するステップと、前記メロディファイルに対する分析を行って、前記メロディに適した和音伴奏ファイルを生成するステップと、前記メロディファイルと前記和音伴奏ファイルとを合成して音楽ファイルを生成するステップとを含む。
また、上記の目的を達成すべく、本発明による音楽作曲装置の運用方法の他の実施の態様は、メロディが入力されるステップと、前記入力されたメロディに対応するメロディファイルを生成するステップと、前記メロディファイルに対する分析を行って、前記メロディに適した和音/リズム伴奏ファイルを生成するステップと、前記メロディファイルと前記和音/リズム伴奏ファイルとを合成して、音楽ファイルを生成するステップとを含む。
また、前記他の目的を達成すべく、本発明による携帯用端末機の運用方法は、メロディが入力されるステップと、前記入力されたメロディに対応するメロディファイルを生成するステップと、前記メロディファイルに対する分析を行って、前記メロディに適した和音伴奏ファイルを生成するステップと、前記メロディファイルと前記和音伴奏ファイルとを合成して、音楽ファイルを生成するステップとを含む。
また、前記他の目的を達成すべく、本発明による携帯用端末機の運用方法の他の実施の態様は、メロディが入力されるステップと、前記入力されたメロディに対応するメロディファイルを生成するステップと、前記メロディファイルに対する分析を行って、前記メロディに適した和音/リズム伴奏ファイルを生成するステップと、前記メロディファイルと前記和音/リズム伴奏ファイルとを合成して、音楽ファイルを生成するステップとを含む。
また、前記さらに他の目的を達成すべく、本発明による移動通信端末機の運用方法は、ユーザインタフェース部を介してメロディが入力されるステップと、前記入力されたメロディに対応するメロディファイルを生成するステップと、前記メロディファイルに対する分析を行って、前記メロディに適した和音伴奏を備える伴奏ファイルを生成するステップと、前記メロディファイルと前記伴奏ファイルとを合成して、音楽ファイルを生成するステップと、前記生成された音楽ファイルを着信音として選択するステップと、呼が接続されると、前記選択された音楽ファイルを着信音として再生するステップとを含む。
本発明による音楽作曲装置の運用方法によれば、表現されたメロディに適した和音伴奏とリズム伴奏とを自動に生成することができるという長所がある。
また、本発明による携帯用端末機の運用方法によれば、表現されたメロディに適した和音伴奏とリズム伴奏とを自動に生成することができるという長所がある。
また、本発明による移動通信端末機の運用方法によれば、表現されたメロディに適した和音伴奏とリズム伴奏とを自動に生成する音楽作曲モジュールを備え、前記音楽作曲モジュールによって生成された音楽を着信音として使用することができるという長所がある。
以下、添付した図面を参照して、本発明の実施の形態を詳細に説明する。
図1は、本発明の第1の実施の形態による音楽作曲装置を概略的に示したブロック図である。
本発明の第1の実施の形態による音楽作曲装置100は、図1に示したように、ユーザインタフェース部110、メロディ生成部120、和音伴奏生成部130、リズム伴奏生成部140、格納部150、音楽生成部160を含む。
前記ユーザインタフェース部110は、ユーザからメロディを受け取る。ここで、ユーザから受け取るメロディとは、高さと長さを有した音が横に結合され、形成された音の線的連結のことを意味する。
入力されたメロディに対応するメロディファイルを生成して、前記格納部150に格納する。
前記和音伴奏生成部130は、前記メロディ生成部120から生成されたメロディファイルを分析し、そのメロディに適した和音を検出して和音伴奏ファイルを生成する。前記和音伴奏生成部130から生成された和音伴奏ファイルは、前記格納部150に格納される。
前記リズム伴奏生成部140は、前記メロディ生成部120から生成されたメロディファイルを分析し、そのメロディに適したリズムを検出してリズム伴奏ファイルを生成する。前記リズム伴奏生成部140は、メロディに対する分析を行って、適切なリズムスタイルをユーザに推薦することができる。また、前記リズム伴奏生成部140は、ユーザから要請されたリズムスタイルに合わせて、リズム伴奏ファイルを生成することもできる。前記リズム伴奏生成部140から生成されたリズム伴奏ファイルは、前記格納部150に格納される。
前記音楽生成部160は、前記格納部150に格納されたメロディファイル、和音伴奏ファイル、リズム伴奏ファイルを合成して音楽ファイルを生成し、該生成された音楽ファイルを前記格納部150に格納する。
本発明による音楽作曲装置100は、ユーザから単純メロディのみを受け取り、該受け取ったメロディに適した和音伴奏やリズム伴奏を生成して合成させた音楽ファイルを提供する。これにより、音楽専門家ではない一般人も立派な音楽を容易に創作できるようになる。
ユーザからメロディを受け取る方法は様々であり得、前記ユーザインタフェース部110は、ユーザからメロディを受け取る方式に応じて多様に変形され得る。
一例として、ユーザからハミングモードで受け取る方法がある。図2は、本発明の第1の実施の形態による音楽作曲装置にハミングモードでメロディを入力する例を示した図である。
作曲装置100に入力させることができる。前記ユーザインタフェース部110は、マイクを備えることによって、ユーザからメロディを受け取ることができる。また、ユーザは、歌を歌う方式により、自身の作曲したメロディを入力させることができる。
前記ユーザインタフェース部110は、映像表示部をさらに備えることもでき、このような場合、図2に示したように、映像表示部にハミングモードが行われていることを表示することができる。前記映像表示部には、メトロノームを表示することができ、ユーザは、前記メトロノームを参照して、入力されるメロディの速度を調整することができる。
メロディの入力が終了した後に、ユーザは、入力されたメロディに対する確認を要請することができる。前記ユーザインタフェース部110は、スピーカーを介してユーザから受け取ったメロディを出力させ、図2に示したように、映像表示部に楽譜形態でメロディを表示することもできる。ユーザは、前記ユーザインタフェース部110に表示された楽譜上で修正する音符を選択し、該選択された音符の高さ及び/または長さを変更することもできる。
また、前記ユーザインタフェース部110は、ユーザから鍵盤モードでメロディを受け取ることもできる。図3は、本発明の第1の実施の形態による音楽作曲装置に鍵盤モードでメロディを入力する例を示した図である。
前記ユーザインタフェース部110は、映像表示部に鍵盤形態の映像を表示し、設定された音階に該当するボタンの押さえ/解除を感知して、ユーザからメロディを受け取ることもできる。各ボタンには、音階(例えば、ド、レ、ミ、ファ、ソ、ラ、シ、ド)が指定されているので、ユーザから選択されたボタンを感知して、音の高さ情報を獲得することができる。そして、前記ボタンが押さえられた時間を感知して、該当音の長さ情報を獲得するように具現することができる。このとき、オクターブをアップまたはダウンさせる選択ボタンを設けて、ユーザがオクターブを選択するようにすることができる。
前記映像表示部には、メトロノームが表示されるようにすることができ、ユーザは、前記メトロノームを参照して、入力されるメロディの速度を調整することができる。メロディの入力が終了した後に、ユーザは、入力されたメロディに対する確認を要請することができる。前記ユーザインタフェース部110は、スピーカーを介してユーザから受け取ったメロディを出力させることができ、映像表示部に楽譜形態でメロディを表示することもできる。ユーザは、前記ユーザインタフェース部110に表示された楽譜上において修正する音符を選択し、該選択された音符の高さ及び/または長さを変更することもできる。
また、前記ユーザインタフェース部110は、ユーザから楽譜モードでメロディを受け取ることができる。図4は、本発明の第1の実施の形態による音楽作曲装置に楽譜モードでメロディを入力する例を示した図である。
前記ユーザインタフェース部110は、映像表示部に楽譜を表示し、ユーザのボタン操作によりメロディを受け取ることができる。例えば、まず楽譜に所定の音と長さを有する音を表示させる。ユーザは、第1ボタンNote Upを押して、音の高さを上げることができ、第2ボタンNote Downを押して、音の高さを下げることができる。ユーザは、第3ボタンLengthenを押して、音の長さを長くすることができ、第4ボタンShortenを押して、音の長さを短くすることができる。これにより、ユーザは、該当音の高さ情報と長さ情報を入力することができ、このような過程を繰り返し行うことにより、ユーザは、自身の作曲したメロディを入力できる。
メロディの入力が終了した後に、ユーザは、入力されたメロディに対する確認を要請することができる。前記ユーザインタフェース部110は、スピーカーを介してユーザから入力されたメロディを出力させることができ、映像表示部に楽譜形態でメロディを表示することもできる。ユーザは、前記ユーザインタフェース部110に表示された楽譜上において修正する音符を選択し、該選択された音符の高さ及び/または長さを変更することもできる。
前記和音伴奏生成部130は、前記メロディ生成部120から生成されたメロディファイルに対して、伴奏のための基本的なメロディ分析を行う。メロディを構成する小節別に各小節に該当する分析資料に基づいて小節和音に対する選択が行われる。ここで、小節和音とは、和音伴奏のために各小節別に設定されたものを表すものであって、音楽の全体的な和音と区分するために用いられた用語である。
例えば、歌を歌いながらギター演奏をするとき、毎小節ごとに設定された小節和音を演奏するようになるが、歌を歌う部分がメロディの作曲部分に該当するものであり、その歌に合う小節和音を毎瞬間ごとに判断して選択することが、前記和音伴奏生成部130の機能である。
一方、以上では、前記ユーザインタフェース部110を介して入力されたメロディに対して、和音伴奏及び/またはリズム伴奏を付加して音楽ファイルを生成することに基づいて説明した。しかしながら、メロディを受け取る際に、ユーザが作曲したメロディを受け取ることもできるが、既に作曲された既存のメロディを受け取ることもできる。例えば、ユーザは、前記格納部150に格納されている既存のメロディを読み出すこともでき、これを修正して新たなメロディを作曲することもできる。
図5は、本発明の第1の実施の形態による音楽作曲装置の運用方法を示したフローチャートである。
まず、ユーザインタフェース部110を介してメロディが入力される(ステップ501)。
ユーザは、ハミングを介して自身の作曲したメロディを本発明による音楽作曲装置100に入力させる。前記ユーザインタフェース部110は、マイクを備えることによって、ユーザからメロディを受け取る。また、ユーザは、歌を歌う方式により、自身の作曲したメロディを入力させることもできる。
また、前記ユーザインタフェース部110は、ユーザから鍵盤モードでメロディを受け取ることができる。前記ユーザインタフェース部110は、映像表示部に鍵盤形態の映像を表示し、設定された音階に該当するボタンの押さえ/解除を感知して、ユーザからメロディを受け取ることもできる。各ボタンには、音階(例えば、ド、レ、ミ、ファ、ソ、ラ、シ、ド)が指定されているので、ユーザから選択されたボタンを感知して、音の高さ情報を獲得することができる。そして、前記ボタンが押さえられた時間を感知して、該当音の長さ情報を獲得するように実現することができる。このとき、オクターブをアップまたはダウンさせる選択ボタンを設けて、ユーザがオクターブを選択するようにすることができる。
また、前記ユーザインタフェース部110は、ユーザから楽譜モードでメロディを受け取ることができる。前記ユーザインタフェース部110は、映像表示部に楽譜を表示し、ユーザのボタン操作からメロディを受け取ることができる。例えば、まず楽譜に所定の音と長さを有する音を表示させる。ユーザは、第1ボタンNote Upを押して、音の高さを上げることができ、第2ボタンNote Downを押して、音の高さを下げることができる。ユーザは、第3ボタンLengthenを押して、音の長さを長くすることができ、第4ボタンShortenを押して、音の長さを短くすることができる。これにより、ユーザは、該当音の高さ情報と長さ情報を入力することができ、このような過程を繰り返し行うことにより、ユーザは、自身の作曲したメロディを入力することができる。
前記ユーザインタフェース部110を介してメロディが入力されれば、メロディ生成部120は、前記入力されたメロディに対応するメロディファイルを生成する(ステップ503)。前記メロディ生成部120から生成されたメロディファイルを、格納部150に格納することができる。
そして、和音伴奏生成部130は、前記メロディファイルに対する分析を行って、前記メロディに適した和音伴奏ファイルを生成する(ステップ505)。前記和音伴奏生成部130から生成された和音伴奏ファイルを、前記格納部150に格納することができる。
本発明による音楽作曲装置100の音楽生成部160は、前記メロディファイルと前記和音伴奏ファイルとを合成して音楽ファイルを生成する(ステップ507)。前記音楽生成部160から生成された音楽ファイルを、前記格納部150に格納することができる。
一方、前記ステップ505では、和音伴奏ファイルが生成されることのみを説明したが、前記ステップ503から生成されたメロディファイルに対する分析により、リズム伴奏ファイルをさらに生成することもできる。このように、リズム伴奏ファイルがさらに生成される場合には、前記ステップ507において、前記メロディファイル、前記和音伴奏ファイル、前記リズム伴奏ファイルを合成して、音楽ファイルを生成する。
本発明による音楽作曲装置100は、ユーザから単純メロディのみを受け取り、その受け取ったメロディに適した和音伴奏とリズム伴奏を生成して、合成させた音楽ファイルを提供する。これにより、音楽専門家でない一般人も、立派な音楽を容易に創作することができるようになる。
一方、図6は、本発明の第2の実施の形態による音楽作曲装置を概略的に示したブロック図である。
本発明の第2の実施の形態による音楽作曲装置600は、図6に示したように、ユーザインタフェース部610、メロディ生成部620、小節和音検出部630、伴奏生成部640、格納部650、音楽生成部660を含む。
前記ユーザインタフェース部610は、ユーザからメロディを受け取る。ここで、ユーザから受け取るメロディとは、高さと長さを有した音が横に結合され、形成された音の線的連結のことを意味する。
前記メロディ生成部620は、前記ユーザインタフェース部610を介して入力されたメロディに対応するメロディファイルを生成して前記格納部650に格納する。
前記小節和音検出部630は、前記メロディ生成部620から生成されたメロディファイルを分析し、そのメロディに適した小節和音を検出する。検出された小節和音情報を、前記格納部650に格納することができる。
前記伴奏生成部640は、前記小節和音検出部630から検出された小節和音情報を参照して伴奏ファイルを生成する。ここでの伴奏ファイルは、和音伴奏やリズム伴奏の両方が含まれたファイルを言う。前記伴奏生成部640から生成された伴奏ファイルを、前記格納部650に格納することができる。
前記音楽生成部660は、前記格納部650に格納されたメロディファイル、伴奏ファイルを合成して音楽ファイルを生成し、生成された音楽ファイルを前記格納部650に格納することができる。
本発明による音楽作曲装置600は、ユーザから単純メロディのみを受け取り、該受け取ったメロディに適した和音/リズム伴奏を生成して合成させた音楽ファイルを提供する。これにより、音楽専門家でない一般人も、立派な音楽を容易に創作できるようになる。
ユーザからメロディを受け取る方法は様々でよく、前記ユーザインタフェース部610は、ユーザからメロディを受け取る方式に応じて多様に変形され得る。ユーザからメロディを受け取る例には、ハミングモード、鍵盤モード、楽譜モードなどがある。
受け取ったメロディに対して前記小節和音検出部630から適切な小節和音を検出する過程について、図7〜図9を参照して説明する。以下で説明される小節和音の検出過程は、上記の本発明の第1の実施の形態による音楽作曲装置100にも適用できる。
図7は、本発明の第2の実施の形態による音楽作曲装置の小節和音検出部を概略的に示したブロック図であり、図8は、本発明の第2の実施の形態による音楽作曲装置での小節分類を説明するための図であり、図9は、本発明の第2の実施の形態による音楽作曲装置から分類された小節に小節和音を設定した例を示した図である。
本発明による前記小節和音検出部630は、図7に示したように、小節分類部631、メロディ分析部633、調(key)分析部635、小節和音選択部637を含む。
前記小節分類部631は、入力されたメロディを分析して予め指定された拍子に合うように小節を分ける機能を担当する。例えば、4/4拍子の曲であれば、4拍子ずつ音符の長さを計算して五線紙上に区分ける(図8参照)。小節にわたる音の場合、タイ(Tie)を用いて音符を分ける機能を果たすことができる。
前記メロディ分析部633は、メロディ各々の音を12音階に分類し、各音の長さに応じる加重値を付与する(1つのオクターブは12音階に分けられ、例えば、ピアノ鍵盤において1つのオクターブは、白鍵盤、黒鍵盤を合わせて総12個である)。例えば、音の長さが長ければ長いほど、小節和音を決定づける影響力が高いため、より多くの加重値を付与し、相対的に短い音には、低い加重値を付与する。また、拍子に合う強/弱の条件も考慮される。たとえば、4/4拍子の曲では、一般に強/弱/中強/弱のリズムを有するが、強/中強に該当する音には、他の音よりさらに高い加重値を付与することによって、小節和音の選択時により多くの影響力を行使するようになる。
このように、前記メロディ分析部633は、各音に様々な条件が合算された加重値を付与することによって、後の小節和音の選択時に最も調和の取れた伴奏になるように、メロディ分析資料を提供する機能を果たす。
前記調(key)分析部635は、前記メロディ分析部633で分析された資料を用いて、全体曲の雰囲気がどんな長調/短調であるかを判断する機能を果たす。キーには、シャープ(#)の数に応じて、ハ長調(C)、ト長調(G)、ニ長調(D)、イ長調(A)などがあり、フラット(b)の数に応じて、ヘ長調(F)、変ロ長調(Bb)、変ホ長調(Eb)などがある。各調に応じて用いられる小節和音が異なるので、このような分析作業が必要となる。
前記小節和音選択部637は、前記調分析部635で分析された調情報と前記メロディ分析部633で分析された加重値情報とを参照して、各小節に最も適した小節和音をマッピングする機能を果たす。前記小節和音選択部637は、各小節別に小節和音を割り当てる際に、音の分布に応じて1小節に小節和音を割り当てることもでき、半小節に小節和音を割り当てることもできる。図9に示したように、第1の小節には、I度小節和音が選択され、第2の小節には、IV度小節和音とV度小節和音が選択されるてもよい。上記の第2の小節の前の半小節はIV度小節和音と選択されたものであり、上記の第2の小節の後の半小節は、V度小節和音と選択された場合を示したものである。
このような過程により、前記小節和音検出部630は、ユーザから受け取ったメロディを分析し、各小節に対応する適切な小節和音を検出できるようになる。
図10は、本発明の第2の実施の形態による音楽作曲装置の伴奏生成部を概略的に示したブロック図である。
本発明による伴奏生成部640は、図10に示したように、スタイル選択部641、小節和音変形部643、小節和音適用部645、トラック生成部647を含む。
前記スタイル選択部641は、ユーザから受け取ったメロディに付加される伴奏のスタイルを選択する。伴奏スタイルは、ヒップホップ、ダンス、ジャズ、ロック、バラード、フォックストロットなどの様々なスタイルが存在できる。ユーザから受け取ったメロディに付加される伴奏のスタイルは、ユーザに応じて選択される。前記格納部650には、各スタイルに応じる小節和音ファイルが格納される。また、各スタイルに応じる小節和音ファイルは、各楽器別に作られることができる。楽器は、ピアノ、ハーモニカ、バイオリン、チェロ、ギター、ドラムなどを含む。各楽器に対応する小節和音ファイルは、1節の長さで形成されており、基本的なI度小節和音で構成されている。もちろん、各スタイルに応じる小節和音ファイルは、別途のデータベースとして管理されてもよく、IV度またはV度などの他の小節和音で構成されてもよい。
前記小節和音変形部643は、選択されたスタイルに応じる小節和音を、前記小節和音検出部630から実際に検出された各小節の小節和音に変形させる機能を果たす。例えば、前記スタイル選択部641から選択されたヒップホップスタイルは、基本I度小節和音からなっているが、前記小節和音検出部630によって検出された小節は、基本I度の小節和音ではないIV度、V度小節和音などにマッチされるためである。したがって、前記小節和音変形部643は、実際に検出された小節に合う小節和音に変形させる過程を行うようになる。もちろん、ヒップホップスタイルをなす各々のすべての楽器に対して別々に変形させる過程が行われる。
前記小節和音適用部645は、前記小節和音変形部643で変形された小節和音を楽器別に順次連結させる機能を果たす。例えば、ヒップホップスタイルが選択され、図9に示したような小節和音が選択されたと仮定しよう。このような場合、第1の小節では、ヒップホップスタイルのI度小節和音が適用され、第2の小節の前の半小節では、ヒップホップスタイルのIV度小節和音、後の半小節では、V度小節和音が適用される。このように、前記小節和音適用部645は、順次に各小節に合うヒップホップスタイルの小節和音を連結させる機能を果たす。このとき、前記小節和音適用部645は、各楽器別に小節に応じて順次連結させる機能を行い、楽器の数に応じて各々連結する。例えば、ヒップホップスタイルのピアノ小節和音が適用されて連結され、ヒップホップスタイルのドラム小節和音が適用されて連結される。
前記トラック生成部647は、各楽器別に小節和音が連結されて構成された伴奏ファイルを生成する。このような伴奏ファイルは、各楽器別小節和音で連結された各々の独立したミディ(MIDI)トラックとして生成されることができる。このように生成された伴奏ファイルを、前記格納部650に格納することができる。
前記音楽生成部660は、前記格納部650に格納されたメロディファイルと伴奏ファイルを合成して音楽ファイルを生成する。前記音楽生成部660から生成された音楽ファイルを、前記格納部650に格納することができる。前記音楽生成部660は、前記トラック生成部647から生成された少なくとも1つのミディトラックとユーザから受け取ったメロディトラックをヘッダ情報と共に集めて、1つの完成されたミディファイルを作ることができる。
一方、以上では、前記ユーザインタフェース部610を介して入力されたメロディに対して伴奏を付加して、音楽ファイルを生成することを基に説明した。しかしながら、メロディを受け取るとき、ユーザが作曲したメロディを受け取ることもできるが、作曲された既存のメロディを利用して受け取ることもできる。例えば、ユーザは、前記格納部650に格納されている既存のメロディを読み出すこともでき、これを修正して新たなメロディを作曲することもできる。
図11は、本発明の第2の実施の形態による音楽作曲装置の運用方法を示したフローチャートである。
まず、ユーザインタフェース部610を介してメロディが入力される(ステップ1101)。
ユーザは、ハミングを介して自身の作曲したメロディを、本発明による音楽作曲装置600に入力させる。前記ユーザインタフェース部610は、マイクを備えているので、ユーザからメロディを受け取る。また、ユーザは、歌を歌う方式により、自身の作曲したメロディを入力させることもできる。
また、前記ユーザインタフェース部610は、ユーザから鍵盤モードでメロディを受け取ることができる。前記ユーザインタフェース部610は、映像表示部に鍵盤形態の映像を表示し、設定された音階に該当するボタンの押さえ/解除を感知して、ユーザからメロディを受け取ることもできる。各ボタンには、音階(例えば、ド、レ、ミ、ファ、ソ、ラ、シ、ド)が指定されているので、ユーザから選択されたボタンを感知して、音の高さ情報を獲得できる。そして、前記ボタンが押された時間を感知して、該当音の長さ情報を獲得するように具現することができる。このとき、オクターブをアップまたはダウンさせる選択ボタンを設けて、ユーザがオクターブを選択するようにすることができる。
また、前記ユーザインタフェース部610は、ユーザから楽譜モードでメロディを受け取ることができる。前記ユーザインタフェース部610は、映像表示部に楽譜を表示し、ユーザのボタン操作によりメロディを受け取ることができる。例えば、まず楽譜に所定の音と長さを有する音を表示させる。ユーザは、第1ボタンNote Upを押して、音の高さを上げることができ、第2ボタンNote Downを押して、音の高さを下げることができる。ユーザは、第3ボタンLengthenを押して、音の長さを長くすることができ、第4ボタンShortenを押して、音の長さを短くすることができる。これにより、ユーザは、該当音の高さ情報と長さ情報を入力することができ、このような過程を繰り返し行うことにより、ユーザは、自身の作曲したメロディを入力することができる。
前記ユーザインタフェース部610を介してメロディが入力されれば、メロディ生成部620は、前記入力されたメロディに対応するメロディファイルを生成する(ステップ1103)。前記メロディ生成部620から生成されたメロディファイルを、格納部650に格納することができる。
本発明による音楽作曲装置600は、前記メロディ生成部620から生成されたメロディを分析し、前記メロディに適した和音/リズム伴奏ファイルを生成する(ステップ1105)。該生成された和音/リズム伴奏ファイルを、前記格納部650に格納することができる。
ここで、本発明による音楽作曲装置600の小節和音検出部630は、前記メロディ生成部620から生成されたメロディファイルを分析し、そのメロディに適した小節和音を検出する。該検出された小節和音情報を、前記格納部650に格納することができる。
本発明による音楽作曲装置600の伴奏生成部640は、前記小節和音検出部630から検出された小節和音情報を参照して、伴奏ファイルを生成する。ここでの伴奏ファイルは、和音伴奏やリズム伴奏の両方が含まれたファイルをいう。前記伴奏生成部640から生成された伴奏ファイルを、前記格納部650に格納することができる。
次に、本発明による音楽作曲装置600の音楽生成部660は、前記メロディファイルと前記和音/リズム伴奏ファイルとを合成して音楽ファイルを生成する(ステップ1107)。前記音楽生成部660から生成された音楽ファイルを、前記格納部650に格納することができる。
本発明による音楽作曲装置600は、ユーザから単純メロディのみを受け取り、該受け取ったメロディに適した和音/リズム伴奏を生成して合成させた音楽ファイルを提供する。これにより、音楽専門家でない一般人も、立派な音楽を容易に創作できるようになる。
一方、図12は、本発明の第3の実施の形態による携帯端末機を概略的に示したブロック図である。ここで、携帯端末機とは、個人が携帯できる端末機のことを総称する用語として用いられたものである。前記携帯端末機は、MP3プレーヤー、PDA、デジタルカメラ、移動通信端末機、カメラ付き携帯電話などを含む。
本発明による携帯端末機1200は、図12に示したように、ユーザインタフェース部1210、音楽作曲モジュール1220、格納部1230を含む。前記音楽作曲モジュール1220は、メロディ生成部1221、和音伴奏生成部1223、リズム伴奏生成部1225、音楽生成部1227を含む。
前記ユーザインタフェース部1210は、ユーザからデータ、命令、メニュー選択などを受け取り、ユーザに音情報、視覚情報などを提供する。また、前記ユーザインタフェース部1210は、ユーザからメロディを受け取る。ここで、ユーザから受け取るメロディとは、高さと長さを有した音が横に結合され、形成された音の線的連結のことを意味する。
前記ユーザインタフェース部1210を介して入力されたメロディに対して、前記音楽作曲モジュール1320は、適切な和音伴奏及び/またはリズム伴奏を生成する。前記音楽作曲モジュール1320は、ユーザから受け取ったメロディにその生成された和音伴奏及び/またはリズム伴奏が付加された音楽ファイルを生成する。
本発明による携帯端末機1200は、ユーザから単純メロディのみを受け取り、該受け取ったメロディに適した和音伴奏やリズム伴奏を生成して、合成させた音楽ファイルを提供する。これにより、音楽専門家でない一般人も、立派な音楽を容易に創作できるようになる。
前記メロディ生成部1221は、前記ユーザインタフェース部1210を介して入力されたメロディに対応するメロディファイルを生成して、前記格納部1230に格納する。
前記和音伴奏生成部1223は、前記メロディ生成部1221から生成されたメロディファイルを分析し、そのメロディに適した和音を検出して、和音伴奏ファイルを生成する。前記和音伴奏生成部1223から生成された和音伴奏ファイルは、前記格納部1230に格納される。
前記リズム伴奏生成部1225は、前記メロディ生成部1221から生成されたメロディファイルを分析し、そのメロディに適したリズムを検出して、リズム伴奏ファイルを生成する。前記リズム伴奏生成部1225は、メロディに対する分析により、適切なリズムスタイルをユーザに推薦することができる。また、前記リズム伴奏生成部1225は、ユーザから要請されたリズムスタイルに合わせて、リズム伴奏ファイルを生成することもできる。前記リズム伴奏生成部1225から生成されたリズム伴奏ファイルは、前記格納部1230に格納される。
前記音楽生成部1227は、前記格納部1230に格納されたメロディファイル、和音伴奏ファイル、リズム伴奏ファイルを合成して音楽ファイルを生成し、該生成された音楽ファイルを前記格納部1230に格納する。
ユーザからメロディを受け取る方法は様々であり、前記ユーザインタフェース部1210は、ユーザからメロディを受け取る方式に応じて多様に変形される。
一例として、ユーザからハミングモードで受け取る方法がある。ユーザは、ハミングを介して自身の作曲したメロディを本発明による携帯端末機1200に入力させることができる。前記ユーザインタフェース部1210は、マイクを備えることによって、ユーザからメロディを受け取る。また、ユーザは、歌を歌う方式により、自身の作曲したメロディを入力させることもできる。
前記ユーザインタフェース部1210は、映像表示部をさらに備えることもでき、このような場合、映像表示部にハミングモードが行われていることを表示できる。前記映像表示部には、メトロノームが表示されるようにすることができ、ユーザは、前記メトロノームを参照して、入力されるメロディの速度を調整する。
メロディの入力が終了した後にユーザは、入力されたメロディに対する確認を要請することができる。前記ユーザインタフェース部1210は、スピーカーを介してユーザから受け取ったメロディを出力させることができ、映像表示部に楽譜形態でメロディを表示することもできる。ユーザは、前記ユーザインタフェース部1210に表示された楽譜上において修正する音符を選択し、該選択された音符の高さ及び/または長さを変更することもできる。
また、前記ユーザインタフェース部1210は、ユーザから鍵盤モードでメロディを受け取ることができる。前記ユーザインタフェース部1210は、映像表示部に鍵盤形態の映像を表示し、設定された音階に該当するボタンの押さえ/解除を感知して、ユーザからメロディを受け取ることもできる。各ボタンには、音階(例えば、ド、レ、ミ、ファ、ソ、ラ、シ、ド)が指定されているので、ユーザから選択されたボタンを感知して、音の高さ情報を獲得できる。前記ボタンが押さえられた時間を感知して、該当音の長さ情報を獲得するように具現できる。このとき、オクターブをアップまたはダウンさせる選択ボタンを設けて、ユーザがオクターブを選択するようにすることができる。
前記映像表示部には、メトロノームが表示されるようにすることができ、ユーザは、前記メトロノームを参照して、入力されるメロディの速度を調整することができるようになる。メロディの入力が終了した後に、ユーザは、入力されたメロディに対する確認を要請することができる。前記ユーザインタフェース部1210は、スピーカーを介してユーザから受け取ったメロディを出力させることができ、映像表示部に楽譜形態でメロディを表示することもできる。ユーザは、前記ユーザインタフェース部1210に表示された楽譜上において修正する音符を選択し、該選択された音符の高さ及び/または長さを変更することもできる。
また、前記ユーザインタフェース部1210は、ユーザから楽譜モードでメロディを受け取ることができる。前記ユーザインタフェース部1210は、映像表示部に楽譜を表示し、ユーザのボタン操作からメロディを受け取ることができる。例えば、まず楽譜に所定の音と長さを有する音を表示させる。ユーザは、第1ボタンNote Upを押して、音の高さを上げることができ、第2ボタンNote Downを押して、音の高さを下げることができる。ユーザは、第3ボタンLengthenを押して、音の長さを長くすることができ、第4ボタンShortenを押して、音の長さを短くすることができる。これにより、ユーザは、該当音の高さ情報と長さ情報を入力できるようになり、このような過程を繰り返し行うことにより、ユーザは、自身の作曲したメロディを入力できるようになる。
メロディの入力が終了した後に、ユーザは、入力されたメロディに対する確認を要請することができる。前記ユーザインタフェース部1210は、スピーカーを介してユーザから受け取ったメロディを出力させることができ、映像表示部に楽譜形態でメロディを表示することもできる。ユーザは、前記ユーザインタフェース部1210に表示された楽譜上において修正する音符を選択し、該選択された音符の高さ及び/または長さを変更することもできる。
前記和音伴奏生成部1223は、前記メロディ生成部1221から生成されたメロディファイルに対して、伴奏のための基本的なメロディ分析を行う。メロディを構成する小節別に各小節に該当する分析資料に基づいて小節和音に対する選択が行われる。ここで、小節和音とは、和音伴奏のために各小節別に設定されたことを表すものであって、音楽の全体的な和音と区分するために用いられた用語である。
例えば、歌を歌いながらギター演奏をするとき、毎小節ごとに設定された小節和音を演奏するようになるが、歌を歌う部分がメロディ作曲部分に該当し、その歌に合う小節和音を毎瞬間ごとに判断して選択することが、前記和音伴奏生成部1223の機能である。
一方、以上では、前記ユーザインタフェース部1210を介して入力されたメロディに対して和音伴奏及び/またはリズム伴奏を付加して音楽ファイルを生成するのを基に説明した。しかしながら、メロディを受け取る際に、ユーザが作曲したメロディを受け取ることもできるが、既に作曲されたメロディを用いて受け取ることもできる。例えば、ユーザは、前記格納部1230に格納されている既存のメロディを読み出すことができ、これを修正して新たなメロディを作曲することもできる。
図13は、本発明の第3の実施の形態による携帯端末機の運用方法を示したフローチャートである。
まず、ユーザインタフェース部1210を介してメロディが入力される(ステップ1301)。
ユーザは、ハミングを介して自身の作曲したメロディを本発明による携帯端末機1200に入力させることができる。前記ユーザインタフェース部1210は、マイクを備えることによって、ユーザからメロディを受け取ることができる。また、ユーザは、歌を歌う方式により、自身の作曲したメロディを入力させることもできる。
また、前記ユーザインタフェース部1210は、ユーザから鍵盤モードでメロディを受け取ることができる。前記ユーザインタフェース部1210は、映像表示部に鍵盤形態の映像を表示し、設定された音階に該当するボタンの押さえ/解除を感知して、ユーザからメロディを受け取ることもできる。各ボタンには、音階(例えば、ド、レ、ミ、ファ、ソ、ラ、シ、ド)が指定されているので、ユーザから選択されたボタンを感知して、音の高さ情報を獲得することができる。そして、前記ボタンが押さえられた時間を感知して、該当音の長さ情報を獲得するように具現できる。このとき、オクターブをアップまたはダウンさせる選択ボタンを設けて、ユーザがオクターブを選択するようにすることができる。
また、前記ユーザインタフェース部1210は、ユーザから楽譜モードでメロディを受け取ることができる。前記ユーザインタフェース部1210は、映像表示部に楽譜を表示し、ユーザのボタン操作からメロディを受け取ることができる。例えば、まず楽譜に所定の音と長さを有する音を表示させる。ユーザは、第1ボタンNote Upを押して、音の高さを上げることができ、第2ボタンNote Downを押して、音の高さを下げることができる。ユーザは、第3ボタンLengthenを押して、音の長さを長くすることができ、第4ボタンShortenを押して、音の長さを短くすることができる。これにより、ユーザは、該当音の高さ情報と長さ情報を入力することができ、このような過程を繰り返し行うことにより、ユーザは、自身の作曲したメロディを入力することができる。
前記ユーザインタフェース部1210を介してメロディが入力されれば、音楽作曲モジュール1220のメロディ生成部1221は、前記入力されたメロディに対応するメロディファイルを生成する(ステップ1303)。前記メロディ生成部1221から生成されたメロディファイルは、格納部1230に格納されることができる。
そして、前記音楽作曲モジュール1220の和音伴奏生成部1223は、前記メロディファイルに対する分析を行って、前記メロディに適した和音伴奏ファイルを生成する(ステップ1305)。前記和音伴奏生成部1223から生成された和音伴奏ファイルを、前記格納部1230に格納することができる。
本発明による音楽作曲モジュール1220の音楽生成部1227は、前記メロディファイルと前記和音伴奏ファイルとを合成して、音楽ファイルを生成する(ステップ1307)。前記音楽生成部1227から生成された音楽ファイルを、前記格納部1230に格納することができる。
前記ステップ1305では、和音伴奏ファイルが生成されることのみを説明したが、前記ステップ1303から生成されたメロディファイルに対する分析により、リズム伴奏ファイルをさらに生成することもできる。このように、リズム伴奏ファイルがさらに生成される場合には、前記ステップ1307において、前記メロディファイル、前記和音伴奏ファイル、前記リズム伴奏ファイルを合成して、音楽ファイルを生成する。
本発明による携帯端末機1200は、ユーザから単純メロディのみを受け取り、該受け取ったメロディに適した和音伴奏やリズム伴奏を生成して合成させた音楽ファイルを提供する。これにより、音楽専門家でない一般人も、立派な音楽を容易に創作できるようになる。
図14は、本発明の第4の実施の形態による携帯端末機を概略的に示したブロック図である。ここで、携帯端末機とは、個人が携帯できる端末機を総称する用語として用いられたものである。前記携帯端末機は、MP3プレーヤー、PDA、デジタルカメラ、移動通信端末機、カメラ付き携帯電話を含む。
本発明による携帯端末機1400は、図14に示したように、ユーザインタフェース部1410、音楽作曲モジュール1420、格納部1430を含む。前記音楽作曲モジュール1420は、メロディ生成部1421、小節和音検出部1423、伴奏生成部1425、音楽生成部1427を含む。
前記ユーザインタフェース部1410は、ユーザからデータ、命令、選択などを受け取り、ユーザに音情報、視覚情報などを提供する。また、前記ユーザインタフェース部1410は、ユーザからメロディを受け取る。ここで、ユーザから受け取るメロディとは、高さと長さを有した音が横に結合され、形成された音の線的連結のことを意味する。
前記ユーザインタフェース部1410を介して入力されたメロディに対して、前記音楽作曲モジュール1420は、適切な和音/リズム伴奏を生成する。前記音楽作曲モジュール1420は、ユーザから受け取ったメロディにその生成された和音/リズム伴奏が付加された音楽ファイルを生成する。
本発明による携帯端末機1400は、ユーザから単純メロディのみを受け取り、該受け取ったメロディに適した和音/リズム伴奏を生成して合成させた音楽ファイルを提供する。これにより、音楽専門家でない一般人も、立派な音楽を容易に創作できるようになる。
前記メロディ生成部1421は、前記ユーザインタフェース部1410を介して入力されたメロディに対応するメロディファイルを生成して、前記格納部1430に格納する。
前記小節和音検出部1423は、前記メロディ生成部1421から生成されたメロディファイルを分析し、そのメロディに適した小節和音を検出する。該検出された小節和音情報を、前記格納部1430に格納することができる。
前記伴奏生成部1425は、前記小節和音検出部1423から検出された小節和音情報を参照して、伴奏ファイルを生成する。ここでの伴奏ファイルは、和音伴奏やリズム伴奏の両方が含まれたファイルをいう。前記伴奏生成部1425から生成された伴奏ファイルを、前記格納部1430に格納することができる。
前記音楽生成部1427は、前記格納部1430に格納されたメロディファイルと伴奏ファイルを合成して音楽ファイルを生成し、該生成された音楽ファイルを前記格納部1430に格納することができる。
本発明による携帯端末機1400は、ユーザから単純メロディのみを受け取り、該受け取ったメロディに適した和音/リズム伴奏を生成して合成させた音楽ファイルを提供する。これにより、音楽専門家でない一般人も、立派な音楽を容易に創作できるようになる。
ユーザからメロディを受け取る方法は様々であり、前記ユーザインタフェース部1410は、ユーザからメロディを受け取る方式に応じて多様に変形される。ユーザからメロディを受け取る例には、ハミングモード、鍵盤モード、楽譜モードなどがある。
前記小節和音検出部1423において、入力されたメロディに対して適切な小節和音を検出する過程について簡略に説明する。以下で説明される小節和音検出過程は、上記の本発明の第3の実施の形態による携帯端末機1200にも適用され得る。
本発明による前記小節和音検出部1423は、入力されたメロディを分析して、予め指定された拍子に合うように小節を分ける機能を果たす。例えば、4/4拍子の曲であれば、4拍子ずつ音符の長さを計算して、五線紙上に区分けする。小節にわたる音の場合、タイを用いて音符を分ける機能を果たすことができる。
前記小節和音検出部1423は、メロディ各々の音を12音階に分類し、各音の長さに応じる加重値を付与する(1つのオクターブは、12音階に分け、例えば、ピアノ鍵盤において1つのオクターブは、白鍵盤、黒鍵盤を合わせて総12個である)。例えば、音の長さが長いほど、小節和音を決定づける影響力が高いため、より多くの加重値を付与し、相対的に短い音には、低い加重値を付与する。また、拍子に合う強/弱の条件も考慮される。たとえば、4/4拍子の曲では、一般的に強/弱/中強/弱のリズムを有するが、強/中強に該当する音には、他の音達よりさらに高い加重値を付与することによって、小節和音選択時により多くの影響力を行使することができるようになる。
このように、前記小節和音検出部1423は、各音に様々な条件が合算された加重値を付与することによって、今後の小節和音の選択時に最も調和の取れた伴奏になるように、メロディ分析資料を提供する機能を果たす。
前記小節和音検出部1423は、前記メロディに対して分析された資料を用いて、全体曲の雰囲気がどんな長調/短調であるかを判断する機能を果たす。調には、シャープの数に応じて、ハ長調(C)、ト長調(G)、ニ長調(D)、イ長調(A)などがあり、フラットの数に応じて、ヘ長調(F)、変ロ長調(Bb)、変ホ長調(Eb)などがある。各調に応じて用いられる小節和音が異なるので、このような分析作業が必要とされる。
前記小節和音検出部1423は、分析された調情報と各音に対する加重値情報を参照して、各小節に最も適した小節和音をマッピングする機能を果たす。前記小節和音検出部1423は、各小節別に小節和音を割り当てるときに、音の分布に応じて1小節に小節和音を割り当てることもでき、半小節に小節和音を割り当てることもできる。
このような過程により、前記小節和音検出部1423は、ユーザから受け取ったメロディを分析し、各小節に対応する適切な小節和音を検出することができる。
前記伴奏生成部1425は、ユーザから受け取ったメロディに付加される伴奏のスタイルを選択する。伴奏スタイルは、ヒップホップ、ダンス、ジャズ、ロック、バラード、フォックストロットなどの色々なスタイルが存在する。前記ユーザから受け取ったメロディに付加される伴奏スタイルを、ユーザが選択することができる。前記格納部1430には、各スタイルに応じる小節和音ファイルを格納することができる。また、各スタイルに応じる小節和音ファイルは、各楽器別に作られてもよい。楽器は、ピアノ、ハーモニカ、バイオリン、チェロ、ギター、ドラムなどを含む。各楽器に対応する基準小節和音ファイルは、1小節の長さに形成されており、基本的なI度小節和音で構成されている。もちろん、各スタイルに応じる基準小節和音ファイルは、別途のデータベースとして管理されることもでき、IV度またはV度などの他の小節和音で構成されることもできる。
前記伴奏生成部1425は、選択されたスタイルに応じる基準小節和音を実際に検出された各小節の小節和音に変形させる機能を果たす。例えば、前記伴奏生成部1425から選択されたヒップホップスタイルは、基本I度小節和音からなっているが、前記小節和音検出部1423によって検出された小節は、基本I度の小節和音ではないIV度、V度の小節和音などにマッチングされ得るためである。したがって、前記伴奏生成部1425は、基準小節和音を実際に検出された小節に合う小節和音に変形させる過程を行う。もちろん、ヒップホップスタイルをなす各々のすべての楽器に対して別々に変形させる過程が行われる。
前記伴奏生成部1425は、前記変形された小節和音を楽器別に順次連結させる機能を果たす。例えば、第1の小節では、ヒップホップスタイルのI度小節和音が適用され、第2の小節の前の半小節では、ヒップホップスタイルのIV度小節和音、後の半小節では、V度小節和音が適用される。このように、前記伴奏生成部1425は、各小節に合うヒップホップスタイルの小節和音を順次連結させる機能を果たす。このとき、前記伴奏生成部1425は、各楽器別に小節に応じて順次連結させる機能を行い、楽器の数に応じて各々連結する。例えば、ヒップホップスタイルのピアノ小節和音が適用されて連結され、ヒップホップスタイルのドラム小節和音が適用されて連結される。
前記伴奏生成部1425は、各楽器別に小節和音が連結されて構成された伴奏ファイルを生成する。このような伴奏ファイルは、各楽器別小節和音で連結された各々の独立したミディトラックで生成されることができる。このように生成された伴奏ファイルを、前記格納部1430に格納することができる。
前記音楽生成部1427は、前記格納部1430に格納されたメロディファイル、伴奏ファイルを合成して音楽ファイルを生成する。前記音楽生成部1427から生成された音楽ファイルを、前記格納部1430に格納することができる。前記音楽生成部1427は、前記伴奏生成部1425から生成された少なくとも1つのミディトラックとユーザから受け取ったメロディトラックをヘッダ情報と共に集めて、1つの完成されたミディファイルを作ることができる。
以上では、前記ユーザインタフェース部1410を介して入力されたメロディに対して、伴奏を付加して音楽ファイルを生成することを基に説明した。しかし、メロディを受け取る際に、ユーザが作曲したメロディを受け取ることもできるが、既に作曲されているメロディを用いて受け取ることもできる。例えば、ユーザは、前記格納部1430に格納されている既存のメロディを読み出すことができ、これを修正して、新しいメロディを作曲することもできる。
図15は、本発明の第4の実施の形態による携帯端末機の運用方法を示したフローチャートである。
まず、ユーザインタフェース部1410を介してメロディが入力される(ステップ1501)。
ユーザは、ハミングを介して自身の作曲したメロディを、本発明による携帯用端末機1400に入力させる。前記ユーザインタフェース部1410は、マイクを備えることによって、ユーザからメロディを受け取る。また、ユーザは、歌を歌う方式により、自身の作曲したメロディを入力させることもできる。
また、前記ユーザインタフェース部1410は、ユーザから鍵盤モードでメロディを受け取ることができる。前記ユーザインタフェース部1410は、映像表示部に鍵盤形態の映像を表示し、設定された音階に該当するボタンの押さえ/解除を感知して、ユーザからメロディを受け取ることもできる。各ボタンには、音階(例えば、ド、レ、ミ、ファ、ソ、ラ、シ、ド)が指定されているので、ユーザから選択されたボタンを感知して、音の高さ情報を獲得できる。そして、前記ボタンが押された時間を感知して、該当音の長さ情報を獲得するように具現できる。このとき、オクターブをアップまたはダウンさせる選択ボタンを設けて、ユーザがオクターブを選択するようにすることができる。
また、前記ユーザインタフェース部1410は、ユーザから楽譜モードでメロディを受け取ることができる。前記ユーザインタフェース部1410は、映像表示部に楽譜を表示し、ユーザのボタン操作によりメロディを受け取ることができる。例えば、まず楽譜に所定の音と長さを有する音を表示させる。ユーザは、第1ボタンNote Upを押して、音の高さを上げることができ、第2ボタンNote Downを押して、音の高さを下げることができる。ユーザは、第3ボタンLengthenを押して、音の長さを長くすることができ、第4ボタンShortenを押して、音の長さを短くすることができる。これにより、ユーザは、該当音の高さ情報と長さ情報を入力できるようになり、このような過程を繰り返し行うことにより、ユーザは、自身の作曲したメロディを入力できるようになる。
前記ユーザインタフェース部1410を介してメロディが入力されれば、本発明による音楽作曲モジュール1420のメロディ生成部1421は、前記入力されたメロディに対応するメロディファイルを生成する(ステップ1503)。前記メロディ生成部1421から生成されたメロディファイルを、格納部1430に格納することができる。
本発明による音楽作曲モジュール1420は、前記メロディ生成部1421から生成されたメロディを分析し、前記メロディに適した和音/リズム伴奏ファイルを生成する(ステップ1505)。前記生成された和音/リズム伴奏ファイルを、前記格納部1430に格納することができる。
本発明による音楽作曲モジュール1420の小節和音検出部1423は、前記メロディ生成部1421から生成されたメロディファイルを分析し、そのメロディに適した小節和音を検出する。該検出された小節和音情報を、前記格納部1430に格納することができる。
本発明による音楽作曲モジュール1420の伴奏生成部1425は、前記小節和音検出部1423から検出された小節和音情報を参照して伴奏ファイルを生成する。ここでの伴奏ファイルは、和音伴奏やリズム伴奏の両方が含まれたファイルをいう。前記伴奏生成部1425から生成された伴奏ファイルを、前記格納部1430に格納することができる。
本発明による音楽作曲モジュール1420の音楽生成部1427は、前記メロディファイルと前記和音/リズム伴奏ファイルとを合成して音楽ファイルを生成する(ステップ1507)。前記音楽生成部1427から生成された音楽ファイルを、前記格納部1430に格納することができる。
本発明による携帯端末機1400は、ユーザから単純メロディのみを受け取り、該受け取ったメロディに適した和音/リズム伴奏を生成して合成させた音楽ファイルを提供する。これにより、音楽専門家でない一般人も、立派な音楽を容易に創作できるようになる。
図16は、本発明の第5の実施の形態による移動通信端末機を概略的に示したブロック図で、図17は、本発明の第5の実施の形態による移動通信端末機の格納部に格納されるデータの種類を例示したデータ構造図である。
本発明による移動通信端末機1600は、図16に示したように、ユーザインタフェース部1610、音楽作曲モジュール1620、着信音選択部1630、着信音嗜好分析部1640、着信音自動選択部1650、格納部1660、着信音再生部1670を含む。
前記ユーザインタフェース部1610は、ユーザからデータ、命令、選択などを受け取り、ユーザに音情報、視覚情報などを提供する。また、前記ユーザインタフェース部1610は、ユーザからメロディを受け取る。ここで、ユーザから受け取るメロディとは、高さと長さを有した音が横に結合され、形成された音の線的連結のことを意味する。
前記ユーザインタフェース部1610を介して入力されたメロディに対して、前記音楽作曲モジュール1630は、適切な和音/リズム伴奏を生成する。前記音楽作曲モジュール1630は、ユーザから受け取ったメロディにその生成された和音/リズム伴奏が付加された音楽ファイルを生成する。
前記音楽作曲モジュール1630には、本発明の第3の実施の形態による携帯端末機に適用された音楽作曲モジュール1220を選択することもでき、また本発明の第4の実施の形態による携帯端末機に適用された音楽作曲モジュール1420を選択することもできる。
本発明による移動通信端末機1600は、ユーザから単純メロディのみを受け取り、該受け取ったメロディに適した和音/リズム伴奏を生成して合成させた音楽ファイルを提供する。これにより、音楽専門家でない一般人も、立派な音楽を容易に創作できるようになる。また、ユーザは、自身の作曲した音楽ファイルを他人に送信することもでき、移動通信端末機1600の着信音として活用することもできる。
前記格納部1660には、小節和音情報a1、リズム情報a2、オーディオファイルa3、嗜好パターン情報a4及び着信音設定情報a5などが格納される。
図17を参照して説明すれば、第1に、前記小節和音情報a1は、2個以上の音階間の差、すなわち音程理論に基づいて所定のメロディをなす音符に適用される和音情報を示す。
したがって、本発明によるユーザインタフェース部1610を介して簡単なメロディラインが入力されても、前記和音情報a1によれば、音符の所定再生単位(たとえば、拍子別になされる楽曲節)で伴奏を具現できる。
第2に、前記リズム情報a2は、ドラムのような打楽器、ベースのようなリズム楽器などで演奏される音域情報であって、基本的にビットと強弱とからなり、和音情報及び拍子パターンに応じる多様なリズムを含む。このようなリズム情報a2によれば、音符の所定再生単位(たとえば、楽節)別にバラード、ヒップホップ、ラテンダンスなどの多様なリズム伴奏を具現できる。
第3に、前記オーディオファイルa3は、音楽再生用ファイルであって、ミディファイルなどを用いることができる。「ミディ」は、電子楽器間のデジタル信号をやりとりするために、各種信号を約束した規格を意味するが、ミディファイルは、音色情報、音長情報、音階情報、音符情報、強弱情報、リズム情報、残響情報などの音楽情報を含む。
音色情報は、音幅と深い関連のあるものであって、音固有の性質を表し、たとえば、楽器の種類(音声)に応じて異になる。
また、音階情報は、音の高さ(通常、7音階で、長音階、短音階、半音階、全音階などに分ける)を意味し、音符情報b1は、楽曲の(音楽と称することができる)最小単位を意味する。すなわち、音符情報b1は、音源サンプルの単位として機能する。その他、強弱情報、残響情報などによって微妙な演奏差が表現される。
このようにミディファイルをなす各情報は、通常、オーディオトラックとして各々格納されるが、本発明の実施の形態では、音符オーディオトラックb1、和音オーディオトラックb2、リズムオーディオトラックb3の代表的な3種類が自動伴奏機能に用いられる。
第4に、前記嗜好パターン情報a4は、ユーザが選択したオーディオファイルを分析してユーザが好む(たくさん選択された)小節和音情報とリズム情報の順位情報を意味する。したがって、嗜好パターン情報a4によれば、順位別和音情報とリズム情報の量により、ユーザが好むオーディオファイルa3を選別できる。
第5に、前記着信音設定情報a5は、ユーザが選択したオーディオファイルa3またはユーザの好みが分析されて自動に選別されたオーディオファイル(以下で後述)が着信音として用いられることを設定した情報である。
ユーザが前記ユーザインタフェース部1610に備えられたキーパッド部の所定キーボタンを押すと、該当キー入力信号が生成されて前記音楽作曲モジュール1620に伝達される。
前記音楽作曲モジュール1620は、キー入力信号に応じて音の高さ及び音の長さを含む音符情報を生成し、該生成された音符情報を音符オーディオトラックとして構成する。
このとき、前記音楽作曲モジュール1620は、キーボタンの種類に応じて所定音の高さをマッピングし、キーボタンが作動された時間に応じて所定音の長さを設定することによって音符情報を生成する。ユーザは、音階に割り当てられたキーボタンと共に所定キーを作動させることによって、シャープ「#」またはフラット「b」を入力することもできる。これにより、前記音楽作曲モジュール1620は、前記マッピングされた音の高さが半音アップまたは半音ダウンされるように音符情報を生成する。
このようにして、ユーザは、キーパッドの種類及び押した時間に応じて基本的なメロディラインを入力するが、このとき、前記ユーザインタフェース部1610は、生成された音符情報をリアルタイムで音楽記号を用いた表示情報を生成し、映像表示部にこれを画面として出力する。
たとえば、五線上に音符を小節別にディスプレイすると、ユーザは、これを確認しつつ手軽にメロディラインを作曲することができる。
また、前記音楽作曲モジュール1620は、メロディの入力モード及びメロディ確認モードの2種類の動作モードを設定し、ユーザが動作モードを選択する。メロディの入力モードは、前述のように、音符情報を受け取るモードであり、メロディ確認モードは、作曲中にもユーザが入力された(作曲中の)音符情報を確認することができるようにメロディを再生させるモードである。すなわち、前記音楽作曲モジュール1620は、メロディ確認モードが選択されれば、現在まで生成された音符情報に応じるメロディを再生させる。
メロディの入力モードが動作中であるとき、前記音楽作曲モジュール1620は、所定キーボタンの入力信号が伝達されれば、前記キーボタンに割り当てられた音階に応じて該当音を再生させる。したがって、ユーザは、五線上の音符を確認し、その時その時の入力音を聞くか、または現在までの入力音を再生させつつ作曲を行うことができる。
以上のように、前記音楽作曲モジュール1620を介して、ユーザがはじめから作曲を行うこともできるが、従来の音楽、オーディオファイルを用いて作曲/編曲を行うこともできる。このような場合、ユーザの選択によって、前記音楽作曲モジュール1620は、前記格納部1660に格納された他のオーディオファイルを読み出すことができる。
前記音楽作曲モジュール1620は、選択されたオーディオファイルの音符オーディオトラックを検出し、前記ユーザインタフェース部1610は、これを音楽記号として画面出力する。これを確認したユーザは、前述のようにユーザインタフェース部1610のキーパッド部を操作し、キー入力信号が伝達されれば、該当音符情報を生成して前記オーディオトラックの音符情報を編集する。
前記音楽作曲モジュール1620は、音符情報(メロディ)が入力されれば、その入力された音符情報(メロディ)に適切な自動伴奏機能を提供する。
前記音楽作曲モジュール1620は、入力された音符情報を所定単位に分析して、適用可能な和音情報を前記格納部1660から検出し、該検出された和音情報を和音オーディオトラックとして構成する。
前記検出された和音情報は、多様な種類として組み合わせることができ、したがって、前記音楽作曲モジュール1620は、和音情報の種類及び組み合わせの差によって、多数の和音オーディオトラックを構成する。
前記音楽作曲モジュール1620は、前記生成された音符情報の拍子を分析して、適用可能なリズム情報を前記格納部1660から検出し、該検出されたリズム情報をリズムオーディオトラックとして構成する。前記音楽作曲モジュール1620は、リズム情報の種類及び組み合わせの差に応じて、多数のリズムオーディオトラックを構成する。
前記音楽作曲モジュール1620は、前記構成された音符オーディオトラック、和音オーディオトラック、リズムオーディオトラックをミキシング処理して、1つのオーディオファイルとして生成する。前記各トラックが多数存在するので、着信音として用いられるオーディオファイルも多数生成されることができる。
このような過程を介して、ユーザがメロディラインを、ユーザインタフェース部1610を介して入力すれば、本発明による移動通信端末機1600は、自動に和音伴奏やリズム伴奏を生成して、多数のオーディオファイルを生成することができる。
前記着信音選択部1630は、前記オーディオファイルの識別情報をユーザに提供できる。ユーザが前記ユーザインタフェース部1610を介して着信音として用いられるオーディオファイルを選択すれば、前記着信音選択部1630は、選択されたオーディオファイルが着信音として利用できるように設定する(前記着信音設定情報)。
ユーザは、着信音設定機能を繰り返し使用するようになり、着信音設定情報は、格納部1660に記録される。前記着信音嗜好分析部1640は、前記選択されたオーディオファイルをなす和音情報及びリズム情報を分析して、ユーザの嗜好パターン情報を生成する。
前記着信音自動選択部1650は、ユーザが作曲するか、または編曲した多数のオーディオファイルの中から、前記嗜好パターン情報に応じて着信音として用いられる所定数のオーディオファイルを選別する。
前記着信音再生部1670は、通信チャネルが設定されてリンガー音が再生される場合、該当オーディオファイルをパーシングしてミディファイルの再生情報を生成し、再生情報を時間列に基づいてトラック別に整列させる。そして、前記着信音再生部1670は、各トラックの再生時間に応じて、これに相応する音源を順次読み出し、周波数変換して出力させる。
前記周波数変換された音源は、前記ユーザインタフェース部1610のスピーカーを介して着信音として出力される。
図18を参照して、本発明の第5の実施の形態による移動通信端末機の運用方法について説明する。図18は、本発明の第5の実施の形態による移動通信端末機の運用方法を示したフローチャートである。
まず、ユーザが音楽(例えば着信音)を新しく作曲するか、または既存の曲を編曲するかを選択する(ステップ1800)。
音楽が新しく作曲される場合、キーボタンの入力信号に応じて音の高さ及び音の長さを含む音符情報を生成する(ステップ1805)。
これに対し、既存の曲が編曲される場合には、前記音楽作曲モジュール1620は、選択されたオーディオファイルを読み出し(ステップ1815)、音符オーディオトラックを分析して、音楽記号として画面出力する(ステップ1820)。
ユーザが既存の曲をなす音符を選択し、該選択された音符部分に前記ユーザインタフェース部1610のキーパッド部を操作して音階を入力する。これにより、前記音楽作曲モジュール1620は、キー入力信号に該当する音符情報をマッピング処理し(ステップ1805)、マッピングされた音符情報を編集された音楽記号形式で画面出力する(ステップ1810)。
所定のメロディが作曲されるか、または編曲されれば(ステップ1825)、前記音楽作曲モジュール1620は、生成された音符情報を音符オーディオトラックとして構成する(ステップ1830)。
メロディに該当する音符オーディオトラックが構成されれば、前記音楽作曲モジュール1620は、前記生成された音符情報を所定単位で分析して、適用可能な小節和音情報を前記格納部1660から検出する。そして、前記音楽作曲モジュール1620は、検出された小節和音情報を前記音符情報の順序に応じて和音オーディオトラックとして構成する(ステップ1835)。
また、前記音楽作曲モジュール1620は、音符オーディオトラックの音符情報が有する拍子を分析して、適用可能なリズム情報を前記格納部1660から検出する。そして、前記音楽作曲モジュール1620は、検出されたリズム情報を前記音符情報の順序に応じてリズムオーディオトラックとして構成する(ステップ1840)。
メロディ(音符オーディオトラック)が作曲/編曲され、和音伴奏(和音オーディオトラック)とリズム伴奏(リズムオーディオトラック)が自動に生成されれば、前記音楽作曲モジュール1620は、各トラックをミキシング処理して多数のオーディオファイルを生成する(ステップ1845)。
このとき、ユーザが手動で自身が所望するオーディオファイルを着信音として指定すると(ステップ1850の「はい」)、前記着信音選択部1630は、識別情報を提供してオーディオファイルが選択され、該当オーディオファイルに着信音設定情報を記録する(ステップ1855)。
前記着信音嗜好分析部1640は、着信音として用いられるオーディオファイルの和音情報及びリズム情報を分析して、ユーザの嗜好パターン情報を生成し、これを前記格納部1660に記録する(ステップ1860)。
しかしながら、ユーザが自動に着信音を指定することを望む場合(ステップ1850の「いいえ」)、前記着信音自動選択部1650は、作曲されるか、または編曲されたオーディオファイルまたは既存に格納されたオーディオファイルを分析し、嗜好パターン情報とマッチングして、着信音として用いられるオーディオファイルを選別する(ステップ1870)。
このように自動で着信音が指定された場合にも、前記着信音嗜好分析部1640は、自動で選別されたオーディオファイルの和音情報及びリズム情報を分析して、ユーザの嗜好パターン情報を生成し、これを前記格納部1660に記録する(ステップ1860)。
本発明による着信音の作曲/編曲が可能な移動通信端末機によれば、ユーザは、キーパッドを簡便に操作して、自身の望むメロディを入力するか、他の音楽のメロディを編曲することのみでも、多様な和音伴奏やリズム伴奏が生成され、1つの音楽ファイルにミキシングされることにより、多数の美しい着信音コンテンツを得ることができるという効果がある。
また、本発明によれば、データベース化された和音情報及びリズム情報のような音楽理論に基づいてユーザの着信音選好度を調べることによって、新しく作曲/編曲される着信音コンテンツあるいは従来の着信音コンテンツを自動に選別して着信音として指定することによって、ユーザが周期的に着信音を指定するためにメニューを受動操作する等の不便さを減少させることができる。
また、本発明によれば、交通手段を利用して移動中であるか、誰かを待つ等の状況において、簡便なインタフェースを介して面白く音楽を作曲または編曲することによって、ゲームを楽しむように退屈をまぎらすようになる。
また、本発明によれば、着信音の音源を有料でダウンロードする必要なしに、残る時間を利用して着信音を手軽に生成させることができるので、移動通信端末機の活用度をより向上させることができるという効果がある。
本発明による音楽作曲装置の運用方法によれば、表現されたメロディに適した和音伴奏とリズム伴奏とを自動に生成することができるという長所がある。
また、本発明による携帯用端末機の運用方法によれば、表現されたメロディに適した和音伴奏とリズム伴奏とを自動に生成することができるという長所がある。
また、本発明による移動通信端末機の運用方法によれば、表現されたメロディに適した和音伴奏とリズム伴奏とを自動に生成する音楽作曲モジュールを備えて、前記音楽作曲モジュールによって生成された音楽を着信音として使用することができるという長所がある。
本発明の第1の実施の形態による音楽作曲装置を概略的に示したブロック図である。 本発明の第1の実施の形態による音楽作曲装置にハミングモードでメロディを入力する例を示した図である。 本発明の第1の実施の形態による音楽作曲装置に鍵盤モードでメロディを入力する例を示した図である。 本発明の第1の実施の形態による音楽作曲装置に楽譜モードでメロディを入力する例を示した図である。 本発明の第1の実施の形態による音楽作曲装置の運用方法を示したフローチャートである。 本発明の第2の実施の形態による音楽作曲装置を概略的に示したブロック図である。 本発明の第2の実施の形態による音楽作曲装置の小節和音の検出部を概略的に示したブロック図である。 本発明の第2の実施の形態による音楽作曲装置での小節分類を説明するための図である。 本発明の第2の実施の形態による音楽作曲装置において分類された小節に小節和音を設定した例を示した図である。 本発明の第2の実施の形態による音楽作曲装置の伴奏生成部を概略的に示したブロック図である。 本発明の第2の実施の形態による音楽作曲装置の運用方法を示したフローチャートである。 本発明の第3の実施の形態による携帯端末機を概略的に示したブロック図である。 本発明の第3の実施の形態による携帯端末機の運用方法を示したフローチャートである。 本発明の第4の実施の形態による携帯端末機を概略的に示したブロック図である。 本発明の第4の実施の形態による携帯端末機の運用方法を概略的に示したフローチャートである。 本発明の第5の実施の形態による移動通信端末機を概略的に示したブロック図である。 本発明の第5の実施の形態による移動通信端末機の格納部に格納されるデータの種類を例示したデータ構造図である。 本発明の第5の実施の形態による移動通信端末機の運用方法を示したフローチャートである。
符号の説明
100 音楽作曲装置
110 ユーザインタフェース部
120 メロディ生成部
130 和音伴奏生成部
140 リズム伴奏生成部
150 格納部
160 音楽生成部

Claims (48)

  1. ユーザインタフェース部を介してメロディが入力されるステップと、
    前記入力されたメロディに対応するメロディファイルを生成するステップと、
    前記メロディファイルに対する分析を行って、前記メロディに適した和音伴奏ファイルを生成するステップと、
    前記メロディファイルと前記和音伴奏ファイルとを合成して音楽ファイルを生成するステップと
    を含むことを特徴とする音楽作曲装置の運用方法。
  2. 前記ユーザインタフェース部は、ユーザのハミングによって前記メロディを受け取ることを特徴とする請求項1に記載の音楽作曲装置の運用方法。
  3. 前記ユーザインタフェース部は、設定された音階に該当するボタンの押さえ/解除を感知して、ユーザからメロディを受け取ることを特徴とする請求項1に記載の音楽作曲装置の運用方法。
  4. 前記インタフェース部は、映像表示部に楽譜を表示し、ユーザのボタン操作により音の高さと音の長さを設定されることにより、メロディを受け取ることを特徴とする請求項1に記載の音楽作曲装置の運用方法。
  5. 前記和音伴奏ファイルを生成するにおいて、前記メロディを構成する小節別に各小節に対応する小節和音を選択することを特徴とする請求項1に記載の音楽作曲装置の運用方法。
  6. 前記メロディファイルに対する分析を行って、前記メロディに対応するリズム伴奏ファイルを生成するステップをさらに含むことを特徴とする請求項1に記載の音楽作曲装置の運用方法。
  7. 前記メロディファイル、前記和音伴奏ファイル、前記リズム伴奏ファイルを合成して、第2音楽ファイルを生成するステップをさらに含むことを特徴とする請求項6に記載の音楽作曲装置の運用方法。
  8. 前記メロディファイル、前記和音伴奏ファイル、前記音楽ファイル、既に作曲された音楽ファイルの中から少なくとも一つが格納部に格納されるステップをさらに含むことを特徴とする請求項1に記載の音楽作曲装置の運用方法。
  9. 前記ユーザインタフェース部は、前記格納部に格納されているファイルのメロディを受け取って表示し、ユーザから前記メロディに対する修正要請を受け取ってメロディの編集を行うことを特徴とする請求項8に記載の音楽作曲装置の運用方法。
  10. ユーザインタフェース部を介してメロディが入力されるステップと、
    前記入力されたメロディに対応するメロディファイルを生成するステップと、
    前記メロディファイルに対する分析を行って、前記メロディに適した和音/リズム伴奏ファイルを生成するステップと、
    前記メロディファイルと前記和音/リズム伴奏ファイルとを合成して、音楽ファイルを生成するステップと
    を含むことを特徴とする音楽作曲装置の運用方法。
  11. 前記ユーザインタフェース部は、ユーザのハミングによって前記メロディを受け取ることを特徴とする請求項10に記載の音楽作曲装置の運用方法。
  12. 前記ユーザインタフェース部は、設定された音階に該当するボタンの押さえ/解除を感知して、ユーザからメロディを受け取ることを特徴とする請求項10に記載の音楽作曲装置の運用方法。
  13. 前記インタフェース部は、映像表示部に楽譜を表示し、ユーザのボタン操作から音の高さと音の長さを設定されることによりメロディを受け取ることを特徴とする請求項10に記載の音楽作曲装置の運用方法。
  14. 前記和音/リズム伴奏ファイルを生成するステップにおいて、
    前記入力されたメロディを分析して、予め指定された拍子に合うように小節を分けるステップと、
    メロディ各々の音を12音階に分類し、各音に対する加重値を付与するステップと、
    前記入力されたメロディの雰囲気がどんな長調/短調であるかを判断し、調情報を分析するステップと、
    前記分析された調情報と前記分析された加重値情報とを参照して、各小節に対応する小節和音をマッピングするステップと
    を含むことを特徴とする請求項10に記載の音楽作曲装置の運用方法。
  15. 前記和音/リズム伴奏ファイルを生成するステップにおいて、
    ユーザから受け取ったメロディに付加される伴奏のスタイルを選択するステップと、
    前記選択されたスタイルに応じる基準小節和音を、実際に検出された各小節の小節和音に変形させるステップと、
    前記変形された小節和音を楽器別に順次連結させるステップと、
    前記各楽器別に小節和音が連結されて構成された伴奏ファイルを生成するステップと
    を含むことを特徴とする請求項10に記載の音楽作曲装置の運用方法。
  16. 前記伴奏ファイルは、ミディファイルとして生成されることを特徴とする請求項15に記載の音楽作曲装置の運用方法。
  17. 前記メロディファイル、前記各小節別小節和音、前記和音/リズム伴奏ファイル、前記音楽ファイル、既に作曲された音楽ファイルの中から少なくとも一つが格納部に格納されるステップをさらに含むことを特徴とする請求項10に記載の音楽作曲装置の運用方法。
  18. 前記ユーザインタフェース部は、前記格納部に格納されているファイルのメロディを受け取って表示し、ユーザから前記メロディに対する修正要請を受け取ってメロディの編集を行うことを特徴とする請求項17に記載の音楽作曲装置の運用方法。
  19. ユーザインタフェース部を介してメロディが入力されるステップと、
    前記入力されたメロディに対応するメロディファイルを生成するステップと、
    前記メロディファイルに対する分析を行って、前記メロディに適した和音伴奏ファイルを生成するステップと、
    前記メロディファイルと前記和音伴奏ファイルとを合成して、音楽ファイルを生成するステップと
    を含むことを特徴とする携帯用端末機の運用方法。
  20. 前記ユーザインタフェース部は、ユーザのハミングによって前記メロディを受け取ることを特徴とする請求項19に記載の携帯用端末機の運用方法。
  21. 前記ユーザインタフェース部は、設定された音階に該当するボタンの押さえ/解除を感知して、ユーザからメロディを受け取ることを特徴とする請求項19に記載の携帯用端末機の運用方法。
  22. 前記インタフェース部は、映像表示部に楽譜を表示し、ユーザのボタン操作から音の高さと音の長さを設定されることにより、メロディを受け取ることを特徴とする請求項19に記載の携帯用端末機の運用方法。
  23. 前記和音伴奏ファイルを生成するステップにおいて、前記メロディを構成する小節別に各小節に対応する小節和音を選択することを特徴とする請求項19に記載の携帯用端末機の運用方法。
  24. 前記メロディファイルに対する分析を行って、前記メロディに対応するリズム伴奏ファイルを生成するステップをさらに含むことを特徴とする請求項19に記載の携帯用端末機の運用方法。
  25. 前記メロディファイル、前記和音伴奏ファイル、前記リズム伴奏ファイルを合成して、第2音楽ファイルを生成するステップをさらに含むことを特徴とする請求項24に記載の携帯用端末機の運用方法。
  26. 前記メロディファイル、前記和音伴奏ファイル、前記音楽ファイル、既に作曲された音楽ファイルの中から少なくとも一つが格納部に格納されるステップをさらに含むことを特徴とする請求項19に記載の携帯用端末機の運用方法。
  27. 前記ユーザインタフェース部は、前記格納部に格納されているファイルのメロディを受け取って表示し、ユーザから前記メロディに対する修正要請を受け取ってメロディの編集を行うことを特徴とする請求項26に記載の携帯用端末機の運用方法。
  28. ユーザインタフェース部を介してメロディが入力されるステップと、
    前記入力されたメロディに対応するメロディファイルを生成するステップと、
    前記メロディファイルに対する分析を行って、前記メロディに適した和音/リズム伴奏ファイルを生成するステップと、
    前記メロディファイルと前記和音/リズム伴奏ファイルとを合成して、音楽ファイルを生成するステップと
    を含むことを特徴とする携帯用端末機の運用方法。
  29. 前記ユーザインタフェース部は、ユーザのハミングによって前記メロディを受け取ることを特徴とする請求項28に記載の携帯用端末機の運用方法。
  30. 前記ユーザインタフェース部は、設定された音階に該当するボタンの押さえ/解除を感知して、ユーザからメロディを受け取ることを特徴とする請求項28に記載の携帯用端末機の運用方法。
  31. 前記インタフェース部は、映像表示部に楽譜を表示し、ユーザのボタン操作から音の高さと音の長さを設定されることによりメロディを受け取ることを特徴とする請求項28に記載の携帯用端末機の運用方法。
  32. 前記和音/リズム伴奏ファイルを生成するステップにおいて、
    前記入力されたメロディを分析して、予め指定された拍子に合うように小節を分けるステップと、
    メロディ各々の音を12音階に分類し、各音に対する加重値を付与するステップと、
    前記入力されたメロディの雰囲気がどんな長調/短調であるかを判断し、調情報を分析するステップと、
    前記分析された調情報と前記分析された加重値情報とを参照して、各小節に対応する小節和音をマッピングするステップと
    を含むことを特徴とする請求項28に記載の携帯用端末機の運用方法。
  33. 前記和音/リズム伴奏ファイルを生成するステップにおいて、
    ユーザから受け取ったメロディに付加される伴奏のスタイルを選択するステップと、
    前記選択されたスタイルに応じる基準小節和音を、実際に検出された各小節の小節和音に変形させるステップと、
    前記変形された小節和音を楽器別に順次連結させるステップと、
    前記各楽器別に小節和音が連結されて構成された伴奏ファイルを生成するステップと
    を含むことを特徴とする請求項28に記載の携帯用端末機の運用方法。
  34. 前記伴奏ファイルは、ミディファイルとして生成されることを特徴とする請求項33に記載の携帯用端末機の運用方法。
  35. 前記メロディファイル、前記和音/リズム伴奏ファイル、前記音楽ファイル、既に作曲された音楽ファイルの中から少なくとも一つが格納部に格納されるステップをさらに含むことを特徴とする請求項28に記載の携帯用端末機の運用方法。
  36. 前記ユーザインタフェース部は、前記格納部に格納されているファイルのメロディを受け取って表示し、ユーザから前記メロディに対する修正要請を受け取ってメロディの編集を行うことを特徴とする請求項35に記載の携帯用端末機の運用方法。
  37. ユーザインタフェース部を介してメロディが入力されるステップと、
    前記入力されたメロディに対応するメロディファイルを生成するステップと、
    前記メロディファイルに対する分析を行って、前記メロディに適した和音伴奏を備える伴奏ファイルを生成するステップと、
    前記メロディファイルと前記伴奏ファイルとを合成して、音楽ファイルを生成するステップと、
    前記生成された音楽ファイルを着信音として選択するステップと、
    呼が接続されると、前記選択された音楽ファイルを着信音として再生するステップと
    を含むことを特徴とする移動通信端末機の運用方法。
  38. 前記ユーザインタフェース部は、ユーザのハミングによって前記メロディを受け取ることを特徴とする請求項37に記載の移動通信端末機の運用方法。
  39. 前記ユーザインタフェース部は、設定された音階に該当するボタンの押さえ/解除を感知して、ユーザからメロディを受け取ることを特徴とする請求項37に記載の移動通信端末機の運用方法。
  40. 前記インタフェース部は、映像表示部に楽譜を表示し、ユーザのボタン操作から音の高さと音の長さを設定されることによりメロディを受け取ることを特徴とする請求項37に記載の移動通信端末機の運用方法。
  41. 前記和音伴奏を備える伴奏ファイルを生成するステップにおいて、前記メロディを構成する小節別に各小節に対応する小節和音を選択して和音伴奏ファイルを生成することを特徴とする請求項37に記載の移動通信端末機の運用方法。
  42. 前記メロディファイルに対する分析を行って、前記メロディに対応するリズム伴奏ファイルを生成するステップをさらに含むことを特徴とする請求項37に記載の移動通信端末機の運用方法。
  43. 前記メロディファイル、前記和音伴奏を備える伴奏ファイル、前記リズム伴奏ファイルを合成して、第2音楽ファイルを生成するステップをさらに含むことを特徴とする請求項42に記載の移動通信端末機の運用方法。
  44. 前記メロディファイル、前記伴奏ファイル、前記音楽ファイル、既に作曲された音楽ファイルの中から少なくとも一つが格納部に格納されるステップをさらに含むことを特徴とする請求項37に記載の移動通信端末機の運用方法。
  45. 前記ユーザインタフェース部は、前記格納部に格納されているファイルのメロディを受け取って表示し、ユーザから前記メロディに対する修正要請を受け取ってメロディの編集を行うことを特徴とする請求項44に記載の移動通信端末機の運用方法。
  46. 前記和音伴奏を備える伴奏ファイルを生成するにおいて、
    前記入力されたメロディを分析して、予め指定された拍子に合うように小節を分けるステップと、
    メロディ各々の音を12音階に分類し、各音に対する加重値を付与するステップと、
    前記入力されたメロディの雰囲気がどんな長調/短調であるかを判断し、調情報を分析するステップと、
    前記分析された調情報と前記分析された加重値情報とを参照して、各小節に対応する小節和音をマッピングするステップと
    を含むことを特徴とする請求項37に記載の移動通信端末機の運用方法。
  47. 前記和音伴奏を備える伴奏ファイルを生成するステップにおいて、
    ユーザから受け取ったメロディに付加される伴奏のスタイルを選択するステップと、
    前記選択されたスタイルに応じる基準小節和音を、実際に検出された各小節の小節和音に変形させるステップと、
    前記変形された小節和音を楽器別に順次連結させるステップと、
    前記各楽器別に小節和音が連結されて構成された伴奏ファイルを生成するステップと
    を含むことを特徴とする請求項37に記載の移動通信端末機の運用方法。
  48. 前記伴奏ファイルは、ミディファイルとして生成されることを特徴とする請求項37に記載の移動通信端末機の運用方法。
JP2008507535A 2005-04-18 2005-12-15 音楽作曲装置の運用方法 Pending JP2008537180A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20050032116 2005-04-18
PCT/KR2005/004332 WO2006112585A1 (en) 2005-04-18 2005-12-15 Operating method of music composing device

Publications (1)

Publication Number Publication Date
JP2008537180A true JP2008537180A (ja) 2008-09-11

Family

ID=37107212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008507535A Pending JP2008537180A (ja) 2005-04-18 2005-12-15 音楽作曲装置の運用方法

Country Status (6)

Country Link
US (2) US20060230910A1 (ja)
EP (1) EP1878007A4 (ja)
JP (1) JP2008537180A (ja)
KR (1) KR100717491B1 (ja)
CN (1) CN101203904A (ja)
WO (2) WO2006112585A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012021799A2 (en) * 2010-08-13 2012-02-16 Rockstar Music, Inc. Browser-based song creation
JP2014235328A (ja) * 2013-06-03 2014-12-15 株式会社河合楽器製作所 コード推定検出装置及びコード推定検出プログラム
JP2017058596A (ja) * 2015-09-18 2017-03-23 ヤマハ株式会社 自動アレンジ装置及びプログラム
JP2021518589A (ja) * 2018-03-15 2021-08-02 スコア ミュージック プロダクションズ リミテッド 調和コード・マップを使用してオーディオ出力ファイルまたはmidi出力ファイルを生成する方法およびシステム

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100991983B1 (ko) * 2003-07-14 2010-11-04 소니 주식회사 기록장치 및 기록 방법
KR20050087368A (ko) * 2004-02-26 2005-08-31 엘지전자 주식회사 무선 단말기의 벨소리 처리 장치
EP1571647A1 (en) * 2004-02-26 2005-09-07 Lg Electronics Inc. Apparatus and method for processing bell sound
KR100636906B1 (ko) * 2004-03-22 2006-10-19 엘지전자 주식회사 미디 재생 장치 그 방법
IL165817A0 (en) * 2004-12-16 2006-01-15 Samsung Electronics U K Ltd Electronic music on hand portable and communication enabled devices
KR100634572B1 (ko) * 2005-04-25 2006-10-13 (주)가온다 오디오 데이터 자동 생성 방법 및 이를 이용한 사용자단말기 및 기록매체
KR100658869B1 (ko) * 2005-12-21 2006-12-15 엘지전자 주식회사 음악생성장치 및 그 운용방법
US7705231B2 (en) * 2007-09-07 2010-04-27 Microsoft Corporation Automatic accompaniment for vocal melodies
US20070291025A1 (en) * 2006-06-20 2007-12-20 Sami Paihonen Method and apparatus for music enhanced messaging
KR20080025772A (ko) * 2006-09-19 2008-03-24 삼성전자주식회사 휴대 단말기의 음악 메시지 송수신 방법 및 음악 메시지서비스 시스템
WO2009036564A1 (en) * 2007-09-21 2009-03-26 The University Of Western Ontario A flexible music composition engine
US7942311B2 (en) * 2007-12-14 2011-05-17 Frito-Lay North America, Inc. Method for sequencing flavors with an auditory phrase
KR101504522B1 (ko) * 2008-01-07 2015-03-23 삼성전자 주식회사 음악 저장/검색 장치 및 방법
KR101000875B1 (ko) * 2008-08-05 2010-12-14 주식회사 싸일런트뮤직밴드 휴대단말을 이용한 음악작곡시스템
US7977560B2 (en) * 2008-12-29 2011-07-12 International Business Machines Corporation Automated generation of a song for process learning
US9177540B2 (en) 2009-06-01 2015-11-03 Music Mastermind, Inc. System and method for conforming an audio input to a musical key
US8779268B2 (en) 2009-06-01 2014-07-15 Music Mastermind, Inc. System and method for producing a more harmonious musical accompaniment
US8492634B2 (en) 2009-06-01 2013-07-23 Music Mastermind, Inc. System and method for generating a musical compilation track from multiple takes
US9257053B2 (en) 2009-06-01 2016-02-09 Zya, Inc. System and method for providing audio for a requested note using a render cache
US9310959B2 (en) 2009-06-01 2016-04-12 Zya, Inc. System and method for enhancing audio
US8785760B2 (en) 2009-06-01 2014-07-22 Music Mastermind, Inc. System and method for applying a chain of effects to a musical composition
US9251776B2 (en) 2009-06-01 2016-02-02 Zya, Inc. System and method creating harmonizing tracks for an audio input
KR101041622B1 (ko) * 2009-10-27 2011-06-15 (주)파인아크코리아 사용자 입력에 따른 반주 기능을 갖는 음원 재생 장치 및 그 방법
CN102116672B (zh) * 2009-12-31 2014-11-19 深圳市宇恒互动科技开发有限公司 一种节奏感测方法、装置以及系统
CN101800046B (zh) * 2010-01-11 2014-08-20 北京中星微电子有限公司 一种根据音符生成midi音乐的方法和装置
DK2538976T3 (en) 2010-02-24 2017-02-27 Immunogen Inc IMMUNCONJUGATES AGAINST FOLATRECEPTOR-1 AND APPLICATIONS THEREOF
CN101916240B (zh) * 2010-07-08 2012-06-13 福州博远无线网络科技有限公司 一种基于已知歌词及音乐旋律产生新音乐旋律的方法
US8530734B2 (en) * 2010-07-14 2013-09-10 Andy Shoniker Device and method for rhythm training
CN102014195A (zh) * 2010-08-19 2011-04-13 上海酷吧信息技术有限公司 一种可生成音乐的手机及其实现方法
EP2434480A1 (en) * 2010-09-23 2012-03-28 Chia-Yen Lin Multi-key electronic music instrument
US8710343B2 (en) * 2011-06-09 2014-04-29 Ujam Inc. Music composition automation including song structure
KR101250701B1 (ko) * 2011-10-19 2013-04-03 성균관대학교산학협력단 이동통신단말기를 이용한 노래 동영상 제작 시스템
DE112013001314T5 (de) 2012-03-06 2014-12-11 Apple Inc. Systeme und Verfahren zum Anpassen eines Notenereignisses
CN103514158B (zh) * 2012-06-15 2016-10-12 国基电子(上海)有限公司 音乐文件搜索方法及多媒体播放装置
FR2994015B1 (fr) * 2012-07-27 2019-04-05 Frederic Paul Baron Procede et dispositifs d'un instrument de musique improvisateur pour musiciens et non-musiciens
CN103839559B (zh) * 2012-11-20 2017-07-14 华为技术有限公司 音频文件制作方法及终端设备
US9508329B2 (en) 2012-11-20 2016-11-29 Huawei Technologies Co., Ltd. Method for producing audio file and terminal device
US8912420B2 (en) * 2013-01-30 2014-12-16 Miselu, Inc. Enhancing music
IES86526B2 (en) 2013-04-09 2015-04-08 Score Music Interactive Ltd A system and method for generating an audio file
KR20150072597A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 멀티미디어 장치 및 이의 음악 작곡 방법, 그리고 노래 보정 방법
US11132983B2 (en) * 2014-08-20 2021-09-28 Steven Heckenlively Music yielder with conformance to requisites
KR20160121879A (ko) 2015-04-13 2016-10-21 성균관대학교산학협력단 멜로디 자동 생성 방법 및 멜로디 자동 생성 시스템
CN105161087A (zh) * 2015-09-18 2015-12-16 努比亚技术有限公司 一种自动和声方法、装置及终端自动和声操作方法
US10854180B2 (en) 2015-09-29 2020-12-01 Amper Music, Inc. Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
US9721551B2 (en) * 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
CN106652655B (zh) * 2015-10-29 2019-11-26 施政 一种音轨替换的乐器
CN105244021B (zh) * 2015-11-04 2019-02-12 厦门大学 哼唱旋律到midi旋律的转换方法
WO2017128267A1 (zh) * 2016-01-28 2017-08-03 段春燕 一种音乐旋律的编辑方法及移动终端
WO2017155200A1 (ko) * 2016-03-11 2017-09-14 삼성전자 주식회사 음악 정보 제공 방법 및 이를 위한 전자 기기
CN107301857A (zh) * 2016-04-15 2017-10-27 青岛海青科创科技发展有限公司 一种给旋律自动配伴奏的方法及系统
CN105825740A (zh) * 2016-05-19 2016-08-03 魏金会 一种多模式音乐教学软件
KR101795355B1 (ko) * 2016-07-19 2017-12-01 크리에이티브유니온 주식회사 작곡용 키보드와 연동되는 작곡용 단말을 이용한 작곡 시스템
CN106297760A (zh) * 2016-08-08 2017-01-04 西北工业大学 一种软件快速演奏乐器的算法
CN106652984B (zh) * 2016-10-11 2020-06-02 张文铂 一种使用计算机自动创作歌曲的方法
KR101886534B1 (ko) * 2016-12-16 2018-08-09 아주대학교산학협력단 인공지능을 이용한 작곡 시스템 및 작곡 방법
EP3389028A1 (en) * 2017-04-10 2018-10-17 Sugarmusic S.p.A. Automatic music production from voice recording.
KR101942814B1 (ko) * 2017-08-10 2019-01-29 주식회사 쿨잼컴퍼니 사용자 허밍 멜로디 기반 반주 제공 방법 및 이를 위한 장치
KR101975193B1 (ko) * 2017-11-15 2019-05-07 가기환 자동 작곡 장치 및 컴퓨터 수행 가능한 자동 작곡 방법
CN108428441B (zh) * 2018-02-09 2021-08-06 咪咕音乐有限公司 多媒体文件生成方法、电子设备和存储介质
GB2571340A (en) * 2018-02-26 2019-08-28 Ai Music Ltd Method of combining audio signals
KR102138247B1 (ko) * 2018-02-27 2020-07-28 주식회사 크리에이티브마인드 음원 평가 방법 및 그 장치와 이를 이용한 음원 생성 방법 및 그 장치
KR102122195B1 (ko) * 2018-03-06 2020-06-12 주식회사 웨이테크 인공지능 합주 시스템 및 인공지능 합주 방법
CN108922505B (zh) * 2018-06-26 2023-11-21 联想(北京)有限公司 信息处理方法及装置
CN109493684B (zh) * 2018-12-10 2021-02-23 北京金三惠科技有限公司 一种多功能数字音乐教学系统
CN109903743A (zh) * 2019-01-03 2019-06-18 江苏食品药品职业技术学院 一种基于模板自动生成音乐旋律的方法
CN109545177B (zh) * 2019-01-04 2023-08-22 平安科技(深圳)有限公司 一种旋律配乐方法及装置
CN109994093B (zh) * 2019-03-13 2023-03-17 武汉大学 一种基于编译技术的五线谱便捷制作方法及系统
CN110085202B (zh) * 2019-03-19 2022-03-15 北京卡路里信息技术有限公司 音乐生成方法、装置、存储介质及处理器
CN110085263B (zh) * 2019-04-28 2021-08-06 东华大学 一种音乐情感分类和机器作曲方法
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
CN111508454B (zh) * 2020-04-09 2023-12-26 百度在线网络技术(北京)有限公司 乐谱的处理方法、装置、电子设备及存储介质
CN111862911B (zh) * 2020-06-11 2023-11-14 北京时域科技有限公司 歌曲即时生成方法和歌曲即时生成装置
CN112331165B (zh) * 2020-11-09 2024-03-22 崔繁 智能吉他和弦辅助装置自定义和弦系统
CN112735361A (zh) * 2020-12-29 2021-04-30 玖月音乐科技(北京)有限公司 一种电子键盘乐器智能变奏方法和系统
CN115379042A (zh) * 2021-05-18 2022-11-22 北京小米移动软件有限公司 铃声生成方法及装置、终端及存储介质
CN113611268B (zh) * 2021-06-29 2024-04-16 广州酷狗计算机科技有限公司 音乐作品生成、合成方法及其装置、设备、介质、产品
CN117437897A (zh) * 2022-07-12 2024-01-23 北京字跳网络技术有限公司 音频处理方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09230857A (ja) * 1996-02-23 1997-09-05 Yamaha Corp 演奏情報分析装置及びそれを用いた自動編曲装置
JP2001236066A (ja) * 2000-02-21 2001-08-31 Yamaha Corp 作曲機能を備えた携帯電話機
JP2001337674A (ja) * 2000-05-25 2001-12-07 Yamaha Corp 携帯通信端末装置
JP2003177757A (ja) * 2001-09-28 2003-06-27 Koninkl Philips Electronics Nv 音響信号ジェネレータを備える装置及び呼出し信号を形成するための方法

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE29144E (en) * 1974-03-25 1977-03-01 D. H. Baldwin Company Automatic chord and rhythm system for electronic organ
US3986424A (en) * 1975-10-03 1976-10-19 Kabushiki Kaisha Kawai Gakki Seisakusho (Kawai Musical Instrument Manufacturing Co., Ltd.) Automatic rhythm-accompaniment apparatus for electronic musical instrument
NL7711487A (nl) * 1976-10-30 1978-05-03 Kawai Musical Instr Mfg Co Een automatische ritmebegeleidingsinrichting.
US4656911A (en) * 1984-03-15 1987-04-14 Casio Computer Co., Ltd. Automatic rhythm generator for electronic musical instrument
JPH0538371Y2 (ja) * 1987-10-15 1993-09-28
US4939974A (en) * 1987-12-29 1990-07-10 Yamaha Corporation Automatic accompaniment apparatus
JP2612923B2 (ja) * 1988-12-26 1997-05-21 ヤマハ株式会社 電子楽器
JP2995303B2 (ja) * 1990-08-30 1999-12-27 カシオ計算機株式会社 メロディ対コード進行適合性評価装置及び自動コード付け装置
KR930008568B1 (ko) * 1990-12-07 1993-09-09 주식회사 금성사 전자악기에서의 자동 반주 코드 발생방법
JPH05341793A (ja) * 1991-04-19 1993-12-24 Pioneer Electron Corp カラオケ演奏装置
JPH07129158A (ja) * 1993-11-05 1995-05-19 Yamaha Corp 演奏情報分析装置
US5736666A (en) * 1996-03-20 1998-04-07 California Institute Of Technology Music composition
US5693903A (en) * 1996-04-04 1997-12-02 Coda Music Technology, Inc. Apparatus and method for analyzing vocal audio data to provide accompaniment to a vocalist
JPH11296166A (ja) * 1998-04-09 1999-10-29 Yamaha Corp 音符表示方法及び音符表示プログラムを記録した媒体並びに拍表示方法及び拍表示プログラムを記録した媒体
FR2785438A1 (fr) * 1998-09-24 2000-05-05 Baron Rene Louis Procede et dispositif de generation musicale
JP3707300B2 (ja) * 1999-06-02 2005-10-19 ヤマハ株式会社 楽音発生装置用拡張ボード
US6369311B1 (en) * 1999-06-25 2002-04-09 Yamaha Corporation Apparatus and method for generating harmony tones based on given voice signal and performance data
TW495735B (en) * 1999-07-28 2002-07-21 Yamaha Corp Audio controller and the portable terminal and system using the same
JP3740908B2 (ja) * 1999-09-06 2006-02-01 ヤマハ株式会社 演奏データ処理装置及び方法
JP2001222281A (ja) * 2000-02-09 2001-08-17 Yamaha Corp 携帯電話装置及び携帯電話装置の楽曲再生方法
JP3879357B2 (ja) * 2000-03-02 2007-02-14 ヤマハ株式会社 音声信号または楽音信号の処理装置およびその処理プログラムが記録された記録媒体
KR100328858B1 (ko) * 2000-06-27 2002-03-20 홍경 이동통신 단말기에서의 미디음악 연주 방법
JP2002023747A (ja) * 2000-07-07 2002-01-25 Yamaha Corp 自動作曲方法と装置及び記録媒体
US7026538B2 (en) * 2000-08-25 2006-04-11 Yamaha Corporation Tone generation apparatus to which plug-in board is removably attachable and tone generation method therefor
JP3627636B2 (ja) * 2000-08-25 2005-03-09 ヤマハ株式会社 楽曲データ生成装置及び方法並びに記憶媒体
US6835884B2 (en) * 2000-09-20 2004-12-28 Yamaha Corporation System, method, and storage media storing a computer program for assisting in composing music with musical template data
EP1211667A2 (en) * 2000-12-01 2002-06-05 Hitachi Engineering Co., Ltd. Apparatus for electronically displaying music score
JP4497264B2 (ja) * 2001-01-22 2010-07-07 株式会社セガ ゲームプログラム、ゲーム装置、効果音の出力方法及び記録媒体
JP3744366B2 (ja) * 2001-03-06 2006-02-08 ヤマハ株式会社 楽曲データに基づく音楽記号自動決定装置、楽曲データに基づく楽譜表示制御装置、および、楽曲データに基づく音楽記号自動決定プログラム
US6924426B2 (en) * 2002-09-30 2005-08-02 Microsound International Ltd. Automatic expressive intonation tuning system
JP3938104B2 (ja) * 2003-06-19 2007-06-27 ヤマハ株式会社 アルペジオパターン設定装置およびプログラム
DE102004033829B4 (de) * 2004-07-13 2010-12-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Erzeugung einer Polyphonen Melodie
DE102004049478A1 (de) * 2004-10-11 2006-04-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Glättung eines Melodieliniensegments

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09230857A (ja) * 1996-02-23 1997-09-05 Yamaha Corp 演奏情報分析装置及びそれを用いた自動編曲装置
JP2001236066A (ja) * 2000-02-21 2001-08-31 Yamaha Corp 作曲機能を備えた携帯電話機
JP2001337674A (ja) * 2000-05-25 2001-12-07 Yamaha Corp 携帯通信端末装置
JP2003177757A (ja) * 2001-09-28 2003-06-27 Koninkl Philips Electronics Nv 音響信号ジェネレータを備える装置及び呼出し信号を形成するための方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012021799A2 (en) * 2010-08-13 2012-02-16 Rockstar Music, Inc. Browser-based song creation
WO2012021799A3 (en) * 2010-08-13 2012-07-19 Rockstar Music, Inc. Browser-based song creation
JP2014235328A (ja) * 2013-06-03 2014-12-15 株式会社河合楽器製作所 コード推定検出装置及びコード推定検出プログラム
JP2017058596A (ja) * 2015-09-18 2017-03-23 ヤマハ株式会社 自動アレンジ装置及びプログラム
JP2021518589A (ja) * 2018-03-15 2021-08-02 スコア ミュージック プロダクションズ リミテッド 調和コード・マップを使用してオーディオ出力ファイルまたはmidi出力ファイルを生成する方法およびシステム
US11837207B2 (en) 2018-03-15 2023-12-05 Xhail Iph Limited Method and system for generating an audio or MIDI output file using a harmonic chord map
JP7392955B2 (ja) 2018-03-15 2023-12-06 スコア ミュージック プロダクションズ リミテッド 調和コード・マップを使用してオーディオ出力ファイルまたはmidi出力ファイルを生成する方法およびシステム

Also Published As

Publication number Publication date
EP1878007A4 (en) 2010-07-07
KR20060109813A (ko) 2006-10-23
CN101203904A (zh) 2008-06-18
EP1878007A1 (en) 2008-01-16
US20060230909A1 (en) 2006-10-19
KR100717491B1 (ko) 2007-05-14
US20060230910A1 (en) 2006-10-19
WO2006112585A1 (en) 2006-10-26
WO2006112584A1 (en) 2006-10-26

Similar Documents

Publication Publication Date Title
KR100717491B1 (ko) 음악 작곡 장치 및 그 운용방법
KR100658869B1 (ko) 음악생성장치 및 그 운용방법
US7714222B2 (en) Collaborative music creation
CN1750116B (zh) 自动表演风格确定设备和方法
JP6452229B2 (ja) カラオケ効果音設定システム
CN1770258B (zh) 表演风格确定设备和方法
JP2008197678A (ja) オンライン作曲のためのシステム、方法及びコンピュータ読取り可能な記録媒体
JP3599686B2 (ja) カラオケ歌唱時に声域の限界ピッチを検出するカラオケ装置
KR20090023912A (ko) 음악 데이터 처리 시스템
KR101020557B1 (ko) 사용자 창조형 음악 콘텐츠 제작을 위한 악보 생성 장치 및그 방법
JPH08286689A (ja) 音声信号処理装置
JP6315677B2 (ja) 演奏装置及びプログラム
JP4180548B2 (ja) 声域告知機能付きカラオケ装置
JP5969421B2 (ja) 楽器音出力装置及び楽器音出力プログラム
JP2021113895A (ja) 伴奏音生成装置、電子楽器、伴奏音生成方法および伴奏音生成プログラム
JP3974069B2 (ja) 合唱曲や重唱曲を処理するカラオケ演奏方法およびカラオケシステム
JP5446150B2 (ja) 電子音楽装置
JP4967170B2 (ja) 伴奏作成システム及び伴奏作成方法,プログラム
JP2007233078A (ja) 評価装置、制御方法及びプログラム
JP5034471B2 (ja) 楽音信号発生装置及びカラオケ装置
JP6196571B2 (ja) 演奏装置及びプログラム
KR20120135134A (ko) 기타 연주시스템과 이를 위한 연주용 기타 및 기타 연주정보 표시방법
KR20110005653A (ko) 데이터 집배 시스템, 통신 노래방 시스템
CN115064143A (zh) 一种伴奏音频生成方法、电子设备及可读存储介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110201