JP2004163511A - Mobile terminal device - Google Patents

Mobile terminal device Download PDF

Info

Publication number
JP2004163511A
JP2004163511A JP2002326626A JP2002326626A JP2004163511A JP 2004163511 A JP2004163511 A JP 2004163511A JP 2002326626 A JP2002326626 A JP 2002326626A JP 2002326626 A JP2002326626 A JP 2002326626A JP 2004163511 A JP2004163511 A JP 2004163511A
Authority
JP
Japan
Prior art keywords
processing
music
data
cpu
text data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002326626A
Other languages
Japanese (ja)
Other versions
JP4148355B2 (en
Inventor
Masashi Hirano
賢史 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Ericsson Mobile Communications Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications Japan Inc filed Critical Sony Ericsson Mobile Communications Japan Inc
Priority to JP2002326626A priority Critical patent/JP4148355B2/en
Publication of JP2004163511A publication Critical patent/JP2004163511A/en
Application granted granted Critical
Publication of JP4148355B2 publication Critical patent/JP4148355B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To compose and play music corresponding to contents of text data at low cost in a simple manner without the aid of a server system. <P>SOLUTION: A portable telephone set 1 automatically composes and plays the music corresponding to the contents of displayed electronic mail according to the electronic mail displayed on a display part 2. As a result, a user can appreciate the music corresponding to the contents of the electronic mail without accessing the server system. Also, the user is able to utilize automatic composition services without paying communication charges. Namely, the music corresponding to the contents of the electronic mail can simply be composed and played at the low cost through the portable terephone set 1 without through the server system. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、電子メールやウェブページ等のテキストデータの内容に対応した音楽を作曲,再生する携帯端末装置に関する。
【0002】
【従来の技術】
近年、端末装置を介してユーザが送信した電子メールを受信するのに応じて、サーバ装置が、受信した電子メールの内容に対応した音楽を作曲する自動作曲システム(例えば、特許文献1を参照)が提供されており、このようなシステムによれば、ユーザは、電話回線を介してサーバ装置を発呼することにより、電子メールの内容に応じて作曲された音楽をいつでも聞くことができる。
【0003】
【特許文献1】
特開2001−209592号公報
【0004】
【発明が解決しようとする課題】
しかしながら、上記のような従来までの自動作曲システムでは、音楽を作曲,記憶する処理は全てサーバ装置側で行われる構成となっているために、ユーザは音楽の作曲要求や鑑賞を行う度に電話回線を介してサーバ装置にアクセスしなければならず、電子メールの内容に応じて作曲された音楽を気軽に鑑賞することができない。
【0005】
さらに、上記のような従来までの自動作曲システムでは、電子メールの内容に応じて作曲された音楽は電話回線を介してユーザに提供される構成となっているために、作曲された音楽を全て聴き終わるまでにユーザが多くの通信料金を支払わなけれず、電子メールを利用した自動作曲サービスを安価に利用することができない。
【0006】
本発明はこのような課題に鑑みてなされたものであり、その目的は、サーバ装置を介することなく、簡単、且つ、安価にテキストデータの内容に対応した音楽を作曲,再生することが可能な携帯端末装置を提供することにある。
【0007】
【課題を解決するための手段】
本発明に係る携帯端末装置の特徴は、テキストデータを表示する表示部と、音楽の少なくとも明暗を制御する数値と関連付けられた複数のキーワードを記憶する記憶部と、表示部に表示されるテキストデータ内に含まれるキーワードを検索し、検索されたキーワードと関連付けられた数値に基づいて、表示部に表示されるテキストデータの内容に対応した音楽を作曲する制御部と、テキストデータが表示部に表示されるのに応じて、制御部が作曲した音楽を再生出力する再生部とを備えることにある。
【0008】
すなわち、本発明に係る携帯端末装置では、表示部にテキストデータが表示されるのに応じて、制御部が表示されたテキストデータの内容に対応した音楽を自動的に作曲し、再生部が作曲された音楽再生する。
【0009】
これにより、ユーザは、サーバ装置にアクセスすることなく、電子メールの内容に対応した音楽を鑑賞することができる。また、ユーザは、通信料金を支払わずに自動作曲サービスを利用することができる。
【0010】
すなわち、この携帯端末装置によれば、サーバ装置を介さずに、簡単、且つ、安価に電子メールの内容に対応した音楽を作曲,再生することができる。
【0011】
【発明の実施の形態】
本発明は、例えば図1に示すような携帯電話機に適用することができる。以下、図面を参照して、本発明の一実施形態となる携帯電話機の構成及び動作について詳しく説明する。
【0012】
[携帯電話機の概観]
始めに、図1を参照して、本発明の一実施形態となる携帯電話機の概観の構成について説明する。
【0013】
本発明の一実施形態となる携帯電話機1は、図1に示すように、主な構成要素として、表示部2、操作入力部3、受話口4、及び送話口5を備える。
【0014】
上記表示部2は、LCD(Liquid Crystal Display)やEL(ElectroLuminescence)パネル等の表示装置により構成され、後述するCPU(Central Processing Unit,図2を参照)15の制御に従って、文字、数字、記号、アイコン、カーソル、画像、動画像等を可視表示する。
【0015】
上記操作入力部3は、例えば「0」から「9」までの数字の入力、仮名文字の入力、アルファベット文字の入力、記号の入力、発信や受信の指示入力、電源のオン/オフの指示入力等の操作に使用される、複数のキーボタン6を有する。また、この操作入力部3は、表示部2上に表示されたカーソルの移動操作や画面のスクロール操作等の操作に使用するダイアル(ジョグダイアル)7を有する。上記受話口4及び送話口5はそれぞれ、後述するスピーカ及びマイクロフォン(図2を参照)に接続されており、ユーザが通話相手先と音声通話を行う際に使用される。
【0016】
[携帯電話機の内部構成及びその基本動作]
次に、図2を参照して、上記携帯電話機1の内部構成及びその基本動作について説明する。なお、表示部2及び操作入力部3の構成及び動作は、既述の通りであるので、以下ではその説明を省略する。
【0017】
図2に示す携帯電話機1では、送話口5(図1参照)に接続されているマイクロフォン8は、ユーザの通話音声をアナログ音声信号に変換する。そして、アナログ音声信号は、図示しない増幅器により増幅された後、DSP(Digital Siginal Processor)9に入力される。
【0018】
DSP9は、アナログ音声信号が入力されると、所定のサンプリングレートでアナログ音声信号をアナログ/デジタル(A/D)変換する。そして、DSP9は、A/D変換により得られたデジタル音声データに対し、トランスポートブロック(TB)毎にCRC(Cyclic Redundancy Check)符号を付加し、チャネル符号化(誤り訂正符合化)及びインターリーブ処理を施す。なお、上記トランスポートブロックとは、物理レイヤが処理を行うデータの基本単位(MAC(Medium Access Control)レイヤから物理レイヤにデータが転送される単位)を示す。
【0019】
また、DSP9は、上記インターリーブ処理後のビット系列に対し、パイロットビット等のチャネル確定のためのオーバーヘッドを付加した後、データ変調処理を行い、データ変調マッピングされた位相平面上の同相(In−Phase)及び直交(Quadrature)成分をそれぞれ2階層の拡散符号系列で拡散する。そして、DSP9は、拡散後のチップデータ系列を自乗余弦ルートナイキストフィルタで所定帯域(5MHz)に帯域制限した後、デジタル/アナログ(D/A)変換によりアナログ信号に変換し、アナログ信号を送信部10に出力する。
【0020】
送信部10は、DSP9からアナログ信号が入力されると、アナログ信号を直交復調し、直交復調された中間周波数信号を高周波信号(2GHz帯のRF信号)に周波数変換する。そして、送信部10は、この高周波信号を増幅し、増幅後の高周波信号を送信信号としてデュプレクサ11に出力する。
【0021】
デュプレクサ11は、アンテナ共用器である。すなわち、デュプレクサ11は、送信信号と受信信号とで1本のアンテナ12を共用し、アンテナ12からの受信信号を受信部13に送り、且つ、送信部10からの送信信号をアンテナ12へ送出する機能を備えたフィルタ回路により構成される。
【0022】
受信部13は、アンテナ12及びデュプレクサ11を介して供給された高周波の受信信号を増幅し、増幅した受信信号を中間周波数の信号に周波数変換する。そして、受信部13は、自動利得制御により中間周波数の信号を線形増幅し、線形増幅した中間周波数の信号をDSP9に入力する。この際、DSP9は、受信部13からの信号を直交検波(Quardrature Detection)し、直交検波による同相及び直交成分のアナログ信号を所定のサンプリングレートでA/D変換する。そして、DSP9は、A/D変換によってデジタル値に変換された同相及び直交成分を、自乗余弦ルートナイキストフィルタで帯域制限した後、受信信号の拡散符号と同一の拡散符号により逆拡散することにより、伝搬遅延時間が異なる複数のマルチパス成分に時間分離する。
【0023】
また、DSP9は、時間分離した各パスのデータをコヒーレントレイク合成し、コヒーレントレイク合成後のデータ系列をデインターリーブ及びチャネル復号した後、2値のデータ判定を行って相手先の端末が送信してきたデータ系列を再生する。そして、DSP9は、再生したデータ系列を音声データとその他の通信データに弁別する。音声データは、DSP9によりD/A変換され、さらに図示しない増幅器により増幅された後、受話口4(図1参照)に内蔵されているスピーカ14へ送られる。スピーカ14は、増幅されたアナログ音声信号により駆動される。これにより、通話相手先の携帯電話機からの通話音声がスピーカ14から放音されることになる。
【0024】
また、DSP9は、上記通信データがどのようなデータであるのかを解析し、解析結果に対応した処理を行う。例えば上記通信データが電子メール等のテキストデータである場合、DSP9はテキストデータをCPU15に送り、CPU15は表示部2上にテキストデータを表示制御する。また、例えば通信データが圧縮された画像データである場合、DSP9は圧縮画像データを伸張した後にCPU15に送り、CPU15は表示部2上に画像データを表示制御する。また、例えば通信データが圧縮された音声データである場合、DSP9は、圧縮音声データを伸張し、スピーカ14又はスピーカ16に音声データを出力する。
【0025】
上記記録部17は、フラッシュメモリ等の記憶保持動作が不要な書き換え可能なメモリにより構成される。この記録部17は、アドレス帳機能プログラム、スケジュール帳機能プログラム、ユーザプロフィール登録機能プログラム、電子メール送受信機能プログラム、自動作曲プログラム18等、各種アプリケーションプログラムを記憶するアプリケーションプログラム記録部19を備える。
【0026】
また、上記記録部17は、アドレス帳データ、スケジュールデータ、プロフィールデータ、送受信した電子メール、自動作曲処理用データ20(詳しくは後述する)、自動作曲処理により作成された演奏データ等の各種データを格納するデータ記録部21を備える。さらに、この記録部17は、携帯電話機の各種設定値のうち、ユーザが任意に設定可能な値を含む設定データを格納する。なお、アプリケーションプログラム記録部19及びデータ記録部21内に記憶される情報の全て若しくは一部は、通信回線を介して受信される構成にしてもよい。
【0027】
ROM(Read Only Memory)22は、CPU15が各部を制御するための制御プログラム(図示せず)等の各種コンピュータプログラムと、各種の初期設定値、フォントデータを記憶する。また、ROM22は、自動作曲機能により作成された演奏データを再生するための再生プログラム23を記憶する。
【0028】
なお、このROM22は、EEPROM(Electrically Erasable and Programmable Read Only Memory)のような書き換え可能なROMであってもよい。また、この携帯電話機1では、CPU15が再生プログラム23を用いてソフトウェア的に演奏データを再生するが、例えば携帯電話機1の内部に専用の音源回路を設け、CPU15が音源回路に演奏データを入力することにより演奏データを再生してもよい。
【0029】
RAM(Random Access Memory)24は、CPU15が各種処理を行う際のワークエリアとして機能し、随時データを格納する。CPU15は、記録部17やROM22内に格納されているコンピュータプログラムを実行することにより、コンピュータプログラムに従って携帯電話機1内の各部の動作を制御すると共に、各種の演算処理を行う。
【0030】
カメラ部25は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子と、撮像素子上に被写体等の光像を結像させる光学系とを備えたものである。そして、カメラ部25が撮影した画像データはDSP9に入力される。なお、カメラ部25から画像データを受け取ったDSP9は、その画像データをCPU15に送り、CPU15は画像データに基づく画像を表示部2上に表示制御する。また、DSP9は、必要に応じて画像データを圧縮し、圧縮後の画像データを送信データとして送信部10に送ることもできる。また、圧縮後の画像データはCPU15を介して記録部17に記録することもできる。
【0031】
近距離無線通信部26とそのアンテナ27は、いわゆるブルートゥース(Bluetooth)方式の無線通信を行うためのものである。なお、ブルートゥース方式は、複数の電子機器間における無線ネットワーキングを実現するための方式である。このブルートゥース方式は、Bluetooth SIG(Special Interest Group)において策定されたものであり、詳細は、”Bluetooth(TM) Special Interest Group, Bluetooth仕様書バージョン1.0”に開示されている。
【0032】
[携帯電話機の動作]
〔自動作曲処理〕
上記携帯電話機1は、ユーザが表示部2を介して受信した電子メールを閲覧している際、表示部2に表示されている電子メールの内容に対応した音楽を作曲し、出力する(以下、この処理を自動作曲処理と表記する)。なお、この実施形態では、携帯電話機1は、電子メールの閲覧時に音楽を作曲するが、ユーザが電子メールを送信する際(ダイアル7押下時)やウェブページを閲覧する際等、表示部2にテキストデータが表示されている際に自動作曲処理を実行するようにしてもよい。以下、図3に示すフローチャートを参照して、自動作曲処理を実行する際の携帯電話機1の動作について詳しく説明する。
【0033】
図3に示すフローチャートは、ユーザが、操作入力部3を操作して、表示部2に受信した電子メールを表示することで開始となり、この自動作曲処理はステップS1の処理に進む。
【0034】
ステップS1の処理では、CPU15が、記録部17からRAM24内に自動作曲プログラム18をロードし、自動作曲プログラム18に従って、表示部2に現在表示されている電子メールのテキストデータをRAM24内に読み込む。これにより、このステップS1の処理は完了し、この自動作曲処理はステップS1の処理からステップS2の処理に進む。
【0035】
ステップS2の処理では、CPU15が、自動作曲プログラム18に従って、テキストデータを解析し、解析結果に基づきテキストデータの内容に対応した音楽のコード進行データ、リズム進行データ、及びメロディ進行データを生成するためのパラメータを算出する(以下、この処理をパラメータ算出処理と表記する)。なお、パラメータ算出処理の詳細については図4に示すフローチャートを参照して後述する。これにより、このステップS2の処理は完了し、この自動作曲処理はステップS2の処理からステップS3の処理に進む。
【0036】
ステップS3の処理では、CPU15が、自動作曲プログラム18に従って、算出したパラメータに基づき、テキストデータの内容に対応した音楽のコード進行データを生成する(以下、この処理をコード生成処理と表記する)。なお、このコード生成処理の詳細については図5に示すフローチャートを参照して後述する。これにより、このステップS3の処理は完了し、この自動作曲処理はステップS3の処理からステップS4の処理に進む。
【0037】
ステップS4の処理では、CPU15が、自動作曲プログラム18に従って、算出したパラメータに基づき、コード進行を決定した音楽のリズム進行データを生成する(以下、この処理をリズム生成処理と表記する)。なお、このリズム生成処理の詳細については図6に示すフローチャートを参照して後述する。これにより、このステップS4の処理は完了し、この自動作曲処理はステップS4の処理からステップS5の処理に進む。
【0038】
ステップS5の処理では、CPU15が、自動作曲プログラム18に従って、算出パラメータに基づいてリズム進行を決定した音楽のメロディ進行データを生成する(以下、この処理をメロディ生成処理と表記する)。なお、このメロディ生成処理の詳細については図7に示すフローチャートを参照して後述する。これにより、このステップS5の処理は完了し、この自動作曲処理はステップS5の処理からステップS6の処理に進む。
【0039】
ステップS6の処理では、CPU15が、生成したコード進行データ、リズム進行データ、及びメロディ進行データに従って、作曲した音楽の演奏データをバックグラウンド処理で生成する。ここで、生成される演奏データは、複数のパート(音源)の音階と音符の組み合わせから成り、この実施の形態では、例えばスタンダードMIDI(Standard Musical Instruments Digital Interface)ファイル等のMIDIデータにより構成される。また、上記パートは、例えば、ピアノ、オルガン、ギター、ベース、バイオリン、チェロ、ハープ、トランペット、サックス、琴、マリンバ、フルート等の楽器の音色情報により構成され、一つの演奏データには最大40程度のパートを含めることができる(40和音)。さらに、演奏データは所定の再生時間となるように生成される。なお、演奏データはMIDIデータ形式に限られることはなく、例えばMP3(MPEG Audio Layer−3)等の他のデータ形式により演奏データを構成してもよい。これにより、このステップS6の処理は完了し、この自動作曲処理はステップS6の処理からステップS7の処理に進む。
【0040】
ステップS7の処理では、CPU15が、他の演奏データを再生中であるか否かを判別する。そして、判別の結果、他の演奏データを再生中である場合、この自動作曲処理はステップS7の処理からステップS10の処理に進む。一方、他の演奏データを再生中でない場合には、この自動作曲処理はステップS7の処理からステップS8の処理に進む。
【0041】
ステップS8の処理では、CPU15が、再生する演奏データを前回再生した演奏データからステップS6の処理によりバックグラウンド処理により予め生成した演奏データに切り換える。このような処理によれば、演奏データ再生までのタイムロスをなくし、演奏データをシームレスに再生することができる。これにより、このステップS8の処理は完了し、この自動作曲処理はステップS8の処理からステップS9の処理に進む。
【0042】
ステップS9の処理では、CPU15が、再生プログラム23に従って、再生する演奏データの各パートの音階及び音符を解釈、処理することより、作曲した音楽をスピーカ14,16から放音する。これにより、このステップS9の処理は完了し、この自動作曲処理はステップS9の処理からステップS10の処理に進む。
【0043】
ステップS10の処理では、CPU15が、演奏データの再生が終了したか否かを判別し、演奏データの再生が終了するのに応じて、この自動作曲処理をステップS10の処理からステップS11の処理に進める。なお、この実施形態では、CPU15は、タイマを利用して再生時間を計測することにより、演奏データの再生が終了したか否かを判別する。
【0044】
ステップS11の処理では、CPU15が、ユーザによるスクロール操作等の処理によって、表示部2に表示されている電子メールの内容が変化したか否かを判別する。そして、判別の結果、表示部2に表示されている電子メールの内容が変化した場合、CPU15はこの自動作曲処理をステップS11の処理からステップS8の処理に戻し、バックグラウンド処理により予め生成した電子メールの内容変化部分に対応した演奏データに切り換える。このような処理によれば、CPU15は、表示部2に表示された電子メールの内容に対応した演奏データをシームレスに再生することができるようになる。一方、表示部2に表示されている電子メールの内容が変化していない場合には、CPPU15はこの自動作曲処理をステップS11の処理からステップS9の処理に戻す。そして、この一連の自動作曲処理は、ユーザが受信した電子メールの閲覧を終了まで繰り返し実行される。
【0045】
なお、上記自動作曲処理において、ユーザが、操作入力部3を操作して、演奏データが生成、再生されないように設定できるようにしてもよい。また、携帯電話機1が演奏データを再生している際、ユーザが演奏データの再生を停止できるようにしてもよい。また、CPU15は、電子メールの一段落、一文章、若しくは一画面分のテキストデータが新たに表示されるのに応じて、新たに表示されたテキストデータのみに基づいて音楽を作曲することが望ましい。これにより、携帯電話機1は、電子メールの文章展開に合った音楽を再生することができる。また、上記自動作曲処理において作成された演奏データは、ユーザからの指示に応じて、記録部17内に記憶できることが望ましい。また、記録部17内に記憶された演奏データは、通信回線を介して他のユーザに送信できるようにしてもよい。
【0046】
〔パラメータ算出処理〕
次に、図4に示すフローチャートを参照して、上記ステップS2のパラメータ算出処理について詳しく説明する。
【0047】
図4に示すフローチャートは、表示部2に表示されている電子メールのテキストデータが読み込まれるのに応じて開始となり、このパラメータ算出処理はステップS21の処理に進む。
【0048】
ステップS21の処理では、CPU15が、読み込まれたテキストデータに対して形態素解析等の自然言語解析を実行することにより、テキストデータを構成する文章の構造を解析する。これにより、このステップS21の処理は完了し、このパラメータ算出処理はステップS21の処理からステップS22の処理に進む。
【0049】
ステップS22の処理では、CPU15が、記録部17に記憶された自動作曲処理用データ20内から、例えば「嬉しい」や「悲しい」等のキーワードを取得する。ここで、各キーワードには、例えば小林らが提案するp/n(positive/negagative)評価等の手法を利用して、作曲される音楽の明るさ(暗さ)を制御する数値(α)、テンポを制御する数値(β)、抑揚を制御する数値(γ)が関連付けられている。但し、キーワードの中には、その意味が文脈によって応じて変化するものもあるので、キーワードが属する文章、及びその文章の前後の文脈に従って、キーワードと関連付けられている数値を変化させることが望ましい。なお、p/n評価の詳細は、”語釈文を利用した「p/n辞書」の作成”、人工知能学会言語・音声理解と対話処理研究会資料、SLUD−33,2001に開示されている。これにより、このステップS22の処理は完了し、このパラメータ算出処理はステップS22の処理からステップS23の処理に進む。
【0050】
ステップS23の処理では、CPU15が、テキストデータの自然言語解析結果に基づいて、取得したキーワードがテキストデータ内に含まれるか否かを判別する。そして、判別の結果、取得したキーワードが含まれない場合は、このパラメータ算出処理はステップS23の処理からステップS25の処理に進む。一方、取得したキーワードが含まれる場合には、このパラメータ算出処理はステップS23の処理からステップS24の処理に進む。
【0051】
ステップS24の処理では、CPU15が、取得したキーワードに関連付けられている数値α,β,γをRAM24内に記憶する。なお、2回目の処理以後、RAM24内に既に数値α,β,γの値が記憶されている場合には、CPU15は既に記憶されている各数値に新たに記憶する数値を加算する。但し、記憶されている数値が他のテキストデータに基づいて作成されたものである場合には、CPU15は、この数値を消去した後、RAM24内に新しく数値を記憶する。これにより、このステップS24の処理は完了し、このパラメータ算出処理はステップS24の処理からステップS25の処理に進む。
【0052】
ステップS25の処理では、CPU15が、自動作曲処理用データ20内に未処理(未取得)のキーワードが含まれるか否かを判別する。そして、判別の結果、未処理のキーワードが含まれる場合は、このパラメータ算出処理はステップS25の処理からステップS22の処理に戻る。一方、未処理のキーワードが含まれない場合には、このパラメータ算出処理はステップS25の処理からステップS26の処理に進む。
【0053】
ステップS26の処理では、CPU15が、RAM内に記憶されている数値α、β、γに基づいて、音楽の曲調、速さ、ジャンル、モチーフ(和音)、リズム、メロディ、伴奏、ドラムの進行ルールを指定するパラメータを算出する。なお、これらのパラメータはある音楽ルール(例えば「C」)を形成する。そして、この音楽ルールは、「ポップス」,「クラシック」等のジャンルの違いに応じてパラメータを動的に組み替えることにより、新たな音楽ルール(例えば「Cm」や「C7」に変更することができ、これにより、柔軟なメロディ生成と共に、携帯電話機1内に記憶する音楽ルール数を最小にすることができる。これにより、このステップS26の処理は完了し、一連のパラメータ算出処理は終了する。
【0054】
なお、上記音楽ルールとは、多くの人に何度もくり返し使われることによって定着した 「コード進行の流れ」 や 「音の 流れ」、 「響きの美しさ」 等を理論的にまとめたものである。音楽ルールの詳細については例えば特開2002−23747号公報に記載されている。
【0055】
〔コード生成処理〕
次に、図5に示すフローチャートを参照して、上記ステップS3のコード生成処理について詳しく説明する。図5に示すフローチャートは、パラメータ算出処理が完了するのに応じて開始となり、このコード生成処理はステップS31の処理に進む。
【0056】
ステップS31の処理では、CPU15が、パラメータ算出処理において算出したパラメータに従って最初に演奏する小節のコードを決定する。これにより、このステップS31の処理は完了し、このコード生成処理はステップS31の処理からステップS32の処理に進む。
【0057】
ステップS32の処理では、CPU15が、前のコードに規定されている音楽ルールに従って、コード同士が不自然な繋がりにならないように、自動作曲処理用データ20の中から次の小節のコードの候補(コード候補)を抽出する。これにより、このステップS32の処理は完了し、このコード生成処理はステップS32の処理からステップS33の処理に進む。
【0058】
ステップS33の処理では、CPU15が、乱数を発生させる。これにより、このステップS33の処理は完了し、このコード生成処理はステップS33の処理からステップS34の処理に進む。
【0059】
ステップS34の処理では、CPU15が、発生させた乱数に従って、抽出したコード候補の中から、次の小節のコードを決定する。これにより、このステップS34の処理は完了し、このコード生成処理はステップS34の処理からステップS35の処理に進む。
【0060】
ステップS35の処理では、CPU15が、パラメータ算出処理において算出したジャンルに関するパラメータに従って、和音構成音(音程)を生成し、決定したコードに対して和音構成音を適用する。これにより、このステップS35の処理は完了し、このコード生成処理はステップS35の処理からステップS36の処理に進む。
【0061】
ステップS36の処理では、CPU15が、所定の演奏時間内の全ての小節に対し上記ステップS32〜ステップS35の処理を実行したか否かを判別する。そして、判別の結果、全ての小節に対しステップS32〜ステップS35の処理を実行していない場合は、このコード生成処理はステップS36の処理からステップS32の処理に戻る。一方、全ての小節に対しステップS32〜ステップS35の処理を実行した場合には、CPU15は、ステップS37の処理として、上記処理の結果をコード進行データとしてRAM24内に記憶する。これにより、ステップS37の処理が完了し、一連のコード生成処理は終了する。
【0062】
なお、より柔軟なコード進行パターンを生成することを可能にするために、幾つかの確立されたコード進行パターンをジャンル毎に予め自動作曲処理用データ20内に記憶し、コード生成処理が実行される度毎にCPU15が処理結果に基づいて学習することが望ましい。
【0063】
〔リズム生成処理〕
次に、図6に示すフローチャートを参照して、上記ステップS4のリズム生成処理について詳しく説明する。図6に示すフローチャートは、コード生成処理が完了するのに応じて開始となり、このリズム生成処理はステップS41の処理に進む。
【0064】
ステップS41の処理では、CPU15が、パラメータ算出処理において算出したパラメータに従って最初に演奏する音符を決定する。これにより、このステップS41の処理は完了し、このリズム生成処理はステップS41の処理からステップS42の処理に進む。
【0065】
ステップS42の処理では、CPU15が、前の音符に規定されている音楽ルールに従って、音符同士が不自然な繋がりにならないように、自動作曲処理用データ20の中から次の拍数における音符の候補(音符候補)を抽出する。これにより、このステップS42の処理は完了し、このリズム生成処理はステップS42の処理からステップS43の処理に進む。
【0066】
ステップS43の処理では、CPU15が、乱数を発生させる。これにより、このステップS43の処理は完了し、このリズム生成処理はステップS43の処理からステップS44の処理に進む。
【0067】
ステップS44の処理では、CPU15が、発生させた乱数に従って、抽出した音符候補の中から次の拍数における音符を決定する。これにより、このステップS44の処理は完了し、このリズム生成処理はステップS44の処理からステップS45の処理に進む。
【0068】
ステップS45の処理では、CPU15が、所定演奏時間分の拍数に対し上記ステップS42〜S44の処理を実行したか否かを判別する。そして、判別の結果、所定演奏時間分の拍数に対し上記ステップS42〜S44の処理を実行していない場合は、このリズム生成処理はステップS45の処理からステップS42の処理に戻る。一方、所定演奏時間分の拍数に対し上記ステップS42〜S44の処理を実行した場合には、CPU15は、ステップS46の処理として、上記処理の結果をリズム進行データとしてRAM24内に記憶する。これにより、ステップS46の処理が完了し、一連のリズム生成処理は終了する。
【0069】
なお、より柔軟なリズム進行を生成することを可能にするために、幾つかの確立されたリズム進行パターンをジャンル毎に予め自動作曲処理用データ20内に記憶し、リズム生成処理が実行される度毎にCPU15が処理結果に基づいて学習することが望ましい。
【0070】
〔メロディ生成処理〕
次に、図7に示すフローチャートを参照して、上記ステップS5のメロディ生成処理について詳しく説明する。図7に示すフローチャートは、リズム生成処理が完了するのに応じて開始となり、このメロディ生成処理はステップS51の処理に進む。
【0071】
ステップS51の処理では、CPU15が、上記リズム生成処理により生成したリズム進行データを読み込み、メロディ生成処理を未実行の音符を検索する。これにより、このステップS51の処理は完了し、このメロディ生成処理はステップS51の処理からステップS52の処理に進む。
【0072】
ステップS52の処理では、CPU15が、検索の結果、メロディ生成処理の未実行の音符が検索されたか否かを判別する。そして、判別の結果、メロディ生成処理の未実行の音符が検索されない場合、このメロディ生成処理はステップS52の処理からステップS57の処理に進む。一方、メロディ生成処理の未実行の音符が検索された場合には、このメロディ生成処理はステップS52の処理からステップS53の処理に進む。
【0073】
ステップS53の処理では、CPU15が、自動作曲処理用データ20の中から音符に適用可能なメロディルール候補を抽出する。これにより、このステップS53の処理は完了し、このメロディ生成処理はステップS53の処理からステップS54の処理に進む。
【0074】
ステップS54の処理では、CPU15が、乱数を発生させる。これにより、このステップS54の処理は完了し、このメロディ生成処理はステップS54の処理からステップS55の処理に進む。
【0075】
ステップS55の処理では、CPU15が、発生させた乱数に従って抽出したメロディルール候補の中からメロディルールを選択し、選択したメロディルールを検索された音符に適用する。これにより、このステップS55の処理は完了し、このメロディ生成処理はステップS55の処理からステップS56の処理に進む。
【0076】
ステップS56の処理では、CPU15が、パラメータ算出処理において算出したジャンルに関するパラメータに従ってメロディ生成ルールを生成し、検索された音符に対し生成したメロディ生成ルールを適用する。これにより、このステップS56の処理は完了し、このメロディ生成処理はステップS56の処理からステップS51の処理に戻る。
【0077】
ステップS57の処理では、CPU15は、上記処理の結果をメロディ進行データとしてRAM24内に記憶する。これにより、このステップS57の処理は完了し、一連のメロディ生成処理が終了する。
【0078】
なお、より柔軟なメロディ進行を生成することを可能にするために、幾つかの確立されたメロディ進行パターンをジャンル毎に予め自動作曲処理用データ20内に記憶し、メロディ生成処理が実行される度毎にCPU15が処理結果に基づいて学習することが望ましい。
【0079】
[実施形態の効果]
以上の説明から明らかように、本発明の一実施形態となる携帯電話機1は、表示部2に電子メールが表示されるのに応じて、表示された電子メールの内容に対応した音楽を自動的に作曲,再生するので、ユーザは、サーバ装置にアクセスすることなく、電子メールの内容に対応した音楽を鑑賞することができる。また、このような構成によれば、音楽の作曲及び再生処理は全て携帯電話機1側で行われるので、ユーザは、通信料金を支払わずに自動作曲サービスを利用することができる。すなわち、この携帯電話機1によれば、サーバ装置を介さずに、簡単、且つ、安価に電子メールの内容に対応した音楽を作曲,再生することができる。
【0080】
また、本発明の一実施形態となる携帯電話機1は、スクロール操作によってユーザが表示部2に表示されている電子メールの内容を変化させた場合、内容の変化に対応した音楽を再度作曲,再生するので、表示されている電子メールの内容に対応した音楽を常に再生することができる。
【0081】
また、本発明の一実施形態となる携帯電話機1は、ユーザが電子メールを閲覧している際に、電子メールの内容に対応した音楽を作曲,再生するので、電子メールの送信者は、視覚、聴覚双方のアプローチにより意志伝達を行うことができ、逆に、電子メールの受信者は、視覚と聴覚の二つの感覚で電子メールの内容を理解することができる。
【0082】
さらに、本発明の一実施形態となる携帯電話機1では、ユーザは、例えば特開2002−32078号公報に開示されているような音楽を作曲,再生するための設定(モチーフメロディ設定)や、音楽を作曲,再生するためのデータを用意する必要がなく、気軽に自動作曲サービスを利用することができる。また、この携帯電話機1は、音楽を作曲する際に適用する音楽ルールに乱数に従って決定するので、電子メールの内容に応じて音楽を柔軟に作曲することができると共に、多様な音楽を作曲することが可能となる。
【0083】
[その他の実施形態]
以上、本発明者によってなされた発明を適用した実施の形態の構成及び動作について説明したが、この実施の形態による本発明の開示の一部をなす論述及び図面により本発明は限定されることはない。例えば、上記実施形態は本発明を携帯電話機に適用したものであったが、本発明は、パーソナルコンピュータやPDA(Personal Digital Assistant)等の音楽再生機能を有する情報処理装置であれば適用、実施することができる。このように、上記実施の形態に基づいて当業者等によりなされる他の実施の形態、実施例及び運用技術等は全て本発明の範疇に含まれることを付け加えておく。
【0084】
【発明の効果】
本発明によれば、サーバ装置を介することなく、簡単、且つ、安価にテキストデータの内容に対応した音楽を作曲,再生することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態となる携帯電話機の外観を示す模式図である。
【図2】図1に示す携帯電話機の内部構成を示すブロック図である。
【図3】本発明の一実施形態となる自動作曲処理の流れを示すフローチャート図である。
【図4】図3に示すパラメータ算出処理の流れを示すフローチャート図である。
【図5】図3に示すコード生成処理の流れを示すフローチャート図である。
【図6】図3に示すリズム生成処理の流れを示すフローチャート図である。
【図7】図3に示すメロディ生成処理の流れを示すフローチャート図である。
【符号の説明】
1…携帯電話機、2…表示部、3…操作入力部、4…受話口、5…送話口、6…キーボタン、7…ダイアル、8…マイクロフォン、9…DSP(Digital Signal Processor)、10…送信部、11…デュプレクサ、12,27…アンテナ、13…受信部、14,16…スピーカ、17…記録部、18…自動作曲プログラム、19…アプリケーションプログラム記録部、20…自動作曲処理用データ、21…データ記録部、22…ROM(Read Only Memory)、23…再生プログラム、24…RAM(Random Access Memory)、25…カメラ部、26…近距離無線通信部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a portable terminal device that composes and reproduces music corresponding to the contents of text data such as e-mails and web pages.
[0002]
[Prior art]
2. Description of the Related Art In recent years, in response to receiving an e-mail transmitted by a user via a terminal device, a server device composes music corresponding to the content of the received e-mail (see, for example, Patent Document 1). According to such a system, the user can always listen to music composed according to the content of the e-mail by calling the server device via the telephone line.
[0003]
[Patent Document 1]
JP 2001-209592 A
[0004]
[Problems to be solved by the invention]
However, in the above-described conventional automatic music composition system, since the processing of composing and storing music is all performed on the server device side, the user needs to make a telephone call every time a music composition request or appreciation is made. It is necessary to access the server device via the line, and it is not possible to easily enjoy music composed according to the content of the e-mail.
[0005]
Further, in the conventional automatic music system as described above, music composed according to the content of the e-mail is provided to the user via the telephone line, so that all the composed music is By the end of listening, the user must pay a large communication fee, and cannot use the automatic music service using electronic mail at low cost.
[0006]
The present invention has been made in view of such a problem, and an object of the present invention is to be able to easily and inexpensively compose and reproduce music corresponding to the contents of text data without using a server device. A portable terminal device is provided.
[0007]
[Means for Solving the Problems]
The features of the portable terminal device according to the present invention include a display unit that displays text data, a storage unit that stores a plurality of keywords associated with numerical values that control at least the brightness of music, and text data that is displayed on the display unit. A control unit that searches for the keywords contained in the text and composes music corresponding to the content of the text data displayed on the display unit based on the numerical value associated with the searched keyword, and the text data is displayed on the display unit And a reproducing unit that reproduces and outputs music composed by the control unit.
[0008]
That is, in the portable terminal device according to the present invention, in response to the text data being displayed on the display unit, the control unit automatically composes music corresponding to the content of the displayed text data, and the playback unit composes the music. To play music.
[0009]
Thereby, the user can enjoy music corresponding to the content of the e-mail without accessing the server device. In addition, the user can use the automatic music service without paying the communication fee.
[0010]
That is, according to the portable terminal device, music corresponding to the content of the e-mail can be composed and reproduced easily and inexpensively without the intervention of the server device.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
The present invention can be applied to, for example, a mobile phone as shown in FIG. Hereinafter, the configuration and operation of a mobile phone according to an embodiment of the present invention will be described in detail with reference to the drawings.
[0012]
[Overview of mobile phones]
First, with reference to FIG. 1, an outline configuration of a mobile phone according to an embodiment of the present invention will be described.
[0013]
As shown in FIG. 1, a mobile phone 1 according to an embodiment of the present invention includes a display unit 2, an operation input unit 3, an earpiece 4, and a mouthpiece 5 as main components.
[0014]
The display unit 2 includes a display device such as an LCD (Liquid Crystal Display) or an EL (Electro Luminescence) panel. Characters, numbers, symbols, and the like are controlled under the control of a CPU (Central Processing Unit, see FIG. 2) 15 described later. Visually display icons, cursors, images, moving images, etc.
[0015]
The operation input unit 3 includes, for example, input of numbers from "0" to "9", input of kana characters, input of alphabet characters, input of symbols, input of transmission and reception instructions, and input of power on / off instructions. It has a plurality of key buttons 6 used for operations such as. The operation input unit 3 has a dial (jog dial) 7 used for operations such as a movement operation of a cursor displayed on the display unit 2 and a scroll operation of a screen. The earpiece 4 and the mouthpiece 5 are respectively connected to a speaker and a microphone (see FIG. 2), which will be described later, and are used when the user makes a voice call with the other party.
[0016]
[Internal Configuration of Mobile Phone and Its Basic Operation]
Next, an internal configuration of the mobile phone 1 and a basic operation thereof will be described with reference to FIG. Note that the configurations and operations of the display unit 2 and the operation input unit 3 are as described above, and a description thereof will be omitted below.
[0017]
In the mobile phone 1 shown in FIG. 2, the microphone 8 connected to the mouthpiece 5 (see FIG. 1) converts a user's call voice into an analog voice signal. Then, the analog audio signal is amplified by an amplifier (not shown) and then input to a DSP (Digital Signal Processor) 9.
[0018]
When the analog audio signal is input, the DSP 9 converts the analog audio signal from analog to digital (A / D) at a predetermined sampling rate. The DSP 9 adds a CRC (Cyclic Redundancy Check) code to the digital audio data obtained by the A / D conversion for each transport block (TB), and performs channel coding (error correction coding) and interleaving processing. Is applied. Note that the transport block indicates a basic unit of data processed by the physical layer (a unit in which data is transferred from a MAC (Medium Access Control) layer to the physical layer).
[0019]
Also, the DSP 9 performs data modulation processing after adding overhead for channel determination such as pilot bits to the bit sequence after the interleaving processing, and performs in-phase (In-Phase) on a data modulation mapped phase plane. ) And quadrature components are spread with two-layer spreading code sequences. Then, the DSP 9 limits the band of the spread chip data sequence to a predetermined band (5 MHz) using a raised cosine root Nyquist filter, converts the band to a digital signal (D / A), and converts the analog signal to a transmitting unit. Output to 10
[0020]
When an analog signal is input from the DSP 9, the transmitting unit 10 orthogonally demodulates the analog signal, and frequency-converts the orthogonally demodulated intermediate frequency signal into a high-frequency signal (2 GHz band RF signal). Then, the transmission unit 10 amplifies the high-frequency signal and outputs the amplified high-frequency signal to the duplexer 11 as a transmission signal.
[0021]
The duplexer 11 is an antenna sharing device. That is, the duplexer 11 shares one antenna 12 for the transmission signal and the reception signal, sends the reception signal from the antenna 12 to the reception unit 13, and sends the transmission signal from the transmission unit 10 to the antenna 12. It is composed of a filter circuit having a function.
[0022]
The receiving unit 13 amplifies the high-frequency reception signal supplied via the antenna 12 and the duplexer 11, and frequency-converts the amplified reception signal into an intermediate-frequency signal. Then, the receiving unit 13 linearly amplifies the intermediate frequency signal by automatic gain control, and inputs the linearly amplified intermediate frequency signal to the DSP 9. At this time, the DSP 9 performs quadrature detection (Quadrature Detection) on the signal from the receiving unit 13 and performs A / D conversion on the in-phase and quadrature component analog signals obtained by the quadrature detection at a predetermined sampling rate. Then, the DSP 9 limits the band of the in-phase and quadrature components converted into digital values by the A / D conversion with the raised cosine root Nyquist filter, and then despreads the spread signals with the same spread code as the spread code of the received signal. Time separation into a plurality of multipath components having different propagation delay times.
[0023]
Also, the DSP 9 performs coherent lake synthesis on the data of each time-separated path, deinterleaves and channel-decodes the data sequence after the coherent lake synthesis, performs binary data determination, and transmits the data to the destination terminal. Play the data series. Then, the DSP 9 discriminates the reproduced data series into audio data and other communication data. The voice data is D / A-converted by the DSP 9, further amplified by an amplifier (not shown), and then sent to a speaker 14 built in the earpiece 4 (see FIG. 1). The speaker 14 is driven by the amplified analog audio signal. As a result, the call voice from the mobile phone of the call partner is emitted from the speaker 14.
[0024]
The DSP 9 analyzes what kind of data the communication data is, and performs a process corresponding to the analysis result. For example, when the communication data is text data such as an e-mail, the DSP 9 sends the text data to the CPU 15, and the CPU 15 controls the display of the text data on the display unit 2. For example, when the communication data is compressed image data, the DSP 9 decompresses the compressed image data and sends it to the CPU 15, and the CPU 15 controls the display of the image data on the display unit 2. For example, when the communication data is compressed audio data, the DSP 9 expands the compressed audio data and outputs the audio data to the speaker 14 or the speaker 16.
[0025]
The recording unit 17 is configured by a rewritable memory such as a flash memory which does not require a storage holding operation. The recording unit 17 includes an application program recording unit 19 that stores various application programs such as an address book function program, a schedule book function program, a user profile registration function program, an e-mail transmission / reception function program, and an automatic music program 18.
[0026]
The recording unit 17 stores various data such as address book data, schedule data, profile data, transmitted / received e-mails, automatic music processing data 20 (to be described in detail later), and performance data created by the automatic music processing. A data recording unit 21 for storing is provided. Further, the recording unit 17 stores setting data including values that can be arbitrarily set by the user among various setting values of the mobile phone. Note that all or a part of the information stored in the application program recording unit 19 and the data recording unit 21 may be received via a communication line.
[0027]
A ROM (Read Only Memory) 22 stores various computer programs such as a control program (not shown) for the CPU 15 to control each unit, various initial setting values, and font data. The ROM 22 stores a reproduction program 23 for reproducing the performance data created by the automatic music function.
[0028]
Note that the ROM 22 may be a rewritable ROM such as an EEPROM (Electrically Erasable and Programmable Read Only Memory). Further, in the portable telephone 1, the CPU 15 reproduces the performance data by software using the reproduction program 23. For example, a dedicated sound source circuit is provided inside the portable telephone 1, and the CPU 15 inputs the performance data to the sound source circuit. Thus, the performance data may be reproduced.
[0029]
A RAM (Random Access Memory) 24 functions as a work area when the CPU 15 performs various processes, and stores data as needed. The CPU 15 executes the computer programs stored in the recording unit 17 and the ROM 22, thereby controlling the operation of each unit in the mobile phone 1 according to the computer programs and performing various arithmetic processes.
[0030]
The camera unit 25 includes an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and an optical system that forms an optical image of a subject or the like on the image sensor. is there. Then, the image data captured by the camera unit 25 is input to the DSP 9. The DSP 9 that has received the image data from the camera unit 25 sends the image data to the CPU 15, and the CPU 15 controls the display on the display unit 2 based on the image data. The DSP 9 can also compress the image data as necessary, and send the compressed image data to the transmission unit 10 as transmission data. Further, the compressed image data can be recorded in the recording unit 17 via the CPU 15.
[0031]
The short-range wireless communication unit 26 and its antenna 27 are for performing wireless communication of a so-called Bluetooth system. Note that the Bluetooth system is a system for realizing wireless networking between a plurality of electronic devices. This Bluetooth system has been formulated in the Bluetooth SIG (Special Interest Group), and is disclosed in detail in “Bluetooth (TM) Special Interest Group, Bluetooth Specification Version 1.0”.
[0032]
[Operation of mobile phone]
[Automatic music processing]
The mobile phone 1 composes and outputs music corresponding to the content of the e-mail displayed on the display unit 2 when the user is browsing the e-mail received via the display unit 2 (hereinafter, referred to as “mobile phone”). This processing is referred to as automatic music processing). In this embodiment, the mobile phone 1 composes music at the time of browsing the e-mail. However, when the user transmits the e-mail (when the dial 7 is pressed) or browses a web page, the mobile phone 1 displays the music. The automatic music process may be executed when the text data is displayed. Hereinafter, the operation of the mobile phone 1 when executing the automatic music process will be described in detail with reference to the flowchart shown in FIG.
[0033]
The flowchart shown in FIG. 3 starts when the user operates the operation input unit 3 to display the received e-mail on the display unit 2, and the automatic music process proceeds to the process of step S1.
[0034]
In the process of step S1, the CPU 15 loads the automatic music program 18 from the recording unit 17 into the RAM 24, and reads the text data of the electronic mail currently displayed on the display unit 2 into the RAM 24 according to the automatic music program 18. Thereby, the process of step S1 is completed, and the automatic music process proceeds from the process of step S1 to the process of step S2.
[0035]
In the process of step S2, the CPU 15 analyzes the text data according to the automatic music program 18, and generates music chord progression data, rhythm progression data, and melody progression data corresponding to the contents of the text data based on the analysis result. Is calculated (hereinafter, this process is referred to as a parameter calculation process). The details of the parameter calculation processing will be described later with reference to the flowchart shown in FIG. Thereby, the process of step S2 is completed, and the automatic music process proceeds from the process of step S2 to the process of step S3.
[0036]
In the process of step S3, the CPU 15 generates chord progression data of music corresponding to the content of the text data based on the calculated parameters according to the automatic music program 18 (hereinafter, this process is referred to as a chord generation process). The details of the code generation process will be described later with reference to the flowchart shown in FIG. Thus, the process of step S3 is completed, and the automatic music composition process proceeds from the process of step S3 to the process of step S4.
[0037]
In the process of step S4, the CPU 15 generates rhythm progress data of the music whose chord progression has been determined based on the calculated parameters according to the automatic music program 18 (hereinafter, this process is referred to as rhythm generation process). The details of the rhythm generation processing will be described later with reference to the flowchart shown in FIG. Thereby, the processing of step S4 is completed, and the automatic music composition processing proceeds from the processing of step S4 to the processing of step S5.
[0038]
In the process of step S5, the CPU 15 generates melody progression data of the music whose rhythm has been determined based on the calculation parameters according to the automatic music program 18 (hereinafter, this process is referred to as a melody generation process). The details of the melody generation processing will be described later with reference to the flowchart shown in FIG. Thus, the processing of step S5 is completed, and the automatic music composition processing proceeds from the processing of step S5 to the processing of step S6.
[0039]
In the process of step S6, the CPU 15 generates performance data of the composed music by background processing according to the generated chord progression data, rhythm progression data, and melody progression data. Here, the generated performance data is composed of a combination of musical scales and musical notes of a plurality of parts (sound sources). In this embodiment, for example, the performance data is composed of MIDI data such as a standard MIDI (Standard Musical Instruments Digital Interface) file. . The above-mentioned parts are composed of, for example, timbre information of musical instruments such as piano, organ, guitar, bass, violin, cello, harp, trumpet, saxophone, koto, marimba, flute, etc. (40 chords). Further, the performance data is generated so as to have a predetermined reproduction time. The performance data is not limited to the MIDI data format, and may be configured in another data format such as MP3 (MPEG Audio Layer-3). Thus, the processing of step S6 is completed, and the automatic music composition processing proceeds from the processing of step S6 to the processing of step S7.
[0040]
In the process of step S7, the CPU 15 determines whether or not other performance data is being reproduced. If the result of the determination indicates that other performance data is being reproduced, the automatic music processing proceeds from step S7 to step S10. On the other hand, when the other performance data is not being reproduced, the automatic music composition processing proceeds from the processing in step S7 to the processing in step S8.
[0041]
In the process of step S8, the CPU 15 switches the performance data to be reproduced from the previously reproduced performance data to the performance data generated in advance by the background process by the process of step S6. According to such processing, it is possible to eliminate the time loss until the performance data is reproduced, and to reproduce the performance data seamlessly. Thus, the process of step S8 is completed, and the automatic music process proceeds from the process of step S8 to the process of step S9.
[0042]
In the process of step S9, the CPU 15 interprets and processes the scales and notes of each part of the performance data to be reproduced according to the reproduction program 23, and emits the composed music from the speakers 14 and 16. Thus, the processing of step S9 is completed, and the automatic music composition processing proceeds from the processing of step S9 to the processing of step S10.
[0043]
In the processing of step S10, the CPU 15 determines whether or not the reproduction of the performance data has been completed, and in response to the completion of the reproduction of the performance data, this automatic music processing is changed from the processing of step S10 to the processing of step S11. Proceed. In this embodiment, the CPU 15 determines whether or not the reproduction of the performance data has ended by measuring the reproduction time using a timer.
[0044]
In the process of step S11, the CPU 15 determines whether or not the content of the e-mail displayed on the display unit 2 has changed due to a process such as a scroll operation by the user. Then, as a result of the determination, if the content of the e-mail displayed on the display unit 2 changes, the CPU 15 returns the automatic music processing from the processing in step S11 to the processing in step S8, and generates the electronic music generated in advance by the background processing. The performance data is switched to the performance data corresponding to the changed part of the mail. According to such processing, the CPU 15 can seamlessly reproduce the performance data corresponding to the content of the electronic mail displayed on the display unit 2. On the other hand, if the content of the e-mail displayed on the display unit 2 has not changed, the CPPU 15 returns the automatic music processing from the processing in step S11 to the processing in step S9. This series of automatic music processing is repeatedly executed until the user finishes browsing the received e-mail.
[0045]
In the automatic music process, the user may operate the operation input unit 3 so that performance data can be set so as not to be generated and reproduced. Further, when the mobile phone 1 is playing the performance data, the user may be able to stop the playback of the performance data. In addition, it is desirable that the CPU 15 compose music based on only the newly displayed text data in response to the newly displayed text data of one paragraph, one sentence, or one screen of the e-mail. Thus, the mobile phone 1 can play music that matches the development of the text of the e-mail. Further, it is desirable that the performance data created in the automatic music process can be stored in the recording unit 17 in accordance with an instruction from a user. The performance data stored in the recording unit 17 may be transmitted to another user via a communication line.
[0046]
[Parameter calculation processing]
Next, the parameter calculation process in step S2 will be described in detail with reference to the flowchart shown in FIG.
[0047]
The flowchart shown in FIG. 4 starts when the text data of the e-mail displayed on the display unit 2 is read, and the parameter calculation process proceeds to the process of step S21.
[0048]
In the process of step S21, the CPU 15 analyzes the structure of the text constituting the text data by executing a natural language analysis such as a morphological analysis on the read text data. Thus, the process of step S21 is completed, and the parameter calculation process proceeds from step S21 to step S22.
[0049]
In the process of step S22, the CPU 15 acquires a keyword such as "happy" or "sad" from the automatic music piece processing data 20 stored in the recording unit 17. Here, for each keyword, for example, a numerical value (α) for controlling the brightness (darkness) of music to be composed using a method such as p / n (positive / negative) evaluation proposed by Kobayashi et al. A numerical value (β) for controlling the tempo and a numerical value (γ) for controlling the intonation are associated with each other. However, since the meaning of some keywords changes depending on the context, it is desirable to change the numerical value associated with the keyword according to the text to which the keyword belongs and the context before and after the text. The details of the p / n evaluation are disclosed in "Creation of" p / n Dictionary Using Translations ", Materials of the Japanese Society for Artificial Intelligence Language and Speech Understanding and Dialogue Processing, SLUD-33, 2001. Thus, the process of step S22 is completed, and the parameter calculation process proceeds from step S22 to step S23.
[0050]
In the process of step S23, the CPU 15 determines whether or not the acquired keyword is included in the text data based on the result of the natural language analysis of the text data. Then, as a result of the determination, if the acquired keyword is not included, the parameter calculation process proceeds from the process of step S23 to the process of step S25. On the other hand, when the acquired keyword is included, the parameter calculation process proceeds from the process of step S23 to the process of step S24.
[0051]
In the process of step S24, the CPU 15 stores the numerical values α, β, and γ associated with the acquired keywords in the RAM 24. If the values of the numerical values α, β, and γ have already been stored in the RAM 24 after the second processing, the CPU 15 adds the newly stored numerical value to each of the numerical values already stored. However, if the stored numerical value is created based on other text data, the CPU 15 deletes the numerical value and then stores a new numerical value in the RAM 24. Thus, the process of step S24 is completed, and the parameter calculation process proceeds from step S24 to step S25.
[0052]
In the process of step S25, the CPU 15 determines whether or not an unprocessed (unacquired) keyword is included in the automatic music processing data 20. If the result of the determination is that an unprocessed keyword is included, the parameter calculation process returns from the process of step S25 to the process of step S22. On the other hand, when an unprocessed keyword is not included, the parameter calculation process proceeds from the process of step S25 to the process of step S26.
[0053]
In the process of step S26, the CPU 15 determines the tune, speed, genre, motif (chord), rhythm, melody, accompaniment, drum progress rules of the music based on the numerical values α, β, γ stored in the RAM. Is calculated. Note that these parameters form a music rule (for example, “C”). This music rule can be changed to a new music rule (for example, “Cm” or “C7”) by dynamically rearranging parameters according to the genre such as “pops” or “classical”. Thereby, the number of music rules to be stored in the mobile phone 1 can be minimized along with the flexible melody generation, whereby the processing in step S26 is completed, and a series of parameter calculation processing ends.
[0054]
Note that the above music rules are theoretically summaries of the “chord progression”, “sound flow”, “sounding beauty”, etc. established by many people over and over. is there. Details of the music rules are described in, for example, JP-A-2002-23747.
[0055]
[Code generation processing]
Next, the code generation processing in step S3 will be described in detail with reference to the flowchart shown in FIG. The flowchart shown in FIG. 5 starts when the parameter calculation process is completed, and the code generation process proceeds to a process of step S31.
[0056]
In the processing of step S31, the CPU 15 determines the chord of the bar to be played first according to the parameters calculated in the parameter calculation processing. Thereby, the process of step S31 is completed, and the code generation process proceeds from the process of step S31 to the process of step S32.
[0057]
In the process of step S32, the CPU 15 selects the next bar code candidate (from the automatic music processing data 20) in accordance with the music rule specified in the previous code so that the codes do not become unnaturally connected. Code candidates). Thus, the process of step S32 is completed, and the code generation process proceeds from step S32 to step S33.
[0058]
In the process of step S33, the CPU 15 generates a random number. Thus, the process of step S33 is completed, and the code generation process proceeds from the process of step S33 to the process of step S34.
[0059]
In the process of step S34, the CPU 15 determines the code of the next bar from the extracted code candidates according to the generated random numbers. Thus, the process of step S34 is completed, and the code generation process proceeds from step S34 to step S35.
[0060]
In the process of step S35, the CPU 15 generates a chord component (pitch) according to the parameter related to the genre calculated in the parameter calculation process, and applies the chord component to the determined chord. Thus, the process of step S35 is completed, and the code generation process proceeds from the process of step S35 to the process of step S36.
[0061]
In the process of step S36, the CPU 15 determines whether or not the processes of steps S32 to S35 have been executed for all measures within a predetermined playing time. Then, as a result of the determination, if the processing of steps S32 to S35 has not been executed for all measures, the code generation processing returns from the processing of step S36 to the processing of step S32. On the other hand, when the processing of steps S32 to S35 has been executed for all measures, the CPU 15 stores the result of the above processing in the RAM 24 as chord progression data as the processing of step S37. Thus, the process of step S37 is completed, and a series of code generation processes ends.
[0062]
In order to generate more flexible chord progression patterns, some established chord progression patterns are stored in advance in the automatic music processing data 20 for each genre, and the chord generation processing is executed. It is desirable that the CPU 15 learns each time based on the processing result.
[0063]
[Rhythm generation processing]
Next, the rhythm generation processing in step S4 will be described in detail with reference to the flowchart shown in FIG. The flowchart shown in FIG. 6 starts when the chord generation processing is completed, and the rhythm generation processing proceeds to the processing of step S41.
[0064]
In the process of step S41, the CPU 15 determines a note to be played first according to the parameters calculated in the parameter calculation process. Thereby, the process of step S41 is completed, and the rhythm generation process proceeds from the process of step S41 to the process of step S42.
[0065]
In the processing of step S42, the CPU 15 selects a note candidate at the next beat count from the automatic music piece processing data 20 according to the music rule specified for the previous note so that the notes are not connected unnaturally. (Note candidate). Thereby, the process of step S42 is completed, and the rhythm generation process proceeds from the process of step S42 to the process of step S43.
[0066]
In the process of step S43, the CPU 15 generates a random number. Thereby, the process of step S43 is completed, and the rhythm generation process proceeds from the process of step S43 to the process of step S44.
[0067]
In the process of step S44, the CPU 15 determines a note at the next beat number from the extracted note candidates according to the generated random number. Thus, the process of step S44 is completed, and the rhythm generation process proceeds from step S44 to step S45.
[0068]
In the process of step S45, the CPU 15 determines whether or not the processes of steps S42 to S44 have been performed on the number of beats for a predetermined performance time. If it is determined that the processes of steps S42 to S44 have not been executed for the number of beats for the predetermined performance time, the rhythm generation process returns from the process of step S45 to the process of step S42. On the other hand, when the processing in steps S42 to S44 has been performed on the number of beats for the predetermined performance time, the CPU 15 stores the result of the processing in the RAM 24 as rhythm progress data in step S46. Thereby, the processing of step S46 is completed, and a series of rhythm generation processing ends.
[0069]
In order to generate a more flexible rhythm progression, several established rhythm progression patterns are stored in advance in the automatic music piece processing data 20 for each genre, and the rhythm generation process is executed. It is desirable that the CPU 15 learns each time based on the processing result.
[0070]
[Melody generation processing]
Next, the melody generation processing in step S5 will be described in detail with reference to the flowchart shown in FIG. The flowchart shown in FIG. 7 starts when the rhythm generation processing is completed, and the melody generation processing proceeds to the processing of step S51.
[0071]
In the process of step S51, the CPU 15 reads the rhythm progress data generated by the rhythm generation process, and searches for a note for which the melody generation process has not been performed. Thus, the process of step S51 is completed, and the melody generation process proceeds from step S51 to step S52.
[0072]
In the processing of step S52, the CPU 15 determines whether or not a note that has not been subjected to the melody generation processing has been searched as a result of the search. Then, as a result of the discrimination, if a note that has not been subjected to the melody generation processing is not retrieved, the melody generation processing proceeds from the processing of step S52 to the processing of step S57. On the other hand, when a note that has not been subjected to the melody generation processing is found, the melody generation processing proceeds from the processing in step S52 to the processing in step S53.
[0073]
In the process of step S53, the CPU 15 extracts a melody rule candidate applicable to a note from the automatic music piece processing data 20. Thus, the process of step S53 is completed, and the melody generation process proceeds from the process of step S53 to the process of step S54.
[0074]
In the process of step S54, the CPU 15 generates a random number. Thereby, the process of step S54 is completed, and the melody generation process proceeds from the process of step S54 to the process of step S55.
[0075]
In the process of step S55, the CPU 15 selects a melody rule from the melody rule candidates extracted according to the generated random numbers, and applies the selected melody rule to the searched musical note. Thus, the process of step S55 is completed, and the melody generation process proceeds from step S55 to step S56.
[0076]
In the process of step S56, the CPU 15 generates a melody generation rule in accordance with the genre parameters calculated in the parameter calculation process, and applies the generated melody generation rule to the searched notes. Thereby, the process of step S56 is completed, and the melody generation process returns from the process of step S56 to the process of step S51.
[0077]
In the process of step S57, the CPU 15 stores the result of the above process in the RAM 24 as melody progress data. Thus, the process of step S57 is completed, and a series of melody generation processes ends.
[0078]
In order to make it possible to generate a more flexible melody progression, some established melody progression patterns are stored in advance in the automatic music processing data 20 for each genre, and the melody generation process is executed. It is desirable that the CPU 15 learns each time based on the processing result.
[0079]
[Effects of Embodiment]
As is apparent from the above description, the mobile phone 1 according to one embodiment of the present invention automatically plays music corresponding to the content of the displayed email in response to the display of the email on the display unit 2. Since the user composes and reproduces the music, the user can enjoy the music corresponding to the contents of the e-mail without accessing the server device. Further, according to such a configuration, since the music composition and reproduction processing are all performed on the mobile phone 1, the user can use the automatic music service without paying a communication fee. That is, according to the mobile phone 1, music corresponding to the content of the e-mail can be composed and reproduced easily and inexpensively without the intervention of the server device.
[0080]
Further, when the user changes the content of the e-mail displayed on the display unit 2 by a scroll operation, the mobile phone 1 according to an embodiment of the present invention composes and reproduces music corresponding to the change in the content again. Therefore, music corresponding to the content of the displayed e-mail can always be reproduced.
[0081]
Further, the mobile phone 1 according to the embodiment of the present invention composes and reproduces music corresponding to the content of the e-mail when the user is browsing the e-mail. The communication can be performed by both the auditory and the auditory approaches, and conversely, the recipient of the e-mail can understand the contents of the e-mail with two senses, the visual sense and the auditory sense.
[0082]
Further, in the mobile phone 1 according to the embodiment of the present invention, the user can make settings for composing and reproducing music (motif melody settings) and music as disclosed in, for example, JP-A-2002-32078. There is no need to prepare data for composing and playing back, and the automatic music service can be used easily. In addition, since the mobile phone 1 determines a music rule to be applied when composing music according to random numbers, it is possible to flexibly compose music according to the content of an e-mail and to compose a variety of music. Becomes possible.
[0083]
[Other embodiments]
As described above, the configuration and operation of the embodiment to which the invention made by the present inventor is applied have been described. However, the present invention is not limited to the description and the drawings that constitute a part of the disclosure of the present invention according to this embodiment. Absent. For example, in the above-described embodiment, the present invention is applied to a mobile phone. However, the present invention is applied to any information processing apparatus having a music reproducing function, such as a personal computer or a PDA (Personal Digital Assistant). be able to. As described above, it is added that other embodiments, examples, operation techniques, and the like performed by those skilled in the art based on the above-described embodiments are all included in the scope of the present invention.
[0084]
【The invention's effect】
According to the present invention, music corresponding to the contents of text data can be composed and reproduced easily and inexpensively without the intervention of a server device.
[Brief description of the drawings]
FIG. 1 is a schematic view illustrating an appearance of a mobile phone according to an embodiment of the present invention.
FIG. 2 is a block diagram showing an internal configuration of the mobile phone shown in FIG.
FIG. 3 is a flowchart showing a flow of automatic music composition processing according to an embodiment of the present invention.
FIG. 4 is a flowchart illustrating a flow of a parameter calculation process illustrated in FIG. 3;
FIG. 5 is a flowchart illustrating a flow of a code generation process illustrated in FIG. 3;
FIG. 6 is a flowchart showing a flow of a rhythm generation process shown in FIG. 3;
FIG. 7 is a flowchart showing a flow of a melody generation process shown in FIG. 3;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Cellular telephone, 2 ... Display part, 3 ... Operation input part, 4 ... Earpiece, 5 ... Mouthpiece, 6 ... Key button, 7 ... Dial, 8 ... Microphone, 9 ... DSP (Digital Signal Processor), 10 ... Transmitting part, 11 ... Duplexer, 12, 27 ... Antenna, 13 ... Receiving part, 14,16 ... Speaker, 17 ... Recording part, 18 ... Automatic music program, 19 ... Application program recording part, 20 ... Automatic music processing data , 21: Data recording unit, 22: ROM (Read Only Memory), 23: Playback program, 24: RAM (Random Access Memory), 25: Camera unit, 26: Short-range wireless communication unit

Claims (3)

テキストデータを表示する表示部と、
音楽の少なくとも明暗を制御する数値と関連付けられた複数のキーワードを記憶する記憶部と、
上記表示部に表示されるテキストデータ内に含まれる上記キーワードを検索し、検索されたキーワードと関連付けられた数値に基づいて、表示部に表示されるテキストデータの内容に対応した音楽を作曲する制御部と、
上記テキストデータが上記表示部に表示されるのに応じて、上記制御部が作曲した音楽を再生出力する再生部と
を備える携帯端末装置。
A display for displaying text data,
A storage unit that stores a plurality of keywords associated with a numerical value that controls at least light and shade of music;
A control for searching for the keyword included in the text data displayed on the display unit and composing music corresponding to the content of the text data displayed on the display unit based on a numerical value associated with the searched keyword. Department and
A portable terminal device comprising: a reproducing unit that reproduces and outputs music composed by the control unit in response to the text data being displayed on the display unit.
請求項1に記載の携帯端末装置であって、
上記表示部に表示されているテキストデータをスクロールする操作部を備え、
上記制御部は、テキストデータがスクロールされるのに応じて、上記表示部に新たに表示されたテキストデータの内容に対応した音楽を作曲し、
上記再生部は、新たに表示されたテキストデータの内容に対応した音楽を再生出力すること
を特徴とする携帯端末装置。
The mobile terminal device according to claim 1,
An operation unit for scrolling the text data displayed on the display unit,
The control unit composes music corresponding to the content of the text data newly displayed on the display unit in response to the scrolling of the text data,
The portable terminal device, wherein the reproducing unit reproduces and outputs music corresponding to the content of the newly displayed text data.
請求項1に記載の携帯端末装置であって、
上記キーワードは、音楽の少なくともテンポと抑揚を制御する数値と関連付けられていること
を特徴とする携帯端末装置。
The mobile terminal device according to claim 1,
The portable terminal device, wherein the keyword is associated with at least a numerical value for controlling tempo and intonation of music.
JP2002326626A 2002-11-11 2002-11-11 Mobile terminal device Expired - Fee Related JP4148355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002326626A JP4148355B2 (en) 2002-11-11 2002-11-11 Mobile terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002326626A JP4148355B2 (en) 2002-11-11 2002-11-11 Mobile terminal device

Publications (2)

Publication Number Publication Date
JP2004163511A true JP2004163511A (en) 2004-06-10
JP4148355B2 JP4148355B2 (en) 2008-09-10

Family

ID=32805502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002326626A Expired - Fee Related JP4148355B2 (en) 2002-11-11 2002-11-11 Mobile terminal device

Country Status (1)

Country Link
JP (1) JP4148355B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004226671A (en) * 2003-01-22 2004-08-12 Omron Corp Music data generation system, music data generation server system, and music data generation method
JP2010085820A (en) * 2008-10-01 2010-04-15 Yamaha Corp Electronic musical instrument, and program for achieving its control method
JP2010107852A (en) * 2008-10-31 2010-05-13 Yamaha Corp Electronic musical device, computer device connected to the device, and program for realizing respective control method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004226671A (en) * 2003-01-22 2004-08-12 Omron Corp Music data generation system, music data generation server system, and music data generation method
JP2010085820A (en) * 2008-10-01 2010-04-15 Yamaha Corp Electronic musical instrument, and program for achieving its control method
JP2010107852A (en) * 2008-10-31 2010-05-13 Yamaha Corp Electronic musical device, computer device connected to the device, and program for realizing respective control method

Also Published As

Publication number Publication date
JP4148355B2 (en) 2008-09-10

Similar Documents

Publication Publication Date Title
US8111241B2 (en) Gestural generation, sequencing and recording of music on mobile devices
KR101488257B1 (en) A method for composing with touch screen of mobile terminal and an apparatus thereof
EP1736961B1 (en) System and method for automatic creation of digitally enhanced ringtones for cellphones
KR101212403B1 (en) Method of composing music on a handheld device
US20060180006A1 (en) Apparatus and method for performing play function in a portable terminal
CN106205571A (en) A kind for the treatment of method and apparatus of singing voice
KR100457052B1 (en) Song accompanying and music playing service system and method using wireless terminal
JP4148355B2 (en) Mobile terminal device
KR100506228B1 (en) Mobile terminal and method for editing and playing music
JP2003233377A (en) Device and method for musical sound generation
JP4574299B2 (en) Music player
KR20050078425A (en) Music and audio synthesize apparatus and method for mobile communication device
JP2001318677A (en) Portable telephone set
KR100731232B1 (en) Musical data editing and reproduction apparatus, and portable information terminal therefor
JP4211636B2 (en) Performance control data generation apparatus, music material data distribution server, and program
JP2003108130A (en) Music reproducing method and portable telephone device
JP4093404B2 (en) Mobile communication terminal
KR20050123248A (en) A cellular phone having a function of composition and a method of composition by the cellular phone and a usage of the cellular phone
JP5104414B2 (en) Automatic performance device and program
JP4337714B2 (en) Portable terminal device, program, and recording medium
KR100548950B1 (en) Apparatus and method for musical performance using keypad in mobile communication terminal
JP3945351B2 (en) Mobile terminal device
KR20060032476A (en) Music performing method and apparatus using keypad
KR20060103788A (en) Method and system for performing music using number musical note in mobile terminal
JP2008209643A (en) Concert assisting device, concert assisting method, and mobile terminal device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070517

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070910

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080402

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080418

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080618

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080618

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees