JP2004286784A - 自動演奏装置および自動演奏プログラム - Google Patents

自動演奏装置および自動演奏プログラム Download PDF

Info

Publication number
JP2004286784A
JP2004286784A JP2003075380A JP2003075380A JP2004286784A JP 2004286784 A JP2004286784 A JP 2004286784A JP 2003075380 A JP2003075380 A JP 2003075380A JP 2003075380 A JP2003075380 A JP 2003075380A JP 2004286784 A JP2004286784 A JP 2004286784A
Authority
JP
Japan
Prior art keywords
song
music
data
environment
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003075380A
Other languages
English (en)
Other versions
JP3945429B2 (ja
Inventor
Shinya Sakurada
信弥 櫻田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003075380A priority Critical patent/JP3945429B2/ja
Publication of JP2004286784A publication Critical patent/JP2004286784A/ja
Application granted granted Critical
Publication of JP3945429B2 publication Critical patent/JP3945429B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】多くの情報を入力しなくても、ユーザの意向に合った曲が自動的に演奏され、また環境に合った曲が自動的に演奏開始されるようにする。
【解決手段】センサ群40によりユーザの環境が検出される。内部記憶装置21には、ユーザ識別データ、スケジュールデータ、曲の趣向データ、環境データ、反応データなどが関連付けられて個人データとして記憶されている。CPU15は、プログラム処理により、前記個人データを参照して検出環境およびユーザの嗜好に合った曲を選択して、選択された曲を自動演奏する。ユーザが曲を聴いた反応もセンサ群40およびキーボード12から入力され、同入力された反応に基づいて個人データ内の反応データは更新される。また、演奏の要求される環境の検出に応答して、環境に応じた曲が自動的に演奏開始される。
【選択図】 図2

Description

【0001】
【発明の属する技術分野】
本発明は、ユーザの嗜好,意向などを考慮して自動的に曲を選択し、同選択した曲を自動的に演奏する自動演奏装置および自動演奏プログラムに関する。
【0002】
【従来の技術】
従来から、「結婚祝い」、「家族へのメッセージ」などのシーン条件、「さわやか」、「ウキウキ」などのフィーリング条件、「ポップ」、「都会的」などのスタイル条件を入力し、前記条件に合った曲を自動的に作曲して演奏する自動演奏装置は知られている。また、前記のような条件を入力して、予め用意された曲を自動的に演奏する自動演奏装置も知られている(特許文献1〜3参照)。
【0003】
【特許文献1】
特許第3309766号公報
【特許文献2】
特開平11−119774号公報
【特許文献3】
特開2000−305568号公報
【0004】
【発明が解決しようとする課題】
しかし、上記従来の自動演奏装置にあっては、上述した各種条件情報すなわち演奏される曲の趣向を演奏のたびに入力する必要があり、ユーザは面倒な入力作業をする必要に強いられる。また、この面倒な入力作業を回避するために入力する条件を少なくすると、ユーザの意向に反した曲が演奏されるという問題もある。
【0005】
【発明の概要】
本発明は、上記問題に対処するためになされたもので、その目的は、多くの情報を入力しなくても、ユーザの意向に合った曲が自動的に演奏なされるようにした自動演奏装置および自動演奏プログラムを提供することにある。また、ユーザによる演奏開始のための入力操作をしなくても、演奏の要求される環境に合った曲が自動的に演奏開始される自動演奏装置および自動演奏プログラムを提供することにもある。
【0006】
上記目的を達成するために、本発明は、演奏されるべき曲を決定するための曲決定情報を記憶しておいて、前記記憶されている曲決定情報に基づいて演奏されるべき曲を決定して演奏する。そして、その特徴は、前記演奏された曲に対するユーザの反応を入力し、かつ前記入力したユーザの反応に応じて前記記憶されている曲決定情報を更新するようにしたことにある。
【0007】
この場合、前記曲決定情報は、例えば、ユーザが好むジャンル、雰囲気などの曲の趣向を表す個人別に記憶された趣向データである。また、前記ユーザの反応は、例えば、「好む」、「好まない」、「どちらでもない」などのユーザの評価、判断、嗜好などであり、これらが手入力されるようにするとよい。また、カメラのような視覚センサを用いてユーザの表情、身振りからユーザの反応を自動的に検出し、マイクロフォンのような聴覚センサを用いて音声からユーザの反応を自動的に検出し、または圧力センサ、スイッチなどのような触覚センサによりユーザの反応を自動的に検出して、これらの検出結果が自動的に入力されるようにしてもよい。また、曲の演奏は、予め用意されている複数組の曲データの中から一組の曲データを選択して再生してもよいし、曲を自動的に作曲して演奏してもよい。
【0008】
これによれば、ユーザが演奏された曲に対して反応すると、記憶されている曲決定情報は前記反応に応じて順次更新され、順次ユーザの嗜好に合ったものに変更されていく。このようなユーザの反応を学習することにより、ユーザは、演奏曲の趣向を入力する手作業を省略しても、嗜好に合った演奏曲を聴くことができるようになる。
【0009】
また、本発明の他の特徴は、前記曲決定情報を曲の趣向データおよび環境データで構成するとともに、趣向データを環境データに対応させて記憶しておく。そして、曲の演奏される環境を表す環境データを入力し、前記入力した環境データと、既に記憶されている趣向データおよび環境データとを照合して演奏されるべき曲を決定する。
【0010】
この場合、環境データは、曲の演奏される環境を手入力するようにしてもよいし、時計回路を含む各種センサにより自動的に検出されたものを用いてもよい。また、環境とは、天気、気温、明るさ、湿度などに加え、一日の時間帯(例えば、朝、昼、夜など)、曜日、季節、特定の日(例えば、誕生日、クリスマスなど)などである。また、この環境中には、ユーザが休憩中、目覚めたとき、部屋に入ったときなどのように、ユーザの行動も含まれる。この本発明の他の特徴によれば、前記本発明の効果に加えて、ユーザは、環境をも考慮して演奏される曲を聴くことができるようになる。
【0011】
また、本発明の他の特徴は、曲の演奏が要求される環境を自動的に検出して、、前記曲の演奏が要求される環境の検出に応答し、演奏される曲の決定および同決定した曲の演奏を開始させるようにしたことにある。
【0012】
この場合、曲の演奏が要求される環境は、時計回路を含む各種センサにより自動的に検出される。また、この場合の環境とは、一日の時間帯、特定の日、ユーザの行動などである。この本発明の他の特徴によれば、ユーザが演奏開始を指示するための入力操作をしなくても、曲の演奏が要求される環境になると、自動的に演奏される曲を聴くことができるようになる。また、この場合も、演奏曲が環境に応じて決定されるようにすれば、ユーザは環境に合った曲を聴くことができる。
【0013】
【発明の実施の形態】
以下、本発明の一実施形態に係る自動演奏装置について図面を用いて説明する。図1は、同実施形態に係る自動演奏装置の全体概略図である。この自動演奏装置は、本体11、キーボード12および表示器13からなるコンピュータ装置10を主体に構成されている。コンピュータ装置10には、音楽ロボット30およびセンサ群40が接続されている。
【0014】
本体11は、図2に示すように、キーボード12および表示器13を接続したバス14に接続されたCPU15、ROM16、RAM17、タイマ18、内部記憶装置21、外部記憶装置22および音源回路23を内蔵している。タイマ18は、本実施形態においては、図示しないプログラム処理と協働して、曲の演奏が要求される一日の時間帯(例えば、朝、昼、夜など)、曜日、季節、特定の日などの環境を検出する環境検出器を構成する。
【0015】
内部記憶装置21は、例えばハードディスクHDなどのような大容量の記録媒体とそのドライブ回路からなり、図3〜図6のプログラムを含む各種プログラム、同プログラムの実行時に利用される演奏曲を決定するための曲決定情報、同決定された曲を表す多数の曲データ、同決定された曲を自動作曲するための作曲パラメータなどを記憶している。各曲データは、音符に対応して楽音の発生開始および終了を示す演奏データ列からなる。これらのプログラム、曲データおよび作曲パラメータは、予め内部記憶装置21に記憶されていたり、外部記憶装置22から内部記憶装置21に供給されたり、後述するインターネット28を介して外部(例えば、配信サーバ)から供給されるものである。
【0016】
曲決定情報は、図7に示す曲決定情報記録エリアに記憶されており、同記憶エリアは個人データエリア、テーブルエリアおよびその他のエリアに分割されている。個人データエリアには、複数組の個人データが個人別に記憶されている。一組の個人データは、ユーザ識別データ、スケジュールデータ、趣向データ、環境データ、反応データ、曲選択データなどからなる。ユーザ識別データは、ユーザの識別コード、ユーザを顔、全身などの外形形状で識別するための識別データ、ユーザを音声により識別する識別データなどからなる。スケジュールデータは、ユーザの生活上における定期的および突発的なスケジュールを表す。
【0017】
趣向データは、「ポップ」、「都会的」などの曲のイメージおよびジャンル、「さわやか」、「ウキウキ」、「暗い」などのフィーリングなど、ユーザが好む曲の趣向を表すデータある。環境データは、天気、気温、明るさ、湿度などに加え、一日の時間帯(例えば、朝、昼、夜など)、曜日、季節、特定の日(例えば、誕生日、クリスマスなど)を表すデータである。また、この環境データ中には、ユーザが休憩中、目覚めたとき、部屋に入ったときなどのように、ユーザの行動を表すデータも含まれる。反応データは、「好む」、「好まない」、「どちらでもない」などのユーザの評価、判断、嗜好などを表すデータである。そして、これらの趣向データ、環境データおよび反応データは、互いに関連付けられて記憶されている。曲選択データは、曲を選択するための基準パラメータからなり、過去に選択された曲を指定するもので、環境データと反応データに関連させて記憶される。
【0018】
テーブルエリアには、演奏曲を選択(すなわち指定)するための基準パラメータが、曲のイメージ/ジャンルおよび環境別に記憶されている。この基準パラメータは、既存の曲を指定し、または新たな曲を作曲するためのものである。
【0019】
外部記憶装置22は、本体11に装着可能なコンパクトディスクCD、フレキシブルディスクFDなどの記録媒体と、同各記録媒体に対するドライブユニットを含む。音源回路23は、CPU15の制御のもとに供給される演奏データに基づいて楽音信号を形成するとともに、同形成された楽音信号に効果を付与して出力する。この音源回路23から出力された楽音信号は、本体11に組み付けられているスピーカ装置24から出力可能となっている。
【0020】
また、バス14には、ロボットインターフェース25、通信インターフェース26およびセンサインターフェース27も接続されている。ロボットインターフェース25は、バス14を介して供給される制御信号を音楽ロボット30に出力する。
【0021】
音楽ロボット30は、図1に示すように、指揮者に対応させた1つのコンダクターロボット31と、複数のスピーカロボット32とからなる。コンダクターロボット31は、指揮棒を有するとともにアクチュエータを内蔵していて、ロボットインターフェース25を介して供給される制御信号により指揮棒を振る。スピーカロボット32は、スピーカを有していて、音源回路23から出力されてロボットインターフェース25を介して供給される楽音信号に対応した楽音を発生する。また、スピーカロボット32は、ロボットインターフェース25に供給される他の音声信号に対応した音声を発生することも可能である。なお、これらの両ロボット31,32に、ランプ、表示器などを組み付けて外観を変更可能にしてもよいし、一部を可撓性部材で構成するとともにアクチュエータによって可撓性部材で構成した部分を動かすようにしてもよい。
【0022】
通信インターフェース26は、インターネット28を介して外部(例えば、配信サーバ)との交信を可能とする。センサインターフェース27には、この自動演奏装置が配置されていてユーザを含むユーザ周囲の状況を検出するためのマイクロフォン41、カメラ42、圧力センサ43、その他のセンサ44からなるセンサ群40が接続されている。マイクロフォン41は、聴覚センサを構成するもので、ユーザ自身を識別したり、ユーザの反応を入力したり、ユーザの周囲の他の音を認識したりするために周囲の音を入力する。カメラ42は、視覚センサを構成するもので、ユーザ自身を識別したり、ユーザの表情および動きを検出したり、ユーザの周囲の物体(たとえは、ユーザが暮らす部屋の備品、コーヒーメーカ、カレンダー、テーブルなど)に関する画像を入手したりするために撮影画像データを生成出力する。このカメラ42は、撮影方向を変更可能に構成され、および/または複数の異なる位置をそれぞれ撮影する複数のカメラにより構成されるとよい。
【0023】
圧力センサ43は、触覚センサを構成するもので、例えば音楽ロボット30に組み付けられていて、ユーザの曲に対する反応(例えば、ユーザが音楽ロボット30を撫でる、叩くなど)を入力するために用いられる。なお、この圧力センサ43に代えて、スイッチを用いるようにしてもよい。その他のセンサ44としては、気温を検出する温度センサ、湿度を検出する湿度センサ、明るさを検出する明度センサなどがある。
【0024】
次に、上記のように構成した実施形態の動作を説明する。図示しない電源スイッチの投入により、コンピュータ装置10、音楽ロボット30およびセンサ群40に作動を開始させるために電力が供給される。コンピュータ装置10においては、CPU15が、図3のメインプログラムの実行をステップ100にて開始し、ステップ102による初期設定処理後、ステップ104〜110からなる循環処理を繰り返し実行し始める。
【0025】
ステップ104においては、キーボード12、マイクロフォン41およびカメラ42を用いた個人データの受付け処理が実行される。この処理により、ユーザによるキーボード12の操作によって、ユーザが登録されて個人識別データとしてユーザの識別コードが個人データエリアに記憶される。また、必要に応じて、ユーザを聴覚的に認識することを可能にするためにマイクロフォン41からのユーザの音声データ、および/またはユーザを視覚的に認識することを可能にするためにカメラ42からのユーザの画像データも前記識別コードと共に記憶される。
【0026】
また、このステップ104の処理において、ユーザは、キーボード12を操作して、スケジュールデータ、趣向データおよび環境データを入力する。この際、スケジュールデータ、趣向データおよび環境データとの相互の関係も入力する。これらの入力データは個人データエリアに記憶される。なお、キーボード12の操作により、この個人データに関する追加および変更はいつでも可能である。なお、前記スケジュールデータ、趣向データ、環境データおよびこれらのデータの相互関係の入力においても、マイクロフォン41からの音声信号に基づく音声認識、カメラ42からの画像データに基づく画像処理結果を用いてもよい。
【0027】
ステップ106の設定処理は、センサ群40から入力された情報を処理するとともに、センサ群40から入力された情報および個人データに基づいて演奏される曲を決定する処理である。ステップ108の確定処理は、前記決定された曲に関する曲データを生成してRAM17に記憶させる処理である。なお、この曲データは楽音の発生開始および終了を表す演奏データ列からなる。そして、ステップ110の演奏処理において、前記RAM17に記憶された曲データを時間経過に従って(すなわち音楽の進行に従って)順次読み出して、音源回路23に出力する。これにより、前記決定された曲が自動的に演奏されて、スピーカ装置24およびスピーカロボット32から演奏音が発生される。以下、ステップ106の設定処理およびステップ108の確定処理について詳しく説明する。
【0028】
前記ステップ106の設定処理は、図4に詳細に示すように、ステップ200にて開始され、ステップ202にて演奏開始条件が成立したか否かを判定する。この判定には、大別すると2種類の方法がある。第1の方法は、ユーザの演奏開始の意思に基づくもので、マイクロフォン41、カメラ42、圧力センサ43またはキーボード12からの入力信号に基づいて、演奏開始の指示があったかを判定する。具体的には、マイクロフォン41で入力した音声信号を用いた音声認識により、カメラ42で撮影したユーザの身振りの画像認識により、圧力センサ43で検出したユーザの操作により、またはキーボード12のユーザによる入力操作により、ユーザによる演奏開始の指示を判定する。
【0029】
第2の方法は、マイクロフォン41、カメラ42、その他のセンサ44、またはタイマ18との協働によるプログラム処理により計算される日、時刻、時間帯などを用いて、ユーザの環境変化を自動的に検出するものである。具体的には、マイクロフォン41、カメラ42およびその他のセンサ44(特に、明度センサ)に出力に従って、ユーザの行動(例えば、ユーザの休憩中、起床、入室、部屋の照明点灯)を検出して、演奏開始条件成立とする。また、前記計算された日、時刻、時間帯などに基づく特定の日、時刻、時間帯などの検出により演奏開始条件成立とする。さらに、前記特定の日、時刻、時間帯に前記ユーザの行動の検出を加えて演奏開始条件成立とする。
【0030】
前記ステップ202にて「Yes」すなわち演奏開始条件成立と判定されると、ステップ204以降の処理を実行する。ステップ204においては、個人データエリアに記憶されている複数組のユーザ識別データを参照して、キーボード12からの入力、マイクロフォン41からの音声信号を用いた音声認識結果、またはカメラ42からの画像信号に基づく画像解析結果に対応したユーザを特定する。
【0031】
ステップ206においては、キーボード12、マイクロフォン41およびカメラ42からの入力信号に基づいて、前記ステップ106の場合と同様な処理により、ユーザの演奏曲に対する趣向を受け付ける。なお、この趣向受け付け処理は必ず行われるものではなく、ユーザが前記趣向の入力を行わなければ、このステップ106の処理は行われない。次に。ステップ208にて、前記特定したユーザに関する過去の個人データを内部記憶装置21から読み出して、RAM17に書き込む。
【0032】
ステップ210においては、マイクロフォン41、カメラ42、圧力センサ43およびその他のセンサ44からの信号を入力するとともに、タイマ18を用いたプログラム処理によって計算した日、時刻、時間帯、季節などの情報に基づいて、現在のユーザの環境を検出する。また、前記ステップ206の処理により趣向を受け付けている場合には、このステップ210において、この検出した環境を表す環境データを、前記受け付けた趣向を表す趣向データとともに、個人データとして内部記憶装置21に追加記憶しておく。
【0033】
このステップ210の処理後、ステップ212にて曲選択データ確定ルーチンを実行する。この曲選択データ確定ルーチンは、図5に詳細に示されているように、ステップ250にて開始される。この開始後、ステップ252にて、前記RAM17内に書き込んだ個人データを検索することにより、前記検出したユーザの環境に合致した曲選択データ(すなわち、過去に選択されたことのある曲選択データ)が存在するかを判定する。この場合、前記ステップ206にて趣向を受け付けている場合には、同受け付けた趣向も考慮して曲選択データの存在の判定を行う。なお、曲選択データは、予め用意されている曲を選択または新たな曲を選択するための前記テーブルエリアに記憶されている一つまたは複数の基準パラメータからなる。
【0034】
該当する曲選択データが個人データ内に存在していれば、ステップ254において、前記個人データの中から曲選択データを読み出して、曲選択データを確定する。一方、該当する曲選択データが個人データ内に存在しなければ、ステップ256において、前記RAM17に書き込んだ過去の個人データおよびテーブルエリア内の基準パラメータを参照して、前記検出した現在の環境に合致した曲を選択するための一つまたは複数の基準パラメータからなる曲選択データを絞り込んで確定する。また、前記ステップ206にて趣向を受け付けている場合には、同受け付けた趣向も考慮して曲選択データを絞り込んで確定する。前記ステップ254,256の処理後、ステップ258にてこの曲選択データ確定ルーチンの実行を終了する。
【0035】
前記図5のステップ258の処理後、図4ステップ228にて設定処理ルーチンの実行を終了し、図3のステップ108の確定処理ルーチンを実行する。この確定処理ルーチンは図6に詳細に示されており、その実行がステップ300にて開始される。
【0036】
ステップ302においては、前記確定した曲選択データが新規であるかを判定する。この場合、後述するように、過去に利用された曲選択データは曲データと対応付けて内部記憶装置21に記憶されているので、この判定は、内部記憶装置21内に記憶されている曲選択データを参照すればよい。
【0037】
曲選択データが新規である場合、ステップ304にて、前記図3のステップ104および前記図4のステップ206の処理によって入力された個人データエリア内の趣向データに基づいて、曲選択データに基づく曲の選択が自動作曲による曲の選択指示か否かを判定する。自動作曲が曲の選択指示であれば、ステップ306にて自動作曲エンジン(すなわち自動作曲プログラム)に対して、前記確定された曲選択データが供給される。したがって、自動作曲エンジンは、供給された曲選択データに基づいて曲を作曲する。そして、ステップ310の処理により、前記作曲した曲を表す曲データは曲選択データと共にRAM17および内部記憶装置21に書き込まれる。
【0038】
自動作曲が曲の選択指示でなければ、ステップ308にて曲選択エンジン(すなわち曲選択プログラム)に対して、前記確定された曲選択データが供給される。したがって、曲選択エンジンは、供給された曲選択データに基づいて内部記憶装置21に記憶されている複数の曲データの中から一つの曲データを選択して、選択した曲データを内部記憶装置21から読み出す。なお、曲選択エンジンは、外部記憶装置22に記憶されている曲データを読み出し、あるいは通信インターフェース26およびインターネット28を介して外部(例えば、配信サーバ)から曲データを入力することもできる。そして、ステップ310の処理により、前記内部記憶装置21もしくは外部記憶装置22から読み出した曲データ、または外部から入力した曲データは曲選択データと共にRAM17に書き込まれるとともに、外部記憶装置22および外部からの曲データは内部記憶装置21にも書き込まれる。
【0039】
一方、曲選択データが新規でない場合、ステップ312にて、前記のように内部記憶装置21に書き込まれている曲選択データに対応した曲データが読み出されて、RAM17に書き込まれる。なお、既にRAM17に書き込まれていれば、RAM17への書き込みは省略される。前記ステップ310,312の処理後、ステップ314にてこの確定処理ルーチンの実行を終了する。
【0040】
この確定処理ルーチンの実行終了後、図3のステップ110の演奏処理を実行する。ステップ110においては、前記RAM17に記憶された曲データを時間経過に従って(すなわち音楽の進行に従って)順次読み出して、音源回路23に出力する。音源回路23は供給された曲データに応じて楽音信号を生成して、同楽音信号に対応した楽音をスピーカ装置24およびスピーカロボット32から発生させる。したがって、ユーザは自動演奏された曲を聴くことができる。また、この曲の演奏と同時に、表示器13により曲に合わせた表示を行うようにするとよい。
【0041】
このような説明からも理解できるとおり、内部記憶装置21にユーザに関する個人データおよび曲を指定する基準パラメータなどからなる曲決定情報を記憶しておいて、ステップ202の処理により演奏開始条件が成立すると、前記曲決定情報を用いてユーザの趣向および環境に応じた曲が選択されて自動演奏される。したがって、ユーザは、環境を考慮して演奏される曲を聴くことができるようになる。
【0042】
また、前記ステップ202の処理においては、曲の演奏が要求される環境が自動的にも検出されて、この検出に応答し、検出された環境に応じた曲が演奏される。これによれば、ユーザが演奏開始を指示するための入力操作をしなくても、曲の演奏が要求される環境になると、自動的に演奏される曲を聴くことができるようになる。
【0043】
次に、ユーザが前記自動演奏された曲を聴いている最中または聴いた後に、演奏曲に対する反応を示した場合について説明する。このユーザの反応は、マイクロフォン41、カメラ42および圧力センサ43からの信号を介してコンピュータ装置10に入力される。すなわち、ユーザが、「好む」、「好まない」、「どちらでもない」などの演奏曲に対する評価、判断、嗜好を示す発言、歓声、拍手を発したり、表情または身振りを示すと、これらの反応はマイクロフォン41またはカメラ42からの信号に基づいてコンピュータ装置10により認識される。また、圧力センサ43を配置した音楽ロボット30に対して、ユーザが演奏曲に対して「好む」ことを示す「撫でる」行為をしたり、「好まない」ことを示す「叩く」行為を行うと、これらの行為は圧力センサ43からの検出信号に基づいてコンピュータ装置10によって認識される。また、ユーザがキーボード12を操作して、前記のような反応を入力してもよい。
【0044】
前記のようなユーザによる反応に対し、CPU15は、図4のステップ214にて「Yes」すなわち「反応あり」と判定して、ステップ216以降の処理を実行する。ステップ216においては、マイクロフォン41からの音声信号に基づく音声認識、カメラ42からの画像信号に基づく画像認識、圧力センサ43からの圧力検出信号に基づくユーザの行動解析、またはキーボード12からの入力を、ユーザの反応を表す情報(例えば、「好む」、「好まない」、「どちらでもない」を表す情報)に変換する。そして、ステップ218にて、前記ユーザの反応を表す反応データを、現在選択されている曲選択データおよび現在の環境データと関連付けてRAM17および内部記憶装置21内に個人データとして書き込んでおく。
【0045】
前記ステップ218の処理後、前記変換された反応データに基づいて、ステップ220,222で良い反応であったか、悪い反応であったかを判定する。良い反応であれば、ステップ220にて「Yes」と判定してステップ228にてこの設定処理ルーチンの実行を終了する。
【0046】
逆に、悪い反応であれば、ステップ222にて「Yes」と判定して、ステップ224にて曲選択データ確定ルーチンを実行した後、ステップ228にてこの設定ルーチンの実行を終了する。したがって、この場合には、前述した曲選択データ確定ルーチンを再度実行することにより新たな曲選択データを確定させて、前述した確定処理ルーチンおよび演奏処理ルーチン(図3および図6参照)を実行して、新たな曲の演奏をユーザに提示する。
【0047】
また、良い反応でも、悪い反応でもなければ、ステップ218,220にて共に「No」と判定して、ステップ226の処理を実行した後、ステップ228にてこの設定処理ルーチンの実行を終了する。ステップ226は、その他の反応に対応した処理を行うものであるが、例えば、「どちらでもない」という反応であれば、前述した曲選択データの確定の際における状況に応じて現在選択されている曲の演奏を続けたり、前記新たな曲の選択を行う。具体的には、曲選択データの選択の過程において複数の候補が挙がっていた場合には、新たな曲の選択を行う。しかし、単一候補のみが挙がっていた場合には、現在選択されているの曲の演奏を続ける。
【0048】
このようなステップ214〜226の処理により、演奏された曲に対するユーザの反応に応じて、曲決定情報である個人データは順次更新され、順次ユーザの嗜好に合ったものに変更されていく。このようなユーザの反応を学習することにより、ユーザは、演奏曲の趣向を入力する手作業を省略しても、嗜好に合った演奏曲を聴くことができるようになる。
【0049】
上記実施形態は以上のように動作するものであるが、本発明のより一層の理解のために、図8〜図14のイメージ図を参照しながら、自動演奏装置の3種類の具体的作動例を説明しておく。第1の作動例は図8,9に示すように、休日の午後、ユーザがコーヒーを飲む際に、曲が自動的に演奏される例を時系列的に示している。この場合、タイマ18を用いたプログラム処理により、休日、時刻などが検出される。また、この休日は、曜日によって検出してもよいし、個人データ内のスケジュールデータと前記プログラム処理による日付の検出とを用いてもよい。さらに、カメラ42による撮影により、ユーザがコーヒーメーカからコーヒーを取り出すことを検出している。そして、このような環境の検出により、曲の演奏開始要求が自動的に検出される。
【0050】
また、温度センサ、湿度センサなどのその他のセンサ44により、天候が検出される。そして、上記演奏開始を決定するための環境に加えて、この天候に関する環境を合わせて、「雨に歌えば」の曲が選択される。そして、選択曲が自動的に演奏開始されるとともに、曲の演奏開始に伴い、音楽ロボット30が動作を開始する。この曲の演奏に対して、ユーザが反応すると、この反応が学習されて次からの演奏曲の選択に利用される。
【0051】
第2の作動例は図10〜12に示すように、ユーザの早朝出張時の例を時系列的に示している。この場合、カメラ42によるカレンダーおよびユーザの行動の撮影画像と、タイマ18を用いたプログラム処理による日時の検出により、曲の演奏開始要求が自動的に検出される。また、出張予定を個人データ内のスケジュールデータに基づいて検出してもよい。
【0052】
このような環境の検出に基づいて、ユーザが起床することを促すために、「カルメン序曲」の曲が選択される。そして、選択曲が自動的に演奏開始されるとともに、曲の演奏開始に伴い、音楽ロボット30が動作を開始する。その後、カメラ42からの画像情報およびマイクロフォン41からの音声信号により、ユーザが出発したことを検出して、曲の演奏を終了する。
【0053】
第3の作動例は図13,14に示すように、ユーザの誕生日の夜に、曲が自動的に演奏される例を時系列的に示している。この場合、カメラ42によるカレンダーおよび周囲の状況変化の撮影画像と、マイクロフォン41によるドアを開けた音の認識、明度センサによる明るさの検出により、曲の演奏開始要求が自動的に検出される。また、誕生日を個人データ内のスケジュールデータに基づいて検出してもよい。
【0054】
そして、上記演奏開始を決定するための環境に加えて、ユーザの嗜好に従って、新たな曲が作曲されて、同作曲された曲が自動的に演奏開始されるとともに、曲の演奏開始に伴い、音楽ロボット30が動作を開始する。この曲の演奏に対しても、ユーザが反応すると、この反応が学習されて次からの演奏曲の選択に利用される。
【0055】
さらに、本発明の実施にあたっては、上記実施形態及びその変形例に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。
【0056】
例えば、上記実施形態においては、既存の曲データを選択し、または新たな曲を作曲するための基準パラメータから構成される曲選択データ中に、曲データそのものを直接表す曲名データを含ませておいてもよい。そして、曲選択データとして曲名データが環境データなどにより指定された場合、図6のステップ306,308,312の処理において、この曲名データにより曲データを直接取得すればよい。また、図6のステップ306の処理の場合、曲名データによって指定される曲データをアレンジして新たな曲を作曲するようにしてもよい。
【0057】
また、上記実施形態においては、音楽ロボット30を使用するようにした。しかし、コンピュータ装置10内のスピーカ装置24を用いて音声を発生できるので、音楽ロボット30は必ずしも必要ではない。
【0058】
また、上記実施形態では、パーソナルコンピュータを用いて本発明に係る自動演奏装置を実現するようにした。しかし、この自動演奏装置はコンピュータ機能を備えるとともに音源回路23を備えていれば足りるので、パーソナルコンピュータに代えて、電子楽器、シーケンサ装置、カラオケ装置など種々の機器を用いることができる。また、専用の自動演奏装置で構成してもよい。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る自動演奏装置の全体概略図である。
【図2】前記自動演奏装置のブロック図である。
【図3】図1のコンピュータ装置によって実行されるメインプログラムのフローチャートである。
【図4】図3の設定処理ルーチンの詳細を示すフローチャートでである。
【図5】図4の曲選択データ確定ルーチンの詳細を示すフローチャートである。
【図6】図3の確定処理ルーチンの詳細を示すフローチャートである。
【図7】図1の内部記憶装置における曲決定情報記憶エリアのデータフォーマットである。
【図8】(A)〜(E)は前記自動演奏装置の作動を説明するための一作動例の前半を概念的に表すイメージ図である。
【図9】(A)〜(E)は前記一作動例の後半を概念的に表すイメージ図である。
【図10】(A)〜(E)は前記自動演奏装置の作動を説明するための他の作動例の前部を概念的に表すイメージ図である。
【図11】(A)〜(E)は前記他の作動例の中間部を概念的に表すイメージ図である。
【図12】(A)〜(E)は前記他の作動例の後部を概念的に表すイメージ図である。
【図13】(A)〜(E)は前記さらに他の作動例の前半を概念的に表すイメージ図である。
【図14】(A)〜(E)は前記さらに他の作動例の後半を概念的に表すイメージ図である。
【符号の説明】
10…コンピュータ装置、12…キーボード、13…表示器、15…CPU,16…ROM,17…RAM、18…タイマ、21…内部記憶装置、22…外部記憶装置、30…音楽ロボット、40…センサ群、41…マイクロフォン、42…カメラ、43…圧力センサ。

Claims (6)

  1. 演奏されるべき曲を決定するための曲決定情報を記憶した記憶手段と、
    前記記憶手段に記憶されている曲決定情報に基づいて演奏されるべき曲を決定する曲決定手段と、
    前記決定された曲を演奏する演奏手段と、
    前記演奏された曲に対するユーザの反応を入力する反応入力手段と、
    前記入力したユーザの反応に応じて前記記憶手段に記憶されている曲決定情報を更新する更新手段と
    を備えた自動演奏装置。
  2. 請求項1に記載した自動演奏装置において、さらに
    曲の演奏される環境を表す環境データを入力する環境データ入力手段を備え、
    前記曲決定情報は曲の趣向データおよび環境データからなって、前記記憶手段は前記趣向データを前記環境データに対応させて記憶するものであり、
    前記更新手段は前記趣向データを前記環境データに対応させて更新するものであり、かつ
    前記曲決定手段は前記環境データ入力手段によって入力される環境データと、前記記憶手段に記憶されている趣向データおよび環境データとを照合して演奏されるべき曲を決定するものである自動演奏装置。
  3. 請求項1に記載した自動演奏装置において、さらに
    曲の演奏が要求される環境を自動的に検出する環境検出手段と、
    前記曲の演奏が要求される環境の検出に応答し、前記曲決定手段による曲の決定および前記演奏手段による曲の演奏を開始させる開始手段と
    を備えた自動演奏装置。
  4. 曲が演奏される環境に対応させて演奏されるべき曲を決定するための曲決定情報を記憶した記憶手段と、
    曲の演奏が要求される環境を自動的に検出する環境検出手段と、
    前記曲の演奏が要求される環境の検出に応答し、前記記憶手段に記憶されている曲決定情報を参照して前記検出された曲の演奏が要求される環境に応じた曲を決定する曲決定手段と、
    前記決定された曲を演奏する演奏手段と
    を備えた自動演奏装置。
  5. 演奏されるべき曲を決定するための曲決定情報を記憶した記憶装置を有するコンピュータ装置に適用された自動演奏プログラムにおいて、
    前記記憶装置に記憶されている曲決定情報に基づいて演奏されるべき曲を決定する曲決定ステップと、
    前記決定された曲を演奏させる演奏ステップと、
    前記演奏された曲に対するユーザの反応を入力する反応入力ステップと、
    前記入力したユーザの反応に応じて前記記憶装置に記憶されている曲決定情報を更新する更新ステップと
    を含む自動演奏プログラム。
  6. 曲が演奏される環境に対応させて演奏されるべき曲を決定するための曲決定情報を記憶した記憶装置を有するコンピュータ装置に適用された自動演奏プログラムにおいて、
    環境検出器による曲の演奏が要求される環境の自動的検出に応答し、前記記憶装置に記憶されている曲決定情報を参照して前記検出された曲の演奏が要求される環境に応じた曲を決定する曲決定ステップと、
    前記決定された曲を演奏させる演奏ステップと
    を含む自動演奏プログラム。
JP2003075380A 2003-03-19 2003-03-19 自動演奏装置および自動演奏プログラム Expired - Fee Related JP3945429B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003075380A JP3945429B2 (ja) 2003-03-19 2003-03-19 自動演奏装置および自動演奏プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003075380A JP3945429B2 (ja) 2003-03-19 2003-03-19 自動演奏装置および自動演奏プログラム

Publications (2)

Publication Number Publication Date
JP2004286784A true JP2004286784A (ja) 2004-10-14
JP3945429B2 JP3945429B2 (ja) 2007-07-18

Family

ID=33290707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003075380A Expired - Fee Related JP3945429B2 (ja) 2003-03-19 2003-03-19 自動演奏装置および自動演奏プログラム

Country Status (1)

Country Link
JP (1) JP3945429B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053815A (zh) * 2017-12-12 2018-05-18 广州德科投资咨询有限公司 一种机器人的演奏控制方法及机器人

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053815A (zh) * 2017-12-12 2018-05-18 广州德科投资咨询有限公司 一种机器人的演奏控制方法及机器人

Also Published As

Publication number Publication date
JP3945429B2 (ja) 2007-07-18

Similar Documents

Publication Publication Date Title
JP5485913B2 (ja) 環境内のムード及びソーシャルセッティングに適した雰囲気を自動生成するためのシステム及び方法
CN105204357B (zh) 智能家居设备的情景模式调整方法及装置
EP1736961B1 (en) System and method for automatic creation of digitally enhanced ringtones for cellphones
CN109643533B (zh) 用于单元作曲的装置和方法
JP4247626B2 (ja) 再生装置および再生方法
JP4306754B2 (ja) 楽曲データ自動生成装置及び音楽再生制御装置
JP7424359B2 (ja) 情報処理装置、歌唱音声の出力方法、及びプログラム
JP2008170685A (ja) 音声評価装置及びカラオケ装置
WO2017028686A1 (zh) 一种信息处理方法、终端设备及计算机存储介质
JP2008090633A (ja) 動きデータ生成装置、動きデータ生成方法及び動きデータ生成プログラム
JP7363954B2 (ja) 歌唱合成システム及び歌唱合成方法
KR102495888B1 (ko) 사운드를 출력하기 위한 전자 장치 및 그의 동작 방법
JP4496993B2 (ja) 楽音制御装置
JP6314837B2 (ja) 記憶制御装置、再生制御装置および記録媒体
JP2014130467A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
WO2020054409A1 (ja) 音響イベント認識装置および方法、並びにプログラム
JP3945429B2 (ja) 自動演奏装置および自動演奏プログラム
JP2006251376A (ja) 楽音制御装置
JP6352164B2 (ja) 聴取者評価を考慮したカラオケ採点システム
CN113781989A (zh) 一种音频的动画播放、节奏卡点识别方法及相关装置
JP2006251054A (ja) 楽音制御装置
JP6713032B2 (ja) 雰囲気コントロールが可能な音源ミキシング方法およびシステム
JP2006106411A (ja) 音出力制御装置、楽曲再生装置、音出力制御方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP2007233078A (ja) 評価装置、制御方法及びプログラム
JP2023174364A (ja) カラオケ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070402

R150 Certificate of patent or registration of utility model

Ref document number: 3945429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110420

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120420

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130420

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140420

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees