JP2018054906A - サーバ装置、情報処理端末、システム、および方法 - Google Patents

サーバ装置、情報処理端末、システム、および方法 Download PDF

Info

Publication number
JP2018054906A
JP2018054906A JP2016191218A JP2016191218A JP2018054906A JP 2018054906 A JP2018054906 A JP 2018054906A JP 2016191218 A JP2016191218 A JP 2016191218A JP 2016191218 A JP2016191218 A JP 2016191218A JP 2018054906 A JP2018054906 A JP 2018054906A
Authority
JP
Japan
Prior art keywords
music
parameter
information processing
processing terminal
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016191218A
Other languages
English (en)
Other versions
JP2018054906A5 (ja
Inventor
慧 渡部
Akira Watanabe
慧 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2016191218A priority Critical patent/JP2018054906A/ja
Priority to PCT/JP2017/005687 priority patent/WO2018061241A1/ja
Priority to US16/331,096 priority patent/US20190205089A1/en
Priority to CN201780060565.0A priority patent/CN109791759A/zh
Publication of JP2018054906A publication Critical patent/JP2018054906A/ja
Publication of JP2018054906A5 publication Critical patent/JP2018054906A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/041Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal based on mfcc [mel -frequency spectral coefficients]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • G10H2210/115Automatic composing, i.e. using predefined musical rules using a random process to generate a musical note, phrase, sequence or structure
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/081Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/095Identification code, e.g. ISWC for musical works; Identification dataset
    • G10H2240/101User identification
    • G10H2240/105User profile, i.e. data about the user, e.g. for user settings or user preferences

Abstract

【課題】生成される楽曲に対するユーザの飽きを抑制し得る、楽曲を生成する技術を提供すること。【解決手段】サーバ装置(150)は、通信インターフェイス(370)と、記憶装置(380)と、制御部(360)とを備える。記憶装置は、通信インターフェイスを介して取得した、音声を出力可能な情報処理端末(100)の状態履歴を記憶する。制御部は、状態履歴に基づいて楽曲パラメータを決定し(S4)、決定した楽曲パラメータに基づいて生成された楽曲を、通信インターフェイスを介して情報処理端末に送信する(S6)ように構成される。【選択図】図1

Description

この開示は、楽曲を再生可能な端末を制御する技術に関し、より特定的には、楽曲を生成するためのパラメータを決定するための技術に関する。
近年、コンピュータなどの計算手段を用いた自動作曲が注目されている。この自動作曲を行なうアプリケーションは、基本的には一から作曲を行なう訳ではなく、楽曲を作成するための膨大なメロディやリズムなどを、ユーザの指示(指標)に従い、組み合わせて作曲を行なうものである。
自動作曲技術に関し、特開2015−079130号公報(特許文献1)は、歌詞の入力およびパラメータの指定を行なわれると、入力された歌詞を構成する複数の形態素に各々に対し、少なくとも音高を含む楽音情報を生成し、指定されたパラメータに基づいて、前記歌詞に対応して生成された複数の楽音情報を一括して補正する楽音情報生成装置を開示している(「要約」参照)。
特開2007−334685号公報(特許文献2)は、ユーザが選択したエージェントキャラクタの楽曲嗜好性に対応付けられているキーワード関連付けリストからキーワードを抽出し、抽出キーワードによりデータベースから、エージェントキャラクタの楽曲嗜好性に適合した属性の楽曲を検索するコンテンツ検索装置を開示している(「要約」参照)。
特開2015−079130号公報 特開2007−334685号公報
しかしながら、特許文献1に開示される技術は、ユーザの選択(嗜好性)に従って楽曲を生成する技術であるため、生成される複数の楽曲が互いに似通ってしまう。そのため、ユーザが生成される楽曲に飽きてしまう可能性がある。
特許文献2に開示される技術は、複数の楽曲(コンテンツ)の中からユーザの嗜好性に従い一の楽曲を選択する技術であって、そもそも楽曲を生成する技術ではない。
本開示は、上記のような問題を解決するためになされたものであって、ある局面における目的は、ユーザが飽きにくい楽曲を生成する技術を提供することである。
ある実施形態に従うサーバ装置は、通信インターフェイスと、記憶装置と、制御部とを備える。前記記憶装置は、前記通信インターフェイスを介して取得した、音声を出力可能な情報処理端末の状態履歴を記憶する。前記制御部は、前記状態履歴に基づいて楽曲パラメータを決定し、前記決定した楽曲パラメータに基づいて生成された楽曲を、前記通信インターフェイスを介して前記情報処理端末に送信するように構成される。
ある実施形態に従うサーバ装置は、互いに類似しない複数の楽曲を生成し得る。これにより、このサーバ装置は、生成される楽曲に対するユーザの飽きを抑制し得る。
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。
ある実施形態に従う楽曲生成の制御について説明する図である。 ある実施形態に従う制御システムの構成例を説明する図である。 ある実施形態に従う端末およびサーバのハードウェア構成例を説明する図である。 他の実施形態に従うサーバのハードウェア構成を説明する図である。 ある実施形態に従うイベント履歴テーブルを説明する図である。 ある実施形態に従うイベント履歴テーブルの更新方法を説明する図である。 ある実施形態に従うパラメータ決定テーブルを説明する図である。 ある実施形態に従う楽曲パラメータを決定する制御について説明する図である。 ある実施形態に従う楽曲を生成するための制御を説明するフローチャートである。 ある実施形態に従う制御システムを他の観点から説明する図である。 ある実施形態に従う端末およびサーバの構成を説明する図である。 ある実施形態に従う機器管理DBを説明する図である。 ある実施形態に従う種別パラメータテーブルを説明する図である。 ある実施形態に従う履歴楽曲パラメータと、種別パラメータとに基づいて楽曲パラメータを決定する制御について説明する図である。 ある実施形態に従うユーザパラメータテーブルを説明する図である。 ある実施形態に従う楽曲を生成するためのサーバにおける制御を説明するフローチャートである。 ある実施形態に従う端末の構成例について説明する図である。 ある実施形態に従う端末において楽曲を生成する制御について説明するフローチャートである。
以下、この発明の実施形態について図面を参照しながら詳細に説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
[技術思想]
図1は、ある実施形態に従う楽曲生成の制御について説明する図である。図1を参照して、端末100とサーバ150とは、互いに通信可能に構成される。端末100は、情報処理が可能な端末であり得る。ある実施形態において、端末100は、掃除機、電子レンジ、冷蔵庫、洗濯機、エアコンディショナ、空気清浄器、炊飯器、テレビ、スマートフォン、タブレット、パーソナルコンピュータ、その他の家庭用電気製品であり得る。図1に示される例において、端末100は、掃除機であるとする。
ある実施形態において、サーバ150は、楽曲パラメータに従い楽曲を生成可能に構成される。「楽曲パラメータ」とは、楽曲を生成可能なアプリケーションにおいて、楽曲を生成するために必要なパラメータのことをいう。
ステップS1において、端末100は、予め設定されたイベント(例えば、掃除動作、充電切れ等)が生じると、その旨を知らせるイベント情報をサーバ150に送信する。
ステップS2において、サーバ150は、受信したイベント情報を後述する記憶装置の中の履歴テーブルTA1に格納する。履歴テーブルTA1は、端末100のイベントと、時刻とを互いに関連付けて保持する。これにより、サーバ150は、端末100の履歴を有する。
ステップS3において、端末100は、サーバ150に対して楽曲を生成させるための楽曲リクエストを送信する。
ステップS4において、サーバ150は、楽曲リクエストの受信に応じて、履歴テーブルTA1に基づいて、すなわち、端末100の履歴に基づいて楽曲パラメータを決定する。
ステップS5において、サーバ150は、決定した楽曲パラメータに基づいて、楽曲を生成する。ステップS6において、サーバ150は、生成した楽曲(楽曲データ)を端末100に送信する。ステップS7において、端末100は、受信した楽曲をスピーカ等の音声出力装置から再生(出力)する。
上記によれば、ある実施形態に従うサーバ150は、端末100の履歴に基づいて楽曲を生成する。端末100の履歴は、時間とともに適宜更新される。そのため、サーバ150によって生成される複数の楽曲は、その時々の端末100の履歴に応じて異なる傾向の楽曲が生成され得る。これにより、このサーバ装置は、生成される楽曲に対するユーザの飽きを抑制し得る。
また、ユーザが楽曲を生成可能なサーバと通信可能な端末を複数所有する場合もあり得る。仮に、サーバが単にユーザの嗜好性に応じた楽曲を生成する場合、これら複数の端末の各々で再生される楽曲は互いに類似してしまう。そのため、ユーザが生成される楽曲に対して飽きてしまう可能性がある。
しかし、ある実施形態に従うサーバ150は、各々の端末の履歴に基づいて楽曲を生成する。一般的に、ユーザは、端末の種類(例えば、掃除機と冷蔵庫)に応じて、異なる使い方をする。そのため、生成された複数の楽曲は、互いに異なる傾向になり得る。これにより、ある実施形態に従うサーバ150は、ユーザが複数の端末100を所有する場合であっても、生成される楽曲に対するユーザの飽きを抑制し得る。以下、楽曲パラメータの決定方法について具体的に説明する。
[実施形態1−履歴に基づく楽曲パラメータの決定]
(制御システム)
図2は、ある実施形態に従う制御システム200の構成例を説明する図である。図2を参照して、制御システム200は、サーバ150と、ルータ220−1〜220−3と、端末100−1〜100−9とを備える。以下、ルータ220−1〜220−3を総称して、「ルータ220」とも言う。端末100−1〜100−9を総称して、「端末100」とも言う。
端末100−1〜100−3はそれぞれ、ルータ220−1に接続される。端末100−4〜100−6はそれぞれ、ルータ220−2に接続される。端末100−7〜100−9はそれぞれ、ルータ220−3に接続される。端末100とルータ220とは、有線または無線で接続される。
サーバ150は、ネットワーク210を介してルータ220と接続される。端末100は、間接的にサーバ150と接続される。
なお、図2に示される例では、ルータ220に端末100が3個ずつ接続される構成であるが、ルータ220に接続される端末100の数はこれに限られない。ルータ220がローカルIP(Internet Protocol)アドレスを割り当てることができる範囲内で、ルータ220に接続される端末100の数は変更可能である。
図3は、ある実施形態に従う端末100およびサーバ150のハードウェア構成例を説明する図である。
(端末のハードウェア構成)
端末100は、CPU(Central Processor Unit)310と、ROM(Read Only Memory)315と、RAM(Random Access Memory)320と、入力I/F325と、スピーカ330と、マイク335と、バッテリ340と、通信I/F345とを備える。
CPU310は、端末100の動作を制御する制御部として機能する。ある局面において、CPU310は、ROM315に格納される制御プログラムを読み出して実行することにより、イベント管理部312として機能し得る。
イベント管理部312は、端末100において予め設定されたイベントが生じたことを検知し、その旨を知らせるイベント情報をサーバ150に送信する。
ROM315は、CPU310が実行する制御プログラムと、複数の端末100の各々を識別するための機器ID317と格納し得る。ある局面において機器ID317は、端末100(通信I/F345)のMAC(Media Access Control)アドレスであり得る。
RAM320は、CPU310が制御プログラムを実行するために必要なデータを一時的に記憶するワーキングメモリとして機能する。
入力I/F325は、ユーザの入力を受け付けるためのインターフェイスである。ある局面において、入力I/F325は、図示しない赤外線リモートコントローラからの入力を受け付ける赤外線受信部であり得る。他の局面において、入力I/F325は、端末100に設けられたボタンであり得る。さらに他の局面において、入力I/F325は、端末100に設けられたタッチパネルであり得る。
スピーカ330は、音声情報を音声に変換して出力する。他の局面において、端末100は、スピーカ330に替えて、またはスピーカ330に加えて、ヘッドフォン,イヤホンその他の音声出力装置を含む構成であってもよい。
マイク335は、端末100の周囲の音声を電気信号としての音声情報に変換してCPU310に入力する。
バッテリ340は、典型的にはリチウムイオン2次電池であって、端末100に含まれる各デバイスに電力を供給するためのデバイスとして機能する。
通信I/F345は、後述するサーバ150の通信I/F370と通信し、各種信号のやり取りを行なう。
(サーバのハードウェア構成)
サーバ150は、CPU360と、通信I/F370と、記憶装置380とROM390と、RAM395と、を備え得る。
CPU360は、サーバ150の動作を制御する制御部として機能する。ある局面において、CPU360は、記憶装置380またはROM390に格納される制御プログラムを読み出して実行することにより、イベント情報取得部362、音声認識部364、パラメータ決定部366、および楽曲生成部368として機能し得る。
イベント情報取得部362は、端末100から受信したイベント情報に基づいて、後述するイベント履歴テーブル382を更新する。
音声認識部364は、端末100から受信する音声情報に対して音声認識処理を行なう。これにより、音声認識部364は、音声情報から文字列を抽出する。
パラメータ決定部366は、楽曲生成部368が楽曲を生成するために必要な楽曲パラメータを決定する。
楽曲生成部368は、パラメータ決定部366によって決定された楽曲パラメータに基づいて楽曲を生成する。楽曲生成部368は、既知のアプリケーションによって実現され得る。ある局面において、楽曲生成部368は、ヤマハ株式会社によって提供されるVOCALODUCER(登録商標)を用いて実現され得る。
通信I/F370は、端末100と通信するためのインターフェイスであって、一例として、無線LAN(Local Area Network)カードであるとする。サーバ150は、通信I/F370を介してLANまたはWAN(Wide Area Network)に接続された端末100と通信可能に構成される。
記憶装置380は、典型的にはハードディスクドライブなどであって、イベント履歴テーブル382と、パラメータ決定テーブル384とを格納する。イベント履歴テーブル382は、端末100の履歴を保持する。パラメータ決定テーブル384は、楽曲パラメータを決定するために必要なポイントを保持する。これらテーブルの詳細は図5および図7を用いて後述される。
ROM390は、典型的には、フラッシュメモリなどであり、CPU360が実行する制御プログラムや、サーバ150の動作に係る各種設定情報を格納し得る。
RAM395は、典型的には、DRAM(Dynamic Random Access Memory)などであって、CPU360が制御プログラムを実行するために必要なデータを一時的に記憶するワーキングメモリとして機能する。
なお、他の局面において、サーバ150のCPU360は、楽曲生成部の機能構成を有さない構成であってもよい。
図4は、他の実施形態に従うサーバ150のハードウェア構成を説明する図である。他の実施形態において、サーバ150のCPU360は、その機能構成として楽曲生成部を有さない。
この場合、他の実施形態に従うサーバ150は、楽曲パラメータに基づいて楽曲を生成するための楽曲生成部410を有する外部装置400と通信し得る。
より具体的には、サーバ150は、パラメータ決定部366が決定した楽曲パラメータを、外部装置400に送信する。外部装置400は、受信した楽曲パラメータに基づいて楽曲生成部410によって楽曲を生成するとともに、生成した楽曲をサーバ150に送信するように構成される。制御システムは、このような構成であってもよい。さらに他の局面において、外部装置400は、生成した楽曲をサーバ150ではなく端末100に直接送信する構成であってもよい。
なお、図3および4に示される例では、サーバ150は、1つのCPU360と、1つの通信I/F370と、1つの記憶装置380を備える構成であるが、他の局面において、サーバは、これらのデバイスを複数有する構成であってもよい。例えば、サーバは、2つ以上のCPUによって、後述する処理を分散処理してもよい。また、サーバは、2つ以上の通信I/Fによって端末100と情報の送受信を行ってもよい。また、サーバは、第1の通信I/Fによって端末100と通信し、第2の通信I/Fによって外部装置400と通信を行なってもよい。また、サーバは、2つ以上の記憶装置を有し、記憶すべきデータを分散して複数の記憶装置に格納してもよい。
(イベント履歴テーブル)
図5は、ある実施形態に従うイベント履歴テーブル382を説明する図である。
図5を参照して、イベント履歴テーブル382は、機器IDと、時刻と、イベントとを互いに関連付けて保持する。図5に示される例において、端末100は掃除機であるとする。
図5に示される例では、機器ID「D00103」の端末100において、時刻「2014−07−29 09:54:10」にイベント「おまかせモードで運転」が発生している。
機器ID「D01091」の端末100において、時刻「2014−07−29 09:55:33」にイベント「バッテリー残量が0になった」が発生している。
機器ID「D00427」の端末100において、時刻「2014−07−29 09:59:42」にイベント「充電を行なった」が発生している。
機器ID「D00066」の端末100において、時刻「2014−07−29 09:59:43」にイベント「パワー強で運転」が発生している。
機器ID「D00427」の端末100において、時刻「2014−07−29 10:00:01」にイベント「念入りモードで運転」が発生している。
機器ID「D00208」の端末100において、時刻「2014−07−29 10:00:10」にイベント「ダストボックスが一杯になった」が発生している。
上記のように、イベント履歴テーブル382は、各端末100ごとに、発生したイベントと時刻とを保持する。
また、イベントは、「パワー強で運転」のような端末100の動作を示す動作イベントの他に、「バッテリー残量が0になった」のような端末100の状態を示す状態イベントも含み得る。このように、イベント履歴テーブルは、端末100の状態履歴を記憶する。「状態履歴」は、端末100の動作を示す履歴と、端末100の状態を示す履歴を含むものである。
図6は、ある実施形態に従うイベント履歴テーブル382の更新方法を説明する図である。図6に示される処理は、CPU110およびCPU360が各々の記憶デバイスに保持される制御プログラムを実行することにより実現される。
ステップS610において、端末100のCPU310は、イベント管理部312として、予め設定されたイベントの発生を検知する。
ステップS620において、CPU310は、検知したイベントの情報を示すイベント情報と、ROM315に格納される機器ID317とをサーバ150に送信する。
ステップS630において、サーバ150のCPU360は、イベント情報取得部362として、端末100から受信したイベント情報と、機器ID317と、受信した時刻とを関連付けてイベント履歴テーブル382に追加する。
他の局面において、イベント管理部312は、イベント情報と機器ID317とともに、イベントが発生した時刻をサーバ150に送信してもよい。この場合、イベント情報取得部362は、当該時刻を、イベント情報と機器ID317とともに、イベント履歴テーブル382に追加し得る。
さらに他の局面において、イベント情報取得部362は、予め定められた期間(例えば、90日間)のイベント情報のみを保持するように構成されてもよい。この場合、イベント情報取得部362は、予め定められた期間を経過したイベント情報を、イベント履歴テーブル382から削除し得る。
(パラメータ決定テーブル)
図7は、ある実施形態に従うパラメータ決定テーブル384を説明する図である。
図5を参照して、パラメータ決定テーブル384は、イベントと、ジャンルポイントと、テンポポイントと、キーポイントとを互いに関連付けて保持する。
ある実施形態において、楽曲パラメータは、ジャンルパラメータと、テンポパラメータと、キーパラメータとを含む。
「ジャンルパラメータ」は、記憶装置380に格納される複数のジャンルの中から一のジャンルを決定するパラメータである。換言すれば、「ジャンルパラメータ」は、楽曲生成部368が生成する楽曲のジャンルを決定するパラメータである。ある局面において、記憶装置380には、「ヒップホップ」、「ラテン」、「バラード」、「メタル」、「カントリー」、「ロック」、「R&B(Rhythm and blues)」の7種類のジャンルが記憶される。
「テンポパラメータ」は、楽曲生成部368が生成する楽曲のテンポ(例えば、BPM:Beats Per Minute)を決定するパラメータである。ある局面において、テンポパラメータは、80bpm〜160bpmの間に設定され得る。
「キーパラメータ」は、楽曲生成部368において、ジャンルパラメータによって定まる基準のキー(調)を変更するパラメータである。換言すれば、キーパラメータは、楽曲生成部368が生成する楽曲のキーを決定するパラメータである。ある局面において、キーパラメータは、−6.0〜+6.0の間の整数に設定され得る。
他の局面において、楽曲パラメータは、楽曲のリズムを決定するためのリズムパラメータや、楽曲のコード進行を決定するためのコードパラメータや、楽曲の曲調を決定するための曲調パラメータ、楽曲の長さ(時間)を決定するための曲長パラメータ等を含み得る。
さらに他の局面において、楽曲生成部368は歌詞を含む楽曲を再生可能に構成され、楽曲パラメータは歌詞の情報(テキストデータ)を含み得る。この場合、歌詞の情報は、ユーザが入力I/F325を操作して、またはマイク335に対する発話によって登録され得る。
「ジャンルポイント」は、ジャンルパラメータを決定する際の計算に使用される値である。「テンポポイント」は、テンポパラメータを決定する際の計算に使用される値である。「キーポイント」は、キーパラメータを決定する際の計算に使用される値である。
図7に示される例において、イベント「おまかせモードで運転」には、R&Bのジャンルポイントが「+2」に設定される。なお、当該イベントに対してテンポポイントおよびキーポイントは「null(何もしない)」に設定される。
イベント「スポットモードで運転」には、ヒップホップのジャンルポイントが「+2」、テンポポイントが「−2」に設定される。
イベント「壁際モード」には、テンポポイントが「−2」、キーポイントが「+0.02」に設定される。
イベント「念入りモード」には、ラテンのジャンルポイントが「+2」に設定される。
イベント「バッテリー残量20%以下になった」には、バラードのジャンルポイントが「+5」、テンポポイントが「−5」、キーポイントが「−0.1」に設定される。ある局面において、イベント管理部312は、バッテリ340に接続される電圧計(不図示)の検知結果が予め定められた値を下回った時に、このイベントが発生したと判断し得る。
イベント「バッテリー残量が0になった」には、バラードのジャンルポイントが「+10」、テンポポイントが「−10」、キーポイントが「−0.2」に設定される。
イベント「パワー強で運転」には、メタルのジャンルポイントが「+2」、テンポポイントが「+2」、キーポイントが「+0.02」に設定される。
イベント「写真を撮影」には、ロックのジャンルポイントが「+5」に設定される。ある局面において、端末100にはカメラ(不図示)が搭載される。ある局面において、イベント管理部312は、ユーザから入力I/F325またはマイク335にカメラによる撮影指示の入力がなされた際に、このイベントが発生したと判断し得る。
イベント「天気予報」には、ロックのジャンルポイントが「+2」、テンポポイントが「+2」に設定される。ある局面において、イベント管理部312は、ユーザから入力I/F325またはマイク335に天気を伺う旨の入力がなされた際に、このイベントが発生したと判断し得る。
イベント「ダストボックスが一杯」には、R&Bのジャンルポイントが「+3」、キーポイントが「−0.05」に設定される。ある局面において、端末100は、掃除機であって、図示しないダストボックスを備えるものとする。このとき、イベント管理部312は、ダストボックスに配置されるフォトリフレクタの検知結果に基づいてこのイベントが発生したと判断し得る。
(楽曲パラメータの決定方法)
図8は、ある実施形態に従う楽曲パラメータを決定する制御について説明する図である。サーバ150は、端末100から楽曲リクエストを受け付けると、この端末100に応じた楽曲パラメータを決定する。
まず、ジャンルパラメータを決定するための制御について説明する。
サーバ150のCPU360は、パラメータ決定部366として、イベント履歴テーブル382を参照して楽曲リクエストを受け付けた端末100の履歴を取得する。より具体的には、パラメータ決定部366は、イベント履歴テーブル382のうち、予め定められた期間(例えば90日間)内の楽曲リクエストを受け付けた端末100の機器IDに相当するイベント情報を取得する。
次に、パラメータ決定部366は、パラメータ決定テーブル384を参照して、取得したイベント情報に対応するジャンルポイントを、各ジャンルについて積算する。この各ジャンルにおけるジャンルポイントの積算値を、「積算ジャンルポイント」とも称する。
一例として、予め定められた期間内に、イベント「写真を撮影」が2回、「ダストボックスが一杯」が1回発生したとする。この場合、パラメータ決定部366は、ロックの積算ジャンルポイントが「10」、R&Bの積算ジャンルポイントが「3」であると計算する。
分図(A)は、ある局面における各ジャンルについての積算ジャンルポイントを示す図である。分図(A)に示される例において、ヒップホップの積算ジャンルポイントが「60」、ラテンの積算ジャンルポイントが「40」、・・・ロックの積算ジャンルポイントが「−20」、R&Bの積算ジャンルポイントが「30」となっている。
次に、パラメータ決定部366は、各ジャンルについて、積算ジャンルポイントの合計に対する自ジャンルの積算ジャンルポイントの割合を算出する。このとき、パラメータ決定部366は、負の積算ジャンルポイントを「0」として計算し得る。そのため、分図(A)の例において積算ジャンルポイントの合計は「180」となる。
分図(B)は、分図(A)の各ジャンルにおける、積算ジャンルポイントの合計に対する自ジャンルの積算ジャンルポイントの割合を示す図である。パラメータ決定部366は、この割合を確率として、7種類のジャンルの中から一のジャンルを、ジャンルパラメータとして決定する。分図(B)において、ヒップホップの選ばれる確率が最も高い。一方、バラードまたはロックが選ばれる確率が最も低い。
次に、テンポパラメータを決定するための制御について説明する。
パラメータ決定部366は、ジャンルパラメータと同様に、パラメータ決定テーブル384を参照して、取得したイベント情報に対応するテンポポイントを積算する。このテンポポイントの積算値を、「積算テンポポイント」とも称する。
一例として、予め定められた期間内に、イベント「天気予報」が55回、「バッテリー残量20%以下になった」が1回発生したとする。この場合、パラメータ決定部366は、積算テンポポイントが「105」であると計算する。
なお他の局面において、記憶装置380には初期テンポ値(例えば、120)が記憶されているものとする。この場合、パラメータ決定部366は、初期テンポ値と、取得したイベント情報に対応するテンポポイントの積算値とを足し合わせた値を積算テンポポイントと定義する。
パラメータ決定部は、算出した積算テンポポイントの値を中心とする確率分布(たとえば、ガウス分布)をもとに、テンポパラメータを決定する。すなわち、積算テンポポイントの値がテンポパラメータとして決定される確率が最も高い。
次に、キーパラメータを決定するための制御について説明する。パラメータ決定部366は、テンポパラメータと同様に、パラメータ決定テーブル384を参照して、取得したイベント情報に対応するキーポイントを積算する。このキーポイントの積算値を、「積算キーポイント」とも称する。
一例として、予め定められた期間内に、イベント「壁際モード」が13回、「パワー強で運転」が13回発生したとする。この場合、パラメータ決定部366は、積算キーポイントが「0.52」であると計算する。
パラメータ決定部366は、算出した積算キーポイントの値を中心とする確率分布(たとえば、ガウス分布)をもとに、一のキーパラメータを算出する。パラメータ決定部は、算出されたキーパラメータを整数に四捨五入してキーパラメータを決定する。
一例として、パラメータ決定部366が、積算キーポイントが「0.52」である場合に、キーパラメータ「0.58」を算出したとする。この場合、パラメータ決定部366は、当該値を四捨五入してキーパラメータを「1」に決定する。
上記の積算ジャンルポイント、積算テンポポイント、積算キーポイントなどの楽曲パラメータを決定するための積算ポイントを総称して「履歴楽曲パラメータ」とも言う。上記のように、ある実施形態に従うサーバ150は、履歴楽曲パラメータを算出して、当該算出した履歴楽曲パラメータに基づいて確率的に前記楽曲パラメータを決定する。これにより、生成される楽曲の傾向が、その都度変わり得る。その結果、サーバ150は、ユーザの生成される楽曲に対する飽きを抑制し得る。
(楽曲生成の制御のフロー)
図9は、ある実施形態に従う楽曲を生成するための制御を説明するフローチャートである。図6に示される処理は、CPU110およびCPU360が各々の記憶デバイスに保持される制御プログラムを実行することにより実現される。
ステップS910において、ユーザは、端末100のマイク335に対して「何か歌ってみて」と発話する。
ステップS920において、端末100のCPU310は、マイク335から入力された音声情報と、機器ID317とをサーバ150に送信する。
ステップS930において、サーバ150のCPU360は、音声認識部364として、受信した音声情報から文字列「何か歌ってみて」を抽出する。音声認識部364は、抽出した文字列に予め定められた文字列(例えば、「歌って」、「歌がききたい」など)が含まれていると判断する。これにより、CPU360は、端末100からの楽曲リクエストを受け付ける。
一例として、音声認識部364は、音声情報の先頭から所定時間単位(たとえば、10msec単位)で区切られる波形データと、記憶装置380に格納される音響モデル(母音や子音などの音素ごとに音声の特徴量)とを照合して、音声情報から文字列を抽出する。このとき、音声認識部364は、HMM(Hidden Markov Model)に従い音声情報から文字列を抽出し得る。
ステップS940において、CPU360は、イベント情報取得部362として、イベント履歴テーブル382を参照して、予め定められた期間内における受信した機器ID317に対応するイベント情報を抽出する。
ステップS950において、CPU360は、パラメータ決定部366として、パラメータ決定テーブル384を参照して、抽出したイベント情報に基づいて履歴楽曲パラメータ(積算ジャンルポイント、積算テンポポイント、積算キーポイント)を算出する。
ステップS960において、CPU360は、パラメータ決定部366として、算出した履歴楽曲パラメータから楽曲パラメータ(ジャンルパラメータ、テンポパラメータ、キーパラメータ)を決定する。
ステップS970において、CPU360は、楽曲生成部368として、決定した楽曲パラメータに基づいて楽曲を生成する。
ステップS980において、CPU360は、生成した楽曲を音声出力装置から出力可能な楽曲データに変換して端末100に送信する。
ステップS990において、端末100は、受信した楽曲データを、スピーカ330から出力(再生)する。
上記によれば、ある実施形態に従うサーバ150は、端末100の履歴に基づいて楽曲を生成する。端末100の履歴は、時間とともに適宜更新される。そのため、サーバ150によって生成される複数の楽曲は、その時々の端末100の履歴に応じて異なる傾向の楽曲が生成され得る。これにより、このサーバ装置は、生成される楽曲に対するユーザの飽きを抑制し得る。
また、ある実施形態に従うサーバ150は、ユーザが複数の端末100(例えば、掃除機と冷蔵庫)を所有する場合に、各々の端末の履歴に応じた楽曲を生成する。そのため、ある実施形態に従うサーバ150は、ユーザが複数の端末100を所有する場合であっても、生成される楽曲に対するユーザの飽きを抑制し得る。
[実施形態2−他の楽曲パラメータの算出方法(機器種別、ユーザ設定)]
上記の実施形態において、サーバ150は、端末100の履歴のみに基づいて楽曲パラメータを決定する構成であった。この実施形態において、サーバ150は、端末100の履歴に加え、他のパラメータも考慮して、楽曲パラメータを決定し得る。
(家と端末とユーザとの関係)
図10は、ある実施形態に従う制御システム200を他の観点から説明する図である。ネットワーク210には、各家庭に配置されるルータ220が接続されている。この各家庭には1台以上の端末100が配置されている。また、この各家庭には、1人以上のユーザが端末100を操作し得る。
(端末100およびサーバ150の構成)
図11は、ある実施形態に従う端末100およびサーバ150の構成を説明する図である。なお、図11に示される例において、端末100およびサーバ150のハードウェア構成は、図3で説明した端末100およびサーバ150のハードウェア構成と同じであるため、その説明は繰り返さない。
図11に示される端末100のROM315は、機器ID317に加えて、機器種別1110をさらに格納する点において、図3で説明したROMと相違する。
ある局面において、機器種別1110は、端末100の種別(例えば、掃除機、冷蔵庫、電子レンジ等)を特定するための情報であり得る。他の局面において機器種別1110は、端末100の製品名を特定するための情報であり得る。
図11に示される記憶装置380は、パラメータ決定テーブル384に代えてパラメータ決定DB1120を格納し、さらに機器管理DB1130を格納する点において、図3で説明した記憶装置と相違する。
(機器管理DB)
図12は、ある実施形態に従う機器管理DB1130を説明する図である。
ある実施形態において、機器管理DB1130は、家テーブル1220と、機器テーブル1240と、ユーザテーブル1260と、機器種別テーブル1280とを含む。
分図(A)は、ある実施形態に従う家テーブル1220を説明する図である。
家テーブル1220は、家IDと家の名前とを互いに関連付けて保持する。
ある局面において、家IDは、サーバ150に接続される家庭を識別するための情報である。ある局面において、家IDは、ルータ220に割り当てられるグローバルIPアドレスであり得る。
ある局面において、家の名前は、サーバ150に接続される家庭に属する人間の名字であり得る。家の名前は、ユーザが入力I/F325を操作して、またはマイク335に対する発話によって登録し得る。
分図(B)は、ある実施形態に従う機器テーブル1240を説明する図である。
機器テーブル1240は、機器IDと、家IDと、機器種別とを互いに関連付けて保持する。
ある局面において、サーバ150は、ルータ220から、機器IDと家IDと機器種別とを受信する。サーバ150は、受信した機器IDと、機器テーブル1240に保持される複数の機器IDの各々とを比較して、一致する機器IDが無いと判断した場合、受信した機器IDと家IDと機器種別とを関連付けて機器テーブル1240に登録し得る。
分図(C)は、ある実施形態に従うユーザテーブル1260を説明する図である。ユーザテーブル1260は、ユーザIDと家IDとユーザネームとユーザパラメータテーブルと、特徴量データとを互いに関連付けて保持する。
ユーザIDは、端末100の複数のユーザを互いに識別するための情報である。ユーザネームは、端末100のユーザが入力I/F325を操作して設定した、またはマイク335に対して発話した自身を識別するための名称である。
ユーザパラメータテーブルは、楽曲パラメータを決定する際の計算に使用される、ユーザごとの設定値である。このテーブルの詳細は、図14において後述される。
特徴量データは、ユーザの音声に対応する音声情報から抽出される特徴である。特徴量データは、LPC(Linear Predictive Coding)ケプストラム係数や、MFCC(Mel-Frequency Cepstrum Coefficient)等の既知の手法によって算出され得る。
分図(D)は、ある実施形態に従う機器種別テーブル1280を説明する図である。機器種別テーブル1280は、機器種別と、種別パラメータテーブルとを互いに関連付けて保持する。
種別パラメータテーブルは、楽曲パラメータを決定する際の計算に使用される、機器種別ごとの設定値である。
図13は、ある実施形態に従う種別パラメータテーブルを説明する図である。
図13を参照して、種別パラメータテーブルには、上記説明した「ジャンル」(各ジャンル)、「テンポ」、「キー」ごとに種別パラメータが設定される。
図13に示される例において、機器種別「掃除機」に対応する種別パラメータテーブルDT001には、テンポの種別パラメータが「120」に、キーの種別パラメータが「−0.5」に、ヒップホップの種別パラメータが「30」に、ヒップホップの種別パラメータが「20」に、ヒップホップの種別パラメータが「−10」に、ヒップホップの種別パラメータが「40」に、ヒップホップの種別パラメータが「50」に、ヒップホップの種別パラメータが「−30」に、ヒップホップの種別パラメータが「20」にそれぞれ設定されている。
ある局面において、サーバ150のCPU360は、パラメータ決定部366として、履歴楽曲パラメータと、種別パラメータとに基づいて楽曲パラメータを決定し得る。
図14は、ある実施形態に従う履歴楽曲パラメータと、種別パラメータとに基づいて楽曲パラメータを決定する制御について説明する図である。
図14に示される例において、積算テンポポイントが「100」、積算キーポイントが「3」、ヒップホップの積算ジャンルポイントが「20」、その他ジャンルの積算ジャンルポイントが「0」と算出されたとする。
また、テンポの種別パラメータが「150」、キーの種別パラメータが「1」、ラテンの種別パラメータが「20」、その他ジャンルの種別パラメータが「0」と算出されたとする。
ある局面においてパラメータ決定部366は、履歴楽曲パラメータに係数0.8を乗じた値と、種別パラメータに係数0.2を乗じた値とを合算した合算パラメータを算出する。なお、他の局面において、ユーザは、これら各係数の値を任意に設定し得る。ただし、各係数の値は、各係数の合計値が1.0になるように設定される。
図14に示される例において、パラメータ決定部366は、テンポの合算パラメータが「120」(=100×0.8+150×0.2)、キーの合算パラメータが「2.6」、ヒップホップの合算パラメータが「16」、ラテンの合算パラメータが「4」、その他ジャンルの合算パラメータが「0」であると算出する。
パラメータ決定部366は、算出した合算パラメータに基づいて、上記図8で説明した制御と同様の制御を行ない、楽曲パラメータを決定する。
上記によれば、ある実施形態に従うサーバ150は、機器種別に応じて設定される種別パラメータを考慮して楽曲パラメータを決定する。そのため、サーバ150は、ユーザが複数種別の端末100を所有する場合において、複数の端末の各々で再生される楽曲は、互いに異なる傾向になり得る。その結果、サーバ150は、ユーザが複数種別の端末100を所有する場合であっても、生成される楽曲に対するユーザの飽きを抑制し得る。
図15は、ある実施形態に従うユーザパラメータテーブルを説明する図である。
図15を参照して、ユーザパラメータテーブルには、上記説明した「ジャンル」(各ジャンル)、「テンポ」、「キー」ごとにユーザパラメータが設定される。
図15に示される例において、ユーザID「U00001」に対応するユーザパラメータテーブルUT001には、テンポのユーザパラメータが「150」に、キーのユーザパラメータが「1.0」に、ヒップホップのユーザパラメータが「40」に、ヒップホップのユーザパラメータが「10」に、ヒップホップのユーザパラメータが「−20」に、ヒップホップのユーザパラメータが「30」に、ヒップホップのユーザパラメータが「20」に、ヒップホップのユーザパラメータが「−10」に、ヒップホップのユーザパラメータが「30」にそれぞれ設定されている。
ある局面において、ユーザは、入力I/F325を操作して、またはマイク335に対して発話することにより、ユーザパラメータを端末100に入力し得る。端末100は、入力されたユーザパラメータと機器ID317とを、サーバ150に送信する。サーバ150は、受信した機器ID317と、ユーザパラメータテーブルとを関連付けてユーザテーブル1260に記憶する。
ある局面において、サーバ150のCPU360は、パラメータ決定部366として、履歴楽曲パラメータと、ユーザパラメータとに基づいて楽曲パラメータを決定し得る。さらに他の局面において、パラメータ決定部366は、履歴楽曲パラメータと、種別パラメータと、ユーザパラメータとに基づいて楽曲パラメータを決定し得る。なお、これらのパラメータを用いた楽曲パラメータの決定方法は、図14で説明した方法と同じであるため、繰り返し説明しない。また、各パラメータに乗じる係数の値は、適宜ユーザによって変更可能に構成され得る。
上記によれば、ある実施形態に従うサーバ150は、ユーザパラメータを考慮して、換言すれば、ユーザの嗜好性を考慮して楽曲パラメータを決定する。これにより、サーバ150は、端末100の履歴に基づきつつ、ユーザの好きな楽曲を生成し得る。
(楽曲生成の制御のフロー)
図16は、ある実施形態に従う楽曲を生成するためのサーバ150における制御を説明するフローチャートである。図6に示される処理は、CPU360が記憶装置380またはROM390に格納される制御プログラムを実行することにより実現される。なお、図9と同一符号を付している部分については同じ処理であるため、その部分についての説明は繰り返さない。図16に示される一連の制御は、図9のステップS930で説明した楽曲リクエストの受付処理に応じて実行され得る。
ステップS1610において、CPU360は、端末100から受信した音声情報からユーザIDを取得できたか否かを判断する。
より具体的には、CPU360は、受信した音声情報から特徴量を算出する。次にCPU360は、算出した特徴量と、ユーザテーブル1260に保持される複数の特徴量の各々とを比較して、各ユーザの特徴量ごとに一致度を算出する。次にCPU360は、予め定められた値よりも大きい一致度を有するユーザの特徴量が存在したか否かを判断する。CPU360は、存在したと判断した場合に党がユーザの特徴量に対応するユーザIDを取得する。なお、CPU360は、予め定められた値よりも大きい一致度を有するユーザの特徴量が複数存在する場合、最も一致度の大きい一の特徴量に対応するユーザIDを取得し得る。
CPU360は、ユーザIDを取得できた場合(ステップS1610においてYES)、処理をステップS1620に進める。そうでない場合(ステップS1610においてNO)、CPU360は、処理をステップS1630に進める。
ステップS1620において、CPU360は、ステップS950で算出した履歴楽曲パラメータと、種別パラメータと、ユーザパラメータとに基づいて、楽曲パラメータを決定する。
より具体的には、CPU360は、機器テーブル1240を参照して受信した機器ID317に対応する機器種別を取得するとともに、機器種別テーブル1280を参照して取得した機器種別に対応する種別パラメータテーブルから種別パラメータを取得する。
また、CPU360は、ユーザテーブル1260を参照して、ステップS1610で取得したユーザIDに対応するユーザパラメータテーブルからユーザパラメータを取得する。
ステップS1630において、CPU360は、履歴楽曲パラメータと、種別パラメータとに基づいて楽曲パラメータを決定する。
ステップS970において、CPU360は、楽曲生成部368として、決定した楽曲パラメータに基づいて楽曲を生成する。
[実施形態3−端末が楽曲を生成]
上記の実施形態では、端末100は、サーバ150にイベント情報を送信して、サーバ150から楽曲データを受信する構成であった。しかしながら、ネットワーク環境が劣悪な場合など、サーバから楽曲データを受信することが難しい場合もあり得る。そこで、ある実施形態に従う端末は、自身で楽曲データを生成するように構成される。
図17は、ある実施形態に従う端末1700の構成例について説明する図である。なお、図3と同一符号を付している部分については同じであるため、その部分についての説明は繰り返さない。
端末1700は、記憶装置1710を有する点、および通信I/F345を有さない点において、図3で説明した端末100のハードウェア構成と相違する。
端末1700のCPU310は、ROM315または記憶装置1710に格納される制御プログラムを読み込んで実行することにより、イベント管理部312に加え、さらに音声認識部1720、パラメータ決定部1730、および楽曲生成部1740として機能し得る。音声認識部1720、パラメータ決定部1730、楽曲生成部1740はそれぞれ、図3で説明した音声認識部364、パラメータ決定部366、楽曲生成部368と同じ機能を有する。
記憶装置1710は、イベント履歴テーブル1712と、パラメータ決定テーブル384とを含む。イベント履歴テーブル1712は、図5で説明したイベント履歴テーブル382のうち、時刻とイベントとを互いに関連付けて保持するテーブルであるため、特に図示しない。
図18は、ある実施形態に従う端末1700において楽曲を生成する制御について説明するフローチャートである。図18に示される処理は、端末1700のCPU310が、ROM315または記憶装置1710に格納される制御プログラムを読み込むことによって実行され得る。
ステップS1810において、CPU310は、音声認識部1720として、楽曲リクエストを受け付けたかを判断する。この処理は、上記に説明したステップS930の処理と実質的に同じである。
ステップS1820において、CPU310は、イベント管理部312として、イベント履歴テーブル1712を参照して、予め定められた期間内(例えば、90日間)におけるイベント情報を抽出する。
ステップS1830において、CPU310は、パラメータ決定部1730して、パラメータ決定テーブル384を参照して、抽出したイベント情報に基づいて履歴楽曲パラメータを算出する。
ステップS1840において、CPU310は、パラメータ決定部1730として、算出した履歴楽曲パラメータから楽曲パラメータを決定する。同ステップにおいて、CPU310は、楽曲生成部1740として、決定した楽曲パラメータに基づいて楽曲を生成する。
ステップS1850において、CPU310は、生成した楽曲を音声出力装置から出力可能な楽曲データに変換して、スピーカ330から出力(再生)する。
上記によれば、ある実施形態に従う端末1700は、サーバによらず、オフライン環境下でも自端末の履歴に基づいて楽曲を生成し得る。
上記で説明した各制御は、1つのCPU310、または1つのCPU360によって実現されるものとしてあるが、これに限られない。これらの各制御は、少なくとも1つのプロセッサのような半導体集積回路によって実装され得る。
上記の回路は、有形の読取可能な少なくとも1つの媒体から、1以上の命令を読み出すことにより上記説明した各制御を実現しうる。
このような媒体は、磁気媒体(たとえば、ハードディスク)、光学媒体(たとえば、コンパクトディスク(CD)、DVD)、揮発性メモリ、不揮発性メモリの任意のタイプのメモリなどの形態をとるが、これらの形態に限定されるものではない。
揮発性メモリはDRAMおよびSRAM(Static Random Access Memory)を含み得る。不揮発性メモリは、ROM、NVRAMを含み得る。半導体メモリは、少なくとも1つのプロセッサとともに半導体回路の1部分であり得る。
今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。また、上記説明した様々な実施形態は、適宜組み合わせられ得る。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。
100,1700 端末、150 サーバ、200 制御システム、210 ネットワーク、220 ルータ、312 イベント管理部、315,390 ROM、320,395 RAM、330 スピーカ、335 マイク、340 バッテリ、362 イベント情報取得部、364,1720 音声認識部、366,1730 パラメータ決定部、368,410,1740 楽曲生成部、380,1710 記憶装置、382,1712 イベント履歴テーブル、384 パラメータ決定テーブル、400 外部装置、1110 機器種別、1220 家テーブル、1240 機器テーブル、1260 ユーザテーブル、1280 機器種別テーブル。

Claims (11)

  1. サーバ装置であって、
    通信インターフェイスと、
    記憶装置と、
    制御部とを備え、
    前記記憶装置は、前記通信インターフェイスを介して取得した、音声を出力可能な情報処理端末の状態履歴を記憶し、
    前記制御部は、
    前記状態履歴に基づいて楽曲パラメータを決定し、
    前記決定した楽曲パラメータに基づいて生成された楽曲を、前記通信インターフェイスを介して前記情報処理端末に送信するように構成される、サーバ装置。
  2. 前記制御部は、
    前記楽曲パラメータに基づいて楽曲を生成するための楽曲生成部を含み、
    前記楽曲生成部で生成された楽曲を前記情報処理端末に送信するように構成される、請求項1に記載のサーバ装置。
  3. 前記制御部は、
    前記決定した楽曲パラメータを、楽曲パラメータに基づいて楽曲を生成可能に構成される外部装置に送信し、
    前記外部装置から受信した楽曲を前記情報処理端末に送信するように構成される、請求項1に記載のサーバ装置。
  4. 前記通信インターフェイスは、複数種別の情報処理端末と通信可能に構成され、
    前記記憶装置は、前記種別ごとに種別パラメータをさらに記憶するように構成され、
    前記制御部は、
    前記複数種別の情報処理端末のうち、一の情報処理端末の種別に応じた種別パラメータと、前記一の情報処理端末の状態履歴とに基づいて前記楽曲パラメータを決定するように構成される、請求項1〜3のいずれか1項に記載のサーバ装置。
  5. 前記記憶装置は、前記情報処理端末のユーザごとに設定されるユーザパラメータをさらに記憶するように構成され、
    前記制御部は、前記ユーザパラメータと前記状態履歴とに基づいて前記楽曲パラメータを決定するように構成される、請求項1〜4のいずれか1項に記載のサーバ装置。
  6. 前記制御部は、予め定められた期間内の前記状態履歴に基づいて前記楽曲パラメータを決定するように構成される、請求項1〜5のいずれか1項に記載のサーバ装置。
  7. 前記楽曲パラメータは、楽曲のテンポを決定するためのテンポパラメータ、楽曲のジャンルを決定するためのジャンルパラメータ、および楽曲のキーを決定するためのキーパラメータのうち少なくともいずれか1つを含む、請求項1〜6のいずれか1項に記載のサーバ装置。
  8. 前記制御部は、前記状態履歴に基づいて履歴楽曲パラメータを算出して、当該算出した履歴楽曲パラメータに応じた確率に基づいて前記楽曲パラメータを決定するように構成される、請求項1〜7のいずれか1項に記載のサーバ装置。
  9. 情報処理端末であって、
    音声出力装置と、
    通信インターフェイスと、
    前記通信インターフェイスを介して前記情報処理端末のイベント情報をサーバ装置に送信するように構成される制御部とを備え、
    前記サーバ装置は、
    前記イベント情報の履歴に基づいて楽曲パラメータを決定し、
    前記決定した楽曲パラメータに基づいて生成された楽曲を前記情報処理端末に送信するように構成され、
    前記制御部は、前記通信インターフェイスを介して前記サーバ装置から受信した楽曲を前記音声出力装置から出力するように構成される、情報処理端末。
  10. サーバ装置と、情報処理端末とを備えるシステムであって、
    前記サーバ装置は、
    通信インターフェイスと、
    記憶装置と、
    制御部とを含み、
    前記記憶装置は、前記情報処理端末の状態履歴を記憶し、
    前記制御部は、
    前記状態履歴に基づいて楽曲パラメータを決定し、
    前記決定した楽曲パラメータに基づいて生成された楽曲を、前記通信インターフェイスを介して前記情報処理端末に送信するように構成され、
    前記情報処理端末は、
    音声出力装置と、
    前記サーバ装置から受信した楽曲を前記音声出力装置から出力するように構成される制御部とを含む、システム。
  11. サーバ装置が、音声を出力可能な情報処理端末に楽曲を送信するための方法であって、
    前記情報処理端末からイベント情報を受信するステップと、
    前記イベント情報の履歴に基づいて楽曲パラメータを決定するステップと、
    前記決定した楽曲パラメータに基づいて生成された楽曲を前記情報処理端末に送信するステップとを備える、方法。
JP2016191218A 2016-09-29 2016-09-29 サーバ装置、情報処理端末、システム、および方法 Pending JP2018054906A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016191218A JP2018054906A (ja) 2016-09-29 2016-09-29 サーバ装置、情報処理端末、システム、および方法
PCT/JP2017/005687 WO2018061241A1 (ja) 2016-09-29 2017-02-16 サーバ装置、情報処理端末、システム、および方法
US16/331,096 US20190205089A1 (en) 2016-09-29 2017-02-16 Server device, information processing terminal, system, and method
CN201780060565.0A CN109791759A (zh) 2016-09-29 2017-02-16 服务器装置、信息处理终端、系统、以及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016191218A JP2018054906A (ja) 2016-09-29 2016-09-29 サーバ装置、情報処理端末、システム、および方法

Publications (2)

Publication Number Publication Date
JP2018054906A true JP2018054906A (ja) 2018-04-05
JP2018054906A5 JP2018054906A5 (ja) 2019-04-18

Family

ID=61759385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016191218A Pending JP2018054906A (ja) 2016-09-29 2016-09-29 サーバ装置、情報処理端末、システム、および方法

Country Status (4)

Country Link
US (1) US20190205089A1 (ja)
JP (1) JP2018054906A (ja)
CN (1) CN109791759A (ja)
WO (1) WO2018061241A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019101482A1 (de) 2018-03-22 2019-09-26 Subaru Corporation Erkennungsvorrichtung für die äussere umgebung eines fahrzeugs

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3753039B2 (ja) * 2001-09-21 2006-03-08 ヤマハ株式会社 電子音楽装置
JP4144269B2 (ja) * 2002-06-28 2008-09-03 ヤマハ株式会社 演奏処理装置
JP2006069288A (ja) * 2004-08-31 2006-03-16 Fuji Heavy Ind Ltd 車載音楽生成装置及び車載エンタテイメントシステム
JP2006171133A (ja) * 2004-12-14 2006-06-29 Sony Corp 楽曲データ再構成装置、楽曲データ再構成方法、音楽コンテンツ再生装置および音楽コンテンツ再生方法
EP1852154A4 (en) * 2005-02-03 2014-07-09 Sony Corp DEVICE, METHOD AND PROGRAM FOR REPRODUCING SOUNDS
JP6360405B2 (ja) * 2014-09-30 2018-07-18 クラリオン株式会社 情報処理システム、及び、情報処理方法
JP6603023B2 (ja) * 2015-02-09 2019-11-06 東芝ライフスタイル株式会社 情報提供システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019101482A1 (de) 2018-03-22 2019-09-26 Subaru Corporation Erkennungsvorrichtung für die äussere umgebung eines fahrzeugs

Also Published As

Publication number Publication date
US20190205089A1 (en) 2019-07-04
WO2018061241A1 (ja) 2018-04-05
CN109791759A (zh) 2019-05-21

Similar Documents

Publication Publication Date Title
US8751030B2 (en) Audio player and operating method automatically selecting music type mode according to environment noise
US8965766B1 (en) Systems and methods for identifying music in a noisy environment
WO2006096664A2 (en) Scan shuffle for building playlists
CN109741724B (zh) 制作歌曲的方法、装置及智能音响
WO2018121368A1 (zh) 一种歌词的配乐生成方法和相关装置
KR20070063455A (ko) 기호 프로파일 생성 장치, 기호 프로파일 생성 방법 및프로파일 생성 프로그램
CN110010159B (zh) 声音相似度确定方法及装置
KR102495888B1 (ko) 사운드를 출력하기 위한 전자 장치 및 그의 동작 방법
JP2009210790A (ja) 選曲歌手分析推薦装置、その方法及びプログラム
WO2018061241A1 (ja) サーバ装置、情報処理端末、システム、および方法
US9008490B1 (en) Melody recognition systems
JP2018055440A (ja) サーバ装置、情報処理端末、プログラム、システム、および方法
JP2010237258A (ja) 歌唱評価装置
KR20140129443A (ko) 적응형 음원 추천 시스템 및 방법
JP7117113B2 (ja) サーバ装置、リコメンドシステム
JP3984830B2 (ja) カラオケ配信システム、カラオケ配信方法、及びカラオケ配信プログラム
JP6352164B2 (ja) 聴取者評価を考慮したカラオケ採点システム
JP5500109B2 (ja) 楽曲再生システム及び楽曲再生プログラム
JP6788560B2 (ja) 歌唱評価装置、歌唱評価プログラム、歌唱評価方法及びカラオケ装置
JP7230085B2 (ja) 音声を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
JP5660408B1 (ja) 投稿楽曲演奏システム及び投稿楽曲演奏方法
JP6667332B2 (ja) カラオケシステム
JP4447540B2 (ja) カラオケ唱歌録音作品の鑑賞システム
CN115881065A (zh) 一种智能钢琴录音系统及方法
JP2023162958A (ja) カラオケ装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190306

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200825