JP2014164112A - 電気機器 - Google Patents

電気機器 Download PDF

Info

Publication number
JP2014164112A
JP2014164112A JP2013034941A JP2013034941A JP2014164112A JP 2014164112 A JP2014164112 A JP 2014164112A JP 2013034941 A JP2013034941 A JP 2013034941A JP 2013034941 A JP2013034941 A JP 2013034941A JP 2014164112 A JP2014164112 A JP 2014164112A
Authority
JP
Japan
Prior art keywords
information
music
listener
user
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013034941A
Other languages
English (en)
Inventor
Kiyoko Hayashi
希代子 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013034941A priority Critical patent/JP2014164112A/ja
Publication of JP2014164112A publication Critical patent/JP2014164112A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】使用者が発した音声に基づいて使用者に係る情報を取得することにより、使用者自身やその場の状況に適合する楽曲の選出を行うことが可能な電気機器を提供する。
【解決手段】音響モデル及び言語モデルをデータ化した解析用データをリスナ情報に対応付けて音声解析用データテーブル61に記憶しておき、音センサ41で集音した音から音センサ制御部40を用いて音声を検知して特徴データを生成し、生成した特徴データと解析用データとを照合して、一致した解析用データに対応するリスナ情報を取得し、取得したリスナ情報に応じた検索キーを用いて、楽曲データベース68に記憶された音楽コンテンツを検索する。
【選択図】図2

Description

本発明は、音声を検知して取得した情報に基づいて、格納部に格納された音楽コンテンツを検索する電気機器に関する。
昨今の音楽再生端末では、膨大な数の楽曲を記録したり検索したりできるようになっているが、楽曲を検索して選択する操作が極めて煩雑であるため、ユーザ(使用者)が希望する楽曲を短時間で見つけ出して再生させることはなかなか困難な状況にある。
これを解決するために、ユーザが希望する楽曲をあらかじめプレイリストに登録しておけば、プレイリストに従って楽曲が再生されるという機能が用意されているが、楽曲をプレイリストに登録する操作自体がユーザにとって煩雑な操作を強いるものとなっている。過去の再生履歴等を利用してプレイリストが自動的に生成されるようにすれば手間が省けて便利であるが、そのときにユーザが希望する楽曲がプレイリストに登録されるとは限らない。
これに対し、特許文献1では、生体情報を取得するセンサ等を用いてリスナの気分や聴取環境等を感知し、その結果に基づいて次の再生楽曲候補を決定して音楽コンテンツデータを再生出力する音楽コンテンツ再生装置が開示されている。
特開2006−146980号公報
しかしながら、特許文献1に開示された音楽コンテンツ再生装置は、生体情報や周辺環境情報を取得してリスナ個人の嗜好や周辺環境に適合する楽曲の再生を行うものであり、リスナが発する音声に基づいてリスナに関する何らかの情報を取得することにより、リスナ自身やその場の状況により適合する楽曲の選出を行うことは考慮されていなかった。
本発明は斯かる事情に鑑みてなされたものであり、その目的とするところは、使用者(ユーザ)が発した音声に基づいて使用者に係る情報を取得することにより、使用者自身やその場の状況に適合する楽曲の選出を行うことが可能な電気機器を提供することにある。
本発明に係る電気機器は、格納部に格納された音楽コンテンツを検索するための使用者に係る情報を取得する取得手段を備え、該取得手段が取得した情報に応じた検索情報を用いて前記格納部に格納された音楽コンテンツを検索する電気機器において、音声を検知して音声の特徴を示す特徴データを生成する音声検知手段と、音響モデル及び言語モデルをデータ化した解析用データを、使用者に係る情報に対応付けて記憶する記憶部とを備え、前記取得手段は、前記音声検知手段が生成した特徴データを、前記記憶部に記憶されている解析用データと照合して、一致した解析用データに対応する使用者に係る情報を取得するようにしてあることを特徴とする。
本発明に係る電気機器は、前記音楽コンテンツは、複数の楽曲データ及び該楽曲データに係る文字情報が対応付けられて前記格納部に格納されており、音楽コンテンツを検索するための検索情報を、使用者に係る情報に対応付けて記憶する第2の記憶部と、前記取得手段が取得した使用者に係る情報に対応して前記第2の記憶部に記憶されている検索情報を読み出す読出手段とを備え、該読出手段が読み出した検索情報を、前記格納部に格納された文字情報と照合して、一致した文字情報に対応する楽曲データを抽出するようにしてあることを特徴とする。
本発明に係る電気機器は、前記取得手段は、使用者に係る情報を複数取得するようにしてあり、前記読出手段が読み出した検索情報を、前記取得手段が取得した使用者に係る情報の偏りを示す偏重度に応じた順序でリストにした検索情報リストを生成する生成手段を備え、該生成手段が生成した検索情報リストに含まれる検索情報を、前記格納部に格納された文字情報と照合して、一致した文字情報に対応する楽曲データを抽出するようにしてあることを特徴とする。
本発明に係る電気機器は、前記取得手段は、前記使用者の性別を示す性別情報を取得するようにしてあることを特徴とする。
本発明に係る電気機器は、前記取得手段は、前記使用者の年齢を示す年齢情報を取得するようにしてあることを特徴とする。
本発明に係る電気機器は、前記使用者に係る情報は、前記使用者が発声する単語のテキスト情報であり、前記音楽コンテンツは、複数の楽曲データ及び該楽曲データに係る文字情報が対応付けられて前記格納部に格納されており、前記取得手段が取得した単語のテキスト情報を集計する集計手段と、該集計手段の集計結果に応じた順序で前記取得手段が取得した単語のテキスト情報をリストにした検索情報リストを生成する生成手段とを備え、該生成手段が生成した検索情報リストに含まれる単語のテキスト情報を、前記格納部に格納された文字情報と照合して、一致した文字情報に対応する楽曲データを抽出するようにしてあることを特徴とする。
本発明に係る電気機器は、単語のテキスト情報を該単語に関連する関連単語のテキスト情報に対応付けて記憶する第3の記憶部を備え、前記生成手段は、前記集計手段が集計した各単語のテキスト情報に、夫々の単語のテキスト情報に対応して前記第3の記憶部に記憶されている関連単語のテキスト情報を付加して前記検索情報リストを生成するようにしてあることを特徴とする。
本発明に係る電気機器は、前記使用者が発する音声の特徴を示す特徴データを、前記使用者の性別情報、年齢情報、並びに趣味及び嗜好に係る単語のテキスト情報のうちの少なくとも1つに対応付けて記憶する第4の記憶部と、前記音声検知手段が生成した特徴データを、前記第4の記憶部に記憶されている特徴データと照合する手段と、該手段の照合結果が一致する特徴データに対応して前記第4の記憶部に記憶されている情報及び/又は単語のテキスト情報を読み出す手段とを備え、該手段が読み出した情報及び/又は単語のテキスト情報を、前記格納部に格納された文字情報と照合して、一致した文字情報に対応する楽曲データを抽出するようにしてあることを特徴とする。
本発明に係る電気機器は、検索した音楽コンテンツをリストにした再生リストを用いて音楽コンテンツを再生するようにしてあることを特徴とする。
本発明によれば、音声を検知して生成した特徴データと解析用データとを照合して、一致した解析用データに対応する使用者に係る情報を取得する。
この場合、例えば使用者の特徴や使用者による会話の特徴等を、使用者が発した音声に基づいて認識することが可能であり、そのような特徴を示す情報を使用者に係る情報として音声解析用データに対応付けておくことができる。
従って、取得した使用者に係る情報に適応する検索情報を用いて音楽コンテンツを検索することとした場合は、使用者が発した音声に基づいて使用者に係る情報を取得することにより、使用者自身やその場の状況に適合する楽曲の選出を行うことが可能となる。
本発明の実施の形態1に係る携帯情報端末の外観を示す正面図である。 携帯情報端末の機能構成を示すブロック図である。 本発明の実施の形態1に係る携帯情報端末で音楽コンテンツを検索して楽曲を再生するCPUの処理手順を示すフローチャートである。 音声の特徴データの一例を示す説明図である。 音声解析用データテーブルの記憶内容の一例を示す説明図である。 リスナ情報リストの記憶内容の一例を示す説明図である。 検索キー作成用テーブルの記憶内容の一例を示す説明図である。 検索キーリストの記憶内容の一例を示す説明図である。 本発明の実施の形態2に係る携帯情報端末におけるリスナ情報の優先度の一例を示す図表である。 実施の形態2における検索キーリストの記憶内容の一例を示す説明図である。 本発明の実施の形態3に係る携帯情報端末におけるリスナ情報の優先度の一例を示す図表である。 実施の形態3における検索キーリストの記憶内容の一例を示す説明図である。 本発明の実施の形態4に係る携帯情報端末におけるリスナ情報の優先度の一例を示す図表である。 実施の形態4における検索キーリストの記憶内容の一例を示す説明図である。 本発明の実施の形態5に係る携帯情報端末におけるリスナ情報の優先度の一例を示す図表である。 実施の形態5における検索キーリストの記憶内容の一例を示す説明図である。 本発明の実施の形態6に係る携帯情報端末におけるリスナ情報の優先度の一例を示す図表である。 実施の形態6における検索キーリストの記憶内容の一例を示す説明図である。 本発明の実施の形態7に係る携帯情報端末における単語のテキスト情報の集計結果の一例を示す説明図である。 本発明の実施の形態8に係る携帯情報端末における関連単語テーブルの記憶内容の一例を示す説明図である。 実施の形態8における検索キーリストの記憶内容の一例を示す説明図である。 本発明の実施の形態9に係る携帯情報端末におけるリスナ登録情報テーブルの一例を示す図表である。 実施の形態9における検索キーの内容の一例を示す説明図である。
以下、本発明に係る電気機器の一実施例である携帯情報端末について詳述する。
(実施の形態1)
図1は、本発明の実施の形態1に係る携帯情報端末の外観を示す正面図であり、図2は、携帯情報端末の機能構成を示すブロック図である。図中1は携帯情報端末であり、携帯情報端末1は、無線回線を含むインターネット2を介して、楽曲データベース3aを有するコンテンツサーバ3と通信可能に接続されている。インターネット2は、イントラネット、LAN等の有線による他のネットワークであってもよい。
携帯情報端末1は、外観が略矩形の薄型のケースの正面に、タッチパネル21と、LCDからなる表示部22と、操作キー31a,31b,31cからなるキー群31とが設けられている。携帯情報端末1は、CPU10を備え、CPU10は、プログラム51、CGデータ52等の情報を記憶するROM50、及び各種の固定的なデータ、一時的に発生したデータ等の情報を記憶するRAM(記憶部、第2の記憶部、第3の記憶部及び第4の記憶部)60とバス接続されている。
CPU10は、また、タッチパネル21、キー群31、スピーカ32等の入出力装置を制御する入出力制御部30、音声を検知するための音センサ41を制御する音センサ制御部40、インターネット2を介してコンテンツサーバ3と通信するための通信I/F70及び時間の経過を計るタイマ80とバス接続されている。CPU10は、プログラム51に従って入出力、演算等の処理を行うことにより、各種のアプリケーションを実行する。
表示制御部20は、LCDドライバを含み、CPU10からの制御信号に基づいて、表示部22に対する表示制御を行う。
表示部22は、CPU10によるアプリケーションの実行に伴って生成された画像及び映像を表示する。
キー群31は、画面遷移、確定/キャンセル等の操作を受け付けるためのものである。
入出力制御部30は、タッチパネル21及びキー群31に対するユーザ(使用者)の操作に応じ、操作信号を取り込んでCPU10に与える。以下では、携帯情報端末1が検知した音声を発したユーザをリスナという。
スピーカ32は、CPU10によるアプリケーションの実行に伴って生成された音声の出力、楽曲の再生等を行う。
音センサ41は、周囲の音を集音する。
音センサ制御部(音声検知手段)40は、CPU10の制御により、音センサ41が集音した音から音声区間を検出して、ユーザが発した音声を検知し、検知した音声の特徴を抽出して特徴データを生成する。生成された特徴データは、RAM60に記憶される。
プログラム51は、機器全体の種々の機能を実現するための制御プログラムと、本発明を実現するためのアプリケーションプログラムとを含んでなる。
CGデータ52は、表示部22に文字を表示するためのフォントデータと、表示部22にグラフィック表示を行うためのグラフィックデータとを含んでなる。
RAM60は、以下の各種テーブル、各種リスト及びデータベースを含んでなる。
音声解析用データテーブル(記憶部)61は、音響モデル(周波数成分の分布)及び言語モデル(単語とその並び方及び言葉遣い)をデータ化した解析用データを、リスナに関するリスナ情報に対応付けて予め記憶するものである(図5参照)。
リスナ情報リスト62は、後述する音声解析によって取得したリスナ情報を取得順にリストにして記憶するためのものである(図6参照)。
検索キー作成用テーブル(第2の記憶部)63は、音楽コンテンツを検索するための検索キー(検索情報)を、ユーザに関する情報に対応付けて予め記憶するものである(図7参照)。
検索キーリスト(検索情報リスト)64は、検索キーを検索の優先度順にリストにして記憶するためのものである(図8,10,12,14,16,18,21参照)。
プレイリスト(再生リスト)65は、検索した音楽コンテンツを再生順にリストにして記憶するためのものである。
関連単語テーブル(第3の記憶部)66は、単語のテキスト情報を、その単語に関連する関連単語のテキスト情報に対応付けて予め記憶するものである(図20参照)。
リスナ登録情報テーブル(第4の記憶部)67は、ユーザが発する音声の特徴を示す特徴データを、ユーザの年齢(年代)、性別、趣味及び嗜好に関する単語のテキスト情報に対応付けて予め記憶するものである(図22参照)。
なお、関連単語テーブル66及びリスナ登録情報テーブル67は、本実施の形態1では用いない。
楽曲データベース(格納部)68は、複数の楽曲データ68aの夫々を、楽曲のジャンル、タイトル、アーティスト、歌詞、テンポ、ムード等を示す文字情報である楽曲情報68bに対応付けて音楽コンテンツとして記憶するものである。
コンテンツサーバ3が有する楽曲データベース3aは、楽曲データベース68と同様に構成されている。
以上のように構成された携帯情報端末1において、CPU10が、本発明に係るアプリケーションプログラムを実行する間に音センサ制御部40によって音声を検知した場合、CPU10は、生成した特徴データと音声解析用データテーブル61に記憶されている解析用データとを用いて、リスナ情報(例えば性別、年齢(年代)等)を取得する。その後、CPU10は、取得したリスナ情報をリストにしたリスナ情報リスト62と、検索キー作成用テーブル63とを用いて検索キーリスト64を生成し、生成した検索キーリスト64を用いて楽曲データベース68を検索して楽曲データ68aを抽出する。更に、CPU10は、抽出した楽曲データ68aをプレイリスト65にして、順次楽曲を再生出力する。
以下では、上述した実施の形態1に係る携帯情報端末1のCPU10の動作を、それを示すフローチャートを用いて説明する。以下に示す処理は、ROM50に予め格納されたプログラム51に従ってCPU10により実行される。
図3は、本発明の実施の形態1に係る携帯情報端末1で音楽コンテンツを検索して楽曲を再生するCPU10の処理手順を示すフローチャートである。図3の処理は、ユーザによるタッチパネル21及び/又はキー群31への操作により、例えば「音楽/動画再生アプリケーション」の実行が開始され、更に「音声判別によるプレイリスト再生」が選択されたときに起動される。なお、音センサ制御部40によって音声を検知して特徴データを生成する処理は、図3の処理とは別の公知の処理にて実現される。
図3の処理が起動された場合、CPU10は、タイマ80を用いて計時を開始する(S11)。ここで計測する時間は、音声の検知を判定する所定の時間であるが、この時間は、必ずしも一定でなくてもよい。その後、CPU10は、音センサ制御部40から音声の検知結果を取り込み(S12)、音声を検知したか否かを判定する(S13)。
ここでの検知結果には、音声の特徴データが含まれる。
図4は、音声の特徴データの一例を示す説明図である。特徴データは、「周波数」(例えばフーリエ変換によるもの)、「声の高さ」、「速さ、拍子」(テンポ)、「言葉遣い」、「語尾」及び「単語」等の特徴を示すデータからなる。
ステップS13で音声を検知した場合(S13:YES)、CPU10は、音センサ制御部40によって生成した特徴データと、音声解析用データテーブル61に記憶されている解析用データとの照合(マッチング)を行い(S14)、照合結果が一致するか否かを判定する(S15)。
図5は、音声解析用データテーブル61の記憶内容の一例を示す説明図である。図5では、解析用データの一部と他の一部とが、夫々別々のリスナ情報に対応付けられている。具体的には、解析用データのうちの「周波数」、「声の高さ」、「言葉遣い」及び「語尾」等の特徴を示す一部のデータは、照合されるリスナの性別(男、女)、年代(50−70才の年配、20−40才の成人、5−12才の子供、2−5才の幼児等)、及び会話のムード(明るい、歌い声、笑い声、静か等)等の項目の組み合わせからなる少なくとも5つパターンのリスナ情報に対応付けられている。また、「速さ、拍子」の特徴を示す他の一部のデータは、照合されるリスナの会話のテンポに応じて「速い」、「やや速い」、「普通」、「やや遅い」及び「遅い」等のリスナ情報に対応付けられている。
ステップS15で照合結果が一致する場合(S15:YES)、CPU10は、一致した解析データに対応付けられているリスナ情報を音声解析用データテーブル61から読み出し(S16:取得手段)、読み出したリスナ情報をリスナ情報リスト62に書き込む(S17)。
ステップS17の処理を終えた場合、又はステップS13で音声を検知しなかった場合(S13:NO)、又はステップS15で照合結果が一致しない場合(S15:NO)、CPU10は、タイマ80が所定時間を計時したか否かを判定し(S18)、所定時間を計時していない場合(S18:NO)、処理をステップS12に移す。
以上のステップS12からステップS18までの処理を所定時間内に繰り返すことにより、その間に検知された音声に応じたリスナ情報がリスナ情報リスト62に順次書き込まれてリスナ情報リスト62が生成される。
図6は、リスナ情報リスト62の記憶内容の一例を示す説明図である。図6では、1から3番目のリスナ情報として、図5に示すパターン1から3又はそれに近いパターンのリスナ情報と、会話のテンポを示すリスナ情報とが組み合わされて書き込まれている。
ステップS18で、タイマ80が所定時間を計時した場合(S18:YES)、CPU10は、リスナ情報リスト62にリスナ情報が有る(書き込まれている)か否かを判定し(S20)、無い場合(S20:NO)、つまり所定時間内に解析用データと照合する音声を検知できなかった場合、そのまま図3の処理を終了する。
一方、リスナ情報が有る場合(S20:YES)、CPU10は、検索キー作成用テーブル63をサーチして、リスナ情報に対応する検索キーを読み出し(S21:読出手段)、読み出した検索キーを検索キーリスト64に書き込む(S22)。この場合、1つのリスナ情報について2つ以上の検索キーを読み出して検索キーリスト64に書き込んでもよい。CPU10は、リスナ情報リスト62内の全てのリスナ情報についてステップS20からS22までの処理を繰り返すことにより、検索キーリスト64を生成する。
図7は、検索キー作成用テーブル63の記憶内容の一例を示す説明図である。図7では、検索キーとしての楽曲のジャンル(POPS、童謡、バラード、ロック及びアニメソング等)と、リスナ情報とが対応付けられている。POPSに対応付けられたリスナ情報の各項目は、性別が男/女何れか、年代が20−40才の成人又は10−20才の子供の何れか、テンポが速い、やや速い又は普通の何れか、会話のムードが明るいか笑い声かの何れかとなっている。童謡、バラード及びロックについても図7から同様に読み取れるので、説明を省略する。
図8は、検索キーリスト64の記憶内容の一例を示す説明図である。図8では、1番目の検索キーとしてPOPS及びロックが書き込まれている。これは、リスナ情報リスト62の1番目のリスナ情報に対応する検索キーが、検索キー作成用テーブル63から2つ読み出されたことを示す。同様に読み出された2番目の検索キーは、POPS及びバラードであり、3番目の検索キーは、童謡及びアニメソングである。
ステップS22に続いて、CPU10は、検索キーリスト64内の検索キーの1つと、楽曲データベース68の楽曲情報68bとを照合し(S23)、照合結果が一致するか否かを判定する(S24)。楽曲データベース68に替えて、コンテンツサーバ3が有する楽曲データベース3aを用い、検索キーリスト64内の検索キーの1つと、楽曲データベース3aの楽曲情報とを照合するようにしてもよい。
照合結果が一致する場合(S24:YES)、CPU10は、一致した楽曲情報68bに対応する楽曲データ68aを抽出して(S25)プレイリスト65に書き込む(S26)。この場合、全ての楽曲情報68bと照合して一致した1又は複数の楽曲データ68aを抽出してもよいし、照合結果が一致したところで当該検索キーについての照合を終えてもよい。
なおステップS26では、楽曲情報68bに対応する楽曲データ68aを読み出してプレイリスト65に書き込んでもよいし、例えば楽曲データ68aの記憶領域を示す情報をプレイリスト65に書き込んでもよい。ステップS23で楽曲情報68bに替えて楽曲データベース3aの楽曲情報と照合した場合は、楽曲データベース3aの楽曲データ又は該楽曲データの記憶領域を示す情報をプレイリスト65に書き込めばよい。
ステップS26の処理を終えた場合、又はステップS24で照合結果が一致しない場合(S24:NO)、CPU10は、検索キーリスト64内の全ての検索キーについて楽曲情報68bとの照合を終えたか否か、つまり全ての検索キーについて検索を終えたか否かを判定し(S27)、終えていない場合(S27:NO)、処理をステップS23に移す。
以上のステップS23からステップS27までの処理を全ての検索キーについて順次繰り返すことにより、その間に照合結果が一致した楽曲情報68bに対応する楽曲データ68aがプレイリスト65に順次書き込まれてプレイリスト65が生成される。
ステップS27で全ての検索キーについて検索を終えた場合(S27:YES)、CPU10は、生成されたプレイリスト65を用いて楽曲を再生出力して(S28)図3の処理を終了する。具体的には、プレイリスト65に書き込まれている楽曲データ68a、又は楽曲データ68aの記憶領域を示す情報に基づいて読み出した楽曲データ68aを用いて楽曲を順次再生する。
以上のように本実施の形態1によれば、音響モデル及び言語モデルをデータ化した解析用データをリスナ情報に対応付けて音声解析用データテーブル61に記憶しておき、音センサ41で集音した音から音センサ制御部40を用いて音声を検知して特徴データを生成し、生成した特徴データと解析用データとを照合して、一致した解析用データに対応するリスナ情報を取得し、取得したリスナ情報に応じた検索キーを用いて、楽曲データベース68に記憶された音楽コンテンツを検索する。
この場合、例えばリスナの性別、年齢等の特徴や、リスナによる会話のテンポ、ムード等の特徴を、リスナが発した音声に基づいて認識することが可能であり、そのような特徴を示す情報をリスナ情報(ユーザに係る情報)として音声解析用データテーブル61に記憶しておくことができる。
従って、取得したユーザに係る情報に適応する検索情報を用いて音楽コンテンツを検索することとした場合は、ユーザ(使用者)が発した音声に基づいてユーザに係る情報を取得することにより、ユーザ自身やその場の状況に適合する楽曲の選出を行うことが可能となる。
また、複数の楽曲データ68aの夫々を、楽曲のジャンル、タイトル、アーティスト、歌詞、テンポ、ムード等を示す文字情報である楽曲情報68bに対応付けた音楽コンテンツが、RAM60に含まれる楽曲データベース68に記憶されており、音楽コンテンツを検索するための検索キーを、リスナ情報に対応付けて予め検索キー作成用テーブル63に記憶しておき、取得したリスナ情報に対応する検索キーを読み出し、読み出した検索キーと楽曲情報68bとを照合して、一致した楽曲情報68bに対応する楽曲データ68aを抽出する。
この場合、リスナ情報によって示されるリスナの特徴や会話の特徴等にふさわしい楽曲の楽曲情報と、そのリスナ情報とを対応付けて検索キー作成用テーブル63に記憶しておくことができる。
従って、音楽コンテンツを検索するための検索キー(検索情報)を、取得したリスナ情報(ユーザに係る情報)に応じて検索キー作成用テーブル63から読み出すことにより、ユーザに係る情報にふさわしい検索情報を用いて音楽コンテンツを検索することが可能となる。
最近の携帯電話などでは、音声による入力、検索、アプリケーション起動等が可能なものが増えているが、本発明は、音声認識機能とミュージック再生機能とを融合する技術を実現するものであり、例えば、車両に複数の人が搭乗している場合のオーディオ機器による楽曲の再生等に有効である。また、楽曲の再生のみならず、画像や映像の再生についても同様に有効である。
更に、抽出した楽曲データ68a又は該楽曲データ68aの記憶領域を示す情報をプレイリスト65に書き込んでプレイリスト65を生成し、生成したプレイリスト65を用いて楽曲データ68aに基づく楽曲を再生する。
従って、ユーザが煩雑な操作を行うことなしに、選出した楽曲を選出した順序で自動的に再生することが可能となる。また、図3に示す処理が終了する都度、同じ処理を起動するようにした場合は、リスナの構成や状況が変わる度にプレイリスト65を切り換える必要がなく、そのときのリスナ同士の会話に適合する楽曲を選出して自動的に再生することが可能となる。
なお、本実施の形態1にあっては、リスナ情報リスト62、検索キーリスト64及びプレイリスト65を生成して楽曲を再生する場合について説明したが、必ずしもこれらのリストを生成しなくてもよい。
例えばこれら3つのリストを生成しない場合は、音声解析用データテーブル61からリスナ情報を読み出した(ステップS16)後にステップS21に処理を移し、更にステップS22をスキップし、ステップS25で抽出した楽曲データ68aに基づいて楽曲を再生すればよい。
また例えば検索キーリスト64及びプレイリスト65を生成しない場合は、検索キー作成用テーブル63から検索キーを読み出した(ステップS21)後にステップS23に処理を移し、ステップS25で抽出した楽曲データ68aに基づいて楽曲を再生した後に、ステップS21に処理を移して、リスナ情報リスト62内の次のリスナ情報に対応する検索キーを読み出せばよい。
また例えばプレイリスト65を生成しない場合は、ステップS25で抽出した楽曲データ68aに基づいて楽曲を再生した後に、ステップS27に処理を移し、これらのステップを繰り返すことにより、検索キーリスト64内の検索キーのリスト順に楽曲を再生すればよい。
(実施の形態2)
実施の形態1が、リスナ情報リスト62内のリスナ情報のリスト順に検索キーリスト64を生成する形態であるのに対し、実施の形態2は、リスナ情報の偏りに応じた優先度順に検索キーリスト64を生成する形態である。
図9は、本発明の実施の形態2に係る携帯情報端末1におけるリスナ情報の優先度の一例を示す図表であり、図10は、実施の形態2における検索キーリスト64の記憶内容の一例を示す説明図である。
実施の形態1での説明に用いた図6では、リスナ情報リスト62内のリスナ情報に、リスナの性別を示す性別情報が含まれており、この性別情報のうち、「男」の偏重度が高く、「女」の偏重度が小さい。そこで本実施の形態2では、この場合の性別の優先度として、図9に示すように「男」に第1の優先度を付与し、「男/女」に第2の優先度を付与し、「女」に第3の優先度を付与する。
ここでは、CPU10が、図6に示すリスナ情報リスト62内のリスナ情報のうち、先ず第1優先度の「男」に該当する1番目及び3番目のリスナ情報をこの順に読み出し、次に、第2優先度の「男/女」に該当する1から3番目のリスナ情報をこの順に読み出し、その次に、第3優先度の「女」に該当する2番目のリスナ情報を読み出す。CPU10が読み出したリスナ情報は、その都度検索キー作成用テーブル63のリスナ情報と照合され、照合結果が一致するリスナ情報に対応付けられた検索キーが読み出される。
先ず、第1優先度の「男」に該当する1番目のリスナ情報について、CPU10は、図7に示す検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、ロック及びPOPSをこの順に読み出して、図10に示す検索キーリスト64に書き込む。この場合、第1優先度の「男」に対応する「男性向け」の項目が、検索キーに付加される。そして、3番目のリスナ情報について、CPU10は、検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、童謡を読み出して、図10に示す検索キーリスト64に追記する。この場合も、第1優先度の「男」に対応する「男性向け」の項目が、検索キーに付加される。
次いで、第2優先度の「男/女」に該当する1番目及び2番目のリスナ情報について、CPU10は、検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、POPSを読み出して検索キーリスト64に追記し、3番目のリスナ情報について、童謡を読み出して検索キーリスト64に追記する。そして、これらの検索キーには、第2優先度の「男/女」に対応する「男/女向け」の項目が付加される。
次いで、第3優先度の「女」に該当する2番目のリスナ情報について、CPU10は、検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、バラードを読み出して検索キーリスト64に追記すると共に、第3優先度の「女」に対応する「女性向け」の項目を、検索キーに付加する。以上のようにして、検索キーリスト64が生成される(生成手段)。
CPU10は、生成した検索キーリスト64からリスト順に、即ち図10に示す優先度順に検索キーを読み出し、読み出した検索キーと楽曲情報68bとを照合して、一致した楽曲情報68bに対応する楽曲データ68aを抽出する。楽曲データ68aを抽出した後の処理については、実施の形態1と同様である。
その他、実施の形態1に対応する箇所には同様の符号を付して、その詳細な説明を省略する。
以上のように本実施の形態2によれば、検索キー作成用テーブル63から読み出した検索キーを、読み出された検索キーの偏りを示す偏重度に応じた順序で検索キーリスト64を生成し、生成した検索キーリスト64に含まれる検索キーを、楽曲データベース68に格納された楽曲情報68bと照合して、一致した楽曲情報68bに対応する楽曲データ68aを抽出する。
従って、複数のリスナについて、高い満足度が得られる順に楽曲を選出して自動的に再生することが可能となる。
また、リスナの性別を示す性別情報が含まれたリスナ情報を音声解析用データテーブル61から取得し、取得したリスナ情報に含まれる性別情報の偏重度に応じた順序で検索キーリスト64を生成する。
従って、リスナの性別を重視した選曲を行うことにより、複数のリスナについて、より高い満足度が得られる順に楽曲を選出して自動的に再生することが可能となる。
(実施の形態3)
実施の形態2が、リスナの性別を重視した選曲を行う形態であるのに対し、実施の形態3は、リスナの年齢(年代)を重視した選曲を行う形態である。
図11は、本発明の実施の形態3に係る携帯情報端末1におけるリスナ情報の優先度の一例を示す図表であり、図12は、実施の形態3における検索キーリスト64の記憶内容の一例を示す説明図である。
実施の形態1での説明に用いた図6では、リスナ情報リスト62内のリスナ情報に、リスナの年齢(年代)を示す年齢情報が含まれており、この年齢情報のうち、「成人20−40才」の偏重度が高く、「幼児2−5才」の偏重度が小さい。そこで本実施の形態3では、この場合の年代の優先度として、図11に示すように「成人20−40才」に第1の優先度を付与し、「幼児2−5才」に第2の優先度を付与し、「一般」に第3の優先度を付与する。
ここでは、CPU10が、図6に示すリスナ情報リスト62内のリスナ情報のうち、先ず第1優先度の「成人20−40才」に該当する1番目及び2番目のリスナ情報をこの順に読み出し、次に、第2優先度の「幼児2−5才」に該当する3番目のリスナ情報を読み出し、その次に、第3優先度の「一般」に該当するリスナ情報(図6では図示せず)を読み出す。CPU10が読み出したリスナ情報は、その都度検索キー作成用テーブル63のリスナ情報と照合され、照合結果が一致するリスナ情報に対応付けられた検索キーが読み出される。
先ず、第1優先度の「成人20−40才」に該当する1番目のリスナ情報について、CPU10は、図7に示す検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、POPS及びロックをこの順に読み出して、図12に示す検索キーリスト64に書き込む。この場合、第1優先度の「成人20−40才」に対応する「成人20−40才向け」の項目が、検索キーに付加される。そして、2番目のリスナ情報について、CPU10は、検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、バラードを読み出して、図12に示す検索キーリスト64に追記する。この場合も、第1優先度の「成人20−40才」に対応する「成人20−40才向け」の項目が、検索キーに付加される。
次いで、第2優先度の「幼児2−5才」に該当する3番目のリスナ情報について、CPU10は、検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、童謡及びアニメソングをこの順に読み出して検索キーリスト64に追記する。この場合も、第2優先度の「幼児2−5才」に対応する「幼児2−5才向け」の項目が、検索キーに付加される。
次いで、第3優先度の「一般」に該当するリスナ情報について、CPU10は、検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、例えばPOPSを読み出して検索キーリスト64に追記すると共に、第3優先度の「一般」に対応する「一般向け」の項目を、検索キーに付加する。
CPU10が検索キーリスト64を生成した後の処理については、実施の形態1及び2と同様である。その他、実施の形態1に対応する箇所には同様の符号を付して、その詳細な説明を省略する。
以上のように本実施の形態3によれば、リスナの年齢(年代)を示す年齢情報が含まれたリスナ情報を音声解析用データテーブル61から取得し、取得したリスナ情報に含まれる年齢情報の偏重度に応じた順序で検索キーリスト64を生成する。
従って、リスナの年齢を重視した選曲を行うことにより、複数のリスナについて、より高い満足度が得られる順に楽曲を選出して自動的に再生することが可能となる。
(実施の形態4)
実施の形態2が、リスナの性別を重視した選曲を行う形態であるのに対し、実施の形態4は、リスナの会話のテンポを重視した選曲を行う形態である。
図13は、本発明の実施の形態4に係る携帯情報端末1におけるリスナ情報の優先度の一例を示す図表であり、図14は、実施の形態4における検索キーリスト64の記憶内容の一例を示す説明図である。
実施の形態1での説明に用いた図6では、リスナ情報リスト62内のリスナ情報に、リスナの会話のテンポを示すテンポ情報が含まれており、例えばこのテンポ情報のうち、「速い」の偏重度が高く、「速い、4/4拍子」の偏重度がそれに続き、「やや速い」及び「普通」の偏重度が小さいものとする。そこで本実施の形態4では、この場合の会話のテンポの優先度として、図13に示すように「速い」に第1の優先度を付与し、「速い、4/4拍子」に第2の優先度を付与し、「やや速い」に第3の優先度を付与し、「普通」に第4の優先度を付与する。
ここでは、CPU10が、図6に示すリスナ情報リスト62内のリスナ情報のうち、先ず第1優先度の「速い」に該当するリスナ情報を読み出し、次に、第2優先度の「速い、4/4拍子」に該当するリスナ情報を読み出し、その次に、第3優先度の「やや速い」に該当するリスナ情報を読み出し、最後に第4優先度の「普通」に該当するリスナ情報を読み出す。CPU10が読み出したリスナ情報は、その都度検索キー作成用テーブル63のリスナ情報と照合され、照合結果が一致するリスナ情報に対応付けられた検索キーが読み出される。
先ず、第1優先度の「速い」に該当するリスナ情報について、CPU10は、図7に示す検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、POPS及びロックをこの順に読み出して、図14に示す検索キーリスト64に書き込む。この場合、第1優先度の「速い」の項目が、検索キーに付加される。
次いで、第2優先度の「速い、4/4拍子」に該当するリスナ情報について、CPU10は、検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、童謡及び童謡をこの順に読み出して検索キーリスト64に追記する。この場合も、第2優先度の「速い、4/4拍子」に対応する「速い、4/4拍子」及び「速い」の項目が、検索キーに付加される。
次いで、第3優先度の「やや速い」に該当するリスナ情報について、CPU10は、検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、例えばPOPS及びバラードをこの順に読み出して検索キーリスト64に追記すると共に、第3優先度の「やや速い」に対応する「やや速い」の項目を、検索キーに付加する(以下省略)。
CPU10が検索キーリスト64を生成した後の処理については、実施の形態1及び2と同様である。その他、実施の形態1に対応する箇所には同様の符号を付して、その詳細な説明を省略する。
以上のように本実施の形態4によれば、リスナの会話のテンポを示すテンポ情報が含まれたリスナ情報を音声解析用データテーブル61から取得し、取得したリスナ情報に含まれるテンポ情報の偏重度に応じた順序で検索キーリスト64を生成する。
従って、リスナの会話のテンポを重視した選曲を行うことにより、複数のリスナについて、より高い満足度が得られる順に楽曲を選出して自動的に再生することが可能となる。
(実施の形態5)
実施の形態2が、リスナの性別を重視した選曲を行う形態であるのに対し、実施の形態5は、リスナの会話のムードを重視した選曲を行う形態である。
図15は、本発明の実施の形態5に係る携帯情報端末1におけるリスナ情報の優先度の一例を示す図表であり、図16は、実施の形態5における検索キーリスト64の記憶内容の一例を示す説明図である。
実施の形態1での説明に用いた図6では、リスナ情報リスト62内のリスナ情報に、リスナの会話のムードを示すムード情報が含まれており、例えばこのムード情報のうち、「明るい、楽しい、笑い声」の偏重度が高く、「静か、落ち着いた」の偏重度がそれに続いて高いものとする。そこで本実施の形態5では、この場合の会話のテンポの優先度として、図15に示すように「明るい、楽しい、笑い声」に第1の優先度を付与し、「静か、落ち着いた」に第2の優先度を付与する(以下省略)。
ここでは、CPU10が、図6に示すリスナ情報リスト62内のリスナ情報のうち、先ず第1優先度の「明るい、楽しい、笑い声」に該当するリスナ情報を読み出し、次に、第2優先度の「静か、落ち着いた」に該当するリスナ情報を読み出す(以下省略)。CPU10が読み出したリスナ情報は、その都度検索キー作成用テーブル63のリスナ情報と照合され、照合結果が一致するリスナ情報に対応付けられた検索キーが読み出される。
先ず、第1優先度の「明るい、楽しい、笑い声」に該当するリスナ情報について、CPU10は、図7に示す検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、POPS、ロック、童謡及びアニメソングをこの順に読み出して、図16に示す検索キーリスト64に書き込む。この場合、第1優先度の「明るい、楽しい、笑い声」の項目のうち、照合結果が一致した「明るい、楽しい」又は「明るい、楽しい、笑い声」が、検索キーに付加される。
次いで、第2優先度の「静か、落ち着いた」に該当するリスナ情報について、CPU10は、検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、POPS、バラード及び童謡をこの順に読み出して検索キーリスト64に追記する。この場合、第2優先度の「静か、落ち着いた」の項目が、検索キーに付加される。
CPU10が検索キーリスト64を生成した後の処理については、実施の形態1及び2と同様である。その他、実施の形態1に対応する箇所には同様の符号を付して、その詳細な説明を省略する。
以上のように本実施の形態5によれば、リスナの会話のムードを示すムード情報が含まれたリスナ情報を音声解析用データテーブル61から取得し、取得したリスナ情報に含まれるムード情報の偏重度に応じた順序で検索キーリスト64を生成する。
従って、リスナの会話のムードを重視した選曲を行うことにより、複数のリスナについて、より高い満足度が得られる順に楽曲を選出して自動的に再生することが可能となる。
(実施の形態6)
実施の形態2が、リスナの性別を重視した選曲を行う形態であるのに対し、実施の形態6は、リスナの性別、年齢(年代)、会話のテンポ及び会話のムードの全てを重視した選曲を行う形態である。
図17は、本発明の実施の形態6に係る携帯情報端末1におけるリスナ情報の優先度の一例を示す図表であり、図18は、実施の形態6における検索キーリスト64の記憶内容の一例を示す説明図である。
実施の形態1での説明に用いた図6では、リスナ情報リスト62内のリスナ情報に、リスナの性別、年齢(年代)、会話のテンポ及び会話のムードの夫々を示す性別情報、年齢情報、テンポ情報及びムード情報が含まれている。これらの情報のうち、性別情報については、「男」、「男/女」及び「女」の順に偏重度が高く、年齢情報については、「成人20−40才」及び「幼児2−5才」の順に偏重度が高く、テンポ情報については、「速い」及び「やや速い」の順に偏重度が高く、ムード情報については、「明るい」及び「静か」の順に偏重度が高い。
そこで本実施の形態6では、各情報の組み合わせの優先度として、図17に示すように「男」、「成人20−40才」、「速い」及び「明るい」の組み合わせに第1の優先度を付与し、「男/女」、「成人20−40才」、「やや速い」及び「明るい」の組み合わせに第2の優先度を付与する。第3優先度から第5優先度については、図17から同様に読み取れるので、説明を省略する。第1から第5の優先度が付与される各情報の組み合わせは、性別情報、年齢情報、テンポ情報及びムード情報のうちの少なくとも2つを任意に組み合わせればよい。このようにして設定した第1優先度から第5優先度の組み合わせ情報の夫々を、[重み付け情報]No.1から[重み付け情報]No.5という。
ここでは、CPU10は、図6に示すリスナ情報リスト62内のリスナ情報のうち、先ず第1優先度の「男」、「成人20−40才」、「速い」及び「明るい」に該当する1番目のリスナ情報を読み出し、次に、第2優先度の「男/女」、「成人20−40才」、「やや速い」及び「明るい」に該当する2番目のリスナ情報を読み出し、その次に、第3優先度の「男」、「幼児2−5才」、「速い」及び「明るい」に該当する3番目のリスナ情報を読み出す。CPU10が読み出したリスナ情報は、その都度検索キー作成用テーブル63のリスナ情報と照合され、照合結果が一致するリスナ情報に対応付けられた検索キーが読み出される。
先ず、第1優先度の「男」、「成人20−40才」、「速い」及び「明るい」に該当する1番目のリスナ情報について、CPU10は、図7に示す検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、POPS及びロックをこの順に読み出して、図12に示す検索キーリスト64に書き込む。この場合、第1優先度に対応する「[重み付け情報]No.1」の項目が、検索キーに付加される。
次いで、第2優先度の「男/女」、「成人20−40才」、「やや速い」及び「明るい」に該当する2番目のリスナ情報について、CPU10は、検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、POPSを読み出して検索キーリスト64に追記する。この場合も、第2優先度に対応する「[重み付け情報]No.1」の項目が、検索キーに付加される。
次いで、第3優先度の「男」、「幼児2−5才」、「速い」及び「明るい」に該当する3番目のリスナ情報について、CPU10は、検索キー作成用テーブル63に記憶されたジャンルに係る検索キーのうち、童謡及びアニメソングをこの順に読み出して検索キーリスト64に追記すると共に、第3優先度に対応する「[重み付け情報]No.2」の項目を、検索キーに付加する。
CPU10が検索キーリスト64を生成した後の処理については、実施の形態1及び2と同様である。その他、実施の形態1に対応する箇所には同様の符号を付して、その詳細な説明を省略する。
以上のように本実施の形態6によれば、リスナの性別情報、年齢情報、会話のテンポ情報及び会話のムード情報のうちの少なくとも2つの情報が含まれたリスナ情報を音声解析用データテーブル61から取得し、取得したリスナ情報に含まれる上記少なくとも2つの情報夫々の偏重度に応じた順序で検索キーリスト64を生成する。
従って、リスナの性別、年齢、会話のテンポ及び会話のムードのうちの少なくとも2つを重視した選曲を行うことにより、複数のリスナについて、より高い満足度が得られる順に楽曲を選出して自動的に再生することが可能となる。
(実施の形態7)
実施の形態1は、検知した音声の特徴を示す特徴データ及び解析用データを照合して一致した解析用データに対応するリスナ情報を取得し、取得したリスナ情報に対応して検索キー作成用テーブル63に記憶されている検索キーに基づいて音楽コンテンツを検索する形態である。これに対し、実施の形態7は、検知した音声の特徴を示す特徴データ及び解析用データを照合して一致した解析用データに対応する単語のテキスト情報を取得し、取得した単語のテキスト情報に基づいて音楽コンテンツを検索する形態である。
本実施の形態7では、取得した単語のテキスト情報は、即ち、リスナが発声した単語のテキスト情報である。この単語のテキスト情報を楽曲データベース68の楽曲情報68bと照合して、一致した楽曲情報68bに対応する楽曲データ68aを抽出することが可能であるが、ここでは、CPU10が、繰り返し取得した単語のテキスト情報の出現回数をカウントして集計する(集計手段)。
図19は、本発明の実施の形態7に係る携帯情報端末1における単語のテキスト情報の集計結果の一例を示す説明図である。図19に示すように、CPU10が集計した単語のテキスト情報には集計結果に応じて優先度が付与される。そして、図19に示した集計結果のうち、「カウント」の欄を除いたものが、そのまま検索キーリスト64となる。更に、CPU10は、検索キーリスト64からリスト順(即ち優先度順)に読み出した検索キーとしての単語のテキスト情報と、楽曲データベース68の楽曲情報68bに含まれるジャンル、タイトル、アーティスト、歌詞等の文字情報とを照合して、一致した楽曲情報68bに対応する楽曲データ68aを再生する。
その他、実施の形態1に対応する箇所には同様の符号を付して、その詳細な説明を省略する。
以上のように本実施の形態7によれば、検知した音声に応じて生成した特徴データと解析用データとを照合して、一致した解析用データに対応する単語のテキスト情報を取得し、取得した単語のテキスト情報の出現回数をカウントして集計し、集計結果に応じた順序で単語のテキスト情報を並べ替えて検索キーリスト64を生成し、生成した検索キーリスト64から読み出した検索キーと楽曲情報68bとを照合して一致した楽曲情報68bに対応する楽曲データ68aを再生する。
従って、ユーザがそのときに注目している内容や、ユーザの会話状況に適合する楽曲を選出して自動的に再生することが可能となる。
(実施の形態8)
実施の形態7が、取得した単語のテキスト情報を集計し、集計結果に応じた順序で単語のテキスト情報をリストにした検索キーリスト64を生成する形態であるのに対し、実施の形態8は、集計した各単語のテキスト情報に、夫々の単語に関連する関連単語のテキスト情報を付加してて検索キーリスト64を生成する形態である。
図20は、本発明の実施の形態8に係る携帯情報端末1における関連単語テーブル66の記憶内容の一例を示す説明図であり、図21は、実施の形態8における検索キーリスト64の記憶内容の一例を示す説明図である。
図20では、単語のテキスト情報の「クリスマス」に、関連単語のテキスト情報の「クリスマス、クリスマスパーティ、ツリー、ジングルベル、サンタ、サンタクロース、トナカイ、そり、雪、snow等々」が対応付けられている。また、単語のテキスト情報の「夏」には関連単語のテキスト情報の「夏、Summer、海、プール、暑い等」が対応付けられ、単語のテキスト情報の「冬」には関連単語のテキスト情報の「冬、Winter、雪、スキー、寒い等」が対応付けられている。
例えば、CPU10が、取得した単語のテキスト情報を集計した結果、優先度1及び2の単語のテキスト情報が、夫々「クリスマス」及び「冬」である場合、関連単語テーブル66で「クリスマス」に対応付けられている関連単語のテキスト情報を、優先度1の検索キーとし、「冬」に対応付けられている関連単語のテキスト情報を、優先度2の検索キーとして検索キーリスト64を生成する。
なお、上述した例では、関連単語のテキスト情報に元の単語のテキスト情報(例えば「クリスマス」、「冬」等)が含まれているが、関連単語のテキスト情報に元の単語のテキスト情報が含まれない場合は、CPU10が、取得して集計した各優先度の単語のテキスト情報に、関連単語のテキスト情報を付加して検索キーリスト64を生成する。
CPU10が検索キーリスト64を生成した後の処理については、実施の形態1と同様である。その他、実施の形態1に対応する箇所には同様の符号を付して、その詳細な説明を省略する。
以上のように本実施の形態8によれば、単語のテキスト情報と、該単語のテキスト情報に関連する関連単語のテキスト情報とを対応付けて関連単語テーブル66に記憶してあり、取得して集計した各優先度の単語のテキスト情報に、関連単語のテキスト情報を付加して検索キーリスト64を生成する。
従って、出現頻度の高い単語の優先度を高くして検索キーとすることにより、ユーザの会話の話題に適合する楽曲を選出して自動的に再生することが可能となる。
(実施の形態9)
実施の形態1は、検知した音声の特徴を示す特徴データ及び解析用データを照合して一致した解析用データに対応するリスナ情報を取得し、取得したリスナ情報に対応して検索キー作成用テーブル63に記憶されている検索キーに基づいて音楽コンテンツを検索する形態である。これに対し、実施の形態9は、検知した音声の特徴を示す特徴データを、予めリスナ登録情報テーブル67に記憶されている特徴データと照合し、照合結果が一致した特徴データに対応するユーザ固有の情報を検索キーとして音楽コンテンツを検索する形態である。
図22は、本発明の実施の形態9に係る携帯情報端末1におけるリスナ登録情報テーブル67の一例を示す図表であり、図23は、実施の形態9における検索キーの内容の一例を示す説明図である。図22では、例えばリスナA及びXX夫々の、登録情報が記憶されている。各登録情報は、夫々のリスナが発する音声の特徴データ(図22では音声情報と表示する)と、夫々のリスナに固有の情報とからなり、夫々の特徴データと固有の情報とが対応付けられている。
ここでの音声の特徴データは、音センサ制御部40による音声の検知結果に含まれる音声の特徴データ(図4参照)と対応しており、「周波数」、「声の高さ」、「速さ、拍子」(テンポ)、「言葉遣い」及び「語尾」等の特徴を示すデータからなる。また、リスナに固有の情報は、性別情報、年齢情報、並びに趣味及び嗜好に係る単語のテキスト情報のテキスト情報からなる。
例えば、リスナAに固有の情報について言えば、性別情報は「女」であり、年齢情報は「30才」である。そして、趣味及び嗜好に係る単語のうち、好きな言葉は「希望、Love」であり、好きなタレントは「XXXX」であり、好きなドラマは「XXXX」であり、好きな季節は「冬」となっている。この他に、好きなアーティスト、好きなジャンル、好きなキャラクタ、好きな動物等を、固有の情報に含めてもよい。リスナXXに固有の情報についても、図22から読み取れるとおりであるので、説明を省略する。
さて、CPU10が、音声を検知して特徴データを生成した場合、生成した特徴データと、リスナ登録情報テーブル67に記憶されている特徴データ(音声情報)とを照合し、照合結果が一致した特徴データに対応する固有の情報を読み出して検索キーとする。例えば、生成した特徴データと、リスナAの特徴データとが一致した場合、図22に示すリスナAの固有の情報を読み出して、図23に示す検索キーを生成する。
即ち、リスナAが30才の女性であるので、検索キーに「女性向け」及び「年代:30才」の項目を含める。また、リスナAが好きな言葉が「希望、Love」であり、好きなタレントが「XXXX」であるので、検索キーに「単語:希望、Love」及び「タレント名:XXXX」の項目を含める。更に、リスナAが好きなドラマが「XXXX」であり、好きな季節が「冬」であるので、検索キーに「ドラマ:XXXX」及び「季節:冬」の項目を含める。
CPU10は、このようにして生成した検索キーを、楽曲データベース68の楽曲情報68bと照合し、照合結果が一致した楽曲情報に対応する楽曲データ68aを抽出して、楽曲を再生出力する。
その他、実施の形態1に対応する箇所には同様の符号を付して、その詳細な説明を省略する。
以上のように本実施の形態9によれば、リスナが発する音声の特徴を示す音声情報(特徴データ)を、ユーザの性別情報、年齢情報、並びに趣味及び嗜好に係る単語のテキスト情報に対応付けてリスナ登録情報テーブル67に記憶しておき、音声を検知して生成した特徴データを、リスナ登録情報テーブル67に記憶されている特徴データと照合し、照合結果が一致する特徴データに対応してリスナ登録情報テーブル67に記憶されている情報及び単語のテキスト情報を、楽曲情報68bと照合し、照合結果が一致した楽曲情報68bに対応する楽曲データ68aを抽出して楽曲を再生する。
従って、ユーザの性別、年代、趣味及び嗜好等に適合する楽曲の選出を行うことが可能となる。
今回開示された実施の形態は、全ての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。また、各実施の形態で記載されている技術的特徴は、お互いに組み合わせることが可能である。
1 携帯情報端末(電気機器)
3 コンテンツサーバ
3a 楽曲データベース(音楽コンテンツの格納部)
10 CPU
22 表示部
32 スピーカ
41 音センサ
40 音センサ制御部(音声検知手段)
50 ROM
60 RAM
61 音声解析用データテーブル(記憶部)
63 検索キー作成用テーブル(第2の記憶部)
64 検索キーリスト(検索情報リスト)
65 プレイリスト(再生リスト)
66 関連単語テーブル(第3の記憶部)
67 リスナ登録情報テーブル(第4の記憶部)
68 楽曲データベース(音楽コンテンツの格納部)
68a 楽曲データ
68b 楽曲情報

Claims (9)

  1. 格納部に格納された音楽コンテンツを検索するための使用者に係る情報を取得する取得手段を備え、該取得手段が取得した情報に応じた検索情報を用いて前記格納部に格納された音楽コンテンツを検索する電気機器において、
    音声を検知して音声の特徴を示す特徴データを生成する音声検知手段と、
    音響モデル及び言語モデルをデータ化した解析用データを、使用者に係る情報に対応付けて記憶する記憶部とを備え、
    前記取得手段は、前記音声検知手段が生成した特徴データを、前記記憶部に記憶されている解析用データと照合して、一致した解析用データに対応する使用者に係る情報を取得するようにしてあること
    を特徴とする電気機器。
  2. 前記音楽コンテンツは、複数の楽曲データ及び該楽曲データに係る文字情報が対応付けられて前記格納部に格納されており、
    音楽コンテンツを検索するための検索情報を、使用者に係る情報に対応付けて記憶する第2の記憶部と、
    前記取得手段が取得した使用者に係る情報に対応して前記第2の記憶部に記憶されている検索情報を読み出す読出手段とを備え、
    該読出手段が読み出した検索情報を、前記格納部に格納された文字情報と照合して、一致した文字情報に対応する楽曲データを抽出するようにしてあること
    を特徴とする請求項1に記載の電気機器。
  3. 前記取得手段は、使用者に係る情報を複数取得するようにしてあり、
    前記読出手段が読み出した検索情報を、前記取得手段が取得した使用者に係る情報の偏りを示す偏重度に応じた順序でリストにした検索情報リストを生成する生成手段を備え、
    該生成手段が生成した検索情報リストに含まれる検索情報を、前記格納部に格納された文字情報と照合して、一致した文字情報に対応する楽曲データを抽出するようにしてあること
    を特徴とする請求項2に記載の電気機器。
  4. 前記取得手段は、前記使用者の性別を示す性別情報を取得するようにしてあることを特徴とする請求項3に記載の電気機器。
  5. 前記取得手段は、前記使用者の年齢を示す年齢情報を取得するようにしてあることを特徴とする請求項3に記載の電気機器。
  6. 前記使用者に係る情報は、前記使用者が発声する単語のテキスト情報であり、
    前記音楽コンテンツは、複数の楽曲データ及び該楽曲データに係る文字情報が対応付けられて前記格納部に格納されており、
    前記取得手段が取得した単語のテキスト情報を集計する集計手段と、
    該集計手段の集計結果に応じた順序で前記取得手段が取得した単語のテキスト情報をリストにした検索情報リストを生成する生成手段とを備え、
    該生成手段が生成した検索情報リストに含まれる単語のテキスト情報を、前記格納部に格納された文字情報と照合して、一致した文字情報に対応する楽曲データを抽出するようにしてあること
    を特徴とする請求項1に記載の電気機器。
  7. 単語のテキスト情報を該単語に関連する関連単語のテキスト情報に対応付けて記憶する第3の記憶部を備え、
    前記生成手段は、前記集計手段が集計した各単語のテキスト情報に、夫々の単語のテキスト情報に対応して前記第3の記憶部に記憶されている関連単語のテキスト情報を付加して前記検索情報リストを生成するようにしてあること
    を特徴とする請求項6に記載の電気機器。
  8. 前記使用者が発する音声の特徴を示す特徴データを、前記使用者の性別情報、年齢情報、並びに趣味及び嗜好に係る単語のテキスト情報のうちの少なくとも1つに対応付けて記憶する第4の記憶部と、
    前記音声検知手段が生成した特徴データを、前記第4の記憶部に記憶されている特徴データと照合する手段と、
    該手段の照合結果が一致する特徴データに対応して前記第4の記憶部に記憶されている情報及び/又は単語のテキスト情報を読み出す手段とを備え、
    該手段が読み出した情報及び/又は単語のテキスト情報を、前記格納部に格納された文字情報と照合して、一致した文字情報に対応する楽曲データを抽出するようにしてあること
    を特徴とする請求項2から7の何れか1項に記載の電気機器。
  9. 検索した音楽コンテンツをリストにした再生リストを用いて音楽コンテンツを再生するようにしてあることを特徴とする請求項1から8の何れか1項に記載の電気機器。
JP2013034941A 2013-02-25 2013-02-25 電気機器 Pending JP2014164112A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013034941A JP2014164112A (ja) 2013-02-25 2013-02-25 電気機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013034941A JP2014164112A (ja) 2013-02-25 2013-02-25 電気機器

Publications (1)

Publication Number Publication Date
JP2014164112A true JP2014164112A (ja) 2014-09-08

Family

ID=51614760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013034941A Pending JP2014164112A (ja) 2013-02-25 2013-02-25 電気機器

Country Status (1)

Country Link
JP (1) JP2014164112A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019176018A1 (ja) * 2018-03-14 2019-09-19 株式会社ウフル Aiスピーカーシステム、aiスピーカーシステムの制御方法、及びプログラム
WO2021006065A1 (ja) * 2019-07-11 2021-01-14 ソニー株式会社 情報処理システム、情報処理方法、及び記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019176018A1 (ja) * 2018-03-14 2019-09-19 株式会社ウフル Aiスピーカーシステム、aiスピーカーシステムの制御方法、及びプログラム
WO2019177102A1 (ja) * 2018-03-14 2019-09-19 株式会社ウフル Aiスピーカーシステム、aiスピーカーシステムの制御方法、及びプログラム
WO2021006065A1 (ja) * 2019-07-11 2021-01-14 ソニー株式会社 情報処理システム、情報処理方法、及び記録媒体

Similar Documents

Publication Publication Date Title
US20060224260A1 (en) Scan shuffle for building playlists
CN105074697B (zh) 用于推断关于实体的元数据的实时众包数据的累积
US20160267177A1 (en) Music steering with automatically detected musical attributes
CN106462609A (zh) 用于呈现与媒体内容相关的音乐项的方法、系统和介质
CN107918653A (zh) 一种基于喜好反馈的智能播放方法和装置
US20170229114A1 (en) Apparatus, process, and program for combining speech and audio data
US11093544B2 (en) Analyzing captured sound and seeking a match for temporal and geographic presentation and navigation of linked cultural, artistic, and historic content
JP6535497B2 (ja) 楽曲推薦システム、プログラム及び楽曲推薦方法
JP2002278547A (ja) 楽曲検索方法、楽曲検索用データ登録方法、楽曲検索装置及び楽曲検索用データ登録装置
US20150055934A1 (en) Enhancing karaoke systems utilizing audience sentiment feedback and audio watermarking
JP6181499B2 (ja) 商品推奨システム、商品推奨サーバ、及び商品推奨プログラム
JP5864841B2 (ja) 楽曲選択装置、楽曲選択方法および楽曲選択プログラム
US11410706B2 (en) Content pushing method for display device, pushing device and display device
JP2014164112A (ja) 電気機器
KR20140129443A (ko) 적응형 음원 추천 시스템 및 방법
CN111859008A (zh) 一种推荐音乐的方法及终端
Esau-Held et al. “Foggy sounds like nothing”—enriching the experience of voice assistants with sonic overlays
JP2008158047A (ja) プレイリスト作成システム
Hirai et al. Latent topic similarity for music retrieval and its application to a system that supports DJ performance
Johnson Jr et al. SONG SENTIMENT RECOGNITION BASED ON IMPLICIT USER FEEDBACK
JP4447540B2 (ja) カラオケ唱歌録音作品の鑑賞システム
Grgurić et al. Streaming Services: Revolutionizing Music Management
TWI492070B (zh) 音樂視頻伺服器及其音樂視頻個性化設置方法
TWI414949B (zh) 音樂視頻伺服器及其音樂視頻個性化設置方法
JP6472216B2 (ja) カラオケ連携システム、デジタルサイネージ、およびその広告選択方法