JP2007256618A - 検索装置 - Google Patents

検索装置 Download PDF

Info

Publication number
JP2007256618A
JP2007256618A JP2006080811A JP2006080811A JP2007256618A JP 2007256618 A JP2007256618 A JP 2007256618A JP 2006080811 A JP2006080811 A JP 2006080811A JP 2006080811 A JP2006080811 A JP 2006080811A JP 2007256618 A JP2007256618 A JP 2007256618A
Authority
JP
Japan
Prior art keywords
analysis data
singing
singer
identification information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006080811A
Other languages
English (en)
Inventor
Tatsuya Iriyama
達也 入山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006080811A priority Critical patent/JP2007256618A/ja
Publication of JP2007256618A publication Critical patent/JP2007256618A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract


【課題】カラオケ装置において、所望する歌唱感を有する歌唱者を検索することのできる技術を提供する。
【解決手段】サーバ装置3のCPU31は、通信部35を介して歌唱分析データを受信したことを検知すると、受信した歌唱分析データと歌唱分析データベース記憶領域34aに記憶された歌唱分析データとを比較して、その一致度に応じて、歌唱分析データベース記憶領域34aから1以上の歌唱分析データを選択する。CPU31は、選択した歌唱分析データと対応する識別情報を歌唱分析データベース記憶領域34aから読み出して、読み出した識別情報を通信ネットワーク4を介してカラオケ装置2に送信する。カラオケ装置2のCPU11は、受信した識別情報の示す歌唱者を表示部15に表示させる。
【選択図】図1

Description

本発明は、歌唱者を検索するための技術に関する。
カラオケ装置においては、歌唱者の歌唱の巧拙を採点するための方法が種々提案されている。例えば、特許文献1においては、歌唱された音声のピッチと基準ピッチとを比較して、どの部分がうまく歌えなかったかを判定する方法が提案されている。また、特許文献2に記載の技術では、歌唱者が歌った曲の物理的特性、聴取者のその曲に対する評価等に応じて歌唱者の歌唱を採点し、よりよい採点のために採点結果を蓄積する方法が提案されている。
特開2004−093601号公報 特開2000−99014号公報
ところで、デュエット、アカペラ、ゴスペル、合唱など複数人数で行う歌唱形態はさまざまあるが、そのいずれにおいても、複数人数が「声質」、「音程感」などを揃えることは重要なポイントである。均一な「音質」が効果的なのは、双子の歌手「ザ・ピーナッツ」などの例からも明らかであるし、器楽合奏と異なり、人の歌唱感は「音程感」の個人差が大きい。高度な合唱団でも、練習においてこの「音程感」をそろえることにかなりの苦労を有する。ここでいう音程感とは、例えば、歌いだしの音程上げ下げや、ビブラートの中心音程をどこにおくか、などといった、楽譜に表しきれない細かな音程表現を指す。
カラオケ装置の利用者のなかには、自分と歌唱感が似ている人や、ある特定の歌唱感を有する人(例えば、自分と音程感は同じで声質が異なる人、等)を探してデュエットや合唱を行いたいという要望をもつ者もいる。
本発明は上述した背景の下になされたものであり、所望する歌唱感を有する歌唱者を利用者が見つけることのできる技術を提供することを目的とする。
上記課題を解決するため、本発明は、歌唱者を識別する識別情報と前記歌唱者の歌唱音声の特徴を示す歌唱分析データとの対を複数記憶した記憶手段と、歌唱者の歌唱音声の特徴を示す歌唱分析データを取得する取得手段と、前記取得手段により取得した歌唱分析データと前記記憶手段に記憶された歌唱分析データとを比較し、その一致度に応じて、前記記憶手段に記憶された歌唱分析データから1以上の歌唱分析データを選択する選択手段と、前記選択手段により選択された歌唱分析データと対応する識別情報を前記記憶手段から読み出し、読み出した識別情報を出力する出力手段とを具備することを特徴とする検索装置を提供する。
本発明の好ましい態様においては、前記記憶手段は、前記識別情報に対応付けて歌唱者に関する歌唱者情報を記憶し、前記出力手段は、前記選択手段により選択された歌唱分析データと対応する識別情報を前記記憶手段から読み出し、読み出した識別情報を出力するとともに、当該識別情報と対応する歌唱者情報を前記記憶手段から読み出し、読み出した歌唱者情報を報知することを特徴とする。
本発明の別の好ましい態様においては、前記記憶手段は、前記識別情報に対応付けて歌唱者の連絡先を示す通信アドレスを記憶し、前記出力手段は、前記選択手段により選択された歌唱分析データと対応する識別情報を前記記憶手段から読み出し、読み出した識別情報を出力するとともに、当該識別情報と対応する通信アドレスを前記記憶手段から読み出し、読み出した通信アドレスに宛てて、選択された旨を示すメッセージを通信することを特徴とする。
本発明の更に好ましい態様においては、前記歌唱分析データは、前記音声のピッチ、スペクトルおよびパワーの少なくともいずれか一つを示すデータであることを特徴とする。
また、本発明の別の好ましい態様においては、前記歌唱分析データは、歌唱に用いられている技法の種類とタイミングを示す技法データであることを特徴とする。
また、本発明の更に好ましい態様においては、入力される歌唱者の音声を音声データとして出力する入力手段と、前記入力手段が出力した音声データから前記歌唱分析データを生成する生成手段とを備え、前記取得手段は、前記生成手段により生成された歌唱分析データを取得することを特徴とする。
また、本発明の更に好ましい態様においては、前記生成手段により生成された歌唱分析データを前記記憶手段に記憶する記憶制御手段を備えることを特徴とする。
本発明によれば、所望する歌唱感を有する歌唱者を利用者が見つけることができる。
<A:第1実施形態>
<A−1:構成>
図1は、この発明の一実施形態に係る検索システム1の全体構成の一例を示すブロック図である。この検索システム1は、カラオケ装置2a,2b,2cとサーバ装置3とが通信ネットワーク4を介して接続されて構成される。なお、図1には3つのカラオケ装置が例示されているが、本検索システムに含まれるカラオケ装置の数は3に限定されるものではなく、これより多くても少なくてもよい。また、以下では、カラオケ装置2a,2b,2cを各々区別する必要がない場合には、単に「カラオケ装置2」とする。
図2は、カラオケ装置2のハードウェア構成を例示したブロック図である。図において、CPU(Central Processing Unit)11は、ROM(Read Only Memory)12または記憶部14に記憶されているコンピュータプログラムを読み出してRAM(Random Access Memory)13にロードし、これを実行することにより、カラオケ装置2の各部を制御する。記憶部14は、例えばハードディスクなどの大容量の記憶手段であり、伴奏データ記憶領域14aと、歌詞データ記憶領域14bと、音声データ記憶領域14cと、歌唱分析データ記憶領域14dとを有している。表示部15は、例えば液晶ディスプレイなどであり、CPU11の制御の下で、カラオケ装置2を操作するためのメニュー画面や、背景画像に歌詞テロップを重ねたカラオケ画面などの各種画面を表示する。操作部16は、各種のキーを供えており、押下されたキーに対応した信号をCPU11へ出力する。マイクロフォン17は、歌唱者が発音した音声を収音する収音手段である。音声処理部18は、マイクロフォン17によって収音された音声(アナログデータ)をデジタルデータに変換してCPU11に供給する。スピーカ19は、音声処理部18に接続されており、音声処理部18から出力される信号に応じた強度で放音する。通信部20は、各種通信装置等を備えており、CPU11の制御の下、通信ネットワーク4を介してサーバ装置3とデータの授受を行う。
記憶部14の伴奏データ記憶領域14aには、例えばMIDI(Musical Instruments Digital Interface)形式の伴奏データであって、各曲の伴奏を行う各種楽器の音程(ピッチ)や強さ(ベロシティ)や効果の付与等を示す情報が楽曲の進行に従って記された伴奏データが記憶されている。この伴奏データの中には、楽曲のメロディの音階を示すメロディデータが含まれている。歌詞データ記憶領域14bには、伴奏データと対応する歌詞を示す歌詞データが記憶されている。音声データ記憶領域14cには、マイクロフォン17から音声処理部18を経てA/D変換された音声データが、例えばWAVE形式やMP3(MPEG Audio Layer-3)形式で時系列に記憶される。歌唱分析データ記憶領域14dには、歌唱者の音声の特徴を示す歌唱分析データが記憶される。本実施形態においては、歌唱分析データとして、音声データのスペクトル、ピッチおよびパワーを示す情報を用いる。
図3は、サーバ装置3のハードウェア構成を例示したブロック図である。図において、CPU31は、ROM32または記憶部34に記憶されているコンピュータプログラムを読み出してRAM33にロードし、これを実行することにより、サーバ装置3の各部を制御する。記憶部34は、例えばハードディスクなどの大容量の記憶手段であり、歌唱分析データベース記憶領域34aと歌唱者情報テーブル記憶領域34bとを有している。通信部35は、各種通信装置等を備えており、CPU31の制御の下、通信ネットワーク4を介してカラオケ装置2とデータの授受を行う。
記憶部34の歌唱分析データベース記憶領域34aには、歌唱分析データの集合である歌唱分析データベースが記憶されている。
図4は、歌唱分析データベースの内容の一例を示す図である。図示のように、この歌唱分析データベースは、「識別情報」と「歌唱分析データ」との対が複数記憶されている。これらの項目のうち、「識別情報」の項目には、歌唱者を識別する情報が記憶される。この識別情報は、例えば会員番号やユーザIDなどの歌唱者個人を識別する情報であってもよい。または、歌唱が行われた場所(部屋番号、店番号)や時刻を示す情報であってもよい。要するに、この識別情報は、歌唱者を識別する情報であればどのようなものであってもよい。
次に、「歌唱分析データ」の項目には、カラオケ装置2で生成された歌唱分析データが記憶される。この歌唱分析データベースには、図示のように、複数の歌唱分析データが記憶される。
次に、記憶部34の歌唱者情報テーブル記憶領域34bには、「識別情報」と「歌唱者情報」とが対応付けて記憶されている。「識別情報」の項目には歌唱者を識別する情報が記憶されている。「歌唱者情報」の項目には、歌唱者の名前やその歌唱者が利用している店の名称等、歌唱者に関する情報が記憶されている。
<A−2:動作>
次に、検索システム1の動作を説明する。
<A−2−1:歌唱分析データ蓄積動作>
まず、検索システム1の歌唱分析データ蓄積動作を説明する。
歌唱者は、カラオケ装置2の操作部16を操作して、伴奏データの再生を指示する。CPU11は、この指示に応じて、伴奏データを伴奏データ記憶領域14aから読み出し、音声処理部18に供給する。音声処理部18は、供給された伴奏データをアナログ信号に変換してスピーカ19に供給して放音させる。このとき、CPU11は表示部15を制御して、「伴奏に合わせて歌唱してください」というような歌唱を促すメッセージを表示するようにしてもよい。歌唱者は、スピーカ19から放音される伴奏に合わせて歌唱を行う。このとき、歌唱者の音声はマイクロフォン17によって収音されて音声信号に変換され、音声処理部18へと供給される。そして、音声処理部18によってA/D変換された音声データは、記憶部14の音声データ記憶領域14cに時系列に記憶される。
伴奏データの再生が終了すると、CPU11は、音声データ記憶領域14cに記憶された音声データを所定時間長のフレーム単位に分離し、フレーム単位でピッチ、スペクトルおよびパワーを音声データから算出する。スペクトルの検出にはFFT(Fast Fourier Transform)を用いればよい。CPU11は、算出したピッチ、スペクトルおよびパワーを示す情報を歌唱分析データとして、歌唱分析データ記憶領域14dに記憶する。なお、この歌唱分析データは、曲全体のピッチ、スペクトルおよびパワーを示す情報であってもよく、または、曲の一部分におけるピッチ、スペクトルおよびパワーを示す情報であってもよい。
続けて、CPU11は、生成した歌唱分析データと識別情報とを、通信ネットワーク4を介してサーバ装置3に送信する。なお、この識別情報は、操作部16を介して歌唱者によって入力されるようにしてもよく、または、CPU11が自動的に生成するようにしてもよい。
サーバ装置3のCPU31は、通信ネットワーク4を介して歌唱分析データを受信したことを検知すると、受信された歌唱分析データと識別情報とを記憶部34の歌唱分析データベース記憶領域34aに記憶する。
カラオケ装置2は、歌唱者によって歌唱が行われる度に、その都度歌唱分析データを生成し、生成した歌唱分析データと識別情報とをサーバ装置3に送信する。これにより、サーバ装置3には、複数の歌唱における歌唱分析データが記憶される。
<A−2−2:検索動作>
次に、検索システム1の検索動作について説明する。
まず、検索システム1の利用者は、操作部16を操作して検索を指示する。カラオケ装置2のCPU11は、検索が指示されたことを検知すると、上述した歌唱分析データの生成処理を行う。すなわち、CPU11は、伴奏データを伴奏データ記憶領域14aから読み出して伴奏音をスピーカ19から放音させ、利用者の音声をマイクロフォン17で収音させて音声データから歌唱分析データを生成する。
カラオケ装置2のCPU11は、歌唱分析データを生成すると、生成した歌唱分析データを、通信ネットワーク4を介してサーバ装置3に送信する。
サーバ装置3のCPU31は、通信部35を介して歌唱分析データを受信した(取得した)ことを検知すると、受信した歌唱分析データと歌唱分析データベース記憶領域34aに記憶された歌唱分析データとを比較し、その一致度に応じて、歌唱分析データベース記憶領域34aに記憶された歌唱分析データから1以上の歌唱分析データを選択する。具体的には、例えば、CPU31は、受信した歌唱分析データ(以下、「受信分析データ」)のピッチと歌唱分析データベース記憶領域34aに記憶された歌唱分析データ(以下、「記憶分析データ」)のピッチとを比較して、その一致度が最も高い歌唱分析データを選択する。同様に、受信分析データのスペクトルと記憶分析データのスペクトルとを比較して、その一致度が最も高い歌唱分析データを選択し、また、受信分析データのパワーと記憶分析データのパワーとを比較して、その一致度が最も高い歌唱分析データを選択する。なお、本実施形態においては、ピッチ、スペクトルおよびパワーのそれぞれについて、その一致度が最も高い歌唱分析データをそれぞれ1つずつ選択するようにしたが、選択する数は1に限定されるものではなく、ピッチ、スペクトルおよびパワーのそれぞれについて2以上の歌唱分析データを選択するようにしてもよい。
サーバ装置3のCPU31は、選択した歌唱分析データと対応する識別情報を歌唱分析データベース記憶領域34aから読み出して、読み出した識別情報を通信ネットワーク4を介してカラオケ装置2に送信(出力)する。このとき、CPU31は、当該識別情報と対応する歌唱者情報を歌唱者情報テーブル記憶領域34bから読み出し、読み出した歌唱者情報を識別情報とあわせて送信する。
カラオケ装置2のCPU11は、受信した歌唱者情報を表示部15に出力し、表示部15を制御して、歌唱者情報の示す内容を表示部15に表示させる。
図5は、カラオケ装置2の表示部15に表示される画面の一例を示す図である。図5に示す例においては、ピッチの一致度が最も高い歌唱者として「歌唱者A」が表示され、また、スペクトルの一致度が最も高い歌唱者として「歌唱者B」が表示され、また、パワーの一致度が最も高い歌唱者として「歌唱者C」が表示された場合の例を示している。
このように本実施形態においては、歌唱者の歌唱音声を分析して、分析結果である歌唱分析データを蓄積し、検索結果を利用者に報知する。利用者は、検索システム1を利用して、歌唱における音程感、音質、ダイナミクス等の歌唱感が自分と似ている人を探し出すことができたり、誰と誰の歌い方が似ているか、といったことを知ることができる。これにより、例えば合唱のオーディションやメンバー募集を自動化することが可能である。または、オーディオデータを送信しあっての(遠隔地での)バーチャルデュエット、バーチャル合唱等も可能となる。
<B:第2実施形態>
次に、この発明の第2の実施形態について説明する。この実施形態が、上述した第1の実施形態と異なる点は、歌唱分析データの内容が異なる点である。そのため、以下の説明においては、上述した第1実施形態と同様の構成要素については、同じ符号を付与してその説明を省略する。
本実施形態においては、歌唱分析データとして、歌唱に用いられている歌唱技法の種類とタイミングを示す技法データを用いる。
図6は、本実施形態における歌唱分析データの内容の一例を示す図である。図示のように、歌唱分析データは、「区間情報」と「種別情報」との各項目が互いに関連付けられている。これらの項目のうち、「区間情報」の項目には、音声データにおいて歌唱技法が用いられた区間を示す情報が記憶される。なお、この区間情報が示す区間は、開始時刻情報と終了時刻情報とによって表される時間幅を有した区間であってもよく、またはある1点の時刻を示すものであってもよい。
「種別情報」の項目には、予め複数種類設定された歌唱技法を識別する情報が記憶される。この「種別情報」は、例えば「ビブラート」、「しゃくり」、「こぶし」、「ファルセット」、「つっこみ」、「ため」、「息継ぎ」などの歌唱技法を識別する情報である。「ビブラート」は、音の高さをほんのわずかに連続的に上下させ、震えるような音色を出す技法を示す。「しゃくり」は、目的の音より低い音から発音し、音程を滑らかに目的の音に近づけていく技法を示す。「こぶし」は、装飾的に加えるうねるような節回しを行う技法を示す。「ファルセット」は、いわゆる「裏声」で歌う技法を示す。「つっこみ」は、歌い出しを本来のタイミングよりも早いタイミングにする技法を示す。「ため」は、歌い出しを本来のタイミングよりも遅いタイミングにする技法を示す。「息継ぎ」は、歌唱者が息継ぎをするタイミングを示すものである。
次に、カラオケ装置2が行う歌唱分析データ生成処理について以下に説明する。
歌唱者は、カラオケ装置2の操作部16を操作して、伴奏データの再生を指示する。CPU11は、この指示に応じて、伴奏データを伴奏データ記憶領域14aから読み出し、音声処理部18に供給する。音声処理部18は、供給された伴奏データをアナログ信号に変換してスピーカ19に供給して放音させる。歌唱者は、スピーカ19から放音される伴奏に合わせて歌唱を行う。このとき、歌唱者の音声はマイクロフォン17によって収音されて音声信号に変換され、音声処理部18へと供給される。そして、音声処理部18によってA/D変換された音声データは、記憶部14の音声データ記憶領域14cに時系列に記憶される。
伴奏データの再生が終了すると、CPU11は、音声データ記憶領域14cに記憶された音声データに対して音声分析処理を行い、時刻に対応したピッチ、パワー、スペクトルを音声データから算出する。続けて、CPU11は、伴奏データ記憶領域14aに記憶された伴奏データに含まれるメロディデータと音声データ記憶領域14cに記憶された音声データとを所定のフレーム単位で解析し、音声データとメロディデータとの時間的な対応関係を検出する。
次に、CPU11は、音声データから算出されたピッチ、パワーおよびスペクトルの時間的な変化のパターンを解析して、この解析結果が予め定められたパターンに対応するか否かを判定し、対応する場合には当該パターンに対応する区間を特定の歌唱技法が用いられている区間として特定する。そして、CPU11は、特定した区間の区間情報を、その歌唱技法を示す種別情報と関連付けて記憶部14の歌唱分析データ記憶領域14dに記憶する。
ここで、各歌唱技法が用いられている区間の特定処理について以下に説明する。本実施形態においては、CPU11は、「ビブラート」、「しゃくり」、「こぶし」、「ファルセット」、「つっこみ」、「ため」および「息継ぎ」の各歌唱技法が用いられている区間を特定(検出)する。これらのうち、「ビブラート」および「しゃくり」は音声データから算出されたピッチに基づいて検出する。また、「こぶし」および「ファルセット」は音声データから算出されたスペクトルに基づいて検出する。また、「ため」および「つっこみ」は、音声データから算出されたピッチとメロディデータとに基づいて検出する。また、「息継ぎ」は、音声データから算出されたパワーとメロディデータとに基づいて検出する。
CPU11は、音声データとメロディデータとの対応関係と、音声データから算出されたピッチとに基づいて、音声データに含まれる音の開始時刻と当該音に対応するメロディデータの音の開始時刻とが異なる区間を特定する。ここで、CPU11は、音声データのピッチの変化タイミングがメロディデータのピッチの変化タイミングよりも早く現れている区間、すなわち音声データに含まれる音の開始時刻が当該音に対応するメロディデータの音の開始時刻よりも早い区間については、この区間を「つっこみ」の歌唱技法が用いられている区間であると特定する。CPU11は、特定した区間の区間情報を、「つっこみ」を示す識別情報と関連付けて記憶部14の歌唱分析データ記憶領域14dに記憶する。
逆に、CPU11は、音声データとメロディデータとの対応関係と、音声データから算出されたピッチとに基づいて、音声データのピッチの変化タイミングがメロディデータのピッチの変化タイミングよりも遅れて現れている区間、すなわち音声データに含まれる音の開始時刻が当該音に対応するメロディデータの音の開始時刻よりも遅い区間を検出し、検出した区間を「ため」の歌唱技法が用いられている区間であると特定する。
また、CPU11は、音声データから算出したピッチの時間的な変化のパターンを解析して、中心となる周波数の上下に所定の範囲内でピッチが連続的に変動している区間を検出し、検出した区間を「ビブラート」の歌唱技法が用いられている区間であると特定する。
また、CPU11は、音声データから算出したピッチの時間的な変化のパターンを解析して、低いピッチから高いピッチに連続的にピッチが変化する区間を検出し、検出した区間を「しゃくり」の歌唱技法が用いられている区間であると特定する。なお、この処理は、メロディデータとの対応関係に基づいて行うようにしてもよい。すなわち、CPU11は、音声データとメロディデータとの対応関係に基づいて、音声データのピッチが、低いピッチから連続的にメロディデータのピッチに近づいている区間を検出すればよい。
また、CPU11は、音声データとメロディデータとの対応関係と、音声データから算出されたパワーとに基づいて、メロディデータが有音である区間であって音声データのパワー値が所定の閾値よりも小さい区間を検出し、検出した箇所を「息継ぎ」の区間であると特定する。
また、CPU11は、音声データから算出されたスペクトルの時間的な変化パターンを解析して、スペクトル特性がその予め決められた変化状態に急激に遷移している区間を検出し、検出した区間を「ファルセット」の歌唱技法が用いられている区間であると特定する。ここで、予め決められた変化状態とは、スペクトル特性の高調波成分が極端に少なくなる状態である。例えば、図7に示すように、地声の場合は沢山の高調波成分が含まれるが(同図(a)参照)、ファルセットになると高調波成分の大きさが極端に小さくなる(同図(b)参照)。なお、この場合、CPU11は、ピッチが大幅に上方に変化したかどうかも参照してもよい。ファルセットは地声と同一のピッチを発生する場合でも用いられることもあるが、一般には地声では発声できない高音を発声するときに使われる技法だからである。したがって、音声データのピッチが所定音高以上の場合に限って「ファルセット」の検出をするように構成してもよい。また、男声と女声とでは一般にファルセットを用いる音高の領域が異なるので、音声データの音域や、音声データから検出されるフォルマントによって性別検出を行い、この結果を踏まえてファルセット検出の音高領域を設定してもよい。
また、CPU11は、スペクトル特性の変化の態様が短時間に多様に切り替わる区間を検出し、検出した部分を「こぶし」の歌唱技法が用いられている部分であると特定する。「こぶし」の場合は、短い区間において声色や発声方法を変えて唸るような味わいを付加する歌唱技法であるため、この技法が用いられている区間においてはスペクトル特性が多様に変化するからである。
以上のようにして、CPU11は、音声データから各歌唱技法が用いられている区間を検出し、検出した区間を示す区間情報をその歌唱技法を示す種別情報と関連付けて記憶部14の歌唱分析データ記憶領域14dに記憶する。
サーバ装置3のCPU11は、取得した歌唱分析データと歌唱分析データベース記憶領域34aに記憶された歌唱分析データとを比較し、その一致度に応じて歌唱分析データを選択する。このように、本実施形態においては、歌唱技法を示す技法データを歌唱分析データとして用いるから、歌唱技法を用いるタイミング等が似ている歌唱者を検索することができる。
<C:変形例>
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその一例を示す。
(1)上述した実施形態においては、サーバ装置3のCPU31は、取得した歌唱分析データとの一致度が最も高い歌唱分析データを選択するようにした。これに加えて、あるグループにおいて誰と誰とが似ているかという組み合わせを生成して利用者に報知するようにしてもよい。具体的には、例えば、歌唱者A〜歌唱者Dのグループと、歌唱者E〜歌唱者Hのグループとのふたつのグループとにおいて、歌唱分析データの一致度の高い組み合わせ(例えば、「歌唱者Aと歌唱者E、歌唱者Bと歌唱者H」等)を特定するようにしてもよい。
歌い方は、その人の性格や、音楽的嗜好を反映すると考えられる。例えば、素直で照れ屋な人は安定したストレートな歌い方をするだろうし、開放的で情熱的な人は表現豊かであるといえる。また、クラシックしか聴かない人と演歌しか聴かない人とでは歌い方は全く異なる。このような特徴を予め採集し、性格情報や相性情報を生成してデータベース化しておくことで、歌唱分析データを基に、性格・相性判断を行うこともできる。すなわち、歌唱分析データを検索キーにして、データベースを検索することにより、性格情報や相性情報を出力するように構成することもできる。この場合、複数の人が順番に歌った後に性格判断や相性判断を行い、その結果を記憶しておけば、それらの結果を照合することにより、誰と誰との相性が合っているというような判定を行うこともできる。これによれば、似たもの同士のカップルを生成するというゲームも行うことができる。
または、取得した歌唱分析データに対して所定の条件を満たす歌唱分析データを選択するようにしてもよい。具体的には、例えば、サーバ装置の記憶部に、歌手ユニットの各メンバーの歌唱分析データを夫々記憶部に記憶させておき、サーバ装置のCPUが、取得した歌唱分析データと記憶部に記憶された歌唱分析データとを比較して、取得した歌唱分析データがどのユニットのどのメンバーの歌唱感に似ているかを判定する。そして、サーバ装置のCPUが、判定されたユニットの他のメンバーと似ている歌唱分析データを、歌唱分析データベースから選択して利用者に報知する。このようにすれば、例えば利用者が、ある歌手ユニットのあるメンバーに歌唱感が似ている場合に、そのパートを歌うと効果的であることを知ることができる。
さらに、ある特徴を持つ歌声を持つ人や、あるユニットの特定のメンバーの歌唱感に似ている人を捜し出すこともできる。すなわち、サーバ装置3にそのようなリクエストを登録しておき、サーバ装置3においては、事前に記憶している歌唱分析データにリクエストがあった旨のマーク(フラグなど)を付けておく。そして、これに似ている歌唱が入力された場合に、その方の識別情報(あるいは名前データなど)をリクエストした人に報知する。リクエストをした人がメールアドレスをサーバに登録している場合は、そのメールアドレスに通知すればよい。このようにすれば、所望の歌唱感を持った人を容易に捜し出すことができる。
(2)上述した第1の実施形態においては、歌唱分析データとして、音声のパワー、ピッチおよびスペクトルを示す情報を用いたが、音声のピッチを示す情報を歌唱分析データとして用いるようにしてもよく、または、スペクトルを示す情報を歌唱分析データとして用いるようにしてもよい。要するに、音声のピッチ、スペクトルおよびパワーの少なくともいずれか一つを示す情報を歌唱分析データとして用いるようにしてもよい。また、ピッチ、スペクトルおよびパワーのうちのどの情報を用いるかを利用者が操作部を用いて選択できるようにしてもよい。または、第2実施形態で示した歌唱技法のいずれかを利用者が選択できるようにしてもよい。
また、ピッチやパワー、スペクトル等の複数の情報を総合した結果を利用者に報知するようにしてもよい。
図8は、複数の情報を総合した結果を報知する画面の一例を示す図である。この例においては、サーバ装置3のCPU31は、ピッチ、パワーおよびスペクトルのそれぞれの検索結果を数値で算出し、重み付けを行って総合結果を出力する。
(3)なお、カラオケ装置による検索結果の報知の形態は、表示に限らず、例えば音声メッセージを出力するような形態であってもよいし、また、メッセージを電子メール形式で利用者のメール端末に送信するなどといった形態であってもよい。要は、利用者に対して何らかの手段でメッセージ乃至情報を伝えることができる報知形態であればよい。
(4)また、上述した実施形態においては、選択された歌唱分析データと対応する識別情報の示す利用者を報知させるようにしたが、これに加えて、選択された歌唱分析データと対応する識別情報の示す歌唱者(以下、「選択された歌唱者」)に、選択された旨を報知するようにしてもよい。
具体的には、例えば、サーバ装置が、選択された歌唱者の利用しているカラオケ装置に選択された旨を示す情報を送信し、そのカラオケ装置のCPUが、受信した情報に基づいて、「あなたと声質の似ている○○さんがバーチャルデュエットを希望しています」といったメッセージを表示するようにしてもよい。または、メッセージを電子メール形式で選択された歌唱者に送信するようにしてもよい。このようにすれば、選択された歌唱者は、自分が選択されたことを認識することができる。なお、電子メール形式で選択された歌唱者に送信する際は、歌唱分析データとともにその人の電子メールアドレスを識別情報に対応付けて記憶しておき、当該アドレスに宛てて送信するように構成すればよい。
なお、メッセージの宛先アドレスとなる通信アドレスは、電子メールアドレスに限らず、選択された歌唱者が利用しているカラオケ装置のIPアドレスやMACアドレスであってもよく、または、選択された歌唱者が利用しているパーソナルコンピュータのIPアドレスやMACアドレスであってもよい。または、歌唱者の電話番号であってもよい。電話番号の場合は、サーバ装置またはカラオケ装置が、識別情報に対応付けて記憶された電話番号に対して自動的に発呼し、呼接続が確立した時点で予め記憶された音声メッセージを再生するようにしてもよい。要するに、識別情報に対応付けて歌唱者の連絡先を示す通信アドレスを記憶し、識別情報に対応する通信アドレスを記憶手段から読み出して、読み出した通信アドレスに宛てて、選択された旨を示すメッセージを通信するようにすればよい。
また、カラオケボックスなどでは、各部屋の利用者について歌唱分析データを生成すれば、上述のようなバーチャルデュエットの組み合わせを作ることが容易である。この場合、各部屋に設置されているカラオケ装置毎にIDを持っておけば、どの部屋から入力された歌声であるかを知ることができるから、似た歌声を持つ人が在席している部屋のモニタ装置に上述の「あなたと声質の似ている○○さんがバーチャルデュエットを希望しています」というようなメッセージを表示することができる。
これに応答する場合は、カラオケ装置に入力される音声を互いに相手の部屋のカラオケ装置の音声入力系統に加えることにより、リアルタイムでバーチャルデュエットを行うことができる。伴奏については、いずれか一方の部屋の伴奏信号を他方の部屋のカラオケ装置に転送するように構成すればよい。同様にして、3以上の部屋において、バーチャルコーラスを行うことも可能である。
(5)また、上述した実施形態においては、検索キーとなる歌唱分析データは、カラオケ装置2のCPUが生成するようにしたが、これに代えて、CPU11が、歌唱分析データの入力を促す処理を行い、利用者が歌唱分析データを入力するようにしてもよい。この場合は、例えば、CPU11が、歌唱分析データの入力を促す画面を表示部15に表示させ、利用者は、例えばUSB(Universal Serial Bus)等のインタフェースを介してカラオケ装置2に歌唱分析データを入力するようにすればよい。この場合、事前にパーソナルコンピュータ等の装置で歌唱分析データを生成するようにしておけばよい。この際も、上述した実施形態と同様に、パーソナルコンピュータが、マイクロフォンで歌唱者の音声を収音して、収音した音声を分析して歌唱分析データを生成する。
また、カラオケ装置2にRFIDリーダを設けて、歌唱分析データが書き込まれたRFIDをカラオケ装置2のRFIDリーダが読み取るようにしてもよい。要するに、歌唱分析データの取得は、CPU11が歌唱分析データを生成してもよく、あるいはCPU11に歌唱分析データを直接入力してもよい。
または、識別情報が入力されることによって歌唱分析データが指定されるようにしてもよい。この場合は、例えば、CPU11が、利用者の識別情報の入力を促す画面を表示部15に表示させ、利用者が操作部16を操作してカラオケ装置2に入力するようにしてもよい。この場合は、カラオケ装置2のCPU11がサーバ装置3に識別情報を送信し、サーバ装置3のCPU31は、識別情報を受信すると、これに対応する歌唱分析データを歌唱分析データベース記憶領域34aから読み出す。
(6)歌唱者を識別する識別情報に加えて、曲を識別する曲識別情報を歌唱分析データに対応付けて歌唱分析データベースに記憶させるようにしてもよい。このように構成するとともに、歌唱分析データを検索する際には、曲識別情報も入力するようにすれば、曲識別情報が一致する歌唱分析データ群を対象として検索を行うことができるから、任意の曲について似た歌声の人を捜すことができる。
(7)上述した実施形態では、カラオケ装置2とサーバ装置3とが通信ネットワークで接続された検索システム1が、本実施形態に係る機能の全てを実現するようになっている。これに対し、通信ネットワークで接続された3以上の装置が上記機能を分担するようにし、それら複数の装置を備えるシステムが同実施形態のシステムを実現するようにしてもよい。または、ひとつの装置が上記機能のすべてを実現するようにしてもよい。
(8)上述した実施形態におけるカラオケ装置2のCPU11またはサーバ装置3のCPU31によって実行されるプログラムは、磁気テープ、磁気ディスク、フレキシブルディスク、光記録媒体、光磁気記録媒体、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)、RAMなどの記録媒体に記憶した状態で提供し得る。また、インターネットのようなネットワーク経由でカラオケ装置2またはサーバ装置3にダウンロードさせることも可能である。
本発明の第1実施形態に係る検索システムの構成の一例を示すブロック図である。 同実施形態のカラオケ装置のハードウェア構成の一例を示すブロック図である。 同実施形態のサーバ装置のハードウェア構成の一例を示すブロック図である。 同実施形態の歌唱分析データベースの内容の一例を示す図である。 同実施形態のカラオケ装置の表示部に表示される画面の一例を示す図である。 本発明の第2実施形態に係る歌唱分析データの内容の一例を示す図である。 ファルセットの検出処理を説明するための図である。 カラオケ装置の表示部に表示される画面の一例を示す図である。
符号の説明
1…検索システム、2,2a,2b,2c…カラオケ装置、3…サーバ装置、4…通信ネットワーク、11,31…CPU、12,32…ROM、13,33…RAM、14,34…記憶部、15…表示部、16…操作部、17…マイクロフォン、18…音声処理部、19…スピーカ、20,35…通信部。

Claims (7)

  1. 歌唱者を識別する識別情報と前記歌唱者の歌唱音声の特徴を示す歌唱分析データとの対を複数記憶した記憶手段と、
    歌唱者の歌唱音声の特徴を示す歌唱分析データを取得する取得手段と、
    前記取得手段により取得した歌唱分析データと前記記憶手段に記憶された歌唱分析データとを比較し、その一致度に応じて、前記記憶手段に記憶された歌唱分析データから1以上の歌唱分析データを選択する選択手段と、
    前記選択手段により選択された歌唱分析データと対応する識別情報を前記記憶手段から読み出して、読み出した識別情報を出力する出力手段と
    を具備することを特徴とする検索装置。
  2. 前記記憶手段は、前記識別情報に対応付けて歌唱者に関する歌唱者情報を記憶し、
    前記出力手段は、前記選択手段により選択された歌唱分析データと対応する識別情報を前記記憶手段から読み出し、読み出した識別情報を出力するとともに、当該識別情報と対応する歌唱者情報を前記記憶手段から読み出し、読み出した歌唱者情報を報知することを特徴とする請求項1に記載の検索装置。
  3. 前記記憶手段は、前記識別情報に対応付けて歌唱者の連絡先を示す通信アドレスを記憶し、
    前記出力手段は、前記選択手段により選択された歌唱分析データと対応する識別情報を前記記憶手段から読み出し、読み出した識別情報を出力するとともに、当該識別情報と対応する通信アドレスを前記記憶手段から読み出し、読み出した通信アドレスに宛てて、選択された旨を示すメッセージを通信することを特徴とする請求項1に記載の検索装置。
  4. 前記歌唱分析データは、前記音声のピッチ、スペクトルおよびパワーの少なくともいずれか一つを示すデータであることを特徴とする請求項1乃至3のいずれかに記載の検索装置。
  5. 前記歌唱分析データは、歌唱に用いられている技法の種類とタイミングを示す技法データであることを特徴とする請求項1乃至3のいずれかに記載の検索装置。
  6. 入力される歌唱者の音声を音声データとして出力する入力手段と、
    前記入力手段が出力した音声データから前記歌唱分析データを生成する生成手段とを備え、
    前記取得手段は、前記生成手段により生成された歌唱分析データを取得する
    ことを特徴とする請求項1乃至5のいずれかに記載の検索装置。
  7. 前記生成手段により生成された歌唱分析データを前記記憶手段に記憶する記憶制御手段を備えることを特徴とする請求項6に記載の検索装置。
JP2006080811A 2006-03-23 2006-03-23 検索装置 Pending JP2007256618A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006080811A JP2007256618A (ja) 2006-03-23 2006-03-23 検索装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006080811A JP2007256618A (ja) 2006-03-23 2006-03-23 検索装置

Publications (1)

Publication Number Publication Date
JP2007256618A true JP2007256618A (ja) 2007-10-04

Family

ID=38630918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006080811A Pending JP2007256618A (ja) 2006-03-23 2006-03-23 検索装置

Country Status (1)

Country Link
JP (1) JP2007256618A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210790A (ja) * 2008-03-04 2009-09-17 Nec Software Kyushu Ltd 選曲歌手分析推薦装置、その方法及びプログラム
JP2014092593A (ja) * 2012-10-31 2014-05-19 Daiichikosho Co Ltd カラオケ歌唱映像の歌唱音声選択システム
JP2014109681A (ja) * 2012-11-30 2014-06-12 Daiichikosho Co Ltd 歌唱音声に対応する歌唱動画選択システム
JP2015172736A (ja) * 2014-02-19 2015-10-01 ヤマハ株式会社 音声解析装置
JP2015191177A (ja) * 2014-03-28 2015-11-02 ブラザー工業株式会社 プログラム、情報処理装置、及びデータ生成方法
JP2016071187A (ja) * 2014-09-30 2016-05-09 ブラザー工業株式会社 音声合成装置、及び音声合成システム
JP2017083792A (ja) * 2015-10-30 2017-05-18 株式会社第一興商 カラオケ装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210790A (ja) * 2008-03-04 2009-09-17 Nec Software Kyushu Ltd 選曲歌手分析推薦装置、その方法及びプログラム
JP2014092593A (ja) * 2012-10-31 2014-05-19 Daiichikosho Co Ltd カラオケ歌唱映像の歌唱音声選択システム
JP2014109681A (ja) * 2012-11-30 2014-06-12 Daiichikosho Co Ltd 歌唱音声に対応する歌唱動画選択システム
JP2015172736A (ja) * 2014-02-19 2015-10-01 ヤマハ株式会社 音声解析装置
JP2015191177A (ja) * 2014-03-28 2015-11-02 ブラザー工業株式会社 プログラム、情報処理装置、及びデータ生成方法
JP2016071187A (ja) * 2014-09-30 2016-05-09 ブラザー工業株式会社 音声合成装置、及び音声合成システム
JP2017083792A (ja) * 2015-10-30 2017-05-18 株式会社第一興商 カラオケ装置

Similar Documents

Publication Publication Date Title
US7368652B2 (en) Music search system and music search apparatus
JP4340411B2 (ja) 曲を識別する方法
US6385581B1 (en) System and method of providing emotive background sound to text
CN103187046B (zh) 显示控制装置及方法
JP2007256617A (ja) 楽曲練習装置および楽曲練習システム
JP2007256618A (ja) 検索装置
JP2007232750A (ja) カラオケ装置、制御方法およびプログラム
JP2007310204A (ja) 楽曲練習支援装置、制御方法及びプログラム
JP2016070999A (ja) カラオケ効果音設定システム
JP2007271977A (ja) 評価基準判定装置、制御方法及びプログラム
JP2007264569A (ja) 検索装置、制御方法及びプログラム
JP6288197B2 (ja) 評価装置及びプログラム
JP6102076B2 (ja) 評価装置
JP2010237260A (ja) 重唱曲の主声部を際立たせるカラオケ装置
JP4839967B2 (ja) 指導装置及びプログラム
JP2007256619A (ja) 評価装置、制御方法及びプログラム
JP2006251697A (ja) カラオケ装置
JP2003131674A (ja) 楽曲検索システム
JP2007304489A (ja) 楽曲練習支援装置、制御方法及びプログラム
JP6954780B2 (ja) カラオケ装置
JP2007233078A (ja) 評価装置、制御方法及びプログラム
JP4030808B2 (ja) 楽曲検索サーバ、音声認識装置、楽曲提供システム、楽曲提供方法、およびそのプログラム
JP4501874B2 (ja) 楽曲練習装置
JP4447540B2 (ja) カラオケ唱歌録音作品の鑑賞システム
JP2004279462A (ja) カラオケ装置