JP2005004106A - 信号合成方法及び装置、歌声合成方法及び装置、プログラム及び記録媒体並びにロボット装置 - Google Patents
信号合成方法及び装置、歌声合成方法及び装置、プログラム及び記録媒体並びにロボット装置 Download PDFInfo
- Publication number
- JP2005004106A JP2005004106A JP2003170000A JP2003170000A JP2005004106A JP 2005004106 A JP2005004106 A JP 2005004106A JP 2003170000 A JP2003170000 A JP 2003170000A JP 2003170000 A JP2003170000 A JP 2003170000A JP 2005004106 A JP2005004106 A JP 2005004106A
- Authority
- JP
- Japan
- Prior art keywords
- information
- singing
- singing voice
- change
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
- G10H1/0066—Transmission between separate instruments or between individual components of a musical system using a MIDI interface
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
- G10H2250/455—Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
【課題】MIDIデータ等の演奏データを活用して歌声を合成すると共に、歌唱スタイルに応じて歌唱パターンを変更することを可能とする。
【解決手段】入力された演奏データを音の高さ、長さ、歌詞の音楽情報として解析する(S2、S3)。歌唱スタイルの変更がある場合には、条件に適合する音符に対して表現変化を付与するように歌声データを変更する(S7,S8,S9)。歌唱パターン変更された歌声情報に基づき歌声を生成する(S11)。
【選択図】 図9
【解決手段】入力された演奏データを音の高さ、長さ、歌詞の音楽情報として解析する(S2、S3)。歌唱スタイルの変更がある場合には、条件に適合する音符に対して表現変化を付与するように歌声データを変更する(S7,S8,S9)。歌唱パターン変更された歌声情報に基づき歌声を生成する(S11)。
【選択図】 図9
Description
【0001】
【発明の属する技術分野】
本発明は、演奏データから歌声や楽音等の信号を合成する信号合成方法及び装置、歌声合成方法及び装置、プログラム及び記録媒体、並びにロボット装置に関する。
【0002】
【従来の技術】
コンピュータ等により、与えられた歌唱データから歌声を生成する技術は特許文献1に代表されるように既に知られている。
【0003】
MIDI(musical instrument digital interface)データは代表的な演奏データであり、事実上の業界標準である。代表的には、MIDIデータはMIDI音源と呼ばれるデジタル音源(コンピュータ音源や電子楽器音源等のMIDIデータにより動作する音源)を制御して楽音を生成するのに使用される。MIDIファイル(例えば、SMF(standard MIDI file))には歌詞データを入れることができ、歌詞付きの楽譜の自動作成に利用される。
【0004】
また、MIDIデータを歌声又は歌声を構成する音素セグメントのパラメータ表現(特殊データ表現)として利用する試みも特許文献2に代表されるように提案されている。
【0005】
しかし、これらの従来の技術においてはMIDIデータのデータ形式の中で歌声を表現しようとしているが、あくまでも楽器をコントロールする感覚でのコントロールであり、MIDI本来が持っている歌詞データを利用するものではなかった。
【0006】
また、ほかの楽器用に作成されたMIDIデータを、修正を加えることなく歌声にすることはできなかった。
【0007】
また、電子メールやホームページを読み上げる音声合成ソフトはソニー(株)の「Simple Speech」をはじめ多くのメーカーから発売されているが、読み上げ方は普通の文章を読み上げるのと同じような口調であった。
【0008】
ところで、電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータや搬送ロボット等の産業用ロボット(Industrial Robot)であった。
【0009】
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う人間等の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等のロボット装置は、既に実用化されつつある。
【0010】
これらのロボット装置は、産業用ロボットと比較して、エンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと呼称される場合もある。また、そのようなロボット装置には、外部からの情報や内部の状態に応じて自律的に動作するものがある。
【0011】
この自律的に動作するロボット装置に用いられる人工知能(AI:artificial intelligence)は、推論・判断等の知的な機能を人工的に実現したものであり、さらに感情や本能等の機能をも人工的に実現することが試みられている。このような人工知能の外部への表現手段としての視覚的な表現手段や自然言語の表現手段等のうちで、自然言語表現機能の一例として、音声を用いることが挙げられる。
【0012】
【特許文献1】
特許第3233036号公報
【特許文献2】
特開平11−95798号公報
【0013】
【発明が解決しようとする課題】
以上のように従来の歌声合成は特殊な形式のデータを用いていたり、仮にMIDIデータを用いていてもその中に埋め込まれている歌詞データを有効に活用できなかったり、ほかの楽器用に作成されたMIDIデータを鼻歌感覚で歌い上げたりすることはできなかった。
【0014】
また、歌唱スタイル等も特に考慮されておらず、表現力も乏しいものとならざるを得ないのが現状であった。
【0015】
本発明は、このような従来の実情に鑑みて提案されたものであり、例えばMIDIデータのような演奏データを活用して歌声を合成することが可能であり、さらに歌声のみならず楽音についてもスタイルを考慮した表現を可能とするような歌声や楽音等の信号合成方法及び装置、歌声合成方法及び装置を提供することを目的とする。
【0016】
さらに、本発明の目的は、このような歌声合成機能をコンピュータに実施させるプログラム及び記録媒体を提供することである。
【0017】
さらに、本発明の目的は、このような歌声合成機能を実現するロボット装置を提供することである。
【0018】
【課題を解決するための手段】
本発明に係る歌声や楽音等の信号合成方法及び装置は、上記目的を達成するため、演奏データを音の高さ、長さ、歌詞の音楽情報として解析し、解析された音楽情報の音符列の音符に対して、歌唱又は演奏のスタイルに応じて、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより歌唱又は演奏パターンを変更し、パターン変更された音楽情報の音符列に基づいて歌声又は楽音を生成することを特徴とする。
【0019】
また、本発明に係る歌声合成方法及び装置は、上記目的を達成するため、歌唱スタイルに応じて、音楽情報の音符に対して、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与するためのパラメータが設定されたパターンデータを予め用意しておき、入力された演奏データを音の高さ、長さ、歌詞の音楽情報として解析し、解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とし、上記解析された音楽情報の音符列の音符に対応して、予め用意された上記パターンデータに基づいて音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更し、パターン変更された音楽情報の音符列に基づいて歌声を生成することを特徴とする。
【0020】
この構成によれば、歌声を生成する際に、指定された歌唱スタイルに応じて、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与し、歌い方を変更することができる。
【0021】
上記演奏データはMIDIファイルの演奏データであることが好ましい。また、上記表現変化を付与するためのパラメータは、上記歌唱スタイルと、上記音符の長さ、強さ、強さの増減状態、高さ及び楽曲の速度の少なくとも1つとに応じて設定されることが挙げられる。上記表現変化は、対象となる音符の音に対してビブラート、ピッチベンド、エクスプレッションの少なくとも1つを付与することが挙げられる。上記ビブラートを付与するためのパラメータは、振幅開始の遅れの情報と、振幅の情報と、周期の情報と、振幅の増減の情報と、周期の増減の情報との少なくとも1つを含み、上記エクスプレッションを付与するためのパラメータは、音符の長さに対する比の時間情報とその時間軸上での特徴的な任意の点における強さの情報の少なくとも1つを含むことが挙げられる。上記歌唱スタイルは、ユーザ設定、演奏データのトラック名、楽曲名、マーカのいずれかにより選択されることが挙げられる。
【0022】
また、本発明に係るプログラムは、本発明の歌声合成機能をコンピュータに実行させるものであり、本発明に係る記録媒体は、このプログラムが記録されたコンピュータ読み取り可能なものである。
【0023】
さらに、本発明に係るロボット装置は、上記目的を達成するため、供給された入力情報に基づいて動作を行う自律型のロボット装置であって、歌唱スタイルに応じて、音楽情報の音符に対して、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与するためのパラメータが設定されたパターンデータが蓄積された記憶手段と、演奏データを音の高さ、長さ、歌詞の音楽情報として解析する解析手段と、解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とする歌詞付与手段と、上記解析手段により解析された音楽情報の音符列の音符に対応して、上記記憶手段により読み出された音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更するパターン変更手段と、パターン変更された音楽情報の音符列に基づいて歌声を生成する歌声生成手段とを有することを特徴とする。これにより、ロボットの持っているエンターテインメント性を格段に向上させることができる。
【0024】
【発明の実施の形態】
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。本発明の実施の形態においては、主として歌声を合成する歌声合成装置であって、さらに楽音を合成する機能も有するような楽音合成機能付きの歌声合成装置の例を示しているが、歌声のみを合成する歌声合成装置や、楽音を合成する楽音合成装置、あるいは歌声や楽音等のオーディオ信号を合成する信号合成装置等にも本発明を容易に適用できることは勿論である。
【0025】
図1は、本実施の形態における楽音合成機能付きの歌声合成装置の概略システム構成を示すブロック図である。この図1に示す歌声合成装置は、少なくとも感情モデル、音声合成手段及び発音手段を有する例えばロボット装置に適用することを想定しているが、これに限定されず、各種ロボット装置や、ロボット以外の各種コンピュータAI(artificial intelligence)等への適用も可能であることは勿論である。
【0026】
図1において、MIDIデータに代表される演奏データ1を解析する演奏データ解析部2は入力された演奏データ1を解析し演奏データ内にあるトラックやチャンネルの音の高さや長さ、強さを表す楽譜情報4に変換する。
【0027】
図2に楽譜情報4に変換された演奏データ(MIDIデータ)の例を示す。図2において、トラック毎、チャンネル毎にイベントが書かれている。イベントにはノートイベントとコントロールイベントが含まれる。ノートイベントは発生時刻(図中の時間の欄)、高さ、長さ、強さ(velocity)の情報を持つ。したがって、ノートイベントのシーケンスにより音符列又は音列が定義される。コントロールイベントは発生時刻、コントロールのタイプデータ(例えばビブラート(vibrato)、演奏ダイナミクス表現(expression))及びコントロールのコンテンツを示すデータを持つ。例えば、ビブラートの場合、コントロールのコンテンツとして、音の振れの大きさを指示する「深さ」、音の揺れの周期を指示する「幅」、音の揺れの開始タイミング(発音タイミングからの遅れ時間)を指示する「遅れ」の項目を有する。特定のトラック、チャンネルに対するコントロールイベントはそのコントロールタイプについて新たなコントロールイベント(コントロールチェンジ)が発生しない限り、そのトラック、チャンネルの音符列の楽音再生に適用される。さらに、MIDIファイルの演奏データにはトラック単位で歌詞を記入することができる。図2において、上方に示す「あるうひ」はトラック1に記入された歌詞の一部であり、下方に示す「あるうひ」はトラック2に記入された歌詞の一部である。すなわち図2の例は、解析した音楽情報(楽譜情報)の中に歌詞が埋め込まれた例である。
【0028】
なお、図2において、時間は「小節:拍:ティック数」で表され、長さは「ティック数」で表され、強さは「0−127」の数値で表され、高さは440Hzが「A4」で表される。また、ビブラートは、深さ、幅、遅れがそれぞれ「0−64−127」の数値で表される。
【0029】
図1に戻り、変換された楽譜情報4は歌詞付与部5に渡される。歌詞付与部5では楽譜情報4をもとに音符に対応した音の長さ、高さ、強さ、表情などの情報とともにその音に対する歌詞が付与された歌声情報6の生成を行う。
【0030】
図3に歌声情報6の例を示す。図3において、「¥song¥」は歌詞情報の開始を示すタグである。タグ「¥PP,T10673075¥」は10673075μsecの休みを示し、タグ「¥tdyna 110 649075¥」は先頭から10673075μsecの全体の強さを示し、タグ「¥fine−100¥」はMIDIのファインチューンに相当する高さの微調整を示し、タグ「¥vibrato NRPN_dep=64¥」、[¥vibrato NRPN_del=50¥]、「¥vibrato NRPN_rat=64¥」はそれぞれ、ビブラートの深さ、遅れ、幅を示す。また、タグ「¥dyna 100¥」は音毎の強弱を示し、タグ「¥G4,T288461¥あ」はG4の高さで、長さが288461μsecの歌詞「あ」を示す。図3の歌声情報は図2に示す楽譜情報(MIDIデータの解析結果)から得られたものである。
【0031】
図2と図3の比較から分かるように、楽器制御用の演奏データ(例えば音符情報)が歌声情報の生成において十分に活用されている。例えば、歌詞「あるうひ」の構成要素「あ」について、「あ」以外の歌唱属性である「あ」の音の発生時刻、長さ、高さ、強さ等について、楽譜情報(図2)中のコントロール情報やノートイベント情報に含まれる発生時刻、長さ、高さ、強さ等が直接的に利用され、次の歌詞要素「る」についても楽譜情報中の同じトラック、チャンネルにおける次のノートイベント情報が直接的に利用され、以下同様である。
【0032】
図1に戻り、歌声情報6は歌声生成部7に渡され、歌声生成部7においては歌声情報6をもとに歌声波形8の生成を行う。ここで、歌声情報6から歌声波形8を生成する歌声生成部7は例えば図4に示すように構成される。
【0033】
図4において、歌声韻律生成部7−1は歌声情報6を歌声韻律データに変換する。波形生成部7−2は歌声韻律データを歌声波形8に変換する。
【0034】
具体例として、「A4」の高さの歌詞要素「ら」を一定時間伸ばす場合について説明する。ビブラートをかけない場合の歌声韻律データは、以下の表のように表される。
【0035】
【表1】
【0036】
この表において、[LABEL]は、各音韻の継続時間長を表したものである。すなわち、「ra」という音韻(音素セグメント)は、0サンプルから1000サンプルまでの1000サンプルの継続時間長であり、「ra」に続く最初の「aa」という音韻は、1000サンプルから39600サンプルまでの38600サンプルの継続時間長である。また、[PITCH]は、ピッチ周期を点ピッチで表したものである。すなわち、0サンプル点におけるピッチ周期は50サンプルである。ここでは「ら」の高さを変えないので全てのサンプルに渡り50サンプルのピッチ周期が適用される。また、[VOLUME]は、各サンプル点での相対的な音量を表したものである。すなわち、デフォルト値を100%としたときに、0サンプル点では66%の音量であり、39600サンプル点では57%の音量である。以下同様にして、40100サンプル点では48%の音量等が続き42600サンプル点では3%の音量となる。これにより「ら」の音声が時間の経過と共に減衰することが実現される。
【0037】
これに対して、ビブラートをかける場合には、例えば、以下に示すような歌声韻律データが作成される。
【0038】
【表2】
【0039】
この表の[PITCH]の欄に示すように、0サンプル点と1000サンプル点におけるピッチ周期は50サンプルで同じであり、この間は音声の高さに変化がないが、それ以降は、2000サンプル点で53サンプルのピッチ周期、4009サンプル点で47サンプルのピッチ周期、6009サンプル点で53のピッチ周期というようにピッチ周期が約4000サンプルの周期(幅)を以て上下(50±3)に振れている。これにより音声の高さの揺れであるビブラートが実現される。この[PITCH]の欄のデータは歌声情報6における対応歌声要素(例えば「ら」)に関する情報、特にノートナンバー(例えばA4)とビブラートコントロールデータ(例えば、タグ「¥vibrato NRPN_dep=64¥」、[¥vibrato NRPN_del=50¥]、「¥vibrato NRPN_rat=64¥」)に基づいて生成される。
【0040】
波形生成部7−2はこのような歌声音韻データに基づき内部の波形メモリ(図示せず)からサンプルを読み出して歌声波形8を生成する。なお、歌声情報6から歌声波形8を生成する歌声生成部7については上記の例に限らず、任意の適当な公知の歌声生成器を使用できる。
【0041】
図1に戻り、演奏データ1はMIDI音源9に渡され、MIDI音源9は演奏データをもとに楽音の生成を行う。この楽音は伴奏波形10である。
【0042】
歌声波形8と伴奏波形10はともに同期を取りミキシングを行うミキシング部11に渡される。
【0043】
ミキシング部11では、歌声波形8と伴奏波形10との同期を取りそれぞれを重ね合わせて出力波形3として再生を行うことにより、演奏データ1をもとに伴奏を伴った歌声による音楽再生を行う。
【0044】
楽譜情報4をもとに歌詞付与部5により歌声情報6に変換する段階において、楽譜情報4において歌詞情報が存在する場合には、情報として存在する歌詞を優先して歌声情報6の付与を行う。上述したように図2は歌詞が付与された状態の楽譜情報4の例であり、図3は図2の楽譜情報4から生成された歌声情報6の例である。
【0045】
ここで、歌声を生成する際にオペレータにより歌唱スタイルの指定がある場合には、楽譜情報4から歌声情報6に変換される際に、楽譜情報4に記載されている音楽情報は、歌唱パターン変更部12に渡される。
【0046】
歌唱パターン変更部12においては、歌唱パターンデータ13(歌唱スタイルデータともいう。)と楽譜情報4とを照らし合わせて、指定された歌唱スタイルに適合する歌唱パターンデータ13を参照し、そこに記載されている条件に適合する楽譜情報4の音(音符)に対して、歌唱パターンデータ13記載されている歌唱パターンのパラメータを付与して歌声情報6を生成する。具体的には、歌唱スタイルに応じて、楽譜情報の音符列の所定の音(音符)に対して、ビブラート、エクスプレッション、タイミング、ピッチベンド等のような音量変化、音程変化、タイミング変化を含む表現変化を付与するためのパラメータが設定されており、これらのパラメータが歌唱パターンデータ13(歌唱スタイルデータ)として記憶手段に蓄積されており、歌唱パターン変更部12は、楽譜情報4と歌唱パターンデータ13とを用いて、歌唱スタイルに応じた変更が加えられた歌声情報6を生成する。
【0047】
図5は、各歌唱スタイルに応じた歌唱パターンデータ13(歌唱スタイルデータ)の具体例を示す図である。この図5の例において、歌唱パターンデータ13は、条件部と実行部の2つに分かれており、条件部の項目には「ポピュラー」、「クラシック」、「演歌」などの歌唱スタイルと、表現変化を付与する対象となる音(音符)を選択する条件となる音の高さ、長さ、強さ、強さの増減パターン、曲のテンポ等が含まれており、実行部には、条件部に記載されている条件に適合した音(音符)に付与する表現変化のパラメータとしてのビブラート(vibrato)、エクスプレッション(expression:音の強弱変化、演奏ダイナミクス表現)、タイミング、ピッチベンド(フレーズ頭、フレーズ終わりのピッチベンド)、ピッチ調整等が含まれている。
【0048】
実行部のビブラートとしては、ビブラートがかかるまでの遅れ、周期、振幅、周期の増減、振幅の増減のパラメータが指定される。エクスプレッションでは音の始まりから終わりまでの時間を100とした場合の先頭、終端、大きな変化点などの特徴点となる何点かでの音量のパラメータが指定される。タイミングはビートに対しての遅れや進み具合を示すのパラメータが指定される。ピッチベンドは、フレーズの頭や終端の音に対してピッチのずり上げやずり下げ処理を行う場合のピッチの上げ下げの度合いを、音の長さを100として特徴となる時間での音程のずらし幅をセント数で表したパラメータが指定される。フレーズ内の音に対しては適応されない。ピッチ調整はピッチ全体を上げたり下げたりする際のセント数のパラメータが指定される。ここでセントとは100セントで半音を表す音程の幅の単位である。
【0049】
この歌唱スタイルの適用例(歌唱パターンデータのパラメータの付与例)を、図6、図7に示す。図6は歌唱スタイル適用前の歌声情報を示し、この図6の破線で囲った部分ptAに対して、例えば「演歌」の歌唱スタイルの歌唱パターンデータの各パラメータが適用された後の歌声情報を図7の破線で囲った部分ptBに示している。これらの図6、図7において、例えば図6の歌声情報の歌詞の「ひ」の音(音符)「E4,T144231」に対しては、図7に示すように、タイミングの補正や、フレーズ頭ピッチベンド、フレーズ終わりピッチベンド、エクスプレッションの変更等のパラメータによる表現変化が付与され、「演歌」の歌唱スタイルの歌声情報に変更される。
【0050】
このような歌唱スタイルに応じた歌声情報の変更は、図1の歌唱パターン変更部12にて、楽譜情報4と歌唱パターンデータ13とを用いて実現されるものであるが、他の例として、図8に示すように、歌詞付与部5からの(歌唱スタイル適用前の)歌声情報6Aを歌唱パターン変更部12に送り、歌唱パターン変更部12では適用前の歌声情報6A中の各音(音符)の内、上記図5の歌唱パターンデータ(歌唱スタイルデータ)の条件に合致するものに対して歌唱パターンに応じたパラメータ変更を加え、歌唱スタイル適用された歌声情報6Bを出力して歌声生成部7に送るように構成してもよい。他の構成は上記図1と同様であるため、図示せず説明を省略する。
【0051】
上記歌唱スタイルは、上述したようにオペレータにより予め指示することも可能であるが、MIDIデータに格納されておりSMF(Standard MIDI File)によって規定された一般的な楽曲名、トラック名、マーカ等の付属情報により歌唱パターン変更部12において判断することも可能である。例えば、楽曲名やトラック名にスタイル名自体やスタイル名を含む注釈等が記載されていたり、楽曲名やトラック名からスタイルを推定できたり、マーカ等の付属情報にスタイル名が記載されているような場合が挙げられる。
【0052】
ここで、上述の例では、歌声の場合を主として説明したが、楽音の場合にも同様にスタイル(演奏スタイル)を適用することができる。これは、指定された演奏スタイルに応じて、例えばサキソフォン、バイオリン等の楽音の演奏パターンに変更を加えるものである。具体的には、楽譜情報の内の所望の楽音(サキソフォン、バイオリン等の楽音)について、例えば図5と同様な演奏パターンデータを用意すればよく、この演奏パターンデータは、上記図5と同様に、条件部と実行部とを有し、条件部の項目には「ポピュラー」、「クラシック」、「演歌」などの歌唱スタイルと、表現変化を付与する対象となる音(音符)を選択する条件となる音の高さ、長さ、強さ、曲のテンポ等が含まれ、実行部には、条件部の条件に適合した音(音符)に付与する表現変化のパラメータとしてのビブラート(vibrato)、エクスプレッション(expression)、タイミング、ピッチベンド(フレーズ頭、フレーズ終わりのピッチベンド)、ピッチ調整等が含まれるようにすればよい。
【0053】
図1の例では、楽譜情報4の所望の楽音(サキソフォン、バイオリン等の楽音)の情報(例えば音符列の情報)を、演奏パターン変更部15に送って、上述したような演奏パターンデータ16から、指定された演奏スタイルに応じて、所定条件を満たす音(音符)に対して、ビブラート(vibrato)、エクスプレッション(expression)、タイミング、ピッチベンド(フレーズ頭、フレーズ終わりのピッチベンド)、ピッチ調整等の表現変化のパラメータを付与し、演奏スタイルが適用された演奏データ14を得るようにしている。この演奏スタイルが適用された演奏データ14はMIDI音源9に送られ、MIDI音源9は演奏データをもとに演奏スタイルが適用された楽音の生成を行う。
【0054】
次に図9は、図1に示す(あるいは図8に一部を示す)歌声合成装置の全体動作を説明するためのフローチャートである。
【0055】
この図9において、先ずMIDIファイルの演奏データ1を入力する(ステップS1)。次に演奏データ1を解析し、楽譜データ4を作成する(ステップS2、S3)。次に、必要に応じてオペレータに問い合わせ、オペレータの設定処理、例えば、演奏スタイルの選択、歌詞の選択、歌詞の対象であるトラック、チャンネルの選択、ミュートするMIDIトラック、チャンネルの選択等を行う。なおオペレータが設定しなかった部分については、演奏データ1の楽曲名、トラック名、マーカ等の付属情報に基づいて選択したり、予め定められたデフォルト情報を後続処理で使用するようにしている。
【0056】
続くステップS5では、歌詞を割り当てるトラックにおけるチャンネルの楽譜情報4を用いて歌詞から歌声情報6を作成する。次に、全てのトラックについて処理を完了したかどうか検査し(ステップS6)、完了してなければトラックを次に進めて、ステップS5に戻る。
【0057】
したがって、複数のトラックにそれぞれ歌詞を付加する場合に、互いに独立して歌詞が付加され歌声情報6が作成されることになる。
【0058】
次に、ステップS7において、歌唱スタイル(あるいは演奏スタイル)の変更の指定があったか否かを判別し、Yes(スタイル変更あり)の場合はステップS8に進み、No(変更無し)の場合はステップS11に進む。
【0059】
ステップS8では、楽譜情報の音(音符)について、上記歌唱パターンデータ13(あるいは演奏パターンデータ16)の条件部に示された条件に適合するか否かを判別し、条件に適合する音(音符)に対しては、ステップS9にて、上記歌唱パターンデータ13(あるいは演奏パターンデータ16)の実行部に示された表現変化のためのパラメータを適用し、歌声データ(あるいは演奏データ)を変更する。
【0060】
次のステップS10では、全ての音(音符)に対して条件チェックが終了したか否かを判別し、NoのときはステップS8に戻り、Yesのときは次のステップS11に進む。
【0061】
ステップS11では、歌声生成部7により歌声情報6から歌声波形8を作成する。次のステップS12では、MIDI音源9によりMIDIを再生して伴奏波形10を作成する。
【0062】
ここまでの処理で、歌声波形8及び伴奏波形10が得られた。そこで、ミキシング部11により、歌声波形8と伴奏波形10との同期を取りそれぞれを重ね合わせて出力波形3として再生を行う(ステップS13、S14)。この出力波形3は図示しないサウンドシステムを介して音響信号として出力される。
【0063】
以上説明した本発明の実施の形態をまとめると、歌唱スタイルに応じて、音楽情報の音符に対して、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与するためのパラメータが設定されたパターンデータを予め用意しておき、入力された演奏データを音の高さ、長さ、歌詞の音楽情報として解析し、解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とし、上記解析された音楽情報の音符列の音符に対応して、予め用意された上記パターンデータに基づいて音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更し、パターン変更された音楽情報の音符列に基づいて歌声を生成することが挙げられる。
【0064】
このような本発明の実施の形態によれば、歌唱の際の歌声に対して、歌唱スタイルに応じた表現変化を付与することができ、音楽表現の拡大が図れる。また、従来において、固定された歌唱スタイルで表現力の乏しい歌い方しかできなかったのに対して、歌唱スタイルを任意に選択することにより、表現力が向上し、また、楽曲に合わせた歌唱スタイルにより自然な歌声を実現したり、ミスマッチなスタイルにより滑稽さを表現することもでき、エンタテインメント性をさらに向上させることができる。
【0065】
また、歌声のみならず、楽音に対しても演奏スタイルを適用することができ、この場合には、演奏データを音の高さ、長さ、歌詞の音楽情報として解析し、解析された音楽情報の音符列の音符に対して、歌唱又は演奏のスタイルに応じて、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより歌唱又は演奏パターンを変更し、パターン変更された音楽情報の音符列に基づいて歌声又は楽音を生成することが好ましい。これによって、歌唱の際の歌声や演奏の際の楽音に対して、歌唱又は演奏のスタイルに応じた表現変化を付与することができ、音楽表現が格段に向上する。
【0066】
以上説明した歌声合成機能は例えば、ロボット装置に搭載される。
【0067】
以下、一構成例として示す2足歩行タイプのロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、内部状態(怒り、悲しみ、喜び、楽しみ等)に応じて行動できるほか、人間が行う基本的な動作を表出できるエンターテインメントロボットである。
【0068】
図10に示すように、ロボット装置60は、体幹部ユニット62の所定の位置に頭部ユニット63が連結されると共に、左右2つの腕部ユニット64R/Lと、左右2つの脚部ユニット65R/Lが連結されて構成されている(ただし、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。
【0069】
このロボット装置1が具備する関節自由度構成を図11に模式的に示す。頭部ユニット63を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。
【0070】
また、上肢を構成する各々の腕部ユニット64R/Lは、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール軸113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。ただし、手部114の動作は、ロボット装置60の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。
【0071】
また、体幹部ユニット62は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。
【0072】
また、下肢を構成する各々の脚部ユニット65R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部121は、実際には多関節・多自由度の足底を含んだ構造体であるが、ロボット装置60の足底は、ゼロ自由度とする。したがって、各脚部は、6自由度で構成される。
【0073】
以上を総括すれば、ロボット装置60全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。ただし、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定されるわけではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
【0074】
上述したようなロボット装置60がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。また、アクチュエータは、ギア直結型で且つサーボ制御系をワンチップ化してモータユニット内に搭載したタイプの小型ACサーボ・アクチュエータで構成することがより好ましい。
【0075】
図12には、ロボット装置60の制御システム構成を模式的に示している。図12に示すように、制御システムは、ユーザ入力などに動的に反応して情緒判断や感情表現を司る思考制御モジュール200と、アクチュエータ350の駆動などロボット装置1の全身協調運動を制御する運動制御モジュール300とで構成される。
【0076】
思考制御モジュール200は、情緒判断や感情表現に関する演算処理を実行するCPU(Central Processing Unit)211や、RAM(Random Access Memory)212、ROM(Read Only Memory)213、及び、外部記憶装置(ハード・ディスク・ドライブなど)214で構成される、モジュール内で自己完結した処理を行うことができる、独立駆動型の情報処理装置である。
【0077】
この思考制御モジュール200は、画像入力装置251から入力される画像データや音声入力装置252から入力される音声データなど、外界からの刺激などに従って、ロボット装置60の現在の感情や意思を決定する。ここで、画像入力装置251は、例えばCCD(Charge Coupled Device)カメラを複数備えており、また、音声入力装置252は、例えばマイクロホンを複数備えている。
【0078】
また、思考制御モジュール200は、意思決定に基づいた動作又は行動シーケンス、すなわち四肢の運動を実行するように、運動制御モジュール300に対して指令を発行する。
【0079】
一方の運動制御モジュール300は、ロボット装置60の全身協調運動を制御するCPU311や、RAM312、ROM313、及び外部記憶装置(ハード・ディスク・ドライブなど)314で構成される、モジュール内で自己完結した処理を行うことができる、独立駆動型の情報処理装置である。外部記憶装置314には、例えば、オフラインで算出された歩行パターンや目標とするZMP軌道、その他の行動計画を蓄積することができる。ここで、ZMPとは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、ZMP軌道とは、例えばロボット装置1の歩行動作期間中にZMPが動く軌跡を意味する。なお、ZMPの概念並びにZMPを歩行ロボットの安定度判別規範に適用する点については、Miomir Vukobratovic 著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))に記載されている。
【0080】
運動制御モジュール300には、図11に示したロボット装置60の全身に分散するそれぞれの関節自由度を実現するアクチュエータ350、体幹部ユニット2の姿勢や傾斜を計測する姿勢センサ351、左右の足底の離床又は着床を検出する接地確認センサ352,353、バッテリなどの電源を管理する電源制御装置354などの各種の装置が、バス・インターフェース(I/F)301経由で接続されている。ここで、姿勢センサ351は、例えば加速度センサとジャイロ・センサの組み合わせによって構成され、接地確認センサ352,353は、近接センサ又はマイクロ・スイッチなどで構成される。
【0081】
思考制御モジュール200と運動制御モジュール300は、共通のプラットフォーム上で構築され、両者間はバス・インターフェース201,301を介して相互接続されている。
【0082】
運動制御モジュール300では、思考制御モジュール200から指示された行動を体現すべく、各アクチュエータ350による全身協調運動を制御する。すなわち、CPU311は、思考制御モジュール200から指示された行動に応じた動作パターンを外部記憶装置314から取り出し、又は、内部的に動作パターンを生成する。そして、CPU311は、指定された動作パターンに従って、足部運動、ZMP軌道、体幹運動、上肢運動、腰部水平位置及び高さなどを設定するとともに、これらの設定内容に従った動作を指示する指令値を各アクチュエータ350に転送する。
【0083】
また、CPU311は、姿勢センサ351の出力信号によりロボット装置60の体幹部ユニット62の姿勢や傾きを検出するとともに、各接地確認センサ352,353の出力信号により各脚部ユニット65R/Lが遊脚又は立脚のいずれの状態であるかを検出することによって、ロボット装置60の全身協調運動を適応的に制御することができる。
【0084】
また、CPU311は、ZMP位置が常にZMP安定領域の中心に向かうように、ロボット装置60の姿勢や動作を制御する。
【0085】
さらに、運動制御モジュール300は、思考制御モジュール200において決定された意思通りの行動がどの程度発現されたか、すなわち処理の状況を、思考制御モジュール200に返すようになっている。
【0086】
このようにしてロボット装置60は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。
【0087】
このロボット装置60において、上述した歌声合成機能をインプリメントしたプログラム(データを含む)は例えば思考制御モジュール200のROM213に置かれる。この場合、歌声合成プログラムの実行は思考制御モジュール200のCPU211により行われる。
【0088】
このようなロボット装置に上記歌声合成機能を組み込むことにより、伴奏に合わせて歌うロボットとしての表現能力が新たに獲得され、エンターテインメント性が広がり、人間との親密性が深められる。
【0089】
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
【0090】
例えば、本件出願人が先に提案した特願2002−73385の明細書及び図面に記載の音声合成方法及び装置等に用いられる歌声合成部及び波形生成部に対応した歌声生成部7に使用可能な歌声情報を例示しているが、この他種々の歌声生成部を用いることができ、この場合、各種の歌声生成部によって歌声生成に必要とされる情報を含むような歌声情報を、上記演奏データから生成するようにすればよいことは勿論である。また、演奏データは、MIDIデータに限定されず、種々の規格の演奏データを使用可能である。
【0091】
【発明の効果】
以上詳細に説明したように、歌声や楽音等の信号を合成するための本発明に係る信号合成方法及び装置によれば、演奏データを音の高さ、長さ、歌詞の音楽情報として解析し、解析された音楽情報の音符列の音符に対して、歌唱又は演奏のスタイルに応じて、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより歌唱又は演奏パターンを変更し、パターン変更された音楽情報の音符列に基づいて歌声又は楽音を生成することにより、歌唱の際の歌声や演奏の際の楽音に対して、歌唱又は演奏のスタイルに応じた表現変化を付与することができ、音楽表現が格段に向上する。
【0092】
また、本発明に係る歌声合成方法及び装置によれば、歌唱スタイルに応じて、音楽情報の音符に対して、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与するためのパラメータが設定されたパターンデータを予め用意しておき、入力された演奏データを音の高さ、長さ、歌詞の音楽情報として解析し、解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とし、上記解析された音楽情報の音符列の音符に対応して、予め用意された上記パターンデータに基づいて音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更し、パターン変更された音楽情報の音符列に基づいて歌声を生成することにより、歌唱の際の歌声に対して、歌唱スタイルに応じた表現変化を付与することができ、音楽表現が格段に向上する。したがって、従来において、固定された歌唱スタイルで表現力の乏しい歌い方しかできなかったのに対して、歌唱スタイルを任意に選択することにより、表現力が向上し、また、楽曲に合わせた歌唱スタイルにより自然な歌声を実現したり、ミスマッチなスタイルにより滑稽さを表現することもでき、エンタテインメント性をさらに向上させることができる。
【0093】
また、本発明に係るプログラムは、本発明の歌声合成機能をコンピュータに実行させるものであり、本発明に係る記録媒体は、このプログラムが記録されたコンピュータ読み取り可能なものである。
【0094】
また、本発明に係るロボット装置は本発明の歌声合成機能を実現する。すなわち、本発明のロボット装置によれば、歌唱スタイルに応じて、音楽情報の音符に対して、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与するためのパラメータが設定されたパターンデータを予め用意しておき、入力された演奏データを音の高さ、長さ、歌詞の音楽情報として解析し、解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とし、上記解析された音楽情報の音符列の音符に対応して、予め用意された上記パターンデータに基づいて音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更し、パターン変更された音楽情報の音符列に基づいて歌声を生成することにより、歌唱の際の歌声に対して、歌唱スタイルに応じた表現変化を付与することができ、音楽表現の拡大が図れ、また、楽曲に合わせた歌唱スタイルにより自然な歌声を実現したり、ミスマッチなスタイルにより滑稽さを表現することもでき、エンタテインメント性をさらに向上させることができる。したがって、ロボット装置の表現能力が向上し、エンターテインメント性を高めることができると共に、人間との親密性を深めることができる。
【図面の簡単な説明】
【図1】本実施の形態における歌声合成装置のシステム構成を説明するブロック図である。
【図2】解析結果の楽譜情報の例を示す図である。
【図3】歌声情報の例を示す図である。
【図4】歌声生成部の構成例を説明するブロック図である。
【図5】歌唱パターンデータの例を示す図である。
【図6】歌唱スタイル適用前の歌声情報の例を示す図である。
【図7】図6の歌声情報に対して「演歌」の歌唱スタイルが適用された後の歌声情報を示す図である。
【図8】本実施の形態における歌声合成装置の他の構成例の要部を示すブロック図である。
【図9】本実施の形態における歌声合成装置の動作を説明するためのフローチャートである。
【図10】本実施の形態におけるロボット装置の外観構成を示す斜視図である。
【図11】同ロボット装置の自由度構成モデルを模式的に示す図である。
【図12】同ロボット装置のシステム構成を示すブロック図である。
【符号の説明】
1 演奏データ解析部、 5 歌詞付与部、7 歌声生成部、 13 歌詞選択部、 12 歌唱パターン変更部、 100 ロボット装置、 211 CPU、 213 ROM
【発明の属する技術分野】
本発明は、演奏データから歌声や楽音等の信号を合成する信号合成方法及び装置、歌声合成方法及び装置、プログラム及び記録媒体、並びにロボット装置に関する。
【0002】
【従来の技術】
コンピュータ等により、与えられた歌唱データから歌声を生成する技術は特許文献1に代表されるように既に知られている。
【0003】
MIDI(musical instrument digital interface)データは代表的な演奏データであり、事実上の業界標準である。代表的には、MIDIデータはMIDI音源と呼ばれるデジタル音源(コンピュータ音源や電子楽器音源等のMIDIデータにより動作する音源)を制御して楽音を生成するのに使用される。MIDIファイル(例えば、SMF(standard MIDI file))には歌詞データを入れることができ、歌詞付きの楽譜の自動作成に利用される。
【0004】
また、MIDIデータを歌声又は歌声を構成する音素セグメントのパラメータ表現(特殊データ表現)として利用する試みも特許文献2に代表されるように提案されている。
【0005】
しかし、これらの従来の技術においてはMIDIデータのデータ形式の中で歌声を表現しようとしているが、あくまでも楽器をコントロールする感覚でのコントロールであり、MIDI本来が持っている歌詞データを利用するものではなかった。
【0006】
また、ほかの楽器用に作成されたMIDIデータを、修正を加えることなく歌声にすることはできなかった。
【0007】
また、電子メールやホームページを読み上げる音声合成ソフトはソニー(株)の「Simple Speech」をはじめ多くのメーカーから発売されているが、読み上げ方は普通の文章を読み上げるのと同じような口調であった。
【0008】
ところで、電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータや搬送ロボット等の産業用ロボット(Industrial Robot)であった。
【0009】
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う人間等の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等のロボット装置は、既に実用化されつつある。
【0010】
これらのロボット装置は、産業用ロボットと比較して、エンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと呼称される場合もある。また、そのようなロボット装置には、外部からの情報や内部の状態に応じて自律的に動作するものがある。
【0011】
この自律的に動作するロボット装置に用いられる人工知能(AI:artificial intelligence)は、推論・判断等の知的な機能を人工的に実現したものであり、さらに感情や本能等の機能をも人工的に実現することが試みられている。このような人工知能の外部への表現手段としての視覚的な表現手段や自然言語の表現手段等のうちで、自然言語表現機能の一例として、音声を用いることが挙げられる。
【0012】
【特許文献1】
特許第3233036号公報
【特許文献2】
特開平11−95798号公報
【0013】
【発明が解決しようとする課題】
以上のように従来の歌声合成は特殊な形式のデータを用いていたり、仮にMIDIデータを用いていてもその中に埋め込まれている歌詞データを有効に活用できなかったり、ほかの楽器用に作成されたMIDIデータを鼻歌感覚で歌い上げたりすることはできなかった。
【0014】
また、歌唱スタイル等も特に考慮されておらず、表現力も乏しいものとならざるを得ないのが現状であった。
【0015】
本発明は、このような従来の実情に鑑みて提案されたものであり、例えばMIDIデータのような演奏データを活用して歌声を合成することが可能であり、さらに歌声のみならず楽音についてもスタイルを考慮した表現を可能とするような歌声や楽音等の信号合成方法及び装置、歌声合成方法及び装置を提供することを目的とする。
【0016】
さらに、本発明の目的は、このような歌声合成機能をコンピュータに実施させるプログラム及び記録媒体を提供することである。
【0017】
さらに、本発明の目的は、このような歌声合成機能を実現するロボット装置を提供することである。
【0018】
【課題を解決するための手段】
本発明に係る歌声や楽音等の信号合成方法及び装置は、上記目的を達成するため、演奏データを音の高さ、長さ、歌詞の音楽情報として解析し、解析された音楽情報の音符列の音符に対して、歌唱又は演奏のスタイルに応じて、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより歌唱又は演奏パターンを変更し、パターン変更された音楽情報の音符列に基づいて歌声又は楽音を生成することを特徴とする。
【0019】
また、本発明に係る歌声合成方法及び装置は、上記目的を達成するため、歌唱スタイルに応じて、音楽情報の音符に対して、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与するためのパラメータが設定されたパターンデータを予め用意しておき、入力された演奏データを音の高さ、長さ、歌詞の音楽情報として解析し、解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とし、上記解析された音楽情報の音符列の音符に対応して、予め用意された上記パターンデータに基づいて音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更し、パターン変更された音楽情報の音符列に基づいて歌声を生成することを特徴とする。
【0020】
この構成によれば、歌声を生成する際に、指定された歌唱スタイルに応じて、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与し、歌い方を変更することができる。
【0021】
上記演奏データはMIDIファイルの演奏データであることが好ましい。また、上記表現変化を付与するためのパラメータは、上記歌唱スタイルと、上記音符の長さ、強さ、強さの増減状態、高さ及び楽曲の速度の少なくとも1つとに応じて設定されることが挙げられる。上記表現変化は、対象となる音符の音に対してビブラート、ピッチベンド、エクスプレッションの少なくとも1つを付与することが挙げられる。上記ビブラートを付与するためのパラメータは、振幅開始の遅れの情報と、振幅の情報と、周期の情報と、振幅の増減の情報と、周期の増減の情報との少なくとも1つを含み、上記エクスプレッションを付与するためのパラメータは、音符の長さに対する比の時間情報とその時間軸上での特徴的な任意の点における強さの情報の少なくとも1つを含むことが挙げられる。上記歌唱スタイルは、ユーザ設定、演奏データのトラック名、楽曲名、マーカのいずれかにより選択されることが挙げられる。
【0022】
また、本発明に係るプログラムは、本発明の歌声合成機能をコンピュータに実行させるものであり、本発明に係る記録媒体は、このプログラムが記録されたコンピュータ読み取り可能なものである。
【0023】
さらに、本発明に係るロボット装置は、上記目的を達成するため、供給された入力情報に基づいて動作を行う自律型のロボット装置であって、歌唱スタイルに応じて、音楽情報の音符に対して、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与するためのパラメータが設定されたパターンデータが蓄積された記憶手段と、演奏データを音の高さ、長さ、歌詞の音楽情報として解析する解析手段と、解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とする歌詞付与手段と、上記解析手段により解析された音楽情報の音符列の音符に対応して、上記記憶手段により読み出された音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更するパターン変更手段と、パターン変更された音楽情報の音符列に基づいて歌声を生成する歌声生成手段とを有することを特徴とする。これにより、ロボットの持っているエンターテインメント性を格段に向上させることができる。
【0024】
【発明の実施の形態】
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。本発明の実施の形態においては、主として歌声を合成する歌声合成装置であって、さらに楽音を合成する機能も有するような楽音合成機能付きの歌声合成装置の例を示しているが、歌声のみを合成する歌声合成装置や、楽音を合成する楽音合成装置、あるいは歌声や楽音等のオーディオ信号を合成する信号合成装置等にも本発明を容易に適用できることは勿論である。
【0025】
図1は、本実施の形態における楽音合成機能付きの歌声合成装置の概略システム構成を示すブロック図である。この図1に示す歌声合成装置は、少なくとも感情モデル、音声合成手段及び発音手段を有する例えばロボット装置に適用することを想定しているが、これに限定されず、各種ロボット装置や、ロボット以外の各種コンピュータAI(artificial intelligence)等への適用も可能であることは勿論である。
【0026】
図1において、MIDIデータに代表される演奏データ1を解析する演奏データ解析部2は入力された演奏データ1を解析し演奏データ内にあるトラックやチャンネルの音の高さや長さ、強さを表す楽譜情報4に変換する。
【0027】
図2に楽譜情報4に変換された演奏データ(MIDIデータ)の例を示す。図2において、トラック毎、チャンネル毎にイベントが書かれている。イベントにはノートイベントとコントロールイベントが含まれる。ノートイベントは発生時刻(図中の時間の欄)、高さ、長さ、強さ(velocity)の情報を持つ。したがって、ノートイベントのシーケンスにより音符列又は音列が定義される。コントロールイベントは発生時刻、コントロールのタイプデータ(例えばビブラート(vibrato)、演奏ダイナミクス表現(expression))及びコントロールのコンテンツを示すデータを持つ。例えば、ビブラートの場合、コントロールのコンテンツとして、音の振れの大きさを指示する「深さ」、音の揺れの周期を指示する「幅」、音の揺れの開始タイミング(発音タイミングからの遅れ時間)を指示する「遅れ」の項目を有する。特定のトラック、チャンネルに対するコントロールイベントはそのコントロールタイプについて新たなコントロールイベント(コントロールチェンジ)が発生しない限り、そのトラック、チャンネルの音符列の楽音再生に適用される。さらに、MIDIファイルの演奏データにはトラック単位で歌詞を記入することができる。図2において、上方に示す「あるうひ」はトラック1に記入された歌詞の一部であり、下方に示す「あるうひ」はトラック2に記入された歌詞の一部である。すなわち図2の例は、解析した音楽情報(楽譜情報)の中に歌詞が埋め込まれた例である。
【0028】
なお、図2において、時間は「小節:拍:ティック数」で表され、長さは「ティック数」で表され、強さは「0−127」の数値で表され、高さは440Hzが「A4」で表される。また、ビブラートは、深さ、幅、遅れがそれぞれ「0−64−127」の数値で表される。
【0029】
図1に戻り、変換された楽譜情報4は歌詞付与部5に渡される。歌詞付与部5では楽譜情報4をもとに音符に対応した音の長さ、高さ、強さ、表情などの情報とともにその音に対する歌詞が付与された歌声情報6の生成を行う。
【0030】
図3に歌声情報6の例を示す。図3において、「¥song¥」は歌詞情報の開始を示すタグである。タグ「¥PP,T10673075¥」は10673075μsecの休みを示し、タグ「¥tdyna 110 649075¥」は先頭から10673075μsecの全体の強さを示し、タグ「¥fine−100¥」はMIDIのファインチューンに相当する高さの微調整を示し、タグ「¥vibrato NRPN_dep=64¥」、[¥vibrato NRPN_del=50¥]、「¥vibrato NRPN_rat=64¥」はそれぞれ、ビブラートの深さ、遅れ、幅を示す。また、タグ「¥dyna 100¥」は音毎の強弱を示し、タグ「¥G4,T288461¥あ」はG4の高さで、長さが288461μsecの歌詞「あ」を示す。図3の歌声情報は図2に示す楽譜情報(MIDIデータの解析結果)から得られたものである。
【0031】
図2と図3の比較から分かるように、楽器制御用の演奏データ(例えば音符情報)が歌声情報の生成において十分に活用されている。例えば、歌詞「あるうひ」の構成要素「あ」について、「あ」以外の歌唱属性である「あ」の音の発生時刻、長さ、高さ、強さ等について、楽譜情報(図2)中のコントロール情報やノートイベント情報に含まれる発生時刻、長さ、高さ、強さ等が直接的に利用され、次の歌詞要素「る」についても楽譜情報中の同じトラック、チャンネルにおける次のノートイベント情報が直接的に利用され、以下同様である。
【0032】
図1に戻り、歌声情報6は歌声生成部7に渡され、歌声生成部7においては歌声情報6をもとに歌声波形8の生成を行う。ここで、歌声情報6から歌声波形8を生成する歌声生成部7は例えば図4に示すように構成される。
【0033】
図4において、歌声韻律生成部7−1は歌声情報6を歌声韻律データに変換する。波形生成部7−2は歌声韻律データを歌声波形8に変換する。
【0034】
具体例として、「A4」の高さの歌詞要素「ら」を一定時間伸ばす場合について説明する。ビブラートをかけない場合の歌声韻律データは、以下の表のように表される。
【0035】
【表1】
【0036】
この表において、[LABEL]は、各音韻の継続時間長を表したものである。すなわち、「ra」という音韻(音素セグメント)は、0サンプルから1000サンプルまでの1000サンプルの継続時間長であり、「ra」に続く最初の「aa」という音韻は、1000サンプルから39600サンプルまでの38600サンプルの継続時間長である。また、[PITCH]は、ピッチ周期を点ピッチで表したものである。すなわち、0サンプル点におけるピッチ周期は50サンプルである。ここでは「ら」の高さを変えないので全てのサンプルに渡り50サンプルのピッチ周期が適用される。また、[VOLUME]は、各サンプル点での相対的な音量を表したものである。すなわち、デフォルト値を100%としたときに、0サンプル点では66%の音量であり、39600サンプル点では57%の音量である。以下同様にして、40100サンプル点では48%の音量等が続き42600サンプル点では3%の音量となる。これにより「ら」の音声が時間の経過と共に減衰することが実現される。
【0037】
これに対して、ビブラートをかける場合には、例えば、以下に示すような歌声韻律データが作成される。
【0038】
【表2】
【0039】
この表の[PITCH]の欄に示すように、0サンプル点と1000サンプル点におけるピッチ周期は50サンプルで同じであり、この間は音声の高さに変化がないが、それ以降は、2000サンプル点で53サンプルのピッチ周期、4009サンプル点で47サンプルのピッチ周期、6009サンプル点で53のピッチ周期というようにピッチ周期が約4000サンプルの周期(幅)を以て上下(50±3)に振れている。これにより音声の高さの揺れであるビブラートが実現される。この[PITCH]の欄のデータは歌声情報6における対応歌声要素(例えば「ら」)に関する情報、特にノートナンバー(例えばA4)とビブラートコントロールデータ(例えば、タグ「¥vibrato NRPN_dep=64¥」、[¥vibrato NRPN_del=50¥]、「¥vibrato NRPN_rat=64¥」)に基づいて生成される。
【0040】
波形生成部7−2はこのような歌声音韻データに基づき内部の波形メモリ(図示せず)からサンプルを読み出して歌声波形8を生成する。なお、歌声情報6から歌声波形8を生成する歌声生成部7については上記の例に限らず、任意の適当な公知の歌声生成器を使用できる。
【0041】
図1に戻り、演奏データ1はMIDI音源9に渡され、MIDI音源9は演奏データをもとに楽音の生成を行う。この楽音は伴奏波形10である。
【0042】
歌声波形8と伴奏波形10はともに同期を取りミキシングを行うミキシング部11に渡される。
【0043】
ミキシング部11では、歌声波形8と伴奏波形10との同期を取りそれぞれを重ね合わせて出力波形3として再生を行うことにより、演奏データ1をもとに伴奏を伴った歌声による音楽再生を行う。
【0044】
楽譜情報4をもとに歌詞付与部5により歌声情報6に変換する段階において、楽譜情報4において歌詞情報が存在する場合には、情報として存在する歌詞を優先して歌声情報6の付与を行う。上述したように図2は歌詞が付与された状態の楽譜情報4の例であり、図3は図2の楽譜情報4から生成された歌声情報6の例である。
【0045】
ここで、歌声を生成する際にオペレータにより歌唱スタイルの指定がある場合には、楽譜情報4から歌声情報6に変換される際に、楽譜情報4に記載されている音楽情報は、歌唱パターン変更部12に渡される。
【0046】
歌唱パターン変更部12においては、歌唱パターンデータ13(歌唱スタイルデータともいう。)と楽譜情報4とを照らし合わせて、指定された歌唱スタイルに適合する歌唱パターンデータ13を参照し、そこに記載されている条件に適合する楽譜情報4の音(音符)に対して、歌唱パターンデータ13記載されている歌唱パターンのパラメータを付与して歌声情報6を生成する。具体的には、歌唱スタイルに応じて、楽譜情報の音符列の所定の音(音符)に対して、ビブラート、エクスプレッション、タイミング、ピッチベンド等のような音量変化、音程変化、タイミング変化を含む表現変化を付与するためのパラメータが設定されており、これらのパラメータが歌唱パターンデータ13(歌唱スタイルデータ)として記憶手段に蓄積されており、歌唱パターン変更部12は、楽譜情報4と歌唱パターンデータ13とを用いて、歌唱スタイルに応じた変更が加えられた歌声情報6を生成する。
【0047】
図5は、各歌唱スタイルに応じた歌唱パターンデータ13(歌唱スタイルデータ)の具体例を示す図である。この図5の例において、歌唱パターンデータ13は、条件部と実行部の2つに分かれており、条件部の項目には「ポピュラー」、「クラシック」、「演歌」などの歌唱スタイルと、表現変化を付与する対象となる音(音符)を選択する条件となる音の高さ、長さ、強さ、強さの増減パターン、曲のテンポ等が含まれており、実行部には、条件部に記載されている条件に適合した音(音符)に付与する表現変化のパラメータとしてのビブラート(vibrato)、エクスプレッション(expression:音の強弱変化、演奏ダイナミクス表現)、タイミング、ピッチベンド(フレーズ頭、フレーズ終わりのピッチベンド)、ピッチ調整等が含まれている。
【0048】
実行部のビブラートとしては、ビブラートがかかるまでの遅れ、周期、振幅、周期の増減、振幅の増減のパラメータが指定される。エクスプレッションでは音の始まりから終わりまでの時間を100とした場合の先頭、終端、大きな変化点などの特徴点となる何点かでの音量のパラメータが指定される。タイミングはビートに対しての遅れや進み具合を示すのパラメータが指定される。ピッチベンドは、フレーズの頭や終端の音に対してピッチのずり上げやずり下げ処理を行う場合のピッチの上げ下げの度合いを、音の長さを100として特徴となる時間での音程のずらし幅をセント数で表したパラメータが指定される。フレーズ内の音に対しては適応されない。ピッチ調整はピッチ全体を上げたり下げたりする際のセント数のパラメータが指定される。ここでセントとは100セントで半音を表す音程の幅の単位である。
【0049】
この歌唱スタイルの適用例(歌唱パターンデータのパラメータの付与例)を、図6、図7に示す。図6は歌唱スタイル適用前の歌声情報を示し、この図6の破線で囲った部分ptAに対して、例えば「演歌」の歌唱スタイルの歌唱パターンデータの各パラメータが適用された後の歌声情報を図7の破線で囲った部分ptBに示している。これらの図6、図7において、例えば図6の歌声情報の歌詞の「ひ」の音(音符)「E4,T144231」に対しては、図7に示すように、タイミングの補正や、フレーズ頭ピッチベンド、フレーズ終わりピッチベンド、エクスプレッションの変更等のパラメータによる表現変化が付与され、「演歌」の歌唱スタイルの歌声情報に変更される。
【0050】
このような歌唱スタイルに応じた歌声情報の変更は、図1の歌唱パターン変更部12にて、楽譜情報4と歌唱パターンデータ13とを用いて実現されるものであるが、他の例として、図8に示すように、歌詞付与部5からの(歌唱スタイル適用前の)歌声情報6Aを歌唱パターン変更部12に送り、歌唱パターン変更部12では適用前の歌声情報6A中の各音(音符)の内、上記図5の歌唱パターンデータ(歌唱スタイルデータ)の条件に合致するものに対して歌唱パターンに応じたパラメータ変更を加え、歌唱スタイル適用された歌声情報6Bを出力して歌声生成部7に送るように構成してもよい。他の構成は上記図1と同様であるため、図示せず説明を省略する。
【0051】
上記歌唱スタイルは、上述したようにオペレータにより予め指示することも可能であるが、MIDIデータに格納されておりSMF(Standard MIDI File)によって規定された一般的な楽曲名、トラック名、マーカ等の付属情報により歌唱パターン変更部12において判断することも可能である。例えば、楽曲名やトラック名にスタイル名自体やスタイル名を含む注釈等が記載されていたり、楽曲名やトラック名からスタイルを推定できたり、マーカ等の付属情報にスタイル名が記載されているような場合が挙げられる。
【0052】
ここで、上述の例では、歌声の場合を主として説明したが、楽音の場合にも同様にスタイル(演奏スタイル)を適用することができる。これは、指定された演奏スタイルに応じて、例えばサキソフォン、バイオリン等の楽音の演奏パターンに変更を加えるものである。具体的には、楽譜情報の内の所望の楽音(サキソフォン、バイオリン等の楽音)について、例えば図5と同様な演奏パターンデータを用意すればよく、この演奏パターンデータは、上記図5と同様に、条件部と実行部とを有し、条件部の項目には「ポピュラー」、「クラシック」、「演歌」などの歌唱スタイルと、表現変化を付与する対象となる音(音符)を選択する条件となる音の高さ、長さ、強さ、曲のテンポ等が含まれ、実行部には、条件部の条件に適合した音(音符)に付与する表現変化のパラメータとしてのビブラート(vibrato)、エクスプレッション(expression)、タイミング、ピッチベンド(フレーズ頭、フレーズ終わりのピッチベンド)、ピッチ調整等が含まれるようにすればよい。
【0053】
図1の例では、楽譜情報4の所望の楽音(サキソフォン、バイオリン等の楽音)の情報(例えば音符列の情報)を、演奏パターン変更部15に送って、上述したような演奏パターンデータ16から、指定された演奏スタイルに応じて、所定条件を満たす音(音符)に対して、ビブラート(vibrato)、エクスプレッション(expression)、タイミング、ピッチベンド(フレーズ頭、フレーズ終わりのピッチベンド)、ピッチ調整等の表現変化のパラメータを付与し、演奏スタイルが適用された演奏データ14を得るようにしている。この演奏スタイルが適用された演奏データ14はMIDI音源9に送られ、MIDI音源9は演奏データをもとに演奏スタイルが適用された楽音の生成を行う。
【0054】
次に図9は、図1に示す(あるいは図8に一部を示す)歌声合成装置の全体動作を説明するためのフローチャートである。
【0055】
この図9において、先ずMIDIファイルの演奏データ1を入力する(ステップS1)。次に演奏データ1を解析し、楽譜データ4を作成する(ステップS2、S3)。次に、必要に応じてオペレータに問い合わせ、オペレータの設定処理、例えば、演奏スタイルの選択、歌詞の選択、歌詞の対象であるトラック、チャンネルの選択、ミュートするMIDIトラック、チャンネルの選択等を行う。なおオペレータが設定しなかった部分については、演奏データ1の楽曲名、トラック名、マーカ等の付属情報に基づいて選択したり、予め定められたデフォルト情報を後続処理で使用するようにしている。
【0056】
続くステップS5では、歌詞を割り当てるトラックにおけるチャンネルの楽譜情報4を用いて歌詞から歌声情報6を作成する。次に、全てのトラックについて処理を完了したかどうか検査し(ステップS6)、完了してなければトラックを次に進めて、ステップS5に戻る。
【0057】
したがって、複数のトラックにそれぞれ歌詞を付加する場合に、互いに独立して歌詞が付加され歌声情報6が作成されることになる。
【0058】
次に、ステップS7において、歌唱スタイル(あるいは演奏スタイル)の変更の指定があったか否かを判別し、Yes(スタイル変更あり)の場合はステップS8に進み、No(変更無し)の場合はステップS11に進む。
【0059】
ステップS8では、楽譜情報の音(音符)について、上記歌唱パターンデータ13(あるいは演奏パターンデータ16)の条件部に示された条件に適合するか否かを判別し、条件に適合する音(音符)に対しては、ステップS9にて、上記歌唱パターンデータ13(あるいは演奏パターンデータ16)の実行部に示された表現変化のためのパラメータを適用し、歌声データ(あるいは演奏データ)を変更する。
【0060】
次のステップS10では、全ての音(音符)に対して条件チェックが終了したか否かを判別し、NoのときはステップS8に戻り、Yesのときは次のステップS11に進む。
【0061】
ステップS11では、歌声生成部7により歌声情報6から歌声波形8を作成する。次のステップS12では、MIDI音源9によりMIDIを再生して伴奏波形10を作成する。
【0062】
ここまでの処理で、歌声波形8及び伴奏波形10が得られた。そこで、ミキシング部11により、歌声波形8と伴奏波形10との同期を取りそれぞれを重ね合わせて出力波形3として再生を行う(ステップS13、S14)。この出力波形3は図示しないサウンドシステムを介して音響信号として出力される。
【0063】
以上説明した本発明の実施の形態をまとめると、歌唱スタイルに応じて、音楽情報の音符に対して、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与するためのパラメータが設定されたパターンデータを予め用意しておき、入力された演奏データを音の高さ、長さ、歌詞の音楽情報として解析し、解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とし、上記解析された音楽情報の音符列の音符に対応して、予め用意された上記パターンデータに基づいて音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更し、パターン変更された音楽情報の音符列に基づいて歌声を生成することが挙げられる。
【0064】
このような本発明の実施の形態によれば、歌唱の際の歌声に対して、歌唱スタイルに応じた表現変化を付与することができ、音楽表現の拡大が図れる。また、従来において、固定された歌唱スタイルで表現力の乏しい歌い方しかできなかったのに対して、歌唱スタイルを任意に選択することにより、表現力が向上し、また、楽曲に合わせた歌唱スタイルにより自然な歌声を実現したり、ミスマッチなスタイルにより滑稽さを表現することもでき、エンタテインメント性をさらに向上させることができる。
【0065】
また、歌声のみならず、楽音に対しても演奏スタイルを適用することができ、この場合には、演奏データを音の高さ、長さ、歌詞の音楽情報として解析し、解析された音楽情報の音符列の音符に対して、歌唱又は演奏のスタイルに応じて、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより歌唱又は演奏パターンを変更し、パターン変更された音楽情報の音符列に基づいて歌声又は楽音を生成することが好ましい。これによって、歌唱の際の歌声や演奏の際の楽音に対して、歌唱又は演奏のスタイルに応じた表現変化を付与することができ、音楽表現が格段に向上する。
【0066】
以上説明した歌声合成機能は例えば、ロボット装置に搭載される。
【0067】
以下、一構成例として示す2足歩行タイプのロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、内部状態(怒り、悲しみ、喜び、楽しみ等)に応じて行動できるほか、人間が行う基本的な動作を表出できるエンターテインメントロボットである。
【0068】
図10に示すように、ロボット装置60は、体幹部ユニット62の所定の位置に頭部ユニット63が連結されると共に、左右2つの腕部ユニット64R/Lと、左右2つの脚部ユニット65R/Lが連結されて構成されている(ただし、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。
【0069】
このロボット装置1が具備する関節自由度構成を図11に模式的に示す。頭部ユニット63を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。
【0070】
また、上肢を構成する各々の腕部ユニット64R/Lは、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール軸113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。ただし、手部114の動作は、ロボット装置60の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。
【0071】
また、体幹部ユニット62は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。
【0072】
また、下肢を構成する各々の脚部ユニット65R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部121は、実際には多関節・多自由度の足底を含んだ構造体であるが、ロボット装置60の足底は、ゼロ自由度とする。したがって、各脚部は、6自由度で構成される。
【0073】
以上を総括すれば、ロボット装置60全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。ただし、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定されるわけではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
【0074】
上述したようなロボット装置60がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。また、アクチュエータは、ギア直結型で且つサーボ制御系をワンチップ化してモータユニット内に搭載したタイプの小型ACサーボ・アクチュエータで構成することがより好ましい。
【0075】
図12には、ロボット装置60の制御システム構成を模式的に示している。図12に示すように、制御システムは、ユーザ入力などに動的に反応して情緒判断や感情表現を司る思考制御モジュール200と、アクチュエータ350の駆動などロボット装置1の全身協調運動を制御する運動制御モジュール300とで構成される。
【0076】
思考制御モジュール200は、情緒判断や感情表現に関する演算処理を実行するCPU(Central Processing Unit)211や、RAM(Random Access Memory)212、ROM(Read Only Memory)213、及び、外部記憶装置(ハード・ディスク・ドライブなど)214で構成される、モジュール内で自己完結した処理を行うことができる、独立駆動型の情報処理装置である。
【0077】
この思考制御モジュール200は、画像入力装置251から入力される画像データや音声入力装置252から入力される音声データなど、外界からの刺激などに従って、ロボット装置60の現在の感情や意思を決定する。ここで、画像入力装置251は、例えばCCD(Charge Coupled Device)カメラを複数備えており、また、音声入力装置252は、例えばマイクロホンを複数備えている。
【0078】
また、思考制御モジュール200は、意思決定に基づいた動作又は行動シーケンス、すなわち四肢の運動を実行するように、運動制御モジュール300に対して指令を発行する。
【0079】
一方の運動制御モジュール300は、ロボット装置60の全身協調運動を制御するCPU311や、RAM312、ROM313、及び外部記憶装置(ハード・ディスク・ドライブなど)314で構成される、モジュール内で自己完結した処理を行うことができる、独立駆動型の情報処理装置である。外部記憶装置314には、例えば、オフラインで算出された歩行パターンや目標とするZMP軌道、その他の行動計画を蓄積することができる。ここで、ZMPとは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、ZMP軌道とは、例えばロボット装置1の歩行動作期間中にZMPが動く軌跡を意味する。なお、ZMPの概念並びにZMPを歩行ロボットの安定度判別規範に適用する点については、Miomir Vukobratovic 著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))に記載されている。
【0080】
運動制御モジュール300には、図11に示したロボット装置60の全身に分散するそれぞれの関節自由度を実現するアクチュエータ350、体幹部ユニット2の姿勢や傾斜を計測する姿勢センサ351、左右の足底の離床又は着床を検出する接地確認センサ352,353、バッテリなどの電源を管理する電源制御装置354などの各種の装置が、バス・インターフェース(I/F)301経由で接続されている。ここで、姿勢センサ351は、例えば加速度センサとジャイロ・センサの組み合わせによって構成され、接地確認センサ352,353は、近接センサ又はマイクロ・スイッチなどで構成される。
【0081】
思考制御モジュール200と運動制御モジュール300は、共通のプラットフォーム上で構築され、両者間はバス・インターフェース201,301を介して相互接続されている。
【0082】
運動制御モジュール300では、思考制御モジュール200から指示された行動を体現すべく、各アクチュエータ350による全身協調運動を制御する。すなわち、CPU311は、思考制御モジュール200から指示された行動に応じた動作パターンを外部記憶装置314から取り出し、又は、内部的に動作パターンを生成する。そして、CPU311は、指定された動作パターンに従って、足部運動、ZMP軌道、体幹運動、上肢運動、腰部水平位置及び高さなどを設定するとともに、これらの設定内容に従った動作を指示する指令値を各アクチュエータ350に転送する。
【0083】
また、CPU311は、姿勢センサ351の出力信号によりロボット装置60の体幹部ユニット62の姿勢や傾きを検出するとともに、各接地確認センサ352,353の出力信号により各脚部ユニット65R/Lが遊脚又は立脚のいずれの状態であるかを検出することによって、ロボット装置60の全身協調運動を適応的に制御することができる。
【0084】
また、CPU311は、ZMP位置が常にZMP安定領域の中心に向かうように、ロボット装置60の姿勢や動作を制御する。
【0085】
さらに、運動制御モジュール300は、思考制御モジュール200において決定された意思通りの行動がどの程度発現されたか、すなわち処理の状況を、思考制御モジュール200に返すようになっている。
【0086】
このようにしてロボット装置60は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。
【0087】
このロボット装置60において、上述した歌声合成機能をインプリメントしたプログラム(データを含む)は例えば思考制御モジュール200のROM213に置かれる。この場合、歌声合成プログラムの実行は思考制御モジュール200のCPU211により行われる。
【0088】
このようなロボット装置に上記歌声合成機能を組み込むことにより、伴奏に合わせて歌うロボットとしての表現能力が新たに獲得され、エンターテインメント性が広がり、人間との親密性が深められる。
【0089】
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
【0090】
例えば、本件出願人が先に提案した特願2002−73385の明細書及び図面に記載の音声合成方法及び装置等に用いられる歌声合成部及び波形生成部に対応した歌声生成部7に使用可能な歌声情報を例示しているが、この他種々の歌声生成部を用いることができ、この場合、各種の歌声生成部によって歌声生成に必要とされる情報を含むような歌声情報を、上記演奏データから生成するようにすればよいことは勿論である。また、演奏データは、MIDIデータに限定されず、種々の規格の演奏データを使用可能である。
【0091】
【発明の効果】
以上詳細に説明したように、歌声や楽音等の信号を合成するための本発明に係る信号合成方法及び装置によれば、演奏データを音の高さ、長さ、歌詞の音楽情報として解析し、解析された音楽情報の音符列の音符に対して、歌唱又は演奏のスタイルに応じて、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより歌唱又は演奏パターンを変更し、パターン変更された音楽情報の音符列に基づいて歌声又は楽音を生成することにより、歌唱の際の歌声や演奏の際の楽音に対して、歌唱又は演奏のスタイルに応じた表現変化を付与することができ、音楽表現が格段に向上する。
【0092】
また、本発明に係る歌声合成方法及び装置によれば、歌唱スタイルに応じて、音楽情報の音符に対して、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与するためのパラメータが設定されたパターンデータを予め用意しておき、入力された演奏データを音の高さ、長さ、歌詞の音楽情報として解析し、解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とし、上記解析された音楽情報の音符列の音符に対応して、予め用意された上記パターンデータに基づいて音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更し、パターン変更された音楽情報の音符列に基づいて歌声を生成することにより、歌唱の際の歌声に対して、歌唱スタイルに応じた表現変化を付与することができ、音楽表現が格段に向上する。したがって、従来において、固定された歌唱スタイルで表現力の乏しい歌い方しかできなかったのに対して、歌唱スタイルを任意に選択することにより、表現力が向上し、また、楽曲に合わせた歌唱スタイルにより自然な歌声を実現したり、ミスマッチなスタイルにより滑稽さを表現することもでき、エンタテインメント性をさらに向上させることができる。
【0093】
また、本発明に係るプログラムは、本発明の歌声合成機能をコンピュータに実行させるものであり、本発明に係る記録媒体は、このプログラムが記録されたコンピュータ読み取り可能なものである。
【0094】
また、本発明に係るロボット装置は本発明の歌声合成機能を実現する。すなわち、本発明のロボット装置によれば、歌唱スタイルに応じて、音楽情報の音符に対して、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与するためのパラメータが設定されたパターンデータを予め用意しておき、入力された演奏データを音の高さ、長さ、歌詞の音楽情報として解析し、解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とし、上記解析された音楽情報の音符列の音符に対応して、予め用意された上記パターンデータに基づいて音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更し、パターン変更された音楽情報の音符列に基づいて歌声を生成することにより、歌唱の際の歌声に対して、歌唱スタイルに応じた表現変化を付与することができ、音楽表現の拡大が図れ、また、楽曲に合わせた歌唱スタイルにより自然な歌声を実現したり、ミスマッチなスタイルにより滑稽さを表現することもでき、エンタテインメント性をさらに向上させることができる。したがって、ロボット装置の表現能力が向上し、エンターテインメント性を高めることができると共に、人間との親密性を深めることができる。
【図面の簡単な説明】
【図1】本実施の形態における歌声合成装置のシステム構成を説明するブロック図である。
【図2】解析結果の楽譜情報の例を示す図である。
【図3】歌声情報の例を示す図である。
【図4】歌声生成部の構成例を説明するブロック図である。
【図5】歌唱パターンデータの例を示す図である。
【図6】歌唱スタイル適用前の歌声情報の例を示す図である。
【図7】図6の歌声情報に対して「演歌」の歌唱スタイルが適用された後の歌声情報を示す図である。
【図8】本実施の形態における歌声合成装置の他の構成例の要部を示すブロック図である。
【図9】本実施の形態における歌声合成装置の動作を説明するためのフローチャートである。
【図10】本実施の形態におけるロボット装置の外観構成を示す斜視図である。
【図11】同ロボット装置の自由度構成モデルを模式的に示す図である。
【図12】同ロボット装置のシステム構成を示すブロック図である。
【符号の説明】
1 演奏データ解析部、 5 歌詞付与部、7 歌声生成部、 13 歌詞選択部、 12 歌唱パターン変更部、 100 ロボット装置、 211 CPU、 213 ROM
Claims (21)
- 演奏データを音の高さ、長さ、歌詞の音楽情報として解析する解析工程と、
解析された音楽情報の音符列の音符に対して、歌唱又は演奏のスタイルに応じて、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより歌唱又は演奏パターンを変更するパターン変更工程と、
パターン変更された音楽情報の音符列に基づいて歌声又は楽音を生成する生成工程と
を有することを特徴とする信号合成方法。 - 上記演奏データはMIDIファイルの演奏データであることを特徴とする請求項1記載の信号合成方法。
- 上記表現変化を付与するためのパラメータは、上記歌唱又は演奏のスタイルと、上記音符の長さ、強さ、強さの増減状態、高さ及び楽曲の速度の少なくとも1つとに応じて設定されること特徴とする請求項1記載の信号合成方法。
- 演奏データを音の高さ、長さ、歌詞の音楽情報として解析する解析手段と、
歌唱又は演奏のスタイルに応じて、音楽情報の音符に対して、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与するためのパラメータが設定されたパターンデータが蓄積された記憶手段と、
上記解析手段により解析された音楽情報の音符列の音符に対応して、上記記憶手段により読み出された音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより歌唱又は演奏パターンを変更するパターン変更手段と、
パターン変更された音楽情報の音符列に基づいて歌声又は楽音を生成する生成手段と
を有することを特徴とする信号合成装置。 - 上記演奏データはMIDIファイルの演奏データであることを特徴とする請求項4記載の信号合成装置。
- 上記表現変化を付与するためのパラメータは、上記歌唱又は演奏のスタイルと、上記音符の長さ、強さ、強さの増減状態、高さ及び楽曲の速度の少なくとも1つとに応じて設定されること特徴とする請求項4記載の信号合成装置。
- 演奏データを音の高さ、長さ、歌詞の音楽情報として解析する解析工程と、
解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とする歌詞付与工程と、
上記解析された音楽情報の音符列の音符に対して、歌唱又は演奏のスタイルに応じて、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更するパターン変更工程と、
パターン変更された歌声情報に基づき歌声を生成する歌声生成工程と
を有することを特徴とする歌声合成方法。 - 上記演奏データはMIDIファイルの演奏データであることを特徴とする請求項7記載の歌声合成方法。
- 上記表現変化を付与するためのパラメータは、上記歌唱スタイルと、上記音符の長さ、強さ、高さ及び楽曲の速度の少なくとも1つとに応じて設定されることを特徴とする請求項7記載の歌声合成方法。
- 上記表現変化は、対象となる音符の音に対してビブラート、ピッチベンド、エクスプレッションの少なくとも1つを付与することを特徴とする請求項7記載の歌声合成方法。
- 上記ビブラートを付与するためのパラメータは、振幅開始の遅れの情報と、振幅の情報と、周期の情報と、振幅の増減の情報と、周期の増減の情報との少なくとも1つを含み、上記エクスプレッションを付与するためのパラメータは、音符の長さに対する比の時間情報とその時間軸上での特徴的な任意の点における強さの情報の少なくとも1つを含むことを特徴とする請求項10記載の歌声合成方法。
- 上記歌唱スタイルは、ユーザ設定、演奏データのトラック名、楽曲名、マーカのいずれかにより選択されることを特徴とする請求項7記載の歌声合成方法。
- 歌唱スタイルに応じて、音楽情報の音符に対して、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与するためのパラメータが設定されたパターンデータが蓄積された記憶手段と、
演奏データを音の高さ、長さ、歌詞の音楽情報として解析する解析手段と、
解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とする歌詞付与手段と、
上記解析手段により解析された音楽情報の音符列の音符に対応して、上記記憶手段により読み出された音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更するパターン変更手段と、
パターン変更された音楽情報の音符列に基づいて歌声を生成する歌声生成手段と
を有することを特徴とする歌声合成装置。 - 上記演奏データはMIDIファイルの演奏データであることを特徴とする請求項13記載の歌声合成装置。
- 上記表現変化を付与するためのパラメータは、上記歌唱スタイルと、上記音符の長さ、強さ、強さの増減状態、高さ及び楽曲の速度の少なくとも1つとに応じて設定されることを特徴とする請求項13記載の歌声合成装置。
- 上記表現変化は、対象となる音符の音に対してビブラート、ピッチベンド、エクスプレッションの少なくとも1つを付与することを特徴とする請求項13記載の歌声合成装置。
- 上記ビブラートを付与するためのパラメータは、振幅開始の遅れの情報と、振幅の情報と、周期の情報と、振幅の増減の情報と、周期の増減の情報との少なくとも1つを含み、上記エクスプレッションを付与するためのパラメータは、音符の長さに対する比の時間情報とその時間軸上での特徴的な任意の点における強さの情報の少なくとも1つを含むことを特徴とする請求項16記載の歌声合成装置。
- 上記歌唱スタイルは、ユーザ設定、演奏データのトラック名、楽曲名、マーカのいずれかにより選択されることを特徴とする請求項13記載の歌声合成装置。
- 所定の処理をコンピュータに実行させるためのプログラムであって、
入力された演奏データを音の高さ、長さ、歌詞の音楽情報として解析する解析工程と、
解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とする歌詞付与工程と、
上記解析された音楽情報の音符列の音符に対して、歌唱又は演奏のスタイルに応じて、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更するパターン変更工程と、
パターン変更された歌声情報に基づき歌声を生成する歌声生成工程と
を有することを特徴とするプログラム。 - 所定の処理をコンピュータに実行させるためのプログラムが記録されたコンピュータ読取可能な記録媒体であって、
入力された演奏データを音の高さ、長さ、歌詞の音楽情報として解析する解析工程と、
解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とする歌詞付与工程と、
上記解析された音楽情報の音符列の音符に対して、歌唱又は演奏のスタイルに応じて、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更するパターン変更工程と、
パターン変更された歌声情報に基づき歌声を生成する歌声生成工程と
を有することを特徴とするプログラムが記録された記録媒体。 - 供給された入力情報に基づいて動作を行う自律型のロボット装置であって、
歌唱スタイルに応じて、音楽情報の音符に対して、音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与するためのパラメータが設定されたパターンデータが蓄積された記憶手段と、
演奏データを音の高さ、長さ、歌詞の音楽情報として解析する解析手段と、
解析された音楽情報の歌詞情報に基づき音符列に対して歌詞を付与して歌声情報とする歌詞付与手段と、
上記解析手段により解析された音楽情報の音符列の音符に対応して、上記記憶手段により読み出された音量変化、音程変化、タイミング変化の少なくとも1つを含む表現変化を付与することにより上記歌声情報の歌唱パターンを変更するパターン変更手段と、
パターン変更された音楽情報の音符列に基づいて歌声を生成する歌声生成手段と
を有することを特徴とするロボット装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003170000A JP2005004106A (ja) | 2003-06-13 | 2003-06-13 | 信号合成方法及び装置、歌声合成方法及び装置、プログラム及び記録媒体並びにロボット装置 |
PCT/JP2004/008333 WO2004111993A1 (ja) | 2003-06-13 | 2004-06-14 | 信号合成方法及び装置、歌声合成方法及び装置、プログラム及び記録媒体並びにロボット装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003170000A JP2005004106A (ja) | 2003-06-13 | 2003-06-13 | 信号合成方法及び装置、歌声合成方法及び装置、プログラム及び記録媒体並びにロボット装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005004106A true JP2005004106A (ja) | 2005-01-06 |
Family
ID=33549397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003170000A Withdrawn JP2005004106A (ja) | 2003-06-13 | 2003-06-13 | 信号合成方法及び装置、歌声合成方法及び装置、プログラム及び記録媒体並びにロボット装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2005004106A (ja) |
WO (1) | WO2004111993A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008170947A (ja) * | 2007-01-05 | 2008-07-24 | National Taiwan Univ Of Science & Technology | 自律型読譜および音楽演奏ロボット、およびその方法 |
JP2010204275A (ja) * | 2009-03-02 | 2010-09-16 | Yamaha Corp | 楽音信号生成装置 |
CN110390923A (zh) * | 2018-04-16 | 2019-10-29 | 卡西欧计算机株式会社 | 电子乐器、电子乐器的控制方法以及存储介质 |
CN110390922A (zh) * | 2018-04-16 | 2019-10-29 | 卡西欧计算机株式会社 | 电子乐器、电子乐器的控制方法以及存储介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6547878B1 (ja) * | 2018-06-21 | 2019-07-24 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
CN111402842B (zh) * | 2020-03-20 | 2021-11-19 | 北京字节跳动网络技术有限公司 | 用于生成音频的方法、装置、设备和介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3237421B2 (ja) * | 1994-11-30 | 2001-12-10 | ヤマハ株式会社 | 自動演奏装置 |
JP3583575B2 (ja) * | 1997-03-31 | 2004-11-04 | 株式会社河合楽器製作所 | 電子楽器 |
JP3656519B2 (ja) * | 1999-05-26 | 2005-06-08 | ヤマハ株式会社 | 表情が付与された演奏データの作成装置及び記録媒体 |
JP3675287B2 (ja) * | 1999-08-09 | 2005-07-27 | ヤマハ株式会社 | 演奏データ作成装置 |
JP4531916B2 (ja) * | 2000-03-31 | 2010-08-25 | クラリオン株式会社 | 情報提供システム及び発声人形 |
JP3716725B2 (ja) * | 2000-08-28 | 2005-11-16 | ヤマハ株式会社 | 音声処理装置、音声処理方法および情報記録媒体 |
JP3656584B2 (ja) * | 2001-09-25 | 2005-06-08 | ヤマハ株式会社 | 演奏データ処理装置及びプログラム |
JP4147885B2 (ja) * | 2001-10-05 | 2008-09-10 | ヤマハ株式会社 | 演奏データ加工処理装置 |
-
2003
- 2003-06-13 JP JP2003170000A patent/JP2005004106A/ja not_active Withdrawn
-
2004
- 2004-06-14 WO PCT/JP2004/008333 patent/WO2004111993A1/ja active Application Filing
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008170947A (ja) * | 2007-01-05 | 2008-07-24 | National Taiwan Univ Of Science & Technology | 自律型読譜および音楽演奏ロボット、およびその方法 |
JP2010204275A (ja) * | 2009-03-02 | 2010-09-16 | Yamaha Corp | 楽音信号生成装置 |
CN110390923A (zh) * | 2018-04-16 | 2019-10-29 | 卡西欧计算机株式会社 | 电子乐器、电子乐器的控制方法以及存储介质 |
CN110390922A (zh) * | 2018-04-16 | 2019-10-29 | 卡西欧计算机株式会社 | 电子乐器、电子乐器的控制方法以及存储介质 |
CN110390923B (zh) * | 2018-04-16 | 2022-12-30 | 卡西欧计算机株式会社 | 电子乐器、电子乐器的控制方法以及存储介质 |
CN110390922B (zh) * | 2018-04-16 | 2023-01-10 | 卡西欧计算机株式会社 | 电子乐器、电子乐器的控制方法以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2004111993A1 (ja) | 2004-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3864918B2 (ja) | 歌声合成方法及び装置 | |
JP4483188B2 (ja) | 歌声合成方法、歌声合成装置、プログラム及び記録媒体並びにロボット装置 | |
EP1605435B1 (en) | Singing voice synthesizing method, singing voice synthesizing device, program, recording medium, and robot | |
JP4150198B2 (ja) | 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置 | |
JP3858842B2 (ja) | 歌声合成方法及び装置 | |
US7412390B2 (en) | Method and apparatus for speech synthesis, program, recording medium, method and apparatus for generating constraint information and robot apparatus | |
JP4415573B2 (ja) | 歌声合成方法、歌声合成装置、プログラム及び記録媒体並びにロボット装置 | |
JP4032273B2 (ja) | 同期制御装置および方法、並びに記録媒体 | |
JP2005004106A (ja) | 信号合成方法及び装置、歌声合成方法及び装置、プログラム及び記録媒体並びにロボット装置 | |
JP2002318594A (ja) | 言語処理装置および言語処理方法、並びにプログラムおよび記録媒体 | |
Goto et al. | VocaListener and VocaWatcher: Imitating a human singer by using signal processing | |
Cosentino et al. | Human–robot musical interaction | |
JP2002346958A (ja) | 脚式移動ロボットのための制御装置及び制御方法 | |
EP1256932A2 (en) | Method and apparatus for synthesising an emotion conveyed on a sound | |
JP2002304187A (ja) | 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体 | |
Kitani et al. | A talking robot and its human-like expressive speech production | |
Sunardi | Expressive motion synthesis for robot actors in robot theatre | |
Solis et al. | Improvement of the oral cavity and finger mechanisms and implementation of a pressure-pitch control system for the Waseda Saxophonist Robot | |
Bresin | Importance of note-level control in automatic music performance | |
Lim et al. | Programming by playing and approaches for expressive robot performances |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060905 |