JP2007193151A - 楽音制御装置および楽音制御処理のプログラム - Google Patents

楽音制御装置および楽音制御処理のプログラム Download PDF

Info

Publication number
JP2007193151A
JP2007193151A JP2006011888A JP2006011888A JP2007193151A JP 2007193151 A JP2007193151 A JP 2007193151A JP 2006011888 A JP2006011888 A JP 2006011888A JP 2006011888 A JP2006011888 A JP 2006011888A JP 2007193151 A JP2007193151 A JP 2007193151A
Authority
JP
Japan
Prior art keywords
parameter
input
musical tone
extracted
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006011888A
Other languages
English (en)
Other versions
JP2007193151A5 (ja
Inventor
Takeshi Terao
健 寺尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006011888A priority Critical patent/JP2007193151A/ja
Publication of JP2007193151A publication Critical patent/JP2007193151A/ja
Publication of JP2007193151A5 publication Critical patent/JP2007193151A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】 マイクロフォンから出力された音声信号を模範となる伴奏曲の基準の音声信号に近づけて、歌唱者の音程や音量のずれを矯正して発音する。
【解決手段】 CPUおよびDSPは、マイクロフォンから入力された音声信号のパラメータを抽出し、基準となる音声信号のパラメータをMIDIデータとして入力し、抽出されたパラメータの値と入力されたパラメータとの合成比の重み付けを演算し、演算された重み付けに基づいて抽出されたパラメータの値および入力されたパラメータの値に基づいて対応する音声を合成してサウンドシステムに送出する。
【選択図】 図1

Description

本発明は、楽音制御装置および楽音制御処理のプログラムに関し、特に、マイクロフォンから入力される音声信号を制御する楽音制御装置および楽音制御処理のプログラムに関するものである。
入力された歌声に応じてマイクロフォンから音声信号を出力し、アンプ等の信号処理系を通して発音するシステムとしては、広く普及しているカラオケシステムのみならず、プロ用のスタジオ録音やライブ演奏のシステムなどが知られている。近年のシステムにおいては、歌唱する対象者が伴奏曲に合わせて入力した音声に応じてマイクロフォンから出力された音声信号を、アナログからデジタルに変換して信号処理を施し、信号処理された後にその音声信号をデジタルからアナログに変換して発音する構成になっている。この信号処理に多く使用されているデバイスとして、DSP(Digital Signal Processor)がある。このDSPを使用することによって、歌唱する対象者の音声にエコーやリバーブの効果音を付加したり、歌唱する対象者の音質とは異なる音質で発音することもできる。例えば、ある提案の声質変換装置および声質変換方法並びに声質変換プログラムにおいては、変換目標話者の発音内容に依存しない自由な声質変換を可能とする技術が開示されている。この提案の構成は、図1に特徴的に示されるように、目標話者の音声信号を入力部11に入力し、目標話者音声と同一あるいは類似の発音内容の発音記号列を発音記号列入力部12に入力する。音声合成部14は、入力された発音記号列にしたがって、音声合成用データ記憶部13内の音声合成用データベースを用いて合成音を作成する。特徴パラメータ抽出部15は、目標話者音声を分析して特徴パラメータを抽出し、特徴パラメータ抽出部16は、作成された合成音を分析して特徴パラメータを抽出する。変換関数生成部17は、抽出された双方の特徴パラメータを用い、合成音のスペクトル形状を目標話者音声のスペクトル形状に変換する関数を同定する。音質変換部18は、同定された変換関数により、入力信号の音質変換を行う。(特許文献1参照)。
特開2005−266349号公報
しかしながら、上記特許文献1を含む従来の技術では、作成された合成音の特徴と入力された音声信号の特徴との差分の間で、入力された音声信号の特徴から合成音の特徴に任意の偏倚量で近づけて発音するようなものではない。したがって、歌唱する対象者が入力した音声の音程や音量が模範となる伴奏曲の基準の音声信号からずれている場合に、そのずれを矯正することはできない。
本発明は、このような従来の課題を解決するためのものであり、マイクロフォンから出力された音声信号が模範の音声信号からずれている場合に、そのずれを模範となる基準の音声信号に近づけて、歌唱の音程や音量を矯正して発音できるようにすることを目的とする。
請求項1に記載の楽音制御装置は、マイクロフォンから入力された音声信号のパラメータを抽出する抽出手段(実施形態においては、図1のDSP7に相当する)と、基準となる音声信号のパラメータ(実施形態においては、図1のMIDIデータに含まれている基準のパラメータに相当する)を入力する入力手段(実施形態においては、図1のCPU1に相当する)と、抽出手段によって抽出されたパラメータの値と入力手段によって入力されたパラメータとの合成比の重み付けを演算する演算手段(実施形態においては、図1のDSP7に相当する)と、演算手段によって演算された重み付け(実施形態においては、図7のp_omomiおよび図8のa_omomiに相当する)に基づいて抽出されたパラメータの値および入力されたパラメータの値に基づいて対応する音声を合成して発音手段(実施形態においては、サウンドシステムに相当する)に送出する合成手段(実施形態においては、図1のDSP7に相当する)と、を備えた構成になっている。
請求項1の楽音制御装置において、請求項2に記載したように、抽出されたパラメータおよび入力されたパラメータは、音声信号の周波数を表すパラメータである。
請求項1の楽音制御装置において、請求項3に記載したように、抽出されたパラメータおよび入力されたパラメータは、音声信号の振幅を表すパラメータである。
請求項1の楽音制御装置において、請求項4に記載したように、演算手段は、操作によって設定された制御データに基づいて合成比の重み付けを演算するような構成にしてもよい。
請求項4の楽音制御装置において、請求項5に記載したように、演算手段は、マイクロフォンに設けられた操作子の操作量に対応して設定された制御データに基づいて合成比の重み付けを演算するような構成にしてもよい。
請求項6に記載の楽音制御処理のプログラムは、マイクロフォンから入力された音声信号のパラメータを抽出するステップAと、基準となる音声信号のパラメータを入力するステップBと、ステップAによって抽出されたパラメータの値とステップBによって入力されたパラメータとの合成比の重み付け(実施形態においては、図7のp_omomiおよび図8のa_omomiに相当する)を演算するステップCと、ステップCによって演算された重み付けに基づいて抽出されたパラメータの値および入力されたパラメータの値に基づいて対応する音声を合成して発音手段(実施形態においては、サウンドシステムに相当する)に送出するステップDと、をコンピュータ(実施形態においては、図1のCPU1およびDSP7に相当する)に実行させる構成になっている。
請求項6の楽音制御処理のプログラムにおいて、請求項7に記載したように、抽出されたパラメータおよび入力されたパラメータは、音声信号の周波数を表すパラメータである。
請求項6の楽音制御処理のプログラムにおいて、請求項8に記載したように、抽出されたパラメータおよび入力されたパラメータは、音声信号の振幅を表すパラメータである。
請求項6の楽音制御処理のプログラムにおいて、請求項9に記載したように、ステップCは、操作によって設定された制御データに基づいて合成比の重み付けを演算するような構成にしてもよい。
請求項9の楽音制御処理のプログラムにおいて、請求項10に記載したように、ステップCは、マイクロフォンに設けられた操作子の操作量によって設定された制御データに基づいて合成比の重み付けを演算するような構成にしてもよい。
本発明の楽音制御装置および楽音制御処理のプログラムによれば、マイクロフォンから出力された音声信号が模範の音声信号からずれている場合に、そのずれを模範となる基準の音声信号に近づけて、歌唱の音程や音量を矯正して発音できるという効果が得られる。
以下、本発明による楽音制御装置の第1実施形態および第2実施形態について、カラオケシステムを例に採って図を参照して詳細に説明する。
図1は、各実施形態に共通する楽音制御装置のシステム構成を示すブロック図である。図1において、CPU1は、システムバス2を介して接続されているROM3、RAM4、ディスプレイ5、スイッチ6、DSP7との間で、コマンドおよびデータを授受しながらこの楽音制御装置を制御する。CPU1に入力されるMIDIデータは、伴奏曲のノート番号およびベロシティを含んでいる。すなわち、基準の音程および音量に相当するデータを含んでいる。ROM3は、CPU1によって実行される楽音制御処理のプログラムおよびこの装置の起動時における初期データを含んでいるとともに、MIDIデータに含まれているノート番号を音程に変換するテーブル、ベロシティを音量に変換するテーブルを予め格納している。楽音制御処理のプログラムの中には、DSP7によって実行される音声合成のアルゴリズムやパラメータ抽出のアルゴリズムが含まれている。RAM4は、CPU1によって処理されるデータを一時的に記憶するワークエリアである。ディスプレイ5は、メニュー画面や楽音制御に関する種々の情報を表示する。スイッチ6は、電源スイッチ、DSPスタートスイッチ、DSPストップスイッチ、第2実施形態において使用する重み付けスイッチであるテンキー、その他のスイッチ群で構成されている。DSP7は、ワークエリアであるRAM8および音声合成の音素データを格納した音素ROM9と接続され、後で詳述する音声合成処理やその他の処理を実行する。また、DSP7の入力側には入力FIFO(First In/First Out:先読み先出し)10が含まれており、マイクロフォンから入力された音声信号をアナログからデジタルに変換するADC(アナログ/デジタル変換回路)11から入力される音声信号を記憶する。一方、DSP7の出力側にも出力FIFO12が含まれており、DSP7によって音声合成された音声信号を記憶して、DAC(デジタル/アナログ変換回路)13に出力する。DAC13は、その音声信号をデジタルからアナログに変換して、増幅回路やスピーカを備えたサウンドシステム(図示せず)に送出する。
図2は、第1実施形態におけるDSP7のアルゴリズムの機能を示すブロック図である。DSP7は、マイクロフォンから入力された音声信号がADC11によってアナログからデジタルに変換された後、音声認識機能71によって音声を認識し、認識した音声の音程(周波数)を音程抽出機能72によって抽出し、認識した音声の音量(振幅)を音量抽出機能73によって抽出する。抽出された音程および音量は音声合成71に入力され、音素ROM9から読み出された音素データに基づいて音声合成処理され、DAC13でデジタルからアナログに変換されて出力される。
次に、図1の楽音制御装置の第1実施形態の動作について説明する。図3は、図1のCPU1のメインルーチンのフローチャートであり、RAM4およびDSP7に対する初期化処理(ステップSA1)の後、ROM3からDSP7に楽音制御処理のプログラムをロードする(ステップSA2)。そして、DSPスタートスイッチがオンされたか否かを判別し(ステップSA3)、このスイッチがオンされたときは、DSP7に対して音声合成処理を指示する(ステップSA4)。そして、DSPストップスイッチがオンされたか否かを判別し(ステップSA5)、このスイッチがオンされたときは、DSP7に対して音声合成停止を指示する終了処理を行う(ステップSA6)。
次に、第1実施形態における音声合成処理について説明する。図4は、第1実施形態におけるDSP7の音声合成処理のフローチャートである。まず、入力FIFO10から信号を取り込み(ステップSB1)、音声入力があるか否かを判別する(ステップSB2)。音声入力があったときは、音声認識処理を行う(ステップSB3)。そして、音声信号の音程すなわち周波数のパラメータを抽出して(ステップSB4)、変数pitchに抽出した音程を代入する(ステップSB5)。さらに、音声信号の音量すなわち振幅のパラメータを抽出して(ステップSB6)、変数ampに抽出した音量を代入する(ステップSB7)。次に、音素ROM9から読み出した音素データと、変数pitchおよび変数ampに代入した周波数のパラメータおよび振幅のパラメータとをそれぞれ合成して合成信号を生成する音声合成を行う(ステップSB8)。そして、生成した合成信号を出力FIFO13に書き込む(ステップSB9)。ステップSB2において、音声入力がない場合には、無音信号を出力FIFO13に書き込む(ステップSB10)。ステップSB9又はステップSB10において、合成信号又は無音信号を出力FIFO13に書き込んだ後は、図3のメインルーチンに戻る。
以上のように、この第1実施形態によれば、マイクロフォンから出力された音声信号の音程である周波数のパラメータと音素ROM9から読み出した音素データとを合成し、マイクロフォンから出力された音声信号の音量である振幅のパラメータと音素ROM9から読み出した音素データとを合成して、その合成信号に基づいて発音を行う。例えば、カラオケシステムにおいて、歌唱する対象者が伴奏曲に合わせて入力した音声の音程や音量が模範的な音声の音程や音量からずれていた場合でも、入力した音声と音素ROM10の音素データによる音声とを合成して、ずれが目立たないように発音することができる。
図5は、第2実施形態におけるDSP7のアルゴリズムの機能を示すブロック図である。DSP7は、マイクロフォンから入力された音声信号がADC11によってアナログからデジタルに変換された後、音声認識機能71によって音声を認識し、認識した音声の音程(周波数)を音程抽出機能72によって抽出し、外部からのMIDIデータに応じてCPU1によって設定された制御データに基づいて、重み付け演算機能75によって音程の重み付けを行う。また、認識した音声の音量(振幅)を音量抽出機能73によって抽出し、MIDIデータに応じてCPU1によって設定された制御データに基づいて、重み付け演算機能76によって音量の重み付けを行う。重み付けされた音程および音量は音声合成71に入力され、音素ROM9から読み出された音素データに基づいて音声合成処理され、DAC13でデジタルからアナログに変換されて出力される。
次に、第2実施形態における音声合成処理について説明する。図6は、第2実施形態におけるDSP7の音声合成処理のフローチャートである。まず、入力FIFO10から信号を取り込み(ステップSC1)、音声入力があるか否かを判別する(ステップSC2)。音声入力があったときは、音声認識処理を行う(ステップSC3)。そして、音声信号の音程すなわち周波数のパラメータを抽出して(ステップSC4)、変数pitchに抽出した音程を代入する(ステップSC5)。次に、変数pitchの重み付け演算を行う(ステップSC6)。
図7は、ステップSC6の変数pitchの重み付け演算処理のフローチャートである。MIDIのノートオンメッセージがあるか否かを判別し(ステップSD1)、MIDIのノートオンメッセージがある場合には、MIDIのノート番号をROM3のテーブルによって変換して音程を求め、変数midipitchに代入する(ステップSD2)。すなわち、伴奏曲の基準の音程を示す周波数のパラメータを変数midipitchに代入する。次に下記の演算式によって変数pitchの値を変更する(ステップSD3)。
pitch=
p_omoni×pitch+(1−p_omoni)×midipitch
ただし、0≦p_omoni≦1であり、p_omoniの値は重み付けスイッチであるテンキー(0,0.1,0.2…0.9,1)によってユーザが設定する。p_omoniの値が0に近づくと、サウンドシステムから出力される合成音声の音程は、MIDIデータで示したノート番号すなわち基準の音程に近づく。一方、p_omoniの値が1に近づくと、サウンドシステムから出力される合成音声の音程は、マイクロフォンから入力された音声信号の歌唱者の音程に近づく。
なお、テンキーに代えてマイクロフォンにダイヤルなどの操作子を設けて、その操作子の操作量に対応してp_omoniの値を設定する構成にしてもよい。変数pitchの重み付け演算処理が終了すると、図6のフローチャートに戻ってステップSC7に移行する。
図6のステップSC7においては、音声信号の音量すなわち振幅のパラメータを抽出する。そして、変数ampに抽出した音量を代入する(ステップSC8)。次に、変数ampの重み付け演算処理を行う(ステップSC9)。
図8は、ステップSC9の変数ampの重み付け演算処理のフローチャートである。MIDIのノートオンメッセージがあるか否かを判別し(ステップSE1)、MIDIのノートオンメッセージがある場合には、MIDIのベロシティをROM3のテーブルによって変換して音量を求め、変数midiampに代入する(ステップSE2)。すなわち、伴奏曲の基準の音量を示す振幅のパラメータを変数midiampに代入する。次に下記の演算式によって変数ampの値を変更する(ステップSE3)。
amp=
a_omoni×amp+(1−a_omoni)×midiamp
この場合も、0≦a_omoni≦1であり、a_omoniの値は重み付けスイッチであるテンキーによってユーザが設定するか、あるいは、マイクロフォンの操作子の操作量に対応してa_omoniの値を設定する。a_omoniの値が0に近づくと、サウンドシステムから出力される合成音声の音量は、MIDIデータで示したベロシティすなわち基準の音量に近づく。一方、a_omoniの値が1に近づくと、サウンドシステムから出力される合成音声の音量は、マイクロフォンから入力された音声信号の歌唱者の音量に近づく。
変数ampの重み付け演算処理が終了すると、図6のフローチャートに戻ってステップSC10に移行する。
図6のステップSC10においては、重み付けされた変数pitchの値および変数ampの値と音素ROM10から読み出した音素データとに基づいて音声合成を行う。そして、生成した合成信号を出力FIFO13に書き込む(ステップSC11)。ステップSC2において、音声入力がない場合には、無音信号を出力FIFO13に書き込む(ステップSC12)。ステップSC11又はステップSC12において、合成信号又は無音信号を出力FIFO13に書き込んだ後は、図3のメインルーチンに戻る。
以上のように、この第2実施形態によれば、楽音制御装置は、マイクロフォンから入力された音声信号の周波数および振幅のパラメータを抽出し、伴奏曲の基準となる音声信号の周波数および振幅のパラメータをMIDIデータとして入力し、抽出されたパラメータの値と入力されたパラメータとの合成比の重み付けを演算し、演算された重み付けに基づいて抽出されたパラメータの値および入力されたパラメータの値に基づいて対応する音声を合成して図示しないサウンドシステムに送出する。
したがって、マイクロフォンから出力された音声信号を模範となる基準の音声信号に近づけて、歌唱の音程や音量のずれを重み付けに応じた度合いで伴奏曲の基準の音程や音量に合うように矯正して発音することができる。
この場合において、スイッチ5のテンキーの操作によって合成比の重み付けの制御データを設定することができる。あるいは、マイクロフォンにダイヤルなどの操作子を設けて、その操作量によって合成比の重み付けの制御データを設定することができる。
なお、上記各実施形態においては、ROM3に予め格納されている楽音制御処理のプログラムをCPU1が実行する装置の発明について説明したが、フレキシブルディスク(FD)、CD、メモリカードなどの外部記憶媒体に記憶された楽音制御処理のプログラム、又は、インターネットなどのネットワークからダウンロードしたカラオケ情報処理のプログラムをRAM4あるいは別途設けたフラッシュROMやハードディスクなどの不揮発性メモリにインストールして、CPU1がそのプログラムを実行する構成も可能である。この場合には、プログラムの発明および記憶媒体の発明を実現できる。
すなわち、本発明の楽音制御処理のプログラムは、
マイクロフォンから入力された音声信号のパラメータを抽出するステップAと、
基準となる音声信号のパラメータを入力するステップBと、前記ステップAによって抽出されたパラメータの値と前記ステップBによって入力されたパラメータとの合成比の重み付けを演算するステップCと、前記ステップCによって演算された重み付けに基づいて前記抽出されたパラメータの値および前記入力されたパラメータの値に基づいて対応する音声を合成して発音手段に送出するステップDと、をコンピュータに実行させる。
前記抽出されたパラメータおよび前記入力されたパラメータは、音声信号の周波数を表すパラメータである。
前記抽出されたパラメータおよび前記入力されたパラメータは、音声信号の振幅を表すパラメータである。
前記ステップCは、操作によって設定された制御データに基づいて合成比の重み付けを演算する。
前記ステップCは、前記マイクロフォンに設けられた操作子の操作量によって設定された制御データに基づいて合成比の重み付けを演算する。
本発明の実施形態における楽音制御装置のシステム構成を示すブロック図。 第1実施形態におけるDSPのアルゴリズムの機能を示すブロック図。 図1のCPUのメインルーチンのフローチャート。 第1実施形態における音声合成処理のフローチャート。 第2実施形態におけるDSPのアルゴリズムの機能を示すブロック図。 第2実施形態における音声合成処理のフローチャート。 図6における音程の重み付け演算処理のフローチャート。 図6における音量の重み付け演算処理のフローチャート。
符号の説明
1 CPU
3 ROM
4、8 RAM
5 スイッチ
6 ディスプレイ
7 DSP
9 音素ROM
10、12 FIFO
11 DAC
13 ADC

Claims (10)

  1. マイクロフォンから入力された音声信号のパラメータを抽出する抽出手段と、
    基準となる音声信号のパラメータを入力する入力手段と、
    前記抽出手段によって抽出されたパラメータの値と前記入力手段によって入力されたパラメータとの合成比の重み付けを演算する演算手段と、
    前記演算手段によって演算された重み付けに基づいて前記抽出されたパラメータの値および前記入力されたパラメータの値に基づいて対応する音声を合成して発音手段に送出する合成手段と、
    を備えた楽音制御装置。
  2. 前記抽出されたパラメータおよび前記入力されたパラメータは、音声信号の周波数を表すパラメータであることを特徴とする請求項1に記載の楽音制御装置。
  3. 前記抽出されたパラメータおよび前記入力されたパラメータは、音声信号の振幅を表すパラメータであることを特徴とする請求項1に記載の楽音制御装置。
  4. 前記演算手段は、操作によって設定された制御データに基づいて合成比の重み付けを演算することを特徴とする請求項1に記載の楽音制御装置。
  5. 前記演算手段は、前記マイクロフォンに設けられた操作子の操作量に対応して設定された制御データに基づいて合成比の重み付けを演算することを特徴とする請求項4に記載の楽音制御装置。
  6. マイクロフォンから入力された音声信号のパラメータを抽出するステップAと、
    基準となる音声信号のパラメータを入力するステップBと、
    前記ステップAによって抽出されたパラメータの値と前記ステップBによって入力されたパラメータとの合成比の重み付けを演算するステップCと、
    前記ステップCによって演算された重み付けに基づいて前記抽出されたパラメータの値および前記入力されたパラメータの値に基づいて対応する音声を合成して発音手段に送出するステップDと、
    をコンピュータに実行させる楽音制御処理のプログラム。
  7. 前記抽出されたパラメータおよび前記入力されたパラメータは、音声信号の周波数を表すパラメータであることを特徴とする請求項6に記載の楽音制御処理のプログラム。
  8. 前記抽出されたパラメータおよび前記入力されたパラメータは、音声信号の振幅を表すパラメータであることを特徴とする請求項6に記載の楽音制御処理のプログラム。
  9. 前記ステップCは、操作によって設定された制御データに基づいて合成比の重み付けを演算することを特徴とする請求項7に記載の楽音制御処理のプログラム。
  10. 前記ステップCは、前記マイクロフォンに設けられた操作子の操作量によって設定された制御データに基づいて合成比の重み付けを演算することを特徴とする請求項9に記載の楽音制御処理のプログラム。
JP2006011888A 2006-01-20 2006-01-20 楽音制御装置および楽音制御処理のプログラム Pending JP2007193151A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006011888A JP2007193151A (ja) 2006-01-20 2006-01-20 楽音制御装置および楽音制御処理のプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006011888A JP2007193151A (ja) 2006-01-20 2006-01-20 楽音制御装置および楽音制御処理のプログラム

Publications (2)

Publication Number Publication Date
JP2007193151A true JP2007193151A (ja) 2007-08-02
JP2007193151A5 JP2007193151A5 (ja) 2009-11-05

Family

ID=38448889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006011888A Pending JP2007193151A (ja) 2006-01-20 2006-01-20 楽音制御装置および楽音制御処理のプログラム

Country Status (1)

Country Link
JP (1) JP2007193151A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048472A (ja) * 2012-08-31 2014-03-17 Brother Ind Ltd カラオケ用音声合成システム,及びパラメータ抽出装置
CN108766406A (zh) * 2018-05-15 2018-11-06 苏州妙文信息科技有限公司 一种智能迷你唱歌机及声音调节方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07191697A (ja) * 1993-12-27 1995-07-28 Tdk Corp 音声発声装置
JPH08126069A (ja) * 1994-10-26 1996-05-17 Fuji Electric Co Ltd カラオケシステムの制御装置
JPH08263077A (ja) * 1995-03-23 1996-10-11 Yamaha Corp 音声変換機能付カラオケ装置
JPH09179572A (ja) * 1995-12-25 1997-07-11 Taito Corp 音声変換回路とカラオケ装置
JPH10301584A (ja) * 1997-04-28 1998-11-13 Daiichi Kosho:Kk 声帯模写機能付き音響電気変換装置
JPH11133995A (ja) * 1997-10-28 1999-05-21 Yamaha Corp 音声変換装置
JP2001117598A (ja) * 1999-10-21 2001-04-27 Yamaha Corp 音声変換装置及び方法
JP2005266349A (ja) * 2004-03-18 2005-09-29 Nec Corp 声質変換装置および声質変換方法ならびに声質変換プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07191697A (ja) * 1993-12-27 1995-07-28 Tdk Corp 音声発声装置
JPH08126069A (ja) * 1994-10-26 1996-05-17 Fuji Electric Co Ltd カラオケシステムの制御装置
JPH08263077A (ja) * 1995-03-23 1996-10-11 Yamaha Corp 音声変換機能付カラオケ装置
JPH09179572A (ja) * 1995-12-25 1997-07-11 Taito Corp 音声変換回路とカラオケ装置
JPH10301584A (ja) * 1997-04-28 1998-11-13 Daiichi Kosho:Kk 声帯模写機能付き音響電気変換装置
JPH11133995A (ja) * 1997-10-28 1999-05-21 Yamaha Corp 音声変換装置
JP2001117598A (ja) * 1999-10-21 2001-04-27 Yamaha Corp 音声変換装置及び方法
JP2005266349A (ja) * 2004-03-18 2005-09-29 Nec Corp 声質変換装置および声質変換方法ならびに声質変換プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048472A (ja) * 2012-08-31 2014-03-17 Brother Ind Ltd カラオケ用音声合成システム,及びパラメータ抽出装置
CN108766406A (zh) * 2018-05-15 2018-11-06 苏州妙文信息科技有限公司 一种智能迷你唱歌机及声音调节方法

Similar Documents

Publication Publication Date Title
CN103810992A (zh) 语音合成方法和语音合成设备
JP7059972B2 (ja) 電子楽器、鍵盤楽器、方法、プログラム
JP6747489B2 (ja) 情報処理方法、情報処理システムおよびプログラム
JP2879948B2 (ja) 音声処理装置
JP6737320B2 (ja) 音響処理方法、音響処理システムおよびプログラム
JP6728843B2 (ja) 電子楽器、楽音発生装置、楽音発生方法及びプログラム
JP7190284B2 (ja) ハーモニー生成装置およびそのプログラム
JP2007193151A (ja) 楽音制御装置および楽音制御処理のプログラム
JP6326976B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP4757971B2 (ja) ハーモニー音付加装置
JP4534967B2 (ja) 音色及び/又は効果設定装置並びにプログラム
JP6801766B2 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP2022065554A (ja) 音声合成方法およびプログラム
JPH1031496A (ja) 楽音発生装置
JP2015225269A (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP6582517B2 (ja) 制御装置およびプログラム
JP6410345B2 (ja) サウンドプレビュー装置及びプログラム
JP4238807B2 (ja) 音源用波形データの決定装置
JP6390130B2 (ja) 楽曲演奏装置、楽曲演奏方法及びプログラム
JP3503268B2 (ja) 音色パラメータ編集装置
JP2009237590A (ja) 音声効果付与装置
JP3262981B2 (ja) 音声処理装置
JP4624879B2 (ja) 楽音情報発生プログラムおよび楽音情報発生装置
JP3262100B2 (ja) 音声処理装置
JP3778361B2 (ja) 音源装置および音源装置を備えた電子機器

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100727