JP6862632B2 - 音声インタラクション方法、装置、設備、コンピュータ記憶媒体及びコンピュータプログラム - Google Patents

音声インタラクション方法、装置、設備、コンピュータ記憶媒体及びコンピュータプログラム Download PDF

Info

Publication number
JP6862632B2
JP6862632B2 JP2019114544A JP2019114544A JP6862632B2 JP 6862632 B2 JP6862632 B2 JP 6862632B2 JP 2019114544 A JP2019114544 A JP 2019114544A JP 2019114544 A JP2019114544 A JP 2019114544A JP 6862632 B2 JP6862632 B2 JP 6862632B2
Authority
JP
Japan
Prior art keywords
voice
identification result
text
result
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019114544A
Other languages
English (en)
Other versions
JP2020016875A (ja
Inventor
チャン、シャンタン
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド, バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Publication of JP2020016875A publication Critical patent/JP2020016875A/ja
Application granted granted Critical
Publication of JP6862632B2 publication Critical patent/JP6862632B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、インターネット技術分野に関するものであり、特に音声インタラクション方法、装置、設備、コンピュータ記憶媒体及びコンピュータプログラムに関するものである。
従来のスマート端末設備は、音声インタラクションを行う時、一般的に、固定の応答声を採用してユーザとインタラクションを行うので、ユーザと端末設備との間の音声インタラクション過程が無味乾燥になってしまう。
本発明は、これを考慮して、マン−マシン音声インタラクションの実感、興味性を向上するための音声インタラクション方法、装置、設備、コンピュータ記憶媒体及びコンピュータプログラムを提供する。
本発明において技術の問題点を解決するために採用した技術案は、第一端末設備が送信した音声データを受信することと、前記音声データの音声識別結果及び声紋識別結果を取得することと、前記音声識別結果に対する応答テキストを取得し、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うことと、変換して得られたオーディオデータを前記第一端末設備に送信することと、を含む、音声インタラクション方法を提供する。
本発明の一つの好ましい実施形態によれば、前記声紋識別結果は、ユーザの性別、年齢、地域、職業内の少なくとも一種の身元情報を含む。
本発明の一つの好ましい実施形態によれば、前記音声識別結果に対する応答テキストを取得することは、前記音声識別結果を利用して検索を行い、前記音声識別結果に対応するテキスト検索結果及び/又は提示テキストを獲得すること、を含む。
本発明の一つの好ましい実施形態によれば、前記音声識別結果を利用して検索を行い、オーディオ検索結果を獲得したら、前記オーディオ検索結果を前記第一端末設備に送信すること、を更に含む。
本発明の一つの好ましい実施形態によれば、前記音声識別結果に対する応答テキストを取得することは、前記音声識別結果及び声紋識別結果を利用して検索を行い、前記音声識別結果及び声紋識別結果に対応するテキスト検索結果及び/又は提示テキストを獲得すること、を含む。
本発明の一つの好ましい実施形態によれば、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うことは、予め設定された身元情報と音声合成パラメータとの間の対応関係に基づいて、前記声紋識別結果に対応する音声合成パラメータを確定すること、確定された音声合成パラメータを利用して前記応答テキストに対して音声変換を行うこと、を含む。
本発明の一つの好ましい実施形態によれば、第二端末設備の前記対応関係に対する設定を受信し、保存すること、を更に含む。
本発明の一つの好ましい実施形態によれば、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行う前に、前記第一端末設備がアダプティブ音声応答として設定されたかを判断し、そうであれば、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うことを続けて実行し、そうでなければ、予め設定された又はデフォルトの音声合成パラメータを利用して前記応答テキストに対して音声変換を行うこと、を更に含む。
本発明において技術の問題点を解決するために採用した技術案は、第一端末設備が送信した音声データを受信するための受信手段と、前記音声データの音声識別結果及び声紋識別結果を取得するための処理手段と、前記音声識別結果に対する応答テキストを取得し、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うための変換手段と、変換して得られたオーディオデータを前記第一端末設備に送信するための送信手段と、を含む音声インタラクション装置を提供する。
本発明の一つの好ましい実施形態によれば、前記声紋識別結果は、ユーザの性別、年齢、地域、職業内の少なくとも一種の身元情報を含む。
本発明の一つの好ましい実施形態によれば、前記変換手段は、前記音声識別結果に対する応答テキストを取得する時、前記音声識別結果を利用して検索を行い、前記音声識別結果に対応するテキスト検索結果及び/又は提示テキストを獲得することを具体的に実行する。
本発明の一つの好ましい実施形態によれば、前記変換手段は、前記音声識別結果を利用して検索を行い、オーディオ検索結果を獲得したら、前記オーディオ検索結果を前記第一端末設備に送信することを実行するために用いられる。
本発明の一つの好ましい実施形態によれば、前記変換手段は、前記音声識別結果に対する応答テキストを取得する時、前記音声識別結果及び声紋識別結果を利用して検索を行い、前記音声識別結果及び声紋識別結果に対応するテキスト検索結果及び/又は提示テキストを獲得すること、を具体的に実行する。
本発明の一つの好ましい実施形態によれば、前記変換手段は、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行う時、予め設定された身元情報と音声合成パラメータとの間の対応関係に基づいて、前記声紋識別結果に対応する音声合成パラメータを確定すること、確定された音声合成パラメータを利用して前記応答テキストに対して音声変換を行うこと、を具体的に実行する。
本発明の一つの好ましい実施形態によれば、前記変換手段は、第二端末設備の前記対応関係に対する設定を受信し、保存することを実行するために用いられる。
本発明の一つの好ましい実施形態によれば、前記変換手段は、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行う前、前記第一端末設備がアダプティブ音声応答として設定されたかを判断し、そうであれば、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うことを続けて実行し、そうでなければ、予め設定された又はデフォルトの音声合成パラメータを利用して前記応答テキストに対して音声変換を行うこと、を更に具体的に実行する。
以上の技術案から分かるように、本発明は、ユーザが入力した音声データによって、動的に音声合成パラメータを取得して音声識別結果に対応する応答テキストに対して音声変換を行い、変換して得られたオーディオデータをユーザの身元情報に合わせ、マン−マシンインタラクションの音声適応を実現し、マン−マシン音声インタラクションの実感を向上し、マン−マシン音声インタラクションの興味性を向上する。
本発明の一実施形態にかかる音声インタラクション方法フロー図である。 本発明の一実施形態にかかる音声インタラクション装置構成図である。 本発明の一実施形態にかかるコンピュータシステム/サーバのブロック図である。
本発明の実施形態の目的、技術案と利点をより明確で簡潔させるために、以下、本発明の実施形態の図面を参照して実施形態を挙げて、本発明をはっきりと完全に説明する。
本発明の実施形態において使用される専門用語は、特定の実施形態を説明することのみを目的としており、本発明を限定することを意図するものではない。本発明の実施形態と添付の特許請求の範囲において使用された単数形式の「一種」、「前記」及び「該」は、文脈が明らかに他の意味を示さない限り、ほとんどのフォームを含めることも意図する。
本願において使用される専門用語「及び/又は」は、関連対象を記述する関連関係だけであり、三つの関係、例えば、A及び/又はBは、Aだけ存在し、AとBが同時に存在し、Bだけ存在するという三つの情况が存在することを表すと理解されるべきである。また、本願における文字「/」は、一般的に、前後関連対象が一種の「又は」の関係であるを表す。
言葉の環形に応じて、ここで使用される語彙「たら」は、「……とき」又は「……と」又は「確定に応答」又は「検出に応答」と解釈することができる。類似に、状況に応じて、語句「確定したら」又は「(記載した条件又はイベントを)検出したら」は、「確定したとき」又は「確定に応答」又は「(記載した条件又はイベントを)検出したとき」又は「(記載した条件又はイベントの)検出に応答」と解釈することができる。
図1は、本発明の一実施形態にかかる音声インタラクション方法フロー図であり、図1に示すように、前記方法は、サーバ側において実行され、以下のようなものを含む。
101において、第一端末設備が送信した音声データを受信する。
本ステップにおいて、サーバ側は、第一端末設備が送信したユーザによって入力した音声データを受信する。本発明において、第一端末設備は、スマート端末設備であり、例如スマートフォン、タブレット、スマートウェアラブル設備、スマートスピーカボックス、スマート家電等であり、該スマート設備は、ユーザ音声データを取得する及びオーディオデータを再生する能力を有す。
ただし、第一端末設備は、マイクによってユーザが入力した音声データを収集し、第一端末設備がウェイクアップ状態にある時、収集された音声データをサーバ側までに送信する。
102において、前記音声データの音声識別結果及び声紋識別結果を取得する。
本ステップにおいて、ステップ101において受信した音声データに対して音声識別及び声紋識別を行うことで、音声データに対応する音声識別結果及び声紋識別結果をそれぞれに取得する。
当然のことながら、音声データの音声識別結果及び声紋識別結果を取得するとき、サーバ側で音声データに対して音声識別及び声紋識別を行ってもよく、第一端末設備で音声データに対して音声識別及び声紋識別を行い、第一端末設備によって音声データ、音声データに対応する音声識別結果及び声紋識別結果をサーバ側まで送信してもよく、サーバ側によって受信された音声データをそれぞれに音声識別サーバ及び声紋識別サーバに送信し、更にこの二つのサーバから音声データの音声識別結果及び声紋識別結果を取得してもよい。
ただし、音声データの声紋識別結果は、ユーザの性別、年齢、地域、職業の少なくとも一種の身元情報を含む。ユーザの性別は、ユーザが男性又は女性であることができ、ユーザの年齢は、ユーザが子供、若者、中年又は老人であることができる。
具体的に、音声データに対して音声識別を行い、音声データに対応する音声識別結果を取得し、その結果は一般的にテキストデータであり、音声データに対して声紋識別を行い、音声データに対応する声紋識別結果を取得する。当然のことながら、本発明に関する音声識別及び声紋識別は、従来技術であり、ここではその説明を略し、且つ本発明は、音声識別及び声紋識別の順序を限定しない。
また、音声データに対して音声識別及び声紋識別を行う前に、音声データに対してノイズ除去処理を行い、ノイズ除去処理後の音声データを利用して音声識別及び声紋識別を行うことで、音声識別及び声紋識別の確度を向上すること、を更に含んでもよい。
103において、前記音声識別結果に対する応答テキストを取得し、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行う。
本ステップにおいて、ステップ102において取得した音声データに対応する音声識別結果に基づいて、検索を行い、音声識別結果に対応する応答テキストを取得し、更に声紋識別結果を利用して応答テキストに対して音声変換を行うことで、応答テキストに対応するオーディオデータを得る。
音声データの音声識別結果は、テキストデータであり、常に、テキストデータのみに基づいて検索を行うと、対応テキストデータの全ての検索結果を得るばかりであり、異なる性別、異なる年齢、異なる地域、異なる職業に適応する検索結果は獲得できない。
従って、本ステップにおいて、音声識別結果を利用して検索を行う時、音声識別結果及び声紋識別結果を利用して検索を行い、対応音声識別結果及び声紋識別結果の検索結果を得る方式を採用してもよい。本発明は、取得された声紋識別結果を加えて検索を行うことで、取得された検索結果を声紋識別結果におけるユーザの身元情報に合わせることができることで、更に正しく、更にユーザの所望に合う検索結果を取得する目的を実現する。
ただし、音声識別結果及び声紋識別結果を利用して検索を行う時、先ず、音声識別結果を利用して検索を行い、対応音声識別結果の検索結果を得てから、次に、声紋識別結果と得られた検索結果との間のマッチング度を計算し、マッチング度がプリセット閾値を超える検索結果を、対応音声識別結果及び声紋識別結果の検索結果とする方式を採用してもよい。本発明は、音声識別結果及び声紋識別結果を利用して検索を行い検索結果を取得する方式を限定しない。
例えば、声紋識別結果におけるユーザの身元情報が子供であれば、本ステップにおいて、検索結果を取得する時、更に子供に合う検索結果を得る。声紋識別結果におけるユーザの身元情報が男性であれば、本ステップにおいて、検索結果を取得する時、更に男性に合う検索結果を得る。
音声識別結果に基づいて検索を行う時、直接に検索エンジンを利用して検索を行い、音声識別結果に対応する検索結果を得ることができる。
または、音声識別結果に対応する特定領域のサーバを確定し、音声識別結果に基づいて確定された特定領域のサーバにおいて検索を行うことで、該当の検索結果を取得する方式を採用してもよい。例えば、音声識別結果が「激励歌をお勧め下さい」であれば、該音声識別結果に基づいて、対応する特定領域のサーバが音楽領域のサーバであると確定し、声紋識別結果におけるユーザの身元情報が男性であれば、音楽特定領域のサーバにおいて「男性に合う激励歌」の検索結果を検索して得る方式を採用してもよい。
本ステップにおいて、音声識別結果を利用して検索を行い、音声識別結果に対応する応答テキストを得る。ただし、音声識別結果に対応する応答テキストは、音声識別結果に対応するテキスト検索結果及び/又は提示テキストを含み、該提示テキストは、第一端末設備が再生する前にユーザに対して続いて再生しようとするものを提示するために用いられる。
例えば、音声識別結果が「激励歌を再生する」であれば、対応の提示テキストは、「あなたのために歌を再生します」であることができ、音声識別結果が「激励歌を検索」であれば、対応の提示テキストは、「あなたのために以下の内容を検索して得た」であることができる。
また、本ステップにおいて、音声識別結果に対応する応答テキストを取得した後、更に声紋識別結果を利用して取得された応答テキストに対して音声変換を行う。
当然のことながら、声紋識別結果を利用して取得された応答テキストに対して音声変換を行う前、更に以下の内容も含む。第一端末設備がアダプティブ音声応答として設定されたかを判断し、そうであれば、声紋識別結果を利用して取得された応答テキストに対して音声変換を行うことを実行し、そうでなければ、予め設定された又はデフォルトの音声合成パラメータを利用して応答テキストに対して音声変換を行う。
具体的に、声紋識別結果を利用して応答テキストに対して音声変換を行う時、予め設定された身元情報と音声合成パラメータとの間の対応関係に基づいて、声紋識別結果に対応する音声合成パラメータを確定し、確定された音声合成パラメータを利用して応答テキストに対して音声変換を行うことで、応答テキストに対応するオーディオデータを得る方式を採用することができる。
例えば、ユーザの身元情報が子供であれば、子供に対応する音声合成パラメータが「子供」音声合成パラメータであると確定し、続いて確定された「子供」音声合成パラメータを利用して応答テキストに対して音声変換を行い、変換して得られたオーディオデータにおける声が子供の声となるようにする。
当然のことながら、サーバ側における身元情報と音声合成パラメータとの間の対応関係は、第二端末設備によって設定され、該第二端末設備は、第一端末設備と同じても、異なってもよい。第二端末設備は、設定された対応関係をサーバ側までに送信し、サーバ側に該対応関係を保存することで、サーバ側は、該対応関係に基づいて、ユーザの身元情報に対応する音声合成パラメータを確定することができる。ただし、音声合成パラメータは、声の音高、音長と音強等のパラメータのようなものを含むことができる。
既存において、検索結果に対して音声変換を行う時に使用する音声合成パラメータは一般的に固定的なものであり、即ち、異なるユーザが得た音声変換後のオーディオデータにおける声は固定的なものである。しかし、本願は、声紋識別結果に基づいて、動的にユーザの身元情報に対応する音声合成パラメータを取得し、異なるユーザが得られた音声変換後のオーディオデータにおける声を、ユーザの身元情報に対応させることができるので、ユーザのインタラクション体験を向上する。
104において、変換して得られたオーディオデータを前記第一端末設備に送信する。
本ステップにおいて、第一端末設備が対応ユーザの音声データのフィードバック内容を再生するように、ステップ103において変換して得られたオーディオデータを第一端末設備に送信する。
当然のことながら、音声識別結果を利用してマッチング検索を行う時、獲得された検索結果がオーディオ検索結果であれば、該オーディオ検索結果に対して音声変換を行う必要がなく、直接該オーディオ検索結果を第一端末設備に送信する。
また、音声識別結果に基づいてそれに対応する提示テキストを取得したら、該提示テキストに対応するオーディオデータをオーディオ検索結果又はテキスト検索結果に対応するオーディオデータの前に追加し、第一端末設備がオーディオ検索結果又はテキスト検索結果に対応するオーディオデータを再生する前に、提示テキストに対応するオーディオデータをまず再生するようにすることで、第一端末設備がユーザの入力した音声データに対応するフィードバック内容を再生する時に更にスムーズになるように確保することができる。
図2は、本発明の一実施形態にかかる一つの音声インタラクション装置フロー図であり、図2に示すように、前記装置は、サーバ側に位置し、以下を含む。
受信手段21は、第一端末設備が送信した音声データを受信するために用いられる。
受信手段21は、第一端末設備が送信したユーザによって入力した音声データを受信する。本発明において、第一端末設備は、スマート端末設備であり、例如スマートフォン、タブレット、スマートウェアラブル設備、スマートスピーカボックス、スマート家電等であり、該スマート設備は、ユーザ音声データを取得する及びオーディオデータを再生する能力を有す。
ただし、第一端末設備は、マイクによってユーザが入力した音声データを収集し、第一端末設備がウェイクアップ状態にある時、収集された音声データを受信手段21までに送信する。
処理手段22は、前記音声データの音声識別結果及び声紋識別結果を取得するために用いられる。
処理手段22は、受信手段21が受信した音声データに対して音声識別及び声紋識別を行うことで、それぞれに音声データに対応する音声識別結果及び声紋識別結果を取得する。
当然のことながら、音声データの音声識別結果及び声紋識別結果を取得する時、処理手段22によって音声データに対して音声識別及び声紋識別を行ってもよく、第一端末設備が音声データに対して音声識別及び声紋識別を行った後、音声データ、音声識別結果及び声紋識別結果を共にサーバ側までに送信してもよく、処理手段22によって受信した音声データをそれぞれに音声識別サーバと声紋識別サーバまでに送信し、この二つのサーバから音声データの音声識別結果及び声紋識別結果を取得してもよい。
ただし、音声データの声紋識別結果は、ユーザの性別、年齢、地域、職業の少なくとも一種の身元情報を含む。ユーザの性別は、ユーザが男性又は女性であることができ、ユーザの年齢は、ユーザが子供、若者、中年又は老人であることができる。
具体的に、処理手段22は、音声データに対して音声識別を行い、音声データに対応する音声識別結果を取得し、その結果は一般的にテキストデータであり、処理手段22は、音声データに対して声紋識別を行い、音声データに対応する声紋識別結果を取得する。当然のことながら、本発明に関する音声識別及び声紋識別は、従来技術であり、ここではその説明を略し、且つ本発明は、音声識別及び声紋識別の順序を限定しない。
また、処理手段22は、音声データに対して音声識別及び声紋識別を行う前に、音声データに対してノイズ除去処理を行い、ノイズ除去処理後の音声データを利用して音声識別及び声紋識別を行うことで、音声識別及び声紋識別の確度を向上することを含んでもよい。
変換手段23は、前記音声識別結果に対する応答テキストを取得し、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うために用いられる。
変換手段23は、処理手段22が取得した音声データに対応する音声識別結果に基づいて、検索を行い、音声識別結果に対応する応答テキストを取得し、更に声紋識別結果を利用して応答テキストに対して音声変換を行うことで、応答テキストに対応するオーディオデータを得る。
音声データの音声識別結果は、テキストデータであり、常に、テキストデータのみに基づいて検索を行う時、対応テキストデータの全ての検索結果を得るばかりであり、異なる性別、異なる年齢、異なる地域、異なる職業に適応する検索結果は獲得できない。
従って、変換手段23は、音声識別結果を利用して検索を行う時、音声識別結果及び声紋識別結果を利用して検索を行い、対応音声識別結果及び声紋識別結果の検索結果を得る方式を採用してもよい。変換手段23は、取得された声紋識別結果を結合して検索を行うことで、取得された検索結果を声紋識別結果におけるユーザの身元情報に合わせることができることで、更に正しく、更にユーザの所望に合う検索結果を取得する目的を実現する。
ただし、変換手段23は、音声識別結果及び声紋識別結果を利用して検索を行う時、先ず音声識別結果を利用して検索を行い、対応音声識別結果の検索結果を得てから、次に声紋識別結果と得られた検索結果との間のマッチング度を計算し、マッチング度がプリセット閾値を超える検索結果を、対応音声識別結果及び声紋識別結果の検索結果とする方式を採用してもよい。本発明は、変換手段23が音声識別結果及び声紋識別結果を利用して検索結果を取得する方式を限定しない。
変換手段23は、音声識別結果に基づいて検索を行う時、直接に検索エンジンを利用して検索を行い、音声識別結果に対応する検索結果を得ることができる。
または、変換手段23は、音声識別結果に対応する特定領域のサーバを確定し、音声識別結果に基づいて確定された特定領域のサーバにおいて検索を行うことで、該当の検索結果を取得する方式を採用してもよい。
変換手段23は、音声識別結果を利用して検索を行い、音声識別結果に対応する応答テキストを得る。ただし、音声識別結果に対応する応答テキストは、音声識別結果に対応するテキスト検索結果及び/又は提示テキストを含み、該提示テキストは、第一端末設備が再生する前にユーザに対して続いて再生しようとするものを提示するために用いられる。
また、変換手段23は、音声識別結果に対応する応答テキストを取得した後、更に声紋識別結果を利用して取得された応答テキストに対して音声変換を行う。
当然のことながら、変換手段23は、声紋識別結果を利用して取得された応答テキストに対して音声変換を行う前、第一端末設備がアダプティブ音声応答として設定されたかを判断し、そうであれば、声紋識別結果を利用して取得された応答テキストに対して音声変換を行うことを実行し、そうでなければ、予め設定された又はデフォルトの音声合成パラメータを利用して応答テキストに対して音声変換を行うこと、を更に実行する。
具体的に、変換手段23は、声紋識別結果を利用して応答テキストに対して音声変換を行う時、予め設定された身元情報と音声合成パラメータとの間の対応関係に基づいて、声紋識別結果に対応する音声合成パラメータを確定し、確定された音声合成パラメータを利用して応答テキストに対して音声変換を行うことで、応答テキストに対応するオーディオデータを得る方式を採用することができる。
当然のことながら、変換手段23における身元情報と音声合成パラメータとの間の対応関係は、第二端末設備によって設定され、該第二端末設備は、第一端末設備と同じても、異なってもよい。第二端末設備は、設定された対応関係を変換手段23までに送信し、変換手段23に該対応関係を保存することで、変換手段23は、該対応関係に基づいて、ユーザの身元情報に対応する音声合成パラメータを確定することができる。ただし、音声合成パラメータは、声の音高、音長と音強等のパラメータのようなものを含むことができる。
送信手段24は、変換して得られたオーディオデータを前記第一端末設備に送信することために用いられる。
送信手段24は、第一端末設備が対応ユーザの音声データのフィードバック内容を再生するように、変換手段23が変換して得られたオーディオデータを第一端末設備に送信する。
当然のことながら、変換手段23が音声識別結果を利用してマッチング検索を行う時、獲得された検索結果がオーディオ検索結果であれば、該オーディオ検索結果に対して音声変換を行う必要がなく、送信手段24によって直接該オーディオ検索結果を第一端末設備に送信する。
また、変換手段23が音声識別結果に基づいてそれに対応する提示テキストを取得したら、送信手段24は、該提示テキストに対応するオーディオデータをオーディオ検索結果又はテキスト検索結果に対応するオーディオデータの前に追加し、第一端末設備がオーディオ検索結果又はテキスト検索結果に対応するオーディオデータを再生する前に、先ずに提示テキストに対応するオーディオデータを再生するようにすることで、第一端末設備がユーザの入力した音声データに対応するフィードバック内容を再生する時に更にスムーズになるように確保することができる。
図3は、本発明の実施形態を実現するために適用できる例示的なコンピュータシステム/サーバ012のブロック図を示す。図3に示すコンピュータシステム/サーバ012は、一つの例だけであり、本発明の実施形態の機能と使用範囲を制限していない。
図3に示すように、コンピュータシステム/サーバ012は、汎用演算設備の形態で表現される。コンピュータシステム/サーバ012の構成要素には、1つ又は複数のプロセッサ又は処理手段016と、システムメモリ028と、異なるシステム構成要素(システムメモリ028と処理手段016とを含む)を接続するためのバス018を含んでいるが、これに限定されない。
バス018は、複数種類のバス構成の中の1つ又は複数の種類を示し、メモリバス又はメモリコントローラ、周辺バス、グラフィック加速ポート、プロセッサ又は複数種類のバス構成でのいずれかのバス構成を使用したローカルバスを含む。例えば、それらの架構には、工業標準架構(ISA)バス、マイクロチャンネル架構(MAC)バス、増強型ISAバス、ビデオ電子規格協会(VESA)ローカルバス及び周辺コンポーネント接続(PCI)バスを含んでいるが、これに限定されない。
コンピュータシステム/サーバ012には、典型的には複数のコンピュータシステム読取り可能な媒体を含む。それらの媒体は、コンピュータシステム/サーバ012にアクセスされて使用可能な任意な媒体であり、揮発性の媒体と不揮発性の媒体や移動可能な媒体と移動不可な媒体を含む。
システムメモリ028には、揮発性メモリ形式のコンピュータシステム読取り可能な媒体、例えばランダムアクセスメモリ(RAM)030及び/又はキャッシュメモリ032を含むことができる。コンピュータシステム/サーバ012には、更に他の移動可能/移動不可なコンピュータシステム記憶媒体や揮発性/不揮発性のコンピュータシステム記憶媒体を含むことができる。例として、ストレジ034は、移動不可能な不揮発性磁媒体を読み書くために用いられる(図3に示していないが、常に「ハードディスクドライブ」とも呼ばれる)。図3に示していないが、移動可能な不揮発性磁気ディスク(例えば「フレキシブルディスク」)に対して読み書きを行うための磁気ディスクドライブ、及び移動可能な不揮発性光ディスク(例えばCD−ROM、DVD−ROM又は他の光媒体)に対して読み書きを行うための光ディスクドライブを提供できる。このような場合に、ドライブは、ぞれぞれ1つ又は複数のデータ媒体インターフェースによってバス018に接続される。システムメモリ028には少なくとも1つのプログラム製品を含み、該プログラム製品には1組の(例えば少なくとも1つの)プログラムモジュールを含み、それらのプログラムモジュールは、本発明の各実施形態の機能を実行するように配置される。
1組の(少なくとも1つの)プログラムモジュール042を含むプログラム/実用ツール040は、例えばシステムメモリ028に記憶され、このようなプログラムモジュール042には、オペレーティングシステム、1つの又は複数のアプリケーションプログラム、他のプログラムモジュール及びプログラムデータを含んでいるが、これに限定しておらず、それらの例示での1つ又はある組み合にはネットワーク環境の実現を含む可能性がある。プログラムモジュール042は、常に本発明に記載されている実施形態における機能及び/或いは方法を実行する。
コンピュータシステム/サーバ012は、一つ又は複数の周辺設備014(例えばキーボード、ポインティングデバイス、ディスプレイ024)と通信を行ってもよく、本発明において、コンピュータシステム/サーバ012は外部レーダ設備と通信を行い、一つ又は複数のユーザと該コンピュータシステム/サーバ012とのインタラクションを実現することができる設備と通信を行ってもよく、及び/又は該コンピュータシステム/サーバ012と一つ又は複数の他の演算設備との通信を実現することができるいずれかの設備(例えばネットワークカード、モデム等)と通信を行っても良い。このような通信は入力/出力(I/O)インターフェース022によって行うことができる。そして、コンピュータシステム/サーバ012は、ネットワークアダプタ020によって、一つ又は複数のネットワーク(例えばローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)及び/又は公衆回線網、例えばインターネット)と通信を行っても良い。図に示すように、ネットワークアダプタ020は、バス018によって、コンピュータシステム/サーバ012の他のモジュールと通信を行う。当然のことながら、図3に示していないが、コンピュータシステム/サーバ012と連携して他のハードウェア及び/又はソフトウェアモジュールを使用することができ、マイクロコード、設備ドライブ、冗長処理手段、外部磁気ディスクドライブアレイ、RAIDシステム、磁気テープドライブ及びデータバックアップストレジ等を含むが、これに限定されない。
プロセッサ016は、メモリ028に記憶されているプログラムを実行することで、様々な機能応用及びデータ処理、例えば本発明に記載されている実施形態における方法フローを実現する。
上記のコンピュータプログラムは、コンピュータ記憶媒体に設定されることができ、即ち該コンピュータ記憶媒体にコンピュータプログラムを符号化することができ、該プログラムが一つ又は複数のコンピュータによって実行される時、一つ又は複数のコンピュータに本発明の上記実施形態に示す方法フロー及び/又は装置操作を実行させる。例えば、上記一つ又は複数のプロセッサによって本発明の実施形態が提供した方法フローを実行する。
時間と技術の発展に伴って、媒体の意味はますます広範囲になり、コンピュータプログラムの伝送経路は有形のメディアによって制限されなくなり、ネットワークなどから直接ダウンロードすることもできる。1つ又は複数のコンピューター読み取りな可能な媒体の任意な組合を採用しても良い。コンピューター読み取りな可能な媒体は、コンピューター読み取りな可能な信号媒体又はコンピューター読み取りな可能な記憶媒体である。コンピューター読み取りな可能な記憶媒体は、例えば、電気、磁気、光、電磁気、赤外線、又は半導体のシステム、装置又はデバイス、或いは上記ものの任意な組合であるが、これに限定されない。コンピューター読み取りな可能な記憶媒体の更なる具体的な例(網羅していないリスト)には、1つ又は複数のワイヤを具備する電気的な接続、携帯式コンピュータ磁気ディスク、ハードディクス、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM又はフラッシュ)、光ファイバー、携帯式コンパクト磁気ディスクリードオンリーメモリ(CD−ROM)、光メモリ部材、磁気メモリ部材、又は上記ものの任意で適当な組合を含む。本願において、コンピューター読み取りな可能な記憶媒体は、プログラムを含む又は記憶する任意な有形媒体であってもよく、該プログラムは、命令実行システム、装置又はデバイスに使用される又はそれらと連携して使用されるができる。
コンピューター読み取りな可能な信号媒体には、ベースバンドにおいて伝搬されるデータ信号或いはキャリアの一部として伝搬されるデータ信号を含み、それにコンピューター読み取りな可能なプログラムコードが載っている。このような伝搬されるデータ信号について、複数種類の形態を採用でき、電磁気信号、光信号又はそれらの任意で適当な組合を含んでいるが、これに限定されない。コンピューター読み取りな可能な信号媒体は、コンピューター読み取りな可能な記憶媒体以外の任意なコンピューター読み取りな可能な媒体であってもよく、該コンピューター読み取りな可能な媒体は、命令実行システム、装置又はデバイスによって使用される又はそれと連携して使用されるプログラムを送信、伝搬又は転送できる。
コンピューター読み取りな可能な媒体に記憶されたプログラムコードは、任意で適正な媒体によって転送されてもよく、無線、電線、光ケーブル、RF等、又は上記ものの任意で適当な組合が含まれているが、これに限定されない。
1つ又は複数のプログラミング言語又はそれらの組合で、本発明の操作を実行するためのコンピュータプログラムコードを編集することができ、前記プログラミング言語には、オブジェクト向けのプログラミング言語、例えばJava(登録商標)、Smalltalk、C++が含まれ、通常のプロシージャ向けプログラミング言語、例えば「C」言葉又は類似しているプログラミング言語も含まれる。プログラムコードは、完全的にユーザコンピュータに実行されてもよく、部分的にユーザコンピュータに実行されてもよく、1つの独立のソフトウェアパッケージとして実行されてもよく、部分的にユーザコンピュータに実行され且つ部分的に遠隔コンピュータに実行されてもよく、又は完全的に遠隔コンピュータ又はサーバに実行されてもよい。遠隔コンピュータに係る場合に、遠隔コンピュータは、ローカルエリアネットワーク(LAN)又は広域ネットワーク(WAN)を含む任意の種類のネットワークを介して、ユーザコンピュータ、又は、外部コンピュータに接続できる(例えば、インターネットサービス事業者を利用してインターネットを介して接続できる)。
本発明が提供した技術案は、ユーザが入力した音声データによって、動的に音声合成パラメータを取得して音声識別結果に対応する応答テキストに対して音声変換を行い、変換して得られたオーディオデータをユーザの身元情報に合わせ、マン−マシンインタラクションの音声適応を実現し、マン−マシン音声インタラクションの実感を向上し、マン−マシン音声インタラクションの興味性を向上する。
本発明における幾つかの実施形態において、開示されたデバイス、装置と方法は、他の方法で開示され得ることを理解されたい。例えば、上記した装置は単なる例示に過ぎず、例えば、前記手段の分割は、論理的な機能分割のみであり、実際には、別の方法で分割することもできる。
前記の分離部品として説明された手段が、物理的に分離されてもよく、物理的に分離されなくてもよく、手段として表される部品が、物理手段でもよく、物理手段でなくてもよく、1つの箇所に位置してもよく、又は複数のネットワークセルに分布されても良い。実際の必要に基づいて、その中の一部又は全部を選択して、本実施形態の態様の目的を実現することができる。
また、本発明の各実施形態における各機能手段が1つの処理手段に集積されてもよく、各手段が物理的に独立に存在してもよく、2つ又は2つ以上の手段が1つの手段に集積されても良い。上記集積された手段は、ハードウェアの形式で実現してもよく、ハードウェア+ソフトウェア機能手段の形式で実現しても良い。
上記ソフトウェア機能手段の形式で実現する集積された手段は、1つのコンピューター読み取りな可能な記憶媒体に記憶されることができる。上記ソフトウェア機能手段は1つの記憶媒体に記憶されており、1台のコンピュータ設備(パソコン、サーバ、又はネットワーク設備等)又はプロセッサ(processor)に本発明の各実施形態に記載された方法の一部の手順を実行させるための若干の命令を含む。前述の記憶媒体には、USBメモリ、リムーバブルハードディスク、リードオンリーメモリ(ROM,Read−Only Memory)、ランダムアクセスメモリ(RAM,Random Access Memory)、磁気ディスク又は光ディスク等の、プログラムコードを記憶できる媒体を含む。
以上は、本発明の好ましい実施形態のみであり、本発明を制限しなく、本発明の精神および原則の範囲内で行われた変更、同等の置換、改善等は、全て本発明の特許請求の範囲に含めるべきである。

Claims (17)

  1. 音声インタラクション方法であって、
    第一端末設備が送信した音声データを受信することと、
    前記音声データの音声識別結果及び声紋識別結果を取得することと、
    前記音声識別結果に対する応答テキストを取得し、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うことと、
    変換して得られたオーディオデータを前記第一端末設備に送信することと、を含み、
    前記音声識別結果に対する応答テキストを取得することは、
    前記音声識別結果を利用して検索を行い、前記音声識別結果に対応するテキスト検索結果及び提示テキストを獲得すること、を含み、
    前記提示テキストは、前記第一端末設備が前記テキスト検索結果に対して音声変換を行って取得した前記オーディオデータを再生する前に、ユーザに対して、続いて再生しようとするものを提示するためのものである、
    音声インタラクション方法。
  2. 前記声紋識別結果は、ユーザの性別、年齢、地域、職業の中の少なくとも一種の身元情報を含む
    請求項1に記載の音声インタラクション方法。
  3. 前記音声識別結果を利用して検索を行い、オーディオ検索結果を獲得したら、前記オーディオ検索結果を前記第一端末設備に送信すること、を更に含む
    請求項1または請求項2に記載の音声インタラクション方法。
  4. 前記音声識別結果に対する応答テキストを取得することは、
    前記音声識別結果及び声紋識別結果を利用して検索を行い、前記音声識別結果及び声紋識別結果に対応するテキスト検索結果及び提示テキストを獲得すること、を含む
    請求項1〜のいずれか一項に記載の音声インタラクション方法。
  5. 前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うことは、
    予め設定された身元情報と音声合成パラメータとの間の対応関係に基づいて、前記声紋識別結果に対応する音声合成パラメータを確定することと、
    確定された音声合成パラメータを利用して前記応答テキストに対して音声変換を行うことと、を含む
    請求項1〜のいずれか一項に記載の音声インタラクション方法。
  6. 第二端末設備の前記対応関係に対する設定を受信し、保存すること、を更に含む
    請求項5に記載の音声インタラクション方法。
  7. 前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うことの前に、
    前記第一端末設備がアダプティブ(adaptive)音声応答に設定されたかを判断し、「はい」であれば、続いて前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うことを実行し、「いいえ」であれば、予め設定された又はデフォルトの音声合成パラメータを利用して前記応答テキストに対して音声変換を行うこと、を更に含む
    請求項1〜のいずれか一項に記載の音声インタラクション方法。
  8. 音声インタラクション装置であって、
    第一端末設備が送信した音声データを受信するための受信手段と、
    前記音声データの音声識別結果及び声紋識別結果を取得するための処理手段と、
    前記音声識別結果に対する応答テキストを取得し、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うための変換手段と、
    変換して得られたオーディオデータを前記第一端末設備に送信するための送信手段と、を含み、
    前記変換手段は、前記音声識別結果に対する応答テキストを取得するとき、
    前記音声識別結果を利用して検索を行い、前記音声識別結果に対応するテキスト検索結果及び提示テキストを獲得すること、を具体的に実行し、
    前記提示テキストは、前記第一端末設備が前記テキスト検索結果に対して音声変換を行って取得した前記オーディオデータを再生する前に、ユーザに対して、続いて再生しようとするものを提示するためのものである、
    音声インタラクション装置。
  9. 前記声紋識別結果は、ユーザの性別、年齢、地域、職業の中の少なくとも一種の身元情報を含む
    請求項に記載の音声インタラクション装置。
  10. 前記変換手段は、
    前記音声識別結果を利用して検索を行い、オーディオ検索結果を獲得したら、前記オーディオ検索結果を前記第一端末設備に送信すること、を実行するために用いられる
    請求項8に記載の音声インタラクション装置。
  11. 前記変換手段は、前記音声識別結果に対する応答テキストを取得するとき、
    前記音声識別結果及び声紋識別結果を利用して検索を行い、前記音声識別結果及び声紋識別結果に対応するテキスト検索結果及び提示テキストを獲得すること、を具体的に実行する
    請求項9または請求項10に記載の音声インタラクション装置。
  12. 前記変換手段は、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うとき、
    予め設定された身元情報と音声合成パラメータとの間の対応関係に基づいて、前記声紋識別結果に対応する音声合成パラメータを確定することと、
    確定された音声合成パラメータを利用して前記応答テキストに対して音声変換を行うことと、を具体的に実行する
    請求項11のいずれか一項に記載の音声インタラクション装置。
  13. 前記変換手段は、
    第二端末設備の前記対応関係に対する設定を受信し、保存すること、を実行するためにさらに用いられる
    請求項12に記載の音声インタラクション装置。
  14. 前記変換手段は、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うことの前に、
    前記第一端末設備がアダプティブ音声応答に設定されたかを判断し、「はい」であれば、続いて前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うことを実行し、
    「いいえ」であれば、予め設定された又はデフォルトの音声合成パラメータを利用して前記応答テキストに対して音声変換を行うこと、を更に具体的に実行する
    請求項13のいずれか一項に記載の音声インタラクション装置。
  15. 一つ又は複数のプロセッサと、
    一つ又は複数のプログラムを記憶するためのストレジと、を含む設備であって、
    前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサによって実行されると、前記一つ又は複数のプロセッサに請求項1〜のいずれか一項に記載の音声インタラクション方法を実現させる
    設備。
  16. コンピュータが実行可能な指令を含む記憶媒体であって、
    前記コンピュータが実行可能な指令がコンピュータプロセッサによって実行されると、請求項1〜のいずれか一項に記載の音声インタラクション方法を実行する
    記憶媒体。
  17. コンピュータが実行可能な指令を含むコンピュータプログラムであって、
    前記コンピュータが実行可能な指令がコンピュータプロセッサによって実行されると、請求項1〜のいずれか一項に記載の音声インタラクション方法を実行する
    コンピュータプログラム。
JP2019114544A 2018-07-24 2019-06-20 音声インタラクション方法、装置、設備、コンピュータ記憶媒体及びコンピュータプログラム Active JP6862632B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810816608.XA CN110069608B (zh) 2018-07-24 2018-07-24 一种语音交互的方法、装置、设备和计算机存储介质
CN201810816608.X 2018-07-24

Publications (2)

Publication Number Publication Date
JP2020016875A JP2020016875A (ja) 2020-01-30
JP6862632B2 true JP6862632B2 (ja) 2021-04-21

Family

ID=67365758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019114544A Active JP6862632B2 (ja) 2018-07-24 2019-06-20 音声インタラクション方法、装置、設備、コンピュータ記憶媒体及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US20200035241A1 (ja)
JP (1) JP6862632B2 (ja)
CN (1) CN110069608B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109147800A (zh) * 2018-08-30 2019-01-04 百度在线网络技术(北京)有限公司 应答方法和装置
TWI684874B (zh) * 2018-10-18 2020-02-11 瑞軒科技股份有限公司 智慧型音箱及其操作方法
CN110534117B (zh) * 2019-09-10 2022-11-25 阿波罗智联(北京)科技有限公司 用于优化语音生成模型的方法、装置、设备和计算机介质
CN110807093A (zh) * 2019-10-30 2020-02-18 中国联合网络通信集团有限公司 语音处理方法、装置及终端设备
CN110989900B (zh) * 2019-11-28 2021-11-05 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
CN111048064B (zh) * 2020-03-13 2020-07-07 同盾控股有限公司 基于单说话人语音合成数据集的声音克隆方法及装置
US11418424B2 (en) * 2020-05-29 2022-08-16 Beijing Baidu Netcom Science And Technology Co., Ltd. Test system
CN112002327A (zh) * 2020-07-16 2020-11-27 张洋 一种自主学习智能分析决策的生活与工作助理设备
CN111933149A (zh) * 2020-08-11 2020-11-13 北京声智科技有限公司 语音交互方法、穿戴式设备、终端及语音交互系统
CN114281182A (zh) * 2020-09-17 2022-04-05 华为技术有限公司 人机交互方法、装置和系统
CN112259076B (zh) * 2020-10-12 2024-03-01 北京声智科技有限公司 语音交互方法、装置、电子设备及计算机可读存储介质
US11310563B1 (en) * 2021-01-07 2022-04-19 Dish Network L.L.C. Searching for and prioritizing audiovisual content using the viewer's age
KR20220141137A (ko) * 2021-04-12 2022-10-19 삼성전자주식회사 사용자 발화를 처리하는 전자 장치, 및 그 전자 장치의 제어 방법
CN113112236A (zh) * 2021-04-19 2021-07-13 云南电网有限责任公司迪庆供电局 一种基于语音和声纹识别的配网智能调度系统及方法
CN113178187A (zh) * 2021-04-26 2021-07-27 北京有竹居网络技术有限公司 一种语音处理方法、装置、设备及介质、程序产品
CN113643684B (zh) * 2021-07-21 2024-02-27 广东电力信息科技有限公司 语音合成方法、装置、电子设备及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002162994A (ja) * 2000-11-28 2002-06-07 Eastem:Kk メッセージ交換システム
JP2011217018A (ja) * 2010-03-31 2011-10-27 Oki Networks Co Ltd 音声応答装置及びプログラム
CN102708867A (zh) * 2012-05-30 2012-10-03 北京正鹰科技有限责任公司 一种基于声纹和语音的防录音假冒身份识别方法及系统
WO2013187610A1 (en) * 2012-06-15 2013-12-19 Samsung Electronics Co., Ltd. Terminal apparatus and control method thereof
CN103236259B (zh) * 2013-03-22 2016-06-29 乐金电子研发中心(上海)有限公司 语音识别处理及反馈系统、语音回复方法
JP2015138147A (ja) * 2014-01-22 2015-07-30 シャープ株式会社 サーバ、対話装置、対話システム、対話方法および対話プログラム
CN103956163B (zh) * 2014-04-23 2017-01-11 成都零光量子科技有限公司 普通语音与加密语音的相互转换系统及方法
US9418663B2 (en) * 2014-07-31 2016-08-16 Google Inc. Conversational agent with a particular spoken style of speech
CN105206269A (zh) * 2015-08-14 2015-12-30 百度在线网络技术(北京)有限公司 一种语音处理方法和装置
CN107357875B (zh) * 2017-07-04 2021-09-10 北京奇艺世纪科技有限公司 一种语音搜索方法、装置及电子设备

Also Published As

Publication number Publication date
CN110069608B (zh) 2022-05-27
JP2020016875A (ja) 2020-01-30
CN110069608A (zh) 2019-07-30
US20200035241A1 (en) 2020-01-30

Similar Documents

Publication Publication Date Title
JP6862632B2 (ja) 音声インタラクション方法、装置、設備、コンピュータ記憶媒体及びコンピュータプログラム
JP7029613B2 (ja) インターフェイススマートインタラクティブ制御方法、装置、システム及びプログラム
JP6683234B2 (ja) 音声データ処理方法、装置、設備及びプログラム
JP7062851B2 (ja) 声紋の作成・登録の方法及び装置
JP6952184B2 (ja) ビューに基づく音声インタラクション方法、装置、サーバ、端末及び媒体
JP6713034B2 (ja) スマートテレビの音声インタラクティブフィードバック方法、システム及びコンピュータプログラム
CN108133707B (zh) 一种内容分享方法及系统
JP6848147B2 (ja) 音声インタラクション実現方法、装置、コンピュータデバイス及びプログラム
CN107481720B (zh) 一种显式声纹识别方法及装置
JP2019527371A (ja) 声紋識別方法及び装置
US10276154B2 (en) Processing natural language user inputs using context data
US10831440B2 (en) Coordinating input on multiple local devices
JP2019040603A (ja) 音楽推薦方法、装置、設備及びプログラム
JP2019185062A (ja) 音声インタラクション方法、端末機器及びコンピュータ読み取り可能な記憶媒体
CN110310642B (zh) 语音处理方法、系统、客户端、设备和存储介质
KR20200027331A (ko) 음성 합성 장치
JP2019015951A (ja) 電子機器のウェイクアップ方法、装置、デバイス及びコンピュータ可読記憶媒体
CN111539217B (zh) 一种用于自然语言内容标题消歧的方法、设备和系统
US20200020335A1 (en) Method for providing vui particular response and application thereof to intelligent sound box
JP6944920B2 (ja) スマートインタラクティブの処理方法、装置、設備及びコンピュータ記憶媒体
JP7018850B2 (ja) 端末装置、決定方法、決定プログラム及び決定装置
CN112837688B (zh) 语音转写方法、装置、相关系统及设备
CN112017662B (zh) 控制指令确定方法、装置、电子设备和存储介质
WO2020000976A1 (zh) 一种获取音乐数据的方法、设备和计算机存储介质
KR20210098250A (ko) 전자 장치 및 이의 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210304

R150 Certificate of patent or registration of utility model

Ref document number: 6862632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250