JP2021015266A - 音声対話方法及び装置 - Google Patents

音声対話方法及び装置 Download PDF

Info

Publication number
JP2021015266A
JP2021015266A JP2020038898A JP2020038898A JP2021015266A JP 2021015266 A JP2021015266 A JP 2021015266A JP 2020038898 A JP2020038898 A JP 2020038898A JP 2020038898 A JP2020038898 A JP 2020038898A JP 2021015266 A JP2021015266 A JP 2021015266A
Authority
JP
Japan
Prior art keywords
question
voice
called
audio program
current time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020038898A
Other languages
English (en)
Other versions
JP7153681B2 (ja
Inventor
ドンリ リウ
Dongli Liu
ドンリ リウ
シャオチェン ダイ
Xiaocheng Dai
シャオチェン ダイ
ジアン ペン
Jian Peng
ジアン ペン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2021015266A publication Critical patent/JP2021015266A/ja
Application granted granted Critical
Publication of JP7153681B2 publication Critical patent/JP7153681B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ユーザとより没入感の強いやり取りをし、ユーザ体験を改善する音声対話方法及び装置を提供する。【解決手段】スマート機器分野に属する音声対話方法において、外部入力を受信するステップと、外部入力に応答して、現在の時刻を検出するステップと、音声番組を呼び出すステップと、現在の時刻と呼び出された音声番組とに基づいて、質問を発出し、呼び出された音声番組を再生するステップと、を含む。【選択図】図1

Description

本開示はスマート機器に関し、具体的には音声対話方法及び装置に関する。
現在では、スマート音声対話機器(スマートスピーカー、スマートロボット等を含む)において、音声番組の再生中に、コンテンツの生産者又は編集者がユーザとやり取りをしようとする場合、ユーザへ質問を発出することができる。しかしながら、スマート音声対話機器のユーザにとって、機器とのやり取りが少い場合や、スマート音声対話機器からの質問が時宜に適しなったり、物語の筋との関連性が弱ったりして、ユーザの没入感が不足となる場合がある。
本願の実施例は、ユーザとより没入感の強いやり取りをして、ユーザ体験を改善することができる音声対話方法及び装置を提供することを目的とする。
上記目的を達成するために、本願の実施例は、音声対話方法であって、外部入力を受信するステップと、前記外部入力に応答して、現在の時刻を検出するステップと、音声番組を呼び出すステップと、前記現在の時刻と呼び出された音声番組とに基づいて、質問を発出し、前記呼び出された音声番組を再生するステップと、を含む音声対話方法音声対話方法を提供する。
また、問題を提出した後、該方法は外部音声入力を受信するステップと、前記外部音声入力が、前記発出された質問の正解と一致するか否かを判断するステップと、前記外部音声入力が、前記発出された質問の正解と一致する場合、音声提示情報を出力するステップと、を更に含んでもよい。
また、前記現在の時刻と呼び出された音声番組とに基づいて、質問を発出し、前記呼び出された音声番組を再生するステップは、まず、前記呼び出された音声番組を再生し、それから、前記呼び出された音声番組の再生が完了すると、前記現在の時刻と前記呼び出された音声番組とに基づいて、質問を発出すること、或いは、まず、前記現在の時刻と前記呼び出された音声番組とに基づいて質問を発出し、それから、前記呼び出された音声番組を再生すること、或いは、前記呼び出された音声番組を再生すると同時に、前記現在の時刻と前記呼び出された音声番組とに基づいて質問を発出すること、をさらに含んでもよい。
また、前記外部音声入力が、前記発出された質問の正解と一致するか否かを判断するステップは、前記外部音声入力には、前記発出された質問の正解におけるキーワードが含まれているか否かを判断するステップと、前記外部音声入力に、前記発出された質問の正解におけるキーワードが含まれている場合に、前記外部音声入力が前記発出された質問の正解と一致すると判定するステップと、を含んでもよい。
また、前記現在の時刻及び前記呼び出された音声番組とに基づいて質問を発出すことは、前記現在の時刻が予め設定された時間帯内である場合、前記呼び出された音声番組に対応する質問を発出すること、前記現在の時刻が予め設定された時間帯内である場合、前記呼び出された音声番組及び前記予め設定された時間帯に対応する質問を発出すること、を含んでもよい。
本願の実施例は、音声対話装置であって、外部入力を受信するように構成される受信ユニットと、前記外部入力に応答して、現在の時刻を検出するように構成される検出ユニットと、音声番組を呼び出すように構成される処理ユニットと、前記現在の時刻と前記呼び出された音声番組とに基づいて質問を発出し、前記呼び出された音声番組を再生するように構成される再生ユニットと、を備える音声対話装置さらに提供する。
また、前記受信ユニットは、質問の発出の後に、外部音声入力を受信するようにさらに構成されており、前記処理ユニットは、質問の発出の後に、前記外部音声入力が前記発出された質問の正解と一致するか否かを判断するようにさらに構成されており、前記再生ユニットは、質問の発出の後に、前記外部音声入力が前記発出された質問の正解と一致する場合、音声提示情報を出力するようにさらに構成されていてもよい。
また、前記現在の時刻と呼び出された音声番組とに基づいて、質問を発出し、前記呼び出された音声番組を再生することは、まず、前記呼び出された音声番組を再生し、それから、前記呼び出された音声番組の再生が完了すると、前記現在の時刻と前記呼び出された音声番組とに基づいて、質問を発出すること、或いは、まず、前記現在の時刻と前記呼び出された音声番組とに基づいて質問を発出し、それから、前記呼び出された音声番組を再生すること、或いは、前記呼び出された音声番組を再生すると同時に、前記現在の時刻と前記呼び出された音声番組とに基づいて質問を発出することを含んでもよい。
また、前記外部音声入力が、前記発出された質問の正解と一致するか否かを判断することは、前記外部音声入力には、前記発出された質問の正解におけるキーワードが含まれているか否かを判断することと、前記外部音声入力に、前記発出された質問の正解におけるキーワードが含まれている場合に、前記外部音声入力が前記発出された質問の正解と一致すると判定することと、を含んでもよい。
また、前記現在の時刻及び前記呼び出された音声番組とに基づいて質問を発出すことは、前記現在の時刻が予め設定された時間帯内である場合、前記呼び出された音声番組に対応する質問を発出すること、前記現在の時刻が予め設定された時間帯内である場合、前記呼び出された音声番組及び前記予め設定された時間帯に対応する質問を発出すること、を含んでもよい。
上記技術案によれば、本願による音声対話方法及び装置によって、外部入力を受信し、続いて、前記外部入力に応答して現在の時刻を検出し、それから、音声番組を呼び出し、最後に、前記現在の時刻と呼び出された音声番組とに基づいて質問を発出し、前記呼び出された音声番組を再生し、ユーザとより没入感の強いやり取りを行うことができ、ユーザ体験を改善することができる。
本願実施利の他の特徴や利点は、後述の発明を実施するための形態の部分において詳細に記述する。
図面は、本願実施例を限定するものではなく、本開示の実施例がよく理解できるように、明細書の一部として、後述の発明を実施するための形態と一緒に本願実施例を説明するためのものである。
本願の一実施例にかかる音声対話方法のフローチャートである。 本願の他の実施例にかかる音声対話方法のフローチャートである。 本願の他の実施例にかかる音声対話方法のフローチャートである。 本願の他の実施例にかかる音声対話方法のフローチャートである。 本願の別の他の一実施例にかかる音声対話装置の模式的構造図である。
以下は図面を参照しながら、本願の実施例の具体的な実施形態を詳細に説明する。ここで記述する具体的な実施形態は、本願の実施例を説明、解釈するために用いられ、本願の実施例を限定するものではないと理解されたい。
図1は本願の一実施例にかかる音声対話方法のフローチャートである。図1に示すように、該方法は、ステップS11〜14を含む。
ステップS11において、外部入力を受信する。
ステップS12において、前記外部入力に応答して、現在の時刻を検出する。
ステップS13において、音声番組を呼び出す。
ステップS14において、上記の現在の時刻と呼び出された音声番組とに基づいて質問を発出し、且つ、呼び出された音声番組を再生する。
ステップS11において、外部入力を受信する。ここで、外部入力は、押しボタンを介した外部入力であってもよく、音声を介した外部入力であってもよい。音声を介した外部入力は、「物語を聞きたい」というような番組リクエストに関係する指示であってもよく、「しばらく私と一緒に遊びましょう」というような番組リクエストに関係しない指示であってもよい。
ステップS12において、外部入力に応じて、例えば、朝8時、夜9時等の現在の時刻を検出する。
ステップS13において、音声番組を呼び出す。音声番組を、音声対話機器に予め記憶されていてもよく、人間の声で音声番組をオーディオファイルとして記録して記憶してもよい。
ステップS14において、音声番組の再生と質問の発出との間の順番は、以下の場合がある。第1の場合は、まず、呼び出された音声番組を再生し、それから、呼び出された音声番組の再生が完了すると、前記現在の時刻と呼び出された音声番組とに基づいて質問を発出する。第2の場合は、まず、前記現在の時刻と呼び出された音声番組とに基づいて質問を提出し、その後、呼び出された音声番組を再生する。第3の場合は、呼び出された音声番組の再生と同時に、前記現在の時刻と呼び出された音声番組とに基づいて質問を発出する。なお、詳細には後述するが、再生された音声番組は、現在の時刻が位置する時間帯に対応する特定の質問が存在する場合、該特定の質問を発出する。質問の発出は、音声対話機器に記憶された質問のテキストを機械が音声として合成して出力することにより行われても良く、または人間の声で質問をオーディオとして記録して音声対話機器に記憶したものを出力することにより行われてもよい。
図2は本願の他の実施例にかかる音声対話方法のフローチャートである。図2に示すように、問題を提出した後、該方法はステップS21〜24を含む。
ステップS21において、外部音声入力を受信する。
ステップS22において、前記外部音声入力が発出された質問の正解と一致するか否かを判断する。
ステップS23において、前記外部音声入力が発出された質問の正解と一致す る場合、正しいことを示す音声提示情報を出力する。
ステップS24において、前記外部音声入力が発出された質問の正解と一致しない場合、正しくないことを示す音声提示情報を出力する。
ステップS21において、このとき受信された外部音声入力は、デフォルトで、発出された質問に対するユーザの答えであると認定されている。音声対話機器は質問を発出した後、マイクロフォンを自動的に起動させ、ユーザが直接回答するようにしてもよい。マイクロフォンが自動的に起動できない場合、ユーザは手動でマイクロフォンを起動して、回答するようにしてもよい。その後、音声対話機器はユーザの発話した回答を取得することができる。
ステップS22において、外部音声入力が発出された質問の正解と一致するか否かを判定する。ここでは、発出された質問の正解が一つだけである場合があり、例えば、発出された質問は
(白い羽は青々とした水面に浮かび)の次の文が何ですか?」とすると、正しい答えは一つだけの
(紅い水かきで、清らかな小波を掻き分ける)であるので、当該正しい答えを言い出してこそ、当該発出された質問の正解と一致する。一方、発出された質問の正解が一つだけではない場合、複数の正解を予め記憶しておくようにしてもよい。
ステップS23及びステップS24において、発出された質問の正解と一致する回答をユーザが言い出すと、正しいことを示す音声提示情報を提供するとともに、次の番組に進むか、又は他の機能が実行される旨をユーザに提示する。発出された質問の正解と一致しない回答を、ユーザが言い出すと、再度回答することを誘導するように、正解の関連提示をユーザに提供することができる。有限回の提示で、ユーザが依然として発出の質問の正解と一致しない回答を与える場合、直接正解を知らせるとともに、次の番組に進むか、又は他の機能が実行される旨をユーザに提示する。
図3は本願の他の実施例にかかる音声対話方法のフローチャートである。図3に示すように、問題を提出した後、該方法はステップS31〜36を含む。
ステップS31において、外部音声入力を受信する。
ステップS32において、前記外部音声入力には、発出された質問の正解におけるキーワードが含まれるか否かを判断する。
ステップS33において、前記外部音声入力には、発出された質問の正解におけるキーワードが含まれる場合、前記外部音声入力が発出の質問の正解と一致すると判断する。
ステップS34において、前記外部音声入力が発出された質問の正解と一致する場合、正しいことを示す音声提示情報を出力する。
ステップS35において、前記外部音声入力には、発出された質問の正解におけるキーワードが含まれない場合、前記外部音声入力が発出の質問の正解と一致しないと判断する。
ステップS36において、前記外部音声入力が発出の質問の正解と一致しない場合、正しくないことを示す音声提示情報を出力する。
本願の実施例において、上述した発出の質問に対して、正解が唯一ではない場合のマッチング方法を提供する。
ステップS32において、前記外部音声入力には、発出された質問の正解におけるキーワードが含まれているか否かが判断する。例えば、「百獣の王は何ですか」という問題が発出されると、正解が「虎」であり、キーワードが「虎」であるので、外部音声入力に「虎」が含まれているか否かを判断する。
ステップS33及びステップS35において、外部音声入力が「虎(中国語では「老虎」)」、「大きい虎(中国語では「大老虎」)」、「虎です」等の、「虎」が含まれたものである限り、発出の質問の正解と一致していると判定する一方、「スロット」が含まれていない場合、発出の質問の正解と一致していないと判定する。
その他のステップの具体的な実施は上記実施例と同様であるので、ここでは説明を繰り返さない。
図4は、本願の他の実施例にかかる音声対話方法のフローチャートである。図4に示すように、該方法はステップS43〜46を含む。
ステップS41において、外部入力を受信する。
ステップS42において、前記外部入力に応答して、現在の時刻を検出する。
ステップS43において、音声番組を呼び出す。
ステップS44において、前記現在の時刻が予め設定された時間帯内であるか否かを判断する。
ステップS45において、前記現在の時刻が予め設定された時間帯以外である場合、呼び出された音声番組に対応する質問を発出し、前記音声番組を再生する。
ステップS46において、前記現在の時刻が予め設定された時間帯内である場合、呼び出された音声番組及び前記予め設定された時間帯に対応する問題及び前記音声番組を再生する。
本実施例では、再生される音声番組が位置する時間帯に基づいて、発出される問題を調整することについて詳細に記述する。
具体的には、ステップS44において、前記現在の時刻が予め設定された時間帯内であるか否かを判断する。例えば、予め設定された時間帯が、朝7時〜8時、または、夜9時〜11時であることを想定する。当該時間帯は、起きた直後や就寝直前であることが一般的である。現在の時刻が当該予め設定された時間帯内であれば、他の時間帯と異なる質問を発出する。
ステップS45及びステップS46において、ユーザは、例えば「歯磨きの良習の関連物語」を聞く場合を想定すると、現在の時刻が所定時間帯以外である場合、「歯磨きが必要なことですか」との質問を発出してもよい。現在時刻が予め設定された時間帯以外である場合、「朝は歯を磨くべきですか」や、「夜は歯を磨くべきですか」というような特定の設定時間と強く関連されている特定の質問を発出してもよい。上述のように、説明の便宜上、予め設定された時間は朝7時〜8時、又は、夜9時〜11時である例が挙げられたが、この時間は一例に過ぎず、本願はこれに対し限定するものではない。
その他のステップの具体的な実施は上記実施例と同様であるので、ここでは説明を繰り返さない。
図5は本願の別の一実施例にかかる音声対話装置の模式的構造図である。図5に示すように、該装置は、受信ユニット1と、検出ユニット2と、処理ユニット3と、再生ユニット4とを含み、そのうち、前記受信ユニット1は、外部入力を受信するために用いられ、前記検出ユニット2は、前記外部入力に応答して現在の時刻を検出するために用いられ、前記処理ユニット3は、音声番組を呼び出すために用いられ、前記再生ユニット4は、前記現在の時刻と呼び出された音声番組とに基づいて質問を発出し、呼び出された音声番組を再生するために用いられる。
また、質問の発出の後、前記受信ユニット1は、さらに外部音声入力を受信するために用いられ、前記処理ユニット3は、さらに前記外部音声入力が発出の質問の正解と一致するか否かを判断するために用いられ、前記再生ユニット4は、さらに前記外部音声入力が発出の質問の正解と一致する場合、音声提示情報を出力するために用いられる。
また、前記現在の時刻と呼び出された音声番組とに基づいて質問を発出し、呼び出された音声番組を再生することは、まず、呼び出された音声番組を再生し、それから、呼び出された音声番組の再生が完了すると、前記現在の時刻と呼び出された音声番組とに基づいて質問を発出すること、或いは、前記現在の時刻と呼び出された音声番組とに基づいて質問を発出し、そして、前記質問を発出した後、呼び出された音声番組を再生すること、或いは、呼び出された音声番組を再生すると同時に、前記現在の時刻と呼び出された音声番組とに基づいて質問を発出することを含む。
また、前記外部音声入力が発出の質問の正解と一致するか否かを判断することは、前記外部音声入力には発出の質問の正解におけるキーワードが含まれるか否かを判断することと、前記外部音声入力に発出の質問の正解におけるキーワードが含まれる場合、前記外部音声入力が発出の質問の正解と一致すると判断することを含む。
また、前記現在の時刻及び呼び出された音声番組とに基づいて質問を発出することは、前記現在の時刻が予め設定された時間帯以外である場合、呼び出された音声番組に対応する質問を発出することと、前記現在の時刻が予め設定された時間帯内である場合、呼び出された音声番組及び前記所定時間に対応する質問を発出する。
上記音声対話装置の実施例は前述の音声対話方法の実施例と同様であるので、ここでは説明を繰り返さない。
上記技術案によれば、本願にかかる音声対話方法及び装置を利用して、外部入力を受信し、続いて前記外部入力に応答し、現在の時刻を検出し、それから、音声番組を呼び出し、最後に前記現在の時刻と呼び出された音声番組とに基づいて質問を発出し、呼び出された音声番組を再生することにより、ユーザとより没入感の強いやり取りを行うことができ、ユーザ体験を改善することができる。
以上は図面を参照して本願の実施例の選択可能な実施形態を詳細に説明し、しかし、本願の実施例は上記実施形態における具体的な詳細に限定されるものではなく、本願の実施例の技術的思想の範囲内において、本願の実施例の技術的解決手段に対して複数の簡単な変形を行うことができ、これらの簡単な変形はいずれも本願の実施例の保護範囲に属する。
また、上記具体的な実施形態に記載された各具体的な技術的特徴は、矛盾しない場合、任意の適切な方式によって組み合わせられる。不要な重複を避けるために、本願の実施例は様々な可能な組み合わせ方式については別途説明しない。
当業者であれば上記実施例の方法における全部又は一部のステップを実現することはプログラムによって関連するハードウェアを指示することによって実施することができる。該プログラムは、記憶媒体に記憶されているものであって、ワンチップマイコン、チップ又はプロセッサ(processor )に本出願の各実施例に記載の方法の全部又は一部のステップを実行させるように、複数の指示を含む。前記記憶媒体は、Uディスク、モバイルハードディスク、リードオンリーメモリ(ROM:Read−Only Memory )、ランダムアクセスメモリ(RAM:Random Access Memory )、磁気ディスク又は光ディスク等の、各種のプログラムコードを記憶す可能媒体を含んでもよい。
また、本願の実施例の様々な異なる実施形態の間に任意の組み合わせを行うことができ、それは本願の実施例の思想に反しない限り、それは同様に本願の実施例に開示された内容と見なすべきである。

Claims (10)

  1. 音声対話方法であって、
    外部入力を受信するステップと、
    前記外部入力に応答して、現在の時刻を検出するステップと、
    音声番組を呼び出すステップと、
    前記現在の時刻と呼び出された音声番組とに基づいて、質問を発出し、前記呼び出された音声番組を再生するステップと、
    を含むことを特徴とする、音声対話方法。
  2. 前記質問を出した後に、
    外部音声入力を受信するステップと、
    前記外部音声入力が、前記発出された質問の正解と一致するか否かを判断するステップと、
    前記外部音声入力が、前記発出された質問の正解と一致する場合、音声提示情報を出力するステップと、
    を更に含むことを特徴とする、請求項1に記載の音声対話方法。
  3. 前記現在の時刻と呼び出された音声番組とに基づいて、質問を発出し、前記呼び出された音声番組を再生するステップは、
    まず、前記呼び出された音声番組を再生し、それから、前記呼び出された音声番組の再生が完了すると、前記現在の時刻と前記呼び出された音声番組とに基づいて、質問を発出すること、或いは
    まず、前記現在の時刻と前記呼び出された音声番組とに基づいて質問を発出し、それから、前記呼び出された音声番組を再生すること、或いは
    前記呼び出された音声番組を再生すると同時に、前記現在の時刻と前記呼び出された音声番組とに基づいて質問を発出すること、
    をさらに含むことを特徴とする、請求項1に記載の音声対話方法。
  4. 前記外部音声入力が、前記発出された質問の正解と一致するか否かを判断するステップは、
    前記外部音声入力には、前記発出された質問の正解におけるキーワードが含まれているか否かを判断するステップと、
    前記外部音声入力に、前記発出された質問の正解におけるキーワードが含まれている場合に、前記外部音声入力が前記発出された質問の正解と一致すると判定するステップと、
    を含むことを特徴とする請求項2に記載の音声対話方法。
  5. 前記現在の時刻及び前記呼び出された音声番組とに基づいて質問を発出すことは、
    前記現在の時刻が予め設定された時間帯内である場合、前記呼び出された音声番組に対応する質問を発出すること、
    前記現在の時刻が予め設定された時間帯内である場合、前記呼び出された音声番組及び前記予め設定された時間帯に対応する質問を発出すること、
    を含むことを特徴とする請求項1に記載の音声対話方法。
  6. 音声対話装置であって、
    外部入力を受信するように構成される受信ユニットと、
    前記外部入力に応答して、現在の時刻を検出するように構成される検出ユニットと、
    音声番組を呼び出すように構成される処理ユニットと、
    前記現在の時刻と前記呼び出された音声番組とに基づいて質問を発出し、前記呼び出された音声番組を再生するように構成される再生ユニットと、
    を備えることを特徴とする音声対話装置。
  7. 前記受信ユニットは、質問の発出の後に、外部音声入力を受信するようにさらに構成されており、
    前記処理ユニットは、質問の発出の後に、前記外部音声入力が前記発出された質問の正解と一致するか否かを判断するようにさらに構成されており、
    前記再生ユニットは、質問の発出の後に、前記外部音声入力が前記発出された質問の正解と一致する場合、音声提示情報を出力するようにさらに構成されている、
    ことを特徴とする請求項6に記載の音声対話装置。
  8. 前記現在の時刻と呼び出された音声番組とに基づいて、質問を発出し、前記呼び出された音声番組を再生することは、
    まず、前記呼び出された音声番組を再生し、それから、前記呼び出された音声番組の再生が完了すると、前記現在の時刻と前記呼び出された音声番組とに基づいて、質問を発出すること、或いは
    まず、前記現在の時刻と前記呼び出された音声番組とに基づいて質問を発出し、それから、前記呼び出された音声番組を再生すること、或いは
    前記呼び出された音声番組を再生すると同時に、前記現在の時刻と前記呼び出された音声番組とに基づいて質問を発出すること
    を含むことを特徴とする請求項6に記載の音声対話装置。
  9. 前記外部音声入力が、前記発出された質問の正解と一致するか否かを判断することは、
    前記外部音声入力には、前記発出された質問の正解におけるキーワードが含まれているか否かを判断することと、
    前記外部音声入力に、前記発出された質問の正解におけるキーワードが含まれている場合に、前記外部音声入力が前記発出された質問の正解と一致すると判定することと、
    を含むことを特徴とする請求項7に記載の音声対話装置。
  10. 前記現在の時刻及び前記呼び出された音声番組とに基づいて質問を発出すことは、
    前記現在の時刻が予め設定された時間帯内である場合、前記呼び出された音声番組に対応する質問を発出すること、
    前記現在の時刻が予め設定された時間帯内である場合、前記呼び出された音声番組及び前記予め設定された時間帯に対応する質問を発出すること、
    を含む請求項6に記載の音声対話装置。
JP2020038898A 2019-07-15 2020-03-06 音声対話方法及び装置 Active JP7153681B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910637711.2 2019-07-15
CN201910637711.2A CN110390935B (zh) 2019-07-15 2019-07-15 语音交互方法和装置

Publications (2)

Publication Number Publication Date
JP2021015266A true JP2021015266A (ja) 2021-02-12
JP7153681B2 JP7153681B2 (ja) 2022-10-14

Family

ID=68284993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020038898A Active JP7153681B2 (ja) 2019-07-15 2020-03-06 音声対話方法及び装置

Country Status (3)

Country Link
US (1) US11341967B2 (ja)
JP (1) JP7153681B2 (ja)
CN (1) CN110390935B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114642377A (zh) * 2022-02-16 2022-06-21 美智纵横科技有限责任公司 交互装置及具有其的自移动清洁设备
KR20240026944A (ko) 2021-06-25 2024-02-29 이데미쓰 고산 가부시키가이샤 혼합 분체, 혼합체 및 유기 일렉트로루미네센스 소자의 제조 방법
KR20240026920A (ko) 2021-06-25 2024-02-29 이데미쓰 고산 가부시키가이샤 혼합 분체 및 상기 혼합 분체를 이용한 유기 일렉트로루미네센스 소자의 제조 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111243587A (zh) * 2020-01-08 2020-06-05 北京松果电子有限公司 语音交互方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001183155A (ja) * 1999-12-27 2001-07-06 Alpine Electronics Inc 方言解説機能付きナビゲーション装置
JP2013020220A (ja) * 2011-07-13 2013-01-31 Highware Co Ltd 音声認識装置、自動応答方法及び、自動応答プログラム
JP2015195998A (ja) * 2014-04-02 2015-11-09 株式会社 ディー・エヌ・エー クイズ生成処理システム、ゲーム提供装置、クイズ生成処理プログラム及びゲーム提供装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103167174A (zh) * 2013-02-25 2013-06-19 广东欧珀移动通信有限公司 一种移动终端问候语的输出方法、装置及移动终端
US9837081B2 (en) * 2014-12-30 2017-12-05 Microsoft Technology Licensing, Llc Discovering capabilities of third-party voice-enabled resources
CN106055605A (zh) * 2016-05-25 2016-10-26 深圳市童伴互动文化产业发展有限公司 一种语音互动控制方法及其装置
US10049670B2 (en) * 2016-06-06 2018-08-14 Google Llc Providing voice action discoverability example for trigger term
CN107300970B (zh) * 2017-06-05 2020-12-11 百度在线网络技术(北京)有限公司 虚拟现实交互方法和装置
US10950228B1 (en) * 2017-06-28 2021-03-16 Amazon Technologies, Inc. Interactive voice controlled entertainment
CN107103795A (zh) * 2017-06-28 2017-08-29 广州播比网络科技有限公司 一种故事机的交互式播放方法
US10713007B2 (en) * 2017-12-12 2020-07-14 Amazon Technologies, Inc. Architecture for a hub configured to control a second device while a connection to a remote system is unavailable
CN108874935B (zh) * 2018-06-01 2021-03-30 广东小天才科技有限公司 一种基于语音搜索的复习内容推荐方法及电子设备
CN108776693B (zh) * 2018-06-06 2020-11-27 广东小天才科技有限公司 一种基于定制语料库的语音搜题方法及家教设备
CN109509485B (zh) * 2018-08-01 2021-04-13 云知声智能科技股份有限公司 智能化听力锻炼方法及装置
CN109710748B (zh) * 2019-01-17 2021-04-27 北京光年无限科技有限公司 一种面向智能机器人的绘本阅读交互方法和系统
US11003419B2 (en) * 2019-03-19 2021-05-11 Spotify Ab Refinement of voice query interpretation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001183155A (ja) * 1999-12-27 2001-07-06 Alpine Electronics Inc 方言解説機能付きナビゲーション装置
JP2013020220A (ja) * 2011-07-13 2013-01-31 Highware Co Ltd 音声認識装置、自動応答方法及び、自動応答プログラム
JP2015195998A (ja) * 2014-04-02 2015-11-09 株式会社 ディー・エヌ・エー クイズ生成処理システム、ゲーム提供装置、クイズ生成処理プログラム及びゲーム提供装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240026944A (ko) 2021-06-25 2024-02-29 이데미쓰 고산 가부시키가이샤 혼합 분체, 혼합체 및 유기 일렉트로루미네센스 소자의 제조 방법
KR20240026920A (ko) 2021-06-25 2024-02-29 이데미쓰 고산 가부시키가이샤 혼합 분체 및 상기 혼합 분체를 이용한 유기 일렉트로루미네센스 소자의 제조 방법
CN114642377A (zh) * 2022-02-16 2022-06-21 美智纵横科技有限责任公司 交互装置及具有其的自移动清洁设备
CN114642377B (zh) * 2022-02-16 2024-05-10 美智纵横科技有限责任公司 交互装置及具有其的自移动清洁设备

Also Published As

Publication number Publication date
CN110390935B (zh) 2021-12-31
US20210020174A1 (en) 2021-01-21
CN110390935A (zh) 2019-10-29
JP7153681B2 (ja) 2022-10-14
US11341967B2 (en) 2022-05-24

Similar Documents

Publication Publication Date Title
JP2021015266A (ja) 音声対話方法及び装置
JPH0541894A (ja) 電子機器の制御装置
JPS58209257A (ja) 遠隔操作装置
JP5254487B1 (ja) 携帯情報端末、シャドー音声管理方法及びコンピュータプログラム
JP2006050563A (ja) 携帯端末機のベル音再生方法
JP5929879B2 (ja) 音声出力装置、プログラム、及び音声出力方法
KR100663493B1 (ko) Mp3 재생 기능을 구비한 휴대 단말기에서 멀티미디어 통화를 위한 장치 및 방법
JP6724880B2 (ja) 学習支援装置、学習支援方法及びプログラム
KR20060056704A (ko) 멀티미디어 콘텐츠의 갱신 및 재생이 가능한이동통신단말기 및 그 재생방법
JP3334285B2 (ja) 留守番電話装置
JP4353084B2 (ja) 映像再生方法及び装置及びプログラム
JP3978465B2 (ja) 録音再生装置
JP3809537B2 (ja) 語学学習システム
JP2016163233A (ja) 再生管理装置、再生管理プログラム、再生管理方法および再生管理システム
CN115514843B (zh) 一种报警方法及装置、设备、存储介质
JP6082047B2 (ja) 文書記録作成支援装置および文書記録作成支援プログラム
JP6646172B1 (ja) 多言語コンテンツの教育用再生方法、そのためのデータ構造及びプログラム
JP3146905B2 (ja) 半導体録音機
KR102025903B1 (ko) 언어 학습을 위한 장치 및 그 제어방법
JPH01262578A (ja) 語学練習器
JPH0990969A (ja) ボイスメール装置
KR970068401A (ko) 자동응답전화기에서 녹음 메세지 비밀보장 장치 및 방법
JPH02238756A (ja) 留守番電話装置
JPH07297903A (ja) 留守番電話機
JPH03186046A (ja) 留守番電話装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210531

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221003

R150 Certificate of patent or registration of utility model

Ref document number: 7153681

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150