JP7413521B2 - ヒューマンマシン対話モードの切り替え方法 - Google Patents
ヒューマンマシン対話モードの切り替え方法 Download PDFInfo
- Publication number
- JP7413521B2 JP7413521B2 JP2022524252A JP2022524252A JP7413521B2 JP 7413521 B2 JP7413521 B2 JP 7413521B2 JP 2022524252 A JP2022524252 A JP 2022524252A JP 2022524252 A JP2022524252 A JP 2022524252A JP 7413521 B2 JP7413521 B2 JP 7413521B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- field
- phrase
- interaction
- current user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims description 171
- 238000000034 method Methods 0.000 claims description 68
- 230000004044 response Effects 0.000 claims description 35
- 230000015654 memory Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 17
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 206010048669 Terminal state Diseases 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L5/00—Arrangements affording multiple use of the transmission path
- H04L5/14—Two-way operation using the same type of signal, i.e. duplex
- H04L5/16—Half-duplex systems; Simplex/duplex switching; Transmission of break signals non-automatically inverting the direction of transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q5/00—Selecting arrangements wherein two or more subscriber stations are connected by the same line to the exchange
- H04Q5/24—Selecting arrangements wherein two or more subscriber stations are connected by the same line to the exchange for two-party-line systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L15/222—Barge in, i.e. overridable guidance for interrupting prompts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q2213/00—Indexing scheme relating to selecting arrangements in general and for multiplex systems
- H04Q2213/13175—Graphical user interface [GUI], WWW interface, visual indication
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Telephone Function (AREA)
- Document Processing Apparatus (AREA)
- Machine Translation (AREA)
Description
現在ユーザが発話した現在ユーザ語句を受信するステップと、
前記現在ユーザ語句が属する対話分野が所定の対話分野であるか否かを確定するステップと、
所定の対話分野である場合、現在の対話モードを全二重対話モードに切り替えるステップと、
所定の対話分野ではない場合、現在の対話モードを半二重対話モードに切り替えるステップと、
を含むことを特徴とするヒューマンマシン対話モードの切り替え方法を提供する。
現在ユーザが発話した現在ユーザ語句を受信するための音声受信モジュールと、
前記現在ユーザ語句が属する対話分野が所定の対話分野であるか否かを確定するための対話分野確定モジュールと、
前記現在ユーザ語句が属する対話分野が所定の対話分野であると確定した場合、現在の対話モードを全二重対話モードに切り替え、前記現在ユーザ語句が属する対話分野が所定の対話分野ではないと確定した場合、現在の対話モードを半二重対話モードに切り替えるための対話モード切り替えモジュールと、
を含むことを特徴とするヒューマンマシン対話モードの切り替えシステムを提供する。
例示的に、スマートスピーカーが現在ユーザによりウェイクアップされた後、デフォルトの対話モード又は現在ユーザに適用される対話モードを起動し、ユーザ音声信号を検出する。現在ユーザが発話した現在ユーザ語句を検出した場合、当該語句に対して認識処理を行う。
例示的に、スマートスピーカーは、現在ユーザ語句に対応するテキストコンテンツを取得し、テキストコンテンツに基づいて現在ユーザ語句が属する対話分野を確定し、更に、その属する対話分野が所定の対話分野であるか否かを判断する。例示的に、異なる対話分野は異なる対話シーンに対応し、または対話分野はスマートスピーカーにおけるスキルに対応する。各スキルは一つの対話分野に属し、例えば、成語のしりとりスキル、ナビゲーションスキル、天気照会スキル、チケット予約スキルなど、それぞれ異なる対話分野に属する。
例示的に、スマートスピーカーの現在の対話モードが全二重対話モードである場合には、現在の対話モードを維持すればよい。スマートスピーカーの現在の対話モードが半二重対話モードである場合には、それを全二重対話モードに切り替える。
例示的に、スマートスピーカーの現在の対話モードが半二重対話モードである場合には、現在の対話モードを維持すればよい。スマートスピーカーの現在の対話モードが全二重対話モードである場合には、それを半二重対話モードに切り替える。
ユーザの入力が現在ヒットしている対話分野が半二重分野であるか否かを判断する。
半二重分野である場合、ユーザ端末に発行して半二重命令をオンにし、すなわち半二重対話モードをオンにし、それによりユーザ端末はTTS放送時に録音をオフにする。
半二重分野ではない場合、ユーザ端末はTTS放送時に録音をオンにし、すなわち全二重対話モードをオンにする。
対話が終了したかどうかを判断し、終了していない場合には、上記のステップを繰り返し続ける。
M:唐、李白、静夜思、忘れた場合「ヒントください」と言い、任務を終えた場合「退出します」と言うことができます。
U:ヒントください。
マルチラウンドの対話過程において、受信した新たなユーザ語句が属する対話分野を確定し
新たなユーザ語句がマルチラウンドの対話過程における前のユーザ語句と異なる対話分野に属する場合、前のユーザ語句に対応する応答の応答内容を維持する。
U:駅までナビゲートしてほしいです。
M:次の場所を見つけましたが、何番目ですか。
U:一番目です。
M:ルートを計画しています。距離が一番短くて、渋滞を避けて、高速道路を走行しません。何番目を選びますか。
U:二番目です。
M:ルート計画に成功しました。ナビゲーションを開始しますか。
U:電話をかけます。
M:誰に電話をかけますか。
ユーザ端末の状態がアップロードされているかどうかを判断し、セマンティック分野を制限する。例えば、現在ユーザ端末がTTS放送状態にある場合、この時にセマンティック分野を制限する。現在ユーザ端末の状態が非TTS放送状態にある場合、この時にセマンティック分野を制限する必要はない。
そうでない場合、入力があるセマンティック分野(即ち、現在のマルチラウンド対話の対話分野)にヒットする。
そうである場合、ユーザの入力が前回の対話と同じセマンティック分野にヒットするかどうかを判断する。
そうである場合、入力があるセマンティック分野(即ち、現在のマルチラウンド対話の対話分野)にヒットする。
そうでない場合、セマンティックマッチングに失敗し、ユーザの入力をフィルタリングする。
対話出力を実行し、ユーザ端末の状態をリアルタイムでアップロードする。
対話を終了する。
新たなユーザ語句を再度受信した場合には、前のユーザ語句に対応する応答内容を保存するステップと、
新たな対話語句に対応する応答内容を取得して、ユーザに提示するステップと、
前のユーザ語句の応答内容を再取得するユーザ音声命令を受信した場合、保存されている前のユーザ語句の応答内容を取得してユーザに提示するステップと、
をさらに含む。
現在ユーザ語句が属する対話分野が現在ユーザによって言及された回数が所定の閾値を超えているか否かを確定するステップと、
所定の閾値を超えている場合、現在ユーザ語句が属する対話分野を現在ユーザに対応する所定の対話分野としてマークするステップと、
をさらに含む。
U:こんにちは、小馳(ウェイクアップワード)。
M:こんにちは、ご主人様。何をしますか。電話をかける、音楽を再生する、ナビゲーションする、設定すると言うことができます。
U:ナビゲートして駅まで行きます(ユーザは、TTS放送全体が完了するのを待つ必要がなく、機械が「こんにちは、ご主人様」を放送し始めるときすぐに「ナビゲートして駅まで行きます」と言うことができる)。
現在ユーザ語句が属する対話分野を確定し、
現在ユーザ語句に基づいて、現在ユーザのユーザ特徴情報を取得し、
ユーザ特徴情報に基づいて、現在ユーザに対応する所定の対話分野を照会し、
所属する対話分野が所定の対話分野に属するか否かを確定する。
例示的に、ユーザ特徴情報はユーザの声紋情報である。また、照会された所定の対話分野には少なくとも一つの具体的な対話分野が含まれる。
ウェイクアップワードを検出するステップと、
検出されたウェイクアップワードの音声に基づいて、現在ユーザのユーザ特徴情報を確定するステップと、
ユーザ特徴情報データベースに現在ユーザのユーザ特徴情報が存在するか否かを照会するステップと、
存在する場合、全二重対話モードをオンにするステップと、
存在しない場合、半二重対話モードをオンにし、ユーザ特徴情報をユーザ特徴情報データベースに保存するステップと、
をさらに含む。
メモリには、少なくとも1つのプロセッサによって実行可能な命令が記憶されており、
現在ユーザが発話した現在ユーザ語句を受信するステップと、
現在ユーザ語句が属する対話分野が所定の対話分野であるか否かを確定するステップと、
所定の対話分野である場合、現在の対話モードを全二重対話モードに切り替えるステップと、
所定の対話分野ではない場合、現在の対話モードを半二重対話モードに切り替えるステップと、
が実行できるように、少なくとも1つのプロセッサによって命令を実行させる電子機器をさらに提供する。
全二重対話モードにある場合、
マルチラウンドの対話過程において、受信した新たなユーザ語句が属する対話分野を確定し、
新たなユーザ語句がマルチラウンドの対話過程における前のユーザ語句と異なる対話分野に属する場合、前のユーザ語句に対応する応答の応答内容を維持する、
ように構成される。
新たなユーザ語句を再度受信した場合には、前のユーザ語句に対応する応答内容を保存し、
新たな対話語句に対応する応答内容を取得して、ユーザに提示し、
前のユーザ語句の応答内容を再取得するユーザ音声命令を受信した場合、保存されている前のユーザ語句の応答内容を取得してユーザに提示する、
ように構成される。
少なくとも一つのプロセッサは、さらに、
現在ユーザ語句が属する対話分野が現在ユーザによって言及された回数が所定の閾値を超えているか否かを確定し、
超えている場合、現在ユーザ語句が属する対話分野を現在ユーザに対応する所定の対話分野としてマークする、
ように構成される。
現在ユーザ語句が属する対話分野を確定し、
現在ユーザ語句に基づいて、現在ユーザのユーザ特徴情報を取得し、
ユーザ特徴情報に基づいて、現在ユーザに対応する所定の対話分野を照会し、
所属する対話分野が所定の対話分野に属するか否かを確定する。
現在ユーザが発話した現在ユーザ語句を受信する前に、
ウェイクアップワードを検出し、
検出されたウェイクアップワードの音声に基づいて、現在ユーザのユーザ特徴情報を確定し、
ユーザ特徴情報データベースに現在ユーザのユーザ特徴情報が存在するか否かを照会し、
存在する場合、全二重対話モードをオンにし、
存在しない場合、半二重対話モードをオンにし、ユーザ特徴情報をユーザ特徴情報データベースに保存する、
ように構成される。
現在ユーザが発話した現在ユーザ語句を受信するための音声受信モジュール410と、
現在ユーザ語句が属する対話分野が所定の対話分野であるか否かを確定するための対話分野確定モジュール420と、
現在ユーザ語句が属する対話分野が所定の対話分野であると確定した場合、現在の対話モードを全二重対話モードに切り替え、現在ユーザ語句が属する対話分野が所定の対話分野ではないと確定した場合、現在の対話モードを半二重対話モードに切り替えるための対話モード切り替えモジュール430と、
をさらに含むヒューマンマシン対話モードの切り替えシステム400を提供する。
マルチラウンドの対話過程において、受信した新たなユーザ語句が属する対話分野を確定し、
新たなユーザ語句がマルチラウンドの対話過程における前のユーザ語句と異なる対話分野に属する場合、前のユーザ語句に対応する応答の応答内容を維持する、
ように構成される。
新たなユーザ語句を再度受信した場合には、前のユーザ語句に対応する応答内容を保存し、
新たな対話語句に対応する応答内容を取得して、ユーザに提示し、
前のユーザ語句の応答内容を再取得するユーザ音声命令を受信した場合、保存されている前のユーザ語句の応答内容を取得してユーザに提示する、
ように構成される。
ヒューマンマシン対話モードの切り替えシステムは、さらに、
現在ユーザ語句が属する対話分野が現在ユーザによって言及された回数が所定の閾値を超えているか否かを確定し、
超えている場合、現在ユーザ語句が属する対話分野を現在ユーザに対応する所定の対話分野としてマークする、
ように構成される。
現在ユーザ語句が属する対話分野を確定し、
現在ユーザ語句に基づいて、現在ユーザのユーザ特徴情報を取得し、
ユーザ特徴情報に基づいて、現在ユーザに対応する所定の対話分野を照会し、
所属する対話分野が所定の対話分野に属するか否かを確定する。
現在ユーザが発話した現在ユーザ語句を受信する前に、
ウェイクアップワードを検出するステップと、
検出されたウェイクアップワードの音声に基づいて、現在ユーザのユーザ特徴情報を確定するステップと、
ユーザ特徴情報データベースに現在ユーザのユーザ特徴情報が存在するか否かを照会するステップと、
存在する場合、全二重対話モードをオンにするステップと、
存在しない場合、半二重対話モードをオンにし、ユーザ特徴情報をユーザ特徴情報データベースに保存するステップと、
をさらに実行する。
1つまたは複数のプロセッサ510およびメモリ520が含まれ、図5では1つのプロセッサ510を例に取る。
(1)モバイル通信デバイス:これらのデバイスは、その特徴がモバイル通信機能を備えることであり、音声及びデータ通信を提供することを主な目標として、スマートフォン(例えば、iphone(登録商標))、マルチメディア携帯電話、機能携帯電話、ローエンド携帯電話などを含む。
(2)ウルトラモバイルパソコンデバイス:これらのデバイスは、パソコンのカテゴリーに属し、計算及び処理の機能を持ち、一般にモバイルインターネットアクセスの特性を持って、例えば、iPad(登録商標)などのPDA、MID及びUMPCデバイスなどを含む。
(3)ポータブルエンターテイメントデバイス:これらのデバイスは、マルチメディアコンテンツを表示及び放送でき、オーディオ、ビデオプレーヤー(例えば、iPod(登録商標))、ハンドヘルドゲームデバイス、電子書籍、インテリジェントおもちゃ及びポータブルカーナビゲーションデバイスを含む。
(4)サーバ:コンピューティングサービスを提供するデバイスである。サーバの構成は、プロセッサ、ハードディスク、メモリ、システムバスなどを含む。サーバ及び汎用コンピュータはアーキテクチャが似るが、信頼性の高いサービスを提供する必要があるため、処理能力、安定性、信頼性、セキュリティ、スケーラビリティ、及び管理性などの方面での要求が高い。
(5)データー交換機能を備えたその他の電子デバイス。
Claims (8)
- 電子機器に用いられるヒューマンマシン対話モードの切り替え方法であって、
現在ユーザが発話した現在ユーザ語句を受信するステップと、
前記現在ユーザ語句が属する対話分野が所定の対話分野であるか否かを確定するステップと、
所定の対話分野である場合、現在の対話モードを全二重対話モードに切り替えるステップと、
所定の対話分野ではない場合、現在の対話モードを半二重対話モードに切り替えるステップと、
を含み、
全二重対話モードにある場合、
マルチラウンドの対話過程において、受信した新たなユーザ語句が属する対話分野を確定し、
前記新たなユーザ語句が前記マルチラウンドの対話過程における前のユーザ語句と異なる対話分野に属する場合、前記前のユーザ語句に対応する応答の応答内容を維持することを特徴とするヒューマンマシン対話モードの切り替え方法。 - 前記新たなユーザ語句を再度受信した場合には、前記前のユーザ語句に対応する応答内容を保存するステップと、
前記新たな対話語句に対応する応答内容を取得して、ユーザに提示するステップと、
前記前のユーザ語句の応答内容を再取得するユーザ音声命令を受信した場合、保存されている前記前のユーザ語句の応答内容を取得してユーザに提示するステップと、
をさらに含むことを特徴とする請求項1に記載のヒューマンマシン対話モードの切り替え方法。 - 前記現在ユーザ語句が属する対話分野が所定の対話分野であるか否かを確定するステップにおいては、
前記現在ユーザ語句が属する対話分野を確定し、
前記現在ユーザ語句に基づいて、前記現在ユーザのユーザ特徴情報を取得し、
前記ユーザ特徴情報に基づいて、前記現在ユーザに対応する所定の対話分野を照会し、
前記現在ユーザ語句が属する対話分野が前記所定の対話分野に属するか否かを確定する、
ことを特徴とする請求項1に記載のヒューマンマシン対話モードの切り替え方法。 - 前記所定の対話分野は、現在ユーザの使用回数が所定の閾値を超える対話分野であり、
前記現在ユーザ語句が属する対話分野が現在ユーザによって言及された回数が前記所定の閾値を超えているか否かを確定するステップと、
超えている場合、前記現在ユーザ語句が属する対話分野を前記現在ユーザに対応する所定の対話分野としてマークするステップと、
をさらに含むことを特徴とする請求項1に記載のヒューマンマシン対話モードの切り替え方法。 - 少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含む電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、
現在ユーザが発話した現在ユーザ語句を受信するステップと、
現在ユーザ語句が属する対話分野が所定の対話分野であるか否かを確定するステップと、
所定の対話分野である場合、現在の対話モードを全二重対話モードに切り替えるステップと、
所定の対話分野ではない場合、現在の対話モードを半二重対話モードに切り替えるステップと、
が実行できるように、前記少なくとも1つのプロセッサによって前記命令を実行させ、
前記少なくとも一つのプロセッサは、
全二重対話モードにある場合、
マルチラウンドの対話過程において、受信した新たなユーザ語句が属する対話分野を確定し、
前記新たなユーザ語句が前記マルチラウンドの対話過程における前のユーザ語句と異なる対話分野に属する場合、前記前のユーザ語句に対応する応答の応答内容を維持する、
ように構成されることを特徴とする電子機器。 - 前記少なくとも一つのプロセッサは、さらに、
前記新たなユーザ語句を再度受信した場合には、前記前のユーザ語句に対応する応答内容を保存し、
前記新たな対話語句に対応する応答内容を取得して、ユーザに提示し、
前記前のユーザ語句の応答内容を再取得するユーザ音声命令を受信した場合、保存されている前記前のユーザ語句の応答内容を取得してユーザに提示する、
ように構成されることを特徴とする請求項5に記載の電子機器。 - 前記現在ユーザ語句が属する対話分野が所定の対話分野であるか否かを確定するステップにおいては、
前記現在ユーザ語句が属する対話分野を確定し、
前記現在ユーザ語句に基づいて、前記現在ユーザのユーザ特徴情報を取得し、
前記ユーザ特徴情報に基づいて、前記現在ユーザに対応する所定の対話分野を照会し、
前記現在ユーザ語句が属する対話分野が前記所定の対話分野に属するか否かを確定する、
ことを特徴とする請求項5に記載の電子機器。 - 前記所定の対話分野は、現在ユーザの使用回数が所定の閾値を超える対話分野であり、
前記少なくとも一つのプロセッサは、
前記現在ユーザ語句が属する対話分野が現在ユーザによって言及された回数が前記所定の閾値を超えているか否かを確定し、
超えている場合、前記現在ユーザ語句が属する対話分野を前記現在ユーザに対応する所定の対話分野としてマークする、
ように構成されることを特徴とする請求項5に記載の電子機器。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911028778.2 | 2019-10-28 | ||
CN201911028778.2A CN112735398B (zh) | 2019-10-28 | 2019-10-28 | 人机对话模式切换方法及系统 |
PCT/CN2019/120617 WO2021082133A1 (zh) | 2019-10-28 | 2019-11-25 | 人机对话模式切换方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022554219A JP2022554219A (ja) | 2022-12-28 |
JP7413521B2 true JP7413521B2 (ja) | 2024-01-15 |
Family
ID=75588779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022524252A Active JP7413521B2 (ja) | 2019-10-28 | 2019-11-25 | ヒューマンマシン対話モードの切り替え方法 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP4054111A4 (ja) |
JP (1) | JP7413521B2 (ja) |
CN (1) | CN112735398B (ja) |
WO (1) | WO2021082133A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112002315B (zh) * | 2020-07-28 | 2023-12-29 | 珠海格力节能环保制冷技术研究中心有限公司 | 一种语音控制方法、装置、电器设备、存储介质及处理器 |
CN112820290A (zh) * | 2020-12-31 | 2021-05-18 | 广东美的制冷设备有限公司 | 家电设备及其语音控制方法、语音装置、计算机存储介质 |
CN113744743B (zh) * | 2021-08-27 | 2022-11-08 | 海信冰箱有限公司 | 一种洗衣机的语音交互方法及装置 |
CN117496973B (zh) * | 2024-01-02 | 2024-03-19 | 四川蜀天信息技术有限公司 | 一种提升人机对话交互体验感的方法、装置、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018185362A (ja) | 2017-04-24 | 2018-11-22 | 富士ソフト株式会社 | ロボットおよびその制御方法 |
JP2019527371A (ja) | 2017-06-30 | 2019-09-26 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 声紋識別方法及び装置 |
JP2019175344A (ja) | 2018-03-29 | 2019-10-10 | 旭化成ホームズ株式会社 | 発話量積算装置、接客支援装置及びプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004037721A (ja) * | 2002-07-02 | 2004-02-05 | Pioneer Electronic Corp | 音声応答システム、音声応答プログラム及びそのための記憶媒体 |
US7912070B1 (en) * | 2006-07-12 | 2011-03-22 | Nextel Communications Inc. | System and method for seamlessly switching a half-duplex session to a full-duplex session |
US8369251B2 (en) * | 2008-06-20 | 2013-02-05 | Microsoft Corporation | Timestamp quality assessment for assuring acoustic echo canceller operability |
JP6705589B2 (ja) * | 2015-10-07 | 2020-06-03 | Necソリューションイノベータ株式会社 | 音声認識システム、方法およびプログラム |
CN105679314B (zh) * | 2015-12-28 | 2020-05-22 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
CN105931638B (zh) * | 2016-04-26 | 2019-12-24 | 北京光年无限科技有限公司 | 面向智能机器人的对话系统数据处理方法及装置 |
CN105812573A (zh) * | 2016-04-28 | 2016-07-27 | 努比亚技术有限公司 | 一种语音处理方法及移动终端 |
US20180364798A1 (en) * | 2017-06-16 | 2018-12-20 | Lenovo (Singapore) Pte. Ltd. | Interactive sessions |
CN108108340B (zh) * | 2017-11-28 | 2021-07-23 | 北京光年无限科技有限公司 | 用于智能机器人的对话交互方法及系统 |
CN109657091B (zh) * | 2019-01-02 | 2021-06-22 | 百度在线网络技术(北京)有限公司 | 语音交互设备的状态呈现方法、装置、设备及存储介质 |
CN110300435A (zh) * | 2019-05-21 | 2019-10-01 | 努比亚技术有限公司 | 一种通信模式切换方法、终端及计算机可读存储介质 |
-
2019
- 2019-10-28 CN CN201911028778.2A patent/CN112735398B/zh active Active
- 2019-11-25 EP EP19950263.4A patent/EP4054111A4/en active Pending
- 2019-11-25 JP JP2022524252A patent/JP7413521B2/ja active Active
- 2019-11-25 WO PCT/CN2019/120617 patent/WO2021082133A1/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018185362A (ja) | 2017-04-24 | 2018-11-22 | 富士ソフト株式会社 | ロボットおよびその制御方法 |
JP2019527371A (ja) | 2017-06-30 | 2019-09-26 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 声紋識別方法及び装置 |
JP2019175344A (ja) | 2018-03-29 | 2019-10-10 | 旭化成ホームズ株式会社 | 発話量積算装置、接客支援装置及びプログラム |
Non-Patent Citations (1)
Title |
---|
渡辺裕太他,ビデオ装置を例とした家電品の音声対話機能について,情報処理学会論文誌,2003年11月,Vol.44,No.11,pp.2690-2698 |
Also Published As
Publication number | Publication date |
---|---|
EP4054111A4 (en) | 2022-12-07 |
WO2021082133A1 (zh) | 2021-05-06 |
US20220399020A1 (en) | 2022-12-15 |
EP4054111A1 (en) | 2022-09-07 |
CN112735398B (zh) | 2022-09-06 |
JP2022554219A (ja) | 2022-12-28 |
CN112735398A (zh) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7413521B2 (ja) | ヒューマンマシン対話モードの切り替え方法 | |
JP2019117623A (ja) | 音声対話方法、装置、デバイス及び記憶媒体 | |
JP7353497B2 (ja) | 能動的に対話の開始を提起するためのサーバ側処理方法及びサーバ、並びに能動的に対話の開始が提起できる音声インタラクションシステム | |
CN111049996B (zh) | 多场景语音识别方法及装置、和应用其的智能客服系统 | |
KR101641448B1 (ko) | 사용자 전용 자동 음성 인식 | |
CN110459221A (zh) | 多设备协同语音交互的方法和装置 | |
CN107145329A (zh) | 设备控制方法、装置及智能设备 | |
CN103295576A (zh) | 一种即时通信的语音识别方法和终端 | |
CN111128166B (zh) | 连续唤醒识别功能的优化方法和装置 | |
EP4047489A1 (en) | Human-machine conversation processing method | |
CN111179930A (zh) | 实现驾驶过程中的智能语音交互的方法及系统 | |
CN105099795A (zh) | 抖动缓冲器水平估计 | |
CN112700767B (zh) | 人机对话打断方法及装置 | |
CN109686372B (zh) | 资源播放控制方法和装置 | |
JP7341323B2 (ja) | 全二重による音声対話の方法 | |
KR20230118164A (ko) | 디바이스 또는 어시스턴트-특정 핫워드들의 단일 발언으로의결합 | |
CN108492826A (zh) | 音频处理方法、装置、智能设备及介质 | |
US20200211552A1 (en) | Voice interaction control method and apparatus | |
CN108062952A (zh) | 一种语音控制方法、装置及系统 | |
CN111161734A (zh) | 基于指定场景的语音交互方法及装置 | |
CN106231232A (zh) | 远程监护方法及装置 | |
CN106231109A (zh) | 一种通信方法和终端 | |
US12131735B2 (en) | Man-machine dialogue mode switching method | |
CN115188377A (zh) | 语音交互方法、电子设备和存储介质 | |
CN111312244B (zh) | 用于沙盘的语音交互系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220519 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7413521 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |