JP2020034914A - 対話エージェントの動作方法及びその装置 - Google Patents
対話エージェントの動作方法及びその装置 Download PDFInfo
- Publication number
- JP2020034914A JP2020034914A JP2019154766A JP2019154766A JP2020034914A JP 2020034914 A JP2020034914 A JP 2020034914A JP 2019154766 A JP2019154766 A JP 2019154766A JP 2019154766 A JP2019154766 A JP 2019154766A JP 2020034914 A JP2020034914 A JP 2020034914A
- Authority
- JP
- Japan
- Prior art keywords
- item
- utterance
- satisfied
- user
- requirement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 239000003795 chemical substances by application Substances 0.000 claims description 201
- 230000003993 interaction Effects 0.000 claims description 33
- 230000004044 response Effects 0.000 claims description 30
- 238000004891 communication Methods 0.000 claims description 25
- 230000005540 biological transmission Effects 0.000 claims description 23
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 238000003062 neural network model Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000004397 blinking Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004043 dyeing Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/632—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
- H04M3/493—Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
- H04M3/4936—Speech interaction details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/02—Reservations, e.g. for tickets, services or events
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
- Machine Translation (AREA)
Abstract
Description
905:通信バス
910:通信インターフェース
920:プロセッサ
930:メモリ
940:ディスプレイ
950:スピーカ
Claims (43)
- サービスの要求のために送信される送信発話のうち少なくとも1つ、及び前記サービスの要求のために受信される受信発話のうち少なくとも1つを含む発話ヒストリーを取得するステップと、
前記発話ヒストリーに基づいて、前記サービスの要求のために求められる項目を含む要求事項明細を更新するステップと、
前記更新された要求事項明細に基づいて、前記サービスを求めるための発話情報を生成するステップと、
前記発話情報を出力するステップと、
を含む、対話エージェントの動作方法。 - 前記要求事項明細は、前記項目によって求められる条件が満足されたか否かを示す状態情報を含む、請求項1に記載の対話エージェントの動作方法。
- 前記状態情報は、
該当項目の条件が満足されたことを示す第1状態、
前記該当項目の条件が満足されないことを示す第2状態、及び
前記該当項目の条件の満足の有無がまだ決定されていないことを示す第3状態
のうち少なくとも1つを含む、請求項2に記載の対話エージェントの動作方法。 - 前記更新するステップは、
前記発話ヒストリーに基づいて、前記項目によって求められる条件の満足の有無を判断するステップと、
前記判断結果に応じて前記要求事項明細を更新するステップと、
をさらに含む、請求項1−3のいずれか1項に記載の対話エージェントの動作方法。 - 前記条件の満足の有無を判断するステップは、
前記項目のうち少なくとも1つの項目によって求められる条件が満足されたか否かを判断するステップと、
前記項目のうち少なくとも1つの項目によって求められる条件が不満足であるか否かを判断するステップと、
のうち少なくとも1つを含む、請求項4に記載の対話エージェントの動作方法。 - 前記少なくとも1つの項目によって求められる条件が満足されたか否かを判断するステップは、
前記発話ヒストリー及び前記要求事項明細を分類器に入力するステップであって、前記分類器は、前記項目によって求められる条件の満足の有無を判断し、前記項目に対応する状態情報をマルチ・ホット・ベクトルに出力する、ステップと、
前記マルチ・ホット・ベクトルに基づいて、前記少なくとも1つの項目によって求められる条件が満足されたか否かを判断するステップと、
を含む、請求項5に記載の対話エージェントの動作方法。 - 前記少なくとも1つの項目によって求められる条件が不満足であるか否かを判断するステップは、
前記発話ヒストリー及び前記要求事項明細を分類器に入力するステップであって、前記分類器は、前記項目によって求められる条件の不満足の有無を判断し、前記項目に対応する状態情報をマルチ・ホット・ベクトルに出力する、ステップと、
前記マルチ・ホット・ベクトルに基づいて、前記少なくとも1つの項目によって求められる条件が不満足であるか否かを判断するステップと、
を含む、請求項5に記載の対話エージェントの動作方法。 - 前記項目によって求められる条件の全てが満足されたか否かを判断するステップと、
前記条件の全てが満足されたという判断に応じて、前記サービスの要求が完了したことをユーザに知らせるステップと、
をさらに含む、請求項1−7のいずれか1項に記載の対話エージェントの動作方法。 - 前記項目によって求められる条件の全てが満足されたか否かを判断するステップは、
前記更新された要求事項明細に基づいて、前記条件の全てが満足されたか否かを判断するステップと、
前記発話ヒストリー及び前記要求事項明細に基づいて前記項目によって求められる条件の満足の有無を判断し、前記条件の全ての満足の有無を示す値を出力する分類器を用いて、前記条件の全てが満足されたか否かを判断するステップと、
のうち少なくとも1つを含む、請求項8に記載の対話エージェントの動作方法。 - 前記更新された要求事項明細に基づいて発話対象を決定するステップをさらに含み、
前記発話情報を出力するステップは、前記発話対象に前記発話情報を出力するステップを含む、請求項1−9のいずれか1項に記載の対話エージェントの動作方法。 - 前記発話対象を決定するステップは、前記更新された要求事項明細に含まれた項目のうち、少なくとも1つの項目によって求められる条件が満足されない場合、前記発話対象をユーザとして決定するステップを含む、請求項10に記載の対話エージェントの動作方法。
- 前記項目は、前記サービスの類型ごとに決定された少なくとも1つの必須項目を含む、請求項1−11のいずれか1項に記載の対話エージェントの動作方法。
- 前記項目は、前記必須項目を除いた少なくとも1つの選択項目をさらに含む、請求項12に記載の対話エージェントの動作方法。
- ユーザ装置から前記サービスの提供者との直接通話を求める信号を受信するステップと、
前記直接通話を求める信号の受信後に、前記発話情報の生成を中断するステップと、
前記ユーザ装置から入力される情報を前記サービスの提供者に提供するステップと、
をさらに含む、請求項1に記載の対話エージェントの動作方法。 - 前記対話エージェントを通した対話再開を求める信号を受信するステップと、
前記対話再開を求める信号に応答して、前記発話情報の生成を再開するステップと、
をさらに含む、請求項14に記載の対話エージェントの動作方法。 - 前記更新された要求事項明細をユーザに提供するステップと、
前記発話ヒストリーをユーザに提供するステップと、
のうち少なくとも1つをさらに含む、請求項1−13のいずれか1項に記載の対話エージェントの動作方法。 - 前記更新された要求事項明細に含まれた項目のうち少なくとも1つの項目によって求められる条件が満足されない場合、前記少なくとも1つの項目をユーザに問い合わせるステップをさらに含む、請求項1−13のいずれか1項に記載の対話エージェントの動作方法。
- ユーザ端末のインターフェースを介して収集された情報に基づいて生成された前記要求事項明細を受信するステップをさらに含む、請求項1−17のいずれか1項に記載の対話エージェントの動作方法。
- 前記発話ヒストリーを取得するステップは、
前記対話エージェントが前記サービスの提供者に送信する第1送信発話を取得するステップと、
前記対話エージェントが前記サービスの提供者から受信する第1受信発話を取得するステップと、
前記対話エージェントがユーザに送信する第2送信発話を取得するステップと、
前記対話エージェントが前記ユーザから受信する第2受信発話を取得するステップと、
のうち少なくとも1つを含む、請求項1−18のいずれか1項に記載の対話エージェントの動作方法。 - 請求項1乃至19のいずれか一項に記載の動作方法を装置のコンピュータに実行させるコンピュータプログラム。
- サービスの要求のために送信される送信発話のうち少なくとも1つ、及び前記サービスの要求のために受信される受信発話のうち少なくとも1つを含む発話ヒストリーを取得し、発話情報を出力する通信インターフェースと、
前記発話ヒストリーに基づいて、前記サービスの要求のために求められる項目を含む要求事項明細を更新し、前記更新された要求事項明細に基づいて前記サービスを求めるための前記発話情報を生成するプロセッサと、
を含む、対話エージェント装置。 - 前記要求事項明細は、前記項目によって求められる条件が満足されたか否かを示す状態情報を含む、請求項21に記載の対話エージェント装置。
- 前記状態情報は、
該当項目の条件が満足されたことを示す第1状態、
前記該当項目の条件が満足されないことを示す第2状態、及び
前記該当項目の条件の満足の有無がまだ決定されていないことを示す第3状態のうち少なくとも1つを含む、請求項22に記載の対話エージェント装置。 - 前記プロセッサは、前記発話ヒストリーに基づいて前記項目によって求められる条件の満足の有無を判断し、前記判断結果に応じて前記要求事項明細を更新する、請求項21−23のいずれか1項に記載の対話エージェント装置。
- 前記プロセッサは、前記項目のうち少なくとも1つの項目によって求められる条件が満足されたか否かを判断したり、又は、前記項目のうち少なくとも1つの項目によって求められる条件が不満足であるか否かを判断する、請求項24に記載の対話エージェント装置。
- 前記プロセッサは、前記発話ヒストリー及び前記要求事項明細を分類器(前記分類器は、前記項目によって求められる条件の満足の有無を判断し、前記項目に対応する状態情報をマルチ・ホット・ベクトルに出力)に入力し、前記マルチ・ホット・ベクトルに基づいて、前記少なくとも1つの項目によって求められる条件が満足されたか否かを判断する、請求項25に記載の対話エージェント装置。
- 前記プロセッサは、前記発話ヒストリー及び前記要求事項明細を分類器(前記分類器は、前記項目によって求められる条件の不満足の有無を判断し、前記項目に対応する状態情報をマルチ・ホット・ベクトルに出力)に入力し、前記マルチ・ホット・ベクトルに基づいて、前記少なくとも1つの項目によって求められる条件が不満足であるか否かを判断する、請求項25に記載の対話エージェント装置。
- 前記プロセッサは、前記項目によって求められる条件の全てが満足されたか否かを判断し、前記条件の全てが満足されたという判断に応じて、前記サービスの要求が完了したことをユーザに知らせる、請求項21−27のいずれか1項に記載の対話エージェント装置。
- 前記プロセッサは、前記更新された要求事項明細に基づいて前記条件の全てが満足されたか否かを判断したり、又は、前記発話ヒストリー及び前記要求事項明細に基づいて前記項目によって求められる条件の満足の有無を判断し、前記条件の全ての満足の有無を示す値を出力する分類器を用いて前記条件の全てが満足されたか否かを判断する、請求項28に記載の対話エージェント装置。
- 前記プロセッサは、前記更新された要求事項明細に基づいて発話対象を決定し、前記発話対象に前記発話情報を出力する、請求項21−29のいずれか1項に記載の対話エージェント装置。
- 前記プロセッサは、前記更新された要求事項明細に含まれた項目のうち少なくとも1つの項目によって求められる条件が満足されない場合、前記発話対象をユーザとして決定する、請求項30に記載の対話エージェント装置。
- 前記項目は、前記サービスの類型ごとに決定された少なくとも1つの必須項目を含む、請求項21−31のいずれか1項に記載の対話エージェント装置。
- 前記項目は、前記必須項目を除いた少なくとも1つの選択項目をさらに含む、請求項32に記載の対話エージェント装置。
- 前記通信インターフェースは、ユーザ装置から前記サービスの提供者との直接通話を求める信号を受信し、
前記プロセッサは、前記直接通話を求める信号の受信後に、前記発話情報の生成を中断し、前記ユーザ装置から入力される情報を前記サービスの提供者に提供する、請求項31に記載の対話エージェント装置。 - 前記通信インターフェースは、前記対話エージェント装置を通した対話再開を求める信号を受信し、
前記プロセッサは、前記対話再開を求める信号に応答して、前記発話情報の生成を再開する、請求項34に記載の対話エージェント装置。 - 前記通信インターフェースは、前記更新された要求事項明細をユーザに提供したり、前記発話ヒストリーを前記ユーザに提供したり、又は、前記更新された要求事項明細及び前記発話ヒストリーを前記ユーザに提供する、請求項21−33のいずれか1項に記載の対話エージェント装置。
- 前記プロセッサは、前記更新された要求事項明細に含まれた項目のうち少なくとも1つの項目によって求められる条件が満足されない場合、前記少なくとも1つの項目をユーザに問い合わせる、請求項21−33のいずれか1項に記載の対話エージェント装置。
- 前記通信インターフェースは、ユーザ端末のインターフェースを介して収集された情報に基づいて生成された前記要求事項明細を受信する、請求項21−37のいずれか1項に記載の対話エージェント装置。
- 前記通信インターフェースは、前記対話エージェント装置が前記サービスの提供者に送信する第1送信発話、前記対話エージェント装置が前記サービスの提供者から受信する第1受信発話、前記対話エージェント装置がユーザに送信する第2送信発話、及び前記対話エージェント装置が前記ユーザから受信する第2受信発話のうち少なくとも1つを取得する、請求項21−38のいずれか1項に記載の対話エージェント装置。
- メモリと、
ユーザ装置からサービス要求に関する要求事項を受信し、
前記要求事項に基づいて要求事項明細を生成し、
前記要求事項明細に基づいてサービス提供者との接続を設定し、
前記接続の間に前記サービス提供者によって前記要求事項が全て満足されるかを決定し、
前記要求事項が全て満足される場合、サービスに対する要求が完了したことをユーザ装置に通知し、
前記要求事項が全て満足されない場合、少なくとも1つの要求事項が満足されないことを前記ユーザ装置に通知し、満足されない少なくとも1つの要求事項に関する変更された要求事項を受信し、前記変更された要求事項により前記要求事項明細を更新するプロセッサと、
を含む、対話エージェント。 - 前記プロセッサは、
前記更新された要求事項明細に基づいて前記サービス提供者と第2接続を設定し、
前記第2接続の間に、前記更新された要求事項明細に関する全ての条件が前記サービス提供者によって満足されるか否かを決定する、請求項40に記載の対話エージェント。 - 前記ユーザ装置から受信された要求事項が自然語の形態である場合、
前記プロセッサは、
前記自然語を分析し、前記自然語の分析に基づいて前記サービスのフィールド又は類型を決定し、前記決定されたフィールド又は類型に基づいて前記要求事項明細を生成する、請求項40に記載の対話エージェント。 - 前記ユーザ装置から受信された要求事項がテキストの形態である場合、
前記プロセッサは、前記テキストをトークンに分離し、前記分離したトークンを神経網モデルに入力し、前記神経網モデルの出力に基づいて前記要求事項明細を生成する、請求項40に記載の対話エージェント。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180101285A KR20200024511A (ko) | 2018-08-28 | 2018-08-28 | 대화 에이전트의 동작 방법 및 그 장치 |
KR10-2018-0101285 | 2018-08-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020034914A true JP2020034914A (ja) | 2020-03-05 |
JP7460338B2 JP7460338B2 (ja) | 2024-04-02 |
Family
ID=66379802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019154766A Active JP7460338B2 (ja) | 2018-08-28 | 2019-08-27 | 対話エージェントの動作方法及びその装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11056110B2 (ja) |
EP (1) | EP3618062B1 (ja) |
JP (1) | JP7460338B2 (ja) |
KR (1) | KR20200024511A (ja) |
CN (1) | CN110909135A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023501059A (ja) * | 2020-03-20 | 2023-01-18 | グーグル エルエルシー | 人間の参加者の代理の自動アシスタントによる準委任通話 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020149031A1 (ja) * | 2019-01-16 | 2020-07-23 | ソニー株式会社 | 応答処理装置及び応答処理方法 |
US10841251B1 (en) * | 2020-02-11 | 2020-11-17 | Moveworks, Inc. | Multi-domain chatbot |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002099404A (ja) * | 2000-07-21 | 2002-04-05 | Matsushita Electric Ind Co Ltd | 対話制御方法及びその装置 |
US20130275164A1 (en) * | 2010-01-18 | 2013-10-17 | Apple Inc. | Intelligent Automated Assistant |
US20160035353A1 (en) * | 2014-07-31 | 2016-02-04 | Google Inc. | Conversational agents |
US20160098992A1 (en) * | 2014-10-01 | 2016-04-07 | XBrain, Inc. | Voice and Connection Platform |
US20170300831A1 (en) * | 2016-04-18 | 2017-10-19 | Google Inc. | Automated assistant invocation of appropriate agent |
US20170359463A1 (en) * | 2016-06-13 | 2017-12-14 | Google Inc. | Dynamic initiation of automated call |
US20180211663A1 (en) * | 2017-01-23 | 2018-07-26 | Hyundai Motor Company | Dialogue system, vehicle having the same and dialogue processing method |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6931384B1 (en) | 1999-06-04 | 2005-08-16 | Microsoft Corporation | System and method providing utility-based decision making about clarification dialog given communicative uncertainty |
US7444383B2 (en) | 2000-06-17 | 2008-10-28 | Microsoft Corporation | Bounded-deferral policies for guiding the timing of alerting, interaction and communications using local sensory information |
US7844666B2 (en) | 2000-12-12 | 2010-11-30 | Microsoft Corporation | Controls and displays for acquiring preferences, inspecting behavior, and guiding the learning and decision policies of an adaptive communications prioritization and routing system |
US7292689B2 (en) | 2002-03-15 | 2007-11-06 | Intellisist, Inc. | System and method for providing a message-based communications infrastructure for automated call center operation |
US20050165631A1 (en) | 2004-01-28 | 2005-07-28 | Microsoft Corporation | Time management representations and automation for allocating time to projects and meetings within an online calendaring system |
US20060233344A1 (en) | 2005-04-14 | 2006-10-19 | Das Subrata K | System and method for expedited resolution of inquiries for an automated agent |
US7751542B2 (en) | 2006-05-04 | 2010-07-06 | Avaya Inc. | Feeble ring tones |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US20080084989A1 (en) | 2006-09-22 | 2008-04-10 | International Business Machines Corporation | Intelligent Reusable Dialog Components for Converged Dialog and Session Control |
EP2144230A1 (en) | 2008-07-11 | 2010-01-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low bitrate audio encoding/decoding scheme having cascaded switches |
US8255225B2 (en) | 2008-08-07 | 2012-08-28 | Vocollect Healthcare Systems, Inc. | Voice assistant system |
KR101553521B1 (ko) | 2008-12-11 | 2015-09-16 | 삼성전자 주식회사 | 지능형 로봇 및 그 제어방법 |
US8830114B2 (en) | 2010-09-30 | 2014-09-09 | Toyota Jidosha Kabushiki Kaisha | Mobile object detecting apparatus |
KR101954774B1 (ko) | 2012-08-16 | 2019-03-06 | 삼성전자주식회사 | 문자 데이터를 이용한 음성 통화를 제공하기 위한 전자 장치 및 방법 |
JPWO2014073612A1 (ja) * | 2012-11-08 | 2016-09-08 | 日本電気株式会社 | 会話文生成装置、会話文生成方法及び会話文生成プログラム |
US9570090B2 (en) | 2015-05-26 | 2017-02-14 | Google Inc. | Dialog system with automatic reactivation of speech acquiring mode |
CA2957638A1 (en) | 2013-08-08 | 2015-02-12 | E-Valuation,Inc. | Systems and methods of communicating information regarding interpersonal relationships using biographical imagery |
US8964962B1 (en) | 2013-10-01 | 2015-02-24 | Avaya Inc. | Dialog reorder |
US20170017501A1 (en) * | 2013-12-16 | 2017-01-19 | Nuance Communications, Inc. | Systems and methods for providing a virtual assistant |
US9830044B2 (en) * | 2013-12-31 | 2017-11-28 | Next It Corporation | Virtual assistant team customization |
US9607102B2 (en) | 2014-09-05 | 2017-03-28 | Nuance Communications, Inc. | Task switching in dialogue processing |
EP3210337B1 (en) | 2014-10-22 | 2021-06-02 | Microsoft Technology Licensing, LLC | Enabling classification and irm in software applications |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10262654B2 (en) * | 2015-09-24 | 2019-04-16 | Microsoft Technology Licensing, Llc | Detecting actionable items in a conversation among participants |
KR102151626B1 (ko) | 2016-01-12 | 2020-09-03 | 네이버 주식회사 | 통화 중 특정 태스크를 처리하는 장치 및 그 방법 |
US20170277993A1 (en) | 2016-03-22 | 2017-09-28 | Next It Corporation | Virtual assistant escalation |
US20180025726A1 (en) * | 2016-07-22 | 2018-01-25 | International Business Machines Corporation | Creating coordinated multi-chatbots using natural dialogues by means of knowledge base |
KR20190004495A (ko) * | 2017-07-04 | 2019-01-14 | 삼성에스디에스 주식회사 | 챗봇을 이용한 태스크 처리 방법, 장치 및 시스템 |
KR101891492B1 (ko) * | 2017-11-03 | 2018-08-24 | 주식회사 머니브레인 | 답변을 변형하여 상황에 맞는 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체 |
US11212637B2 (en) * | 2018-04-12 | 2021-12-28 | Qualcomm Incorproated | Complementary virtual audio generation |
-
2018
- 2018-08-28 KR KR1020180101285A patent/KR20200024511A/ko active Search and Examination
-
2019
- 2019-03-18 US US16/356,071 patent/US11056110B2/en active Active
- 2019-04-03 CN CN201910266679.1A patent/CN110909135A/zh active Pending
- 2019-05-02 EP EP19172307.1A patent/EP3618062B1/en active Active
- 2019-08-27 JP JP2019154766A patent/JP7460338B2/ja active Active
-
2021
- 2021-06-14 US US17/346,626 patent/US11705128B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002099404A (ja) * | 2000-07-21 | 2002-04-05 | Matsushita Electric Ind Co Ltd | 対話制御方法及びその装置 |
US20130275164A1 (en) * | 2010-01-18 | 2013-10-17 | Apple Inc. | Intelligent Automated Assistant |
US20160035353A1 (en) * | 2014-07-31 | 2016-02-04 | Google Inc. | Conversational agents |
US20160098992A1 (en) * | 2014-10-01 | 2016-04-07 | XBrain, Inc. | Voice and Connection Platform |
US20170300831A1 (en) * | 2016-04-18 | 2017-10-19 | Google Inc. | Automated assistant invocation of appropriate agent |
US20170359463A1 (en) * | 2016-06-13 | 2017-12-14 | Google Inc. | Dynamic initiation of automated call |
US20180211663A1 (en) * | 2017-01-23 | 2018-07-26 | Hyundai Motor Company | Dialogue system, vehicle having the same and dialogue processing method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023501059A (ja) * | 2020-03-20 | 2023-01-18 | グーグル エルエルシー | 人間の参加者の代理の自動アシスタントによる準委任通話 |
JP7392128B2 (ja) | 2020-03-20 | 2023-12-05 | グーグル エルエルシー | 人間の参加者の代理の自動アシスタントによる準委任通話 |
US12080285B2 (en) | 2020-03-20 | 2024-09-03 | Google Llc | Semi-delegated calling by an automated assistant on behalf of human participant |
Also Published As
Publication number | Publication date |
---|---|
JP7460338B2 (ja) | 2024-04-02 |
US20200075003A1 (en) | 2020-03-05 |
US11705128B2 (en) | 2023-07-18 |
EP3618062A1 (en) | 2020-03-04 |
US11056110B2 (en) | 2021-07-06 |
US20210304762A1 (en) | 2021-09-30 |
CN110909135A (zh) | 2020-03-24 |
KR20200024511A (ko) | 2020-03-09 |
EP3618062B1 (en) | 2021-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111860753B (zh) | 用于训练模型的基于有向无环图的框架 | |
US11657797B2 (en) | Routing for chatbots | |
US20210082400A1 (en) | Stop word data augmentation for natural language processing | |
JP6827479B2 (ja) | パーソナルアシスタントモジュールによる非決定的なタスク開始 | |
CN115485690A (zh) | 用于处置聊天机器人的不平衡训练数据的分批技术 | |
US11868727B2 (en) | Context tag integration with named entity recognition models | |
CN112487157A (zh) | 用于聊天机器人的基于模板的意图分类 | |
CN115398419A (zh) | 用于基于目标的超参数调优的方法和系统 | |
JP2020034914A (ja) | 対話エージェントの動作方法及びその装置 | |
US20210319347A1 (en) | Fast and scalable multi-tenant serve pool for chatbots | |
CN115398436A (zh) | 用于自然语言处理的噪声数据扩充 | |
US20230100508A1 (en) | Fusion of word embeddings and word scores for text classification | |
JP2023538923A (ja) | テキスト分類についての説明を与えるための技術 | |
US20230139397A1 (en) | Deep learning techniques for extraction of embedded data from documents | |
US11922123B2 (en) | Automatic out of scope transition for chatbot | |
US20230136965A1 (en) | Prohibiting inconsistent named entity recognition tag sequences | |
US20230161963A1 (en) | System and techniques for handling long text for pre-trained language models | |
US20220230462A1 (en) | Usage based resource utilization of training pool for chatbots | |
US20230206125A1 (en) | Lexical dropout for natural language processing | |
US20230154455A1 (en) | Path dropout for natural language processing | |
US20230134149A1 (en) | Rule-based techniques for extraction of question and answer pairs from data | |
WO2023091436A1 (en) | System and techniques for handling long text for pre-trained language models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240321 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7460338 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |