JP2020181566A - マンマシン対話の方法、装置、および電子機器 - Google Patents

マンマシン対話の方法、装置、および電子機器 Download PDF

Info

Publication number
JP2020181566A
JP2020181566A JP2020001206A JP2020001206A JP2020181566A JP 2020181566 A JP2020181566 A JP 2020181566A JP 2020001206 A JP2020001206 A JP 2020001206A JP 2020001206 A JP2020001206 A JP 2020001206A JP 2020181566 A JP2020181566 A JP 2020181566A
Authority
JP
Japan
Prior art keywords
scene
task
session
session scene
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020001206A
Other languages
English (en)
Inventor
シューフォン ルオ
Xuefeng Luo
シューフォン ルオ
チンウェイ ファン
Qingwei Huang
チンウェイ ファン
ウェイウェイ ワン
Weiwei Wang
ウェイウェイ ワン
チェン ポン
Cheng Peng
チェン ポン
シャオジュン ヂャオ
Xiaojun Zhao
シャオジュン ヂャオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2020181566A publication Critical patent/JP2020181566A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/041Abduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Biophysics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • Operations Research (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】マンマシン対話の方法、装置および電子機器を提供する。【解決手段】マンマシン対話の方法は、第1のセッションシーンの第1のタスクに基づいて、ユーザに質問情報を出力するステップ101と、ユーザから返信された返信情報を受信した場合、返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定する。ステップ102と、返信情報に基づいて、第2のセッションシーンがトリガされたと判定した場合、第2のセッションシーンに基づいて、返信情報に対応する呼応情報を生成するステップ103と、呼応情報をユーザに出力するステップ104と、を有する。【選択図】図1

Description

本発明は、人工知能技術の分野に関し、特に、マンマシン対話の方法、装置、および電子機器に関する。
対話システムは、自然言語に基づくマンマシンインタラクションシステムである。対話システムを通じて、人間は自然言語を用いて、コンピュータと複数回のやり取りを行って、情報問合せ、サービス獲得などの特定のタスクを達成することができる。
自然言語処理技術の成熟化に伴い、知能対話技術はますますスマートカスタマーサービス、スマートアウトバウンドコールシーン、スマートスピーカーなどのアプリケーションシーンや製品に広く応用されている。スマートスピーカー、スマートカスタマーサービスなどの受動的応答のアプリケーションシーンとは異なり、スマートアウトバウンドコールシーンは対話システムが能動的に対話を開始し、対話のプロセスで対話全体を主導し、対話をプリセットされたタスクで行うように誘導する。
現在、アウトバウンドコールシーンに適用されている対話方式では、ユーザをプリセットされた流れの中で対話させることしかできず、ユーザの能動的な質問に応答することができないため、インタラクティビティが悪い。
本発明の実施形態は、アウトバウンドコールシーンに適用されている対話方法のインタラクティビティが悪いという課題を解決するためのマンマシン対話の方法、装置、および電子機器を提供する。
本発明は、(1)第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するステップと、ユーザから返信された返信情報を受信した場合、前記返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定するステップと、前記返信情報に基づいて、第2のセッションシーンがトリガされたと判定した場合、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するステップと、前記呼応情報をユーザに出力するステップと、を含むことを特徴とするマンマシン対話の方法に存する。
本発明は、(2)第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するように構成された第1の出力モジュールと、ユーザから返信された返信情報を受信した場合、前記返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定するように構成された第1の判定モジュールと、前記返信情報に基づいて、第2のセッションシーンがトリガされたと判定した場合、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するように構成された第1の呼応情報生成モジュールと、前記呼応情報をユーザに出力するように構成された第2の出力モジュールと、を含むことを特徴とする深層学習装置に存する。
本発明は、(3)プロセッサと、記憶装置と、前記記憶装置に格納され前記プロセッサ上で動作可能なコンピュータプログラムを含み、前記プログラムは前記プロセッサによって実行されると、上記のマンマシン対話の方法のステップを実施する電子機器に存する。
本発明は、(4)コンピュータプログラムが格納されているコンピュータ可読記憶媒体であって、前記プログラムはプロセッサによって実行されると、上記のマンマシン対話の方法のステップを実施するコンピュータ可読記憶媒体に存する。
本発明の実施形態では、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力し、ユーザから返信された返信情報を受信した場合、前記返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定し、前記返信情報に基づいて、第2のセッションシーンがトリガされたと判定した場合、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成し、前記呼応情報をユーザに出力する。このように、ユーザが第2のセッションシーンをトリガした場合、電子機器は、第2のセッションシーンにおいて、ユーザからの返信情報に呼応することができ、マンマシンインタラクションの知的性と円滑さを向上させ、マンマシンインタラクションの性能を改善することができる。
本発明の実施形態に係る技術的解決手段をより明確に説明するために、本発明の実施形態の説明に必要な図面を簡単に説明することにするが、以下に説明される図面は、本発明のいくつかの実施形態にすぎないことが明らかである。当業者であれば、創造的な労働を行わずに、これらの図面に基づいて他の図面を得ることもできる。
図1は、本発明の実施形態によって提供されるマンマシン対話の方法の例を模式的に示すフローチャートである。 図2は、本発明の実施形態によって提供されるマンマシン対話の方法の別の例を模式的に示すフローチャートである。 図3は、本発明の実施形態によって提供されるタスクキューにおけるタスクノードを示す概略図である。 図4は、本発明の実施形態によって提供される第1のセッションシーンのタスクノードを示す概略図である。 図5は、本発明の実施形態によって提供されるマンマシン対話の方法のさらに別の例を模式的に示すフローチャートである。 図6は、本発明の実施形態によって提供されるマンマシン対話の装置を模式的に示す構成図である。 図7は、本発明の実施形態によって提供される電子機器を模式的に示す構成図である。
以下、本発明の実施形態における図面を参照しながら、本発明の実施形態における技術的解決手段を明確かつ完全に説明する。なお、説明される実施形態は、あくまでも本発明の実施形態の一部に過ぎず、実施形態の全部ではない。本発明の実施形態に基づいて、当業者は、創造的労働を行わずに得られた他の実施形態は、すべて本発明の保護範囲内に含まれる。
図1を参照すると、本発明の実施形態によって提供されるマンマシン対話の方法の例を模式的に示すフローチャートである。図1に示されるように、本発明の実施形態によって提供されるマンマシン対話の方法は次のようなステップ(ステップ101〜104)を含む。
ステップ101において、第1のセッションシーンの第1のタスクに基づいて、ユーザに質問情報を出力する。
本実施形態におけるマンマシン対話の方法は、アンケート、アフターセールスフォローアップ、セールスリードスクリーニングなど、タスクベースのアウトバウンドコールシーンに適用することができる。タスクベースのアウトバウンドコールシーンでは、本実施形態におけるマンマシン対話の方法を適用された電子機器が能動的に質問を行う。電子機器はロボットにすることができる。
前後の論理順序を持つすべての対話の流れが、1つのシーン(すなわち、セッションシーン)を構成する。例えば、天気の状況を調べる場合、ユーザが天気を調べる意図を表すと、ロボットは必要な実体(例えば、場所)を収集するためにユーザに問い返し、その後に天気を調べる。これは、天気を調べる場合の複数ラウンドのシーンである。質疑応答(FAQ)、ナレッジグラフ(KG)や雑談などの一ラウンドの対話であれば、一問一答で1つのシーンを構成する。アウトバウンドコール対話システムでは、1つの独立した問題または若干の前後の論理関係(順序関係、条件付きジャンプ)を持つ質問リストが1つのシーンを構成する。
例えば、ある電子商取引に対するアンケートの場合、ユーザの性別、年齢、ネット通販の頻度、ネット通販の時間、ネット通販のプラットフォームなどの情報を収集する必要がある。アンケートの質問リストは1つのセッションシーンを構成しており、ユーザの性別、年齢、ネット通販の頻度、ネット通販の時間、ネット通販のプラットフォームはそのセッションシーンにおける複数のタスクであると考えられる。電子機器は能動的にユーザに質問を行う場合、セッションシーンにおけるタスクに基づいてユーザに質問情報を出力する。
質問情報は、第1のセッションシーンの第1のタスクに基づいて確定された問題として理解されることができる。例えば、上記のアンケートシーンにおけるネット通販の頻度(ネット通販の頻度は1つのタスクである)については、電子機器がユーザに出力できる質問情報は、「どのくらいの頻度でネット通販をしているか」や「毎週平均何回ネット通販をしているか」などである。
質問情報は、文字情報であってもよく、音声情報であってもよい。ここでは限定しない。例えば、電子機器とユーザがショートメッセージ(ショートメッセージにはテキストメッセージまたはチャットソフトウェア経由で送信されたメッセージが含まれる)によって情報を送信する場合、質問情報は文字の形で出力されてもよく、音声の形で出力されてもよい。電子機器とユーザが音声通話で対話する場合、質問情報は音声の形で出力される。
本出願では、ユーザとは、クライアントを介して電子機器と対話するユーザであると理解されることができる。電子機器はユーザに情報を出力する場合、ユーザが使用するクライアントに情報を出力する。電子機器はユーザ情報を受信する場合、ユーザが使用するクライアントから情報を受信する。クライアントは、携帯電話、タブレット(Tablet Personal Computer)、ラップトップ型コンピュータ(Laptop Computer)、パーソナルデジタルアシスタント(personal digital assistant、PDA)、モバイルインターネットデバイス(Mobile Internet Device、MID)またはウェアラブルデバイス(Wearable Device)などであり得る。
ステップ102において、ユーザから返信された返信情報を受信した場合、前記返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定する。
返信情報は、文字情報であってもよく、音声情報であってもよい。ここでは限定しない。電子機器とユーザがショートメッセージでメッセージを送信する場合、返信情報は文字情報であってもよく、音声情報であってもよい。電子機器とユーザが音声通話で対話する場合、返信情報は音声情報である。
第2のセッションシーンは、第1のセッションシーンとは異なるセッションシーンである。例えば、天気の問い合わせ、ホテルの予約、または知識の質疑応答の3つが、異なるセッションシーンである。第1のセッションシーンと第2のセッションシーンのいずれも電子機器が処理可能なセッションシーンである。電子機器は、セッションシーンごとに対応する応答ポリシーをプリセットしておく。
ユーザからの返信情報に含まれる内容は、確定されていない。返信情報には、質問情報に回答する内容が含まれている可能性もあれば、質問された問題が含まれている可能性もある。返信情報にユーザから質問された問題が含まれている場合、電子機器はユーザから質問された問題に対して返信してインタラクションの性能を向上させる必要がある。返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定することは、返信情報にユーザから質問された問題が含まれているか否かを判定することである。
ステップ103において、前記返信情報に基づいて、前記第2のセッションシーンがトリガされたと判定した場合、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成する。
ユーザからの返信情報に含まれる内容は、確定されていない。返信情報には、質問情報に回答する内容が含まれている可能性もあれば、ユーザから質問された問題が含まれている可能性もある。例えば、質問情報が「どのくらいの頻度でネット通販をしているか」であり、返信情報が「3日間」である場合、電子機器は返信情報を意味解析したところ、返信情報にはユーザから質問された問題が含まれていないと分かり、第2のセッションシーンがトリガされていないと判定する。質問情報が「どのくらいの頻度でネット通販をしているか」であり、返信情報が「今日の天気はどうだろう」である場合、電子機器は返信情報を意味解析したところ、返信情報にはユーザから質問された問題が含まれていると分かり、第2のセッションシーンがトリガされたと判定する。質問情報が「どのくらいの頻度でネット通販をしているか」であり、返信情報が「3日間。今日の天気はどうだろう」である場合、電子機器は返信情報を意味解析したところ、ユーザが質問に回答すると同時に質問をしたことが分かる。上記の分析を経て、返信情報が第2のセッションシーンをトリガしたと判定する。電子機器は返信情報を意味解析する際に、ユーザから質問された問題に大きな重みを設定する。電子機器は重みの大きい問題に反応する。その場合、電子機器は先に、ユーザから質問された問題に回答すべきであって、ユーザの回答に基づいて次の質問を行うのではない。
第2のセッションシーンがトリガされたと判定した場合、返信情報に対応する呼応情報を生成する。すなわち、電子機器は、返信情報に含まれているユーザ質問に呼応する。例えば、質問情報が「どのくらいの頻度でネット通販をしているか」であり、返信情報が「今日の天気はどうだろう」である場合、電子機器は返信情報を意味解析したところ、返信情報にはユーザから質問された問題が含まれていると分かる。電子機器は、「今日の天気はどうだろう」に対応するセッションシーン(すなわち、第2のセッションシーン)に基づいて、呼応情報を生成する。呼応情報は、電子機器が天気の問い合わせについて質問する情報、例えば、「どこの天気を調べるか」という情報であり得る。同様に、呼応情報は、文字情報であってもよく、音声情報であってもよい。
ステップ104において、呼応情報をユーザに出力する。
電子機器は呼応情報を確定した後、呼応情報をユーザに出力する。呼応情報が文字情報である場合、電子機器は文字の形でユーザに出力する。呼応情報が音声情報である場合、電子機器は音声再生の形でユーザに出力する。
本実施形態におけるマンマシン対話の方法は、ユーザに対して能動的に質問することもできれば、ユーザの質問に呼応することもできる。これにより、本実施形態におけるマンマシン対話の方法を適用した電子機器は、2つのタイプの対話の流れをサポートすることができる。1つ目は、アンケート、アフターセールスフォローアップ、セールスリードスクリーニングなどの、アウトバウンドコールキューを用いてアウトバウンドコールタスクを管理するタスク型の対話の流れである。2つ目は、天気の問い合わせ、ホテルの予約、または知識の質疑応答などの応答型の対話の流れである。このうち、タスク型の対話の流れは、個々の問題をサポートすることもできれば、前後の論理関係(順序関係、条件付きジャンプ)を持つ問題リストをサポートすることもできる。応答型の対話の流れは、天気の問い合わせ、ホテルの予約、レンタカーなどのタスク型の対話シーンをサポートすることもできれば、質疑応答のペア、ナレッジグラフ、雑談などをサポートすることができる。
本実施形態では、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力し、ユーザから返信された返信情報を受信した場合、前記返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定し、前記返信情報に基づいて、第2のセッションシーンがトリガされたと判定した場合、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成し、前記呼応情報をユーザに出力する。このように、ユーザが第2のセッションシーンをトリガした場合、電子機器は、第2のセッションシーンにおいて、ユーザからの返信情報に呼応することができ、マンマシンインタラクションの知的性と円滑さを向上させ、マンマシンインタラクションの性能を改善することができる。
図2を参照すると、図2は、本発明の実施形態によって提供されるマンマシン対話の方法の例を模式的に示すフローチャートである。図2に示されるように、本発明の実施形態によって提供されるマンマシン対話の方法は次のようなステップ(ステップ201〜206)を含む。
ステップ201において、タスクキューに未処理又は処理未了のタスクがある場合、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力し、ここで、第1のタスクは、現在前記タスクキューにおいてキューの先頭にあるタスクである。
本実施形態におけるマンマシン対話の方法は、アンケート、アフターセールスフォローアップ、セールスリードスクリーニングなど、タスクベースのアウトバウンドコールシーンに適用することができる。タスクベースのアウトバウンドコールシーンでは、本実施形態におけるマンマシン対話の方法を適用された電子機器が能動的に質問を行う。電子機器はロボットにすることができる。
キューは先入れ先出しのデータ構造であり、このデータ構造を利用して秩序のある対話タスクスケジューリングを実現することができる。アウトバウンドコールタスクノードを格納するキューはタスクキュー(またはアウトバウンドコールキュー)と呼ばれる。タスクキューには、第1のセッションシーンのタスクを格納する。
対話開始前にタスクキューを初期化し、配置されたセッションフローの上位ノードを先着順にタスクキューに置く。ある電子商取引に対するアンケートの場合、ユーザの性別、年齢、ネット通販の頻度、ネット通販の時間、ネット通販のプラットフォームなどの情報を収集する必要がある。タスクキューを初期化する際に、収集すべき情報ポイントを順番にタスクキューに入れる。図3に示されるように、タスクキューに入れられたタスク(「タスクノード」ともいう)は、それぞれプロローグノード、性別、年齢、ネット通販の頻度、ネット通販の時間、ネット通販のプラットフォーム、ショッピング情報のチャネルである。電子機器はデフォルトでタスクがキューにある順にタスクスケジューリングを行う。電子機器は能動的にユーザに質問を行う場合、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力する。第1のタスクはタスクキューにおいてキューの先頭にあるタスクで、キューの先頭にあるタスクが処理済みになった後、該タスクはキューから取り出され、該タスクに隣接する次のタスクがキューの先頭に並ぶ。例えば、電子機器が「ネット通販の頻度」のタスクを完了すると、「ネット通販の頻度」のタスクがキューから取り出され、「ネット通販の頻度」に隣接する「ネット通販の時間」がキューの先頭に並ぶ。
質問情報は、第1のセッションシーンの第1のタスクに基づいて確定された問題として理解されることができる。例えば、上述したアンケートシーンにおけるネット通販の頻度(ネット通販の頻度は1つのタスクである)の場合、電子機器がユーザに出力できる質問情報は、「どのくらいの頻度でネット通販をしているか」や「毎週平均何回ネット通販をしているか」などである。
質問情報は、文字情報であってもよく、音声情報であってもよい。ここでは限定しない。例えば、電子機器とユーザがショートメッセージ(ショートメッセージにはテキストメッセージまたはチャットソフトウェア経由で送信されたメッセージが含まれる)によって情報を送信する場合、質問情報は文字の形で出力されてもよく、音声の形で出力されてもよい。電子機器とユーザが音声通話で対話する場合、質問情報は音声の形で出力される。
本出願では、ユーザとは、クライアントを介して電子機器と対話するユーザであると理解されることができる。電子機器はユーザに情報を出力する場合、ユーザが使用するクライアントに情報を出力する。電子機器はユーザ情報を受信する場合、ユーザが使用するクライアントから情報を受信する。
本実施形態では、タスクキューが追加されており、アンケート、アフターセールスフォローアップなど、固定のタスクリストがあるアウトバウンドコールシーンをサポートすることができる。
ステップ202において、ユーザから返信された返信情報を受信した場合、前記返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定する。
返信情報は、文字情報であってもよく、音声情報であってもよい。ここでは限定しない。電子機器とユーザがショートメッセージでメッセージを送信する場合、返信情報は文字情報であってもよく、音声情報であってもよい。電子機器とユーザが音声通話で対話する場合、返信情報は音声情報である。
第2のセッションシーンは、第1のセッションシーンとは異なるセッションシーンである。例えば、天気の問い合わせ、ホテルの予約、または知識の質疑応答の3つが、異なるセッションシーンである。第1のセッションシーンと第2のセッションシーンのいずれも電子機器が処理可能なセッションシーンである。電子機器は、セッションシーンごとに対応する応答ポリシーをプリセットしておく。
ユーザからの返信情報に含まれる内容は、確定されていない。返信情報には、質問情報に回答する内容が含まれている可能性もあれば、質問された問題が含まれている可能性もある。返信情報にユーザから質問された問題が含まれている場合、電子機器はユーザから質問された問題に対して返信してインタラクションの性能を向上させる必要がある。返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定することは、返信情報にユーザから質問された問題が含まれているか否かを判定することである。
ステップ203において、前記返信情報に基づいて、第2のセッションシーンがトリガされたと判定した場合、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成する。
第2のセッションシーンがトリガされたと判定した場合、返信情報に対応する呼応情報を生成する。すなわち、電子機器は、返信情報に含まれているユーザ質問に呼応する。例えば、質問情報が「どのくらいの頻度でネット通販をしているか」であり、返信情報が「今日の天気はどうだろう」である場合、電子機器は返信情報を意味解析したところ、返信情報にはユーザから質問された問題が含まれていると分かる。電子機器は、「今日の天気はどうだろう」に対応するセッションシーン(すなわち、第2のセッションシーン)に基づいて、呼応情報を生成する。呼応情報は、電子機器が天気の問い合わせについて質問する情報、例えば、「どこの天気を調べるか」という情報であり得る。
さらに、本ステップは、具体的には前記返信情報に基づいて、前記第2のセッションシーンがトリガされたと判定した場合、前記第1のセッションシーンをシーンスタックに押し込むステップと、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するステップと、を含み、そして、ユーザに前記呼応情報を出力した後には、前記第2のセッションシーンでの対話が終了し、かつ前記シーンスタックに処理未了のセッションシーンがある場合、前記シーンスタックにおけるスタックのトップに位置するセッションシーンを取得するステップと、前記シーンスタックにおけるスタックのトップに位置するセッションシーンを前記第1のセッションシーンとして確定し、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するステップを実行するステップと、をさらに含む。
具体的には、スタックは先入れ後出しのデータ構造であり、対話中にセッションシーンが切り替えられた場合、そのデータ構造を利用して切り替えられたセッションシーン(例えば、第1のセッションシーン)のデータを格納することができる。セッションシーンのデータを格納するスタックは、シーンスタックと呼ばれる。本実施形態では、前記第1のセッションシーンをシーンスタックに押し込むということは、第1のセッションシーンおよび該シーンでのセッションのデータをシーンスタックに格納することであると理解されることができる。電子機器は、この関連情報に基づいて、引き続き第1のセッションシーンでユーザと対話するために、第1のセッションシーンが切り替えられる前の状態に再び戻ることができる。
アウトバウンドコール対話中に、現在のシーン(すなわち、第1のセッションシーン)が完了しておらず、ユーザが能動的に新しいシーン(すなわち、第2のセッションシーン)に入った場合、電子機器は、まだ完了していないシーン(すなわち、第1のセッションシーン)および該シーンでのセッションのデータをシーンスタックに押し込む。新しいシーンが完了すると、未完成のセッションシーンがシーンスタックのスタックの上部からポップアップされ、ユーザはポップアップされたセッションシーンに戻ることにより、対話を継続させる。図4に示されるように、図4における第1のノード、第2のノードは、第1のセッションシーンのタスクノードであり、ノード1とノード2は、第1のノードの子ノードであると考えられる。
第2のセッションシーンがトリガされたと判定した場合、電子機器は、まず第2のセッションシーンを処理する必要がある。このとき、第1のセッションシーンをプッシュし、換言すれば、第1のセッションシーンをシーンスタックに押し込む。これにより、電子機器は、第2のセッションシーンでの対話が終了すると、第1のセッションシーンをシーンスタックから取り出して、第1のセッションシーンでの対話を継続させることができる。
シーンスタックから、処理済みセッションシーンがポップされた後、該セッションシーンに隣接するセッションシーンがスタックのトップに位置する。シーンスタックにおけるセッションシーンがすべて処理済みになった場合、シーンスタックは空となる。
本実施形態では、対話中に、ユーザが能動的に対話を中断し、能動的に対話を終了させることをサポートし、ユーザエクスペリエンスを向上させる。
さらに、ユーザから返信された返信情報がプリセットされた時間までに受信されなければ、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するステップを実行する。すなわち、プリセットされた時間までに返信情報が受信されなければ、再度ユーザに質問情報を出力して、対話の継続を誘導する。もちろん、プリセットされた時間までに返信情報が受信されなければ、ユーザに問い合わせ情報を出力して、セッションの継続を誘導するようにしてもよい。プリセットされた時間は、実際の状況に基づいて設定可能であり、ここでは限定しない。
本実施形態では、マンマシン対話中に、ユーザが第2のセッションシーンをトリガすると、電子機器は、第1のセッションシーンとセッションのデータをシーンスタックに押し込んで、第2のセッションシーンでユーザと対話する。第2のセッションシーンが終了すると、電子機器は、引き続き未完了のシーン(すなわち、第1のセッションシーン)に入るようにユーザを誘導することにより、ユーザエクスペリエンスを向上させることができる。
ユーザから返信された返信情報を受信した場合、前記返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定した後、ユーザに前記呼応情報を出力する前には、前記返信情報に基づいて、前記第2のセッションシーンがトリガされていないと判定した場合、前記第1のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するステップをさらに含む。
本ステップでは、返信情報に基づいてユーザが第2のセッションシーンをトリガしていないと判定し、現在のセッションシーンが依然として第1のセッションシーンであることを示す。このとき、電子機器は、第1のセッションシーンに基づいて、返信情報に対応する呼応情報を生成する。例えば、質問情報が「どのくらいの頻度でネット通販をしているか」であり、返信情報が「3日間」である場合、電子機器は返信情報を意味解析したところ、返信情報が第2のセッションシーンをトリガしておらず、かつ返信情報には質問情報への返信が含まれていると分かる。このとき、電子機器は、タスクキューに設定されたタスクに基づいて、引き続きユーザに質問情報を出力することができる。
ステップ204において、前記呼応情報をユーザに出力する。
電子機器は、呼応情報を確定した後、呼応情報をユーザに出力する。呼応情報が文字情報である場合、電子機器は文字の形でユーザに出力する。呼応情報が音声情報である場合、電子機器は音声再生の形でユーザに出力する。
ステップ205において、前記第2のセッションシーンでの対話が終了し、かつ前記シーンスタックにおけるセッションシーンがすべて処理済みになった場合、タスクキューに未処理又は処理未了のタスクがあるかないかを判定する。
ステップ206において、前記タスクキューに未処理又は処理未了のタスクがある場合、第2のタスクを前記第1のタスクとして確定し、かつ第1のセッションシーンでの第1のタスクに基づいてユーザに質問情報を出力するステップを実行し、ここで、第2のタスクは、現在前記タスクキューにおいてキューの先頭にあるタスクである。
具体的には、シーンスタックにおけるスタックのトップに位置するセッションシーンを処理する際に、スタックのトップに位置するセッションシーンがポップされ、該セッションシーンに隣接するセッションシーンがスタックのトップに並ぶ。シーンスタックにおけるセッションシーンがすべて処理済みになった場合、シーンスタックに未処理又は処理未了のセッションシーンが存在しないと理解されることができる。この場合、シーンスタックは空であり、現在のセッションシーンはシーンスタックにおける最後にポップされたセッションシーンであると理解されることができる。
タスクキューにおいてキューの先頭にあるタスクを処理する際に、該タスクがキューから出て、該タスクに隣接する次のタスクが先頭に並ぶ。タスクキューにおけるタスクがすべて処理済みになった場合、タスクキューに未処理又は処理未了のタスクが存在しないと理解されることができる。この場合、タスクキューは空となる。
シーンスタックが空であり、タスクキューが空でない場合、現在タスクキューにおいてキューの先頭にあるタスクを第1のタスクとし、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するステップを実行する。例えば、現在タスクキューの中でキューの先頭に並んでいるタスクが「ネット通販の頻度」であれば、「ネット通販の頻度」が第1のタスクであり、電子機器は、「ネット通販の頻度」に基づいて、ユーザに質問情報を出力する。
本実施形態では、シーンスタックは、古いセッションシーン(すなわち、第1のセッションシーン)を格納し、ユーザがトリガした新しいセッションシーン(すなわち、第2のセッションシーン)を優先的に処理し、新しいセッションシーンの対話が終了した後に、古いセッションシーンに戻り、引き続き未完成のタスクを古いセッションシーンで実行することにより、マンマシンインタラクションの知的性と円滑さを向上させ、マンマシンインタラクションの性能を改善することができる。
本実施形態におけるマンマシン対話の方法は、ユーザに対して能動的に質問することもできれば、ユーザの質問に呼応することもできる。これにより、本実施形態におけるマンマシン対話の方法を適用した電子機器は、2つのタイプの対話の流れをサポートすることができる。1つ目は、アンケート、アフターセールスフォローアップ、セールスリードスクリーニングなどの、アウトバウンドコールキューを用いてアウトバウンドコールタスクを管理するタスク型の対話の流れである。2つ目は、天気の問い合わせ、ホテルの予約、または知識の質疑応答などの応答型の対話の流れである。このうち、タスク型の対話の流れは、個々の問題をサポートすることもできれば、前後の論理関係(順序関係、条件付きジャンプ)を持つ問題リストをサポートすることもできる。応答型の対話の流れは、天気の問い合わせ、ホテルの予約、レンタカーなどのタスク型の対話シーンをサポートすることもできれば、質疑応答のペア、ナレッジグラフ、雑談などをサポートすることができる。
本出願に係る電子機器は、システムレベルのセッションカウント制御ロジックをサポートする。アウトバウンドコールプロセスにおいて通信チャネルやユーザ環境の雑音によって音声認識率が低くなり、電子機器がユーザの意図を明確に理解できない場合、本出願は、カウント制御が連続的または累積的に特定のしきい値に達した時点でセッションを善意的にハングアップすることをサポートする。カウント制御には、ユーザによる連続的または累積的なサイレントのカウント制御、ユーザによる連続的または累積的な拒否のカウント制御、ユーザによる連続的または累積的なリセットのカウント制御などが含まれる。
図5に示されるように、図5は、本発明の実施形態によって提供されるマンマシン対話の方法の例を模式的に示すフローチャートである。以下、マンマシン対話の方法の具体的なプロセス(ステップ11〜19)について説明する。
ステップ11において、対話を開始し、ウェルカムメッセージ、最初のタスクスピーチを再生する。電話がつながると、アウトバウンドコールロボット(電子機器はアウトバウンドコールロボットである)はまずウェルカムメッセージをアナウンスしてアウトバウンドコール誘導を行い、ユーザが電話に出やすいか否かなどを質問する。このとき、対話はその問題に代表されるシーン(すなわち、第1のセッションシーン)に入る。
ステップ12において、ユーザが新しいシーンを能動的にトリガしたか否か。アウトバウンドコールロボットは、ユーザの入力に基づいてユーザの回答を聴いた後、まずユーザが能動的に新しいシーン(すなわち、第2のセッションシーン)をトリガしたか否かを判定する。判定結果が「はい」である場合、ステップ13へ移行し、「いいえ」である場合、ステップ14へ移行する。現在のシーンにおいて返信を生成してユーザに呼応する。
ステップ13において、古いシーン(すなわち、現在のシーン)をプッシュし、新しいシーンに基づいてユーザに返信する。現在のシーン(すなわち、第1のセッションシーン)をシーンスタックに押し込み、新しいシーンにおいて返信を生成してユーザに呼応する。
ステップ14において、現在のシーンを継続する。すなわち、現在のシーンにおいて返信を生成してユーザに呼応する。ユーザに返信すると同時に、ステップ15を実行する。
ステップ15において、現在のシーンが終了したか否かを判定する。終了した場合、ステップ16を実行する。
ステップ16において、シーンスタックに処理未了のシーンがあるかないかを判定する。ある場合、ステップ17を実行し、ない場合、ステップ18を実行する。
ステップ17において、対話がスタックのトップに戻るように誘導する。すなわち、スタックのトップから最も近いシーンがポップアップされ、誘導語を通じて、ユーザを古いシーンに誘導する。
ステップ18において、タスクキューに未処理又は処理未了のタスクがあるかないかを判定する。ある場合、ステップ19を実行する。
ステップ19において、新しいタスクスピーチを再生する。すなわち、キューから先頭のタスクを取り出して、ユーザに再生する。
タスクキューとシーンスタックが空になるまでステップ12〜19を繰り返し、終了語を再生し、タスクアウトバウンドコールを終了する。
対話中に、ユーザが能動的に対話を中断し、能動的に対話を終了させることをサポートするとともに、ユーザが沈黙している場合には、ユーザに問い合わせて対話を継続させることにより、ユーザエクスペリエンスを向上させることができる。
本実施形態におけるマンマシン対話の方法は、ロボットがユーザを能動的に誘導することをサポートするとともに、ロボットが受動的に応答することをサポートし、(シーンスタックを用いて)ユーザがアウトバウンドコールを受ける過程で能動的に質問しながらある業務作業を遂行することをサポートすることができる。さらに、ユーザに応答してから、引き続きユーザをアウトバウンドコールのプリセットタスクに誘導することができる。これにより、アウトバウンドコールロボットの知的性と対話の円滑さを向上させることができる。
本実施形態におけるマンマシン対話の方法は、プロセス的な対話管理に基づいて、シーンキューとシーンスタックを追加することにより、プリセットタスクリストをサポートし、対話中にユーザが現在の対話シーンから能動的に飛び出した場合、現在のシーンをプッシュすることにより、適切な時点でユーザを未完成のシーンに誘導し、プリセットタスクを達成するとともに、通話中におけるユーザの中断、沈黙、質問、新しい意図の表現などをうまくサポートすることができる。これにより、セッションの知的性と円滑さを大きく向上させることができる。本出願に係る技術的解決手段は、金融業界での回収シーン、各業界でのセールスリードスクリーニング、アンケート、保険業界でのアフターセールスフォローアップなどのシーンにおいて人工に代わることができるため、企業の人件費を削減し、作業効率を改善することができる。
本出願に係るマンマシン対話の方法は、以下のようなメリットがある。アウトバウンドコールキューが追加された。アンケート、アフターセールスフォローアップなど固定のタスクリストがあるアウトバウンドコールシーンを柔軟にサポートすることができ、ユーザが対話の流れを中断した後、適切な時点で対話をプリセットタスクに誘導することをサポートすることができる。シーンスタックが追加された。ユーザが対話中に現在の対話シーンから能動的に飛び出して新しいシーンに入った場合、現在のシーンとセッションのデータをプッシュする。新しいシーンが終了し、かつユーザが能動的に新しいシーンに入るように誘導しなかった場合、引き続き未完成のシーンに入るようにユーザを誘導することができる。これは、アウトバウンドコールにおいては特に重要である。なぜなら、アウトバウンドコールにおけるユーザは受動側であり、能動的に対話を古いシーンに誘導する意欲がないからである。能動的と受動的なタスクベースの対話、質疑応答、雑談、KGなどの対話能力が融合されている。アウトバウンドコールの過程において、ユーザが受動的な立場から能動的な立場に変わって聞き返し(政策や、実行可能性など質疑応答的な問い合わせ)、能動的に業務要求(残高の確認、天気の問い合わせなど)を提示することをサポートするとともに、ユーザの能動的なニーズを満たした後、対話を前のシーンの流れやプリセットされたアウトバウンドコールの流れに誘導し、プリセットされたタスクを遂行することをサポートする。訓練データの規模に対する要求は適当で、正確性は高く、閉鎖シーン内での効果は良く、商業化の価値は高い。柔軟なセッションカウント制御ロジック(未識別、拒否、繰り返しなど)により、アウトバウンドコールセッションフローがよりユーザーフレンドリーになり、異常な場合のセッション状態がより制御しやすくなる。
図6を参照すると、図6は、本発明の実施形態によって提供されるマンマシン対話の装置を模式的に示す構成図である。本実施形態は、マンマシン対話の装置500を提供する。
マンマシン対話の装置500は、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するように構成された第1の出力モジュール501と、ユーザから返信された返信情報を受信した場合、前記返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定するように構成された第1の判定モジュール502と、前記返信情報に基づいて、第2のセッションシーンがトリガされたと判定した場合、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するように構成された第1の呼応情報生成モジュール503と、前記呼応情報をユーザに出力するように構成された第2の出力モジュール504と、を含む。
さらに、第1の出力モジュール501は、タスクキューに未処理又は処理未了のタスクがある場合、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するように構成されており、第1のタスクは、現在前記タスクキューにおいてキューの先頭にあるタスクである。
さらに、第1の呼応情報生成モジュール503は、前記返信情報に基づいて、前記第2のセッションシーンがトリガされたと判定した場合、前記第1のセッションシーンをシーンスタックに押し込むように構成されたプッシュサブモジュールと、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するように構成された生成サブモジュールと、を含む。
前記装置は、前記第2のセッションシーンでの対話が終了し、かつ前記シーンスタックに処理未了のセッションシーンがある場合、前記シーンスタックにおけるスタックのトップに位置するセッションシーンを取得するように構成された取得モジュールと、前記シーンスタックにおけるスタックのトップに位置するセッションシーンを前記第1のセッションシーンとして確定し、かつ前記第1の出力モジュールをトリガするように構成された第1の確定モジュール501と、をさらに含む。
さらに、前記装置500は、前記第2のセッションシーンでの対話が終了し、かつ前記シーンスタックにおけるセッションシーンがすべて処理済みになった場合、タスクキューに未処理又は処理未了のタスクがあるかないかを判定するように構成された第2の判定モジュールと、前記タスクキューに未処理又は処理未了のタスクがある場合、第2のタスクを前記第1のタスクとして確定し、かつ前記第1の出力モジュールをトリガするように構成された第2の確定モジュールと、をさらに含み、ここで、第2のタスクは、現在前記タスクキューにおいてキューの先頭にあるタスクである。
さらに、前記装置500は、前記返信情報に基づいて、前記第2のセッションシーンがトリガされていないと判定した場合、前記第1のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するように構成された第2の呼応情報生成モジュールをさらに含む。
本発明の実施形態によって提供されるマンマシン対話の装置500は、電子機器が図1、図2に示される方法の実施形態において実現したすべてのプロセスを実現することができる。説明の重複を回避するために、ここではその説明を省略する。
本実施形態に係るマンマシン対話の装置500は、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力し、ユーザから返信された返信情報を受信した場合、前記返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定し、前記返信情報に基づいて、第2のセッションシーンがトリガされたと判定した場合、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成し、前記呼応情報をユーザに出力する。このように、ユーザが第2のセッションシーンをトリガした場合、電子機器は、第2のセッションシーンにおいて、ユーザからの返信情報に呼応することができ、マンマシンインタラクションの知的性と円滑さを向上させ、マンマシンインタラクションの性能を改善することができる。
図7を参照すると、図7は、本発明の実施形態によって提供される電子機器を模式的に示す構成図である。図7に示されるように、電子機器600は、プロセッサ601と、記憶装置602と、前記記憶装置602に格納され前記プロセッサ上で動作可能なコンピュータプログラムを含む。電子機器600における各コンポーネントはバスシステム603を介して結合されている。なお、バスシステム603はこれらのコンポーネント間の接続通信を実施する。
ここで、プロセッサ601は、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力し、ユーザから返信された返信情報を受信した場合、前記返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定し、前記返信情報に基づいて、第2のセッションシーンがトリガされたと判定した場合、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成し、前記呼応情報をユーザに出力するように構成されている。
さらに、プロセッサ601は、タスクキューに未処理又は処理未了のタスクがある場合、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するように構成されており、ここで、第1のタスクは、現在前記タスクキューにおいてキューの先頭にあるタスクである。
さらに、プロセッサ601は、前記返信情報に基づいて、前記第2のセッションシーンがトリガされたと判定した場合、前記第1のセッションシーンをシーンスタックに押し込み、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するように構成されており、そして、さらに、プロセッサ601は、返信情報がユーザに出力された後に、前記第2のセッションシーンでの対話が終了し、かつ前記シーンスタックに処理未了のセッションシーンがある場合、前記シーンスタックにおけるスタックのトップに位置するセッションシーンを取得し、前記シーンスタックにおけるスタックのトップに位置するセッションシーンを前記第1のセッションシーンとして確定し、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するステップを実行するように構成されている。
さらに、プロセッサ601は、前記第2のセッションシーンでの対話が終了し、かつ前記シーンスタックにおけるセッションシーンがすべて処理済になった場合、タスクキューに未処理のタスクがあるかないかを判定し、前記タスクキューに未処理又は処理未了のタスクがある場合、第2のタスクを前記第1のタスクとして確定し、かつ第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するステップを実行するように構成されており、ここで、第2のタスクは、現在前記タスクキューにおいてキューの先頭にあるタスクである。
さらに、プロセッサ601は、前記返信情報に基づいて、前記第2のセッションシーンがトリガされていないと判定した場合、前記第1のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するように構成されている。
電子機器600は、電子機器が上述した実施形態において実現したすべてのプロセスを実現することができる。説明の重複を回避するために、ここでは、その説明を省略する。
本発明の実施形態に係る電子機器600は、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力し、ユーザから返信された返信情報を受信した場合、前記返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定し、前記返信情報に基づいて、第2のセッションシーンがトリガされたと判定した場合、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成し、前記呼応情報をユーザに出力する。このように、ユーザが第2のセッションシーンをトリガした場合、電子機器は、第2のセッションシーンにおいて、ユーザからの返信情報に呼応することができ、マンマシンインタラクションの知的性と円滑さを向上させ、マンマシンインタラクションの性能を改善することができる。
本発明の実施形態は、コンピュータプログラムが格納されているコンピュータ可読記憶媒体を提供する。前記プログラムはプロセッサによって実行されると、上記のコア要素から抽出された方法の実施形態に記載されたすべてのプロセスを実施し、かつ同じ技術的効果を達成することができる。説明の重複を回避するために、ここでは、その説明を省略する。ここで、コンピュータ可読記憶媒体には、読み取り専用メモリ(Read-Only Memory、略称ROM)、ランダムアクセスメモリ(Random Access Memory、略称RAM)、磁気ディスク、または光ディスクなどが含まれる。
当業者であれば、本明細書に開示された実施形態に関連して説明されたユニットとアルゴリズムステップは、電子ハードウェアまたはコンピュータソフトウェアと電子ハードウェアの組み合わせで実現できることが分かる。これらの機能の実現に、ハードウェアを採用するか、それともソフトウェアを採用するかは、技術的解決手段の特定の応用や設計上の制約条件によって決まる。専門的な技術者は、特定の応用ごとに、それぞれの方法を採用して、説明された機能を実現することができるが、かかる実現が本発明の範囲を超えていると考えられてはならない。
当業者であれば、簡単で簡潔に説明するために、上述したシステム、装置、およびユニットの具体的な動作プロセスは、上述した方法の実施形態における対応するプロセスを参照することができると分かるため、ここでは、その説明を省略する。
本出願によって提供される実施形態において開示された装置と方法はその他の方法によって実施されてもよいことを理解されたい。例えば、上述した装置の実施形態は、概略的に示されたものである。例えば、前記ユニットの分割は、あくまでも論理的な機能分割にすぎず、実際の実施には、別の分割方法があり得る。例えば、複数のユニットまたはコンポーネントは、別のシステムに統合されてもよく、または、いくつかの特徴を無視しても、実行しなくてもよい。さらに、表示または議論された相互間の結合または直接的な結合または通信の接続は、いくつかのインターフェース、デバイスまたはユニットを介した間接的な結合または通信の接続であり得る。また、電気的、機械的、またはその他の形態であり得る。
分離部品として説明されているユニットは、物理的に分離されていても、分離されていなくてもよい。ユニットとして表示されている部品は、物理的なユニットであっても、でなくてもよい。すなわち、同じ場所に配置されていても、複数のネットワークユニットに分散されていてもよい。実際の必要に応じて、その一部またはすべてのユニットを選択して、本発明の実施形態の目的を実施することができる。
また、本発明の各実施形態における各機能ユニットは、1つの処理ユニットに統合されてもよい。各ユニットは、個別に物理的に存在してもよい。2つ以上のユニットが1つのユニットに統合されてもよい。
前記機能は、ソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用される場合、1つのコンピュータ可読記憶媒体に記憶されてもよい。このような理解に基づいて、本発明の技術的解決手段は、本質的に、あるいは従来技術に貢献する部分または該技術的解決手段の部分をソフトウェア製品として具現化することができる。該コンピュータソフトウェア製品は、1台のコンピュータ装置(パーソナルコンピュータ、サーバ、ネットワークデバイスなど) に本発明の各実施形態に記載された方法のすべてまたは一部のステップを実行させるためのいくつかの命令を含み、1つの記憶媒体に格納されている。上記した記憶媒体には、USB、リムーバブルハードディスク、ROM、RAM、磁気ディスク、または光ディスクなど、プログラムコードを記憶できる様々な媒体が含まれる。
上記した内容はあくまでも本発明の具体的な実施形態に過ぎない。本発明の保護範囲はこれに限定されるものではない。当業者が本発明に開示された技術範囲内で容易に想到できる如何なる変化や置換えも、すべて本発明の保護範囲内に含まれる。したがって、本発明の保護範囲は、請求項の保護範囲に従う。

Claims (12)

  1. 第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するステップと、
    ユーザから返信された返信情報を受信した場合、前記返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定するステップと、
    前記返信情報に基づいて、第2のセッションシーンがトリガされたと判定した場合、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するステップと、
    前記呼応情報をユーザに出力するステップと、を含むことを特徴とするマンマシン対話の方法。
  2. 第1のセッションシーンに基づいて質問情報をユーザに出力するステップは、
    タスクキューに未処理又は処理未了のタスクがある場合、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するステップを含み、前記第1のタスクは、現在前記タスクキューにおいてキューの先頭にあるタスクである、ことを特徴とする請求項1に記載の方法。
  3. 前記返信情報に基づいて前記第2のセッションシーンがトリガされたと判定した場合、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するステップは、
    前記返信情報に基づいて、前記第2のセッションシーンがトリガされたと判定した場合、前記第1のセッションシーンをシーンスタックに押し込むステップと、
    前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するステップと、を含み、
    ユーザに前記呼応情報を出力した後には、
    前記第2のセッションシーンでの対話が終了し、かつ前記シーンスタックに処理未了のセッションシーンがある場合、前記シーンスタックにおけるスタックのトップに位置するセッションシーンを取得するステップと、
    前記シーンスタックにおけるスタックのトップに位置するセッションシーンを前記第1のセッションシーンとして確定し、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するステップを実行するステップと、をさらに含むことを特徴とする請求項1に記載の方法。
  4. 前記ユーザに前記呼応情報を出力した後に、
    前記第2のセッションシーンでの対話が終了し、かつ前記シーンスタックにおけるセッションシーンがすべて処理済みになった場合、タスクキューに未処理又は処理未了のタスクがあるかないかを判定するステップと、
    前記タスクキューに未処理又は処理未了のタスクがある場合、第2のタスクを前記第1のタスクとして確定し、かつ第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するステップを実行するステップと、をさらに含み、
    前記第2のタスクは、現在前記タスクキューにおいてキューの先頭にあるタスクである、ことを特徴とする請求項3に記載の方法。
  5. ユーザから返信された返信情報を受信した場合、前記返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定した後、ユーザに前記呼応情報を出力する前には、
    前記返信情報に基づいて、前記第2のセッションシーンがトリガされていないと判定した場合、前記第1のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するステップをさらに含むことを特徴とする請求項1に記載の方法。
  6. 第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するように構成された第1の出力モジュールと、
    ユーザから返信された返信情報を受信した場合、前記返信情報に基づいて、第2のセッションシーンがトリガされたか否かを判定するように構成された第1の判定モジュールと、
    前記返信情報に基づいて、第2のセッションシーンがトリガされたと判定した場合、前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するように構成された第1の呼応情報生成モジュールと、
    前記呼応情報をユーザに出力するように構成された第2の出力モジュールと、を含むことを特徴とするマンマシン対話の装置。
  7. 前記第1の出力モジュールは、タスクキューに未処理又は処理未了のタスクがある場合、第1のセッションシーンの第1のタスクに基づいてユーザに質問情報を出力するように構成されており、前記第1のタスクは、現在前記タスクキューにおいてキューの先頭にあるタスクである、ことを特徴とする請求項6に記載の装置。
  8. 前記第1の呼応情報生成モジュールは、
    前記返信情報に基づいて、前記第2のセッションシーンがトリガされたと判定した場合、前記第1のセッションシーンをシーンスタックに押し込むように構成されたプッシュサブモジュールと、
    前記第2のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するように構成された生成サブモジュールと、を含み、
    前記装置は、
    前記第2のセッションシーンでの対話が終了し、かつ前記シーンスタックに処理未了のセッションシーンがある場合、前記シーンスタックにおけるスタックのトップに位置するセッションシーンを取得するように構成された取得モジュールと、
    前記シーンスタックにおけるスタックのトップに位置するセッションシーンを前記第1のセッションシーンとして確定し、かつ前記第1の出力モジュールをトリガするように構成された第1の確定モジュールと、をさらに含むことを特徴とする請求項6に記載の装置。
  9. 前記第2のセッションシーンでの対話が終了し、かつ前記シーンスタックにおけるセッションシーンがすべて処理済みになった場合、タスクキューに未処理又は処理未了のタスクがあるかないかを判定するように構成された第2の判定モジュールと、
    前記タスクキューに未処理又は処理未了のタスクがある場合、第2のタスクを前記第1のタスクとして確定し、かつ前記第1の出力モジュールをトリガするように構成された第2の確定モジュールと、をさらに含み、
    前記第2のタスクは、現在前記タスクキューにおいてキューの先頭にあるタスクである、請求項8に記載の装置。
  10. 前記返信情報に基づいて、前記第2のセッションシーンがトリガされていないと判定した場合、前記第1のセッションシーンに基づいて、前記返信情報に対応する呼応情報を生成するように構成された第2の呼応情報生成モジュールをさらに含むことを特徴とする請求項6に記載の装置。
  11. プロセッサと、記憶装置と、前記記憶装置に格納され前記プロセッサ上で動作可能なコンピュータプログラムを含み、
    前記プログラムは前記プロセッサによって実行されると、請求項1〜5のいずれか1項に記載のマンマシン対話の方法のステップを実施する電子機器。
  12. コンピュータプログラムが格納されているコンピュータ可読記憶媒体であって、
    前記プログラムはプロセッサによって実行されると、請求項1〜5のいずれか1項に記載のマンマシン対話の方法のステップを実施するコンピュータ可読記憶媒体。
JP2020001206A 2019-04-24 2020-01-08 マンマシン対話の方法、装置、および電子機器 Pending JP2020181566A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910333249.7A CN110096191B (zh) 2019-04-24 2019-04-24 一种人机对话方法、装置及电子设备
CN201910333249.7 2019-04-24

Publications (1)

Publication Number Publication Date
JP2020181566A true JP2020181566A (ja) 2020-11-05

Family

ID=67445727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020001206A Pending JP2020181566A (ja) 2019-04-24 2020-01-08 マンマシン対話の方法、装置、および電子機器

Country Status (4)

Country Link
US (1) US11355109B2 (ja)
JP (1) JP2020181566A (ja)
KR (1) KR102381214B1 (ja)
CN (1) CN110096191B (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110400564A (zh) * 2019-08-21 2019-11-01 科大国创软件股份有限公司 一种基于栈的聊天机器人对话管理方法
US20210117882A1 (en) 2019-10-16 2021-04-22 Talkdesk, Inc Systems and methods for workforce management system deployment
CN111063350B (zh) * 2019-12-17 2022-10-21 思必驰科技股份有限公司 基于任务栈的语音交互状态机及其实现方法
CN110995577B (zh) * 2019-12-31 2021-10-22 珠海市小源科技有限公司 消息的多通道适配方法、装置及存储介质
US11736615B2 (en) 2020-01-16 2023-08-22 Talkdesk, Inc. Method, apparatus, and computer-readable medium for managing concurrent communications in a networked call center
CN111273833B (zh) * 2020-03-25 2022-02-01 北京百度网讯科技有限公司 人机交互的控制方法、装置和系统、电子设备
CN111563151B (zh) * 2020-05-07 2024-02-02 腾讯科技(深圳)有限公司 一种信息采集的方法、会话配置的方法、装置及存储介质
CN111639168B (zh) * 2020-05-21 2023-06-09 北京百度网讯科技有限公司 一种多轮对话的处理方法、装置、电子设备及存储介质
CN111611368B (zh) * 2020-05-22 2023-07-04 北京百度网讯科技有限公司 多轮对话中公共场景对话回溯的方法和装置
CN111612482A (zh) * 2020-05-22 2020-09-01 云知声智能科技股份有限公司 对话管理方法、装置和设备
CN111813912B (zh) * 2020-06-29 2024-08-06 北京百度网讯科技有限公司 一种人机对话方法、装置、设备及存储介质
CN114124415B (zh) * 2020-08-13 2023-05-12 腾讯科技(深圳)有限公司 目标交互应用中的信息交互方法和装置
CN111930288B (zh) * 2020-08-14 2022-05-13 中国工商银行股份有限公司 交互式业务处理方法及系统
CN112735411A (zh) * 2020-12-25 2021-04-30 广州橙行智动汽车科技有限公司 控制方法、客户端、车辆、语音系统和存储介质
US11922141B2 (en) * 2021-01-29 2024-03-05 Walmart Apollo, Llc Voice and chatbot conversation builder
US11429404B2 (en) 2021-02-03 2022-08-30 Oracle International Corporation Framework for linearizing interviews while permitting user backtracking and provisionally storing answers for repopulating responses
JP7420109B2 (ja) * 2021-04-08 2024-01-23 トヨタ自動車株式会社 情報出力システム、サーバ装置および情報出力方法
CN113159901B (zh) * 2021-04-29 2024-06-04 天津狮拓信息技术有限公司 融资租赁业务会话的实现方法和装置
CN113282725A (zh) * 2021-05-21 2021-08-20 北京市商汤科技开发有限公司 对话交互的方法、装置、电子设备及存储介质
CN113360625B (zh) * 2021-07-02 2022-01-04 北京容联七陌科技有限公司 一种基于nlp的智能对话营销获客方法及系统
US11677875B2 (en) 2021-07-02 2023-06-13 Talkdesk Inc. Method and apparatus for automated quality management of communication records
US20230087896A1 (en) * 2021-09-23 2023-03-23 International Business Machines Corporation Leveraging knowledge records for chatbot local search
CN114296547A (zh) * 2021-12-03 2022-04-08 阿里巴巴(中国)有限公司 发起主动对话的方法、设备及存储介质
CN114221920B (zh) * 2021-12-13 2023-06-23 中国平安财产保险股份有限公司 基于人工智能的自动接触方法、装置、计算机设备及介质
US11856140B2 (en) 2022-03-07 2023-12-26 Talkdesk, Inc. Predictive communications system
US11736616B1 (en) 2022-05-27 2023-08-22 Talkdesk, Inc. Method and apparatus for automatically taking action based on the content of call center communications
US11971908B2 (en) 2022-06-17 2024-04-30 Talkdesk, Inc. Method and apparatus for detecting anomalies in communication data
US11943391B1 (en) 2022-12-13 2024-03-26 Talkdesk, Inc. Method and apparatus for routing communications within a contact center

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018245A (ja) * 2005-07-07 2007-01-25 Toshiba Corp 対話装置、対話方法及びプログラム
US20190066669A1 (en) * 2017-08-29 2019-02-28 Google Inc. Graphical data selection and presentation of digital content

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100738689B1 (ko) * 2005-06-03 2007-07-11 주식회사 케이티 소봇 서비스 방법 및 시스템
JP5149737B2 (ja) * 2008-08-20 2013-02-20 株式会社ユニバーサルエンターテインメント 自動会話システム、並びに会話シナリオ編集装置
US8374859B2 (en) * 2008-08-20 2013-02-12 Universal Entertainment Corporation Automatic answering device, automatic answering system, conversation scenario editing device, conversation server, and automatic answering method
CN103000052A (zh) * 2011-09-16 2013-03-27 上海先先信息科技有限公司 人机互动的口语对话系统及其实现方法
US9374448B2 (en) * 2012-05-27 2016-06-21 Qualcomm Incorporated Systems and methods for managing concurrent audio messages
CN105094315B (zh) * 2015-06-25 2018-03-06 百度在线网络技术(北京)有限公司 基于人工智能的人机智能聊天的方法和装置
JP6601069B2 (ja) * 2015-09-01 2019-11-06 カシオ計算機株式会社 対話制御装置、対話制御方法及びプログラム
CN106775649A (zh) * 2016-11-25 2017-05-31 深圳市保臻社区服务科技有限公司 一种语境引导用户的方法及装置
CN106559321A (zh) * 2016-12-01 2017-04-05 竹间智能科技(上海)有限公司 动态调整对话策略的方法及系统
US10467509B2 (en) * 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer
CN107870994A (zh) * 2017-10-31 2018-04-03 北京光年无限科技有限公司 用于智能机器人的人机交互方法及系统
CN108763352A (zh) * 2018-05-15 2018-11-06 深圳市过问科技有限公司 采访提问方法、装置及电子设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018245A (ja) * 2005-07-07 2007-01-25 Toshiba Corp 対話装置、対話方法及びプログラム
US20190066669A1 (en) * 2017-08-29 2019-02-28 Google Inc. Graphical data selection and presentation of digital content

Also Published As

Publication number Publication date
CN110096191B (zh) 2021-06-29
US20200342868A1 (en) 2020-10-29
CN110096191A (zh) 2019-08-06
KR20200124594A (ko) 2020-11-03
KR102381214B1 (ko) 2022-04-01
US11355109B2 (en) 2022-06-07

Similar Documents

Publication Publication Date Title
JP2020181566A (ja) マンマシン対話の方法、装置、および電子機器
JP7285949B2 (ja) 人工知能を介してエージェントを支援するためのシステム及び方法
CN109873909B (zh) 一种语音呼叫方法、装置和设备及计算机存储介质
JP7274043B2 (ja) 音声会話処理方法及び装置
KR102418511B1 (ko) 서드 파티 에이전트를 사용하기 위한 호출 요청 생성 및 전송
US20180090141A1 (en) Conversational interactions using superbots
US10453075B2 (en) System and method for meaning driven process and information management to improve efficiency, quality of work, and overall customer satisfaction
US20210256534A1 (en) Supporting automation of customer service
WO2018201964A1 (zh) 一种会话信息的处理方法、服务器及计算机可读存储介质
US20210157989A1 (en) Systems and methods for dialog management
EP2157571B1 (en) Automatic answering device, automatic answering system, conversation scenario editing device, conversation server, and automatic answering method
JP2023504777A (ja) コンタクトセンターシステムとそのユーザとの間の対話を管理するためのシステム及び方法
US20240214474A1 (en) Integrated orchestration of intelligent systems
JP2013243778A (ja) 再帰的な適応的インタラクション管理システム
JP2011515028A5 (ja)
CN110392168A (zh) 呼叫处理方法、装置、服务器、存储介质和系统
JP7297797B2 (ja) 保留を管理するための方法および装置
EP4020468A1 (en) System, method and apparatus for conversational guidance
CN115982331A (zh) 会话场景中的信息交互方法、装置及设备
CN111552793A (zh) 基于外呼机器人的语音外呼方法、装置、终端设备及介质
CN112069830A (zh) 一种智能会话方法及装置
Revang et al. Market guide for conversational platforms
WO2021109741A1 (zh) 一种服务方法、装置、系统、设备及存储介质
EP4093005A1 (en) System method and apparatus for combining words and behaviors
CN112084767B (zh) 一种信息应答处理方法、智能语音设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200414

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210810

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211227

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211227

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220105

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220111

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220318

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220329

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220607

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230404