JP2020091846A - 会話に基づくチケットロギングのためのシステム及び方法 - Google Patents
会話に基づくチケットロギングのためのシステム及び方法 Download PDFInfo
- Publication number
- JP2020091846A JP2020091846A JP2019190914A JP2019190914A JP2020091846A JP 2020091846 A JP2020091846 A JP 2020091846A JP 2019190914 A JP2019190914 A JP 2019190914A JP 2019190914 A JP2019190914 A JP 2019190914A JP 2020091846 A JP2020091846 A JP 2020091846A
- Authority
- JP
- Japan
- Prior art keywords
- sequence
- seq2seq
- problem description
- class
- words
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 89
- 230000004044 response Effects 0.000 claims abstract description 48
- 238000012549 training Methods 0.000 claims abstract description 45
- 238000013145 classification model Methods 0.000 claims abstract description 33
- 238000003860 storage Methods 0.000 claims abstract description 13
- 230000015654 memory Effects 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 13
- 238000004891 communication Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 description 16
- 238000011160 research Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 12
- 239000013598 vector Substances 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 9
- 240000002853 Nelumbo nucifera Species 0.000 description 8
- 235000006508 Nelumbo nucifera Nutrition 0.000 description 8
- 235000006510 Nelumbo pentapetala Nutrition 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 238000013519 translation Methods 0.000 description 7
- 230000002457 bidirectional effect Effects 0.000 description 6
- 230000001537 neural effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000004853 protein function Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 125000000391 vinyl group Chemical group [H]C([*])=C([H])[H] 0.000 description 2
- 229920002554 vinyl polymer Polymers 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 125000002015 acyclic group Chemical group 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000004836 empirical method Methods 0.000 description 1
- 239000000945 filler Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/90335—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/027—Frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
Abstract
Description
本特許出願は、2018年10月19日に出願されたインド国特許出願第201821039649号に対する優先権を主張するものであり、この文献は全体が引用により本明細書に組み入れられる。
crootはHのルートである
非対称的:
非反射的:
推移的:
である。本開示は、システムの機械学習モデルが過去のチケットデータD={(d1,Y1),(d2,Y2),…,(dm,Ym)}から学習を行うと予想する。さらに、システムは、適切なラベル階層の形態で問題を理解した後に、ユーザにわずかなセルフサービスステップを提供すると予想される。ユーザは、セルフサービスステップに従うことによって問題を解決できない(又は解決したいと望まない)場合、システムに自分に代わってチケットを上げるように求める。上述した表1には、これらの質問をどのように行えば、我々がチケット記述(di)に対してラベル階層を正しく判断する役に立つことができるかを示す。
であり、この式において、st=fD(st-1,yt-1,c)であり、nは、Dの語彙における総記号数であり、Wは、各時間ステップにおける標的記号にわたる確率分布を生成するために使用される重み行列である。
ここでのθは、E及びDネットワークの全てのトレーニング可能なパラメータを表し、(xn,yn)は、ソース記号シーケンスと対応する標的記号シーケンスとの対であり、Nは、このような対の総数である。
によって所与の順序
に処理され、逆方向RNN
によって逆順
に処理される。本発明者らは、ここでD及びEの時間ステップにインデックスを付けるためにi及びjをそれぞれ使用する。この時点で、隠れ状態は
であり、ここでの
及び
は、
及び
によって記号xjを処理した後にそれぞれ取得された状態である。時間ステップ毎に同じ表現xを使用するのではなく、標的シーケンス内の次の記号をp(yi=1/yi-1,…,y1,x)=g’(si,yi-1,ci)として予測するためにxの関連部分に注意を払うことによって、復号プロセス中に時間ステップi毎に異なるciを使用し、式中のsi=f(si,yi-1,ci)である。
が、Eから取得された状態の加重和である。時間ステップiの復号中に状態hjに割り当てられる重みは
によって表され、アラインメントモデルを用いて計算される((例えば、Dzmitry Bahdanau、Kyunghyun Cho、及びYoshua Bengio、2014、「整列及び翻訳のための共同学習によるニューラル機械翻訳(Neural Machine Translation by Jointly Learning to Align and Translate)」、CoRR abs/1409.0473、(2014)を参照。−以下、Dzmitry他又は従来のアラインメントモデルと呼ぶことができる)。アラインメントモデルは、エンコーダ状態hjとデコーダ状態sj-1との間の類似性スコア、すなわちe’ij=a’(si,hj)を計算する。アラインメントモデルは、フィードフォワードニューラルネットワーク(FNN)を用いて実装され、E及びDと同時にトレーニングされる。本開示では、システム及び方法が、si-1の代わりにDの現在の隠れ状態siを使用したスコアリング関数、すなわちe’ij=a’(si,hj)を使用する。
を使用してデコーダの初期状態を初期化する。Dのトレーニングは、教師強制メカニズムを使用して行われ、すなわちラベルciのベクトル表現vciを明確に受け渡し、ci∈Yi⊂C,to Dである。WELEとは異なり、WELD(単語埋め込み型レイヤデコーダ)は、ランダムに初期化されてトレーニング中に更新される。Dの語彙はVDによって表され、VD={<eos>,<pad>}∪Cである。時間ステップi+1において、vciと共にアテンションベクトルa’iが入力としてDに供給され、a’i=tanh(Wc[ci:hi])として計算される。
であるシーケンスラベリング問題としてモデル化される。上述したように、既存の従来の作業とは異なり、本開示ではソース記号とターゲット記号との間に1対多のマッピングが存在する。例えば、以下の表2では、「notes」という単語が複数のラベル{Internal IT、Email Services、Lotus Notes}にマッピングされている。従って、システム100は、デコーダの時間ステップ毎にマルチラベル分類子を実装する(例えば、以下で詳細に説明する図5を参照)。具体的には、図1A〜図4に関連する図5に、本開示の実施形態例による図1のシステム100によって実装される例示的なシーケンスツーシーケンス(Seq2Seq)スロット充填モデルを示す。
ここでのαijは、時間ステップiにおいてラベルを予測している間にψが単語wjに与えたアテンションの値を表す。換言すれば、1つの実施形態例では、問題記述における単語と対応する予測されたクラスラベルとの間の関係が、対応する割り当てられたアテンション重みに基づく。
に基づく単語の数wcと閾値thasの上位境界cpを使用して以下のように実装し、
ここでのthas及びwcは、検証データを使用して微調整される。
である。図4に示すように、システム100は、復号の各時間ステップiにおいてEの隠れ状態hiのみを入力としてデコーダに渡す。具体的に言えば、図4には、本開示の実施形態例による図1のシステム100が実装する例示的なSeq2Seqスロット充填モデルを示す。図4の
は、時間ステップiにおけるdiを表す。システム100は、ソフトマックスに代わってdiの各単語に対応する複数のラベルを予測するために、S字非線形性(sigmoid nonlinearity)を使用して、以下の方程式(2)に示すように損失関数を最小化する。方程式(2)では、T’がソース及び標的シーケンス長であり、NがD’のトレーニングインスタンスの総数であり、stpiが、時間ステップiにおけるグラウンドトゥルースラベルのマルチホットベクトルを表し、zi=sigmoid(Wstanh[bi;hi])であり、この場合のzi∈R|VD|は、対応する予測リアル値ベクトルを表し、VD={0,<pad>,<unk>}∪Cが、デコーダDの語彙を表す。
ベースライン方法
フィードフォワードネットワーク(λ)を用いたTF−IDF:本開示のシステム及び方法は、上記の文献において述べられているように「フラット分類」又は「直接法」とも呼ばれる多クラス分類問題として階層的分類をモデル化した。ここでは、階層H内の2つの異なる親ノードの下に同じリーフラベルが発生した場合、このリーフラベルは、このモデル内の階層を無視する異なるクラスとして見なされる。この結果、あらゆるリーフノードから階層カテゴリを一意的に識別することができる。これは、最後にソフトマックスを含む2層フィードフォワードニューラルネットワークであり、この場合、ネットワークへの入力は、ユーザクエリdi内に存在する単語diに対応するtf_idfスコアであり、ターゲットリーフノードは、ei=softmax(W2*(relu(Wtf-idf*di(tf-idf)+btf-idf))T+b2)に従って識別され、W2は重み行列を表し、btf-idf,b2は、対応するバイアスベクトルを表す。eiは、リーフノードにわたる確率分布である。モデルλへの入力は、dp内に存在する単語に対応するtf−idfスコアを含むベクトルdi(tf-idf)∈R|VE|である。
チケットデータセットの説明:このデータセットは、現在使用されているヘルプデスクシステムから採取した対応するラベルを含む過去3ヶ月のチケットデータから成る。以下の表5に、チケット数及び高水準カテゴリの分布を示す。対応するクラス階層Hは高さh=4のツリーであり、ツリー内のリーフノードの数は1275であり、Hツリー内の総ノード数は、crootを含む1918である。
パブリックデータセットの説明:本開示は、Kamran他が使用した公的に入手可能なデータセットに対する本明細書で説明した方法のベンチマークも示す(例えば、「Kamran Kowsari、Donald E Brown他著、2017年、HDLTex:「テキスト分類のための階層的深層学習(Hierarchical Deep Learning for Text Classification)」、2017年第16回機械学習及び応用IEEE国際会議(ICMLA)、364〜371頁を参照)。このデータセットのクラス階層H’は、2の高さと134のリーフノードとを有していた。このデータセットは、7つの異なる分野に属する46,985件の文書を有しており、各分野は複数の下位分野を有していた。例えば、dpublicが「コンピュータグラフィクス」に関する場合、対応するラベルは{Computer Science,Computer Graphics}になる。Karman他による研究活動では、データセットDpublicが、{WOS−11967、WOS−46985、WOS−5736}という3つの異なるサブセットに分割され、各サブセットの詳細を以下の表7に示す。具体的に言えば、表7には以下を示す。
本開示の方法を使用する主な利点は、システムがユーザに質問を行う際に、同じスロット充填モデルを使用して応答が解析され、これが元々のチケット記述/問題記述における重要な情報のチェックに使用される点である。システム100は、ユーザにさらなる質問を行うことにより、ユーザからの(応答で述べられた)問題/課題に関するさらなる自然言語情報も取り込み、この結果、誤って(又は不正確に)ラベル付けされたデータを有する可能性を低減する一貫したカテゴリ化が行われる。本開示のシステム100は、スロット充填モデルのためのトレーニングデータを自動的に生成するので、人間の労力をほとんど(少ししか)伴わずにあらゆる既存のヘルプデスクシステムと一体化することができる。システム統合器は、ノード毎に自然言語の質問を設定し、時には頻繁に行われるフィルタ処理された上位5つのオプションのための質問、例えば「使用している電子メールはLotus Notes、Outlook、Zimbraのうちのどれですか?」などを行うだけでよい。リーフノード毎にセルフサービスステップを提供して、潜在的にチケットの数を減少させることもできる。本開示のフレームワークは、表1のチケット記述d4及びd5に示すような質問に対する二択応答(はい/いいえ)の代わりに自然言語応答を解析することもできる。このフレームワークは、フィルタ処理された上位k個が正しいYiを含んでいない場合、或いはスロット充填モデルが誤った/不正確なスロットを予測した結果、候補となるラベルの組から正しいYiが消去された場合、チケット記述にラベルYiを割り当てる際に誤りを犯すことがある。このフレームワークは、チケット記述が複数の問題意見を含む時にも、トレーニングデータ内の問題タイプの頻度又はユーザ応答に基づいて単一のチケットを上げることがある(又は上げる)。例えば、「スカイプ及びアウトルック構成にログインできません。できるだけ早く解決して下さい」という問題記述の場合には、1つ目に「アウトルック構成」、2つ目に「アプリケーション支援」という2つの異なるチケットを上げる必要がある。
Claims (15)
- プロセッサ実装方法であって、
1又は2以上のハードウェアプロセッサを介して、問題記述を含む入力データを受け取るステップ(302)と、
前記1又は2以上のハードウェアプロセッサによって実行されるシーケンスツーシーケンス(Seq2Seq)階層分類モデルを介して、階層的に配置されたクラスラベルの組を出力するために問題記述からの各単語を逐次的に処理するステップ(304)であって、前記クラスラベルの組からの各クラスラベルに信頼性スコアを割り当て、対応するクラスラベルに基づいて各単語にアテンション重みを割り当て、1又は2以上の領域に固有の履歴データを使用して前記シーケンスツーシーケンス(Seq2Seq)階層分類モデルをトレーニングする、ステップと、
Seq2Seqスロット充填モデルを介して、階層的に配置された前記クラスラベルの組の各々に関連する前記問題記述に含まれている情報の存在又は不在を判断するステップ(306)であって、1又は2以上のチケットの1又は2以上の問題記述と、前記1又は2以上の領域に固有の履歴データに含まれている既に訂正された関連するクラスラベルとに基づいて、前記Seq2Seqスロット充填モデルのためのトレーニングデータを生成し、前記シーケンスツーシーケンス(Seq2Seq)階層分類モデルが、前記既に訂正された関連するクラスラベルを予測する、ステップと、
前記問題記述に含まれている情報の存在又は不在に基づいて、履歴データを使用してクエリの組を逐次的に識別して、前記クエリの組に対応する応答の組を取得するステップ(308)と、
前記応答の組に基づいて、前記クラスラベルの組からの各クラスラベルに関連する前記信頼性スコアの更新要件を決定するステップ(310)と、
前記決定された更新要件に基づいて、前記応答の組に基づく前記クラスラベルの組からの各クラスラベルに関連する前記信頼性スコアを動的に更新して、更新された信頼性スコアの組を取得するステップ(312)と、
前記応答の組及び前記更新された信頼性スコアの組に基づいて、前記問題記述に対応するチケットを自動的にロギングするステップ(314)と、
を含むことを特徴とするプロセッサ実装方法。 - 前記クエリの組は、前記クラスラベルの組からの複数のクラスラベルの信頼性スコアが所定の信頼閾値よりも小さい時又は大きい時に識別される、
請求項1に記載のプロセッサ実装方法。 - 前記問題記述内の単語と対応する予測クラスラベルとの間の関係は、対応する割り当てられたアテンション重みに基づく、
請求項1に記載のプロセッサ実装方法。 - 前記問題記述からの各単語を処理する前記ステップは、1又は2以上の関連する単語及び1又は2以上の無関係な単語を識別するステップを含む、
請求項1に記載のプロセッサ実装方法。 - 前記Seq2Seqスロット充填モデルの前記トレーニングデータは、(i)前記問題記述に含まれる単語の組に関連するアテンション重みの総和が閾値アテンション重み以上であり、かつ(ii)前記単語の組の濃度が単語カウント閾値よりも低い時に、対応するチケットの問題記述に含まれている単語に1又は2以上のラベルを割り当てることによって生成される、
請求項1に記載のプロセッサ実装方法。 - 命令を記憶するメモリ(102)と、
1又は2以上の通信インターフェイス(106)と、
前記1又は2以上の通信インターフェイス(106)を介して前記メモリ(102)に結合された1又は2以上のハードウェアプロセッサ(104)と、
を備えたシステム(100)であって、前記1又は2以上のハードウェアプロセッサ(104)は、前記命令によって、
問題記述を含む入力データを受け取り、
前記1又は2以上のハードウェアプロセッサによって実行されるシーケンスツーシーケンス(Seq2Seq)階層分類モデルを介して、階層的に配置されたクラスラベルの組を出力するために問題記述からの各単語を逐次的に処理し、前記クラスラベルの組からの各クラスラベルに信頼性スコアを割り当て、対応するクラスラベルに基づいて各単語にアテンション重みを割り当て、1又は2以上の領域に固有の履歴データを使用して前記シーケンスツーシーケンス(Seq2Seq)階層分類モデルをトレーニングし、
前記1又は2以上のハードウェアプロセッサによって実行されるSeq2Seqスロット充填モデルを介して、階層的に配置された前記クラスラベルの組の各々に関連する前記問題記述に含まれている情報の存在又は不在を判断し、1又は2以上のチケットの1又は2以上の問題記述と、前記1又は2以上の領域に固有の履歴データに含まれている既に訂正された関連するクラスラベルとに基づいて、前記Seq2Seqスロット充填モデルのためのトレーニングデータを生成し、前記シーケンスツーシーケンス(Seq2Seq)階層分類モデルが、前記既に訂正された関連するクラスラベルを予測し、
前記問題記述に含まれている情報の存在又は不在に基づいて、履歴データを使用してクエリの組を逐次的に識別して、前記クエリの組に対応する応答の組を取得し、
前記応答の組に基づいて、前記クラスラベルの組からの各クラスラベルに関連する前記信頼性スコアの更新要件を決定し、
前記決定された更新要件に基づいて、前記応答の組に基づく前記クラスラベルの組からの各クラスラベルに関連する前記信頼性スコアを動的に更新して、更新された信頼性スコアの組を取得し、
前記応答の組及び前記更新された信頼性スコアの組に基づいて、前記問題記述に対応するチケットを自動的にロギングする、
ように構成される、
ことを特徴とするシステム(100)。 - 前記クエリの組は、前記クラスラベルの組からの複数のクラスラベルの信頼性スコアが所定の信頼閾値よりも小さい時又は大きい時に識別される、
請求項6に記載のシステム。 - 前記問題記述内の単語と対応する予測クラスラベルとの間の関係は、対応する割り当てられたアテンション重みに基づく、
請求項6に記載のシステム。 - 前記問題記述からの各単語は、1又は2以上の関連する単語及び1又は2以上の無関係な単語を識別するように逐次的に処理される、
請求項6に記載のシステム。 - 前記Seq2Seqスロット充填モデルの前記トレーニングデータは、(i)前記問題記述に含まれる単語の組に関連するアテンション重みの総和が閾値アテンション重み以上であり、かつ(ii)前記単語の組の濃度が単語カウント閾値よりも低い時に、対応するチケットの問題記述に含まれている単語に1又は2以上のラベルを割り当てることによって生成される、
請求項6に記載のシステム。 - 1又は2以上の命令を含む1又は2以上の非一時的機械可読情報記憶媒体であって、前記1又は2以上の命令は、1又は2以上のハードウェアプロセッサによって実行された時に、
1又は2以上のハードウェアプロセッサを介して、問題記述を含む入力データを受け取るステップと、
前記1又は2以上のハードウェアプロセッサによって実行されるシーケンスツーシーケンス(Seq2Seq)階層分類モデルを介して、階層的に配置されたクラスラベルの組を出力するために問題記述からの各単語を逐次的に処理するステップであって、前記クラスラベルの組からの各クラスラベルに信頼性スコアを割り当て、対応するクラスラベルに基づいて各単語にアテンション重みを割り当て、1又は2以上の領域に固有の履歴データを使用して、前記シーケンスツーシーケンス(Seq2Seq)階層分類モデルをトレーニングする、ステップと、
Seq2Seqスロット充填モデルを介して、階層的に配置された前記クラスラベルの組の各々に関連する前記問題記述に含まれている情報の存在又は不在を判断するステップであって、1又は2以上のチケットの1又は2以上の問題記述と、前記1又は2以上の領域に固有の履歴データに含まれている既に訂正された関連するクラスラベルとに基づいて、前記Seq2Seqスロット充填モデルのためのトレーニングデータを生成し、前記シーケンスツーシーケンス(Seq2Seq)階層分類モデルが、前記既に訂正された関連するクラスラベルを予測する、ステップと、
前記問題記述に含まれている情報の存在又は不在に基づいて、履歴データを使用してクエリの組を逐次的に識別して、前記クエリの組に対応する応答の組を取得するステップと、
前記応答の組に基づいて、前記クラスラベルの組からの各クラスラベルに関連する前記信頼性スコアの更新要件を決定するステップと、
前記決定された更新要件に基づいて、前記応答の組に基づく前記クラスラベルの組からの各クラスラベルに関連する前記信頼性スコアを動的に更新して、更新された信頼性スコアの組を取得するステップと、
前記応答の組及び前記更新された信頼性スコアの組に基づいて、前記問題記述に対応するチケットを自動的にロギングするステップと、
を引き起こす、ことを特徴とする1又は2以上の非一時的機械可読情報記憶媒体。 - 前記クエリの組は、前記クラスラベルの組からの複数のクラスラベルの信頼性スコアが所定の信頼閾値よりも小さい時又は大きい時に識別される、
請求項11に記載の1又は2以上の非一時的機械可読情報記憶媒体。 - 前記問題記述内の単語と対応する予測クラスラベルとの間の関係は、対応する割り当てられたアテンション重みに基づく、
請求項11に記載の1又は2以上の非一時的機械可読情報記憶媒体。 - 前記問題記述からの各単語を処理する前記ステップは、1又は2以上の関連する単語及び1又は2以上の無関係な単語を識別するステップを含む、
請求項11に記載の1又は2以上の非一時的機械可読情報記憶媒体。 - 前記Seq2Seqスロット充填モデルの前記トレーニングデータは、(i)前記問題記述に含まれる単語の組に関連するアテンション重みの総和が閾値アテンション重み以上であり、かつ(ii)前記単語の組の濃度が単語カウント閾値よりも低い時に、対応するチケットの問題記述に含まれている単語に1又は2以上のラベルを割り当てることによって生成される、
請求項11に記載の1又は2以上の非一時的機械可読情報記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201821039649 | 2018-10-19 | ||
IN201821039649 | 2018-10-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020091846A true JP2020091846A (ja) | 2020-06-11 |
JP7372812B2 JP7372812B2 (ja) | 2023-11-01 |
Family
ID=68382127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019190914A Active JP7372812B2 (ja) | 2018-10-19 | 2019-10-18 | 会話に基づくチケットロギングのためのシステム及び方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11551142B2 (ja) |
EP (1) | EP3640855A1 (ja) |
JP (1) | JP7372812B2 (ja) |
AU (1) | AU2019250159A1 (ja) |
BR (1) | BR102019022037A2 (ja) |
CA (1) | CA3059026A1 (ja) |
MX (1) | MX2019012488A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022185529A1 (ja) * | 2021-03-05 | 2022-09-09 | 日本電気株式会社 | 学習装置、学習方法、推論装置、推論方法、及び、記録媒体 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11270077B2 (en) * | 2019-05-13 | 2022-03-08 | International Business Machines Corporation | Routing text classifications within a cross-domain conversational service |
US11651163B2 (en) | 2019-07-22 | 2023-05-16 | Capital One Services, Llc | Multi-turn dialogue response generation with persona modeling |
US11526391B2 (en) * | 2019-09-09 | 2022-12-13 | Kyndryl, Inc. | Real-time cognitive root cause analysis (CRCA) computing |
US20210264253A1 (en) * | 2020-02-25 | 2021-08-26 | UST Global (Singapore) Pte. Ltd. | Systems and methods for assisted resolution of support tickets |
CN111797386A (zh) * | 2020-06-28 | 2020-10-20 | 四川长虹电器股份有限公司 | 一种基于物联网用户行为可信的检测方法 |
US20220044199A1 (en) * | 2020-08-06 | 2022-02-10 | Actimize Ltd. | AUTOMATIC GENERATION Of A TWO-PART READABLE SUSPICIOUS ACTIVITY REPORT (SAR) FROM HIGH-DIMENSIONAL DATA IN TABULAR FORM |
US20220309250A1 (en) * | 2021-03-23 | 2022-09-29 | Hewlett Packard Enterprise Development Lp | Facilitating an automated, interactive, conversational troubleshooting dialog regarding a product support issue via a chatbot |
CN113590819B (zh) * | 2021-06-30 | 2024-01-02 | 中山大学 | 一种大规模类别层级文本分类方法 |
CN113673241B (zh) * | 2021-08-03 | 2024-04-09 | 之江实验室 | 一种基于范例学习的文本摘要生成框架系统及方法 |
CN117235586B (zh) * | 2023-11-16 | 2024-02-09 | 青岛小帅智能科技股份有限公司 | 酒店客户画像构建方法、系统、电子设备及存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7139754B2 (en) | 2004-02-09 | 2006-11-21 | Xerox Corporation | Method for multi-class, multi-label categorization using probabilistic hierarchical modeling |
US9437189B2 (en) | 2014-05-29 | 2016-09-06 | Google Inc. | Generating language models |
KR101778679B1 (ko) | 2015-10-02 | 2017-09-14 | 네이버 주식회사 | 딥러닝을 이용하여 텍스트 단어 및 기호 시퀀스를 값으로 하는 복수 개의 인자들로 표현된 데이터를 자동으로 분류하는 방법 및 시스템 |
US10459928B2 (en) * | 2016-12-14 | 2019-10-29 | Microsoft Technology Licensing, Llc | Dynamic tensor attention for information retrieval scoring |
US20180329884A1 (en) * | 2017-05-12 | 2018-11-15 | Rsvp Technologies Inc. | Neural contextual conversation learning |
US10303681B2 (en) * | 2017-05-19 | 2019-05-28 | Microsoft Technology Licensing, Llc | Search query and job title proximity computation via word embedding |
US10009375B1 (en) * | 2017-12-01 | 2018-06-26 | KnowBe4, Inc. | Systems and methods for artificial model building techniques |
CN108415897A (zh) | 2018-01-18 | 2018-08-17 | 北京百度网讯科技有限公司 | 基于人工智能的类别判别方法、装置及存储介质 |
WO2020236972A2 (en) * | 2019-05-20 | 2020-11-26 | The Broad Institute, Inc. | Non-class i multi-component nucleic acid targeting systems |
CN116194934A (zh) * | 2020-08-18 | 2023-05-30 | 格里德人工智能公司 | 模块化模型交互系统和方法 |
-
2019
- 2019-10-11 EP EP19202798.5A patent/EP3640855A1/en not_active Withdrawn
- 2019-10-15 US US16/653,871 patent/US11551142B2/en active Active
- 2019-10-16 AU AU2019250159A patent/AU2019250159A1/en active Pending
- 2019-10-17 CA CA3059026A patent/CA3059026A1/en active Pending
- 2019-10-18 MX MX2019012488A patent/MX2019012488A/es unknown
- 2019-10-18 JP JP2019190914A patent/JP7372812B2/ja active Active
- 2019-10-21 BR BR102019022037A patent/BR102019022037A2/pt unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022185529A1 (ja) * | 2021-03-05 | 2022-09-09 | 日本電気株式会社 | 学習装置、学習方法、推論装置、推論方法、及び、記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
BR102019022037A2 (pt) | 2020-04-28 |
CA3059026A1 (en) | 2020-04-19 |
AU2019250159A1 (en) | 2020-05-07 |
US20200125992A1 (en) | 2020-04-23 |
JP7372812B2 (ja) | 2023-11-01 |
MX2019012488A (es) | 2020-08-03 |
EP3640855A1 (en) | 2020-04-22 |
US11551142B2 (en) | 2023-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7372812B2 (ja) | 会話に基づくチケットロギングのためのシステム及び方法 | |
US11500818B2 (en) | Method and system for large scale data curation | |
US7606784B2 (en) | Uncertainty management in a decision-making system | |
US10298757B2 (en) | Integrated service centre support | |
US11144718B2 (en) | Adaptable processing components | |
US7426497B2 (en) | Method and apparatus for analysis and decomposition of classifier data anomalies | |
CN111506714A (zh) | 基于知识图嵌入的问题回答 | |
US11599666B2 (en) | Smart document migration and entity detection | |
US20220067579A1 (en) | Dynamic ontology classification system | |
CN110110053A (zh) | 在间接话语和事务之间建立逻辑连接 | |
Johnston et al. | Applied supervised learning with Python: use scikit-learn to build predictive models from real-world datasets and prepare yourself for the future of machine learning | |
US20200409948A1 (en) | Adaptive Query Optimization Using Machine Learning | |
Patidar et al. | Automatic conversational helpdesk solution using seq2seq and slot-filling models | |
EP4222635A1 (en) | Lifecycle management for customized natural language processing | |
US20220100967A1 (en) | Lifecycle management for customized natural language processing | |
US20220358407A1 (en) | System and method for initiating a completed lading request | |
US20210166138A1 (en) | Systems and methods for automatically detecting and repairing slot errors in machine learning training data for a machine learning-based dialogue system | |
US10885324B2 (en) | Agency notice processing system | |
Rafatirad et al. | Machine learning for computer scientists and data analysts | |
US20230418971A1 (en) | Context-based pattern matching for sensitive data detection | |
Beieler | The Generation and Use of Political Event Data | |
Rohaan | Prioritizing requests for quotation on sales potential | |
Morakot et al. | Automatically recommending components for issue reports using deep learning | |
US20230297773A1 (en) | Apparatus and methods for employment application assessment | |
Panchal et al. | Performance analysis of classification techniques using different parameters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AA79 | Non-delivery of priority document |
Free format text: JAPANESE INTERMEDIATE CODE: A24379 Effective date: 20200225 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220722 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230925 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231020 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7372812 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |