JP2020013541A - 会話型の文書を要約するために表題を生成するためのシステム及び方法、文書用に表題を生成する方法、プログラム、演算装置、及びコンピュータ機器 - Google Patents
会話型の文書を要約するために表題を生成するためのシステム及び方法、文書用に表題を生成する方法、プログラム、演算装置、及びコンピュータ機器 Download PDFInfo
- Publication number
- JP2020013541A JP2020013541A JP2019044908A JP2019044908A JP2020013541A JP 2020013541 A JP2020013541 A JP 2020013541A JP 2019044908 A JP2019044908 A JP 2019044908A JP 2019044908 A JP2019044908 A JP 2019044908A JP 2020013541 A JP2020013541 A JP 2020013541A
- Authority
- JP
- Japan
- Prior art keywords
- data
- title
- neural network
- region
- documents
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000002452 interceptive effect Effects 0.000 title 1
- 238000013528 artificial neural network Methods 0.000 claims abstract description 69
- 238000012549 training Methods 0.000 claims abstract description 67
- 238000005094 computer simulation Methods 0.000 claims abstract description 31
- 230000006870 function Effects 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 13
- 230000006978 adaptation Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 101100043658 Schizosaccharomyces pombe (strain 972 / ATCC 24843) ste11 gene Proteins 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
- G06F16/345—Summarisation for human users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/338—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/93—Document management systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
第2の態様では、第1の態様において、前記ニューラル・ネットワークは、前記第1のセットのデータから抽出された語彙を、前記第2のセットのデータから抽出された語彙と組み合わせることにより訓練される。
第3の態様では、第1の態様において、前記ニューラル・ネットワークを訓練することは、前記第1のセットのデータから内容特徴を抽出することと、第1のセットの予備の表題を、前記第1のセットのデータからの前記抽出された内容特徴に基づいて生成することと、前記第1の領域において、前記ニューラル・ネットワークを、前記生成された予備の表題及び前記第1のセットのデータを使用して訓練することとをさらに含む。
第4の態様では、第3の態様において、前記第1のセットの予備の表題を生成することは、前記第1のセットの分類されていないデータ中で、前記複数の文書のそれぞれから、テキストからの内容特徴の一部分を抽出することを含む。
第5の態様では、第3の態様において、前記ニューラル・ネットワークを訓練することは、前記第2のセットの分類前のデータと、前記第1のセットのデータ及び前記第2のセットのデータから抽出された、組み合わされた語彙とに基づいて、前記訓練されたニューラル・ネットワークを前記第2の領域に適合させることをさらに含む。
第6の態様では、第5の態様において、前記第2のセットの分類前のデータと、前記第1のセットのデータ及び前記第2のセットのデータから抽出された、前記組み合わされた語彙とに基づいて、前記訓練されたニューラル・ネットワークを前記第2の領域に適合させることは、二次的な選別作業を行って、前記訓練されたニューラル・ネットワークを、前記第2のセットの分類前のデータに整列されたままにすることを含む。
第7の態様では、第5の態様において、前記ニューラル・ネットワークを訓練することは、前記第2の領域において、前記生成された予備の表題及び前記第2のセットのデータを使用して、前記ニューラル・ネットワークをさらに再訓練することと、前記第1のセットのデータ並びに前記第1のセットのデータ及び前記第2のセットのデータから抽出された前記組み合わされた語彙に基づいて、前記再訓練されたニューラル・ネットワークを前記第1の領域に適合させることとをさらに含む。
第8の態様では、第7の態様において、前記生成された表題に基づいて検索機能を提供するユーザインタフェース(UI)を生成することと、前記生成された表題に基づき、前記UIを通じて受信された検索要求に応じて、少なくとも1つの文書を表示することとをさらに含む。
第9の態様では、第8の態様において、前記UIを通じて選択要求を受信することと、前記受信した選択要求に基づいて、前記表題生成コンピュータモデルをアップデートすることとをさらに含む。
第11の態様では、第10の態様において、前記ニューラル・ネットワークは、前記第1のセットのデータから抽出された語彙を、前記第2のセットのデータから抽出された語彙と組み合わせることにより訓練される。
第12の態様では、第10の態様において、前記ニューラル・ネットワークを訓練することは、前記第1のセットのデータから内容特徴を抽出することと、第1のセットの予備の表題を、前記第1のセットのデータからの前記抽出された内容特徴に基づいて生成することと、前記第1の領域において、前記ニューラル・ネットワークを、前記生成された予備の表題及び前記第1のセットのデータを使用して訓練することとをさらに含む。
第13の態様では、第12の態様において、前記ニューラル・ネットワークを訓練することは、前記第2のセットの分類前のデータと、前記第1のセットのデータ及び前記第2のセットのデータから抽出された、組み合わされた語彙とに基づいて、前記訓練されたニューラル・ネットワークを前記第2の領域に適合させることをさらに含む。
第14の態様では、第13の態様において、前記第2のセットの分類前のデータと、前記第1のセットのデータ及び前記第2のセットのデータから抽出された、前記組み合わされた語彙とに基づいて、前記訓練されたニューラル・ネットワークを前記第2の領域に適合させることは、二次的な選別作業を行って、前記訓練されたニューラル・ネットワークを、前記第2のセットの分類前のデータに整列されたままにすることを含む。
第15の態様では、第13の態様において、前記ニューラル・ネットワークを訓練することは、前記第2の領域において、前記生成された予備の表題及び前記第2のセットのデータを使用して、前記ニューラル・ネットワークをさらに再訓練することと、前記第1のセットのデータ並びに前記第1のセットのデータ及び前記第2のセットのデータから抽出された前記組み合わされた語彙に基づいて、前記再訓練されたニューラル・ネットワークを前記第1の領域に適合させることとをさらに含む。
第16の態様では、第15の態様において、前記生成された表題に基づいて検索機能を提供するユーザインタフェース(UI)を生成することと、前記生成された表題に基づき、前記UIを通じて受信された検索要求に応じて、少なくとも1つの文書を表示することとをさらに含む。
第18の態様では、第17の態様において、前記ニューラル・ネットワークを訓練することは、前記第1のセットのデータから内容特徴を抽出することと、第1のセットの予備の表題を、前記第1のセットのデータからの前記抽出された内容特徴に基づいて生成することと、前記第1の領域において、前記ニューラル・ネットワークを、前記生成された予備の表題及び前記第1のセットのデータを使用して訓練することとをさらに含む。
第19態様では、第18の態様において、前記ニューラル・ネットワークを訓練することは、前記第2のセットの分類前のデータと、前記第1のセットのデータ及び前記第2のセットのデータから抽出された、組み合わされた語彙とに基づいて、前記訓練されたニューラル・ネットワークを前記第2の領域に適合させることをさらに含む。
第20の態様では、第19の態様において、前記ニューラル・ネットワークを訓練することは、前記第2の領域において、前記生成された予備の表題及び前記第2のセットのデータを使用して、前記ニューラル・ネットワークを再訓練することと、前記第1のセットのデータ並びに前記第1のセットのデータ及び前記第2のセットのデータから抽出された前記組み合わされた語彙に基づいて、前記再訓練されたニューラル・ネットワークを前記第1の領域に適合させることとをさらに含む。
他の例示的な実施態様では、他の最小及び最大を使用してもよい。このようにして、ニューラル・ネットワークのエンコーダ及びデコーダの両方を、目標領域からのテキストについて訓練できるが、表題は一般に不正確な場合がある。いくつかの例示的な実施態様では、第1の文から選択された「表題」が、10%の確率で、(例えば、文書でのちに生じる)あとの「表題」で置き換えられて、デコーダにとって作業をより困難にする場合がある。いくつかの例示的な実施態様では、合成のデータを使用して、エンコーダではなくデコーダを(文法について)選別器用に訓練する。
ユーザと会話との間の関係(例えば、どの会話に誰がかかわっているか)が、中間の区分に、(破線の囲み330により強調された)リンクとして示される。
Claims (21)
- 保存プラットフォーム中で、文書用に表題を生成する方法であって、
関連付けられた内容特徴をそれぞれが有する複数の文書を受信することと、
表題生成コンピュータモデルを前記複数の文書のそれぞれに適用して、前記関連付けられた内容特徴に基づき表題を生成することと、
前記生成された表題を、前記複数の文書のそれぞれに添付することとを含む方法であって、
前記表題生成コンピュータモデルは、
前記複数の文書の内容特徴に関連する第1の領域からの第1のセットの分類されていないデータと、
前記第1の領域と異なる第2の領域からの第2のセットの分類前のデータと
の組み合わせを使用してニューラル・ネットワークを訓練することにより作成される、方法。 - 前記ニューラル・ネットワークは、前記第1のセットのデータから抽出された語彙を、前記第2のセットのデータから抽出された語彙と組み合わせることにより訓練される、請求項1に記載の方法。
- 前記ニューラル・ネットワークを訓練することは、
前記第1のセットのデータから内容特徴を抽出することと、
第1のセットの予備の表題を、前記第1のセットのデータからの前記抽出された内容特徴に基づいて生成することと、
前記第1の領域において、前記ニューラル・ネットワークを、前記生成された予備の表題及び前記第1のセットのデータを使用して訓練することとをさらに含む、請求項1に記載の方法。 - 前記第1のセットの予備の表題を生成することは、前記第1のセットの分類されていないデータ中で、前記複数の文書のそれぞれから、テキストからの内容特徴の一部分を抽出することを含む、請求項3に記載の方法。
- 前記ニューラル・ネットワークを訓練することは、前記第2のセットの分類前のデータと、前記第1のセットのデータ及び前記第2のセットのデータから抽出された、組み合わされた語彙とに基づいて、前記訓練されたニューラル・ネットワークを前記第2の領域に適合させることをさらに含む、請求項3に記載の方法。
- 前記第2のセットの分類前のデータと、前記第1のセットのデータ及び前記第2のセットのデータから抽出された、前記組み合わされた語彙とに基づいて、前記訓練されたニューラル・ネットワークを前記第2の領域に適合させることは、二次的な選別作業を行って、前記訓練されたニューラル・ネットワークを、前記第2のセットの分類前のデータに整列されたままにすることを含む、請求項5に記載の方法。
- 前記ニューラル・ネットワークを訓練することは、前記第2の領域において、前記生成された予備の表題及び前記第2のセットのデータを使用して、前記ニューラル・ネットワークをさらに再訓練することと、
前記第1のセットのデータ並びに前記第1のセットのデータ及び前記第2のセットのデータから抽出された前記組み合わされた語彙に基づいて、前記再訓練されたニューラル・ネットワークを前記第1の領域に適合させることとをさらに含む、請求項5に記載の方法。 - 前記生成された表題に基づいて検索機能を提供するユーザインタフェース(UI)を生成することと、
前記生成された表題に基づき、前記UIを通じて受信された検索要求に応じて、少なくとも1つの文書を表示することとをさらに含む、請求項7に記載の方法。 - 前記UIを通じて選択要求を受信することと、
前記受信した選択要求に基づいて、前記表題生成コンピュータモデルをアップデートすることとをさらに含む、請求項8に記載の方法。 - 保存プラットフォーム中で、文書用に表題を生成する方法をコンピュータに実行させるためのプログラムであって、前記方法は、
関連付けられた内容特徴をそれぞれが有する複数の文書を受信することと、
表題生成コンピュータモデルを前記複数の文書のそれぞれに適用して、前記関連付けられた内容特徴に基づき表題を生成することと、
前記生成された表題を、前記複数の文書のそれぞれに添付することとを含む方法であって、
前記表題生成コンピュータモデルは、
前記複数の文書の内容特徴に関連する第1の領域からの第1のセットの分類されていないデータと、
前記第1の領域と異なる第2の領域からの第2のセットの分類前のデータと
の組み合わせを使用してニューラル・ネットワークを訓練することにより作成される、プログラム。 - 前記ニューラル・ネットワークは、前記第1のセットのデータから抽出された語彙を、前記第2のセットのデータから抽出された語彙と組み合わせることにより訓練される、請求項10に記載のプログラム。
- 前記ニューラル・ネットワークを訓練することは、
前記第1のセットのデータから内容特徴を抽出することと、
第1のセットの予備の表題を、前記第1のセットのデータからの前記抽出された内容特徴に基づいて生成することと、
前記第1の領域において、前記ニューラル・ネットワークを、前記生成された予備の表題及び前記第1のセットのデータを使用して訓練することとをさらに含む、請求項10に記載のプログラム。 - 前記ニューラル・ネットワークを訓練することは、前記第2のセットの分類前のデータと、前記第1のセットのデータ及び前記第2のセットのデータから抽出された、組み合わされた語彙とに基づいて、前記訓練されたニューラル・ネットワークを前記第2の領域に適合させることをさらに含む、請求項12に記載のプログラム。
- 前記第2のセットの分類前のデータと、前記第1のセットのデータ及び前記第2のセットのデータから抽出された、前記組み合わされた語彙とに基づいて、前記訓練されたニューラル・ネットワークを前記第2の領域に適合させることは、二次的な選別作業を行って、前記訓練されたニューラル・ネットワークを、前記第2のセットの分類前のデータに整列されたままにすることを含む、請求項13に記載のプログラム。
- 前記ニューラル・ネットワークを訓練することは、前記第2の領域において、前記生成された予備の表題及び前記第2のセットのデータを使用して、前記ニューラル・ネットワークをさらに再訓練することと、
前記第1のセットのデータ並びに前記第1のセットのデータ及び前記第2のセットのデータから抽出された前記組み合わされた語彙に基づいて、前記再訓練されたニューラル・ネットワークを前記第1の領域に適合させることとをさらに含む、請求項13に記載のプログラム。 - 前記生成された表題に基づいて検索機能を提供するユーザインタフェース(UI)を生成することと、
前記生成された表題に基づき、前記UIを通じて受信された検索要求に応じて、少なくとも1つの文書を表示することとをさらに含む、請求項15に記載のプログラム。 - 複数の文書を保存するメモリと、
前記複数の文書用に表題を生成する方法を実行するよう構成されたプロセッサと
を備える、演算装置であって、前記方法は、
関連付けられた内容特徴をそれぞれが有する複数の文書を受信することと、
表題生成コンピュータモデルを前記複数の文書のそれぞれに適用して、前記関連付けられた内容特徴に基づき表題を生成することと、
前記生成された表題を、前記複数の文書のそれぞれに添付することとを含み、
前記表題生成コンピュータモデルは、
前記複数の文書の内容特徴に関連する第1の領域からの第1のセットの分類されていないデータと、
前記第1の領域と異なる第2の領域からの第2のセットの分類前のデータと
の組み合わせを使用してニューラル・ネットワークを訓練することにより作成される、演算装置。 - 前記ニューラル・ネットワークを訓練することは、
前記第1のセットのデータから内容特徴を抽出することと、
第1のセットの予備の表題を、前記第1のセットのデータからの前記抽出された内容特徴に基づいて生成することと、
前記第1の領域において、前記ニューラル・ネットワークを、前記生成された予備の表題及び前記第1のセットのデータを使用して訓練することとをさらに含む、請求項17に記載の演算装置。 - 前記ニューラル・ネットワークを訓練することは、前記第2のセットの分類前のデータと、前記第1のセットのデータ及び前記第2のセットのデータから抽出された、組み合わされた語彙とに基づいて、前記訓練されたニューラル・ネットワークを前記第2の領域に適合させることをさらに含む、請求項18に記載の演算装置。
- 前記ニューラル・ネットワークを訓練することは、前記第2の領域において、前記生成された予備の表題及び前記第2のセットのデータを使用して、前記ニューラル・ネットワークを再訓練することと、
前記第1のセットのデータ並びに前記第1のセットのデータ及び前記第2のセットのデータから抽出された前記組み合わされた語彙に基づいて、前記再訓練されたニューラル・ネットワークを前記第1の領域に適合させることとをさらに含む、請求項19に記載の演算装置。 - 複数の文書用に表題を生成する方法を実行するよう構成されたコンピュータ機器であって、
前記コンピュータ機器は、
関連付けられた内容特徴をそれぞれが有する複数の文書を受信する手段と、
表題生成コンピュータモデルを前記複数の文書のそれぞれに適用して、前記関連付けられた内容特徴に基づき表題を生成する手段と、
前記生成された表題を、前記複数の文書のそれぞれに添付する手段と、
を含んでおり、
前記表題生成コンピュータモデルは、
前記複数の文書の内容特徴に関連する第1の領域からの第1のセットの分類されていないデータと、前記第1の領域と異なる第2の領域からの第2のセットの分類前のデータとの組み合わせを使用してニューラル・ネットワークを訓練することにより作成される、
コンピュータ機器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/038086 | 2018-07-17 | ||
US16/038,086 US20200026767A1 (en) | 2018-07-17 | 2018-07-17 | System and method for generating titles for summarizing conversational documents |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020013541A true JP2020013541A (ja) | 2020-01-23 |
JP7314538B2 JP7314538B2 (ja) | 2023-07-26 |
Family
ID=69160878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019044908A Active JP7314538B2 (ja) | 2018-07-17 | 2019-03-12 | 会話型の文書を要約するために表題を生成するためのシステム及び方法、文書用に表題を生成する方法、プログラム、演算装置、及びコンピュータ機器 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200026767A1 (ja) |
JP (1) | JP7314538B2 (ja) |
CN (1) | CN110795929A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10983971B2 (en) * | 2018-11-28 | 2021-04-20 | Intuit Inc. | Detecting duplicated questions using reverse gradient adversarial domain adaptation |
US10810243B2 (en) * | 2019-03-08 | 2020-10-20 | Fuji Xerox Co., Ltd. | System and method for generating abstractive summaries of interleaved texts |
CN111898337B (zh) * | 2020-07-13 | 2024-01-26 | 武汉大学 | 一种基于深度学习的单句摘要缺陷报告标题自动生成方法 |
US20240104055A1 (en) * | 2022-09-22 | 2024-03-28 | Microsoft Technology Licensing, Llc | Method and system of intelligently generating a title for a group of documents |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281183A (ja) * | 2002-03-20 | 2003-10-03 | Fuji Xerox Co Ltd | 文書情報検索装置、文書情報検索方法及び文書情報検索プログラム |
JP2006085582A (ja) * | 2004-09-17 | 2006-03-30 | Fuji Xerox Co Ltd | 文書処理装置およびプログラム |
JP2017111782A (ja) * | 2015-12-17 | 2017-06-22 | 富士ゼロックス株式会社 | ソーシャルメディア投稿のキャプションを生成する方法、プログラム及びサーバ装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8612364B2 (en) * | 2009-10-29 | 2013-12-17 | Xerox Corporation | Method for categorizing linked documents by co-trained label expansion |
JP6007784B2 (ja) * | 2012-12-21 | 2016-10-12 | 富士ゼロックス株式会社 | 文書分類装置及びプログラム |
US9619450B2 (en) * | 2013-06-27 | 2017-04-11 | Google Inc. | Automatic generation of headlines |
US20150186808A1 (en) * | 2013-12-27 | 2015-07-02 | International Business Machines Corporation | Contextual data analysis using domain information |
US10482119B2 (en) * | 2015-09-14 | 2019-11-19 | Conduent Business Services, Llc | System and method for classification of microblog posts based on identification of topics |
US11288573B2 (en) * | 2016-05-05 | 2022-03-29 | Baidu Usa Llc | Method and system for training and neural network models for large number of discrete features for information rertieval |
CN106502985B (zh) * | 2016-10-20 | 2020-01-31 | 清华大学 | 一种用于生成标题的神经网络建模方法及装置 |
CN107403375A (zh) * | 2017-04-19 | 2017-11-28 | 北京文因互联科技有限公司 | 一种基于深度学习的上市公司公告分类及摘要生成方法 |
US11880761B2 (en) * | 2017-07-28 | 2024-01-23 | Microsoft Technology Licensing, Llc | Domain addition systems and methods for a language understanding system |
US11669746B2 (en) * | 2018-04-11 | 2023-06-06 | Samsung Electronics Co., Ltd. | System and method for active machine learning |
EP3594861B1 (en) * | 2018-07-09 | 2024-04-03 | Tata Consultancy Services Limited | Systems and methods for classification of multi-dimensional time series of parameters |
-
2018
- 2018-07-17 US US16/038,086 patent/US20200026767A1/en not_active Abandoned
-
2019
- 2019-03-06 CN CN201910167062.4A patent/CN110795929A/zh not_active Withdrawn
- 2019-03-12 JP JP2019044908A patent/JP7314538B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281183A (ja) * | 2002-03-20 | 2003-10-03 | Fuji Xerox Co Ltd | 文書情報検索装置、文書情報検索方法及び文書情報検索プログラム |
JP2006085582A (ja) * | 2004-09-17 | 2006-03-30 | Fuji Xerox Co Ltd | 文書処理装置およびプログラム |
JP2017111782A (ja) * | 2015-12-17 | 2017-06-22 | 富士ゼロックス株式会社 | ソーシャルメディア投稿のキャプションを生成する方法、プログラム及びサーバ装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7314538B2 (ja) | 2023-07-26 |
US20200026767A1 (en) | 2020-01-23 |
CN110795929A (zh) | 2020-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10897439B2 (en) | Conversational enterprise document editing | |
JP7314538B2 (ja) | 会話型の文書を要約するために表題を生成するためのシステム及び方法、文書用に表題を生成する方法、プログラム、演算装置、及びコンピュータ機器 | |
KR20210038449A (ko) | 문답 처리, 언어 모델 훈련 방법, 장치, 기기 및 저장 매체 | |
Nguyen et al. | NEU-chatbot: Chatbot for admission of National Economics University | |
Bergsma et al. | Language identification for creating language-specific twitter collections | |
US9275041B2 (en) | Performing sentiment analysis on microblogging data, including identifying a new opinion term therein | |
US11748557B2 (en) | Personalization of content suggestions for document creation | |
DE202017105672U1 (de) | Intelligente Antworten mittels eines geräteinternen Modells | |
US11086916B2 (en) | System and method for analyzing and visualizing team conversational data | |
Tatalovic | AI writing bots are about to revolutionise science journalism: we must shape how this is done | |
JP2011523739A (ja) | 協働的な相互作用のためのシステム及び方法 | |
US20190243889A1 (en) | Semi-automated methods for translating structured document content to chat-based interaction | |
US20200125671A1 (en) | Altering content based on machine-learned topics of interest | |
JP7297458B2 (ja) | 対話コンテンツ作成支援方法 | |
US20200210523A1 (en) | Computer-Implemented Generation and Utilization of a Universal Encoder Component | |
WO2023005968A1 (zh) | 文本类别识别方法、装置、电子设备和存储介质 | |
US20220382795A1 (en) | Method and system for detection of misinformation | |
Engin et al. | Multimodal deep neural networks for banking document classification | |
Rezaei et al. | Sentiment analysis on Twitter using McDiarmid tree algorithm | |
Dolianiti et al. | Sentiment analysis on educational datasets: a comparative evaluation of commercial tools | |
US20230103313A1 (en) | User assistance system | |
US10762116B2 (en) | System and method for analyzing and visualizing team conversational data | |
Klein et al. | Reading Thomas Jefferson with TopicViz: towards a thematic method for exploring large cultural archives | |
Carvalho et al. | Deep learning powered question-answering framework for organizations digital transformation | |
Fung | Effects of information and communication technology (ICT) on social science research |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230626 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7314538 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |