JP2019139772A - 文書要約の生成方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体 - Google Patents
文書要約の生成方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体 Download PDFInfo
- Publication number
- JP2019139772A JP2019139772A JP2019019459A JP2019019459A JP2019139772A JP 2019139772 A JP2019139772 A JP 2019139772A JP 2019019459 A JP2019019459 A JP 2019019459A JP 2019019459 A JP2019019459 A JP 2019019459A JP 2019139772 A JP2019139772 A JP 2019139772A
- Authority
- JP
- Japan
- Prior art keywords
- collocation
- document
- attention
- processed
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012549 training Methods 0.000 claims abstract description 97
- 239000011159 matrix material Substances 0.000 claims abstract description 57
- 238000003062 neural network model Methods 0.000 claims abstract description 48
- 238000012545 processing Methods 0.000 claims description 31
- 230000015654 memory Effects 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 239000010410 layer Substances 0.000 description 4
- 241001252388 Tracyina Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
- G06F16/345—Summarisation for human users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/258—Heading extraction; Automatic titling; Numbering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明の実施例に係る文書要約の生成方法は、図1に示すように、以下のステップを含む。
本発明の実施例はさらに文書要約装置を提供して、図6に示すように、トレーニングモジュール21、入力モジュール22、処理モジュール23及び生成モジュール24を含む。
本発明の実施例はさらに文書要約を生成する電子機器30を提供して、図7に示すように、プロセッサー32と、コンピュータプログラムコマンドが格納されるメモリ34と、を含む。
ゲート アレイ(FPGA)、汎用プロセッサー、コントローラ、マイクロコントローラ、マイクロプロセッサー、本願の前記機能を実現するためのほかの電子モジュールまたは組み合わせに実現可能である。
さらに、本発明の実施例よりコンピュータ読み取り可能な記録媒体が提供され、前記コンピュータ読み取り可能な記録媒体はコンピュータプログラムを格納、前記コンピュータプログラムが前記プロセッサーにより実行される時に、前記プロセッサーに、トレーニングデータを利用して注意力行列を持つニューラルネットワークモデルを学習し得て、前記トレーニングデータは少なくとも一組の第一原句及びそれに対応する要約を含み、前記第一原句はトレーニング文書中の純テキスト文であるステップと、処理すべき文書の各第二原句を前記ニューラルネットワークモデルに入力して、各第二原句に対応する要約を獲得し、前記第二原句は処理すべき文書中の純テキスト文であるステップと、前記処理すべき文書の各第二原句とそれに対応する要約との間の注意力行列に基づいて連語注意力表を作成して、前記連語注意力表には前記処理すべき文書中の各第二原句の連語と対応する要約中の連語との間の注意力値が含まれる、ステップと、前記処理すべき文書から最初の連語を選択して、前記連語注意力表によって各前記最初の連語に対して拡張を行い、拡張された複数の連語候補集合を得て、各前記連語候補集合中の連語を文に組み合わせて、前記処理すべき文書の要約を生成するステップと、を含む。
以下、図面を参照して本発明の文書要約の生成方法についてさらに説明し、図8に示すように、本発明の実施例に係る文書要約の生成方法は具体的に以下のステップを含む。
dining room」であり、当該第二原句をseq2seqモデルのencoderに入力して、seq2seqモデルのdecoder側で生成される要約「Tom CherJerry」を得ることができ、また第二原句中の各単語と対応要約中の各単語との注意力行列cを得ることもできる。
CherJerry」として構築された単語注意力表は表1に示し、そこで、Aijは第二原句中のi番目の単語と対応要約中のj番目の単語との間の注意力値である。
Tom Cherry in dining room」を例として、「Angry」とTom」とを「Angry Tom」にマージでき、「dining」と「room」とを「dining
room」にマージでき、かつ各単語対の注意力値によって各連語対の間の注意力値を更新して連語注意力表を得て、連語注意力表には処理すべき文書中の各第二原句の各連語と対応する要約中の各連語との間の注意力値が含まれる。
Headdress>、<Jerry、Nibbles>と<Jerry、Dining room>になり、二回目の拡張によって得た連語候補集合が<Tom,chase,Nibbles
>、<Tom,Indian Headdress,shotgun>、<Jerry,Nibbles,feed>などになり、三回目の拡張によって得た連語候補集合が<Tom,chase,Nibbles,dining room >などである。
dining room」に組み合わせることができる。
Claims (12)
- トレーニングデータにより学習を行うことで注意力(attention)行列を持つニューラルネットワークモデルを取得するステップであって、前記トレーニングデータは少なくとも一組の第一原句及びそれに対応する要約を含み、前記第一原句はトレーニング文書における純テキスト文である、ステップと、
処理すべき文書の各第二原句を前記ニューラルネットワークモデルに入力して、各第二原句に対応する要約を取得するステップであって、前記第二原句は処理すべき文書における純テキスト文である、ステップと、
前記処理すべき文書の各第二原句とそれに対応する要約との間の注意力行列に基づいて連語注意力表を作成するステップであって、前記連語注意力表には前記処理すべき文書における各第二原句の連語と対応する要約における連語との間の注意力値が含まれる、ステップと、
前記処理すべき文書から最初の連語を選択して、前記連語注意力表によって各前記最初の連語に対して拡張を行い、拡張された複数の連語候補集合を取得して、各前記連語候補集合における連語を文に組み合わせて、前記処理すべき文書の要約を生成するステップと、を含むことを特徴とする文書要約の生成方法。 - 前記トレーニングデータにより学習を行うことで注意力行列を持つニューラルネットワークモデルを取得するステップの前に、前記文書要約の生成方法は、さらに前記トレーニングデータを取得するステップを含み、
前記トレーニングデータを取得するステップは、
前記トレーニング文書に対して単語分割処理とノイズ除去処理を行って、前記トレーニング文書の純テキストを取得することと、
前記トレーニング文書の各要約文に対して、前記純テキストにおける各文を走査し、前記純テキストにおける文が一要約文のすべての非ストップワードを含む場合、前記純テキストにおける当該文及び対応する要約文を一組の第一原句及び対応する要約とすることと、を含むことを特徴とする請求項1に記載の文書要約の生成方法。 - 前記処理すべき文書の各第二原句を前記ニューラルネットワークモデルに入力するステップの前に、前記文書要約の生成方法はさらに、
前記処理すべき文書に対して単語分割処理とノイズ除去処理を行って、前記処理すべき文書の純テキストを取得して、前記処理すべき文書の純テキストから前記第二原句を抽出すること、を含むことを特徴とする請求項1に記載の文書要約の生成方法。 - 前記処理すべき文書の各第二原句とそれに対応する要約との間の注意力行列に基づいて連語注意力表を作成するステップは、
各前記第二原句における各単語と対応する要約における各単語との間の注意力行列を抽出し、各単語対の注意力値に基づいて単語注意力表を構築することであって、前記単語注意力表には前記処理すべき文書における各第二原句の各単語と対応する要約における各単語との間の注意力値が含まれる、ことと、
前記単語注意力表における単語を連語にマージし、各単語対の注意力値に基づいて各連語対の間の注意力値を更新して連語注意力表を取得することであって、前記連語注意力表には前記処理すべき文書における各第二原句の各連語と対応する要約における各連語との間の注意力値が含まれる、ことと、を含むことを特徴とする請求項1に記載の文書要約の生成方法。 - 前記単語注意力表における単語を連語にマージするステップは、
各前記第二原句に対して構文解析を行い、構文連語タグに基づいて前記第二原句における単語を連語にマージすること、を含むことを特徴とする請求項4に記載の文書要約の生成方法。 - 各連語対の間の注意力値は当該対の連語に含まれる複数対の単語間の注意力値の平均値であることを特徴とする請求項4に記載の文書要約の生成方法。
- 前記処理すべき文書から最初の連語を選択するステップは、
前記処理すべき文書の純テキストの見出しまたは第一文から名前付きエンティティを前記最初の連語として選択すること、を含むことを特徴とする請求項1に記載の文書要約の生成方法。 - 前記連語注意力表によって各前記最初の連語に対して拡張を行い、拡張された複数の連語候補集合を取得するステップは、
(a)各前記最初の連語に対して連語候補集合を構築するステップと、
(b)前記連語注意力表から前記連語候補集合における各連語と最高注意力値を有する連語を選択して、前記最高注意力値が所定閾値よりも大きい場合、前記最高注意力値に対応する連語を前記連語候補集合に追加するステップと、
(c)前記連語候補集合の長さが目標長さに達したか否かを判定し、前記連語候補集合の長さが目標長さに達した場合、ステップ(b)を実行せず、前記連語候補集合の長さが目標長さに達していない場合、続けてステップ(b)を実行するステップと、を含むことを特徴とする請求項1に記載の文書要約の生成方法。 - 各前記連語候補集合における連語を文に組み合わせて、前記処理すべき文書の要約を生成するステップは、
各前記連語候補集合における連語を可読性の有する文に組み合わせ、かつ各前記連語候補集合のオフセット量を計算して、前記連語候補集合のオフセット量の順に前記連語候補集合における文を前記処理すべき文書の要約として出力すること、を含み、
前記連語候補集合のオフセット量は、前記連語候補集合におけるすべての単語の平均オフセット量であることを特徴とする請求項1に記載の文書要約の生成方法。 - トレーニングデータにより学習を行うことで注意力行列を持つニューラルネットワークモデルを取得するトレーニングモジュールであって、前記トレーニングデータは少なくとも一組の第一原句及びそれに対応する要約を含み、前記第一原句はトレーニング文書における純テキスト文である、トレーニングモジュールと、
処理すべき文書の各第二原句を前記ニューラルネットワークモデルに入力して、各第二原句に対応する要約を取得する入力モジュールであって、前記第二原句は処理すべき文書における純テキスト文である、入力モジュールと、
前記処理すべき文書の各第二原句とそれに対応する要約との間の注意力行列に基づいて連語注意力表を作成する処理モジュールであって、前記連語注意力表には前記処理すべき文書における各第二原句の連語と対応する要約における連語との間の注意力値が含まれる、処理モジュールと、
前記処理すべき文書から最初の連語を選択して、前記連語注意力表によって各前記最初の連語に対して拡張を行い、拡張された複数の連語候補集合を取得して、各前記連語候補集合における連語を文に組み合わせて、前記処理すべき文書の要約を生成する生成モジュールと、を含むことを特徴とする文書要約の生成装置。 - プロセッサーと、
コンピュータプログラムコマンドを記憶するメモリと、を含み、
前記コンピュータプログラムコマンドが前記プロセッサーにより実行される時に、前記プロセッサーに、
トレーニングデータにより学習を行うことで注意力行列を持つニューラルネットワークモデルを取得するステップであって、前記トレーニングデータは少なくとも一組の第一原句及びそれに対応する要約を含み、前記第一原句はトレーニング文書における純テキスト文である、ステップと、
処理すべき文書の各第二原句を前記ニューラルネットワークモデルに入力して、各第二原句に対応する要約を取得するステップであって、前記第二原句は処理すべき文書における純テキスト文である、ステップと、
前記処理すべき文書の各第二原句とそれに対応する要約との間の注意力行列に基づいて連語注意力表を作成するステップであって、前記連語注意力表には前記処理すべき文書における各第二原句の連語と対応する要約における連語との間の注意力値が含まれる、ステップと、
前記処理すべき文書から最初の連語を選択して、前記連語注意力表によって各前記最初の連語に対して拡張を行い、拡張された複数の連語候補集合を取得して、各前記連語候補集合における連語を文に組み合わせて、前記処理すべき文書の要約を生成するステップと、を実行させることを特徴とする文書要約を生成する電子機器。 - コンピュータプログラムを記憶するコンピュータ読み取り可能な記録媒体であって、前記コンピュータプログラムがプロセッサーにより実行される時、前記プロセッサーに、
トレーニングデータにより学習を行うことで注意力行列を持つニューラルネットワークモデルを取得するステップであって、前記トレーニングデータは少なくとも一組の第一原句及びそれに対応する要約を含み、前記第一原句はトレーニング文書における純テキスト文である、ステップと、
処理すべき文書の各第二原句を前記ニューラルネットワークモデルに入力して、各第二原句に対応する要約を取得するステップであって、前記第二原句は処理すべき文書における純テキスト文である、ステップと、
前記処理すべき文書の各第二原句とそれに対応する要約との間の注意力行列に基づいて連語注意力表を作成するステップであって、前記連語注意力表には前記処理すべき文書における各第二原句の連語と対応する要約における連語との間の注意力値が含まれる、ステップと、
前記処理すべき文書から最初の連語を選択して、前記連語注意力表によって各前記最初の連語に対して拡張を行い、拡張された複数の連語候補集合を取得して、各前記連語候補集合における連語を文に組み合わせて、前記処理すべき文書の要約を生成するステップと、を実行させることを特徴とするコンピュータ読み取り可能な記録媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810151330.9 | 2018-02-08 | ||
CN201810151330.9A CN110134780B (zh) | 2018-02-08 | 2018-02-08 | 文档摘要的生成方法、装置、设备、计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019139772A true JP2019139772A (ja) | 2019-08-22 |
JP6693582B2 JP6693582B2 (ja) | 2020-05-13 |
Family
ID=67568154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019019459A Active JP6693582B2 (ja) | 2018-02-08 | 2019-02-06 | 文書要約の生成方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6693582B2 (ja) |
CN (1) | CN110134780B (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110705287A (zh) * | 2019-09-27 | 2020-01-17 | 北京妙笔智能科技有限公司 | 一种用于文本摘要的生成方法和系统 |
CN113111663A (zh) * | 2021-04-28 | 2021-07-13 | 东南大学 | 一种融合关键信息的摘要生成方法 |
CN113449079A (zh) * | 2021-06-25 | 2021-09-28 | 平安科技(深圳)有限公司 | 文本摘要生成方法、装置、电子设备及存储介质 |
CN113626581A (zh) * | 2020-05-07 | 2021-11-09 | 北京沃东天骏信息技术有限公司 | 摘要生成方法及装置、计算机可读存储介质、电子设备 |
CN113779232A (zh) * | 2020-06-12 | 2021-12-10 | 北京沃东天骏信息技术有限公司 | 物品摘要生成方法及装置、计算机存储介质、电子设备 |
CN114996441A (zh) * | 2022-04-27 | 2022-09-02 | 京东科技信息技术有限公司 | 文档处理方法、装置、电子设备和存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113157914B (zh) * | 2021-02-04 | 2022-06-14 | 福州大学 | 一种基于多层循环神经网络的文档摘要提取方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017509963A (ja) * | 2014-01-31 | 2017-04-06 | グーグル インコーポレイテッド | 文書のベクトル表現の生成 |
JP2018005218A (ja) * | 2016-07-07 | 2018-01-11 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 自動通訳方法及び装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050131931A1 (en) * | 2003-12-11 | 2005-06-16 | Sanyo Electric Co., Ltd. | Abstract generation method and program product |
CN104915335B (zh) * | 2015-06-12 | 2018-03-16 | 百度在线网络技术(北京)有限公司 | 为主题文档集生成摘要的方法和装置 |
CN107368613B (zh) * | 2017-09-05 | 2020-02-28 | 中国科学院自动化研究所 | 短文本情感分析方法及装置 |
-
2018
- 2018-02-08 CN CN201810151330.9A patent/CN110134780B/zh active Active
-
2019
- 2019-02-06 JP JP2019019459A patent/JP6693582B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017509963A (ja) * | 2014-01-31 | 2017-04-06 | グーグル インコーポレイテッド | 文書のベクトル表現の生成 |
JP2018005218A (ja) * | 2016-07-07 | 2018-01-11 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 自動通訳方法及び装置 |
Non-Patent Citations (6)
Title |
---|
吉岡 重紀、外1名: "生成型一文要約のためのマルチアテンションモデルの提案", 第8回データ工学と情報マネジメントに関するフォーラム (第14回日本データベース学会年次大会), JPN6018000595, 8 August 2016 (2016-08-08), JP, pages 1 - 7, ISSN: 0004183195 * |
大塚 淳史、外4名: "答えを先読みする文書検索手法の提案", 第9回データ工学と情報マネジメントに関するフォーラム (第15回日本データベース学会年次大会) [O, JPN6019050670, 6 July 2017 (2017-07-06), JP, pages 1 - 8, ISSN: 0004183194 * |
小平 知範、外1名: "TL;DR 3行要約に着目したニューラル文書要約", 電子情報通信学会技術研究報告, vol. 第117巻,第212号, JPN6019050667, 11 September 2017 (2017-09-11), JP, pages 193 - 198, ISSN: 0004183191 * |
瀧川 雅也、外2名: "線形化された構文情報を用いた生成型ニューラル文要約", 言語処理学会第23回年次大会 発表論文集 [ONLINE], JPN6019050669, 7 July 2017 (2017-07-07), JP, pages 1058 - 1061, ISSN: 0004183193 * |
菊池 悠太、他4名: "Encoder−Decoderモデルにおける出力長制御", 研究報告自然言語処理(NL)[ONLINE], vol. 2016−NL−227, JPN6018046753, 1 August 2016 (2016-08-01), JP, pages 1 - 9, ISSN: 0004183192 * |
黒橋 禎夫: "深層学習による自然言語処理の進展", シミュレーション, vol. 第36巻,第4号, JPN6019050666, 15 December 2017 (2017-12-15), JP, pages 13 - 18, ISSN: 0004183190 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110705287A (zh) * | 2019-09-27 | 2020-01-17 | 北京妙笔智能科技有限公司 | 一种用于文本摘要的生成方法和系统 |
CN110705287B (zh) * | 2019-09-27 | 2023-06-30 | 北京妙笔智能科技有限公司 | 一种用于文本摘要的生成方法和系统 |
CN113626581A (zh) * | 2020-05-07 | 2021-11-09 | 北京沃东天骏信息技术有限公司 | 摘要生成方法及装置、计算机可读存储介质、电子设备 |
CN113779232A (zh) * | 2020-06-12 | 2021-12-10 | 北京沃东天骏信息技术有限公司 | 物品摘要生成方法及装置、计算机存储介质、电子设备 |
CN113111663A (zh) * | 2021-04-28 | 2021-07-13 | 东南大学 | 一种融合关键信息的摘要生成方法 |
CN113449079A (zh) * | 2021-06-25 | 2021-09-28 | 平安科技(深圳)有限公司 | 文本摘要生成方法、装置、电子设备及存储介质 |
CN113449079B (zh) * | 2021-06-25 | 2022-10-04 | 平安科技(深圳)有限公司 | 文本摘要生成方法、装置、电子设备及存储介质 |
CN114996441A (zh) * | 2022-04-27 | 2022-09-02 | 京东科技信息技术有限公司 | 文档处理方法、装置、电子设备和存储介质 |
CN114996441B (zh) * | 2022-04-27 | 2024-01-12 | 京东科技信息技术有限公司 | 文档处理方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110134780A (zh) | 2019-08-16 |
CN110134780B (zh) | 2023-11-24 |
JP6693582B2 (ja) | 2020-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6693582B2 (ja) | 文書要約の生成方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体 | |
CN108287858B (zh) | 自然语言的语义提取方法及装置 | |
CN111666401B (zh) | 基于图结构的公文推荐方法、装置、计算机设备及介质 | |
WO2021134524A1 (zh) | 数据处理方法、装置、电子设备和存储介质 | |
WO2021017735A1 (zh) | 一种智能合约的形式化验证方法、电子装置及存储介质 | |
WO2022218186A1 (zh) | 个性化知识图谱的生成方法、装置及计算机设备 | |
CN111026319B (zh) | 一种智能文本处理方法、装置、电子设备及存储介质 | |
CN107690634B (zh) | 自动查询模式生成方法及系统 | |
WO2008022581A1 (fr) | Procédé et dispositif d'obtention de mots nouveaux et système et procédé de saisie | |
CN108319586B (zh) | 一种信息提取规则的生成和语义解析方法及装置 | |
CN112417155B (zh) | 基于指针-生成Seq2Seq模型的庭审询问生成方法、装置、介质 | |
CN109948154B (zh) | 一种基于邮箱名的人物获取及关系推荐系统和方法 | |
CN111026320A (zh) | 多模态智能文本处理方法、装置、电子设备及存储介质 | |
JP2020095653A (ja) | 作成支援装置および作成支援方法 | |
CN118296120A (zh) | 多模态多尺度多路召回的大型语言模型检索增强生成方法 | |
JP2019040260A (ja) | 情報処理装置及びプログラム | |
CN111968624B (zh) | 数据构建方法、装置、电子设备及存储介质 | |
CN114596859A (zh) | 会议语音转写方法、系统、设备及存储介质 | |
CN114141384A (zh) | 用于检索医学数据的方法、设备和介质 | |
JP6457058B1 (ja) | 知的財産システム、知的財産支援方法および知的財産支援プログラム | |
JP6095487B2 (ja) | 質問応答装置、及び質問応答方法 | |
WO2020211397A1 (zh) | 课件页面的显示及页面集的构造方法、装置、设备和介质 | |
JP2019101889A (ja) | テスト実行装置及びプログラム | |
CN110895924B (zh) | 一种文档内容朗读方法、装置、电子设备及可读存储介质 | |
CN116702747A (zh) | Pdf在线阅读器设计方法、装置、计算机设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200317 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200330 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6693582 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |