JP2021099798A - 構造化処理方法、装置、コンピュータ機器及び媒体 - Google Patents
構造化処理方法、装置、コンピュータ機器及び媒体 Download PDFInfo
- Publication number
- JP2021099798A JP2021099798A JP2020203999A JP2020203999A JP2021099798A JP 2021099798 A JP2021099798 A JP 2021099798A JP 2020203999 A JP2020203999 A JP 2020203999A JP 2020203999 A JP2020203999 A JP 2020203999A JP 2021099798 A JP2021099798 A JP 2021099798A
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- text
- output sequence
- encoder
- structured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 69
- 238000003672 processing method Methods 0.000 claims description 41
- 239000013598 vector Substances 0.000 claims description 40
- 238000012545 processing Methods 0.000 claims description 31
- 230000015654 memory Effects 0.000 claims description 17
- 238000013507 mapping Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 abstract description 5
- 238000003058 natural language processing Methods 0.000 abstract description 4
- 230000010365 information processing Effects 0.000 abstract description 2
- 206010028980 Neoplasm Diseases 0.000 description 28
- 238000000605 extraction Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000002496 gastric effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 210000002784 stomach Anatomy 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 208000005718 Stomach Neoplasms Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 206010017758 gastric cancer Diseases 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 201000011549 stomach cancer Diseases 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/313—Selection or weighting of terms for indexing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Machine Translation (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Document Processing Apparatus (AREA)
Abstract
Description
ステップ101において、非構造化テキストを取得する。
Object Notation、JSONと略称する)、別のマークアップ言語(YAML Ain’t Markup Language、YAMLと略称する)などである。
ステップ201において、非構造化テキストをワード分割し、複数のワード要素を取得する。
ステップ301において、複数のトレーニングテキストを取得する。
ステップ401において、データ交換フォーマットの出力シーケンスから、同じオブジェクトに属する属性要素を抽出する。
テキスト取得モジュールは、複数のトレーニングテキストを取得するものであり、各トレーニングテキストは、対応する一つのデータ交換フォーマットのマーク情報を有し、マーク情報は、トレーニングテキストに記述されたエンティティに対応する少なくとも一つのオブジェクトを含み、各オブジェクトは、対応するエンティティの各属性を記述するための属性値を含み、同じオブジェクト内の各属性の属性値間の順序は、出力シーケンス内の対応する属性の属性要素の順序と同じである。
Claims (15)
- 非構造化テキストを取得するステップと、
前記非構造化テキストをエンコーダ・デコーダモデルに入力して、出力シーケンスを取得するステップであって、前記出力シーケンスには、複数の属性要素が含まれ、各属性要素が、設定された一つの属性に対応し、各属性要素には、対応する属性の属性値が含まれ、前記エンコーダ・デコーダモデルは、各属性を設定する属性値がマークされたトレーニングテキストを採用してトレーニングして取得されたものであるステップと、
前記出力シーケンスにおける各属性要素に対応する属性及び対応する属性要素に含まれる属性値に基づいて、構造化表現を生成するステップと、
を含む構造化処理方法。 - 前記エンコーダ・デコーダモデルが、エンコーダとデコーダとを備え、
前記非構造化テキストをエンコーダ・デコーダモデルに入力して、出力シーケンスを取得するステップが、
前記非構造化テキストをワード分割して、複数のワード要素を取得するステップと、
前記複数のワード要素を順番に並べて、入力シーケンスを取得するステップと、
前記入力シーケンス内の複数のワード要素を前記エンコーダに入力して、意味エンコードを行い、対応するワード要素の暗黙的状態ベクトルを取得するステップであって、前記暗黙的状態ベクトルは、対応するワード要素及びその文脈の意味を示すためのものであるステップと、
前記デコーダを採用して、各暗黙的状態ベクトルをデコードして、前記出力シーケンスにおける各属性値を取得するステップであって、前記デコーダは、既に、各属性値に対する各暗黙的状態ベクトルのアテンション重み、及び前記アテンション重みに基づいて重み付けされた暗黙的状態ベクトルと対応する属性値との間のマッピング関係を学習して取得したものであるステップと、
を含む請求項1に記載の構造化処理方法。 - 前記出力シーケンスはデータ交換フォーマットであり、前記データ交換フォーマットの出力シーケンスには、少なくとも一つのオブジェクトが含まれ、各オブジェクトが前記複数の属性要素を含み、
前記非構造化テキストをエンコーダ・デコーダモデルに入力して、出力シーケンスを取得する前に、
複数のトレーニングテキストを取得するステップであって、各前記トレーニングテキストは、対応する一つのデータ交換フォーマットのマーク情報を有し、前記マーク情報は、トレーニングテキストに記述されているエンティティに対応する少なくとも一つのオブジェクトを含み、各オブジェクトは、対応するエンティティの各属性を記述するための属性値を含み、同じオブジェクト内の各属性の属性値間の順序は、前記出力シーケンス内の対応する属性の属性要素の順序と同じであるステップと、
前記エンコーダ・デコーダモデルの出力シーケンスと対応するマーク情報との間の誤差が最小化されるように、前記複数のトレーニングテキストを採用して前記エンコーダ・デコーダモデルをトレーニングするステップと、
を含む請求項1に記載の構造化処理方法。 - 前記出力シーケンスにおける各属性要素に対応する属性及び対応する属性要素に含まれる属性値に基づいて、構造化表現を生成するステップが、
前記データ交換フォーマットの出力シーケンスから、同じオブジェクトに属する属性要素を抽出するステップと、
各オブジェクトに対して、抽出された属性要素に含まれる各属性の属性値に基づいて、対応するオブジェクトの構造化表現を生成するステップと、
各オブジェクトの構造化表現に基づいて、前記非構造化テキストの構造化表現を生成するステップと、
を含む請求項3に記載の構造化処理方法。 - 各属性の属性値は、テキスト位置と実際のテキストとのうちの一つのタイプであり、前記タイプが、対応する属性の値の範囲に基づいて決定され、値の範囲が制限されている場合、対応する属性値は実際のテキストであり、値の範囲が制限されていない場合、対応する属性値はテキスト位置であり、
前記構造化表現を生成する前に、
各属性要素に対して、含まれる属性値がテキスト位置である場合、対応する属性値を前記非構造化テキスト内の前記テキスト位置におけるワード要素に更新するステップを含む請求項3に記載の構造化処理方法。 - 前記複数のワード要素を順番に並べて、入力シーケンスを取得するステップが、
前記複数のワード要素をエンティティ認識モデルにそれぞれ入力して、各ワード要素のエンティティタグを取得するステップと、
各ワード要素を対応するエンティティタグとスプライスして、前記入力シーケンス内の一つの要素とするステップと、
を含む請求項2に記載の構造化処理方法。 - 非構造化テキストを取得するための取得モジュールと、
前記非構造化テキストをエンコーダ・デコーダモデルに入力して、出力シーケンスを取得するための処理モジュールであって、前記出力シーケンスには、複数の属性要素が含まれ、各属性要素は、設定された一つの属性に対応し、各属性要素には、対応する属性の属性値が含まれ、前記エンコーダ・デコーダモデルは、各属性を設定する属性値がマークされたトレーニングテキストを採用してトレーニングして取得されたものである処理モジュールと、
前記出力シーケンスにおける各属性要素に対応する属性及び対応する属性要素に含まれる属性値に基づいて、構造化表現を生成するための生成モジュールと、
を備える構造化処理装置。 - 前記エンコーダ・デコーダモデルが、エンコーダとデコーダとを備え、
前記処理モジュールが、
前記非構造化テキストをワード分割して、複数のワード要素を取得し、
前記複数のワード要素を順番に並べて、入力シーケンスを取得し、
前記入力シーケンス内の複数のワード要素を前記エンコーダに入力して、意味エンコードを行い、対応するワード要素の暗黙的状態ベクトルを取得し、前記暗黙的状態ベクトルは、対応するワード要素及びその文脈の意味を示すためのものであり、
前記デコーダを採用して、各暗黙的状態ベクトルをデコードして、前記出力シーケンスにおける各属性値を取得し、前記デコーダは、既に、各属性値に対する各暗黙的状態ベクトルのアテンション重み、及び前記アテンション重みに基づいて重み付けされた暗黙的状態ベクトルと対応する属性値との間のマッピング関係を学習して取得したものである請求項7に記載の構造化処理装置。 - 前記出力シーケンスはデータ交換フォーマットであり、前記データ交換フォーマットの出力シーケンスには、少なくとも一つのオブジェクトが含まれ、各オブジェクトが前記複数の属性要素を含み、
前記装置が、
複数のトレーニングテキストを取得するためのテキスト取得モジュールであって、各前記トレーニングテキストは、対応する一つのデータ交換フォーマットのマーク情報を有し、前記マーク情報は、トレーニングテキストに記述されているエンティティに対応する少なくとも一つのオブジェクトを含み、各オブジェクトは、対応するエンティティの各属性を記述するための属性値を含み、同じオブジェクト内の各属性の属性値間の順序は、前記出力シーケンス内の対応する属性の属性要素の順序と同じであるテキスト取得モジュールと、
前記エンコーダ・デコーダモデルの出力シーケンスと対応するマーク情報との間の誤差が最小化されるように、前記複数のトレーニングテキストを採用して前記エンコーダ・デコーダモデルをトレーニングするためのトレーニングモジュールと、
を含む請求項7に記載の構造化処理装置。 - 前記生成モジュールが、
前記データ交換フォーマットの出力シーケンスから、同じオブジェクトに属する属性要素を抽出し、
各オブジェクトに対して、抽出された属性要素に含まれる各属性の属性値に基づいて、対応するオブジェクトの構造化表現を生成し、
各オブジェクトの構造化表現に基づいて、前記非構造化テキストの構造化表現を生成する請求項9に記載の構造化処理装置。 - 各属性の属性値は、テキスト位置と実際のテキストとのうちの一つのタイプであり、前記タイプが、対応する属性の値の範囲に基づいて決定され、値の範囲が制限されている場合、対応する属性値は実際のテキストであり、値の範囲が制限されていない場合、対応する属性値はテキスト位置であり、
前記装置が、
各属性要素に対して、含まれる属性値がテキスト位置である場合、対応する属性値を前記非構造化テキスト内の前記テキスト位置におけるワード要素に更新するための更新モジュールを備える請求項9に記載の構造化処理装置。 - 前記処理モジュールが、
前記複数のワード要素をエンティティ認識モデルにそれぞれ入力して、各ワード要素のエンティティタグを取得し、
各ワード要素を対応するエンティティタグとスプライスして、前記入力シーケンス内の一つの要素とする請求項8に記載の構造化処理装置。 - 少なくとも一つのプロセッサと、
該少なくとも一つのプロセッサと通信可能に接続されるメモリと、
を備え、
前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも一つのプロセッサによって実行される場合、前記少なくとも一つのプロセッサが、請求項1から6のいずれか一項に記載の構造化処理方法を実行するコンピュータ機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令が、コンピュータに請求項1から6のいずれか一項に記載の構造化処理方法を実行させる非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータに請求項1から6のいずれかに記載の構造化処理方法を実行させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911324544.2A CN111078825A (zh) | 2019-12-20 | 2019-12-20 | 结构化处理方法、装置、计算机设备及介质 |
CN201911324544.2 | 2019-12-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021099798A true JP2021099798A (ja) | 2021-07-01 |
Family
ID=70316175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020203999A Pending JP2021099798A (ja) | 2019-12-20 | 2020-12-09 | 構造化処理方法、装置、コンピュータ機器及び媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11615242B2 (ja) |
JP (1) | JP2021099798A (ja) |
CN (1) | CN111078825A (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221563B (zh) * | 2021-04-20 | 2024-04-16 | 支付宝(杭州)信息技术有限公司 | 一种pdf文档的标注方法、装置以及设备 |
CN113343637A (zh) * | 2021-06-02 | 2021-09-03 | 中国工商银行股份有限公司 | 非结构化文本的处理方法、装置、电子设备及介质 |
CN113609244B (zh) * | 2021-06-08 | 2023-09-05 | 中国科学院软件研究所 | 一种基于可控生成的结构化记录抽取方法和装置 |
CN113990473B (zh) * | 2021-10-28 | 2022-09-30 | 上海昆亚医疗器械股份有限公司 | 一种医疗设备运维信息收集分析系统及其使用方法 |
CN114091446A (zh) * | 2021-11-24 | 2022-02-25 | 北京有竹居网络技术有限公司 | 生成文本的方法和装置 |
CN114510928B (zh) * | 2022-01-12 | 2022-09-23 | 中国科学院软件研究所 | 一种基于统一结构生成的通用信息抽取方法及系统 |
CN116245078B (zh) * | 2022-11-30 | 2024-06-28 | 荣耀终端有限公司 | 一种结构化信息提取方法和电子设备 |
CN118248147B (zh) * | 2024-05-21 | 2024-08-20 | 长春大学 | 基于自监督学习的视听语音识别方法、设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105022733A (zh) * | 2014-04-18 | 2015-11-04 | 中科鼎富(北京)科技发展有限公司 | Dinfo-oec文本分析挖掘方法与设备 |
CN107943860A (zh) * | 2017-11-08 | 2018-04-20 | 北京奇艺世纪科技有限公司 | 模型的训练方法、文本意图的识别方法及装置 |
US20180341860A1 (en) * | 2017-05-23 | 2018-11-29 | Google Llc | Attention-based sequence transduction neural networks |
CN109800411A (zh) * | 2018-12-03 | 2019-05-24 | 哈尔滨工业大学(深圳) | 临床医疗实体及其属性抽取方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10599924B2 (en) * | 2017-07-21 | 2020-03-24 | Adobe Inc. | Semantic page segmentation of vector graphics documents |
EP3474201A1 (en) * | 2017-10-17 | 2019-04-24 | Tata Consultancy Services Limited | System and method for quality evaluation of collaborative text inputs |
KR102035796B1 (ko) * | 2018-07-26 | 2019-10-24 | 주식회사 딥핑소스 | 데이터를 비식별 처리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
CN110362823B (zh) * | 2019-06-21 | 2023-07-28 | 北京百度网讯科技有限公司 | 描述文本生成模型的训练方法和装置 |
-
2019
- 2019-12-20 CN CN201911324544.2A patent/CN111078825A/zh active Pending
-
2020
- 2020-07-28 US US16/940,703 patent/US11615242B2/en active Active
- 2020-12-09 JP JP2020203999A patent/JP2021099798A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105022733A (zh) * | 2014-04-18 | 2015-11-04 | 中科鼎富(北京)科技发展有限公司 | Dinfo-oec文本分析挖掘方法与设备 |
US20180341860A1 (en) * | 2017-05-23 | 2018-11-29 | Google Llc | Attention-based sequence transduction neural networks |
CN107943860A (zh) * | 2017-11-08 | 2018-04-20 | 北京奇艺世纪科技有限公司 | 模型的训练方法、文本意图的识别方法及装置 |
CN109800411A (zh) * | 2018-12-03 | 2019-05-24 | 哈尔滨工业大学(深圳) | 临床医疗实体及其属性抽取方法 |
Non-Patent Citations (1)
Title |
---|
澤井 裕一郎 外2名: "遷移型句構造解析に基づく論文PDF中の数式XML解析", 情報処理学会 研究報告 音声言語情報処理(SLP) 2017−SLP−116 [ONLINE], JPN6021052695, 8 May 2017 (2017-05-08), JP, pages 1 - 8, ISSN: 0004998486 * |
Also Published As
Publication number | Publication date |
---|---|
CN111078825A (zh) | 2020-04-28 |
US20210191937A1 (en) | 2021-06-24 |
US11615242B2 (en) | 2023-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021099798A (ja) | 構造化処理方法、装置、コンピュータ機器及び媒体 | |
JP7317791B2 (ja) | エンティティ・リンキング方法、装置、機器、及び記憶媒体 | |
US11403468B2 (en) | Method and apparatus for generating vector representation of text, and related computer device | |
US20210397947A1 (en) | Method and apparatus for generating model for representing heterogeneous graph node | |
US11036937B2 (en) | Contraction aware parsing system for domain-specific languages | |
KR102694584B1 (ko) | 이벤트 추출 방법, 이벤트 추출 장치 및 전자 기기 | |
JP7178441B2 (ja) | 要約生成方法、装置、プログラム、電子デバイス及び記憶媒体 | |
JP2021111420A (ja) | テキストエンティティの語義記述処理方法、装置及び機器 | |
KR20210157342A (ko) | 언어 모델의 훈련 방법, 장치, 전자 기기 및 판독 가능 기록 매체 | |
JP2022039973A (ja) | 品質を管理するための方法及び装置、電子機器、記憶媒体、並びに、コンピュータプログラム | |
KR102561951B1 (ko) | 모델링 매개 변수의 설정 방법, 장치, 전자 기기 및 기록 매체 | |
CN110532487B (zh) | 标签的生成方法及装置 | |
JP7286737B2 (ja) | テキスト誤り訂正方法、装置、電子デバイス、記憶媒体及びプログラム | |
CN111241838B (zh) | 文本实体的语义关系处理方法、装置及设备 | |
CN112507101A (zh) | 一种建立预训练语言模型的方法和装置 | |
KR20210036875A (ko) | 사전훈련된 시맨틱 모델에 기반하는 모델 개량 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
JP2022106980A (ja) | クエリ文の生成方法、装置、電子機器及び記憶媒体 | |
KR102531507B1 (ko) | 정보 출력 방법, 장치, 기기 및 저장 매체 | |
CN112329429B (zh) | 文本相似度学习方法、装置、设备以及存储介质 | |
US9940320B2 (en) | Plugin tool for collecting user generated document segmentation feedback | |
JP7146986B2 (ja) | 情報抽出方法、情報抽出装置及び電子機器 | |
CN117015781A (zh) | 从图形用户界面生成自然语言界面 | |
CN111859981B (zh) | 语言模型获取及中文语义理解方法、装置及存储介质 | |
Helal | Web Application for Finnish and English Language Learning | |
Anfaresi et al. | Developing Multi Translation Chat Application Using Django Frameworks and M2m100 Model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220323 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221207 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221207 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221215 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221220 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230303 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20230307 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230411 |