JP7112537B2 - 情報処理方法及び装置、電子機器、コンピュータ可読記憶媒体並びにプログラム - Google Patents
情報処理方法及び装置、電子機器、コンピュータ可読記憶媒体並びにプログラム Download PDFInfo
- Publication number
- JP7112537B2 JP7112537B2 JP2021003862A JP2021003862A JP7112537B2 JP 7112537 B2 JP7112537 B2 JP 7112537B2 JP 2021003862 A JP2021003862 A JP 2021003862A JP 2021003862 A JP2021003862 A JP 2021003862A JP 7112537 B2 JP7112537 B2 JP 7112537B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- attribute
- paragraph
- word string
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Machine Translation (AREA)
Description
従来技術では、処理すべきテキスト情報がテーブルに存在すれば、ヘッダ及び行列情報等により、指定情報を特定することができる。テキスト情報が段落に表示される場合には、テキストを処理するために自然言語処理モデルを用いることが一般的である。トレーニングモデルは手動でテキストをマークするために多くの人手を必要とし、サンプルの生成が困難であり、一般的に一つのトレーニング済みモデルを取得する難易度が大きい。
処理ユニットは、エンコーダ及びデコーダを含み、複数のカスケード接続される事前設定処理層において、上位の事前設定処理層における各処理ユニットの結果は、下位の事前設定処理層における各処理ユニットに入力される。
テキストにおける2つの段落を単語分割して得られた、単語を置き換えるための少なくとも1つの指定された識別子が含まれる単語列を取得するステップと、単語列をトレーニング対象の自然言語処理モデルに入力し、単語列における単語に対応する、単語列における単語及び単語の位置を示すための単語ベクトルを生成するステップと、単語ベクトルをトレーニング対象の自然言語処理モデルにおける、エンコーダ及びデコーダを含む事前設定処理層に入力するステップと、事前設定処理層から出力された処理結果に基づいて、2つの段落が隣接するか否か、及び2つの段落における置き換えられる単語を予測して、予測結果を得るステップと、2つの段落の参照情報を取得し、予測結果及び参照情報に基づいて、トレーニング対象の自然言語処理モデルをトレーニングし、トレーニング済み自然言語処理モデルを取得するステップであって、上記参照情報は2つの段落が隣接するか否かを示す隣接情報及び置き換えられる単語を含む、ステップと、を該装置に実行させる。
Claims (18)
- サーバ又は端末装置により実行される情報処理方法であって、
テキストにおける2つの段落を単語分割して得られた、単語を置き換えるための少なくとも1つの指定された識別子が含まれる単語列を取得するステップと、
前記単語列をトレーニング対象の自然言語処理モデルに入力し、前記単語列における単語に対応する、単語列における単語及び単語の位置を示すための単語ベクトルを生成するステップと、
前記単語ベクトルを前記トレーニング対象の自然言語処理モデルにおける、エンコーダ及びデコーダを含む事前設定処理層に入力するステップと、
前記事前設定処理層から出力された処理結果に基づいて、前記2つの段落が隣接するか否か、及び前記2つの段落における置き換えられる単語を予測して、予測結果を得るステップと、
前記2つの段落の参照情報を取得し、前記予測結果及び前記参照情報に基づいて、前記トレーニング対象の自然言語処理モデルをトレーニングし、トレーニング済み自然言語処理モデルを取得するステップであって、前記参照情報は前記2つの段落が隣接するか否かを示す隣接情報及び置き換えられる単語を含む、ステップと、を含む情報処理方法。 - 前記方法は、
第1の対象段落を単語分割して得られた第1の段落単語列及び第1の特定属性を含む第1のサンプル情報を取得するステップと、
前記第1のサンプル情報を前記トレーニング済み自然言語処理モデルに入力し、前記第1の段落単語列と前記第1の特定属性との間の相関度を示すための相関度情報を予測するステップと、
予測された相関度情報、及び前記第1のサンプル情報にマーク付けされた相関度情報に基づいて、前記トレーニング済み自然言語処理モデルをトレーニングし、第1のモデルを得るステップと、をさらに含む請求項1に記載の方法。 - 前記方法は、
第2のサンプル情報を取得するステップであって、前記第2のサンプル情報は、第2の対象段落を単語分割して得られた第2の段落単語列、及び第2の特定属性を含み、前記第2の段落単語列に前記第2の特定属性とマッチングする属性が存在し、前記マッチングは完全に一致すること及び/又は部分的に一致することを含む、ステップと、
前記第2のサンプル情報を前記トレーニング済み自然言語処理モデルに入力し、前記第2の段落単語列から、前記第2の特定属性の属性値を予測するステップと、
予測された属性値、及び前記マッチングされた属性にマーク付けされた属性値に基づいて、前記トレーニング済み自然言語処理モデルをトレーニングし、第2のモデルを得るステップと、をさらに含む請求項2に記載の方法。 - 前記第2の段落単語列から、前記第2の特定属性の属性値を予測するステップは、
前記第2の特定属性の属性値の、前記第2の段落単語列における開始位置情報及び終了位置情報を含む位置情報を予測することを含む、請求項3に記載の方法。 - 前記方法は、
対象テキストを単語分割して得られたテキスト単語列を取得し、前記テキスト単語列を複数の段落単語列に分割するステップと、
前記複数の段落単語列から、目標属性に関連する段落単語列を確定するステップと、
前記目標属性と確定された段落単語列を前記第1のモデルに入力し、前記目標属性と確定された各段落単語列との、相関値を含む相関度情報を予測するステップと、
相関値が大きい順に、前記複数の段落単語列から、所定数の段落単語列を選択するステップと、
前記目標属性及び前記所定数の段落単語列を前記第2のモデルに入力し、前記所定数の段落単語列から、前記目標属性の属性値、及び前記目標属性の属性値の信頼度を予測するステップと、
前記相関値と前記信頼度とに基づいて、予測された前記目標属性の属性値から、前記目標属性の属性値を確定するステップと、をさらに含む、請求項3に記載の方法。 - 前記相関値と前記信頼度とに基づいて、予測された前記目標属性の属性値から、前記目標属性の属性値を確定するステップは、
予測された前記目標属性の属性値のそれぞれについて、該属性値が位置する段落単語列と前記目標属性の相関値と、該属性値の信頼度との積を確定することと、
予測された前記目標属性の属性値のうち、対応する積が最も大きい属性値を前記目標属性の属性値として確定することと、を含む、請求項5に記載の方法。 - 前記複数の段落単語列から、前記目標属性に関連する段落単語列を確定するステップは、
前記複数の段落単語列のそれぞれについて、該段落単語列の中に前記目標属性とマッチングする単語が存在するか否かを判定することと、
存在すると判定された場合、該段落単語列を前記目標属性に関連する段落単語列として確定することとを含む、請求項5に記載の方法。 - 前記単語列をトレーニング対象の自然言語処理モデルに入力し、前記単語列における単語に対応する単語ベクトルを生成するステップは、
前記単語列をトレーニング対象の自然言語処理モデルにおける埋め込み層に入力することと、
前記単語列における単語に対して、前記埋め込み層を介して、該単語を単語の識別子に変換し、前記単語の識別子を第1のベクトルに変換することと、
前記埋め込み層を介して、該単語の前記単語列における位置情報を、第2のベクトルに変換することと、
前記埋め込み層を介して、該単語の前記2つのうちの所在段落を示す段落位置情報を確定し、前記段落位置情報を第3のベクトルに変換することと、
前記第1のベクトル、前記第2のベクトル及び前記第3のベクトルを接続して、該単語に対応する単語ベクトルを得ることと、を含む、請求項1に記載の方法。 - 前記事前設定処理層は複数のカスケード接続される事前設定処理層を含み、
前記単語ベクトルを前記トレーニング対象の自然言語処理モデルにおける事前設定処理層に入力するステップは、
前記単語ベクトルを前記複数のカスケード接続される事前設定処理層における第1位の事前設定処理層に入力することを含む、請求項1に記載の方法。 - 前記事前設定処理層は複数の処理ユニットを含み、
前記処理ユニットは、前記エンコーダ及び前記デコーダを含み、
複数のカスケード接続される事前設定処理層において、上位の事前設定処理層における各処理ユニットの結果は、下位の事前設定処理層における各処理ユニットに入力される、請求項1に記載の方法。 - テキストにおける2つの段落を単語分割して得られた、単語を置き換えるための少なくとも1つの指定された識別子が含まれる単語列を取得するように構成される第1の取得ユニットと、
前記単語列をトレーニング対象の自然言語処理モデルに入力し、前記単語列における単語に対応する、単語列における単語及び単語の位置を示すための単語ベクトルを生成するように構成される生成ユニットと、
前記単語ベクトルを前記トレーニング対象の自然言語処理モデルにおける、エンコーダ及びデコーダを含む事前設定処理層に入力するように構成される入力ユニットと、
前記事前設定処理層から出力された処理結果に基づいて、前記2つの段落が隣接するか否か、及び前記2つの段落における置き換えられる単語を予測して、予測結果を得るように構成される予測ユニットと、
前記2つの段落の参照情報を取得し、前記予測結果及び前記参照情報に基づいて、前記トレーニング対象の自然言語処理モデルをトレーニングし、トレーニング済み自然言語処理モデルを取得するように構成される第1のトレーニングユニットであって、前記参照情報は前記2つの段落が隣接するか否かを示す隣接情報及び置き換えられる単語を含む、第1のトレーニングユニットと、を含む情報処理装置。 - 前記装置は、
第1の対象段落を単語分割して得られた第1の段落単語列及び第1の特定属性を含む第1のサンプル情報を取得するように構成される第2の取得ユニットと、
前記第1のサンプル情報を前記トレーニング済み自然言語処理モデルに入力し、前記第1の段落単語列と前記第1の特定属性との間の相関度を示すための相関度情報を予測するように構成される情報予測ユニットと、
予測された相関度情報、及び前記第1のサンプル情報にマーク付けされた相関度情報に基づいて、前記トレーニング済み自然言語処理モデルをトレーニングし、第1のモデルを得るように構成される第2のトレーニングユニットと、をさらに含む請求項11に記載の装置。 - 前記装置は、
第2のサンプル情報を取得するように構成される第3の取得ユニットであって、前記第2のサンプル情報は、第2の対象段落を単語分割して得られた第2の段落単語列、及び第2の特定属性を含み、前記第2の段落単語列に前記第2の特定属性とマッチングする属性が存在し、前記マッチングは完全に一致すること及び/又は部分的に一致することを含む、第3の取得ユニットと、
前記第2のサンプル情報を前記トレーニング済み自然言語処理モデルに入力し、前記第2の段落単語列から、前記第2の特定属性の属性値を予測するように構成される値予測ユニットと、
予測された属性値、及び前記マッチングされた属性にマーク付けされた属性値に基づいて、前記トレーニング済み自然言語処理モデルをトレーニングし、第2のモデルを得るように構成される第3のトレーニングユニットと、をさらに含む請求項12に記載の装置。 - 前記装置は、
対象テキストを単語分割して得られたテキスト単語列を取得し、前記テキスト単語列を複数の段落単語列に分割するように構成される分割ユニットと、
前記複数の段落単語列から、目標属性に関連する段落単語列を確定するように構成される確定ユニットと、
前記目標属性と確定された段落単語列を前記第1のモデルに入力し、前記目標属性と確定された各段落単語列との、相関値を含む相関度情報を予測するように構成される相関度予測ユニットと、
相関値が大きい順に、前記複数の段落単語列から、所定数の段落単語列を選択するように構成される選択ユニットと、
前記目標属性及び前記所定数の段落単語列を前記第2のモデルに入力し、前記所定数の段落単語列から、前記目標属性の属性値、及び前記目標属性の属性値の信頼度を予測するように構成される属性値予測ユニットと、
前記相関値と前記信頼度とに基づいて、予測された前記目標属性の属性値から、前記目標属性の属性値を確定するように構成される値確定ユニットと、をさらに含む請求項13に記載の装置。 - 前記値確定ユニットは、さらに
前記相関値と前記信頼度とに基づいて、予測された前記目標属性の属性値から、前記目標属性の属性値を確定するステップを実行するように構成され、該ステップは、
予測された前記目標属性の属性値のそれぞれについて、該属性値が位置する段落単語列と前記目標属性の相関値と、該属性値の信頼度との積を確定することと、
予測された前記目標属性の属性値のうち、対応する積が最も大きい属性値を前記目標属性の属性値として確定することと、を含む請求項14に記載の装置。 - 電子機器であって、
1つまたは複数のプロセッサと、
1つ以上のプログラムを格納するための記憶デバイスと、を備える電子機器であって、
前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに請求項1~10のいずれか一項に記載の方法を実現させる、電子機器。 - コンピュータプログラムが記憶されるコンピュータ可読記憶媒体であって、
該コンピュータプログラムがプロセッサによって実行されると、請求項1~10のいずれか一項に記載の方法を実現する、コンピュータ可読記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサにより実行されると、請求項1~10のいずれか一項に記載の方法を実現する、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010034773.7A CN111259663B (zh) | 2020-01-14 | 2020-01-14 | 信息处理方法和装置 |
CN202010034773.7 | 2020-01-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021111414A JP2021111414A (ja) | 2021-08-02 |
JP7112537B2 true JP7112537B2 (ja) | 2022-08-03 |
Family
ID=70945282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021003862A Active JP7112537B2 (ja) | 2020-01-14 | 2021-01-14 | 情報処理方法及び装置、電子機器、コンピュータ可読記憶媒体並びにプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11775776B2 (ja) |
EP (1) | EP3851999A1 (ja) |
JP (1) | JP7112537B2 (ja) |
KR (1) | KR102573518B1 (ja) |
CN (1) | CN111259663B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783443B (zh) * | 2020-06-29 | 2023-08-15 | 百度在线网络技术(北京)有限公司 | 文本扰动检测方法、扰动还原方法、扰动处理方法和装置 |
CN112216359B (zh) * | 2020-09-29 | 2024-03-26 | 百度国际科技(深圳)有限公司 | 医疗数据校验方法、装置及电子设备 |
CN113821652A (zh) * | 2021-01-21 | 2021-12-21 | 北京沃东天骏信息技术有限公司 | 模型数据处理方法、装置、电子设备以及计算机可读介质 |
CN113159921B (zh) * | 2021-04-23 | 2024-10-25 | 上海晓途网络科技有限公司 | 一种逾期预测方法、装置、电子设备及存储介质 |
CN113673255B (zh) * | 2021-08-25 | 2023-06-30 | 北京市律典通科技有限公司 | 文本功能区域拆分方法、装置、计算机设备及存储介质 |
CN113722436A (zh) * | 2021-08-30 | 2021-11-30 | 平安科技(深圳)有限公司 | 文本信息提取方法、装置、计算机设备及存储介质 |
WO2023114412A1 (en) * | 2021-12-16 | 2023-06-22 | Flatiron Health, Inc. | Systems and methods for model-assisted data processing to predict biomarker status and testing dates |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017076281A (ja) | 2015-10-15 | 2017-04-20 | 日本電信電話株式会社 | 単語埋込学習装置、テキスト評価装置、方法、及びプログラム |
CN110427609A (zh) | 2019-06-25 | 2019-11-08 | 首都师范大学 | 一种写人作文篇章结构合理性自动评测方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050278623A1 (en) * | 2004-05-17 | 2005-12-15 | Dehlinger Peter J | Code, system, and method for generating documents |
CN108256539A (zh) * | 2016-12-28 | 2018-07-06 | 北京智能管家科技有限公司 | 基于语义匹配的人机交互方法、交互系统及智能故事机 |
CN107766337A (zh) * | 2017-09-25 | 2018-03-06 | 沈阳航空航天大学 | 基于深度语义关联的译文预测方法 |
US10453454B2 (en) * | 2017-10-26 | 2019-10-22 | Hitachi, Ltd. | Dialog system with self-learning natural language understanding |
CN108959260B (zh) * | 2018-07-06 | 2019-05-28 | 北京邮电大学 | 一种基于文本化词向量的中文语法错误检测方法 |
CN110851573A (zh) * | 2018-07-27 | 2020-02-28 | 北京京东尚科信息技术有限公司 | 语句处理方法、系统和电子设备 |
KR102260646B1 (ko) | 2018-10-10 | 2021-06-07 | 고려대학교 산학협력단 | 자연어 처리 시스템 및 자연어 처리에서의 단어 표현 방법 |
CN109543039B (zh) * | 2018-11-23 | 2022-04-08 | 中山大学 | 一种基于深度网络的自然语言情感分析方法 |
CN109697291B (zh) * | 2018-12-29 | 2023-04-18 | 北京百度网讯科技有限公司 | 文本的语义段落识别方法和装置 |
CN109815333B (zh) * | 2019-01-14 | 2021-05-28 | 金蝶软件(中国)有限公司 | 信息获取方法、装置、计算机设备和存储介质 |
CN110390023A (zh) * | 2019-07-02 | 2019-10-29 | 安徽继远软件有限公司 | 一种基于改进bert模型的知识图谱构建方法 |
CN110427614B (zh) * | 2019-07-16 | 2023-08-08 | 深圳追一科技有限公司 | 段落层级的构建方法、装置、电子设备及存储介质 |
CN112307769B (zh) * | 2019-07-29 | 2024-03-15 | 武汉Tcl集团工业研究院有限公司 | 一种自然语言模型的生成方法和计算机设备 |
CN110489555B (zh) * | 2019-08-21 | 2022-03-08 | 创新工场(广州)人工智能研究有限公司 | 一种结合类词信息的语言模型预训练方法 |
CN110489538B (zh) * | 2019-08-27 | 2020-12-25 | 腾讯科技(深圳)有限公司 | 基于人工智能的语句应答方法、装置及电子设备 |
CN110633476B (zh) * | 2019-09-27 | 2024-04-05 | 北京百度网讯科技有限公司 | 用于获取知识标注信息的方法及装置 |
KR102340542B1 (ko) * | 2019-11-15 | 2021-12-20 | 고려대학교 산학협력단 | 자동화 기반의 가짜 뉴스 탐지 장치 및 방법 |
US11610061B2 (en) * | 2019-12-02 | 2023-03-21 | Asapp, Inc. | Modifying text according to a specified attribute |
-
2020
- 2020-01-14 CN CN202010034773.7A patent/CN111259663B/zh active Active
-
2021
- 2021-01-13 US US17/147,881 patent/US11775776B2/en active Active
- 2021-01-14 KR KR1020210005155A patent/KR102573518B1/ko active IP Right Grant
- 2021-01-14 EP EP21151537.4A patent/EP3851999A1/en not_active Ceased
- 2021-01-14 JP JP2021003862A patent/JP7112537B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017076281A (ja) | 2015-10-15 | 2017-04-20 | 日本電信電話株式会社 | 単語埋込学習装置、テキスト評価装置、方法、及びプログラム |
CN110427609A (zh) | 2019-06-25 | 2019-11-08 | 首都师范大学 | 一种写人作文篇章结构合理性自动评测方法 |
Non-Patent Citations (1)
Title |
---|
砂山 渡、外1名,サブストーリーモデルに基づく文章の流れの抽出,情報処理学会研究報告,日本,社団法人情報処理学会,2004年11月06日,第2004巻,第108号,p.153-158 |
Also Published As
Publication number | Publication date |
---|---|
EP3851999A1 (en) | 2021-07-21 |
CN111259663B (zh) | 2023-05-26 |
JP2021111414A (ja) | 2021-08-02 |
US11775776B2 (en) | 2023-10-03 |
KR102573518B1 (ko) | 2023-09-06 |
KR20210091674A (ko) | 2021-07-22 |
US20210216725A1 (en) | 2021-07-15 |
CN111259663A (zh) | 2020-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7112537B2 (ja) | 情報処理方法及び装置、電子機器、コンピュータ可読記憶媒体並びにプログラム | |
CN108805091B (zh) | 用于生成模型的方法和装置 | |
CN109460513B (zh) | 用于生成点击率预测模型的方法和装置 | |
US11758088B2 (en) | Method and apparatus for aligning paragraph and video | |
CN109376267B (zh) | 用于生成模型的方法和装置 | |
CN109981787B (zh) | 用于展示信息的方法和装置 | |
CN107943877B (zh) | 待播放多媒体内容的生成方法和装置 | |
CN111104482A (zh) | 数据处理方法和装置 | |
CN110688528A (zh) | 生成视频的分类信息的方法、装置、电子设备和介质 | |
CN109829164B (zh) | 用于生成文本的方法和装置 | |
CN108510084B (zh) | 用于生成信息的方法和装置 | |
CN109862100B (zh) | 用于推送信息的方法和装置 | |
CN109255035B (zh) | 用于构建知识图谱的方法和装置 | |
WO2024099171A1 (zh) | 视频生成方法和装置 | |
CN113395538B (zh) | 音效渲染方法、装置、计算机可读介质和电子设备 | |
CN108038172B (zh) | 基于人工智能的搜索方法和装置 | |
CN111026849A (zh) | 数据处理方法和装置 | |
CN111756953A (zh) | 视频处理方法、装置、设备和计算机可读介质 | |
CN111862081A (zh) | 图像评分方法、分数预测网络的训练方法、装置 | |
JP2020173776A (ja) | 映像を生成するための方法および装置 | |
CN115495658A (zh) | 一种数据处理方法和装置 | |
CN115563942A (zh) | 一种合同生成方法、装置、电子设备及计算机可读介质 | |
CN112652329B (zh) | 文本重对齐方法、装置、电子设备和存储介质 | |
CN111125501B (zh) | 用于处理信息的方法和装置 | |
CN110096392B (zh) | 用于输出信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220722 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7112537 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |