JP2021184255A - 語義表現モデルの生成方法、語義表現モデルの生成装置、電子機器、記憶媒体及びコンピュータプログラム - Google Patents
語義表現モデルの生成方法、語義表現モデルの生成装置、電子機器、記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2021184255A JP2021184255A JP2021102856A JP2021102856A JP2021184255A JP 2021184255 A JP2021184255 A JP 2021184255A JP 2021102856 A JP2021102856 A JP 2021102856A JP 2021102856 A JP2021102856 A JP 2021102856A JP 2021184255 A JP2021184255 A JP 2021184255A
- Authority
- JP
- Japan
- Prior art keywords
- character
- text
- expression model
- knowledge unit
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000004590 computer program Methods 0.000 title claims description 10
- 238000012549 training Methods 0.000 claims abstract description 82
- 238000012545 processing Methods 0.000 claims abstract description 35
- 230000015654 memory Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 13
- 230000000694 effects Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 13
- 230000008451 emotion Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000003058 natural language processing Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000002996 emotional effect Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/2163—Partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
オリジナルテキストを含むオリジナルテキスト集合を取得するステップと、前記オリジナルテキストに対して知識ユニットの識別及び分割を行って、前記オリジナルテキスト内の前記知識ユニット及び非知識ユニットを取得するステップと、前記オリジナルテキスト内の前記知識ユニット及び前記非知識ユニットに対して知識ユニットレベルのアウトオブオーダー処理を行って、アウトオブオーダーテキストを取得するステップと、前記アウトオブオーダーテキスト内の各文字の文字属性を生成するステップであって、前記文字属性が前記オリジナルテキストでの前記文字の元の位置と、前記文字の現在の位置とを含むステップと、前記アウトオブオーダーテキスト内の前記文字の前記文字属性に基づいてトレーニングテキスト集合を生成するステップと、前記トレーニングテキスト集合を用いて初期の語義表現モデルをトレーニングして、語義表現モデルを生成するステップとを含む語義表現モデルの生成方法を提供する。
オリジナルテキストを含むオリジナルテキスト集合を取得する第1の取得モジュールと、前記オリジナルテキストに対して知識ユニットの識別及び分割を行って、前記オリジナルテキスト内の前記知識ユニット及び非知識ユニットを取得する識別分割モジュールと、前記オリジナルテキスト内の前記知識ユニット及び前記非知識ユニットに対して知識ユニットレベルのアウトオブオーダー処理を行って、アウトオブオーダーテキストを取得する処理モジュールと、前記アウトオブオーダーテキスト内の各文字の文字属性を生成するために使用され、前記文字属性が前記オリジナルテキストでの前記文字の元の位置と、前記文字の現在の位置とを含む第1の生成モジュールと、前記アウトオブオーダーテキスト内の前記文字の前記文字属性に基づいてトレーニングテキスト集合を生成する第2の生成モジュールと、前記トレーニングテキスト集合を用いて初期の語義表現モデルをトレーニングして、語義表現モデルを生成するトレーニングモジュールとを備える語義表現モデルの生成装置を提供する。
本出願の第5の態様は、コンピュータ上で動作しているときに、上記の語義表現モデルの生成方法を前記コンピュータに実行させるコンピュータプログラムを提供する。
識別分割モジュール620は、オリジナルテキストに対して知識ユニットの識別及び分割を行って、オリジナルテキスト内の知識ユニット及び非知識ユニットを取得するために使用される。
処理モジュール630は、オリジナルテキスト内の知識ユニット及び非知識ユニットに対して知識ユニットレベルのアウトオブオーダー処理を行って、アウトオブオーダーテキストを取得するために使用される。
第1の生成モジュール640は、アウトオブオーダーテキスト内の各文字の文字属性を生成するために使用され、文字属性がオリジナルテキストでの文字の元の位置と、文字の現在の位置とを含む。
第2の生成モジュール650は、アウトオブオーダーテキスト内の文字の文字属性に基づいてトレーニングテキスト集合を生成するために使用される。
トレーニングモジュール660は、トレーニングテキスト集合を用いて初期の語義表現モデルをトレーニングして、語義表現モデルを生成するために使用される。
電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを図る。電子機器は、さらに携帯情報端末、セルラー電話、スマートフォン、ウェアラブルデバイス及び他の類似するコンピューティングデバイスなどの様々な形態の移動装置を表すこともできる。本明細書に示されているコンポーネント、それらの接続と関係、及びそれらの機能は、単なる一例であり、かつ本明細書での説明及び/又は要求される本出願の実現を制限することを意図するものではない。
Claims (15)
- オリジナルテキストを含むオリジナルテキスト集合を取得するステップと、
前記オリジナルテキストに対して知識ユニットの識別及び分割を行って、前記オリジナルテキスト内の前記知識ユニット及び非知識ユニットを取得するステップと、
前記オリジナルテキスト内の前記知識ユニット及び前記非知識ユニットに対して知識ユニットレベルのアウトオブオーダー処理を行って、アウトオブオーダーテキストを取得するステップと、
前記アウトオブオーダーテキスト内の各文字の文字属性を生成するステップであって、前記文字属性が前記オリジナルテキストでの前記文字の元の位置と、前記文字の現在の位置とを含むステップと、
前記アウトオブオーダーテキスト内の前記文字の前記文字属性に基づいてトレーニングテキスト集合を生成するステップと、
前記トレーニングテキスト集合を用いて初期の語義表現モデルをトレーニングして、語義表現モデルを生成するステップとを含む語義表現モデルの生成方法。 - 前記オリジナルテキストに対して前記知識ユニットの識別及び分割を行う前記ステップは、
前記オリジナルテキストに対してレベル1の知識ユニットの識別及び分割を行って、前記レベル1の知識ユニット及び前記非知識ユニットを取得するステップと、
前記レベル1の知識ユニットに対してレベル2の知識ユニットの識別及び分割を行って、前記レベル2の知識ユニット及び前記非知識ユニットを取得するステップとを含む請求項1に記載の語義表現モデルの生成方法。 - 前記レベル1は、文レベルであり、前記レベル2は、単語レベルである請求項2に記載の語義表現モデルの生成方法。
- 前記トレーニングテキスト集合を用いて前記初期の語義表現モデルをトレーニングするステップは、
前記トレーニングテキスト集合内の前記アウトオブオーダーテキストの現在の文字を取得するステップと、
前記アウトオブオーダーテキスト内の前記文字の前記文字属性に基づいて、第1の文字を決定するステップであって、前記第1の文字が前記アウトオブオーダーテキスト内の前記現在の文字の現在の位置の前の各位置にある文字であるステップと、
前記第1の文字、前記第1の文字の前記文字属性、前記現在の文字の前記文字属性を前記語義表現モデルに入力して、前記語義表現モデルによる前記現在の文字の現在位置にある前記文字の予測結果を取得するステップと、
前記現在の文字及び前記文字の予測結果に基づいて、損失関数値を計算し、前記語義表現モデルの係数を調整して、前記語義表現モデルを生成するステップとを含む請求項1に記載の語義表現モデルの生成方法。 - 前記オリジナルテキスト内の前記知識ユニット及び前記非知識ユニットに対して前記知識ユニットレベルの前記アウトオブオーダー処理を行って、前記アウトオブオーダーテキストを取得するステップの後、
前記知識ユニットで、含まれる複数の前記文字に対して文字レベルのアウトオブオーダー処理を行うステップをさらに含む請求項1に記載の語義表現モデルの生成方法。 - 前記トレーニングテキスト集合を用いて前記初期の語義表現モデルをトレーニングして、前記語義表現モデルを生成するステップの後、
前記語義表現モデルのタスクシーンを決定するステップと、
前記タスクシーンでのトレーニングデータを取得するステップであって、前記トレーニングデータがトレーニングテキスト及び対応するタスク目標を含むステップと、
前記トレーニングテキスト及び対応する前記タスク目標を用いて前記語義表現モデルをトレーニングして、前記タスクシーンでの前記語義表現モデルを生成するステップとをさらに含む請求項1に記載の語義表現モデルの生成方法。 - オリジナルテキストを含むオリジナルテキスト集合を取得する第1の取得モジュールと、
前記オリジナルテキストに対して知識ユニットの識別及び分割を行って、前記オリジナルテキスト内の前記知識ユニット及び非知識ユニットを取得する識別分割モジュールと、
前記オリジナルテキスト内の前記知識ユニット及び前記非知識ユニットに対して知識ユニットレベルのアウトオブオーダー処理を行って、アウトオブオーダーテキストを取得する処理モジュールと、
前記アウトオブオーダーテキスト内の各文字の文字属性を生成するために使用され、前記文字属性が前記オリジナルテキストでの前記文字の元の位置と、前記文字の現在の位置とを含む第1の生成モジュールと、
前記アウトオブオーダーテキスト内の前記文字の前記文字属性に基づいてトレーニングテキスト集合を生成する第2の生成モジュールと、
前記トレーニングテキスト集合を用いて初期の語義表現モデルをトレーニングして、語義表現モデルを生成するトレーニングモジュールとを備える語義表現モデルの生成装置。 - 前記識別分割モジュールは、具体的には、
前記オリジナルテキストに対してレベル1の知識ユニットの識別及び分割を行って、前記レベル1の知識ユニット及び前記非知識ユニットを取得し、
前記レベル1の知識ユニットに対してレベル2の知識ユニットの識別及び分割を行って、前記レベル2の知識ユニット及び前記非知識ユニットを取得する請求項7に記載の語義表現モデルの生成装置。 - 前記レベル1は、文レベルであり、前記レベル2は、単語レベルである請求項8に記載の語義表現モデルの生成装置。
- 前記トレーニングモジュールは、具体的には、
前記トレーニングテキスト集合内の前記アウトオブオーダーテキストの現在の文字を取得し、
前記アウトオブオーダーテキスト内の前記文字の前記文字属性に基づいて、第1の文字を決定し、前記第1の文字が前記アウトオブオーダーテキスト内の前記現在の文字の現在の位置の前の各位置にある文字であり、
前記第1の文字、前記第1の文字の前記文字属性、前記現在の文字の前記文字属性を前記語義表現モデルに入力して、前記語義表現モデルによる前記現在の文字の現在位置にある前記文字の予測結果を取得し、
前記現在の文字及び前記文字の予測結果に基づいて、損失関数値を計算し、前記語義表現モデルの係数を調整して、前記語義表現モデルを生成する請求項7に記載の語義表現モデルの生成装置。 - 前記処理モジュールは、さらに、
前記知識ユニットで、含まれる複数の前記文字に対して文字レベルのアウトオブオーダー処理を行う請求項7に記載の語義表現モデルの生成装置。 - 前記語義表現モデルのタスクシーンを決定する決定モジュールと、
前記タスクシーンでのトレーニングデータを取得するために使用され、前記トレーニングデータがトレーニングテキスト及び対応するタスク目標を含む第2の取得モジュールと、
前記トレーニングテキスト及び対応する前記タスク目標を用いて前記語義表現モデルをトレーニングして、前記タスクシーンでの前記語義表現モデルを生成するタスクトレーニングモジュールとをさらに備える請求項7に記載の語義表現モデルの生成装置。 - 少なくとも1つのプロセッサと、
少なくとも1つの該プロセッサに通信可能に接続されたメモリとを備え、
該メモリには前記少なくとも1つのプロセッサで実行可能な命令が記憶されており、該命令は、少なくとも1つの前記プロセッサが請求項1から請求項6のいずれかに記載の語義表現モデルの生成方法を実行できるように、少なくとも1つの前記プロセッサによって実行される電子機器。 - コンピュータ命令を記憶している非一時的コンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、前記コンピュータに請求項1から請求項6のいずれかに記載の語義表現モデルの生成方法を実行させるために使用される非一時的コンピュータ読み取り可能な記憶媒体。 - コンピュータ上で動作しているときに、請求項1から請求項6のいずれかに記載の語義表現モデルの生成方法を前記コンピュータに実行させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010574268.1A CN111950291B (zh) | 2020-06-22 | 2020-06-22 | 语义表示模型的生成方法、装置、电子设备及存储介质 |
CN202010574268.1 | 2020-06-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021184255A true JP2021184255A (ja) | 2021-12-02 |
Family
ID=73337148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021102856A Pending JP2021184255A (ja) | 2020-06-22 | 2021-06-22 | 語義表現モデルの生成方法、語義表現モデルの生成装置、電子機器、記憶媒体及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210248484A1 (ja) |
EP (1) | EP3822842A3 (ja) |
JP (1) | JP2021184255A (ja) |
KR (1) | KR102565673B1 (ja) |
CN (1) | CN111950291B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116543082A (zh) * | 2023-05-18 | 2023-08-04 | 无锡捷通数智科技有限公司 | 数字人的生成方法、装置和数字人的生成系统 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560499B (zh) * | 2020-12-11 | 2024-01-09 | 北京百度网讯科技有限公司 | 语义表示模型的预训练方法、装置、电子设备及存储介质 |
CN112580339B (zh) * | 2020-12-18 | 2022-04-05 | 北京百度网讯科技有限公司 | 模型的训练方法、装置、电子设备及存储介质 |
CN112507040B (zh) * | 2020-12-21 | 2023-08-08 | 北京百度网讯科技有限公司 | 多元关系生成模型的训练方法、装置、电子设备及介质 |
CN113408300B (zh) * | 2021-07-09 | 2024-02-20 | 北京百度网讯科技有限公司 | 模型训练方法、品牌词识别方法、装置及电子设备 |
CN114265918A (zh) * | 2021-12-01 | 2022-04-01 | 北京捷通华声科技股份有限公司 | 文本切分方法、装置及电子设备 |
CN116052648B (zh) * | 2022-08-03 | 2023-10-20 | 荣耀终端有限公司 | 一种语音识别模型的训练方法、使用方法及训练系统 |
CN115374793B (zh) * | 2022-10-25 | 2023-01-20 | 深圳市人马互动科技有限公司 | 基于服务场景识别的语音数据处理方法及相关装置 |
CN115909354B (zh) * | 2022-11-11 | 2023-11-10 | 北京百度网讯科技有限公司 | 文本生成模型的训练方法、文本获取方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110717339A (zh) * | 2019-12-12 | 2020-01-21 | 北京百度网讯科技有限公司 | 语义表示模型的处理方法、装置、电子设备及存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6185672B1 (en) * | 1999-02-19 | 2001-02-06 | Advanced Micro Devices, Inc. | Method and apparatus for instruction queue compression |
BRPI0412778A (pt) * | 2003-07-22 | 2006-09-26 | Kinor Technologies Inc | acesso á informações usando ontologia |
WO2016080964A1 (en) * | 2014-11-18 | 2016-05-26 | Siemens Aktiengesellschaft | Semantic contextualization in a programmable logic controller |
CN106407333B (zh) * | 2016-09-05 | 2020-03-03 | 北京百度网讯科技有限公司 | 基于人工智能的口语查询识别方法及装置 |
US10515400B2 (en) * | 2016-09-08 | 2019-12-24 | Adobe Inc. | Learning vector-space representations of items for recommendations using word embedding models |
US11461643B2 (en) * | 2017-05-09 | 2022-10-04 | Sri International | Deep adaptive semantic logic network |
CN109241330A (zh) * | 2018-08-20 | 2019-01-18 | 北京百度网讯科技有限公司 | 用于识别音频中的关键短语的方法、装置、设备和介质 |
CN110751165B (zh) * | 2019-08-06 | 2023-01-24 | 汕头大学 | 一种乱序文字的自动组词方法 |
CN111061625A (zh) * | 2019-11-18 | 2020-04-24 | 中国建设银行股份有限公司 | 一种应用于乱序密码键盘的自动化测试方法和装置 |
CN111079442B (zh) * | 2019-12-20 | 2021-05-18 | 北京百度网讯科技有限公司 | 文档的向量化表示方法、装置和计算机设备 |
-
2020
- 2020-06-22 CN CN202010574268.1A patent/CN111950291B/zh active Active
-
2021
- 2021-03-17 EP EP21163169.2A patent/EP3822842A3/en active Pending
- 2021-03-18 US US17/205,894 patent/US20210248484A1/en active Pending
- 2021-06-10 KR KR1020210075540A patent/KR102565673B1/ko active IP Right Grant
- 2021-06-22 JP JP2021102856A patent/JP2021184255A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110717339A (zh) * | 2019-12-12 | 2020-01-21 | 北京百度网讯科技有限公司 | 语义表示模型的处理方法、装置、电子设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
SUN, YU ET.AL, ERNIE 2.0: A CONTINUAL PRE-TRAINING FRAMEWORK FOR LANGUAGE UNDERSTANDING, JPN6022037383, 21 November 2019 (2019-11-21), pages 1 - 8, ISSN: 0004868313 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116543082A (zh) * | 2023-05-18 | 2023-08-04 | 无锡捷通数智科技有限公司 | 数字人的生成方法、装置和数字人的生成系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111950291B (zh) | 2024-02-23 |
US20210248484A1 (en) | 2021-08-12 |
KR102565673B1 (ko) | 2023-08-10 |
KR20210081309A (ko) | 2021-07-01 |
CN111950291A (zh) | 2020-11-17 |
EP3822842A2 (en) | 2021-05-19 |
EP3822842A3 (en) | 2021-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7247441B2 (ja) | セマンティック表現モデルの処理方法、装置、電子機器、及び記憶媒体 | |
JP2021184255A (ja) | 語義表現モデルの生成方法、語義表現モデルの生成装置、電子機器、記憶媒体及びコンピュータプログラム | |
KR102497945B1 (ko) | 텍스트 인식 처리 방법, 장치, 전자 기기 및 저장매체 | |
JP7214954B2 (ja) | 言語モデルのトレーニング方法、装置、電子機器、プログラム及び可読記憶媒体 | |
US11727216B2 (en) | Method, apparatus, device, and storage medium for linking entity | |
JP7362994B2 (ja) | 複数種類の単語ベクトルに基づいて言語モデルをトレーニングする方法、装置、機器、プログラム及び記憶媒体 | |
JP7228662B2 (ja) | イベント抽出方法、装置、電子機器及び記憶媒体 | |
JP7194150B2 (ja) | ドキュメントのベクトル化表現方法、ドキュメントのベクトル化表現装置及びコンピュータ機器 | |
JP7264866B2 (ja) | イベント関係の生成方法、装置、電子機器及び記憶媒体 | |
JP2022013602A (ja) | テキスト中のイベント抽出方法、装置、電子機器及び記憶媒体 | |
CN111709234B (zh) | 文本处理模型的训练方法、装置及电子设备 | |
US20210374343A1 (en) | Method and apparatus for obtaining word vectors based on language model, device and storage medium | |
CN114970522B (zh) | 语言模型的预训练方法、装置、设备、存储介质 | |
JP7309798B2 (ja) | 対話意図の認識方法及び装置、電子機器並びに記憶媒体 | |
CN111666751B (zh) | 训练文本扩充方法、装置、设备以及存储介质 | |
CN111709252B (zh) | 基于预训练的语义模型的模型改进方法及装置 | |
KR102630243B1 (ko) | 구두점 예측 방법 및 장치 | |
JP2021099890A (ja) | 因果関係の判別方法、装置、電子機器及び記憶媒体 | |
JP7230304B2 (ja) | 対話生成方法、装置、電子機器、プログラム及び記憶媒体 | |
JP7192192B2 (ja) | 語義類似度モデルの訓練方法、装置、電子デバイス及び記憶媒体 | |
JP2022008207A (ja) | トリプルサンプルの生成方法、装置、電子デバイス及び記憶媒体 | |
CN111950293A (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
JP2022028897A (ja) | 文章翻訳方法、装置、電子機器及び記憶媒体 | |
JP2022028889A (ja) | 対話生成方法、装置、電子機器及び記憶媒体 | |
CN115688796A (zh) | 用于自然语言处理领域中预训练模型的训练方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221201 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230404 |