JP7335300B2 - Knowledge pre-trained model training method, apparatus and electronic equipment - Google Patents

Knowledge pre-trained model training method, apparatus and electronic equipment Download PDF

Info

Publication number
JP7335300B2
JP7335300B2 JP2021153346A JP2021153346A JP7335300B2 JP 7335300 B2 JP7335300 B2 JP 7335300B2 JP 2021153346 A JP2021153346 A JP 2021153346A JP 2021153346 A JP2021153346 A JP 2021153346A JP 7335300 B2 JP7335300 B2 JP 7335300B2
Authority
JP
Japan
Prior art keywords
training
knowledge
text
obtaining
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021153346A
Other languages
Japanese (ja)
Other versions
JP2022006173A (en
Inventor
チャオ パン
スォフェン ワン
ユ スン
ズ リー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022006173A publication Critical patent/JP2022006173A/en
Application granted granted Critical
Publication of JP7335300B2 publication Critical patent/JP7335300B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Description

本開示は、コンピュータ技術分野における言語、自然言語処理、深層学習技術分野に関し、特に、知識事前訓練モデルの訓練方法、装置、電子機器、記憶媒体、コンピュータプログラム製品に関する。 TECHNICAL FIELD The present disclosure relates to language, natural language processing, and deep learning technology fields in the computer technology field, and more particularly to training methods, devices, electronic devices, storage media, and computer program products for knowledge pre-trained models.

現在、モデルの多くは常識的な推理力を備えていない。例えば、質問は「何を使ってインクで紙に書類をコピーできるか?」の場合、答えは、ペン、コピー機、複写紙、ノートなどを含み、人々は常識によってコピー機を答えとして正確に選ぶことができる。しかしながら、複写紙は質問の複写と紙と共に現れる頻度が高いため、モデルは複写紙という答えを選ぶ可能性が高く、モデルが間違った結果を出力することに繋がる。関連技術におけるモデル訓練方法は、常識的な学習と意味的な学習の連合訓練を実現することができず、モデル利得はサンプル品質に制限され、モデルを再度訓練する必要があり、柔軟性に劣る。
Many models today lack common sense reasoning. For example, if the question is "What can you use to copy a document to paper with ink?" You can choose. However, since the copy paper frequently appears with the copy of the question and the paper, the model is more likely to choose the answer copy paper, leading to the model outputting wrong results. Model training methods in related arts cannot achieve joint training of common sense learning and semantic learning, model gain is limited to sample quality, the model needs to be retrained, and flexibility is poor. .

知識事前訓練モデルの訓練方法、装置、電子機器、記憶媒体、コンピュータプログラム製品を提供する。
Kind Code: A1 Methods, apparatus, electronics, storage media, and computer program products for training knowledge pretrained models are provided.

第1の態様によれば、知識事前訓練モデルの訓練方法を提供し、訓練テキストを取得するステップであって、前記訓練テキストは構造化知識テキスト及び対応する文章を含み、前記構造化知識テキストはヘッドノード、テールノード、及び前記ヘッドノードと前記テールノードとの関係を含むステップと、前記訓練テキストに基づいて訓練対象の知識事前訓練モデルを訓練するステップと、を含む。 According to a first aspect, providing a method for training a knowledge pretrained model, obtaining a training text, said training text comprising a structured knowledge text and corresponding sentences, said structured knowledge text comprising: including a head node, a tail node, and the relationship between the head node and the tail node; and training a knowledge pretrained model to be trained based on the training text.

第2の態様によれば、知識事前訓練モデルの訓練装置を提供し、訓練テキストを取得するための取得モジュールであって、前記訓練テキストは構造化知識テキスト及び対応する文章を含み、前記構造化知識テキストはヘッドノード、テールノード、及び前記ヘッドノードと前記テールノードとの関係を含む取得モジュールと、前記訓練テキストに基づいて訓練対象の知識事前訓練モデルを訓練するための訓練モジュールと、を含む。 According to a second aspect, there is provided an apparatus for training a knowledge pre-trained model, an acquisition module for acquiring a training text, said training text comprising a structured knowledge text and corresponding sentences, said structured A knowledge text includes an acquisition module including a head node, a tail node, and the relationship between the head node and the tail node, and a training module for training a knowledge pretrained model to be trained based on the training text. .

第3の態様によれば、電子機器を提供し、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが前記第2の様態に記載の知識事前訓練モデルの訓練方法を実行する。
According to a third aspect, an electronic device is provided,
at least one processor;
a memory communicatively coupled to the at least one processor;
The memory stores instructions executable by the at least one processor, and when the instructions are executed by the at least one processor, the at least one processor performs the knowledge according to the second aspect. Run the training method of the pretrained model.

第4の態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、前記コンピュータに前記第1の様態に記載の知識事前訓練モデルの訓練方法を実行させる。 According to a fourth aspect, there is provided a non-transitory computer-readable storage medium having computer instructions stored thereon, said computer instructions instructing said computer to perform the knowledge pre-trained model according to said first aspect. Execute the training method.

第5の態様によれば、コンピュータプログラム製品を提供し、コンピュータプログラムを含み、ここで、前記コンピュータプログラムはプロセッサによって実行される場合、本開示の第1の態様に記載の知識事前訓練モデルの訓練方法を実現する。
第6の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータに前記第1の様態に記載の知識事前訓練モデルの訓練方法を実行させる。
According to a fifth aspect, there is provided a computer program product, comprising a computer program, wherein said computer program, when executed by a processor, trains a knowledge pretrained model according to the first aspect of the present disclosure. implement the method.
According to a sixth aspect, there is provided a computer program, said computer program causing a computer to perform the method of training a knowledge pre-trained model according to said first aspect.

なお、本部分に記載された内容は、本出願の実施例の肝心または重要な特徴を限定することを意図するものではなく、本出願の範囲を限定するためのものでもない。本出願の他の特徴は、以下の説明によって容易に理解される。 It should be noted that the content described in this section is not intended to limit the key or critical features of the embodiments of the application, nor is it intended to limit the scope of the application. Other features of the present application will be readily understood from the following description.

図面は、本技術案をよりよく理解するためのものであり、本出願を限定するものではない。
本開示の第1の実施例に係る知識事前訓練モデルの訓練方法のフローチャートである。 本開示の第2の実施例に係る知識事前訓練モデルの訓練方法において訓練テキストを取得するフローチャートである。 本開示の第3の実施例に係る知識事前訓練モデルの訓練方法において訓練テキストに基づいて訓練対象の知識事前訓練モデルを訓練する概略図である。 本開示の第1の実施例に係る知識事前訓練モデルの訓練装置のブロック図である。 本開示の第2の実施例に係る知識事前訓練モデルの訓練装置のブロック図である。 本開示の実施例の知識事前訓練モデルの訓練方法を実現するための電子機器のブロック図である。
The drawings are for better understanding of the present technical solution and do not limit the present application.
4 is a flow chart of a method for training a knowledge pre-trained model according to a first embodiment of the present disclosure; FIG. 4 is a flow chart of obtaining training text in a method for training a knowledge pre-trained model according to a second embodiment of the present disclosure; FIG. FIG. 5 is a schematic diagram of training a knowledge pre-trained model to be trained based on a training text in a method for training a knowledge pre-trained model according to a third embodiment of the present disclosure; 1 is a block diagram of a training device for knowledge pre-trained models according to a first embodiment of the present disclosure; FIG. Fig. 2 is a block diagram of a training device for knowledge pre-trained models according to a second embodiment of the present disclosure; FIG. 3 is a block diagram of an electronic device for implementing the training method of the knowledge pre-trained model of an embodiment of the present disclosure;

以下、図面と組み合わせて本出願の例示的な実施例を説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細事項が含まれており、それらは単なる例示的なものと見なされるべきである。従って、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができる。同様に、わかりやすくかつ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
Illustrative embodiments of the present application are described below in conjunction with the drawings, and various details of the embodiments of the present application are included therein for ease of understanding and are merely exemplary. should be regarded as Accordingly, those skilled in the art may make various changes and modifications to the embodiments described herein without departing from the scope and spirit of this application. Similarly, for the sake of clarity and brevity, the following description omits descriptions of well-known functions and constructions.

音声は音声認識、音声インタラクションなどの技術分野を含むことができ、人工知能分野の重要な方向である。 Speech can include technical fields such as speech recognition, voice interaction, etc., and is an important direction in the field of artificial intelligence.

音声認識(Voice Recognition)は、機器が音声信号を識別して理解することによって、対応するテキストまたは命令に変換する技術であり、主に特徴抽出技術、モードマッチング基準及びモデル訓練技術の3つの態様を含む。 Voice Recognition is a technology in which a device identifies and understands a voice signal and converts it into corresponding text or instructions, and is mainly divided into three aspects: feature extraction technology, mode matching criteria and model training technology. including.

音声インタラクション(Voice Interaction)は、機器とユーザが音声を情報キャリアとして対話、コミュニケーション、情報交換などの対話的行為を行う技術であり、伝統的なヒューマンインタラクションと比較すると、便利且つ迅速で、ユーザの快適性が高いという利点がある。 Voice interaction is a technology in which a device and a user perform interactive actions such as dialogue, communication, and information exchange using voice as an information carrier. It has the advantage of being more comfortable.

自然言語処理(Natural Language Processing、NLU)は、自然言語通信を効果的に実現できるコンピュータシステム、特にそのうちのソフトウェアシステムを研究する1つの科学であり、コンピュータ科学分野と人工知能分野の重要な方向である。 Natural Language Processing (NLU) is a science that studies computer systems, especially software systems, that can effectively realize natural language communication, and is an important direction in the fields of computer science and artificial intelligence. be.

深層学習(Deep Learning、DL)はマシン学習(Machine Learning、ML)分野における新しい研究方向であり、サンプルデータの内的な規則と表示レベルを学習して、機械が人間のように分析学習能力を持ち、文字、画像と音声などのデータを認識できるようにする科学であり、音声と画像認識に広く応用されている。 Deep learning (DL) is a new research direction in the field of machine learning (ML). It is the science that enables us to recognize data such as characters, images and sounds, and is widely applied to speech and image recognition.

図1は、本開示の第1の実施例に係る知識事前訓練モデルの訓練方法のフローチャートである。 FIG. 1 is a flow chart of a method for training a knowledge pre-trained model according to a first embodiment of the present disclosure.

図1に示すように、本開示の第1の実施例に係る知識事前訓練モデルの訓練方法は、以下ステップ101~ステップ102を含む。 As shown in FIG. 1, the training method for the knowledge pre-trained model according to the first embodiment of the present disclosure includes steps 101 to 102 below.

ステップ101、訓練テキストを取得し、訓練テキストは、構造化知識テキスト及び対応する文章を含み、構造化知識テキストは、ヘッドノード、テールノード、及びヘッドノードとテールノードとの関係を含む。 Step 101, obtain a training text, the training text includes a structured knowledge text and corresponding sentences, the structured knowledge text includes a head node, a tail node, and the relationship between the head node and the tail node.

なお、本開示の実施例の知識事前訓練モデルの訓練方法の実行主体は、データ情報処理能力を有するハードウェア装置及び/またはこのハードウェア装置の動作を駆動するために必要なソフトウェアであっても良い。選択可能に、実行主体は、ワークステーション、サーバ、コンピュータ、ユーザ端末、及び他のスマートデバイスを含むことができる。ここで、ユーザ端末は、携帯電話、コンピュータ、スマート音声インタラクティブデバイス、スマート家電、車載端末などを含むが、これらに限定されない。 It should be noted that the execution subject of the training method of the knowledge pre-trained model of the embodiment of the present disclosure may be a hardware device having data processing capability and/or software necessary for driving the operation of this hardware device. good. Optionally, execution entities may include workstations, servers, computers, user terminals, and other smart devices. Here, user terminals include, but are not limited to, mobile phones, computers, smart voice interactive devices, smart home appliances, vehicle-mounted terminals, and the like.

本開示の実施例では、訓練対象の知識事前訓練モデルを訓練するために、多くの訓練テキストを取得することができる。訓練テキストには構造化知識テキスト及び対応する文章が含まれる。 In embodiments of the present disclosure, a number of training texts can be obtained for training a knowledge pre-trained model to be trained. Training texts include structured knowledge texts and corresponding sentences.

本開示の実施例では、構造化知識テキストは、ヘッドノード、テールノード、及びヘッダノードとテールノードとの関係を含み、明確な意味情報を有する。 In embodiments of the present disclosure, the structured knowledge text has explicit semantic information, including head nodes, tail nodes, and relationships between header and tail nodes.

例えば、構造化知識テキストは「張三卒業大学華中科技大学」であってもよく。この構造化知識テキストのヘッドノードは張三であり、テールノードは華中科技大学であり、ヘッドノードとテールノードの関係は卒業大学であり、この構造化知識テキストを通して、張三の卒業大学が華中科技大学であるという意味情報を明確的に取得することができる。 For example, the structured knowledge text may be "Zhangsan Graduation University Huazhong University of Science and Technology". The head node of this structured knowledge text is Zhang San, the tail node is Huazhong University of Science and Technology, and the relationship between the head node and the tail node is the graduated university. The semantic information that it is a science and technology university can be clearly obtained.

または、構造化知識テキストは「張三友達李四」であってもよく、この構造化知識テキストのヘッドノードは張三、テールノードは李四、ヘッドノードとテールノードの関係は友達であり、この構造化知識テキストを通して、李四は張三の友達であるという意味情報を明確的に取得することができる。 Or, the structured knowledge text may be "Zhang San friend Li Si", the head node of this structured knowledge text is Zhang San, the tail node is Li Si, the relationship between the head node and the tail node is friend, Through this structured knowledge text, we can clearly obtain the semantic information that Li Si is Zhang San's friend.

なお、構造化知識テキストが、明確な意味情報を有する他の任意の知識テキストであってもよく、ここでは限定されないことは理解される。 It is understood that the structured knowledge text may be any other knowledge text with explicit semantic information and is not limited here.

本開示の実施例では、構造化知識テキスト及び文章は対応関係を有し、1つの構造化知識テキストは少なくとも1つの文章に対応し、1つの文章は少なくとも1つの構造化知識テキストに対応することができる。なお、本開示の実施例では、文章の内容、形式等を限定せず、ネットワーク、書籍等の方式で取得することができ、例えば、インターネット検索を利用して、構造化された知識テキストに対応する文章を取得することができる。 In an embodiment of the present disclosure, structured knowledge texts and sentences have a correspondence relationship, one structured knowledge text corresponds to at least one sentence, and one sentence corresponds to at least one structured knowledge text. can be done. In addition, in the embodiment of the present disclosure, the content, format, etc. of the text are not limited, and can be obtained by methods such as networks and books. You can get sentences that

例えば、構造化知識テキストが「張三友達李四」である場合、「李四は張三の友達である」という意味情報が含まれる文章をインターネットで検索することができる。または、構造化知識テキストが「江蘇省都南京」である場合、ネットを通じて江蘇を検索し、「江蘇省の省都は南京である」という意味情報が含まれる文章を取得することができる。 For example, if the structured knowledge text is "Zhang San's friend Li Si", the Internet can be searched for sentences containing the semantic information "Li Si is Zhang San's friend". Alternatively, if the structured knowledge text is "Nanjing, the capital of Jiangsu Province", it is possible to search for Jiangsu through the Internet and obtain sentences containing the semantic information that "the capital of Jiangsu Province is Nanjing."

ステップ102、訓練テキストに基づいて、訓練対象の知識事前訓練モデルを訓練する。 Step 102, train a knowledge pre-trained model to be trained based on the training text.

関連技術では、訓練対象の知識事前訓練モデルに訓練エンティティを組み込んで常識知識の学習を行うことが多いが、この方法は、TransEなどの方法を用いて知識事前訓練モデルに対する初期の事前訓練を行った後に、知識事前訓練モデルの訓練プロセスにおいて混合する必要があり、常識知識と意味知識の共同訓練を実現することができない。訓練エンティティの豊富なコンテキスト情報を十分に学ぶことは困難であり、知識事前訓練モデルの性能利得は、訓練エンティティの埋め込み品質に制限され、且つ、訓練エンティティは静態的であり、知識事前訓練モデルを再度訓練する必要がある場合が多い。 Although related art often incorporates training entities into a knowledge pretrained model to be trained to learn common sense knowledge, this method uses methods such as TransE to perform initial pretraining on the knowledge pretrained model. After that, it needs to be mixed in the training process of the knowledge pre-trained model, and the joint training of common sense knowledge and semantic knowledge cannot be realized. It is difficult to fully learn the rich contextual information of a training entity, the performance gain of a knowledge pretrained model is limited to the embedding quality of the training entity, and the training entity is static, making the knowledge pretrained model Often need to be retrained.

本開示の実施例では、訓練テキストに基づいて訓練対象の知識事前訓練モデルを訓練することができ、訓練テキストは構造化された知識テキスト及び対応する文章を含む。構造化された知識テキストは明確な意味情報を有するが、豊富な言語表現情報に乏しく、文章は豊富な言語表現情報を有し、しかし明確な意味情報に乏しく、構造化知識テキスト及び対応する文章から構成される訓練サンプルに基づいて、訓練対象の知識事前訓練モデルを訓練することは、訓練対象の知識事前訓練モデルに常識知識と豊富な意味知識を同時に学習させ、常識知識と意味知識の共同訓練を実現することができる。 Embodiments of the present disclosure may train a knowledge pre-trained model to be trained based on training texts, where the training texts include structured knowledge texts and corresponding sentences. Structured knowledge texts have clear semantic information but lack rich linguistic information, sentences have rich linguistic information but lack clear semantic information, structured knowledge texts and corresponding sentences Training the knowledge pre-trained model of the trainee based on the training sample consisting of the knowledge pre-trained model of the trainee learns common sense knowledge and rich semantic knowledge at the same time, so that common sense knowledge and semantic knowledge jointly Training can be realized.

さらに、この方法は、訓練エンティティを訓練対象の知識事前訓練モデルに組み込む必要がなく、知識事前訓練モデルの性能利得は、訓練エンティティの埋め込み品質に制限されず、知識事前訓練モデルは、訓練テキストにおける文章から豊富なコンテキスト情報を取得することができ、且つ動的に調整することができ、柔軟性が高い。 Furthermore, the method does not require embedding the training entity into the knowledge pretrained model of the training target, the performance gain of the knowledge pretrained model is not limited to the embedding quality of the training entity, and the knowledge pretrained model is Rich contextual information can be obtained from the text, and it can be adjusted dynamically and is highly flexible.

選択可能に、訓練対象の知識事前訓練モデルは、実際の状況に応じて設定することができる。 Optionally, the knowledge pre-trained model to be trained can be set according to the actual situation.

以上、本開示の実施例に係る知的事前訓練モデルの訓練方法によれば、訓練テキストを取得し、訓練テキストは構造化知識テキスト及び対応する文章を含み、構造化知識テキストは、ヘッドノード、テールノード、及びヘッドノードとテールノードとの関係を含み、訓練テキストに基づいて訓練対象の知識事前訓練モデルを訓練する。従って、訓練対象の知識事前訓練モデルは、常識知識と豊富な意味知識を同時に習得でき、常識知識と意味知識の共同訓練を実現でき、訓練エンティティを訓練対象の知識事前訓練モデルに埋め込む必要がなく、知識事前訓練モデルの性能利得は、訓練エンティティの埋め込み品質に制限されない。知識事前訓練モデルは、訓練テキストの文章から豊富なコンテキスト情報を取得することができ、且つ動的に調整することができ、柔軟性が高い。 As described above, according to the method for training an intelligent pre-trained model according to an embodiment of the present disclosure, a training text is obtained, the training text includes a structured knowledge text and corresponding sentences, the structured knowledge text includes a head node, A knowledge pre-trained model of the training target is trained based on the training text, including the tail nodes and the relationship between the head and tail nodes. Therefore, the knowledge pre-trained model of the training target can acquire common sense knowledge and rich semantic knowledge at the same time, and the joint training of common knowledge and semantic knowledge can be realized, and the training entity does not need to be embedded in the knowledge pre-trained model of the training target. , the performance gain of a knowledge pretrained model is not limited to the embedding quality of the training entity. Knowledge pre-trained models are capable of obtaining rich contextual information from the sentences of the training text and are dynamically adjustable and flexible.

上記のいずれかの実施例の上に、図2に示すように、ステップ101において、訓練テキストを取得するステップは、以下のステップ201~ステップ205を含むことができる。 On any of the above examples, and as shown in FIG. 2, in step 101, obtaining training text may include steps 201-205 as follows.

ステップ201、単語エントリを取得する。 Step 201, get a word entry.

本開示の実施例では、訓練テキストを大量に取得するために、多くの単語エントリを取得することができる。 In embodiments of the present disclosure, many word entries can be obtained to obtain a large amount of training text.

なお、本開示の実施例では、単語エントリの内容、形式などについては限定しない。例えば、タイトルは人名、場所名などを含むが、これに限らない。例えば、張三、北京、頤和園など。 Note that the embodiments of the present disclosure do not limit the content, format, etc. of word entries. For example, titles include, but are not limited to, person names, place names, and the like. For example, Zhangsan, Beijing, Summer Palace, etc.

ステップ202、単語エントリに基づいて対応する文章を取得する。 Step 202, obtain the corresponding sentence based on the word entry.

本開示の実施例では、単語エントリと文章との間に対応関係があり、1つの単語エントリは少なくとも1つの文章に対応することができ、1つの文章は少なくとも1つの単語エントリに対応することができる。 In embodiments of the present disclosure, there is correspondence between word entries and sentences, one word entry can correspond to at least one sentence, and one sentence can correspond to at least one word entry. can.

選択可能に、単語エントリに基づいて対応する文章を取得することは、ネットワークを介して単語エントリを検索し、単語エントリに対応するネットワーク検索結果から対応する文章を取得することを含むことができる。例えば、単語エントリが張三である場合、あるウェブサイトで検索語の張三に基づいて検索し、対応する検索結果から該当する文章を取得することができる。 Selectably, obtaining a corresponding sentence based on the word entry can include searching for the word entry over a network and obtaining a corresponding sentence from network search results corresponding to the word entry. For example, if the word entry is Zhang San, a website can be searched based on the search term Zhang San, and the relevant sentences can be obtained from the corresponding search results.

選択可能に、単語エントリに基づいて対応する文章を取得することは、単語エントリに基づいて少なくとも1つの候補文章を取得し、各候補文章と単語エントリとの関連度を取得し、関連度が最も高い候補文章を単語エントリに対応する文章とすることを含むことができる。この方法は、複数の文章の中から、単語エントリとの相関度が最も高い文章を選び出すことができる。 Selectably obtaining a corresponding sentence based on the word entry includes obtaining at least one candidate sentence based on the word entry, obtaining a degree of relevance between each candidate sentence and the word entry, and determining the degree of relevance between each candidate sentence and the word entry. A high candidate sentence may be the sentence corresponding to the word entry. This method can select a sentence with the highest degree of correlation with a word entry from a plurality of sentences.

ステップ203、単語エントリと文章に基づいて、対応するターゲットトリプルを取得する。 Step 203, obtain the corresponding target triples based on the word entry and the sentence.

選択可能に、単語エントリ及び文章に基づいて対応する三つ組みを取得することは、単語エントリをヘッドノードとしてKG(Knowledge Graph、知識グラフ)から対応する候補トリプルを取得することを含み、候補トリプルは、ヘッドノード、テールノード、及びヘッドノードとテールノードとの間の関係を含み、文章におけるテールノードに対応する候補トリプルをターゲットトリプルとして決定する。 Optionally, obtaining the corresponding triplet based on the word entry and the sentence includes obtaining the corresponding candidate triples from a Knowledge Graph (KG) with the word entry as the head node, the candidate triples being , the head node, the tail node, and the relationship between the head node and the tail node, and determine the candidate triple corresponding to the tail node in the sentence as the target triple.

単語エントリをヘッドノードとして、知識グラフから対応する候補トリプルを取得することができ、すなわち候補トリプルのヘッドノードが単語エントリであることは理解される。例えば、単語エントリが張三である場合、その対応する候補トリプルのヘッドノードは張三である。 It is understood that the corresponding candidate triples can be obtained from the knowledge graph with the word entry as the head node, ie the head node of the candidate triple is the word entry. For example, if the word entry is Zhang San, the head node of its corresponding candidate triple is Zhang San.

これにより、この方法は、単語エントリをヘッドノードとし、テールノードが文章に現れたターゲットトリプルを知識グラフから選別することができる。 This allows the method to filter out target triples from the knowledge graph in which the word entry is the head node and the tail node appears in the sentence.

選択可能に、知識グラフは実際の状況に応じて設定することができる。 Optionally, the knowledge graph can be set according to the actual situation.

ステップ204、ターゲットトリプルをテキスト化して、構造化知識テキストを取得する。 Step 204, textualize the target triples to obtain structured knowledge texts.

ターゲットトリプルがテキスト構造を備えない場合、ターゲットトリプルをテキスト化して、構造化知識テキストを取得できることは理解される。 It is understood that if the target triples do not have textual structure, the target triples can be textified to obtain a structured knowledge text.


選択可能に、ターゲットトリプルをテキスト化して、構造化知識テキストを取得することは、予め設定されたテキスト化規則に基づいてターゲットトリプルをテキスト化して、構造化知識テキストを取得することを含むことができる。ここで、予め設定されたテキスト化ルールは実際の状況に応じて設定できる。

Selectably, textualizing the target triples to obtain the structured knowledge text can include textualizing the target triples to obtain the structured knowledge text based on preset textualization rules. can. Here, the preset text conversion rule can be set according to the actual situation.

例えば、ターゲットトリプルが(張三、友達、李四)である場合、対応する構造化テキストは張三友達李四であってもよく、ターゲットトリプルが(江蘇、省都、南京)である場合、対応する構造化テキストは江蘇省都南京であっても良い。 For example, if the target triple is (Zhang San, Friend, Li Si), the corresponding structured text may be Zhang San Friend Li Si, and if the target triple is (Jiangsu, Provincial Capital, Nanjing), The corresponding structured text may be Nanjing, Jiangsu Province.

なお、ターゲットトリプルをテキスト化する方式は他の形式であってもよく、ここでは制限されない。 Note that the method of converting the target triples into text may be other formats, and is not limited here.

ステップ205、構造化知識テキストと文章をスプライシングして、訓練テキストを取得する。 Step 205, splicing the structured knowledge text and sentences to obtain training text.

選択可能に、構造化知識テキストと文章をスプライシングすることは、構造化知識テキストを文章における予め設定された位置にスプライシングすることを含むことができる。ここで、予め設定された位置は、実際の状況に応じて設定することができ、例えば、日付、文章中のテールノードの位置などを含むが、これらに限定されない。 Optionally, splicing the structured knowledge text and the sentence can include splicing the structured knowledge text to a preset position in the sentence. Here, the preset position can be set according to the actual situation, including, but not limited to, the date, the position of the tail node in the sentence, and the like.

これにより、この方法は単語エントリに基づいて対応する文章を取得し、単語エントリと文章に基づいて対応するターゲットトリプルを取得し、ターゲットトリプルをテキスト化して、構造化知識テキストを取得して、構造化知識テキストと文章をスプライシングして、訓練テキストを取得することができる。 Thus, the method obtains the corresponding sentence based on the word entry, obtains the corresponding target triple based on the word entry and the sentence, transcribes the target triple, obtains the structured knowledge text, and obtains the structure The training text can be obtained by splicing the knowledge text and sentences.

上記のいずれかの実施例のもとに、図3に示すように、ステップS102において、訓練テキストに基づいて、訓練対象の事前訓練モデルを訓練することは、以下ステップ301~ステップ302を含む、 Under any of the above embodiments, as shown in FIG. 3, in step S102, training a pre-trained model to be trained based on the training text includes steps 301-302 as follows:

ステップ301、予め設定された要素がマスクされた訓練テキストを訓練対象の知識事前訓練モデルに入力して、予め設定された要素の予測データを生成する。 Step 301: Input the training text masked with the preset elements into the knowledge pre-trained model to be trained to generate prediction data of the preset elements.

本開示の実施例では、訓練テキストは、少なくとも1つの予め設定された要素を含み、訓練テキストにおける少なくとも1つのプリセット要素をマスクし、予め設定された要素がマスクされた訓練テキストを訓練対象の知識事前訓練モデルに入力して、プリセット要素の予測データを生成することができる。 In embodiments of the present disclosure, the training text includes at least one preset element, the at least one preset element in the training text is masked, and the training text with the masked preset element is the knowledge of the training target. It can be fed into a pre-trained model to generate prediction data for preset elements.

予め設定された要素がマスクされた訓練テキストを訓練対象の知識事前訓練モデルに入力した後、訓練対象の知識事前訓練モデルを介して予め設定された要素を予測して、予め設定された要素の予測データを取得できるは理解される。 After inputting the training text in which the preset elements are masked into the knowledge pre-trained model of the trainee, predicting the preset elements through the knowledge pre-trained model of the trainee, It is understood that predictive data can be obtained.

選択可能に、予め設定された要素は、構造化知識テキストにおけるヘッドノード、テールノード、及びヘッドノードとテールノードとの間の関係のうちのいずれか、または文章における人の単語であってもよい。なお、予め設定された要素が構造化知識テキストにおけるヘッドノード、テールノード、及びヘッドノードとテールノードとの間の関係のうちのいずれかである場合、知識事前訓練モデルに常識知識学習をさせてもよく、予め設定された要素が文章内のいずれか1つの単語である場合、知識事前訓練モデルに意味知識学習をさせてもよいことは理解される。 Selectably, the preset elements may be any of head nodes, tail nodes, and relationships between head and tail nodes in the structured knowledge text, or human words in sentences. . In addition, if the preset element is any one of the head node, the tail node, and the relationship between the head node and the tail node in the structured knowledge text, the knowledge pre-trained model is allowed to learn common sense knowledge. It is understood that the knowledge pre-trained model may be semantically learned if the preset element is any one word in the sentence.

例えば、テキストが「張三の年齢は26歳で、張三の卒業学院は華中科技大学で、華中科技大学は理系大学で、写真、ビデオ編集が得意です」で、構造化知識テキストが「張三卒業大学華中科技大学」である場合、この構造化知識テキストのヘッドノードは張三であり、テールノードは華中科技大学であり、ヘッドノードとテールノードとの関係は卒業校であり、文章は「張三の年齢は26歳で、卒業大学は華中科技大学で、華中科技大学は理工系大学で、写真、ビデオ編集が得意です。」になる。予め設定された要素がマスクされた訓練テキストは「張三の年齢は26歳で、「Mask」卒業大学は華中科技大学で、華中科技大学は理系大学で、写真、ビデオ編集が得意です。」、「張三の年齢は26歳で、張三「Mask」は華中科技大学で、華中科技大学は理系大学で、写真、ビデオ編集が得意です。」、「張三の年齢は26歳です。張三の卒業大学は「Mask」で、華中科技大学は理系大学で、写真、ビデオ編集が得意です。」、「張三の年齢は26歳です。張三の卒業学院は華中科技大学で、華中科技大学は[Mask]で、写真、ビデオ編集が得意です」、を含むが、これに限定されない。 For example, if the text is "Zhang San is 26 years old, he graduated from Huazhong University of Science and Technology, which is a science university, and he is good at photo and video editing," and the structured knowledge text is "Zhang San Huazhong University of Science and Technology", the head node of this structured knowledge text is Zhang San, the tail node is Huazhong University of Science and Technology, the relationship between the head node and the tail node is the graduation school, and the sentence is "Zhang San is 26 years old. He graduated from Huazhong University of Science and Technology, which is a science and technology university. He is good at photo and video editing." The training text with the preset elements masked is "Zhang San's age is 26 years old," Mask "Graduated University is Huazhong University of Science and Technology, Huazhong University of Science and Technology is a college of science, good at photo and video editing. "Zhang San's age is 26 years old. Zhang San "Mask" is from Huazhong University of Science and Technology. Huazhong University of Science and Technology is a college of science and is good at photo and video editing. , "Zhang San is 26 years old. Zhang San graduated from "Mask" and Huazhong University of Science and Technology, specializing in photo and video editing. , "Zhang San's age is 26 years old. Zhang San's graduation academy is Huazhong University of Science and Technology, which is [Mask]. He is good at photo and video editing", including but not limited to.

ステップ302、予め設定された要素の予測データと予め設定された要素に基づいて訓練対象の知識事前訓練モデルを訓練する。 Step 302, training a knowledge pre-trained model to be trained according to the preset factor prediction data and the preset factor;

選択可能に、予め設定された要素の予測データと予め設定された要素との間に差異がある場合、上記の差異に基づいて、訓練対象の知識事前訓練モデルを訓練して、知識事前訓練モデルが収束するか、または反復回数が予め設定された反復回数の閾値に到達するか、またはモデル精度が予め設定された精度の閾値に達するまで、知識事前訓練モデルの訓練を終了させ、最後の訓練によって取得された知識事前訓練モデルを訓練された知識事前訓練モデルとすることができる。ここで、反復回数閾値、精度閾値は、実際の状況に応じて設定することができる。 Selectably, if there is a difference between the prediction data of the preset element and the preset element, training a knowledge pre-trained model of the training target based on said difference to produce a knowledge pre-trained model converge, or the number of iterations reaches a preset threshold number of iterations, or the model accuracy reaches a preset accuracy threshold, until the training of the knowledge pretrained model is terminated, and the last training can be the trained knowledge pre-trained model. Here, the iteration count threshold and the accuracy threshold can be set according to the actual situation.

これにより、この方法は、予め設定された要素がマスクされた訓練テキストを訓練対象の知識事前訓練モデルに入力して、予め設定された要素の予測データを生成し、予め設定された要素の予測データと予め設定された要素に基づいて訓練対象の知識事前訓練モデルを訓練する。 Thus, the method inputs the training text with the preset elements masked into the knowledge pre-trained model to be trained to generate the prediction data of the preset elements, and the prediction data of the preset elements. Train a knowledge pre-trained model of the training target based on data and preset factors.

図4は本開示の第1の実施例に係る知識事前訓練モデルの訓練装置のブロック図である。 FIG. 4 is a block diagram of a training device for knowledge pre-trained models according to the first embodiment of the present disclosure.

図4に示すように、本開示の実施例の知識事前訓練モデルの訓練装置400は、取得モジュール401と訓練モジュール402とを含む。 As shown in FIG. 4, a knowledge pre-trained model training device 400 of an embodiment of the present disclosure includes an acquisition module 401 and a training module 402 .

取得モジュール401は、訓練テキストを取得するように構成され、前記訓練テキストは構造化知識テキスト及び対応する文章を含み、前記構造化知識テキストは、ヘッドノード、テールノード、及びヘッドノードとテールノードとの関係を含む。 The acquisition module 401 is configured to acquire a training text, said training text comprising a structured knowledge text and corresponding sentences, said structured knowledge text comprising a head node, a tail node, and a head node and a tail node. including the relationship between

訓練モジュール402は、前記訓練テキストに基づいて訓練対象の知識事前訓練モデルを訓練するように構成される。 A training module 402 is configured to train a knowledge pretrained model to be trained based on the training text.

本開示の1つの実施例では、前記訓練モジュール402は、具体的に、予め設定された要素がマスクされた前記訓練テキストを前記訓練対象の知識事前訓練モデルに入力して、予め設定された要素の予測データを生成し、前記予め設定された要素の予測データと前記予め設定された要素に基づいて訓練対象の知識事前訓練モデルを訓練するように構成される。 In one embodiment of the present disclosure, the training module 402 specifically inputs the training text, with preset elements masked, into the knowledge pre-trained model of the trainee so that preset elements are masked. and train a knowledge pre-trained model to be trained based on the prediction data of the preset factor and the preset factor.

本開示の1つの実施例において、前記予め設定された要素は、前記構造化知識テキストにおける前記ヘッドノード、前記テールノード、及び前記関係のうちのいずれか1つ、または前記文章内のいずれか1つの単語である。 In one embodiment of the present disclosure, the preset element is any one of the head node, the tail node, and the relation in the structured knowledge text, or any one in the sentence. one word.

以上、本開示の実施例の知識事前訓練モデルの訓練装置は、訓練テキストを取得し、訓練テキストは構造化知識テキスト及び対応する文章を含み、構造化知識テキストは、ヘッドノード、テールノード、及びヘッドノードとテールノードとの関係を含み、訓練テキストに基づいて訓練対象の知識事前訓練モデルを訓練する。従って、訓練対象の知識事前訓練モデルは、常識知識と豊富な意味知識を同時に習得でき、常識知識と意味知識の共同訓練を実現でき、訓練エンティティを訓練対象の知識事前訓練モデルに埋め込む必要がなく、知識事前訓練モデルの性能利得は、訓練エンティティの埋め込み品質に制限されない。知識事前訓練モデルは、訓練テキストの文章から豊富なコンテキスト情報を取得することができ、且つ動的に調整することができ、柔軟性が高い。 Above, the training device for the knowledge pre-trained model of the embodiment of the present disclosure obtains the training text, the training text includes the structured knowledge text and the corresponding sentences, the structured knowledge text includes the head node, the tail node, and the Train a knowledge pre-trained model of the training target based on the training text, including the relationship between the head node and the tail node. Therefore, the knowledge pre-trained model of the training target can acquire common sense knowledge and rich semantic knowledge at the same time, and the joint training of common knowledge and semantic knowledge can be realized, and the training entity does not need to be embedded in the knowledge pre-trained model of the training target. , the performance gain of a knowledge pretrained model is not limited to the embedding quality of the training entity. Knowledge pre-trained models are capable of obtaining rich contextual information from the sentences of the training text and are dynamically adjustable and flexible.

図5は、本開示の第2の実施例に係る知識事前訓練モデルの訓練装置のブロック図である。 FIG. 5 is a block diagram of a training device for knowledge pre-trained models according to a second embodiment of the present disclosure.

図5に示すように、本開示の実施例の知識事前訓練モデルの訓練装置500は、取得モジュール501と訓練モジュール502とを含む。 As shown in FIG. 5, a knowledge pre-trained model training device 500 of an embodiment of the present disclosure includes an acquisition module 501 and a training module 502 .

ここで、訓練モジュール502は、訓練モジュール402と同じ機能及び構造を有する。 Here, training module 502 has the same functionality and structure as training module 402 .

本開示の1実施例では、前記取得モジュール501は、単語エントリを取得するための第1の取得ユニット5011と、前記単語エントリに基づいて対応する前記文章を取得するための第2の取得ユニット5012と、前記単語エントリと前記文章に基づいて対応するターゲットトリプルを取得するための第3の取得ユニット5013と、前記ターゲットトリプルをテキスト化して、前記構造化知識テキストを取得するためのテキスト化ユニット5014と、前記構造化知識テキストと文章をスプライシングして、前記訓練テキストを取得するためのスプライシングユニット5015と、を含む。 In one embodiment of the present disclosure, said obtaining module 501 comprises a first obtaining unit 5011 for obtaining word entries and a second obtaining unit 5012 for obtaining said corresponding sentences based on said word entries. a third obtaining unit 5013 for obtaining corresponding target triples based on the word entry and the sentence; and a textualization unit 5014 for textualizing the target triples to obtain the structured knowledge text. and a splicing unit 5015 for splicing the structured knowledge text and sentences to obtain the training text.

本開示の1つの実施例において、前記第3の取得ユニット5013は、具体的に、前記単語エントリを前記ヘッドノードとして知識グラフから対応する候補トリプルを取得し、前記候補トリプルが、前記ヘッドノード、対応する前記テールノード、及び前記関係を含み、前記文章に現れた前記テールノードに対応する前記候補トリプルを前記ターゲットトリプルとして決定するように構成される。 In one embodiment of the present disclosure, the third obtaining unit 5013 specifically obtains corresponding candidate triples from a knowledge graph with the word entry as the head node, wherein the candidate triples are the head node, including the corresponding tail node and the relation, and configured to determine the candidate triple corresponding to the tail node appearing in the sentence as the target triple.

以上、本開示の実施例の知識事前訓練モデルの訓練装置は、訓練テキストを取得し、訓練テキストは構造化知識テキスト及び対応する文章を含み、構造化知識テキストは、ヘッドノードとテールノードとヘッドノードとテールノードとの関係を含み、訓練テキストに基づいて訓練対象の知識事前訓練モデルを訓練する。従って、訓練対象の知識事前訓練モデルは、常識知識と豊富な意味知識を同時に習得でき、常識知識と意味知識の共同訓練を実現でき、訓練エンティティを訓練対象の知識事前訓練モデルに埋め込む必要がなく、知識事前訓練モデルの性能利得は、訓練エンティティの埋め込み品質に制限されない。知識事前訓練モデルは、訓練テキストの文章から豊富なコンテキスト情報を取得することができ、且つ動的に調整することができ、柔軟性が高い。 As described above, the training device for the knowledge pre-trained model of the embodiment of the present disclosure obtains the training text, the training text includes the structured knowledge text and the corresponding sentences, the structured knowledge text includes the head node, the tail node and the head node. Train a knowledge pre-trained model of the training target based on the training text, including the relationships between the nodes and the tail nodes. Therefore, the knowledge pre-trained model of the training target can acquire common sense knowledge and rich semantic knowledge at the same time, and the joint training of common knowledge and semantic knowledge can be realized, and the training entity does not need to be embedded in the knowledge pre-trained model of the training target. , the performance gain of a knowledge pretrained model is not limited to the embedding quality of the training entity. Knowledge pre-trained models are capable of obtaining rich contextual information from the sentences of the training text and are dynamically adjustable and flexible.

本出願の実施例によれば、本出願は、電子機器、読み取り可能な記憶媒体とコンピュータプログラム製品を提供する。
本出願の実施例によれば、本出願は、コンピュータプログラムを提供し、コンピュータプログラムは、コンピュータに本出願によって提供される知識事前訓練モデルの訓練方法を実行させる。
According to embodiments of the present application, the present application provides an electronic device, a readable storage medium and a computer program product.
According to an embodiment of the present application, the present application provides a computer program, which causes a computer to perform a method of training a knowledge pre-trained model provided by the present application.

図6に示すように、それは本出願の実施例に係る電子機器600の電子機器の概略ブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタルプロセッサ、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本出願の実現を制限することを意図したものではない。 As shown in FIG. 6, it is a schematic block diagram of an electronic device of an electronic device 600 according to an embodiment of the present application. Electronic equipment is intended to represent various forms of digital computers such as laptop computers, desktop computers, workstations, personal digital assistants, servers, blade servers, mainframe computers, and other suitable computers. Electronics can also represent various forms of mobile devices such as personal digital processors, mobile phones, smart phones, wearable devices, and other similar computing devices. The components, their connections and relationships, and their functions shown herein are merely examples and are not intended to limit the description and/or required implementation of the application herein.

図6に示すように、装置600は、計算ユニット601を含み、これは読み取り専用メモリ(ROM)602に記憶されているコンピュータプログラムまたは記憶ユニット608からランダムアクセスメモリ(RAM)603にロードされたコンピュータプログラムに基づいて、様々な適切な動作及び処理を実行することができる。RAM603において、デバイス600が動作するために必要な各種プログラム及びデータも記憶することができる。計算ユニット601、ROM602、及びRAM603は、バス604を介して互いに接続されている。バス604には、入力/出力(I/O)インタフェース605も接続されている。 As shown in FIG. 6, the apparatus 600 includes a computing unit 601, which is a computer program stored in a read only memory (ROM) 602 or a computer program loaded into a random access memory (RAM) 603 from a storage unit 608. Various suitable actions and processes can be performed based on the program. Various programs and data necessary for the device 600 to operate can also be stored in the RAM 603 . Computing unit 601 , ROM 602 and RAM 603 are connected to each other via bus 604 . An input/output (I/O) interface 605 is also connected to bus 604 .

デバイス600における複数のコンポーネントは、キーボード、マウスなどの入力ユニット606と、様々なタイプのディスプレイ、スピーカなどの出力ユニット607と、磁気ディスク、光ディスクなどの記憶ユニット608と、ネットワークカード、モデム、無線通信トランシーバなどの通信ユニット609と、を含む入出力(I/O)インタフェース605に接続されている。通信ユニット609は、デバイス600がインターネットなどのコンピュータネットワーク及び/又は様々な電気通信ネットワークを介して他のデバイスと情報/データを交換することを可能にする。 The multiple components in the device 600 are an input unit 606 such as a keyboard, mouse, etc., an output unit 607 such as various types of displays, speakers, etc., a storage unit 608 such as a magnetic disk, optical disk, etc., a network card, a modem, wireless communication. It is connected to an input/output (I/O) interface 605 including a communication unit 609 such as a transceiver. Communication unit 609 enables device 600 to exchange information/data with other devices over computer networks such as the Internet and/or various telecommunications networks.

計算ユニット601は、各処理及び計算能力を有する様々な汎用及び/または専用の処理コンポーネントであってもよい。計算ユニット601のいくつかの例は、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、各種専用の人工知能(AI)計算チップ、各種の運転機器学習モデルアルゴリズムの計算ユニット、デジタル信号プロセッサ(DSP)、及びどのような適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット601は上記様々な方法及び処理、例えば、例えば図1~図3で説明された知識事前訓練モデルの訓練方法を実行する。例えば、いくつかの実施例において、知識事前訓練モデルの訓練方法は、記憶ユニット608などの機器読み取り可能な媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現することができる。ある実施例では、コンピュータプログラムの一部または全部は、ROM602及び/または通信ユニット609を介して電子デバイス600にロード及び/またはインストールされることができる。コンピュータプログラムがRAM603にロードされ、計算ユニット601によって実行される場合、上記説明した知識事前訓練モデルの訓練方法の1つまたは複数のステップを実行することができる。代替的に、他の実施例では、計算ユニット601は、知識事前訓練モデルを実行するための訓練方法として、他のいずれかの適切な方法(例えば、ファームウェアを介して)によって構成されてもよい。 Computing unit 601 may be various general purpose and/or special purpose processing components having respective processing and computing capabilities. Some examples of computing unit 601 include a central processing unit (CPU), a graphics processing unit (GPU), various dedicated artificial intelligence (AI) computing chips, computing units for various driving equipment learning model algorithms, digital signal processors ( DSP), and any suitable processor, controller, microcontroller, etc. The computing unit 601 performs the various methods and processes described above, eg, the training method of the knowledge pretrained model described in FIGS. 1-3, for example. For example, in some embodiments, the training method for the knowledge pre-trained model can be implemented as a computer software program tangibly contained in a machine-readable medium such as storage unit 608 . In some embodiments, part or all of a computer program can be loaded and/or installed on electronic device 600 via ROM 602 and/or communication unit 609 . When the computer program is loaded into RAM 603 and executed by computing unit 601, it can perform one or more steps of the method of training a knowledge pre-trained model described above. Alternatively, in other embodiments, computing unit 601 may be configured by any other suitable method (eg, via firmware) as a training method for executing a knowledge pretrained model. .

本明細書で上記システム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、専用集積回路(ASIC)、専用標準製品(ASSP)、チップ上システムのシステム(SOC)、負荷プログラマブル論理デバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/またはそれらの組み合わせで実現できる。これらの様々な実施形態は、1つまたは複数のコンピュータプログラムにおいて実施され、この1つまたは複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラム可能システム上で実行及び/または解釈することができ、このプログラマブルプロセッサは、専用または共用プログラム可能プロセッサであっても良く、記憶システム、少なくとも1つの入力デバイス、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令をこの記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置に送信することを含むことができる。 Various embodiments of the systems and techniques described herein include digital electronic circuit systems, integrated circuit systems, field programmable gate arrays (FPGAs), dedicated integrated circuits (ASICs), dedicated standard products (ASSPs), systems on chip. system (SOC), load programmable logic device (CPLD), computer hardware, firmware, software, and/or combinations thereof. These various embodiments are embodied in one or more computer programs, which can be executed and/or interpreted on a programmable system including at least one programmable processor. , the programmable processor, which may be a dedicated or shared programmable processor, receives data and instructions from the storage system, at least one input device, and at least one output device, and transmits data and instructions to the storage system, at least It can include transmitting to one input device and at least one output device.

本開示の方法を実施するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで書くことができる。これらのプログラムコードは、プロセッサ又はコントローラによって実行された際に、フローチャート及び/又はブロック図に規定された機能/動作が実施されるように、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供されてもよい。プログラムコードは、完全に機械上で実行され、部分的に機械上で実行され、スタンドアロンパッケージとして、部分的に機械上で実行され、かつ部分的にリモート機械上で実行され、又は完全にリモート機械又はサーバ上で実行されてもよい。 Program code to implement the methods of the present disclosure may be written in any combination of one or more programming languages. These program codes may be implemented in a general purpose computer, special purpose computer, or other programmable data processing apparatus, to perform the functions/acts specified in the flowchart illustrations and/or block diagrams when executed by a processor or controller. It may be provided in a processor or controller. Program code may be executed entirely on a machine, partially on a machine, as a stand-alone package, partially executed on a machine, and partially executed on a remote machine, or entirely remote machine. or run on a server.

本出願の文脈では、機械読み取り可能な媒体は、命令実行システム、装置、又はデバイスによって使用されるために、又は命令実行システム、装置、又はデバイスと組み合わせて使用するためのプログラムを含むか、又は格納することができる有形の媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体又は機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、又は半導体システム、装置又はデバイス、又はこれらの任意の適切な組み合わせを含むことができるが、これらに限定されない。機械読み取り可能な記憶媒体のより具体的な例は、1つ又は複数のラインに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、又はこれらの任意の適切な組み合わせを含む。 In the context of this application, a machine-readable medium contains a program for use by or in combination with an instruction execution system, apparatus, or device, or It may be a tangible medium capable of being stored. A machine-readable medium may be a machine-readable signal medium or a machine-readable storage medium. Machine-readable media can include, but are not limited to, electronic, magnetic, optical, electromagnetic, infrared, or semiconductor systems, apparatus or devices, or any suitable combination thereof. More specific examples of machine-readable storage media are electrical connections based on one or more lines, portable computer disks, hard disks, random access memory (RAM), read-only memory (ROM), erasable programmable reads. memory only (EPROM or flash memory), optical fiber, portable compact disk read only memory (CD-ROM), optical storage, magnetic storage, or any suitable combination thereof.

ユーザとのインタラクションを提供するために、ここで説明されているシステム及び技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクションを提供することもでき、例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形態(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。 To provide interaction with a user, the systems and techniques described herein can be implemented on a computer that includes a display device (e.g., cathode ray tube (CRT)) for displaying information to the user. ) or LCD (liquid crystal display) monitor), and a keyboard and pointing device (e.g., mouse or trackball) through which a user can provide input to the computer. Other types of devices can also provide interaction with a user, e.g., the feedback provided to the user can be any form of sensing feedback (e.g., visual, auditory, or tactile feedback). may receive input from the user in any form (including acoustic, speech, and tactile input).

ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。 The systems and techniques described herein may be computing systems that include back-end components (e.g., data servers), or computing systems that include middleware components (e.g., application servers), or computing systems that include front-end components. A system (e.g., a user computer having a graphical user interface or web browser, through which users interact with embodiments of the systems and techniques described herein), or such a backend component , middleware components, and front-end components in any combination. The components of the system can be interconnected by any form or medium of digital data communication (eg, a communication network). Examples of communication networks include local area networks (LAN), wide area networks (WAN), and the Internet.

コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバはクラウドサーバであり、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれ、クラウドコンピューティングサービスシステムにおける1つのホスト製品であり、従来の物理ホストとVPSサービス(「Virtual Private Server」または「VPS」と略称する)に存在する管理困難度が高く、業務拡張性が弱い欠陥を解決したためである。サーバは分散システムのサーバであってもいいし、ブロックチェーンを組み込んだサーバであっても良い。 The computer system can include clients and servers. A client and server are generally remote from each other and typically interact through a communication network. The relationship of client and server is created by computer programs running on corresponding computers and having a client-server relationship to each other. The server is a cloud server, also known as a cloud computing server or cloud host, is one host product in the cloud computing service system, and is the same as the traditional physical host and VPS service (abbreviated as "Virtual Private Server" or "VPS" This is because it resolved the flaws that existed in the existing system, which is difficult to manage and weak in business expandability. The server can be a distributed system server or a server that incorporates a blockchain.

本出願の実施例によれば、本出願は、コンピュータプログラム製品をさらに提供し、コンピュータプログラムを含み、ここで、前記コンピュータプログラムはプロセッサによって実行される場合、本明出願の上記の実施例で説明された知識事前訓練モデルの訓練方法を実現する。 According to an embodiment of the present application, the present application further provides a computer program product, comprising a computer program, wherein said computer program, when executed by a processor, performs the steps described in the above embodiments of the present application. We implement a training method for the knowledge pre-trained model that has been modified.

なお、上記に示される様々な形態のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本出願に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本出願で開示されている技術案の所望の結果を実現することができれば、本明細書では限定されない。 It should be appreciated that steps may be reordered, added, or deleted using the various forms of flow shown above. For example, each step described in this application may be performed in parallel, sequentially, or in a different order, but the technology disclosed in this application There is no limitation herein as long as the desired result of the scheme can be achieved.

上記具体的な実施形態は、本出願の保護範囲を限定するものではない。当業者は、設計要件と他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。任意の本願の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本出願の保護範囲内に含まれるべきである。 The above specific embodiments are not intended to limit the protection scope of the present application. Those skilled in the art can make various modifications, combinations, subcombinations, and substitutions depending on design requirements and other factors. Any modification, equivalent replacement, improvement, etc. made within the spirit and principle of this application shall all fall within the protection scope of this application.

Claims (11)

知識事前訓練モデルの訓練方法であって、
訓練テキストを取得するステップであって、前記訓練テキストは、構造化知識テキスト及び対応する文章を含み、前記構造化知識テキストは、ヘッドノード、テールノード、及び前記ヘッドノードと前記テールノードとの関係を含むステップと、
前記訓練テキストに基づいて、訓練対象の知識事前訓練モデルを訓練するステップと、を含み、
前記知識事前訓練モデルの訓練方法は、
単語エントリを取得するステップと、
前記単語エントリに基づいて、対応する前記文章を取得するステップと、
前記単語エントリ及び前記文章に基づいて、対応するターゲットトリプルを取得するステップと、
前記ターゲットトリプルをテキスト化して、前記構造化知識テキストを取得するステップと、
前記構造化知識テキストと前記文章をスプライシングして、前記訓練テキストを取得するステップと、をさらに含む、
ことを特徴とする知識事前訓練モデルの訓練方法。
A method of training a knowledge pretrained model, comprising:
obtaining a training text, the training text comprising a structured knowledge text and corresponding sentences, the structured knowledge text comprising head nodes, tail nodes, and relationships between the head nodes and the tail nodes; a step comprising
training a knowledge pretrained model to be trained based on the training text;
The training method for the knowledge pre-trained model comprises:
obtaining word entries;
obtaining the corresponding sentence based on the word entry;
obtaining corresponding target triples based on the word entry and the sentence;
textualizing the target triples to obtain the structured knowledge text;
splicing the structured knowledge text and the sentences to obtain the training text;
A training method for a knowledge pre-trained model characterized by:
前記訓練テキストに基づいて、訓練対象の知識事前訓練モデルを訓練するステップは、
予め設定された要素がマスクされた前記訓練テキストを前記訓練対象の知識事前訓練モデルに入力して、前記予め設定された要素の予測データを生成するステップと、
前記予め設定された要素の予測データ及び前記予め設定された要素に基づいて、前記訓練対象の知識事前訓練モデルを訓練するステップと、を含む、
ことを特徴とする請求項1に記載の訓練方法。
Based on the training text, training a knowledge pretrained model to be trained comprises:
inputting the training text with preset elements masked into the trained knowledge pre-trained model to generate prediction data for the preset elements;
training a knowledge pre-trained model of the training target based on the preset factor prediction data and the preset factor;
The training method according to claim 1, characterized by:
前記予め設定された要素は、前記構造化知識テキスト内の前記ヘッドノード、前記テールノード、及び前記関係のうちのいずれか1つ、または前記文章内のいずれか1つの単語である、
ことを特徴とする請求項2に記載の訓練方法。
the preset element is any one of the head node, the tail node, and the relationship in the structured knowledge text, or any one word in the sentence;
The training method according to claim 2, characterized by:
前記単語エントリ及び前記文章に基づいて、対応するターゲットトリプルを取得するステップは、
前記単語エントリを前記ヘッドノードとして、知識グラフから対応する候補トリプルを取得するステップであって、前記候補トリプルは、前記ヘッドノード、対応する前記テールノード、及び前記関係を含むステップと、
前記文章に現れた前記テールノードに対応する前記候補トリプルを前記ターゲットトリプルとして決定するステップと、を含む、
ことを特徴とする請求項1に記載の訓練方法。
Obtaining corresponding target triples based on the word entry and the sentence includes:
obtaining corresponding candidate triples from a knowledge graph with the word entry as the head node, the candidate triples including the head node, the corresponding tail node, and the relation;
determining the candidate triple corresponding to the tail node appearing in the sentence as the target triple;
The training method according to claim 1, characterized by:
知識事前訓練モデルの訓練装置であって、
訓練テキストを取得するための取得モジュールであって、前記訓練テキストは、構造化知識テキスト及び対応する文章を含み、前記構造化知識テキストは、ヘッドノード、テールノード、及び前記ヘッドノードと前記テールノードとの関係を含む取得モジュールと、
前記訓練テキストに基づいて、訓練対象の知識事前訓練モデルを訓練するための訓練モジュールと、を含み、
前記取得モジュールが、
単語エントリを取得するための第1の取得ユニットと、
前記単語エントリに基づいて、対応する前記文章を取得するための第2の取得ユニットと、
前記単語エントリ及び前記文章に基づいて、対応するターゲットトリプルを取得するための第3の取得ユニットと、
前記ターゲットトリプルをテキスト化して、前記構造化知識テキストを取得するためのテキスト化ユニットと、
前記構造化知識テキストと前記文章をスプライシングして、前記訓練テキストを取得するためのスプライシングユニットと、を含む、
ことを特徴とする知識事前訓練モデルの訓練装置。
A training device for a knowledge pretrained model, comprising:
An acquisition module for acquiring a training text, the training text comprising a structured knowledge text and corresponding sentences, the structured knowledge text comprising a head node, a tail node, and the head node and the tail node. a retrieval module containing a relationship with
a training module for training a knowledge pretrained model to be trained based on the training text;
the acquisition module,
a first obtaining unit for obtaining word entries;
a second obtaining unit for obtaining the corresponding sentence based on the word entry;
a third obtaining unit for obtaining corresponding target triples based on the word entry and the sentence;
a textualization unit for textualizing the target triples to obtain the structured knowledge text;
a splicing unit for splicing the structured knowledge text and the sentences to obtain the training text;
A knowledge pre-trained model training device characterized by:
前記訓練モジュールが、
予め設定された要素がマスクされた前記訓練テキストを前記訓練対象の知識事前訓練モデルに入力して、前記予め設定された要素の予測データを生成し、
前記予め設定された要素の予測データ及び前記予め設定された要素に基づいて、前記訓練対象の知識事前訓練モデルを訓練する、
ことを特徴とする請求項5に記載の訓練装置。
The training module comprises:
inputting the training text with preset elements masked into the knowledge pre-trained model of the training target to generate prediction data for the preset elements;
training a knowledge pre-trained model of the training target based on predictive data of the preset factor and the preset factor;
6. The training device according to claim 5, characterized in that:
前記予め設定された要素は、前記構造化知識テキスト内の前記ヘッドノード、前記テールノード、及び前記関係のうちのいずれか1つ、または前記文章内のいずれか1つの単語である、
ことを特徴とする請求項に記載の訓練装置。
the preset element is any one of the head node, the tail node, and the relationship in the structured knowledge text, or any one word in the sentence;
The training device according to claim 6 , characterized in that:
前記第3の取得ユニットが、
前記単語エントリを前記ヘッドノードとして、知識グラフから対応する候補トリプルを取得し、前記候補トリプルが、前記ヘッドノード、対応する前記テールノード、及び前記関係を含み、
前記文章に現れた前記テールノードに対応する前記候補トリプルを前記ターゲットトリプルとして決定する、
ことを特徴とする請求項5に記載の訓練装置。
the third acquisition unit comprising:
obtaining corresponding candidate triples from a knowledge graph with the word entry as the head node, the candidate triples including the head node, the corresponding tail node, and the relation;
determining the candidate triple corresponding to the tail node appearing in the sentence as the target triple;
6. The training device according to claim 5, characterized in that:
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~4のいずれか1項に記載の知識事前訓練モデルの訓練方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
ことを特徴とする電子機器。
at least one processor;
a memory communicatively coupled to the at least one processor;
The memory stores instructions executable by the at least one processor, and the instructions allow the at least one processor to perform the training method for the knowledge pre-trained model according to any one of claims 1 to 4. executably executed by the at least one processor;
An electronic device characterized by:
コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1~4のいずれか1項に記載の知識事前訓練モデルの訓練方法を実行させる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
A non-transitory computer-readable storage medium having computer instructions stored thereon,
The computer instructions cause a computer to execute the method of training a knowledge pretrained model according to any one of claims 1 to 4,
A non-transitory computer-readable storage medium characterized by:
コンピュータプログラムであって、
前記コンピュータプログラムは、コンピュータに請求項1~4のいずれか1項に記載の知識事前訓練モデルの訓練方法を実行させる、
ことを特徴とするコンピュータプログラム。
A computer program,
The computer program causes a computer to execute the knowledge pre-trained model training method according to any one of claims 1 to 4,
A computer program characterized by:
JP2021153346A 2020-12-21 2021-09-21 Knowledge pre-trained model training method, apparatus and electronic equipment Active JP7335300B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011520100.9 2020-12-21
CN202011520100.9A CN112507706B (en) 2020-12-21 2020-12-21 Training method and device for knowledge pre-training model and electronic equipment

Publications (2)

Publication Number Publication Date
JP2022006173A JP2022006173A (en) 2022-01-12
JP7335300B2 true JP7335300B2 (en) 2023-08-29

Family

ID=74922811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021153346A Active JP7335300B2 (en) 2020-12-21 2021-09-21 Knowledge pre-trained model training method, apparatus and electronic equipment

Country Status (3)

Country Link
US (1) US20210248498A1 (en)
JP (1) JP7335300B2 (en)
CN (1) CN112507706B (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115248855A (en) * 2021-04-27 2022-10-28 腾讯科技(深圳)有限公司 Text processing method and device, electronic equipment and computer readable storage medium
CN113449104A (en) * 2021-06-22 2021-09-28 上海明略人工智能(集团)有限公司 Label enhancement model construction method and system, electronic equipment and storage medium
CN113409884B (en) * 2021-06-30 2022-07-22 北京百度网讯科技有限公司 Training method of sequencing learning model, sequencing method, device, equipment and medium
CN114595686B (en) * 2022-03-11 2023-02-03 北京百度网讯科技有限公司 Knowledge extraction method, and training method and device of knowledge extraction model
CN114841471B (en) * 2022-06-28 2023-04-07 北京世纪好未来教育科技有限公司 Knowledge point prediction method and device, electronic equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049681A (en) 2015-08-31 2017-03-09 国立研究開発法人情報通信研究機構 Training device for question answering system and computer program therefor
CN110263324A (en) 2019-05-16 2019-09-20 华为技术有限公司 Text handling method, model training method and device
JP2019207648A (en) 2018-05-30 2019-12-05 株式会社野村総合研究所 Interactive business assistance system
US20200160149A1 (en) 2018-11-16 2020-05-21 Fujitsu Limited Knowledge completion method and information processing apparatus

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6735578B2 (en) * 2001-05-10 2004-05-11 Honeywell International Inc. Indexing of knowledge base in multilayer self-organizing maps with hessian and perturbation induced fast learning
DE102016010909A1 (en) * 2015-11-11 2017-05-11 Adobe Systems Incorporated Structured modeling, extraction and localization of knowledge from images
CN109582798A (en) * 2017-09-29 2019-04-05 阿里巴巴集团控股有限公司 Automatic question-answering method, system and equipment
CN111144115B (en) * 2019-12-23 2023-10-20 北京百度网讯科技有限公司 Pre-training language model acquisition method, device, electronic equipment and storage medium
CN112001180A (en) * 2020-07-14 2020-11-27 北京百度网讯科技有限公司 Multi-mode pre-training model acquisition method and device, electronic equipment and storage medium
CN112100404B (en) * 2020-09-16 2021-10-15 浙江大学 Knowledge graph pre-training method based on structured context information
US20220147861A1 (en) * 2020-11-06 2022-05-12 Robert Bosch Gmbh Knowledge-Driven and Self-Supervised System for Question-Answering

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049681A (en) 2015-08-31 2017-03-09 国立研究開発法人情報通信研究機構 Training device for question answering system and computer program therefor
JP2019207648A (en) 2018-05-30 2019-12-05 株式会社野村総合研究所 Interactive business assistance system
US20200160149A1 (en) 2018-11-16 2020-05-21 Fujitsu Limited Knowledge completion method and information processing apparatus
JP2020086566A (en) 2018-11-16 2020-06-04 富士通株式会社 Knowledge complementing program, knowledge complementing method and knowledge complementing apparatus
CN110263324A (en) 2019-05-16 2019-09-20 华为技术有限公司 Text handling method, model training method and device

Also Published As

Publication number Publication date
CN112507706A (en) 2021-03-16
JP2022006173A (en) 2022-01-12
US20210248498A1 (en) 2021-08-12
CN112507706B (en) 2023-01-31

Similar Documents

Publication Publication Date Title
JP7335300B2 (en) Knowledge pre-trained model training method, apparatus and electronic equipment
CN112528672B (en) Aspect-level emotion analysis method and device based on graph convolution neural network
US10592607B2 (en) Iterative alternating neural attention for machine reading
CN112131366B (en) Method, device and storage medium for training text classification model and text classification
US10726204B2 (en) Training data expansion for natural language classification
US9805718B2 (en) Clarifying natural language input using targeted questions
US10832658B2 (en) Quantized dialog language model for dialog systems
CN108124477B (en) Improving word segmenters to process natural language based on pseudo data
JP7108675B2 (en) Semantic matching method, device, electronic device, storage medium and computer program
JP7301922B2 (en) Semantic retrieval method, device, electronic device, storage medium and computer program
JP2019504413A (en) System and method for proposing emoji
KR20190073525A (en) Implicit bridging of machine learning tasks
JP2021152963A (en) Word meaning feature generating method, model training method, apparatus, device, medium, and program
KR102565673B1 (en) Method and apparatus for generating semantic representation model,and storage medium
CN113657100B (en) Entity identification method, entity identification device, electronic equipment and storage medium
CN112100332A (en) Word embedding expression learning method and device and text recall method and device
JP7413630B2 (en) Summary generation model training method, apparatus, device and storage medium
CN115309877B (en) Dialogue generation method, dialogue model training method and device
CN111488742B (en) Method and device for translation
JP2021033995A (en) Text processing apparatus, method, device, and computer-readable storage medium
JP2023002690A (en) Semantics recognition method, apparatus, electronic device, and storage medium
US20210233520A1 (en) Contextual multi-channel speech to text
WO2023045186A1 (en) Intention recognition method and apparatus, and electronic device and storage medium
CN114722833A (en) Semantic classification method and device
CN115357710B (en) Training method and device for table description text generation model and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230817

R150 Certificate of patent or registration of utility model

Ref document number: 7335300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150