JP2022514842A - エンティティ意味関係分類 - Google Patents
エンティティ意味関係分類 Download PDFInfo
- Publication number
- JP2022514842A JP2022514842A JP2021534922A JP2021534922A JP2022514842A JP 2022514842 A JP2022514842 A JP 2022514842A JP 2021534922 A JP2021534922 A JP 2021534922A JP 2021534922 A JP2021534922 A JP 2021534922A JP 2022514842 A JP2022514842 A JP 2022514842A
- Authority
- JP
- Japan
- Prior art keywords
- entity
- semantic relationship
- word
- training sample
- vector corresponding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 claims abstract description 363
- 238000012549 training Methods 0.000 claims abstract description 331
- 238000013145 classification model Methods 0.000 claims abstract description 164
- 238000000034 method Methods 0.000 claims abstract description 48
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 230000007246 mechanism Effects 0.000 claims description 10
- 230000002457 bidirectional effect Effects 0.000 claims description 9
- 230000000306 recurrent effect Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000010586 diagram Methods 0.000 abstract description 13
- 230000000875 corresponding effect Effects 0.000 description 214
- 238000012545 processing Methods 0.000 description 19
- 210000002569 neuron Anatomy 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 238000004590 computer program Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 6
- 238000013136 deep learning model Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000013016 learning Effects 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
Description
であるとする。その中で、<e1></e1>を第1のエンティティの識別子として、<e2></e2>を第2のエンティティの識別子として使用する場合、電子機器は、当該トレーニングサンプルを受信すると、<e1></e1>を識別した結果、取得された第1のエンティティが「隆起」であり、タイプがsymptomであり、<e2></e2>を識別した結果、取得された第2のエンティティが「心率」であり、タイプがtestである。
では、上記の第1の位置距離及び第2の位置距離を計算する基準によると、当該トレーニングサンプルにおいて、「心前区」の単語「前」の第1の位置距離が3であり、第2の位置距離が33であり、「心前区」の単語「区」の第1の位置距離が2であり、第2
の位置距離が32である。
を例とする。まず、当該コーパスにおける各単語に対応する特徴ベクトルを取得する。「心前区」の単語「心」を例として、単語「心」をベクトル化して単語ベクトルを取得し、単語「心」と第1のエンティティ「隆起」との第1の位置距離をベクトル化して第1の位置埋め込みベクトルを取得し、単語「心」と第2のエンティティの「心率」との第2の位置距離をベクトル化して第2の位置埋め込みベクトルを取得する。単語「心」に対応する単語ベクトルと、第1の位置埋め込みベクトルと、第2の位置埋め込みベクトルとを組み合わせて、単語「心」に対応する特徴ベクトルを取得する。
各トレーニングサンプルに対応するモデル入力ベクトルをエンティティ意味関係分類モデルの入力として使用し、エンティティ意味関係分類モデルによって得られた各トレーニングサンプルに対応する予測エンティティ意味関係タイプを取得し、予測エンティティ意味関係タイプは、各トレーニングサンプルにおける第1のエンティティと第2のエンティティの両方の予測されたエンティティ意味関係タイプであり、
各トレーニングサンプルに対応する予測エンティティ意味関係タイプとプリセットされたエンティティ意味関係タイプとの偏差値を取得し、プリセットされたエンティティ意味関係タイプは、各トレーニングサンプルに対応する第1のエンティティと第2のエンティティの両方の予め格納されたエンティティ意味関係タイプであり、
各トレーニングサンプルの偏差値の合計を取得し、
偏差値の合計が第1の偏差しきい値を超えた場合、エンティティ意味関係分類モデルのパラメータを調整することで、エンティティ意味関係分類モデルをトレーニングする、
ために用いられる。
各トレーニングサンプルに対応するモデル入力ベクトルをエンティティ意味関係分類モデルの入力として使用し、エンティティ意味関係分類モデルによって得られた各トレーニングサンプルに対応する予測エンティティ意味関係タイプを取得し、予測エンティティ意味関係タイプは、各トレーニングサンプルにおける第1のエンティティと第2のエンティティの両方の予測されたエンティティ意味関係タイプであり、
各トレーニングサンプルに対応する予測エンティティ意味関係タイプとプリセットされたエンティティ意味関係タイプとの偏差値を取得し、プリセットされたエンティティ意味関係タイプは、各トレーニングサンプルに対応する第1のエンティティと第2のエンティティの両方の予め格納されたエンティティ意味関係タイプであり、
少なくとも1つのトレーニングサンプルにおける目標トレーニングサンプルの偏差値が第2の偏差しきい値を超える度に、目標トレーニングサンプルの偏差値によって、エンティティ意味関係分類モデルのパラメータを調整することで、エンティティ意味関係分類モデルをトレーニングする、
ためにも用いられる。
エンティティ意味関係分類モデルのGRU層の重み係数とオフセット係数とアテンション層のアテンションマトリックスを調整する、ために用いられる。
少なくとも1つのトレーニングサンプルは、少なくとも1つの電子カルテであり、トレーニングサンプルに対応するモデル入力ベクトルはn個の特徴ベクトルの組み合わせであり、ここで、nは少なくとも1つの電子カルテに含まれる単語の平均数である。
コーパスおける各単語に対応する単語ベクトルを取得し、各単語の第1の位置距離に対応する第1の位置埋め込みベクトルと、各単語の第2の位置距離に対応する第2の位置埋め込みベクトルとを取得し、
コーパスにおける各単語に対応する単語ベクトルと、第1の位置埋め込みベクトルと、第2の位置埋め込みベクトルを組み合わせて、各単語に対応する特徴ベクトルを取得し、
コーパスにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、コーパスに対応するモデル入力ベクトルを取得する、
ために用いられる。
位置距離と位置埋め込みベクトルとの対応関係を記録する位置埋め込みベクトルテーブルを取得し、
位置埋め込みベクトルテーブルでは、各単語の第1の位置距離に対応する第1の位置埋め込みベクトル及び各単語の第2の位置距離に対応する第2の位置埋め込みベクトルをそれぞれ確定する、
ために用いられる。
1つまたは複数のプログラムがプロセッサによって実行されると、
少なくとも1つのトレーニングサンプルを受信し、少なくとも1つのトレーニングサンプルにおける各トレーニングサンプルの第1のエンティティと第2のエンティティを識別することと、
各トレーニングサンプルに対して、当該トレーニングサンプルにおける各単語と当該トレーニングサンプルの第1のエンティティとの第1の位置距離を取得し、及び当該トレーニングサンプルにおける各単語と当該トレーニングサンプルの第2のエンティティとの第2の位置距離を取得することと、
各トレーニングサンプルにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、各トレーニングサンプルに対応するモデル入力ベクトルを取得し、各単語に対応する特徴ベクトルは、各単語に対応する単語ベクトルと位置埋め込みベクトルとを組み合わせることで取得されるものであり、各単語に対応する位置埋め込みベクトルは、各単語の第1の位置距離に対応するベクトルと各単語の第2の位置距離に対応するベクトルとを含むことと、
各トレーニングサンプルに対応するモデル入力べクルトをエンティティ意味関係分類モデルの入力として使用し、エンティティ意味関係分類モデルをトレーニングすることと、
実現する。
各トレーニングサンプルに対応するモデル入力ベクトルをエンティティ意味関係分類モデルの入力として使用し、エンティティ意味関係分類モデルによって得られた各トレーニングサンプルに対応する予測エンティティ意味関係タイプを取得し、予測エンティティ意味関係タイプは、各トレーニングサンプルにおける第1のエンティティと第2のエンティティの両方の予測されたエンティティ意味関係タイプであることと、
各トレーニングサンプルに対応する予測エンティティ意味関係タイプとプリセットされたエンティティ意味関係タイプとの偏差値を取得し、プリセットされたエンティティ意味関係タイプは、各トレーニングサンプルに対応する第1のエンティティと第2のエンティティの両方の予め格納されたエンティティ意味関係タイプであることと、
各トレーニングサンプルの偏差値の合計を取得することと、
偏差値の合計が第1の偏差しきい値を超えた場合、エンティティ意味関係分類モデルのパラメータを調整することで、エンティティ意味関係分類モデルをトレーニングすることと、
を実現する。
各トレーニングサンプルに対応するモデル入力ベクトルをエンティティ意味関係分類モデルの入力として使用し、エンティティ意味関係分類モデルによって得られた各トレーニングサンプルに対応する予測エンティティ意味関係タイプを取得し、予測エンティティ意味関係タイプは、各トレーニングサンプルにおける第1のエンティティと第2のエンティティの両方の予測されたエンティティ意味関係タイプであることと、
各トレーニングサンプルに対応する予測エンティティ意味関係タイプとプリセットされたエンティティ意味関係タイプとの偏差値を取得し、プリセットされたエンティティ意味関係タイプは、各トレーニングサンプルに対応する第1のエンティティと第2のエンティティの両方の予め格納されたエンティティ意味関係タイプであることと、
少なくとも1つのトレーニングサンプルにおける目標トレーニングサンプルの偏差値が第2の偏差しきい値を超える度に、エンティティ意味関係分類モデルのパラメータを調整することでエンティティ意味関係分類モデルをトレーニングすることと、
を実現する。
1つまたは複数のプログラムがプロセッサによって実行されると、具体的に、
エンティティ意味関係分類モデルのGRU層の重み係数とオフセット係数とアテンション層のアテンションマトリックスを調整すること、を実現する。
好ましく、トレーニング時に、エンティティ意味関係分類モデルのGRU層の各ニューロンは破棄されない。
少なくとも1つのトレーニングサンプルは、少なくとも1つの電子カルテでり、トレーニングサンプルに対応するモデル入力ベクトルはn個の特徴ベクトルの組合せであり、ここで、nは少なくとも1つの電子カルテに含まれる単語の平均数である。
コーパスにおける第1のエンティティと第2のエンティティを確定することと、
コーパスにおける各単語と第1のエンティティとの第1の位置距離、及びコーパスにおける各単語と第2のエンティティとの第2の位置距離を取得することと、
コーパスにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、コーパスに対応するモデル入力ベクトルを取得し、各単語に対応する特徴ベクトルは、コーパスにおける各単語に対応する単語ベクトルと位置埋め込みベクトルとを組み合わせることで取得されるものであり、各単語に対応する位置埋め込みベクトルは、各単語の第1の位置距離に対応するベクトルと各単語の第2の位置距離に対応するベクトルとを含むことと、
コーパスに対応するモデル入力ベクトルをエンティティ意味関係分類モデルの入力として使用し、第1のエンティティと第2のエンティティの両方のエンティティ意味関係タイプを確定することと、
を実現する。
コーパスおける各単語に対応する単語ベクトルを取得し、各単語の第1の位置距離に対応する第1の位置埋め込みベクトルと、各単語の第2の位置距離に対応する第2の位置埋め込みベクトルとを取得することと、
コーパスにおける各単語に対応する単語ベクトルと、第1の位置埋め込みベクトルと、第2の位置埋め込みベクトルを組み合わせて、各単語に対応する特徴ベクトルを取得することと、
コーパスにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、コーパスに対応するモデル入力ベクトルを取得することと、
を実現する。
位置距離と位置埋め込みベクトルとの対応関係を記録する位置埋め込みベクトルテーブルを取得することと、
位置埋め込みベクトルテーブルでは、各単語の第1の位置距離に対応する第1の位置埋め込みベクトル及び各単語の第2の位置距離に対応する第2の位置埋め込みベクトルをそれぞれ確定することと、
を実現する。
コーパスにおける第1のエンティティと第2のエンティティを確定することと、
コーパスにおける各単語と第1のエンティティとの第1の位置距離、及びコーパスにおける各単語と第2のエンティティとの第2の位置距離を取得することと、
コーパスにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、コーパスに対応するモデル入力ベクトルを取得し、各単語に対応する特徴ベクトルは、コーパスにおける各単語に対応する単語ベクトルと位置埋め込みベクトルとを組み合わせることで取得されるものであり、各単語に対応する位置埋め込みベクトルは、各単語の第1の位置距離に対応するベクトルと各単語の第2の位置距離に対応するベクトルとを含むことと、
コーパスに対応するモデル入力ベクトルをエンティティ意味関係分類モデルの入力として使用し、第1のエンティティと第2のエンティティの両方のエンティティ意味関係タイプを確定することと、
を実現する。
少なくとも1つのトレーニングサンプルを受信し、少なくとも1つのトレーニングサンプルにおける各トレーニングサンプルの第1のエンティティと第2のエンティティを識別することと、
各トレーニングサンプルに対して、当該トレーニングサンプルにおける各単語と当該トレーニングサンプルの第1のエンティティとの第1の位置距離を取得し、および当該トレーニングサンプルにおける各単語と当該トレーニングサンプルの第2のエンティティとの第2の位置距離を取得することと、
各トレーニングサンプルにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、各トレーニングサンプルに対応するモデル入力ベクトルを取得し、各単語に対応する特徴ベクトルは、各単語に対応する単語ベクトルと位置埋め込みベクトルとを組み合わせることで取得されるものであり、各単語に対応する位置埋め込みベクトルは、各単語の第1の位置距離に対応するベクトルと各単語の第2の位置距離に対応するベクトルとを含むことと、
各トレーニングサンプルに対応するモデル入力べクルトをエンティティ意味関係分類モデルの入力として使用し、エンティティ意味関係分類モデルをトレーニングすることと、
を実現する。
コーパスにおける第1のエンティティと第2のエンティティを確定することと、
コーパスにおける各単語と第1のエンティティとの第1の位置距離、及びコーパスにおける各単語と第2のエンティティとの第2の位置距離を取得することと、
コーパスにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、コーパスに対応するモデル入力ベクトルを取得し、各単語に対応する特徴ベクトルは、コーパスにおける各単語に対応する単語ベクトルと位置埋め込みベクトルとを組み合わせることで取得されるものであり、各単語に対応する位置埋め込みベクトルは、各単語の第1の位置距離に対応するベクトルと各単語の第2の位置距離に対応するベクトルとを含むことと、
コーパスに対応するモデル入力ベクトルをプリセットされたエンティティ意味関係分類モデルの入力として使用し、第1のエンティティと第2のエンティティの両方のエンティティ意味関係タイプを確定することと、
を実現する。
少なくとも1つのトレーニングサンプルを受信し、少なくとも1つのトレーニングサンプルにおける各トレーニングサンプルの第1のエンティティと第2のエンティティを識別することと、
各トレーニングサンプルに対して、当該トレーニングサンプルにおける各単語と当該トレーニングサンプルの第1のエンティティとの第1の位置距離を取得し、及び当該トレーニングサンプルにおける各単語と当該トレーニングサンプルの第2のエンティティとの第2の位置距離を取得することと、
各トレーニングサンプルにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、各トレーニングサンプルに対応するモデル入力ベクトルを取得し、各単語に対応する特徴ベクトルは、各単語に対応する単語ベクトルと位置埋め込みベクトルを組み合わせて取得するものであり、各単語に対応する位置埋め込みベクトルは、各単語の第1の位置距離に対応するベクトルと各単語の第2の位置距離に対応するベクトルを含むことと、
各トレーニングサンプルに対応するモデル入力べクルトをプリセットされたエンティティ意味関係分類モデルの入力として使用し、エンティティ意味関係分類モデルをトレーニングすることと、
を実現する。
Claims (15)
- エンティティ意味関係分類モデルを予め設置している電子機器に適用されるエンティティ意味関係分類方法であって、
コーパスにおける第1のエンティティと第2のエンティティを確定することと、
前記コーパスにおける各単語と前記第1のエンティティとの第1の位置距離、及び前記コーパスにおける各単語と前記第2のエンティティとの第2の位置距離を取得することと、
前記コーパスにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、
前記コーパスに対応するモデル入力ベクトルを取得し、各単語に対応する特徴ベクトルは、前記コーパスにおける各単語に対応する単語ベクトルと位置埋め込みベクトルとを組み合わせることで取得されるものであり、各単語に対応する位置埋め込みベクトルは、各単語の第1の位置距離に対応するベクトルと各単語の第2の位置距離に対応するベクトルとを含むことと、
前記コーパスに対応するモデル入力ベクトルを前記エンティティ意味関係分類モデルの入力として使用し、前記第1のエンティティと前記第2のエンティティの両方のエンティティ意味関係タイプを確定することと、
を含むエンティティ意味関係分類方法。 - 前記コーパスにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、 前記コーパスに対応するモデル入力ベクトルを取得することは、
前記コーパスにおける各単語に対応する単語ベクトルを取得し、各単語の第1の位置距離に対応する第1の位置埋め込みベクトルと、各単語の第2の位置距離に対応する第2の位置埋め込みベクトルとを取得することと、
前記コーパスにおける各単語に対応する単語ベクトルと、第1の位置埋め込みベクトルと、第2の位置埋め込みベクトルとを組み合わせて、各単語に対応する特徴ベクトルを取得することと、
前記コーパスにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、前記コーパスに対応するモデル入力ベクトルを取得することと、
を含む、請求項1に記載のエンティティ意味関係分類方法。 - 各単語の第1の位置距離に対応する第1の位置埋め込みベクトルと、各単語の第2の位置距離に対応する第2の位置埋め込みベクトルとを取得することは、
位置距離と位置埋め込みベクトルとの対応関係を記録する位置埋め込みベクトルテーブルを取得することと、
前記位置埋め込みベクトルテーブルでは、各単語の第1の位置距離に対応する第1の位置埋め込みベクトル及び各単語の第2の位置距離に対応する第2の位置埋め込みベクトルをそれぞれ確定することと、
を含む、請求項2に記載のエンティティ意味関係分類方法。 - エンティティ意味関係分類モデルを予め設置している電子機器に適用されるエンティティ意味関係分類モデルのトレーニング方法であって、
少なくとも1つのトレーニングサンプルを受信し、前記少なくとも1つのトレーニングサンプルにおける各トレーニングサンプルの第1のエンティティと第2のエンティティとを識別することと、
前記各トレーニングサンプルに対して、前記トレーニングサンプルにおける各単語と前記トレーニングサンプルの第1のエンティティとの第1の位置距離を取得し、及び前記トレーニングサンプルにおける各単語と前記トレーニングサンプルの第2のエンティティとの第2の位置距離を取得することと、
前記各トレーニングサンプルにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、前記各トレーニングサンプルに対応するモデル入力ベクトルを取得し、各単語に対応する特徴ベクトルは、各単語に対応する単語ベクトルと位置埋め込みベクトルとを組み合わせることで取得されるものであり、各単語に対応する位置埋め込みベクトルは、各単語の第1の位置距離に対応するベクトルと各単語の第2の位置距離に対応するベクトルとを含むことと、
前記各トレーニングサンプルに対応するモデル入力べクルトを前記エンティティ意味関係分類モデルの入力として使用し、前記エンティティ意味関係分類モデルをトレーニングすることと、
を含むエンティティ意味関係分類モデルのトレーニング方法。 - 前記各トレーニングサンプルに対応するモデル入力べクルトを前記エンティティ意味関係分類モデルの入力として使用し、前記エンティティ意味関係分類モデルをトレーニングすることは、
前記各トレーニングサンプルに対応するモデル入力ベクトルを前記エンティティ意味関係分類モデルの入力として使用し、前記エンティティ意味関係分類モデルによって得られた前記各トレーニングサンプルに対応する予測エンティティ意味関係タイプを取得し、前記予測エンティティ意味関係タイプは、前記各トレーニングサンプルにおける第1のエンティティと第2のエンティティの両方の予測されたエンティティ意味関係タイプであることと、
前記各トレーニングサンプルに対応する予測エンティティ意味関係タイプとプリセットされたエンティティ意味関係タイプとの偏差値を取得し、前記プリセットされたエンティティ意味関係タイプは、前記各トレーニングサンプルに対応する第1のエンティティと第2のエンティティの両方の予め格納されたエンティティ意味関係タイプであることと、
前記各トレーニングサンプルの偏差値の合計を取得することと、
前記偏差値の合計が第1の偏差しきい値を超えた場合、前記エンティティ意味関係分類モデルのパラメータを調整することで、前記エンティティ意味関係分類モデルをトレーニングすることと、
を含む、請求項4に記載のエンティティ意味関係分類モデルのトレーニング方法。 - 前記各トレーニングサンプルに対応するモデル入力べクルトを前記エンティティ意味関係分類モデルの入力として使用し、前記エンティティ意味関係分類モデルをトレーニングすることは、
前記各トレーニングサンプルに対応するモデル入力ベクトルを前記エンティティ意味関係分類モデルの入力として使用し、前記エンティティ意味関係分類モデルによって得られた前記各トレーニングサンプルに対応する予測エンティティ意味関係タイプを取得し、前記予測エンティティ意味関係タイプは、前記各トレーニングサンプルにおける第1のエンティティと第2のエンティティの両方の予測されたエンティティ意味関係タイプであることと、
前記各トレーニングサンプルに対応する予測エンティティ意味関係タイプとプリセットされたエンティティ意味関係タイプとの偏差値を取得し、前記プリセットされたエンティティ意味関係タイプは、前記各トレーニングサンプルに対応する第1のエンティティと第2のエンティティの両方の予め格納されたエンティティ意味関係タイプであることと、
少なくとも1つのトレーニングサンプルにおける目標トレーニングサンプルの偏差値が第2の偏差しきい値を超える度に、エンティティ意味関係分類モデルのパラメータを調整することで、エンティティ意味関係分類モデルをトレーニングすることと、
を含む、請求項4に記載のエンティティ意味関係分類モデルのトレーニング方法。 - 前記エンティティ意味関係分類モデルは、双方向回帰型ニューラルネットワークBiGRUとアテンション(Attention)のメカニズムとを組み合わせるものであり、 前記エンティティ意味関係分類モデルのパラメータを調整することは、
前記エンティティ意味関係分類モデルのゲート付き回帰型ニューラルネットワークのGRU層の重み係数とオフセット係数とアテンション層のアテンションマトリックスを調整することと、
を含む、請求項5に記載のエンティティ意味関係分類モデルのトレーニング方法。 - 前記エンティティ意味関係分類モデルは、双方向回帰型ニューラルネットワークBiGRUとアテンション(Attention)のメカニズムとを組み合わせるものであり、
前記少なくとも1つのトレーニングサンプルは、少なくとも1つの電子カルテであり、前記トレーニングサンプルに対応するモデル入力ベクトルはn個の特徴ベクトルの組合せであり、前記nは前記少なくとも1つの電子カルテに含まれる単語の平均数である、
請求項4に記載のエンティティ意味関係分類モデルのトレーニング方法。 - 1つまたは複数のプログラムとプリセットされたエンティティ意味関係分類モデルを格納するためのメモリと、プロセッサと、を有する電子機器であって、
前記1つまたは複数のプログラムが前記プロセッサによって実行されると、
コーパスにおける第1のエンティティと第2のエンティティを確定することと、
前記コーパスにおける各単語と前記第1のエンティティとの第1の位置距離、及び前記コーパスにおける各単語と前記第2のエンティティとの第2の位置距離を取得することと、
前記コーパスにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、前記コーパスに対応するモデル入力ベクトルを取得し、各単語に対応する特徴ベクトルは、前記コーパスにおける各単語に対応する単語ベクトルと位置埋め込みベクトルとを組み合わせることで取得されるものであり、各単語に対応する位置埋め込みベクトルは、各単語の第1の位置距離に対応するベクトルと各単語の第2の位置距離に対応するベクトルとを含むことと、
前記コーパスに対応するモデル入力ベクトルを前記エンティティ意味関係分類モデルの入力として使用し、前記第1のエンティティと前記第2のエンティティの両方のエンティティ意味関係タイプを確定することと、
を実現する電子機器。 - 前記1つまたは複数のプログラムが前記プロセッサによって実行されると、
前記コーパスにおける各単語に対応する単語ベクトルを取得し、各単語の第1の位置距離に対応する第1の位置埋め込みベクトルと、各単語の第2の位置距離に対応する第2の位置埋め込みベクトルとを取得することと、
前記コーパスにおける各単語に対応する単語ベクトルと、第1の位置埋め込みベクトルと、第2の位置埋め込みベクトルとを組み合わせて、各単語に対応する特徴ベクトルを取得することと、
前記コーパスにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、前記コーパスに対応するモデル入力ベクトルを取得することと、
を実現する、請求項9に記載の電子機器。 - 前記1つまたは複数のプログラムが前記プロセッサによって実行されると、
位置距離と位置埋め込みベクトルとの対応関係を有する位置埋め込みベクトルテーブルを取得することと、
前記位置埋め込みベクトルテーブルでは、各単語の第1の位置距離に対応する第1の位置埋め込みベクトル及び各単語の第2の位置距離に対応する第2の位置埋め込みベクトルをそれぞれ確定することと、
を実現する、請求項10に記載の電子機器。 - 1つまたは複数のプログラムとプリセットされたエンティティ意味関係分類モデルを格納するためのメモリと、プロセッサと、を有する電子機器であって、
前記1つまたは複数のプログラムが前記プロセッサによって実行されると、
少なくとも1つのトレーニングサンプルを受信し、前記少なくとも1つのトレーニングサンプルにおける各トレーニングサンプルの第1のエンティティと第2のエンティティとを識別することと、
前記各トレーニングサンプルに対して、前記トレーニングサンプルにおける各単語と前記トレーニングサンプルの第1のエンティティとの第1の位置距離を取得し、及び前記トレーニングサンプルにおける各単語と前記トレーニングサンプルの第2のエンティティとの第2の位置距離を取得することと、
前記各トレーニングサンプルにおける全ての単語のそれぞれに対応する特徴ベクトルを組み合わせて、前記各トレーニングサンプルに対応するモデル入力ベクトルを取得し、各単語に対応する特徴ベクトルは、各単語に対応する単語ベクトルと位置埋め込みベクトルとを組み合わせることで取得されるものであり、各単語に対応する位置埋め込みベクトルは、各単語の第1の位置距離に対応するベクトルと各単語の第2の位置距離に対応するベクトルとを含むことと、
前記各トレーニングサンプルに対応するモデル入力べクルトを前記エンティティ意味関係分類モデルの入力として使用し、前記エンティティ意味関係分類モデルをトレーニングすることと、
を実現する電子機器。 - 前記1つまたは複数のプログラムが前記プロセッサによって実行されると、
前記各トレーニングサンプルに対応するモデル入力ベクトルを前記エンティティ意味関係分類モデルの入力として使用し、前記エンティティ意味関係分類モデルによって得られた 前記各トレーニングサンプルに対応する予測エンティティ意味関係タイプを取得し、前記予測エンティティ意味関係タイプは、前記各トレーニングサンプルにおける第1のエンティティと第2のエンティティの両方の予測されたエンティティ意味関係タイプであることと、
前記各トレーニングサンプルに対応する予測エンティティ意味関係タイプとプリセットされたエンティティ意味関係タイプとの偏差値を取得し、前記プリセットされたエンティティ意味関係タイプは、前記各トレーニングサンプルに対応する第1のエンティティと第2のエンティティの両方の予め格納されたエンティティ意味関係タイプであることと、
前記各トレーニングサンプルの偏差値の合計を取得することと、
前記偏差値の合計が第1の偏差しきい値を超えた場合、前記エンティティ意味関係分類モデルのパラメータを調整することで、前記エンティティ意味関係分類モデルをトレーニングすることと、
を実現する、請求項12に記載の電子機器。 - 前記1つまたは複数のプログラムが前記プロセッサによって実行されると、
前記各トレーニングサンプルに対応するモデル入力ベクトルを前記エンティティ意味関係分類モデルの入力として使用し、前記エンティティ意味関係分類モデルによって得られた前記各トレーニングサンプルに対応する予測エンティティ意味関係タイプを取得し、前記予測エンティティ意味関係タイプは、前記各トレーニングサンプルにおける第1のエンティティと第2のエンティティの両方の予測されたエンティティ意味関係タイプであることと、
前記各トレーニングサンプルに対応する予測エンティティ意味関係タイプとプリセットされたエンティティ意味関係タイプとの偏差値を取得し、前記プリセットされたエンティティ意味関係タイプは、前記各トレーニングサンプルに対応する第1のエンティティと第2のエンティティの両方の予め格納されたエンティティ意味関係タイプであることと、
少なくとも1つのトレーニングサンプルにおける目標トレーニングサンプルの偏差値が第2の偏差しきい値を超える度に、エンティティ意味関係分類モデルのパラメータを調整することで、エンティティ意味関係分類モデルをトレーニングすることと、
を実現する、請求項12に記載の電子機器。 - 前記エンティティ意味関係分類モデルは、双方向回帰型ニューラルネットワークBiGRUとアテンション(Attention)のメカニズムとを組み合わせるものであり、
前記少なくとも1つのトレーニングサンプルは、少なくとも1つの電子カルテであり、前記トレーニングサンプルに対応するモデル入力ベクトルはn個の特徴ベクトルの組合せであり、ここで、前記nは前記少なくとも1つの電子カルテに含まれる単語の平均数である、
請求項12に記載の電子機器。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811641958.3A CN109754012A (zh) | 2018-12-29 | 2018-12-29 | 实体语义关系分类方法、模型训练方法、装置及电子设备 |
CN201811641958.3 | 2018-12-29 | ||
PCT/CN2019/127449 WO2020135337A1 (zh) | 2018-12-29 | 2019-12-23 | 实体语义关系分类 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022514842A true JP2022514842A (ja) | 2022-02-16 |
JP7202465B2 JP7202465B2 (ja) | 2023-01-11 |
Family
ID=66404511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021534922A Active JP7202465B2 (ja) | 2018-12-29 | 2019-12-23 | エンティティ意味関係分類 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210391080A1 (ja) |
EP (1) | EP3985559A4 (ja) |
JP (1) | JP7202465B2 (ja) |
CN (1) | CN109754012A (ja) |
WO (1) | WO2020135337A1 (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109754012A (zh) * | 2018-12-29 | 2019-05-14 | 新华三大数据技术有限公司 | 实体语义关系分类方法、模型训练方法、装置及电子设备 |
CN110111901B (zh) * | 2019-05-16 | 2023-04-18 | 湖南大学 | 基于rnn神经网络的可迁移病人分类系统 |
CN110275928B (zh) * | 2019-06-24 | 2022-11-22 | 复旦大学 | 迭代式实体关系抽取方法 |
CN110442725B (zh) * | 2019-08-14 | 2022-02-25 | 科大讯飞股份有限公司 | 实体关系抽取方法及装置 |
CN110928889A (zh) * | 2019-10-23 | 2020-03-27 | 深圳市华讯方舟太赫兹科技有限公司 | 训练模型更新方法、设备以及计算机存储介质 |
CN112989032A (zh) * | 2019-12-17 | 2021-06-18 | 医渡云(北京)技术有限公司 | 实体关系分类方法、装置、介质及电子设备 |
US11893060B2 (en) * | 2020-02-06 | 2024-02-06 | Naver Corporation | Latent question reformulation and information accumulation for multi-hop machine reading |
CN111429985B (zh) * | 2020-03-02 | 2023-10-27 | 北京嘉和海森健康科技有限公司 | 电子病历数据处理方法及系统 |
CN113591886B (zh) * | 2020-04-30 | 2023-11-07 | 北京百度网讯科技有限公司 | 用于信息分类的方法、装置、设备及计算机可读存储介质 |
CN112199508B (zh) * | 2020-08-10 | 2024-01-19 | 淮阴工学院 | 一种基于远程监督的参数自适应农业知识图谱推荐方法 |
CN114254106A (zh) * | 2020-09-25 | 2022-03-29 | 北京灵汐科技有限公司 | 文本分类方法、装置、设备及存储介质 |
CN112416931A (zh) * | 2020-11-18 | 2021-02-26 | 脸萌有限公司 | 信息生成方法、装置和电子设备 |
CN112786132B (zh) * | 2020-12-31 | 2023-03-24 | 北京懿医云科技有限公司 | 病历文本数据分割方法、装置、可读存储介质及电子设备 |
CN113408588B (zh) * | 2021-05-24 | 2023-02-14 | 上海电力大学 | 一种基于注意力机制的双向gru轨迹预测方法 |
CN113326698B (zh) * | 2021-06-18 | 2023-05-09 | 深圳前海微众银行股份有限公司 | 检测实体关系的方法、模型训练方法及电子设备 |
CN114398943B (zh) * | 2021-12-09 | 2023-04-07 | 北京百度网讯科技有限公司 | 样本增强方法及其装置 |
CN114239582A (zh) * | 2021-12-15 | 2022-03-25 | 天津健康医疗大数据有限公司 | 一种基于语义信息的电子病历细项提取方法及系统 |
US20230317066A1 (en) * | 2022-03-09 | 2023-10-05 | Amazon Technologies, Inc. | Shared encoder for natural language understanding processing |
US12086552B2 (en) * | 2022-03-24 | 2024-09-10 | International Business Machines Corporation | Generating semantic vector representation of natural language data |
CN114780720A (zh) * | 2022-03-29 | 2022-07-22 | 河海大学 | 一种基于小样本学习的文本实体关系分类方法 |
US20230334249A1 (en) * | 2022-04-18 | 2023-10-19 | Dell Products L.P. | Using machine learning for individual classification |
CN114881038B (zh) * | 2022-07-12 | 2022-11-11 | 之江实验室 | 基于跨度和注意力机制的中文实体与关系抽取方法及装置 |
US20240089275A1 (en) * | 2022-09-09 | 2024-03-14 | International Business Machines Corporation | Log anomaly detection in continuous artificial intelligence for it operations |
CN115270801B (zh) * | 2022-09-28 | 2022-12-30 | 浙江太美医疗科技股份有限公司 | 文本信息抽取模型的训练方法、文本信息抽取方法和应用 |
CN116151243B (zh) * | 2023-04-23 | 2023-06-23 | 昆明理工大学 | 一种基于类型相关性表征的实体关系抽取方法 |
CN116665228B (zh) * | 2023-07-31 | 2023-10-13 | 恒生电子股份有限公司 | 图像处理方法及装置 |
CN117057343B (zh) * | 2023-10-10 | 2023-12-12 | 腾讯科技(深圳)有限公司 | 道路事件识别方法、装置、设备及存储介质 |
CN117792696A (zh) * | 2023-12-07 | 2024-03-29 | 北京邮电大学 | 一种面向分布式系统的日志异常检测和定位的方法及装置 |
CN117496542B (zh) * | 2023-12-29 | 2024-03-15 | 恒生电子股份有限公司 | 文档信息提取方法、装置、电子设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107305543A (zh) * | 2016-04-22 | 2017-10-31 | 富士通株式会社 | 对实体词的语义关系进行分类的方法和装置 |
WO2019082362A1 (ja) * | 2017-10-26 | 2019-05-02 | 三菱電機株式会社 | 単語意味関係推定装置および単語意味関係推定方法 |
CN109754012A (zh) * | 2018-12-29 | 2019-05-14 | 新华三大数据技术有限公司 | 实体语义关系分类方法、模型训练方法、装置及电子设备 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102167719B1 (ko) * | 2014-12-08 | 2020-10-19 | 삼성전자주식회사 | 언어 모델 학습 방법 및 장치, 음성 인식 방법 및 장치 |
CN106407211B (zh) * | 2015-07-30 | 2019-08-06 | 富士通株式会社 | 对实体词的语义关系进行分类的方法和装置 |
US10635563B2 (en) * | 2016-08-04 | 2020-04-28 | Oracle International Corporation | Unsupervised method for baselining and anomaly detection in time-series data for enterprise systems |
CN107220237A (zh) * | 2017-05-24 | 2017-09-29 | 南京大学 | 一种基于卷积神经网络的企业实体关系抽取的方法 |
US10255273B2 (en) * | 2017-06-15 | 2019-04-09 | Microsoft Technology Licensing, Llc | Method and system for ranking and summarizing natural language passages |
US20190164064A1 (en) * | 2017-11-27 | 2019-05-30 | Shanghai Xiaoi Robot Technology Co., Ltd. | Question and answer interaction method and device, and computer readable storage medium |
CN108268643A (zh) * | 2018-01-22 | 2018-07-10 | 北京邮电大学 | 一种基于多粒度lstm网络的深层语义匹配实体链接方法 |
CN108875809A (zh) * | 2018-06-01 | 2018-11-23 | 大连理工大学 | 联合attention机制与神经网络的生物医学实体关系分类方法 |
CN108763555A (zh) * | 2018-06-01 | 2018-11-06 | 北京奇虎科技有限公司 | 基于需求词的画像数据获取方法及装置 |
-
2018
- 2018-12-29 CN CN201811641958.3A patent/CN109754012A/zh active Pending
-
2019
- 2019-12-23 US US17/287,476 patent/US20210391080A1/en active Pending
- 2019-12-23 WO PCT/CN2019/127449 patent/WO2020135337A1/zh active Application Filing
- 2019-12-23 EP EP19901450.7A patent/EP3985559A4/en active Pending
- 2019-12-23 JP JP2021534922A patent/JP7202465B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107305543A (zh) * | 2016-04-22 | 2017-10-31 | 富士通株式会社 | 对实体词的语义关系进行分类的方法和装置 |
WO2019082362A1 (ja) * | 2017-10-26 | 2019-05-02 | 三菱電機株式会社 | 単語意味関係推定装置および単語意味関係推定方法 |
CN109754012A (zh) * | 2018-12-29 | 2019-05-14 | 新华三大数据技术有限公司 | 实体语义关系分类方法、模型训练方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109754012A (zh) | 2019-05-14 |
JP7202465B2 (ja) | 2023-01-11 |
EP3985559A4 (en) | 2022-10-05 |
WO2020135337A1 (zh) | 2020-07-02 |
US20210391080A1 (en) | 2021-12-16 |
EP3985559A1 (en) | 2022-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022514842A (ja) | エンティティ意味関係分類 | |
US10459954B1 (en) | Dataset connector and crawler to identify data lineage and segment data | |
KR102570278B1 (ko) | 교사 모델로부터 학생 모델을 트레이닝하는데 사용되는 학습 데이터를 생성하는 장치 및 방법 | |
US20190243900A1 (en) | Automatic questioning and answering processing method and automatic questioning and answering system | |
CN105740312B (zh) | 使数据库查询形成聚类以用于运行时间预测 | |
KR102135674B1 (ko) | 상품 리뷰의 키워드 추출 신경망 모델 기반의 맞춤형 상품 추천 장치, 방법 및 이를 위한 기록매체 | |
CN110765275A (zh) | 搜索方法、装置、计算机设备和存储介质 | |
WO2018089574A1 (en) | Predictive analytic methods and systems | |
US11514315B2 (en) | Deep neural network training method and apparatus, and computer device | |
KR102394758B1 (ko) | 데이터의 특징점을 취합하여 기계 학습하는 방법 및 장치 | |
EP3803634A1 (en) | Accelerating machine learning inference with probabilistic predicates | |
CN110083693A (zh) | 机器人对话回复方法及装置 | |
CN109871891B (zh) | 一种物体识别方法、装置和存储介质 | |
US20170308808A1 (en) | Machine learning system | |
CN112395396A (zh) | 问答匹配和搜索方法、设备、系统及存储介质 | |
KR20150041908A (ko) | 정답 유형 자동 분류 방법 및 장치, 이를 이용한 질의 응답 시스템 | |
CN115879508A (zh) | 一种数据处理方法及相关装置 | |
CN113164056A (zh) | 睡眠预测方法、装置、存储介质及电子设备 | |
Ilbeigipour et al. | Real‐Time Heart Arrhythmia Detection Using Apache Spark Structured Streaming | |
US11676727B2 (en) | Cohort-based predictive data analysis | |
US12079214B2 (en) | Estimating computational cost for database queries | |
US20220215931A1 (en) | Generating multi-dimensional recommendation data objects based on decentralized crowd sourcing | |
US20190108309A1 (en) | Pathogenetic classification of genetic alterations | |
JPWO2019167240A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
Nowak-Brzezińska | Enhancing the efficiency of a decision support system through the clustering of complex rule‐based knowledge bases and modification of the inference algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7202465 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |