JP2022054389A - 検索モデルの訓練方法、装置、デバイス、コンピュータ記憶媒体、及びコンピュータプログラム - Google Patents
検索モデルの訓練方法、装置、デバイス、コンピュータ記憶媒体、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2022054389A JP2022054389A JP2021049651A JP2021049651A JP2022054389A JP 2022054389 A JP2022054389 A JP 2022054389A JP 2021049651 A JP2021049651 A JP 2021049651A JP 2021049651 A JP2021049651 A JP 2021049651A JP 2022054389 A JP2022054389 A JP 2022054389A
- Authority
- JP
- Japan
- Prior art keywords
- query
- text
- training data
- search model
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 279
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000004590 computer program Methods 0.000 title claims description 5
- 230000015654 memory Effects 0.000 claims description 19
- 238000001914 filtration Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 description 22
- 230000000694 effects Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3347—Query execution using vector based model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/38—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Library & Information Science (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
Claims (25)
- 検索モデルの訓練方法であって、
クエリと、当該クエリに対応する関連テキスト正例及び関連テキスト負例とを含む初期訓練データを取得し、前記初期訓練データを用いて初期検索モデルを得るように訓練し、
前記初期検索モデルを用いて、候補テキストから訓練データの中のクエリとの関連度が予め設定された第1の要件を満たすテキストを選択して当該クエリに対応する関連テキスト負例を更新し、更新された訓練データを用いて第1の検索モデルを得るように訓練し、
前記第1の検索モデルを用いて、前記候補テキストから訓練データの中のクエリとの関連度が予め設定された第2の要件を満たすテキストを選択して当該クエリに対応する関連テキスト正例を拡充し、及び/又は、当該クエリとの関連度が予め設定された第3の要件を満たすテキストを選択して当該クエリに対応する関連テキスト負例を拡充し、拡充された訓練データを用いて第2の検索モデルを得るように訓練する、
ことを含む方法。 - 前記初期訓練データの中の関連テキスト正例は、人工標識により得られ、関連テキスト負例は、候補テキストからランダムに選択される、
請求項1に記載の方法。 - 前記初期訓練データを用いて初期検索モデルを得るように訓練することは、
前記初期訓練データを用いてツインタワーモデルを訓練して前記初期検索モデルを得ることを含み、
訓練目標は、前記ツインタワーモデルが出力するクエリと、当該クエリに対応する関連テキスト正例との関連度が、前記クエリと前記初期訓練データの中の他の関連テキストとの関連度よりも大きくなるようにすることを含む、
請求項1に記載の方法。 - 前記初期検索モデルを用いて、候補テキストから訓練データの中のクエリとの関連度が予め設定された第1の要件を満たすテキストを選択して当該クエリに対応する関連テキスト負例を更新することは、
前記初期検索モデルを用いてクエリと各候補テキストとの関連度を特定し、関連度スコアが上位M1個の候補テキストからM2個をランダムに選択して当該クエリに対応する関連テキスト負例を更新することを含み、
M1及びM2はいずれも正整数であり、M1>M2である、
請求項1に記載の方法。 - 前記更新された訓練データを用いて前記第1の検索モデルを得るように訓練することは、
更新された訓練データを用いてクロスアテンションモデルを訓練して第1の検索モデルを得ることを含み、
訓練目標は、前記クロスアテンションモデルにより得られた訓練データにおいて、クエリと当該クエリに対応する関連テキスト正例との関連度が予め設定された閾値以上であり、クエリと当該クエリに対応する関連テキスト負例との関連度が前記予め設定された閾値未満であるようにすることを含む、
請求項1に記載の方法。 - 前記第1の検索モデルを用いて、前記候補テキストから訓練データの中のクエリとの関連度が予め設定された第2の要件を満たすテキストを選択して当該クエリに対応する関連テキスト正例を拡充し、及び/又は、当該クエリとの関連度が予め設定された第3の要件を満たすテキストを選択して当該クエリに対応する関連テキスト負例を拡充することは、
前記初期検索モデルを用いて、候補テキストから訓練データの中のクエリの関連テキストを検索し、
前記第1の検索モデルを用いて前記関連テキストと当該クエリとの関連度を特定し、関連度が予め設定された第1の閾値以上であるテキストを用いて当該クエリに対応する関連テキスト正例を拡充し、及び/又は、関連度が予め設定された、前記第1の閾値よりも小さい第2の閾値以下であるテキストを用いて当該クエリに対応する関連テキスト負例を拡充する、
ことを含む請求項5に記載の方法。 - 拡充された訓練データを用いて前記第2の検索モデルを得るように訓練することは、
前記拡充された訓練データを用いてツインタワーモデルをさらに訓練して第2の探索モデルを得る、ことを含む請求項3に記載の方法。 - 前記第2の検索モデルを用いて、候補テキストから訓練データの中のクエリとの関連度が予め設定された第4の要件を満たすテキストを選択して当該クエリに対応する関連テキスト負例を更新し、更新された訓練データを用いて第3の検索モデルを得るように訓練し、
前記第3の検索モデルを用いて、候補テキストから各拡充クエリとの関連度が予め設定された第5の要件を満たすテキストをそれぞれ選択して各拡充クエリに対応する関連テキスト正例の生成に用い、及び/又は、各拡充クエリとの関連度が予め設定された第6の要件を満たすテキストを選択して各拡充クエリに対応する関連テキスト負例の生成にそれぞれ用い、前記各拡充クエリに対応する関連テキスト正例及び/又は関連テキスト負例を用いて訓練データを拡充し、拡充された訓練データを用いて第4の検索モデルを得るように訓練する、
ことを更に含む請求項1~7の何れか1項に記載の方法。 - 前記第2の検索モデルを用いて、候補テキストから訓練データの中のクエリとの関連度が予め設定された第4の要件を満たすテキストを選択して当該クエリに対応する関連テキスト負例を更新することは、
前記第2の検索モデルを使用して、クエリと当該候補テキストとの関連度を特定し、
関連度ランキングに基づいてN1個の候補テキストの間隔でN2個の候補テキストを選択し、
選択された前記N2個の候補テキストから、当該クエリに対応する関連テキスト正例との類似度が予め設定された類似度閾値以上である候補テキストをフィルタリングした後、得られた候補テキストを当該クエリに対応する関連テキスト負例の更新に用いることを含み、
前記N1及びN2は予め設定された正整数である、
請求項8に記載の方法。 - 前記第3の検索モデルを用いて、候補テキストから各拡充クエリとの関連度が予め設定された第5の要件を満たすテキストをそれぞれ選択して各拡充クエリに対応する関連テキスト正例の生成に用い、及び/又は、各拡充クエリとの関連度が予め設定された第6の要件を満たすテキストを選択して各拡充クエリに対応する関連テキスト負例の生成にそれぞれ用いることは、
前記第2の検索モデルを用いて候補テキストから訓練データの中のクエリの関連テキストを検索し、
前記第3の検索モデルを用いて前記関連テキストと各拡充クエリとの類似度を特定し、類似度が予め設定された第1の閾値以上のテキストを各拡充クエリに対応する関連テキスト正例とし、及び/又は、類似度が予め設定された第2の閾値以下のテキストを各拡充クエリに対応する関連テキスト負例とする、
ことを含む請求項8に記載の方法。 - 前記更新された訓練データを用いて第3の検索モデルを得るように訓練することは、
更新された訓練データを用いて前記第1の検索モデルをさらに訓練して前記第3の検索モデルを得ることを含み、
前記拡充された訓練データを用いて第4の検索モデルを得るように訓練することは、
前記拡充された訓練データを用いて前記第2の検索モデルをさらに訓練して第4の検索モデルを得ることを含む、
請求項8に記載の方法。 - 検索モデルの訓練装置であって、
クエリと、当該クエリに対応する関連テキスト正例及び関連テキスト負例とを含む初期訓練データを取得する初期取得部と、
前記初期訓練データを用いて初期検索モデルを得るように訓練する初期訓練部と、
前記初期検索モデルを用いて、候補テキストから訓練データの中のクエリとの関連度が予め設定された第1の要件を満たすテキストを選択して当該クエリに対応する関連テキスト負例を更新する第1の更新部と、
前記第1の更新部により更新された訓練データを用いて第1の検索モデルを得るように訓練する第1の訓練部と、
前記第1の検索モデルを用いて、前記候補テキストから訓練データの中のクエリとの関連度が予め設定された第2の要件を満たすテキストを選択して当該クエリに対応する関連テキスト正例を拡充し、及び/又は、当該クエリとの関連度が予め設定された第3の要件を満たすテキストを選択して当該クエリに対応する関連テキスト負例を拡充する第1の拡充部と、
前記第1の拡充部により拡充された訓練データを用いて第2の検索モデルを得るように訓練する第2の訓練部と、
を備える装置。 - 前記初期訓練データの中の関連テキスト正例は、人工標識により得られ、関連テキスト負例は、候補テキストからランダムに選択される、
請求項12に記載の装置。 - 前記初期訓練部は、具体的に、前記初期訓練データを用いてツインタワーモデルを訓練して前記初期検索モデルを得、
訓練目標は、前記ツインタワーモデルが出力するクエリと当該クエリに対応する関連テキスト正例との関連度が、当該クエリと前記初期訓練データの中の他の関連テキストとの関連度よりも大きいようにすることを含む、
請求項12に記載の装置。 - 前記第1の更新部は、前記初期検索モデルを用いてクエリと各候補テキストとの関連度を特定し、関連度スコアが上位M1個の候補テキストからM2個をランダムに選択して当該クエリに対応する関連テキスト負例を更新し、
M1及びM2はいずれも正整数であり、M1>M2である、
請求項14に記載の装置。 - 前記第1の訓練部は、具体的に、前記第1の更新部により更新された訓練データを用いてクロスアテンションモデルを訓練して前記第1の検索モデルを得、
訓練目標は、前記クロスアテンションモデルにより得られた訓練データにおいて、クエリと当該クエリに対応する関連テキスト正例との関連度が予め設定された閾値以上であり、クエリと当該クエリに対応する関連テキスト負例との関連度が予め設定された閾値未満であるようにすることを含む、
請求項12に記載の装置。 - 前記第1の拡充部は、具体的に、前記初期検索モデルを利用して候補テキストから訓練データの中のクエリの関連テキストを検索し、前記第1の検索モデルを用いて前記関連テキストと当該クエリとの関連度を特定し、関連度が予め設定された第1の閾値以上であるテキストを当該クエリに対応する関連テキスト正例の拡充に用い、及び/又は、関連度が予め設定された第1の閾値よりも小さい第2の閾値以下であるテキストを当該クエリに対応する関連テキスト負例の拡充に用いる、
請求項16に記載の装置。 - 前記第2の訓練部は、具体的に、前記第1の拡充部により拡充された訓練データを用いて前記ツインタワーモデルをさらに訓練して第2の検索モデルを得る、
請求項14に記載の装置。 - 前記第2の検索モデルを用いて、候補テキストから訓練データの中のクエリとの関連度が予め設定された第4の要件を満たすテキストを選択して当該クエリに対応する関連テキスト負例を更新し、更新された訓練データを用いて第3の検索モデルを得るように訓練する第2の更新部と、
前記第2の更新部により更新された訓練データを用いて第3の検索モデルを得るように訓練する第3の訓練部と、
前記第3の検索モデルを用いて、候補テキストから各拡充クエリとの関連度が予め設定された第5の要件を満たすテキストをそれぞれ選択して各拡充クエリに対応する関連テキスト正例の生成に用い、及び/又は、各拡充クエリとの関連度が予め設定された第6の要件を満たすテキストを選択して各拡充クエリに対応する関連テキスト負例の生成にそれぞれ用い、前記各拡充クエリに対応する関連テキスト正例及び/又は関連テキスト負例を用いて訓練データを拡充する第2の拡充部と、
前記第2の拡充部により拡充された訓練データを用いて第4の検索モデルを得るように訓練する第4の訓練部と、
を更に備える、
請求項12~18の何れか1項に記載の装置。 - 前記第2の更新部は、前記第2の検索モデルを利用してクエリと当該候補テキストとの関連度を特定し、関連度ランキングに基づいてN1個の候補テキストの間隔でN2個の候補テキストを選択し、選択されたN2個の候補テキストから、当該クエリに対応する関連テキスト正例との類似度が予め設定された類似度閾値以上である候補テキストをフィルタリングした後、得られた候補テキストを当該クエリに対応する関連テキスト負例の更新に用い、
前記N1及びN2は予め設定された正整数である、
請求項19に記載の装置。 - 前記第2の拡充部は、前記第2の検索モデルを用いて候補テキストから訓練データの中のクエリの関連テキストを検索し、前記第3の検索モデルを用いて前記関連テキストと各拡充クエリとの類似度を特定し、類似度が予め設定された第1の閾値以上のテキストを各拡充クエリに対応する関連テキスト正例とし、及び/又は、類似度が予め設定された第2の閾値以下のテキストを各拡充クエリに対応する関連テキスト負例とする、
請求項19に記載の装置。 - 前記第3の訓練部は、具体的に、前記第2の更新部により更新された訓練データを用いて前記第1の検索モデルをさらに訓練して前記第3の検索モデルを得、
前記第4の訓練部は、具体的に、前記第2の拡充部により拡充された訓練データを用いて前記第2の検索モデルをさらに訓練して第4の検索モデルを得る、
請求項19に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリと、
を備え、
前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項1~11の何れか1項に記載の方法を実行させる、
電子デバイス。 - コンピュータに請求項1~11の何れか1項に記載の方法を実行させるためのコンピュータコマンドが記憶された非一時的なコンピュータ可読記憶媒体。
- コンピュータに請求項1~11の何れか1項に記載の方法を実行させるためのコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011023354.XA CN112148895B (zh) | 2020-09-25 | 2020-09-25 | 检索模型的训练方法、装置、设备和计算机存储介质 |
CN202011023354.X | 2020-09-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022054389A true JP2022054389A (ja) | 2022-04-06 |
JP7160986B2 JP7160986B2 (ja) | 2022-10-25 |
Family
ID=73897233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021049651A Active JP7160986B2 (ja) | 2020-09-25 | 2021-03-24 | 検索モデルの訓練方法、装置、デバイス、コンピュータ記憶媒体、及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11847150B2 (ja) |
EP (1) | EP3975006A1 (ja) |
JP (1) | JP7160986B2 (ja) |
KR (1) | KR20220041721A (ja) |
CN (1) | CN112148895B (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113051368B (zh) * | 2021-03-24 | 2023-09-22 | 北京百度网讯科技有限公司 | 双塔模型训练方法、检索方法、装置及电子设备 |
CN113988157B (zh) * | 2021-09-30 | 2023-10-13 | 北京百度网讯科技有限公司 | 语义检索网络训练方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012108867A (ja) * | 2010-10-29 | 2012-06-07 | Nippon Telegr & Teleph Corp <Ntt> | データ抽出装置、データ抽出方法、及びそのプログラム |
JP2018194919A (ja) * | 2017-05-12 | 2018-12-06 | 富士通株式会社 | 学習プログラム、学習方法及び学習装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11675795B2 (en) * | 2015-05-15 | 2023-06-13 | Yahoo Assets Llc | Method and system for ranking search content |
US10325224B1 (en) * | 2017-03-23 | 2019-06-18 | Palantir Technologies Inc. | Systems and methods for selecting machine learning training data |
CN109840588B (zh) * | 2019-01-04 | 2023-09-08 | 平安科技(深圳)有限公司 | 神经网络模型训练方法、装置、计算机设备及存储介质 |
CN110599503B (zh) * | 2019-06-18 | 2021-05-28 | 腾讯科技(深圳)有限公司 | 检测模型训练方法、装置、计算机设备和存储介质 |
CN110826634B (zh) * | 2019-11-11 | 2022-12-30 | 北京百度网讯科技有限公司 | 图像目标检测模型的训练方法、装置、电子设备及存储介质 |
US11727269B2 (en) * | 2020-01-08 | 2023-08-15 | International Business Machines Corporation | Dual model incremental learning |
-
2020
- 2020-09-25 CN CN202011023354.XA patent/CN112148895B/zh active Active
-
2021
- 2021-03-24 JP JP2021049651A patent/JP7160986B2/ja active Active
- 2021-07-19 EP EP21186434.3A patent/EP3975006A1/en active Pending
- 2021-08-20 KR KR1020210110285A patent/KR20220041721A/ko unknown
- 2021-08-20 US US17/407,320 patent/US11847150B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012108867A (ja) * | 2010-10-29 | 2012-06-07 | Nippon Telegr & Teleph Corp <Ntt> | データ抽出装置、データ抽出方法、及びそのプログラム |
JP2018194919A (ja) * | 2017-05-12 | 2018-12-06 | 富士通株式会社 | 学習プログラム、学習方法及び学習装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112148895A (zh) | 2020-12-29 |
EP3975006A1 (en) | 2022-03-30 |
US11847150B2 (en) | 2023-12-19 |
JP7160986B2 (ja) | 2022-10-25 |
US20220100786A1 (en) | 2022-03-31 |
KR20220041721A (ko) | 2022-04-01 |
CN112148895B (zh) | 2024-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112507715B (zh) | 确定实体之间关联关系的方法、装置、设备和存储介质 | |
US11709999B2 (en) | Method and apparatus for acquiring POI state information, device and computer storage medium | |
CN113822067A (zh) | 关键信息提取方法、装置、计算机设备及存储介质 | |
CN112395385B (zh) | 基于人工智能的文本生成方法、装置、计算机设备及介质 | |
US20220129448A1 (en) | Intelligent dialogue method and apparatus, and storage medium | |
US20220342936A1 (en) | Query auto-completion method and apparatus, device and computer storage medium | |
US11907671B2 (en) | Role labeling method, electronic device and storage medium | |
KR102475235B1 (ko) | 리소스 정렬 방법, 정렬 모델을 트레이닝하는 방법 및 대응하는 장치 | |
US20230214689A1 (en) | Method and apparatus for processing dialogue, electronic device, and storage medium | |
US11704326B2 (en) | Generalization processing method, apparatus, device and computer storage medium | |
JP2022040026A (ja) | エンティティリンキング方法、装置、電子デバイス及び記憶媒体 | |
KR102490712B1 (ko) | 질문 응답 로봇 생성 방법 및 장치 | |
CN112507091A (zh) | 检索信息的方法、装置、设备以及存储介质 | |
JP2022054389A (ja) | 検索モデルの訓練方法、装置、デバイス、コンピュータ記憶媒体、及びコンピュータプログラム | |
CN111508502A (zh) | 使用多标记结构的转录纠正 | |
JP2022003509A (ja) | エンティティ関係マイニング方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
JP2021197175A (ja) | 文字誤り訂正方法、装置、電子デバイス及び記憶媒体 | |
CN112597768B (zh) | 文本审核方法、装置、电子设备、存储介质及程序产品 | |
CN113434767A (zh) | Ugc文本内容的挖掘方法、系统、设备和存储介质 | |
US11893977B2 (en) | Method for recognizing Chinese-English mixed speech, electronic device, and storage medium | |
CN111339319A (zh) | 一种企业名的消歧方法、装置、电子设备及存储介质 | |
CN111241124B (zh) | 一种需求模型构建方法、装置、电子设备和介质 | |
JP2020135900A (ja) | クエリ処理方法、クエリ処理装置及びコンピュータ読み取り可能な媒体 | |
CN114117189A (zh) | 一种问题解析方法、装置、电子设备及存储介质 | |
CN113051390A (zh) | 知识库构建方法、装置、电子设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220812 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220930 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221013 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7160986 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |