JP2021096813A - データ処理方法及び装置 - Google Patents
データ処理方法及び装置 Download PDFInfo
- Publication number
- JP2021096813A JP2021096813A JP2020097658A JP2020097658A JP2021096813A JP 2021096813 A JP2021096813 A JP 2021096813A JP 2020097658 A JP2020097658 A JP 2020097658A JP 2020097658 A JP2020097658 A JP 2020097658A JP 2021096813 A JP2021096813 A JP 2021096813A
- Authority
- JP
- Japan
- Prior art keywords
- sample
- target
- natural language
- language processing
- processing model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000012545 processing Methods 0.000 title claims abstract description 26
- 238000003058 natural language processing Methods 0.000 claims abstract description 91
- 238000003672 processing method Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 8
- 238000012790 confirmation Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000004821 distillation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/10—Pre-processing; Data cleansing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/169—Annotation, e.g. comment data or footnotes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Acoustics & Sound (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
Description
第1態様において、本出願の実施例は、データ処理方法であって、ラベル無しの語句であるサンプルからなるサンプルセットを取得することと、サンプルセットにおける複数のターゲットサンプルをそれぞれ事前トレーニングされた第1自然言語処理モデルに入力し、事前トレーニングされた第1自然言語処理モデルから出力された予測結果を取得することと、取得した予測結果をそれぞれ複数のターゲットサンプルのうちの各ターゲットサンプルのラベルとして確定することと、複数のターゲットサンプルと各ターゲットサンプルのラベルとに基づいて、トレーニング対象である第2自然言語処理モデルをトレーニングし、トレーニング済み第2自然言語処理モデルを取得することであって、第1自然言語処理モデルのパラメータが第2自然言語処理モデルのパラメータよりも多い、ことと、を備えるデータ処理方法を提供する。
第5態様において、本出願の実施例は、コンピュータプログラムであって、前記コンピュータプログラムがプロセッサにより実行されると、データ処理方法のいずれかの実施例に記載の方法を実現する、コンピュータプログラムを提供する。
Claims (12)
- ラベル無しの語句であるサンプルからなるサンプルセットを取得することと、
前記サンプルセットにおける複数のターゲットサンプルをそれぞれ事前トレーニングされた第1自然言語処理モデルに入力し、前記事前トレーニングされた第1自然言語処理モデルから出力された予測結果を取得することと、
取得した予測結果それぞれを前記複数のターゲットサンプルのうちの各ターゲットサンプルのラベルとして確定することと、
前記複数のターゲットサンプルと前記各ターゲットサンプルのラベルとに基づいて、トレーニング対象である第2自然言語処理モデルをトレーニングし、トレーニング済み第2自然言語処理モデルを取得することであって、前記第1自然言語処理モデルのパラメータが前記第2自然言語処理モデルのパラメータよりも多い、ことと、を備えるデータ処理方法。 - 前記ターゲットサンプルのラベルは、ターゲットサンプルが少なくとも2つのタイプのうちのいずれかのタイプに属する確率を示すためのものである請求項1に記載の方法。
- 前記方法は、
前記サンプルセットにおけるサンプルのターゲット単語を指定された識別子に置き換えることであって、指定された識別子が含まれるサンプルにおいて、前記ターゲット単語の数が該サンプルの単語の数に対して目標比率または目標数量を占める、ことと、
前記指定された識別子が含まれるサンプルを前記サンプルセットにサンプルとして追加することと、をさらに備える請求項1に記載の方法。 - 前記方法は、
前記サンプルセットにおけるサンプルのターゲット単語を同じ品詞の他の単語に更新することであって、更新済みサンプルにおいて、前記ターゲット単語の数が該サンプルの単語の数に対して目標比率または目標数量を占める、ことと、
更新済みサンプルを前記サンプルセットにサンプルとして追加することと、をさらに備える請求項1に記載の方法。 - 前記方法は、
前記サンプルセットにおけるサンプルに対して、目標長さを有するセグメントを抽出することと、
抽出されたセグメントを前記サンプルセットにサンプルとして追加することと、をさらに備える請求項1に記載の方法。 - ラベル無しの語句であるサンプルからなるサンプルセットを取得するように構成される取得手段と、
前記サンプルセットにおける複数のターゲットサンプルをそれぞれ事前トレーニングされた第1自然言語処理モデルに入力し、前記事前トレーニングされた第1自然言語処理モデルから出力された予測結果を取得するように構成される入力手段と、
取得した予測結果それぞれを前記複数のターゲットサンプルのうちの各ターゲットサンプルのラベルとして確定するように構成される確定手段と、
前記複数のターゲットサンプルと前記各ターゲットサンプルのラベルに基づいて、トレーニング対象である第2自然言語処理モデルをトレーニングし、トレーニング済み第2自然言語処理モデルを取得するように構成されるトレーニング手段であって、前記第1自然言語処理モデルのパラメータが前記第2自然言語処理モデルのパラメータよりも多いトレーニング手段と、を備えるデータ処理装置。 - 前記ターゲットサンプルのラベルは、ターゲットサンプルが少なくとも2つのタイプのうちのいずれかのタイプに属する確率を示すためのものである請求項6に記載の装置。
- 前記装置は、
前記サンプルセットにおけるサンプルのターゲット単語を指定された識別子に置き換えることであって、指定された識別子が含まれるサンプルにおいて、前記ターゲット単語の数が該サンプルの単語の数に対して目標比率または目標数量を占める、ことと、
前記指定された識別子が含まれるサンプルを前記サンプルセットにサンプルとして追加することと、をさらに備える請求項6に記載の装置。 - 前記装置は、
前記サンプルセットにおけるサンプルのターゲット単語を同じ品詞の他の単語に更新することであって、更新済みサンプルにおいて、前記ターゲット単語の数が該サンプルの単語の数に対して目標比率または目標数量を占める、ことと、
更新済みサンプルを前記サンプルセットにサンプルとして追加することと、をさらに備える請求項6に記載の装置。 - 前記装置は、
前記サンプルセットにおけるサンプルに対して、目標長さを有するセグメントを抽出することと、
抽出されたセグメントを前記サンプルセットにサンプルとして追加することと、をさらに備える請求項6に記載の装置。 - 1つまたは複数のプロセッサと、
1つまたは複数のプログラムを記憶するための記憶装置と、を備える電子機器であって、
前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行される場合、前記1つまたは複数のプロセッサに請求項1〜5のいずれか1項に記載の方法を実現させる電子機器。 - コンピュータプログラムが記憶されるコンピュータ可読記憶媒体であって、
該プログラムがプロセッサによって実行される時、請求項1〜5のいずれか1項に記載の方法を実現するコンピュータ可読記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911307167.1 | 2019-12-18 | ||
CN201911307167.1A CN111104482A (zh) | 2019-12-18 | 2019-12-18 | 数据处理方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021096813A true JP2021096813A (ja) | 2021-06-24 |
Family
ID=70422138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020097658A Pending JP2021096813A (ja) | 2019-12-18 | 2020-06-04 | データ処理方法及び装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210192288A1 (ja) |
JP (1) | JP2021096813A (ja) |
CN (1) | CN111104482A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022259796A1 (ja) | 2021-06-09 | 2022-12-15 | 株式会社神戸製鋼所 | 吸引装置、吸引方法、溶接システム、溶接方法、及び付加製造方法 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020220369A1 (en) | 2019-05-01 | 2020-11-05 | Microsoft Technology Licensing, Llc | Method and system of utilizing unsupervised learning to improve text to content suggestions |
US11727270B2 (en) * | 2020-02-24 | 2023-08-15 | Microsoft Technology Licensing, Llc | Cross data set knowledge distillation for training machine learning models |
CN111709252B (zh) * | 2020-06-17 | 2023-03-28 | 北京百度网讯科技有限公司 | 基于预训练的语义模型的模型改进方法及装置 |
CN111768001B (zh) * | 2020-06-30 | 2024-01-23 | 平安国际智慧城市科技股份有限公司 | 语言模型的训练方法、装置和计算机设备 |
CN112307053B (zh) * | 2020-10-28 | 2023-10-17 | 北京百分点科技集团股份有限公司 | 基于强化学习的语言处理方法及装置 |
CN112966712B (zh) * | 2021-02-01 | 2023-01-20 | 北京三快在线科技有限公司 | 语言模型训练方法、装置、电子设备和计算机可读介质 |
CN112905789B (zh) * | 2021-02-02 | 2023-02-28 | 中国建设银行股份有限公司 | 一种基于自然语言处理的非结构化数据处理方法及系统 |
CN113488023B (zh) * | 2021-07-07 | 2022-06-14 | 合肥讯飞数码科技有限公司 | 一种语种识别模型构建方法、语种识别方法 |
CN113553097B (zh) * | 2021-07-30 | 2022-11-18 | 上海玳鸽信息技术有限公司 | 模型版本管理方法及装置 |
CN114970540A (zh) * | 2022-05-11 | 2022-08-30 | 北京百度网讯科技有限公司 | 训练文本审核模型的方法和装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106570197A (zh) * | 2016-11-15 | 2017-04-19 | 北京百度网讯科技有限公司 | 基于迁移学习的搜索排序方法和装置 |
WO2018051841A1 (ja) * | 2016-09-16 | 2018-03-22 | 日本電信電話株式会社 | モデル学習装置、その方法、及びプログラム |
JP2018055671A (ja) * | 2016-09-21 | 2018-04-05 | パナソニックIpマネジメント株式会社 | 換言文識別方法、換言文識別装置及び換言文識別プログラム |
WO2019022136A1 (ja) * | 2017-07-25 | 2019-01-31 | 国立大学法人東京大学 | 学習方法、学習プログラム、学習装置及び学習システム |
CN110196894A (zh) * | 2019-05-30 | 2019-09-03 | 北京百度网讯科技有限公司 | 语言模型的训练方法和预测方法 |
CN110232411A (zh) * | 2019-05-30 | 2019-09-13 | 北京百度网讯科技有限公司 | 模型蒸馏实现方法、装置、系统、计算机设备及存储介质 |
JP2019159654A (ja) * | 2018-03-12 | 2019-09-19 | 国立研究開発法人情報通信研究機構 | 時系列情報の学習システム、方法およびニューラルネットワークモデル |
JP2019197336A (ja) * | 2018-05-08 | 2019-11-14 | 株式会社日本経済新聞社 | 学習データ生成装置、方法、およびプログラム |
CN110543645A (zh) * | 2019-09-04 | 2019-12-06 | 网易有道信息技术(北京)有限公司 | 机器学习模型训练方法、介质、装置和计算设备 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9875736B2 (en) * | 2015-02-19 | 2018-01-23 | Microsoft Technology Licensing, Llc | Pre-training and/or transfer learning for sequence taggers |
US11062228B2 (en) * | 2015-07-06 | 2021-07-13 | Microsoft Technoiogy Licensing, LLC | Transfer learning techniques for disparate label sets |
KR102570278B1 (ko) * | 2017-07-31 | 2023-08-24 | 삼성전자주식회사 | 교사 모델로부터 학생 모델을 트레이닝하는데 사용되는 학습 데이터를 생성하는 장치 및 방법 |
CN107608970B (zh) * | 2017-09-29 | 2024-04-26 | 百度在线网络技术(北京)有限公司 | 词性标注模型生成方法和装置 |
CN110008335A (zh) * | 2018-12-12 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 自然语言处理的方法及装置 |
US11003867B2 (en) * | 2019-03-04 | 2021-05-11 | Salesforce.Com, Inc. | Cross-lingual regularization for multilingual generalization |
CN110070183B (zh) * | 2019-03-11 | 2021-08-20 | 中国科学院信息工程研究所 | 一种弱标注数据的神经网络模型训练方法及装置 |
CN110175628A (zh) * | 2019-04-25 | 2019-08-27 | 北京大学 | 一种基于自动搜索与知识蒸馏的神经网络剪枝的压缩算法 |
CN110175329B (zh) * | 2019-05-28 | 2023-07-18 | 度小满科技(北京)有限公司 | 一种样本扩充的方法、装置、电子设备与存储介质 |
CN110348572B (zh) * | 2019-07-09 | 2022-09-30 | 上海商汤智能科技有限公司 | 神经网络模型的处理方法及装置、电子设备、存储介质 |
CN110442874B (zh) * | 2019-08-09 | 2023-06-13 | 南京邮电大学 | 一种基于词向量的中文词义预测方法 |
CN112487182B (zh) * | 2019-09-12 | 2024-04-12 | 华为技术有限公司 | 文本处理模型的训练方法、文本处理方法及装置 |
US10963636B1 (en) * | 2019-10-17 | 2021-03-30 | Sap Se | Sourcing object creation from natural language inputs |
US11620515B2 (en) * | 2019-11-07 | 2023-04-04 | Salesforce.Com, Inc. | Multi-task knowledge distillation for language model |
US11651211B2 (en) * | 2019-12-17 | 2023-05-16 | Adobe Inc. | Training of neural network based natural language processing models using dense knowledge distillation |
US11704602B2 (en) * | 2020-01-02 | 2023-07-18 | Intuit Inc. | Method for serving parameter efficient NLP models through adaptive architectures |
-
2019
- 2019-12-18 CN CN201911307167.1A patent/CN111104482A/zh active Pending
-
2020
- 2020-06-04 JP JP2020097658A patent/JP2021096813A/ja active Pending
- 2020-06-08 US US16/895,242 patent/US20210192288A1/en not_active Abandoned
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018051841A1 (ja) * | 2016-09-16 | 2018-03-22 | 日本電信電話株式会社 | モデル学習装置、その方法、及びプログラム |
JP2018055671A (ja) * | 2016-09-21 | 2018-04-05 | パナソニックIpマネジメント株式会社 | 換言文識別方法、換言文識別装置及び換言文識別プログラム |
CN106570197A (zh) * | 2016-11-15 | 2017-04-19 | 北京百度网讯科技有限公司 | 基于迁移学习的搜索排序方法和装置 |
WO2019022136A1 (ja) * | 2017-07-25 | 2019-01-31 | 国立大学法人東京大学 | 学習方法、学習プログラム、学習装置及び学習システム |
JP2019159654A (ja) * | 2018-03-12 | 2019-09-19 | 国立研究開発法人情報通信研究機構 | 時系列情報の学習システム、方法およびニューラルネットワークモデル |
JP2019197336A (ja) * | 2018-05-08 | 2019-11-14 | 株式会社日本経済新聞社 | 学習データ生成装置、方法、およびプログラム |
CN110196894A (zh) * | 2019-05-30 | 2019-09-03 | 北京百度网讯科技有限公司 | 语言模型的训练方法和预测方法 |
CN110232411A (zh) * | 2019-05-30 | 2019-09-13 | 北京百度网讯科技有限公司 | 模型蒸馏实现方法、装置、系统、计算机设备及存储介质 |
CN110543645A (zh) * | 2019-09-04 | 2019-12-06 | 网易有道信息技术(北京)有限公司 | 机器学习模型训练方法、介质、装置和计算设备 |
Non-Patent Citations (3)
Title |
---|
LIU, LINQING 外4名: "Attentive Student Meets Multi-Task Teacher: Improved Knowledge Distillation for Pretrained Models", [オンライン], vol. [2022/5/18検索], JPN6022020562, 9 November 2019 (2019-11-09), pages 1 - 11, ISSN: 0004959122 * |
SHI, YANGYANG 外3名: "KNOWLEDGE DISTILLATION FOR RECURRENT NEURAL NETWORK LANGUAGE MODELING WITH TRUST REGULARIZATION", ICASSP 2019, vol. [2022/5/18検索], JPN6022020563, 12 May 2019 (2019-05-12), pages 7230 - 7234, XP033566083, ISSN: 0004959121, DOI: 10.1109/ICASSP.2019.8683533 * |
政瀧 浩和 外2名: "Knowledge Distillationを用いたRNN言語モデルのドメイン適応", 日本音響学会 2017年 秋季研究発表会講演論文集CD−ROM [CD−ROM], JPN6022020564, 11 September 2017 (2017-09-11), JP, pages 135 - 136, ISSN: 0004786843 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022259796A1 (ja) | 2021-06-09 | 2022-12-15 | 株式会社神戸製鋼所 | 吸引装置、吸引方法、溶接システム、溶接方法、及び付加製造方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210192288A1 (en) | 2021-06-24 |
CN111104482A (zh) | 2020-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021096813A (ja) | データ処理方法及び装置 | |
JP7208952B2 (ja) | 対話モデルを生成するための方法及び装置 | |
CN109460513B (zh) | 用于生成点击率预测模型的方法和装置 | |
CN109902186B (zh) | 用于生成神经网络的方法和装置 | |
US10861456B2 (en) | Generating dialogue responses in end-to-end dialogue systems utilizing a context-dependent additive recurrent neural network | |
US20190325308A1 (en) | Multi-task learning using knowledge distillation | |
CN108877782B (zh) | 语音识别方法和装置 | |
CN109981787B (zh) | 用于展示信息的方法和装置 | |
CN110140133A (zh) | 机器学习任务的隐式桥接 | |
CN111523640B (zh) | 神经网络模型的训练方法和装置 | |
CN109858045B (zh) | 机器翻译方法和装置 | |
CN111340220B (zh) | 用于训练预测模型的方法和装置 | |
CN109933217B (zh) | 用于推送语句的方法和装置 | |
CN112650841A (zh) | 信息处理方法、装置和电子设备 | |
WO2023185391A1 (zh) | 交互式分割模型训练方法、标注数据生成方法及设备 | |
CN111738010A (zh) | 用于生成语义匹配模型的方法和装置 | |
CN112306447A (zh) | 一种界面导航方法、装置、终端和存储介质 | |
CN112182255A (zh) | 用于存储媒体文件和用于检索媒体文件的方法和装置 | |
CN111026849B (zh) | 数据处理方法和装置 | |
CN111090740B (zh) | 一种用于对话系统的知识图谱生成方法 | |
CN110991661A (zh) | 用于生成模型的方法和装置 | |
CN115801980A (zh) | 视频生成方法和装置 | |
CN110633476B (zh) | 用于获取知识标注信息的方法及装置 | |
CN114511152A (zh) | 预测模型的训练方法和装置 | |
CN111767290B (zh) | 用于更新用户画像的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200608 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220810 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230110 |