RU2020132860A - Способы и серверы для хранения данных, связанных с пользователями и цифровыми элементами рекомендательной системы - Google Patents
Способы и серверы для хранения данных, связанных с пользователями и цифровыми элементами рекомендательной системы Download PDFInfo
- Publication number
- RU2020132860A RU2020132860A RU2020132860A RU2020132860A RU2020132860A RU 2020132860 A RU2020132860 A RU 2020132860A RU 2020132860 A RU2020132860 A RU 2020132860A RU 2020132860 A RU2020132860 A RU 2020132860A RU 2020132860 A RU2020132860 A RU 2020132860A
- Authority
- RU
- Russia
- Prior art keywords
- user
- vector
- vector representations
- representations
- server
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims 14
- 239000013598 vector Substances 0.000 claims 102
- 239000011159 matrix material Substances 0.000 claims 30
- 230000003993 interaction Effects 0.000 claims 12
- 238000013500 data storage Methods 0.000 claims 6
- 238000012790 confirmation Methods 0.000 claims 4
- 238000000354 decomposition reaction Methods 0.000 claims 2
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/3003—Monitoring arrangements specially adapted to the computing system or computing system component being monitored
- G06F11/3034—Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is a storage system, e.g. DASD based or network based
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2133—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on naturality criteria, e.g. with non-negative factorisation or negative correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
- G06F18/21355—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis nonlinear criteria, e.g. embedding a manifold in a Euclidean space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0282—Rating or review of business operators or products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/3003—Monitoring arrangements specially adapted to the computing system or computing system component being monitored
- G06F11/302—Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is a software system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Business, Economics & Management (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Strategic Management (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Economics (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Computational Linguistics (AREA)
- Computational Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Molecular Biology (AREA)
- Human Resources & Organizations (AREA)
- Tourism & Hospitality (AREA)
- Primary Health Care (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Entrepreneurship & Innovation (AREA)
Claims (52)
1. Способ хранения данных, связанных с пользователями рекомендательной системы и с цифровыми элементами, рекомендуемыми в рекомендательной системе, способной предоставлять цифровые элементы в качестве рекомендации контента пользователям рекомендательной системы, который выполняется сервером, связанным с нераспределенным хранилищем данных и с распределенным хранилищем данных, содержащим множество узлов, и включает в себя:
обучение сервером модели матричной факторизации на основе первых данных о взаимодействиях пользователь-элемент, указывающих на взаимодействия между пользователями и элементами цифрового контента, которые произошли до первого момента времени, при этом модель матричной факторизации обучается прогнозированию данных о взаимодействиях пользователь-элемент, отсутствующих в первый момент времени;
в ходе первой итерации этапа использования модели матричной факторизации:
формирование сервером, использующим обученную модель матричной факторизации, первых векторных представлений пользователей для соответствующих пользователей и первых векторных представлений элементов для соответствующих цифровых элементов, при этом первые векторные представления пользователей и первые векторные представления элементов представляют собой выходные данные обученной модели матричной факторизации;
сохранение сервером первых векторных представлений пользователей в сочетании с первым значением, указывающим на первую итерацию этапа использования модели матричной факторизации, в нераспределенном хранилище данных, и первых векторных представлений элементов в сочетании с первым значением в распределенном хранилище данных, при этом первые векторные представления элементов и первые векторные представления пользователей сохраняются в сочетании с первым значением, указывающим на то, что первые векторные представления элементов и первые векторные представления пользователей сформированы в ходе общей итерации этапа использования модели матричной факторизации;
повторное обучение сервером модели матричной факторизации на основе вторых данных о взаимодействиях пользователь-элемент, указывающих на взаимодействия между пользователями и элементами цифрового контента, которые произошли до второго момента времени, более позднего, чем первый момент времени, при этом модель матричной факторизации повторно обучается прогнозированию данных о взаимодействиях пользователь-элемент, отсутствующих во второй момент времени;
в ходе второй итерации этапа использования модели матричной факторизации:
формирование сервером, использующим повторно обученную модель матричной факторизации, вторых векторных представлений пользователей для соответствующих пользователей и вторых векторных представлений элементов для соответствующих цифровых элементов, при этом вторые векторные представления пользователей и вторые векторные представления элементов представляют собой выходные данные повторно обученной модели матричной факторизации;
сохранение сервером вторых векторных представлений пользователей в сочетании со вторым значением, указывающим на вторую итерацию этапа использования модели матричной факторизации, в нераспределенном хранилище данных в дополнение к первым векторным представлениям пользователей, и вторых векторных представлений элементов в сочетании со вторым значением в распределенном хранилище данных вместо соответствующих первых векторных представлений элементов путем замены соответствующих первых векторных представлений элементов, при этом вторые векторные представления элементов и вторые векторные представления пользователей сохраняются в сочетании со вторым значением, указывающим на то, что вторые векторные представления элементов и вторые векторные представления пользователей сформированы в ходе общей итерации этапа использования модели матричной факторизации;
удаление сервером первых векторных представлений пользователей, связанных с первым значением, из нераспределенного хранилища данных в третий момент времени, когда вторые векторные представления элементов сохранены в каждом узле из множества узлов распределенного хранилища данных так, чтобы в третий момент времени вторые векторные представления пользователей хранились в нераспределенном хранилище данных вместо первых векторных представлений пользователей и вторых векторных представлений пользователей.
2. Способ по п. 1, отличающийся тем, что он дополнительно включает в себя контроль сервером процесса сохранения вторых векторных представлений элементов в распределенном хранилище данных.
3. Способ по п. 1, отличающийся тем, что он дополнительно включает в себя определение сервером третьего момента времени, когда вторые векторные представления элементов сохранены в каждом узле из множества узлов распределенного хранилища данных.
4. Способ по п. 3, отличающийся тем, что он дополнительно включает в себя получение сервером из распределенного хранилища данных подтверждения отказоустойчивого хранения вторых векторных представлений элементов, а третий момент времени соответствует моменту времени получения сервером этого подтверждения.
5. Способ по п. 1, отличающийся тем, что сохранение вторых векторных представлений пользователей выполняется в течение первого интервала времени, а сохранение вторых векторных представлений элементов выполняется в течение второго интервала времени, при этом первый интервал времени существенно меньше второго интервала времени.
6. Способ по п. 5, отличающийся тем, что первый интервал времени определяется моментом времени, когда сервер начинает сохранение вторых векторных представлений пользователей в нераспределенном хранилище данных, и моментом времени, когда сервер завершает сохранение вторых векторных представлений пользователей в нераспределенном хранилище данных, а второй интервал времени определяется моментом времени, когда сервер начинает сохранение вторых векторных представлений элементов в распределенном хранилище данных, и третьим моментом времени, когда сервер завершает сохранение вторых векторных представлений элементов.
7. Способ по п. 1, отличающийся тем, что модель матричной факторизации представляет собой модель на основе сингулярного разложения.
8. Способ по п. 1, отличающийся тем, что нераспределенное хранилище данных представляет собой хранилище данных ключ-значение.
9. Способ по п. 1, отличающийся тем, что нераспределенное хранилище данных реализовано в виде одного физического устройства хранения данных.
10. Способ по п. 1, отличающийся тем, что в четвертый момент времени, между вторым моментом времени и третьим моментом времени, способ дополнительно включает в себя:
получение сервером указания на запрос рекомендации контента для электронного устройства, связанного с пользователем;
получение сервером из распределенного хранилища данных целевого векторного представления элемента, связанного с цифровым элементом, представляющим собой потенциально рекомендуемый элемент для пользователя, при этом целевое векторное представление элемента представляет собой первое векторное представление элемента для этого элемента или второе векторное представление элемента для этого элемента, а векторное представление элемента связано с целевым значением, представляющим собой первое значение или второе значение;
выбор сервером из нераспределенного хранилища данных связанного с пользователем целевого векторного представления пользователя из числа первого векторного представления пользователя, связанного с пользователем и хранящегося в сочетании с первым значением, и второго векторного представления пользователя, связанного с пользователем и хранящегося в сочетании со вторым значением, при этом выбор включает в себя:
определение сервером соответствия целевого значения векторного представления элемента первому значению или второму значению,
выбор первого векторного представления пользователя в качестве целевого векторного представления пользователя, если целевое значение соответствует первому значению,
выбор второго векторного представления пользователя, если целевое значение соответствует второму значению; и
формирование сервером ранжирующего признака в виде сочетания целевого векторного представления пользователя и целевого векторного представления элемента, при этом ранжирующий признак подлежит использованию при ранжировании элемента из числа других элементов для этого пользователя.
11. Сервер для хранения данных, связанных с пользователями рекомендательной системы и с цифровыми элементами, рекомендуемыми в рекомендательной системе, выполненной с возможностью предоставления цифровых элементов в качестве рекомендации контента пользователям рекомендательной системы, который связан с нераспределенным хранилищем данных и с распределенным хранилищем данных, содержащим множество узлов, и выполнен с возможностью:
обучения модели матричной факторизации на основе первых данных о взаимодействиях пользователь-элемент, указывающих на взаимодействия между пользователями и элементами цифрового контента, которые произошли до первого момента времени, при этом модель матричной факторизации обучается прогнозированию данных о взаимодействиях пользователь-элемент, отсутствующих в первый момент времени;
в ходе первой итерации этапа использования модели матричной факторизации:
формирования с использованием обученной модели матричной факторизации первых векторных представлений пользователей для соответствующих пользователей и первых векторных представлений элементов для соответствующих цифровых элементов, при этом первые векторные представления пользователей и первые векторные представления элементов представляют собой выходные данные обученной модели матричной факторизации;
сохранения первых векторных представлений пользователей в сочетании с первым значением, указывающим на первую итерацию этапа использования модели матричной факторизации, в нераспределенном хранилище данных, и первых векторных представлений элементов в сочетании с первым значением в распределенном хранилище данных, при этом первые векторные представления элементов и первые векторные представления пользователей сохраняются в сочетании с первым значением, указывающим на то, что первые векторные представления элементов и первые векторные представления пользователей сформированы в ходе общей итерации этапа использования модели матричной факторизации;
повторного обучения модели матричной факторизации на основе вторых данных о взаимодействиях пользователь-элемент, указывающих на взаимодействия между пользователями и элементами цифрового контента, которые произошли до второго момента времени, более позднего, чем первый момент времени, при этом модель матричной факторизации повторно обучается прогнозированию данных о взаимодействиях пользователь-элемент, отсутствующих во второй момент времени;
в ходе второй итерации этапа использования модели матричной факторизации:
формирования с использованием повторно обученной модели матричной факторизации вторых векторных представлений пользователей для соответствующих пользователей и вторых векторных представлений элементов для соответствующих цифровых элементов, при этом вторые векторные представления пользователей и вторые векторные представления элементов представляют собой выходные данные повторно обученной модели матричной факторизации;
сохранения вторых векторных представлений пользователей в сочетании со вторым значением, указывающим на вторую итерацию этапа использования модели матричной факторизации, в нераспределенном хранилище данных в дополнение к первым векторным представлениям пользователей, и вторых векторных представлений элементов в сочетании со вторым значением в распределенном хранилище данных вместо соответствующих первых векторных представлений элементов путем замены соответствующих первых векторных представлений элементов, при этом вторые векторные представления элементов и вторые векторные представления пользователей сохраняются в сочетании со вторым значением, указывающим на то, что вторые векторные представления элементов и вторые векторные представления пользователей сформированы в ходе общей итерации этапа использования модели матричной факторизации; и
удаления первых векторных представлений пользователей, связанных с первым значением, из нераспределенного хранилища данных в третий момент времени, когда вторые векторные представления элементов сохранены в каждом узле из множества узлов распределенного хранилища данных так, чтобы в третий момент времени вторые векторные представления пользователей хранились в нераспределенном хранилище данных вместо первых векторных представлений пользователей и вторых векторных представлений пользователей.
12. Сервер по п. 11, отличающийся тем, что он дополнительно выполнен с возможностью контроля процесса сохранения вторых векторных представлений элементов в распределенном хранилище данных.
13. Сервер по п. 11, отличающийся тем, что он дополнительно выполнен с возможностью определения третьего момента времени, когда вторые векторные представления элементов сохранены в каждом узле из множества узлов распределенного хранилища данных.
14. Сервер по п. 13, отличающийся тем, что он дополнительно выполнен с возможностью получения из распределенного хранилища данных подтверждения отказоустойчивого хранения вторых векторных представлений элементов, при этом третий момент времени соответствует моменту времени получения сервером этого подтверждения.
15. Сервер по п. 11, отличающийся тем, что он дополнительно выполнен с возможностью сохранения вторых векторных представлений пользователей в течение первого интервала времени и сохранения вторых векторных представлений элементов в течение второго интервала времени, при этом первый интервал времени существенно меньше второго интервала времени.
16. Сервер по п. 15, отличающийся тем, что первый интервал времени определяется моментом времени, когда сервер начинает сохранение вторых векторных представлений пользователей в нераспределенном хранилище данных, и моментом времени, когда сервер завершает сохранение вторых векторных представлений пользователей в нераспределенном хранилище данных, а второй интервал времени определяется моментом времени, когда сервер начинает сохранение вторых векторных представлений элементов в распределенном хранилище данных, и третьим моментом времени, когда сервер завершает сохранение вторых векторных представлений элементов.
17. Сервер по п. 11, отличающийся тем, что модель матричной факторизации представляет собой модель на основе сингулярного разложения.
18. Сервер по п. 11, отличающийся тем, что нераспределенное хранилище данных представляет собой хранилище данных ключ-значение.
19. Сервер по п. 11, отличающийся тем, что нераспределенное хранилище данных реализовано в виде одного физического устройства хранения данных.
20. Сервер по п. 11, отличающийся тем, что он дополнительно выполнен с возможностью выполнения в четвертый момент времени, между вторым моментом времени и третьим моментом времени, следующих действий:
получение указания на запрос рекомендации контента для электронного устройства, связанного с пользователем;
получение из распределенного хранилища данных целевого векторного представления элемента, связанного с цифровым элементом, представляющим собой потенциально рекомендуемый элемент для пользователя, при этом целевое векторное представление элемента представляет собой первое векторное представление элемента для этого элемента или второе векторное представление элемента для этого элемента, а векторное представление элемента связано с целевым значением, представляющим собой первое значение или второе значение;
выбор из нераспределенного хранилища данных связанного с пользователем целевого векторного представления пользователя из числа первого векторного представления пользователя, связанного с пользователем и хранящегося в сочетании с первым значением, и второго векторного представления пользователя, связанного с пользователем и хранящегося в сочетании со вторым значением, при этом для выполнения выбора сервер выполнен с возможностью:
определения соответствия целевого значения векторного представления элемента первому значению или второму значению,
выбора первого векторного представления пользователя в качестве целевого векторного представления пользователя, если целевое значение соответствует первому значению,
выбора второго векторного представления пользователя, если целевое значение соответствует второму значению; и
формирование ранжирующего признака в виде сочетания целевого векторного представления пользователя и целевого векторного представления элемента, при этом ранжирующий признак подлежит использованию при ранжировании элемента из числа других элементов для этого пользователя.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2020132860A RU2789842C2 (ru) | 2020-10-06 | Способы и серверы для хранения данных, связанных с пользователями и цифровыми элементами рекомендательной системы | |
US17/317,978 US11822447B2 (en) | 2020-10-06 | 2021-05-12 | Methods and servers for storing data associated with users and digital items of a recommendation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2020132860A RU2789842C2 (ru) | 2020-10-06 | Способы и серверы для хранения данных, связанных с пользователями и цифровыми элементами рекомендательной системы |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2020132860A true RU2020132860A (ru) | 2022-04-06 |
RU2789842C2 RU2789842C2 (ru) | 2023-02-13 |
Family
ID=
Also Published As
Publication number | Publication date |
---|---|
US11822447B2 (en) | 2023-11-21 |
US20220107872A1 (en) | 2022-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220043810A1 (en) | Reinforcement learning techniques to improve searching and/or to conserve computational and network resources | |
JP2011517494A5 (ru) | ||
CN111209477B (zh) | 一种信息推荐的方法及装置、电子设备、存储介质 | |
JPWO2020159568A5 (ru) | ||
WO2017197330A1 (en) | Two-stage training of a spoken dialogue system | |
CN108809855A (zh) | 消息管理方法、装置及电子设备 | |
CN110297885B (zh) | 实时事件摘要的生成方法、装置、设备及存储介质 | |
JP2004246897A5 (ru) | ||
Zhang et al. | Large language models are semi-parametric reinforcement learning agents | |
CN116561347A (zh) | 基于用户学习画像分析的题目推荐方法及系统 | |
Du et al. | Anytool: Self-reflective, hierarchical agents for large-scale api calls | |
RU2020132860A (ru) | Способы и серверы для хранения данных, связанных с пользователями и цифровыми элементами рекомендательной системы | |
CN107578107A (zh) | 模型训练方法和装置 | |
CN107644094B (zh) | 构建精品资源库的方法、装置、服务器及存储介质 | |
CN108875810A (zh) | 针对训练语料从词频表中进行负例采样的方法及装置 | |
CN112199896A (zh) | 一种基于机器学习的芯片逻辑综合优化加速方法 | |
CN112052393A (zh) | 一种学习方案推荐方法、装置、设备和存储介质 | |
US12050979B2 (en) | Budgeted neural network architecture search system and method | |
CN111538681A (zh) | Spark平台下基于最大化缓存增益的缓存替换方法 | |
CN116091174A (zh) | 推荐策略优化系统、方法、装置及相关设备 | |
CN112121439B (zh) | 一种基于强化学习的云游戏引擎智能优化方法及装置 | |
CN112150206B (zh) | 用户感兴趣物品的预测方法及设备 | |
CN112329941B (zh) | 深度学习模型的更新方法及装置 | |
CN113392163B (zh) | 一种数据处理方法、动作仿真方法、装置、设备和介质 | |
JPWO2022139858A5 (ru) |