JP7095209B2 - グラフニューラルネットワークをプレトレーニングする方法、プログラム及び装置 - Google Patents
グラフニューラルネットワークをプレトレーニングする方法、プログラム及び装置 Download PDFInfo
- Publication number
- JP7095209B2 JP7095209B2 JP2021044608A JP2021044608A JP7095209B2 JP 7095209 B2 JP7095209 B2 JP 7095209B2 JP 2021044608 A JP2021044608 A JP 2021044608A JP 2021044608 A JP2021044608 A JP 2021044608A JP 7095209 B2 JP7095209 B2 JP 7095209B2
- Authority
- JP
- Japan
- Prior art keywords
- sample
- original sample
- original
- positive
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Description
S101において、トレーニング対象となるオリジナルサンプルを取得する。
S102において、各オリジナルサンプルを増幅して、各オリジナルサンプルに対応するポジティブサンプル及びネガティブサンプルを取得する。
S103において、各オリジナルサンプル、及び各オリジナルサンプルに対応するポジティブサンプル、ネガティブサンプル、ウィークサンプルを使用して、各オリジナルサンプルに対応するサンプルグループを構成する。
S104において、前記グラフニューラルネットワークが収束するまで、それぞれ、各サンプルグループにおけるオリジナルサンプル、及び他のサンプルの1つをグラフニューラルネットワークの入力として、前記グラフニューラルネットワークをプレトレーニングする。
トレーニング対象となるオリジナルサンプルを取得する取得ユニット201と、
各オリジナルサンプルを増幅して、各オリジナルサンプルに対応するポジティブサンプル及びネガティブサンプルを取得する処理ユニット202と、
各オリジナルサンプル、及び各オリジナルサンプルに対応するポジティブサンプル、ネガティブサンプル、ウィークサンプルを使用して、各オリジナルサンプルに対応するサンプルグループを構成する構成ユニット203と、
前記グラフニューラルネットワークが収束するまで、それぞれ、各サンプルグループにおけるオリジナルサンプル、及び他のサンプルの1つをグラフニューラルネットワークの入力として、前記グラフニューラルネットワークをプレトレーニングするトレーニングユニット204とを含む。
Claims (9)
- グラフニューラルネットワークをプレトレーニングする方法であって、
トレーニング対象となるオリジナルサンプルを取得し、
各オリジナルサンプルを増幅して、各オリジナルサンプルに対応するポジティブサンプル及びネガティブサンプルを取得し、
各オリジナルサンプル、及び各オリジナルサンプルに対応するポジティブサンプル、ネガティブサンプル、ウィークサンプルを使用して、各オリジナルサンプルに対応するサンプルグループを構成し、
前記グラフニューラルネットワークが収束するまで、各サンプルグループにおけるオリジナルサンプル、及び当該オリジナルサンプルに対応するポジティブサンプル、ネガティブサンプル、ウィークサンプルの中の1つをそれぞれグラフニューラルネットワークの入力として、前記グラフニューラルネットワークをプレトレーニングすることを含み、
各オリジナルサンプルと各オリジナルサンプルに対応するポジティブサンプル及びネガティブサンプルとはグラフであり、
各オリジナルサンプルに対応するウィークサンプルは、他のオリジナルサンプルに対応するポジティブサンプル及びネガティブサンプルのうちの少なくとも一つである、方法。 - 各オリジナルサンプルを増幅して各オリジナルサンプルに対応するポジティブサンプルを取得することは、
一部のノードの属性のマスキング、一部のエッジの属性のマスキング、一部のノード間のエッジの増加及び一部のノード間のエッジの削除のうちの少なくとも一つにより、各オリジナルサンプルを処理し、
処理結果を、各オリジナルサンプルに対応するポジティブサンプルとすることを含む請求項1に記載の方法。 - 各オリジナルサンプルを増幅して各オリジナルサンプルに対応するネガティブサンプルを取得することは、
全てのノードの属性のマスキング、全てのエッジの属性のマスキング及びサンプル内の全てのノードの構造の変更のうちの少なくとも一つにより、各オリジナルサンプルを処理し、
処理結果を、各オリジナルサンプルに対応するネガティブサンプルとすることを含む請求項1または2に記載の方法。 - グラフニューラルネットワークをプレトレーニングする装置であって、
トレーニング対象となるオリジナルサンプルを取得するための取得ユニットと、
各オリジナルサンプルを増幅して、各オリジナルサンプルに対応するポジティブサンプル及びネガティブサンプルを取得するための処理ユニットであって、各オリジナルサンプルと各オリジナルサンプルに対応するポジティブサンプル及びネガティブサンプルとはグラフであり、各オリジナルサンプルに対応するウィークサンプルは、他のオリジナルサンプルに対応するポジティブサンプル及びネガティブサンプルのうちの少なくとも一つである処理ユニットと、
各オリジナルサンプル、及び各オリジナルサンプルに対応するポジティブサンプル、ネガティブサンプル、ウィークサンプルを使用して、各オリジナルサンプルに対応するサンプルグループを構成するための構成ユニットと、
前記グラフニューラルネットワークが収束するまで、各サンプルグループにおけるオリジナルサンプル、及び当該オリジナルサンプルに対応するポジティブサンプル、ネガティブサンプル、ウィークサンプルのうちの1つをそれぞれグラフニューラルネットワークの入力として、前記グラフニューラルネットワークをプレトレーニングするためのトレーニングユニットとを含む装置。 - 前記処理ユニットは、各オリジナルサンプルを増幅して各オリジナルサンプルに対応するポジティブサンプルを取得する場合に、具体的に、
一部のノードの属性のマスキング、一部のエッジの属性のマスキング、一部のノード間のエッジの増加及び一部のノード間のエッジの削除のうちの少なくとも一つにより、各オリジナルサンプルを処理し、
処理結果を、各オリジナルサンプルに対応するポジティブサンプルとする、
ことを実行する請求項4に記載の装置。 - 前記処理ユニットは、各オリジナルサンプルを増幅して各オリジナルサンプルに対応するネガティブサンプルを取得する場合に、具体的に、
全てのノードの属性のマスキング、全てのエッジの属性のマスキング及びサンプル内の全てのノードの構造の変更のうちの少なくとも一つにより、各オリジナルサンプルを処理し、
処理結果を、各オリジナルサンプルに対応するネガティブサンプルとする、
ことを実行する請求項4または5に記載の装置。 - 電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリとを含んでおり、
前記メモリには、前記少なくとも1つのプロセッサに実行可能なコマンドが記憶されており、前記少なくとも1つのプロセッサが請求項1~3のいずれか1項に記載の方法を実行できるように、前記コマンドが前記少なくとも1つのプロセッサによって実行される電子機器。 - 請求項1~3のいずれか一項に記載の方法をコンピュータに実行させるためのコンピュータコマンドを記憶している非一時的コンピュータ可読記憶媒体。
- 請求項1~3のいずれか一項に記載の方法をコンピュータに実行させるためのコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010549634.8A CN111860769A (zh) | 2020-06-16 | 2020-06-16 | 预训练图神经网络的方法以及装置 |
CN202010549634.8 | 2020-06-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021197159A JP2021197159A (ja) | 2021-12-27 |
JP7095209B2 true JP7095209B2 (ja) | 2022-07-05 |
Family
ID=72987232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021044608A Active JP7095209B2 (ja) | 2020-06-16 | 2021-03-18 | グラフニューラルネットワークをプレトレーニングする方法、プログラム及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210390393A1 (ja) |
EP (1) | EP3926548A1 (ja) |
JP (1) | JP7095209B2 (ja) |
KR (1) | KR102617929B1 (ja) |
CN (1) | CN111860769A (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112862093B (zh) * | 2021-01-29 | 2024-01-12 | 北京邮电大学 | 一种图神经网络训练方法及装置 |
CN112906873A (zh) * | 2021-03-26 | 2021-06-04 | 北京邮电大学 | 一种图神经网络训练方法、装置、电子设备及存储介质 |
KR102471829B1 (ko) * | 2021-04-20 | 2022-11-30 | 주식회사 유디엠텍 | 실시간 이상 탐지를 위한 gnn 기반의 마스터 상태 생성 방법 |
US11978188B2 (en) * | 2022-05-01 | 2024-05-07 | Robert Bosch Gmbh | Method and system for graph level anomaly detection |
CN115051929B (zh) * | 2022-06-20 | 2023-05-26 | 湖北工业大学 | 基于自监督目标感知神经网络的网络故障预测方法及装置 |
CN115391450B (zh) * | 2022-08-26 | 2024-01-09 | 百度在线网络技术(北京)有限公司 | 推理信息生成方法、装置、设备、可读存储介质及产品 |
CN115187610B (zh) * | 2022-09-08 | 2022-12-30 | 中国科学技术大学 | 基于图神经网络的神经元形态分析方法、设备及存储介质 |
CN115545189B (zh) * | 2022-11-29 | 2023-04-18 | 支付宝(杭州)信息技术有限公司 | 训练图生成网络、训练图神经网络的方法及装置 |
CN116631641B (zh) * | 2023-07-21 | 2023-12-22 | 之江实验室 | 一种集成自适应相似患者图的疾病预测装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016006626A (ja) | 2014-05-28 | 2016-01-14 | 株式会社デンソーアイティーラボラトリ | 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11853903B2 (en) | 2017-09-28 | 2023-12-26 | Siemens Aktiengesellschaft | SGCNN: structural graph convolutional neural network |
CN109657792A (zh) * | 2018-12-19 | 2019-04-19 | 北京世纪好未来教育科技有限公司 | 构建神经网络的方法、装置和计算机可读介质 |
CN112862093B (zh) | 2021-01-29 | 2024-01-12 | 北京邮电大学 | 一种图神经网络训练方法及装置 |
-
2020
- 2020-06-16 CN CN202010549634.8A patent/CN111860769A/zh active Pending
- 2020-12-21 US US17/128,978 patent/US20210390393A1/en active Pending
-
2021
- 2021-03-17 EP EP21163244.3A patent/EP3926548A1/en not_active Ceased
- 2021-03-18 KR KR1020210035504A patent/KR102617929B1/ko active IP Right Grant
- 2021-03-18 JP JP2021044608A patent/JP7095209B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016006626A (ja) | 2014-05-28 | 2016-01-14 | 株式会社デンソーアイティーラボラトリ | 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法 |
Non-Patent Citations (1)
Title |
---|
ZHU, Y et al.,Deep Graph Contrastive Representation Learning,arXiv.org [online],2020年07月13日,pp. 1-17,[retrieved on 2022.02.10], Retrieved from the Internet: <URL: https://arxiv.org/abs/2006.04131v2> |
Also Published As
Publication number | Publication date |
---|---|
KR20210156201A (ko) | 2021-12-24 |
JP2021197159A (ja) | 2021-12-27 |
CN111860769A (zh) | 2020-10-30 |
US20210390393A1 (en) | 2021-12-16 |
EP3926548A1 (en) | 2021-12-22 |
KR102617929B1 (ko) | 2023-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7095209B2 (ja) | グラフニューラルネットワークをプレトレーニングする方法、プログラム及び装置 | |
JP7225273B2 (ja) | マルチモーダルコンテンツ処理方法、装置、機器及び記憶媒体 | |
JP2022018095A (ja) | マルチモーダル事前訓練モデル取得方法、装置、電子デバイス及び記憶媒体 | |
US20210201198A1 (en) | Method, electronic device, and storage medium for generating node representations in heterogeneous graph | |
WO2022000802A1 (zh) | 深度学习模型的适配方法、装置及电子设备 | |
CN111079442B (zh) | 文档的向量化表示方法、装置和计算机设备 | |
CN111967256B (zh) | 事件关系的生成方法、装置、电子设备和存储介质 | |
US20210397791A1 (en) | Language model training method, apparatus, electronic device and readable storage medium | |
CN111144108B (zh) | 情感倾向性分析模型的建模方法、装置和电子设备 | |
CN111488740B (zh) | 一种因果关系的判别方法、装置、电子设备及存储介质 | |
KR102573637B1 (ko) | 엔티티 링킹 방법, 장치, 전자 기기 및 기록 매체 | |
JP2021103569A (ja) | セマンティック処理方法、装置、電子機器及び媒体 | |
JP2021111334A (ja) | 検索データに基づくヒューマンコンピュータ対話型インタラクションの方法、装置及び電子機器 | |
CN111950293B (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN111158666B (zh) | 实体归一化处理方法、装置、设备及存储介质 | |
US20230004753A9 (en) | Method, apparatus, electronic device and storage medium for training semantic similarity model | |
CN111539222B (zh) | 语义相似度任务模型的训练方法、装置、设备及存储介质 | |
CN114492788A (zh) | 训练深度学习模型的方法和装置、电子设备及存储介质 | |
CN112580723B (zh) | 多模型融合方法、装置、电子设备和存储介质 | |
CN111428489B (zh) | 一种评论生成方法、装置、电子设备及存储介质 | |
CN111488972B (zh) | 数据迁移方法、装置、电子设备和存储介质 | |
JP2022013658A (ja) | オプティマイザ学習方法、装置、電子デバイス、可読記憶媒体及びコンピュータプログラム | |
CN111160552B (zh) | 新闻信息的推荐处理方法、装置、设备和计算机存储介质 | |
US9754213B2 (en) | Reasoning over cyclical directed graphical models | |
CN111539225B (zh) | 语义理解框架结构的搜索方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220502 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220530 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7095209 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |