JP7009433B2 - ニューラルネットワーク生成用の方法及び装置 - Google Patents
ニューラルネットワーク生成用の方法及び装置 Download PDFInfo
- Publication number
- JP7009433B2 JP7009433B2 JP2019198129A JP2019198129A JP7009433B2 JP 7009433 B2 JP7009433 B2 JP 7009433B2 JP 2019198129 A JP2019198129 A JP 2019198129A JP 2019198129 A JP2019198129 A JP 2019198129A JP 7009433 B2 JP7009433 B2 JP 7009433B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- training sample
- preset
- sample
- entity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Machine Translation (AREA)
- Image Analysis (AREA)
Description
W=W’=[U1 T*V1, U2 T*V2, U3 T*V3]=[U1, U2, U3] T*[V1, V2, V3]
その中で、行列[U1, U2, U3] Tと行列[ V1, V2, V3]は、変換された2つの関係行列である。
Claims (14)
- ニューラルネットワーク生成用の方法であって、
ターゲットニューラルネットワークを取得するステップであって、ここで、前記ターゲットニューラルネットワークは、予め設定された関連関係に対応するものであり、ターゲットナレッジグラフの中の2つの実体に対応する2つの実体ベクトルを入力とすることによって、入力された2つの入力実体ベクトルに対応する2つの実体の関連関係が前記予め設定された関連関係であるか否かを判定するのに用いられ、前記ターゲットニューラルネットワークは、前記予め設定された関連関係に対して予め決定された関係テンソルを含むものであるステップと、
前記ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成するステップであって、前記ターゲット数は、予め設定された変換方法に基づいて確定された数である、ステップと、
前記候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成するステップとを含み、
前記候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成するステップは、
前記予め設定された関連関係に対して、トレーニングサンプルセットを取得するステップであって、ここで、トレーニングサンプルセットは、ポジティブトレーニングサンプルとネガティブトレーニングサンプルを含み、トレーニングサンプルは、2つのサンプル実体ベクトルを含み、サンプル実体ベクトルは、サンプル実体を特徴付けるために使用され、ポジティブトレーニングサンプルに対応する2つの実体間の関連関係は、前記予め設定された関連関係であり、ネガティブトレーニングサンプルに対応する2つの実体間の関連関係は、前記予め設定された関連関係ではないステップと、
前記トレーニングサンプルセットからトレーニングサンプルを選択し、選択したトレーニングサンプルを利用して候補ニューラルネットワークをトレーニングすることと、候補ニューラルネットワークのトレーニングが完了したか否かを判定することと、トレーニングの完了と判定したことに応答して、トレーニング済みの候補ニューラルネットワークを結果ニューラルネットワークとして決定することとを有するトレーニングステップを実行するステップとを含むことを特徴とする方法。 - 前記の、前記候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成するステップは、
トレーニングが未完了であると判定したことに応答して、前記トレーニングサンプルセットに含まれる未選択のトレーニングサンプルの中からトレーニングサンプルを再選択し、候補ニューラルネットワークのパラメーターを調整し、直近の選択したトレーニングサンプルと直近の調整した候補ニューラルネットワークを使用し、前記トレーニングステップを続けて実行するステップをさらに含むことを特徴とする請求項1に記載の方法。 - 前記の、前記予め設定された関連関係に対して、トレーニングサンプルセットを取得ステップは、
前記予め設定された関連関係に対して、ポジティブトレーニングサンプルセットを取得するステップと、
前記ポジティブトレーニングサンプルセットの中のポジティブトレーニングサンプルに対して、当該ポジティブトレーニングサンプルから、保留待ちサンプル実体ベクトルと置換待ちサンプル実体ベクトルを決定し、置換待ちサンプル実体ベクトルに対して、置換待ちサンプル実体ベクトルとはその対応するサンプル実体が異なった置換用サンプル実体ベクトルを取得し、置換用サンプル実体ベクトルと保留待ちサンプル実体ベクトルを利用して、当該ポジティブトレーニングサンプルに対応するネガティブトレーニングサンプルを構成するステップと、
前記ポジティブトレーニングサンプルセットと構成されたネガティブトレーニングサンプルを使用して、トレーニングサンプルセットを構成するステップとを含むことを特徴とする請求項1に記載の方法。 - 前記結果ニューラルネットワークを記憶するステップを更に含むことを特徴とする請求項1~3のいずれか1つに記載の方法。
- ナレッジグラフ更新用の方法であって、
2つの関連待ち実体ベクトルと予め生成された結果ニューラルネットワークを取得するステップであって、ここで、前記関連待ち実体ベクトルは、ターゲットナレッジグラフの中の関連待ち実体を特徴付けるために使用され、前記結果ニューラルネットワークは、請求項1~4のいずれか1つに記載の方法を使用して生成されるものであるステップと、
取得した2つの関連待ち実体ベクトルを前記結果ニューラルネットワークに入力し、2つの関連待ち実体の関連関係が、前記結果ニューラルネットワークに対応する予め設定された関連関係であるか否かを表す関連結果を生成するステップと、
前記関連結果が、2つの関連待ち実体の関連関係が前記結果ニューラルネットワークに対応する予め設定された関連関係であることを示すものと判定したことに応答して、前記予め設定された関連関係に対して予め設定された、ナレッジグラフに追加するための関連情報を利用して、前記ターゲットナレッジグラフを更新するステップとを含むことを特徴とする方法。 - 更新された後のターゲットナレッジグラフを表示するステップを更に含むことを特徴とする請求項5記載の方法。
- ニューラルネットワーク生成用の装置であって、
ターゲットニューラルネットワークを取得するように配置されている第1の取得ユニットであって、ここで、前記ターゲットニューラルネットワークは、予め設定された関連関係に対応するものであり、ターゲットナレッジグラフの中の2つの実体に対応する2つの実体ベクトルを入力とすることによって、入力された2つの入力実体ベクトルに対応する2つの実体の関連関係が前記予め設定された関連関係であるか否かを判定するのに用いられ、前記ターゲットニューラルネットワークは、前記予め設定された関連関係に対して予め決定された関係テンソルを含むものであるユニットと、
前記ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成するように配置されているテンソル変換ユニットであって、前記ターゲット数は、予め設定された変換方法に基づいて確定された数である、テンソル変換ユニットと、
前記候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成するように構成されているネットワーク生成ユニットとを含み、
前記ネットワーク生成ユニットは、
前記予め設定の関連関係に対して、トレーニングサンプルセットを取得し、当該トレーニングサンプルセットは、ポジティブトレーニングサンプルとネガティブトレーニングサンプルを含み、トレーニングサンプルは、2つのサンプル実体ベクトルを含み、サンプル実体ベクトルは、サンプル実体を特徴付けるために使用され、ポジティブトレーニングサンプルに対応する2つの実体間の関連関係は、前記予め設定された関連関係であり、ネガティブトレーニングサンプルに対応する2つの実体間の関連関係は、前記予め設定された関連関係ではないように配置されているサンプル取得モジュールと、
前記トレーニングサンプルセットからトレーニングサンプルを選択し、次のトレーニングステップを実行する:選択したトレーニングサンプルを利用して候補ニューラルネットワークをトレーニングし、候補ニューラルネットワークのトレーニングが完了したか否かを判定し、トレーニングの完了と判定したことに応答して、トレーニング済みの候補ニューラルネットワークを結果ニューラルネットワークとして決定するように配置されている第1のトレーニングモジュールとを含むことを特徴とする装置。 - 前記ネットワーク生成ユニットは、
トレーニングが未完了であると判定したことに応答して、前記トレーニングサンプルセットに含まれる未選択のトレーニングサンプルの中からトレーニングサンプルを再選択し、候補ニューラルネットワークのパラメーターを調整し、直近の選択したトレーニングサンプルと直近の調整した候補ニューラルネットワークを使用し、前記トレーニングステップを続けて実行するように配置されている第2のトレーニングモジュールを更に含むことを特徴とする請求項7に記載の装置。 - 前記サンプル取得モジュールは、
前記予め設定された関連関係に対して、ポジティブトレーニングサンプルセットを取得し、
前記ポジティブトレーニングサンプルセットの中のポジティブトレーニングサンプルに対して、当該ポジティブトレーニングサンプルから、保留待ちサンプル実体ベクトルと置換待ちサンプル実体ベクトルを決定し、置換待ちサンプル実体ベクトルに対して、置換待ちサンプル実体ベクトルとはその対応するサンプル実体が異なった置換用サンプル実体ベクトルを取得し、置換用サンプル実体ベクトルと保留待ちサンプル実体ベクトルを利用して、当該ポジティブトレーニングサンプルに対応するネガティブトレーニングサンプルを構成し、
前記ポジティブトレーニングサンプルセットと構成されたネガティブトレーニングサンプルを使用して、トレーニングサンプルセットを構成するように更に配置されていることを特徴とする請求項7に記載の装置。 - 前記結果ニューラルネットワークを記憶するように配置されているネットワーク記憶モジュールを更に含むことを特徴とする請求項7~9のいずれか1つに記載の装置。
- ナレッジグラフ更新用の装置であって、
2つの関連待ち実体ベクトルと予め生成された結果ニューラルネットワークを取得し、前記関連待ち実体ベクトルは、ターゲットナレッジグラフの中の関連待ち実体を特徴付けるために使用され、前記結果ニューラルネットワークは、請求項1~4のいずれか1つに記載の方法を使用して生成されるものであるように配置されている第2の取得ユニットと、
取得した2つの関連待ち実体ベクトルを前記結果ニューラルネットワークに入力し、2つの関連待ち実体の関連関係が、前記結果ニューラルネットワークに対応する予め設定された関連関係であるか否かを表す関連結果を生成するように配置されている結果生成ユニットと、
前記関連結果が、2つの関連待ち実体の関連関係が前記結果ニューラルネットワークに対応する予め設定された関連関係であることを示すものと判定したことに応答して、前記予め設定された関連関係に対して予め設定された、ナレッジグラフに追加するための関連情報を利用して、前記ターゲットナレッジグラフを更新するように配置されているグラフ更新ユニットとを含むことを特徴とする装置。 - 更新された後のターゲットナレッジグラフを表示するように配置されているグラフ表示ユニットとを更に含むことを特徴とする請求項11に記載の装置。
- 1つ又は複数のプロセッサーと、
1つ又は複数のプログラムが記憶されている記憶装置とを含み、
当該1つ又は複数のプログラムが前記1つ又は複数のプロセッサーにより実行される場合、請求項1~6のいずれか1つの方法を前記1つ又は複数のプロセッサーに実現させることを特徴とする電子デバイス。 - コンピュータプログラムが記憶されているコンピュータ可読メディアであって、
当該プログラムがプロセッサーにより実行されると、請求項1~6のいずれか1つの方法を実現させることを特徴とするコンピュータ可読メディア。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910184509.9 | 2019-03-12 | ||
CN201910184509.9A CN109902186B (zh) | 2019-03-12 | 2019-03-12 | 用于生成神经网络的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020149663A JP2020149663A (ja) | 2020-09-17 |
JP7009433B2 true JP7009433B2 (ja) | 2022-01-25 |
Family
ID=66947083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019198129A Active JP7009433B2 (ja) | 2019-03-12 | 2019-10-31 | ニューラルネットワーク生成用の方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11620532B2 (ja) |
EP (1) | EP3709223A1 (ja) |
JP (1) | JP7009433B2 (ja) |
KR (1) | KR102342604B1 (ja) |
CN (1) | CN109902186B (ja) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018176000A1 (en) | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
CN108229647A (zh) | 2017-08-18 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络结构的生成方法和装置、电子设备、存储介质 |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
WO2020077117A1 (en) | 2018-10-11 | 2020-04-16 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
US11455467B2 (en) * | 2020-01-30 | 2022-09-27 | Tencent America LLC | Relation extraction using full dependency forests |
CN113873539B (zh) * | 2020-06-30 | 2024-09-20 | 华为技术有限公司 | 获取神经网络的方法和装置 |
CN112528110A (zh) * | 2020-07-24 | 2021-03-19 | 支付宝(杭州)信息技术有限公司 | 确定实体业务属性的方法及装置 |
US11954611B2 (en) * | 2020-08-27 | 2024-04-09 | International Business Machines Corporation | Tensor comparison across a distributed machine learning environment |
CN112202510B (zh) * | 2020-09-27 | 2022-09-16 | 广州大学 | 基于正则化流神经网络的信号检测方法 |
JP7497664B2 (ja) | 2020-10-09 | 2024-06-11 | 富士通株式会社 | 機械学習プログラム、機械学習装置、及び、機械学習方法 |
CN112069249B (zh) * | 2020-10-14 | 2024-08-02 | 中国平安人寿保险股份有限公司 | 知识图谱关系挖掘方法、装置、计算机设备及存储介质 |
CN112270179B (zh) * | 2020-10-15 | 2021-11-09 | 和美(深圳)信息技术股份有限公司 | 一种实体识别方法、装置及电子设备 |
CN113220895B (zh) * | 2021-04-23 | 2024-02-02 | 北京大数医达科技有限公司 | 基于强化学习的信息处理方法、装置、终端设备 |
CN113220866B (zh) * | 2021-04-28 | 2023-01-06 | 西安电子科技大学 | 基于用户社交网络和产品相似度的推荐方法 |
JP2023068865A (ja) | 2021-11-04 | 2023-05-18 | 富士通株式会社 | 機械学習プログラム、機械学習方法及び機械学習装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127297B (zh) * | 2016-06-02 | 2019-07-12 | 中国科学院自动化研究所 | 基于张量分解的深度卷积神经网络的加速与压缩方法 |
CN106295796B (zh) * | 2016-07-22 | 2018-12-25 | 浙江大学 | 基于深度学习的实体链接方法 |
CN106776711B (zh) * | 2016-11-14 | 2020-04-07 | 浙江大学 | 一种基于深度学习的中文医学知识图谱构建方法 |
CN106855853A (zh) * | 2016-12-28 | 2017-06-16 | 成都数联铭品科技有限公司 | 基于深度神经网络的实体关系抽取系统 |
US10878309B2 (en) * | 2017-01-03 | 2020-12-29 | International Business Machines Corporation | Determining context-aware distances using deep neural networks |
JP6663881B2 (ja) | 2017-04-13 | 2020-03-13 | 日本電信電話株式会社 | 並列句解析装置、並列句解析モデル学習装置、方法、及びプログラム |
KR101983455B1 (ko) * | 2017-09-21 | 2019-05-28 | 숭실대학교산학협력단 | 지식베이스 구축 방법 및 그 서버 |
CN107662617B (zh) | 2017-09-25 | 2019-11-05 | 重庆邮电大学 | 基于深度学习的车载交互控制算法 |
CN107729497B (zh) * | 2017-10-20 | 2020-08-14 | 同济大学 | 一种基于知识图谱的词嵌入深度学习方法 |
CN107944559B (zh) * | 2017-11-24 | 2021-04-27 | 国家计算机网络与信息安全管理中心 | 一种实体关系自动识别方法及系统 |
CN108280061B (zh) * | 2018-01-17 | 2021-10-26 | 北京百度网讯科技有限公司 | 基于歧义实体词的文本处理方法和装置 |
-
2019
- 2019-03-12 CN CN201910184509.9A patent/CN109902186B/zh active Active
- 2019-10-28 US US16/665,882 patent/US11620532B2/en active Active
- 2019-10-30 EP EP19206096.0A patent/EP3709223A1/en active Pending
- 2019-10-31 JP JP2019198129A patent/JP7009433B2/ja active Active
- 2019-10-31 KR KR1020190137976A patent/KR102342604B1/ko active IP Right Grant
Non-Patent Citations (3)
Title |
---|
Richard Socher et al.,Reasoning With Neural Tensor Networks for Knowledge Base Completion,Proceedings of the NIPS,2013年,p.1-10 |
Yaming Sun et al.,Modeling Mention, Context and Entity with Neural Networks for Entity Disambiguation,Proceedings of the Twenty-Fourth International Joint Conference on Artificial Intelligence (IJCAI 2015),2015年,p.1333-1339 |
石原 敬大,ほか3名,"固有値分解に基づくニューラルテンソルネットワークのパラメタ削減",言語処理学会第24回年次大会 発表論文集,言語処理学会,2018年03月05日,p.228-231 |
Also Published As
Publication number | Publication date |
---|---|
CN109902186B (zh) | 2021-05-11 |
US20200293905A1 (en) | 2020-09-17 |
EP3709223A1 (en) | 2020-09-16 |
CN109902186A (zh) | 2019-06-18 |
KR102342604B1 (ko) | 2021-12-24 |
KR20200109230A (ko) | 2020-09-22 |
JP2020149663A (ja) | 2020-09-17 |
US11620532B2 (en) | 2023-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7009433B2 (ja) | ニューラルネットワーク生成用の方法及び装置 | |
CN109947919B (zh) | 用于生成文本匹配模型的方法和装置 | |
CN111666416B (zh) | 用于生成语义匹配模型的方法和装置 | |
CN110688528A (zh) | 生成视频的分类信息的方法、装置、电子设备和介质 | |
CN112650841A (zh) | 信息处理方法、装置和电子设备 | |
JP7504192B2 (ja) | 画像を検索するための方法及び装置 | |
CN112182255A (zh) | 用于存储媒体文件和用于检索媒体文件的方法和装置 | |
US20220366312A1 (en) | Method and apparatus for training item coding model | |
CN116128055A (zh) | 图谱构建方法、装置、电子设备和计算机可读介质 | |
JP2023537480A (ja) | 予測情報を生成するための方法、装置、電子機器及び媒体 | |
CN117290477A (zh) | 一种基于二次检索增强的生成式建筑知识问答方法 | |
CN111008213A (zh) | 用于生成语言转换模型的方法和装置 | |
CN112395490B (zh) | 用于生成信息的方法和装置 | |
CN111339124B (zh) | 显示数据方法、装置、电子设备和计算机可读介质 | |
CN113761289A (zh) | 图学习方法、框架、计算机系统及可读存储介质 | |
CN111353585A (zh) | 神经网络模型的结构搜索方法和装置 | |
CN111522887B (zh) | 用于输出信息的方法和装置 | |
CN113283115B (zh) | 图像模型生成方法、装置和电子设备 | |
CN114912585A (zh) | 神经网络的生成方法和装置 | |
CN115565607B (zh) | 确定蛋白质信息的方法、装置、可读介质及电子设备 | |
CN111526054B (zh) | 用于获取网络的方法及装置 | |
CN115564870A (zh) | 基于反向传播的人脸编辑方法、装置、设备和介质 | |
CN115146657A (zh) | 模型训练方法、装置、存储介质、客户端、服务器和系统 | |
CN113962285A (zh) | 多路召回结果融合方法、装置、电子设备和计算机介质 | |
CN116071224A (zh) | 图像转换模型训练方法、图像转换方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210202 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211129 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20211129 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20211207 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20211208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7009433 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |