JP2020149663A - ニューラルネットワーク生成用の方法及び装置 - Google Patents

ニューラルネットワーク生成用の方法及び装置 Download PDF

Info

Publication number
JP2020149663A
JP2020149663A JP2019198129A JP2019198129A JP2020149663A JP 2020149663 A JP2020149663 A JP 2020149663A JP 2019198129 A JP2019198129 A JP 2019198129A JP 2019198129 A JP2019198129 A JP 2019198129A JP 2020149663 A JP2020149663 A JP 2020149663A
Authority
JP
Japan
Prior art keywords
neural network
training sample
relationship
entity
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019198129A
Other languages
English (en)
Other versions
JP7009433B2 (ja
Inventor
ホアン、チエンホイ
Jianhui Huang
チアオ、ミン
Min Qiao
フォン、チーファン
Zhifan Feng
ホアン、ピンピン
Pingping Huang
チュー、ヨン
Yong Zhu
ルー、ヤーチュアン
Yajuan Lyu
リー、イン
Ying Li
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2020149663A publication Critical patent/JP2020149663A/ja
Application granted granted Critical
Publication of JP7009433B2 publication Critical patent/JP7009433B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ニューラルネットワーク生成用の方法及び装置を提供する。【解決手段】ターゲットニューラルネットワークを取得するステップであって、ターゲットニューラルネットワークは予め設定された関連関係に対応するものであり、ターゲットナレッジグラフの中の2つの実体に対応する実体ベクトルを入力とすることによって入力された入力実体ベクトルに対応する実体の関連関係が予め設定された関連関係であるか否かを判定するのに用いられ、ターゲットニューラルネットワークは予め設定された関連関係に対して予め決定された関係テンソルを含むものであるステップと、ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成するステップと、候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成するステップとを含む。【選択図】図2

Description

本願の実施形態は、コンピュータ技術の分野に関し、具体的には、ニューラルネットワーク生成用の方法及び装置に関する。
ナレッジグラフ(Knowledge Graph)は、多数の構造化されたトリプルで構成されるネットワークであり、ネットワーク内のノードは実体(entity)を表し、ノード間のエッジは実体間の関連関係を表す。
現在、ナレッジグラフは、情報検索や情報推薦等、様々な分野に適用できる。ナレッジグラフを使用して、特定の情報に対応する実体と関連する他の実体を得ることができ、ひいては当該情報と関連する他の情報を得ることができる。
本願の実施形態は、ニューラルネットワーク生成用の方法及び装置を提供し、ならびにナレッジグラフ更新用の方法及び装置を提供する。
本願の第一態様によれば、ニューラルネットワーク生成用の方法であって、ターゲットニューラルネットワークを取得するステップであって、ここで、前記ターゲットニューラルネットワークは、予め設定された関連関係に対応するものであり、ターゲットナレッジグラフの中の2つの実体に対応する2つの実体ベクトルを入力とすることによって、入力された2つの入力実体ベクトルに対応する2つの実体の関連関係が前記予め設定された関連関係であるか否かを判定するのに用いられ、前記ターゲットニューラルネットワークは、前記予め設定された関連関係に対して予め決定された関係テンソルを含むものであるステップと、前記ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成するステップと、前記候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成するステップとを含むことを特徴とする方法を提供する。
幾つかの実施例において、候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成するステップは、前記予め設定された関連関係に対して、トレーニングサンプルセットを取得するステップであって、ここで、トレーニングサンプルセットは、ポジティブトレーニングサンプルとネガティブトレーニングサンプルを含み、トレーニングサンプルは、2つのサンプル実体ベクトルを含み、サンプル実体ベクトルは、サンプル実体を特徴付けるために使用され、ポジティブトレーニングサンプルに対応する2つの実体間の関連関係は、前記予め設定された関連関係であり、ネガティブトレーニングサンプルに対応する2つの実体間の関連関係は、前記予め設定された関連関係ではないステップと、前記トレーニングサンプルセットからトレーニングサンプルを選択し、そして、選択したトレーニングサンプルを利用して候補ニューラルネットワークをトレーニングすることと、候補ニューラルネットワークのトレーニングが完了したか否かを判定することと、トレーニングの完了と判定したことに応答して、トレーニング済みの候補ニューラルネットワークを結果ニューラルネットワークとして決定することとを有するトレーニングステップを実行するステップとを含む。
幾つかの実施例において、候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成するステップは、トレーニングが未完了であると判定したことに応答して、前記トレーニングサンプルセットに含まれる未選択のトレーニングサンプルの中からトレーニングサンプルを再選択し、候補ニューラルネットワークのパラメーターを調整し、直近の選択したトレーニングサンプルと直近の調整した候補ニューラルネットワークを使用し、前記トレーニングステップを続けて実行するステップをさらに含む。
幾つかの実施例において、前記予め設定された関連関係に対して、トレーニングサンプルセットを取得ステップは、前記予め設定された関連関係に対して、ポジティブトレーニングサンプルセットを取得するステップと、前記ポジティブトレーニングサンプルセットの中のポジティブトレーニングサンプルに対して、当該ポジティブトレーニングサンプルから、保留待ちサンプル実体ベクトルと置換待ちサンプル実体ベクトルを決定し、置換待ちサンプル実体ベクトルに対して、置換待ちサンプル実体ベクトルとはその対応するサンプル実体が異なった置換用サンプル実体ベクトルを取得し、置換用サンプル実体ベクトルと保留待ちサンプル実体ベクトルを利用して、当該ポジティブトレーニングサンプルに対応するネガティブトレーニングサンプルを構成するステップと、ポジティブトレーニングサンプルセットと構成されたネガティブトレーニングサンプルを使用して、トレーニングサンプルセットを構成するステップとを含む。
幾つかの実施例において、前記結果ニューラルネットワークを記憶するステップを更に含む。
第二態様によれば、ナレッジグラフ更新用の方法であって、2つの関連待ち実体ベクトルと予め生成された結果ニューラルネットワークを取得するステップであって、ここで、前記関連待ち実体ベクトルは、ターゲットナレッジグラフの中の関連待ち実体を特徴付けるために使用され、前記結果ニューラルネットワークは、第一態様のいずれかの実施例に記載の方法を使用して生成されるものであるステップと、取得した2つの関連待ち実体ベクトルを前記結果ニューラルネットワークに入力し、2つの関連待ち実体の関連関係が、前記結果ニューラルネットワークに対応する予め設定された関連関係であるか否かを表す関連結果を生成するステップと、前記関連結果が、2つの関連待ち実体の関連関係が前記結果ニューラルネットワークに対応する予め設定された関連関係であることを示すものと判定したことに応答して、前記予め設定された関連関係に対して予め設定された、ナレッジグラフに追加するための関連情報を利用して、前記ターゲットナレッジグラフを更新するステップとを含むことを特徴とする方法を提供する。
幾つかの実施例において、更新された後のターゲットナレッジグラフを表示するステップを更に含む。
第三態様によれば、ニューラルネットワーク生成用の装置であって、ターゲットニューラルネットワークを取得するように配置されている第1の取得ユニットであって、ここで、前記ターゲットニューラルネットワークは、予め設定された関連関係に対応するものであり、ターゲットナレッジグラフの中の2つの実体に対応する2つの実体ベクトルを入力とすることによって、入力された2つの入力実体ベクトルに対応する2つの実体の関連関係が前記予め設定された関連関係であるか否かを判定するのに用いられ、前記ターゲットニューラルネットワークは、前記予め設定された関連関係に対して予め決定された関係テンソルを含むものであるユニットと、前記ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成するように配置されているテンソル変換ユニットと、前記候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成するように構成されているネットワーク生成ユニットとを含むことを特徴とする装置を提供する。
幾つかの実施例において、ネットワーク生成ユニットは、前記予め設定の関連関係に対して、トレーニングサンプルセットを取得し、当該トレーニングサンプルセットは、ポジティブトレーニングサンプルとネガティブトレーニングサンプルを含み、トレーニングサンプルは、2つのサンプル実体ベクトルを含み、サンプル実体ベクトルは、サンプル実体を特徴付けるために使用され、ポジティブトレーニングサンプルに対応する2つの実体間の関連関係は、前記予め設定された関連関係であり、ネガティブトレーニングサンプルに対応する2つの実体間の関連関係は、前記予め設定された関連関係ではないように配置されているサンプル取得モジュールと、前記トレーニングサンプルセットからトレーニングサンプルを選択し、次のトレーニングステップを実行する:選択したトレーニングサンプルを利用して候補ニューラルネットワークをトレーニングし、候補ニューラルネットワークのトレーニングが完了したか否かを判定し、トレーニングの完了と判定したことに応答して、トレーニング済みの候補ニューラルネットワークを結果ニューラルネットワークとして決定するように配置されている第1のトレーニングモジュールとを含む。
幾つかの実施例において、ネットワーク生成ユニットは、トレーニングが未完了であると判定したことに応答して、前記トレーニングサンプルセットに含まれる未選択のトレーニングサンプルの中からトレーニングサンプルを再選択し、候補ニューラルネットワークのパラメーターを調整し、直近の選択したトレーニングサンプルと直近の調整した候補ニューラルネットワークを使用し、前記トレーニングステップを続けて実行するように配置されている第2のトレーニングモジュールを更に含む。
幾つかの実施例において、サンプル取得モジュールは、前記予め設定された関連関係に対して、ポジティブトレーニングサンプルセットを取得し、前記ポジティブトレーニングサンプルセットの中のポジティブトレーニングサンプルに対して、当該ポジティブトレーニングサンプルから、保留待ちサンプル実体ベクトルと置換待ちサンプル実体ベクトルを決定し、置換待ちサンプル実体ベクトルに対して、置換待ちサンプル実体ベクトルとはその対応するサンプル実体が異なった置換用サンプル実体ベクトルを取得し、置換用サンプル実体ベクトルと保留待ちサンプル実体ベクトルを利用して、当該ポジティブトレーニングサンプルに対応するネガティブトレーニングサンプルを構成し、前記ポジティブトレーニングサンプルセットと構成されたネガティブトレーニングサンプルを使用して、トレーニングサンプルセットを構成するように更に配置されている。
幾つかの実施例において、前記結果ニューラルネットワークを記憶するように配置されているネットワーク記憶モジュールを更に含む。
本願の第四態様によれば、ナレッジグラフ更新用の装置であって、2つの関連待ち実体ベクトルと予め生成された結果ニューラルネットワークを取得し、前記関連待ち実体ベクトルは、ターゲットナレッジグラフの中の関連待ち実体を特徴付けるために使用され、前記結果ニューラルネットワークは、第一態様のいずれか1つの実施例に記載の方法を使用して生成されるものであるように配置されている第2の取得ユニットと、取得した2つの関連待ち実体ベクトルを前記結果ニューラルネットワークに入力し、2つの関連待ち実体の関連関係が、前記結果ニューラルネットワークに対応する予め設定された関連関係であるか否かを表す関連結果を生成するように配置されている結果生成ユニットと、前記関連結果が、2つの関連待ち実体の関連関係が前記結果ニューラルネットワークに対応する予め設定された関連関係であることを示すものと判定したことに応答して、前記予め設定された関連関係に対して予め設定された、ナレッジグラフに追加するための関連情報を利用して、前記ターゲットナレッジグラフを更新するように配置されているグラフ更新ユニットとを含むことを特徴とする装置を提供する。
幾つかの実施例において、更新された後のターゲットナレッジグラフを表示するように配置されているグラフ表示ユニットとを更に含む。
本願の第五態様によれば、1つ又は複数のプロセッサーと、1つ又は複数のプログラムが記憶されている記憶装置とを含み、当該1つ又は複数のプログラムが前記1つ又は複数のプロセッサーにより実行される場合、第一態様のいずれか1つの方法を前記1つ又は複数のプロセッサーに実現させることを特徴とする電子デバイスを提供する。
本願の第六態様によれば、コンピュータプログラムが記憶されているコンピュータ可読メディアであって、当該プログラムがプロセッサーにより実行されると、第一態様のいずれか1つの方法を実現させることを特徴とするコンピュータ可読メディアを提供する。
本願の実施形態が提供するニューラルネットワーク生成用の方法及び装置は、ターゲットニューラルネットワークを取得し、ターゲットニューラルネットワークは、予め設定された関連関係に対応し、ターゲットナレッジグラフの中の2つの実体に対応する2つの実体ベクトルを入力とすることによって、入力された2つの入力実体ベクトルに対応する2つの実体の関連関係が予め設定された関連関係であるか否かを判定するのに用いられ、ターゲットニューラルネットワークは、予め設定された関連関係に対して予め決定された関係テンソルを含み、次に、ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成し、最後に、候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成することによって、従ってニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換することによって、ニューラルネットワークの中のパラメーターの数を減らすことができ、ひいてはニューラルネットワークの複雑さを軽減することができ、ニューラルネットワークを使用して情報処理を行う時にCPU消費を削減し、情報処理効率を高めることに役立つ。
以下の図面による非限定的な実施形態についての詳細な説明を読み、参照することにより、本願の他の特徴、目的及び利点がより明らかになる。
本開示にかかる一実施形態が適用できる例示的なシステムアーキテクチャ図である。 本開示にかかるニューラルネットワーク生成用の方法の一実施形態のフローチャート図である。 本開示にかかるニューラルネットワーク生成用の方法の1つの応用シナリオの模式図である。 本開示にかかるナレッジグラフ更新用の方法の一実施形態のフローチャート図である。 本開示によるニューラルネットワーク生成用の装置の一実施形態の構造模式図である。 本開示にかかるナレッジグラフ更新用の装置の一実施形態の構造模式図である。 本開示の実施形態にかかる電子デバイスを実現するのに適するコンピュータシステムの構造模式図である。
以下、図面と実施形態を参照しながら、本願を詳細に説明する。ここで記載される具体的な実施形態は、関連の発明を解釈するのみに用いられ、当該発明に対する限定ではないことは理解される。なお、説明の便宜上、図面には、関連の発明に関わる部分のみを示す。
なお、矛盾が生じない限り、本願における実施形態及び実施形態における特徴は互いに組み合わせることができるものとする。以下、図面を参照しながら、実施形態を併せて本願を詳しく説明する。
図1は、本願のニューラルネットワーク生成用の方法、ニューラルネットワーク生成用の装置、ナレッジグラフ更新用の方法、またはナレッジグラフ更新用の装置を応用できる実施形態の例示的なシステム構造100を示す。
図1に示すように、システム構成100は、端末設備101、102、103、ネットワーク104とサーバー105を含んでも良い。ネットワーク104は、端末設備101、102、103とサーバー105との間の通信リンクの媒体を提供するのに用いられる。ネットワーク104は、例えば、有線、無線通信リンク又は光ファイバケーブル等のような、各種の接続種類を含むことができる。
ユーザーは、端末設備101、102、103を使用してネットワーク104を介してサーバー105とインターアクティブし、メッセージ等を送受信することができる。端末設備101、102、103には、例えば、ウェブブラウザアプリケーション、買い物系アプリケーション、検索系アプリケーション、インスタントメッセージングツール、電子メールクライアント、ソーシャルプラットフォームソフトウェア等のような、各種の通信クライアントアプリケーションがインストールされていても良い。
端末設備101、102、103は、ハードウェアであっても良く、ソフトウェアであっても良い。端末設備101、102、103がハードウェアである場合は、各種の電子デバイスであっても良く、スマートフォン、タブレット、電子ブックリーダー、MP3(Moving Picture Experts Group Audio Layer III、ムービング・ピクチャー・エクスパーツ・グループオーディオレイヤー3)プレーヤー、MP4(Moving Picture Experts Group Audio Layer IV、ムービング・ピクチャー・エクスパーツ・グループオーディオレイヤー4)プレーヤー、ラップトップポータブルコンピュータ及びデスクトップコンピュータ等を含むが、これらに限定されない。端末設備101、102、103がソフトウェアである場合は、上述の列挙した電子デバイスにインストールされても良い。それは、複数のソフトウェアまたはソフトウェアモジュール(例えば、分散式サービスを提供するために用いられる複数のソフトウェアまたはソフトウェアモジュール)として実現されても良く、単独のソフトウェアまたはソフトウェアモジュールとして実現されても良い。ここでは、具体的な限定をしない。
サーバー105は、各種サービスを提供するサーバーであっても良く、例えば、端末設備101、102、103が送信したターゲットニューラルネットワークに対して処理を行うネットワーク処理サーバーであっても良い。ネットワーク処理サーバーは、受信したターゲットニューラルネットワーク等のデータに対して分析等の処理を行い、処理結果(例えば、結果ニューラルネットワーク)を得ることができる。
なお、本願の実施形態によるニューラルネットワーク生成用の方法は、端末設備101、102、103によって実行されても良く、サーバー105によって実行されても良い。相応的には、ニューラルネットワーク生成用の装置は、端末設備101、102、103に設置されても良く、サーバー105の中に設置されても良い。その他に、本願の実施形態によるナレッジグラフ更新用の方法は、端末設備101、102、103によって実行されても良く、サーバー105によって実行されても良い。相応的には、ナレッジグラフ更新用の装置は、端末設備101、102、103に設置されても良く、サーバー105の中に設置されても良い。
サーバーは、ハードウェアであっても良く、ソフトウェアであっても良い。サーバーがハードウェアである場合は、複数のサーバーから構成される分散式サーバークラスタとして実現されても良いし、単独のサーバーとして実現されても良い。サーバーがソフトウェアである場合は、複数のソフトウェアまたはソフトウェアモジュール(例えば、分散式サービスを提供するために用いられる複数のソフトウェアまたはソフトウェアモジュール)として実現されても良いし、単独のソフトウェアまたはソフトウェアモジュールとして実現されても良い。ここでは具体的な限定をしない。
図1の端末設備、ネットワーク及びサーバーの数は、ただ単に例示的なものであると理解すべきである。実現の必要性に従って、任意の数の端末設備、ネットワークとサーバーを有しても良い。結果ニューラルネットワークを生成するまたはターゲットナレッジグラフに対して更新を行うプロセスにおいて、使用するデータはリモートから取得する必要がない場合、前記システム構成は、ネットワークを含まず、端末設備またはサーバーだけを含むようにしても良い。
図2は、本願によるニューラルネットワーク生成用の方法の一実施形態のフローチャート200を示す。当該実施形態のニューラルネットワーク生成用の方法は、ステップ201、ステップ202及びステップ203を含む。
ステップ201においては、ターゲットニューラルネットワークを取得する。
本願の実施形態において、ニューラルネットワーク生成用の方法の実行主体(例えば、図1に示すサーバー)は、有線接続方式または無線接続方式を介してリモートまたはローカルからターゲットニューラルネットワークを取得することができる。なお、ターゲットニューラルネットワークは、調整待ちのニューラルネットワークである。具体的には、ターゲットニューラルネットワークは、トレーニングされていないニューラルネットワークであっても良く、またはトレーニングが完了したニューラルネットワークであっても良い。ターゲットニューラルネットワークは、予め設定された関連関係に対応し、ターゲットナレッジグラフの中の2つの実体に対応する2つの実体ベクトルを入力とすることによって、入力された2つの入力実体ベクトルに対応する2つの実体の関連関係が予め設定された関連関係であるか否かを判定するのに用いられる。
ターゲットナレッジグラフは、その中の実体間の関連関係に対する補完待ちのナレッジグラフである。ターゲットナレッジグラフは、上記の実行主体に記憶されても良く、上記の実行主体に通信可能に接続された他の電子デバイスに記憶されても良い。一般に、ナレッジグラフ内の実体は、物事や概念を特徴付けるために使用できる(例:人物、場所、時間、情報等を特徴付ける)。実体の形式は、数字、文字、記号の少なくとも1つを含むことができる。ナレッジグラフ中の関連関係は、実体間の連結線によって表徴されてもよく、2つの関連実体に対応する関連関係の具体的な中身は、当該関連関係に対して予め決定された関連情報によって表徴されても良い。関連情報は、数字、文字、記号の少なくとも1つを含むことができる。
例として、ターゲットナレッジグラフは、実体「北京」と実体「中国」を含み、両者の間に、両者が関連関係を有することを表す連結線、及び例えば文字「首都」のような、両者の関連関係の具体的な中身を表すための関連情報を含むことができる。
ターゲットナレッジグラフの中の実体は、実体ベクトルに対応することができる。実体ベクトルは、実体を特徴付けるために用いられることができる。実践において、実体ベクトルは、例えば初期化の方法を使って取得しても良く、または予めトレーニング済みの機械学習モデルを使用して取得しても良く、様々な方法で取得しても良い。
予め設定された関連関係は、例えば親子関係、包含関係等、技術者によって予め決定された様々な関連関係であっても良い。ターゲットニューラルネットワークは、予め設定された関連関係に対して予め決定された関係テンソルを含む。関係テンソルは、予め設定された関連関係を特徴付けるために用いられることができる。
実践において、テンソル(tensor)は、多次元のデータの記憶ユニットであり、データの次元は、テンソル次数と呼ばれる。テンソルは、ベクトルと行列の多次元空間における一般化と見なすことができ、ベクトルは1次元のテンソルと見なすことができ、行列は2次元のテンソルと見なすことができる。一般に、テンソルを研究する場合、テンソルを複数の2次元スライスと見なすことができる。各々のスライスは、一つの行列として扱われる。
具体的には、前記の実行主体または他の電子デバイスは、様々な方法を使用することにより、予め設定された関連関係に対応する関係テンソルを決定しても良い。例えば、各種の既存のパラメーターを初期化する方法(例えば、ランダム初期化やGloveアルゴリズム等)を使用して、予め設定された関連関係に対応する関係テンソルを決定しても良い。または、予めトレーニングされた、関連関係と関係テンソルとの対応関係を特徴付けるモデルを使用して、予め設定された関連関係に対応する関係テンソルを決定しても良い。
本実施形態では、関係テンソルは、ターゲットナレッジグラフの中の2つの実体の実体ベクトルと計算を行うことによって、ターゲットナレッジグラフの中の2つの実体間の関連関係が、関係テンソルに対応する予め設定された関連関係であるか否かを判定するために用いられる。理解できるように、関係テンソルの次元は行列またはベクトルの次元よりも大きいため、関係テンソルを使用することによって、予め設定された関連関係を特徴付ける特徴データをより多く記憶することができる。しかし、実践においては、ニューラルネットワークに含まれるパラメーターが多いほど、ニューラルネットワークがより複雑になり、ニューラルネットワークの記憶と計算に悪影響を及ぼす。
ステップ202においては、ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成する。
本実施形態では、ステップ201で取得されたターゲットニューラルネットワークに基づいて、実行主体は、ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成することができる。
なお、関係行列は、予め設定された変換方法を使用して、関係テンソルに対して変換を行うことによって取得される行列である。ターゲットの数は、予め設定された変換方法に基づいて決定される数である。理解できるように、実践においては、高次元の行列を低次元のベクトルの積に変換する場合、変換されたベクトルに含まれている要素の数は、一般的に行列に含まれている要素の数よりも小さい。例えば、行列A:[1 1 1; 1 1 1; 1 1 1]の場合、行列Aをベクトルb:[1 1 1]とベクトルc:[1 1 1]の積に変換できる。その中で、文字「T」はベクトルの転置を表すために使用される。行列Aには9個の要素が含まれており、変換後の2つのベクトルに含まれている要素の合計は6であり、すなわち、変換後のベクトルb及びベクトルcに含まれている要素の数は、行列Aの要素数よりも大きいことが分かる。さらに、似たように、高次元の関係テンソルを低次元のターゲット数の関係行列の積に変換する場合、予め設定された関連関係に対応するパラメーターの数を減らすことができ、ひいてはニューラルネットワークの複雑さを減らすことができる。
具体的には、前記実行主体は、各種の方法を使用して関係テンソルに対して変換を行い、ターゲット数の関係行列を取得することができる。例えば、実行主体は、まず関係テンソルの各々のスライスに対応する行列を集約することによって、関係テンソルをスライス行列に構築することができる。次に、スライス行列をターゲット数の関係行列の積に分解する。ここで、例えば三角因子分解法(Triangular Factorization)、QR因子分解法(QR Factorization)、特異値分解法(Singular Value Decompostion)等のような各種の方法を使用して、スライス行列に対する分解を行うことができる。使用する分解方法が異なると、最終的に取得される関係行列の数(すなわち、ターゲットの数)も異なるようになる場合があることに注意されたい。たとえば、三角因子分解法を使用すると2つの関係行列に分解できるが、特異値分解法を使用すると3つの関係行列に分解できる。
さらに、前記実行主体は、他の方法で関係テンソルに対して変換を行うこともできる。例として、関係テンソルWは3つのスライスW、W、Wをそれぞれ含むとする。前記実行主体は、まず関係テンソルWをスライス行列W’=[W1,W2,W3]に構築し、次にスライス行列の各行列要素(つまり、Wi、i = 1、2、3)を2つのベクトルの積に変換し、つまり、WをU *Vに変換し、WをU *Vに変換し、WをU *Vに変換する。ひいては、次の式を導き出すことができる。
W=W’=[U *V, U *V, U *V]=[U, U, U*[V, V, V
その中で、行列[U, U, Uと行列[ V, V, V]は、変換された2つの関係行列である。
上記の例の場合。Wiが3×3次元行列であると仮定すると、Wiは9個のパラメーターを含み、従って、関係テンソルWは27個(27=9×3)のパラメーターを含む。変換された、Wiに対応するU は3次元の列ベクトルであり、3つのパラメーターを含み、Viは3次元の行ベクトルであり、3つのパラメーターを含む。従って、変換された関係行列[U, U, Uは9つのパラメーターを含み、変換された関係行列[V, V, V]も9つのパラメーターを含む。すなわち、関係テンソルを関係行列に変換した後、パラメーターの数は18(18=9+9)であり、これは、関係テンソルに含まれているパラメーターの数27よりも小さいため、ニューラルネットワークの中のパラメーターの数を減らすという目的を達成できた。
本実施形態では、候補ニューラルネットワークは、変換されたターゲット数の関係行列の積で関係テンソルを置き換えた後のターゲットニューラルネットワークである。
ステップ203においては、候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成する。
本実施形態では、ステップ202で取得された候補ニューラルネットワークに基づいて、前記実行主体は結果ニューラルネットワークを生成することができる。なお、結果ニューラルネットワークは、調整された後のニューラルネットワークである。
具体的には、前記実行主体は、候補ニューラルネットワークを結果ニューラルネットワークとして直接決定することができるし、または、候補ニューラルネットワークに対して引き続き調整を行い、調整された後の候補ニューラルネットワークを結果ニューラルネットワークとして決定することもできる。
本実施形態の幾つかの選択可能な実現方法では、候補ニューラルネットワークを使用して、実行主体は、次のステップによって結果ニューラルネットワークを生成することができる。
ステップ2031においては、予め設定の関連関係に対して、トレーニングサンプルセットを取得する。
なお、トレーニングサンプルセットは、ポジティブトレーニングサンプルとネガティブトレーニングサンプルを含む。トレーニングサンプルは、2つのサンプル実体ベクトルを含む。サンプル実体ベクトルは、サンプル実体を特徴付けるために使用される。ポジティブトレーニングサンプルに対応する2つの実体間の関連関係は、前記予め設定された関連関係である。ネガティブトレーニングサンプルに対応する2つの実体間の関連関係は、前記予め設定された関連関係ではない。例えば、予め設定された関連関係は包含関係であるとする。包含関係に対して、ポジティブトレーニングサンプルは、サンプル実体「中国」とサンプル実体「北京」に対応する2つのサンプル実体ベクトルであっても良く、ネガティブトレーニングサンプルは、サンプル実体「天津」とサンプル実体「北京」に対応する2つのサンプル実体ベクトルであっても良い。
具体的には、前記実行主体は、各種の方法を使用してトレーニングサンプルセットを取得することができる。
本実施形態の幾つかの選択可能な実施形態では、前記実行主体は、以下のステップによってトレーニングサンプルセットを取得することができる。
まず、予め設定された関連関係に対して、前記実行主体は、ポジティブトレーニングサンプルセットを取得することができる。
ここで、各種の方法を使用してポジティブトレーニングサンプルを取得することができる。例えば、予め決定されたサンプルナレッジグラフの中から、予め設定された関連関係に対応する2つの実体を検索してサンプル実体とすることができる。そして、検索された2つの実体の実体ベクトルをサンプル実体ベクトルとして決定する。最後に、決定された2つのサンプル実体ベクトルを利用して、ポジティブトレーニングサンプルを形成する。
そして、ポジティブトレーニングサンプルセットの中のポジティブトレーニングサンプルに対して、次のステップを実行する:当該ポジティブトレーニングサンプルから、保留待ちサンプル実体ベクトルと置換待ちサンプル実体ベクトルを決定し、置換待ちサンプル実体ベクトルに対して、置換用サンプル実体ベクトルを取得し、置換用サンプル実体ベクトルに対応するサンプル実体は、置換待ちサンプル実体ベクトルに対応するサンプル実体と異なり、置換用サンプル実体ベクトルと保留待ちサンプル実体ベクトルを利用して、当該ポジティブトレーニングサンプルに対応するネガティブトレーニングサンプルを構成する。
最後に、ポジティブトレーニングサンプルセットと構成されたネガティブトレーニングサンプルを使用して、トレーニングサンプルセットを構成する。
本実現方法では、ポジティブトレーニングサンプルの中の置換待ちサンプル実体ベクトルを置き換えることによってネガティブトレーニングサンプルを取得することで、トレーニングサンプルセットの取得ステップを簡略化でき、ひいては結果ニューラルネットワークの生成効率の向上に貢献する。
ステップ2032においては、トレーニングサンプルセットからトレーニングサンプルを選択し、次のトレーニングステップを実行する:選択したトレーニングサンプルを利用して候補ニューラルネットワークをトレーニングし、候補ニューラルネットワークのトレーニングが完了したか否かを判定し、トレーニングの完了と判定したことに応答して、トレーニング済みの候補ニューラルネットワークを結果ニューラルネットワークとして決定する。
具体的には、前記実行主体は、機械学習の方法を使用して、選択されたトレーニングサンプルを使って候補ニューラルネットワークをトレーニングすることができる。
ここで、候補ニューラルネットワークのトレーニングが完了したか否かは、予め決定した完了条件によって決定しても良い。前記の完了条件が満たされると、候補ニューラルネットワークのトレーニングが完了したと判断できる。なお、完了条件は、トレーニング時間が予め設定した時間の長さを超えること、トレーニング回数が予め設定した回数を超えること、損失関数を使用して計算した損失値が予め設定した閾値より小さくなることの中の少なくとも1つを含むことができるが、これらに限定されない。
本実施態様では、候補ニューラルネットワークに対してトレーニングを行い、結果ニューラルネットワークを取得することにより、取得したニューラルネットワークの精度を高めることができ、結果ニューラルネットワークを使用する予測の精度を高めることに役立つ。
本実施形態の幾つかの選択可能な実現方法では、前記実行主体は、更に候補ニューラルネットワークのトレーニングが未完了であると判定したことに応答して、前記トレーニングサンプルセットに含まれる未選択のトレーニングサンプルの中からトレーニングサンプルを再選択し、候補ニューラルネットワークのパラメーターを調整し、直近の選択したトレーニングサンプルと直近の調整した候補ニューラルネットワークを使用し、トレーニングステップを続けて実行することができる。
具体的には、前記実行主体は、候補ニューラルネットワークのトレーニングが未完了であると判定したことに応答して、計算された差異に基づいて候補ニューラルネットワークのパラメーターを調整することができる。ここでは、各種の実現方法を使用して、計算された差異に基づいて候補ニューラルネットワークのパラメーターを調整することができる。例えば、BP(Back Propagation、誤差逆伝播法)アルゴリズムまたはSGD(Stochastic Gradient Descent、確率的勾配降下法)アルゴリズムを使用して、候補ニューラルネットワークのパラメーターを調整することができる。
本実現方法では、候補ニューラルネットワークに対して複数回のトレーニングを実現できるため、結果ニューラルネットワークの精度を更に高めることができる。
本実施形態の幾つかの選択可能な実現方法では、前記実行主体は、結果ニューラルネットワークを記憶することができる。ここで、結果ニューラルネットワークは、ターゲットニューラルネットワークと比べて、含むパラメーターの数が減少しているため、結果ニューラルネットワークを記憶する場合、ニューラルネットワークが占有する記憶スペースを削減でき、記憶リソースを節約できる。
図3は、本実施形態によるニューラルネットワーク生成用の方法の応用シナリオの1つの模式図である。図3の応用シナリオにおいては、サーバー301は、まずターゲットニューラルネットワーク302を取得し、なお、ターゲットニューラルネットワーク302は、予め設定された関連関係(例えば、親子関係)に対応し、ターゲットナレッジグラフの中の2つの実体に対応する2つの実体ベクトルを入力とすることによって、入力された2つの入力実体ベクトルに対応する2つの実体の関連関係が予め設定された関連関係であるか否かを判定するのに用いられ、ターゲットニューラルネットワーク302は、予め設定された関連関係に対して予め決定された関係テンソル303を含む。そして、サーバー301は、ターゲットニューラルネットワーク302の中の関係テンソル303を関係行列304と関係行列305の積に変換し、変換された関係行列304と関係行列305を含む候補ニューラルネットワーク306を生成することができる。最後に、サーバー301は、候補ニューラルネットワーク306を使用して、結果ニューラルネットワーク307を生成することができる。
本願の上記実施形態が提供する方法は、ターゲットニューラルネットワークを取得し、ターゲットニューラルネットワークは、予め設定された関連関係に対応し、ターゲットナレッジグラフの中の2つの実体に対応する2つの実体ベクトルを入力とすることによって、入力された2つの入力実体ベクトルに対応する2つの実体の関連関係が予め設定された関連関係であるか否かを判定するのに用いられ、ターゲットニューラルネットワークは、予め設定された関連関係に対して予め決定された関係テンソルを含み、次に、ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成し、最後に、候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成することによって、従ってニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換することによって、ニューラルネットワークの中のパラメーターの数を減らすことができ、ひいてはニューラルネットワークの複雑さを軽減することができ、ニューラルネットワークを使用して情報処理を行う時にCPU消費を削減し、情報処理効率を高めることに役立つ。
図4は、ナレッジグラフ更新用の方法の一実施形態のフローチャート400を示している。当該ナレッジグラフ更新用の方法のフローチャート400は、ステップ401、ステップ402及びステップ403を含む。
ステップ401においては、2つの関連待ち実体ベクトルと予め生成された結果ニューラルネットワークを取得する。
本実施形態では、ナレッジグラフ更新用の方法の実行主体(例えば、図1に示す端末設備)は、有線接続方式または無線接続方式を介して、リモートまたはローカルから2つの関連待ち実体ベクトルと予め生成された結果ニューラルネットワークを取得することができる。なお、関連待ち実体ベクトルは、ターゲットナレッジグラフの中の関連待ち実体を特徴付けるために使用される。具体的には、前記実行主体は、まずターゲットナレッジグラフから2つの関連待ち実体を抽出することができ、次に、抽出された2つの関連待ち実体の関連待ち実体ベクトルを決定する。関連待ち実体に対応する関連待ち実体ベクトルを具体的に決定する方法は、図2で説明した、実体ベクトルを決定するための方法を参照することができる。
本実施形態では、結果ニューラルネットワークは、前記図2の対応する実施形態で説明された方法に従って生成されるものであり、具体的には図2の対応する実施形態で説明された各ステップを参照することができる。
ステップ402においては、取得した2つの関連待ち実体ベクトルを結果ニューラルネットワークに入力し、2つの関連待ち実体の関連関係が、結果ニューラルネットワークに対応する予め設定された関連関係であるか否かを表す関連結果を生成する。
本実施形態では、ステップ401で取得された2つの関連待ち実体ベクトルと結果ニューラルネットワークに基づいて、前記実行主体は、取得した2つの関連待ち実体ベクトルを結果ニューラルネットワークに入力し、2つの関連待ち実体の関連関係が、結果ニューラルネットワークに対応する予め設定された関連関係であるか否かを表す関連結果を生成することができる。関連結果は、数字、文字、記号の少なくとも1つを含むことができるが、これらに限定されない。例えば、関連結果は、文字「是」及び文字「否」を含むことができ、文字「是」は、2つの関連待ち実体の関連関係が、結果ニューラルネットワークに対応する予め設定された関連関係であることを表すために用いられることができ、文字「否」は、2つの関連待ち実体の関連関係が、結果ニューラルネットワークに対応する予め設定された関連関係ではないことを表すために用いられることができる。
ステップ403においては、関連結果が、2つの関連待ち実体の関連関係が結果ニューラルネットワークに対応する予め設定された関連関係であることを示すものと判定したことに応答して、予め設定された関連関係に対して予め設定された、ナレッジグラフに追加するための関連情報を利用して、ターゲットナレッジグラフを更新する。
本実施形態では、関連結果を生成した後、前記実行主体は、関連結果が、2つの関連待ち実体の関連関係が結果ニューラルネットワークに対応する予め設定された関連関係であることを示すものと判定したことに応答して、予め設定された関連関係に対して予め設定された、ナレッジグラフに追加するための関連情報を利用して、ターゲットナレッジグラフを更新することができる。
具体的には、前記実行主体は、関連情報を関連待ち実体の間に追加することによって、2つの関連待ち実体の関連関係の中身を特徴付けることができる。
特に、ターゲットナレッジグラフを更新するときに、ターゲットナレッジグラフ内の2つの関連待ち実体の間は、2つの関連待ち実体の関連関係の中身を特徴付けるための原初関連情報を含む場合、前記実行主体は、予め設定した関連関係に対応する関連情報を利用して原初関連情報を置き換えることによって、ターゲットナレッジグラフの更新を実現することができる。
本実施形態の幾つかの選択可能な実現方法では、ターゲットナレッジグラフを更新した後、前記実行主体は、更に更新された後のターゲットナレッジグラフを表示することができる。このようにして、更新された後のターゲットナレッジグラフを視覚的に提示できる。
本願の前記実施形態が提供する方法は、図2の対応する実施形態において説明される方法によって生成された結果ニューラルネットワークを使用して、ナレッジグラフに対して更新を行うことができる。結果ニューラルネットワークは、従来技術のナレッジグラフを更新するためのテンソルニューラルネットワークと比べて、より少ないパラメーターを含むため、結果ニューラルネットワークを使用することによって計算の複雑さを軽減することができ、ひいてはCPU消費を削減し、ナレッジグラフの更新効率を高めることができる。
図5に示すように、前記図2に示される方法の実現として、本願は、ニューラルネットワーク生成用の装置の一実施形態を提供する。当該装置の実施形態は、図2に示される方法の実施形態に対応し、当該装置は、具体的に各種の電子デバイスに応用することができる。
図5に示すように、本実施形態のニューラルネットワーク生成用の装置500は、第1の取得ユニット501、テンソル変換ユニット502及びネットワーク生成ユニット503を含む。なお、第1の取得ユニット501はターゲットニューラルネットワークを取得するように配置されている。ターゲットニューラルネットワークは、予め設定された関連関係に対応し、ターゲットナレッジグラフの中の2つの実体に対応する2つの実体ベクトルを入力とすることによって、入力された2つの入力実体ベクトルに対応する2つの実体の関連関係が予め設定された関連関係であるか否かを判定するのに用いられる。ターゲットニューラルネットワークは、予め設定された関連関係に対して予め決定された関係テンソルを含む。テンソル変換ユニット502は、ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成するように配置されている。ネットワーク生成ユニット503は、候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成するように構成されている。
本実施形態では、ニューラルネットワーク生成用の装置の第1の取得ユニット501は、有線接続方式または無線接続方式を介してリモートまたはローカルからターゲットニューラルネットワークを取得することができる。なお、ターゲットニューラルネットワークは、調整待ちのニューラルネットワークである。具体的には、ターゲットニューラルネットワークは、トレーニングされていないニューラルネットワークであっても良く、またはトレーニングが完了したニューラルネットワークであっても良い。ターゲットニューラルネットワークは、予め設定された関連関係に対応し、ターゲットナレッジグラフの中の2つの実体に対応する2つの実体ベクトルを入力とすることによって、入力された2つの入力実体ベクトルに対応する2つの実体の関連関係が予め設定された関連関係であるか否かを判定するのに用いられる。
予め設定された関連関係は、例えば親子関係、包含関係等、技術者によって予め決定された様々な関連関係であっても良い。ターゲットニューラルネットワークは、予め設定された関連関係に対して予め決定された関係テンソルを含む。関係テンソルは、予め設定された関連関係を特徴付けるために用いられることができる。
本実施形態では、第1の取得ユニット501で取得されたターゲットニューラルネットワークに基づいて、テンソル変換ユニット502は、ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成することができる。なお、関係行列は、予め設定された変換方法を使用して、関係テンソルに対して変換を行うことによって取得される行列である。ターゲットの数は、予め設定された変換方法に基づいて決定される数である
本実施形態では、候補ニューラルネットワークは、変換されたターゲット数の関係行列の積で関係テンソルを置き換えた後のターゲットニューラルネットワークである。
本実施形態では、テンソル変換ユニット502で取得された候補ニューラルネットワークに基づいて、ネットワーク生成ユニット503は、結果ニューラルネットワークを生成することができる。なお、結果ニューラルネットワークは、調整された後のニューラルネットワークである。
本実施形態の幾つかの選択可能な実現方法では、ネットワーク生成ユニット503は、サンプル取得モジュール(図示せず)及び第1のトレーニングモジュール(図示せず)を含むことができる。サンプル取得モジュールは、予め設定の関連関係に対して、トレーニングサンプルセットを取得し、当該トレーニングサンプルセットは、ポジティブトレーニングサンプルとネガティブトレーニングサンプルを含み、トレーニングサンプルは、2つのサンプル実体ベクトルを含み、サンプル実体ベクトルは、サンプル実体を特徴付けるために使用され、ポジティブトレーニングサンプルに対応する2つの実体間の関連関係は、予め設定された関連関係であり、ネガティブトレーニングサンプルに対応する2つの実体間の関連関係は、予め設定された関連関係ではないように配置されている。第1のトレーニングモジュールは、トレーニングサンプルセットからトレーニングサンプルを選択し、次のトレーニングステップを実行する:選択したトレーニングサンプルを利用して候補ニューラルネットワークをトレーニングし、候補ニューラルネットワークのトレーニングが完了したか否かを判定し、トレーニングの完了と判定したことに応答して、トレーニング済みの候補ニューラルネットワークを結果ニューラルネットワークとして決定するように配置されている。
本実施形態の幾つかの選択可能な実現方法では、ネットワーク生成ユニット503は、第2のトレーニングモジュール(図示せず)を更に含むことができる。第2のトレーニングモジュールは、トレーニングが未完了であると判定したことに応答して、トレーニングサンプルセットに含まれる未選択のトレーニングサンプルの中からトレーニングサンプルを再選択し、候補ニューラルネットワークのパラメーターを調整し、直近の選択したトレーニングサンプルと直近の調整した候補ニューラルネットワークを使用し、トレーニングステップを続けて実行するように配置されている。
本実施形態の幾つかの選択可能な実現方法では、サンプル取得モジュールは、予め設定された関連関係に対して、ポジティブトレーニングサンプルセットを取得し、ポジティブトレーニングサンプルセットの中のポジティブトレーニングサンプルに対して、当該ポジティブトレーニングサンプルから、保留待ちサンプル実体ベクトルと置換待ちサンプル実体ベクトルを決定し、置換待ちサンプル実体ベクトルに対して、置換用サンプル実体ベクトルを取得し、置換用サンプル実体ベクトルに対応するサンプル実体は、置換待ちサンプル実体ベクトルに対応するサンプル実体と異なり、置換用サンプル実体ベクトルと保留待ちサンプル実体ベクトルを利用して、当該ポジティブトレーニングサンプルに対応するネガティブトレーニングサンプルを構成し、ポジティブトレーニングサンプルセットと構成されたネガティブトレーニングサンプルを使用して、トレーニングサンプルセットを構成するように更に配置されることができる。
本実施形態の幾つかの選択可能な実現方法では、装置500は、結果ニューラルネットワークを記憶するように配置されているネットワーク記憶モジュール(図示せず)を更に含むことができる。
当該装置500に記載の各ユニットは、それぞれ図2に示されている方法の中の各ステップに対応することが理解すべきである。上述した内容において方法に対して説明した操作、特徴及び生まれた有益な効果は、同様に装置500及びその中に含まれるユニットに適用するので、ここでは、繰り返して説明しない。
本願の前記実施形態が提供する装置500は、ターゲットニューラルネットワークを取得し、ターゲットニューラルネットワークは、予め設定された関連関係に対応し、ターゲットナレッジグラフの中の2つの実体に対応する2つの実体ベクトルを入力とすることによって、入力された2つの入力実体ベクトルに対応する2つの実体の関連関係が予め設定された関連関係であるか否かを判定するのに用いられ、ターゲットニューラルネットワークは、予め設定された関連関係に対して予め決定された関係テンソルを含み、次に、ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成し、最後に、候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成することによって、従ってニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換することによって、ニューラルネットワークの中のパラメーターの数を減らすことができ、ひいてはニューラルネットワークの複雑さを軽減することができ、ニューラルネットワークを使用して情報処理を行う時にCPU消費を削減し、情報処理効率を高めることに役立つ。
図6に示すように、前記図4に示される方法の実現として、本願は、ナレッジグラフ更新用の装置の一実施形態を提供する。当該装置の実施形態は、図4に示される方法の実施形態に対応し、当該装置は、具体的に各種の電子デバイスに応用することができる。
図6に示すように、本実施形態のナレッジグラフ更新用の装置600は、第2の取得ユニット601、結果生成ユニット602及びグラフ更新ユニット603を含む。第2の取得ユニット601は、2つの関連待ち実体ベクトルと予め生成された結果ニューラルネットワークを取得し、関連待ち実体ベクトルは、ターゲットナレッジグラフの中の関連待ち実体を特徴付けるために使用され、結果ニューラルネットワークは、図2の対応する実施形態で説明された方法を使用して生成されるものであるように配置されている。結果生成ユニット602は、取得した2つの関連待ち実体ベクトルを結果ニューラルネットワークに入力し、2つの関連待ち実体の関連関係が、結果ニューラルネットワークに対応する予め設定された関連関係であるか否かを表す関連結果を生成するように配置されている。グラフ更新ユニット603は、関連結果が、2つの関連待ち実体の関連関係が結果ニューラルネットワークに対応する予め設定された関連関係であることを示すものと判定したことに応答して、予め設定された関連関係に対して予め設定された、ナレッジグラフに追加するための関連情報を利用して、ターゲットナレッジグラフを更新するように配置されている。
本実施形態では、ナレッジグラフ更新用の装置600の第2の取得ユニット601は、有線接続方式または無線接続方式を介して、リモートまたはローカルから2つの関連待ち実体ベクトルと予め生成された結果ニューラルネットワークを取得することができる。なお、関連待ち実体ベクトルは、ターゲットナレッジグラフの中の関連待ち実体を特徴付けるために使用される。
本実施形態では、結果ニューラルネットワークは、前記図2の対応する実施形態で説明された方法に従って生成されるものであり、具体的には図2の対応する実施形態で説明された各ステップを参照することができる。
本実施形態では、第2の取得ユニット601で取得された2つの関連待ち実体ベクトルと結果ニューラルネットワークに基づいて、結果生成ユニット602は、取得した2つの関連待ち実体ベクトルを結果ニューラルネットワークに入力し、2つの関連待ち実体の関連関係が、結果ニューラルネットワークに対応する予め設定された関連関係であるか否かを表す関連結果を生成することができる。関連結果は、数字、文字、記号の少なくとも1つを含むことができるが、これらに限定されない。
本実施形態では、グラフ更新ユニット603は、関連結果が、2つの関連待ち実体の関連関係が結果ニューラルネットワークに対応する予め設定された関連関係であることを示すものと判定したことに応答して、予め設定された関連関係に対して予め設定された、ナレッジグラフに追加するための関連情報を利用して、ターゲットナレッジグラフを更新することができる。
本実施形態の幾つかの選択可能な実現方法では、装置600は、更新された後のターゲットナレッジグラフを表示するように配置されているグラフ表示ユニット(図示せず)を更に含むことができる。
当該装置600に記載の各ユニットは、それぞれ図4に示されている方法の中の各ステップに対応することが理解すべきである。上述した内容において方法に対して説明した操作、特徴及び生まれた有益な効果は、同様に装置600及びその中に含まれるユニットに適用するので、ここでは、繰り返して説明しない。
本願の前記実施形態が提供する装置600は、図2の対応する実施形態において説明される方法によって生成された結果ニューラルネットワークを使用して、ナレッジグラフに対して更新を行うことができる。結果ニューラルネットワークは、従来技術のナレッジグラフを更新するためのテンソルニューラルネットワークと比べて、より少ないパラメーターを含むため、結果ニューラルネットワークを使用することによって計算の複雑さを軽減することができ、ひいてはCPU消費を削減し、ナレッジグラフの更新効率を高めることができる。
図7は、本願の実施形態を実現するのに適する電子デバイス(例えば、図1に示す端末設備またはサーバー)700の構造模式図である。本願の実施形態における端末装置は、携帯電話、ノートブックコンピュータ、デジタル放送受信機、PDA(パーソナルデジタルアシスタント)、PAD(タブレットコンピュータ)、PMP(ポータブルマルチメディアプレーヤー)、車載端末(例えば車載ナビゲーション端末)等のモバイル端末、及びデジタルTV、デスクトップコンピュータ等の固定端末を含むが、これらに限定されない。図7に示されている電子デバイスは、ただ一つの例示に過ぎず、本願の実施形態の機能及び使用範囲に如何なる制限も与えない。
図7に示すように、電子デバイス700は、処理装置(例えば、中央処理装置、グラフィックス処理装置)701を備え、リードオンリーメモリ(ROM)702に記憶されているプログラムまたは記憶装置708からランダムアクセスメモリ(RAM)703にロードされたプログラムに従って各種の適切な動作と処理を実行することができる。RAM703に、電子デバイス700の操作に必要な各種のプログラムとデータが更に記憶されている。処理装置701、ROM702とRAM703は、バス704を通じて互いに接続する。入力/出力(I/O)インターフェース705もバス704に接続されている。
一般に、例えば、タッチスクリーン、タッチパッド、キーボード、マウス、カメラ、マイク、加速度計、ジャイロスコープ等を含む入力装置706、例えば、液晶ディスプレイ(LCD)、スピーカー、振動装置等を含む出力装置707、例えば、磁気テープ、ハードディスク等を含む記憶装置708、及び通信装置709は、I/Oインターフェース705に接続される。通信装置709は、電子デバイス700が他の設備と無線または有線で通信することによってデータを交換することができるようにさせる。図7は、様々な装置を有する電子デバイス700を示しているが、図示された装置のすべてを実装または有する必要はないことを理解すべきである。より多いまたはより少ない装置を代替的に実装または有しても良い。
特に、本願の実施形態により、前記の文章でフローチャート図を参照しながら記述したプロセスは、コンピュータソフトウェアプログラムとして実現することができる。例えば、本願の実施形態は、コンピュータプログラム製品を含み、それは、コンピュータの読み取り可能なメディアに記載されているコンピュータプログラムを含む。当該コンピュータプログラムは、フローチャート図の示す方法を実行するのに用いられるプログラムコードを含む。このような実施形態において、当該コンピュータプログラムは、通信部709を通じてネットワークからダウンロードされてインストールされても良く、または記憶装置708からインストールされても良く、またはROM702からインストールされても良い。当該コンピュータプログラムは、処理装置701に実行されるとき、本願の方法の中で限定される前記の機能を実行する。
なお、本願で説明するコンピュータの読み取り可能なメディアは、コンピュータの読み取り可能な信号メディアまたはコンピュータの読み取り可能な記憶メディアまたは両者の任意の組合せであっても良い。コンピュータの読み取り可能な記憶メディアは、例えば、電、磁、光、電磁、赤外線、或いは半導体のシステム、装置または設備、またはこれらの任意の組合せであっても良いが、これらに限定されない。コンピュータの読み取り可能な記憶メディアのより具体的例は、一つまたは複数のリード線を有する電気接続、ポータブルコンピュータ磁気ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルROM(EPROMまたはフラッシュメモリ)、光ファイバー、ポータブルコンパクトディスクリードオンリーメモリ(CD−ROM)、光記憶装置、磁気記憶装置、またはこれらの任意の適切な組み合わせを含むが、これらに限定されない。本願において、コンピュータの読み取り可能な記憶メディアは、命令実行システム、装置、設備またはその組み合わせに使用されるプログラムを含むまたは記憶する如何なる有形メディアであっても良い。本願において、コンピュータの読み取り可能な信号メディアは、ベースバンドの中または搬送波の一部分として伝播するデータ信号を含み、その中でコンピュータの読み取り可能なプログラムコードが記載されている。このような伝播するデータ信号は、多種類の形式を採用することができ、電磁信号、光信号またはその任意の適切な組み合わせを含むが、これらに限定されない。コンピュータの読み取り可能な信号メディアは、さらにコンピュータの読み取り可能な記憶メディア以外の任意のコンピュータの読み取り可能なメディアであっても良く、当該コンピュータの読み取り可能なメディアは、命令実行システム、装置、デバイスまたはその組み合わせに使用されるプログラムを送信し、伝播し、または転送することができる。コンピュータの読み取り可能なメディアに含まれるプログラムコードは、あらゆる適切なメディアを使って転送することができ、電線、光ファイバー、RF(無線周波数)等またはその任意の適切な組み合わせを含むが、これらに限定されない。
前記コンピュータの読み取り可能なメディアは、前記電子装置に含まれても良く、当該装置に取り付けられずに単独的に存在しても良い。前記コンピュータの読み取り可能なメディアは、一つまたは複数のプログラムを記載しており、前記一つまたは複数のプログラムが当該電子装置に実行されると、当該電子装置は、ターゲットニューラルネットワークを取得し、ターゲットニューラルネットワークは、予め設定された関連関係に対応し、ターゲットナレッジグラフの中の2つの実体に対応する2つの実体ベクトルを入力とすることによって、入力された2つの入力実体ベクトルに対応する2つの実体の関連関係が予め設定された関連関係であるか否かを判定するのに用いられ、ターゲットニューラルネットワークは、予め設定された関連関係に対して予め決定された関係テンソルを含み、ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成し、候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成する。
さらに、前記一つまたは複数のプログラムが当該電子装置に実行されると、当該電子装置は更に、2つの関連待ち実体ベクトルと予め生成された結果ニューラルネットワークを取得し、関連待ち実体ベクトルは、ターゲットナレッジグラフの中の関連待ち実体を特徴付けるために使用され、結果ニューラルネットワークは、図2の対応する実施形態のいずれか1つに記載の方法を使用して生成されるものであり、取得した2つの関連待ち実体ベクトルを結果ニューラルネットワークに入力し、2つの関連待ち実体の関連関係が、結果ニューラルネットワークに対応する予め設定された関連関係であるか否かを表す関連結果を生成し、関連結果が、2つの関連待ち実体の関連関係が結果ニューラルネットワークに対応する予め設定された関連関係であることを示すものと判定したことに応答して、予め設定された関連関係に対して予め設定された、ナレッジグラフに追加するための関連情報を利用して、ターゲットナレッジグラフを更新する。
一つまたは複数のプログラミング言語またはその組み合わせを使って、本願の操作の実行に用いられるコンピュータプログラムコードを作成しても良い。前記プログラミング言語は、例えばJava(登録商標)、Smalltalk、C++等のようなオブジェクト指向のプログラミング言語を含み、さらに例えば「C」言語または類似のプログラミング言語のような手続き型プログラミング言語を含む。プログラムコードは、完全にユーザーコンピュータ上で実行されても良く、部分的にユーザーコンピュータ上で実行されても良く、一つの独立したソフトウェアパッケージとして実行されても良く、一部分がユーザーコンピュータ上で実行され一部分がリモートコンピュータ上で実行されても良く、或いは完全にリモートコンピュータまたはサーバー上で実行されても良い。リモートコンピュータに関わる場面において、リモートコンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む任意の種類のネットワークを通じてユーザーコンピュータに接続されても良いし、または外部コンピュータ(例えばインターネットサービスプロバイダーを利用してインターネットを通じて接続する)に接続されても良い。
付属図面の中のフローチャート図とブロック図は、本願による各種実施形態のシステム、方法とコンピュータプログラム製品の実現可能なアーキテクチャ、機能と操作を示す。この点において、フローチャート図またはブロック図の中の各ブロックは、一つのモジュール、プログラムセグメント、或いはコードの一部分を代表することができ、当該モジュール、プログラムセグメント、或いはコードの一部分は、一つまたは複数の、規定のロジック機能の実現に用いられる実行可能な命令を含む。幾つかの代替の実現において、ブロックの中で提示した機能は、付属図面の中で提示した順序と異なる順序で発生する可能性があると注意されたい。例えば、二つの接続するように表示されているブロックは、実際において基本的に並列に実行されても良く、場合によっては反対の順序で実行されても良く、いずれも関わる機能によって定まる。フローチャート図及び/またはブロック図の中の各ブロック、及びフローチャート図及び/またはブロック図の中のブロックの組合せは、規定の機能または操作を実行する専用なハードウェアに基づくシステムで実現しても良く、専用なハードウェアとコンピュータ命令の組み合わせで実現しても良い。
本願の実施形態に関わって記述されているユニットは、ソフトウェアの方式によって実現しても良く、ハードウェアの方式によって実現しても良い。なお、これらユニットの名称は、場合によっては、当該ユニット自身への限定を構成せず、例えば、第1の取得ユニットは、「ターゲットニューラルネットワークを取得するユニット」と記述されても良い。
前記記述は、本願の望ましい実施形態及び使用する技術原理に対する説明に過ぎない。当業者は、本願の関わる発明の範囲は、前記技術特徴の特定の組み合わせからなる技術案に限定されることがなく、本発明の精神から逸脱しない限り、前記技術特徴または同等の特徴の任意の組み合わせからなる技術案もカバーすべきであると理解すべきである。例えば、前記特徴と本願で公開した(但し、これらに限定されない)類似の機能を有する技術特徴とを相互入れ替えして形成した技術案である。

Claims (16)

  1. ニューラルネットワーク生成用の方法であって、
    ターゲットニューラルネットワークを取得するステップであって、ここで、前記ターゲットニューラルネットワークは、予め設定された関連関係に対応するものであり、ターゲットナレッジグラフの中の2つの実体に対応する2つの実体ベクトルを入力とすることによって、入力された2つの入力実体ベクトルに対応する2つの実体の関連関係が前記予め設定された関連関係であるか否かを判定するのに用いられ、前記ターゲットニューラルネットワークは、前記予め設定された関連関係に対して予め決定された関係テンソルを含むものであるステップと、
    前記ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成するステップと、
    前記候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成するステップと
    を含むことを特徴とする方法。
  2. 前記の、前記候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成するステップは、
    前記予め設定された関連関係に対して、トレーニングサンプルセットを取得するステップであって、ここで、トレーニングサンプルセットは、ポジティブトレーニングサンプルとネガティブトレーニングサンプルを含み、トレーニングサンプルは、2つのサンプル実体ベクトルを含み、サンプル実体ベクトルは、サンプル実体を特徴付けるために使用され、ポジティブトレーニングサンプルに対応する2つの実体間の関連関係は、前記予め設定された関連関係であり、ネガティブトレーニングサンプルに対応する2つの実体間の関連関係は、前記予め設定された関連関係ではないステップと、
    前記トレーニングサンプルセットからトレーニングサンプルを選択し、そして、選択したトレーニングサンプルを利用して候補ニューラルネットワークをトレーニングすることと、候補ニューラルネットワークのトレーニングが完了したか否かを判定することと、トレーニングの完了と判定したことに応答して、トレーニング済みの候補ニューラルネットワークを結果ニューラルネットワークとして決定することとを有するトレーニングステップを実行するステップと
    を含むことを特徴とする請求項1に記載の方法。
  3. 前記の、前記候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成するステップは、
    トレーニングが未完了であると判定したことに応答して、前記トレーニングサンプルセットに含まれる未選択のトレーニングサンプルの中からトレーニングサンプルを再選択し、候補ニューラルネットワークのパラメーターを調整し、直近の選択したトレーニングサンプルと直近の調整した候補ニューラルネットワークを使用し、前記トレーニングステップを続けて実行するステップをさらに含むことを特徴とする請求項2に記載の方法。
  4. 前記の、前記予め設定された関連関係に対して、トレーニングサンプルセットを取得ステップは、
    前記予め設定された関連関係に対して、ポジティブトレーニングサンプルセットを取得するステップと、
    前記ポジティブトレーニングサンプルセットの中のポジティブトレーニングサンプルに対して、当該ポジティブトレーニングサンプルから、保留待ちサンプル実体ベクトルと置換待ちサンプル実体ベクトルを決定し、置換待ちサンプル実体ベクトルに対して、置換待ちサンプル実体ベクトルとはその対応するサンプル実体が異なった置換用サンプル実体ベクトルを取得し、置換用サンプル実体ベクトルと保留待ちサンプル実体ベクトルを利用して、当該ポジティブトレーニングサンプルに対応するネガティブトレーニングサンプルを構成するステップと、
    前記ポジティブトレーニングサンプルセットと構成されたネガティブトレーニングサンプルを使用して、トレーニングサンプルセットを構成するステップと
    を含むことを特徴とする請求項2に記載の方法。
  5. 前記結果ニューラルネットワークを記憶するステップを更に含むことを特徴とする請求項1〜4のいずれか1つに記載の方法。
  6. ナレッジグラフ更新用の方法であって、
    2つの関連待ち実体ベクトルと予め生成された結果ニューラルネットワークを取得するステップであって、ここで、前記関連待ち実体ベクトルは、ターゲットナレッジグラフの中の関連待ち実体を特徴付けるために使用され、前記結果ニューラルネットワークは、請求項1〜5のいずれか1つに記載の方法を使用して生成されるものであるステップと、
    取得した2つの関連待ち実体ベクトルを前記結果ニューラルネットワークに入力し、2つの関連待ち実体の関連関係が、前記結果ニューラルネットワークに対応する予め設定された関連関係であるか否かを表す関連結果を生成するステップと、
    前記関連結果が、2つの関連待ち実体の関連関係が前記結果ニューラルネットワークに対応する予め設定された関連関係であることを示すものと判定したことに応答して、前記予め設定された関連関係に対して予め設定された、ナレッジグラフに追加するための関連情報を利用して、前記ターゲットナレッジグラフを更新するステップと
    を含むことを特徴とする方法。
  7. 更新された後のターゲットナレッジグラフを表示するステップを更に含むことを特徴とする請求項6記載の方法。
  8. ニューラルネットワーク生成用の装置であって、
    ターゲットニューラルネットワークを取得するように配置されている第1の取得ユニットであって、ここで、前記ターゲットニューラルネットワークは、予め設定された関連関係に対応するものであり、ターゲットナレッジグラフの中の2つの実体に対応する2つの実体ベクトルを入力とすることによって、入力された2つの入力実体ベクトルに対応する2つの実体の関連関係が前記予め設定された関連関係であるか否かを判定するのに用いられ、前記ターゲットニューラルネットワークは、前記予め設定された関連関係に対して予め決定された関係テンソルを含むものであるユニットと、
    前記ターゲットニューラルネットワークの中の関係テンソルをターゲット数の関係行列の積に変換し、変換されたターゲット数の関係行列を含む候補ニューラルネットワークを生成するように配置されているテンソル変換ユニットと、
    前記候補ニューラルネットワークを使用して、結果ニューラルネットワークを生成するように構成されているネットワーク生成ユニットと
    を含むことを特徴とする装置。
  9. 前記ネットワーク生成ユニットは、
    前記予め設定の関連関係に対して、トレーニングサンプルセットを取得し、当該トレーニングサンプルセットは、ポジティブトレーニングサンプルとネガティブトレーニングサンプルを含み、トレーニングサンプルは、2つのサンプル実体ベクトルを含み、サンプル実体ベクトルは、サンプル実体を特徴付けるために使用され、ポジティブトレーニングサンプルに対応する2つの実体間の関連関係は、前記予め設定された関連関係であり、ネガティブトレーニングサンプルに対応する2つの実体間の関連関係は、前記予め設定された関連関係ではないように配置されているサンプル取得モジュールと、
    前記トレーニングサンプルセットからトレーニングサンプルを選択し、次のトレーニングステップを実行する:選択したトレーニングサンプルを利用して候補ニューラルネットワークをトレーニングし、候補ニューラルネットワークのトレーニングが完了したか否かを判定し、トレーニングの完了と判定したことに応答して、トレーニング済みの候補ニューラルネットワークを結果ニューラルネットワークとして決定するように配置されている第1のトレーニングモジュールとを含むことを特徴とする請求項8に記載の装置。
  10. 前記ネットワーク生成ユニットは、
    トレーニングが未完了であると判定したことに応答して、前記トレーニングサンプルセットに含まれる未選択のトレーニングサンプルの中からトレーニングサンプルを再選択し、候補ニューラルネットワークのパラメーターを調整し、直近の選択したトレーニングサンプルと直近の調整した候補ニューラルネットワークを使用し、前記トレーニングステップを続けて実行するように配置されている第2のトレーニングモジュールを更に含むことを特徴とする請求項9に記載の装置。
  11. 前記サンプル取得モジュールは、
    前記予め設定された関連関係に対して、ポジティブトレーニングサンプルセットを取得し、
    前記ポジティブトレーニングサンプルセットの中のポジティブトレーニングサンプルに対して、当該ポジティブトレーニングサンプルから、保留待ちサンプル実体ベクトルと置換待ちサンプル実体ベクトルを決定し、置換待ちサンプル実体ベクトルに対して、置換待ちサンプル実体ベクトルとはその対応するサンプル実体が異なった置換用サンプル実体ベクトルを取得し、置換用サンプル実体ベクトルと保留待ちサンプル実体ベクトルを利用して、当該ポジティブトレーニングサンプルに対応するネガティブトレーニングサンプルを構成し、
    前記ポジティブトレーニングサンプルセットと構成されたネガティブトレーニングサンプルを使用して、トレーニングサンプルセットを構成するように更に配置されていることを特徴とする請求項9に記載の装置。
  12. 前記結果ニューラルネットワークを記憶するように配置されているネットワーク記憶モジュールを更に含むことを特徴とする請求項8〜11のいずれか1つに記載の装置。
  13. ナレッジグラフ更新用の装置であって、
    2つの関連待ち実体ベクトルと予め生成された結果ニューラルネットワークを取得し、前記関連待ち実体ベクトルは、ターゲットナレッジグラフの中の関連待ち実体を特徴付けるために使用され、前記結果ニューラルネットワークは、請求項1〜5のいずれか1つに記載の方法を使用して生成されるものであるように配置されている第2の取得ユニットと、
    取得した2つの関連待ち実体ベクトルを前記結果ニューラルネットワークに入力し、2つの関連待ち実体の関連関係が、前記結果ニューラルネットワークに対応する予め設定された関連関係であるか否かを表す関連結果を生成するように配置されている結果生成ユニットと、
    前記関連結果が、2つの関連待ち実体の関連関係が前記結果ニューラルネットワークに対応する予め設定された関連関係であることを示すものと判定したことに応答して、前記予め設定された関連関係に対して予め設定された、ナレッジグラフに追加するための関連情報を利用して、前記ターゲットナレッジグラフを更新するように配置されているグラフ更新ユニットと
    を含むことを特徴とする装置。
  14. 更新された後のターゲットナレッジグラフを表示するように配置されているグラフ表示ユニットとを更に含むことを特徴とする請求項13に記載の装置。
  15. 1つ又は複数のプロセッサーと、
    1つ又は複数のプログラムが記憶されている記憶装置とを含み、
    当該1つ又は複数のプログラムが前記1つ又は複数のプロセッサーにより実行される場合、請求項1〜7のいずれか1つの方法を前記1つ又は複数のプロセッサーに実現させることを特徴とする電子デバイス。
  16. コンピュータプログラムが記憶されているコンピュータ可読メディアであって、
    当該プログラムがプロセッサーにより実行されると、請求項1〜7のいずれか1つの方法を実現させることを特徴とするコンピュータ可読メディア。
JP2019198129A 2019-03-12 2019-10-31 ニューラルネットワーク生成用の方法及び装置 Active JP7009433B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910184509.9 2019-03-12
CN201910184509.9A CN109902186B (zh) 2019-03-12 2019-03-12 用于生成神经网络的方法和装置

Publications (2)

Publication Number Publication Date
JP2020149663A true JP2020149663A (ja) 2020-09-17
JP7009433B2 JP7009433B2 (ja) 2022-01-25

Family

ID=66947083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019198129A Active JP7009433B2 (ja) 2019-03-12 2019-10-31 ニューラルネットワーク生成用の方法及び装置

Country Status (5)

Country Link
US (1) US11620532B2 (ja)
EP (1) EP3709223A1 (ja)
JP (1) JP7009433B2 (ja)
KR (1) KR102342604B1 (ja)
CN (1) CN109902186B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4177773A1 (en) 2021-11-04 2023-05-10 Fujitsu Limited Machine learning program, machine learning method, and machine learning apparatus
JP7497664B2 (ja) 2020-10-09 2024-06-11 富士通株式会社 機械学習プログラム、機械学習装置、及び、機械学習方法

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
CN108229647A (zh) 2017-08-18 2018-06-29 北京市商汤科技开发有限公司 神经网络结构的生成方法和装置、电子设备、存储介质
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
SG11202103493QA (en) 2018-10-11 2021-05-28 Tesla Inc Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US11455467B2 (en) * 2020-01-30 2022-09-27 Tencent America LLC Relation extraction using full dependency forests
CN113873539A (zh) * 2020-06-30 2021-12-31 华为技术有限公司 获取神经网络的方法和装置
CN111737546B (zh) * 2020-07-24 2020-12-01 支付宝(杭州)信息技术有限公司 确定实体业务属性的方法及装置
US11954611B2 (en) * 2020-08-27 2024-04-09 International Business Machines Corporation Tensor comparison across a distributed machine learning environment
CN112202510B (zh) * 2020-09-27 2022-09-16 广州大学 基于正则化流神经网络的信号检测方法
CN112069249A (zh) * 2020-10-14 2020-12-11 中国平安人寿保险股份有限公司 知识图谱关系挖掘方法、装置、计算机设备及存储介质
CN112270179B (zh) * 2020-10-15 2021-11-09 和美(深圳)信息技术股份有限公司 一种实体识别方法、装置及电子设备
CN113220895B (zh) * 2021-04-23 2024-02-02 北京大数医达科技有限公司 基于强化学习的信息处理方法、装置、终端设备
CN113220866B (zh) * 2021-04-28 2023-01-06 西安电子科技大学 基于用户社交网络和产品相似度的推荐方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180935A (ja) * 2017-04-13 2018-11-15 日本電信電話株式会社 並列句解析装置、並列句解析モデル学習装置、方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127297B (zh) * 2016-06-02 2019-07-12 中国科学院自动化研究所 基于张量分解的深度卷积神经网络的加速与压缩方法
CN106295796B (zh) * 2016-07-22 2018-12-25 浙江大学 基于深度学习的实体链接方法
CN106776711B (zh) * 2016-11-14 2020-04-07 浙江大学 一种基于深度学习的中文医学知识图谱构建方法
CN106855853A (zh) * 2016-12-28 2017-06-16 成都数联铭品科技有限公司 基于深度神经网络的实体关系抽取系统
US10878309B2 (en) * 2017-01-03 2020-12-29 International Business Machines Corporation Determining context-aware distances using deep neural networks
KR101983455B1 (ko) * 2017-09-21 2019-05-28 숭실대학교산학협력단 지식베이스 구축 방법 및 그 서버
CN107662617B (zh) 2017-09-25 2019-11-05 重庆邮电大学 基于深度学习的车载交互控制算法
CN107729497B (zh) * 2017-10-20 2020-08-14 同济大学 一种基于知识图谱的词嵌入深度学习方法
CN107944559B (zh) * 2017-11-24 2021-04-27 国家计算机网络与信息安全管理中心 一种实体关系自动识别方法及系统
CN108280061B (zh) * 2018-01-17 2021-10-26 北京百度网讯科技有限公司 基于歧义实体词的文本处理方法和装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180935A (ja) * 2017-04-13 2018-11-15 日本電信電話株式会社 並列句解析装置、並列句解析モデル学習装置、方法、及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RICHARD SOCHER ET AL.: "Reasoning With Neural Tensor Networks for Knowledge Base Completion", PROCEEDINGS OF THE NIPS, JPN6020041675, 2013, pages 1 - 10, ISSN: 0004558604 *
YAMING SUN ET AL.: "Modeling Mention, Context and Entity with Neural Networks for Entity Disambiguation", PROCEEDINGS OF THE TWENTY-FOURTH INTERNATIONAL JOINT CONFERENCE ON ARTIFICIAL INTELLIGENCE (IJCAI 20, JPN6020041678, 2015, pages 1333 - 1339, ISSN: 0004558605 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7497664B2 (ja) 2020-10-09 2024-06-11 富士通株式会社 機械学習プログラム、機械学習装置、及び、機械学習方法
EP4177773A1 (en) 2021-11-04 2023-05-10 Fujitsu Limited Machine learning program, machine learning method, and machine learning apparatus

Also Published As

Publication number Publication date
EP3709223A1 (en) 2020-09-16
KR20200109230A (ko) 2020-09-22
CN109902186B (zh) 2021-05-11
KR102342604B1 (ko) 2021-12-24
US20200293905A1 (en) 2020-09-17
US11620532B2 (en) 2023-04-04
CN109902186A (zh) 2019-06-18
JP7009433B2 (ja) 2022-01-25

Similar Documents

Publication Publication Date Title
JP7009433B2 (ja) ニューラルネットワーク生成用の方法及び装置
WO2020182122A1 (zh) 用于生成文本匹配模型的方法和装置
CN111666416B (zh) 用于生成语义匹配模型的方法和装置
WO2022121801A1 (zh) 信息处理方法、装置和电子设备
CN110688528A (zh) 生成视频的分类信息的方法、装置、电子设备和介质
US11763204B2 (en) Method and apparatus for training item coding model
CN111738010A (zh) 用于生成语义匹配模型的方法和装置
CN117290477A (zh) 一种基于二次检索增强的生成式建筑知识问答方法
CN110457325B (zh) 用于输出信息的方法和装置
CN116128055A (zh) 图谱构建方法、装置、电子设备和计算机可读介质
CN111008213A (zh) 用于生成语言转换模型的方法和装置
JP7504192B2 (ja) 画像を検索するための方法及び装置
JP2023537480A (ja) 予測情報を生成するための方法、装置、電子機器及び媒体
CN112182255A (zh) 用于存储媒体文件和用于检索媒体文件的方法和装置
CN109857838B (zh) 用于生成信息的方法和装置
CN111353585A (zh) 神经网络模型的结构搜索方法和装置
CN115565607B (zh) 确定蛋白质信息的方法、装置、可读介质及电子设备
CN111522887B (zh) 用于输出信息的方法和装置
CN113283115B (zh) 图像模型生成方法、装置和电子设备
CN114912585A (zh) 神经网络的生成方法和装置
CN111526054B (zh) 用于获取网络的方法及装置
CN112397163B (zh) 用于生成病例输入模型的方法、装置、电子设备和介质
CN115564870A (zh) 基于反向传播的人脸编辑方法、装置、设备和介质
CN115146657A (zh) 模型训练方法、装置、存储介质、客户端、服务器和系统
CN116071224A (zh) 图像转换模型训练方法、图像转换方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211129

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211129

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211207

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220112

R150 Certificate of patent or registration of utility model

Ref document number: 7009433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150