JP2024022546A - Training of neural network using knowledge graph - Google Patents

Training of neural network using knowledge graph Download PDF

Info

Publication number
JP2024022546A
JP2024022546A JP2023126354A JP2023126354A JP2024022546A JP 2024022546 A JP2024022546 A JP 2024022546A JP 2023126354 A JP2023126354 A JP 2023126354A JP 2023126354 A JP2023126354 A JP 2023126354A JP 2024022546 A JP2024022546 A JP 2024022546A
Authority
JP
Japan
Prior art keywords
feature map
subgraph
neural network
training
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023126354A
Other languages
Japanese (ja)
Inventor
ハリライ ラヴディム
Lavdim Halilaj
モンカ ゼバスティアン
Sebastian Monka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2024022546A publication Critical patent/JP2024022546A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To train a neural network having a feature extractor for generating feature maps.
SOLUTION: A method includes: preparing labeled training examples 2a; preparing a generic knowledge graph 4 in which nodes represent entities and edges represent a relation between the entities; selecting, from the knowledge graph, a subgraph 43 related to a context for solving a specified task; calculating, for each training example, a feature map 2b using a feature extractor 11; calculating, from each training example related to each target output 3a, a representation of the subgraph in a space of the feature map; evaluating 160, 161 an output related to a task set from the feature map; evaluating, using a set cost function 5, to what extent the feature map is similar to the representation of the subgraph; optimizing parameters of a neural network 1; and adjusting the evaluation of the feature map so as to correspond as well as possible to the target output for each training example.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、例えば、特定のタイプの物体の存在に関連する画像又は他の測定データの分類に利用可能なニューラルネットワークのトレーニングに関する。 The present invention relates to the training of neural networks that can be used, for example, to classify images or other measurement data related to the presence of particular types of objects.

背景技術
例えば、特定の物体の存在に関連する画像又は他の測定データを分類するためのニューラルネットワークは、典型的には、目標出力によってラベリングされた多数のトレーニング例が監視されてトレーニングされる。トレーニングの終了後には、トレーニング中には観察されなかった画像又は測定データについても、設定された具体的なタスクに関連する正しい出力をニューラルネットワークが送出することが期待される。
BACKGROUND OF THE INVENTION Neural networks, for example, for classifying images or other measurement data related to the presence of a particular object, are typically trained by monitoring a large number of training examples labeled with a target output. After completion of training, it is expected that the neural network will send out correct outputs that are relevant to the specific task set, even for images or measurement data that were not observed during training.

このことは、典型的には、後の作用モードにおいてニューラルネットワークに入力される測定データが少なくともトレーニング例と同様の分布又は同一のドメインにどの程度属するかに関して、少なくとも保証されている。S. Monka等著“Learning Visual Models using a Knowledge Graph as a Trainer”、arXiv:2102.08747v2(2021)は、ニューラルネットワークの少なくとも1つの特徴抽出器がナレッジグラフからの包括的な知識の表現によってもトレーニングされるトレーニング方法を開示している。これにより、トレーニングは、トレーニング例の分布内又はドメイン内に完全な形態では存在しなくなった測定データ上において良好に生成される。 This is typically guaranteed at least with respect to the extent to which the measurement data input to the neural network in a later mode of operation belong to a similar distribution or the same domain as the training example. S. Monka et al., “Learning Visual Models using a Knowledge Graph as a Trainer”, arXiv:2102.08747v2 (2021), states that at least one feature extractor of a neural network is also trained by a comprehensive knowledge representation from a knowledge graph. Discloses a training method. This allows training to be better generated on measurement data that no longer exists in complete form within the distribution or domain of the training examples.

S. Monka等著“Learning Visual Models using a Knowledge Graph as a Trainer”、arXiv:2102.08747v2(2021)S. Monka et al. “Learning Visual Models using a Knowledge Graph as a Trainer”, arXiv:2102.08747v2 (2021)

発明の開示
本発明は、測定データを評価するためのニューラルネットワークをトレーニングする方法を提供する。当該ニューラルネットワークは、測定データから特徴マップを生成する特徴抽出器を有する。このように、ニューラルネットワークに入力される測定データは、まず特徴抽出器を通過して特徴マップへと処理され、その後、次のステップにおいて、当該特徴マップから、設定されたタスク(Task)に関連する出力が算定される。
Disclosure of the Invention The present invention provides a method for training a neural network for evaluating measurement data. The neural network has a feature extractor that generates a feature map from the measurement data. In this way, the measurement data input to the neural network first passes through the feature extractor and is processed into a feature map, and then in the next step, from the feature map, information related to the set task is extracted. The output is calculated.

特徴抽出器は、例えば、畳み込み層の積層体を含み得る。これらの畳み込み層のそれぞれにおいて、1つ又は複数のフィルタコアを固定のパターンで適用することにより、畳み込み層の入力から、その次元数が畳み込み層の入力よりも低減された少なくとも1つの特徴マップが生成される。 The feature extractor may include, for example, a stack of convolutional layers. In each of these convolutional layers, at least one feature map whose dimensionality is reduced compared to the input of the convolutional layer is obtained from the input of the convolutional layer by applying one or more filter cores in a fixed pattern. generated.

本方法の枠組みにおいては、設定されたタスクに関連する目標出力によってラベリングされたトレーニング例が提供される。さらに、ノードがエンティティを表現しかつエッジがエンティティ間の関係を表現する包括的なナレッジグラフが提供される。このようにして、有向性ナレッジグラフにおいては、例えば、
・具体的な特性を有する別のノードを付加し、元のノードからエッジ「~の特性を有する」で参照を行うことによって、ノードによって表現される物体又は他のエンティティが特定の特性を有すること、
・具体的な下位クラスを有する別のノードを付加し、エッジ「~の下位クラスである」で元のノードへ参照を行うことによって、ノードによって表現される物体又は他のエンティティが下位クラスを有すること、及び/又は、
・具体的な上位クラスを有する別のノードを付加し、元のノードからエッジ「~の下位クラスである」で参照を行うことによって、ノードによって表現される物体又は他のエンティティが上位クラスに属すること
が符号化可能となる。
In the framework of the method, training examples are provided labeled by target outputs related to the set task. Additionally, a comprehensive knowledge graph is provided where nodes represent entities and edges represent relationships between entities. In this way, in a directed knowledge graph, for example,
- prove that the object or other entity represented by the node has a specific property by adding another node with a specific property and making a reference from the original node with the edge "has the property of" ,
- Indicate that the object or other entity represented by the node has a subclass by appending another node with a specific subclass and making a reference to the original node with the edge "is a subclass of" and/or
・By adding another node with a concrete superclass and making a reference from the original node with the edge "is a subclass of...", the object or other entity represented by the node belongs to the superclass. can be encoded.

例えば、交通標識は、形状、色及びシンボルを有し得るものであり、また、特定の国において有効である。クラス「交通標識」は、例えば、指示標識、危険標識、規則標識、禁止標識及び優先標識についての下位クラスを含み得る。逆に、クラス「交通標識」が「交通関連物体」の下位クラスとなることもある。 For example, traffic signs can have shapes, colors and symbols, and are valid in a particular country. The class "traffic signs" may include subclasses for, for example, instruction signs, danger signs, regulation signs, prohibition signs and priority signs. Conversely, the class "traffic sign" may be a subclass of "traffic-related object."

包括的なナレッジグラフからは、設定されたタスクを解決するためのコンテキストに関連する下位グラフが選択される。この場合、コンテキストを設けることができる。ただし、後に説明するように、下位グラフの選択もまた、最適化の枠組みにおいて完全自動で又は部分自動で実行することもできる。 From the comprehensive knowledge graph, subgraphs are selected that are relevant to the context for solving the set task. In this case, a context can be provided. However, as will be explained later, the selection of the subgraph can also be performed fully or partially automatically in the framework of an optimization.

ここで、各トレーニング例に対して、ニューラルネットワークの特徴抽出器を用いて、特徴マップが算定される。さらに、それぞれのトレーニング例から、それぞれの目標出力に関連して、特徴マップの空間内の下位グラフの表現が算定される。ここで、「特徴マップの空間内」とは、特に、一方の表現と他方の特徴マップとの間の比較結果及び/又は類似度若しくは距離尺度が説明されていることを意味する。 Here, for each training example, a feature map is computed using a neural network feature extractor. Furthermore, from each training example, a representation of a subgraph in the space of feature maps is computed in relation to a respective target output. Here, "in the space of feature maps" specifically means that comparison results and/or similarity or distance measures between one representation and another feature map are being described.

表現は特に、例えば、任意の「ナレッジグラフ埋め込み」法を用いて算定することができ、この方法によって、下位グラフを、エンティティ間の差を距離の形態で識別し得る表現へと移行させることができる。例えば、このために、下位グラフを入力として受け取る“Graph Neural Network”すなわちGNNを使用することができる。このようなGNNは特に、例えば、下位グラフのノードごとに表現を算定することができる。 The representation can, in particular, be computed using, for example, any "knowledge graph embedding" method, which moves the subgraph into a representation in which differences between entities can be identified in the form of distances. can. For example, a "Graph Neural Network" or GNN, which takes the subgraph as input, can be used for this purpose. Such a GNN may in particular be able to compute a representation for each node of a subgraph, for example.

特徴マップから、設定されたタスクに関連する出力が評価される。これは、例えば、同様にトレーニング可能なタスクヘッドによって行うことができる。ただし、さらに後述するように、当該タスクヘッドの分類タスクにつき特別に、ガウス過程としての評価をモデル化することによって置換することもできる。 From the feature map, outputs related to the set task are evaluated. This can be done, for example, by a task head that is also trainable. However, as will be described further below, this can also be replaced by modeling the evaluation as a Gaussian process specifically for the classification task of the task head.

ここで、設定されたコスト関数を用いて、特徴マップが下位グラフの表現にどの程度類似しているかが評価される。 Here, the set cost function is used to evaluate how similar the feature map is to the representation of the lower graph.

ニューラルネットワークの挙動を特徴付けるパラメータは、トレーニング例のさらなる処理の際にコスト関数による評価を予測により改善する目的で、最適化される。パラメータは、特に、例えばニューラルネットワークのニューロン又は他の処理ユニットに供給される入力を重み付け加算するための重みを含み得る。さらに、特徴マップの評価は、各トレーニング例に対する出力がそれぞれのトレーニング例に対する目標出力に可能な限り良好に対応するように調整される。 The parameters characterizing the behavior of the neural network are optimized with the aim of predictively improving the evaluation by the cost function during further processing of the training examples. The parameters may in particular include weights for weighting the inputs supplied to neurons or other processing units of a neural network, for example. Additionally, the evaluation of the feature maps is adjusted such that the output for each training example corresponds as closely as possible to the target output for the respective training example.

それぞれ次の学習ステップのためのパラメータの変化量は、特に、例えば勾配降下法において算定することができ、この勾配降下法では、コスト関数による評価がニューラルネットワークを通して逆伝播され、次の学習ステップにおいて、それぞれのパラメータを変化させるための勾配へと変換される。 The variation of the parameters for each subsequent learning step can be calculated, in particular, for example in a gradient descent method, in which the evaluation by the cost function is back-propagated through the neural network and , are converted into gradients for varying the respective parameters.

具体的なタスクの解決にとって、多くの場合、全体としてナレッジグラフに格納された知識のうちの小さい部分しか関与しないことが認識されている。こうした小さい部分の作用は、具体的なタスクにとってあまり重要でない非常に多くの他の知識によって完全に若しくは部分的に隠蔽されたり又は中性化されたりすることがある。このような傾向が、下位グラフの事前選択によって抑制される。 It is recognized that solving a specific task often involves only a small portion of the knowledge stored in the knowledge graph as a whole. The effects of these small parts may be completely or partially obscured or neutralized by a great deal of other knowledge that is less important to the specific task. This tendency is suppressed by pre-selection of subgraphs.

さらに、下位グラフの選択による特定のコンテキストへのフォーカシングにより、多義性の発生が抑制される。こうした多義性は、人間の知覚に基づき、いわゆる「多義図形」によって具体的に示すことができる。「多義図形」は、個人の関連付けのコンテキストに依存して、可能な複数の意味論的意味のうちの1つによって主観的に知覚される。例えば、ルビンの壺の画像を目にした際に物体を想起した人は、画像内に壺を認識する。これに対して、画像を人物に関連付けた人は、画像内に向かい合った2つの顔を認識する。ここで、非常に広範囲にわたるナレッジグラフが特徴マップの空間内の表現へと変換されると、そこでは、想定され得る複数の意味論的意味、すなわち、例えば、「壺」及び「顔」が重なる可能性があり、このことは、ナレッジグラフの利用の意図される効果を損ないかねず又は相殺するおそれさえある。本明細書において提案するコンテキストの選択によれば、このような場合にも厳密に1つの意味論的意味が選択される。 Furthermore, by focusing on a specific context by selecting a subgraph, the occurrence of ambiguity is suppressed. Such ambiguity can be concretely shown by so-called "ambiguous figures" based on human perception. A "polysemous shape" is subjectively perceived by one of multiple possible semantic meanings, depending on the individual's context of association. For example, people who recall an object when they see an image of a Rubin vase will recognize the vase in the image. In contrast, a person who associates an image with a person will recognize two faces facing each other in the image. Here, a very extensive knowledge graph is transformed into a representation in the space of feature maps, where multiple possible semantic meanings overlap, i.e., "pot" and "face". This may undermine or even offset the intended effect of using the knowledge graph. According to the context selection proposed here, exactly one semantic meaning is selected even in such cases.

特に有利な構成においては、ニューラルネットワークが、付加的に、設定されたタスクに関して当該特徴マップを評価するためのタスクヘッドを備える。当該タスクヘッドも同様にトレーニング可能である。この場合、特徴マップの評価の調整には、
・各トレーニング例に対するタスクヘッドの出力がそれぞれのトレーニング例に対する目標出力にどの程度良好に対応するかを、コスト関数を用いて評価することと、
・タスクヘッドのパラメータもまたコスト関数による評価に関して最適化することと、
が含まれる。
In a particularly advantageous embodiment, the neural network additionally comprises a task head for evaluating the feature map with respect to a set task. The task head can be trained as well. In this case, adjusting the evaluation of the feature map requires
- evaluating how well the output of the task head for each training example corresponds to the target output for each training example using a cost function;
・The parameters of the task head are also optimized with respect to evaluation by the cost function,
is included.

例えば、2つの寄与を有するコスト関数を使用することができる。第1の寄与は、特徴マップと下位グラフの表現との間の類似度に関連し、第2の寄与は、出力と目標出力との一致度に関連する。パラメータの最適化、例えば勾配降下法による最適化の際には、特徴抽出器のパラメータのみに第1の寄与が作用する。これは、当該類似度がタスクヘッドの挙動に依存しないからである。これに対して、第2の寄与は、特徴マップがタスクヘッドの作業の基礎を形成するので、タスクヘッドのパラメータと特徴抽出器のパラメータとの双方に非常に良好に作用し得る。 For example, a cost function with two contributions can be used. The first contribution is related to the similarity between the feature map and the representation of the subgraph, and the second contribution is related to the match between the output and the target output. During parameter optimization, for example gradient descent optimization, the first contribution acts only on the parameters of the feature extractor. This is because the similarity does not depend on the behavior of the task head. In contrast, the second contribution can very well influence both the task head parameters and the feature extractor parameters, since the feature map forms the basis of the task head's work.

しかし、タスクヘッドが、例えば最適化後も特徴マップと下位グラフの表現との間の類似度に関して、別個に固有のコスト関数を用いてトレーニングを行うことができる一方、特徴抽出器の挙動を特徴付けるパラメータは凍結されている。 However, while the task head can be trained with a separate, unique cost function, e.g. with respect to the similarity between the feature map and the representation of the subgraph even after optimization, characterizing the behavior of the feature extractor Parameters are frozen.

タスクヘッドは特に、例えば最後に計算された特徴マップの全体にアクセスしてこの特徴マップを所望の出力のために圧縮する全結合層を含み得る。 The task head may in particular include a fully connected layer that accesses, for example, the entirety of the last computed feature map and compresses this feature map for the desired output.

特に有利な構成においては、下位グラフの表現に対する特徴マップの類似度は、他の目標出力を用いて他のトレーニング例につき算定された特徴マップに対する下位グラフの表現の類似度と比較される。すなわち、コスト関数による評価は、
・それぞれのトレーニング例から算定された特徴マップが当該トレーニング例に基づいて算定された下位グラフの表現に類似しているほど(「正の例」)、及び、
・下位グラフの表現が他の目標出力を用いて他のトレーニング例につき算定された特徴マップに類似していないほど(「負の例」)、
より良好となる。
In a particularly advantageous configuration, the similarity of the feature map to the representation of the subgraph is compared to the similarity of the representation of the subgraph to feature maps calculated for other training examples using other target outputs. In other words, the evaluation using the cost function is
- The more similar the feature map calculated from each training example is to the representation of the subgraph calculated based on that training example ("positive example"), and
The less similar the representation of the subgraph is to feature maps computed for other training examples using other target outputs (“negative examples”),
It will be better.

これにより、下位グラフの表現に対する類似度に関連するコスト関数(損失関数とも称する)への寄与は、最も広い意味でのメッセージング技術における信号対雑音比と同等の「コントラスト損失」となる。類似度又は非類似度は、適当なあらゆる類似性尺度によって、例えば余弦類似度によって測定することができる。 The contribution to the cost function (also referred to as a loss function) associated with the similarity to the representation of the subgraph is thereby a "contrast loss" equivalent to the signal-to-noise ratio in messaging technology in the broadest sense. Similarity or dissimilarity can be measured by any suitable similarity measure, such as cosine similarity.

目標出力は特に、例えば、測定データの設定された分類の1つ又は複数のクラスに関連する分類スコアを含み得る。すなわち、ニューラルネットワークを、測定データのための分類器として構成することができる。この場合、クラスは特に、例えば測定データにより当該測定データの記録時に監視される領域内に存在することが示された物体のタイプを表現することができる。このような用途においては、まさに、多義性の解決が特に有利である。 The target output may in particular include, for example, classification scores associated with one or more classes of the established classification of the measurement data. That is, a neural network can be configured as a classifier for measurement data. In this case, the class may in particular represent, for example, the type of object that the measurement data showed to be present in the area monitored at the time of recording the measurement data. It is precisely in such applications that ambiguity resolution is particularly advantageous.

この場合、特に、例えば、車両の周囲における車両、交通標識、車線標示、交通障害物、及び/又は、他の交通関連物体を、物体のタイプとして選択することができる。これらの物体のタイプにおいては、まさに、ナレッジグラフの利用により意図される、トレーニング例の分布又はドメインとは異なる分布又はドメインへの一般化が特に重要である。ここで、例えば、同様の意味論的意味を有する交通標識も、他の国においては、幾分異なった外観を有する。例えば、ヨーロッパの多くの国の危険標識は、シンボルが配置された白色の面を含む赤色の三角形から成る。他の国においては、三角形につき異なる色調の赤色が定められており、又は、わずかに異なるシンボルが用いられている。フィンランド及びギリシャにおいてはさらに、赤色の三角形の内部に、白色の面に代えて黄色の面が使用されている。 In this case, in particular, for example vehicles, traffic signs, lane markings, traffic obstacles and/or other traffic-related objects in the vicinity of the vehicle can be selected as the object type. It is precisely in these types of objects that generalization to distributions or domains different from those of the training examples, as contemplated by the use of knowledge graphs, is particularly important. Here, for example, traffic signs with similar semantic meanings may have a somewhat different appearance in other countries. For example, danger signs in many European countries consist of a red triangle with a white side on which a symbol is placed. Other countries have different shades of red for the triangle or use slightly different symbols. Additionally, in Finland and Greece, a yellow side is used instead of a white side inside the red triangle.

同様に、交通標識及び他の交通関連物体の場合にはまさに、特定のコンテキストへのフォーカシングによって改善される識別の一義性が重要である。 Similarly, in the case of traffic signs and other traffic-related objects, the unambiguousness of the identification, which is improved by focusing on the specific context, is important.

他の有利な構成においては、特徴マップを評価するステップには、ガウス過程を用いて特徴マップをクラスに割り当てるステップが含まれる。この場合、評価を調整するステップには、
・全てのトレーニング例の特徴マップを算定するステップと、
・それぞれの目標出力に基づいて、特徴マップの空間内のクラス間の決定限界を定めるステップと、
が含まれる。
In another advantageous arrangement, evaluating the feature map includes assigning the feature map to classes using a Gaussian process. In this case, the steps to adjust the rating include
・Calculating feature maps for all training examples;
- determining decision limits between classes in the space of feature maps based on their respective target outputs;
is included.

特に、全ての特徴マップの全体から、個々の各クラスに対してそれぞれ平均値行列及び共分散行列を算定することができる。これらからクラス間の決定限界を定めることができる。 In particular, it is possible to calculate the mean value matrix and covariance matrix for each individual class from the totality of all feature maps. From these, decision limits between classes can be determined.

トレーニングされたニューラルネットワークに対して後の作用動作中に測定データが供給されると、この測定データは、まず特徴抽出器によって特徴マップへと処理される。ここで、当該特徴マップに対して、ガウス過程により、各クラスに対して、特徴マップが当該クラスに属する確率が割り当てられる。この場合、最大確率を有するクラスを分類器の最終的な判定として評価することができる。 When the trained neural network is supplied with measurement data during subsequent processing operations, this measurement data is first processed into a feature map by a feature extractor. Here, with respect to the feature map, a probability that the feature map belongs to the class is assigned to each class by a Gaussian process. In this case, the class with the highest probability can be evaluated as the final decision of the classifier.

特徴マップを1つのクラスに割り当てるためにタスクヘッドに代えてガウス過程を使用することにより、一方の特徴抽出器のトレーニングと他方のタスクヘッドのトレーニングとの間の相互作用が回避されるという利点が得られる。このような相互作用は、下位グラフを用いた特徴抽出器のトレーニングを妨害する可能性がある。なぜなら、タスクヘッドのトレーニングは、下位グラフの使用から利益を得ることができないからである。 The advantage of using a Gaussian process instead of a task head to assign a feature map to one class is that interactions between the training of one feature extractor and the training of the other task head are avoided. can get. Such interactions can interfere with training a feature extractor with the subgraph. This is because task head training cannot benefit from the use of subgraphs.

測定データとして特に、例えば、画像、オーディオ信号、測定値の時系列、レーダデータ及び/又はLiDARデータを選択することができる。これらのデータ形式はまさに、多くの様相に関連する記述を含み得るという意味で非常に多様である。下位グラフを選択することにより、検査すべき様相を選択することができる。下位グラフは特に、例えば、測定データの視覚的コンテキスト、分類学的コンテキスト又は機能的コンテキストに関連するものとすることができる。 In particular, images, audio signals, time series of measurement values, radar data and/or LiDAR data can be selected as measurement data, for example. These data formats are very diverse in the sense that they may contain descriptions related to many aspects. By selecting a subgraph, it is possible to select aspects to be inspected. The subgraph may relate, in particular, to the visual, taxonomic or functional context of the measurement data, for example.

視覚的コンテキストは、物体の抽象的な視覚的特性、例えば、色、形状又はテクスチャを記述する。これらの特性は、トレーニング例の設定されたセット内に存在するものとしてよく又は存在しないものとしてもよい。下位グラフを利用することにより、この点に関して、トレーニング例において下位グラフを有利に拡張することができる。例えば、トレーニング例のデータセットが条件に応じた白い馬が存在する画像のみを含む場合、下位グラフにより、特徴抽出器に、馬が他の色を有していてもよいという付加情報を伝達することができる。 Visual context describes abstract visual properties of objects, such as color, shape or texture. These characteristics may or may not be present within the configured set of training examples. Utilizing subgraphs can advantageously extend them in training examples in this regard. For example, if the training example dataset contains only images in which a conditionally white horse is present, the subgraph conveys additional information to the feature extractor that the horse may have other colors. be able to.

分類学的コンテキストは、階層に基づいたクラス間の関係を記述する。分類法により、特に、例えば外部の予備知識を考慮することができる。このため、例えば、交通標識が情報、警告、規定、規則又は禁止を表示できるようにする交通標識の分類が存在する。したがって、当該分類法には、例えば車両の自動誘導に必要とされる、交通標識の意味論的意味の重要部分が組み込まれている。 Taxonomic context describes relationships between classes based on a hierarchy. The taxonomy makes it possible, in particular, to take account of external prior knowledge, for example. For this reason, classifications of traffic signs exist, for example, which allow traffic signs to display information, warnings, regulations, rules or prohibitions. The classification method therefore incorporates an important part of the semantic meaning of traffic signs, which is required for example for automatic vehicle guidance.

機能的コンテキストは、物体の機能を記述する特性を含む。ここで、例えば、ねじ止め、鋸切削又は穿孔を行うことができるかどうかに応じて工具をカテゴリ分類することができる。 Functional context includes properties that describe the function of an object. Here, for example, tools can be categorized according to whether they can perform screwing, sawing or drilling.

特に有利な他の構成においては、下位グラフの選択もまた、コスト関数による評価に関連して、最適化するステップへと導入される。すなわち、例えば、下位グラフの表現とトレーニング例から生成された特徴マップとの最良の一致が得られる下位グラフを算定することができる。例えば、複数の候補下位グラフを作成することができ、当該各候補下位グラフに対してニューラルネットワークのトレーニングを実行することができる。次いで、例えば、コスト関数の最良の値を得ることが可能な候補下位グラフを最終的に選択することができる。候補下位グラフの作成は、特に、例えば、下位グラフの検索空間を体系的に検査すること、及び/又は、候補下位グラフをヒューリスティックスに基づいて算定することを含み得る。特に、ナレッジグラフの内容に関する予備知識を考慮して検索空間を限定することができ、及び/又は、こうした予備知識をヒューリスティクスに含めることができる。 In another particularly advantageous configuration, the selection of the subgraph is also introduced into the optimizing step in conjunction with the evaluation by the cost function. That is, for example, the subgraph that provides the best match between the representation of the subgraph and the feature map generated from the training example can be calculated. For example, multiple candidate subgraphs can be created, and neural network training can be performed on each candidate subgraph. Then, for example, a final selection of candidate subgraphs can be made that allows obtaining the best value of the cost function. The creation of candidate subgraphs may include, among other things, for example, systematically examining a search space of subgraphs and/or calculating candidate subgraphs based on heuristics. In particular, the search space can be limited by taking into account prior knowledge about the content of the knowledge graph and/or such prior knowledge can be included in the heuristics.

他の有利な構成においては、特徴マップの空間内の下位グラフの表現は、トレーニング例及び目標出力に基づいて、事前に計算されたルックアップテーブルから呼び出される。よって、下位グラフの表現を計算する際のコストをフロントローディングすることができる。 In another advantageous arrangement, the representation of the subgraph in the space of feature maps is called from a pre-computed look-up table based on the training examples and the target output. Therefore, the cost of calculating the representation of the subgraph can be front-loaded.

他の有利な構成においては、別の機械学習モデルが、特徴マップの空間内の下位グラフの表現を生成するために、ニューラルネットワークと共にトレーニングされる。例えば、この目的のために、下位グラフ又は包括的なナレッジグラフを既に入力として受け取るグラフニューラルネットワークGNNを使用することができる。この場合、一方の特徴抽出器と他方の下位グラフの表現の生成部とは、特徴マップと下位グラフの表現との類似度を最大化するために同程度に寄与することができる。 In another advantageous configuration, another machine learning model is trained with the neural network to generate a representation of the subgraph in the space of feature maps. For example, a graph neural network GNN that already receives as input a subgraph or a global knowledge graph can be used for this purpose. In this case, the feature extractor on the one hand and the subgraph representation generator on the other hand can contribute to the same extent to maximize the similarity between the feature map and the subgraph representation.

他の有利な構成においては、トレーニングされたニューラルネットワークに測定データが供給される。ニューラルネットワークの出力からは、駆動制御信号が形成される。車両、運転支援システム、品質管理システム、エリア監視システム、及び/又は、医用画像形成システムが、当該駆動制御信号によって駆動制御される。この場合、トレーニングの際に使用されたトレーニング例を超えて一般化を行うニューラルネットワークの改善された能力に基づき、駆動制御されるそれぞれのシステムの応動が測定データによって検出された状況に対して適当なものとなる確率が高まる。 In another advantageous configuration, the trained neural network is fed with measurement data. A drive control signal is formed from the output of the neural network. A vehicle, a driving support system, a quality control system, an area monitoring system, and/or a medical image forming system are drive-controlled by the drive control signal. In this case, based on the improved ability of the neural network to generalize beyond the training examples used during training, the response of each controlled system is adapted to the situation detected by the measured data. The probability of it happening increases.

当該方法は、特に完全に又は部分的にコンピュータ実装可能である。したがって、本発明は、1つ又は複数のコンピュータ及び/又はコンピュータインスタンスにおいて実行される際に当該1つ又は複数のコンピュータ及び/又はコンピュータインスタンスに上述した方法を実施させるための機械可読命令を含むコンピュータプログラムにも関する。この意味においては、同様に機械可読命令を実行し得る車両用の制御装置及び技術装置用のエンベデッドシステムもコンピュータとみなすことができる。コンピュータインスタンスの例は、クラウド内において機械可読命令を実行する仮想機械、コンテナ又はサーバレス実行環境である。 The method is particularly fully or partially computer-implementable. Accordingly, the present invention provides a computer comprising machine readable instructions for performing the method described above when executed on one or more computers and/or computer instances. It also concerns the program. In this sense, embedded systems for vehicle control devices and technical devices that can likewise execute machine-readable instructions can also be considered as computers. Examples of computer instances are virtual machines, containers, or serverless execution environments that execute machine-readable instructions in the cloud.

同様に、本発明は、コンピュータプログラムを含む機械可読データ担体及び/又はダウンロード製品にも関する。ダウンロード製品とは、データネットワークを介して伝送可能なデジタル製品、すなわち、データネットワークのユーザがダウンロード可能なデジタル製品であり、例えばオンラインショップでの即時ダウンロードにおいて入手可能である。 The invention likewise relates to a machine-readable data carrier and/or download product containing a computer program. A download product is a digital product that can be transmitted over a data network, i.e. a digital product that can be downloaded by a user of the data network, for example available for immediate download in an online shop.

さらに、コンピュータには、コンピュータプログラム、機械可読データ担体又はダウンロード製品が備えられているものとしてよい。 Furthermore, the computer may be equipped with a computer program, a machine readable data carrier or a downloadable product.

本発明を改善する他の措置を、図面に即した本発明の好ましい実施例の説明と共に、以下において詳細に説明する。 Further measures for improving the invention are explained in detail below, together with a description of a preferred embodiment of the invention with reference to the drawings.

ニューラルネットワーク1をトレーニングする方法100の実施例を示す図である。1 illustrates an example of a method 100 for training a neural network 1; FIG. 包括的なナレッジグラフ4の下位グラフ43に関する様々なコンテキストが考慮されることを示す図である。FIG. 4 illustrates that various contexts for subgraphs 43 of comprehensive knowledge graph 4 are considered.

実施例
図1は、ニューラルネットワーク1をトレーニングする方法の一実施例の概略的なフローチャートである。当該ニューラルネットワーク1は、測定データ2から特徴マップ2bを生成する特徴抽出器11を有する。
Example FIG. 1 is a schematic flowchart of an example of a method for training a neural network 1. The neural network 1 has a feature extractor 11 that generates a feature map 2b from the measurement data 2.

ステップ110において、トレーニング例2aが用意される。当該トレーニング例2aは、設定されたタスクに関連する目標出力3aによってラベリングされている。 In step 110, training example 2a is provided. The training example 2a is labeled with a target output 3a related to the set task.

ステップ120において、ノード41がエンティティを表現しかつエッジ42がエンティティ間の関係を表現する包括的なナレッジグラフ4が用意される。例えば、第1のエンティティ41としての物体を、エッジ42としての関係「~を有する/~である」を介して、第2のエンティティ41としての特性に結び付けることができる。 In step 120, a comprehensive knowledge graph 4 is prepared in which nodes 41 represent entities and edges 42 represent relationships between entities. For example, an object as the first entity 41 can be linked to a property as the second entity 41 via the relationship "has/is" as the edge 42.

ステップ130において、包括的なナレッジグラフ4から、設定されたタスクを解決するためのコンテキストに関連する下位グラフ43が選択される。 In step 130, a subgraph 43 is selected from the comprehensive knowledge graph 4 that is relevant to the context for solving the set task.

ステップ140において、各トレーニング例2aに対してニューラルネットワークの特徴抽出器11により、特徴マップ2bが算定される。 In step 140, a feature map 2b is calculated for each training example 2a by the feature extractor 11 of the neural network.

ステップ150においては、それぞれの目標出力3aに関連するそれぞれのトレーニング例2aから、特徴マップ2bの空間内の下位グラフ43の表現43aが算定される。 In step 150, a representation 43a of a subgraph 43 in the space of feature maps 2b is calculated from each training example 2a associated with a respective target output 3a.

ブロック151によれば、トレーニング例2a及び目標出力3aに基づいて、事前に計算されたルックアップテーブルから、特徴マップ2bの空間内の下位グラフ43の表現43aを呼び出すことができる。 According to block 151, a representation 43a of the subgraph 43 in the space of the feature map 2b can be called from a precomputed lookup table based on the training example 2a and the target output 3a.

ブロック152によれば、別の機械学習モデルを、特徴マップ2bの空間内の下位グラフ43の表現43aを生成するために、ニューラルネットワーク1と共にトレーニングすることができる。 According to block 152, another machine learning model may be trained with the neural network 1 to generate a representation 43a of the subgraph 43 in the space of the feature map 2b.

ステップ160においては、特徴マップ2bから、設定されたタスクに関連する出力3が評価される。 In step 160, outputs 3 related to the set task are evaluated from the feature map 2b.

ブロック161によれば、ニューラルネットワーク1の付加的なタスクヘッド12を用いて、特徴マップ2bから出力3を評価することができる。 According to block 161, an additional task head 12 of neural network 1 can be used to evaluate output 3 from feature map 2b.

ブロック162によれば、特徴マップ2bの評価は、ガウス過程を用いて特徴マップ2bを出力3としてのクラスに割り当てることを含み得る。 According to block 162, evaluating feature map 2b may include assigning feature map 2b to a class as output 3 using a Gaussian process.

ステップ170においては、設定されたコスト関数5を用いて、特徴マップ2bが下位グラフ43の表現43aにどの程度類似しているかが評価される。コスト関数5は、評価5aを出力する。 In step 170, the set cost function 5 is used to evaluate how similar the feature map 2b is to the representation 43a of the subgraph 43. Cost function 5 outputs evaluation 5a.

ブロック171によれば、下位グラフ43の表現43aに対する特徴マップ2bの類似度が、他の目標出力3a’を用いて他のトレーニング例2a’につき算定された特徴マップ2b’に対する下位グラフ43の表現43aの類似度と比較可能となる。 According to block 171, the similarity of the feature map 2b to the representation 43a of the subgraph 43 is the representation of the subgraph 43 to the feature map 2b' calculated for the other training example 2a' using the other target output 3a'. The similarity can be compared with that of 43a.

ステップ180においては、トレーニング例2aのさらなる処理の際にコスト関数5による評価5aを予測により改善する目的で、ニューラルネットワーク1(及びここでは特に特徴抽出器11)の挙動を特徴付けるパラメータ1a,11aが最適化される。パラメータ1a,11aの最終的なトレーニング状態には、符号1a,11aが付されている。 In step 180, parameters 1a, 11a characterizing the behavior of the neural network 1 (and here in particular the feature extractor 11) are determined in order to predictably improve the evaluation 5a by the cost function 5 during further processing of the training example 2a. Optimized. The final training states of parameters 1a, 11a are labeled 1a * , 11a * .

ブロック181によれば、下位グラフ43の選択もまた、コスト関数5による評価5aに関連して、最適化へと導入することができる。 According to block 181, the selection of subgraph 43 can also be introduced into the optimization in conjunction with evaluation 5a by cost function 5.

ステップ190においては、各トレーニング例2aに対する出力3がそれぞれのトレーニング例2aに対する目標出力3aに可能な限り良好に対応するように、特徴マップ2bの評価が調整される。 In step 190, the evaluation of the feature map 2b is adjusted such that the output 3 for each training example 2a corresponds as closely as possible to the target output 3a for the respective training example 2a.

特徴マップ2bがブロック161によりタスクヘッド12を用いて評価される場合、コスト関数5,5’を用いるブロック191により、各トレーニング例2aに対するタスクヘッド12の出力3がそれぞれのトレーニング例2aに対するそれぞれの目標出力3aにどの程度良好に対応するかを評価することができる。この場合、ブロック192によれば、タスクヘッド12のパラメータ1a,12aを、コスト関数5,5’による評価5a,5a’に関して最適化することができる。ここでのトレーニングは、特徴抽出器11のトレーニングと同時に実行可能であり、又は、特徴抽出器11のトレーニングが終了した後にはじめて実行可能となる。 If the feature map 2b is evaluated using the task head 12 by block 161, then the output 3 of the task head 12 for each training example 2a is evaluated by block 191 using the cost function 5, 5' for each training example 2a. It is possible to evaluate how well the output corresponds to the target output 3a. In this case, according to block 192, the parameters 1a, 12a of the task head 12 can be optimized with respect to the evaluation 5a, 5a' according to the cost functions 5, 5'. The training here can be performed simultaneously with the training of the feature extractor 11, or only after the training of the feature extractor 11 is completed.

特徴マップ2bがブロック162によりガウス過程を用いて評価される場合、ブロック193によれば全てのトレーニング例2aについての特徴マップ2bを算定することができる。次いで、ブロック194によれば、それぞれの目標出力3aに基づいて、特徴マップ2bの空間内のクラス間の決定限界を定めることができる。 If the feature map 2b is evaluated using a Gaussian process according to block 162, then according to block 193 it is possible to calculate the feature map 2b for all training examples 2a. According to block 194, decision limits between classes in the space of feature maps 2b can then be determined based on the respective target outputs 3a.

図1に示されている例においては、ステップ200において、トレーニングされたニューラルネットワーク1に測定データ2が供給され、これにより、トレーニングされたニューラルネットワーク1が出力3を生成する。 In the example shown in FIG. 1, measured data 2 is provided to the trained neural network 1 in step 200, so that the trained neural network 1 generates an output 3. In the example shown in FIG.

ステップ210においては、ニューラルネットワーク1の出力3から駆動制御信号210aが形成される。 In step 210, a drive control signal 210a is formed from the output 3 of the neural network 1.

ステップ220においては、車両50、運転支援システム60、品質管理システム70、エリア監視システム80、及び/又は、医用画像形成システム90が、駆動制御信号210aによって駆動制御される。 In step 220, the vehicle 50, the driving support system 60, the quality control system 70, the area monitoring system 80, and/or the medical image forming system 90 are drive-controlled by the drive control signal 210a.

図2には、ニューラルネットワーク1のトレーニングにおいて包括的なナレッジグラフ4の下位グラフ43に関する様々なコンテキストを考慮し得る様子が示されている。 FIG. 2 shows how different contexts regarding the subgraphs 43 of the comprehensive knowledge graph 4 can be taken into account in the training of the neural network 1.

第1の下位グラフ43は、視覚的コンテキストを表現しており、特徴マップ2bの空間内に例示的な表現43aを有する。第2の下位グラフ43’は、分類学的コンテキストを表現しており、特徴マップ2bの空間内に例示的な表現43a’を有する。第3の下位グラフ43’’は、分類学的コンテキストを表現しており、特徴マップ2bの空間内に例示的な表現43a’’を有する。 The first subgraph 43 represents the visual context and has an exemplary representation 43a in the space of the feature map 2b. The second subgraph 43' represents the taxonomic context and has an exemplary representation 43a' in the space of the feature map 2b. The third subgraph 43'' represents the taxonomic context and has an exemplary representation 43a'' in the space of the feature map 2b.

どのコンテキストが選択されるかに応じて、与えられたトレーニング例2aに対し、目標出力3aを用いて、それぞれの下位グラフ43,43’又は43’の表現43a,43a’又は43a’’がトレーニング例2aの特徴マップ2bと比較され、類似度が評価される。 Depending on which context is selected, for a given training example 2a, the representation 43a, 43a' or 43a'' of the respective subgraph 43, 43' or 43' is trained using the target output 3a. It is compared with the feature map 2b of Example 2a to evaluate the similarity.

Claims (16)

測定データ(2)を評価するためのニューラルネットワーク(1)をトレーニングする方法(100)であって、前記ニューラルネットワーク(1)は、測定データ(2)から特徴マップ(2b)を生成する特徴抽出器(11)を有する、方法(100)において、
・設定されたタスクに関連する目標出力(3a)によってラベリングされたトレーニング例(2a)を用意するステップ(110)と、
・ノード(41)がエンティティを表現しかつエッジ(42)が前記エンティティ間の関係を表現する包括的なナレッジグラフ(4)を用意するステップ(120)と、
・前記包括的なナレッジグラフ(4)から、設定されたタスクを解決するためのコンテキストに関連する下位グラフ(43)を選択するステップ(130)と、
・各トレーニング例(2a)に対して、前記ニューラルネットワークの特徴抽出器(11)を用いて特徴マップ(2b)を算定するステップ(140)と、
・それぞれの目標出力(3a)に関連する各トレーニング例(2a)から、前記特徴マップ(2b)の空間内の下位グラフ(43)の表現(43a)を算定するステップ(150)と、
・前記特徴マップ(2b)から、設定されたタスクに関連する出力(3)を評価するステップ(160)と、
・設定されたコスト関数(5)を用いて、前記特徴マップ(2b)が前記下位グラフ(43)の表現(43a)にどの程度類似しているかを評価するステップ(170)と、
・トレーニング例(2a)のさらなる処理の際に前記コスト関数(5)による評価(5a)を予測により改善する目的で、前記ニューラルネットワーク(1)の挙動を特徴付けるパラメータ(1a,11a)を最適化するステップ(180)と、
・各トレーニング例(2a)に対する出力(3)がそれぞれのトレーニング例(2a)に対する目標出力(3a)に可能な限り良好に対応するように、前記特徴マップ(2b)の評価を調整するステップ(190)と、
を含む方法(100)。
A method (100) for training a neural network (1) for evaluating measurement data (2), wherein said neural network (1) performs feature extraction to generate a feature map (2b) from measurement data (2). A method (100) comprising a container (11),
- preparing a training example (2a) labeled with a target output (3a) related to the set task (110);
- providing (120) a comprehensive knowledge graph (4) in which nodes (41) represent entities and edges (42) represent relationships between said entities;
- selecting (130) from the comprehensive knowledge graph (4) a sub-graph (43) relevant to the context for solving the set task;
- calculating (140) a feature map (2b) for each training example (2a) using the feature extractor (11) of the neural network;
- calculating (150) a representation (43a) of a subgraph (43) in the space of said feature map (2b) from each training example (2a) associated with a respective target output (3a);
- evaluating (160) an output (3) related to the set task from the feature map (2b);
a step (170) of evaluating how similar the feature map (2b) is to the representation (43a) of the subgraph (43) using the set cost function (5);
- Optimizing the parameters (1a, 11a) characterizing the behavior of the neural network (1) in order to predictably improve the evaluation (5a) by the cost function (5) during further processing of the training example (2a). a step (180) of
adjusting the evaluation of said feature map (2b) such that the output (3) for each training example (2a) corresponds as well as possible to the target output (3a) for the respective training example (2a); 190) and
(100).
前記ニューラルネットワーク(1)は、付加的に、前記設定されたタスクに関して前記特徴マップ(2b)を評価(160,161)するためのタスクヘッド(12)を備え、
前記特徴マップ(2b)の評価を調整するステップ(190)は、
・各トレーニング例(2a)に対する前記タスクヘッド(12)の出力(3)がそれぞれのトレーニング例(2a)に対する目標出力(3a)にどの程度良好に対応するかを、コスト関数(5,5’)を用いて評価するステップ(191)と、
・前記タスクヘッド(12)のパラメータ(1a,12a)を、前記コスト関数(5,5’)による評価(5a,5a’)に関して最適化するステップ(192)と、
を含む、
請求項1に記載の方法(100)。
The neural network (1) additionally comprises a task head (12) for evaluating (160, 161) the feature map (2b) with respect to the set task;
The step (190) of adjusting the evaluation of the feature map (2b) comprises:
- How well the output (3) of the task head (12) for each training example (2a) corresponds to the target output (3a) for each training example (2a) is determined by a cost function (5,5' ), a step (191) of evaluating using
- optimizing parameters (1a, 12a) of the task head (12) with respect to evaluation (5a, 5a') by the cost function (5, 5') (192);
including,
The method (100) of claim 1.
前記下位グラフ(43)の表現(43a)に対する前記特徴マップ(2b)の類似度が、他の目標出力(3a’)を用いて他のトレーニング例(2a’)につき算定された特徴マップ(2b’)に対する下位グラフ(43)の表現(43a)の類似度と比較される(171)、
請求項1又は2に記載の方法(100)。
The similarity of the feature map (2b) to the representation (43a) of the subgraph (43) is a feature map (2b) calculated for another training example (2a') using another target output (3a'). ') is compared (171) with the similarity of the representation (43a) of the subgraph (43);
A method (100) according to claim 1 or 2.
前記目標出力(3a)は、前記測定データ(2)の設定された分類の1つ又は複数のクラスに関連する分類スコアを含む、
請求項1乃至3のいずれか一項に記載の方法(100)。
The target output (3a) includes classification scores associated with one or more classes of the set classifications of the measurement data (2).
A method (100) according to any one of claims 1 to 3.
前記設定された分類のクラスは、測定データ(2)により当該測定データ(2)の記録時に監視される領域内に存在することが示された物体のタイプを表現する、
請求項4に記載の方法(100)。
The set classification class represents the type of object that is shown to be present in the area monitored by the measurement data (2) at the time of recording the measurement data (2).
A method (100) according to claim 4.
車両(50)の周囲における他の車両、交通標識、車線標示、交通障害物、及び/又は、他の交通関連物体が、物体のタイプとして選択される、
請求項5に記載の方法(100)。
other vehicles, traffic signs, lane markings, traffic obstacles, and/or other traffic-related objects around the vehicle (50) are selected as the object type;
The method (100) of claim 5.
前記特徴マップ(2b)を評価するステップ(160)は、ガウス過程を用いて前記特徴マップ(2b)をクラスに割り当てるステップ(162)を含み、
前記評価を調整するステップ(190)は、
・全てのトレーニング例(2a)の特徴マップ(2b)を算定するステップ(193)と、
・それぞれの目標出力(3a)に基づいて、前記特徴マップ(2b)の空間内のクラス間の決定限界を定めるステップ(194)と、
を含む、
請求項4乃至6のいずれか一項に記載の方法(100)。
Evaluating (160) the feature map (2b) comprises assigning (162) the feature map (2b) to a class using a Gaussian process;
The step (190) of adjusting the evaluation comprises:
- calculating feature maps (2b) for all training examples (2a) (193);
- determining (194) decision limits between classes in the space of said feature maps (2b) based on the respective target outputs (3a);
including,
A method (100) according to any one of claims 4 to 6.
画像、オーディオ信号、測定値の時系列、レーダデータ、及び/又は、LiDARデータが、測定データ(2)として選択される、
請求項1乃至7のいずれか一項に記載の方法(100)。
images, audio signals, time series of measurement values, radar data, and/or LiDAR data are selected as measurement data (2);
A method (100) according to any one of claims 1 to 7.
前記下位グラフ(43)は、視覚的コンテキスト、分類学的コンテキスト、又は、機能的コンテキストに関連する、
請求項1乃至8のいずれか一項に記載の方法(100)。
The subgraph (43) is related to a visual context, a taxonomic context, or a functional context.
A method (100) according to any one of claims 1 to 8.
前記下位グラフ(43)の選択もまた、前記コスト関数(5)による評価(5a)に関連して、前記最適化するステップ(180)へと導入される(181)、
請求項1乃至9のいずれか一項に記載の方法(100)。
The selection of said subgraph (43) is also introduced (181) into said optimizing step (180) in conjunction with evaluation (5a) by said cost function (5);
A method (100) according to any one of claims 1 to 9.
前記特徴マップ(2b)の空間内の前記下位グラフ(43)の表現(43a)は、前記トレーニング例(2a)及び前記目標出力(3a)に基づいて、事前に計算されたルックアップテーブルから呼び出される(151)、
請求項1乃至10のいずれか一項に記載の方法(100)。
The representation (43a) of the subgraph (43) in the space of the feature map (2b) is retrieved from a pre-computed lookup table based on the training example (2a) and the target output (3a). be (151),
A method (100) according to any one of claims 1 to 10.
別の機械学習モデルが、前記特徴マップ(2b)の空間内の前記下位グラフ(43)の表現(43a)を生成するために、前記ニューラルネットワーク(1)と共にトレーニングされる(152)、
請求項1乃至10のいずれか一項に記載の方法(100)。
another machine learning model is trained (152) with the neural network (1) to generate a representation (43a) of the subgraph (43) in the space of the feature map (2b);
A method (100) according to any one of claims 1 to 10.
・トレーニングされたニューラルネットワーク(1)に測定データ(2)が供給され(200)、これにより、当該トレーニングされたニューラルネットワーク(1)が出力(3)を生成し、
・前記ニューラルネットワーク(1)の出力(3)から駆動制御信号(210a)が形成され(210)、
・車両(50)、運転支援システム(60)、品質管理システム(70)、エリア監視システム(80)、及び/又は、医用画像形成システム(90)が、前記駆動制御信号(210a)によって駆動制御される(220)、
請求項1乃至12のいずれか一項に記載の方法(100)。
- a trained neural network (1) is fed (200) measurement data (2), which causes the trained neural network (1) to generate an output (3);
a drive control signal (210a) is formed (210) from the output (3) of the neural network (1);
- The vehicle (50), the driving support system (60), the quality control system (70), the area monitoring system (80), and/or the medical image forming system (90) are drive-controlled by the drive control signal (210a). be done (220),
A method (100) according to any one of claims 1 to 12.
1つ又は複数のコンピュータ及び/又はコンピュータインスタンス上において実行されるときに、前記1つ又は複数のコンピュータ及び/又はコンピュータインスタンスに請求項1乃至13のいずれか一項に記載の方法(100)を実施させるための機械可読命令を含むコンピュータプログラム。 14. A method (100) according to any one of claims 1 to 13, when executed on one or more computers and/or computer instances, on said one or more computers and/or computer instances. A computer program containing machine-readable instructions for implementation. 請求項14に記載のコンピュータプログラムを含む機械可読データ担体。 A machine-readable data carrier comprising a computer program according to claim 14. 請求項14に記載のコンピュータプログラムを含む、及び/又は、請求項15に記載の機械可読データ担体を含む1つ又は複数のコンピュータ及び/又はコンピュータインスタンス。 One or more computers and/or computer instances comprising a computer program according to claim 14 and/or comprising a machine-readable data carrier according to claim 15.
JP2023126354A 2022-08-03 2023-08-02 Training of neural network using knowledge graph Pending JP2024022546A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022208083.1 2022-08-03
DE102022208083.1A DE102022208083A1 (en) 2022-08-03 2022-08-03 Training a neural network using knowledge graphs

Publications (1)

Publication Number Publication Date
JP2024022546A true JP2024022546A (en) 2024-02-16

Family

ID=89575191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023126354A Pending JP2024022546A (en) 2022-08-03 2023-08-02 Training of neural network using knowledge graph

Country Status (4)

Country Link
US (1) US20240046066A1 (en)
JP (1) JP2024022546A (en)
CN (1) CN117521733A (en)
DE (1) DE102022208083A1 (en)

Also Published As

Publication number Publication date
US20240046066A1 (en) 2024-02-08
CN117521733A (en) 2024-02-06
DE102022208083A1 (en) 2024-02-08

Similar Documents

Publication Publication Date Title
JP6929322B2 (en) Data expansion system, data expansion method, and program
DK201770681A1 (en) A method for (re-)training a machine learning component
US20230115887A1 (en) Digital twin sub-millimeter alignment using multimodal 3d deep learning fusion system and method
US11455789B1 (en) Systems and methods for dynamically classifying point cloud data points
US20220266854A1 (en) Method for Operating a Driver Assistance System of a Vehicle and Driver Assistance System for a Vehicle
US11403491B2 (en) Object recognition from images using cad models as prior
US20220051040A1 (en) Automatic method to determine the authenticity of a product
JP6988995B2 (en) Image generator, image generator and image generator
KR102208688B1 (en) Apparatus and method for developing object analysis model based on data augmentation
JP2001307087A (en) Procedure for cyclic interactive image analysis and computer system and computer program for executing the procedure
JP7225978B2 (en) Active learning method and active learning device
JP2024022546A (en) Training of neural network using knowledge graph
WO2021079451A1 (en) Learning device, learning method, inference device, inference method, and recording medium
CN116994084A (en) Regional intrusion detection model training method and regional intrusion detection method
CN113807315B (en) Method, device, equipment and medium for constructing object recognition model to be recognized
JP2023139674A (en) Learning device, inference device, and image processing device
KR102430742B1 (en) Apparatus and method for developing space analysis model based on data augmentation
CN115410025A (en) Data augmentation for image classifier training
JP2021197184A (en) Device and method for training and testing classifier
CN112149790A (en) Method and apparatus for checking robustness of artificial neural network
CN114072815A (en) More robust training for artificial neural networks
CN111523649A (en) Method and device for preprocessing data aiming at business model
KR102658711B1 (en) Method for annotation using boundary designation
Buechler et al. Automated geometric analysis of metallic components through picture recognition models for manufacturing technology assessments
KR102599196B1 (en) Method for estimate job cost of work on generating training data, and computer program recorded on record-medium for executing method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231012