JP2023550377A - 入力値を処理する方法及びシステム - Google Patents

入力値を処理する方法及びシステム Download PDF

Info

Publication number
JP2023550377A
JP2023550377A JP2023529925A JP2023529925A JP2023550377A JP 2023550377 A JP2023550377 A JP 2023550377A JP 2023529925 A JP2023529925 A JP 2023529925A JP 2023529925 A JP2023529925 A JP 2023529925A JP 2023550377 A JP2023550377 A JP 2023550377A
Authority
JP
Japan
Prior art keywords
evaluation
unit
level
output value
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023529925A
Other languages
English (en)
Inventor
ツィマーマン ハイコ
フーア ギュンター
フーア アントニー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Universitaet des Saarlandes
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Universitaet des Saarlandes
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV, Universitaet des Saarlandes filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of JP2023550377A publication Critical patent/JP2023550377A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • G05B19/0426Programming the control sequence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0637Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Tourism & Hospitality (AREA)
  • Development Economics (AREA)
  • Quality & Reliability (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Manufacturing & Machinery (AREA)
  • Primary Health Care (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

Figure 2023550377000001
本発明は、作業レベルと評価レベルを有する全体のシステムで入力値を処理する機械の制御システムで実装される方法に関し、第1の入力値を作業レベルに入力し、第1の出力値を決定することと、第1の状況データを形成することと、第1の状況データを評価レベルに入力し、第1の状況データが所定の第1の条件を満たすかどうかを示す第1の評価を決定することと、第1の評価に基づいて第1の出力値の決定に影響を与えことと、第2の入力値を作業レベルに入力し、第2の出力値を決定することであって、第2の出力値の決定は、第1の出力値によって影響を受ける、ことと、第2の状況データを形成することと、第2の状況データを評価レベルに入力し、第2の状況データが所定の第2の条件を満たしているかどうかを示す第2の評価を決定することであって、第2の評価の決定は、第1の評価によって影響される、ことと、第2の評価に基づいて第2の出力値の決定に影響を与えることであって、第1及び/又は第2の出力値は、全体のシステムの全体の出力値として使用される、ことと、を含む。

Description

本発明は、人工学習システムである作業レベル及び評価レベルを含む全体のシステムに関し、特に、機械の制御システムにおける入力値を処理するためにその中で実装される方法に関する。
人工知能は現在、無数の用途分野でますます重要な役割を果たしている。これは当初、インテリジェントな動作と機械学習の自動化を意味すると理解されていた。しかし、そのようなシステムは通常、特別なタスク用に意図され、トレーニングされている。この形式の人工知能(AI)は「弱いAI」と呼ばれることが多く、基本的に計算とアルゴリズムの適用に基づいて、固定分野でのインテリジェントな動作をシミュレートする。例としては、車両の安全システムなどの特定のパターンを認識できるシステム、又はチェスなどの特定のルールを学習して実装できるシステムが含まれる。同時に、これらのシステムは他の分野では本質的に役に立たず、他の用途用に完全に再トレーニングするか、まったく異なるアプローチを使用してトレーニングする必要さえある。
ニューラル・ネットワークは、とりわけ、そのような人工/人工的学習ユニットの実用的な実装に使用される。原則として、これらのネットワークは生物学的ニューロンの機能を抽象的なレベルで複製する。互いに接続された、いくつかの人工ニューロン又はノードがあり、信号を受信及び処理し、及び他のノードに送信できる。次に、各ノードに対して、関数、重み付け、及び閾値が定義され、これにより、例えば、信号がノードに渡されるかどうか、及びどの程度の強度で渡されるかを決定する。
通常、ノードは各層で考慮されるため、各ニューラル・ネットワークには少なくとも一つの出力層がある。その前に、多層ネットワークが形成されるように、更なる層がいわゆる隠れ層として存在し得る。入力値又は特徴も層と見なすことができる。異なる層のノード間の接続はエッジと呼ばれ、通常、これらには固定の処理方向が割り当てられる。ネットワーク・トポロジによっては、ある層のどのノードが次の層のどのノードにリンクされるかが指定され得る。この場合、すべてのノードを接続できるが、例えば、値0の学習済みの重み付けは、特定のノードを介して信号を更に処理できないことを意味する。
ニューラル・ネットワークにおける信号の処理は、さまざまな関数によって記述できる。以下では、この原理をニューラル・ネットワークの単一のニューロン又はノードについて説明する。ノードに到達するいくつかの異なる入力値から、伝播関数(入力関数でもある)によってネットワーク入力が形成される。多くの場合、この伝播関数は単純な加重和で構成され、これにより、各入力値に対して関連する重み付けが指定される。しかし、原則として、他の伝播関数も可能である。重みは、ネットワークの重み行列として指定できる。
このようにして形成されたノードのネットワーク入力には、閾値に依存し得る活性化関数が適用される。この関数は、ネットワーク入力とニューロンの活動レベルとの関係を表す。さまざまな活性化関数が知られている。例えば、単純なバイナリ閾値関数(その出力は、したがって、閾値より下ではゼロであり、閾値より上では同一である);シグモイド関数;又は与えられた勾配を持つ区分的線形関数。これらの関数は、ニューラル・ネットワークの設計時に指定される。活性化関数の結果は、活性化状態を形成する。任意選択で、追加の出力関数を指定することができる。これは、活性化関数の出力に適用され、ノードの最終的な出力値を決定する。しかし、多くの場合、活性化関数の結果は出力値として単に直接渡される。つまり、IDが出力関数として使用される。使用する用語によっては、活性化関数と出力関数を伝達関数として結合することもできる。
次に、各ノードの出力値は、層の各ノードの入力値としてニューラル・ネットワークの次の層に渡される。ここで、ノードのそれぞれの関数と重みで処理するために、対応するステップが繰り返される。ネットワークのトポロジに応じて、前の層への後方エッジ又は出力層へ戻る後方エッジも存在し得、リカレント・ネットワークが発生する。
一方、入力値がそれぞれ重み付けされる重みは、ネットワークによって変更できるため、出力値とネットワーク全体の機能を調整できる。これは、ニューラル・ネットワークの「学習」と見なされる。この目的のために、通常、ネットワークではエラー逆伝播が使用される。つまり、出力値と期待値を比較し、その比較を使用してエラーを最小限に抑える目的で入力値を適応させる。エラー・フィードバックを通じて、ネットワークのさまざまなパラメータをそれに応じて調整できる。例えば、ステップ・サイズ(学習率)やノードでの入力値の重みなどである。同様に、入力値も再評価できる。
次に、ネットワークをトレーニング・モードでトレーニングできる。使用される学習戦略も、ニューラル・ネットワークの可能な用途にとって決定的である。特に、次の変形が区別される。
教師あり学習では、入力パターン又はトレーニング・データ・セットが与えられ、ネットワークの出力が期待値と比較される。
教師なし学習では、相関関係やルールの発見はシステムに任せられるため、学習するパターンのみが指定される。中間の変形は、事前定義された分類のないデータ・セットも使用できる半教師あり学習である。
強化学習又はQ学習では、動作に対する報酬と罰を受信することができるエージェントが作成され、これに基づいて、受信した報酬を最大化し、したがって、その動作を適応させようとする。
ニューラル・ネットワークの重要な用途は、入力データ又は入力を特定のカテゴリ又はクラスに分類することである。つまり、相関関係と割り当てを認識する。クラスは、既知のデータに基づいてトレーニングし、少なくとも部分的に事前定義するか、ネットワークによって個別に開発又は学習することができる。
このようなニューラル・ネットワークの基本的な機能と更に具体的な詳細は、例えば、R.Schwaiger、J.Steinwender、Neuronale Netze programmieren mit Python、Rheinwerk Computing、Bonn2019などの主題で知られている。
一つの特別なタスクだけのためにトレーニングされていない普遍的に適用可能なAIシステムは、多次元又は高次元の空間につながるため、指数関数的に増加するトレーニングが必要になり及びデータ・セットをテストする。したがって、リアルタイムの応答はすぐに不可能になる。したがって、一般に、そのようなシステムの次元と複雑さを軽減する試みが行われている。この問題を解決するためのさまざまなアプローチが追求されている。例えば、複雑さは、データ・セットをリンクすること、自由度を減らすこと、及び/又は既知の知識をシステムに供給することによって減らすことができる。別のアプローチは、例えば主成分分析などの方法を使用して、相関データ又は相互依存データ・セットを少なくとも部分的に分離することである。特徴にフィルタリング方法を適用することにより、例えばカイ2乗検定などの統計検定を適用することにより、ネットワークをトレーニングするときに目立たない、又は消極的に目立つデータを除外できる。最後に、トレーニング・データ自体の選択は、AIネットワークの最適化問題として実行できる。この場合、新しいネットワークをできる限り迅速且つ適切にトレーニングできるように、トレーニング・データが組み合わされる。
より高度なアプローチには、いわゆる「畳み込みニューラル・ネットワーク」が含まれる。これは、単純な行列変換の代わりに、完全に接続された多層ネットワークの少なくとも一つの層で畳み込みを適用する。例えば、いわゆる「ディープドリーム」法は、特に画像認識の分野で知られている。この方法では、トレーニングされたネットワークの重みは最適なままであるが、代わりに入力値(例えば、入力画像)が出力値に応じたフィードバック・ループとして変更される。このようにして、例えば、システムが識別していると信じているものがフェード・インされる。その過程で夢のような画像が生まれる事実から名付けられた。このようにして、ニューラル・ネットワークの内部プロセスとその方向を追跡することができる。
これらの方法が依然として人間の知能と大きな違いを示していることは明らかである。データベース、テキスト・ファイル、画像、及びオーディオ・ファイルは、原則として、事実、言語、音声論理、サウンド、画像、及びイベント・シーケンスが脳内でどのように保存及び処理されるかと比較することができるが、人間の知能は、例えば、感情と無意識の「ソフト」分類のコンテキストでこのすべてのデータをリンクするという点で、大きく異なる。
本発明によれば、機械の制御システムで実行され、人工学習システムである作業レベルと評価レベルを有する全体のシステムで入力値を処理する方法と、独立請求項の特徴を有する対応するシステムが提案されている。有利な実施形態は、従属請求項及び以下の説明の主題である。
入力値を処理する機械の制御システムで実行される方法(又は場合によっては複数の方法)は、人工学習システムである作業レベルと評価レベルを有する全体のシステムで一つ又は複数のセンサによって検出されたセンサ・データ(又は場合によっては値又は測定値)を含み、
a)第1の入力値を作業レベルに入力し、第1の分類に従って、作業レベルによって第1の入力値から第1の出力値を決定することと、
b)第1の出力値に基づいて第1の状況データを形成することと、
c)初期状況データを評価レベルに入力し、初期状況データが所定の初期条件を満たしているかどうか、又はどの程度満たしているかを示す評価レベルによって初期評価を決定することと、
d)第1の評価に基づいて、作業レベルでの第1の出力値の決定に影響を与えることと、を含み、
それにより、ステップa)~d)が繰り返し実行され、
e)第2の分類に従って、第2の入力値を作業レベルに入力し、作業レベルによって第2の入力値から第2の出力値を決定することであって、第2の出力値の決定は第1の出力値によって影響を受ける、ことと、
f)第2の出力値に基づいて第2の状況データを形成することと、
g)第2の状況データを評価レベルに入力し、第2の状況データが所定の第2の条件を満たしているかどうか、又はどの程度満たしているかを示す評価レベルによって第2の評価を決定することであって、第2の評価の決定は第1の評価によって影響を受ける、ことと、
h)第2の評価に基づいて、作業レベルでの第2の出力値の決定に影響を与えることと、を含み、
それにより、ステップe)~h)が繰り返し実施され、
第1及び/又は第2の出力値は、全体のシステムの全体の出力値として使用され、全体の出力値は、機械の制御パラメータ及び/又は状態パラメータとして使用される。
特に、本出願の意味における「人工学習システム」は、互いに結合された二つ(又はそれ以上)の人工学習ユニットを含むことができる。図1~6の説明を参照。「人工学習ユニット」は、人工ニューラル・ネットワークなどの機械学習ベースのアルゴリズムを実装するユニットと見なすことができる。機械学習ベースのアルゴリズムは、トレーニング・データを使用してトレーニングし、モデルを構築して、出力値の形式で出力される入力値に基づいて予測又は決定を行うことができる。作業レベル及び評価レベルの人工学習ユニットは、それぞれ、第1/第2の入力値から第1/第2の出力値を取得し、第1/第2の状況データから第1/第2の評価を取得するようにトレーニングすることができる。人工学習システム内の人工学習ユニットの結合は、特に、第1のユニット又はその出力値が第2のユニット又はその入力値の処理に影響を与えるが、第2のユニットは第1のユニットに影響を与えないように実装される。
人工学習システム又はユニットは、計算ユニット(例えば、プロセッサ、コンピュータ、サーバー・システム、アクセラレータ・カード)で実行されるコンピュータ・プログラムとして実装できる。人工学習システム又はユニットは、少なくとも部分的にハードウェアとして、例えばFPGA(フィールド・プログラマブル・ゲート・アレイ)として実装することもできる。特に、異なる計算ユニットでも実行できる相互接続された人工学習ユニットによって人工学習システムを実装することも可能である。
機械は、例えば、産業用機械、産業プラント(相互作用する機械のシステム)、移動作業機械、及び/又は車両、特に自動型又は半自動型車両であり得る。制御システムは、一つ又は複数の制御ユニット又は計算ユニット(例えば、機械の一つ又は複数の制御ユニット内)を備えることができる。特に、作業レベルと評価レベルは、互いに分離された異なる計算ユニット(例えば、異なる制御ユニット)で実装されることが想定され得る。各制御ユニット又は計算ユニットは、一つ又は複数のプロセッサ、揮発性メモリ、不揮発性メモリ、通信インターフェース(センサとの、機械コンポーネントとの、他の制御ユニットとの、又は外部デバイスとのデータ通信のための)及び/又は同様のものを備えてもよい。ハードウェア・アクセラレータ要素(人工学習システム又は人工学習ユニットの加速評価計算ステップ用のAIアクセラレータ)も、制御ユニットに設けることができる。不揮発性メモリには、特に、方法を実装するためのプログラム及び/又は方法の実装中に発生するデータを保存することができる、又は保存される。
一方では、機械又は機械のコンポーネントの特性又は変数を決定又は測定するセンサ(機械に取り付けられることが好ましい)を提供することができ、例えば圧力センサ(例えば、作動油の圧力を決定するため)、電流及び/又は電圧センサ(例えば、電動アクチュエータ又は電気モーター/発電機)、温度センサ、速度センサ、回転速度センサ、光センサ、位置センサ、アクチュエータの位置を決定するセンサなどである。一方、追加的又は代替的に、例えば、カメラ、レーダー、ライダー又は赤外線センサ、マイクロフォンなど、機械の環境に影響を与える特性又は量を決定又は測定するセンサを設けることができる(機械上が好ましい)。センサ・データに加えて、入力値は、他のデータ又は値、例えばユーザ入力、他のデバイスから送信されたデータ、要求又は仕様、制御パラメータ又は状態パラメータの以前の値なども含み得る。
「制御パラメータ」という用語は、機械を制御するために使用されるパラメータ又は量、例えば、機械のどのコンポーネントが制御されるかに基づくパラメータ/量を指すことを意図している。「状態パラメータ」という用語は、機械の状態を示すパラメータを指す。例えば、さまざまな可能な動作評価状態のどれが存在するか、危険な状態が存在するかどうか、又は機械が正しく機能しているかどうか、又は障害状態が存在するかどうかである。
第1又は第2の評価による第1又は第2の出力値の決定(ステップd)又はh))への影響は、第1又は第2の入力値からの第1又は第2の出力値の決定のそれぞれの次の繰り返しを指し、すなわち、ステップa)~d)又はe)~h)の次の繰り返しである。特に、第1の繰り返しでは、第1又は第2の出力値の決定はまだ影響を受けていない。これは、例えば、ニュートラルな第1又は第2の評価で初期化することによって実現できる。
入力値は、ステップa)~d)又はe)~h)の繰り返しの間、一定のままにすることができ、又は可変にすることができ、それによって両方を同時に使用することも可能である。例えば、電流強度、電圧、温度、又は速度センサなど、比較的高いレートで決定されたセンサ・データ(測定値)は、繰り返し中に少なくともわずかに変化し得る。大きな変化の場合、例えば所定の閾値よりも大きい場合、新しい状況の存在を想定できる(新しい状況が存在する場合、第1の出力値を最初に総出力値として使用し、次に、例えば一定時間後又は別の条件が満たされた場合、第2の出力値を総出力値として使用できる)。他のセンサ・データ、例えばカメラのデータは、比較的低いレート(30、60、又は<100Hzなど)で捕捉された捕捉画像を評価する場合でも一定のままであり得る。この場合、繰り返しに最大限に利用できる(第1/第2の)時間間隔は、この低いレートに従って選択することができる。例えば、画像が30Hzの周波数で捕捉され、これは二つの連続する画像間の約33msの時間間隔に相当する場合、時間間隔は33ms未満に選択できる。例えば、30ms、新しく捕捉された画像が各時間間隔で評価されるようにする。より高い周波数で同時に収集されたデータが入力値として使用される場合、これらはこの時間間隔(例えば30ms)の間に変化し得る。ここでは、この変化は比較的小さいと想定されているため、根本的に新しい状況は発生しない。
特に、入力値は時間に依存することもできる。例えば、入力値は、サンプリングされた信号の時系列であり得る。したがって、そのような時間依存性のために、第2の作業ユニットに入力された入力値が、第1の作業ユニットに入力された(以前の)入力値とは(現在の値で)異なり、又は、方法の更なる過程で、入力値が一つの作業ユニットによって繰り返し使用される場合、この一つの作業ユニットは異なる現在の入力値を処理することが可能である。しかし、簡単にするために、時間依存性について明示的に言及することなく、常に「入力値」を参照する。
第1又は第2の条件は、純粋に技術的な性質のものであり得る。例えば、この方法が機械制御システムで使用され、総出力値が制御パラメータを表す場合、例えばモーターの場合、条件の一つは、制御パラメータが技術的に指定された範囲内になければならないことであり得、例えば制御されるモーターの最大速度を下回っている。
特に、条件は、少なくとも部分的に、非技術的な性質のものでもあり得る。これは、道徳倫理的側面又は経済的側面に関係し得る。
道徳倫理的側面は、例えば、人工学習システムが制御システムとして使用される自動型車両に関連している。例えば、この制御システムが、例えば、自動型車用によって捕捉され、制御システムによって評価されたカメラ画像又はライダー画像に基づいて、ステアリング修正なしで完全にブレーキをかけても、他の車両との衝突をもはや回避できないと決定した場合、衝突を回避できるさまざまな可能なステアリング修正を決定する。例えば、ある可能性のあるステアリング修正は歩行者を危険にさらす可能性があり、別の可能性のあるステアリング修正は壁との衝突につながり得る。第1の条件の一つは、人命が直接危険にさらされてはならないということである。この条件により、歩行者の危険につながるステアリングの動きは、他の解に比べて除外又は抑制できる。そのような基本的な評価は、第1の出力値と第1の評価との相互作用をもたらすことができる。この例の残りの二つ選択肢(ステアリングの修正と他の車両との衝突なし、ステアリングの修正と壁との衝突)では、道徳倫理的側面も役割を果たすことができる。例えば他の車両とその乗員を危険にさらすことは避けなければならないためである。これは、この例で考えられる第2の条件である。例えば、第2の出力値の基となるより詳細な分析の場合である。この例では、第1の条件は絶対的な考慮事項を表し、第2の条件は相対的な考慮事項を表す。
そのような道徳倫理的又は経済的考慮事項は、条件として適切な方法で成文化することができる。例えば、自動的に実行されるプログラムの形で特定のトレードオフを実行するコントラクトなどである。この意味で、条件はいわば道徳的コントラクトを構成する。
条件は「規範コード」である。つまり、すべての場合に達成できるわけではないが、努力すべきルールである。したがって、これらの条件は、すべての場合に満たさなければならない絶対的な条件ではない。したがって、全体の出力は作業レベルによって決定され、それにより、各入力値の評価レベルを通じて作業レベルに影響を与えることにより、全体の出力は、可能な限り条件が遵守されるように決定される。
したがって、本発明は、入力値を処理するための本発明による方法によって制御又は監視される技術システムにおいて直接技術的性質のものではない側面を考慮に入れることを可能にする。
経済的考慮事項の例としては、生産工場の機械制御でのシステムの使用があり、一方で、できるだけ多くの製品をできるだけ早く生産する必要がある(つまり、高い収益を生み出す必要がある)が、他方では、これはより高い摩耗につながる。したがって、原則として、これは経済的考慮事項と技術的考慮事項の混合である。
所定の第1の期間が経過するまで、及び/又は第1の出力値が所定の第1の許容範囲内で連続する繰り返し間で変化しなくなるまで、及び/又は第1の評価が第1の条件が少なくともある程度満たされたことを示すまでステップa)~d)が繰り返し実行されることが好ましく、第1の出力値は、この繰り返し実行が完了したときに総出力値として使用されることが好ましい。
所定の第2の期間が経過するまで、及び/又は第2の出力値が所定の第2の許容範囲内で連続する繰り返し間で変化しなくなるまで、及び/又は第2の評価が第2の条件が少なくともある程度満たされたことを示すまでステップe)~h)は繰り返し実行されることが好ましく、第2の出力値は、この繰り返し実行が完了したときに総出力値として使用されることが好ましい。
この方法は、全体又は総シーケンス・メモリに、それぞれが相互に対応する入力値及び/又は第1の出力値及び/又は第1の状況データ及び/又は第1の評価及び/又は第2の出力値及び/又は第2の状況データ及び/又は第2の評価を含む総記録の総シーケンスを保存することを含むことが好ましく、総記録及び/又は総記録に含まれる値又はデータには、それぞれの時間情報及び/又は番号付けが提供されることが好ましい。
方法は、第1及び第2の条件を補足することを含み、その結果、第1及び/又は第2の状況データのそれぞれについて補足前に第1及び第2の条件がそれぞれ満たされておらず、補足された第1及び第2の条件がそれぞれ満たされているか、少なくともある程度は満たされることが好ましく、第2の条件のみが変更され、第1の条件は変更されないままであることが好ましい。
第2の期間が満了したため、又は好ましくは、第2の出力値が第2の許容範囲内で変化しなくなったために、ステップe)~h)の繰り返しが中止されたとき、中止時に存在する状況データが補足された第2の条件を満たすように、第2の条件が補足される。
第1及び/又は第2の条件の完了又は補足は、第1又は第2の条件が満たされない(又はある程度満たされない)保存された総シーケンスに基づくことが好ましい。
全体のシステムは投影レベルを含み、第1及び/又は第2の状況データの形成は投影レベルによって実行されることが好ましい。
第2の分類は、第1の分類の少なくとも一つのクラスを複数のサブクラスに分類し、及び/又は第1の条件のうちの少なくとも一つについて、一つの第1の条件が複数の第2の条件によって暗示されることが好ましい。
第1の条件はルールの形で与えられ、第2の条件はルール分類の形で与えられることが好ましい。各ルールには、それぞれのルールの下位区分、特にいくつかのレベルへの区分を表すルール分類が割り当てられる。ルール及びルール分類が保存されるメモリが提供されることが好ましい。更に、ルール分類は、ブロックチェーンによってリンクされるレベルに細分され、ルール及び/又はルール分類は、いずれの場合もスマート・コントラクトの形式で実装され、及び/又は、必要に応じて、第2の条件を補足するときに下位区分の更なるレベルが追加されることが好ましい。
作業レベルは、ステップa)における第1の出力値の決定がより短い期間を必要とし、ステップe)における第2の出力値の決定がより長い期間を必要とするように設計されることが好ましい。及び/又は評価レベルは、ステップc)における第1の評価の決定がより短い期間を必要とし、ステップg)における第2の評価の決定がより長い期間を必要とするように設計される。両方の場合において、それぞれの場合において、より長い期間は、少なくとも2倍、特に少なくとも5倍、より短い期間よりも長いことが好ましい。
第1及び第2の入力値は、連続時間入力信号又は離散時系列として与えられることが好ましく、更に、第1及び第2の入力値は、完全に又は部分的に同一であることが好ましい。
作業レベルは、第1及び第2の人工学習作業ユニットを含むことが好ましい。ここで、第1の人工学習作業ユニットは、第1の入力値を受信し、第1の出力値を決定するように構成される。第2の人工学習作業ユニットは、第2の入力値を受信し、第2の出力値を決定するように構成される。作業レベルでは、第1の出力値及び/又はそこから導出された値に基づいて、一つ又は複数の第1の変調関数が形成され、形成された一つ又は複数の第1の変調関数は、第2の人工学習作業ユニットの一つ又は複数のパラメータに適用され、一つ又は複数のパラメータは、第2の人工学習作業ユニットでの入力値の処理及び出力値の取得に影響を与える。
最も単純な場合では、状況データは、例えば、それぞれの出力値そのものであり得る。第1及び第2の状況データは、第1及び第2の作業ユニットによって形成される作業レベル内の優位性に応じて形成することができる。つまり第1の作業ユニットが優位である場合、第1の作業ユニットの少なくとも第1の出力値に基づいて第1の状況データが形成される(例えば、第1の作業ユニットの出力値及び/又はそこから導出された値が状況データとして使用される)。一方、第2の作業ユニットが優位である場合、少なくとも第2の作業ユニットに基づいて第2の状況データが形成される(例えば、第2の作業ユニットの出力値及び/又はそこから導出された値が状況データとして使用される)。
第1の評価及び/又はそこから導出された値は、第1の人工学習作業ユニットの評価入力値として使用されることが好ましい。及び/又は一つ又は複数の第2の変調関数が、第1の評価及び/又はそこから導出された値に基づいて形成され、形成された一つ又は複数の第2の変調関数が、第1の人工学習作業ユニットの一つ又は複数のパラメータに適用され、一つ又は複数のパラメータは、第1の人工学習作業ユニットにおける入力値の処理及び出力値の取得に影響を与える。及び/又は第2の評価及び/又はそこから導出された値が、第2の人工学習作業ユニットの評価入力値として使用される。
評価入力値は入力値の一部であり、分析される入力値への追加の入力値であるため、それに応じて第1の出力値を変更することができる。ステップa)の第1の実行の前に、入力値が大幅に変化し、新しい状況があることを示す場合、第1の評価を初期化して、すべての第1の条件が満たされていることを示すことができる。
評価層は、第1及び第2の人工学習評価ユニットを含むことが好ましい。ここで、第1の人工学習評価ユニットは、第1の状況データを受信し、第1の評価を決定するように構成される。第2の人工学習評価ユニットは、第2の状況データを受信し、第2の評価を決定するように構成される。評価層では、第1の評価及び/又はそこから導出された値に基づいて、一つ又は複数の第3の変調関数が形成され、形成された一つ又は複数の第2の変調関数は、第2の人工学習評価ユニットの一つ又は複数のパラメータに適用され、一つ又は複数のパラメータは、第2の人工学習評価ユニットにおける入力値の処理及び出力値の取得に影響を与える。
この方法は、第1のシーケンス・メモリに、第1の評価ユニットの入力値及び関連する第1の評価を含む第1の評価セットの第1の評価シーケンスを保存することを含むことが好ましく、第1の評価セットには、特に、それぞれの時間情報及び/又は番号付けが提供される。及び/又は、第2のシーケンス・メモリに、第2の評価ユニットの入力値及び関連する第2の評価を含む第2の評価記録の第2の評価シーケンスを保存することを含み、第2の評価記録には、特に、それぞれの時間情報及び/又は番号付けが提供される。第1及び/又は第2の評価は、更に、保存された第1又は第2の評価シーケンスを考慮して決定されることが好ましい。
第1と第2の評価シーケンスを保存すると、評価ユニットの「決定」を追跡することを可能とし、必要に応じて、例えば希望どおりにそれらが機能しない場合、評価シーケンスを使用して更にトレーニングを実行できる。
保存は暗号で保護された形式で実行されることが好ましい。それにより、それぞれの場合に一つのブロックチェーンが使用されることが好ましく、それにより、それぞれのブロックチェーンのブロックは、第1の評価記録、第2の評価記録、又は総記録のうちの少なくとも一つを含む。
この方法は、別のシステムから出力値を受信することと、受信した出力値から第1及び/又は第2の状況データを形成することと、受信した出力値からそれぞれ形成された第1及び第2の状況データに基づく評価レベルによって、第1及び/又は第2の評価を決定することと、決定された第1及び/又は第2の評価が、それぞれ第1及び第2の条件が満たされていることを示す場合、別のシステムが互換性があると決定することと、を含むことが好ましい。
その評価ユニットが一般に異なる条件をテストするシステムは、システムがその評価で互いに矛盾しない場合、ここでは「互換性がある」と呼ばれ、すなわち、一方のシステムがその条件に従っていると分類する評価ユニットの入力値(状況データ)が、もう一方のシステムによってその(他の)条件に関して許容できないものとして分類されず、特に段階的な評価の場合、必要に応じて許容範囲を考慮に入れる。
本発明によるシステムは、作業レベルと評価レベルを含み、本発明による方法を実行するように適合されている。ここで、作業レベルは入力値を受信するように適合され、評価レベルは入力値を受信することができないことが好ましい。
作業レベルと評価レベルは、それぞれ少なくとも一つの計算ユニットで(ハードウェア及び/又はコンピュータ・プログラムとして)実装されることが好ましく、作業レベルが実装される少なくとも一つの計算ユニットは、更に、評価レベルが実装される少なくとも一つの計算ユニットとは異なり、特に別個であることが好ましい。作業レベル又は評価レベルが実装されるそれぞれの少なくとも一つの計算ユニットが複数の計算ユニットを含む場合、それはそれぞれの計算システムと呼ぶこともできる。それぞれの少なくとも一つの計算ユニット(又は計算システム)は、データ交換のために対応する(有線及び/又は無線)インターフェースを介して互いに接続される。作業レベルと評価レベルは、例えば、さまざまな制御デバイス(計算ユニット又は計算システム)で実装できる。さまざまな移動無線デバイスも考えられる。また、作業レベルは機械に恒久的に設置された制御デバイス(計算ユニット/計算システム)によって実装され、評価レベルは移動計算ユニット(例えば、移動無線デバイス)で実装されることも可能である。
システムは、投影レベル及び/又は総シーケンス・メモリを備えることが好ましい。
システムにおいて、作業プレーンは、第1及び第2の人工学習作業ユニットを含み、評価レベルは、第1及び第2の人工学習評価ユニットを含むことが好ましく、人工学習作業ユニット及び/又は評価ユニットは、それぞれ、複数のノードを有するニューラル・ネットワークを含むことが好ましく、更に、一つ又は複数のパラメータはそれぞれ、ニューラル・ネットワークのノードの重み付け、ノードの活性化関数、ノードの出力関数、ノードの伝播関数のうちの少なくとも一つであることが好ましい。
分類メモリは、第1の作業ユニット、第2の作業ユニット、第1の評価ユニット、及び第2の評価ユニットのそれぞれに割り当てられることが好ましく、第1の作業ユニット、第2の作業ユニット、第1の評価ユニット、及び第2の評価ユニットは、出力値又は評価を生成するときに入力値又は評価の分類を実行するように設定される。第1の作業ユニット、第2の評価ユニット、及び第2の評価ユニットは、出力値又は評価を生成するときに入力値又は状況データを一つ又は複数のクラスに分類するように設定され、これらのクラスはそれぞれの分類メモリに保存され、各クラスは、一つ又は複数の従属レベルで構造化されている。第1の作業ユニット及び/又は第1の評価ユニットの分類メモリ内のクラス及び/又はレベルの数は、第2の作業ユニットの分類メモリ内のクラス及び/又はレベルの数よりも小さいことが好ましく、及び/又は第2の評価ユニットの分類メモリ内のクラス及び/又はレベルの数は、更に第1の評価ユニットの分類メモリ内のクラス及び/又はレベルの数よりも大きいことが好ましい。
システムにおいて、第1及び第2の人工学習処理ユニットは、それぞれ第1及び第2の計算ユニット内のハードウェア及び/又はコンピュータ・プログラムとして実装及び/又は実行されることが好ましく、第1及び第2の計算ユニットは、第1のインターフェースによって相互接続されている。任意選択で、第1のインターフェースは、一つ又は複数の第1の変調関数を形成するように構成される。それとは独立して、システムにおいて、第1及び第2の人工学習評価ユニットは、それぞれ第3及び第4の計算ユニット内のハードウェア及び/又はコンピュータ・プログラムとして実装及び/又は実行されることが好ましく、第3及び第4の計算ユニットは、第3のインターフェースによって相互接続されている。任意選択で、第3のインターフェースは、一つ又は複数の第3の変調関数を形成するように構成される。第3の計算ユニットと第1の計算ユニットは、第2のインターフェースによって相互接続されることが好ましい。任意選択で、第2のインターフェースは、一つ又は複数の第2の変調関数を形成するように構成される。第1/第2の、第3及び/又は第4の計算ユニットは、互いに完全に又は部分的に別個(分離)であってもよい。特に、作業レベルが実装される上記の少なくとも一つの計算ユニットは、第1及び第2の計算ユニットを含む。すなわち、第1及び第2の計算ユニットは、作業レベルが実装される計算システムと見なすことができる。同様に、評価レベルが実装される上述の少なくとも一つの計算ユニットは、特に第3及び第4の計算ユニットを含み、すなわち、第3及び第4の計算ユニットは、評価レベルが実装される計算システムと見なすことができる。ここで、第1が第2とは異なる(別個の)計算ユニットであること、及び/又は第3が第4とは異なる(別個の)計算ユニットであることも考えられる。
少なくとも一つの、好ましくはすべての計算ユニットが、それぞれの計算ユニットに接続されるか、又は含まれるメモリに関連付けられることが好ましい。更に、第1の計算ユニットに関連付けられたメモリは、第1の分類を保存するように構成され、及び/又は第2の計算ユニットに関連付けられたメモリは、第2の分類を保存するように構成され、及び/又は第3の計算ユニットに関連するメモリは第1の条件を保存するように構成され、及び/又は第4の計算ユニットに関連するメモリは第4の条件を保存するように構成されることが好ましい。
システムは、第1及び/又は第2の出力値をユーザに出力するための少なくとも一つの出力モジュールを更に備えることができることが好ましく、出力モジュールは、画面、タッチ画面、スピーカ、投影モジュールのうちの少なくとも一つを備える。
本発明の更なる利点及び実施形態は、説明及び添付の図面から明らかである。
上述の特徴及び以下に説明する特徴は、本発明の範囲を逸脱することなく、それぞれの場合に示される組み合わせだけでなく、他の組み合わせ又は単独でも使用できることが理解される。
本発明は、図面の実施形態の例によって概略的に示され、図面を参照して以下に説明される。
互いに結合された二つの人工学習ユニットの組み合わせを示す。 さまざまな例示的な変調関数を概略的に示す。 結合された二つのニューラル・ネットワークにおけるドロップアウト手順の適用を示す。 追加のタイマを備えた図1と同様のシステムを示す。 関連する分類メモリを有する図1と同様のシステムを概略的に示す。 三つの結合された人工学習ユニットを備えた代替システムを示す。 作業レベル、評価レベル、及び投影レベルを有する、本発明による例示的な全体のシステムを示す。 二つの人工学習作業ユニット、二つの人工学習評価ユニット、及び投影レベルを有する、本発明による例示的な全体のシステムを示す。
図1~6及びそれらの以下の説明は、人工学習作業ユニットと人工学習評価ユニットの両方に関するものである。したがって、図1~6の説明では、「人工学習ユニット」又は「人工的学習ユニット」という用語が使用され、「人工学習作業ユニット」及び「人工学習評価ユニット」の両方を表すことができる。図1~6に関連して説明したように結合された人工学習ユニットは、「人工学習システム」と呼ばれる。
図1は、二つのリンクされた人工学習ユニット110、120を有する例示的な実施形態を示しており、これについては以下でより詳細に説明する。合わせて、人工学習ユニット110、120は、人工学習システムを形成する。以下の説明では、人工学習ユニットは、ニューラル・ネットワークとして例示的に設計され、特に、例えば矢印112、122によって示される出力値をそれぞれのネットワークの入力として使用することによってフィードバックされる。
この場合、ここでは第1のニューラル・ネットワークの形態の第1の人工学習ユニット110が提供され、これは本質的に、入力信号Xを範疇に分け又は分類し、この範疇分け又は分類の結果で、ここでは第2のニューラル・ネットワークである第2の人工学習ユニット120に影響を及ぼすように機能することができる。そうすることで、第1のニューラル・ネットワークの結果は、第2のニューラル・ネットワークの入力値として使用されず、ネットワークの既存の重み、ステップ・サイズ、及び関数に影響を与えるために使用されることが好ましい。特に、第2のニューラル・ネットワークのこれらのパラメータは、それらが完全に再定義されないように影響を受け得るが、第2のネットワーク120の元のパラメータは、第1のニューラル・ネットワーク110の出力信号に基づいて変調又は重畳される。これは、二つのニューラル・ネットワークが独立して異なるように動作することが好ましいことを意味する。例えば、それらの基本値自体をトレーニングするが、重ね合わせによって結合することもできる。この点に関して、二つのニューラル・ネットワークは、互いに実質的に類似するように設計され得るが、例えば、存在する層及び分類の数などの複雑さのレベルが著しく異なる。更に、ニューラル・ネットワークのそれぞれは、それ自体のメモリを含むことができる。
可能な実施形態では、第1のニューラル・ネットワーク110を分類ネットワークとして使用することができ、これは、入力値を大まかに且つ迅速に分類するのに役立つが、分類結果に基づいて、第2のネットワークは、第2のネットワークのパラメータを変調することによってそれに応じて影響を受ける。この目的のために、第1のニューラル・ネットワークは、比較的少ないレベルのネットワークにすることができ、これは、いくつかのクラスK、K、...Kを持つメモリを有し、大まかな分類を実現するために高度に抽象化されていることが好ましい。例えば、この第1のニューラル・ネットワークは、10、50、100、又は500クラスに制限することができ、これにより、これらの数は、もちろん大まかな例としてのみ理解されたい。特に、第1のニューラル・ネットワークのトレーニングは、個々に、更に結合されたニューラル・ネットワークとは独立して実行することができる。しかし、加えて、又は代替として、一つ又は複数の結合されたニューラル・ネットワークと結合された状態のトレーニング段階も使用することができる。
したがって、第1のニューラル・ネットワークは、短時間で使用可能な出力を提供する必要があり、それにより、第2のニューラル・ネットワークが意味のある影響を受け得る。重み及び関数は、第1のニューラル・ネットワーク110の出力値Output1から生成することができ、それは、第2のニューラル・ネットワーク120の自己生成重み及び関数に重畳されることができる。これは、第2のニューラル・ネットワークが最初は独立して機能し、第1のネットワークの出力値又はそこから得られたパラメータを完全には採用しないことを意味する。第2のニューラル・ネットワーク120も、最初は通常の方法で独立してトレーニングすることができ、それによって自己生成重みを有し得る。
第2のニューラル・ネットワークは、第1のニューラル・ネットワークよりも著しく複雑であり、特に、より多くのレベル及び/又はメモリ・クラスを有することができる。第1のネットワークと比較して第2のニューラル・ネットワークの複雑さが増加する度合いは、用途に応じて異なる方法で決定することができる。第2のニューラル・ネットワークに対する入力値又は入力データは、第1のニューラル・ネットワークに対するものと同じ入力値であることが好ましく、その結果、同じデータを用いてより複雑な分析を実行することができる。しかし、代わりに、第1のニューラル・ネットワークの出力値を、第2のネットワークの入力値として少なくとも部分的に使用することもできる。特に、第2のネットワークの複雑さが著しく異なる場合、例えば、第2のネットワークを提供することができ、それに対して、第1のネットワークの入力値としても機能する元の入力値がともに入力値として供給され、更に、第1のネットワークの出力値は、第2のネットワークの入力値として使用される。
図2は、第2のニューラル・ネットワークの一つ又は複数のパラメータを重畳することができる、さまざまな変調関数fmodの例を示している。原則として、重畳又は変調はどのような方法でも行うことができる。ノードの重みwi2に変調関数fmod_wを適用すると、例えば、第2のネットワーク120の重み付け行列が変調関数の引数として使用されることが提供され得、又は、重み付け値wi2のそれぞれに対して一次元(これも異なる)関数を提供することができる。変調関数fmod_fが第2のニューラル・ネットワークの記述関数の一つに適用される場合、すなわち、ネットワーク120の伝達関数ftrans2、活性化関数fakt2、伝播関数又は出力関数fout2に対して適用される場合、これは、二つの関数をリンクすることによって行うことができ、再度、変調関数fmod_fは、関連する記述関数の一部のみ又はすべて(例えば、第2のニューラル・ネットワーク120のすべての活性化関数fakt2)のいずれかに適用できる。同様に、第2のニューラル・ネットワークの関数のパラメータは、変調関数によって変えることができる。変調は、ネットワークのすべてのノードに等しく適用することも、代わりにノードのサブセットのみに適用することも、ノードごとに異なる方法で変調することもできる。同様に、例えば、変調は、ネットワークの各層ごとに別々に、又は異なる方法で交互に行うことができる。
特に、変調関数fmodは時間依存関数であってもよく、その結果、第2のニューラル・ネットワークの重みwi2又は関数は時間依存的に変化する。しかし、第2のニューラル・ネットワークを変調するための静的変調関数も考えられる。この場合、変調は、この第2のネットワーク(伝播関数や活性化関数など)に対して既に最初に定義された第2のネットワーク120のパラメータ、又は適合自己生成重みなどのトレーニング段階で独立して取得されたパラメータに適用される。
この例として、八つの異なる時間依存の変調関数を図2に示す。変調関数は、図2に示すように、元のパラメータに値を乗算することによって得られる。例a)は、値ゼロが指定された時間まで指定され、その後ゼロより大きい値が指定される単純なバイナリ・ステップ関数を示している。ここで、第2の値は原則として1にすることができるが、別の値にすることもできるため、元のパラメータに更に係数が割り当てられる。このようにして、例えば重み付けが時間依存的にオンオフされ、又は時間依存的に増幅される。例b)は、ゼロより小さい第2の値を持つステップ関数が指定されている同様の状況を示している。同様に、例a)及びb)の変形の代替として、0に等しくない二つ以上の異なる値を含むステップ関数が考えられ、その結果、時間の関数としてレベルが上昇又は低下する。
例c)は、第2のネットワークの任意のパラメータにも適用できる周期的な変調関数を示している。この方法では、時間に応じて特定の要素を周期的に増幅又は減衰する。例えば、異なるノード及び/又は異なる層に対して、そのような関数に対して異なる振幅及び/又は周期を選択することもできる。この時点で、正弦関数や非定常関数など、任意の周期関数を使用できる。関数と第2のネットワークの自己生成関数との連結のタイプに応じて、正又は負の関数値のみを選択できる。
例d)は、レベルがゆっくりと連続して一時的に増減することを示している。一方、例e)は、任意選択でゼロにすることもできる、それ以外の場合は低い関数値を持つ、簡潔でほぼ長方形の高いレベルを示している。同様に、例f)は、不規則に分布した非常に短いピーク又はスパイクを示している。これにより、非常に短期間でレベルが上昇又は変化する。ここで、ピークは異なる振幅を持ち、(基本値に対して)正と負の両方の値を取ることができる。例e)及びf)からの変形では、ピーク又は増幅の規則的、周期的、及び時間的に完全に不規則な(例えば確率的に決定された)分布の両方が存在し得る。例えば、短いレベルの増加は、第2のニューラル・ネットワークの決定サイクルの時間内にあり得るが、より長いレベルの変化は、いくつかの決定サイクルに及び得る。
図2の例g)は、減衰振動を更に示している。これは、異なる減衰と振幅で任意に設計することもできる。最後に、例h)は、基本値付近の異なる振動の時系列を示している。これにより、特に振動の周期の長さが異なるが、振幅は同じままである。この異なる振動の組み合わせは、付加的な重ね合わせ、つまりうなりとして設計することもできる。
一般に、任意の変調関数が考えられ、図2に示されている関数は単なる例として理解されるべきである。特に、示されている例の関数の任意の組み合わせが可能である。すべての例に示されているベースラインは、変調関数の目的の効果に応じて、0又は別の基本値で実行できることも理解される。変調関数とそれぞれの変調された関数の純粋な連結の場合、基本値0と対応する関数値の増加により、それぞれのノードが時間依存の方法でのみ処理に寄与し、それ以外の場合はスイッチがオフになることが保証され得る。一方、基本値が1の場合、例えば、図2a)の例では、最初に重みに適用される変調関数が、変調されたネットワークの自己生成重みを基本値として再現することを実現でき、段階的に高い値から、それに応じて重みが増加した。したがって、そのような関数は、活性化関数などの関数の変調にも作用する。
既に説明したように、変調関数は、第1の人工学習ユニットの出力値に基づいて、すなわち、この例では第1のニューラル・ネットワークに基づいて形成することができる。出力値とそこから形成される変調関数との間の関係は、任意に設計することができる。例えば、この関係は、結合されたネットワークのジョイント・トレーニング段階で少なくとも部分的に生成され得る。他の実施形態では、変調関数と第1のネットワークの出力値との間の依存関係を事前定義することができ、例えば、変調関数を図に示す関数の一つとして与え、レベル・エクスカーションの大きさを出力値によって決定することができる。任意選択で、特定の出力値では、最初は第2のネットワークの変調が行われないように決定することもできる。
変調関数を第2のニューラル・ネットワークの重みと関数に適用する代わりに、又はそれに加えて、図3に示す結合ドロップアウト法を適用することもできる。これは従来、隠れ層と入力層に存在するニューロンの一部のみが各トレーニング・サイクルで使用され、残りは使用されない(「ドロップアウト」)ニューラル・ネットワークのトレーニング手順である。この目的のために、従来技術は通常、ネットワークのフィードバック・エラーに基づいてドロップアウト率を設定し、ネットワーク全体のどの程度の割合がオフにされたニューロンで構成されているかを決定する。同様に、ニューロンの代わりに、ニューロン間のエッジ又は接続の一部をオフにすることもできる。
このようなニューロン及び/又はエッジの部分的な切断は、例示的な実施形態では、第2のニューラル・ネットワークでも使用できるようになり、これにより、ドロップアウト・パラメータは、ネットワーク自体のエラー・フィードバックに基づいて使用されるのではなく、第1のニューラル・ネットワークの出力値に依存する時間依存変調の場合のように使用される。これにより、例えば、第2のニューラル・ネットワークのドロップアウト率は、第2のネットワークに適用される第1のニューラル・ネットワーク310の出力値Output1に基づいて決定することができる。この図は、図1と同様に二つの結合されたネットワーク310、320を再び示しており、それにより、ここでは第2のネットワーク320のニューロン又はノード326、328が円として概略的に示されている。接続エッジは示されておらず、示されているニューロンの配置は、実際のトポロジとの説得力のある関係を持つことを意図していない。ドロップアウト率により、既存のニューロンの一部が非活性化され、使用されなくなる。第2のネットワークのアクティブなニューロン326は、図では斜線で示されているが、白抜きのニューロンは、非アクティブなドロップアウト・ニューロン328を表すことを意図している。
一般的に、ここで説明する結合ドロップアウトは、重みの変調関数として0又は1を使用することにより、変調関数fmodとして理解することも、又は例えば個々のノードの出力関数として理解することもできる。この場合、第1のネットワークの出力値に基づいて、ニューロン326、328のどちらがオフにされているかを決定することが可能であり、又は率のみを指定して、どのニューロンがオフになるかを確率関数を介して決定できる。再び、ドロップアウト率は、第1のネットワーク310の出力値Output1に基づいて決定され得る。任意選択で、ドロップアウト変調関数は時間依存のシャットダウンを引き起こすこともできる。これは、例えば、図2に示すように、ドロップアウト関数と変調関数の連結に対応する。同様に、例えば、第2のニューラル・ネットワーク320におけるカットオフのために循環パターン変化が使用されるように、以前のトレーニングで証明されたパターン・カットオフのシーケンスも使用され得る。
一般に、ドロップアウトにより、ニューラル・ネットワークの動作速度が確実に向上し得る。また、それは隣接するニューロンの動作が類似しすぎるのを防ぐ。上述の結合ドロップアウトは、二つのネットワークが結合されているジョイント・トレーニング段階と、既にトレーニング済みのネットワークの両方で使用できる。
結合されたニューラル・ネットワークが意味のある方法で互いに確実に補完し合うようにするために、任意の時点でどのニューラル・ネットワークが全体のシステムに優位であるかを決定できる。出力値が全体のシステムの出力を決定するネットワークは、優位的なネットワーク又は優位性として説明できる。以下では、二つ以上の結合されたネットワークのグループ内の一つのネットワークのみが優位的であり、優位的なネットワークの出力が全体のシステムの出力に等しいと仮定する。しかし、他の実施形態も原則として考えられるため、例えば、二つ以上の優位的なネットの場合に、優位的なネットの出力値を最終的な総出力値に処理することを記述するルールが指定される。
例示的な実施形態では、この目的のためにタイマ又はタイミング要素を実装することができ、それは結合されたニューラル・ネットワークのうちの一つ又は複数に対して時間制限を設定する。この時間仕様は、出力をより早く利用できるようにするために、それぞれのネットワークの出力値を利用可能にしなければならない最大値又は一時的な上限として理解されるべきであることが好ましい。遅くとも特定のネットワークに指定された時間が経過した後、このネットワークの出力値が評価される。したがって、タイマは、固定された時間仕様に基づいて、結合されたネット間の優位性を制御及び/又は変更することができる。
このタイプの例示的な実施形態が図4に示されている。二つのニューラル・ネットワーク410、420の設計及び結合は、図1で既に説明した例に対応することができる。タイマ440はここで、第1のニューラル・ネットワーク410の出力が、遅くとも所定の時間パラメータ値によって定義される所定の時間後に評価されることを保証する。所要時間は、例えば、入力値Xがそれぞれのネットワークに供給される時間から測定することができる。ネットワークの事前定義された時間パラメータの選択は、特にネットワークの複雑さに応じて実行できるため、事前定義された時間内に実際に使用可能な結果が期待できる。第1のニューラル・ネットワーク410が少数の隠れ層と少数の分類のみを有するネットワークによって形成されることが好ましい前述のような例では、したがって、対応する短い時間もこの第1のネットワークに対して選択することができる。同様に、既存のハードウェアなどのネットワークの時間パラメータを選択する際には、ネットワークの計算時間、及び/又は結合されたネットワークによって考慮される用途の領域に決定的な影響を与える、更なる考慮事項を考慮することができる。更に、所定の時間パラメータは可変であってもよく、例えば、結合されたニューラル・ネットワークの少なくとも一つからの結果に応じて変更又は再定義されてもよい。そのような時間仕様は、それぞれのネットワーク410、420の単一の横断のための最小時間として必要とされる時間間隔を少なくとも含むべきであることが理解される。図4では、第1のネットワークの例として30msの時間間隔が指定されているため、プロセスの実行中、このネットワークはプロセスの開始から0msから30msまでの時間で優位的になる。しかし、もちろん、この時間間隔に適切な他の値を選択することもできる。
第1のネットワーク410の時間パラメータによって指定された期間(ここでは30ms)の間、第1のニューラル・ネットワークは入力値Xを通常の方法で処理する。所定の時間が経過した後、第1のニューラル・ネットワーク410の出力Output1から関数を生成することができ、それは第2のニューラル・ネットワーク自身の重み及び関数を重畳又は変調するために使用される。更に、第1のニューラル・ネットワークの出力値は、第2のネットワーク420に影響を与えるために使用され、例えば、全体のシステムの高速出力として使用される代替として、それに加えて、独立して処理されてもよい。
変調関数fmod_f、fmod_wが第2のニューラル・ネットワーク420に適用されると、タイマ440は、新たなタイミング測定を開始し、ここで第2のニューラル・ネットワーク420に対して所定の第2のタイミング・パラメータを適用することができる。
この場合、第2のニューラル・ネットワーク420は、任意選択で、得られた変調関数fmod_f、f_modwによる変調の前に、入力値Xを既に独立して処理することもでき、その結果、例えば、入力値は、第2の所定の期間の開始前に第2のニューラル・ネットワーク420にも渡され、したがって、そこで処理され得る。第1の期間が経過した後、対応する変調関数fmod_f、f_modwを適用することによって、第2のニューラル・ネットワークのパラメータ値と関数が重ね合わされる。第2のニューラル・ネットワーク420の異なる部分、例えば第2のニューラル・ネットワークの重み、出力関数、伝播関数及び/又は活性化関数について、一つ又は複数の変調関数を形成することができる。第1のニューラル・ネットワーク410よりも著しく複雑になるように設計された第2のニューラル・ネットワーク420の場合、例えば、より多くの層及びノードを有することによって、及び/又はより多くのメモリ・クラスを有することによって、第2のニューラル・ネットワークは、比較的高い計算量を必要とするため、より多くの時間も必要とするので、この場合、第2の期間を相応に長く選択することができる。
任意選択で、ネットワーク410、420のそれぞれは、現在の時間間隔により別のネットワークが全体のシステムで優位的なネットワークであると決定されている間でも、入力値を継続的に処理及び評価し続けることができる。特に、示されている二つの結合されたネットの例では、第1のネットは、第2のネットと全体のシステムの出力値に優位性がある場合でも、入力値を継続的に評価でき、したがって、第2の期間が経過し、第2のネットによって解が見つかった後の第2のネットの出力値に対応する。このようにして、ここで説明する第1のネットワーク410などの高速分類ネットワークは、全体を通して利用可能な入力値を評価し、発見された出力値が全体の出力への道を見つける限り、短期間の介入を実行することもできる。そのような実施形態は、以下でより詳細に説明される。
タイマの事前定義された期間によるこのような時間制御の結果として、全体のシステムが早い段階で決定を下すことができ、例えば、第2のニューラル・ネットワークによる最終的な評価と詳細な分析を完了しなくても、既に機能することができる。例として、少なくとも二つの結合されたネットワークを持つそのようなシステムによって評価される自動運転システムの状況を考える。第1のユニット又は第1のニューラル・ネットワークを介して、早期の分類「危険」を達成することができるが、それには、危険のタイプの更なる評価はまだ含まれていないが、車両の速度を落としたり、ブレーキシステムやセンサシステムを作動させたりするなど、即座の反応に既に導き得る。同時に、分類に基づいて、つまり、第1のネットワークの出力値による変調の影響下で、第2のニューラル・ネットワークは、状況のより詳細な分析を実行する。これにより、第2のネットワークの出力値に基づいて、全体のシステムの更なる反応又は変化が生じ得る。
結合されたネットワークのそれぞれに時間制限を指定するのではなく、ネットワークの一つにのみ(又は、二つ以上のネットワークが結合されている場合は、結合されたネットワークのサブセットのみにも)制限時間を指定することも考えられる。例えば、上記の例では、第1の高速分類ニューラル・ネットワークにタイマを使用でき、一方、第2のネットワークには固定の時間制限を与えない、又はその逆にすることができる。そのような実施形態はまた、現在優位的なネットワークを決定するための更なる方法と組み合わせることができ、これについては以下でより詳細に説明する。
タイマが挿入されたすべての実施形態において、現在アクティブなタイマを有するニューラル・ネットワークの出力値が、全体のシステムの出力として使用されるようにすることができる。ネットワークが特定の入力値の第1の解に到達するまでに必要な時間があるため、(第1又は第2のネットワークの)以前の出力値が総出力値として引き続き利用できる特定の待ち時間がある。
タイマ又はタイミングが結合されたネットの一部に対してのみ定義されている場合、例えば、タイマは第1のネットに対してのみアクティブである場合、例えば、次のように定義できる。全体のシステムの出力は、通常、常に第2のネットの出力に対応し、タイマが第1のネットに対してアクティブな場合、つまり、事前定義された期間がアクティブに実行されていて、まだ期限切れになっていない場合にのみ、第1のネットの出力に置き換えられる。
二つ以上のネットを持つシステムでは、相互のネットの適切な同期は、特に異なるタスクを持つ複数のネットが同時に結果に到達し、次にそれが一つ又は複数の他のネットに影響を与える場合は、事前定義された時間間隔を整合し、タイマを変更することによっても可能になる。同様に、指定された期間とプロセスを適応させることにより、それぞれが複数の結合されたネットワークで構成される複数の個別の全体のシステム間で同期を実現することもできる。例えば、システムは時間的整合によって同期され、次いで、それぞれのタイマ仕様に従って独立して、しかし同期的に実行される。
タイマに基づいて全体のシステムのそれぞれの優位的なニューラル・ネットワークを変更することに加えて、又はその代わりに、ニューラル・ネットワーク自体のそれぞれが、協調して優位性の移行に関する決定を下すこともできる。これは、例えば、全体のシステムの第1のニューラル・ネットワークが入力値を処理し、特定の第1の解又は特定の出力値に到達することを意味し得る。例えばトレーニング段階でトレーニングされた分類に従って入力値を特定のクラスに分類することを達成し、この分類を達成すると、全体のシステムの第2のニューラル・ネットワークに優位性を移す。
タイマを使用して重心を変更する場合と同様に、全体のネットワークの出力値がそれぞれの場合に現在優位的なネットワークの出力値に対応することをここで指定できる。
この目的のために、例えば、入力値の変化を評価することができる。入力値が本質的に不変である限り、結合されたネットワーク間の優位性分布も本質的に不変であり、及び/又はタイマのみに基づいて決定される。しかし、入力値が突然変化する場合、結合されたネットの他の優位性動作を上書きする所定の優位性が設定され得る。例えば、入力値が突然変化した場合、どのような場合でも優位性は最初に第1のニューラル・ネットワークに戻ると決定できる。これにより、この第1のニューラル・ネットワークの任意選択で利用可能なタイマも再起動され、プロセスは前述のように実行される。例えば、センサ値が新しい環境を検出した場合、又は以前に評価されたプロセスが完了し、新しいプロセスがトリガーされる場合など、入力値の大幅な変更が発生し得る。
閾値は、有意性閾値の形式で指定できる。これを使用して、入力値の変化が重要であると見なされ、優位性の変化につながるかどうかを決定できる。個々の有意性閾値は、異なる入力値又は各入力値に対して指定することもできる。又は、入力値の変化を評価するための基準として、例えばパーセンテージ偏差の形で一般的な値を提供することもできる。同様に、固定された有意性閾値の代わりに、時間内又は状況に応じて適応的に変更できる閾値が存在し得、又はそれらは変更の有意性を評価できることに基づく関数、行列、又はパターンにすることもできる。
代替的又は追加的に、結合されたネットワーク間の優位性の変化は、各ネットワークについて見出された出力値に依存して行うことができる。実施形態に応じて、例えば、第1のニューラル・ネットワークは、入力値及び/又はそれらの変化を評価することができる。この場合、分類用の第1のニューラル・ネットワークで使用できるクラスのそれぞれの場合に、有意性閾値を事前定義でき、そのため、第1のニューラル・ネットワークの結果が、入力データに対して見つかったクラスに大きな変化をもたらす場合、第1のニューラル・ネットワークへの優位性の移行が直ちに行われるため、状況の迅速な再評価と、必要に応じて、反応が発生し得る。このようにして、第1の迅速に分類するネットワークによって認識された大幅に変更された入力状況にもかかわらず、第2のニューラル・ネットワークが変更を考慮せずに不必要に長い時間にわたって詳細な分析を続けることも防止できる。
上記のすべての例では、全体のシステムの出力値は、例えば、アクチュエータの直接的又は間接的な制御信号として、将来の使用のために保存されるデータとして、又は出力ユニットに渡される信号として、更に任意の方法で使用できる。いずれの場合も、出力値は最初に追加の関数や評価によって更に処理し及び/又は追加のデータや値と組み合わせたりすることができる。
図5は、二つの一方向に結合されたネットワーク510、520を有する図1と同様の単純な実装例を再び示し、それにより、分類メモリ512、522がネットワークのそれぞれに対して概略的に示されている。使用される分類のタイプKiは、最初はここでは二次的な重要性であり、以下でより詳細に説明される。特に、第1のネットワーク512と第2のネットワーク522の二つの分類メモリの次元と構造は大きく異なり得るため、速度と焦点が異なる二つのニューラル・ネットワークが形成される。したがって、例えば、既に簡単に説明したように、高速で大まかに分類するネットワークと、低速ではあるがより詳細な分析ネットワークの相互作用を実現して、結合された全体のシステムを形成できる。
この例では、第1のニューラル・ネットワーク510は、比較的少数の分類K1、K2、・・・・、Knで形成され、例えば、分類が一次元でのみ行われるように、フラットな階層に従うこともできる。そのような第1のネットワーク510はまた、そのトポロジが比較的単純である、すなわちニューロン及び隠れ層の数nが多すぎないものであり得ることが好ましい。しかし、原則として、ネットワーク・トポロジは分類とは本質的に独立している場合もある。
次に、第2のニューラル・ネットワーク520は、かなり大きく及び/又はより複雑な分類システムを有することができる。例えば、このメモリ522又は基礎となる分類は、図5に示すように、いくつかのレベル524で階層的に構造化することもできる。第2のネットワーク520のクラスK1、K2、・・・・、Kmの総数mは、非常に大きくすることができ、特に、第1のニューラル・ネットワーク510によって使用されるクラスの数nよりも大幅に大きくすることができる。例えば、クラスの数m、nは、1桁以上異なり得る。これにより、全体のシステムで個々のネットワークが非対称に分散される。
次いで、第1のニューラル・ネットワーク510による高速分類を使用して、入力値を迅速に分類することができる。この目的には、抽象化された要約クラスを使用できることが好ましい。検出された状況の分類(例えば、画像やオーディオ・データなどのセンサ・データに基づく)は、次に、一例では、これについての更なる評価を実行することなく、「大きく、おそらく危険な動物」として第1のニューラル・ネットワーク510によって最初に実行することができる。これは、更に、例えば、動物の種(オオカミ、犬)による分類、又は危険な捕食者としての分類は、第1のネットワークでは実行されず、その代わりに、分類は、サイズ、歯の検出、攻撃姿勢、その他の特徴など、可能な限り幅広い一般的な特徴に従ってのみ実行されることを意味する。出力「危険」に本質的に対応するこのデータは、任意選択で、予備的且つ迅速な反応のために適切な外部システム、例えばユーザへの警告システム、又は自動化システムの特定のアクチュエータに既に渡される。更に、第1のニューラル・ネットワーク510の出力Output1は、説明したように、第2のニューラル・ネットワーク520のための変調関数を生成するために使用される。
同じ入力値X、例えば前述のセンサ値も、第2のニューラル・ネットワーク520に与えられる。この場合、入力値はすぐに、つまり第1のネットワークに対して本質的に同時に、又は遅延して入力することができ、それにより、実施形態に応じて、それらは、変調関数が適用される前、又は適用されるとき、すなわち、第1のネットワークの結果が利用可能であるときにのみ、既に入力されている。遅延を避けるために、特に時間が重要なプロセスの場合は、それらは後で第2のニューラル・ネットワークに与えたり、渡したりすべきではないことが好ましい。次に、第2のニューラル・ネットワークも解を計算し、これにより、この第2のネットワークからの元の自己生成重みとその基底関数(指定された活性化関数や出力関数など)は、それぞれ、第1のネットワークの出力値から形成された変調関数に基づいて重畳されることができる。これにより、第2のネットの繰り返し作業で、第1のネットによって迅速に検出された重大な状況(例えば、危険な状況)の場合に時間がない可能性のある多数の変形を省略することができる。第2のニューラル・ネットワークの分析が遅くなるが、説明したように、可能な反応は第1のニューラル・ネットワークに基づいて既に実行できる。これは、生物学的システムにおける最初の本能的な反応に対応している。階層的で、第1のネットワークと比較して、第2のネットワークのメモリが大幅に大きいことは、次に、入力値の正確な分析を可能にする。例では、クラス「犬」への詳細な分類、それぞれの品種、危険又は無害な状況などを示す動作特性などを示す。必要に応じて、第2のニューラル・ネットワークが結果に達した後、全体のシステムの以前の反応を上書きすることができる。例えば、第1の分類「危険」を再び格下げすることによる。
全体として、非対称分類を使用したこのような結合された全体のシステムの場合、例えば、迅速に分類する第1のネットワーク510のクラスKnは、主に、深入りせずに、新しい/既知の状況、危険/危険のないイベント、興味深い/興味のない特徴、必要な/不要な決定などの抽象的な分類を実行することが想定され得る。この第1の分類は、必ずしも第2のユニット520によって最終的に発見される最終結果に対応する必要はない。しかし、少なくとも一つの高速及び一つの深い分析ユニットによる二段階の分類により、人工学習の全体のシステムの感覚的又は本能的な反応が可能になる。例えば、ヘビであり得るオブジェクトが画像認識によって識別された場合、「最悪の場合」は、この分類がおそらく正しいかどうかに関係なく、第1の分類の結果であり得ることが好ましい。人間の知能の場合、進化的知識と本能的反応として存在するものは、事前にプログラムされた知識による高速な第1の分類に置き換えることができるため、対応する標準的な反応(距離を保つ、動きを開始する、注意力を高める)も、全体のシステムとそのアクチュエータによって実行できる。この第1の分類に基づく第2の学習ユニットの追加の変調は次いで、感情に関連する重畳と同様に理解することができ、すなわち、例えば、無害であると理解されている状況とは異なる意識的な状況分析を自動的に開始する恐怖反応に対応する。したがって、変調関数によって実行される第2のニューラル・ネットワークのパラメータの重畳により、他の方法ではデフォルトで、又はすぐには到達しない他の分類空間への必要なシフトが発生し得る。
したがって、そのようなシステムは、例えば重大な意思決定状況が発生するすべての用途など、さまざまな用途分野に使用することができる。例としては、駆動システム、さまざまなタイプの危険に対する救助又は警告システム、手術システム、及び一般的に複雑で非線形のタスクがある。
これまでに説明した実施形態では、二つの人工学習ユニットのみが一緒に結合された。しかし、この考え方は原則として二つ以上のユニットにも適用できるため、例えば、三つ以上の人工学習ユニットを対応する方法で結合することができ、それにより、どのユニットが特定の他のユニット又はいくつかの他のユニットのパラメータを変調できるかを決定することができる。
図6は、三つのニューラル・ネットワーク610、620、630(及び/又は他の人工学習ユニット)を提供できる例を示し、これにより第1のネットワーク610の出力値は、第2のネットワーク620の重み及び/又は関数の変調関数を生成し、これにより、次に、第2のネットワークの出力値は、第3のネットワーク630の重み及び/又は関数の変調関数を生成する。このようにして、任意の長さの人工学習ユニットのチェーンを形成することができ、それらは重ね合わせによって結合された方法で互いに影響を及ぼす。
二つのニューラル・ネットワークを有する前の例と同様に、一実施形態では、すべての結合されたネットワークが同じ入力値を受信することができ、処理はそれぞれのネットワークの変調によってのみ結合することができる。しかし、例えば、図1のような二つのニューラル・ネットワークに続いて、第1及び/又は第2のネットワークの出力値を入力値として受信する第3のニューラル・ネットワークが設けられる実施形態も考えられる。任意選択で、この第3のニューラル・ネットワークの関数及び/又は重みは、例えば第1のネットワークの出力値から形成される変調関数によって変調することもできる。これらは、第2のネットワーク用に形成された変調関数と同じ又は異なる変調関数であり得る。あるいは、例えば、第3のネットワークの出力値を使用して追加の変調関数を形成することができ、それらは次に第1及び/又は第2のネットワークに再帰的に適用される。
対応して結合された学習ユニットのさまざまな更なる組み合わせが可能であることが理解され、接続されたユニットのうちの少なくとも二つが、特にネットワークの重み及び/又は関数のニューラル・ネットワークの場合に、ユニットの記述パラメータの変調関数を形成することによって結合する。結合されたユニットの数が増えるにつれて、変調と結合のより複雑な変化も考えられる。
最初に既に述べたように、ここで説明した実施形態は、ニューラル・ネットワークに関する例として説明されたが、原則として、機械学習の他の形式に転用することもできる。出力値に基づく重畳又は変調によって、第1の人工学習ユニットによって少なくとも第2の人工学習ユニットに影響を与えることが可能なすべての変形が考慮される。前の例からの変調関数による重ね合わせによるニューラル・ネットワークの重みと関数の変更は、そのような学習ユニットの動作を制御又は記述する任意の適切なパラメータの対応する変調に置き換えることができる。それぞれの例で、「学習ユニット」という用語は、ニューラル・ネットワークの特殊な場合に置き換えることができ、逆に、例示的な実施形態の記載されたニューラル・ネットワークは、それぞれの例で明示的に述べられていなくても、それぞれ人工学習ユニットの形で一般化された形で実装することもできる。
ニューラル・ネットワークに加えて、知られている例には、進化的アルゴリズム、サポートベクターマシン(SVM)、決定木、及びランダムフォレストや遺伝的アルゴリズムなどの特殊な形式が含まれる。
同様に、ニューラル・ネットワークと他の人工学習ユニットを互いに組み合わせることができる。特に、例えば、高速分類ユニットとして示された前の例の第1のニューラル・ネットワークを、他の人工学習ユニットに置き換えることが可能である。また、高速の大まかな特徴の分類に特に適した方法を選択して選ぶこともできる。このような第1の学習ユニットの出力値は、二つのニューラル・ネットワークについて説明したように、特に再びニューラル・ネットワークであり得る第2の人工学習ユニットのための変調関数を形成するために使用することもできる。
前述のように、いくつかの結合された人工学習ユニットを含むシステムは、「人工学習システム」を形成する。
記載された変形に加えて、又は代替として、二つ以上の結合された人工学習ユニットからなる、又はそれらを含む人工学習システムは、人工学習システムの結果の評価又は検証を実行し、この評価に従って人工学習システムによる結果の取得に影響を与えるインスタンスを追加することにより、更に改善することができる。本発明によれば、この目的のために別の人工学習システムが使用される。以下に、二つの人工学習システムを含む全体のシステムの構造と機能について説明する。
他の人工学習ユニットの結果又はそれらの結果を評価/検証するこのような人工学習ユニットは、評価ユニットと呼ばれる。対照的に、入力値を処理又は分析し、評価ユニットによって確認される対応する結果に到達する人工学習ユニットは、作業ユニットと呼ばれる。関数、すなわち、特にニューラル・ネットワークである人工学習ユニットの出力値への入力値のマッピングは、上述の関数及び/又は重みなどのパラメータによって決定される。
全体のシステムの基本構造と機能
図7は、作業レベル710及び評価レベル730を含む全体のシステム(又は処理及び評価システム)の基本構造を示し、作業レベル710及び評価レベル730は両方とも人工学習システムであり、すなわち、結合された人工学習ユニットを含み、上記のように構築又は機能する。更に、全体のシステムは、投影レベル750及び全体のシーケンス・メモリ760を備える。
全体のシステムが入力データ又は入力値Xを処理する。入力データ又は入力値Xは、例えば時系列のセンサ・データ又は前処理によって得られたデータであり、これにより、全体のシステムの出力全体を形成する出力データ又は出力値(output)が得られる。
作業レベル710は、第1及び第2の入力値X(t1)及びX(t2)の形で入力される入力値Xを処理又は分析するように設定され、例えば時間t1、t2における連続センサ・データである。一方では、第1の出力値(output11)は、第1の分類、すなわち作業レベルに従って、第1の入力値X(t1)から決定され、これは人工学習システムであり、第1の入力値の対応する分類を実行するようにトレーニングされている。他方、第2の出力値(output12)は、第2の分類に従って第2の入力値X(t2)から決定される。すなわち、作業レベルはしたがってトレーニングされる。
第1の出力値の決定は、第2の出力値を決定するのに必要な時間に対して短い期間で行われることが好ましい。したがって、第1の分類は、第2の分類に比べて少数のクラスを含む。したがって、第1の出力値は入力値の粗い分析に基づいており、一方、第2の出力値は入力値の細かい分析に基づいている。
投影レベル750では、第1及び/又は第2の出力値に基づいて、第1の状況データY(t3)及び第2の状況データY(t4)が形成される。これにより、第1の状況データは少なくとも部分的に第1の出力値に基づき、第2の状況データは少なくとも部分的に第2の出力値に基づく。例えば、最も単純な場合では、状況データはそれぞれの出力値そのものであり得る。更に、状況データは、他の値に基づいて少なくとも部分的に形成することもできる。しかし、第1の状況データは第1の出力値に基づいて形成され、第2の状況データは第2の出力値に基づいて形成されることが好ましい。更に、選択肢のメモリ要素を投影レベルに投影メモリとして割り当てることができ(図7には示さず、図8を参照)、投影レベルで発生するデータを保存することができる。
投影レベル750は、ソフトウェア及び/又はハードウェアユニットとして、又はいくつかのそのようなユニットの組み合わせとして設計することができる。特に、投影レベルは、人工学習ユニットとそのメモリ要素を含むこともできるいくつかのユニットの複合体を形成できる。投影レベル750は、それによって、少なくとも作業レベルの出力が処理されリンクされる中央ユニット、例えばマルチプレクサ・ユニット、データからシーケンスを生成するユニット、肯定的又は否定的な評価の後、保存されたデータ又はシーケンスに識別子又はラベルを刻印するユニットを形成することができ、例えば、新しいデータと保存されたデータを比較する際の決定を省略できる。これらの機能は、プログラム・モジュールによって全体又は一部を実行することもできる。投影層はまた、画面や音響ユニットなどの入力及び/又は出力ユニットを含むことができ、これにより、ユーザ又は例えば、システムのトレーニング段階をサポートするユーザと通信し、例えば、現在の処理状態を評価することが可能になる。
投影レベル750で形成された第1/第2の状況データは、評価レベル730の入力を形成する。作業レベル730は、第1の状況データが所定の第1の条件を満たしているかどうか、又はどの程度満たしているか、又は第2の状況データが所定の第2の条件を満たしているかどうか、又はどの程度満たしているかを示す第1の評価(output21)及び第2の評価(output22)を出力として決定するように構成される。したがって、人工学習システムとしての評価レベルは、第1/第2の状況データが所定の第1/第2の条件を満たしているかどうか、又はどの程度満たしているかを示す第1/第2の評価と呼ばれる出力値を決定するようにトレーニングされる。評価は独立して、単純なyes/no評価(例えば、評価は値0又は1のみを取ることができる)又は条件が満たされる程度を示す段階的な評価(例えば、評価は0から1までのすべての値を取ることができる)にすることができる。したがって、本出願の文脈において「条件が満たされているかどうか」又は同様の語句は、常に明示的に言及されているわけではないが、また、条件がある程度満たされている場合も含むことを意図しており、したがって、「条件が満たされているかどうか、又はどの程度満たされているか」などの意味で理解されるべきである。システムはここで、特に作業レベルによる入力値の処理に影響を与えるために、評価に基づいて作業ユニットの出力値を拒否又は異なる形に変更するように設定できる。
第1の評価の決定は、第2の評価の決定に要する期間に対して短い期間で実行されることが好ましい。したがって、比較的少数の第1の条件(特に1000未満、100未満が好ましい)及び比較的多くの第2の条件が与えられる。したがって、第1の評価は、大まかな条件が満たされているかどうか、又はどの程度満たされているかを示し、一方、第2の評価は、第1の条件に対して細かい第2の条件が満たされているかどうか又はどの程度満たされているかを示す。
第1及び第2の評価(output21、output22)は、第1及び第2の入力値X(t1)、X(t2)の処理に影響を与える。特に、第1の評価は、第1の入力値からの第1の出力値の決定に影響を与え、第2の評価は、第2の入力値からの第2の出力値の決定に影響を与える。
総又は全体の出力は、いずれにしても、作業レベル710の第1及び/又は第2の出力値に基づいている。第1の出力値又は第2の出力値が特定の時間における総出力とみなされるかどうかは、作業レベルによって決定されることが好ましいが、作業レベルのコンポーネントと見なすことができるタイマによって制御することもできる。ここで、第1の出力値と第2の出力値の組み合わせを総出力として使用することも考えられる。したがって、評価レベル730による作業レベル710の影響は、総出力に対して間接的な影響のみを有する。この意味で、第1と第2の条件は絶対的な制限を表すものではない。
したがって、入力値を処理するとき、第1/第2の出力値(output11、output12)は、第1/第2の入力値X(t1)、X(t2)から、第1/第2の出力値からの投影レベル750によって第1/第2の状況データY(t3)、Y(t4)から、第1/第2の状況データ、第1/第2の評価(Output21、Output22)からの作業レベル710によって決定され、それは次に、作業レベルに影響を与える。総又は全体の出力は、第1/第2の出力値から決定される。
このプロセスは、いくつかの反復又は繰り返しで繰り返され、評価レベルの評価によって影響を受ける作業レベルは、全体の出力又は第1/第2の条件に従う第1及び/又は第2の出力値を決定しようとする。一般に、すべての条件を満たすような全体の出力(又は第1及び/又は第2の出力値)を見つけることができない入力値Xが発生し得る。この場合、総出力(又は第1及び/又は第2の出力値)が繰り返しごとに、又は特定の期間にわたって大幅に変化しない、つまり指定された許容範囲内でのみ変化すると決定された場合、繰り返しのプロセスを中止することができる。システムの最後の総出力は、次いで、最終的な総出力として使用される。最終的な総出力は、いわば、評価レベルの影響又は助言の下で、作業レベルが見つけることができる、可能な最良の総出力を形成する。ターミネーションは、タイマによって時間制御することもできる(リアルタイム・システムなど)。この場合、最後の総出力も使用される。
各繰り返し/反復は、対応するデータを生成する。これには、第1及び第2の入力値、第1及び第2の出力値、第1及び第2の状況データ、第1及び第2の評価、及び総出力が含まれ得る。特に、これらの要素の一部又は好ましくはすべてが、総又は全体のセットと呼ばれるデータ・セットを形成することが想定される。
全体として、総又は全体の記録のシーケンス、又は総又は全体のシーケンスは、繰り返しのシーケンスに従って生成される。総セット又は総セットのシーケンスは、総シーケンス・メモリ760に保存することができる。これは、総シーケンス・メモリを三つのレベルに接続する破線で示される。保存中、総記録は、タイムスタンプが付けられ、及び/又は番号が付けられ、及び/又はそれらの順序又はシーケンスに従って構成されることが好ましい。入力値が大幅に、すなわち所定の許容範囲を超えて変化するたびに、総記録の新しいシーケンスの保存を開始することを意図していることが好ましい。完全なセットの保存されたシーケンスは、特に、全体のシステムによる入力値の処理を追跡するために使用できる。
条件の説明と各条件の全体のシステムへの影響
(第1/第2の)条件は、例えば、状況データが特定の値の範囲内にあるかどうかを確認する単純な条件にすることができる。しかし、(第1/第2の)条件は、例えば規範的ルールR1からRnの形で、より複雑になることもある。
(第1/第2の)条件は、技術的な条件であり得る。例えば、モーターの速度(振動センサのデータと出力に基づいて作業レベルなどによって分析される)が許容速度範囲内にあるかどうかを機械で確認することができる。更なるルールは、このような速度確認を動作状態に依存させることである(これは、センサ・データを使用して作業レベルによっても記録される)。
更に、ルールは、「人を殺してはならない」(R1)又は、「人を自由において制限してはならない」(R2)又は、「嘘をついてはならない」(R3)など、非技術的な性質のものにすることもできる。ルールの履行又はルール違反は、通常のパラメータ化の一つを介して操作できる。例えば、0=ルール違反なし、1=ルール違反又は段階的に細かくなる。これらのルールは、第1の条件として実装できる。ルールの履行又はルール違反のパラメータ化は、次に、第1の評価に対応する。次に、第2の条件は、ルールR1からRnをルール分類K1からKnにより細分化することを表すことができる。これらは、ルールに対する例外、追加、又は変更である。これらは、これらのルールに対する例外、追加、及び代替である。これらのルール分類は、最初に、R1の例外がルール分類K1に、R2の例外がK2に与えられる、というように構造化されている。ルール分類で名前が付けられている状況では、対応するルールRxが破られている可能性がある。ルールR3のルール分類K1yの例としては、「真実を話したときに人が重大な被害を受ける場合、嘘は許される」とすることができる。ルールは原則として引き続き適用されるが、ルール分類が適用される必要がない限り、一見してとしてのみ適用される。したがって、第2の条件(ルール分類K1からKn)は、第1の条件(ルールR1からRn)のより細かい精緻化を表す。
第1及び第2の条件を保存するメモリを設けることができる。メモリ又はルールR1からRn及びルール分類の構造化は、特に図5に示されるものに対応することができ、それにより、比較的粗いルールR1からRnはメモリ512に保存され、比較的細かいルール分類K1からKn及びそれらのレベル524への細分化はメモリ522に保存され、それにより、mはnに等しいことが好ましい。
ルール及び/又はルール分類、すなわち第1及び特に第2の条件はブロックチェーンに保存され、ルールはいわゆるスマート・コントラクトの形で実装されることが好ましい。スマート・コントラクトは、ルール又はルール分類をマッピングし、そのコンプライアンスを確認するコンピューター・プロトコルと見なすことができる。
ルール分類が使用される場合、この条件は文書化され、状況に応じて別のメモリ(特に全体のシーケンス・メモリ760)に保存される。これにより、この文書化が変更できないことを保証するために、このことがブロックチェーンで行われることが好ましい。このようにして、全体のシーケンス又は全体の評価シーケンスが保存される。ルールR3の原則の有効性は、ルール分類によって疑問視されない。作業レベル又は全体のシステムの作業モードでは、一連の動作の場合、作業レベルと評価レベルとの間で調整と評価の繰り返しチェーンが発生するため、状況に関連した調整と解のシーケンスがブロックチェーンに保存される。ここでは、評価レベルがルールとの競合を作業レベルに指摘し、それらの修正を提案するが、将来の動作を決定するものではない。動作の決定、つまりシステムの全体の出力は、外部の状況と解戦略に直接関係するため、作業レベルのみを介して行われるが、評価レベルは、投影レベルを介して既に要約された情報で間接的にのみ提供されることが好ましい。
この基本原則の拡張例として、評価レベルには、ルールR1...nに違反するリスクがある競合状況での検索の全体のシーケンス(ブロックチェーンの決定パスが好ましい)と、以前に実行された解の確認も含まれる。したがって、自己学習システムに関しては、実行された動作の成功又は失敗が、エラーを再びコミットしないようにするために、全体のシーケンスの各文書(ブロックチェーン文書が好ましい)にも記録されることが不可欠である。
原則を更に拡張すると、ルールR1と競合する場合、例えば、ルール分類K1とそのサブ分類でリンク又はカップリング、変更などを検索することができるだけでなく、他のルール分類が実際にはルールR1に属していない場合でも、状況を解決するための以前に未知の組み合わせがあるかどうかを確認するために、すべての優先分類で検索することができる。
原則を更に拡張すると、新しい成功したルール分類を挿入し、必要に応じて、現在ではなくなった、又は好ましくないことが証明された既存のルール分類を削除することにより、成功又は失敗のイベントでルール分類メモリに変更を加えることができる。これにより、一連の厳格なルールを備えた自己学習型の評価システム(全体のシステム)と、同時に柔軟な分類システムが実現する。これらの変形は、特に「ハードAIシステム」の実装を可能にする。
全体のシステムの具体的な設計例
図8は、全体のシステムの例示的な実施形態を示す図であり、ここで、作業レベルは、第1の人工学習作業ユニット810とそれに結合された第2の人工学習作業ユニット820によって形成され、評価レベルは、第1の人工学習評価ユニット830とそれに結合された第2の人工学習評価ユニット840によって形成される。人工学習作業及び評価ユニットはそれぞれ、その関数がパラメータ、特に関数(伝達関数ftrans、活性化関数fakt、伝播関数、及び出力関数foutなど)及び重み/重み付けによって決定されるニューラル・ネットワークにすることができる。
第1の作業ユニット810は、第1の入力値X(t1)から第1の出力値(output11)を決定するように設定される。すなわち、作業ユニットは、それに応じて人工学習ユニットとしてトレーニングされる。第1の作業ユニットの関数は、パラメータ、特に関数foutA1(伝搬関数と出力関数)、faktA1(活性化関数)、ftransA1(伝達関数)、及び重みwiA1によってそれぞれ決定される。第2の作業ユニット820は、第2の入力値X(t2)から第2の出力値(output12)を決定するように設定される、すなわち、それに応じてトレーニングされる。第2の作業ユニットの関数は、パラメータ、特に関数foutA2、faktA2、ftransA2又は重みwiA2によって決定される。第1の評価ユニット830は、第1の状況データY(t3)から第1の評価(output21)を決定するように設定される。第1の評価ユニットの関数は、パラメータ、特に関数foutB1、faktB1、ftransB1又は重みwiB1によって決定される。第2の評価ユニット840は、第2の状況データY(t4)から第2の評価(output22)を決定するように設定される。第2の評価ユニットの関数は、パラメータ、特に関数foutB2、faktB2、ftransB2又は重みwiB2によって決定される。
二つの作業ユニット810、820の間、又は二つの評価ユニット830、840の間の結合は、図1~6に関連して説明されたものに対応する。したがって、第1の作業ユニット810の第1の出力値(output11)に基づいて、変調関数fmod1_f、fmod1_wが形成され、それによって、第2の作業ユニット820のパラメータ(関数foutA2、faktA2、ftransA2及び/又は重みwiA2)が変調され、その結果、第2の評価ユニットの出力値(ouput12、第2の出力値)の関数又は抽出が影響を受ける。同様に、第1の評価ユニット830の第1の評価(output21)に基づいて、第3の変調関数fmod3_f、fmod3_wが形成され、それによって、第2の評価ユニット840のパラメータ(関数foutB2、faktB2、ftransB2、又は重みwiB2)が変調され、その結果、第2の評価ユニットの出力値(Ouput22、第2の評価)の関数又は決定が影響を受ける。
全体のシステムは、図7に関連して述べたことが適用される投影レベル850をやはり備えることが好ましい。更に、選択肢のメモリ要素が投影レベル850に投影メモリ852として割り当てられ、このメモリ要素には、データ、特に状況データだけでなく、投影レベルからの、又は投影レベルによる第1及び第2の出力値も、少なくとも一時的に保存することができる。このデータの保存期間は、例えば一般的に決定されてもよいが、ユニットのうちの一つによって、例えば第1の評価ユニットによって決定されてもよい。実施形態に応じて、投影レベル・メモリは、本質的に短期メモリとして機能することができ、その内容は、必要に応じて、確認、削除、上書き、及び/又は、それぞれのニューラル・ネットワーク又はユニットのメモリ要素などの他のメモリに転送できる。したがって、投影メモリ852は、例えば、メモリがそれぞれの場合において特定数のエントリ又は特定量のデータの後に「満杯」になるリング・メモリとして設計することができ、したがって、以前のデータは最初から上書きされ、これはリング構造に対応する。
同様に、再び示される実施形態は、図7に関連して述べられたことが再び適用される全体のシーケンス・メモリ860を含む。破線は、総シーケンス・メモリ860が両方の作業ユニット、評価ユニット及び投影レベルの両方からデータを受信するか、又はそれらとデータを交換することができ、ユニットが総シーケンス・メモリに保存されたデータにもアクセスできることが好ましいことを示している。
作業レベル(つまり、第1及び第2の作業ユニット)又はそれらによって形成される第1及び第2の出力値の影響は、評価レベル(つまり、第1及び第2の評価ユニット)又はそこで形成される第1及び第2の評価によって次のように実装される。
図8に示される実施形態によれば、第1の評価ユニット830の第1の評価(output21)によって第1の作業ユニット810に影響を与えることが意図される。これは、一方では、第1の作業ユニット810の(X(t)に加えて)追加の入力値として第1の評価又はそれらから導出された値を使用することによって達成することができ、これらは第1の評価入力値と呼ぶことができる。この場合、第1の評価は、入力値X(t)の分析の開始時にニュートラル値で初期化する必要がある。例えば、すべての第1の条件が満たされていることを示す値で初期化する必要がある。ニュートラル値でのこのような初期化は、次のプロセスで再度実行することもでき、例えば、入力値が大幅に変化する場合、又は優位性が一つの作業ユニットから別の作業ユニット(特に第2の作業ユニットから第1の作業ユニット)に移行する場合、一時的な制御も考えられる。
加えて、又は代替として、第1の評価ユニット830は、特に図1~6に関連して上述した結合に従って、第1の作業ユニット810に結合することができることが好ましい。したがって、第1の評価ユニット830の第1の評価(output21)に基づいて、第2の変調関数fmod2_f、fmod2_wを形成することができ、それによって第1の作業ユニット810のパラメータ、すなわち関数foutA1、faktA1、ftransA1及び/又は重みwiA1が変調され、その結果、第1の作業ユニットの関数又は出力値(Ouput11)の取得が影響を受ける。
更に、第2の評価は、第2の作業ユニット820の関数に影響を与える。これは、第2の評価又はそれらから導出された値を、第2の作業ユニット820の追加の(X(t)に加えて)入力値(第2の評価入力値)として使用することによって行うことができる。この場合、対応する第2の評価は、入力値X(t)の処理の開始時にニュートラル値で、例えばすべての第2の条件が満たされていることを示す値で初期化する必要がある。ニュートラル値でのこのような初期化は、次の過程で再度実行することもでき、例えば、入力値が大幅に変化する場合、又は優位性が一つの作業ユニットから別の作業ユニット(特に第1の作業ユニットから第2の作業ユニット)に移行する場合、時間制御も考えられる。
更に(図示せず)、第2の評価ユニット840の第2の評価(output22)に基づいて、第4の変調関数fmod4_f、fmod4_wを形成することができ、それによって第2の作業ユニット820のパラメータ、すなわち関数foutA2、faktA2、ftransA2及び/又は重みwiA2が変調され、第2の作業ユニットの関数又は出力値(Ouput12)の取得に影響を与えるようにする。しかし、第4の変調関数によって変調される第2の作業ユニットのパラメータ(関数及び/又は重み)のセットは、第1の変調関数によって変調される第2の作業ユニットのパラメータ(関数及び/又は重み)のセットから切り離されるべきである。したがって、第2の評価ユニットは、第1の作業ユニットによって変調されない第2の作業ユニットのパラメータ(関数及び/又は重み)のみを変調すべきである。これは、不安定性を防ぐのに有利である。第2の作業ユニットが、いわゆる「深層学習」で使用できるような、いくつかの隠れ層を含むニューラル・ネットワークである場合、例えば、一つ又は複数の入力側層は、第1の変調関数によって変調できる(つまり、層のニューロンの関数及び/又は重みが変調される)。一方、一つ又は複数の出力側層は、第4の変調関数によって変調される。比喩的に言えば、第1の変調関数による第1の出力値を持つ第1の作業ユニットは、次に、第2の作業ユニットの入力値の基本的な分析に影響を与え、一方、第4の変調関数による第2の評価を持つ第2の評価ユニットは、第2の作業ユニットにおけるこの基本的な分析によって得られた結果の分類に影響を与える。
作業ユニット810、820及び評価ユニット830、840はそれぞれ、分類又は条件が保存されるメモリ、特に分類メモリを有することができる。対応するメモリ構造は、図5に関連して詳細に説明されている。図8では、メモリ842は、例として第2の評価ユニット840のためにのみ描かれている。メモリは、ユニットとは別に設計することも、それぞれのユニットに含めることもできる。
第2の評価ユニットのメモリ842(及び第1の評価ユニットの対応するメモリも)は、(分類メモリに加えて)シーケンス・メモリ、より具体的には、評価のシーケンスを保存するために使用される第2のシーケンス・メモリを備えることができる。第2の評価ユニットの場合、これは、それぞれが第2の評価ユニットと第2の評価ユニットによってそこから得られた第2の評価の入力値(第2の状況データ)のセットを含む第2の評価セットを含む一つ(又は複数)の第2の評価シーケンスを保存することを含む。評価セットには、それぞれの時間情報が提供され、及び/又は番号付けによって番号が付けられ、及び/又はそれらの順序に従って構成されてもよい。同様に、図示されていない第1の評価ユニット830のメモリにおいて、第1のシーケンス・メモリを含むことができ、同様に、第1の評価ユニットと第1の評価ユニットによってそこから得られた第1の評価の入力値(第1の状況データ)のセットをそれぞれ含む第1の評価セットを含む第1の評価シーケンスを保存するように機能する。
作業レベルと評価レベルの両方が、それぞれが図6のように結合された追加の人工学習ユニットを含むことができる。したがって、作業レベルは第3の(場合によっては第4の、第5の、...)作業ユニットを含むことができ、これは、第2の(又は前の)作業ユニットの出力値によって決定される変調関数によって、第2の作業ユニット(又はそれぞれの前の作業ユニット)に結合される。同様に、評価レベルは、第3の(場合によっては第4の、第5の、...)の評価ユニットを含むことができ、これは、第2の(又は前の)評価ユニットの評価によって決定される変調関数によって、第2の評価ユニット(又はそれぞれの前の評価ユニット)に結合される。次いで、対応するn番目の作業ユニットと評価ユニットとの間の相互作用は、第2の作業ユニットと第2の評価ユニットとの間の相互作用と同様に起こり得る。すなわち、特にn番目の評価ユニットはn番目の作業ユニットに影響を与える。
入力値の処理例
結果として得られる入力データの処理又は分析について、例として以下に説明する。入力データは、作業ユニット810、820の入力値を形成する。入力値は、両方の作業ユニットで同じにすることも、時系列の異なる時間などで異なることもできる。入力値X(t)は、時間、例えば、時系列のセンサ測定値又はビデオ/オーディオ・ストリームに依存し得、それによって作業ユニットは、例えば、タイマ又は優位性遷移によって制御されるか、又は特にリカレント・ニューラル・ネットワークの場合は継続的にも制御される、特定の時点で入力値X(t1)、X(t2)を受信又は受け入れることができる。処理ユニットは、入力値の連続処理を実行するか、又は特定の時点、例えばタイマ制御又は特定のイベント、例えば優位性遷移で開始する処理を実行することができる。
第1の作業ユニット810は、入力値X(t1)から第1の出力値(output11)を決定し、そこから第1の状況データ(例えば、第1の出力値自体又はその一部又はそこから導出された値)が投影レベル850によって形成され、これらは、次に、第1の評価ユニット830への入力として機能し、第1の評価ユニット830は、これら(すなわち、第1の状況データ)を評価し、すなわち、第1の条件が満たされるかどうかを確認し、対応する第1の評価(output21)を生成する。第1の評価に基づいて、第1の作業ユニット810又は出力(output11)が影響を受ける。
(第1の評価に基づいて)第1の条件が満たされていない、又はある程度しか満たされていないと決定された場合、入力値X(t)は、第1の評価ユニット810によって再度処理することができ、これにより、第1の評価による影響が考慮され(例えば、第1の評価から決定された第2の変調関数によって、又は追加の入力値として第1の評価又はそこから導出された値を使用することによって)、特に第1の作業ユニットの適切なトレーニングによって、第1の評価によって影響される、一般的に修正された第1の出力値(output11)が結果として生じるようにする。
これは、第1の条件が満たされていると決定されるまで数回繰り返され、その時点で第1の出力値がシステムの(総)出力又は総出力値として使用され得る。続いて、入力値は、第2の評価ユニット820によって処理されてもよく、及び/又は優位性が第2の評価ユニットに渡されてもよい。このように生成された第2の出力値は、場合によっては優位性に応じて、追加的又は代替的に総又は全体の出力になることができる。
代替的又は追加的に、例えば、リアルタイム・システムなどで第1の条件をすべて満たすことができない場合、又は限られた期間しか利用できない場合、第2の作業ユニット820による処理及び/又は第2の作業ユニットの優位性は、所定の繰り返し回数に達した後、所定の期間(タイマによって制御される)後に終了されてもよいことが好ましく、第1の出力値が二つの連続する繰り返し間で所定の許容範囲内で変化しない場合、又は第1の評価が二つの連続する繰り返し間で所定の許容範囲内で変化しない場合である。これらの組み合わせも考えられる。
優位性が第1の作業ユニット810に戻る場合、例えば入力値Xが大幅に変更された場合、このプロセス又は評価は、必要に応じて、第1の評価の初期化後に第1の評価ユニット830によって再度実行することができる。
任意選択で、特に第2の作業ユニット820が優位的である場合、状況データはまた、第2の作業ユニット820の第2の出力値(output12)に基づいて投影レベル850によって形成され、第1の評価ユニット830によって評価され得る。すなわち、第2の出力値が第1の条件に従っているかどうかが確認される。これが当てはまらない場合、又は部分的にしか当てはまらない場合は、第1の評価が第1の作業ユニットに影響を与えるのと同様に、第2の作業ユニットも(変更された)第1の評価によって影響を受ける可能性があり、これにより、変調関数、特に、第1の変調関数によって変調される第2の作業ユニット820のパラメータ、すなわち関数foutA2、faktA2、ftransA2及び/又は重みwiA2を変調するものは使用されるべきではない。
第1の評価ユニット830によって形成される第1の評価はまた、結合を介して、すなわち第3の変調関数fmod3_f、fmod3_wによって、第2の評価ユニット840の関数に間接的に影響を与える。
第2の評価ユニット840は、投影レベル850で形成された第2の状況データ(第1の評価ユニット830によって受信された第1の状況データと同一である必要はない)を入力値として受信する。この第2の状況データは、少なくとも第2の人工学習ユニット820の第2の出力値(output12)に基づいて形成されることが好ましく、すなわち、第2の状況データは、第2の出力値の一部又はすべて、又はそこから導出された値も含むことができる。それにより、更に、状況データはまた、第1の人工学習ユニット810の第1の出力値(output11)又は他の値に少なくとも部分的に基づいて形成されてもよい。
第2の作業ユニット820が入力値X(t2)を処理するとき、及び/又は優位性が第2の作業ユニットに渡されたとき、第2の状況データは、第2の作業ユニット820の第2の出力値(output12)に少なくとも部分的に基づく投影レベル850によって形成される。この第2の状況データは、そこから第2の評価を形成する第2の評価ユニット840のための入力値として役立つ。第2の評価がすべての第2の条件が満たされていることを示す場合、第2の出力値は、例えば、システムの総/全体の出力として使用できる。
第2の評価によって第2の作業ユニットに影響を与えることによって、一般に、少なくとも第2の評価がすべての第2の条件が満たされているわけではなく、第2の作業ユニットがそれに応じてトレーニングされていることを示している場合、変更された第2の出力値(output12)が得られ、そこから、必要に応じて投影レベルによって変更された状況データが形成され、第2の評価ユニットによって確認され、変更された第2の評価につながる。
これは、例えば、事前定義された繰り返し回数に達するか、事前定義された期間が経過するか、又は2回の連続する繰り返し間で事前定義された許容範囲内で第2の出力値が変化しなくなるまで、数回繰り返すことができる。これらの条件又は他の条件の組み合わせも考えられる。
したがって、第2の評価ユニット840と第2の作業ユニット820との間の相互作用は、第1の評価ユニット830と第1の作業ユニット810との間の相互作用に対応する。しかし、加えて、二つの評価ユニットの結合により、第2の評価ユニット840による評価、すなわち第2の評価は、第1の評価ユニット810によって得られた第1の評価によって影響を受ける。したがって、タイミングは、最初に第1の作業ユニットと第1の評価ユニットとの間の相互作用が起こり、次に第2の作業ユニットと第2の評価ユニットとの間の相互作用が起こるように制御されることが好ましい。
入力値の処理は、個々の人工学習ユニットにおける一連の処理ステップのプロセスとして上で提示されたが、ユニット(第1、第2の作業ユニット、第1、第2の評価ユニット)は原則として互いに非同期で動作できることに注意されたい。つまり、各ユニットは、現在利用可能な入力データ又は変調(一部は他のユニットの出力)を使用して、独自の速度で動作できる。時刻同期を提供できるが、提供する必要はない。ユニットは、それに応じて互いに並行して動作できる。
トレーニング
全体のシステムの例示的なトレーニングを以下に説明する。上で説明したように、教師あり学習では、入力値と対応する(つまり、それぞれの入力値に関連付けられた)目的の出力値(つまり、既知のトレーニング・データ)が与えられ、人工学習ユニットによって決定された出力値と目的の出力値との間の偏差を示すエラー測定値に関して、トレーニング中にエラーが最小限に抑えられる。使用される典型的なエラー測定値は、平均(場合によっては重み付けされた)二乗エラーである。エラーを最小限に抑えるために、トレーニング中に人工学習ユニットのパラメータ(例えば、重み)を変更する。この手順は当業者自身に知られている。
システムは、最初に作業レベルと評価レベルが個別にトレーニングされるようにトレーニングされる。これらは「人工/人工的学習システム」を表しており、そのトレーニングは図1~5に関連して説明されている。したがって、前述の教師あり学習では、作業レベルのトレーニング時に、入力値(センサ・データを含む)が入力値として使用され、対応する(既知の)目的の出力値(制御パラメータ、状態パラメータ)が出力値として使用され、評価レベルをトレーニングする場合、状況データ(出力値又は制御パラメータ/状態パラメータから形成される)が入力値として使用され、対応する(既知の)目的の評価(条件がどの程度満たされているかを示す)が出力値として使用される。
更に、作業レベルと評価レベルの結合動作中に、条件を適合又は補足することができる(以下を参照)。このプロセスは、作業レベルと評価レベル、つまり全体のシステムのジョイント学習と見なすことができる。
作業レベル及び評価レベルに関して、図8に示される実施形態を参照すると、二つのレベルのそれぞれに、第1の人工学習ユニット810、830及び第2の人工学習ユニット820、840が含まれ、これらは、図1~5と同様に結合される。ここで、特に、一つのレベル内で、二つの(第1/第2の)ユニットのそれぞれの独立したトレーニング(つまり、個別に結合されたユニットとは独立して)が最初に実行され、これにより、入力値の同じトレーニング・データ・セットを両方のユニットに使用することも、又は入力値の異なるトレーニング・データ・セットを使用することもできる。第1と第2のユニットの違いは、関連する目的の出力値であり(これは入力値に対応する。つまり、トレーニングで達成することが好ましい)、これにより、第2のユニットの目的の出力値は、第1のユニットの目的の出力値のある種の改良を表すことが好ましい。例えば、第1のユニットの目的の出力値が、第2のユニットの目的の出力値の真の(自明ではない)サブセットであることが想定され得る。また、特定の出力値の偏差に対する異なる重みが、エラー測定で使用されることも想定され得る。更に、結合された(第1/第2の)ユニットのジョイント・トレーニングを実行することができる。ここで、第1のユニットと第2のユニットのエラーを含めることができるので、第1のユニットと第2のユニットのエラーに異なる重み付けをすることができる。ジョイント・トレーニングでは、第1のユニットの出力値と、第2のユニットに影響を与える変調関数との相関も生成することができる。
第1/第2のシーケンス・メモリ
第1と第2の評価シーケンスを保存すると、評価ユニットの「決定」を追跡し、必要に応じて、例えば目的のように動作又は機能しない場合、評価シーケンスを使用して更にトレーニングを実行できる。
更に、評価ユニット830、840は、入力された状況データY(t3)、Y(t4)と、評価シーケンス又は評価セットのシーケンス・メモリに保存された評価記録との比較を、評価(output21、output22)の決定の前又は並行して実行でき、すなわち、入力された状況データは、保存された評価記録内の対応する状況データと比較される。これらが同じ又は類似していることが判明した場合、つまり同じ又は類似した状況データが以前に発生した場合、以前の評価をスコアリング・シーケンスから読み取り、出力として使用できる。つまり、現在の状況データの評価である。特に、同じ又は類似の状況データが発生した評価記録、及び該当する場合は、対応する評価シーケンスでそれに続く評価記録をスキップすることができる。したがって、以前の評価は、入力された状況データY(t3)、Y(t4)の現在の評価として使用される。これらは、それぞれの評価シーケンスで後で発生した評価記録から取得される(この目的のために、それらの発生順に番号付け及び/又は構成されたタイムスタンプがそれらに有利に提供される)。「同様」とは、それぞれの場合に適切に選択された許容範囲という意味で理解されるべきである。
スキップされた評価記録が事前定義された数に達したことを評価が示し、及び/又は時間情報が評価シーケンス内で事前定義された期間が経過し、及び/又はそれぞれの評価シーケンスにおいて、評価ユニットの入力値(状況データ)は、評価シーケンスの前のエントリと比較して、事前定義された許容範囲内で変更されていないことを示すまで最大数の評価記録をスキップできる。この手順は、プロセス・フローの加速につながり得る。
第1又は第2のシーケンス・メモリへの第1及び/又は第2の評価シーケンスの保存は、それを操作から保護するために、暗号学的に保護された形式で実行されることが好ましい。特に、この目的のためにブロックチェーンの使用が提供され、それによってシーケンスのエントリ(例えば、第1の評価シーケンスの一つ又は複数の評価記録)がブロックチェーンのブロックを形成する。したがって、ブロックは、それぞれの場合に少なくとも一つの評価記録を含み、ブロックチェーンの原則に従って、以前のブロックに保存された一連の以前の評価記録にリンクされる。
複雑な構造
作業レベル及び評価レベルの複雑な構造が、特に図1及び5に関連して説明されたように設計されることが提供されることが好ましく、すなわち、第1の作業ユニットは、比較的粗い分析又は入力値の比較的少数のクラスへの分割を実行し、比較すると、第2の作業ユニットは、比較的細かい分析又は比較的多くのクラス又はサブクラス及び更なる階層レベルへの分割を実行し、第1の評価ユニットは、第1の状況データ又は第1の出力値が比較的粗い条件を満たすかどうかも確認し、第2の評価ユニットは、第1の状況データ又は第1の出力値が比較的粗い条件を満たすかどうかを確認し、第1の評価ユニットは、第1の状況データ又は第1の出力値が比較的粗い条件を満たしているかどうかも確認し、第2の評価ユニットは、第2の状況データ又は第2の出力値が比較して比較的細かい条件を満たしているかどうかを確認する。
第1の評価ユニット830には、比較的少数のレベル及びクラスで設計された分類メモリ(図示せず)を割り当てることができる。この例では、第1の評価ユニット830のレベル及び/又はクラスの数は、第2の作業ユニット820のレベル及び/又はクラスの数よりもかなり少ないと仮定され、これは、分析ユニットとして提供される。例えば、1桁以上小さくなる。同様に、第2の評価ユニット840のレベル及び/又はクラスの数は、第1の評価ユニット830のレベル及び/又はクラスの数よりもかなり多くてもよい。また、第2の作業ユニット820のレベル及び/又はクラスの数は、第1の作業ユニット810のレベル及び/又はクラスの数よりもかなり多くてもよい。メモリも更に異なり得るが、この場合、通常、メモリのサイズと複雑さとの間の明らかな非対称性が優先される。
条件の調整又は補足
図7に関連して説明したように、すべての第1の条件と第2の条件にそれぞれ一致する第1/第2の状況データが導出されるように、全体のシステムが第1/第2の出力値、つまり全体の出力を見つけることができない場合がある。第1の作業ユニットから第2の作業ユニットへ、及び対応して第1の作業ユニットから第2の作業ユニットへの優位性遷移により、これは特に、システムの最終的な全体の出力を表す第2の出力値又は第2の状況データに関係する。
したがって、これらの場合の少なくともいくつかについて、対応する出力値又は状況データが補足された条件を満たしていると見なされるように、条件、好ましくは第2の条件の変更又は補足を実行することが意図されることが好ましい。したがって、将来の入力値の処理に影響を与えるシステムの適応が行われる。
しかし、このような条件の追加は、すべての条件が満たされ得ないすべての場合に実行されず、特定の条件が満たされる場合にのみ実行されることが好ましい。考えられる条件の一つは、すべての条件の特定の数又はパーセンテージ(例えば、20%、10%、又は5%)のみが満たされ得ず、他の条件が満たされることである。
条件の追加は、入力値の通常の処理中に、及び/又は総シーケンス・メモリに保存された総シーケンスを使用して特定の時間間隔で行うことができる。保存された総シーケンスが使用される場合、それは、同じタイプの総シーケンスの特定の最小数(例えば、10、50、又は100)で(特定の許容範囲内で)条件が満たされなかったという条件を補足するための前提条件として使用できる。つまり、これらの総シーケンスについて、条件を補足条件(可能な許容範囲を含む、不履行の種類に応じて)で補足することが実行されると、条件が満たされたと見なされる。
ニューラル・ネットワークである評価ユニットの簡単な例では、条件が追加/変更されると、条件に対応するニューロンの出力に値の範囲が追加され得る。そのため、ここで、ニューロンは条件の一つに割り当てられる。例えば、ニューロンは出力関数を持っているため、このニューロンの数値としての出力は-1から+1の範囲になる。初期トレーニングでは、条件が満たされた場合はこのニューロンが-0.1から0.1の間隔の値を出力し、条件が満たされない場合はこの範囲外になるように、ネットワークがトレーニングされ得る。ここで、作業レベルの出力の条件が満たされない場合、つまり、ニューロンが間隔[-0.1;+0.1]にない値Rを出力する場合、条件を補足する場合は、値Rを有効な値として間隔に追加できる。値R自体だけでなく、値Rの周りの小さな範囲、例えばR±0.01も追加されることが好ましい。この条件が追加された理由は、上記の条件のいずれかが満たされ、例えばこの条件が満たされなかった唯一の条件又はいくつかの条件の一つであること、又は範囲R±0.01の出力がいくつかの総シーケンスで発生したことであり得る。
その場合、二つの間隔がある。つまり、[-0.1;+0.1]及び[R-0.01;R+0.01]。将来の入力値を処理するときに、ニューロンの出力がこれら二つの間隔のいずれかにある場合、対応する条件が満たされていると見なされる。更に追加する場合は、これらの二つの間隔に更に間隔を追加できるため、条件は間隔のセットで表される。これらの間隔は、評価ユニットの分類メモリに保存することができる。
もちろん、この例と同様に、条件は複数のニューロンに関連付けることもでき、この場合、ニューロンの出力は、n次元空間のサブセットである総値範囲内にある。ここで、nは、条件に関連付けられたニューロンの数に等しくなる。これらの複数のニューロンの出力が総値範囲の一つ又は複数のサブセット(前の例の間隔に対応)にある場合、条件は満たされていると見なされる。これらのサブセットは、次いで、同じ方法で完成させることができる。
元の条件及び条件への各追加は、評価ユニットの分類メモリに条件/追加と共に保存できるレベルSの指示を付加的に提供することができる。元は、例えば、0番目のレベル、S=0であり得る。追加は次いで、より高いレベル、S>0を持つ。関連する評価は、例えばレベルを指定することによって、条件がどの程度満たされているかを更に示すことができる。又は、0.9(又は0.9の代わりに1より小さい別の実数値)などの対応する値を指定することによる。したがって、値1は元の条件が満たされた場合、いわば条件の完全な充足に対応する。追加(S>1)は、そのレベルに応じて、ある程度(0.9<1)まで条件を満たす。
追加のレベルは、追加を引き起こす条件のどれが満たされているか、及び/又はいくつ満たされているかに応じて決定できる。例えば、前提条件が一つ又はいくつかの条件のみが満たされていないことである場合、レベルは、満たされた条件の最高レベルに1を加えたものに等しくなり得る。
ステージ又はレベルを通じて、いわば条件の階層が導入され、元の状態がますます洗練又は分岐される。レベル又は対応する程度に応じて、次いで、作業レベルに影響を与えることにより、評価を通じて特定の出力値が優先される。
このような手順は、原則として、第1の条件と第2の条件の両方に対して実行できる。しかし、第2の条件のみを補足又は変更することが好ましい。一方、第1の条件は変更すべきではない。これらは、いわば基本的で不変の条件を表している。上記の道徳的コントラクトとしての条件の例(発明の開示セクション)では、第1の絶対的な考慮事項はそれに応じて不変であり、一方、第2の相対的な考慮事項は、実際の総出力値に応じて時間の経過と共に変化し得る。この方法を機械制御に使用すると、いわば機械の道徳が進化する。
他のシステムとの互換性確認
更に、二つの全体のシステムが互いに通信するとき、第1の全体のシステムは、全体の出力値及び/又は第2の全体のシステムの評価がそれ自体の評価とどの程度適合するか、すなわち第1及び第2の条件と一致するかを評価することができる。
第1の実施形態によれば、第2の全体のシステムは、典型的にはいくつかの全体の記録を含む全体のシーケンスを第1の全体のシステムに送信する。次に、第1のシステムは、全体のセットに含まれる入力値及び/又は状況データを、自身の作業又は評価レベルの入力値/状況データとして使用し、そこから得られた第1/第2の評価及び/又は第1/第2の出力値を、送信された全体のシーケンスに含まれる対応する値と比較する。これらが少なくとも部分的に一致する場合、第1の全体のシステムは、第2の全体のシステムを信頼できる又は互換性があると見なすことができ(つまり、第1の条件/第2の条件に矛盾しない)、例えば、そこから受信した分析データ(つまり、作業ユニットによって取得されたデータ)が正しいか互換性があるかを分類し、それらを独自の処理で使用できる。それ以外の場合、受信したデータは正しくないか互換性がないと分類され、使用されないか、ある程度しか使用されない。受信したデータは、全体のシステムで入力値として使用されるデータであり得る。例えば、二つの全体のシステムが二つの自動型車両の制御システムとして含まれている場合、データには速度、ブレーキなどを含めることができる。ある車両が別の車両の後ろにある距離とって走行している場合、前方の車両の全体のシステムの信頼性/互換性に応じて、この距離を選択し得る(ここで評価ユニットによって確認される条件には、例えば、車両ごとに異なる可能性がある急ブレーキ時の車両固有の制動減速度が含まれる)。
代替的又は追加的に使用できる別の実施形態によれば、質問応答プロセスで互換性確認を実行することができる。この代替案では、第2の全体のシステムは全体のシーケンス・メモリを有する必要はなく、入力値から出力値を生成するシステムである必要があるだけである。この目的のために、第1の全体のシステムは、その全体のシーケンス・メモリから一つ又は好ましくはいくつかの全体のシーケンスを取得し、そこに含まれる入力値(質問)を各全体のシーケンスについて第2の全体のシステムに送信する。第2の全体のシステムはこれらを処理し、それらに基づいて出力値を決定し、第1の全体のシステムに送信する(回答)。第1の全体のシステムは、この回答をその投影レベルに送り込むか、場合によっては直接評価レベルに送り込み、評価レベルを通じて第1/第2の評価を決定する。これは、すべての全体のシーケンスで繰り返される。すべての総シーケンスの評価で、第1/第2の条件が満たされていることが示された場合、第2の総システムは互換性があると分類される。代替的又は追加的に、第2の全体のシステムの応答から決定された評価と、全体のシーケンスに含まれる対応する評価との比較を実行することもでき、これにより、第2の全体のシステムは、わずかな違いのみの場合、互換性があると分類され、例えば、事前定義された許容範囲内で、比較で見つかる。
これらのアプローチの大きな利点はまた、条件自体が他のシステムに開示されないことである。これは、例えば条件が道徳倫理的ルールを成文化していて、それ自体が公にアクセス可能であってはならない場合、特に上記のように適応又は補足されている場合に有利である。同じことは、例えば企業秘密に関係する可能性のある経済的側面にも当てはまる。
上記の互換性確認の可能性は、もちろん、第2の全体のシステムの入力値と出力値の意味が第1の全体のシステムに知られていることを前提とし、独自の作業ユニットと評価ユニットの入力/出力にそれらを割り当てることができるようにする。自動型車両の場合、この割り当ては、例えば、メーカー固有にするか、仕様として標準化された形式で指定するか、インターフェースとして実装することができる。
投影レベルに関する詳細情報
評価ユニットは、投影レベル850に存在する、又は投影レベルによって形成される状況データを評価するようにトレーニングされる。状況データは、例えば、既に述べたように、二つの作業ユニット810、820のうちの一つからの入力データ及び/又は出力データ、及び/又は更なるデータであり得る。例えば、任意選択で追加情報を含む出力データのみを投影レベル850で処理することもできる。しかし、作業レベルの入力値X(t)が投影レベルで使用されないことが好ましい。作業ユニット810、820の出力値(Output11、Ouput12)、すなわち作業レベルのみが、状況データを形成するために使用されることが更に好ましい。このように、投影レベルは作業プレーンからの評価レベルの分離を達成し、それによって作業ユニットの入力値X(t)は評価ユニットには見えないので、評価ユニットによる作業ユニットの出力値の評価は、独立した形式で実行できる。
更に、投影レベルの前に何らかの方法でデータを処理又は例えば、単純化することも可能である。分類又は評価に対応する評価ユニットによる状況データの処理に応答して、さまざまな動作を実行でき、特に、作業レベルに影響を与え、全体のシステムの最終的な出力値と、アクチュエータ、出力インターフェースなど及び/又は全体のシステム、特にシステムに含まれる他のユニットの更なる動作に影響を与える動作への関連信号に影響を与える。
投影レベルのデータを相互にリンクして、少なくとも一つの追加情報が得られるようにすることも考えられる。更に、例えば、特定の出力値がいつ出力されたかを示す一時的なパラメータが存在し得る。そのような一時的なパラメータは、絶対時間表示を含むことができるが、現在の評価時間又は別の基準時間に応じた相対時間表示も含むことができる。同様に、固定された時点を指定することはできないが、ユニットの一つ又は複数の入力値及び/又は出力値が割り当てられる一時的なセクションを指定できる。実際の一時的なパラメータに加えて、又はその代わりに、シーケンスをデータの少なくとも一部に関連付けることができ、その結果、投影レベルで明示的な時間指定がなくても、存在するいくつかのデータ値がどのシーケンスで生成又は処理されたかを認識でき、例えば投影レベルの出力値に割り当てられた番号付けの形式である。
このようにして、投影レベルに存在するデータ、特に作業ユニットの出力値は、例えば時間シーケンスを形成することができる。任意選択で、そのようなシーケンスもマークし得、その結果、例えば、特定の期間又は指定された出力値が定義されたシーケンスに属するように指定する。更なる処理、保存、又は評価のために、このように形成されたシーケンスを全体として処理することができる。あるいは、同じ期間又は同じシーケンスに属する異なる入力値及び/又は好ましくは出力値を一緒に処理し、例えば互いに比較することができる。データを時間内に投影レベルに配置し、それらを特定のプロセスとシーケンスにグループ化して再度アクセスできるようにすることで、メモリのような構造を可能にすることができる。作業ユニット間の優位性を制御するために、図4に関連して説明したアイデアに従ってこのシステムでも使用できるタイマを設けることができる(図示せず)。
投影レベル850に設けられるメモリ852は、例えば、揮発性メモリ要素として、又はリング・メモリ又は別の短期メモリの形態の不揮発性メモリ要素として設計することができることが好ましい。投影レベル850で処理されるデータは、この投影メモリに保存することができる。データの保存期間と保存するデータの選択は、非常に異なる方法で設計できる。例えば、固定の保存期間を最初に指定できる。この時間が経過すると、投影メモリ内のデータを破棄及び/又は上書きすることができる。追加又は代替として、システムの一部、例えば評価ユニット830、840の一方又は両方が、投影メモリ内のデータがシステムの別の要素に少なくとも部分的に渡されるかどうかについて決定を下すことができる。データの損失を防ぐために、この決定は、所定の保存期間が満了する前に行うことができる。例えば、評価ユニットの一つは、投影レベル850又は投影メモリに保存されたデータの一部又は全部を、長期保存のために別の記憶要素に渡す必要があると決定することができる。これは、例えば、作業ユニットのメモリ要素の一つにすることもできる。後で新しい状況を評価するシステム内の他のユニットのメモリに保存することにより、既に評価された状況を同様の方法で作成された経験に組み込むことができる。しかし、原則として、個別のメモリ・モジュール(図示せず)を長期メモリとして提供することもでき、その中で、どのユニットがそこに保存されたデータにどの程度アクセスできるかによって固定又は定義可能にすることができる。
本発明の更なる詳細及び実施形態を以下に説明する。第1の評価及び/又は第2の評価に基づいて、第1及び/又は第2の作業ユニットの第1及び/又は第2の出力値が有効な範囲又はパラメータ内にあるかどうかを決定することができ、又は、それらが特定の規範的なルールを満たすかどうか、つまり、それらが有効な(条件又はルールの意味での)解として許容されるかどうか、又は少なくともある程度許容されるかどうかを決定できる。ここで例えば、前の例でシステムの総出力値として決定された、第1及び/又は第2の作業ユニットの現在の出力値は、許容範囲外にある場合、この評価に基づいて全体のシステムの反応を防止又は停止できるため、第1/第2の作業ユニットの以前に得られた第1/第2の出力値が、例えばアクチュエータ又はインターフェースに渡されないことを決定する。許容できない又は無効であると評価された出力値は破棄できるが、後で比較などの状況でフォールバックできるように、この評価と一緒に保存することもできる。このように、後で検出された状況の評価は、既に無効であると認識されている解を追求しないか、それらを優先度を低くして追求するだけによって、簡素化又は加速することができる。あるいは、例えば、すべての条件を満たす解が見つからない場合、第1/第2の出力値を全体の出力として使用することもでき、これにより、本発明による作業レベルと評価レベルとの間の相互作用により、可能な最良の解が確実に見出される。
出力値と解は、許容できるかどうかだけでなく、特定の条件や仕様に特によく対応しているかどうか、つまり可能な限り理想的な解を表しているかどうかも確認できる。このようにして得られた出力値は、全体のシステムの全体の出力として使用することも、例えば、長期メモリに保存することもでき、将来見つけられる最善の解を迅速に検索できることが好ましい。逆に、特に不利又は有利であると評価された出力値には、これらの値にリンクして保存及び/又は更に送信できる対応する評価パラメータを提供することもできる。これらの評価選択肢は、個別に実装することも、互いに組み合わせて実装することもできる。
例えば、前述の投影レベル750、850からのデータを転送及び保存する決定は、評価ユニットによるそのような評価に基づいて行うことができる。
更なる実施形態では、最初に、第1及び第2の作業ユニットの入力値として使用されるシステムの入力値のみが投影レベル又はそれに関連するメモリ752、852に保存されることも可能である。これは、現在の状況の未処理の画像と見なすことができる。同時に、第1及び第2の作業ユニットは、前述のように、これらの入力値の処理を開始する。つまり、作業ユニット間の優位性を変更したり、第2の作業ユニットの決定パラメータ及び関数を変調したりするなど、さまざまな可能性を使用する。
見つかった解、つまり第1及び/又は第2の作業ユニットの出力値は、投影レベルに転送できる。これにより、それらは、それぞれの関連する入力値を上書きするか、保存してそれらと一緒にリンクすることもできる。例えば、変形によっては、同じ入力値から取得された新しい結果が古い結果を上書きし得る。それ以外の場合は、古い解を保持したまま、結果を投影層に転送でき、その結果、例えば、現在の解と以前の解の比較を使用して、後の結果と以前の結果のどちらが評価システムの仕様又は条件により適切に対応しているかを評価することもできる。リンクの例として、例えば写真に関する限り、同時に重畳された要素、又は重畳された要素も考慮することができる。
任意選択で、結合されたユニット間の前述の優位性も考慮に入れることができるので、例えば、現在優位的なネットワークの出力値のみが処理され、投影レベル又はそのメモリに保存される。このプロセスでは、一時的なパラメータを再び値にリンクできる。例えば、同じ長さ又は異なる長さを有する時間セグメントを定義することができ、その後、それに対して、状況の時系列を再現するために、それぞれの入力値及び出力値が適切に割り当てられる。例えば、第1の期間に入力値を保存し、次の期間に第1の作業ユニットの出力値を保存し、次に第2の作業ユニットの値を出力する。更に、改善された、又は少なくとも変更された出力値は、更なるセクションに保存することができる。出力値のブロックごとに期間を指定でき、これは、認識された状況の順序を明確にするために、任意選択で一緒に属するものとしてマークすることもできる。
例示的な実施形態では、投影メモリ内又は投影メモリからのデータの保存に対する制御も、システムのいくつかのユニットによって少なくとも部分的に引き受けることができる。例えば、ユニットの優位性が定義されたシステムにおいて、入力値が事前定義されたレベルを超えて変化するかどうかが確認されるため、新しい状況が想定される状況が既に説明されている。この場合、優位性は第1の作業ユニットに渡され、入力値の新しい大まかな分類が作成され得る。同時に、第1の作業ユニットは投影メモリに信号を送ることができ、そこに保存されたデータ(前の状況に対応する)を別のメモリ要素、例えば、長期メモリに転送する必要があるかどうか、又は後で上書きできるかどうかを示す。同様に、現在の処理操作に応じて、第1及び/又は第2の作業ユニットは、投影メモリ内の保存期間を調整して、異なる状況又は目標に対応することができる。例えば、長くて詳細な解検索が必要な場合は、投影層での保存期間を長く設定できるが、迅速な決定は保存されたデータの迅速な変更につながり得る。
任意選択で、ユニットの一つが、例えば保存期間を優先して決定することも可能であり、その結果、例えば、投影メモリ内の以前のデータを破棄するという第1の作業ユニットによる決定を、第2の作業ユニットによって確認又はブロックすることができ、それにもかかわらず、それぞれのデータが保存されるようになり、例えば繰り返し入力値の場合である。更に、少なくとも限られた範囲で、ユニットの一つが別のユニットの分類メモリを変更し、例えば新しいカテゴリを作成できることも考えられる。しかし、どのユニットでも変更又は削除できないすべてのデフォルトが保存される保護領域を定義することもできる。
図4に示すシステムのように、時間間隔を測定してこの情報をユニットに渡すことができるタイマが指定されている場合、このタイマは、例えば、指定された保存期間も監視できる。このようにして、保存時間は、システムの異なるユニット間の優位性分布と調整又は同期することもできる。しかし、代わりに、この目的のためにシステムの別の部分を提供することができる。原則として、評価ユニットは事前定義された保存期間を変更及び再定義することもできる。その際、保存期間の異なる仕様を異なる値に対して定義することもできる。例えば、高速分類ユニットである第1の作業ユニットの出力値が、投影レベルに短時間だけ保存されるように指定することが可能であり、そのため、保存期間の第1の時間仕様がそれらに対して定義され、一方、第2の作業ユニットの出力値には、保存期間のより長い時間仕様が提供される。第2の作業ユニットの出力値が利用可能になるまで、第1の作業ユニットの出力値のみが保存されることも可能である。任意選択で、評価ユニットによる出力値の確認を最初に待つことができる。第2のユニットの出力値が事前定義された条件に対応していないために有効でないと決定された場合、これらの値の保存をキャンセルすることができるが、第1の作業ユニットの大まかな出力値は引き続き保持される。
追加又は代替として、評価ユニットは、実行された評価に基づいて、第1及び第2のユニット間で詳述される変調を更に修正することもできる。
システムは、評価システムが結果と出力値の有効性又は無効性を単独で決定するのではなく、システムの他のユニットと組み合わせて決定するように設計でき、例えば、処理パラメータ、保存時間、及びその他の要素に影響を与えることによってである。
評価ユニット、すなわち評価レベルが評価ユニット又は検証ユニットとして設計されている限り、これらには、例えば、禁止事項、優先順位、規範的ルール、及び価値のような仕様などの特徴を本質的に含む分類を含めることができる。このような評価レベルで作業レベルの出力値を評価することにより、これらの仕様に準拠する全体のシステムに対してそれらの解のみが確実に承認されるようにすることができる。これらは、システムの単純な固定境界条件であり得る。しかし、それらは、全体のシステムの開発と決定を価値とルールによって与えられた方向に保つ倫理のようなモジュールに更に発展させることもできる。これらの境界条件は、とりわけ評価レベルの分類によって事前定義され、システムによって変更されることなく、第1の評価ユニットに対してしっかりと定義及び保存されることが好ましく、事前定義された条件から開始して第2の評価ユニットに対して変更可能であることが好ましい。したがって、システムがこれらの分類を、作業ユニットと評価ユニットの相互作用で少なくとも部分的にそれ自体で学習することも考えられる。つまり、教師なし学習に対応するため、少なくとも部分的に独自の価値システム又は境界条件の学習セットが形成される。変更不可能な境界条件の基本システムが事前定義されている設計を使用することもできる。このシステムは、トレーニング段階の過程で、又は操作中に、及び/又は外部データ入力によって補足できる。
評価ユニットによって指定された条件は、結合されたネットワークのジョイント・トレーニング段階と、以前にトレーニングされたシステムの後の評価段階の両方で適用できる。任意選択で、評価ユニットの分類メモリは、分類のいくつかの閉じたグループに対応するいくつかの別個のプリセット設定を含むことができる。必要に応じて、例えば当面の状況に応じて、これらのグループのいずれかを選択できる。当面のそれぞれの状況の認識及び適用される分類グループの割り当ては、やはり、第1及び/又は第2の作業ユニットの結果に基づくことができる。このようにして、例えば、システムのさまざまなリスク選好又は「基本的な気分」を実装できる。この場合、特定の場合にのみ変更される基本設定も事前定義できる。結合されたシステムのトレーニング段階及び運用段階で、評価レベルの変更不可能な基本設定から、追加的又は柔軟な評価レベルの境界条件を持つ新しい分類グループが積極的に形成されることも考えられる。
例として、人を救助するために使用される自動型車両又は航空機(例えば、空中ドローン)の場合、特に車両が所定の場所に迅速に到着する必要がある場合は、乗客が運ばれていない限り、より危険な運転スタイルが許可され得る。状況、例えば、第1の作業ユニットによって実行することができる「警報状況」の大まかな認識の後、したがって、対応する分類グループを第1の評価ユニットのために選択することができ、これに基づいて、解又は出力値が、第1及び/又は場合によっては第2の作業ユニットによっても評価されることが好ましい。同様に、可能なより細かい分類グループが第2の評価ユニットで選択され、これにより、この選択は、第3の変調関数による第1の評価によって影響を受ける。このようにして、事故を回避するなどの基本的な境界条件を引き続き遵守できるが、同時に他の境界条件(高速コーナリング、損傷の許容など)を緩和することもできる。システムが新しい状況、例えば、車両内の乗客の存在を検出するとすぐに、異なる分類グループをそれぞれ第1の評価ユニットと第2の評価ユニットに適用することができ、これにより、乗客の健康や救助された死傷者にさえも、ここで、より焦点を当てることができる。拡張された実施形態では、更に別の基準カタログを作成することもできる。これは、特定の状況、例えば荷物の輸送、消火活動、偵察飛行又は偵察旅行などでの分類に使用できる。状況をこのような既知の状況として分類できる場合、評価レベルは境界条件の有効性を維持することに限定され、矛盾が発生しない限り受動的なままになる。しかし、損傷やその他の望ましくない結果をもたらす可能性のある、より複雑な、又は未知の状況が発生した場合、評価レベルは、作業レベルの解の発見により積極的に介入することもでき、例えば、新しい探索空間を指定したり、作業ユニットのパラメータを変更又は変調したり、他の適切な解の発見をサポートしたりする。
このように、禁止事項、優先事項、価値システムなど、全体のシステムの枠組み条件は、したがって、評価レベルのメモリに配置され、第1の評価ユニット用に永久的にプログラムされ、第2の評価ユニット用にある程度修正可能であることが好ましい。処理の高速化は、特定の解を除外することによっても実現できる。評価レベルは、報酬や罰などの動作を通じて、又は新しいステップ・サイズを誘導することによって、作業レベルの解の発見に積極的に介入できる。したがって、作業レベルの出力値も、特別なタイプのフィードバックを通じて評価レベルの影響を受ける。
更なる選択肢で、評価レベルは、タイマに影響を与え、システム内の個々のユニットの優位性の関連する決定に影響を与えることができる。これは、図4に関連して既に説明したように、いくつかの結合されたユニットのシステムで実装される作業レベルが好ましい。例えば、評価レベルは、優位性の移行のために指定された時間パラメータが適切な結果につながるかどうか、又は期間の別の分布又は仕様を指定する必要があるかどうかを確認できる。これにより、例えば、通常よりも大まかな分類が必要で、より短い時間で決定する必要がある状況に柔軟に対応できる。したがって、必要に応じて、評価レベルからタイマ・モジュールへの信号を使用して、結合された人工学習ユニットのそれぞれに一つ又は複数の新しい時間パラメータを設定でき、これに基づいて、既に説明したように優位性の更なる決定が実行される。同様に、状況データの時間評価の後、評価レベルは、入力値、したがって評価される状況が非常に急速に大幅に変化すること、又は状況が準静的な方法で長時間変化しないことを決定し、これに基づいて処理のための他の時間パラメータを定義する。
図7及び8に記載された要素及びプロセス・ステップは、もちろん、四つの人工学習ユニットで示される実施形態に限定されることを意図していない。すべての実施形態において、個々の要素、例えばメモリ要素、人工学習ユニット(ニューラル・ネットワーク)、これらの要素間の接続、及び他は、ここに示されているものとは異なる方法で実装できることを理解されたい。例えば、これらの概略図に示されていない他のメモリ要素ももちろん存在することができ、又はこれらのメモリの一部又は全部が単一の物理メモリ要素の形をとることができ、例えばアドレス指定によって細分化される。
上記のさまざまなサブアプローチは、特に相互に組み合わせると、連想的で独立して機能するシステムにつながり得る。このようなシステムは、一つの専門分野だけでトレーニングされたインテリジェント・システムよりもはるかに広い範囲の用途をカバーできる。従来のシステムでは、データ処理は、多次元空間でエラーの最小値又は成功の最大値を見つけることに相当する。この空間の次元が(分類、選択肢、階層レベルを通じて)多ければ多いほど、システムが極小値又は極大値で動けなくなる可能性が高くなる。一方、重み、ステップ・サイズ、関数などに適用される変調関数の形で、第1のユニットによる第2のユニットの結合と影響は、前述のとおりで、定義されたステップ・サイズに応じて、探索空間内で、他の方法では決して到達しない最初の未調査の領域にジャンプできる。そのプロセスでは、新しい解スペースが関連するかどうかがその都度すばやく確認されるため、タスクが短時間変更されることもある。
例えば、潜在的に危険であるが識別不可能な動物が入力値から認識され、第1の作業ユニットも第2の作業ユニットも適切な画像パターンを見つけることができない場合、システムは、変調されたステップ・サイズ(例えば、確率的に誘導された)によってサウンド分析にジャンプし、識別不可能な動物によって記録された適切なサウンドを見つけることができる。ここで、この方法で変調された第2の作業ユニットは、見つかった解が以前は分類できなかった画像に適用できるかどうかを確認できる。これは連想性能に対応する。
同様に、投影レベルの導入により、連想動作をここで再現できる。例えば、決定(出力値の形式)を以前の決定と比較し、任意選択で評価することもできる。したがって、正又は負の報酬に基づく抽象的な学習能力の代わりに、評価システムは連想的に完成される。例えば、システムがジャンプ領域でより良い解を見つけられない場合、投影レベルでの評価によって決定され、任意選択で保存された、これまでの最適解の領域にジャンプして戻り、新しいジャンプ変形を開始できる。これにより、例えば、評価レベルによる評価に基づいて見つけた適切な開始点から常に第1のユニットによる変調を行うことができる。
考えられる適用例として、ユーザに合わせたパーソナルAIシステムを考えるものとする。理想的には、このようなシステムは、いくつかの人工学習ユニットを結合することにより、ハード人工知能の意味でインテリジェントな動作を開発できる。これには、とりわけ、変調による説明されたフィードバックと、対応する保存選択肢による評価レベルの評価が含まれる。このようなシステムは、問題を自由に関連付けて個別に分類できることが好ましい。更に、AIシステムがユーザに個別に応答できるように、ユーザ固有の動作が可能である必要があり、つまり、特に、ユーザがどの興味、特異性、気分、感情、性格特性、及び知識レベルを持っているかを検出及び/又は学習できる必要がある。
本明細書で、そのような及び他の外部から収集されたデータをシステムに追加することができる。全体のシステムの更新も可能である。例えば、特定の制限内で作業レベル又は分類及び/又は評価レベル又は条件を変更することができる。しかし、システムからのデータのエクスポートを完全に防止するメカニズムを導入することが好ましい。というのは、それが、特に非常に個人的なレベルで動作するためである。したがって、個人データは外部に開示されるべきではなく、任意選択でアクセス可能であってはならない。例えば、AIシステムが主にオフラインで、つまり外部通信ネットワークや他のインターフェースに接続せずに動作することも想定できる。システムを更新したり、背景知識やその他のデータをロードしたりするために、時間制限のある安全な接続を確立できる。これは、例えば、ユーザが完全に制御できる。例えば、追加されたデータのソースを指定することができ、接続に同意するかどうかの選択肢をユーザに与えることができる。
システムの初期トレーニング段階を提供することができ、外国人、事前定義されたトレーニング・データ・セット及び/又はシステムの実際のユーザに由来しないデータとの学習通信が行われる。このトレーニング段階は、トピック、知識、経験、及び専門知識に関する一般的な基本設定を提供するのに役立ち得、後で特別な場合にのみ外部データに頼らなければならなくなる。事前定義された通信キャラクターも設定でき、学習プロセスの初期深度と一般的な状態の関連付けも設定できる。更に、問題認識と状況への適切な対応、連想通信プロセスをトレーニング段階でトレーニングすることができる。
例えば、メーカーによって実施され得るこの初期トレーニング段階の完了後、エンド・ユーザによって第2のトレーニング段階が実施され得る。ここでは、例えば、時間パラメータをユーザに設定できる(同期)。以前に初期設定された通信キャラクターは、結合されたネットワークからシステムを学習及び適応させることによって(ミラーリング又は補完によって)エンド・ユーザに適応させることができる。同様に、以前は一般ユーザ向けに設定されていたキャラクターの特性と興味が、特定のエンド・ユーザに適応できるようになった。更に、例示的な実施形態、特に視覚的評価を含む実施形態では、投影レベルは、その状態の現在の画像を生成し、画面上に表示することができる。この重畳された画像は、次に、作業段階、特にトレーニング段階で外部ユーザ又はトレーナーによる評価を可能にし、システムが現在の状況をどのように近似的に評価するかを決定するために画像を外部ユーザ又はトレーナーが使用できる。このようにして、システムがどのように機能しているかを早い段階で認識したり、必要に応じて介入して特定の側面を修正又は変更したりして、トレーニング段階を加速することができる。
これらのトレーニング段階の後、システムは使用できる状態になることが好ましい。しかし、補足トレーニング段階は後で使用することもできる。
実施形態に応じて、AIシステムは、ユーザによって実行される環境条件及び動作、並びにユーザの感情的及び精神的状態を登録するための異なるインターフェースを有し得る。この目的には、カメラ、マイク、モーション・センサ、赤外線センサ、化合物センサ(「人工鼻」)、超音波センサなど、さまざまなセンサを使用できる。これらを個別に配置したり、分散させたり、及び/又は適切な移動又は静的オブジェクトに組み合わせたりして、可能な限り最も包括的な分析を可能にすることができる。更に、AIシステムがユーザと通信することができる他のインターフェース、例えば、音声出力用のスピーカ又は画面、並びに視覚的表示及びテキスト表現用の他の表示手段などを提供することができる。
一つの可能な実施形態では、そのようなAIシステムが統合されたオブジェクトがユーザのために提供される。これは、技術的なデバイス(スマートフォンなど)などの移動オブジェクトであり得るが、特に家具のアイテムや、ランプ、花瓶、画面、鏡、又は既に家に決まった場所がある他のオブジェクトなどの日常使用のオブジェクトである。このシステムのタスクは、ユーザ個人の人工的なパーソナル・インテリジェント・コンパニオンになることである。システムは、ユーザのIDを確認し、部屋に画面又はプロジェクションが設置されている場合、例えば、音声及び/又は画像を介してユーザと通信する。したがって、出力はインターフェース(例えば、スピーカ、画面、プロジェクター)に接続される。
上述の本発明の要素に基づいて、システムは、状況を分類し、保存され学習された知識を取り込み、関連付けることができる。目的は、インスピレーションを提供し、提案を行い、ユーザの孤独と気分の落ち込みを橋渡しし、コーチとして、又はプロのアドバイザー/問題解決者としても動作することである。用途の分野には、レジャーのコンパニオンとして(退屈を助け、会話への衝動を与え、人々を楽しませ、人生を助ける)、知的、科学的、芸術的な衝動を与えるインスパイアとして、特に精神障害者に心理的又は知的サポートを提供するコーチ又はアドバイザーとして、日常のさまざまな状況(ファッション、衛生、健康、業務、ケア)のアドバイザーとして、個人秘書として(それにより、広範な知識データベースを作成して使用することができる)、最も多様なゲームのプレイ・パートナーとしてなどの使用が含まれる。
特に、そのようなシステムは、短期的には例えば現在の気分に、長期的には例えばユーザの性格タイプの両方をユーザに適応することができる。とりわけ、投影レベルを介して処理され、長期メモリに保存された情報は、この目的に使用できる。理想的には、この目的のために、システムにコード、生体ユーザ認識(画像、音声、指紋、声のトーン、又はその他の特徴)、及びその他のアクセス制御選択肢を装備できる。
道徳倫理的システムは、そのようなシステム及び説明されたプロセス・ステップで実装することができることが好ましい。例えば、パーソナル・インテリジェント・コンパニオンは、ユーザとその環境にとって満足のいく有用な行為を奨励することができる。それは、ユーザのタイプ、性格状況、気分に適応した道徳倫理的問題に注意を引くことができ、例えば、特定の美徳(有用性、寛大さ、優しさ、勇気、知恵)を広めることができる。
評価レベルの適切な条件により、システムは、ユーザだけでなく、その決定によって影響を受けるすべての人々の害、痛み、及び苦痛を回避するように設定できる。重大な誤った決定が予想される場合、パーソナル・アテンダントが話し合いを開始できる。特に、特定の動作方針の結果について議論し、代替案について建設的な提案を行うことができる。動作を処方することではなく、動作がどうあるべきか、又はどうできるかという理想が優先される。パーソナル・アテンダントは、ジレンマの状況を識別してユーザに指摘すると同時に、代替解又は選択するのに最も適した解を探すことができる。特にユーザの芸術作品のコンテキストでは、パーソナル・インテリジェント・コンパニオンは、事前にプログラムされ学習された評価のみを介してサポートする可能性を提供する。このコンテキストでは、リフレクションは既にユーザに適応させることができる。ここでは、システムの連想能力が重要な役割を果たす。
実装の更なる例として、「インテリジェント・ミラー」について説明する。エントランス・エリア又はバスルーム・エリアには既に鏡がある。さまざまなセンサなど、前の一般的な例で既に説明した入力及び出力インターフェースは、ミラーに簡単に統合できる。ユーザが短時間だが頻繁に通過するオブジェクトを使用することで、このようなAIシステムにさまざまな可能性を実装できる。
例えば、適切なカメラ、マイク、動作検出器、超音波センサ、人工鼻、赤外線センサなどを使用して、積極的に入力しなくても、ユーザ、一般的な状況、及びユーザの習慣に関するさまざまな情報を収集できる。特にエントランス・エリアでは、入退室管理も実装可能である。
このようにして、インテリジェントなAIシステムはユーザに例えば、衣服の問題を警告し、衣服の推奨事項を提供できる。予想される天候と必要な道具が不足していることを検出した場合、それらを指摘できる。ユーザが携帯するアイテムを記録して認識できる。必要に応じて、ユーザとの対話(音声又はその他の入力手段を介して)で質問を明確にすることができ、例えば何かが必要か、忘れられたか、失われたか。
マイクによって録音されたコメントも含めることができるため、ユーザは、例えば、状況やオブジェクトについてコメントしたり、録音のためにそれらを積極的に指摘したりして、これらのプロセスを積極的にサポートできる。しばらくすると、AIシステムは、この方法でフラット内のほぼすべてのオブジェクト、衣類、及びそれらの所在を知ることができる。何かを検索している場合、又はユーザが自分の服、食料品在庫、本の在庫などについて質問がある場合、システムはヒントを提供できる。例えば、フラットに入ったときにメガネをかけていたことをユーザに伝えることができ、メガネはフラットの中にあるに違いないと結論付けることができる。
アポイント・ダイアリーやリストなどの日常生活支援もAIシステムが対話で管理する。したがって、このシステムは、高齢者や病人、又は一般的に日常生活に何らかの制限がある人にも特に役立つ。
記録されたデータの適切な評価、例えば、顔の表情の認識と、声の高さ又はその他のデータの評価により、システムは短期間でユーザの気分を記録し、これに基づいて対応する指示を与えることもでき、例えば誰かが急いで長い旅を始めたい場合。例えば、検出された気分は、上記の実施形態の例における評価レベルによって行われた評価に含めることができる。
このコンテキストでは、検出選択肢と対話は、必ずしもオブジェクト(つまり、この場合はインテリジェント・ミラー)にバインドされているわけではない。ユーザが不適切な場所でAIシステムと長時間会話する必要がないようにするために、システムはフラット内の適切な場所に配分されたスピーカ、マイク、及びその他のデバイスを介してユーザとの対話を開始又は継続することができる。AIシステム自体のコンポーネントは、複数のモジュールに分散することもでき、例えば、適切な無線又は有線通信インターフェースを介して相互に接続することができる。
ここに提示されているすべてのAIシステムについて、記録及び保存されたデータ、特に個人データが厳密に保護されていること、特にデータの暗号で保護された保存が提供されていることを適用することが好ましい。この目的のために、画像、サウンドだけでなく、動きの特徴、音声強調の評価、又はその他の生体特徴からも確実にユーザを識別することができる識別システムを統合することもできる。これにより、対話で個人情報がゲストやその他の許可されていない人に開示されるのを防ぐことができる。
個別に、又は互いに、及び上記の実施形態と任意に組み合わせて実装することができる更なる可能な実施形態を以下に要約する。
例えば、一実施形態によれば、方法は、少なくとも第1の人工学習ユニット及び第2の人工学習ユニットに入力値を入力することを含む、複数の人工学習ユニットのシステムで実装されてもよく、これにより、第1の人工学習ユニットの第1の出力値が得られる。第1の人工学習ユニットの出力値に基づいて、一つ又は複数の変調関数を形成することができ、次いで、第2の人工学習ユニットの一つ又は複数のパラメータに適用される。一つ又は複数のパラメータは、第2の人工学習ユニットにおける入力値の処理及び出力値の取得に何らかの形で影響を与えるパラメータであり得る。更に、第2の人工学習ユニットの出力値を取得する。これらは、例えば、第2のユニットの変調された出力値を表し得る。
このように、二つの人工学習ユニットを結合して、入力値又は出力値の直接フィードバックを使用せずに人工学習システムを形成する。代わりに、ユニットの一つを使用して、機能的に関連する特定のパラメータを変調することにより、第2のユニットの関数に影響を与える。その結果、従来の学習ユニットとは異なる結果又は出力値につながる新しい結合が生じる。更に、入力値を二つの結合されたユニットで処理することにより、従来のシステムよりも短時間で、より詳細な分析で結果を出すことができるため、全体の効率を高めることができる。特に、当面の問題は迅速に分類され、急速な変化が考慮される。
例示的な実施形態では、人工学習ユニット(作業ユニット及び評価ユニット)の少なくとも一つは、複数のノード、特に変調関数が適用される人工学習ユニットの一つを有するニューラル・ネットワークを備え得る。この場合、一つ又は複数のパラメータは、ニューラル・ネットワークのノードの重み付け、ノードの活性化関数、ノードの出力関数、ノードの伝播関数のうちの少なくとも一つとすることができる。これらは、ネットワーク内のデータ処理を決定するニューラル・ネットワークの重要なコンポーネントである。ノードの新しい重み又は関数を定義する代わりに、変調関数を使用して、第1の人工学習ユニットの結果に応じて、変調ネットワークの既存の自己学習及び/又は事前定義された関数を重畳することができる。これにより、変調関数のこの適用は、特に、ネットワークのトレーニング段階の外でも行うことができ、したがって、入力値の処理において二つ以上のネットワークのアクティブな結合を達成することができる。
例示的な実施形態によれば、人工学習ユニット(作業ユニット及び評価ユニット)の少なくとも一つ、好ましくはそれぞれに分類メモリを割り当てることができ、人工学習ユニットのそれぞれは、入力値を分類メモリに保存される一つ又は複数のクラスに分類し、クラスはそれぞれ、一つ又は複数の従属レベルで構造化され、第1の人工学習ユニット(第1の作業/評価ユニット)の第1の分類メモリ内のクラス及び/又はレベルの数は、第2の人工学習ユニット(第2の作業/評価ユニット)の第2の分類メモリ内のクラス及び/又はレベルの数より少ない。このように結合された二つの人工学習ユニットの分類メモリを非対称にすることで、異なる目的を持つ入力値の並列又は時間依存の交互評価を行うことができ、例えば入力値の高速な分類と、入力値の詳細で低速な分析の組み合わせを行うことができる。
分類メモリの非対称設計の代わりに、又はそれに加えて、第1及び第2の人工学習ユニットの複雑さも異なるように設計できるため、例えば、第1の人工学習ユニット(第1の作業/評価ユニット)は、第2の人工学習ユニット(第1の作業/評価ユニット)よりも著しく低い複雑度を有する。ニューラル・ネットワークの場合、例えば、第1のニューラル・ネットワークは、第2のニューラル・ネットワークよりも大幅に少ないノード及び/又は層及び/又はエッジを持つことができる。
可能な実施形態では、少なくとも一つの変調関数の適用は、第2の人工学習ユニットのパラメータの時間依存の重ね合わせを引き起こすことができ、少なくとも一つの変調関数は、次の特徴のうちの一つを含むことができる:周期関数、ステップ関数、一時的に振幅が増加した関数、減衰振動関数、いくつかの周期関数の重ね合わせとしてのうなり関数、連続増加関数、連続減少関数。そのような関数の組み合わせ又は時系列も考えられる。このようにして、学習ユニットの関連するパラメータを時間依存的に重畳することができるので、例えば、重ね合わせなしでは到達できない変調のために、出力値が探索空間に「ジャンプ」する。
任意選択で、第2の人工学習ユニットは、複数のノードを有する第2のニューラル・ネットワークを備えてもよく、少なくとも一つの変調関数を適用することにより、ノードの少なくとも一部が非活性化される。このタイプの非活性化は、第1の人工学習ユニットの出力値に基づく「ドロップアウト」と見なすこともでき、また、分類で新たに開かれた検索領域を提供するだけでなく、計算量を削減して、方法の実行を加速することもできる。
例示的な実施形態では、方法は、システム内の現在の優位的な人工学習ユニットを決定し、現在の優位的なユニットの出力値からシステムの全体の出力値を形成することを更に含むことができる。このようにして、システム内の二つ以上の人工学習ユニットを意味のある形で結合し、同期させることができる。
例えば、第1の人工学習ユニット(特に第1の作業ユニット)は、少なくとも第2の人工学習ユニット(特に第2の作業ユニット)の一つ又は複数の出力値が利用可能になるまで、優位的なユニットとして設定することができる。このようにして、システムが常に決定に対して安全であること、つまり、システムの反応が、入力値の完全な分類がシステムのすべての既存の人工学習ユニットによって行われる前であっても、常に(第1の作業ユニットの第1の実行後)可能であることを保証できる。
システムの人工学習ユニットの少なくとも一つによって、現在の入力値と以前の入力値との比較を更に適用することも可能であり、それにより、比較の結果、事前定義された入力閾値を超える偏差が生じた場合、第1の人工学習ユニットが優位的なユニットとして設定される。このようにして、実質的に変更された入力値(例えば、センサによる新しい状況の検出)が、入力値の新しい分析で即座に反応することを保証できる。
追加又は代替として、第1の人工学習ユニットの現在の出力値と、第1の人工ユニット(特に第1の作業ユニット)の以前の出力値との比較を更に行うことができ、それにより、比較の結果、所定の出力閾値を超える偏差が生じる場合、第1の人工学習ユニットが優位的なユニットであると決定される。出力値の偏差を評価することにより、例えば、前回の実行と比較した結果として偏差クラスが存在する場合、特定の重要性を持つ入力値の変化を間接的に検出するため、新しい分類を意味のあるものにすることもできる。
特定の実施形態では、システムは、人工学習ユニットのうちの一つ又は複数に関連する一つ又は複数の所定の期間を保存する少なくとも一つのタイマを更に備えてもよく、タイマは、一度に人工学習ユニットの一つについて、そのユニットに関連する所定の期間の経過を測定するように構成されている。このような要素は、例えば、システムのさまざまなユニットを同期させ、特定のユニットの出力値がいつ期待されるか、更に処理されるかを制御する可能性を形成する。したがって、タイマを使用して、全体のシステムの調整可能な待ち時間を定義できる。この待ち時間内で、システムの全体の出力値として決定を行うことができる。この時間は、例えば数ms、例えば30又は50msであり、とりわけ、計算ユニットの既存のトポロジ及び利用可能な計算ユニット(プロセッサ又は他のデータ処理手段)に依存し得る。
例えば、人工学習ユニットのうちの一つに割り当てられた事前定義された期間の測定は、この人工学習ユニットが優位的なユニットとして決定されるとすぐに開始することができる。このようにして、ユニットが所定の時間内に解を開発すること、又は任意選択で、データ処理が中止されることさえ確実にすることができる。
一つの可能な実施形態では、第1の人工学習ユニットに対して所定のタイマの第1の期間が経過した場合、第2の人工学習ユニット(特に第2の作業ユニット)を優位的なユニットとして設定することができる。これにより、入力値が更なる人工学習ユニットによって分析される前に、第1の人工ユニットに基づく反応が既に可能であることが保証され、その後、データは第2のユニットによってより詳細に評価される。
任意の実施形態において、入力値は、例えば、以下のうちの一つ又は複数を含み得る:一つ又は複数のセンサによって検出された測定値、ユーザ・インターフェースによって検出されたデータ、メモリから取得されたデータ、通信インターフェースを介して受信されたデータ、計算ユニットによって出力されたデータ。例えば、それはカメラによって捕捉された画像データ、オーディオ・データ、位置データ、速度などの物理的測定値、距離測定値、抵抗値、及び適切なセンサによって捕捉された一般的な値などであり得る。同様に、ユーザはキーボード又は画面を介してデータを入力又は選択し、任意選択でセンサ・データなどの他のデータにリンクすることができる。
上記の例は、任意の方法で組み合わせることができることが理解される。例えば、説明された実施形態のいずれにおいても、図4に関連して説明されたタイマも存在し得る。同様に、すべての例において、学習ユニットは、図5に関連して例として説明した分類メモリを有することができる。これらの変形はすべて、三つ又は四つを超える人工学習ユニットの結合にも再度適用できる。

Claims (26)

  1. 機械のコントローラで実行され、人工学習システムである作業レベル(710)と評価レベル(730)を有する全体のシステムで一つ又は複数のセンサによって検出されたセンサ・データを含む入力値(X)を処理する方法であって、
    a)第1の分類に従って、第1の入力値(X(t1))を前記作業レベルに入力し、前記作業レベルによって前記第1の入力値から第1の出力値(Output11)を決定することと、
    b)前記第1の出力値(Output11)に基づいて第1の状況データ(Y(t3))を形成することと、
    c)前記初期状況データを前記評価レベルに入力し、前記初期状況データが所定の初期条件を満たしているかどうか、又はどの程度満たしているかを示す前記評価レベルによって、初期評価(Output21)を決定することと、
    d)前記第1の評価に基づいて、前記作業レベルでの前記第1の出力値の前記決定に影響を与えることと、
    それにより、ステップa)~d)が繰り返し実行され、
    e)第2の分類に従って、第2の入力値(X(t2))を前記作業レベルに入力し、前記作業レベルによって前記第2の入力値から第2の出力値(Output12)を決定することであって、前記第2の出力値の前記決定は、前記第1の出力値によって影響を受ける、ことと、
    f)前記第2の出力値に基づいて第2の状況データ(Y(t4))を形成することと、
    g)前記第2の状況データを前記評価レベルに入力し、前記第2の状況データが所定の第2の条件を満たしているかどうか、又はどの程度満たしているかを示す前記評価レベルによって、第2の評価(output22)を決定することであって、前記第2の評価の前記決定は、前記第1の評価によって影響を受ける、ことと、
    h)前記第2の評価に基づいて、前記作業レベルでの前記第2の出力値の前記決定に影響を与えることと、を含み、
    それにより、ステップe)~h)が繰り返し実施され、
    前記第1及び/又は前記第2の出力値は、前記全体のシステムの全体の出力値(Output)として使用され、前記全体の出力値は、前記機械の制御パラメータ及び/又は状態パラメータとして使用される、方法。
  2. 所定の第1の期間が経過するまで、及び/又は前記第1の出力値が所定の第1の許容範囲内で連続する繰り返し間で変化しなくなるまで、及び/又は前記第1の評価が前記第1の条件が少なくともある程度満たされたことを示すまでステップa)~d)が繰り返し実行され、前記第1の出力値は、この繰り返し実行が完了したときに全体の出力値として使用されることが好ましい、請求項1に記載の方法。
  3. 所定の第2の期間が経過するまで、及び/又は前記第2の出力値が所定の第2の許容範囲内で連続する繰り返し間で変化しなくなるまで、及び/又は前記第2の評価が前記第2の条件が少なくともある程度満たされたことを示すまでステップe)~h)が繰り返し実行され、前記第2の出力値は、この繰り返し実行が完了したときに全体の出力値として使用されることが好ましい、請求項1乃至2のいずれか一項に記載の方法。
  4. 相互に対応する入力値及び/又は第1の出力値及び/又は第1の状況データ及び/又は第1の評価及び/又は第2の出力値及び/又は第2の状況データ及び/又は第2の評価をそれぞれ含む全体の記録の全体のシーケンスを全体のシーケンス・メモリ(760、860)に保存することを含み、前記全体の記録及び/又は前記全体の記録に含まれる前記値又は前記データには、それぞれの時間情報及び/又は番号付けが提供されることが好ましい、請求項1乃至3のいずれか一項に記載の方法。
  5. 前記第1及び/又は前記第2の条件を補足することを含み、その結果、第1及び第2の状況データのそれぞれについて前記補足前に前記第1及び前記第2の条件がそれぞれ満たされず、前記補足された第1及び第2の条件がそれぞれ満たされているか、少なくともある程度は満たされ、前記第2の条件のみが変更され、前記第1の条件は変更されないままであることが好ましい、請求項1乃至4のいずれか一項に記載の方法。
  6. 前記第2の期間が満了したため、又は好ましくは、前記第2の出力値が前記第2の許容範囲内で変化しなくなったために、ステップe)~h)の前記繰り返しが中止されたとき、中止時に存在する前記状況データが前記補足された第2の条件を満たすように、前記第2の条件が補足される、請求項3に従属する場合、請求項5に記載の方法。
  7. 前記第1及び/又は前記第2の条件の前記補足は、前記第1又は前記第2の条件をそれぞれ満たすことができなかった保存された総シーケンスに基づいて行われる、請求項4に従属する場合、請求項5又は6に記載の方法。
  8. 前記全体のシステムは投影レベルを含み、前記第1及び/又は前記第2の状況データの前記形成は前記投影レベルによって実行される、請求項1乃至7のいずれか一項に記載の方法。
  9. 前記第2の分類は、前記第1の分類の少なくとも一つのクラスを複数のサブクラスに分類し、及び/又は前記第1の条件の少なくとも一つについて、前記一つの第1の条件は、複数の前記第2の条件によって暗示される、請求項1乃至8のいずれか一項に記載の方法。
  10. 前記第1の条件はルールの形式で与えられ、前記第2の条件はルール分類の形式で与えられ、各ルールには、前記それぞれのルールの下位区分、特にいくつかのレベルへの区分を表すルール分類が割り当てられ、前記ルール及び前記ルール分類が保存されるメモリが提供されることが好ましく、更に、前記ルール分類は、ブロックチェーンによってリンクされるレベルに細分されることが好ましく、前記ルール及び/又は前記ルール分類は、スマート・コントラクトの形式で実装され、及び/又は請求項5に従属している場合、前記第2の条件を補足するときに、前記下位区分の更なるレベルが追加される、請求項1乃至9のいずれか一項に記載の方法。
  11. 前記作業レベルは、ステップa)における前記第1の出力値の前記決定がより短い期間を必要とし、ステップe)における前記第2の出力値の前記決定が、より長い期間を必要とするように設計され、及び/又は前記評価レベルは、ステップc)における前記第1の評価の前記決定がより短い期間を必要とし、ステップg)における前記第2の評価の前記決定がより長い期間を必要とするように設計され、両方の場合において、互いに独立して、前記より長い期間は前記より短い期間より少なくとも2倍、特に少なくとも5倍長いことが好ましい、請求項1乃至10のいずれか一項に記載の方法。
  12. 前記第1及び前記第2の入力値は、時間連続入力信号又は離散時系列として与えられ、前記第1及び前記第2の入力値は完全に又は部分的に同一であることが好ましい、請求項1乃至11のいずれか一項に記載の方法。
  13. 前記作業プレーンは、第1及び第2の人工学習作業ユニット(810、820)を含み、前記第1の人工学習作業ユニット(810)は、前記第1の入力値(X(t1))を受信し、前記第1の出力値を決定するように適合され、前記第2の人工学習作業ユニット(820)は、前記第2の入力値(X(t2))を受信し、前記第2の出力値を決定するように適合され、前記作業レベルでは、一つ又は複数の第1の変調関数(fmod1_f、fmod2_w)が、前記第1の出力値及び/又はそこから導出された値に基づいて形成され、前記形成された一つ又は複数の第1の変調関数が、前記第2の人工学習作業ユニット(820)の一つ又は複数のパラメータ(foutA2、faktA2、ftransA2、wiA2)に適用され、前記一つ又は複数のパラメータは、前記第2の人工学習作業ユニットにおける入力値の前記処理及び出力値の前記取得に影響を与える、請求項1乃至12のいずれか一項に記載の方法。
  14. 一つ又は複数の第2の変調関数(fmod2_f、fmod2_w)が、前記第1の評価及び/又はそこから導出された値に基づいて形成され、前記形成された一つ又は複数の第2の変調関数が、前記第1の人工学習作業ユニット(810)の一つ又は複数のパラメータ(foutA1、faktA1、ftransA1、wiA1)に適用され、前記一つ又は複数のパラメータは、前記第1の人工学習作業ユニットにおける入力値の前記処理及び出力値の前記取得に影響を与える、請求項13に記載の方法。
  15. 前記第1の評価及び/又はそこから導出された値は、前記第1の人工学習作業ユニット(810)の評価入力値として使用され、及び/又は前記第2の評価及び/又はそこから導出された値は、前記第2の人工学習作業ユニット(820)の評価入力値として使用される、請求項13又は14に記載の方法。
  16. 前記評価レベルは、第1及び第2の人工学習評価ユニット(830、840)を含み、前記第1の人工学習評価ユニット(830)は、前記第1の状況データ(Y(t3))を受信し、前記第1の評価を決定するように構成され、前記第2の人工学習評価ユニット(840)は、前記第2の状況データ(Y(t4))を受信し、前記第2の評価を決定するように構成され、前記評価レベルでは、一つ又は複数の第3の変調関数(fmod3_f、fmod3_w)が、前記第1の評価及び/又はそこから導出された値に基づいて形成され、前記形成された一つ又は複数の第2の変調関数は、前記第2の人工学習評価ユニット(840)の一つ又は複数のパラメータ(foutB2、faktB2、ftransB2、wiB2)に適用され、前記一つ又は複数のパラメータは、前記第2の人工学習評価ユニットにおける入力値の前記処理及び出力値の前記取得に影響を与える、請求項1乃至15のいずれか一項に記載の方法。
  17. 第1のシーケンス・メモリに、前記第1の評価ユニットの入力値及び関連する第1の評価を含む第1の評価セットの第1の評価シーケンスを保存することであって、前記第1の評価セットには、特に、それぞれの時間情報及び/又は番号付けが提供される、ことと、及び/又は
    第2のシーケンス・メモリ(832)に、前記第2の評価ユニットの入力値及び関連する第2の評価を含む第2の評価セットの第2の評価シーケンスを保存することであって、前記第2の評価セットには、特に、それぞれの時間情報及び/又は番号付けが提供される、ことと、を更に含み、
    前記第1及び/又は前記第2の評価の前記決定は、前記保存された第1又は第2の評価シーケンスを考慮して実行されることが好ましい、請求項16に記載の方法。
  18. 前記保存は暗号で保護された形式で行われ、それぞれ一つのブロックチェーンが使用されることが好ましく、それぞれの前記ブロックチェーンのブロックには、それぞれ、前記第1の評価セット、前記第2の評価セット、及び前記全体のセットの少なくとも一つが含まれる、請求項4又は17に従属している場合、請求項1乃至17のいずれか一項に記載の方法。
  19. 別のシステムから出力値を受信することと、
    前記受信した出力値から第1及び/又は第2の状況データを形成することと、
    前記受信した出力値から形成された前記第1又は前記第2の状況データに基づく前記評価レベルによって、第1及び/又は第2の評価を決定することと、
    前記決定された第1及び/又は第2の評価が、前記第1又は前記第2の条件がそれぞれ満たされていることを示す場合、前記別のシステムが互換性があると決定することと、を含む、請求項1乃至18のいずれか一項に記載の方法。
  20. 作業レベル(710)と評価レベル(730)とを含み、請求項1乃至19のいずれか一項に記載の方法を実行するように構成された機械のコントローラ内のシステムであって、前記作業レベルは前記入力値を受信するように構成され、前記評価レベルは前記入力値を受信することができないことが好ましい、システム。
  21. 前記作業レベル及び前記評価レベルはそれぞれ、少なくとも一つの計算ユニットで実装される、請求項20に記載のシステム。
  22. 前記作業レベルが実装される前記少なくとも一つの計算ユニットは、前記評価レベルが実装される前記少なくとも一つの計算ユニットとは異なり、特に別個である、請求項21に記載のシステム。
  23. 投影レベル及び/又は全体のシーケンス・メモリ(760、860)を更に含む、請求項20乃至22のいずれか一項に記載のシステム。
  24. 前記作業レベルは、第1及び第2の人工学習作業ユニット(810、820)を含み、前記評価レベルは、第1及び第2の人工学習評価ユニット(830、840)を含み、前記人工学習作業ユニット及び/又は評価ユニットは、それぞれ、複数のノードを有するニューラル・ネットワークを含むことが好ましく、更に、前記一つ又は複数のパラメータはそれぞれ、前記ニューラル・ネットワークのノードの重み付け、ノードの活性化関数、ノードの出力関数、ノードの伝播関数のうちの少なくとも一つであることが好ましい、請求項20乃至23のいずれか一項に記載のシステム。
  25. 前記第1及び前記第2の人工学習評価ユニットは、第1及び/又は第2の計算ユニット内のハードウェア及び/又はコンピュータ・プログラムとして実装及び/又は実行され、前記第1及び前記第2の計算ユニットは、第1のインターフェースによって相互接続され、請求項13に従属する場合、前記第1のインターフェースは、前記一つ又は複数の第1の変調関数を形成するように構成され、及び/又は
    前記第1及び前記第2の人工学習評価ユニットは、第3及び/又は第4の計算ユニット内のハードウェア及び/又はコンピュータ・プログラムとして実装及び/又は実行され、前記第3及び前記第4の計算ユニットは、第3のインターフェースによって相互接続され、請求項16に従属する場合、前記第3のインターフェースは、前記一つ又は複数の第3の変調関数を形成するように構成され、及び/又は
    前記第3の計算ユニットと前記第1の計算ユニットは、第2のインターフェースによって相互接続され、請求項14に従属する場合、前記第2のインターフェースは、前記一つ又は複数の第2の変調関数を形成するように構成される、請求項24に記載のシステム。
  26. 少なくとも一つ、好ましくはすべての計算ユニットに、前記それぞれの計算ユニットに接続又は含まれるメモリが割り当てられ、前記第1の計算ユニットに割り当てられた前記メモリは、前記第1の分類を保存するように構成されることが好ましく、及び/又は前記第2の計算ユニットに割り当てられた前記メモリは、前記第2の分類を保存するように構成され、及び/又は前記第3の計算ユニットに割り当てられた前記メモリは、前記第1の条件を保存するように構成され、及び/又は前記第4の計算ユニットに割り当てられた前記メモリは、前記第2の条件を保存するように構成される、請求項25に記載のシステム。
JP2023529925A 2020-11-19 2021-11-19 入力値を処理する方法及びシステム Pending JP2023550377A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102020130604.0A DE102020130604A1 (de) 2020-11-19 2020-11-19 Verfahren und System zum Verarbeiten von Eingabewerten
DE102020130604.0 2020-11-19
PCT/EP2021/082350 WO2022106645A1 (de) 2020-11-19 2021-11-19 Verfahren und system zum verarbeiten von eingabewerten

Publications (1)

Publication Number Publication Date
JP2023550377A true JP2023550377A (ja) 2023-12-01

Family

ID=78820336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023529925A Pending JP2023550377A (ja) 2020-11-19 2021-11-19 入力値を処理する方法及びシステム

Country Status (7)

Country Link
US (1) US20240027977A1 (ja)
EP (1) EP4248284A1 (ja)
JP (1) JP2023550377A (ja)
KR (1) KR20230108293A (ja)
CN (1) CN116685912A (ja)
DE (1) DE102020130604A1 (ja)
WO (1) WO2022106645A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116757534B (zh) * 2023-06-15 2024-03-15 中国标准化研究院 一种基于神经训练网络的智能冰箱可靠性分析方法
CN116881262B (zh) * 2023-09-06 2023-11-24 杭州比智科技有限公司 一种智能化的多格式数字身份映射方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659666A (en) * 1994-10-13 1997-08-19 Thaler; Stephen L. Device for the autonomous generation of useful information
US9015093B1 (en) * 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US11138724B2 (en) * 2017-06-01 2021-10-05 International Business Machines Corporation Neural network classification
WO2020233851A1 (de) 2019-05-21 2020-11-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kopplung von mehreren künstlich lernenden einheiten mit einer projektionsebene

Also Published As

Publication number Publication date
EP4248284A1 (de) 2023-09-27
DE102020130604A1 (de) 2022-05-19
CN116685912A (zh) 2023-09-01
WO2022106645A1 (de) 2022-05-27
US20240027977A1 (en) 2024-01-25
KR20230108293A (ko) 2023-07-18

Similar Documents

Publication Publication Date Title
US20220292331A1 (en) Coupling multiple artificially learning units with a projection level
Sukthankar et al. Plan, activity, and intent recognition: Theory and practice
Chang Situation analytics: A foundation for a new software engineering paradigm
Scheutz et al. First steps toward natural human-like HRI
JP2023550377A (ja) 入力値を処理する方法及びシステム
EP1729246A1 (en) Will expression model device, psychological effect program, and will expression simulation method
US20180204107A1 (en) Cognitive-emotional conversational interaction system
Chu et al. Interactive activity recognition and prompting to assist people with cognitive disabilities
Westberg et al. A historical perspective on cognitive science and its influence on XAI research
US20210349433A1 (en) System and method for modifying an initial policy of an input/output device
Shestak et al. RETRACTED ARTICLE: Chatbot design issues: building intelligence with the Cartesian paradigm
Dignum et al. What Is Artificial Intelligence?
Russ et al. Situation-dependent behavior in building automation
JP2018190318A (ja) データ収集装置及び学習装置
Novianto Flexible attention-based cognitive architecture for robots
Meditskos et al. ReDef: Context-aware Recognition of Interleaved Activities using OWL 2 and Defeasible Reasoning.
Ransom et al. The many faces of attention: why Precision optimization is not attention
US20220009082A1 (en) Method for controlling a plurality of robot effectors
Rizzi et al. Improving the predictive performance of SAFEL: A Situation-Aware FEar Learning model
Vernon et al. Embodiment in cognitive systems: on the mutual dependence of cognition & robotics
US20240005124A1 (en) Method, device and system for interaction with third parties
Damerow et al. Toward self-referential autonomous learning of object and situation models
Loia Soft Computing Agents: A New Perspective for Dynamic Information Systems
Mbale Behavior oriented intelligence
Farias Plan recognition and failure prediction for ambient assisted living

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240508