JP7222239B2 - アプリケーションプログラム生成のための深層ニューラルネットワーク訓練 - Google Patents
アプリケーションプログラム生成のための深層ニューラルネットワーク訓練 Download PDFInfo
- Publication number
- JP7222239B2 JP7222239B2 JP2018238048A JP2018238048A JP7222239B2 JP 7222239 B2 JP7222239 B2 JP 7222239B2 JP 2018238048 A JP2018238048 A JP 2018238048A JP 2018238048 A JP2018238048 A JP 2018238048A JP 7222239 B2 JP7222239 B2 JP 7222239B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- expert
- data
- input
- expert user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/32—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
- H04L9/3236—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using cryptographic hash functions
- H04L9/3239—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using cryptographic hash functions involving non-keyed hash functions, e.g. modification detection codes [MDCs], MD5, SHA or RIPEMD
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/50—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols using hash chains, e.g. blockchains or hash trees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/169—Annotation, e.g. comment data or footnotes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
Description
(付記1)
深層ニューラルネットワーク訓練のために構成されるコンピュータシステムアーキテクチャであって、
プロセッサと、
学習エンジンが記憶されており、該学習エンジンが
データをエキスパートユーザに提示し、
前記データが前記エキスパートユーザに提示される場合に、該提示されたデータに関連した前記エキスパートユーザの反応及びフィードバックを測定する1つ以上のセンサを介してユーザ感覚入力を受け、
前記エキスパートユーザが焦点を合わせた前記提示されたデータの部分を示し且つ1つ以上のデータ分類領域を含むアテンションマップを、前記ユーザ感覚入力に基づき生成し、
前記エキスパートユーザの自然言語入力に基づく自然言語入力ラベルにより前記アテンションマップに注釈を付し、
前記ユーザ感覚入力に基づきニューラルネットワークを訓練し、
エンドユーザアプリケーションの特異なアクティビティのために最適化される前記訓練されたニューラルネットワークに基づくモデルを生成し、
前記エンドユーザアプリケーションの出力目標のためのアプリケーションプログラムを供給し、
前記出力目標に、前記アプリケーションプログラムを介して、前記特異なアクティビティを検出し是正するよう指示する
よう構成されるメモリと、
前記メモリ及び前記プロセッサと物理的に離れておりネットワーク接続されている微分メモリサブシステムであり、ニューラルネットワーク情報及び処理されたユーザ感覚入力を、実験データ処理機能のために前記学習エンジンから受けるよう構成される前記微分メモリサブシステムと
を有するコンピュータシステムアーキテクチャ。
(付記2)
前記微分メモリサブシステムは、実験データ処理機能のためにニューラルチューリングマシンを模倣する演算を用いる、
付記1に記載のコンピュータシステムアーキテクチャ。
(付記3)
前記学習エンジンは更に、
前記エキスパートユーザからセッショントークン識別子を受け、
前記セッショントークンに基づき前記エキスパートユーザを認証し、
前記エキスパートユーザから得られた情報をブロックチェーンスタイルの台帳に格納する
よう構成される、
付記1に記載のコンピュータシステムアーキテクチャ。
(付記4)
前記学習エンジンは更に、前記アプリケーションプログラムの品質チェックを可能にするよう構成される、
付記1に記載のコンピュータシステムアーキテクチャ。
(付記5)
前記品質チェックは、
第2エキスパートユーザから第2セッショントークン識別子を受けることと、
前記第2セッショントークンに基づき前記第2エキスパートユーザを認証することと、
前記第2エキスパートユーザの品質チェックセッションにタイムスタンプを付すことと、
前記第2エキスパートユーザから得られた情報をブロックチェーンスタイルの台帳に格納することと
を含む、
付記4に記載のコンピュータシステムアーキテクチャ。
(付記6)
前記エキスパートユーザは、農業専門家を含み、
前記アテンションマップは、ヒートマップ、グリッドをオーバーレイされた画像、又はオブジェクトセグメンテーション選択を含み、
前記ユーザ感覚入力は、視線センサによって捕捉される前記農業専門家の視線を表すユーザ視線データと、タッチスクリーンにおいて受け取られる物理接触を表す物理接触データとを含み、
前記農業専門家の自然言語入力は、音声入力又はタッチ機能を含む、
付記1に記載のコンピュータシステムアーキテクチャ。
(付記7)
前記エキスパートユーザは、セキュリティ専門家を含み、
前記アテンションマップは、過去の映像を含み、
前記ユーザ感覚入力は、視線センサによって捕捉される前記セキュリティ専門家の視線を表すユーザ視線データと、情緒反応を表す脳波図及びカメラとを含み、
前記セキュリティ専門家の自然言語入力は、音声入力を含む、
付記1に記載のコンピュータシステムアーキテクチャ。
(付記8)
前記1つ以上のセンサは、RBGdカメラ、ジェスチャ捕捉センサ、バイオメトリック捕捉システム、ウェアラブルセンサシステム、デジタルI/Oインターフェイス、ウェアラブルリング型入力、キーボード、マウス、感情認識システム、視線追跡システム、ビデオインターフェイス、マイクロホン、ブレインコンピュータインターフェイス、触覚インターフェイス、ワイヤレス受信器、高解像度カメラ、温度又は赤外線カメラ、光センサ、GPS、ワイヤレス送信器、360度カメラ、デジタル光学インターフェイス、及びバーチャルリアリティインターフェイスの組み合わせの1つ以上を含む、
付記1に記載のコンピュータシステムアーキテクチャ。
(付記9)
前記出力目標は、ドローン、カメラ、又は拡張現実ヘッドセットを含む、
付記1に記載のコンピュータシステムアーキテクチャ。
(付記10)
前記学習エンジンは更に、前記エキスパートユーザからユーザ入力を受けるよう構成され、
前記ユーザ入力は、前記提示されたデータが発せられるデータ源の選択を含み、且つ、前記出力目標の選択を含む、
付記1に記載のコンピュータシステムアーキテクチャ。
(付記11)
アプリケーションプログラムのための深層ニューラルネットワーク訓練の方法であって、
トレーナーサーバによって、データをエキスパートユーザに提示することと、
前記トレーナーサーバによって、前記データが前記エキスパートユーザに提示される場合に、該提示されたデータに関連した前記エキスパートユーザの反応及びアクティビティを測定する1つ以上のセンサを介してユーザ感覚入力を受けることと、
前記トレーナーサーバによって、前記エキスパートユーザが焦点を合わせた前記提示されたデータの部分を示し且つ1つ以上のデータ分類領域を含むアテンションマップを、前記ユーザ感覚入力に基づき生成することと、
前記トレーナーサーバによって、前記エキスパートユーザの自然言語入力に基づく自然言語入力ラベルにより前記アテンションマップに注釈を付すことと、
前記トレーナーサーバによって、前記ユーザ感覚入力に基づきニューラルネットワークを訓練することであり、実験データ処理機能のためにニューラルネットワーク情報及び処理されたユーザ感覚入力を微分メモリサブシステムへ送ることを含む前記訓練することと、
前記トレーナーサーバによって、エンドユーザアプリケーションの特異なアクティビティのために最適化される前記訓練されたニューラルネットワークに基づくモデルを生成することと、
前記トレーナーサーバによって、前記エンドユーザアプリケーションの出力目標のためのアプリケーションプログラムを供給することと、
前記トレーナーサーバによって、前記出力目標に、前記アプリケーションプログラムを介して、前記特異なアクティビティを検出し是正するよう指示することと
を有する方法。
(付記12)
前記エキスパートユーザからユーザ入力を受けることを更に有し、
前記ユーザ入力は、前記提示されたデータが発せられるデータ源の選択を含み、且つ、前記出力目標の選択を含む、
付記11に記載の方法。
(付記13)
前記微分メモリサブシステムは、前記トレーナーサーバの一次メモリから物理的に離れておりネットワーク接続されている、
付記11に記載の方法。
(付記14)
前記エキスパートユーザからセッショントークン識別子を受けることと、
前記セッショントークンに基づき前記エキスパートユーザを認証することと、
前記エキスパートユーザから得られた情報をブロックチェーンスタイルの台帳に格納することと
を更に有する
付記11に記載の方法。
(付記15)
前記アプリケーションプログラムの品質チェックを可能にすることを更に有し、
前記品質チェックは、
第2エキスパートユーザから第2セッショントークン識別子を受けることと、
前記第2セッショントークンに基づき前記第2エキスパートユーザを認証することと、
前記第2エキスパートユーザの品質チェックセッションにタイムスタンプを付すことと、
前記第2エキスパートユーザから得られた情報をブロックチェーンスタイルの台帳に格納することと
を含む、
付記11に記載の方法。
(付記16)
前記エキスパートユーザは、農業専門家を含み、
前記アテンションマップは、ヒートマップ、グリッドをオーバーレイされた画像、又はオブジェクトセグメンテーション選択を含み、
前記ユーザ感覚入力は、視線センサによって捕捉される前記農業専門家の視線を表すユーザ視線データと、タッチスクリーンにおいて受け取られる物理接触を表す物理接触データとを含み、
前記農業専門家の自然言語入力は、音声入力又はタッチ機能を含む、
付記11に記載の方法。
(付記17)
前記エキスパートユーザは、セキュリティ専門家を含み、
前記アテンションマップは、過去の映像を含み、
前記ユーザ感覚入力は、視線センサによって捕捉される前記セキュリティ専門家の視線を表すユーザ視線データと、情緒反応を表す脳波図及びカメラとを含み、
前記セキュリティ専門家の自然言語入力は、音声入力を含む、
付記11に記載の方法。
(付記18)
前記出力目標は、ドローン、カメラ、又は拡張現実ヘッドセットを含む、
付記11に記載の方法。
(付記19)
前記1つ以上のセンサは、RBGdカメラ、ジェスチャ捕捉センサ、バイオメトリック捕捉システム、ウェアラブルセンサシステム、デジタルI/Oインターフェイス、ウェアラブルリング型入力、キーボード、マウス、感情認識システム、視線追跡システム、ビデオインターフェイス、マイクロホン、ブレインコンピュータインターフェイス、触覚インターフェイス、ワイヤレス受信器、高解像度カメラ、温度又は赤外線カメラ、光センサ、GPS、ワイヤレス送信器、360度カメラ、デジタル光学インターフェイス、及びバーチャルリアリティインターフェイスの組み合わせの1つ以上を含む、
付記11に記載の方法。
(付記20)
プロセッサによって実行される場合に該プロセッサに付記11に記載の方法を実行させる実行可能コードを記憶している非一時的なコンピュータ読み出し可能な媒体。
102 エキスパート入力環境
104 表示デバイス
106 環境センサ
108 出力目標
110 実環境
112 データストレージ
118 トレーナーサーバ
114 微分メモリサブシステム(DMS)
116 学習エンジン
120 エキスパートユーザ
122,124 ユーザセンサ
128 ネットワーク
201A~F センサ
202 エキスパートデバイス
204 セッショントークン
206,706 自然言語入力
208,212,702 ユーザ感覚入力
210 データ
213,604 コメント
214 ブロックチェーンスタイルの台帳
302 注釈
304 アテンションマップ
306,812 ニューラルネットワーク
308 モデル
310 アプリケーションプログラム
312 深層学習エンジン
502 視線検出器
712,720 ラベル
716 注釈付きアテンションマップ
718 分類領域
900 コンピューティングシステム
Claims (20)
- 深層ニューラルネットワーク訓練のために構成されるコンピュータシステムアーキテクチャであって、
プロセッサと、
学習エンジンが記憶されており、該学習エンジンが
データをエキスパートユーザに提示し、
前記データが前記エキスパートユーザに提示される場合に、該提示されたデータに関連した前記エキスパートユーザの反応及びフィードバックを測定する1つ以上のセンサを介してユーザ感覚入力を受け、
前記エキスパートユーザが焦点を合わせた前記提示されたデータの部分を示し且つ1つ以上のデータ分類領域を含むアテンションマップを、前記ユーザ感覚入力に基づき生成し、
前記エキスパートユーザの自然言語入力に基づく自然言語入力ラベルにより前記アテンションマップに注釈を付し、
前記ユーザ感覚入力に基づきニューラルネットワークを訓練し、
エンドユーザアプリケーションの特異なアクティビティのために最適化される前記訓練されたニューラルネットワークに基づくモデルを生成し、
前記エンドユーザアプリケーションの出力目標のためのアプリケーションプログラムを供給し、
前記出力目標に、前記アプリケーションプログラムを介して、前記特異なアクティビティを検出し是正するよう指示する
よう構成されるメモリと、
前記メモリ及び前記プロセッサと物理的に離れておりネットワーク接続されている微分メモリサブシステムであり、ニューラルネットワーク情報及び処理されたユーザ感覚入力を、実験データ処理機能のために前記学習エンジンから受けるよう構成される前記微分メモリサブシステムと
を有するコンピュータシステムアーキテクチャ。 - 前記微分メモリサブシステムは、実験データ処理機能のためにニューラルチューリングマシンを模倣する演算を用いる、
請求項1に記載のコンピュータシステムアーキテクチャ。 - 前記学習エンジンは更に、
前記エキスパートユーザからセッショントークン識別子を受け、
前記セッショントークンに基づき前記エキスパートユーザを認証し、
前記エキスパートユーザから得られた情報をブロックチェーンスタイルの台帳に格納する
よう構成される、
請求項1に記載のコンピュータシステムアーキテクチャ。 - 前記学習エンジンは更に、前記アプリケーションプログラムの品質チェックを可能にするよう構成される、
請求項1に記載のコンピュータシステムアーキテクチャ。 - 前記品質チェックは、
第2エキスパートユーザから第2セッショントークン識別子を受けることと、
前記第2セッショントークンに基づき前記第2エキスパートユーザを認証することと、
前記第2エキスパートユーザの品質チェックセッションにタイムスタンプを付すことと、
前記第2エキスパートユーザから得られた情報をブロックチェーンスタイルの台帳に格納することと
を含む、
請求項4に記載のコンピュータシステムアーキテクチャ。 - 前記エキスパートユーザは、農業専門家を含み、
前記アテンションマップは、ヒートマップ、グリッドをオーバーレイされた画像、又はオブジェクトセグメンテーション選択を含み、
前記ユーザ感覚入力は、視線センサによって捕捉される前記農業専門家の視線を表すユーザ視線データと、タッチスクリーンにおいて受け取られる物理接触を表す物理接触データとを含み、
前記農業専門家の自然言語入力は、音声入力又はタッチ機能を含む、
請求項1に記載のコンピュータシステムアーキテクチャ。 - 前記エキスパートユーザは、セキュリティ専門家を含み、
前記アテンションマップは、過去の映像を含み、
前記ユーザ感覚入力は、視線センサによって捕捉される前記セキュリティ専門家の視線を表すユーザ視線データと、情緒反応を表す脳波図及びカメラとを含み、
前記セキュリティ専門家の自然言語入力は、音声入力を含む、
請求項1に記載のコンピュータシステムアーキテクチャ。 - 前記1つ以上のセンサは、RBGdカメラ、ジェスチャ捕捉センサ、バイオメトリック捕捉システム、ウェアラブルセンサシステム、デジタルI/Oインターフェイス、ウェアラブルリング型入力、キーボード、マウス、感情認識システム、視線追跡システム、ビデオインターフェイス、マイクロホン、ブレインコンピュータインターフェイス、触覚インターフェイス、ワイヤレス受信器、高解像度カメラ、温度又は赤外線カメラ、光センサ、GPS、ワイヤレス送信器、360度カメラ、デジタル光学インターフェイス、及びバーチャルリアリティインターフェイスの組み合わせの1つ以上を含む、
請求項1に記載のコンピュータシステムアーキテクチャ。 - 前記出力目標は、ドローン、カメラ、又は拡張現実ヘッドセットを含む、
請求項1に記載のコンピュータシステムアーキテクチャ。 - 前記学習エンジンは更に、前記エキスパートユーザからユーザ入力を受けるよう構成され、
前記ユーザ入力は、前記提示されたデータが発せられるデータ源の選択を含み、且つ、前記出力目標の選択を含む、
請求項1に記載のコンピュータシステムアーキテクチャ。 - アプリケーションプログラムのための深層ニューラルネットワーク訓練の方法であって、
トレーナーサーバによって、データをエキスパートユーザに提示することと、
前記トレーナーサーバによって、前記データが前記エキスパートユーザに提示される場合に、該提示されたデータに関連した前記エキスパートユーザの反応及びアクティビティを測定する1つ以上のセンサを介してユーザ感覚入力を受けることと、
前記トレーナーサーバによって、前記エキスパートユーザが焦点を合わせた前記提示されたデータの部分を示し且つ1つ以上のデータ分類領域を含むアテンションマップを、前記ユーザ感覚入力に基づき生成することと、
前記トレーナーサーバによって、前記エキスパートユーザの自然言語入力に基づく自然言語入力ラベルにより前記アテンションマップに注釈を付すことと、
前記トレーナーサーバによって、前記ユーザ感覚入力に基づきニューラルネットワークを訓練することであり、実験データ処理機能のためにニューラルネットワーク情報及び処理されたユーザ感覚入力を微分メモリサブシステムへ送ることを含む前記訓練することと、
前記トレーナーサーバによって、エンドユーザアプリケーションの特異なアクティビティのために最適化される前記訓練されたニューラルネットワークに基づくモデルを生成することと、
前記トレーナーサーバによって、前記エンドユーザアプリケーションの出力目標のためのアプリケーションプログラムを供給することと、
前記トレーナーサーバによって、前記出力目標に、前記アプリケーションプログラムを介して、前記特異なアクティビティを検出し是正するよう指示することと
を有する方法。 - 前記エキスパートユーザからユーザ入力を受けることを更に有し、
前記ユーザ入力は、前記提示されたデータが発せられるデータ源の選択を含み、且つ、前記出力目標の選択を含む、
請求項11に記載の方法。 - 前記微分メモリサブシステムは、前記トレーナーサーバの一次メモリから物理的に離れておりネットワーク接続されている、
請求項11に記載の方法。 - 前記エキスパートユーザからセッショントークン識別子を受けることと、
前記セッショントークンに基づき前記エキスパートユーザを認証することと、
前記エキスパートユーザから得られた情報をブロックチェーンスタイルの台帳に格納することと
を更に有する
請求項11に記載の方法。 - 前記アプリケーションプログラムの品質チェックを可能にすることを更に有し、
前記品質チェックは、
第2エキスパートユーザから第2セッショントークン識別子を受けることと、
前記第2セッショントークンに基づき前記第2エキスパートユーザを認証することと、
前記第2エキスパートユーザの品質チェックセッションにタイムスタンプを付すことと、
前記第2エキスパートユーザから得られた情報をブロックチェーンスタイルの台帳に格納することと
を含む、
請求項11に記載の方法。 - 前記エキスパートユーザは、農業専門家を含み、
前記アテンションマップは、ヒートマップ、グリッドをオーバーレイされた画像、又はオブジェクトセグメンテーション選択を含み、
前記ユーザ感覚入力は、視線センサによって捕捉される前記農業専門家の視線を表すユーザ視線データと、タッチスクリーンにおいて受け取られる物理接触を表す物理接触データとを含み、
前記農業専門家の自然言語入力は、音声入力又はタッチ機能を含む、
請求項11に記載の方法。 - 前記エキスパートユーザは、セキュリティ専門家を含み、
前記アテンションマップは、過去の映像を含み、
前記ユーザ感覚入力は、視線センサによって捕捉される前記セキュリティ専門家の視線を表すユーザ視線データと、情緒反応を表す脳波図及びカメラとを含み、
前記セキュリティ専門家の自然言語入力は、音声入力を含む、
請求項11に記載の方法。 - 前記出力目標は、ドローン、カメラ、又は拡張現実ヘッドセットを含む、
請求項11に記載の方法。 - 前記1つ以上のセンサは、RBGdカメラ、ジェスチャ捕捉センサ、バイオメトリック捕捉システム、ウェアラブルセンサシステム、デジタルI/Oインターフェイス、ウェアラブルリング型入力、キーボード、マウス、感情認識システム、視線追跡システム、ビデオインターフェイス、マイクロホン、ブレインコンピュータインターフェイス、触覚インターフェイス、ワイヤレス受信器、高解像度カメラ、温度又は赤外線カメラ、光センサ、GPS、ワイヤレス送信器、360度カメラ、デジタル光学インターフェイス、及びバーチャルリアリティインターフェイスの組み合わせの1つ以上を含む、
請求項11に記載の方法。 - プロセッサによって実行される場合に該プロセッサに請求項11に記載の方法を実行させる実行可能コードを記憶している非一時的なコンピュータ読み出し可能な媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/963011 | 2018-04-25 | ||
US15/963,011 US11537871B2 (en) | 2018-04-25 | 2018-04-25 | Deep neural network training for application program generation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019192207A JP2019192207A (ja) | 2019-10-31 |
JP7222239B2 true JP7222239B2 (ja) | 2023-02-15 |
Family
ID=64048697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018238048A Active JP7222239B2 (ja) | 2018-04-25 | 2018-12-20 | アプリケーションプログラム生成のための深層ニューラルネットワーク訓練 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11537871B2 (ja) |
EP (1) | EP3561645A1 (ja) |
JP (1) | JP7222239B2 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201811263D0 (en) * | 2018-07-10 | 2018-08-29 | Netmaster Solutions Ltd | A method and system for managing digital using a blockchain |
EP3970060A1 (en) * | 2019-06-10 | 2022-03-23 | Huawei Technologies Co., Ltd. | Driver attention detection using heat maps |
CN110795858B (zh) * | 2019-11-06 | 2023-04-07 | 广东博智林机器人有限公司 | 家装设计图纸的生成方法和装置 |
CN111027551B (zh) * | 2019-12-17 | 2023-07-07 | 腾讯科技(深圳)有限公司 | 图像处理方法、设备和介质 |
US11625037B2 (en) * | 2020-02-13 | 2023-04-11 | Honeywell International Inc. | Methods and systems for searchlight control for aerial vehicles |
CN111368970B (zh) * | 2020-02-17 | 2020-10-16 | 哈尔滨工业大学 | 一种基于深度强化学习的传感器优化布置方法 |
US11335104B2 (en) | 2020-03-31 | 2022-05-17 | Toyota Research Institute, Inc. | Methods and system for predicting driver awareness of a feature in a scene |
JP7440065B2 (ja) | 2020-04-03 | 2024-02-28 | 国立大学法人京都大学 | ブロックチェーンネットワークシステム |
US10970598B1 (en) * | 2020-05-13 | 2021-04-06 | StradVision, Inc. | Learning method and learning device for training an object detection network by using attention maps and testing method and testing device using the same |
CN111787624B (zh) * | 2020-06-28 | 2022-04-26 | 重庆邮电大学 | 一种基于深度学习的可变维度资源分配方法 |
CN114157829A (zh) * | 2020-09-08 | 2022-03-08 | 顺丰科技有限公司 | 模型训练优化方法、装置、计算机设备及存储介质 |
US11620583B2 (en) | 2020-09-08 | 2023-04-04 | International Business Machines Corporation | Federated machine learning using locality sensitive hashing |
CN112162634A (zh) * | 2020-09-24 | 2021-01-01 | 华南理工大学 | 一种基于seeg信号的数字输入脑机接口系统 |
US11664010B2 (en) | 2020-11-03 | 2023-05-30 | Florida Power & Light Company | Natural language domain corpus data set creation based on enhanced root utterances |
KR102483693B1 (ko) * | 2020-12-02 | 2023-01-03 | 울산대학교 산학협력단 | 설명 가능한 다중 심전도 부정맥 진단 장치 및 방법 |
CN112633473A (zh) * | 2020-12-18 | 2021-04-09 | 展讯通信(上海)有限公司 | 基于ai的可穿戴设备及其应用数据处理方法 |
KR102244678B1 (ko) * | 2020-12-28 | 2021-04-26 | (주)컨텍 | 인공지능 기반의 위성영상을 이용한 교육서비스 제공 방법 및 장치 |
CN113693613A (zh) * | 2021-02-26 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 脑电信号分类方法、装置、计算机设备及存储介质 |
JP2022144514A (ja) | 2021-03-19 | 2022-10-03 | 株式会社リコー | 学習装置、学習システム、非言語情報学習方法およびプログラム |
US11934489B2 (en) | 2021-05-31 | 2024-03-19 | Cibo Technologies, Inc. | Method and apparatus for employing deep learning to infer implementation of regenerative irrigation practices |
US11880430B2 (en) * | 2021-05-31 | 2024-01-23 | Cibo Technologies, Inc. | Method and apparatus for employing deep learning neural network to predict management zones |
US11790018B1 (en) * | 2022-07-25 | 2023-10-17 | Gravystack, Inc. | Apparatus for attribute traversal |
NL1044409B1 (en) * | 2022-08-30 | 2024-03-15 | Zander Laboratories B V | A method performed by an information processing device, a program product, and a system for acquiring artificial intelligence from processing context related operational, human bio-signal and human conduct data. |
WO2024053846A1 (en) * | 2022-09-07 | 2024-03-14 | Samsung Electronics Co., Ltd. | A method and device for personalised image segmentation and processing |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150339589A1 (en) | 2014-05-21 | 2015-11-26 | Brain Corporation | Apparatus and methods for training robots utilizing gaze-based saliency maps |
JP2017191490A (ja) | 2016-04-14 | 2017-10-19 | 株式会社フジタ | 技能伝承システム及び方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7181768B1 (en) * | 1999-10-28 | 2007-02-20 | Cigital | Computer intrusion detection system and method based on application monitoring |
US20040004861A1 (en) * | 2002-07-05 | 2004-01-08 | Impinj, Inc. A Delware Corporation | Differential EEPROM using pFET floating gate transistors |
US20100004924A1 (en) | 2008-07-03 | 2010-01-07 | Yuri Luis Paez | Method and system context-aware for identifying, activating and executing software that best respond to user requests generated in natural language |
US8442321B1 (en) | 2011-09-14 | 2013-05-14 | Google Inc. | Object recognition in images |
CN104346622A (zh) | 2013-07-31 | 2015-02-11 | 富士通株式会社 | 卷积神经网络分类器及其分类方法和训练方法 |
WO2015134665A1 (en) | 2014-03-04 | 2015-09-11 | SignalSense, Inc. | Classifying data with deep learning neural records incrementally refined through expert input |
JP2016134118A (ja) * | 2015-01-22 | 2016-07-25 | 京セラドキュメントソリューションズ株式会社 | 配線回路及び画像形成装置 |
AU2016354668A1 (en) | 2015-11-09 | 2018-06-28 | Roger Hanna | A distributed user profile identity verification system for e-commerce transaction security |
WO2017192183A1 (en) | 2016-05-04 | 2017-11-09 | Google Llc | Augmenting neural networks with external memory using reinforcement learning |
EP3455996A4 (en) | 2016-05-09 | 2020-01-22 | Nokia Technologies Oy | BLOCK CHAIN-BASED RESOURCE MANAGEMENT |
US10484675B2 (en) * | 2017-04-16 | 2019-11-19 | Facebook, Inc. | Systems and methods for presenting content |
US11157782B2 (en) * | 2017-11-16 | 2021-10-26 | International Business Machines Corporation | Anomaly detection in multidimensional time series data |
-
2018
- 2018-04-25 US US15/963,011 patent/US11537871B2/en active Active
- 2018-10-30 EP EP18203236.7A patent/EP3561645A1/en not_active Ceased
- 2018-12-20 JP JP2018238048A patent/JP7222239B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150339589A1 (en) | 2014-05-21 | 2015-11-26 | Brain Corporation | Apparatus and methods for training robots utilizing gaze-based saliency maps |
JP2017191490A (ja) | 2016-04-14 | 2017-10-19 | 株式会社フジタ | 技能伝承システム及び方法 |
Non-Patent Citations (1)
Title |
---|
GRAVES, Alex et al.,"Hybrid computing using a neural network with dynamic external memory",Nature [online],Vol.538,2016年10月,p.471-476,[2022年07月11日検索],インターネット<URL:https://doi.org/10.1038/nature20101,DOI: 10.1038/nature20101 |
Also Published As
Publication number | Publication date |
---|---|
EP3561645A1 (en) | 2019-10-30 |
US11537871B2 (en) | 2022-12-27 |
JP2019192207A (ja) | 2019-10-31 |
US20190332931A1 (en) | 2019-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7222239B2 (ja) | アプリケーションプログラム生成のための深層ニューラルネットワーク訓練 | |
KR102643027B1 (ko) | 전자 장치, 그의 제어 방법 | |
CN104838337B (zh) | 用于用户界面的无触摸输入 | |
Bhattacharya et al. | Metaverse assisted telesurgery in healthcare 5.0: An interplay of blockchain and explainable AI | |
Henderson et al. | Improving affect detection in game-based learning with multimodal data fusion | |
US20200327986A1 (en) | Integrated predictive analysis apparatus for interactive telehealth and operating method therefor | |
KR20240032779A (ko) | 전자 장치, 그의 제어 방법 | |
KR102397248B1 (ko) | 영상 분석 기반의 환자 동작 모니터링 시스템 및 그의 제공 방법 | |
US20200253548A1 (en) | Classifying a disease or disability of a subject | |
Cheng et al. | Computer-aided autism spectrum disorder diagnosis with behavior signal processing | |
Klamma et al. | Immersive community analytics for wearable enhanced learning | |
Real et al. | VES: a mixed-reality development platform of navigation systems for blind and visually impaired | |
Ntouskos et al. | Saliency prediction in the coherence theory of attention | |
Xie et al. | PhysioLabXR: A Python Platform for Real-Time, Multi-modal, Brain–Computer Interfaces and Extended Reality Experiments | |
Kousidis et al. | Investigating speaker gaze and pointing behaviour in human-computer interaction with the mint. tools collection | |
Bărbuceanu et al. | Evaluation of the average selection speed ratio between an eye tracking and a head tracking interaction interface | |
Gutiérrez López de la Franca et al. | Extended Body-Angles Algorithm to recognize activities within intelligent environments | |
Webb et al. | A systems approach for augmented reality design | |
Colby | American sign language gesture recognition using motion tracking gloves in vr | |
Pfeiffer et al. | Quantifying the interplay of gaze and gesture in deixis using an experimental-simulative approach | |
Mastinu et al. | HANDdata–first-person dataset including proximity and kinematics measurements from reach-to-grasp actions | |
Baba et al. | Application development for wearable internet of things using Hexiwear | |
Samonte et al. | AcneCheck: An Acne Severity Grading in Teledermatology Through Computer Vision | |
Sharma et al. | Experience capturing with wearable technology in the WEKIT project | |
Vladutu et al. | Framework for Posture and Face Recognition using Kinect an ambient-intelligence method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220808 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7222239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |