JP7828698B2 - スマートレンズ/拡張メガネにおける反復的なメモリマッピング操作 - Google Patents
スマートレンズ/拡張メガネにおける反復的なメモリマッピング操作Info
- Publication number
- JP7828698B2 JP7828698B2 JP2023514494A JP2023514494A JP7828698B2 JP 7828698 B2 JP7828698 B2 JP 7828698B2 JP 2023514494 A JP2023514494 A JP 2023514494A JP 2023514494 A JP2023514494 A JP 2023514494A JP 7828698 B2 JP7828698 B2 JP 7828698B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- attention
- processor
- memory
- augmented reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/13—Digital output to plotter ; Cooperation and interconnection of the plotter with other functional units
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating three-dimensional [3D] models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y20/00—Information sensed or collected by the things
- G16Y20/10—Information sensed or collected by the things relating to the environment, e.g. temperature; relating to location
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y20/00—Information sensed or collected by the things
- G16Y20/40—Information sensed or collected by the things relating to personal data, e.g. biometric data, records or preferences
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Environmental & Geological Engineering (AREA)
- Toxicology (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Closed-Circuit Television Systems (AREA)
Description
好ましくは、本発明は、前記記録されたデータを格納することが、前記記録されたデータを接続されたデータベースに格納することと、長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルを再トレーニングすることと、をさらに含む方法を提供する。
202において、拡張現実(AR)デバイスは、少なくとも1つのモバイルもしくはモノのインターネット(IoT)デバイスまたはその両方に接続される。スマートコンタクトレンズ、スマート眼鏡、もしくは埋め込みビデオカメラを含む別の拡張現実(AR)デバイス、またはその組み合わせは、通信ネットワーク(例えば、通信ネットワーク116)を使用して、ユーザの予測される注意力のレベルおよび後日ユーザの周囲を思い出す能力が判断されることができ記録が行われることができるように、少なくとも1つのモバイルデバイスもしくはモノのインターネット(IoT)デバイスに接続されてもよい。
オンデマンド・セルフサービス:クラウドの消費者は、サービスプロバイダとの人的な対話を必要することなく、必要に応じて自動的に、サーバ時間やネットワークストレージなどのコンピューティング能力を一方的に準備することができる。
ブロード・ネットワークアクセス:コンピューティング能力はネットワーク経由で利用可能であり、また、標準的なメカニズムを介してアクセスできる。それにより、異種のシンまたはシッククライアントプラットフォーム(例えば、携帯電話、ラップトップ、PDA)による利用が促進される。
リソースプーリング:プロバイダのコンピューティングリソースはプールされ、マルチテナントモデルを利用して複数の消費者に提供される。様々な物理リソースおよび仮想リソースが、需要に応じて動的に割り当ておよび再割り当てされる。一般に消費者は、提供されたリソースの正確な位置を管理または把握していないため、位置非依存(location independence)の感覚がある。ただし消費者は、より高い抽象レベル(例えば、国、州、データセンタ)では場所を特定可能な場合がある。
迅速な柔軟性(elasticity):コンピューティング能力は、迅速かつ柔軟に準備することができるため、場合によっては自動的に、直ちにスケールアウトし、また、速やかにリリースされて直ちにスケールインすることができる。消費者にとって、準備に利用可能なコンピューティング能力は無制限に見える場合が多く、任意の時間に任意の数量で購入することができる。
測定されるサービス:クラウドシステムは、サービスの種類(例えば、ストレージ、処理、帯域幅、アクティブユーザアカウント)に適したある程度の抽象化レベルでの測定機能を活用して、リソースの使用を自動的に制御し最適化する。リソース使用量を監視、制御、および報告して、利用されるサービスのプロバイダおよび消費者の両方に透明性を提供することができる。
サービスとしてのソフトウェア(SaaS):消費者に提供される機能は、クラウドインフラストラクチャ上で動作するプロバイダのアプリケーションを利用できることである。当該そのアプリケーションは、ウェブブラウザ(例えばウェブメール)などのシンクライアントインタフェースを介して、各種のクライアント装置からアクセスできる。消費者は、ネットワーク、サーバ、オペレーティングシステム、ストレージや、個別のアプリケーション機能さえも含めて、基礎となるクラウドインフラストラクチャの管理や制御は行わない。ただし、ユーザ固有の限られたアプリケーション構成の設定はその限りではない。
サービスとしてのプラットフォーム(PaaS):消費者に提供される機能は、プロバイダによってサポートされるプログラム言語およびツールを用いて、消費者が作成または取得したアプリケーションを、クラウドインフラストラクチャに展開(deploy)することである。消費者は、ネットワーク、サーバ、オペレーティングシステム、ストレージを含む、基礎となるクラウドインフラストラクチャの管理や制御は行わないが、展開されたアプリケーションを制御でき、かつ場合によってはそのホスティング環境の構成も制御できる。
サービスとしてのインフラストラクチャ(IaaS):消費者に提供される機能は、オペレーティングシステムやアプリケーションを含み得る任意のソフトウェアを消費者が展開および実行可能な、プロセッサ、ストレージ、ネットワーク、および他の基本的なコンピューティングリソースを準備することである。消費者は、基礎となるクラウドインフラストラクチャの管理や制御は行わないが、オペレーティングシステム、ストレージ、および展開されたアプリケーションを制御でき、かつ場合によっては一部のネットワークコンポーネント(例えばホストファイアウォール)を部分的に制御できる。
プライベートクラウド:このクラウドインフラストラクチャは、特定の組織専用で運用される。このクラウドインフラストラクチャは、当該組織または第三者によって管理することができ、オンプレミスまたはオフプレミスで存在することができる。
コミュニティクラウド:このクラウドインフラストラクチャは、複数の組織によって共有され、共通の関心事(例えば、ミッション、セキュリティ要件、ポリシー、およびコンプライアンス)を持つ特定のコミュニティをサポートする。このクラウドインフラストラクチャは、当該組織または第三者によって管理することができ、オンプレミスまたはオフプレミスで存在することができる。
パブリッククラウド:このクラウドインフラストラクチャは、不特定多数の人々や大規模な業界団体に提供され、クラウドサービスを販売する組織によって所有される。
ハイブリッドクラウド:このクラウドインフラストラクチャは、2つ以上のクラウドモデル(プライベート、コミュニティまたはパブリック)を組み合わせたものとなる。それぞれのモデル固有の実体は保持するが、標準または個別の技術によってバインドされ、データとアプリケーションの可搬性(例えば、クラウド間の負荷分散のためのクラウドバースティング)を実現する。
Claims (25)
- プロセッサがメモリにデータを保存するための方法であって、前記方法は、
前記プロセッサが、拡張現実デバイスを、少なくとも1つの生体認証パラメータを観察する少なくとも1つのモノのインターネット(IoT)デバイスに接続することと、
前記プロセッサが、前記少なくとも1つの生体認証パラメータに基づいて、少なくとも1つのユーザの注意パターンをメモリに格納することと、
前記プロセッサが、前記少なくとも1つのユーザの注意パターンに基づいて、長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルにより、ユーザの注意力を予測することと、
前記プロセッサが、前記ユーザの前記注意力が特定のポイントを下回ったことに基づいて、前記拡張現実デバイスによってデータを捕捉することであって、前記ユーザのベースラインプロファイルが、反復事象プルーニングおよびユーザメモリプルーニング戦略の決定に基づいて部分的に確立され、前記ユーザメモリプルーニング戦略は、前記ユーザが過去の事象を思い出すのが困難なインスタンスを特定する戦略である、捕捉することと、
前記プロセッサが、前記捕捉されたデータを保存することと、
前記プロセッサが、前記捕捉されたデータの多変量時系列データポイントを用いて、前記長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルを再トレーニングすることであって、前記長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルは、前記ユーザメモリプルーニング戦略を更新する、再トレーニングすることと、
を含む方法。 - 前記拡張現実デバイスは、
スマートコンタクトレンズと、スマート眼鏡と、ヘッドマウントディスプレイと、
からなる群から選択される、請求項1に記載の方法。 - 前記プロセッサが、前記少なくとも1つのユーザの注意パターンに基づいて、前記ユーザの前記注意力を予測することは、
前記プロセッサが、オートエンコーダを介して前記ユーザの前記注意力を予測すること
をさらに含む、請求項1に記載の方法。 - 前記プロセッサが、前記少なくとも1つの生体認証パラメータに基づいてユーザの周囲のコンテキストを推定するために、前記長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルを用いた主成分分析(PCA)を使用すること
をさらに含む、請求項3に記載の方法。 - 前記プロセッサが前記少なくとも1つのユーザの注意パターンに基づいて前記ユーザの前記注意力を予測することは、
前記プロセッサが、前記ユーザが不注意であると判断することと、
前記プロセッサが、他のユーザの前記拡張現実デバイスを作動させることと、
をさらに含む、請求項1に記載の方法。 - 前記プロセッサが、前記ユーザの前記注意力が前記特定のポイントを下回ったことに基づいて、前記拡張現実デバイスによってデータを捕捉することは、
前記プロセッサが、前記ユーザの前記ベースラインプロファイルからの前記ユーザの前記注意力の偏差を計算すること
をさらに含む、請求項1に記載の方法。 - 前記プロセッサが、前記捕捉されたデータを保存することは、
前記プロセッサが、前記捕捉されたデータを接続されたデータベースに保存すること
をさらに含む、請求項1に記載の方法。 - メモリにデータを保存するためのコンピュータシステムであって、
1または複数のプロセッサと、1または複数のコンピュータ可読メモリと、1または複数のコンピュータ可読有形記憶媒体と、前記1または複数のプロセッサの少なくとも1つによって前記1または複数のコンピュータ可読メモリの少なくとも1つを介して実行されるように前記1または複数のコンピュータ可読有形記憶媒体の少なくとも1つに格納されたプログラム命令と、を含み、前記コンピュータシステムは、方法を実行可能であり、前記方法は、
拡張現実デバイスを、少なくとも1つの生体認証パラメータを観察する少なくとも1つのモノのインターネット(IoT)デバイスに接続することと、
前記少なくとも1つの生体認証パラメータに基づいて、少なくとも1つのユーザの注意パターンをメモリに格納することと、
前記少なくとも1つのユーザの注意パターンに基づいて、長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルにより、ユーザの注意力を予測することと、
前記ユーザの前記注意力が特定のポイントを下回ったことに基づいて、前記拡張現実デバイスによってデータを捕捉することであって、前記ユーザのベースラインプロファイルが、反復事象プルーニングおよびユーザメモリプルーニング戦略の決定に基づいて部分的に確立され、前記ユーザメモリプルーニング戦略は、前記ユーザが過去の事象を思い出すのが困難なインスタンスを特定する戦略である、捕捉することと、
前記捕捉されたデータを保存することと、
前記捕捉されたデータの多変量時系列データポイントを用いて、前記長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルを再トレーニングすることであって、前記長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルは、前記ユーザメモリプルーニング戦略を更新する、再トレーニングすることと、
を含むコンピュータシステム。 - 前記拡張現実デバイスは、
スマートコンタクトレンズと、スマート眼鏡と、ヘッドマウントディスプレイと、
からなる群から選択される、請求項8に記載のコンピュータシステム。 - 前記少なくとも1つのユーザの注意パターンに基づいて、前記ユーザの前記注意力を予測することは、
オートエンコーダを介して前記ユーザの前記注意力を予測すること
をさらに含む、請求項8に記載のコンピュータシステム。 - 前記少なくとも1つの生体認証パラメータに基づいてユーザの周囲のコンテキストを推定するために、前記長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルを用いた主成分分析(PCA)を使用すること
をさらに含む、請求項10に記載のコンピュータシステム。 - 前記少なくとも1つのユーザの注意パターンに基づいて前記ユーザの前記注意力を予測することは、
前記ユーザが不注意であると判断することと、
他のユーザの前記拡張現実デバイスを作動させることと、
をさらに含む、請求項8に記載のコンピュータシステム。 - 前記ユーザの前記注意力が前記特定のポイントを下回ったことに基づいて、前記拡張現実デバイスによってデータを捕捉することは、
前記ユーザの前記ベースラインプロファイルからの前記ユーザの前記注意力の偏差を計算すること
をさらに含む、請求項8に記載のコンピュータシステム。 - 前記捕捉されたデータを保存することは、
前記捕捉されたデータを接続されたデータベースに保存すること
をさらに含む、請求項8に記載のコンピュータシステム。 - メモリにデータを保存するためのコンピュータプログラムであって、
プログラム命令を含み、前記プログラム命令は、プロセッサによって実行可能であり、前記プロセッサに、方法を実行させ、前記方法は、
拡張現実デバイスを、少なくとも1つの生体認証パラメータを観察する少なくとも1つのモノのインターネット(IoT)デバイスに接続することと、
前記少なくとも1つの生体認証パラメータに基づいて、少なくとも1つのユーザの注意パターンをメモリに格納することと、
前記少なくとも1つのユーザの注意パターンに基づいて、長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルにより、ユーザの注意力を予測することと、
前記ユーザの前記注意力が特定のポイントを下回ったことに基づいて、前記拡張現実デバイスによってデータを捕捉することであって、前記ユーザのベースラインプロファイルが、反復事象プルーニングおよびユーザメモリプルーニング戦略の決定に基づいて部分的に確立され、前記ユーザメモリプルーニング戦略は、前記ユーザが過去の事象を思い出すのが困難なインスタンスを特定する戦略である、捕捉することと、
前記捕捉されたデータを保存することと、
前記捕捉されたデータの多変量時系列データポイントを用いて、前記長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルを再トレーニングすることであって、前記長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルは、前記ユーザメモリプルーニング戦略を更新する、再トレーニングすることと、
を含むコンピュータプログラム。 - 前記拡張現実デバイスは、
スマートコンタクトレンズと、スマート眼鏡と、ヘッドマウントディスプレイと、
からなる群から選択される、
請求項15に記載のコンピュータプログラム。 - 前記少なくとも1つのユーザの注意パターンに基づいて、前記ユーザの前記注意力を予測することは、
オートエンコーダを介して前記ユーザの前記注意力を予測すること
をさらに含む、請求項15に記載のコンピュータプログラム。 - 前記少なくとも1つの生体認証パラメータに基づいてユーザの周囲のコンテキストを推定するために、前記長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルを用いた主成分分析(PCA)を使用すること
をさらに含む、請求項17に記載のコンピュータプログラム。 - 前記少なくとも1つのユーザの注意パターンに基づいて前記ユーザの前記注意力を予測することは、
前記ユーザが不注意であると判断することと、
他のユーザの前記拡張現実デバイスを作動させることと、
をさらに含む、請求項15に記載のコンピュータプログラム。 - 前記ユーザの前記注意力が前記特定のポイントを下回ったことに基づいて、前記拡張現実デバイスによってデータを捕捉することは、
前記ユーザの前記ベースラインプロファイルからの前記ユーザの前記注意力の偏差を計算すること
をさらに含む、請求項15に記載のコンピュータプログラム。 - プロセッサがメモリにデータを保存するための方法であって、前記方法は、
前記プロセッサが、反復事象プルーニングおよびユーザメモリプルーニング戦略の決定に基づいて確立されたベースラインユーザプロファイルを用いて、長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルにより、ユーザの不注意を予測することであって、前記ユーザメモリプルーニング戦略は、前記ユーザが過去の事象を思い出すのが困難なインスタンスを特定する戦略である、予測することと、
前記プロセッサが、前記予測された前記ユーザの不注意に基づいて、他のユーザの拡張現実デバイスによって観察されたデータを捕捉することと、
前記プロセッサが、前記捕捉されたデータを保存することと、
前記プロセッサが、前記捕捉されたデータの多変量時系列データポイントを用いて、前記長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルを再トレーニングすることであって、前記長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルは、前記ユーザメモリプルーニング戦略を更新する、再トレーニングすることと、
を含む、方法。 - 前記プロセッサが前記ユーザの前記不注意を予測することは、
前記プロセッサが、オートエンコーダを介して前記ユーザの前記不注意を予測することであって、主成分分析(PCA)は、少なくとも1つの生体認証パラメータに基づいて前記ユーザの周囲のコンテキストを推定するために、前記長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルと共に使用される、予測すること
をさらに含む、請求項21に記載の方法。 - プロセッサが拡張現実デバイスによる捕捉を開始するための方法であって、前記方法は、
前記プロセッサが、前記拡張現実デバイスを、眼球イベントを観察する少なくとも1つのモノのインターネット(IoT)デバイスに接続することであって、前記眼球イベントは、上を見る、下を見る、左を見る、右を見る、目を回す、特定の順序で瞬きする、目を閉じる、および目を大きく開ける、からなる群から選択される、接続することと、
前記プロセッサが、前記眼球イベントに基づいて、少なくとも1つのユーザの注意パターンをメモリに格納することと、
前記プロセッサが、前記少なくとも1つのユーザの注意パターンに基づいて、ユーザの注意力を予測することと、
前記プロセッサが、機械学習アルゴリズムによって、前記ユーザの前記注意力が特定のポイントを下回ったときに前記拡張現実デバイスが捕捉を開始すべきであると判断することと、
前記プロセッサが、前記拡張現実デバイスによってデータを捕捉することであって、前記ユーザのベースラインプロファイルが、反復事象プルーニングおよびユーザメモリプルーニング戦略の決定に基づいて部分的に確立され、前記ユーザメモリプルーニング戦略は、前記ユーザが過去の事象を思い出すのが困難なインスタンスを特定する戦略である、捕捉することと、
を含む、方法。 - 前記拡張現実デバイスはスマートコンタクトレンズである、請求項23に記載の方法。
- 前記機械学習アルゴリズムは、主成分分析(PCA)を用いた長・短期記憶(LSTM)回帰型ニューラルネットワーク(RNN)モデルである、請求項23に記載の方法。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US16/948,110 | 2020-09-03 | ||
| US16/948,110 US11620855B2 (en) | 2020-09-03 | 2020-09-03 | Iterative memory mapping operations in smart lens/augmented glasses |
| PCT/IB2021/057737 WO2022049450A1 (en) | 2020-09-03 | 2021-08-24 | Iterative memory mapping operations in smart lens/augmented glasses |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023547023A JP2023547023A (ja) | 2023-11-09 |
| JP7828698B2 true JP7828698B2 (ja) | 2026-03-12 |
Family
ID=80356913
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023514494A Active JP7828698B2 (ja) | 2020-09-03 | 2021-08-24 | スマートレンズ/拡張メガネにおける反復的なメモリマッピング操作 |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US11620855B2 (ja) |
| JP (1) | JP7828698B2 (ja) |
| CN (1) | CN116097210A (ja) |
| DE (1) | DE112021003923T5 (ja) |
| GB (1) | GB2612250A (ja) |
| WO (1) | WO2022049450A1 (ja) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11620855B2 (en) | 2020-09-03 | 2023-04-04 | International Business Machines Corporation | Iterative memory mapping operations in smart lens/augmented glasses |
| US11929169B2 (en) * | 2022-02-09 | 2024-03-12 | Kyndryl, Inc. | Personalized sensory feedback |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017052364A (ja) | 2015-09-09 | 2017-03-16 | 日本精機株式会社 | ヘッドアップディスプレイ装置 |
| AU2016201929A1 (en) | 2016-03-29 | 2017-10-19 | Canon Kabushiki Kaisha | System and method for modifying display of augmented reality content |
| JP2018151900A (ja) | 2017-03-14 | 2018-09-27 | オムロン株式会社 | 運転状態判定装置、運転状態判定方法及び運転状態判定のためのプログラム |
| US20190336061A1 (en) | 2018-05-01 | 2019-11-07 | International Business Machines Corporation | Epilepsy seizure detection and prediction using techniques such as deep learning methods |
| WO2020013313A1 (ja) | 2018-07-12 | 2020-01-16 | 株式会社東芝 | 全方位撮影システムおよび全方位撮影方法 |
| JP2020052847A (ja) | 2018-09-27 | 2020-04-02 | パナソニックIpマネジメント株式会社 | 感情管理システム、感情管理方法及びプログラム |
| US20200259514A1 (en) | 2016-04-22 | 2020-08-13 | Seabeck Holdings, Llc | Integrated cockpit sensing system |
| JP2020525939A (ja) | 2017-06-28 | 2020-08-27 | リキッド バイオサイエンシズ,インコーポレイテッド | 反復特徴選択方法 |
Family Cites Families (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9076343B2 (en) | 2004-04-06 | 2015-07-07 | International Business Machines Corporation | Self-service system for education |
| US9293118B2 (en) * | 2012-03-30 | 2016-03-22 | Sony Corporation | Client device |
| US20140022402A1 (en) | 2012-07-23 | 2014-01-23 | Nokia Corporation | Method and apparatus for automatic capture of multimedia information |
| US9177257B2 (en) | 2012-08-30 | 2015-11-03 | International Business Machines Corporation | Non-transitory article of manufacture and system for providing a prompt to user for real-time cognitive assistance |
| US20140098226A1 (en) | 2012-10-08 | 2014-04-10 | Google Inc. | Image capture component on active contact lens |
| US9325930B2 (en) | 2012-11-15 | 2016-04-26 | International Business Machines Corporation | Collectively aggregating digital recordings |
| WO2014178212A1 (ja) | 2013-05-02 | 2014-11-06 | ソニー株式会社 | コンタクトレンズおよび記憶媒体 |
| KR102154912B1 (ko) | 2013-10-11 | 2020-09-11 | 인터디지탈 패튼 홀딩스, 인크 | 시선 구동 증강 현실 |
| WO2016018488A2 (en) | 2014-05-09 | 2016-02-04 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
| CN105404943A (zh) * | 2015-12-08 | 2016-03-16 | 南京邮电大学 | 一种面向移动社交环境的用户行为预测方法 |
| US9703374B1 (en) | 2015-12-16 | 2017-07-11 | Google, Inc. | In-cell gaze tracking for near-eye display |
| US10455287B2 (en) | 2016-02-02 | 2019-10-22 | International Business Machines Corporation | Content delivery system, method, and recording medium |
| US10129510B2 (en) | 2016-02-18 | 2018-11-13 | Samsung Electronics Co., Ltd. | Initiating human-machine interaction based on visual attention |
| US10154191B2 (en) | 2016-05-18 | 2018-12-11 | Microsoft Technology Licensing, Llc | Emotional/cognitive state-triggered recording |
| US10367841B2 (en) * | 2016-12-16 | 2019-07-30 | Patternex, Inc. | Method and system for learning representations for log data in cybersecurity |
| US10885676B2 (en) | 2016-12-27 | 2021-01-05 | Samsung Electronics Co., Ltd. | Method and apparatus for modifying display settings in virtual/augmented reality |
| CA3087780A1 (en) * | 2017-02-01 | 2018-08-09 | Cerebian Inc. | System and method for measuring perceptual experiences |
| KR102209595B1 (ko) | 2017-09-01 | 2021-01-28 | 매직 립, 인코포레이티드 | 강건한 생체인식 애플리케이션들을 위한 세밀한 눈 형상 모델 |
| US20190188450A1 (en) * | 2017-11-06 | 2019-06-20 | Magical Technologies, Llc | Systems, Methods and Apparatuses for Deployment of Virtual Objects Based on Content Segment Consumed in a Target Environment |
| US10963045B2 (en) | 2018-04-25 | 2021-03-30 | International Business Machines Corporation | Smart contact lens system with cognitive analysis and aid |
| US10902383B2 (en) | 2018-05-30 | 2021-01-26 | Adp, Llc | Vision AR: SmartHR overlay |
| US10916245B2 (en) | 2018-08-21 | 2021-02-09 | International Business Machines Corporation | Intelligent hearing aid |
| US20200074647A1 (en) * | 2018-08-30 | 2020-03-05 | Electronics And Telecommunications Research Institute | Smart glasses and method of selectively tracking target of visual cognition |
| US10873782B2 (en) * | 2018-10-02 | 2020-12-22 | Adobe Inc. | Generating user embedding representations that capture a history of changes to user trait data |
| US20200245918A1 (en) * | 2019-02-01 | 2020-08-06 | Mindstrong Health | Forecasting Mood Changes from Digital Biomarkers |
| CN110175242B (zh) * | 2019-05-31 | 2024-05-17 | 嗷呜世界(深圳)网络科技有限公司 | 基于知识图谱的人机交互联想方法、装置及介质 |
| US11225266B2 (en) * | 2019-08-20 | 2022-01-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for improving visual scanning behavior associated with controlling a vehicle |
| US11620855B2 (en) | 2020-09-03 | 2023-04-04 | International Business Machines Corporation | Iterative memory mapping operations in smart lens/augmented glasses |
-
2020
- 2020-09-03 US US16/948,110 patent/US11620855B2/en active Active
-
2021
- 2021-08-24 JP JP2023514494A patent/JP7828698B2/ja active Active
- 2021-08-24 CN CN202180056368.8A patent/CN116097210A/zh active Pending
- 2021-08-24 GB GB2301813.8A patent/GB2612250A/en active Pending
- 2021-08-24 DE DE112021003923.7T patent/DE112021003923T5/de active Pending
- 2021-08-24 WO PCT/IB2021/057737 patent/WO2022049450A1/en not_active Ceased
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017052364A (ja) | 2015-09-09 | 2017-03-16 | 日本精機株式会社 | ヘッドアップディスプレイ装置 |
| AU2016201929A1 (en) | 2016-03-29 | 2017-10-19 | Canon Kabushiki Kaisha | System and method for modifying display of augmented reality content |
| US20200259514A1 (en) | 2016-04-22 | 2020-08-13 | Seabeck Holdings, Llc | Integrated cockpit sensing system |
| JP2018151900A (ja) | 2017-03-14 | 2018-09-27 | オムロン株式会社 | 運転状態判定装置、運転状態判定方法及び運転状態判定のためのプログラム |
| JP2020525939A (ja) | 2017-06-28 | 2020-08-27 | リキッド バイオサイエンシズ,インコーポレイテッド | 反復特徴選択方法 |
| US20190336061A1 (en) | 2018-05-01 | 2019-11-07 | International Business Machines Corporation | Epilepsy seizure detection and prediction using techniques such as deep learning methods |
| WO2020013313A1 (ja) | 2018-07-12 | 2020-01-16 | 株式会社東芝 | 全方位撮影システムおよび全方位撮影方法 |
| JP2020052847A (ja) | 2018-09-27 | 2020-04-02 | パナソニックIpマネジメント株式会社 | 感情管理システム、感情管理方法及びプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| DE112021003923T5 (de) | 2023-07-13 |
| GB202301813D0 (en) | 2023-03-29 |
| US20220068507A1 (en) | 2022-03-03 |
| JP2023547023A (ja) | 2023-11-09 |
| CN116097210A (zh) | 2023-05-09 |
| GB2612250A (en) | 2023-04-26 |
| US11620855B2 (en) | 2023-04-04 |
| WO2022049450A1 (en) | 2022-03-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11200811B2 (en) | Intelligent recommendation of guidance instructions | |
| JP7754597B2 (ja) | 記憶力低下の検出と改善 | |
| US20220051112A1 (en) | Automated model pipeline generation with entity monitoring, interaction, and intervention | |
| US20200402658A1 (en) | User-aware explanation selection for machine learning systems | |
| US10169428B1 (en) | Mining procedure dialogs from source content | |
| US11182674B2 (en) | Model training by discarding relatively less relevant parameters | |
| US11051689B2 (en) | Real-time passive monitoring and assessment of pediatric eye health | |
| US11082498B2 (en) | Methods and systems for managing multi-channel computing environments to optimize user efficiency | |
| JP7828698B2 (ja) | スマートレンズ/拡張メガネにおける反復的なメモリマッピング操作 | |
| US12307335B2 (en) | User assistance through demonstration | |
| US12367402B2 (en) | Intelligent backup and restoration of containerized environment | |
| JP7710813B2 (ja) | 発話障害のあるユーザのための人工知能音声応答システム | |
| JP2024518875A (ja) | 動作コマンド境界 | |
| US20200219498A1 (en) | Methods and systems for managing voice response systems to optimize responses | |
| US10783798B2 (en) | Coaching system for guiding interactions | |
| US20220004591A1 (en) | Selecting items of interest | |
| US20200394532A1 (en) | Detaching Social Media Content Creation from Publication | |
| US20220180289A1 (en) | Cognitive user selection | |
| US20230194864A1 (en) | Device management in a smart environment | |
| US11099406B2 (en) | Delivering augmented reality via embedded contact lens | |
| US12322200B2 (en) | Emotional response evaluation for presented images | |
| US11803253B2 (en) | Keyword recommendations for virtual keyboards | |
| US11645871B1 (en) | Engagement based contextual feedback for devices |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD16 | Notification of change of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7436 Effective date: 20230428 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240123 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250129 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250204 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250507 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20250708 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20251106 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20260210 |
|
| RD14 | Notification of resignation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7434 Effective date: 20260210 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20260226 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7828698 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |