JP2022516843A - 登録不要のオフラインでのデバイスのパーソナライズ - Google Patents
登録不要のオフラインでのデバイスのパーソナライズ Download PDFInfo
- Publication number
- JP2022516843A JP2022516843A JP2021533532A JP2021533532A JP2022516843A JP 2022516843 A JP2022516843 A JP 2022516843A JP 2021533532 A JP2021533532 A JP 2021533532A JP 2021533532 A JP2021533532 A JP 2021533532A JP 2022516843 A JP2022516843 A JP 2022516843A
- Authority
- JP
- Japan
- Prior art keywords
- vector
- user
- entry
- smart device
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000013598 vector Substances 0.000 claims abstract description 135
- 238000003062 neural network model Methods 0.000 claims abstract description 48
- 238000000034 method Methods 0.000 claims abstract description 38
- 230000001815 facial effect Effects 0.000 claims abstract 3
- 230000003993 interaction Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000012544 monitoring process Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 abstract description 9
- 238000013135 deep learning Methods 0.000 description 22
- 238000013528 artificial neural network Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 17
- 238000003860 storage Methods 0.000 description 9
- 210000000887 face Anatomy 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000004071 biological effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000005022 packaging material Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000002211 ultraviolet spectrum Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2282—Tablespace storage structures; Management thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2457—Query processing with adaptation to user needs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/56—Information retrieval; Database structures therefor; File system structures therefor of still image data having vectorial format
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5854—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Library & Information Science (AREA)
- Biodiversity & Conservation Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- User Interface Of Digital Computer (AREA)
- Collating Specific Patterns (AREA)
Abstract
デバイスのパーソナライズのための方法及び装置である。デバイスは、1以上のセンサから第1センサデータを受信し、第1センサデータ内の生体認証情報を検出し、デバイスに記憶された1以上のニューラルネットワークモデルを用いて生体認証情報を第1ベクトルとして符号化し、第1ベクトルに少なくとも部分的に基づいて、デバイスのユーザインタフェースを設定する、ように構成される。例えば、プロファイル情報は、設定、セッティング、嗜好、又は、ユーザインタフェースを介して表示又は描写されるべきコンテンツ、を含み得る。いくつかの実装では、第1センサデータは、シーンの画像と、シーン内のユーザの顔面の特徴を含む生体認証情報と、を含み得る。【選択図】 図3
Description
本実施形態は、一般には、デバイスのパーソナライズに関する。
いくつかの電子デバイスは、パーソナライズされたユーザ体験を提供し得る場合がある。例えば、スマートテレビ(TV)は、ユーザの嗜好及び/又は視聴習慣に基づいて、映画、音楽、番組、又は、その他のコンテンツの推薦リストを表示する場合がある。スマートTVは、ユーザ入力に基づいて、表示する推薦事項を決定する場合がある。例えば、スマートTVにおいて、夫と妻がそれぞれのユーザプロファイルを設定する場合がある。スマートTVは、そして、各ユーザプロファイルについてカスタマイズされた推薦リストを表示する場合がある。例えば、夫のユーザプロファイルがコメディを嗜好することを示している場合、スマートTVは夫のユーザプロファイルが選択されたときにコメディのリストを表示する場合がある。一方、妻のユーザプロファイルがアクション映画を嗜好することを示している場合、スマートTVは妻のユーザプロファイルが選択されたときにアクション映画のリストを表示する場合がある。
本概要は、以下の詳細な説明で更に説明される概念の選択を、単純化した形態で紹介するために提供される。本概要は、請求項に記載された対象のうちの鍵となる構成や必須の構成を特定すること、及び、請求項に記載された対象を限定することを意図していない。
デバイスをパーソナライズするための方法及び装置が開示される。本開示の対象の革新的な一側面は、デバイスを作動させる方法として実装され得る。いくつかの実施形態では、当該方法は、1以上のセンサから第1センサデータを受信することと、第1センサデータ内の生体認証情報を検出することと、デバイスに記憶された1以上のニューラルネットワークモデルを用いて生体認証情報を第1ベクトルとして符号化することと、第1ベクトルに少なくとも部分的に基づいて、デバイスのユーザインタフェースを設定することと、のステップを含む場合がある。
本開示の対象の革新的な他の側面は、メモリ、1以上のセンサ、ベクトル生成器、及び、ディスプレイを備えるシステムとして実装され得る。メモリは、1以上のニューラルネットワークモデルを記憶するように構成される。1以上のセンサは、センサデータをキャプチャするように構成される。ベクトル生成器は、キャプチャされたセンサデータ内の生体認証情報を検出し、メモリに記憶された1以上のニューラルネットワークモデルを用いて生体認証情報をベクトルとして符号化する、ように構成される。ディスプレイは、符号化されたベクトルに少なくとも部分的に基づいてパーソナライズされたユーザインタフェースを表示するように構成される。
実施形態は、例として図示されており、添付の図面の図によって限定されることを意図されたものでは無い。
以下の説明では、本開示の十分な理解を提供するために、具体的なコンポーネント、回路、及び、処理の例のような、多くの具体的な詳細が示される。ここで使われる「接続された」という言葉は、直接に接続されている、又は、仲介する1以上のコンポーネント又は回路を介して接続されていることを意味する。更に、以下の説明において、及び、説明を目的として、本開示の態様の十分な理解を提供するために、特定の命名法が用いられる。しかし、例示的な実施形態を実施するためには、これらの具体的な詳細が必要でない場合があることが当業者には明らかであろう。他の例では、本開示が不明確になることを避けるために、周知の回路及びデバイスがブロック図の形式で示される。以下の詳細な説明のいくつかの部分は、過程、論理ブロック、処理、及び、コンピュータのメモリ内のデータビットへの操作を他の記号で表現したもの、という形で提示されている。回路素子又はソフトウェアブロック間の相互接続は、バス又は単一の信号線として示される場合がある。バスのそれぞれは、代替的に、単一の信号線であってもよく、単一の信号線のそれぞれは、代替的に、バスであっても良く、単一の信号線又はバスは、コンポーネント間の通信のための無数の物理的又は論理的なメカニズムのうちの任意の1以上を表し得る。
後述の議論から明らかなように、特にそうでないと述べられていない場合には、本出願を通して、「アクセスする」、「受信する」、「送信する」、「用いる」、「選択する」、「決定する」、「正規化する」、「乗算する」、「平均する」、「モニタする」、「比較する」、「適用する」、「更新する」、「計測する」、「導出する」、等のような表現を用いて行われる議論は、コンピュータシステム(又は同様の電子計算デバイス)によるアクション及び処理を参照していると認められる。これらのアクション及び処理は、コンピュータシステムのレジスタ及びメモリ内の物理(電気)量として示されるデータを、コンピュータシステムのメモリまたはレジスタ、又は他のそのような情報ストレージ、伝送器、又は表示デバイス内の物理量として同様に示される他のデータに操作及び変換する。
本明細書で説明されている技術は、特定の方法で実施されると特に記載されない限り、ハードウェア、ソフトウェア、ファームウェア、又は、それらの任意の組み合わせで実施され得る。モジュール又はコンポーネントとして説明されている任意の構成は、集積ロジックデバイスにまとめて実装されるか、又は、個別に分離されているが相互運用が可能なロジックデバイスとして実装される場合もある。ソフトウェアで実装される場合、本技術は、実行されたときに上述の1以上の方法を実現する命令を含む、コンピュータ読取り可能な非一時的記憶媒体によって少なくとも部分的に実現される場合がある。コンピュータ読取り可能な非一時的記憶媒体は、コンピュータプログラム製品の一部を形成する場合がある。なお、コンピュータプログラム製品は、梱包材を含む場合がある。
非一時的なプロセッサ読取り可能な記憶媒体は、同期ダイナミックランダムアクセスメモリ(synchronous dynamic random access memory)(SDRAM)のようなランダムアクセスメモリ(random access memory)(RAM)、リードオンリーメモリ(read only memory)(ROM)、不揮発性ランダムアクセスメモリ(non-volatile random access memory)(NVRAM)、電子的消去可能プログラマブルリードオンリーメモリ(electrically erasable programmable read-only memory)(EEPROM)、フラッシュメモリ、他の既知の記憶媒体等、を備える場合がある。本技術は追加的に、あるいは代替的に、少なくとも一部が、コードを命令又はデータ構造の形で伝達または通信し、かつ、コンピュータ又は他のプロセッサによってアクセス、読取り、及び/又は、実行が可能な、プロセッサ読取り可能な通信媒体によって実現され得る。
本明細書で開示される実施形態に関して説明される様々な例示的な論理ブロック、モジュール、回路、及び、命令は、1以上のプロセッサによって実行され得る。本明細書で用いられる「プロセッサ」という言葉は、任意の汎用プロセッサ、従来のプロセッサ、コントローラ、マイクロコントローラ、特定用途のプロセッサ、及び/又は、メモリに記憶された1以上のソフトウェアプログラムのスクリプト又は命令を実行可能な状態機械、を示す場合がある。本明細書で用いられる「スマートデバイス」という言葉は、パーソナライズされたユーザ体験を提供することができる任意のデバイスを指す場合がある。スマートデバイスの例には、パーソナルコンピューティングデバイス(例えば、デスクトップコンピュータ、ラップトップコンピュータ、ネットブックコンピュータ、タブレット、ウェブブラウザ、電子書籍リーダ、パーソナルデジタルアシスタント(personal digital assistant)(PDA))、データ入力デバイス(例えば、リモートコントロール及びマウス)、データ出力デバイス(例えば、表示スクリーン及びプリンタ)、リモート端末、キオスク、ビデオゲーム機(例えば、ビデオゲームコンソール、携帯ゲームデバイス、等)、通信デバイス(例えば、スマートフォンのような携帯電話)、メディアデバイス(例えば、レコーダ、エディタ、及び、テレビ、セットトップボックス、音楽プレーヤ、デジタルフォトフレーム、及び、デジタルカメラ等のプレーヤ)等が含まれ得るが、これに限定されない。
図1は、いくつかの実施形態に係る、機械学習システム100のブロック図を示す。システム100は、ディープラーニング環境101と、スマートデバイス110を含む。ディープラーニング環境101は、1以上のニューラルネットワークモデル102を生成または学習させるためのメモリ、及び/又は、処理リソースを備える場合がある。いくつかの実施形態では、ニューラルネットワークモデル102は、スマートデバイス110上に実装される場合がある。例えば、スマートデバイス110は、ニューラルネットワークモデル102を用いて、ユーザの生体署名によって該ユーザを認識し得る。生体署名の例には、ユーザの顔、声、指紋、目、又は、一意に識別可能なユーザのその他の生物学的特性が含まれ得るが、これらに限定されない。
ディープラーニング環境101は、ディープラーニングを通じて1以上のニューラルネットワークモデル102を生成するように構成される場合がある。ディープラーニングは、学習フェーズが複数のレイヤにわたって実行され、連続するレイヤのそれぞれにおいてより抽象的なルールのセットを生成する、機械学習の特定の形式である。ディープラーニングアーキテクチャは、情報が処理される(例えば、生物学的な神経系と同様の)方法により、しばしば、人工ニューラルネットワークと呼ばれる場合がある。例えば、ディープラーニングアーキテクチャの各層は、いくつかの人工ニューロンで構成されている場合がある。ニューロンは、入力データ(例えば、生データ)がある層から別の層に伝達され得るように、様々な層にわたって相互接続され得る。より具体的には、ニューロンの各層は入力データに対して、異なるタイプの変換を実行して、最終的に所望の出力(例えば、答え)をもたらし得る。相互接続されたニューロンのフレームワークは、ニューラルネットワークモデルと呼ばれる場合がある。したがって、ニューラルネットワークモデル102は、例えば、人間の顔といった特定のオブジェクトまたは特徴を記述するために用いることが出来るルールのセットを含む場合がある。
ディープラーニング環境101は、大量の生データにアクセスすることができ、生データと関連付けられたルールのセット(例えば、特定のオブジェクト、特徴、受信された信号又はピクセルデータの品質といったサービス品質、及び/又は、他の検出可能な属性)を認識するように学習される場合がある。例えば、いくつかの態様では、ディープラーニング環境101は、人間の顔を認識するように学習される場合がある。学習フェーズの間に、ディープラーニング環境101は、人間の顔を含む多数の写真、及び/又は、動画を処理又は解析する場合がある。ディープラーニング環境101は、更に、提供されたメディアコンテンツが人間の顔を含んでいるという指標を(例えば、ユーザ、又は、メディア及び/又はメディアと共に提供されるデータ若しくはメタデータをレビューするオペレータからのユーザ入力の形式で)受信する場合がある。ディープラーニング環境101は、そして、画像、及び/又は、動画に対する統計的な分析を実行して、人間の顔に関連付けられる共通の特徴のセットを決定する場合がある。いくつかの態様では、決定された特徴(またはルール)は、抽象化の層の複数にわたる人工ニューラルネットワークを形成し得る。ディープラーニング環境101は、そして、ルールのセットを、例えばニューラルネットワークモデル102として、推論のためにスマートデバイス110に提供する場合がある。
いくつかの態様では、デバイスの製造工程において、1以上のニューラルネットワークモデル102がスマートデバイス110に供給される(及び、スマートデバイス110に記憶される)場合がある。例えば、スマートデバイス110は、エンドユーザに出荷される前に、ニューラルネットワークモデル102がプレロードされる場合がある。他のいくつかの態様では、スマートデバイス110は、ディープラーニング環境101から1以上のニューラルネットワークモデル102を実行時に受信する場合がある。例えば、ディープラーニング環境101は、ネットワーク(例えば、クラウド)を介してスマートデバイス110に通信可能に接続される場合がある。これに応じて、スマートデバイス110は、ネットワークを介して、いつでも、ディープラーニング環境101からニューラルネットワークモデル102(更新されたニューラルネットワークモデルを含む)を受信し得る。
スマートデバイス110は、所与のユーザの好み、アクティビティ、又は、習慣に基づいて、(パーソナライズされたユーザインタフェースのような)カスタマイズ可能なユーザ体験を提供可能な任意のデバイスであり得る。スマートデバイスの例には、セットトップボックス(set-top box)(STB)、コンピュータ、携帯電話、タブレット、テレビ(TV)、等が含まれ得るが、これらに限定されない。スマートデバイス110は、センサ112、ニューラルネットワークアプリケーション114、プロファイルデータベース116、及び、ユーザインタフェース118を備える場合がある。センサ112は、ユーザの生体認証情報を検出及び/又は識別するために使用可能なデータ(例えば、画像、ビデオ、音声録音等)を収集するように構成される場合がある。適切なセンサの例には、カメラ、静電容量センサ、音声認識システム等が含まれるが、これらに限定されない。
ニューラルネットワークアプリケーション114は、センサ112によってキャプチャされたセンサデータについての1以上の推論を生成するように構成される場合がある。例えば、いくつかの態様では、ニューラルネットワークアプリケーション114は、センサデータを分析して、そこに含まれる対象のオブジェクトを推論または識別する場合がある。対象のオブジェクトの例には、顔、ロゴ、宛先等が含まれるが、これらに限定されない。いくつかの実施形態では、ニューラルネットワークアプリケーション114は、ディープラーニング環境101によって供給されたニューラルネットワークモデル102に基づいて推論を生成する場合がある。例えば、推論フェーズの間に、ニューラルネットワークアプリケーション114は、例えば、人工ニューラルネットワーク内の人工ニューロンをトラバースすることによって、ニューラルネットワークモデル102をセンサ112によってキャプチャされた新たなセンサデータ(例えば、画像又は動画)に適用して、データに関する情報を推論する場合がある。
本開示の態様は、例えば、ユーザの生体署名に基づいてニューラルネットワークモデル102を更に改良するために、及び/又は、追加のニューラルネットワークモデルを生成するために、ある種のユーザデータをディープラーニング環境101(又は、スマートデバイス110の外部)に送信することが望ましくない場合があることを認識している。そのため、いくつかの実施形態では、ニューラルネットワークアプリケーション114は、(例えば、スマートデバイス110の外部にいかなるセンサデータまたは生体認証情報を送信することなく)オフライン方式で動作する場合がある。スマートデバイス110自体においてセンサデータに対してローカルに推論を実行することによって、本明細書が開示する実施形態は、ユーザのプライバシーも保護する方法で、機械学習をより効率的に実行することができる。
プロファイルデータベース116は、スマートデバイス110の一人以上のユーザのプロファイル情報を格納する場合がある。プロファイル情報は、スマートデバイス110を特定のユーザにパーソナライズするために使用可能な設定、セッティング、嗜好、及び/又は、コンテンツを含む場合がある。いくつかの実施形態では、プロファイルデータベース116は、スマートデバイス110が初期化されるとき(例えば、電源がオンになるか、または初めて起動されるとき)は空である場合があり、新しいユーザがスマートデバイス110とインタラクションするにつれて成長する場合がある。言い換えると、スマートデバイス110は、そのユーザの嗜好及び/又は習慣を学習するにつれて、プロファイルデータベース116内のプロファイル情報を動的に更新する場合がある。
いくつかの態様では、スマートデバイス110は、ユーザの以前のデバイスのセッティング及び/又は設定をそのユーザのプロファイル情報として記憶または記録する場合がある。例えば、スマートデバイス110は、ユーザがスマートデバイス110を操作又はインタラクションするたびに、スマートデバイス110のパーソナライズのセッティングをモニタする場合がある。パーソナライズのセッティングの例には、ディスプレイの明るさ、音量レベル、およびコントラスト比が含まれる場合があるが、これらに限定されない。スマートデバイス110は、そして、ユーザのパーソナライズのセッティングを、そのユーザについてのプロファイル情報と共にプロファイルデータベース116に記憶する場合がある。他のいくつかの態様では、スマートデバイス110は、ユーザの以前のアクティビティ、デモグラフィック情報、及び/又は、ユーザ入力に少なくとも部分的に基づいて、ユーザに関するプロファイル情報を推論する場合がある。例えば、スマートデバイス110は、ユーザの視聴習慣をモニタして、特定のユーザがロマンチックコメディを楽しんでいると推論する場合がある。スマートデバイス110は、そして、ロマンチックコメディに対するユーザの嗜好を、そのユーザのプロファイル情報と共にプロファイルデータベース116に記憶することがある。
ユーザインタフェース118は、それによってユーザがスマートデバイス110を操作、又は、別の方法で使用可能であるところのインタフェースを提供する場合がある。いくつかの態様では、ユーザインタフェース118は、スマートデバイス110にプロファイル情報を表示、描写、又は、他の方法で明示して、パーソナライズされたユーザ体験を提供する場合がある。例えば、ユーザインタフェース118は、ユーザのパーソナライズのセッティングに基づいて、ディスプレイの明るさ、音量レベル、コントラスト比、及び/又は、スマートデバイス110の他の設定を動的に調整する場合がある。ユーザインタフェース118はまた、特定の映画又は映画のジャンル(例えば、コメディ)についてのユーザの嗜好に基づいて、映画の推奨を表示する場合がある。
いくつかの実施形態では、スマートデバイス110は、ニューラルネットワークアプリケーション114によってユーザについて決定された情報に少なくとも部分的に基づいて、どのユーザのプロファイル情報がユーザインタフェース118によって実装されるべきかを決定する場合がある。例えば、スマートデバイス110は、ニューラルネットワークアプリケーション114からのユーザに関する推論を、プロファイルデータベース116からのユーザの嗜好に関する推論とマッチさせる場合がある。これに応じて、スマートデバイス110は、ユーザインタフェース118を動的に更新して、任意の所与の時点で、スマートデバイス110のユーザに対してパーソナライズされたユーザ体験を提供する場合がある。
本開示の態様は、ユーザに自らの生体署名を登録する、又は、ユーザプロファイルを登録することを要求せずに、パーソナライズされたユーザ体験を提供し得る。例えば、本実施形態は、ユーザプロファイルを設定するために、ユーザによるいかなる形式での明示的または意図的なアクション(専用の登録フェーズ中に複数回の生体認証入力を提供するといった)を必要としない場合がある。したがって、ユーザは常に、スマートデバイス110を、それが意図された態様(例えば、メディアコンテンツの閲覧又は聴取、電話の発信、メッセージの送信又は受信、等)で使用可能であり得る。
いくつかの実施形態では、スマートデバイス110は、ユーザにとってトランスペアレントな方法で生体認証データを取得する場合がある。例えば、スマートデバイス110は、ユーザがその意図された用途(例えば、メディアコンテンツの閲覧又は聴取、電話の発信、メッセージの送信又は受信、等)のためにスマートデバイス110を操作している間に、センサデータをキャプチャするようにセンサ112を作動させる場合がある。スマートデバイス110は、更に、キャプチャされたセンサデータに基づいて一意の生体認証識別子を生成するようにニューラルネットワークアプリケーション114を作動させる場合がある。例えば、ニューラルネットワークアプリケーション114は、特定のユーザについての生体認証情報を含むセンサデータの各フレームに対して同じ(または実質的に同様の)生体認証識別子を生成する場合がある。さらに、特定のユーザの生体認証識別子は、他のユーザの生体認証識別子とは実質的に異なるか、一意に識別可能である必要がある。いくつかの実施形態では、生体認証識別子は、ユーザの身元またはユーザに関する個人情報(例えば、名前、位置、等)を明らかにするようなものではない場合がある。
スマートデバイス110は、そして、生体認証識別子を、プロファイルデータベース116に記憶されたプロファイル情報とマッチさせる場合がある。いくつかの実施形態では、プロファイルデータベース116は、既知の生体認証識別子を対応するユーザのプロファイル情報と関連付けて記憶する場合がある。いくつかの実施形態では、生体認証識別子もプロファイル情報も、ユーザに関する個人情報を明らかにするようなものではない場合がある。次に、スマートデバイス110は、ユーザインタフェース118にプロファイル情報を実装して、スマートデバイス110の現在のユーザに対してパーソナライズされたユーザ体験を提供する場合がある。ユーザ入力が不要であり、個人情報がスマートデバイス110の外部に通信されないため、スマートデバイス110は、ユーザのプライバシーを保護しながら、ユーザにとってトランスペアレントな方法で、ユーザインタフェース118を特定のユーザに対してパーソナライズし得る。
図2は、本実施形態が実施されることがある例示的な環境200を示している。環境200は、スマートデバイス210、ユーザ220、及び、非ユーザのオブジェクト230を含む。スマートデバイス210は、図1のスマートデバイス110の一実施形態である場合がある。図2の実施形態では、スマートデバイス210は、ユーザ220に対してメディアコンテンツ(例えば、画像、動画、及び、音声等)を表示又は再生可能なメディアデバイス(例えば、テレビ)として示されている。スマートデバイス210は、更に、カメラ212およびディスプレイ214を備える。
カメラ212は、図1のセンサ112の一実施形態である場合がある。より具体的には、カメラ212は、スマートデバイス210の前方のシーン201の画像(例えば、静止フレーム画像及び/又は動画)をキャプチャするように構成される場合がある。例えば、カメラ212は、1以上の光学センサを備える場合がある。光学センサの例には、フォトダイオード、CMOSイメージセンサーアレイ、CCDアレイ、及び/又は、可視スペクトル、赤外線スペクトル、並びに/若しくは、紫外線スペクトルの光の波長を検出可能な他のセンサが含まれ得るが、これに限定されない。
ディスプレイ214は、メディアコンテンツをユーザ220に表示するように構成される場合がある。例えば、ディスプレイ214は、メディアコンテンツが描写、及び/又は、投影され得るスクリーン又はパネルを備える場合がある。適切なディスプレイ技術の例には、発光ダイオード(light emitting diode)(LED)、有機LED(organic LED)(OLED)、ブラウン管(cathode ray tube)(CRT)、液晶ディスプレイ(liquid crystal display)(LCD)、エレクトロルミネセンス(electroluminescence)(EL)、プラズマ、または他のディスプレイ技術が含まれ得るが、これらに限定されない。いくつかの実施形態では、ディスプレイ214はまた、ユーザ220がスマートデバイス210とインタラクションする又はスマートデバイス210を使用することがあるユーザインタフェース(例えば、図1のユーザインタフェース118)に対応及び/又は提供する場合がある。
いくつかの実施形態では、スマートデバイス210は、ユーザ220の嗜好、アクティビティ、又は、習慣に少なくとも部分的に基づいて、パーソナライズされたユーザ体験を提供する場合がある。例えば、スマートデバイス210は、カメラ212によってキャプチャされたシーン201内のユーザ220の顔を検出する場合がある。いくつかの態様では、カメラ212は、ユーザ220によるどのような入力もなしに、シーン201の画像を連続的に(または周期的に)キャプチャする場合がある。これに応じて、スマートデバイス210は、ユーザ220がカメラの視野に足を踏み入れることに応答して、ユーザの顔の存在を検出する場合がある。
シーン201の画像内でユーザの顔を検出すると、スマートデバイス210は、キャプチャされた画像を顔ベクトルのような生体認証識別子に変換する場合がある。例えば、スマートデバイス210はキャプチャされた画像を、ユーザ220の顔に一意にマッピングする多次元ベクトルとして符号化する場合がある。符号化プロセスの間に、スマートデバイス210は、画像内にもまた存在し得る(オブジェクト230のような)非ユーザのオブジェクトを無視又はフィルタリングする場合がある。言い換えると、スマートデバイス210は、ポーズ、顔の位置、及び/又は、シーン201内の他のオブジェクトの存否に関係なく、同じユーザの顔を含む異なる画像を同じ(又は実質的に類似した)顔ベクトルとして符号化する場合がある。いくつかの実施形態では、スマートデバイス210は、ローカルに記憶された1以上のニューラルネットワークモデルを用いて顔ベクトルを生成する場合がある。
次に、スマートデバイス210は、顔ベクトルを、関連するプロファイル情報とマッチングして、ユーザ220に対して、パーソナライズされたユーザインタフェースをディスプレイ214上で提示する場合がある。プロファイル情報は、ユーザの視聴履歴、及び/又は、自己申告された興味や嗜好に基づいて決定される場合がある。したがって、いくつかの実施形態では、スマートデバイス210は、ユーザが関心を持ち得る他のメディアコンテンツについての推奨を表示する場合がある。例えば、いくつかの態様では、プロファイル情報は、ユーザ220が好む1以上のジャンルのメディアコンテンツ(例えば、スポーツ、コメディ、アクション、ホラー等)を示し得る。このように、スマートデバイス210は、好まれるジャンルに属する他のメディアコンテンツについての推奨を表示する場合がある。
他のいくつかの態様では、プロファイル情報は、特定のテレビ局またはネットワークから配信されるテレビ番組についての嗜好を示す場合がある。これに応じて、スマートデバイス210は、同じテレビネットワーク又は制作スタジオからの他の番組を、ユーザに推奨する場合がある。いくつかの実装では、メディアコンテンツの所有者又は作成者は、メディアコンテンツをスマートデバイス210にストリーミング又はブロードキャストするコンテンツ配信ネットワーク(content delivery network)(CDN)とは異なる場合がある。たとえば、コンテンツ所有者が放送テレビネットワークまたは制作スタジオであるのに対し、CDNはストリーミングビデオオンデマンド(video-on-demand)(VoD)又はペイパービュー(pay-per-view)(PPV)のサービスであり得る。そのため、いくつかの態様では、スマートデバイス210は、ユーザ220に、嗜好するコンテンツの作成者又は所有者からの追加のコンテンツを表示するオプションを提供する場合がある。ここで、このような追加のコンテンツは、そこからユーザが嗜好すると推論されたコンテンツをストリーミングしたところの同じCDNによるストリーミングにより取得可能である。
いくつかの他の実施形態では、スマートデバイス210は、ユーザが購入に興味を持ち得る製品の広告を表示する場合がある。例えば、プロファイル情報は、ユーザ220が特定のブランド又は製品の種類への嗜好あるいは関心を有することを示す場合がある。これに応じて、スマートデバイス210は、ユーザに対して、特定のブランド若しくはタイプの製品、及び/又は、関連するブランド若しくは製品についてのターゲット広告を提示する場合がある。いくつかの態様では、ターゲット広告は、識別された製品を、スマートデバイス210を介して購入するオプションを含む場合がある。
シーン201の画像から複数の顔ベクトルが抽出されるいくつかの実施形態では、スマートデバイス210は、検出された顔ベクトルのうちのひとつのみについて推奨を表示する場合がある。いくつかの態様では、スマートデバイス210は、デバイス210の前で検出された顔ベクトルの全てに適した推奨のみを表示する場合がある。例えば、顔ベクトルのうち一つに関連付けられたプロファイル情報がより若い視聴者には不適切であり得るメディアコンテンツ(例えば、Rレーティングのコンテンツ)の嗜好を示し、一方で別の顔ベクトルのプロファイル情報がすべての年齢層に適したメディアコンテンツの嗜好(例えば、Gレーティングのコンテンツ)を示す場合、スマートデバイス210は、すべての年齢層に適した他のメディアコンテンツについての推奨のみを表示する場合がある。
いくつかの他の実施形態では、スマートデバイス210は、検出された顔ベクトルのそれぞれについての推奨を同時に表示する場合がある。例えば、スマートデバイス210は、第1の顔ベクトルに関連付けられたプロファイル情報に基づく少なくともいくつかの推奨と、第2の顔ベクトルに関連付けられたプロファイル情報に基づく少なくともいくつかの推奨と、を表示する場合がある。更にその上、いくつかの実施形態では、スマートデバイス210は、複数の顔ベクトルを単一のユニットまたはユーザのグループとして解釈する場合がある。例えば、スマートデバイス210は、グループに共通する興味に基づいて推奨を表示する場合がある。例示的な推奨には、ゲームショー、スポーツ、及び/又は、顔ベクトルの組合せが楽しむと知られている他のショー若しくは番組が含まれる場合がある。
図3は、いくつかの実施形態に係る、スマートデバイス300のブロック図を示す。スマートデバイス300は、図1のスマートデバイス110、及び/又は、図2のスマートデバイス210の一実施形態であり得る。スマートデバイス300は、カメラ310、ベクトル生成器320、プロファイルフィルタ330、ベクトルルックアップテーブル(LUT)340、ユーザインタフェース350、及び、ディスプレイ360を備える。
カメラ310は、スマートデバイス300を取り巻く環境の画像301(例えば、図2のシーン201)をキャプチャするように構成される。カメラ310は、図2のカメラ212の一実施形態である場合がある。そのため、カメラ310は、スマートデバイス300の前方のシーンの画像(例えば、静止フレーム画像及び/又は動画)をキャプチャするように構成される場合がある。
ディスプレイ360は、スマートデバイス110のユーザにメディアコンテンツを表示するように構成される。ディスプレイ360は、図2のディスプレイ214の一実施形態である場合がある。そのため、ディスプレイ360は、その上でメディアコンテンツが描写及び/又は投影され得るところのディスプレイスクリーン又はパネルを備える場合がある。いくつかの実施形態では、ディスプレイ360はまた、ユーザインタフェース350の視覚的な表示を提供又は提示する場合がある。
ベクトル生成器320は、画像301を顔ベクトル302として符号化するように構成される。ベクトル生成器320は、図1のニューラルネットワークアプリケーション114の一実施形態である場合がある。そのため、ベクトル生成器320は、スマートデバイス300に記憶された1以上のニューラルネットワークモデルを用いて、画像301に関する推論を生成する場合がある。例えば、図1に関連して説明したように、ベクトル生成器320は、カメラ310から画像301を受信する前に、学習されたニューラルネットワークモデルを受信する場合がある。いくつかの実施形態では、ベクトル生成器320は、顔検出モジュール322と、顔符号化モジュール324と、を備える場合がある。顔検出モジュール322は、キャプチャされた画像301内の顔を検出する場合がある。例えば、顔検出モジュール322は、(Haar特徴に基づく顔検出器のような)任意の既知の顔検出アルゴリズム及び/又は技術を使用して顔を検出する場合がある。
顔が検出されると、顔符号化モジュール324は、画像301を一意の顔ベクトル302にはめ込む(例えば、マップする、又は、符号化する)場合がある。顔符号化モジュール324は、画像内のポーズ、顔の位置、または他の非ユーザオブジェクトにかかわらず、同じユーザの顔を含む各画像に対して同じ(または実質的に同様の)顔ベクトルを生成すべきである。さらに、特定のユーザについての顔ベクトルは、他の如何なるユーザについての顔ベクトルと実質的に異なっているべきである。これに応じて、顔ベクトルは、N次元ベクトルである場合がある(例えば、Nは、そのような一意に識別可能なベクトルの要件を満たすために必要な次元の数である)。いくつかの実施形態では、顔符号化モジュール324は、顔を含む画像の大規模なデータセットにより学習されたニューラルネットワークモデルを用いて、はめ込みを実行する場合がある。ニューラルネットワークモデルの学習のための例示的なプロセスについては、図4に関連して、後に説明する。
プロファイルフィルタ330は、ベクトル生成器320によって生成された顔ベクトル302と関連付けられたプロファイル情報303を取得するように構成される。例えば、プロファイルフィルタ330は、顔ベクトル302を、ベクトルLUT340に記憶された既知の顔ベクトルと比較する場合がある。マッチが検出されない場合、プロファイルフィルタ330は、顔ベクトル302をベクトルLUT340の新たなエントリとして記憶する場合がある。しかしながら、マッチするものが検出された場合、プロファイルフィルタ330は、マッチする顔ベクトル302に関連付けられたプロファイル情報303を取得する場合がある。いくつかの実施形態では、プロファイルフィルタ330は、マッチする顔ベクトル302が閾値回数検出された後にのみ、プロファイル情報303を取得する場合がある。例えば、ベクトルLUT340は、その中に記憶された各顔ベクトル302に関連付けられたカウント値をさらに記憶する場合がある。これに応じて、プロファイルフィルタ330は、同じ顔ベクトルでマッチが検出されるたびに、特定の顔ベクトル302のカウント値をインクリメントする場合がある。
ユーザインタフェース350は、顔ベクトル302に関連付けられたプロファイル情報303に基づいて、コンテンツ304をディスプレイ360上に表示するように構成される。いくつかの態様では、ユーザインタフェース350は、ユーザがスマートデバイス300を操作あるいは他の方法で使用可能なインタフェースを提供する場合がある。例えば、ユーザインタフェース350は、スマートデバイス300上で表示するために利用可能なメディアコンテンツのリストを表示する場合がある。ユーザインタフェース350はまた、再生のために利用可能なメディアコンテンツの選択に対応するユーザ入力305を処理する場合がある。例えば、ユーザ入力305は、スマートデバイス300上で提供されるか、またはスマートデバイス300に接続された入力メカニズム(シンプルにするために図示せず)を介して受信される場合がある。いくつかの実装では、ユーザインタフェース350は、コンテンツストア352と、コンテンツ取得モジュール354と、を備える場合がある。コンテンツストア352は、ディスプレイ360、及び/又は、スマートデバイス300に接続されたディスプレイデバイス(図示せず)上で再生するためのメディアコンテンツを記憶又はバッファリングすることができる。コンテンツ取得モジュール354は、スマートデバイス300の外部にある1以上のコンテンツ配信ネットワーク(CDN)からメディアコンテンツを取得する場合がある。例えば、コンテンツストア352は、コンテンツ取得モジュール354によって取得されたメディアコンテンツを記憶またはバッファリングすることができる。
いくつかの実施形態では、ユーザインタフェース350は、プロファイル情報303を実装して、スマートデバイス300の現在のユーザにパーソナライズされたユーザ体験を提供する場合がある。上記で説明したように、プロファイル情報303は、パーソナライズされたユーザ体験を作成するために用いられ得る設定、セッティング、嗜好、及び/又は、コンテンツを含む場合がある。いくつかの態様では、プロファイル情報303は、ユーザの閲覧履歴及び/又は自己報告された興味または嗜好に基づいて決定される場合がある。そのため、ユーザインタフェース350は、プロファイル情報303に基づいて(例えば、図2に関連して上記で説明したように)推奨されたメディアコンテンツ及び/又はターゲット広告を表示する場合がある。
いくつかの他の実施形態では、ユーザインタフェース350は、受信したユーザ入力305に基づいて、プロファイル情報303を更新するか、又は、新たなプロファイル情報を生成する場合がある。例えば、ユーザインタフェース350は、ユーザの視聴履歴及びスマートデバイス300との他のインタラクションに基づいて、該ユーザの嗜好を決定及び/又は推論する場合がある。プロファイルフィルタ330は、そして、現在の顔ベクトル302と関連付けて、新規のプロファイル情報303又は更新されたプロファイル情報303をベクトルLUT340に記憶する場合がある。
図3に示すように、画像301、顔ベクトル302、及び、プロファイル情報303はすべて、スマートデバイス300上でローカルに生成及び/又は記憶される。より具体的には、パーソナライズされたユーザ体験を提供するために、ユーザのデータ301-303のいずれもスマートデバイス300の外部に送信する必要はない。さらに、スマートデバイス300は、画像301をキャプチャし、そのため、ユーザによる明示的な入力及び/又はアクションを必要とせずに(例えば、ユーザ登録プロセスなしで)、特定のユーザについてのプロファイル情報303を取得する場合がある。したがって、スマートデバイス300は、ユーザのプライバシーを保護しつつユーザにとってトランスペアレントな方法で、特定のユーザのためにパーソナライズされたユーザインタフェース350を表示し得る。
本実施形態では、パーソナライズ可能なスマートデバイスの特定の例としてメディアデバイスを挙げて説明してきたが、本明細書に記載の実施形態はまた、様々な他のデバイス上でパーソナライズされたユーザ体験を提供するために用いられ得る。例示的なユースケースには、任意の所与のユーザについての、コーヒーマシンの設定のカスタマイズや、車の座席の調節、エアコン、及び/又は、音楽の設定の調節等が含まれ得るが、これらに限定されない。より一般的には、本開示の態様は、(カメラ、マイクロフォン、指紋センサといった)生体認証センサを有する、ユーザ体験を当該デバイスのユーザに調節可能な任意のデバイスに適用可能であり得る。
図4は、オフライン使用のためのニューラルネットワークの学習のための例示的なプロセス400を示す例示的な図である。いくつかの実施形態では、プロセス400が、顔を含む画像を一意に識別可能なベクトル(例えば、顔ベクトル)に符号化するために使用可能なニューラルネットワークモデル420を学習するために用いられる場合がある。このように、学習プロセス400は、人間の顔を含む数千ではなくとも数百の画像へのアクセスを有する(図1のディープラーニング環境101のような)ディープラーニング環境で実施される場合がある。例えば、顔はさまざまなポーズ、照明、化粧、及び、現実世界におけるその他の条件で提示される場合がある。
ニューラルネットワークモデル420は、その入力として画像を受け取り、その出力としてN次元ベクトルを生成する任意のニューラルネットワークアーキテクチャであり得る。例えば、図4に示すように、ニューラルネットワークモデル420は、深層畳み込みニューラルネットワーク(deep convolutional neural network)(DCNN)である場合がある。画像412-416の各トリプレットを処理する間は、ニューラルネットワーク420の重みが同一に保たれる場合がある。ただし、個々の重みはランダムに初期化される場合がある。
ニューラルネットワークモデル420は、(例えば、スマートデバイスに記憶された後には、更なる学習又はリファインなしで)スマートデバイス上にオフライン形式で実装されるべきものであるから、ニューラルネットワークモデル420は任意のユーザの顔の画像から一意な顔ベクトルを生成可能であるべきである。より具体的には、ニューラルネットワークモデル420は、ポーズ、顔の位置、または環境にかかわらず、同じユーザの顔を含む各画像に対して同じ(または実質的に同様の)顔ベクトルを生成すべきである。更に、特定のユーザの顔ベクトルは、他のユーザの顔ベクトルとは実質的に異なっているべきである。
学習プロセス400の間に、ニューラルネットワークモデル420は、アンカー画像412をポジティブ画像414およびネガティブ画像416と比較する場合がある。アンカー画像412は、比較の基礎を形成する顔を含み、ポジティブ画像414は、実世界における多少の変化(例えば、ポーズ、位置、又は、環境が異なる)を伴いつつもアンカー画像412と同じ人物の顔を含み、ネガティブ画像416は、別の人物の顔を含む。ニューラルネットワークモデル420は、画像412、414、及び、416のそれぞれを、N次元ベクトル432、434、及び、436にそれぞれ符号化する。
そして、結果として得られるベクトル432-436について、トリプレット損失440が計算される。トリプレット損失440は、アンカーベクトル432とポジティブベクトル434との間の距離、及び、アンカーベクトル432とネガティブベクトル435との間の距離の関数である。例えば、トリプレット損失の関数は、
のように示し得る。ここで、
はアンカー画像412から生成されたベクトル(例えば、アンカーベクトル432)を表し、
はポジティブ画像414から生成されたベクトル(例えば、ポジティブベクトル434)を表し、
はネガティブ画像416から生成されたベクトル(例えば、ネガティブベクトル436)を表し、Nはデータトリプレット412-416の総数であり、αはニューラルネットワークモデル420へのペナルティを回避するために維持されるべきポジティブサンプルとネガティブサンプルの間の最小分離マージンである。
学習プロセス400は、トリプレット損失440を低減または最小化するように構成され得る。そのため、トリプレット損失440は、アンカーベクトル432とポジティブベクトル434の間の距離が大きすぎる(例えば、閾値距離よりも大きい)場合、又は、アンカーベクトル432とネガティブベクトル436との間の距離が小さすぎる(例えば、閾値距離未満)場合にニューラルネットワークモデル420にペナルティを課すために使用される場合がある。一方で、トリプレット損失440は、アンカーベクトル432とポジティブベクトル434の間の距離が十分に小さく(例えば、閾値距離未満)、アンカーベクトル432とネガティブベクトル436の間の距離が十分に大きい(例えば、閾値距離よりも大きい)場合にニューラルネットワークモデル420が妥当であると確認するために使用される場合がある。
学習プロセス400は、トリプレット損失440が(例えば、最小量に)収束するまで反復的に継続される場合がある。例えば、各反復において、ニューラルネットワークモデル420は、データトリプレット412-416の新しいバッチを提供される場合がある。トリプレット損失440が最小量に達すると、学習プロセス400は終了され、ニューラルネットワークモデルがスマートデバイスに実装されるための準備が整い得る。いくつかの実施形態では、学習されたニューラルネットワークモデル420は、スマートデバイス上で実行されるよう、公的に利用可能なツール(TOCOなど)を用いて量子化及び変換される場合がある。
図5は、いくつかの実施形態に係る、スマートデバイス500のブロック図を示す。スマートデバイス500は、図1-3を参照して本明細書で説明されたスマートデバイス110、210、又は300のいずれかについての一実施形態である場合がある。スマートデバイス500は、デバイスインタフェース510、プロセッサ520、及び、メモリ530を備える。
デバイスインタフェース510は、カメラインタフェース512、ディスプレイインタフェース514、およびセンサインタフェース516を備える場合がある。カメラインタフェース512は、(図2のカメラ212、及び/又は、図3のカメラ310のような)スマートデバイスのカメラと通信するために使用される場合がある。例えば、カメラインタフェース512は、カメラに信号を送信し、カメラから信号を受信して、スマートデバイスが面するシーンの画像をキャプチャする場合がある。ディスプレイインタフェース514は、(図2のディスプレイ214、及び/又は、図3のディスプレイ360のような)スマートデバイスのディスプレイと通信するために使用される場合がある。例えば、ディスプレイインタフェース514は、メディアコンテンツ及び/又はユーザインターフェースのデータをディスプレイに転送する場合がある。センサインタフェース516はまた、スマートデバイスの1以上の追加的なセンサと通信するために使用される場合がある。例えば、センサインタフェース516は、追加的なセンサからユーザ入力を受信する場合がある。
メモリ530は、スマートデバイスの様々なユーザのプロファイル情報を記憶するためのプロファイルデータベース531を含む場合がある。いくつかの実施形態では、各ユーザのプロファイル情報は、そのユーザの生体認証識別子(例えば、顔ベクトル)に関連付けて記憶される場合がある。メモリ530はまた、少なくとも次のソフトウェア(SW)モジュールを記憶可能な非一時的なコンピュータ読取り可能な媒体(例えば、EPROM、EEPROM、フラッシュメモリ、ハードドライブといった1以上の不揮発性メモリ素子)を備える場合がある。
SWモジュールは以下を備える:
●キャプチャされた画像に少なくとも部分的に基づいて、生体認証識別子又はベクトルを生成するベクトル符号化SWモジュール532であり、このベクトル符号化SWモジュール532は更に以下を備える:
〇キャプチャされた画像内の1以上の人間の顔を検出する顔検出サブモジュール533
〇キャプチャされた画像内を一意に識別可能なベクトルに符号化する顔符号化サブモジュール534
●プロファイルデータベース531からの生体認証識別子、又は、ベクトルと関連付けられたプロファイル情報を取得するプロファイルマッチングSWモジュール535
●スマートデバイス上にプロファイル情報(又はプロファイル情報に関連付けられたコンテンツ)を表示、描写、又は、その他の方法で示すユーザインタフェースSWモジュール536
各ソフトウェアモジュールは、プロセッサ520によって実行されると、スマートデバイス500に対応する機能を実行させる命令を含む。メモリ530の非一時的なコンピュータ読取り可能な媒体は、そのため、図6及び7を参照して以下で説明される操作のうち全部または一部を実行するための命令を含む。
SWモジュールは以下を備える:
●キャプチャされた画像に少なくとも部分的に基づいて、生体認証識別子又はベクトルを生成するベクトル符号化SWモジュール532であり、このベクトル符号化SWモジュール532は更に以下を備える:
〇キャプチャされた画像内の1以上の人間の顔を検出する顔検出サブモジュール533
〇キャプチャされた画像内を一意に識別可能なベクトルに符号化する顔符号化サブモジュール534
●プロファイルデータベース531からの生体認証識別子、又は、ベクトルと関連付けられたプロファイル情報を取得するプロファイルマッチングSWモジュール535
●スマートデバイス上にプロファイル情報(又はプロファイル情報に関連付けられたコンテンツ)を表示、描写、又は、その他の方法で示すユーザインタフェースSWモジュール536
各ソフトウェアモジュールは、プロセッサ520によって実行されると、スマートデバイス500に対応する機能を実行させる命令を含む。メモリ530の非一時的なコンピュータ読取り可能な媒体は、そのため、図6及び7を参照して以下で説明される操作のうち全部または一部を実行するための命令を含む。
プロセッサ520は、スマートデバイス500に記憶された1以上のソフトウェアプログラムのスクリプト又は命令を実行可能な、1以上の任意の適切なプロセッサである場合がある。例えば、プロセッサ520は、ベクトル符号化SWモジュール532を実行して、生体認証識別子又はベクトルをキャプチャされた画像に少なくとも部分的に基づいて生成する場合がある。ベクトル符号化SWモジュール532を実行するにあたって、プロセッサ520はまた、顔検出サブモジュール533を実行して、キャプチャされた画像内の1以上の人間の顔を検出し、また、顔符号化サブモジュール534を実行して、キャプチャされた画像を一意に識別可能なベクトルに符号化する場合がある。プロセッサ520はまた、プロファイルマッチングSWモジュール535を実行して、プロファイルデータベース531から生体認証識別子又はベクトルと関連付けられたプロファイル情報を取得する場合がある。その上更に、プロセッサ520は、ユーザインタフェースSWモジュール536を実行して、プロファイル情報(又はプロファイル情報と関連付けられたコンテンツ)をスマートデバイス上に表示、描写、又は、他の方法で示す場合がある。
図6は、いくつかの実施形態に係る、例示的なデバイスのパーソナライズ動作600を示す例示的なフローチャートである。例えば図1を参照して、例示的な動作600は、デバイスのユーザにパーソナライズされたユーザ体験を提供するために、スマートデバイス110によって実行される場合がある。
スマートデバイスは、1以上のセンサからセンサデータを受信する場合がある(610)。いくつかの実施形態では、スマートデバイスは、ユーザにとってトランスペアレントな方法でセンサデータを取得する場合がある。例えば、スマートデバイスは、それが意図された用途(例えば、メディアコンテンツの閲覧又は聴取、電話の発信、メッセージの送信又は受信、等)のためにスマートデバイスをユーザが操作している間に、センサデータをキャプチャするようにセンサを作動させる場合がある。
スマートデバイスは、更に、センサデータ内の生体認証情報を検出する場合がある(620)。例えば、生体認証情報は、特定のユーザの、一意に識別可能な任意の生物学的特徴を含む場合がある。生物学的特徴の例には、ユーザの顔、声、指紋、及び、目などの特徴が含まれるが、これらに限定されない。
スマートデバイスは、デバイスに記憶された1以上のニューラルネットワークモデルを用いて、生体認証情報をベクトルに符号化する場合がある(630)。例えば、ニューラルネットワークモデルは、検出された生体認証情報を含むセンサデータに基づいて、固有の生体認証識別子(例えば、ベクトル)を生成するように学習される場合がある。いくつかの実施形態では、ニューラルネットワークモデルは、大量の学習データへのアクセスを有するディープラーニング環境で学習される場合があり、動作600を実行する前にデバイスに記憶される場合がある。しかし、センサデータの符号化は、(たとえば、いかなるセンサデータをディープラーニング環境やその他の外部デバイス及び/又はネットワークに送信することなく)スマートデバイス上でローカルに実行される。
スマートデバイスは、そして、該ベクトルに少なくとも部分的に基づいて、デバイスのユーザインタフェースを設定する場合がある(640)。例えば、スマートデバイスは、ベクトルをプロファイルデータベースに記憶されたプロファイル情報にマッチさせる場合がある。プロファイル情報は、特定のユーザに対してスマートデバイスをパーソナライズするために使用可能な設定、セッティング、嗜好/又は、コンテンツが含まれる場合がある。いくつかの態様では、ユーザインタフェースは、パーソナライズされたユーザ体験を提供するために、スマートデバイス上にプロファイル情報を表示、描写、又は、他の方法で示す場合がある。
図7は、いくつかの実施形態に係る、例示的なデバイスのパーソナライズ動作700を示す他の例示的なフローチャートである。例えば図3を参照して、例示的な動作700は、スマートデバイス300によって実行され、デバイスのユーザにパーソナライズされたユーザ体験を提供する場合がある。
スマートデバイスは、最初に、シーンの画像をキャプチャする(710)。例えば、スマートデバイスは、(図2のシーン201のような)スマートデバイスを取り巻く環境の画像をキャプチャするようにカメラを作動させる場合がある。
スマートデバイスは、画像を顔ベクトルに符号化する場合がある(720)。例えば、スマートデバイスは、キャプチャされた画像内の顔を検出し、画像をその顔を示す一意の顔ベクトルにはめ込む(たとえば、マップする)ための1以上のニューラルネットワークモデルを実装している場合がある。顔ベクトルは、N次元ベクトルである場合がある(例えば、Nは、そのような一意に識別可能なベクトルの要件を満たすために必要な次元の数である)。
次に、スマートデバイスは、プロファイルデータベース内の顔ベクトルを検索する場合がある(730)。例えば、スマートデバイスは、顔ベクトルに関連付けられたプロファイル情報を取得する場合がある。
いくつかの態様では、スマートデバイスは、顔ベクトルをベクトルLUTに記憶された既知の顔ベクトルと比較して、マッチするものを探索する場合がある(740)。(740でテストされたときに)マッチするものが検出されない場合、スマートデバイスはこの顔ベクトルをベクトルLUTの新たなエントリとして記憶する場合がある(745)。スマートデバイスは、続いて、ユーザアクティビティに少なくとも部分的に基づいて、ベクトルLUTの新しいエントリにプロファイル情報を記録する場合がある(760)。例えば、スマートデバイスは、ユーザの閲覧履歴及びスマートデバイスとの他のインタラクションに基づいて、該ユーザの嗜好を決定及び/又は推論する場合がある。
(740でテストされたときに)マッチするものが検出された場合、スマートデバイスは、マッチする顔ベクトルに関連付けられたプロファイル情報を取得する場合がある(750)。いくつかの実施形態では、スマートデバイスは、一致する顔ベクトルが閾値回数検出された後にのみプロファイル情報を取得する場合がある。例えば、スマートデバイスは、同一の顔ベクトルについてマッチするものが検出されるたびに、特定の顔ベクトルのカウント値をインクリメントする場合がある。スマートデバイスは更に進んで、ユーザのアクティビティに少なくとも部分的に基づいて、マッチする顔ベクトルに関連付けられたプロファイル情報を更新する場合がある(760)。
当業者は、様々な異なる任意のテクノロジー及び技術を用いて、情報及び信号が表し得ることを理解するであろう。例えば、上述の説明を通して参照され得るデータ、命令、コマンド、情報、信号、ビット、記号、及び、チップは、電圧、電流、電磁波、磁界又は粒子、光場又は粒子、あるいは、これらの任意の組合せによって表し得る。
さらに、当業者は、本開示の態様に関連して説明された様々な例示的な論理ブロック、モジュール、回路、及び、アルゴリズムのステップが、電気的なハードウェア、コンピュータソフトウェア、又は、両者の組合せとして実装し得ることを理解しよう。このハードウェアとソフトウェアの交換可能性を明確に図示するために、例示的な様々なコンポーネント、ブロック、モジュール、回路、及び、ステップが、一般に、その機能の観点で上述のように説明されてきた。このような機能がハードウェア又はソフトウェアの何れで実装されるかは、システム全体に要求される特定のアプリケーションとデザイン上の制約に依存する。当業者は説明された機能を特定のアプリケーション毎に様々な方法で実装し得るが、そのような実装上の決定が、本開示の範囲からの逸脱を引き起こすと解釈されてはならない。
本開示の態様に関連して説明された方法、手順、又はアルゴリズムは、ハードウェアにより、プロセッサによって実行されるソフトウェアモジュールにより、あるいは、両者の組合せにより、直接的に具体化され得る。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、リムーバブルディスク、CD-ROM、又は、当技術分野において既知の他の形式の記憶媒体に常駐し得る。例示的な記憶媒体は、プロセッサが記憶媒体から情報を読み取り、記憶媒体に情報を書き込むことができるように、プロセッサに接続される。あるいは、記憶媒体はプロセッサに統合されてもよい。
前述の明細書では、その具体的な例を参照して実施形態が説明されてきた。しかしながら、添付の特許請求の範囲に提示されているように、本開示のより広い範囲を逸脱することなく、それらに対して様々な変形や変更が成し得ることは明らかであろう。したがって、明細書及び図面は、限定的な意味ではなく例示的な意味で解釈される。
Claims (20)
- デバイスをパーソナライズする方法であり、
1以上のセンサから第1センサデータを受信することと、
前記第1センサデータ内の生体認証情報を検出することと、
前記デバイスに記憶された1以上のニューラルネットワークモデルを用いて前記生体認証情報を第1ベクトルとして符号化することと、
前記第1ベクトルに少なくとも部分的に基づいて、前記デバイスのユーザインタフェースを設定することと、
を含む、
方法。 - 前記設定することが、
前記第1ベクトルにマッチするエントリについて、各エントリに関連するプロファイル情報を記憶するように構成されたルックアップテーブルをサーチする、
ことを更に含む、
請求項1の方法。 - 前記設定することが、
前記第1ベクトルを、前記ルックアップテーブルに記憶された第1エントリとマッチングすることと、
前記第1エントリに関連付けられたプロファイル情報を、前記第1エントリで前記ルックアップテーブルから取得することと、
をさらに含み、
前記ユーザインタフェースが、前記第1エントリに関連付けられた前記プロファイル情報に少なくとも部分的に基づいて設定される、
請求項2の方法。 - 前記マッチングすることが、
前記第1ベクトルから、前記ルックアップテーブルに記憶された前記第1エントリを含む複数の各エントリまでの距離をそれぞれに計算することと、
前記第1エントリまでの前記距離が前記計算された距離のうちで最も短いかを決定することと、
を含む、
請求項3の方法。 - 前記第1エントリについてマッチすると検出された回数を示すカウント値をインクリメントすること、
を更に含み、
前記カウント値が閾値に達する場合にのみ、前記プロファイル情報が取得される、
請求項3の方法。 - 前記プロファイル情報が、設定、セッティング、嗜好、又は、前記ユーザインタフェースを介して表示又は描写されるべきコンテンツを含む、
請求項2の方法。 - 前記デバイスとのユーザのインタラクションをモニタすることと、
前記ユーザのインタラクションに少なくとも部分的に基づいて、前記プロファイル情報を生成することと、
を更に含む、
請求項2の方法。 - マッチするエントリが検出されなかった場合に、前記第1ベクトルを新たなエントリとして前記ルックアップテーブルに記憶することを更に含む、
請求項2の方法。 - 前記第1センサデータが、シーンの画像と、前記シーン内のユーザの顔面の特徴を含む生体認証情報と、を含む、
請求項1の方法。 - 前記1以上のセンサから第2センサデータを受信することと、
前記第2センサデータ内の生体認証情報を検出することと、
前記1以上のニューラルネットワークモデルを用いて、前記第2センサデータの生体認証情報を、前記第1ベクトルから少なくとも閾値距離より離れた第2ベクトルとして符号化することと、
前記第2ベクトルに少なくとも部分的に基づいて、前記ユーザインタフェースを変更することと、
を含む、
請求項1の方法。 - デバイスであり、
処理回路部と、
メモリであって、前記処理回路部によって実行されたときに、前記デバイスに、
1以上のセンサから第1センサデータを受信することと、
前記第1センサデータ内の生体認証情報を検出することと、
前記デバイスに記憶された1以上のニューラルネットワークモデルを用いて前記生体認証情報を第1ベクトルとして符号化することと、
前記第1ベクトルに少なくとも部分的に基づいて、前記デバイスのユーザインタフェースを設定することと、
を実行させる命令を記憶しているメモリと、
を備える、
デバイス。 - 各エントリに関連するプロファイル情報を記憶するように構成されたルックアップテーブルを更に備え、
前記ユーザインタフェースを構成するための命令を実行することが、前記デバイスに、前記第1ベクトルにマッチするエントリについて、前記ルックアップテーブルをサーチすることを実行させる、
請求項11のデバイス。 - 前記ユーザインタフェースを構成するための命令を実行することが、前記デバイスに、
前記第1ベクトルを、前記ルックアップテーブルに記憶された第1エントリとマッチングすることと、
前記第1エントリに関連付けられたプロファイル情報を、前記第1エントリで前記ルックアップテーブルから取得することと、
を更に実行させ、
前記ユーザインタフェースが、前記第1エントリに関連付けられたプロファイル情報に少なくとも部分的に基づいて設定される、
請求項12のデバイス。 - 前記第1ベクトルを前記第1エントリとマッチングするための命令を実行することが、前記デバイスに、
前記第1ベクトルから、前記ルックアップテーブルに記憶された前記第1エントリを含む複数の各エントリまでの距離をそれぞれに計算することと、
前記第1エントリまでの前記距離が前記計算された距離のうちで最も短いかを決定することと、
を実行させる、
請求項13のデバイス。 - 前記命令を実行することが、前記デバイスに、前記第1エントリについてマッチすると検出された回数を示すカウント値をインクリメントすることを更に実行させ、
前記カウント値が閾値に達する場合にのみ、前記プロファイル情報が取得される、
請求項13のデバイス。 - 前記命令を実行することが、前記デバイスに、
前記デバイスとのユーザのインタラクションをモニタすることと、
前記ユーザのインタラクションに少なくとも部分的に基づいて、前記プロファイル情報を生成することと、
を更に実行させ、
前記プロファイル情報が、設定、セッティング、嗜好、又は、前記ユーザインタフェースを介して表示又は描写されるべきコンテンツを含む、
請求項12のデバイス。 - 前記命令を実行することが、前記デバイスに、マッチするエントリが検出されなかった場合に、前記第1ベクトルを新たなエントリとして前記ルックアップテーブルに記憶することを更に実行させる、
請求項12のデバイス。 - 前記第1センサデータが、シーンの画像と、前記シーン内のユーザの顔面の特徴を含む生体認証情報と、を含む、
請求項11のデバイス。 - 前記命令を実行することが、前記デバイスに、
前記1以上のセンサから第2センサデータを受信することと、
前記第2センサデータ内の生体認証情報を検出することと、
前記1以上のニューラルネットワークモデルを用いて、前記第2センサデータの生体認証情報を、前記第1ベクトルから少なくとも閾値距離より離れた第2ベクトルとして符号化することと、
前記第2ベクトルに少なくとも部分的に基づいて、前記ユーザインタフェースを変更することと、
を更に実行させる、
請求項11のデバイス。 - 1以上のニューラルネットワークモデルを記憶するメモリと、
センサデータをキャプチャするように構成された1以上のセンサと、
ベクトル生成器であり、
キャプチャされた前記センサデータ内の生体認証情報を検出し、
前記メモリに記憶された前記1以上のニューラルネットワークモデルを用いて前記生体認証情報をベクトルとして符号化する、
ように構成されたベクトル生成器と、
符号化された前記ベクトルに少なくとも部分的に基づいてパーソナライズされたユーザインタフェースを表示するように構成されたディスプレイと、
を備える、
システム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862785179P | 2018-12-26 | 2018-12-26 | |
US62/785,179 | 2018-12-26 | ||
US16/553,998 US11079911B2 (en) | 2018-12-26 | 2019-08-28 | Enrollment-free offline device personalization |
US16/553,998 | 2019-08-28 | ||
PCT/US2019/067086 WO2020139653A1 (en) | 2018-12-26 | 2019-12-18 | Enrollment-free offline device personalization |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022516843A true JP2022516843A (ja) | 2022-03-03 |
JPWO2020139653A5 JPWO2020139653A5 (ja) | 2022-12-15 |
Family
ID=71122009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021533532A Pending JP2022516843A (ja) | 2018-12-26 | 2019-12-18 | 登録不要のオフラインでのデバイスのパーソナライズ |
Country Status (4)
Country | Link |
---|---|
US (1) | US11079911B2 (ja) |
JP (1) | JP2022516843A (ja) |
CN (1) | CN113196789A (ja) |
WO (1) | WO2020139653A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112579909A (zh) * | 2020-12-28 | 2021-03-30 | 北京百度网讯科技有限公司 | 对象推荐方法及装置、计算机设备和介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007122400A (ja) * | 2005-10-27 | 2007-05-17 | Digital Electronics Corp | 認証装置、プログラムおよび記録媒体 |
US20070140532A1 (en) * | 2005-12-20 | 2007-06-21 | Goffin Glen P | Method and apparatus for providing user profiling based on facial recognition |
JP2014016826A (ja) * | 2012-07-09 | 2014-01-30 | Canon Inc | 画像処理装置、及び画像処理方法、プログラム |
JP2014089595A (ja) * | 2012-10-30 | 2014-05-15 | Canon Inc | 情報処理装置、情報処理方法及びコンピュータにより読み取り可能なプログラム |
JP2017131683A (ja) * | 2012-01-27 | 2017-08-03 | 株式会社ユニバーサルエンターテインメント | 管理システム |
JP2018165983A (ja) * | 2017-03-28 | 2018-10-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 顔認証方法及び装置 |
US20180330179A1 (en) * | 2017-05-11 | 2018-11-15 | Veridium Ip Limited | System and method for biometric identification |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6160903A (en) * | 1998-04-24 | 2000-12-12 | Dew Engineering And Development Limited | Method of providing secure user access |
US7734067B2 (en) * | 2004-12-07 | 2010-06-08 | Electronics And Telecommunications Research Institute | User recognition system and method thereof |
US8839297B2 (en) * | 2009-03-27 | 2014-09-16 | At&T Intellectual Property I, L.P. | Navigation of multimedia content |
JP5482206B2 (ja) * | 2010-01-06 | 2014-05-07 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US9274594B2 (en) * | 2010-05-28 | 2016-03-01 | Microsoft Technology Licensing, Llc | Cloud-based personal trait profile data |
KR101442441B1 (ko) | 2010-08-27 | 2014-09-17 | 인텔 코오퍼레이션 | 지능형 리모트 컨트롤 시스템 |
US8897500B2 (en) * | 2011-05-05 | 2014-11-25 | At&T Intellectual Property I, L.P. | System and method for dynamic facial features for speaker recognition |
US9082235B2 (en) * | 2011-07-12 | 2015-07-14 | Microsoft Technology Licensing, Llc | Using facial data for device authentication or subject identification |
US9400893B2 (en) * | 2011-12-15 | 2016-07-26 | Facebook, Inc. | Multi-user login for shared mobile devices |
CN102693359B (zh) * | 2012-04-24 | 2016-05-25 | Tcl集团股份有限公司 | 一种建立家庭成员社交关系模型的方法及装置 |
US8924735B2 (en) * | 2013-02-15 | 2014-12-30 | Microsoft Corporation | Managed biometric identity |
US9286482B1 (en) * | 2013-06-10 | 2016-03-15 | Amazon Technologies, Inc. | Privacy control based on user recognition |
JP5902661B2 (ja) * | 2013-09-30 | 2016-04-13 | 株式会社東芝 | 認証装置、認証システムおよび認証方法 |
US20150091588A1 (en) * | 2013-10-01 | 2015-04-02 | Synaptics Incorporated | Compact and durable button with biometric sensor having improved sensor signal production and method for making same |
JP6268960B2 (ja) * | 2013-11-15 | 2018-01-31 | オムロン株式会社 | 画像認識装置及び画像認識装置に対するデータ登録方法 |
US10417445B2 (en) * | 2013-12-23 | 2019-09-17 | Intel Corporation | Context-aware privacy meter |
KR102194011B1 (ko) | 2014-07-23 | 2020-12-22 | 엘지전자 주식회사 | 영상 표시 기기 및 그의 동작 방법 |
US9846522B2 (en) | 2014-07-23 | 2017-12-19 | Microsoft Technology Licensing, Llc | Alignable user interface |
CN105681896B (zh) * | 2014-11-20 | 2019-11-12 | 乐金电子(中国)研究开发中心有限公司 | 一种智能电视机及其解屏方法 |
CN105611344B (zh) * | 2014-11-20 | 2019-11-05 | 乐金电子(中国)研究开发中心有限公司 | 一种智能电视机及其锁屏方法 |
US9870456B2 (en) * | 2015-03-30 | 2018-01-16 | Synaptics Incorporated | Systems and methods for biometric authentication |
US10002242B2 (en) * | 2015-08-17 | 2018-06-19 | Qualcomm Incorporated | Electronic device access control using biometric technologies |
US9729925B2 (en) * | 2015-08-31 | 2017-08-08 | Opentv, Inc. | Automatically loading user profile to show recently watched channels |
US10369323B2 (en) * | 2016-01-15 | 2019-08-06 | Robert Mitchell JOSEPH | Sonification of biometric data, state-songs generation, biological simulation modelling, and artificial intelligence |
US10135817B2 (en) * | 2016-03-28 | 2018-11-20 | Bank Of America Corporation | Enhancing authentication and source of proof through a dynamically updatable biometrics database |
US10223613B2 (en) * | 2016-05-31 | 2019-03-05 | Microsoft Technology Licensing, Llc | Machine intelligent predictive communication and control system |
US20180232370A1 (en) * | 2016-07-05 | 2018-08-16 | Cynny Spa | Local processing of biometric data for a content selection system |
US10033973B1 (en) | 2017-01-25 | 2018-07-24 | Honeywell International Inc. | Systems and methods for customizing a personalized user interface using face recognition |
US10210381B1 (en) * | 2017-08-01 | 2019-02-19 | Apple Inc. | Multiple enrollments in facial recognition |
JP6736686B1 (ja) * | 2017-09-09 | 2020-08-05 | アップル インコーポレイテッドApple Inc. | 生体認証の実施 |
US10884597B2 (en) * | 2017-10-17 | 2021-01-05 | Paypal, Inc. | User interface customization based on facial recognition |
US10402553B1 (en) * | 2018-07-31 | 2019-09-03 | Capital One Services, Llc | System and method for using images to authenticate a user |
-
2019
- 2019-08-28 US US16/553,998 patent/US11079911B2/en active Active
- 2019-12-18 WO PCT/US2019/067086 patent/WO2020139653A1/en active Application Filing
- 2019-12-18 JP JP2021533532A patent/JP2022516843A/ja active Pending
- 2019-12-18 CN CN201980085946.3A patent/CN113196789A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007122400A (ja) * | 2005-10-27 | 2007-05-17 | Digital Electronics Corp | 認証装置、プログラムおよび記録媒体 |
US20070140532A1 (en) * | 2005-12-20 | 2007-06-21 | Goffin Glen P | Method and apparatus for providing user profiling based on facial recognition |
JP2009521186A (ja) * | 2005-12-20 | 2009-05-28 | ジェネラル・インスツルメント・コーポレーション | 顔面認識に基づきユーザプロファイリングを提供する方法および装置 |
JP2017131683A (ja) * | 2012-01-27 | 2017-08-03 | 株式会社ユニバーサルエンターテインメント | 管理システム |
JP2014016826A (ja) * | 2012-07-09 | 2014-01-30 | Canon Inc | 画像処理装置、及び画像処理方法、プログラム |
JP2014089595A (ja) * | 2012-10-30 | 2014-05-15 | Canon Inc | 情報処理装置、情報処理方法及びコンピュータにより読み取り可能なプログラム |
JP2018165983A (ja) * | 2017-03-28 | 2018-10-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 顔認証方法及び装置 |
US20180330179A1 (en) * | 2017-05-11 | 2018-11-15 | Veridium Ip Limited | System and method for biometric identification |
Also Published As
Publication number | Publication date |
---|---|
US20200210035A1 (en) | 2020-07-02 |
US11079911B2 (en) | 2021-08-03 |
CN113196789A (zh) | 2021-07-30 |
WO2020139653A1 (en) | 2020-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210377607A1 (en) | Device setting adjustment based on content recognition | |
US12079288B2 (en) | Methods and systems for determining media content to download | |
US20200273485A1 (en) | User engagement detection | |
US20200204857A1 (en) | Display apparatus, content recognizing method thereof, and non-transitory computer readable recording medium | |
KR20200063329A (ko) | 영상 처리 장치 및 그 제어방법 | |
KR20190105536A (ko) | 선호도 기반 서비스 제공 시스템, 장치 및 방법 | |
CA2952465A1 (en) | Methods and systems for identifying media assets | |
US10257569B2 (en) | Display apparatus and method for providing service thereof | |
CN111065988B (zh) | 用于无需有意用户登记来识别用户以提供个性化指南、内容和服务以及针对性广告的方法和设备 | |
EP2453386A1 (en) | Multimedia device, multiple image sensors having different types and method for controlling the same | |
KR101895846B1 (ko) | 소셜 네트워킹 툴들과의 텔레비전 기반 상호작용의 용이화 | |
US11934953B2 (en) | Image detection apparatus and operation method thereof | |
CN112639840A (zh) | 对受保护数据的神经网络推断 | |
US20140208219A1 (en) | Display apparatus and method for providing customer-built information using the same | |
US12118916B2 (en) | Image display apparatus with AI-based image processing | |
US20170374426A1 (en) | Binary tv | |
US20180376204A1 (en) | Method and apparatus for displaying content in augmented reality settings | |
CN105979366A (zh) | 智能电视及其内容推荐的方法、装置 | |
KR102664418B1 (ko) | 디스플레이 장치 및 그의 서비스 제공 방법 | |
JP2019165437A (ja) | ディスプレイ装置及びその制御方法 | |
CN110929146A (zh) | 数据处理方法、装置、设备和存储介质 | |
US12120389B2 (en) | Systems and methods for recommending content items based on an identified posture | |
JP2022516843A (ja) | 登録不要のオフラインでのデバイスのパーソナライズ | |
US12095976B2 (en) | Methods and systems for displaying content | |
KR102495702B1 (ko) | 서버 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221207 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231220 |