JP6630665B2 - 生体id、フィードバックおよびユーザインタラクション状態の相関表示 - Google Patents

生体id、フィードバックおよびユーザインタラクション状態の相関表示 Download PDF

Info

Publication number
JP6630665B2
JP6630665B2 JP2016526326A JP2016526326A JP6630665B2 JP 6630665 B2 JP6630665 B2 JP 6630665B2 JP 2016526326 A JP2016526326 A JP 2016526326A JP 2016526326 A JP2016526326 A JP 2016526326A JP 6630665 B2 JP6630665 B2 JP 6630665B2
Authority
JP
Japan
Prior art keywords
user
feedback
data
image
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016526326A
Other languages
English (en)
Other versions
JP2017504849A (ja
JP2017504849A5 (ja
Inventor
ミッチェル スミス,ロバート
ミッチェル スミス,ロバート
エム. ヤン,エミリー
エム. ヤン,エミリー
ウィーラー,ジョセフ
パオラントニオ,セルジオ
チェン,シャオジ
シー. サンダーソン,エリック
シー. サンダーソン,エリック
ケント カーター,カルヴィン
ケント カーター,カルヴィン
クライン,クリスチャン
ディー. シュヴェジンガー,マーク
ディー. シュヴェジンガー,マーク
エー. ユ,リタ
エー. ユ,リタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2017504849A publication Critical patent/JP2017504849A/ja
Publication of JP2017504849A5 publication Critical patent/JP2017504849A5/ja
Application granted granted Critical
Publication of JP6630665B2 publication Critical patent/JP6630665B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements

Description

[0001] いくつかの現代のコンピュータベースのシステムは、何らかの形態の生体識別を提供する。例えば、いくつかのラップトップコンピュータおよび携帯電話は、ユーザが指紋を用いてサインインすることを可能にしている。ユーザの指紋が認識されない場合、ユーザはリトライすることができる。これはワンタイムサインインであり、この後、全てのアクションはその認証されたユーザによるものとなる。
[0002] 現代のゲームコンソールまたはデジタル広告掲示板等の生体識別を用いた動的マルチユーザシステムにおいて、ユーザは、システムとのインタラクション中に、生体測定により(例えば顔スキャンを介して)識別される。ユーザが生体測定により識別された後、アプリケーションを起動すること、または電話をかけること等のユーザのアクションが、識別されたユーザのために行われる。
[0003] 一方、動的マルチユーザシステムにおいて、ユーザが別の誰かであると判断される誤認識が生じる可能性がある。その後の任意のアクションはユーザ固有のものであるため、誤った認識により重大な結果が生じる場合がある。例えば、ユーザは、(例えば、Skype(登録商標)を介した)電話呼が、当該ユーザを発呼者として正しく識別することを望み、オンラインで購入した製品が別の誰かの住所ではなく当該ユーザの住所に正しく配送されることを望み、当該ユーザのアプリケーションおよび関連データが、別の誰かではなく当該ユーザにのみ利用可能であることを望む等である。ユーザは、最初に正しく識別された場合であっても、例えば、このユーザがカメラの視野を出入りする場合があることに起因して、必ずしも1回しか識別されないわけではなく、通常は連続して定期的に生じる識別プロセスにおいて再識別される場合があり、これにより更なる誤認識の機会がもたらされる。
[0004] この発明の概要は、以下で詳細な説明において更に説明される代表的な概念の抜粋を、簡略化された形式で紹介するために提供される。この発明の概要は、特許請求される主題の主要な特徴または重要な特徴を特定することを意図するものでもなければ、特許請求される主題の範囲をいかなる形においても限定するように用いられることを意図するものでもない。
[0005] 簡単にいえば、本明細書に記載される主題の様々な態様は、生体認識機能を有するマルチユーザシステムにおいてフィードバックを提供し、それによって、ユーザが、システムが当該ユーザを当該ユーザのIDと正しく関連付けたか否かを知るようにすることを目的とする。1つまたは複数の態様は、生体認識によって判断されたユーザの認識に対応するIDデータを受信することと、IDデータをユーザに関連付けることとを対象とする。IDデータに基づいて、認識されたIDがユーザに関連付けられていることを示すフィードバックが(出力デバイスに)出力される。フィードバックは、ユーザが、出力デバイスに結合されているかまたは出力デバイスを組み込んでいるシステムとインタラクトすることができることを示すフィードバックを含む。
[0006] 1つまたは複数の態様は、1つまたは複数の生体測定により認識されたユーザの識別データを受信するように構成されたユーザインタフェースコンポーネントを目的とする。生体測定により認識されたユーザごとに、ユーザインタフェースコンポーネントは、フィードバックを出力し、このフィードバックは、識別データに基づいてユーザのIDを示すフィードバックと、ユーザのインタラクション状態(例えば、エンゲージメント)を示すフィードバックとを含む。
[0007] 1つまたは複数の態様は、画像内の1人または複数人の人物の検出および生体認識のために、その画像を処理して、各人物を認識することを試みることを対象とする。認識された人物は、関連付けられたIDデータを有し、IDデータに基づいてシステムにサインインする。IDデータに基づいてフィードバックデータも取得される。このフィードバックデータは、認識された人物を可視表現としてレンダリングするためのフィードバックデータを含む。フィードバックデータは、システムに結合されているかまたはシステムに組み込まれた表示デバイス上に、認識された人物を可視表現としてレンダリングするために出力される。これは、認識された人物がシステムにサインインしていることを示すフィードバックデータをレンダリングすることを含む。
[0008] 以下の詳細な説明を図面と併せると、他の利点が明らかとなるであろう。
[0009] 本発明は例として説明され、添付の図面に限定されるものではない。添付の図面において、同様の参照符号は同様の要素を示す。
[0010]1つまたは複数の例示的な実施態様による、生体認識機能を有するマルチユーザシステムの1人または複数人のユーザにフィードバックを提供する際に用いることができる例示的なコンポーネントを示すブロック図であり、フィードバックは、ユーザの認識されたIDおよびエンゲージメント状態を示す。 [0011]1つまたは複数の例示的な実施態様による、システムがユーザをどのように認識することができるかに関して例示的な状態および遷移を示す状態図である。 [0012]1つまたは複数の例示的な実施態様による、生体認識機能を有するマルチユーザシステム内のユーザに、関係のあるID関連フィードバックを提供することを目的とした例示的なステップを表す流れ図である。 [0013]1つまたは複数の例示的な実施態様による、コントローラの保有を示すユーザにインタラクション関連フィードバックを提供することを目的とした例示的なステップを表す流れ図である。 [0014]1つまたは複数の例示的な実施態様による、ユーザがシステムを駆動しているときを当該ユーザに示すインタラクション関連フィードバックを提供することを目的とした例示的なステップを表す流れ図である。 [0015]1つまたは複数の例示的な実施態様による、ユーザIDデータを示す情報を含むアイコン/タイルの形態のレンダリングされたフィードバックを含むシステムディスプレイの例示的な表現である。 [0016]1つまたは複数の例示的な実施態様による、ユーザIDデータおよび状態情報を示す情報を含むアイコン/タイルおよびその中のデータを例示する、例示的な表現(概ね図5の拡大部に対応する)である。 [0017]1つまたは複数の例示的な実施態様による、フィードバックを提供するカメラビュー表現を含むシステムディスプレイの例示的な表現である。 [0018]1つまたは複数の例示的な実施態様による、フィードバックおよびユーザインタラクション制御を提供する代替的なカメラビュー表現を含むシステムディスプレイの例示的な表現である。 [0019]本明細書に記載する様々な実施形態の1つまたは複数の態様を実施することができる、例示的な非限定的コンピューティングシステムまたは動作環境を表すブロック図である。
[0020] 本明細書に説明する技術の1つまたは複数の態様は、生体識別機能を有する動的マルチユーザシステムを目的とする。ここで、システムは、システムによって現在認識され、システムに登録されている各ユーザIDに関してユーザにフィードバックを提供する。フィードバックにより、ユーザは自身の生体測定により認識されたIDおよびシステムとのユーザエンゲージメント状態を、自身の実際のID(および場合によってはエンゲージメント状態)と相関付け、これにより、システムが正しいユーザについて正しく動作しているか否かを知ることができる。このため、システムフィードバックは、ユーザに、当該ユーザがシステムによって正しく(または誤って)認識されているという情報を提供する。このため、生体識別を用いるマルチユーザシステムにおいて、ユーザは、動的再認識が生じるときを含めた、インタラクションモデルの一部として、システムが自身を正しく認識したことに確信を持つことができる。誤認識または他のシステムエラーについて、結果として任意の望ましくないユーザアクションが生じる前に修復することができる。
[0021] この目的のために、1つまたは複数の態様は、カメラが見るものについてユーザにフィードバックを提供することを目的とする。例えば、カメラがリビングルームに向かってテレビの近くに設置されている場合、カメラは通常、リビングルーム内の全てのユーザを見ることになる。このカメラフィードのライブビューを示すことにより、1人または複数人のユーザに、システムが所与の時点において見ることができるものについて直接フィードバックを与える。
[0022] 別の態様は、カメラフィード内の各ユーザを強調する。例えば、カメラビューのライブビデオを示す代わりに、システムは、カメラ内の各ユーザを独立して示すことができる。代替的に、システムは、ライブビデオ内の各ユーザを区別するようにユーザのライブビデオを示してもよい。これは、各ユーザの周りにボックスを描くこと、各ユーザの近くにインジケータを置くこと、またはシステムに可視であり、システムによって(例えば、物体等の別のエンティティではなく)人物であるとわかる人物が存在することを示す他のそのような要素をユーザインタフェース内に表示することを含む、多岐にわたる方法で行うことができる。
[0023] 別の態様は、カメラによって見える所与の人物が、システムに登録された特定のユーザとして認識されていることを示すことを目的とする。これは、(例えば、ユーザ名および/または関連付けられた画像の表示を介して)カメラビュー内の特定の人物が特定のユーザIDとして認識されていることを示すことによって行うことができる。複数のユーザを独立して識別することができる。システムによって人物であることが理解されるが、システムに登録されていないユーザは、「不明」の人物等として識別され得る。
[0024] カメラビュー内の人物が、システムに登録されたユーザに目に見える形で相関付けられると、多くの補足的相関が表示され得る。1つの例は、ユーザが生体測定により認識されたことを示すために、ユーザ表現を強調するかまたは他の方法で目に見える形で示すことである。別の例は、人物が、生体測定により認識され、システムにより認証される(ここで、人物は、アプリケーションを起動し、文書にアクセスし、他者と通信する等のアクセスを有する)こととすることができる。
[0025] 別の例は、ユーザが生体測定により認識され、現在、様々な入力方法を介してシステムとインタラクトしていることとすることができる。いくつかの例として、ユーザは、ユーザがコントローラとインタラクトしている場合に、ある方式で強調することができ、ユーザが音声コマンドを介してインタラクトしている場合に、別の方式で強調することができ、ユーザがジェスチャを用いてインタラクトしている場合に、更に別の方式で強調することができ、そして、ユーザが電話またはタブレット等を通じて遠隔でインタラクトしている場合に、また別の方式で強調することができる。
[0026] いくつかの実施態様では、一度に1人のユーザのみがオペレーティングシステム制御タイプコマンドを入力することができる(これらは複数のユーザが同時に入力することができるゲームプレイコマンドでも他のマルチユーザコマンドでもない)。そのような指令および制御シナリオでは、現在インタラクトしている人物は、インタラクションが停止するまで単独でインタラクトする能力を保持することができ、インタラクションが停止した時点で、別のユーザが入力を駆動することができる。オペレーティングシステム制御タイプコマンドを用いてシステムを駆動することは、2人以上のユーザに拡張することができ、衝突するコマンドが入力されるシナリオの場合は、何らかのタイブレーキング方式が用いられることに留意されたい。このため、システム動作または初期ゲームセットアップを目的としたコマンド入力は、ゲームをプレイするために複数のユーザがインタラクトするかまたは他の形で同時に入力を提供する場合があるアプリケーション入力等の他の入力と異なることができる。
[0027] システムは、ユーザのうちの1人を認識し、システムがフォーカス(または何らかの同様の優先度)を有するように指定したユーザであるとして強調することができる。例えば、指令および制御シナリオ等において、フォーカスを有するユーザの入力(例えば、ジェスチャおよび/または発話)のみがシステムによって承認され得る。概して、フォーカスに関して、1人の人物のみがインタラクトしている場合、その人物はフォーカスおよびアクティブ入力能力を得る。フォーカスに関して、誰もシステムを駆動していないとき、または複数のユーザがシステムの駆動を試みている(そして全員が一度にそれを行うことができるわけではない)とき、あるユーザがフォーカスを保持することができる。
[0028] いくつかの実施態様では、ユーザは依然として未来のインタラクションのためのフォーカスを保持している場合がある。例えば、フォーカスを有するユーザは、別のユーザにフォーカスを譲るためには、ある特定のジェスチャを行う、特定の発話コマンドを発話する、コントローラコマンドを入力する、カメラビューを去る、または何らかの他の適切なアクションをとる等の何らかのアクションをとらなくてはならない。譲られるまでユーザにフォーカスを保持させる代わりに、(衝突する入力が受信される場合がある指令および制御シナリオ等において)複数の人物がUI入力の駆動を試みている場合、タイブレーカシステムを用いることができる。タイブレーキング方式は、階層メカニズム(例えば、親が子よりも上)を介するか、またはタイミング制御、例えば、インタラクトを試みた最も近時のユーザにフォーカスが移ることによるものであり得る。更に、フォーカス変更は、例えば、システムがもはや存在しないユーザにフォーカスを与え続けている場合に、何らかのオーバライドメカニズムによって達成することができる。フィードバックの例示において、フォーカスは通常、別段に示されない限り、以後説明されず、代わりに、例示されるフィードバックのうちのいくつかは、ユーザが存在する場合、いずれのユーザがシステムをアクティブに駆動するかを示す。
[0029] 本明細書における例はいずれも非限定的であることを理解するべきである。例えば、技術は通常、娯楽コンソール/ゲームシステムの文脈で説明されるが、1人または複数人のユーザが、自身が生体測定により正しく認識されたことを確認することを望む、パーソナルコンピュータ、スマートテレビまたはモニタ、タブレット、スマートフォン等の他のデバイスも、本明細書に記載される技術により利益を受けることができる。同様に、本明細書に例示される例示的な表示メカニズムおよび技法以外によりフィードバックを提供する多数の方法を用いることができることも理解される。これは、限定ではないが、代替的なグラフィック、アニメーション、ビデオ、オーディオおよび/または触覚フィードバックを含む。複数の同時ユーザを伴う例が示されているが、単一のユーザが、自身がシステムによって正しいIDで適切に認識されていることを知ることにより利益を得ることができることが理解される。したがって、本発明は、本明細書において説明されるいかなる特定の実施形態、態様、概念、構造、機能または例にも限定されない。むしろ、本明細書において説明される実施形態、態様、概念、構造、機能または例の任意のものは非限定的であり、本発明は、コンピューティング、自動認識およびフィードバック全般において利益および利点を提供する様々な方法で用いることができる。
[0030] 図1は、システム100が、データ104を生体認識システム106に提供することができるセンサ102を組み込むか、またはこのセンサ102に結合されている、一般化されたブロック図を示す。データは、例えば、赤外線画像データ、奥行きデータ(例えば、ステレオマッチングまたは経過時間を介して取得される)および/またはカラー画像(例えば、RGB)データとすることができる。音声データ等の他のセンサ提供データを、カメラ/センサ102によって認識システム106に利用可能にすることができる。
[0031] ローカルおよび/または遠隔で(例えば、クラウド内に)維持することができる記憶された登録ユーザデータ108に基づいて、以前に登録されたユーザを、生体識別を介して、システムに既に登録されたIDとして認識することができる。任意の生体技術、例えば、顔認識、眼球スキャン、音声認識(ユーザが発話する場合)等を用いることができる。顔認識等のいくつかのタイプの生体識別は、ある点において概ねカメラに向かうこと以外にユーザによるアクションを一切必要としない。
[0032] IDは、システムが検出し認識する人物ごとの関連データとして、骨格追跡110にマッピングすることができる。これによって、ユーザインタフェース112は、ユーザが動き回っているときを含めて、IDに対応するフィードバックを提供し、ユーザが入ることができる1つまたは複数の様々なモード(例えば、システムをアクティブに駆動することが1つのそのようなモードであり、これは例えば、骨格追跡によりジェスチャを検出することによって判断することができる)を検出することも可能になる。別のモードは、システムへの「サインイン」である。サインインは、認識時に自動で行うことができるが、本明細書において説明するように、いくつかの実施態様において、ユーザは、認識されるがサインインしない場合がある。
[0033] 本明細書に説明されているように、ユーザインタフェース112は補正コンポーネントも備える。補正コンポーネントとのユーザインタラクションは、ユーザが他の誰かとして認識されるとき、登録されたユーザとして認識されないとき等を含む、誤認識の補正を容易にする。1つまたは複数の実施態様では、ユーザインタフェースは、手動サインインまたはサインアウト等のための他のID関連インタラクション機能も提供することができる。
[0034] 図2は、人物がビュー内にいるとき(状態220)から開始して、人物がカメラベースの認識システム内にいるときに、システムがこの人物をどのように検討することができるかに関するいくつかの可能な状態を示す。図2はいくつかの例示的な状態のみを示し、全ての可能な状態が示されているわけではないことに留意されたい。他の状態のいくつかの例として、人物がビュー外にいるが依然としてシステムにサインインしている状態、人物が認識されているがサインインしていない状態、所与の人物がフォーカスを有する状態等が存在し得る。
[0035] 図2に表す1つの状態は不明状態222であり、この状態において、システムは人物が存在することを検出するが、その人物を認識することができない。これは、人物がシステムに登録されていないこと、人物の顔が(顔認識ベースの生体測定システムにおいて)曖昧であること等に起因し得る。フィードバックを用いて、人物が不明であることを示すことができ、これによって、人物は、認識されるために何らかの修復アクションをとることができる(例えば、トラブルシューティングが起動される場合がある)。トラブルシューティング/修復アクションは、図2において、「状態」224(必ずしも従来の意味における状態である必要はないが)として示される。これは、人物に、カメラの方に向くように命令するか、または人物に初期登録もしくは再登録するかを尋ねる(例えば、顔がよく見えているが、単に認識されない)ことのように単純であり得る。トラブルシューティング/修復アクションについては本明細書において概ね説明されないが、トラブルシューティング/修復アクションは、システム誤認識または他のエラーを補正するように、および/または人物を認識された状態に入れるように所望に応じて起動され得ることは記しておく。
[0036] 図2の別の状態は、正しく認識された状態(状態226)である。これは、人物を自動的にシステムにサインインさせることを含むことができ、これによって、その人物はその後自身でシステムとインタラクトすることができる。人物が別の人物としてふるまう(例えば、人物Aが映画をレンタルし、これに対し支払いを行うが、この映画を人物Bのコンソールにロードする)ことが実現可能であることに留意されたい。例えば、生体検知は手動サインインによりオーバライドされ得る。
[0037] 図2に示す別の状態は、「未検出」状態228である。例えば、人物は、例えば、カメラのビューから出ていること、または人物が家具または背景と区別可能でないような位置にいることを含む何らかの理由で、人物であると識別されない場合がある。そのような状況では、フィードバックがないことを、ユーザが人物として認識されないことのインジケータとすることができる。ユーザは、認識および/または登録されるために、または少なくともシステムによって不明な人物として理解されるために、移動するかまたはそうでない場合トラブルシューティングを実行することができる。
[0038] フィードバックの一部が除去するのに役立つ重大な状態は、図2に状態230として示す誤認識状態である。上記で説明したように、誤認識は望ましくない結果を有する場合があり、このため、フィードバックは、ユーザがこの状態を検出し脱するのに(少なくとも部分的に)役立つことを目的とする。
[0039] 図3は、画像ベースの生体測定システムにおいて本明細書に説明するような相関フィードバックを提供するための例示的なステップを示す流れ図である。この流れ図は、ステップ302および304から開始し、これらのステップにおいて、センサデータ(例えば、画像データ/奥行きデータ)が処理され、画像内の人物が発見される。ステップ306により示すように、人物ごとに、骨格データを追跡することができる。顔追跡、音声追跡等を、骨格追跡の代わりに行ってもよく、または骨格追跡と組み合わせて用いてもよいことに留意されたい。図3は人物ごとに行ってもよく、その一部を複数の人物について並列に行ってもよいことに留意されたい。
[0040] ステップ308は、認識のための画像データ(または、代替的な実施態様では他の生体データ)を送信する。例えば、これは人物の顔を含む画像の一部分のみとすることができる。ステップ310は、登録された人物のデータストアにアクセスすることによってこの人物を認識しようと試みることを表す。人物に合致しない場合、ステップ310はステップ326に分岐し、ステップ326において、人物は不明であるとみなされる(そして例えば、その人物の骨格データに不明IDを割り当てることができる)。代替的な実施態様では、不明な人物は、ゲスト等としてサインインする(またはサインインを許可される)ことができることに留意されたい。このように、例えば、一時ユーザ(casual acquaintance)が何らかの限定された「サインイン」タイプの権利を有することを登録する必要がない。
[0041] 人物がデータストア内のIDに合致する場合、ステップ312においてIDデータが受信される。この受信したIDデータはシステム固有の識別子を含むことができ、この識別子は、個人化されたデータ(例えば、ユーザを表すカスタムアイコン)を検索する(ステップ324)ためのキーとして用いることができるか、または個人化されたデータを直接含むことができる。
[0042] 1つまたは複数の実施態様では、自動サインインは、ステップ320に自動的に「分岐する」オプションの(破線の)ステップ314によって表すように行うことができる。一方、上述したように、1つまたは複数の代替的な実施態様では、ユーザがシステムによって認識されるが、自動的にサインインされない状態が存在してもよい。例えば、ユーザは、認識された場合であっても、サインインの前にパスワードが必要とされることを指定することができる。別の例として、システムは、ある時間ビュー内にいた後に初めて認識を試みるようにセットアップすることができ、例えば、一時的に部屋を通り過ぎるユーザは認識および/または自動サインインされないようにできるのに対し、ある時間(例えば、5秒)ビュー内にいるユーザは認識およびサインインされるようにできる。別の例として、ある特定のサインインジェスチャを用いる必要があってもよい。
[0043] これらの判断基準または1つもしくは複数の他の判断基準のうちの任意のものは、単独でまたは組み合わせると、結果として、自動サインイン以外の何らかの追加のサインインアクションを行うためのオプションのステップ316が行われることになる場合がある。このため、ステップ316は、サインインを行うことができるようになる前に、認証情報の入力が必要な場合があり、特定のジェスチャが必要な場合があり、ビュー内に最小時間いる必要がある場合がある等の状況を表す。
[0044] ステップ318は、ステップ316において何らかの必要なサインイン判断基準が満たされたかに基づいてユーザをサインインさせることがOKであるか否かを表す。OKである場合、ステップ318は、ステップ318における1つまたは複数のユーザ判断基準(アクション)を満たすと、認識された登録ユーザをサインインさせるステップ320に分岐する。
[0045] 図3の例において、ステップ318は別のオプションも表す。このオプションでは、ユーザはサインインを望んでいないことを示す場合があるが、システムは、IDを全く用いない(ステップ324)こととは対照的に、インタラクションのためにサインインすることなく必要に応じてユーザのIDを用いることができる(ステップ322)。例えば、認証情報が要求されるが提供されないとき等、1人の登録ユーザは、単にシステムが自身を適切に認識するか否かを確認することを望むが、インタラクションのためにサインインしない場合がある。別のユーザは、認識されるが、表示が遠隔に位置する人物と共有されている場合等、不明な人物として識別されたままであることを望む場合がある。そのようなオプションについて、ステップ318によって何らかのジェスチャ、発話、コントローラまたは他の入力を用いてこれらの選択肢間を区別することができる。例示された「ID使用OK」オプションが、ステップ318に類似した選択肢において存在しない場合、または存在するがユーザが自身のIDが用いられることを望まない場合、ステップ318はステップ326に分岐し、ステップ326において、人物は、システムによって登録されたIDを有すると認識された場合であっても、不明として扱われることを留意されたい。
[0046] このため、認識されていない人物、または識別されることを望まない人物を、システムによって「不明」としてラベル付けすることができる(ステップ326)。ユーザは、存在していると識別されることを望むが、サインインしない場合がある。この場合、そのような状態に(例えばステップ322に分岐するステップ318を介して)フィードバックが向けられる。
[0047] ステップ322は、(骨格追跡が用いられている場合)骨格データにユーザ識別子を割り当てることを提示する。ステップ324は、このユーザのためのフィードバック関連データ(例えば、アイコンまたはフラグ等の個人化された可視データ)を検索し、このデータをユーザに関連付けることを表す。本明細書に記載されるとき、このフィードバックは、ユーザが、システムが自身を正確に認識したか否かを知ることを可能にし、場合によっては、ユーザがシステムを駆動しているか否か、ユーザがどのようにインタラクトしているか等の他の状態データを伝達することも可能にする。
[0048] ステップ328は、例えば、ユーザインタフェースが現在表示しているものと一貫するようにユーザインタフェースディスプレイにフィードバックを出力することを表す(図5〜図8は表示されたフィードバックのいくつかの可能な例を提供する)。
[0049] ステップ330は、誤認識されているかまたは認識されていないが認識されることを望むユーザに特に有用な、トラブルシューティングまたは他の変更アクション(例えば、修復アクション)を可能にする。同様に、ユーザは、認識されているがサインインしていない状態からサインインしている状態に、または(認識されているにも関わらず)「不明」としてリストされている状態から、認識された状態、もしくは認識され、サインインしている状態に変更することを望む場合がある。サインインした人物はサインアウトを望む場合があり、および/または認識された人物は不明に変更することを望む場合がある。不明な人物は登録することを望む場合がある。通常、ステップ330は、システム(または人物)が現在人物を入れている任意の状態にオーバライドするかまたはこの状態を変更することを可能にする。
[0050] 図4Aおよび図4Bは、システムが認識し、フィードバックとして提供することができるいくつかの追加のモードを表す。図4Aはコントローラ検出402に関係し、ユーザが現在コントローラを保有しているか否かを対象とし(ステップ404)、これはシステムによって検知することができる。保有している場合、ステップ406において、フィードバックがそのような保有を示すことができる。容易に理解することができるように、他のタイプの入力も同様に検出することができ、結果として、対応するフィードバックを得ることができる。例えば、ユーザがジェスチャ、発話を介してインタラクトしているか否か、または遠隔でインタラクトしているか否かが、そのようなフィードバックの結果生じる場合があるインタラクションの例である。
[0051] 図4Bは、ユーザが現在システムを駆動している(または場合によっては、現在システムを誰も駆動していない場合にフォーカスを有している)か否かを対象とし、駆動検出410として示される。駆動している場合(ステップ412)、例えば、ユーザの表現(例えば、タイル)が表示上にどのように現れるかを変更するため等の、ステップ414によるフィードバックを用いることができる。
[0052] フィードバックは、システムが誰を人物とみなしているか、システムが誰を認識し/登録されたIDにマッピングしているか、誰がシステムを駆動しているか(または場合によっては、誰がフォーカスを有するか)、および他のモード、例えば、人物がゲームコントローラを有するか否か等の、通信することができる様々な情報のうちの任意のものを含む。フィードバックは、多くの異なる可視の方法において、例えば、強調、色、フラッシュ、ラベル、人物の表現の周囲の形状の配置(例えば、ボックス)、アニメーション、ビデオ等を介して、ならびに他の方法、例えば、カスタムメロディまたは名称の発話等のオーディオ再生、場合によっては特定の振動パターンおよび/または強度でのコントローラのバズ音等を介して通信することができる。
[0053] フィードバックの多くの可能な非限定的な例のうちのいくつかが図5〜図8に例示されている。簡潔にするために、および説明のために、視覚的な例のみが用いられる。例のうちのいくつかは、いずれのプロファイルが現在IDにより認識されており、サインインされているかを、不明な人物と対比して示し、また、いずれのユーザがシステムを駆動しているかを示す。一方、いずれの人物が現在見えているか、いずれの人物が登録されているが見えていないか、どのタイプの入力(発話、コントローラ、ジェスチャ等)が、それらが存在する場合に受信されているか等を含む他の状態をフィードバックとして提示することができることが理解される。
[0054] ほとんど任意の所望の状態(モードを含む)および遷移を検出し、ユーザにフィードバックを提供するために用いることができる。例えば、認識された/サインインしたばかりのユーザは、自身がシステムに参加したばかりであることを示すために、自身のタイルを何らかの形で強調することができる(例えば、一時的に明るくされるか、または他の形で視覚的にアニメーション化される)。
[0055] 図5は、タイル/アイコン550、552および554におけるフィードバックを介して誰が登録ユーザとして識別されているかを例示しており、図5の一部が図6において拡大されている。このフィードバックは、ディスプレイ上の任意の場所に提示することができるが、図5の例示的な実施態様では、フィードバックはビデオ(例えば、ライブテレビ、ゲームプレイ、記録されたビデオ等)および場合によっては広告等を示すための表示空間を提供するためのディスプレイの左上コーナーに表示される。IDを表示するために、実際の顔、漫画のようなキャラクターアイコン、写真または類似の画像、アバター、テキスト等をそのようなタイル内に表示することができることに留意されたい。例えば、1人の人物は(例えば、登録中に)、自身のユーザアカウントを表すために、実際のまたは漫画のような「キツネ」の画像によって表されることを選択することができる。他のユーザは、数ある可能な例の中でも、ユーザの実際の画像、または場合によっては、テキストラベルを付けることも可能である、ビデオおよび/またはアニメーションとすることができる他のピクチャによって表すことができる。
[0056] 図5および図6では、提供されるフィードバックにおいて、1人の人物のタイル表現554は、他のタイル550および552よりも大きい(かつ明るく、太線によって表される)。(拡大された図6は、ユーザタイル550および552および554内の例示的な画像を示す一方、空間の理由から図5はこれらを示していないことに留意されたい。)より大きくより明るいタイル554が、誰が入力を駆動しているか(または、場合によっては誰がフォーカスを有するか)を示している。更に、タイル550および554(タイル552ではない)はそれぞれ、カメラのビュー内に現在存在することを示す可視のバー(例えば、タイルの底部に破線で表すように、いくつかの実施態様では色付けされている)を含む。図7は、同様のフィードバックであるが、図7において、入力を駆動しているユーザのタイル表現754がより大きなタイル/画像を有さず、「より明るい」タイル/画像(図7において太線になっている)のみを有するという点で代替的であるフィードバックを示すことに留意されたい。
[0057] 図5および図6において、インジケータ「+2」をラベル付けされた556は、認識されたがもはやビュー内にいない人物の数を示すことができ、および/または、全員についてフィードバックを表示するには、ビュー内にいる人物が多すぎるときを表すのに用いることができる。
[0058] 追加のフィードバックとして、カメラが奥行き方向に見ているものの色付けされた奥行き表現(画像)558を提供することができる。ここで、より明るく強調された(またはこの例では太線にされた)人物の奥行き「形状」は、誰がシステムをアクティブに駆動しているか(または場合によっては誰がフォーカスを有するか)に対応する。
[0059] 図7は、現在のカメラビューの可視光カメラ(例えば、RGBまたはモノクロ)画像770が示される別のフィードバック例を示す。これは、フルフレームレートまたはサンプリングレートでのライブビューとすることができる。この例では、1人のユーザが認識され、そのユーザが、例えば、フラグ772等により当該ユーザの画像の上方に浮かぶ当該ユーザの名前(「Rob」)を用いてラベル付けされる。不明な人物はラベル付けされる必要がないか、または代替的に、図7の「?」ラベル774により示されているように、人物であるがシステムにとって不明であると認識されているものとしてラベル付けされてもよい。ラベルは、画像内の関連する人物の上に重ねるかまたは近くにあってもよく、または画像に隣接し、関連する人物へのポインティングメカニズムを有するキャプション/バブルを含んでもよい。図7の例の左上のコーナーにおけるフィードバックタイル776は、奥行き画像を含まないが、これは一例にすぎず、奥行き画像を、可視光カメラ画像と同じユーザインタフェースディスプレイ上に表示することができることに留意されたい。
[0060] 図8は、2人のユーザが現在認識され、サインインし、これが、そのような各ユーザの上に重ね合わされたアイコン880およびアイコンセット882によって表されている、表現(フィードバックが重ね合わされた実際の可視光カメラ画像とすることができる)を示している。アイコンセット882は、誰が入力を駆動しているかを示す人物名と、人物がコントローラを保有していることを示すコントローラロゴとを含む。アイコン880に対応する人物は、自身が認識されていることを知っている。なぜなら、当該人物の画像の上方のアイコン880は、自身を表すことをユーザが知っているアイコンであるためである。他の人物は、当該人物の画像の上方の不明な疑問符「?」アイコン884によって示されるように、人物であるとして検出されているが認識されていない。ピクチャ内の任意の他の人物は、存在していると検出されてすらおらず、これによるフィードバックは、関連付けられたアイコン等が一切ないことであることに留意されたい。
[0061] 図8も、例えば、ユーザインタフェース112の補正コンポーネントによってとることができるいくつかの例示的なトラブルシューティングオプションを示している。図8の例は、全く認識されなかったときおよび他の誤認識のシナリオ時に用いることができる「認識されなかった」オプションを含む。
[0062] 見てとることができるように、生体認識を含むシステムに関して、各ユーザに当該ユーザの現在の状態を示すための技術が提供される。これは、例のうちのいくつか等において、視覚フィードバックとすることができる。様々な状態データ、特に、人物が、自身が正しく認識されたかまたは誤って認識されたかを知ることを可能にする状態データを伝達することができる。サインイン(または非サインイン)状態、インタラクションモード等の他の状態データを出力してもよい。
[0063] 例えば、いくつかの態様では、比較的小さなタイルを用いてフィードバックを伝達することができる。他の態様では、ロバストな可視のカメラビューによってユーザがより容易に自身を識別することが可能になり、例えば、カメラビュー自体の実際の表示において、フラグ等を、人物の頭上に、フラグ上の人物名および場合によっては他の情報と共に表示することができる。これは、システムがカメラビュー内の特定の人物を特定のユーザとして認識していることを示す。そのような時点において、カメラビューは、このレベルの詳細情報を表示するために、(ディスプレイがより標準的なビューおよびインタラクションに用いられるときと比較して)表示スクリーン上のより多くの空間を取得するが、これにより、ユーザが正しい人物として認識されていることのより直接的なフィードバックがユーザに提供される。
[0064] これは、生体認識によって判断されたユーザの認識に対応するIDデータを受信し、このIDデータをユーザに関連付けることを目的とした1つまたは複数の態様により達成することができる。IDデータに基づいて、認識されたIDがユーザに関連付けられることを示すフィードバックが(出力デバイスに)出力される。これには、ユーザが出力デバイスに結合されているかまたは出力デバイスを組み込んでいるシステムとインタラクトすることが可能であることを示すフィードバックが含まれる。
[0065] 1つまたは複数の態様では、ユーザは、IDデータに基づいてシステムに自動的にサインインすることができる。顔認識は、IDデータを取得するのに用いることができる生体認識の1つのタイプである。ユーザに関連付けられたIDデータは、ユーザインタラクションに基づいて異なるIDデータに変更することができる。
[0066] フィードバックを出力することは、認識されたIDを表す視覚的標識を提供することを示す。ここで、視覚的標識は、画像、アイコン、テキスト、アニメーションおよび/またはビデオを含む。例えば、カメラビューは、ユーザの画像を捕捉することができ、フィードバックを出力することは、カメラビューの可視画像およびフィードバックを出力することを含むことができる。フィードバックを出力することは、可視画像の上に、および/または可視画像に隣接して、少なくとも1つの視覚的標識を重ね合わせることを含むことができる。可視画像は、奥行き画像および/または可視画像を含むことができる。
[0067] 他のフィードバックが出力される場合もある。例えば、ユーザがコントローラを有していると判断すると、ユーザがコントローラを有していることを示す追加のフィードバックを出力することができる。ユーザがシステムを駆動していると判断すると、ユーザがシステムを駆動していることを示すフィードバックを出力することができる。
[0068] 1つまたは複数の態様は、1つまたは複数の生体測定により認識されたユーザの識別データを受信するように構成されたユーザインタフェースコンポーネントを対象とする。生体測定により認識されたユーザごとに、ユーザインタフェースコンポーネントは、識別データに基づいてそのユーザのIDを示すフィードバックと、ユーザのインタラクション状態を示すフィードバックとを含むフィードバックを出力する。
[0069] フィードバックは、少なくとも1人の認識されたユーザを表す可視画像上にまたは可視画像に重ね合わせるかもしくは隣接することができ、および/または少なくとも1人の認識されたユーザを表す1つもしくは複数のアイコンを含むことができる。ユーザのインタラクション状態を表すフィードバックの非限定的な例は、サインイン状態、ビュー内状態、現在のシステム駆動状態および/またはフォーカスを有する状態を示すことができる。他の例示的なフィードバックは、コントローラ入力、発話入力、ジェスチャ入力および/または遠隔入力等の、システムインタラクションのためのユーザの現在の入力方法(または入力方法に関する機能)を示すことができる。
[0070] 1つまたは複数の態様において、ユーザインタフェースコンポーネントは、誤って認識されたユーザが、誤って認識されたユーザに関連付けられたIDを変更することを可能にする補正コンポーネントを含むことができる。ユーザインタフェースコンポーネントはまた、人物が検出されたが認識されていないことを示すデータを受信することができ、その人物に関連付けられた認識されていない状態を示すフィードバックを出力することができる。
[0071] 1つまたは複数の態様は、画像内の1人または複数人の人物の検出および生体認識のために、その画像を処理して、各人物を認識することを試みることを対象とする。認識された人物は、関連付けられたIDデータを有し、IDデータに基づいてシステムにサインインする。また、IDデータに基づいてフィードバックデータが取得され、このフィードバックデータは、認識された人物を可視表現としてレンダリングするためのフィードバックデータを含む。フィードバックデータは、システムに結合されているかまたはシステムに組み込まれた表示デバイス上に、認識された人物の可視表現としてレンダリングするために出力される。これは、認識された人物がシステムにサインインしていることを示すフィードバックデータをレンダリングすることを含む。
[0072] 認識された人物をシステムにサインインさせることは、認識された人物の生体認識時に自動的に行うことができる。また、認識された人物の骨格データを追跡することも説明され、IDデータを画像内の認識された人物に関連付けることは、IDデータを認識された人物の骨格データに関連付けることを含むことができる。
例示的な動作環境
[0073] 上記で説明した実施態様およびその代替形態は、ゲームシステム、パーソナルコンピュータ、タブレット、DVR、セットトップボックス、スマートフォン等を含む任意の適切なコンピューティングデバイス上で実施することができることを容易に理解することができる。そのようなデバイスの組合せは、複数のそのようなデバイスが共に連結されているときにも実現可能である。説明の目的で、(メディアを含む)ゲームシステムは、以後、1つの例示的な動作環境として説明される。
[0074] 図9は、例示的なゲームおよびメディアシステム900の機能ブロック図であり、機能コンポーネントをより詳細に示す。コンソール901は中央処理装置(CPU)902と、フラッシュリードオンリーメモリ(ROM)904、ランダムアクセスメモリ(RAM)906、ハードディスクドライブ908およびポータブルメディアドライブ909を含む様々なタイプのメモリへのプロセッサアクセスを容易にするメモリコントローラ903とを有する。1つの実施態様では、CPU902は、データを一時的に記憶するレベル1キャッシュ910と、レベル2キャッシュ912とを含み、このため、ハードドライブに対し行われるメモリアクセスサイクル数を低減し、これによって処理速度およびスループットを改善する。
[0075] CPU902、メモリコントローラ903および様々なメモリデバイスは、1つまたは複数のバス(図示せず)を介して相互接続される。この実施態様において用いられるバスの詳細は、本明細書において検討される対象の主題を理解することに特に関係していない。しかしながら、そのようなバスは、多岐にわたるバスアーキテクチャのうちの任意のものを用いる、シリアルバスおよびパラレルバス、メモリバス、周辺バス、ならびにプロセッサバスまたはローカルバスのうちの1つまたは複数を含むことができることが理解されよう。例として、そのようなアーキテクチャは、業界標準アーキテクチャ(ISA)バス、マイクロチャネルアーキテクチャ(MCA)バス、拡張ISA(EISA)バス、ビデオエレクトロニクス標準アソシエーション(VESA)ローカルバス、およびメザニンバスとしても知られる周辺コンポーネントインターコネクト(PCI)バスを含むことができる。
[0076] 1つの実施態様では、CPU902、メモリコントローラ903、ROM904およびRAM906は、共通モジュール914上に統合される。この実施態様では、ROM904は、周辺コンポーネントインターコネクト(PCI)バス等およびROMバス等(それらはいずれも図示されていない)を介してメモリコントローラ903に接続されるフラッシュROMとして構成される。RAM906は、別個のバス(図示せず)を介してメモリコントローラ903によって独立して制御される、複数のダブルデータレート同期ダイナミックRAM(DDR SDRAM)モジュールとして構成することができる。ハードディスクドライブ908およびポータブルメディアドライブ909は、PCIバスおよびATアタッチメント(ATA)バス916を介してメモリコントローラ903に接続されて示されている。一方、他の実施態様では、選択肢として異なるタイプの専用データバス構造も適用することができる。
[0077] 3次元グラフィック処理装置920およびビデオエンコーダ922は、高速で高分解能の(例えば高精細)グラフィック処理のためのビデオ処理パイプラインを形成する。データは、デジタルビデオバス(図示せず)を介してグラフィック処理装置920からビデオエンコーダ922に搬送される。オーディオ処理ユニット924およびオーディオコーデック(コーダ/デコーダ)926は、様々なデジタルオーディオフォーマットのマルチチャネルオーディオ処理のための対応するオーディオ処理パイプラインを形成する。オーディオデータは、オーディオ処理ユニット924とオーディオコーデック926との間で通信リンク(図示せず)を介して搬送される。ビデオおよびオーディオ処理パイプラインは、データを、テレビまたは他のディスプレイ/スピーカに送信するためのA/V(オーディオ/ビデオ)ポート928に出力する。示される実施態様では、ビデオおよびオーディオ処理コンポーネント920、922、924、926および928は、モジュール914上に取り付けられる。
[0078] 図9は、有線および/または無線コンポーネントを含むことができる、USBホストコントローラ930およびネットワークインタフェース(NW I/F)932を含むモジュール914を示す。バス(例えば、PCIバス)を介してCPU902およびメモリコントローラ903と通信するUSBホストコントローラ930が示され、このUSBホストコントローラ930は、周辺コントローラ934のためのホストとしての役割を果たす。ネットワークインタフェース932は、ネットワーク(例えば、インターネット、ホームネットワーク等)へのアクセスを提供し、イーサネットカードまたはインタフェースモジュール、モデム、Bluetoothモジュール、ケーブルモデム等を含む多岐にわたる様々な有線または無線インタフェースコンポーネントのうちの任意のものとすることができる。
[0079] 図9に示す例示的な実施態様では、コンソール901は、4つのゲームコントローラ941(1)〜941(4)をサポートするためのコントローラサポートサブアセンブリ940を含む。コントローラサポートサブアセンブリ940は、例えば、メディアおよびゲームコントローラ等の外部制御デバイスを用いた有線および/または無線動作をサポートするのに必要な任意のハードウェアおよびソフトウェアコンポーネントを含む。フロントパネルI/Oサブアセンブリ942は、電力ボタン943、取出しボタン944、ならびに任意の他のボタンおよび任意のLED(発光ダイオード)またはコンソール901の外面に露出した他のインジケータの複数の機能をサポートする。サブアセンブリ940および942は1つまたは複数のケーブルアセンブリ946等を介してモジュール914と通信する。他の実施態様では、コンソール901は、追加のコントローラサブアセンブリを含むことができる。示される実施態様は、モジュール914に通信することができる信号を(例えばリモートコントロール949から)送受信するように構成された光I/Oインタフェース948も示している。
[0080] メモリユニット(MU)950(1)および950(2)は、それぞれMUポート「A」952(1)および「B」952(2)に接続可能なものとして示されている。各MU950は、ゲーム、ゲームパラメータおよび他のデータを記憶することができる追加のストレージを提供する。いくつかの実施態様では、他のデータは、デジタルゲームコンポーネント、実行可能なゲームアプリケーション、ゲームアプリケーションを拡張するための命令セット、およびメディアファイルのうちの1つまたは複数を含むことができる。各MU950は、コンソール901に挿入されると、メモリコントローラ903によってアクセスすることができる。
[0081] システム電源モジュール954は、ゲームシステム900のコンポーネントに電力を提供する。ファン956がコンソール901内の回路を冷却する。
[0082] マシン(例えばコンピュータ実行可能)命令/ロジックを含むアプリケーション960が、通常、ハードディスクドライブ908上に記憶される。コンソール901が電源オンにされると、CPU902における実行のために、アプリケーション960の様々な部分がRAM906および/またはキャッシュ910および912にロードされる。通常、アプリケーション960は、ディスプレイ(例えば高精細モニタ)上で提示するためのダイアログスクリーンの制御、ユーザ入力に基づくトランザクションの制御、ならびにコンソール901と外部に接続されたデバイスとの間のデータ送信および受信の制御等の様々な表示機能を実行するための1つまたは複数のプログラムモジュールを含むことができる。
[0083] ゲームシステム900は、システムを高精細モニタ、テレビ、ビデオプロジェクタまたは他の表示デバイスに接続することによって、スタンドアロンシステムとして動作することができる。このスタンドアロンモードにおいて、ゲームシステム900は、1人または複数人のプレーヤがゲームをプレイするか、または例えば、映画を見るかもしくは音楽を聴くことによってデジタルメディアを堪能することを可能にする。一方、ネットワークインタフェース932を通じて可能にされたブロードバンド接続の統合によりゲームシステム900は更に、より大型のネットワークのゲームコミュニティまたはシステムにおける参加コンポーネントとして動作することができる。
結論
[0084] 本発明は、様々な変更および代替的な構成を受け入れる余地があるが、そのうちのいくつかの例示された実施形態が図面に示され、上記で詳細に記載された。しかしながら、本発明を開示した特定の形態に限定する意図はなく、それどころか、本発明の趣旨および範囲内にある全ての変更、代替、構成および均等物を包含することが意図されていることを理解するべきである。

Claims (14)

  1. コンピュータにより実施される方法であって、
    ユーザの画像を捕捉する一又は複数のカメラビューに基づいて、生体認識によって判断されたユーザの認識に対応するIDデータを受信することと、
    前記IDデータを前記ユーザに関連付けることと、
    前記IDデータに基づいて、認識されたIDが前記ユーザに関連付けられていることを示すフィードバックを出力デバイスに出力することであって、前記フィードバックは、前記ユーザが、複数の他の識別されたユーザからのフォーカスを有し、したがって、前記出力デバイスに結合されているかまたは前記出力デバイスを組み込んでいるシステムとインタラクトすることができることを示すフィードバックを含むことを含み、前記フォーカスは、前記ユーザがとるアクションによって、または複数のユーザが前記システムの駆動を試みている場合、タイブレーカシステムによって、前記ユーザから別のユーザに移すことができ、前記フィードバックは、前記カメラビューで捕捉された前記ユーザのライブビデオ表現を修正する標識と、前記ユーザの前記修正されたライブビデオ表現とともに表示される前記ユーザのタイル表現画像であって、前記ユーザの前記IDデータに関連づけて予め記憶されており、前記ユーザが前記システムとインタラクトすることができることを示すように表示される前記ユーザの前記タイル表現画像と、を含む、方法。
  2. 前記タイブレーカシステムは、階層メカニズムまたはタイミング制御により動作するように構成される、請求項1に記載のコンピュータにより実施される方法。
  3. 前記IDデータに基づいて前記システムに前記ユーザを自動的にサインインさせることを更に含む、請求項1に記載のコンピュータにより実施される方法。
  4. 前記フィードバックを出力することは、前記認識されたIDを表す視覚的標識を提供することを含み、前記視覚的標識は、画像、アイコン、テキスト、アニメーションまたはビデオのうちの少なくとも1つを含む、請求項1に記載のコンピュータにより実施される方法。
  5. 前記ユーザに関連付けられた前記IDデータを、ユーザインタラクションに基づいて異なるIDデータに変更することを更に含む、請求項1に記載のコンピュータにより実施される方法。
  6. 前記IDデータを前記ユーザに関連付けることは、前記IDデータを前記ユーザに対応する骨格データに関連付けることを含む、請求項1に記載のコンピュータにより実施される方法。
  7. カメラビューが、前記ユーザの画像を捕捉し、前記フィードバックを出力することは、前記カメラビューおよび前記フィードバックの可視画像を出力することを含み、前記可視画像は、奥行き画像、可視画像、または奥行き画像および可視画像の双方を含む、請求項1に記載のコンピュータにより実施される方法。
  8. 前記ユーザがコントローラを有するか否かを判断し、有する場合、前記ユーザが前記コントローラを有することを示す追加のフィードバックを出力することを更に含む、請求項1に記載のコンピュータにより実施される方法。
  9. カメラビューが、前記ユーザの画像を捕捉し、前記IDデータを受信することは、前記画像に対し顔認識を実行する生体認識器に画像を提供することを含む、請求項1に記載のコンピュータにより実施される方法。
  10. ユーザの画像を捕捉する一又は複数のカメラビューに基づいて、1つまたは複数の生体測定により認識されたユーザの識別データを受信するユーザインタフェースコンポーネントを備えるシステムであって、生体測定により認識されたユーザごとに、前記ユーザインタフェースコンポーネントは、フィードバックを出力し、前記フィードバックは、前記識別データに基づいて前記ユーザのIDを示すフィードバックと、前記ユーザのインタラクション状態を示すフィードバックであって、前記ユーザが複数の他の識別されたユーザからのフォーカスを有することを示し、これはフォーカスを有する前記ユーザの入力のみが前記システムによって承認されることを意味する、フィードバックとを含み、前記フォーカスは、前記ユーザがとるアクションによって、または複数のユーザが前記システムの駆動を試みている場合、タイブレーカシステムによって、前記ユーザから別のユーザに移すことができ、前記フィードバックは、前記カメラビューで捕捉された前記ユーザのライブビデオ表現を修正する標識と、前記ユーザの前記修正されたライブビデオ表現とともに表示される前記ユーザのタイル表現画像であって、前記ユーザの前記識別データに関連づけて予め記憶されており、前記ユーザが前記システムとインタラクトすることができることを示すように表示される前記ユーザの前記タイル表現画像と、を含む、システム。
  11. 前記タイブレーカシステムは、階層メカニズムまたはタイミング制御により動作する、請求項10に記載のシステム。
  12. 前記ユーザインタフェースコンポーネントは、誤って認識されたユーザが、前記誤って認識されたユーザに関連付けられた前記IDを変更することを可能にする補正コンポーネントを含む、請求項10に記載のシステム。
  13. 前記フィードバックの少なくとも一部は、少なくとも1人の認識されたユーザを表す可視画像上に重ね合わされるかもしくは前記可視画像に隣接するか、または前記フィードバックの少なくとも一部は、少なくとも1人の認識されたユーザを表す1つもしくは複数のアイコンを含むか、または前記フィードバックの少なくとも一部は、少なくとも1人の認識されたユーザを表す可視画像上に重ね合わされるかもしくは前記可視画像に隣接し、かつ前記フィードバックの少なくとも一部は、少なくとも1人の認識されたユーザを表す1つもしくは複数のアイコンを含む、請求項10に記載のシステム。
  14. 実行可能な命令を有する1つまたは複数の機械可読ストレージデバイスであって、実行されると、請求項1〜9のいずれか1項に記載のコンピュータにより実施される方法を実行する、1つまたは複数の機械可読ストレージデバイス。
JP2016526326A 2013-11-08 2014-11-07 生体id、フィードバックおよびユーザインタラクション状態の相関表示 Active JP6630665B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361902141P 2013-11-08 2013-11-08
US61/902,141 2013-11-08
US14/279,819 US9542544B2 (en) 2013-11-08 2014-05-16 Correlated display of biometric identity, feedback and user interaction state
US14/279,819 2014-05-16
PCT/US2014/064485 WO2015069981A1 (en) 2013-11-08 2014-11-07 Correlated display of biometric identity, feedback and user interaction state

Publications (3)

Publication Number Publication Date
JP2017504849A JP2017504849A (ja) 2017-02-09
JP2017504849A5 JP2017504849A5 (ja) 2017-11-09
JP6630665B2 true JP6630665B2 (ja) 2020-01-15

Family

ID=51952028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016526326A Active JP6630665B2 (ja) 2013-11-08 2014-11-07 生体id、フィードバックおよびユーザインタラクション状態の相関表示

Country Status (10)

Country Link
US (2) US9542544B2 (ja)
EP (1) EP3066615A1 (ja)
JP (1) JP6630665B2 (ja)
KR (1) KR102285102B1 (ja)
CN (1) CN105706109B (ja)
AU (1) AU2014346621A1 (ja)
CA (1) CA2928706A1 (ja)
MX (1) MX2016006005A (ja)
RU (1) RU2016117378A (ja)
WO (1) WO2015069981A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9542544B2 (en) * 2013-11-08 2017-01-10 Microsoft Technology Licensing, Llc Correlated display of biometric identity, feedback and user interaction state
USD745550S1 (en) * 2013-12-02 2015-12-15 Microsoft Corporation Display screen with animated graphical user interface
USD745551S1 (en) * 2014-02-21 2015-12-15 Microsoft Corporation Display screen with animated graphical user interface
USD769931S1 (en) * 2014-11-14 2016-10-25 Microsoft Corporation Display screen with animated graphical user interface
USD789958S1 (en) * 2015-08-05 2017-06-20 Microsoft Corporation Display screen with graphical user interface
USD791153S1 (en) * 2015-08-05 2017-07-04 Microsoft Corporation Display screen with graphical user interface
USD791804S1 (en) * 2015-08-05 2017-07-11 Microsoft Corporation Display screen with graphical user interface
JP6324939B2 (ja) * 2015-11-05 2018-05-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびログイン制御方法
JP1577854S (ja) * 2016-05-13 2017-06-05
USD879795S1 (en) * 2016-06-07 2020-03-31 Amadeus S.A.S. Display screen with graphical user interface
CN210793099U (zh) * 2016-10-03 2020-06-19 金泰克斯公司 与车辆控制系统通信的认证系统
US10848483B2 (en) * 2016-12-08 2020-11-24 Ricoh Company, Ltd. Shared terminal, communication system, and display control method, and recording medium
JP6693495B2 (ja) * 2017-12-15 2020-05-13 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体
EP3555761A1 (en) * 2018-01-05 2019-10-23 Google LLC. Selecting content to render on display of assistant device
CN110096251B (zh) * 2018-01-30 2024-02-27 钉钉控股(开曼)有限公司 交互方法及装置
CN108495212A (zh) * 2018-05-09 2018-09-04 惠州超声音响有限公司 一种与智能音响交互的系统
US10773156B2 (en) * 2018-11-05 2020-09-15 Sony Interactive Entertainment LLC Systems and methods for establishing direct communication between a server system and a video game controller
EP3971797A1 (en) * 2020-09-22 2022-03-23 Grazper Technologies ApS A concept for anonymous re-identification

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6044429A (en) 1997-07-10 2000-03-28 Micron Technology, Inc. Method and apparatus for collision-free data transfers in a memory device with selectable data or address paths
US6825945B1 (en) * 1999-05-25 2004-11-30 Silverbrook Research Pty Ltd Method and system for delivery of a brochure
US6973621B2 (en) * 2001-04-27 2005-12-06 Starz Entertainment Group Llc Customization in a content distribution system
JP4827798B2 (ja) * 2007-06-13 2011-11-30 三菱電機株式会社 空調用リモートコントローラおよび空気調和機並びに空気調和システム
US8979647B2 (en) * 2007-10-26 2015-03-17 Microsoft Technology Licensing, Llc Method of providing player status and ability to join games
CN101925915B (zh) * 2007-11-21 2016-06-22 高通股份有限公司 设备访问控制
US9898675B2 (en) * 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US9009594B2 (en) * 2010-06-10 2015-04-14 Microsoft Technology Licensing, Llc Content gestures
EP2421252A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
US9195345B2 (en) * 2010-10-28 2015-11-24 Microsoft Technology Licensing, Llc Position aware gestures with visual feedback as input method
JP4940348B1 (ja) * 2010-12-27 2012-05-30 株式会社東芝 映像出力装置および映像出力方法
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US9542544B2 (en) * 2013-11-08 2017-01-10 Microsoft Technology Licensing, Llc Correlated display of biometric identity, feedback and user interaction state

Also Published As

Publication number Publication date
US20150135308A1 (en) 2015-05-14
US9542544B2 (en) 2017-01-10
RU2016117378A3 (ja) 2018-07-06
US20170083696A1 (en) 2017-03-23
AU2014346621A1 (en) 2016-05-19
CA2928706A1 (en) 2015-05-14
MX2016006005A (es) 2016-07-22
EP3066615A1 (en) 2016-09-14
KR102285102B1 (ko) 2021-08-02
US10354056B2 (en) 2019-07-16
RU2016117378A (ru) 2017-11-13
JP2017504849A (ja) 2017-02-09
CN105706109B (zh) 2023-01-10
KR20160083903A (ko) 2016-07-12
WO2015069981A1 (en) 2015-05-14
CN105706109A (zh) 2016-06-22

Similar Documents

Publication Publication Date Title
JP6630665B2 (ja) 生体id、フィードバックおよびユーザインタラクション状態の相関表示
US20200372058A1 (en) System and method for converting image data into a natural language description
US9539500B2 (en) Biometric recognition
JP5012968B2 (ja) 会議システム
TWI571796B (zh) 用於設備啓動的音頻圖樣比對
US9329678B2 (en) Augmented reality overlay for control devices
US20160071319A1 (en) Method to use augumented reality to function as hmi display
US10438058B2 (en) Information processing apparatus, information processing method, and program
US20130265333A1 (en) Augmented Reality Based on Imaged Object Characteristics
JP7152528B2 (ja) フェイシャル特殊効果による複数のフェイシャルの追跡方法、装置および電子機器
US20130283202A1 (en) User interface, apparatus and method for gesture recognition
WO2016013249A1 (ja) 情報処理装置
US10434412B2 (en) Control apparatus, control method, program, and information storage medium
US20120089392A1 (en) Speech recognition user interface
JP2015170099A (ja) 情報処理装置、情報処理方法、アイウェア端末および認証システム
TWI675687B (zh) 一種儀器和由用戶控制儀器之方法
CN103502910B (zh) 用于操作激光二极管的方法
KR102405307B1 (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
US11183219B2 (en) Movies with user defined alternate endings
TW202017627A (zh) 互動式遊戲系統
US20240069703A1 (en) Electronic apparatus and control method thereof
KR102582332B1 (ko) 전자 장치, 이의 모바일 장치 제어 방법 및 컴퓨터 판독가능 기록 매체
US20170287189A1 (en) Displaying a document as mixed reality content
CN111167115A (zh) 交互式游戏系统

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20160616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190417

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191011

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20191017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191209

R150 Certificate of patent or registration of utility model

Ref document number: 6630665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250