JP6838135B2 - ユーザの感情状態を用いて仮想画像生成システムを制御するための技術 - Google Patents

ユーザの感情状態を用いて仮想画像生成システムを制御するための技術 Download PDF

Info

Publication number
JP6838135B2
JP6838135B2 JP2019502242A JP2019502242A JP6838135B2 JP 6838135 B2 JP6838135 B2 JP 6838135B2 JP 2019502242 A JP2019502242 A JP 2019502242A JP 2019502242 A JP2019502242 A JP 2019502242A JP 6838135 B2 JP6838135 B2 JP 6838135B2
Authority
JP
Japan
Prior art keywords
user
emotional state
end user
biometric
biometric data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019502242A
Other languages
English (en)
Other versions
JP2019532374A (ja
JP2019532374A5 (ja
Inventor
ジョージ アリステア サンガー,
ジョージ アリステア サンガー,
サミュエル エー. ミラー,
サミュエル エー. ミラー,
グレーム ジョン ディバイン,
グレーム ジョン ディバイン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2019532374A publication Critical patent/JP2019532374A/ja
Publication of JP2019532374A5 publication Critical patent/JP2019532374A5/ja
Application granted granted Critical
Publication of JP6838135B2 publication Critical patent/JP6838135B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/56Information retrieval; Database structures therefor; File system structures therefor of still image data having vectorial format
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Description

(関連出願の相互参照)
本願は、2016年7月21日に出願され“TECHNIQUE FOR CONTROLLING VIRTUAL IMAGE GENERATION SYSTEM USING EMOTIONAL STATES OF USER”と題された米国仮特許出願第62/364,957号(代理人管理番号ML.30042.00)からの優先権を主張するものである。上記特許出願の内容は、その全体が参照により本明細書中に援用される。
本発明は、概して、1人以上のユーザのための双方向仮想および拡張現実環境を促進するように構成される、システムおよび方法に関する。
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える、またはそのように知覚され得る様式でユーザに提示される。仮想現実(VR)シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透明性を伴わずに、デジタルまたは仮想画像情報の提示を伴う一方、拡張現実(AR)シナリオは、典型的には、エンドユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。
例えば、図1を参照すると、拡張現実場面4が、描写されており、AR技術のユーザには、背景における人々、木々、建物を特徴とする実世界公園状設定6と、コンクリートプラットフォーム8とが見える。これらのアイテムに加え、AR技術のエンドユーザはまた、実世界プラットフォーム8上に立っているロボット像10と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ12とを「見ている」と知覚するが、これらの要素10、12は、実世界には存在しない。結論からいうと、ヒトの視知覚系は、非常に複雑であって、他の仮想または実世界画像要素間における仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進する、VRまたはAR技術の生成は、困難である。
VRおよびARシステムは、典型的には、エンドユーザの頭部に少なくとも緩く装着され、したがって、ユーザの頭部が移動すると移動する、頭部装着型ディスプレイ(またはヘルメット搭載型ディスプレイまたはスマートグラス)を採用する。エンドユーザの頭部の運動が、ディスプレイシステムによって検出される場合、表示されているデータは、頭部の姿勢(すなわち、ユーザの頭部の配向および/または場所)の変化を考慮するように更新されることができる。
実施例として、頭部装着型ディスプレイを装着しているユーザが、3次元(3D)オブジェクトの仮想表現をディスプレイ上で視認し、3Dオブジェクトが現れる面積の周囲を歩く場合、その3Dオブジェクトは、視点毎に再レンダリングされ、エンドユーザに、実空間を占有するオブジェクトの周囲を歩いているという知覚を与えることができる。頭部装着型ディスプレイが、複数のオブジェクト(例えば、豊かな仮想世界)を仮想空間内に提示するために使用される場合、場面を再レンダリングして、エンドユーザの動的に変化する頭部の場所および配向に合致し、仮想空間で増加した没入感を提供するために、頭部の姿勢の測定を使用することができる。
AR(すなわち、実および仮想要素の同時視認)を可能にする頭部装着型ディスプレイは、いくつかの異なるタイプの構成を有することができる。多くの場合、「ビデオシースルー」ディスプレイと称される、1つのそのような構成では、カメラが、実際の場面の要素を捕捉し、コンピューティングシステムが、仮想要素を捕捉された実場面上に重畳し、非透明ディスプレイが、複合画像を眼に提示する。別の構成は、多くの場合、「光学シースルー」ディスプレイと称され、エンドユーザは、ディスプレイシステム内の透明(または半透明)要素を通して見て、環境内の実オブジェクトからの光を直接視認することができる。多くの場合、「結合器」と称される、透明要素は、実世界のエンドユーザの視点にわたってディスプレイからの光を重畳する。
VRおよびARシステムでは、満足の行く関与を損なわせるかまたは妨害することが見出された要因を排除または強調解除する一方、そのような関与を促すかまたは増加させることが見出された要因を強調することによって、ユーザとVR/ARシステムとの間の体験および/または関与の品質を増加させることが望ましい。従来、ユーザのフォーカスグループが、VR/ARシステムのハードウェアおよび/またはソフトウェアを試験するために集められる。ユーザは、好きまたは嫌いな特徴に関して尋ねられ得る。その応答は、次いで、分析され、VR/ARシステムのハードウェア/ソフトウェア特徴をオフラインで再設計または別様に修正するために使用されることができる。オフラインフォーカスグループの使用は、概して、試験されているVR/ARシステムを用いたユーザ体験に改良をもたらすが、本技法は、VR/ARシステムを特定のユーザに合わせて調整するものではなく、VR/ARシステムに関与するためのユーザの潜在意識的動機を考慮せず、VR/ARシステムに改良を反復的にもたらすためのフォーカスグループの繰り返される使用に起因して、比較的にコストおよび時間がかかり得る。
したがって、ユーザとVR/ARシステムとの間の体験および/または関与の品質を増加させる必要がある。
本発明の第1の側面によると、仮想画像生成システムを動作させる方法は、エンドユーザが少なくとも1つの仮想オブジェクトを備える3次元環境と相互作用することを可能にするステップを含む。エンドユーザが3次元環境と相互作用することを可能にするステップは、3次元環境の複数の合成画像フレームをレンダリングし、合成画像フレームをエンドユーザに連続して表示するステップを含んでもよい。合成画像フレームは、エンドユーザの頭部に搭載されるフレーム構造を介して、エンドユーザの視野内に表示されてもよく、エンドユーザによって可視化される実場面にわたって重畳されてもよい。
本方法はさらに、3次元環境の状況下、刺激をエンドユーザに提示するステップ(例えば、視覚的にまたは聴覚的に)と、エンドユーザへの刺激の提示に応答して、エンドユーザの少なくとも1つのバイオメトリックパラメータを感知するステップと、感知されたバイオメトリックパラメータ毎に、バイオメトリックデータを生成するステップとを含む。一実施形態では、エンドユーザのバイオメトリックパラメータは、刺激の提示に応答して、複数の異なる時間に感知され、バイオメトリックデータは、これらの異なる時間に生成される。感知されたバイオメトリックパラメータは、少なくとも1つの表情(例えば、エンドユーザの口角および眼の周囲の目尻の皺の一方または両方)、肩をすぼめること、呼吸数、心拍数、体温、血圧、手の移動の頻度および/または場所、身体がぴくぴくする頻度および/または場所、眼の移動の間の経過時間、および微表情を含んでもよい。
本方法はさらに、感知されたバイオメトリックパラメータ毎のバイオメトリックデータに基づいて、エンドユーザが少なくとも1つの特定の感情状態(例えば、怒り、軽蔑、嫌悪、恐れ、楽しさ、悲しみ、驚き、混乱、羞恥心、警戒心、疲労、リラックス、欲求不満、退屈、当惑のうちの1つ)にあるかどうかを決定するステップを含む。感知されたバイオメトリックパラメータは、複数の異なる感知されるバイオメトリックパラメータを含んでもよく、その場合、エンドユーザが特定の感情状態にあるかどうかを決定するステップは、パターン認識分析を生成されたバイオメトリックデータに実施するステップを含んでもよい。例えば、感知されたバイオメトリックパラメータが、エンドユーザの口角および眼の周囲の目尻の皺を含む場合、特定の感情状態は、楽しさを含むと決定され得る。
エンドユーザが特定の感情状態にあるかどうかを決定するステップは、生成されたバイオメトリックデータと少なくとも1つの特定の感情状態と相関される基準バイオメトリックデータを比較するステップを含んでもよい。例えば、感知されたバイオメトリックパラメータのうちの1つに関して生成されたバイオメトリックデータは、バイオメトリックスカラーデータ値であってもよく、基準バイオメトリックデータは、基準バイオメトリック値範囲を含んでもよく、その場合、生成されたバイオメトリックデータと基準バイオメトリックデータを比較するステップは、バイオメトリックスカラーデータ値が基準バイオメトリック値範囲内にあるかどうかを決定するステップを含んでもよい。別の実施例として、感知されたバイオメトリックパラメータのうちの1つに関して生成されたバイオメトリックデータは、バイオメトリック多次元データベクトルであってもよく、基準バイオメトリックデータは、基準バイオメトリック多次元データベクトルを含んでもよく、その場合、生成されたバイオメトリックデータと基準バイオメトリックデータを比較するステップは、生成されたバイオメトリック多次元データベクトルと基準バイオメトリック多次元データベクトルとの間の相関関数を実施するステップを含んでもよい。随意の実施形態では、エンドユーザが特定の感情状態にあるかどうかを決定するステップはさらに、基準バイオメトリックデータをエンドユーザのカスタム感情状態プロファイルから読み出すステップを含んでもよい。
本方法はさらに、少なくとも部分的に、エンドユーザが特定の感情状態にあることが決定されるかどうかに基づいて、エンドユーザに判別可能なアクションを実施し、現在の目標を促進するステップを含む。
一実施形態では、現在の目標は、例えば、関連時間周期にわたって1回、関連時間周期にわたって複数回、または関連時間周期にわたって継続的にである、所望の持続時間にわたって、エンドユーザにおいて所望の感情状態を引き起こす、または所望の持続時間にわたって、エンドユーザにおいて望ましくない感情状態を引き起こさない、または所望の持続時間にわたって、エンドユーザにおいて複数の異なる所望の感情状態を引き起こすことである。
例えば、現在の目標は、所望の持続時間にわたって、エンドユーザにおいて所望の感情状態を引き起こすことであってもよく、特定の感情状態は、所望の感情状態と一致し得る。エンドユーザが、所望の持続時間にわたって、特定の感情状態にあると決定される場合、実施されるアクションは、刺激をエンドユーザに対してより利用可能にするステップを含んでもよく、対照的に、エンドユーザが、所望の持続時間にわたって、特定の感情状態にないと決定される場合、実施されるアクションは、刺激をエンドユーザに対してあまり利用可能にしないステップを含んでもよい。
別の実施例として、現在の目標は、所望の持続時間にわたって、エンドユーザにおいて望ましくない感情状態を引き起こさないことであってもよく、特定の感情状態は、望ましくない感情状態と一致し得る。エンドユーザが、所望の持続時間にわたって、少なくとも1つの特定の感情状態にないと決定される場合、実施されるアクションは、刺激をエンドユーザに対してより利用可能にするステップを含んでもよく、対照的に、エンドユーザが、所望の持続時間にわたって、特定の感情状態にあると決定される場合、実施されるアクションは、刺激をエンドユーザに対してあまり利用可能にしないステップを含んでもよい。
さらに別の実施例として、現在の目標は、所望の持続時間にわたって、エンドユーザにおいて複数の異なる所望の感情状態を引き起こすことであってもよく、複数の異なる感情状態が、複数の所望の感情状態と一致し得る。エンドユーザが、所望の持続時間にわたって、複数の異なる感情状態にあると決定される場合、実施されるアクションは、刺激をエンドユーザに対してより利用可能にするステップを含んでもよく、対照的に、エンドユーザが、所望の持続時間にわたって、複数の異なる感情状態にないと決定される場合、実施されるアクションは、刺激をエンドユーザに対してあまり利用可能にしないステップを含んでもよい。
別の実施形態では、刺激は、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートの形態をとり、その場合、実施されるアクションは、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートをエンドユーザに対してより利用可能にする、またはあまり利用可能にしないステップを含んでもよい。さらに別の実施形態では、刺激は、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートの特徴の形態をとり、その場合、実施されるアクションは、ビデオゲーム、プログラム、音楽背景曲、報酬、またはアラートをエンドユーザに対してより利用可能にする、またはあまり利用可能にしないステップを含んでもよい。
さらに別の実施形態では、刺激は、戦略的ビデオゲームの形態をとり、現在の目標は、戦略的ビデオゲームにおいてエンドユーザを負かすことであって、その場合、実施されるアクションは、エンドユーザに対する特定の感情状態決定を使用してゲームを進めるステップを含んでもよい。例えば、戦略的ビデオゲームは、エンドユーザと対戦する1人以上のシミュレートされたプレーヤを有する、カードプレービデオゲーム(例えば、ポーカービデオゲーム)であってもよく、特定の感情状態は、エンドユーザがはったりをかけているかどうかを示すものであってもよく、その場合、実施されるアクションは、シミュレートされたプレーヤが、エンドユーザがはったりをかけているかどうかの知識を使用して、エンドユーザとカードをプレーするステップを含んでもよい。
さらに別の実施形態では、刺激は、エンドユーザに提示される質問の形態をとり、現在の目標は、質問に応答して、エンドユーザが嘘をついているかどうかを決定することであって、その場合、実施されるアクションは、特定の感情状態決定を使用して、エンドユーザにエンドユーザが嘘をついているかどうかを知らせるステップを含んでもよい。
さらに別の実施形態では、刺激は、エンドユーザに提示される複数のオプションの形態をとり、現在の目標は、エンドユーザが考えている複数のオブジェクトのうちの1つを決定することであって、その場合、実施されるアクションは、特定の感情状態決定を使用して、エンドユーザにエンドユーザが考えているオブジェクトを知らせるステップを含んでもよい。
さらに別の実施形態では、刺激は、シミュレートされた顔の形態をとり、現在の目標は、エンドユーザを笑わせることであって、その場合、実施されるアクションは、特定の感情状態決定を使用して、エンドユーザが笑いそうであるかどうかを決定し、エンドユーザを笑わせるようにシミュレートされた顔を修正するステップを含んでもよい。
本発明の第2の側面によると、仮想画像生成システムを動作させる方法は、エンドユーザが少なくとも1つの仮想オブジェクトを備える3次元環境と相互作用することを可能にするステップを含む。エンドユーザが3次元環境と相互作用することを可能にするステップは、3次元環境の複数の合成画像フレームをレンダリングし、合成画像フレームをエンドユーザに連続して表示するステップを含んでもよい。合成画像フレームは、エンドユーザの頭部に搭載されるフレーム構造を介して、エンドユーザの視野内に表示されてもよく、エンドユーザによって可視化される実場面にわたって重畳されてもよい。
本方法はさらに、3次元環境の状況下、刺激をエンドユーザに提示するステップ(例えば、視覚的にまたは聴覚的に)を含む。刺激は、例えば、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラート、またはその特徴であってもよい。
本方法はさらに、エンドユーザへの刺激の提示に応答して、エンドユーザの少なくとも1つのバイオメトリックパラメータを感知するステップと、感知されたバイオメトリックパラメータ毎に、バイオメトリックデータを生成するステップとを含む。一実施形態では、エンドユーザのバイオメトリックパラメータは、刺激の提示に応答して、複数の異なる時間に感知され、バイオメトリックデータは、これらの異なる時間に生成される。感知されたバイオメトリックパラメータは、少なくとも1つの表情(例えば、エンドユーザの口角および眼の周囲の目尻の皺の一方または両方)、肩をすぼめること、呼吸数、心拍数、体温、血圧、手の移動の頻度および/または場所、身体がぴくぴくする頻度および/または場所、眼の移動の間の経過時間、および微表情を含んでもよい。
本方法はさらに、生成されたバイオメトリックデータとエンドユーザの特定の感情状態(例えば、怒り、軽蔑、嫌悪、恐れ、楽しさ、悲しみ、驚き、混乱、羞恥心、警戒心、疲労、リラックス、欲求不満、退屈、当惑のうちの少なくとも1つ)を相関させるステップを含む。一実施形態では、生成されたバイオメトリックデータは、特定の信頼度レベルを伴って、特定の感情状態と相関される。一実施形態では、生成されたバイオメトリックデータと特定の感情状態を相関させるステップは、持続時間(例えば、刺激がエンドユーザに提示されている間、エンドユーザが3次元環境と相互作用する、刺激がエンドユーザに提示される時間周期および回数のうちの1つである)を追跡するステップと、追跡された持続時間と閾値持続時間を比較し、比較に基づいて、生成されたバイオメトリックデータと特定の感情状態を相関させるステップとを含む。別の実施形態では、生成されたバイオメトリックデータと特定の感情状態を相関させるステップは、異なる刺激を用いて、刺激提示、バイオメトリックパラメータ感知、およびバイオメトリックデータ生成ステップを数回繰り返し、エンドユーザにおいて異なる感情状態または異なる感情状態の程度を引き起こすステップと、特定の感情状態に最良に合致する、バイオメトリックデータを選択するステップとを含む。
本方法はさらに、基準バイオメトリックデータを相関バイオメトリックデータから導出するステップと、基準バイオメトリックデータを特定の感情状態と相関させてエンドユーザのカスタムプロファイル内に記憶するステップとを含む。一実施形態では、感知されたバイオメトリックパラメータのうちの1つに関して生成されたバイオメトリックデータは、バイオメトリックスカラーデータ値であって、基準バイオメトリックデータは、基準バイオメトリック値範囲を含む。別の実施形態では、感知されたバイオメトリックパラメータのうちの1つに関して生成されたバイオメトリックデータは、バイオメトリック多次元データベクトルであって、基準バイオメトリックデータは、基準バイオメトリック多次元データベクトルを含む。
随意の方法はさらに、別の3次元環境の状況下、後続刺激(以前に提示される刺激と異なり得る)をエンドユーザに提示するステップと、続いて提示される刺激に応答して、エンドユーザの少なくとも1つの感知されるバイオメトリックパラメータを感知するステップと、続いて提示される刺激に応答して感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成するステップと、基準バイオメトリックデータをカスタムプロファイルから読み出すステップと、生成されたバイオメトリックデータと読み出された基準バイオメトリックデータを比較するステップと、比較に基づいて、エンドユーザが特定の感情状態にあることを決定するステップとを含む。
本発明の付加的および他の目的、特徴、および利点は、発明を実施するための形態、図、および請求項に説明される。
本発明は、例えば、以下を提供する。
(項目1)
仮想画像生成システムを動作させる方法であって、
エンドユーザが少なくとも1つの仮想オブジェクトを備える3次元環境と相互作用することを可能にするステップと、
前記3次元環境の状況下、刺激を前記エンドユーザに提示するステップと、
前記エンドユーザへの刺激の提示に応答して、前記エンドユーザの少なくとも1つのバイオメトリックパラメータを感知するステップと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成するステップと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎の前記バイオメトリックデータに基づいて、前記エンドユーザが少なくとも1つの特定の感情状態にあるかどうかを決定するステップと、
少なくとも部分的に、前記エンドユーザが前記少なくとも1つの特定の感情状態にあることが決定されるかどうかに基づいて、前記エンドユーザに判別可能なアクションを実施し、現在の目標を促進するステップと
を含む、方法。
(項目2)
前記現在の目標は、所望の持続時間にわたって、前記エンドユーザにおいて所望の感情状態を引き起こすこと、または所望の持続時間にわたって、前記エンドユーザにおいて望ましくない感情状態を引き起こさないこと、または所望の持続時間にわたって、前記エンドユーザにおいて複数の異なる所望の感情状態を引き起こすことである、項目1に記載の方法。
(項目3)
前記所望の持続時間は、関連時間周期にわたって1回、関連時間周期にわたって複数回、または関連時間周期にわたって継続的にである、項目2に記載の方法。
(項目4)
前記現在の目標は、所望の持続時間にわたって、前記エンドユーザにおいて所望の感情状態を引き起こすことであり、前記少なくとも1つの特定の感情状態は、前記所望の感情状態と一致し、前記エンドユーザは、前記所望の持続時間にわたって、前記少なくとも1つの特定の感情状態にあると決定され、前記アクションを実施するステップは、前記刺激を前記エンドユーザに対してより利用可能にするステップを含む、項目2に記載の方法。
(項目5)
前記現在の目標は、所望の持続時間にわたって、前記エンドユーザにおいて所望の感情状態を引き起こすことであり、前記少なくとも1つの特定の感情状態は、前記所望の感情状態と一致し、前記エンドユーザは、前記所望の持続時間にわたって、前記少なくとも1つの特定の感情状態にないと決定され、前記アクションを実施するステップは、前記刺激を前記エンドユーザに対してあまり利用可能にしないステップを含む、項目2に記載の方法。
(項目6)
前記現在の目標は、所望の持続時間にわたって、前記エンドユーザにおいて望ましくない感情状態を引き起こさないことであり、前記少なくとも1つの特定の感情状態は、前記望ましくない感情状態と一致し、前記エンドユーザは、前記所望の持続時間にわたって、前記少なくとも1つの特定の感情状態にないと決定され、前記アクションを実施するステップは、前記刺激を前記エンドユーザに対してより利用可能にするステップを含む、項目2に記載の方法。
(項目7)
前記現在の目標は、所望の持続時間にわたって、前記エンドユーザにおいて望ましくない感情状態を引き起こさないことであり、前記少なくとも1つの特定の感情状態は、前記望ましくない感情状態と一致し、前記エンドユーザは、前記所望の持続時間にわたって、前記少なくとも1つの特定の感情状態にあると決定され、前記アクションを実施するステップは、前記刺激を前記エンドユーザに対してあまり利用可能にしないステップを含む、項目2に記載の方法。
(項目8)
前記少なくとも1つの特定の感情状態は、複数の異なる感情状態を含む、項目2に記載の方法。
(項目9)
前記現在の目標は、所望の持続時間にわたって、前記エンドユーザにおいて複数の異なる所望の感情状態を引き起こすことであり、前記複数の異なる感情状態は、前記複数の所望の感情状態と一致し、前記エンドユーザは、前記所望の持続時間にわたって、前記複数の異なる感情状態にあると決定され、前記アクションを実施するステップは、前記刺激を前記エンドユーザに対してより利用可能にするステップを含む、項目8に記載の方法。
(項目10)
前記現在の目標は、所望の持続時間にわたって、前記エンドユーザにおいて複数の異なる所望の感情状態を引き起こすことであり、前記複数の異なる感情状態は、前記複数の所望の感情状態と一致し、前記エンドユーザは、前記所望の持続時間にわたって、前記複数の異なる感情状態にないと決定され、前記アクションを実施するステップは、前記刺激を前記エンドユーザに対してあまり利用可能にしないステップを含む、項目8に記載の方法。
(項目11)
前記刺激は、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートの形態をとり、前記アクションを実施するステップは、前記ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートを前記エンドユーザに対してより利用可能にする、またはあまり利用可能にしないステップを含む、項目2に記載の方法。
(項目12)
前記刺激は、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートの特徴の形態をとり、前記アクションを実施するステップは、前記ビデオゲーム、プログラム、音楽背景曲、報酬、またはアラートを前記エンドユーザに対してより利用可能にする、またはあまり利用可能にしないステップを含む、項目2に記載の方法。
(項目13)
前記刺激は、戦略的ビデオゲームの形態をとり、前記現在の目標は、前記戦略的ビデオゲームにおいて前記エンドユーザを負かすことであり、前記アクションを実施するステップは、前記エンドユーザに対する特定の感情状態決定を使用してゲームを進めるステップを含む、項目1に記載の方法。
(項目14)
前記戦略的ビデオゲームは、前記エンドユーザと対戦する1人以上のシミュレートされたプレーヤを有するカードプレービデオゲームであり、前記少なくとも1つの特定の感情状態は、前記エンドユーザがはったりをかけているかどうかを示すものであり、前記アクションを実施するステップは、前記1人以上のシミュレートされたプレーヤが、前記エンドユーザがはったりをかけているかどうかの知識を使用して、前記エンドユーザとカードをプレーするステップを含む、項目13に記載の方法。
(項目15)
前記カードプレービデオゲームは、ポーカービデオゲームである、項目14に記載の方法。
(項目16)
前記刺激は、前記エンドユーザに提示される質問の形態をとり、前記現在の目標は、前記質問に応答して、前記エンドユーザが嘘をついているかどうかを決定することであり、前記アクションを実施するステップは、特定の感情状態決定を使用して、前記エンドユーザに前記エンドユーザが嘘をついているかどうかを知らせるステップを含む、項目1に記載の方法。
(項目17)
前記刺激は、前記エンドユーザに提示される複数のオプションの形態をとり、前記現在の目標は、前記エンドユーザが考えている前記複数のオブジェクトのうちの1つを決定することであり、前記アクションを実施するステップは、特定の感情状態決定を使用して、前記エンドユーザに前記エンドユーザが考えているオブジェクトを知らせるステップを含む、項目1に記載の方法。
(項目18)
前記刺激は、シミュレートされた顔の形態をとり、前記現在の目標は、前記エンドユーザを笑わせることであり、前記アクションを実施するステップは、特定の感情状態決定を使用して、前記エンドユーザが笑いそうであるかどうかを決定し、前記エンドユーザを笑わせるように前記シミュレートされた顔を修正するステップを含む、項目1に記載の方法。
(項目19)
前記エンドユーザの少なくとも1つのバイオメトリックパラメータは、前記刺激の提示に応答して、複数の異なる時間に感知され、前記バイオメトリックデータは、これらの異なる時間に生成される、項目1に記載の方法。
(項目20)
前記刺激は、前記エンドユーザに視覚的に提示される、または聴覚的に提示される、項目1に記載の方法。
(項目21)
前記少なくとも1つの感知されるバイオメトリックパラメータは、複数の異なる感知されるバイオメトリックパラメータを含む、項目1に記載の方法。
(項目22)
前記エンドユーザが前記少なくとも1つの特定の感情状態にあるかどうかを決定するステップは、パターン認識分析を前記生成されたバイオメトリックデータに実施するステップを含む、項目21に記載の方法。
(項目23)
前記少なくとも1つの感知されるバイオメトリックパラメータは、少なくとも1つの表情を含む、項目1に記載の方法。
(項目24)
前記少なくとも1つの表情は、前記エンドユーザの口角および眼の周囲の目尻の皺の一方または両方である、項目23に記載の方法。
(項目25)
前記少なくとも1つの特定の感情状態は、楽しさを含む、項目24に記載の方法。
(項目26)
前記少なくとも1つの感知されるバイオメトリックパラメータは、表情、肩をすぼめること、呼吸数、心拍数、体温、血圧、手の移動の頻度および/または場所、身体がぴくぴくする頻度および/または場所、および眼の移動の間の経過時間のうちの少なくとも1つを含む、項目1に記載の方法。
(項目27)
前記少なくとも1つの感知されるバイオメトリックパラメータは、少なくとも1つの微表情を含む、項目1に記載の方法。
(項目28)
前記少なくとも1つの特定の感情状態は、怒り、軽蔑、嫌悪、恐れ、楽しさ、悲しみ、驚き、混乱、羞恥心、警戒心、疲労、リラックス、欲求不満、退屈、当惑のうちの少なくとも1つを含む、項目1に記載の方法。
(項目29)
前記エンドユーザが前記少なくとも1つの特定の感情状態にあるかどうかを決定するステップは、前記生成されたバイオメトリックデータと前記少なくとも1つの特定の感情状態と相関される基準バイオメトリックデータを比較するステップを含む、項目1に記載の方法。
(項目30)
前記少なくとも1つの感知されるバイオメトリックパラメータのうちの1つに関して生成されたバイオメトリックデータは、バイオメトリックスカラーデータ値であり、前記基準バイオメトリックデータは、基準バイオメトリック値範囲を含み、前記生成されたバイオメトリックデータと前記基準バイオメトリックデータを比較するステップは、前記バイオメトリックスカラーデータ値が前記基準バイオメトリック値範囲内にあるかどうかを決定するステップを含む、項目29に記載の方法。
(項目31)
前記少なくとも1つの感知されるバイオメトリックパラメータのうちの1つに関して生成されたバイオメトリックデータは、バイオメトリック多次元データベクトルであり、前記基準バイオメトリックデータは、基準バイオメトリック多次元データベクトルを含み、前記生成されたバイオメトリックデータと前記基準バイオメトリックデータを比較するステップは、前記生成されたバイオメトリック多次元データベクトルと前記基準バイオメトリック多次元データベクトルとの間の相関関数を実施するステップを含む、項目29に記載の方法。
(項目32)
前記エンドユーザが前記少なくとも1つの特定の感情状態にあるかどうかを決定するステップはさらに、前記基準バイオメトリックデータを前記エンドユーザのカスタム感情状態プロファイルから読み出すステップを含む、項目29に記載の方法。
(項目33)
前記エンドユーザが前記3次元環境と相互作用することを可能にするステップは、3次元環境の複数の合成画像フレームをレンダリングし、前記合成画像フレームを前記エンドユーザに連続して表示するステップを含む、項目1に記載の方法。
(項目34)
前記合成画像フレームは、前記エンドユーザの頭部に搭載されるフレーム構造を介して、前記エンドユーザの視野内に透明ディスプレイ表面から投影される、項目33に記載の方法。
(項目35)
前記合成画像フレームは、前記エンドユーザによって可視化される実場面にわたって重畳される、項目33に記載の方法。
(項目36)
仮想画像生成システムを動作させる方法であって、
エンドユーザが少なくとも1つの仮想オブジェクトを備える3次元環境と相互作用することを可能にするステップと、
前記3次元環境の状況下、刺激を前記エンドユーザに提示するステップと、
前記提示される刺激に応答して、前記エンドユーザの少なくとも1つの感知されるバイオメトリックパラメータを感知するステップと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成するステップと、
前記生成されたバイオメトリックデータと前記エンドユーザの特定の感情状態を相関させるステップと、
基準バイオメトリックデータを前記相関バイオメトリックデータから導出するステップと、
前記基準バイオメトリックデータを前記特定の感情状態と相関させて前記エンドユーザのカスタムプロファイル内に記憶するステップと
を含む、方法。
(項目37)
前記生成されたバイオメトリックデータは、特定の信頼度レベルを伴って、前記特定の感情状態と相関される、項目36に記載の方法。
(項目38)
前記生成されたバイオメトリックデータと前記特定の感情状態を相関させるステップは、前記刺激が前記エンドユーザに提示されている間、前記エンドユーザが前記3次元環境と相互作用する持続時間を追跡するステップを含む、項目36に記載の方法。
(項目39)
前記生成されたバイオメトリックデータと前記特定の感情状態を相関させるステップはさらに、前記追跡された持続時間と閾値持続時間を比較し、前記比較に基づいて、前記生成されたバイオメトリックデータと前記特定の感情状態を相関させるステップを含む、項目38に記載の方法。
(項目40)
前記持続時間は、前記刺激が前記エンドユーザに提示される時間周期および回数のうちの1つである、項目39に記載の方法。
(項目41)
前記生成されたバイオメトリックデータと前記特定の感情状態を相関させるステップは、
異なる刺激を用いて、刺激提示、バイオメトリックパラメータ感知、およびバイオメトリックデータ生成ステップを数回繰り返し、前記エンドユーザにおいて異なる感情状態または異なる感情状態の程度を引き起こすステップと、
前記特定の感情状態に最良に合致する、バイオメトリックデータを選択するステップと、
を含む、項目36に記載の方法。
(項目42)
別の3次元環境の状況において、後続刺激を前記エンドユーザに提示するステップと、
後続して提示される刺激に応答して、前記エンドユーザの少なくとも1つの感知されるバイオメトリックパラメータを感知するステップと、
前記後続して提示される刺激に応答して感知される前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成するステップと、
前記基準バイオメトリックデータを前記カスタムプロファイルから読み出すステップと、
前記生成されたバイオメトリックデータと前記読み出された基準バイオメトリックデータを比較するステップと、
前記比較に基づいて、前記エンドユーザが前記特定の感情状態にあることを決定するステップと
をさらに含む、項目36に記載の方法。
(項目43)
前記後続刺激は、以前に提示される刺激と異なる、項目42に記載の方法。
(項目44)
前記刺激は、前記エンドユーザに視覚的に提示される、または聴覚的に提示される、項目36に記載の方法。
(項目45)
前記刺激は、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートである、項目36に記載の方法。
(項目46)
前記刺激は、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートの特徴である、項目36に記載の方法。
(項目47)
前記少なくとも1つの感知されるバイオメトリックパラメータは、複数の異なる感知されるバイオメトリックパラメータを含む、項目36に記載の方法。
(項目48)
前記少なくとも1つの感知されるバイオメトリックパラメータは、少なくとも1つの表情を含む、項目36に記載の方法。
(項目49)
前記少なくとも1つの表情は、前記エンドユーザの口角および眼の周囲の目尻の皺の一方または両方である、項目48に記載の方法。
(項目50)
前記少なくとも1つの特定の感情状態は、楽しさを含む、項目49に記載の方法。
(項目51)
前記少なくとも1つの感知されるバイオメトリックパラメータは、表情、肩をすぼめること、呼吸数、心拍数、体温、血圧、手の移動の頻度および/または場所、身体がぴくぴくする頻度および/または場所、および眼の移動の間の経過時間のうちの少なくとも1つを含む、項目36に記載の方法。
(項目52)
前記少なくとも1つの感知されるバイオメトリックパラメータは、少なくとも1つの微表情を含む、項目36に記載の方法。
(項目53)
前記少なくとも1つの特定の感情状態は、怒り、軽蔑、嫌悪、恐れ、楽しさ、悲しみ、驚き、混乱、羞恥心、警戒心、疲労、リラックス、欲求不満、退屈、当惑のうちの少なくとも1つを含む、項目36に記載の方法。
(項目54)
前記少なくとも1つの感知されるバイオメトリックパラメータのうちの1つに関して生成されたバイオメトリックデータは、バイオメトリックスカラーデータ値であり、前記基準バイオメトリックデータは、基準バイオメトリック値範囲を含む、項目36に記載の方法。
(項目55)
前記少なくとも1つの感知されるバイオメトリックパラメータのうちの1つに関して生成されたバイオメトリックデータは、バイオメトリック多次元データベクトルであり、前記基準バイオメトリックデータは、基準バイオメトリック多次元データベクトルを含む、項目36に記載の方法。
(項目56)
前記エンドユーザが前記3次元環境と相互作用することを可能にするステップは、3次元環境の複数の合成画像フレームをレンダリングし、前記合成画像フレームを前記エンドユーザに連続して表示するステップを含む、項目36に記載の方法。
(項目57)
前記合成画像フレームは、前記エンドユーザの頭部に搭載されるフレーム構造を介して、前記エンドユーザの視野内に位置付けられるディスプレイ表面上に表示される、項目56に記載の方法。
(項目58)
前記合成画像フレームは、前記エンドユーザによって可視化される実場面にわたって重畳される、項目56に記載の方法。
図面は、本発明の好ましい実施形態の設計および有用性を図示し、類似要素は、共通参照番号によって参照される。本発明の前述および他の利点および目的が得られる方法をより深く理解するために、簡単に前述された本発明のより詳細な説明が、付随の図面に図示されるその特定の実施形態を参照することによって与えられるであろう。これらの図面は、本発明の典型的実施形態のみを描写し、したがって、その範囲の限定と見なされるべきではないことを理解した上で、本発明は、付随の図面の使用を通して付加的具体性および詳細とともに説明および記載されるであろう。
図1は、先行技術の拡張現実生成デバイスによってエンドユーザに表示され得る、3次元拡張現実場面の写真である。 図2は、本発明の一実施形態に従って構築される、拡張現実システムのブロック図である。 図3aは、図2の拡張現実システムを装着するために使用され得る、1つの技法の図である。 図3bは、図2の拡張現実システムを装着するために使用され得る、別の技法の図である。 図3cは、図2の拡張現実システムを装着するために使用され得る、さらに別の1つの技法の図である。 図3dは、図2の拡張現実システムを装着するために使用され得る、さらに別の1つの技法の図である。 図4は、図2の拡張現実システムを動作させ、エンドユーザに関するカスタム感情状態プロファイルを生成する方法を図示する、フロー図である。 図5は、図2の拡張現実システムを動作させ、エンドユーザにおける感情状態の感知に基づいて、アクションを実施する方法を図示する、フロー図である。
続く説明は、拡張現実システムにおいて使用されるべきディスプレイシステムおよび方法に関する。しかしながら、本発明は、拡張現実における用途に有用であるが、本発明は、その最も広範な側面では、そのように限定されない場合があることを理解されたい。例えば、本発明は、仮想現実システムを含む、任意の仮想画像生成システムに適用されることができる。したがって、多くの場合、拡張現実システムの観点から本明細書に説明されるが、本教示は、そのような使用のそのようなシステムに限定されるべきではない。
図2を参照して、本発明に従って構築された拡張現実システム100の一実施形態が、ここで説明されるであろう。拡張現実システム100は、エンドユーザ50の視野内の実際のオブジェクトと混合された仮想オブジェクトの画像を提供する。拡張現実システム100および本明細書に教示される種々の技法は、拡張現実以外の用途で採用されてもよい。例えば、種々の技法は、任意の投影またはディスプレイシステムに適用されてもよい。または、本明細書に説明される種々の技法は、移動が、頭部ではなく、エンドユーザの手によって行われ得る、ピコプロジェクタに適用されてもよい。したがって、多くの場合、拡張現実システムの観点から本明細書に説明されるが、本教示は、そのような使用のそのようなシステムに限定されるべきではない。
拡張現実システム100を動作させるときの2つの基本アプローチが存在する。「ビデオシースルー」と称される、第1のアプローチでは、拡張現実システム100は、実場面の要素を捕捉し、仮想オブジェクトを捕捉された実場面上に重畳し、複合画像をエンドユーザ50にディスプレイ上で提示する。「光学シースルー」と称される、第2のアプローチでは、エンドユーザ50には、直接、透明または半透明ディスプレイを通して、実場面が見え、拡張現実システム100は、仮想オブジェクトをディスプレイ上で実場面のエンドユーザのビューにわたって重畳する。
本発明により関連して、拡張現実システム100は、以下にさらに詳細に説明されるであろうように、3次元環境の状況下、エンドユーザへの刺激の提示に応答して、エンドユーザの感情状態を決定し、拡張現実システム100の現在の目標に従って、決定された感情状態に応答して、エンドユーザ50に判別可能なアクションを実施する。本明細書では、用語「感情状態」は、限定ではないが、「楽しさ」、「悲しみ」、「欲求不満」等の一般に静的感情状態と称されるものを網羅すると意味するように使用される。
拡張現実システム100は、エンドユーザ50によって装着されるフレーム構造102と、ディスプレイシステム104がエンドユーザ50の眼52の正面に位置付けられるように、フレーム構造102によって担持されるディスプレイシステム104と、スピーカ106がエンドユーザ50の外耳道に隣接して位置付けられる(随意に、別のスピーカ(図示せず)がエンドユーザ50の他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供する)ように、フレーム構造102によって担持されるスピーカ106とを備える。ディスプレイシステム104は、合成画像フレームをエンドユーザ50に順次表示し、図示される実施形態では、エンドユーザ50の眼52に、高レベルの画質および3次元知覚を伴って、物理的的現実に対する仮想コンテンツ拡張として快適に知覚され、かつ2次元コンテンツを提示可能であり得る、画像毎に変調される光を提示するように設計される。ディスプレイシステム104は、フレームのシーケンスを高周波数で提示し、単一コヒーレント場面の知覚を提供する。
図示される実施形態では、ディスプレイシステム104は、投影サブシステム108と、それを通して投影サブシステム108が画像をユーザ50の視野内に投影する、部分的に透明なアイピース110とを備える。アイピース110は、エンドユーザ50の眼52と周囲環境との間のエンドユーザ50の視野内に位置付けられる。図示される実施形態では、投影サブシステム108は、1つ以上の光ファイバ112(例えば、単一モード光ファイバ)を含み、それぞれ、その中に光が受信される一端112aと、そこから光が部分的に透明なアイピース110に提供される別の端部112bとを有する。投影サブシステム108はまた、光を生成し(例えば、異なる色の光を定義されたパターンで放出し)、光を光ファイバ112の他端112aに通信可能に結合する、1つ以上の光源114を含んでもよい。光源114は、それぞれ、ピクセル情報またはデータの個別のフレーム内に規定された定義されたピクセルパターンに従って、赤色、緑色、および青色のコヒーレントなコリメートされた光を生成するように動作可能な多種多様な形態、例えば、RGBレーザのセット(例えば、赤色、緑色、および青色光を出力可能なレーザダイオード)のいずれかをとることができる。レーザ光は、高色飽和を提供し、非常にエネルギー効率的である。
ディスプレイシステム104はさらに、制御信号に応答して所定のパターンで光ファイバ112を走査する、走査デバイス116を備えてもよい。ディスプレイシステム104の実施例を説明するさらなる詳細は、「Display System and Method」と題された米国特許出願第14/212,961号(参照することによって明示的に本明細書に組み込まれる)に提供される。ディスプレイシステム104は、走査ファイバ技術を用いて実装されるものとして説明されるが、ディスプレイシステム104は、任意のディスプレイ技術、例えば、液晶ディスプレイ(LCD)、デジタル光処理(DLP)ディスプレイ等に基づいてもよいことを理解されたい。
図2に戻って参照すると、拡張現実システム100はさらに、1つ以上のセンサ126を備える。センサ126は、エンドユーザ50の頭部54の移動(例えば、速度、加速、および位置)および/またはエンドユーザ50の眼位置および眼球間距離(移動、瞬目、および焦点深度)についての情報を感知、測定、または収集し、エンドユーザ50が3次元環境に没入するように、エンドユーザ50の視点から、3次元環境の画像のレンダリングを促進する。
本発明により重要なこととして、エンドユーザ50に提示される刺激に応答して、センサ126は、エンドユーザ50のバイオメトリックパラメータを感知し、これらの感知されるバイオメトリックパラメータを表すバイオメトリックデータを生成するために構成される。拡張現実システム100によって生成された刺激は、エンドユーザ50によって物理的反応を引き起こし得る、任意の刺激であることができる。刺激は、ディスプレイシステム104を介して、エンドユーザ50に視覚的に提示される、および/またはスピーカ106を介して、エンドユーザ50に聴覚的に提示されてもよい。刺激はさらに、機械的アクチュエータ(図示せず)を介して、エンドユーザ50に触覚的に提示されてもよい。各バイオメトリックパラメータは、特定の刺激の提示に応答して、1回のみまたは複数の異なる時間に感知されることができ、バイオメトリックデータは、個別のバイオメトリックパラメータが感知される度に生成される。感知されるバイオメトリックパラメータ毎のバイオメトリックデータは、1つ以上の値の形態をとってもよい。例えば、バイオメトリックデータは、感知されるバイオメトリックパラメータ毎に、単一データ値(例えば、スカラーデータ値の形態)、1次元アレイのデータ値(例えば、特徴ベクトル)、または2次元アレイのデータ値(例えば、画像データの形態)であってもよい。
ある場合では、刺激は、ある仮想オブジェクト(例えば、画面)が別の仮想オブジェクト(例えば、別の画面)に遷移する様式に関連してもよい。例えば、ある画面は、別の画面に瞬間的に遷移してもよい、またはある画面は、別の画面の中に消失してもよい。この場合、異なる刺激は、ある画面が別の画面に遷移する方法であって、これは、エンドユーザ50において異なる感情を引き起こし得る。例えば、エンドユーザ50は、画面間の瞬間遷移に対して満足を体験するが、画面間で消失する遷移に対して欲求不満を体験し得る。
別の場合では、刺激は、仮想オブジェクト(例えば、メニュー)の構成に関連してもよい。例えば、あるタイプのメニューは、正方形ボタンを有してもよく、別のタイプのメニューは、円形ボタンを有してもよい。この場合、異なる刺激は、メニューの異なる構成であって、これは、エンドユーザ50において異なる感情を引き起こし得る。例えば、エンドユーザ50は、正方形ボタンを有するメニューに対してリラックスを体験するが、円形ボタンを有するメニューに対して退屈を体験し得る。
さらに別の場合では、刺激は、背景楽曲またはその特徴のジャンルに関連してもよい。例えば、あるタイプの音楽(例えば、ロック)が、背景で再生されることができる、または別のタイプの音楽(例えば、クラッシック)が、背景で再生されてもよい。この場合、異なる刺激は、異なるタイプの音楽であって、これは、エンドユーザ50において異なる感情を引き起こし得る。例えば、エンドユーザ50は、ロック音楽に対して不安を体験するが、クラシック音楽に対して喜びを体験し得る。
さらに別の場合では、刺激は、アラートの性質に関連してもよい。例えば、あるタイプのアラート(例えば、フープ音(whooping sound))が、エンドユーザ50に発報されることができる、または別のタイプのアラート(例えば、点滅光)が、エンドユーザ50に表示されることができる。この場合、異なる刺激は、異なるタイプのアラートであって、これは、エンドユーザ50において異なる感情を引き起こし得る。例えば、エンドユーザ50は、フープ音に対して警戒心を体験し得るが、点滅光に対して注意散漫を体験し得る。
さらに別の場合では、刺激は、ビデオゲームまたはプログラムまたはその特徴に関連してもよい。例えば、あるタイプのビデオゲーム(例えば、アクションビデオゲーム)が、エンドユーザ50に提示されることができる、または別のタイプのビデオゲーム(例えば、戦略的ビデオゲーム)が、エンドユーザ50に提示されることができる。この場合、異なる刺激は、異なるビデオゲームであって、これは、エンドユーザ50において異なる感情を引き起こし得る。例えば、エンドユーザ50は、アクションビデオゲームに対して興奮またはある範囲の異なる感情を体験するが、知的ビデオゲームに対して退屈を体験し得る。
さらに別の場合では、刺激は、3次元環境と相互作用するエンドユーザ50の成功結果に応答してエンドユーザ50に提示される視聴覚報酬(例えば、ビデオゲームをプレーしているとき)、またはさらに、3次元環境と相互作用するエンドユーザ50の不成功結果に応答してエンドユーザ50に提示される視聴覚ペナルティに関連してもよい。これらの報酬/ペナルティは、単純オーディオビープ音から精巧な動画まで、長さ、持続時間、コンテンツ等が変動してもよい。報酬/ペナルティは、例えば、イヌ、ペーパークリップ、ダンスするゴブリンの群れ、フィストバンプまたはハイタッチ、スロットマシン雑音、映画からの場面等を特徴としてもよい。
さらに別の場合では、刺激はさらに、3次元環境から生じる周囲光またはユーザ50の視野内の3次元環境のビデオであることができる。後者の場合では、前向きに面したカメラ(図示せず)が、フレーム構造102に搭載され、ユーザ50の視野内の3次元環境の画像を捕捉してもよい。
生成されたバイオメトリックデータは、エンドユーザ50が刺激を提示されるにつれて、エンドユーザ50の感情状態を決定するために使用されるであろう。そのような感情状態は、限定ではないが、怒り、軽蔑、嫌悪、恐れ、楽しさ、悲しみ、および驚き等の7つの基本感情を含んでもよいが、混乱、羞恥心、警戒心、疲労、リラックス、欲求不満、退屈、当惑等の他の感情状態が存在してもよい。
各バイオメトリックパラメータは、エンドユーザ50の感情状態を示す物理的反応に関連する、任意のパラメータの形態をとってもよい。エンドユーザ50の感情状態の最良の物理的インジケータは、エンドユーザ50の表情である。ヒトの表情は、顔の皮膚および筋膜を接続する、筋肉の移動によって生じる。これらの筋肉は、皮膚を移動させ、線および皺を作成し、口および眉毛等の顔特徴の移動を生じさせる。
恐れの感情は、典型的には、眉毛を寄せて形成された皺、こわばり、引きつった眼瞼、および若干うなだれた頭部と顰められた眉毛から覗く眼によって表される。表情は、緊張し、歪んでいる。軽蔑の感情は、典型的には、一方の口角が引きつり、中立位置の眼を伴う、一方向(片側)の表情によって表される。嫌悪の感情は、顰められた眉毛、皺を寄せた鼻、および唇が緩んだまま引き上げられた上唇によって表され得る。恐れの感情は、典型的には、見開かれた眼、上向きに傾いた眉毛、および若干開いた口によって表される。楽しさの感情は、典型的には、笑顔(上向きに持ち上げられた口角)、上を向いた頬、三日月形状の眼、見えている歯、および眼の周囲の目尻の皺によって表される。悲しみの感情は、典型的には、顰めっ面、上向きに傾いた眉毛、および下向きに弛んだ顔によって表される。驚きの感情は、典型的には、見開いた眼とぽっかり開いた口およびより大きな瞳孔によって表される。混乱の感情は、典型的には、皺の寄った前額および鼻、片方が上がった眉毛、およびすぼめた唇によって表される。羞恥心の感情は、典型的には、下向きに向いた眼、うなだれた頭部、および顰めっ面または中立口(下がったまたは持ち上げられていない口角)によって表される。警戒心の感情は、典型的には、人物があるオブジェクトに集中している場合の眼の凝視、または人物がある考えに集中している場合の瞬目の殆どない上向きの眼または片側に逸れた眼によって表される。疲労の感情は、典型的には、半開きの眼瞼であるが、持ち上げられた眉毛によって表される。リラックスの感情は、典型的には、若干の笑顔および若干閉鎖された眼瞼によって表される。欲求不満の感情は、典型的には、皺が形成された内向きに傾いた眉毛、持ち上げられた顎、すぼめた唇、片側に捻れた口、および頬の皺によって表される。退屈の感情は、典型的には、半開きの眼瞼、持ち上げられた眉毛、および若干片側にすぼめた口によって表される。当惑の感情は、典型的には、口角を持ち上げずに作られた笑みである引きつった笑顔および赤面によって表される。
したがって、各バイオメトリックパラメータは、限定ではないが、口角(または形状)、眼の周囲の目尻の皺、眉毛の角度、および眼の移動を含む、表情に関わる身体特徴に関連するが、肩をすぼめること、呼吸数、心拍数、体温、血圧、手の移動の頻度および/または場所、および身体がぴくぴくする頻度および/または場所等の表情に関わらない身体特徴に関連するバイオメトリックパラメータも、使用されてもよい。
微表情は、数分の1秒にわたって人物の顔上によぎる表情であって、ヒトの真の気持ちまたは感情を決定することに役立つことができる。微表情の基本特性は、口、眼の移動、および眉毛を通した不随意的漏出であって、高速であって、多くの場合、人物が誠実であるかどうかを決定するために使用される。典型的には、嘘をついている人物の感情状態は、前額の隙間に向かって上向きに引き上げられた眉毛、前額の皮膚を横断して表れる短線、唇のこわばり、すぼめられた唇、上方および左または右への眼の移動、高速眼瞬目等によって特徴付けられる、苦悩状態のうちの1つとなるであろう。
センサ126は、画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープを含んでもよい。例えば、センサ126は、口角、眼の周囲の目尻の皺を含む顔の皺、眉毛の角度、および眼の移動の間の経過時間を含む、エンドユーザ50の物理的顔反応を追跡するためのフレーム構造102に搭載される、一対の後ろ向きに面したカメラを含んでもよい。エンドユーザ50の眼52の移動、瞬目、および焦点深度は、光を眼52に投影させ、その投影された光の少なくとも一部の戻りまたは反射を検出することによって、判別されることができる。眼追跡デバイスについて議論するさらなる詳細は、「Display System and Method」と題された米国特許出願第xx/xxx,xxx号(弁理士整理番号ML−30006−US)、「Methods and System for Creating Focal Planes in Virtual and Augmented Reality」と題された米国特許出願第xx/xxx,xxx号(弁理士整理番号ML−30017−US)、および「System and Method for Augmented and Virtual Reality」と題された米国特許出願第xx/xxx,xxx号(弁理士整理番号ML−30005−US)(参照することによって明示的に本明細書に組み込まれる)に提供される。センサ126は、手の移動の頻度および/または場所、身体がぴくぴくする頻度および/または場所、およびすくめられた肩を追跡するためのエンドユーザ50の関連身体部分に搭載される、加速度計を含んでもよい。センサ126は、エンドユーザ50の呼吸数、心拍数、体温、および血圧を感知するための従来のバイタルサインセンサを含んでもよい。
拡張現実システム100は、センサ126によって生成されたバイオメトリックデータに基づいて、エンドユーザ50の感情状態を決定し、特に、生成されたバイオメトリックデータを特定の感情状態として解釈するために構成される、感情状態決定モジュール128を備える。感情状態決定モジュール128を補助するために、拡張現実システム100はさらに、図示される実施形態では、センサ126によって感知される関連バイオメトリックパラメータに関する基準バイオメトリックデータと1つ以上の感情状態を相関させる、エンドユーザ50に関する感情状態プロファイルを記憶するために構成される、感情状態データベース130を備える。図示される実施形態では、感情状態決定モジュール128は、例えば、パターン認識分析を使用して、現在生成されているバイオメトリックデータとエンドユーザ50の感情状態プロファイル内の特定の着目感情状態と相関された基準バイオメトリックデータを比較することによって、センサ126によって生成されたバイオメトリックデータを特定の着目感情状態として解釈する。
例えば、喜びの感情に関して、特定のエンドユーザ50による楽しさを示すことが既知の基準バイオメトリックデータ(例えば、エンドユーザ50の口角およびエンドユーザ50の眼52の周囲の目尻の皺に関連するバイオメトリックデータ)が、感情状態データベース130内に記憶されてもよい。エンドユーザ50の他の感情状態と相関される基準バイオメトリックデータもまた、感情状態データベース130内に記憶されてもよい。したがって、感情状態決定モジュール128は、現在生成されているバイオメトリックデータと感情状態データベース130内に記憶される対応する基準バイオメトリックデータを比較し、合致が存在する場合、エンドユーザ50が本基準バイオメトリックデータと相関される感情状態にあることを決定し、合致が存在しない場合、エンドユーザ50が本感情状態にないことを決定してもよい。
以下にさらに詳細に説明されるであろうように、感情状態プロファイルは、例えば、エンドユーザ50によって被られる感情状態に一意のバイオメトリックデータを習得するために、いくつかの異なるタイプの刺激がエンドユーザ50に提示され得、着目感情状態に関連するバイオメトリックパラメータが感知され得る訓練セッションの間、エンドユーザ50に対して経時的にカスタマイズされることができる。したがって、バイオメトリックデータが、経時的に集められるにつれて、感情状態プロファイルが、エンドユーザ50に関して構築され、これは、その個人的かつ個々の身体表現とそれらによって反映される可能性が高い感情状態に合致させ、したがって、エンドユーザ50に関する感情状態のより正確な分析を徐々に有効にする。カスタム感情状態プロファイルは、エンドユーザ50が任意の刺激に応答する感情状態を決定するために使用されることができる。例えば、カスタム感情状態プロファイルは、エンドユーザ50がビデオゲームをプレーするにつれて、構築され、次いで、完全に異なるビデオゲームをプレーするとき、またはさらに非ビデオゲーム刺激に応答した、エンドユーザ50の感情状態を続いて決定するために使用されてもよい。
バイオメトリックデータの使用に加え、感情状態決定モジュール126は、非バイオメトリックデータを使用して、刺激に応答したエンドユーザ50の感情状態を決定することを補助してもよい。例えば、エンドユーザ50が3次元環境と相互作用する持続時間(例えば、刺激がエンドユーザに提示される時間周期または回数)が、刺激がエンドユーザ50に提示される間、追跡されてもよい。エンドユーザ50が、長時間にわたって、ビデオゲームをプレーしている場合、本時間の間に生成されたバイオメトリックデータは、エンドユーザ50の感情状態が楽しさであることの非常に良好なインジケーションである。本バイオメトリックデータは、次いで、カスタム感情状態プロファイル内に記憶され、楽しさの感情状態と相関されることができる。対照的に、エンドユーザ50が、短時間にわたって、ビデオゲームをプレーする場合、本時間の間に生成されたバイオメトリックデータは、エンドユーザ50の感情状態が退屈であることの非常に良好なインジケーションである。本バイオメトリックデータは、次いで、無視される、またはカスタム感情状態プロファイル内に記憶され、退屈の感情状態と相関されることができる。
生成されたバイオメトリックデータのパターン認識分析が特定の感情状態を明らかにするために、複数のバイオメトリックパラメータが、感知される必要があり得ることを理解されたい。例えば、楽しさを体験している人物は、笑っているであろうことが公知である。また、楽しさを体験していない人物は、愛想笑いをし得ることが公知である。しかしながら、楽しさを真に体験している人物は、目尻の皺を眼の周囲に有するであろう。したがって、センサ126から取得されるバイオメトリックデータが、エンドユーザ50が笑っており、目尻の皺を有することを示す場合、感情状態決定モジュール128は、エンドユーザ50が実際に楽しさを体験していることを決定し得る。しかしながら、センサ126から取得されるバイオメトリックデータが、エンドユーザ50が笑っているが、目尻の皺を有していないことを示す場合、感情状態決定モジュール128は、エンドユーザ50が実際には楽しさを体験してはいないことを決定し得る。
感情状態決定モジュール128が現在生成されているバイオメトリックデータと基準バイオメトリックデータを比較する、様式は、バイオメトリックデータの性質に依存するであろう。
特定のバイオメトリックパラメータに関して現在生成されているデータが、スカラーデータ値の形態をとる場合、その特定のバイオメトリックパラメータに対応する基準バイオメトリックデータは、1つ以上の値範囲の形態をとってもよい。例えば、バイオメトリックパラメータが、エンドユーザ50の口角であって、楽しさが、関連感情状態である場合、値範囲は、楽しいことが既知であるときのエンドユーザ50に関する笑顔を示すために、口角が上に向けられなければならないミリメートル単位に対応する距離範囲であってもよい。笑顔の程度を示す、複数の距離範囲が、使用されてもよい。例えば、距離範囲5〜10mmは、若干の笑顔を示し得、距離範囲10〜20mmは、中間笑顔を示し得、20mmを上回る範囲は、満面の笑顔を示し得る。現在生成されているバイオメトリックデータ値は、次いで、バイオメトリックデータ値が基準バイオメトリック値範囲内にあるかどうか、または複数の基準メトリック値範囲が存在するかどうか、該当する場合、バイオメトリックデータ値が当てはまる範囲を決定することによって、その特定のバイオメトリックパラメータに関する基準バイオメトリック値範囲と比較されてもよい。したがって、バイオメトリックデータ値が特定の基準バイオメトリック値範囲内にあるかどうかは、少なくとも部分的に、現在生成されているバイオメトリックデータと基準バイオメトリックデータとの間の合致を決定付けるであろう。
特定のバイオメトリックパラメータに関して現在生成されているデータが、多次元データベクトル(例えば、画像データ)の形態をとる場合、その特定のバイオメトリックパラメータに対応する基準バイオメトリックデータは、多次元アレイのデータおよび1つ以上の相関データ範囲の形態をとってもよい。例えば、バイオメトリックパラメータが、エンドユーザ50の眼の周囲の目尻の皺であって、楽しさが、関連感情状態である場合、目尻の皺と一致する基準データアレイの関連部分は、楽しいことが既知であるときのエンドユーザ50の画像データを備えてもよい。現在生成されているバイオメトリックデータベクトルは、次いで、係数(例えば、−1〜1の範囲内である)をもたらす、ピアソンの相関係数関数または最小2乗ベースの関数等の好適なデータアレイ比較関数を使用して、基準データアレイと比較されてもよい。本係数は、次いで、基準相関データ範囲と比較され、基準相関範囲内にあるかどうかを決定することができる。目尻の皺の程度を示す、複数の係数範囲が、使用されてもよく、その場合、係数は、複数の基準相関データ範囲と比較され、該当する場合、係数が当てはまる範囲を決定することができる。例えば、係数0.5〜0.7は、若干の目尻の皺を示し得、係数0.7〜0.85は、中間の目尻の皺を示し得、0.85を上回る係数は、完全な目尻の皺を示し得る。したがって、係数が特定の基準相関データ範囲内にあるかどうかは、少なくとも部分的に、現在生成されているバイオメトリックデータと基準バイオメトリックデータとの間の合致を決定付けるであろう。
複数のバイオメトリックパラメータが、エンドユーザ50が特定の感情状態にあるかどうかを決定するために使用される場合、現在生成されているバイオメトリックデータと個別のバイオメトリックパラメータに関する個別の基準バイオメトリックデータの間の比較の関数が、感情状態決定モジュール128によって、エンドユーザ50が対応する感情状態にあるかどうかを決定するために使用されることができる。この場合、複数のバイオメトリックパラメータに関する現在生成されているデータは、1次元アレイ(例えば、特徴ベクトル)の形態をとってもよい。例えば、特徴ベクトル内のあるスカラー要素は、笑顔の生物学的パラメータであってもよく、特徴ベクトル内の別のスカラー要素は、目尻の皺の生物学的パラメータであってもよい。
一実施例では、現在生成されているバイオメトリックデータは、エンドユーザ50が対応する感情状態にあることの決定をトリガするために、関連バイオメトリックパラメータの全てに関して基準バイオメトリックデータに合致しなければならない(例えば、現在生成されているデータ値は、関連バイオメトリックパラメータ毎に、基準データ範囲内になければならない)。別の実施例では、現在生成されているバイオメトリックデータは、エンドユーザ50が対応する感情状態にあることの決定をトリガするために、関連バイオメトリックパラメータの大部分にのみ関して基準バイオメトリックデータに合致しなければならない(例えば、現在生成されているデータ値は、関連バイオメトリックパラメータの大部分毎に、基準データ範囲内になければならない)。特定のバイオメトリックパラメータに関して生成されたバイオメトリックデータが個別の基準バイオメトリックデータに合致する、程度は、他のバイオメトリックパラメータに関して生成されたバイオメトリックデータが個別の基準バイオメトリックデータに合致する程度を含む、種々の要因に依存し得る。パターン認識の分類技法が、ユーザから取得される特定のバイオメトリックデータのセットが1つ以上の感情状態に対応する1つ以上の基準バイオメトリックデータセットに合致するかどうかを決定するために使用されてもよい。パターン認識分類子の実施例は、非限定的実施例として、混合ガウスモデルおよび人工ニューラルネットワークを含む。さらに、特定の感情状態に関する各関連バイオメトリックパラメータは、本感情状態に関する他の関連バイオメトリックパラメータより加重されてもよい。
例えば、目尻の皺の存在は、楽しさの感情状態を決定するとき、笑顔の存在より大きく加重されてもよい。例えば、現在生成されているバイオメトリックデータベクトルと目尻の皺を示す基準データアレイの比較から生じる係数が、中央または最高範囲(例えば、0.70を上回る)内にある場合、笑顔を示す現在生成されているバイオメトリックデータと基準バイオメトリックデータとの間の合致は、笑顔を示す現在生成されているバイオメトリック値が基準データ範囲のいずれか(例えば、5mmを上回る値)内にある場合に生じ、それによって、感情状態が楽しさであることの決定をトリガし得る。対照的に、現在生成されているバイオメトリックデータベクトルと目尻の皺を示す基準データアレイの比較から生じる係数が、最低範囲内にある(例えば、0.5〜0.7を上回る)場合、笑顔を示す現在生成されているバイオメトリックデータと基準バイオメトリックデータとの間の合致は、笑顔を示す現在生成されているバイオメトリック値が最高基準データ範囲(例えば、20mmを上回る値)内にある場合のみ生じ、それによって、感情状態が楽しさであることの決定をトリガし得る。
拡張現実システム100はさらに、多種多様な形態のいずれかをとり得る、制御サブシステムを備える。制御サブシステムは、いくつかのコントローラ、例えば1つ以上のマイクロコントローラ、マイクロプロセッサまたは中央処理ユニット(CPU)、デジタル信号プロセッサ、グラフィック処理ユニット(GPU)、他の集積回路コントローラ、例えば、特定用途向け集積回路(ASIC)、プログラマブルゲートアレイ(PGA)、例えば、フィールドPGA(FPGA)、および/またはプログラマブル論理コントローラ(PLU)を含む。
図示される実施形態では、拡張現実システム100は、中央処理ユニット(CPU)132と、グラフィック処理ユニット(GPU)134と、1つ以上のフレームバッファ136とを備える。CPU132は、全体的動作を制御する一方、GPU134は、遠隔データリポジトリ150内に記憶される3次元データからフレームをレンダリングし(すなわち、3次元環境を左および右眼画像に変換し)、これらのフレームをフレームバッファ136内に記憶する。図示されないが、1つ以上の付加的集積回路が、フレームのフレームバッファ136の中への読込および/またはそこからの読取およびディスプレイシステム104の走査デバイスの動作を制御してもよい。フレームバッファ146の中への読込および/またはそこからの読取は、動的アドレス指定を採用してもよく、例えば、フレームは、オーバーレンダリングされる。拡張現実システム100はさらに、読取専用メモリ(ROM)138と、ランダムアクセスメモリ(RAM)140とを備える。拡張現実システム100はさらに、3次元データベース142を備え、そこからGPU134は、フレームをレンダリングするための1つ以上の場面の3次元データにアクセスすることができる。
本発明に重要なこととして、CPU132は、ディスプレイシステム104および/またはスピーカ106に、拡張現実システム100の現在の目標に従って、3次元環境の状況下、前述の刺激をエンドユーザ50に提示し、決定された感情状態に応答して、エンドユーザ50に判別可能な後続アクションを実施するように命令する。
一実施形態では、拡張現実システム100の現在の目標は、所望の持続時間にわたって、エンドユーザ50における所望の感情状態を引き起こすことであってもよい。別の実施形態では、拡張現実システム100の現在の目標は、所望の持続時間にわたって、エンドユーザ50において望ましくない感情状態を引き起こさないことであってもよい。さらに別の実施形態では、拡張現実システム100の現在の目標は、所望の持続時間にわたって、エンドユーザ50における複数の異なる所望の感情状態を引き起こすことであってもよい。所望の持続時間は、例えば、関連時間周期にわたって1回、関連時間周期にわたって複数回、または関連時間周期にわたって継続的にであってもよい。例えば、拡張現実システム100の現在の目標は、関連時間周期にわたって1回、エンドユーザ50において楽しさを引き起こす、関連時間周期にわたって数回、エンドユーザ50において楽しさを引き起こす、または関連時間周期にわたって継続的に、エンドユーザ50において楽しさを引き起こすことであってもよい。または、拡張現実システム100の現在の目標は、関連時間周期にわたって1回でも、エンドユーザ50において退屈を引き起こさない、関連時間周期にわたって数回、エンドユーザ50において退屈を引き起こさない、または関連時間周期にわたって継続的に、エンドユーザ50において退屈を引き起こさないことであってもよい。または、拡張現実システム100の現在の目標は、代替として、関連時間周期にわたって、エンドユーザ50において楽しさおよび驚きを引き起こすことであってもよい。
拡張現実システム100によって実施されるアクションは、エンドユーザ50が関連感情状態にあると決定されるかまたは関連感情状態にないと決定されるかと、本関連感情状態が拡張現実システム100の現在の目標と一致するかどうかとに依存するであろう。
例えば、エンドユーザ50が、特定の感情状態が所望の感情状態(例えば、楽しさまたは驚き)と一致する、所望の持続時間にわたって、特定の感情状態(例えば、楽しんでいるまたは驚いている)にあると決定される(例えば、エンドユーザ50が、関連時間周期にわたって数回、楽しんでいるまたは驚いていると決定される)場合、拡張現実システム100によって実施されるアクションは、続いて、本感情状態を引き起こした刺激をエンドユーザ50に対してより利用可能にすることであってもよい。対照的に、エンドユーザ50が、所望の持続時間にわたって、本特定の感情状態にないと決定される(例えば、エンドユーザ50が、関連時間周期にわたって数回、楽しんでいないまたは驚いていないと決定される)場合、拡張現実システム100によって実施されるアクションは、続いて、本感情状態を引き起こさなかった刺激をエンドユーザ50に対してあまり利用可能にしないことであってもよい。
別の実施例として、エンドユーザ50が、特定の感情状態が望ましくない感情状態(例えば、悲しみまたは欲求不満)と一致する、所望の持続時間にわたって、特定の感情状態(例えば、悲しみまたは欲求不満)にないと決定される(例えば、エンドユーザ50が、関連時間周期にわたって、任意の時間に悲しみまたは欲求不満にないと決定される)場合、拡張現実システム100によって実施されるアクションは、続いて、本感情状態を引き起こした刺激をエンドユーザ50に対してより利用可能にすることであってもよい。対照的に、エンドユーザ50が、所望の持続時間にわたって、本特定の感情状態にあると決定される(例えば、エンドユーザ50が、関連時間周期にわたって少なくとも1回、悲しみまたは欲求不満にあると決定される)場合、拡張現実システム100によって実施されるアクションは、続いて、本感情状態を引き起こさなかった刺激をエンドユーザ50に対してあまり利用可能にしないことであってもよい。
さらに別の実施例として、エンドユーザ50が、異なる感情状態が所望の感情状態(例えば、交互する楽しさおよび驚き)と一致する、所望の持続時間にわたって(例えば、関連時間周期にわたってこれらの感情状態毎に数回)、複数の異なる感情状態(例えば、交互する楽しさおよび驚き)にあると決定される場合、拡張現実システム100によって実施されるアクションは、続いて、本感情状態を引き起こした刺激をエンドユーザ50に対してより利用可能にすることであってもよい。対照的に、エンドユーザ50が、所望の持続時間にわたって、これらの異なる感情状態にないと決定される場合、拡張現実システム100によって実施されるアクションは、続いて、本感情状態を引き起こさなかった刺激をエンドユーザ50に対してあまり利用可能にしないことであってもよい。
したがって、ビデオゲーム、プログラム、背景音楽、報酬、アラート、その特徴等の刺激が、最適化され、それによって、拡張現実システム100の使用増加を助長し得る。
例えば、拡張現実システム100の現在の目標が、ビデオゲームに対するエンドユーザ50の楽しさを最大限にすることであると仮定する。ビデオゲームの形態で提示される刺激に応答して、エンドユーザ50の感情状態が、ビデオゲームの関連部分の間、十分な回数、楽しさまたは興奮にあると決定される場合、CPU132によって実施される後続アクションは、例えば、続いて、同一ビデオゲームをエンドユーザ50に提示する、または別様に、そのビデオゲームをビデオゲーム選択メニュー構造の上位に維持する(例えば、ビデオゲームをお気に入りのリストに入れることによって)ことによって、続いて、ビデオゲームをエンドユーザ50に対してより利用可能にすることであってもよい。対照的に、エンドユーザ50の感情状態が、ビデオゲームの関連部分の間、単一インスタンスにおいて、欲求不満または退屈にあると決定される場合、CPU132によって実施される後続アクションは、例えば、続いて、異なるビデオゲームをエンドユーザ50に提示することによって、または別様に、そのビデオゲームをビデオゲーム選択メニュー構造内のより下位に置くことによって、続いて、ビデオゲームをエンドユーザ50に対してあまり利用可能にしないことであってもよい。
同様に、拡張現実システム100の現在の目標が、特定のビデオゲームに対するエンドユーザ50の楽しさを最大限にすることであると仮定する。ビデオゲームの特徴の形態で提示される刺激に応答して、エンドユーザ50の感情状態が、特徴の提示の間、継続的に、楽しさまたは興奮にあると決定される場合、CPU132によって実施される後続アクションは、例えば、続いて、同一特徴をエンドユーザ50に提示する、または別様に、本同一特徴が、ビデオゲームの間、エンドユーザ50に提示されるであろう確率を増加させることによって、続いて、本ビデオゲームの特徴をエンドユーザ50に対してより利用可能にすることであってもよい。対照的に、エンドユーザ50の感情状態が、特徴の提示の間、単一インスタンスにおいて、欲求不満または退屈にあると決定される場合、CPU132によって実施される後続アクションは、例えば、本特徴をビデオゲームから排除する、または別様に、本同一特徴が、ビデオゲームの間、エンドユーザ50に提示されるであろう確率を減少させることによって、続いて、本ビデオゲームの特徴をエンドユーザ50に対してあまり利用可能にしないことであってもよい。
拡張現実システム100の現在の目標が、ビデオゲームに対するサウンドトラックを最適化することによって、ビデオゲームの関連部分の間、エンドユーザ50において所望の感情状態を引き起こすことであると仮定する。目標は、ビデオゲームの選択された部分の間、エンドユーザ50に緊張感を感じさせること、または不思議な感覚またはあらゆる異なるタイプの感情を感じさせることであってもよい。テンポ、ピッチ、リズム、楽器、特定の楽器(例えば、ギター)を含むべきかどうか、特定の楽器の音(例えば、ドラムビート)、セグメントが再生される順序等が、最適化され得る。例えば、サウンドトラックの形態で提示される刺激に応答して、エンドユーザ50の感情状態が、エンドユーザ50における興奮が意図される、ビデオゲームの一部の間、興奮にあると決定される場合、CPU132は、次回、エンドユーザ50がビデオゲームの本部分に遭遇する際、サウンドトラックの本部分を維持し得る。対照的に、エンドユーザ50の感情状態が、ビデオゲームのその部分の間、退屈にあると決定される場合、CPU132は、次回、エンドユーザ50がビデオゲームの本部分に遭遇する際、サウンドトラックのその部分を修正してもよい。本プロセスが何回も生じるにつれて、ビデオゲームの間、サウンドトラックが再生される状態にわずかな変化が、導入される。サウンドトラックの変化およびエンドユーザ50の対応する感情状態は、ビデオゲームの間のエンドユーザ50の実際の感情状態とエンドユーザ50の所望の感情状態との間の最良合致のために、サウンドトラックの変化が徐々に最適化されるように、追跡されてもよい。
拡張現実システム100の現在の目標が、エンドユーザ50がビデオゲームと相互作用する結果としての成功結果に関して与えられる報酬に対してエンドユーザ50の楽しさを最大限にすることであると仮定する。動画化された報酬の形態で提示される刺激に応答して、エンドユーザ50の感情状態が、単一インスタンスにおいて、楽しんでいると決定される場合、CPU132は、例えば、ビデオゲームと相互作用する際の次の成功結果に応答して、同一動画をエンドユーザ50に提示する、または別様に、同一動画がエンドユーザ50に提示されるであろう可能性を増加させることによって、続いて、同一動画をエンドユーザ50により利用可能にしてもよい。対照的に、エンドユーザ50の感情状態が、単一インスタンスにおいて、欲求不満または退屈にあると決定される場合、CPU132は、例えば、ビデオゲームと相互作用する際の次の成功結果に応答して、異なる動画を報酬として提示する、または別様に、同一報酬がエンドユーザ50に提示されるであろう可能性を減少させることによって、続いて、同一動画をエンドユーザ50にあまり利用可能にしなくてもよい。このように、報酬は、エンドユーザ50が、所与の報酬が与えられるとき、最大限の楽しさを体験するまで、それを修正することによって最適化されてもよい。
拡張現実システム100の現在の目標が、背景音楽に対する楽しさまたはリラックスを最大限にすることであると仮定する。音楽は、好みの問題であるため、異なる音楽に対する反応は、変動するであろう。すなわち、楽曲は、異なる感情を種々の聴取者から誘発させ得る。特定の楽曲の形態で提示される刺激に応答して、エンドユーザ50の感情状態が、楽曲の間、継続的に楽しんでいるまたはリラックスしていると決定される場合、CPU132は、例えば、その楽曲を順番に再生されるリストに含めることによって、続いて、その楽曲をエンドユーザ50により利用可能にしてもよい。CPU132はさらに、楽曲をエンドユーザ50を楽しませたまたはリラックスさせた楽曲と同一ジャンル内のリストに含めてもよい。例えば、楽曲がクラシックであった場合、CPU132は、他のクラシック音楽もリストに含んでもよい。対照的に、エンドユーザ50の感情状態が、単一インスタンスにおいて、悲しみ、欲求不満、または退屈にあると決定される場合、CPU132は、例えば、その楽曲を順番に再生されるリストから除外することによって、続いて、その楽曲をエンドユーザ50にあまり利用可能にしなくてもよい。CPU132はさらに、楽曲をエンドユーザ50を悲しませた、欲求不満にさせた、または退屈させた楽曲と同一ジャンル内のリストから除外してもよい。例えば、楽曲がロックであった場合、CPU132は、全てのロックをリストから除外してもよい。
拡張現実システム100の現在の目標が、映画に対して種々の広く異なる感情をエンドユーザ50において引き起こすことであると仮定する。特定のコメディ/サスペンス映画の形態の刺激に応答して、エンドユーザ50が、楽しさ、悲しみ、驚き等のある範囲の異なる感情を体験していると決定される場合、CPU130は、続いて、その映画または類似映画をエンドユーザ50により利用可能にしてもよい。対照的に、エンドユーザ50が、ある範囲の異なる感情を体験しておらず、むしろ、退屈を体験していると決定される場合、CPU130は、続いて、その映画または類似映画をエンドユーザ50にあまり利用可能にしなくてもよく、さらに、完全に異なる映画をエンドユーザ50に提示してもよい。
したがって、CPU132は、エンドユーザ50に好むものを自動的に提示し、好まないものをあまり提示しなくなり得る。CPU132は、「楽しくない」体験を「楽しんでいない」エンドユーザ50から隠し、他の体験を、これらの体験が楽しませる程度に従って、エンドユーザ50に対してより利用可能にする。
拡張現実システム100の現在の目標は、3次元環境と相互作用するとき、エンドユーザ50により楽しい体験を提供する、感情状態を引き起こすことに限定され得ない。例えば、拡張現実システム100の現在の目標は、アラート信号を介して、エンドユーザ50を迅速に注意状態にさせることであってもよい。特定のアラート信号(点滅光等)の形態の刺激に応答して、エンドユーザ50が、迅速に注意した状態になる場合、CPU130は、例えば、エンドユーザ50にアラートすることが所望される度に、続いて、点滅光をエンドユーザ50に提示する、または別様に、点滅光がエンドユーザ50に提示されるであろう可能性を増加させることによって、続いて、同一アラート信号をエンドユーザ50により利用可能にしてもよい。対照的に、エンドユーザ50が、迅速に注意した状態にならない、または全く注意した状態にならない場合、CPU130は、例えば、次回、エンドユーザ50をアラートすることが所望される際、続いて、異なるアラート信号(例えば、フープ音)を提示すること、または別様に、点滅光がエンドユーザ50に提示されるであろう可能性を減少させることによって、続いて、同一アラート信号をエンドユーザ50にあまり利用可能にしなくてもよい。
拡張現実システム100の現在の目標は、3次元環境と相互作用するとき、エンドユーザ50において1つ以上の特定の感情状態を引き起こすことに限定されない。例えば、拡張現実システム100の現在の目標は、エンドユーザ50と対戦する1人以上のシミュレートされたプレーヤを有する、戦略的ビデオゲーム、例えば、ビデオポーカーゲームにおいて、エンドユーザ50を負かすことであってもよい。ビデオポーカーゲームの間、例えば、カードが、最初に、エンドユーザ50およびシミュレートされたプレーヤに配られた直後、エンドユーザ50の特定の感情状態が、決定されてもよく、CPU130は、エンドユーザ50に対する特定の感情状態決定を使用して、ゲームを進めてもよい。この場合、決定されるエンドユーザ50の特定の感情状態は、エンドユーザ50がはったりをかけているかどうかを示すものであって、ゲームは、CPU130が、エンドユーザ50がはったりをかけているかどうかのエンドユーザ50に対する決定を使用して、エンドユーザ50とカードをプレーすることによって進められる。したがって、シミュレートされたプレーヤは、エンドユーザ50がはったりをかけているとき、それを感知するという利点を有する。ポーカーゲームシミュレータと相互作用することによって、エンドユーザ50は、実際のポーカーゲームをプレーするとき、より説得力のある「ポーカーフェイス」をするように習得するであろう。
拡張現実システム100の現在の目標は、エンドユーザ50が嘘をついているかどうかを決定するような単純な試みであってもよい。例えば、質問の形態の刺激に応答して、エンドユーザ50が、エンドユーザ50が嘘をついていることを示す感情状態を体験していると決定される場合、CPU132は、エンドユーザ50に、嘘をついていることを知らせてもよい。対照的に、エンドユーザ50が、エンドユーザ50が誠実であることを示す感情状態を体験していると決定される場合、CPU132は、エンドユーザ50に、真実を話していることを知らせるであろう。ゲームまたは訓練デバイスとして、エンドユーザ50は、嘘検出器を騙す試みにおいて、意図的に嘘をついてもよい。
拡張現実システム100の現在の目標が、エンドユーザ50が考えている複数のオブジェクトのうちの1つを決定することであると仮定する。例えば、いくつかのプレー用カード等、種々のオブジェクトを提示する形態の刺激に応答して、エンドユーザ50が、エンドユーザ50が特定のプレー用カードに集中していることを示す感情状態を体験していることが決定される場合、CPU132は、エンドユーザ50に、エンドユーザ50が考えているプレー用カードが、例えば、ハートのクイーンであることを知らせるであろう。
拡張現実システム100の現在の目標が、「にらめっこ」ゲームにおいてエンドユーザ50を笑わせることであると仮定する。面白い顔等のエンドユーザ50から笑いを引き起こす可能性が高い、オブジェクトを表示する形態の刺激に応答して、エンドユーザ50の感情状態が、笑う「傾向にある」と決定される場合、CPU132は、エンドユーザ50が満面の笑顔または笑いを体験するまで、面白い顔を修正し、笑いを誘う兆候を最大限にしてもよい。CPU132は、エンドユーザ50が笑う傾向にあるときを試験するために、面白い顔を任意の種々の様式で修正してもよい。
拡張現実システム100の種々の処理コンポーネントは、分散型システム内に物理的的に含有されてもよい。例えば、図3a−3dに図示されるように、拡張現実システム100は、有線導線または無線コネクティビティ146等によって、ディスプレイシステム104およびセンサに動作可能に結合される、ローカル処理およびデータモジュール144を備える。ローカル処理およびデータモジュール144は、フレーム構造102に固定して取り付けられる(図3a)、ヘルメットまたは帽子56に固定して取り付けられる(図3b)、ヘッドホン内に埋設される、エンドユーザ50の胴体58に除去可能に取り付けられる(図3c)、またはベルト結合式構成においてエンドユーザ50の腰60に除去可能に取り付けられる(図3d)等、種々の構成で搭載されてもよい。拡張現実システム100はさらに、有線導線または無線コネクティビティ150、152等によって、ローカル処理およびデータモジュール144に動作可能に結合される、遠隔処理モジュール148および遠隔データリポジトリ150を備え、これらの遠隔モジュール148、150が、相互に動作可能に結合され、ローカル処理およびデータモジュール144に対してリソースとして利用可能であるようになる。
ローカル処理およびデータモジュール144は、電力効率的プロセッサまたはコントローラおよびフラッシュメモリ等のデジタルメモリを備えてもよく、両方とも、センサから捕捉され、および/または可能性として、処理または読出後、ディスプレイシステム104への通過のために、遠隔処理モジュール148および/または遠隔データリポジトリ150を使用して取得および/または処理されたデータの処理、キャッシュ、および記憶を補助するために利用されてもよい。遠隔処理モジュール148は、データおよび/または画像情報を分析および処理するように構成される、1つ以上の比較的に強力なプロセッサまたはコントローラを備えてもよい。遠隔データリポジトリ150は、比較的に大規模なデジタルデータ記憶設備を備えてもよく、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。一実施形態では、全データが、記憶され、全算出は、ローカル処理およびデータモジュール144において行われ、任意の遠隔モジュールからの完全に自律的使用を可能にする。
前述の種々のコンポーネント間の結合146、152、154は、有線または光学通信を提供するための1つ以上の有線インターフェースまたはポート、または無線通信を提供するためのRF、マイクロ波、およびIR等を介した1つ以上の無線インターフェースまたはポートを含んでもよい。いくつかの実装では、全ての通信は、有線であってもよい一方、他の実装では、全ての通信は、無線であってもよい。なおもさらなる実装では、有線および無線通信の選択肢は、図3a−3dに図示されるものと異なってもよい。したがって、有線または無線通信の特定の選択肢は、限定と見なされるべきではない。
図示される実施形態では、感情状態決定モジュール128および感情状態データベース130は、ローカル処理およびデータモジュール144内に含有される一方、CPU132およびGPU134は、遠隔処理モジュール148内に含有されるが、代替実施形態では、CPU132、GPU124、またはその一部は、ローカル処理およびデータモジュール144内に含有されてもよい。3Dデータベース142は、遠隔データリポジトリ150と関連付けられることができる。
拡張現実システム100の構造および機能が説明されたが、エンドユーザ50に関するカスタム感情プロファイルを構築するための拡張現実システム100によって実施される1つの方法200が、ここで図4に関して説明されるであろう。最初に、拡張現実システム100は、エンドユーザ50が、例えば、ビデオシースルーアプローチまたは光学シースルーアプローチを使用して、実オブジェクトおよび仮想オブジェクトの両方を含む、3次元環境を可視化することを可能にする(ステップ202)。当然ながら、仮想現実システムが、拡張現実システム100の代わりに使用される場合では、3次元環境全体が、仮想オブジェクトのみから成るであろう。
次に、拡張現実システム100は、ディスプレイシステム104および/またはスピーカ106に、3次元環境の状況下、刺激をエンドユーザ50に視覚的におよび/または聴覚的に提示するように指示する(ステップ204)。上記に説明されるように、刺激は、エンドユーザ50において物理的反応を引き起こし得る任意の刺激、例えば、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラート、またはその任意の特徴であることができ、3次元環境の一部として、または3次元環境の背景内において、エンドユーザ50に提示されてもよい(例えば、報酬またはペナルティとして)、またはビデオゲームまたは映画等の3次元環境の全体であってもよい。
次に、センサ126が、提示される刺激に応答して、エンドユーザ50の少なくとも1つのバイオメトリックパラメータを感知する(ステップ206)。前述のように、各バイオメトリックパラメータは、エンドユーザ50の感情状態を示す物理的反応に関連する任意のパラメータの形態をとってもよい。センサ126は、次いで、感知されたバイオメトリックパラメータ毎に、バイオメトリックデータを生成する(ステップ208)。また、前述のように、バイオメトリックデータは、例えば、1つ以上の値の形態をとってもよい。例えば、バイオメトリックデータは、単一スカラーデータ値または多次元データベクトルであってもよい。
感情状態決定モジュール128は、次いで、生成されたバイオメトリックデータが、例えば、パターン認識分析を使用して、特定の信頼度レベル(例えば、95パーセント信頼度)を伴って、着目感情状態と相関されることができるかどうかを決定する(ステップ210)。
生成されたバイオメトリックデータが、特定の信頼度レベルを伴って、着目感情状態と相関されることができない場合、ステップ204−210は、次いで、生成されたバイオメトリックデータが着目感情状態と相関されるまで(ステップ214)、同一刺激または異なる刺激に関して繰り返される(ステップ212)。
例えば、同一刺激は、バイオメトリックパラメータを感知する間、エンドユーザ50に繰り返し提示され、バイオメトリックデータを生成することができる。この場合、反復にわたって感知されたバイオメトリックパラメータ毎に生成されたバイオメトリックデータは、概して、ほぼ同一であろう。エンドユーザ50が3次元環境と相互作用する持続時間(例えば、刺激がエンドユーザに提示される時間周期または回数)は、刺激がエンドユーザ50に提示されている間、追跡され、閾値持続時間と比較されてもよい。追跡された持続時間が、閾値持続時間を超える場合、そして生成されたバイオメトリックデータが、着目感情状態を示す場合、生成されたバイオメトリックデータは、着目感情状態と相関され得る。
例えば、着目感情状態が、楽しさであって、エンドユーザ50が、比較的に長い持続時間にわたって、3次元環境と相互作用する場合、生成されたバイオメトリックデータがエンドユーザ50上の笑顔および目尻の皺を示す場合は、エンドユーザ50は、刺激によって提供される体験に関して楽しんでいると仮定されることができる。したがって、生成されたバイオメトリックデータは、楽しさの感情状態と相関され得る。
しかしながら、エンドユーザ50が、比較的に短持続時間にわたって、3次元環境と相互作用した場合、生成されたバイオメトリックデータがエンドユーザ50上の笑顔および目尻の皺を示す場合であっても、エンドユーザ50は、刺激によって提供される体験に関して楽しんでいないと仮定されることができる。したがって、生成されたバイオメトリックデータは、楽しさの感情状態と相関されない。エンドユーザ50が、比較的に長い持続時間にわたって、3次元環境と相互作用した場合でも、生成されたバイオメトリックデータが、笑顔および目尻の皺を示さず、むしろ、内向きに傾いた眉毛、持ち上げられた顎、すぼめられた唇、片側に捩れた口、および頬の皺をエンドユーザ50上に示す場合、エンドユーザ50は、刺激によって提供される体験に関して楽しんでおらず、むしろ、欲求不満であると仮定されることができる。したがって、生成されたバイオメトリックデータは、楽しさの感情状態と相関されず、実際には、欲求不満の感情状態と相関され得る。
別の実施例として、エンドユーザ50が異なる刺激に応答した異なる感情状態または感情状態の程度に基づいて、エンドユーザ50の感情の起伏を決定するために、異なる刺激が、バイオメトリックパラメータを感知する間、エンドユーザ50に繰り返し提示され、バイオメトリックデータを生成することができる。この場合、反復にわたって感知されるバイオメトリックパラメータ毎に生成された、バイオメトリックデータは、実質的に相互と異なるであろう。感情状態決定モジュール128は、次いで、相関されるべき特定の感情状態に最良に合致する、バイオメトリックデータを選択することができる。
例えば、特定のテンポを伴う音楽が、エンドユーザ50が3次元環境と相互作用するにつれて、背景においてエンドユーザ50に再生されてもよい。生成されたバイオメトリックデータが、エンドユーザ50が、悲しんでいる、欲求不満である、または退屈していることを反映する場合、音楽のテンポは、増加されてもよい。生成されたバイオメトリックデータが、次いで、エンドユーザ50が、悲しんでいない、欲求不満ではない、または退屈していないことを示す場合、音楽のテンポは、生成されたバイオメトリックデータが、エンドユーザ50が笑顔および目尻の皺を有し、楽しさを示すことを反映するまで、さらに増加されてもよい。音楽のテンポは、徐々に増加され、エンドユーザ50の笑顔および目尻の皺を最大限にすることができる。結果として生じるバイオメトリックデータは、次いで、エンドユーザ50に関する楽しさの感情状態と相関されることができる。類似技法も、同一音楽の異なるテンポの代わりに、異なるタイプまたはスタイルの音楽がエンドユーザ50に提示され得ることを除き、エンドユーザ50による最大限の楽しさを示す、バイオメトリックデータを決定するために使用されることができる。
いったんバイオメトリックデータが、ステップ214において、着目感情状態と相関されると、感情状態決定モジュール128は、基準バイオメトリックデータを相関バイオメトリックデータから導出する(ステップ216)。例えば、感知されるバイオメトリックパラメータ毎の1つ以上の基準バイオメトリックデータ範囲、1つ以上のバイオメトリックデータ特徴ベクトル、および/または1つ以上の基準2次元バイオメトリックデータアレイが、着目感情状態と相関されたバイオメトリックデータから導出されることができる。基準バイオメトリックデータは、次いで、着目感情状態と関連付けて、感情状態データベース130の感情状態プロファイル内に記憶される(ステップ218)。
次に、感情状態決定モジュール128は、全ての着目感情状態がバイオメトリックデータと相関され、感情状態プロファイル内に記憶されているかどうかを決定する(ステップ218)。該当しない場合、ステップ204−216は、別の着目感情状態に関して繰り返される(ステップ220)。例えば、楽しさの感情を引き起こす可能性が高い刺激が、ステップ204−218の間、エンドユーザ50に以前に提示されている場合、悲しみ、欲求不満、または退屈等の異なる着目感情状態が、ステップ204−218の間、エンドユーザ50に提示され、対応する基準バイオメトリックデータとともに、感情状態プロファイル内に記憶されることができる。したがって、最終感情状態プロファイルは、複数の感情状態および対応する基準バイオメトリックデータを含有することができ(ステップ222)、これは、続いて、感情状態決定モジュール128によってアクセスされ、種々の異なる3次元環境のうちの任意の1つの状況下、エンドユーザ50に提示される異なる刺激に応答して、エンドユーザ50の感情状態を決定することができる。例えば、音楽の演奏に関連する刺激が、ビデオゲームの状況下、エンドユーザ50に提示され、感情状態プロファイルを構築する場合でも、感情状態プロファイルは、エンドユーザ50が、映画の状況下、種々の異なる刺激のうちの任意の1つに応答して、記憶された感情状態のいずれかを有するかどうかを決定するためにアクセスされることができる。
ここで図5を参照すると、拡張現実システム100を動作させる1つの方法300が、ここで説明されるであろう。最初に、拡張現実システム100は、例えば、ビデオシースルーアプローチまたは光学シースルーアプローチを使用して、エンドユーザ50が、実オブジェクトおよび仮想オブジェクトの両方から成る3次元環境を可視化することを可能にする(ステップ302)。当然ながら、仮想現実システムが、拡張現実システム100の代わりに使用される場合、3次元環境全体が、仮想オブジェクトのみから成るであろう。
次に、拡張現実システム100は、ディスプレイシステム104および/またはスピーカ106に、3次元環境の状況下、刺激をエンドユーザ50に提示するように指示する(ステップ304)。上記に説明されるように、刺激は、3次元環境の一部として、または3次元環境の背景内において、エンドユーザ50に提示されてもよい(例えば、報酬またはペナルティとして)、またはビデオゲームまたは映画等の3次元環境の全体であってもよい。
次に、センサ126は、提示される刺激に応答して、エンドユーザ50の少なくとも1つのバイオメトリックパラメータを感知する(ステップ306)。前述のように、各バイオメトリックパラメータは、エンドユーザ50の感情状態を示す物理的反応に関連する、任意のパラメータの形態をとってもよい。センサ126は、次いで、感知されたバイオメトリックパラメータ毎に、バイオメトリックデータを生成する(ステップ308)。また、前述のように、バイオメトリックデータは、例えば、1つ以上の値の形態をとってもよい。例えば、バイオメトリックデータは、単一スカラーデータ値、1次元特徴ベクトル、または多次元データベクトルであってもよい。各バイオメトリックパラメータは、提示される刺激に応答して、複数の異なる時間に感知されてもよく、その場合、バイオメトリックデータは、これらの異なる時間に生成されるであろう。
次に、感情状態決定モジュール128は、例えば、パターン認識分析を生成されたバイオメトリックデータに実施することによって(例えば、分類アルゴリズム、例えば、ANN、混合ガウス評価等を起動することによって)、生成されたバイオメトリック値に基づいて、エンドユーザ50が少なくとも1つの特定の感情状態にあるかどうかを決定する(ステップ310)。これは、生成されたバイオメトリックデータと特定の感情状態と相関された基準バイオメトリックデータを比較することによって遂行されることができる。例えば、感知されたバイオメトリックパラメータのうちの1つに関して生成されたバイオメトリックデータが、スカラーデータ値であって、基準バイオメトリックデータが、基準値範囲を含む場合、生成されたバイオメトリックデータは、スカラーデータ値が基準バイオメトリック値範囲内にあるかどうかを決定することによって、基準バイオメトリックデータと比較されてもよい。感知されたバイオメトリックパラメータのうちの1つに関して生成されたバイオメトリックデータが、バイオメトリック多次元データベクトルであって、基準バイオメトリックデータが、基準多次元データベクトルを含む場合、生成されたバイオメトリックデータは、生成された多次元データベクトルと基準多次元データベクトルとの間の相関関数を実施することによって、基準バイオメトリックデータと比較されてもよい。
前述の比較関数を実施する際、感情状態決定モジュール128は、カスタム(個人化された)感情状態プロファイルにアクセスし、特定の感情状態に対応する基準バイオメトリックデータを読み出し、現在生成されているバイオメトリックデータと基準バイオメトリックデータを比較し、現在生成されているバイオメトリックデータと基準バイオメトリックデータとの間に合致が存在するかどうかを決定してもよい。合致が存在する場合、感情状態決定モジュール128は、エンドユーザ50が特定の感情状態にあることを決定し、合致が存在しない場合、感情状態決定モジュール128は、エンドユーザ50が特定の感情状態にないことを決定する。
次に、CPU132は、少なくとも部分的に、エンドユーザ50が特定の感情状態にあることが決定されるかどうかに基づいて、エンドユーザ50に判別可能なアクションを実施し、現在の目標を促進する(ステップ312)。現在の目標は、種々の目的のうちの任意の1つであってもよい。例えば、エンドユーザ50において物理的反応を引き起こす刺激が、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラート、またはその任意の特徴である場合、現在の目標は、所望の持続時間にわたって、エンドユーザ50における所望の感情状態を引き起こす、または所望の持続時間にわたって、エンドユーザ50において望ましくない感情状態を引き起こさない、または所望の持続時間にわたって、エンドユーザ50における複数の異なる所望の感情状態を引き起こすことであってもよい。所望の持続時間は、例えば、関連時間周期にわたって1回、関連時間周期にわたって複数回、または関連時間周期にわたって継続的にであることができる。
現在の目標が、所望の持続時間にわたって、エンドユーザにおいて所望の感情状態を引き起こすことであって、特定の感情状態が、所望の感情状態と一致すると仮定する。エンドユーザ50が、所望の持続時間にわたって、特定の感情状態にあると決定される場合、CPU132は、続いて、刺激をエンドユーザ50により利用可能にし、エンドユーザ50が、所望の持続時間にわたって、特定の感情状態にないと決定される場合、CPU132は、続いて、刺激をエンドユーザ50に対してあまり利用可能にしないであろう。対照的に、現在の目標が、所望の持続時間にわたって、エンドユーザ50において望ましくない感情状態を引き起こさないことであって、特定の感情状態が、望ましくない感情状態と一致すると仮定する。エンドユーザ50が、所望の持続時間にわたって、特定の感情状態にないと決定される場合、CPU132は、続いて、刺激をエンドユーザ50により利用可能にし、エンドユーザ50が、所望の持続時間にわたって、特定の感情状態にあると決定される場合、CPU132は、続いて、刺激をエンドユーザ50に対してあまり利用可能にしないであろう。さらに対照的に、現在の目標が、所望の持続時間にわたって、エンドユーザにおいて複数の異なる所望の感情状態を引き起こすことであって、特定の感情状態が、複数の所望の感情状態と一致すると仮定する。エンドユーザ50が、所望の持続時間にわたって、複数の異なる感情状態にあると決定される場合、CPU132は、続いて、刺激をエンドユーザ50により利用可能にし、エンドユーザ50が、所望の持続時間にわたって、複数の異なる感情状態にないと決定される場合、CPU132は、続いて、刺激をエンドユーザ50に対してあまり利用可能にしないであろう。
当然ながら、現在の目標は、エンドユーザ50における所望または望ましくない感情状態を引き起こす、または引き起こさないことと異なってもよい。例えば、刺激が、戦略的ビデオゲームの形態をとり、現在の目標が、戦略的ビデオゲームにおいてエンドユーザを負かすことである場合、CPUは、続いて、エンドユーザ50に対して特定の感情状態決定を使用して、ゲームを進めてもよい。例えば、戦略的ビデオゲームが、エンドユーザと対戦する1人以上のシミュレートされたプレーヤを有する、カードプレービデオゲームである場合、特定の感情状態は、エンドユーザがはったりをかけているかどうかを示すものであってもよく、その場合、シミュレートされたプレーヤは、エンドユーザ50がはったりをかけているかどうかに関する知識を使用して、エンドユーザ50とカードをプレーしてもよい。別の実施例として、刺激が、エンドユーザ50に提示される質問の形態をとり、現在の目標が、質問に応答して、エンドユーザが嘘をついているかどうかを決定することである場合、CPU132は、続いて、エンドユーザ50に、特定の感情状態決定を使用して、エンドユーザ50が嘘をついているかどうかを知らせてもよい。さらに別の実施例として、刺激が、エンドユーザ50に提示される複数のオプションの形態をとり、現在の目標が、エンドユーザ50が考えているオブジェクトのうちの1つを決定することである場合、CPU132は、続いて、エンドユーザ50に、特定の感情状態決定を使用して、エンドユーザ50が考えているオブジェクトを知らせてもよい。さらに別の実施例として、刺激が、シミュレートされた顔の形態をとり、現在の目標が、エンドユーザ50を笑わせることである場合、CPU132は、続いて、特定の感情状態決定を使用して、エンドユーザ50が笑いそうであるかどうかを決定し、エンドユーザ50を笑わせるようにシミュレートされた顔を修正してもよい。
前述の明細書では、本発明は、その特定の実施形態を参照して説明された。しかしながら、種々の修正および変更が、本発明のより広範な精神および範囲から逸脱することなく、本明細書に成され得ることが明白となるであろう。例えば、前述のプロセスフローは、特定の順序のプロセスアクションを参照して説明される。しかしながら、説明されるプロセスアクションの多くの順序は、本発明の範囲または動作に影響を及ぼすことなく変更されてもよい。明細書および図面は、故に、限定的意味ではなく、例証と見なされるものとする。

Claims (33)

  1. ウェアラブルディスプレイデバイスを含む拡張現実(AR)ディスプレイシステムを動作させる方法であって、前記方法は、
    前記ウェアラブルディスプレイデバイスを通してユーザに双方向3次元環境を提示することであって、前記双方向3次元環境は、実世界場面と、前記ARディスプレイシステムによって生成されて前記実世界場面内に提示される少なくとも1つの仮想オブジェクトとを含む、ことと、
    前記3次元環境における刺激の提示に応答して、前記ユーザの少なくとも1つのバイオメトリックパラメータを感知することであって、前記少なくとも1つのバイオメトリックパラメータは、前記ウェアラブルディスプレイデバイスに取り付けられている少なくとも1つのセンサを使用して感知される、ことと、
    前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成することと、
    前記少なくとも1つの感知されるバイオメトリックパラメータ毎の前記バイオメトリックデータに基づいて、前記ユーザの少なくとも1つの感情状態を決定することと、
    前記ユーザが前記少なくとも1つの感情状態にあることの決定に少なくとも部分的に基づいて、前記ARディスプレイシステムを通してアクションを実施することであって、前記アクションは、前記少なくとも1つの仮想オブジェクトが前記ウェアラブルディスプレイデバイスを通して前記ユーザに提示されている間における前記少なくとも1つの仮想オブジェクトの修正を含み、前記少なくとも1つの仮想オブジェクトの前記修正は、前記ユーザの前記少なくとも1つの感情状態を変えるように選択される、ことと
    を含み、
    前記少なくとも1つの感知されるバイオメトリックパラメータは、複数の異なる感知されるバイオメトリックパラメータを含み、
    前記ユーザの少なくとも1つの特定の感情状態を決定することは、パターン認識分析を前記生成されたバイオメトリックデータに実施することを含む、方法。
  2. ある持続時間にわたって、前記ユーザの前記少なくとも1つの感情状態を決定することをさらに含み、前記アクションは、前記ユーザが前記ある持続時間にわたって前記少なくとも1つの感情状態にあることの決定に少なくとも部分的に基づいて、前記ARディスプレイシステムを通して実施される、請求項1に記載の方法。
  3. 前記少なくとも1つの感情状態は、複数の異なる感情状態を含む、請求項2に記載の方法。
  4. 前記刺激は、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートを含み、前記アクションを実施することは、前記ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートを前記ユーザに対してより利用可能にする、またはあまり利用可能にしないことを含む、請求項1に記載の方法。
  5. 前記刺激は、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートの特徴を含み、前記アクションを実施することは、前記ビデオゲーム、プログラム、音楽背景曲、報酬、またはアラートを前記ユーザに対してより利用可能にする、またはあまり利用可能にしないことを含む、請求項1に記載の方法。
  6. ウェアラブルディスプレイデバイスを含む拡張現実(AR)ディスプレイシステムを動作させる方法であって、前記方法は、
    前記ウェアラブルディスプレイデバイスを通してユーザに双方向3次元環境を提示することであって、前記双方向3次元環境は、実世界場面と、前記ARディスプレイシステムによって生成されて前記実世界場面内に提示される少なくとも1つの仮想オブジェクトとを含む、ことと、
    前記3次元環境における刺激の提示に応答して、前記ユーザの少なくとも1つのバイオメトリックパラメータを感知することであって、前記少なくとも1つのバイオメトリックパラメータは、前記ウェアラブルディスプレイデバイスに取り付けられている少なくとも1つのセンサを使用して感知される、ことと、
    前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成することと、
    前記少なくとも1つの感知されるバイオメトリックパラメータ毎の前記バイオメトリックデータに基づいて、前記ユーザの少なくとも1つの感情状態を決定することと、
    前記ユーザが前記少なくとも1つの感情状態にあることの決定に少なくとも部分的に基づいて、前記ARディスプレイシステムを通してアクションを実施することであって、前記アクションは、前記少なくとも1つの仮想オブジェクトが前記ウェアラブルディスプレイデバイスを通して前記ユーザに提示されている間における前記少なくとも1つの仮想オブジェクトの修正を含み、前記少なくとも1つの仮想オブジェクトの前記修正は、前記ユーザの前記少なくとも1つの感情状態を変えるように選択される、ことと
    を含み、
    前記刺激は、戦略的ビデオゲームを含み、前記アクションを実施することは、前記ユーザの前記少なくとも1つの感情状態を使用してゲームを進めることを含む方法。
  7. 前記戦略的ビデオゲームは、前記ユーザと対戦する1人以上のシミュレートされたプレーヤを有するカードプレービデオゲームであり、前記少なくとも1つの感情状態は、前記ユーザがはったりをかけているかどうかを示すものであり、前記アクションを実施することは、前記1人以上のシミュレートされたプレーヤが、前記ユーザがはったりをかけているかどうかの知識を使用して、前記ユーザとカードをプレーすることを含む、請求項6に記載の方法。
  8. 前記カードプレービデオゲームは、ポーカービデオゲームである、請求項7に記載の方法。
  9. ウェアラブルディスプレイデバイスを含む拡張現実(AR)ディスプレイシステムを動作させる方法であって、前記方法は、
    前記ウェアラブルディスプレイデバイスを通してユーザに双方向3次元環境を提示することであって、前記双方向3次元環境は、実世界場面と、前記ARディスプレイシステムによって生成されて前記実世界場面内に提示される少なくとも1つの仮想オブジェクトとを含む、ことと、
    前記3次元環境における刺激の提示に応答して、前記ユーザの少なくとも1つのバイオメトリックパラメータを感知することであって、前記少なくとも1つのバイオメトリックパラメータは、前記ウェアラブルディスプレイデバイスに取り付けられている少なくとも1つのセンサを使用して感知される、ことと、
    前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成することと、
    前記少なくとも1つの感知されるバイオメトリックパラメータ毎の前記バイオメトリックデータに基づいて、前記ユーザの少なくとも1つの感情状態を決定することと、
    前記ユーザが前記少なくとも1つの感情状態にあることの決定に少なくとも部分的に基づいて、前記ARディスプレイシステムを通してアクションを実施することであって、前記アクションは、前記少なくとも1つの仮想オブジェクトが前記ウェアラブルディスプレイデバイスを通して前記ユーザに提示されている間における前記少なくとも1つの仮想オブジェクトの修正を含み、前記少なくとも1つの仮想オブジェクトの前記修正は、前記ユーザの前記少なくとも1つの感情状態を変えるように選択される、ことと
    を含み、
    前記刺激は、前記ユーザに提示される質問を含み、前記アクションを実施することは、前記少なくとも1つの感情状態を使用して、前記ユーザが嘘をついているかどうかを前記ユーザに知らせることを含む方法。
  10. 前記刺激は、エンドユーザに提示される複数のオプションを含み、前記アクションを実施することは、前記少なくとも1つの感情状態を使用して、前記ユーザが好むオプションを前記ユーザに知らせることを含む、請求項1に記載の方法。
  11. ウェアラブルディスプレイデバイスを含む拡張現実(AR)ディスプレイシステムを動作させる方法であって、前記方法は、
    前記ウェアラブルディスプレイデバイスを通してユーザに双方向3次元環境を提示することであって、前記双方向3次元環境は、実世界場面と、前記ARディスプレイシステムによって生成されて前記実世界場面内に提示される少なくとも1つの仮想オブジェクトとを含む、ことと、
    前記3次元環境における刺激の提示に応答して、前記ユーザの少なくとも1つのバイオメトリックパラメータを感知することであって、前記少なくとも1つのバイオメトリックパラメータは、前記ウェアラブルディスプレイデバイスに取り付けられている少なくとも1つのセンサを使用して感知される、ことと、
    前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成することと、
    前記少なくとも1つの感知されるバイオメトリックパラメータ毎の前記バイオメトリックデータに基づいて、前記ユーザの少なくとも1つの感情状態を決定することと、
    前記ユーザが前記少なくとも1つの感情状態にあることの決定に少なくとも部分的に基づいて、前記ARディスプレイシステムを通してアクションを実施することであって、前記アクションは、前記少なくとも1つの仮想オブジェクトが前記ウェアラブルディスプレイデバイスを通して前記ユーザに提示されている間における前記少なくとも1つの仮想オブジェクトの修正を含み、前記少なくとも1つの仮想オブジェクトの前記修正は、前記ユーザの前記少なくとも1つの感情状態を変えるように選択される、ことと
    を含み、
    前記刺激は、シミュレートされた顔を含み、前記アクションを実施することは、特定の感情状態決定を使用して、エンドユーザが笑いそうであるかどうかを決定し、前記ユーザを笑わせるように前記シミュレートされた顔を修正することを含む方法。
  12. 前記ユーザの前記少なくとも1つのバイオメトリックパラメータは、前記刺激の提示に応答して、複数の異なる時間に感知され、前記バイオメトリックデータは、これらの異なる時間に生成される、請求項1に記載の方法。
  13. 前記刺激は、前記ウェアラブルディスプレイデバイスを通して前記ユーザに視覚的に提示される、請求項1に記載の方法。
  14. 前記少なくとも1つの感知されるバイオメトリックパラメータは、少なくとも1つの表情を含む、請求項1に記載の方法。
  15. 前記少なくとも1つの表情は、エンドユーザの口角および眼の周囲の目尻の皺の一方または両方である、請求項14に記載の方法。
  16. 前記少なくとも1つの感情状態は、楽しさを含む、請求項15に記載の方法。
  17. 前記少なくとも1つの感知されるバイオメトリックパラメータは、表情、肩をすぼめること、呼吸数、心拍数、体温、血圧、手の移動の頻度および/または場所、身体がぴくぴくする頻度および/または場所、および眼の移動の間の経過時間のうちの少なくとも1つを含む、請求項1に記載の方法。
  18. 前記少なくとも1つの感知されるバイオメトリックパラメータは、少なくとも1つの微表情を含む、請求項1に記載の方法。
  19. 前記少なくとも1つの感情状態は、怒り、軽蔑、嫌悪、恐れ、楽しさ、悲しみ、驚き、混乱、羞恥心、警戒心、疲労、リラックス、欲求不満、退屈、当惑のうちの少なくとも1つを含む、請求項1に記載の方法。
  20. 前記ユーザの少なくとも1つの感情状態を決定することは、前記生成されたバイオメトリックデータを、前記少なくとも1つの感情状態と相関される基準バイオメトリックデータと比較することを含む、請求項1に記載の方法。
  21. ウェアラブルディスプレイデバイスを含む拡張現実(AR)ディスプレイシステムを動作させる方法であって、前記方法は、
    前記ウェアラブルディスプレイデバイスを通してユーザに双方向3次元環境を提示することであって、前記双方向3次元環境は、実世界場面と、前記ARディスプレイシステムによって生成されて前記実世界場面内に提示される少なくとも1つの仮想オブジェクトとを含む、ことと、
    前記3次元環境における刺激の提示に応答して、前記ユーザの少なくとも1つのバイオメトリックパラメータを感知することであって、前記少なくとも1つのバイオメトリックパラメータは、前記ウェアラブルディスプレイデバイスに取り付けられている少なくとも1つのセンサを使用して感知される、ことと、
    前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成することと、
    前記少なくとも1つの感知されるバイオメトリックパラメータ毎の前記バイオメトリックデータに基づいて、前記ユーザの少なくとも1つの感情状態を決定することと、
    前記ユーザが前記少なくとも1つの感情状態にあることの決定に少なくとも部分的に基づいて、前記ARディスプレイシステムを通してアクションを実施することであって、前記アクションは、前記少なくとも1つの仮想オブジェクトが前記ウェアラブルディスプレイデバイスを通して前記ユーザに提示されている間における前記少なくとも1つの仮想オブジェクトの修正を含み、前記少なくとも1つの仮想オブジェクトの前記修正は、前記ユーザの前記少なくとも1つの感情状態を変えるように選択される、ことと
    を含み、
    前記ユーザの少なくとも1つの感情状態を決定することは、前記生成されたバイオメトリックデータを、前記少なくとも1つの感情状態と相関される基準バイオメトリックデータと比較することを含み、
    前記少なくとも1つの感知されるバイオメトリックパラメータのうちの1つに関する前記生成されたバイオメトリックデータは、バイオメトリックスカラーデータ値であり、前記基準バイオメトリックデータは、基準バイオメトリック値範囲を含み、前記生成されたバイオメトリックデータを前記基準バイオメトリックデータと比較することは、前記バイオメトリックスカラーデータ値が前記基準バイオメトリック値範囲内にあるかどうかを決定することを含む方法。
  22. ウェアラブルディスプレイデバイスを含む拡張現実(AR)ディスプレイシステムを動作させる方法であって、前記方法は、
    前記ウェアラブルディスプレイデバイスを通してユーザに双方向3次元環境を提示することであって、前記双方向3次元環境は、実世界場面と、前記ARディスプレイシステムによって生成されて前記実世界場面内に提示される少なくとも1つの仮想オブジェクトとを含む、ことと、
    前記3次元環境における刺激の提示に応答して、前記ユーザの少なくとも1つのバイオメトリックパラメータを感知することであって、前記少なくとも1つのバイオメトリックパラメータは、前記ウェアラブルディスプレイデバイスに取り付けられている少なくとも1つのセンサを使用して感知される、ことと、
    前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成することと、
    前記少なくとも1つの感知されるバイオメトリックパラメータ毎の前記バイオメトリックデータに基づいて、前記ユーザの少なくとも1つの感情状態を決定することと、
    前記ユーザが前記少なくとも1つの感情状態にあることの決定に少なくとも部分的に基づいて、前記ARディスプレイシステムを通してアクションを実施することであって、前記アクションは、前記少なくとも1つの仮想オブジェクトが前記ウェアラブルディスプレイデバイスを通して前記ユーザに提示されている間における前記少なくとも1つの仮想オブジェクトの修正を含み、前記少なくとも1つの仮想オブジェクトの前記修正は、前記ユーザの前記少なくとも1つの感情状態を変えるように選択される、ことと
    を含み、
    前記ユーザの少なくとも1つの感情状態を決定することは、前記生成されたバイオメトリックデータを、前記少なくとも1つの感情状態と相関される基準バイオメトリックデータと比較することを含み、
    前記少なくとも1つの感知されるバイオメトリックパラメータのうちの1つに関する前記生成されたバイオメトリックデータは、バイオメトリック多次元データベクトルであり、前記基準バイオメトリックデータは、基準バイオメトリック多次元データベクトルを含み、前記生成されたバイオメトリックデータを前記基準バイオメトリックデータと比較することは、前記生成されたバイオメトリック多次元データベクトルと前記基準バイオメトリック多次元データベクトルとの間の相関関数を実施することを含む方法。
  23. 前記ユーザの前記少なくとも1つの感情状態を決定することは、前記基準バイオメトリックデータをエンドユーザのカスタム感情状態プロファイルから読み出すことをさらに含む、請求項20に記載の方法。
  24. 前記ウェアラブルディスプレイデバイスを通して前記ユーザに前記3次元環境を提示することは、3次元環境の複数の合成画像フレームをレンダリングし、前記ウェアラブルディスプレイデバイスを通して前記合成画像フレームを前記ユーザに連続して表示することを含む、請求項1に記載の方法。
  25. 前記合成画像フレームは、前記ユーザの頭部に搭載されるフレーム構造を介して、前記ユーザの視野内に透明ディスプレイ表面から投影される、請求項24に記載の方法。
  26. 前記合成画像フレームは、前記ユーザによって可視化される実場面にわたって重畳される、請求項24に記載の方法。
  27. 前記ARディスプレイシステムはまた、前記ウェアラブルディスプレイデバイスに結合されるスピーカを含み、
    前記刺激は、前記スピーカを通して聴覚的に提示される、請求項1に記載の方法。
  28. 前記ARディスプレイシステムはまた、機械的アクチュエータを含み、
    前記刺激は、前記機械的アクチュエータを通して触覚的に提示される、請求項1に記載の方法。
  29. 前記少なくとも1つのセンサは、前記ウェアラブルディスプレイデバイスに結合される後ろ向きに面したカメラを備え、
    前記少なくとも1つのバイオメトリックパラメータは、前記ユーザの顔の移動を含む、請求項1に記載の方法。
  30. 前記少なくとも1つのセンサは、前記ウェアラブルディスプレイデバイスに結合されるマイクロホンを含む、請求項1に記載の方法。
  31. 前記少なくとも1つのセンサは、前記ユーザの身体部分に結合される加速度計を含み、
    前記少なくとも1つのバイオメトリックパラメータは、前記ユーザの前記身体部分の移動を含む、請求項1の記載の方法。
  32. 前記ユーザの前記決定された少なくとも1つの感情状態楽しさまたは興奮であるとき、前記少なくとも1つの仮想オブジェクトの前記修正は、前記提示された刺激を増加させる、請求項1に記載の方法。
  33. 前記ユーザの前記決定された少なくとも1つの感情状態欲求不満または退屈であるとき、前記少なくとも1つの仮想オブジェクトの前記修正は、前記提示された刺激を減少させる、請求項1に記載の方法。
JP2019502242A 2016-07-21 2017-07-20 ユーザの感情状態を用いて仮想画像生成システムを制御するための技術 Active JP6838135B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662364957P 2016-07-21 2016-07-21
US62/364,957 2016-07-21
PCT/US2017/043133 WO2018017868A1 (en) 2016-07-21 2017-07-20 Technique for controlling virtual image generation system using emotional states of user

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021019540A Division JP7041763B2 (ja) 2016-07-21 2021-02-10 ユーザの感情状態を用いて仮想画像生成システムを制御するための技術

Publications (3)

Publication Number Publication Date
JP2019532374A JP2019532374A (ja) 2019-11-07
JP2019532374A5 JP2019532374A5 (ja) 2020-08-27
JP6838135B2 true JP6838135B2 (ja) 2021-03-03

Family

ID=60988486

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019502242A Active JP6838135B2 (ja) 2016-07-21 2017-07-20 ユーザの感情状態を用いて仮想画像生成システムを制御するための技術
JP2021019540A Active JP7041763B2 (ja) 2016-07-21 2021-02-10 ユーザの感情状態を用いて仮想画像生成システムを制御するための技術

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021019540A Active JP7041763B2 (ja) 2016-07-21 2021-02-10 ユーザの感情状態を用いて仮想画像生成システムを制御するための技術

Country Status (9)

Country Link
US (4) US10540004B2 (ja)
EP (1) EP3488371A4 (ja)
JP (2) JP6838135B2 (ja)
KR (1) KR102196380B1 (ja)
CN (1) CN109844735A (ja)
AU (2) AU2017300636A1 (ja)
CA (1) CA3030169A1 (ja)
IL (1) IL264217B (ja)
WO (1) WO2018017868A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10514766B2 (en) * 2015-06-09 2019-12-24 Dell Products L.P. Systems and methods for determining emotions based on user gestures
US10540004B2 (en) 2016-07-21 2020-01-21 Magic Leap, Inc. Technique for controlling virtual image generation system using emotional states of user
US10395693B2 (en) * 2017-04-10 2019-08-27 International Business Machines Corporation Look-ahead for video segments
US11311188B2 (en) * 2017-07-13 2022-04-26 Micro Medical Devices, Inc. Visual and mental testing using virtual reality hardware
US10441886B2 (en) * 2018-01-29 2019-10-15 Sony Interactive Entertainment LLC Dynamic allocation of contextual assistance during game play
US10610783B2 (en) 2018-01-31 2020-04-07 Sony Interactive Entertainment LLC Assignment of contextual game play assistance to player reaction
CN108445624B (zh) * 2018-02-08 2021-01-26 上海橙旺智能科技有限公司 具有增强现实功能的头戴式显示装置
CN110794950A (zh) * 2018-08-01 2020-02-14 深圳先进技术研究院 一种数据监测实验方法、装置、终端设备及存储介质
EP3617847A1 (en) 2018-08-29 2020-03-04 Koninklijke Philips N.V. Controlling the operation of one or more devices
GB2580937B (en) * 2019-01-31 2022-07-13 Sony Interactive Entertainment Europe Ltd Method and system for generating audio-visual content from video game footage
CN110379234A (zh) * 2019-07-23 2019-10-25 广东小天才科技有限公司 一种学习辅导方法及装置
CN110837294B (zh) * 2019-10-14 2023-12-12 成都西山居世游科技有限公司 一种基于眼球追踪的面部表情控制方法及系统
GB2590473B (en) * 2019-12-19 2022-07-27 Samsung Electronics Co Ltd Method and apparatus for dynamic human-computer interaction
CN113763531B (zh) * 2020-06-05 2023-11-28 北京达佳互联信息技术有限公司 三维人脸重建方法、装置、电子设备及存储介质
US10987592B1 (en) 2020-06-05 2021-04-27 12traits, Inc. Systems and methods to correlate user behavior patterns within an online game with psychological attributes of users
US11468713B2 (en) 2021-03-02 2022-10-11 Bank Of America Corporation System and method for leveraging a time-series of microexpressions of users in customizing media presentation based on users# sentiments
US11727424B2 (en) 2021-06-04 2023-08-15 Solsten, Inc. Systems and methods to correlate user behavior patterns within digital application environments with psychological attributes of users to determine adaptations to the digital application environments
US20240050003A1 (en) * 2021-09-09 2024-02-15 GenoEmote LLC Method and system for validating the response of a user using chatbot
US20230237844A1 (en) * 2022-01-26 2023-07-27 The Regents Of The University Of Michigan Detecting emotional state of a user based on facial appearance and visual perception information
US20240094801A1 (en) * 2022-09-21 2024-03-21 International Business Machines Corporation Contextual virtual reality rendering and adopting biomarker analysis

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5702323A (en) * 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6001065A (en) 1995-08-02 1999-12-14 Ibva Technologies, Inc. Method and apparatus for measuring and analyzing physiological signals for active or passive control of physical and virtual spaces and the contents therein
JPH11219446A (ja) * 1998-02-03 1999-08-10 Matsushita Electric Ind Co Ltd 映像音響再生システム
KR20010053322A (ko) * 1999-04-30 2001-06-25 이데이 노부유끼 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체
US8972266B2 (en) 2002-11-12 2015-03-03 David Bezar User intent analysis extent of speaker intent analysis system
JP4389512B2 (ja) * 2003-07-28 2009-12-24 ソニー株式会社 腕時計型会話補助装置、会話補助システム、眼鏡型会話補助装置および会話補助装置
US20050216243A1 (en) * 2004-03-02 2005-09-29 Simon Graham Computer-simulated virtual reality environments for evaluation of neurobehavioral performance
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
EP2016562A4 (en) * 2006-05-07 2010-01-06 Sony Computer Entertainment Inc METHOD FOR IMPLEMENTING AFFECTIVE PROPERTIES IN A COMPUTER GENERATED AVATAR DURING A COMPUTER GAME
US7721883B2 (en) * 2006-07-10 2010-05-25 Finest Products Limited Disk protective enclosure
CN101512574A (zh) * 2006-09-07 2009-08-19 宝洁公司 用于测量情绪响应和选择偏好的方法
US20080065468A1 (en) * 2006-09-07 2008-03-13 Charles John Berg Methods for Measuring Emotive Response and Selection Preference
US8386313B2 (en) * 2007-08-28 2013-02-26 The Nielsen Company (Us), Llc Stimulus placement system using subject neuro-response measurements
US8633371B2 (en) * 2007-11-09 2014-01-21 The Boeing Company Device and method for generating electrical power
RU2513772C2 (ru) * 2008-01-16 2014-04-20 Конинклейке Филипс Электроникс Н.В. Система и способ автоматического создания атмосферы, подходящей для общественной обстановки и настроя в окружающей среде
US7889073B2 (en) * 2008-01-31 2011-02-15 Sony Computer Entertainment America Llc Laugh detector and system and method for tracking an emotional response to a media presentation
CN108279781B (zh) * 2008-10-20 2022-01-14 皇家飞利浦电子股份有限公司 在再现环境下控制对用户的影响
JP5804405B2 (ja) * 2010-01-27 2015-11-04 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
AU2011220382A1 (en) * 2010-02-28 2012-10-18 Microsoft Corporation Local advertising content on an interactive head-mounted eyepiece
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US20170098122A1 (en) * 2010-06-07 2017-04-06 Affectiva, Inc. Analysis of image content with associated manipulation of expression presentation
ES2563781T3 (es) * 2011-02-24 2016-03-16 Takasago International Corporation Método de IRMf para identificar estímulos olfativos del sistema de recompensa dopaminérgico
US20130022950A1 (en) 2011-07-22 2013-01-24 Muniz Simas Fernando Moreira Method and system for generating behavioral studies of an individual
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US9573053B2 (en) 2011-09-30 2017-02-21 Bally Gaming, Inc. Augmented reality for table games
EP2822756B1 (en) * 2012-03-09 2021-10-27 DSM IP Assets B.V. Composite panel
WO2013177688A1 (en) 2012-06-01 2013-12-05 Next Integrative Mind Life Sciences Holding Inc. Method, system and interface to facilitate change of an emotional state of a user and concurrent users
US20140015858A1 (en) * 2012-07-13 2014-01-16 ClearWorld Media Augmented reality system
US9361730B2 (en) 2012-07-26 2016-06-07 Qualcomm Incorporated Interactions of tangible and augmented reality objects
US20140045158A1 (en) * 2012-08-10 2014-02-13 Tammy Zietchick Movsas System And Method For Associating Auditory Stimuli With Visual Depictions
CN102908772B (zh) * 2012-10-16 2015-02-18 东南大学 利用增强现实技术的上肢康复训练系统
US20140128161A1 (en) 2012-11-06 2014-05-08 Stephen Latta Cross-platform augmented reality experience
JP2013077013A (ja) * 2012-11-20 2013-04-25 Sony Corp 表示装置、表示方法
US9030495B2 (en) * 2012-11-21 2015-05-12 Microsoft Technology Licensing, Llc Augmented reality help
US9380413B1 (en) * 2012-11-29 2016-06-28 Intuit Inc. Dynamically forming the content of a message to a user based on a perceived emotion
EP2928550B1 (en) * 2012-12-07 2023-06-07 Medtronic, Inc. Minimally invasive implantable neurostimulation system
US20140171729A1 (en) * 2012-12-13 2014-06-19 Elekta Ab (Publ) System and Method for Improving the Medical Environment
WO2014138925A1 (en) * 2013-03-15 2014-09-18 Interaxon Inc. Wearable computing apparatus and method
NZ751602A (en) 2013-03-15 2020-01-31 Magic Leap Inc Display system and method
US9872968B2 (en) 2013-04-17 2018-01-23 Sri International Biofeedback virtual reality sleep assistant
US9383819B2 (en) * 2013-06-03 2016-07-05 Daqri, Llc Manipulation of virtual object in augmented reality via intent
US10262462B2 (en) * 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9832452B1 (en) * 2013-08-12 2017-11-28 Amazon Technologies, Inc. Robust user detection and tracking
US10013892B2 (en) * 2013-10-07 2018-07-03 Intel Corporation Adaptive learning environment driven by real-time identification of engagement level
WO2015095737A2 (en) 2013-12-19 2015-06-25 The University Of North Carolina At Chapel Hill Optical see-through near-eye display using point light source backlight
KR102223278B1 (ko) * 2014-05-22 2021-03-05 엘지전자 주식회사 글래스 타입 단말기 및 이의 제어방법
US20160011657A1 (en) * 2014-07-14 2016-01-14 Futurewei Technologies, Inc. System and Method for Display Enhancement
US20160042648A1 (en) * 2014-08-07 2016-02-11 Ravikanth V. Kothuri Emotion feedback based training and personalization system for aiding user performance in interactive presentations
US10120413B2 (en) * 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
US9861151B2 (en) * 2014-12-05 2018-01-09 SaPHIBeat Technologies, Inc. Activity monitoring systems and methods for accident detection and response
US9336481B1 (en) * 2015-02-02 2016-05-10 James Albert Ionson Organically instinct-driven simulation system and method
US10191920B1 (en) * 2015-08-24 2019-01-29 Google Llc Graphical image retrieval based on emotional state of a user of a computing device
WO2017066353A1 (en) * 2015-10-12 2017-04-20 Drone Seed Co. Forestry information management systems and methods streamlined by automatic biometric data prioritization
US10154191B2 (en) * 2016-05-18 2018-12-11 Microsoft Technology Licensing, Llc Emotional/cognitive state-triggered recording
US10540004B2 (en) 2016-07-21 2020-01-21 Magic Leap, Inc. Technique for controlling virtual image generation system using emotional states of user
US10657718B1 (en) * 2016-10-31 2020-05-19 Wells Fargo Bank, N.A. Facial expression tracking during augmented and virtual reality sessions
WO2018161085A1 (en) * 2017-03-03 2018-09-07 BehaVR, LLC Dynamic multi-sensory simulation system for effecting behavior change
US10999066B1 (en) * 2018-09-04 2021-05-04 Wells Fargo Bank, N.A. Brain-actuated control authenticated key exchange

Also Published As

Publication number Publication date
US20180024626A1 (en) 2018-01-25
US10540004B2 (en) 2020-01-21
KR102196380B1 (ko) 2020-12-30
JP2019532374A (ja) 2019-11-07
IL264217B (en) 2021-02-28
US20200117269A1 (en) 2020-04-16
US20230244306A1 (en) 2023-08-03
AU2017300636A1 (en) 2019-01-31
US11656680B2 (en) 2023-05-23
US20200401216A1 (en) 2020-12-24
JP2021089757A (ja) 2021-06-10
AU2022204527A1 (en) 2022-07-21
CN109844735A (zh) 2019-06-04
US10802580B2 (en) 2020-10-13
CA3030169A1 (en) 2018-01-25
IL264217A (en) 2019-02-28
KR20190032502A (ko) 2019-03-27
JP7041763B2 (ja) 2022-03-24
EP3488371A4 (en) 2019-07-17
WO2018017868A1 (en) 2018-01-25
EP3488371A1 (en) 2019-05-29

Similar Documents

Publication Publication Date Title
JP7041763B2 (ja) ユーザの感情状態を用いて仮想画像生成システムを制御するための技術
CN102470273B (zh) 基于玩家表情的视觉表示表情
JP2019532374A5 (ja)
CN102473320B (zh) 通过学习到的来自用户的输入使视觉表示生动化的方法
JP4481682B2 (ja) 情報処理装置及びその制御方法
CN109643162A (zh) 用现实世界内容增强虚拟现实内容
JP2013535051A (ja) 顔の表情のリアルタイムアニメーション
KR20220052363A (ko) 프로그램, 방법, 및 단말 장치
JP7234187B2 (ja) 情報処理プログラム、情報処理方法、情報処理装置
US20230025585A1 (en) Augmented reality artificial intelligence enhance ways user perceive themselves
WO2020255996A1 (ja) プログラム、方法、および端末装置
Bisogni et al. Deep learning for emotion driven user experiences
JP2019023768A (ja) 情報処理装置、及び映像表示装置
US20240123352A1 (en) Affective gaming system and method
KR20240002078A (ko) 제스처 증강 몰입도-추론 기반 교감-유도형 dht 생성 방법 및 이를 적용하는 시스템
CN117940196A (en) Augmented reality artificial intelligence enhancement user perceives mode of oneself

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200717

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200717

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200717

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210210

R150 Certificate of patent or registration of utility model

Ref document number: 6838135

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250