JP6838135B2 - ユーザの感情状態を用いて仮想画像生成システムを制御するための技術 - Google Patents
ユーザの感情状態を用いて仮想画像生成システムを制御するための技術 Download PDFInfo
- Publication number
- JP6838135B2 JP6838135B2 JP2019502242A JP2019502242A JP6838135B2 JP 6838135 B2 JP6838135 B2 JP 6838135B2 JP 2019502242 A JP2019502242 A JP 2019502242A JP 2019502242 A JP2019502242 A JP 2019502242A JP 6838135 B2 JP6838135 B2 JP 6838135B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- emotional state
- end user
- biometric
- biometric data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002996 emotional effect Effects 0.000 title claims description 326
- 238000005516 engineering process Methods 0.000 title description 7
- 238000000034 method Methods 0.000 claims description 126
- 230000003190 augmentative effect Effects 0.000 claims description 84
- 230000009471 action Effects 0.000 claims description 68
- 230000004044 response Effects 0.000 claims description 49
- 239000013598 vector Substances 0.000 claims description 32
- 230000008921 facial expression Effects 0.000 claims description 24
- 239000002131 composite material Substances 0.000 claims description 21
- 210000003128 head Anatomy 0.000 claims description 16
- 238000012986 modification Methods 0.000 claims description 16
- 230000004048 modification Effects 0.000 claims description 16
- 206010048909 Boredom Diseases 0.000 claims description 14
- 238000003909 pattern recognition Methods 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 8
- 230000036772 blood pressure Effects 0.000 claims description 7
- 230000036387 respiratory rate Effects 0.000 claims description 7
- 230000036461 convulsion Effects 0.000 claims description 4
- 238000005314 correlation function Methods 0.000 claims description 4
- 238000010926 purge Methods 0.000 claims description 4
- 230000002457 bidirectional effect Effects 0.000 claims 12
- 230000037303 wrinkles Effects 0.000 description 30
- 230000008451 emotion Effects 0.000 description 21
- 238000012545 processing Methods 0.000 description 20
- 230000002596 correlated effect Effects 0.000 description 18
- 210000004709 eyebrow Anatomy 0.000 description 16
- 230000000875 corresponding effect Effects 0.000 description 11
- 238000013459 approach Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000004424 eye movement Effects 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 6
- 238000009877 rendering Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 210000000744 eyelid Anatomy 0.000 description 4
- 239000013307 optical fiber Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000036626 alertness Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 239000000872 buffer Substances 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 210000001061 forehead Anatomy 0.000 description 3
- 206010028347 Muscle twitching Diseases 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 241000256837 Apidae Species 0.000 description 1
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000003195 fascia Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/56—Information retrieval; Database structures therefor; File system structures therefor of still image data having vectorial format
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Optics & Photonics (AREA)
- Library & Information Science (AREA)
- Heart & Thoracic Surgery (AREA)
- Cardiology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Biomedical Technology (AREA)
- Dermatology (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本願は、2016年7月21日に出願され“TECHNIQUE FOR CONTROLLING VIRTUAL IMAGE GENERATION SYSTEM USING EMOTIONAL STATES OF USER”と題された米国仮特許出願第62/364,957号(代理人管理番号ML.30042.00)からの優先権を主張するものである。上記特許出願の内容は、その全体が参照により本明細書中に援用される。
本発明は、例えば、以下を提供する。
(項目1)
仮想画像生成システムを動作させる方法であって、
エンドユーザが少なくとも1つの仮想オブジェクトを備える3次元環境と相互作用することを可能にするステップと、
前記3次元環境の状況下、刺激を前記エンドユーザに提示するステップと、
前記エンドユーザへの刺激の提示に応答して、前記エンドユーザの少なくとも1つのバイオメトリックパラメータを感知するステップと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成するステップと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎の前記バイオメトリックデータに基づいて、前記エンドユーザが少なくとも1つの特定の感情状態にあるかどうかを決定するステップと、
少なくとも部分的に、前記エンドユーザが前記少なくとも1つの特定の感情状態にあることが決定されるかどうかに基づいて、前記エンドユーザに判別可能なアクションを実施し、現在の目標を促進するステップと
を含む、方法。
(項目2)
前記現在の目標は、所望の持続時間にわたって、前記エンドユーザにおいて所望の感情状態を引き起こすこと、または所望の持続時間にわたって、前記エンドユーザにおいて望ましくない感情状態を引き起こさないこと、または所望の持続時間にわたって、前記エンドユーザにおいて複数の異なる所望の感情状態を引き起こすことである、項目1に記載の方法。
(項目3)
前記所望の持続時間は、関連時間周期にわたって1回、関連時間周期にわたって複数回、または関連時間周期にわたって継続的にである、項目2に記載の方法。
(項目4)
前記現在の目標は、所望の持続時間にわたって、前記エンドユーザにおいて所望の感情状態を引き起こすことであり、前記少なくとも1つの特定の感情状態は、前記所望の感情状態と一致し、前記エンドユーザは、前記所望の持続時間にわたって、前記少なくとも1つの特定の感情状態にあると決定され、前記アクションを実施するステップは、前記刺激を前記エンドユーザに対してより利用可能にするステップを含む、項目2に記載の方法。
(項目5)
前記現在の目標は、所望の持続時間にわたって、前記エンドユーザにおいて所望の感情状態を引き起こすことであり、前記少なくとも1つの特定の感情状態は、前記所望の感情状態と一致し、前記エンドユーザは、前記所望の持続時間にわたって、前記少なくとも1つの特定の感情状態にないと決定され、前記アクションを実施するステップは、前記刺激を前記エンドユーザに対してあまり利用可能にしないステップを含む、項目2に記載の方法。
(項目6)
前記現在の目標は、所望の持続時間にわたって、前記エンドユーザにおいて望ましくない感情状態を引き起こさないことであり、前記少なくとも1つの特定の感情状態は、前記望ましくない感情状態と一致し、前記エンドユーザは、前記所望の持続時間にわたって、前記少なくとも1つの特定の感情状態にないと決定され、前記アクションを実施するステップは、前記刺激を前記エンドユーザに対してより利用可能にするステップを含む、項目2に記載の方法。
(項目7)
前記現在の目標は、所望の持続時間にわたって、前記エンドユーザにおいて望ましくない感情状態を引き起こさないことであり、前記少なくとも1つの特定の感情状態は、前記望ましくない感情状態と一致し、前記エンドユーザは、前記所望の持続時間にわたって、前記少なくとも1つの特定の感情状態にあると決定され、前記アクションを実施するステップは、前記刺激を前記エンドユーザに対してあまり利用可能にしないステップを含む、項目2に記載の方法。
(項目8)
前記少なくとも1つの特定の感情状態は、複数の異なる感情状態を含む、項目2に記載の方法。
(項目9)
前記現在の目標は、所望の持続時間にわたって、前記エンドユーザにおいて複数の異なる所望の感情状態を引き起こすことであり、前記複数の異なる感情状態は、前記複数の所望の感情状態と一致し、前記エンドユーザは、前記所望の持続時間にわたって、前記複数の異なる感情状態にあると決定され、前記アクションを実施するステップは、前記刺激を前記エンドユーザに対してより利用可能にするステップを含む、項目8に記載の方法。
(項目10)
前記現在の目標は、所望の持続時間にわたって、前記エンドユーザにおいて複数の異なる所望の感情状態を引き起こすことであり、前記複数の異なる感情状態は、前記複数の所望の感情状態と一致し、前記エンドユーザは、前記所望の持続時間にわたって、前記複数の異なる感情状態にないと決定され、前記アクションを実施するステップは、前記刺激を前記エンドユーザに対してあまり利用可能にしないステップを含む、項目8に記載の方法。
(項目11)
前記刺激は、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートの形態をとり、前記アクションを実施するステップは、前記ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートを前記エンドユーザに対してより利用可能にする、またはあまり利用可能にしないステップを含む、項目2に記載の方法。
(項目12)
前記刺激は、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートの特徴の形態をとり、前記アクションを実施するステップは、前記ビデオゲーム、プログラム、音楽背景曲、報酬、またはアラートを前記エンドユーザに対してより利用可能にする、またはあまり利用可能にしないステップを含む、項目2に記載の方法。
(項目13)
前記刺激は、戦略的ビデオゲームの形態をとり、前記現在の目標は、前記戦略的ビデオゲームにおいて前記エンドユーザを負かすことであり、前記アクションを実施するステップは、前記エンドユーザに対する特定の感情状態決定を使用してゲームを進めるステップを含む、項目1に記載の方法。
(項目14)
前記戦略的ビデオゲームは、前記エンドユーザと対戦する1人以上のシミュレートされたプレーヤを有するカードプレービデオゲームであり、前記少なくとも1つの特定の感情状態は、前記エンドユーザがはったりをかけているかどうかを示すものであり、前記アクションを実施するステップは、前記1人以上のシミュレートされたプレーヤが、前記エンドユーザがはったりをかけているかどうかの知識を使用して、前記エンドユーザとカードをプレーするステップを含む、項目13に記載の方法。
(項目15)
前記カードプレービデオゲームは、ポーカービデオゲームである、項目14に記載の方法。
(項目16)
前記刺激は、前記エンドユーザに提示される質問の形態をとり、前記現在の目標は、前記質問に応答して、前記エンドユーザが嘘をついているかどうかを決定することであり、前記アクションを実施するステップは、特定の感情状態決定を使用して、前記エンドユーザに前記エンドユーザが嘘をついているかどうかを知らせるステップを含む、項目1に記載の方法。
(項目17)
前記刺激は、前記エンドユーザに提示される複数のオプションの形態をとり、前記現在の目標は、前記エンドユーザが考えている前記複数のオブジェクトのうちの1つを決定することであり、前記アクションを実施するステップは、特定の感情状態決定を使用して、前記エンドユーザに前記エンドユーザが考えているオブジェクトを知らせるステップを含む、項目1に記載の方法。
(項目18)
前記刺激は、シミュレートされた顔の形態をとり、前記現在の目標は、前記エンドユーザを笑わせることであり、前記アクションを実施するステップは、特定の感情状態決定を使用して、前記エンドユーザが笑いそうであるかどうかを決定し、前記エンドユーザを笑わせるように前記シミュレートされた顔を修正するステップを含む、項目1に記載の方法。
(項目19)
前記エンドユーザの少なくとも1つのバイオメトリックパラメータは、前記刺激の提示に応答して、複数の異なる時間に感知され、前記バイオメトリックデータは、これらの異なる時間に生成される、項目1に記載の方法。
(項目20)
前記刺激は、前記エンドユーザに視覚的に提示される、または聴覚的に提示される、項目1に記載の方法。
(項目21)
前記少なくとも1つの感知されるバイオメトリックパラメータは、複数の異なる感知されるバイオメトリックパラメータを含む、項目1に記載の方法。
(項目22)
前記エンドユーザが前記少なくとも1つの特定の感情状態にあるかどうかを決定するステップは、パターン認識分析を前記生成されたバイオメトリックデータに実施するステップを含む、項目21に記載の方法。
(項目23)
前記少なくとも1つの感知されるバイオメトリックパラメータは、少なくとも1つの表情を含む、項目1に記載の方法。
(項目24)
前記少なくとも1つの表情は、前記エンドユーザの口角および眼の周囲の目尻の皺の一方または両方である、項目23に記載の方法。
(項目25)
前記少なくとも1つの特定の感情状態は、楽しさを含む、項目24に記載の方法。
(項目26)
前記少なくとも1つの感知されるバイオメトリックパラメータは、表情、肩をすぼめること、呼吸数、心拍数、体温、血圧、手の移動の頻度および/または場所、身体がぴくぴくする頻度および/または場所、および眼の移動の間の経過時間のうちの少なくとも1つを含む、項目1に記載の方法。
(項目27)
前記少なくとも1つの感知されるバイオメトリックパラメータは、少なくとも1つの微表情を含む、項目1に記載の方法。
(項目28)
前記少なくとも1つの特定の感情状態は、怒り、軽蔑、嫌悪、恐れ、楽しさ、悲しみ、驚き、混乱、羞恥心、警戒心、疲労、リラックス、欲求不満、退屈、当惑のうちの少なくとも1つを含む、項目1に記載の方法。
(項目29)
前記エンドユーザが前記少なくとも1つの特定の感情状態にあるかどうかを決定するステップは、前記生成されたバイオメトリックデータと前記少なくとも1つの特定の感情状態と相関される基準バイオメトリックデータを比較するステップを含む、項目1に記載の方法。
(項目30)
前記少なくとも1つの感知されるバイオメトリックパラメータのうちの1つに関して生成されたバイオメトリックデータは、バイオメトリックスカラーデータ値であり、前記基準バイオメトリックデータは、基準バイオメトリック値範囲を含み、前記生成されたバイオメトリックデータと前記基準バイオメトリックデータを比較するステップは、前記バイオメトリックスカラーデータ値が前記基準バイオメトリック値範囲内にあるかどうかを決定するステップを含む、項目29に記載の方法。
(項目31)
前記少なくとも1つの感知されるバイオメトリックパラメータのうちの1つに関して生成されたバイオメトリックデータは、バイオメトリック多次元データベクトルであり、前記基準バイオメトリックデータは、基準バイオメトリック多次元データベクトルを含み、前記生成されたバイオメトリックデータと前記基準バイオメトリックデータを比較するステップは、前記生成されたバイオメトリック多次元データベクトルと前記基準バイオメトリック多次元データベクトルとの間の相関関数を実施するステップを含む、項目29に記載の方法。
(項目32)
前記エンドユーザが前記少なくとも1つの特定の感情状態にあるかどうかを決定するステップはさらに、前記基準バイオメトリックデータを前記エンドユーザのカスタム感情状態プロファイルから読み出すステップを含む、項目29に記載の方法。
(項目33)
前記エンドユーザが前記3次元環境と相互作用することを可能にするステップは、3次元環境の複数の合成画像フレームをレンダリングし、前記合成画像フレームを前記エンドユーザに連続して表示するステップを含む、項目1に記載の方法。
(項目34)
前記合成画像フレームは、前記エンドユーザの頭部に搭載されるフレーム構造を介して、前記エンドユーザの視野内に透明ディスプレイ表面から投影される、項目33に記載の方法。
(項目35)
前記合成画像フレームは、前記エンドユーザによって可視化される実場面にわたって重畳される、項目33に記載の方法。
(項目36)
仮想画像生成システムを動作させる方法であって、
エンドユーザが少なくとも1つの仮想オブジェクトを備える3次元環境と相互作用することを可能にするステップと、
前記3次元環境の状況下、刺激を前記エンドユーザに提示するステップと、
前記提示される刺激に応答して、前記エンドユーザの少なくとも1つの感知されるバイオメトリックパラメータを感知するステップと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成するステップと、
前記生成されたバイオメトリックデータと前記エンドユーザの特定の感情状態を相関させるステップと、
基準バイオメトリックデータを前記相関バイオメトリックデータから導出するステップと、
前記基準バイオメトリックデータを前記特定の感情状態と相関させて前記エンドユーザのカスタムプロファイル内に記憶するステップと
を含む、方法。
(項目37)
前記生成されたバイオメトリックデータは、特定の信頼度レベルを伴って、前記特定の感情状態と相関される、項目36に記載の方法。
(項目38)
前記生成されたバイオメトリックデータと前記特定の感情状態を相関させるステップは、前記刺激が前記エンドユーザに提示されている間、前記エンドユーザが前記3次元環境と相互作用する持続時間を追跡するステップを含む、項目36に記載の方法。
(項目39)
前記生成されたバイオメトリックデータと前記特定の感情状態を相関させるステップはさらに、前記追跡された持続時間と閾値持続時間を比較し、前記比較に基づいて、前記生成されたバイオメトリックデータと前記特定の感情状態を相関させるステップを含む、項目38に記載の方法。
(項目40)
前記持続時間は、前記刺激が前記エンドユーザに提示される時間周期および回数のうちの1つである、項目39に記載の方法。
(項目41)
前記生成されたバイオメトリックデータと前記特定の感情状態を相関させるステップは、
異なる刺激を用いて、刺激提示、バイオメトリックパラメータ感知、およびバイオメトリックデータ生成ステップを数回繰り返し、前記エンドユーザにおいて異なる感情状態または異なる感情状態の程度を引き起こすステップと、
前記特定の感情状態に最良に合致する、バイオメトリックデータを選択するステップと、
を含む、項目36に記載の方法。
(項目42)
別の3次元環境の状況において、後続刺激を前記エンドユーザに提示するステップと、
後続して提示される刺激に応答して、前記エンドユーザの少なくとも1つの感知されるバイオメトリックパラメータを感知するステップと、
前記後続して提示される刺激に応答して感知される前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成するステップと、
前記基準バイオメトリックデータを前記カスタムプロファイルから読み出すステップと、
前記生成されたバイオメトリックデータと前記読み出された基準バイオメトリックデータを比較するステップと、
前記比較に基づいて、前記エンドユーザが前記特定の感情状態にあることを決定するステップと
をさらに含む、項目36に記載の方法。
(項目43)
前記後続刺激は、以前に提示される刺激と異なる、項目42に記載の方法。
(項目44)
前記刺激は、前記エンドユーザに視覚的に提示される、または聴覚的に提示される、項目36に記載の方法。
(項目45)
前記刺激は、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートである、項目36に記載の方法。
(項目46)
前記刺激は、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートの特徴である、項目36に記載の方法。
(項目47)
前記少なくとも1つの感知されるバイオメトリックパラメータは、複数の異なる感知されるバイオメトリックパラメータを含む、項目36に記載の方法。
(項目48)
前記少なくとも1つの感知されるバイオメトリックパラメータは、少なくとも1つの表情を含む、項目36に記載の方法。
(項目49)
前記少なくとも1つの表情は、前記エンドユーザの口角および眼の周囲の目尻の皺の一方または両方である、項目48に記載の方法。
(項目50)
前記少なくとも1つの特定の感情状態は、楽しさを含む、項目49に記載の方法。
(項目51)
前記少なくとも1つの感知されるバイオメトリックパラメータは、表情、肩をすぼめること、呼吸数、心拍数、体温、血圧、手の移動の頻度および/または場所、身体がぴくぴくする頻度および/または場所、および眼の移動の間の経過時間のうちの少なくとも1つを含む、項目36に記載の方法。
(項目52)
前記少なくとも1つの感知されるバイオメトリックパラメータは、少なくとも1つの微表情を含む、項目36に記載の方法。
(項目53)
前記少なくとも1つの特定の感情状態は、怒り、軽蔑、嫌悪、恐れ、楽しさ、悲しみ、驚き、混乱、羞恥心、警戒心、疲労、リラックス、欲求不満、退屈、当惑のうちの少なくとも1つを含む、項目36に記載の方法。
(項目54)
前記少なくとも1つの感知されるバイオメトリックパラメータのうちの1つに関して生成されたバイオメトリックデータは、バイオメトリックスカラーデータ値であり、前記基準バイオメトリックデータは、基準バイオメトリック値範囲を含む、項目36に記載の方法。
(項目55)
前記少なくとも1つの感知されるバイオメトリックパラメータのうちの1つに関して生成されたバイオメトリックデータは、バイオメトリック多次元データベクトルであり、前記基準バイオメトリックデータは、基準バイオメトリック多次元データベクトルを含む、項目36に記載の方法。
(項目56)
前記エンドユーザが前記3次元環境と相互作用することを可能にするステップは、3次元環境の複数の合成画像フレームをレンダリングし、前記合成画像フレームを前記エンドユーザに連続して表示するステップを含む、項目36に記載の方法。
(項目57)
前記合成画像フレームは、前記エンドユーザの頭部に搭載されるフレーム構造を介して、前記エンドユーザの視野内に位置付けられるディスプレイ表面上に表示される、項目56に記載の方法。
(項目58)
前記合成画像フレームは、前記エンドユーザによって可視化される実場面にわたって重畳される、項目56に記載の方法。
Claims (33)
- ウェアラブルディスプレイデバイスを含む拡張現実(AR)ディスプレイシステムを動作させる方法であって、前記方法は、
前記ウェアラブルディスプレイデバイスを通してユーザに双方向3次元環境を提示することであって、前記双方向3次元環境は、実世界場面と、前記ARディスプレイシステムによって生成されて前記実世界場面内に提示される少なくとも1つの仮想オブジェクトとを含む、ことと、
前記3次元環境における刺激の提示に応答して、前記ユーザの少なくとも1つのバイオメトリックパラメータを感知することであって、前記少なくとも1つのバイオメトリックパラメータは、前記ウェアラブルディスプレイデバイスに取り付けられている少なくとも1つのセンサを使用して感知される、ことと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成することと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎の前記バイオメトリックデータに基づいて、前記ユーザの少なくとも1つの感情状態を決定することと、
前記ユーザが前記少なくとも1つの感情状態にあることの決定に少なくとも部分的に基づいて、前記ARディスプレイシステムを通してアクションを実施することであって、前記アクションは、前記少なくとも1つの仮想オブジェクトが前記ウェアラブルディスプレイデバイスを通して前記ユーザに提示されている間における前記少なくとも1つの仮想オブジェクトの修正を含み、前記少なくとも1つの仮想オブジェクトの前記修正は、前記ユーザの前記少なくとも1つの感情状態を変えるように選択される、ことと
を含み、
前記少なくとも1つの感知されるバイオメトリックパラメータは、複数の異なる感知されるバイオメトリックパラメータを含み、
前記ユーザの少なくとも1つの特定の感情状態を決定することは、パターン認識分析を前記生成されたバイオメトリックデータに実施することを含む、方法。 - ある持続時間にわたって、前記ユーザの前記少なくとも1つの感情状態を決定することをさらに含み、前記アクションは、前記ユーザが前記ある持続時間にわたって前記少なくとも1つの感情状態にあることの決定に少なくとも部分的に基づいて、前記ARディスプレイシステムを通して実施される、請求項1に記載の方法。
- 前記少なくとも1つの感情状態は、複数の異なる感情状態を含む、請求項2に記載の方法。
- 前記刺激は、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートを含み、前記アクションを実施することは、前記ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートを前記ユーザに対してより利用可能にする、またはあまり利用可能にしないことを含む、請求項1に記載の方法。
- 前記刺激は、ビデオゲーム、プログラム、音楽背景曲、報酬、仮想オブジェクト、またはアラートの特徴を含み、前記アクションを実施することは、前記ビデオゲーム、プログラム、音楽背景曲、報酬、またはアラートを前記ユーザに対してより利用可能にする、またはあまり利用可能にしないことを含む、請求項1に記載の方法。
- ウェアラブルディスプレイデバイスを含む拡張現実(AR)ディスプレイシステムを動作させる方法であって、前記方法は、
前記ウェアラブルディスプレイデバイスを通してユーザに双方向3次元環境を提示することであって、前記双方向3次元環境は、実世界場面と、前記ARディスプレイシステムによって生成されて前記実世界場面内に提示される少なくとも1つの仮想オブジェクトとを含む、ことと、
前記3次元環境における刺激の提示に応答して、前記ユーザの少なくとも1つのバイオメトリックパラメータを感知することであって、前記少なくとも1つのバイオメトリックパラメータは、前記ウェアラブルディスプレイデバイスに取り付けられている少なくとも1つのセンサを使用して感知される、ことと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成することと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎の前記バイオメトリックデータに基づいて、前記ユーザの少なくとも1つの感情状態を決定することと、
前記ユーザが前記少なくとも1つの感情状態にあることの決定に少なくとも部分的に基づいて、前記ARディスプレイシステムを通してアクションを実施することであって、前記アクションは、前記少なくとも1つの仮想オブジェクトが前記ウェアラブルディスプレイデバイスを通して前記ユーザに提示されている間における前記少なくとも1つの仮想オブジェクトの修正を含み、前記少なくとも1つの仮想オブジェクトの前記修正は、前記ユーザの前記少なくとも1つの感情状態を変えるように選択される、ことと
を含み、
前記刺激は、戦略的ビデオゲームを含み、前記アクションを実施することは、前記ユーザの前記少なくとも1つの感情状態を使用してゲームを進めることを含む、方法。 - 前記戦略的ビデオゲームは、前記ユーザと対戦する1人以上のシミュレートされたプレーヤを有するカードプレービデオゲームであり、前記少なくとも1つの感情状態は、前記ユーザがはったりをかけているかどうかを示すものであり、前記アクションを実施することは、前記1人以上のシミュレートされたプレーヤが、前記ユーザがはったりをかけているかどうかの知識を使用して、前記ユーザとカードをプレーすることを含む、請求項6に記載の方法。
- 前記カードプレービデオゲームは、ポーカービデオゲームである、請求項7に記載の方法。
- ウェアラブルディスプレイデバイスを含む拡張現実(AR)ディスプレイシステムを動作させる方法であって、前記方法は、
前記ウェアラブルディスプレイデバイスを通してユーザに双方向3次元環境を提示することであって、前記双方向3次元環境は、実世界場面と、前記ARディスプレイシステムによって生成されて前記実世界場面内に提示される少なくとも1つの仮想オブジェクトとを含む、ことと、
前記3次元環境における刺激の提示に応答して、前記ユーザの少なくとも1つのバイオメトリックパラメータを感知することであって、前記少なくとも1つのバイオメトリックパラメータは、前記ウェアラブルディスプレイデバイスに取り付けられている少なくとも1つのセンサを使用して感知される、ことと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成することと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎の前記バイオメトリックデータに基づいて、前記ユーザの少なくとも1つの感情状態を決定することと、
前記ユーザが前記少なくとも1つの感情状態にあることの決定に少なくとも部分的に基づいて、前記ARディスプレイシステムを通してアクションを実施することであって、前記アクションは、前記少なくとも1つの仮想オブジェクトが前記ウェアラブルディスプレイデバイスを通して前記ユーザに提示されている間における前記少なくとも1つの仮想オブジェクトの修正を含み、前記少なくとも1つの仮想オブジェクトの前記修正は、前記ユーザの前記少なくとも1つの感情状態を変えるように選択される、ことと
を含み、
前記刺激は、前記ユーザに提示される質問を含み、前記アクションを実施することは、前記少なくとも1つの感情状態を使用して、前記ユーザが嘘をついているかどうかを前記ユーザに知らせることを含む、方法。 - 前記刺激は、エンドユーザに提示される複数のオプションを含み、前記アクションを実施することは、前記少なくとも1つの感情状態を使用して、前記ユーザが好むオプションを前記ユーザに知らせることを含む、請求項1に記載の方法。
- ウェアラブルディスプレイデバイスを含む拡張現実(AR)ディスプレイシステムを動作させる方法であって、前記方法は、
前記ウェアラブルディスプレイデバイスを通してユーザに双方向3次元環境を提示することであって、前記双方向3次元環境は、実世界場面と、前記ARディスプレイシステムによって生成されて前記実世界場面内に提示される少なくとも1つの仮想オブジェクトとを含む、ことと、
前記3次元環境における刺激の提示に応答して、前記ユーザの少なくとも1つのバイオメトリックパラメータを感知することであって、前記少なくとも1つのバイオメトリックパラメータは、前記ウェアラブルディスプレイデバイスに取り付けられている少なくとも1つのセンサを使用して感知される、ことと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成することと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎の前記バイオメトリックデータに基づいて、前記ユーザの少なくとも1つの感情状態を決定することと、
前記ユーザが前記少なくとも1つの感情状態にあることの決定に少なくとも部分的に基づいて、前記ARディスプレイシステムを通してアクションを実施することであって、前記アクションは、前記少なくとも1つの仮想オブジェクトが前記ウェアラブルディスプレイデバイスを通して前記ユーザに提示されている間における前記少なくとも1つの仮想オブジェクトの修正を含み、前記少なくとも1つの仮想オブジェクトの前記修正は、前記ユーザの前記少なくとも1つの感情状態を変えるように選択される、ことと
を含み、
前記刺激は、シミュレートされた顔を含み、前記アクションを実施することは、特定の感情状態決定を使用して、エンドユーザが笑いそうであるかどうかを決定し、前記ユーザを笑わせるように前記シミュレートされた顔を修正することを含む、方法。 - 前記ユーザの前記少なくとも1つのバイオメトリックパラメータは、前記刺激の提示に応答して、複数の異なる時間に感知され、前記バイオメトリックデータは、これらの異なる時間に生成される、請求項1に記載の方法。
- 前記刺激は、前記ウェアラブルディスプレイデバイスを通して前記ユーザに視覚的に提示される、請求項1に記載の方法。
- 前記少なくとも1つの感知されるバイオメトリックパラメータは、少なくとも1つの表情を含む、請求項1に記載の方法。
- 前記少なくとも1つの表情は、エンドユーザの口角および眼の周囲の目尻の皺の一方または両方である、請求項14に記載の方法。
- 前記少なくとも1つの感情状態は、楽しさを含む、請求項15に記載の方法。
- 前記少なくとも1つの感知されるバイオメトリックパラメータは、表情、肩をすぼめること、呼吸数、心拍数、体温、血圧、手の移動の頻度および/または場所、身体がぴくぴくする頻度および/または場所、および眼の移動の間の経過時間のうちの少なくとも1つを含む、請求項1に記載の方法。
- 前記少なくとも1つの感知されるバイオメトリックパラメータは、少なくとも1つの微表情を含む、請求項1に記載の方法。
- 前記少なくとも1つの感情状態は、怒り、軽蔑、嫌悪、恐れ、楽しさ、悲しみ、驚き、混乱、羞恥心、警戒心、疲労、リラックス、欲求不満、退屈、当惑のうちの少なくとも1つを含む、請求項1に記載の方法。
- 前記ユーザの少なくとも1つの感情状態を決定することは、前記生成されたバイオメトリックデータを、前記少なくとも1つの感情状態と相関される基準バイオメトリックデータと比較することを含む、請求項1に記載の方法。
- ウェアラブルディスプレイデバイスを含む拡張現実(AR)ディスプレイシステムを動作させる方法であって、前記方法は、
前記ウェアラブルディスプレイデバイスを通してユーザに双方向3次元環境を提示することであって、前記双方向3次元環境は、実世界場面と、前記ARディスプレイシステムによって生成されて前記実世界場面内に提示される少なくとも1つの仮想オブジェクトとを含む、ことと、
前記3次元環境における刺激の提示に応答して、前記ユーザの少なくとも1つのバイオメトリックパラメータを感知することであって、前記少なくとも1つのバイオメトリックパラメータは、前記ウェアラブルディスプレイデバイスに取り付けられている少なくとも1つのセンサを使用して感知される、ことと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成することと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎の前記バイオメトリックデータに基づいて、前記ユーザの少なくとも1つの感情状態を決定することと、
前記ユーザが前記少なくとも1つの感情状態にあることの決定に少なくとも部分的に基づいて、前記ARディスプレイシステムを通してアクションを実施することであって、前記アクションは、前記少なくとも1つの仮想オブジェクトが前記ウェアラブルディスプレイデバイスを通して前記ユーザに提示されている間における前記少なくとも1つの仮想オブジェクトの修正を含み、前記少なくとも1つの仮想オブジェクトの前記修正は、前記ユーザの前記少なくとも1つの感情状態を変えるように選択される、ことと
を含み、
前記ユーザの少なくとも1つの感情状態を決定することは、前記生成されたバイオメトリックデータを、前記少なくとも1つの感情状態と相関される基準バイオメトリックデータと比較することを含み、
前記少なくとも1つの感知されるバイオメトリックパラメータのうちの1つに関する前記生成されたバイオメトリックデータは、バイオメトリックスカラーデータ値であり、前記基準バイオメトリックデータは、基準バイオメトリック値範囲を含み、前記生成されたバイオメトリックデータを前記基準バイオメトリックデータと比較することは、前記バイオメトリックスカラーデータ値が前記基準バイオメトリック値範囲内にあるかどうかを決定することを含む、方法。 - ウェアラブルディスプレイデバイスを含む拡張現実(AR)ディスプレイシステムを動作させる方法であって、前記方法は、
前記ウェアラブルディスプレイデバイスを通してユーザに双方向3次元環境を提示することであって、前記双方向3次元環境は、実世界場面と、前記ARディスプレイシステムによって生成されて前記実世界場面内に提示される少なくとも1つの仮想オブジェクトとを含む、ことと、
前記3次元環境における刺激の提示に応答して、前記ユーザの少なくとも1つのバイオメトリックパラメータを感知することであって、前記少なくとも1つのバイオメトリックパラメータは、前記ウェアラブルディスプレイデバイスに取り付けられている少なくとも1つのセンサを使用して感知される、ことと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎に、バイオメトリックデータを生成することと、
前記少なくとも1つの感知されるバイオメトリックパラメータ毎の前記バイオメトリックデータに基づいて、前記ユーザの少なくとも1つの感情状態を決定することと、
前記ユーザが前記少なくとも1つの感情状態にあることの決定に少なくとも部分的に基づいて、前記ARディスプレイシステムを通してアクションを実施することであって、前記アクションは、前記少なくとも1つの仮想オブジェクトが前記ウェアラブルディスプレイデバイスを通して前記ユーザに提示されている間における前記少なくとも1つの仮想オブジェクトの修正を含み、前記少なくとも1つの仮想オブジェクトの前記修正は、前記ユーザの前記少なくとも1つの感情状態を変えるように選択される、ことと
を含み、
前記ユーザの少なくとも1つの感情状態を決定することは、前記生成されたバイオメトリックデータを、前記少なくとも1つの感情状態と相関される基準バイオメトリックデータと比較することを含み、
前記少なくとも1つの感知されるバイオメトリックパラメータのうちの1つに関する前記生成されたバイオメトリックデータは、バイオメトリック多次元データベクトルであり、前記基準バイオメトリックデータは、基準バイオメトリック多次元データベクトルを含み、前記生成されたバイオメトリックデータを前記基準バイオメトリックデータと比較することは、前記生成されたバイオメトリック多次元データベクトルと前記基準バイオメトリック多次元データベクトルとの間の相関関数を実施することを含む、方法。 - 前記ユーザの前記少なくとも1つの感情状態を決定することは、前記基準バイオメトリックデータをエンドユーザのカスタム感情状態プロファイルから読み出すことをさらに含む、請求項20に記載の方法。
- 前記ウェアラブルディスプレイデバイスを通して前記ユーザに前記3次元環境を提示することは、3次元環境の複数の合成画像フレームをレンダリングし、前記ウェアラブルディスプレイデバイスを通して前記合成画像フレームを前記ユーザに連続して表示することを含む、請求項1に記載の方法。
- 前記合成画像フレームは、前記ユーザの頭部に搭載されるフレーム構造を介して、前記ユーザの視野内に透明ディスプレイ表面から投影される、請求項24に記載の方法。
- 前記合成画像フレームは、前記ユーザによって可視化される実場面にわたって重畳される、請求項24に記載の方法。
- 前記ARディスプレイシステムはまた、前記ウェアラブルディスプレイデバイスに結合されるスピーカを含み、
前記刺激は、前記スピーカを通して聴覚的に提示される、請求項1に記載の方法。 - 前記ARディスプレイシステムはまた、機械的アクチュエータを含み、
前記刺激は、前記機械的アクチュエータを通して触覚的に提示される、請求項1に記載の方法。 - 前記少なくとも1つのセンサは、前記ウェアラブルディスプレイデバイスに結合される後ろ向きに面したカメラを備え、
前記少なくとも1つのバイオメトリックパラメータは、前記ユーザの顔の移動を含む、請求項1に記載の方法。 - 前記少なくとも1つのセンサは、前記ウェアラブルディスプレイデバイスに結合されるマイクロホンを含む、請求項1に記載の方法。
- 前記少なくとも1つのセンサは、前記ユーザの身体部分に結合される加速度計を含み、
前記少なくとも1つのバイオメトリックパラメータは、前記ユーザの前記身体部分の移動を含む、請求項1の記載の方法。 - 前記ユーザの前記決定された少なくとも1つの感情状態が楽しさまたは興奮であるとき、前記少なくとも1つの仮想オブジェクトの前記修正は、前記提示された刺激を増加させる、請求項1に記載の方法。
- 前記ユーザの前記決定された少なくとも1つの感情状態が欲求不満または退屈であるとき、前記少なくとも1つの仮想オブジェクトの前記修正は、前記提示された刺激を減少させる、請求項1に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662364957P | 2016-07-21 | 2016-07-21 | |
US62/364,957 | 2016-07-21 | ||
PCT/US2017/043133 WO2018017868A1 (en) | 2016-07-21 | 2017-07-20 | Technique for controlling virtual image generation system using emotional states of user |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021019540A Division JP7041763B2 (ja) | 2016-07-21 | 2021-02-10 | ユーザの感情状態を用いて仮想画像生成システムを制御するための技術 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019532374A JP2019532374A (ja) | 2019-11-07 |
JP2019532374A5 JP2019532374A5 (ja) | 2020-08-27 |
JP6838135B2 true JP6838135B2 (ja) | 2021-03-03 |
Family
ID=60988486
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019502242A Active JP6838135B2 (ja) | 2016-07-21 | 2017-07-20 | ユーザの感情状態を用いて仮想画像生成システムを制御するための技術 |
JP2021019540A Active JP7041763B2 (ja) | 2016-07-21 | 2021-02-10 | ユーザの感情状態を用いて仮想画像生成システムを制御するための技術 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021019540A Active JP7041763B2 (ja) | 2016-07-21 | 2021-02-10 | ユーザの感情状態を用いて仮想画像生成システムを制御するための技術 |
Country Status (9)
Country | Link |
---|---|
US (4) | US10540004B2 (ja) |
EP (2) | EP3488371A4 (ja) |
JP (2) | JP6838135B2 (ja) |
KR (1) | KR102196380B1 (ja) |
CN (1) | CN109844735A (ja) |
AU (2) | AU2017300636A1 (ja) |
CA (1) | CA3030169A1 (ja) |
IL (1) | IL264217B (ja) |
WO (1) | WO2018017868A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10514766B2 (en) * | 2015-06-09 | 2019-12-24 | Dell Products L.P. | Systems and methods for determining emotions based on user gestures |
WO2018017868A1 (en) | 2016-07-21 | 2018-01-25 | Magic Leap, Inc. | Technique for controlling virtual image generation system using emotional states of user |
US10395693B2 (en) | 2017-04-10 | 2019-08-27 | International Business Machines Corporation | Look-ahead for video segments |
US11311188B2 (en) * | 2017-07-13 | 2022-04-26 | Micro Medical Devices, Inc. | Visual and mental testing using virtual reality hardware |
US10441886B2 (en) * | 2018-01-29 | 2019-10-15 | Sony Interactive Entertainment LLC | Dynamic allocation of contextual assistance during game play |
US10610783B2 (en) | 2018-01-31 | 2020-04-07 | Sony Interactive Entertainment LLC | Assignment of contextual game play assistance to player reaction |
CN108445624B (zh) * | 2018-02-08 | 2021-01-26 | 上海橙旺智能科技有限公司 | 具有增强现实功能的头戴式显示装置 |
CN110794950A (zh) * | 2018-08-01 | 2020-02-14 | 深圳先进技术研究院 | 一种数据监测实验方法、装置、终端设备及存储介质 |
EP3617847A1 (en) | 2018-08-29 | 2020-03-04 | Koninklijke Philips N.V. | Controlling the operation of one or more devices |
GB2580937B (en) * | 2019-01-31 | 2022-07-13 | Sony Interactive Entertainment Europe Ltd | Method and system for generating audio-visual content from video game footage |
CN110379234A (zh) * | 2019-07-23 | 2019-10-25 | 广东小天才科技有限公司 | 一种学习辅导方法及装置 |
KR102705312B1 (ko) * | 2019-08-27 | 2024-09-10 | 엘지전자 주식회사 | Xr 컨텐츠 제공 방법 및 xr 컨텐츠 제공 디바이스 |
CN110837294B (zh) * | 2019-10-14 | 2023-12-12 | 成都西山居世游科技有限公司 | 一种基于眼球追踪的面部表情控制方法及系统 |
GB2590473B (en) * | 2019-12-19 | 2022-07-27 | Samsung Electronics Co Ltd | Method and apparatus for dynamic human-computer interaction |
CN113763531B (zh) * | 2020-06-05 | 2023-11-28 | 北京达佳互联信息技术有限公司 | 三维人脸重建方法、装置、电子设备及存储介质 |
US10987592B1 (en) | 2020-06-05 | 2021-04-27 | 12traits, Inc. | Systems and methods to correlate user behavior patterns within an online game with psychological attributes of users |
US11206263B1 (en) | 2021-01-25 | 2021-12-21 | 12traits, Inc. | Systems and methods to determine content to present based on interaction information of a given user |
US11468713B2 (en) | 2021-03-02 | 2022-10-11 | Bank Of America Corporation | System and method for leveraging a time-series of microexpressions of users in customizing media presentation based on users# sentiments |
US11727424B2 (en) | 2021-06-04 | 2023-08-15 | Solsten, Inc. | Systems and methods to correlate user behavior patterns within digital application environments with psychological attributes of users to determine adaptations to the digital application environments |
US20240050003A1 (en) * | 2021-09-09 | 2024-02-15 | GenoEmote LLC | Method and system for validating the response of a user using chatbot |
WO2023146963A1 (en) * | 2022-01-26 | 2023-08-03 | The Regents Of The University Of Michigan | Detecting emotional state of a user based on facial appearance and visual perception information |
US12114043B2 (en) | 2022-06-06 | 2024-10-08 | Solsten, Inc. | Systems and methods to identify taxonomical classifications of target content for prospective audience |
US20240094801A1 (en) * | 2022-09-21 | 2024-03-21 | International Business Machines Corporation | Contextual virtual reality rendering and adopting biomarker analysis |
WO2024194211A1 (en) * | 2023-03-21 | 2024-09-26 | Sony Group Corporation | A method, a computer program and an apparatus for adjusting a service consumed by a human, a robot, a vehicle, an entertainment system, and a smart home system |
Family Cites Families (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5702323A (en) | 1995-07-26 | 1997-12-30 | Poulton; Craig K. | Electronic exercise enhancer |
US6001065A (en) * | 1995-08-02 | 1999-12-14 | Ibva Technologies, Inc. | Method and apparatus for measuring and analyzing physiological signals for active or passive control of physical and virtual spaces and the contents therein |
JPH11219446A (ja) * | 1998-02-03 | 1999-08-10 | Matsushita Electric Ind Co Ltd | 映像音響再生システム |
KR20010053322A (ko) * | 1999-04-30 | 2001-06-25 | 이데이 노부유끼 | 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체 |
US8972266B2 (en) * | 2002-11-12 | 2015-03-03 | David Bezar | User intent analysis extent of speaker intent analysis system |
JP4389512B2 (ja) | 2003-07-28 | 2009-12-24 | ソニー株式会社 | 腕時計型会話補助装置、会話補助システム、眼鏡型会話補助装置および会話補助装置 |
US20050216243A1 (en) * | 2004-03-02 | 2005-09-29 | Simon Graham | Computer-simulated virtual reality environments for evaluation of neurobehavioral performance |
US8488023B2 (en) * | 2009-05-20 | 2013-07-16 | DigitalOptics Corporation Europe Limited | Identifying facial expressions in acquired digital images |
EP2016562A4 (en) * | 2006-05-07 | 2010-01-06 | Sony Computer Entertainment Inc | METHOD FOR IMPLEMENTING AFFECTIVE PROPERTIES IN A COMPUTER GENERATED AVATAR DURING A COMPUTER GAME |
US7721883B2 (en) * | 2006-07-10 | 2010-05-25 | Finest Products Limited | Disk protective enclosure |
CN101512574A (zh) * | 2006-09-07 | 2009-08-19 | 宝洁公司 | 用于测量情绪响应和选择偏好的方法 |
US20080065468A1 (en) | 2006-09-07 | 2008-03-13 | Charles John Berg | Methods for Measuring Emotive Response and Selection Preference |
US8386313B2 (en) * | 2007-08-28 | 2013-02-26 | The Nielsen Company (Us), Llc | Stimulus placement system using subject neuro-response measurements |
US8633371B2 (en) * | 2007-11-09 | 2014-01-21 | The Boeing Company | Device and method for generating electrical power |
EP2229228B1 (en) * | 2008-01-16 | 2014-07-16 | Koninklijke Philips N.V. | System and method for automatically creating an atmosphere suited to social setting and mood in an environment |
US7889073B2 (en) * | 2008-01-31 | 2011-02-15 | Sony Computer Entertainment America Llc | Laugh detector and system and method for tracking an emotional response to a media presentation |
JP5766119B2 (ja) * | 2008-10-20 | 2015-08-19 | コーニンクレッカ フィリップス エヌ ヴェ | レンダリング環境のユーザへの影響の制御 |
JP5804405B2 (ja) * | 2010-01-27 | 2015-11-04 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム |
US20130278631A1 (en) | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
KR20130000401A (ko) * | 2010-02-28 | 2013-01-02 | 오스터하우트 그룹 인코포레이티드 | 대화형 머리장착식 아이피스 상의 지역 광고 컨텐츠 |
US20170098122A1 (en) * | 2010-06-07 | 2017-04-06 | Affectiva, Inc. | Analysis of image content with associated manipulation of expression presentation |
EP2492705B1 (en) * | 2011-02-24 | 2015-12-30 | Takasago International Corporation | fMRI method to identify olfactive stimuli of the dopaminergic reward system |
US20130022950A1 (en) * | 2011-07-22 | 2013-01-24 | Muniz Simas Fernando Moreira | Method and system for generating behavioral studies of an individual |
US9916538B2 (en) * | 2012-09-15 | 2018-03-13 | Z Advanced Computing, Inc. | Method and system for feature detection |
US9573053B2 (en) | 2011-09-30 | 2017-02-21 | Bally Gaming, Inc. | Augmented reality for table games |
CA2865201C (en) * | 2012-03-09 | 2021-05-18 | Dsm Ip Assets B.V. | Composite panel |
US20150339363A1 (en) * | 2012-06-01 | 2015-11-26 | Next Integrative Mind Life Sciences Holding Inc. | Method, system and interface to facilitate change of an emotional state of a user and concurrent users |
US20140015858A1 (en) * | 2012-07-13 | 2014-01-16 | ClearWorld Media | Augmented reality system |
US9087403B2 (en) | 2012-07-26 | 2015-07-21 | Qualcomm Incorporated | Maintaining continuity of augmentations |
US20140045158A1 (en) * | 2012-08-10 | 2014-02-13 | Tammy Zietchick Movsas | System And Method For Associating Auditory Stimuli With Visual Depictions |
CN102908772B (zh) * | 2012-10-16 | 2015-02-18 | 东南大学 | 利用增强现实技术的上肢康复训练系统 |
US20140128161A1 (en) | 2012-11-06 | 2014-05-08 | Stephen Latta | Cross-platform augmented reality experience |
JP2013077013A (ja) | 2012-11-20 | 2013-04-25 | Sony Corp | 表示装置、表示方法 |
US9030495B2 (en) * | 2012-11-21 | 2015-05-12 | Microsoft Technology Licensing, Llc | Augmented reality help |
US9380413B1 (en) * | 2012-11-29 | 2016-06-28 | Intuit Inc. | Dynamically forming the content of a message to a user based on a perceived emotion |
CN104812440B (zh) * | 2012-12-07 | 2016-10-26 | 美敦力公司 | 微创可植入神经刺激系统 |
US20140171729A1 (en) * | 2012-12-13 | 2014-06-19 | Elekta Ab (Publ) | System and Method for Improving the Medical Environment |
KR102560629B1 (ko) | 2013-03-15 | 2023-07-26 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
CA3187490A1 (en) * | 2013-03-15 | 2014-09-18 | Interaxon Inc. | Wearable computing apparatus and method |
US9872968B2 (en) * | 2013-04-17 | 2018-01-23 | Sri International | Biofeedback virtual reality sleep assistant |
US9383819B2 (en) | 2013-06-03 | 2016-07-05 | Daqri, Llc | Manipulation of virtual object in augmented reality via intent |
US10262462B2 (en) * | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9832452B1 (en) * | 2013-08-12 | 2017-11-28 | Amazon Technologies, Inc. | Robust user detection and tracking |
US10013892B2 (en) * | 2013-10-07 | 2018-07-03 | Intel Corporation | Adaptive learning environment driven by real-time identification of engagement level |
US10274731B2 (en) | 2013-12-19 | 2019-04-30 | The University Of North Carolina At Chapel Hill | Optical see-through near-eye display using point light source backlight |
KR102223278B1 (ko) * | 2014-05-22 | 2021-03-05 | 엘지전자 주식회사 | 글래스 타입 단말기 및 이의 제어방법 |
US20160011657A1 (en) | 2014-07-14 | 2016-01-14 | Futurewei Technologies, Inc. | System and Method for Display Enhancement |
US20160042648A1 (en) * | 2014-08-07 | 2016-02-11 | Ravikanth V. Kothuri | Emotion feedback based training and personalization system for aiding user performance in interactive presentations |
US10120413B2 (en) | 2014-09-11 | 2018-11-06 | Interaxon Inc. | System and method for enhanced training using a virtual reality environment and bio-signal data |
US9861151B2 (en) * | 2014-12-05 | 2018-01-09 | SaPHIBeat Technologies, Inc. | Activity monitoring systems and methods for accident detection and response |
US9336481B1 (en) | 2015-02-02 | 2016-05-10 | James Albert Ionson | Organically instinct-driven simulation system and method |
US10191920B1 (en) * | 2015-08-24 | 2019-01-29 | Google Llc | Graphical image retrieval based on emotional state of a user of a computing device |
EP3361853A4 (en) * | 2015-10-12 | 2019-06-19 | Drone Seed Co. | BY THE AUTOMATIC PRIORIZATION OF BIOMETRIC DATA RATIONALIZED SYSTEMS AND METHODS OF MANAGING FORESTRY INFORMATION |
US10154191B2 (en) * | 2016-05-18 | 2018-12-11 | Microsoft Technology Licensing, Llc | Emotional/cognitive state-triggered recording |
WO2018017868A1 (en) | 2016-07-21 | 2018-01-25 | Magic Leap, Inc. | Technique for controlling virtual image generation system using emotional states of user |
US10657718B1 (en) * | 2016-10-31 | 2020-05-19 | Wells Fargo Bank, N.A. | Facial expression tracking during augmented and virtual reality sessions |
US20180254097A1 (en) * | 2017-03-03 | 2018-09-06 | BehaVR, LLC | Dynamic multi-sensory simulation system for effecting behavior change |
US10999066B1 (en) * | 2018-09-04 | 2021-05-04 | Wells Fargo Bank, N.A. | Brain-actuated control authenticated key exchange |
-
2017
- 2017-07-20 WO PCT/US2017/043133 patent/WO2018017868A1/en unknown
- 2017-07-20 KR KR1020197005255A patent/KR102196380B1/ko active IP Right Grant
- 2017-07-20 EP EP17831892.9A patent/EP3488371A4/en not_active Ceased
- 2017-07-20 AU AU2017300636A patent/AU2017300636A1/en not_active Abandoned
- 2017-07-20 US US15/655,563 patent/US10540004B2/en active Active
- 2017-07-20 CN CN201780057266.1A patent/CN109844735A/zh active Pending
- 2017-07-20 CA CA3030169A patent/CA3030169A1/en active Pending
- 2017-07-20 JP JP2019502242A patent/JP6838135B2/ja active Active
- 2017-07-20 EP EP24186415.6A patent/EP4418082A2/en active Pending
-
2019
- 2019-01-13 IL IL264217A patent/IL264217B/en active IP Right Grant
- 2019-12-13 US US16/713,434 patent/US10802580B2/en active Active
-
2020
- 2020-09-04 US US17/012,309 patent/US11656680B2/en active Active
-
2021
- 2021-02-10 JP JP2021019540A patent/JP7041763B2/ja active Active
-
2022
- 2022-06-27 AU AU2022204527A patent/AU2022204527A1/en not_active Abandoned
-
2023
- 2023-04-10 US US18/297,917 patent/US20230244306A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
KR102196380B1 (ko) | 2020-12-30 |
US10540004B2 (en) | 2020-01-21 |
IL264217B (en) | 2021-02-28 |
EP3488371A1 (en) | 2019-05-29 |
US20200117269A1 (en) | 2020-04-16 |
JP7041763B2 (ja) | 2022-03-24 |
CN109844735A (zh) | 2019-06-04 |
CA3030169A1 (en) | 2018-01-25 |
US11656680B2 (en) | 2023-05-23 |
WO2018017868A1 (en) | 2018-01-25 |
KR20190032502A (ko) | 2019-03-27 |
EP4418082A2 (en) | 2024-08-21 |
US20230244306A1 (en) | 2023-08-03 |
IL264217A (en) | 2019-02-28 |
US10802580B2 (en) | 2020-10-13 |
US20200401216A1 (en) | 2020-12-24 |
AU2022204527A1 (en) | 2022-07-21 |
US20180024626A1 (en) | 2018-01-25 |
JP2021089757A (ja) | 2021-06-10 |
AU2017300636A1 (en) | 2019-01-31 |
JP2019532374A (ja) | 2019-11-07 |
EP3488371A4 (en) | 2019-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7041763B2 (ja) | ユーザの感情状態を用いて仮想画像生成システムを制御するための技術 | |
CN102470273B (zh) | 基于玩家表情的视觉表示表情 | |
JP2019532374A5 (ja) | ||
CN102473320B (zh) | 通过学习到的来自用户的输入使视觉表示生动化的方法 | |
JP4481682B2 (ja) | 情報処理装置及びその制御方法 | |
CN109643162A (zh) | 用现实世界内容增强虚拟现实内容 | |
JP2020039029A (ja) | 動画配信システム、動画配信方法、及び動画配信プログラム | |
JP2013535051A (ja) | 顔の表情のリアルタイムアニメーション | |
Cordeiro et al. | ARZombie: A mobile augmented reality game with multimodal interaction | |
JP7479618B2 (ja) | 情報処理プログラム、情報処理方法、情報処理装置 | |
KR20220052363A (ko) | 프로그램, 방법, 및 단말 장치 | |
Bisogni et al. | Deep learning for emotion driven user experiences | |
EP4373593A1 (en) | Augmented reality artificial intelligence enhance ways user perceive themselves | |
WO2020255996A1 (ja) | プログラム、方法、および端末装置 | |
JP2019023768A (ja) | 情報処理装置、及び映像表示装置 | |
US20240123352A1 (en) | Affective gaming system and method | |
KR20240002078A (ko) | 제스처 증강 몰입도-추론 기반 교감-유도형 dht 생성 방법 및 이를 적용하는 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200717 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200717 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200717 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20201005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6838135 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |