JP2022505836A - デジタルコンテンツ体験との改善されたヒューマンインタラクションのための共感的コンピューティングシステムおよび方法 - Google Patents
デジタルコンテンツ体験との改善されたヒューマンインタラクションのための共感的コンピューティングシステムおよび方法 Download PDFInfo
- Publication number
- JP2022505836A JP2022505836A JP2021522511A JP2021522511A JP2022505836A JP 2022505836 A JP2022505836 A JP 2022505836A JP 2021522511 A JP2021522511 A JP 2021522511A JP 2021522511 A JP2021522511 A JP 2021522511A JP 2022505836 A JP2022505836 A JP 2022505836A
- Authority
- JP
- Japan
- Prior art keywords
- digital content
- experience
- content
- user
- artificial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 152
- 230000003993 interaction Effects 0.000 title description 14
- 210000004556 brain Anatomy 0.000 claims abstract description 142
- 238000012549 training Methods 0.000 claims abstract description 21
- 230000002889 sympathetic effect Effects 0.000 claims abstract description 11
- 230000001537 neural effect Effects 0.000 claims description 70
- 230000004044 response Effects 0.000 claims description 49
- 238000006243 chemical reaction Methods 0.000 claims description 48
- 230000008569 process Effects 0.000 claims description 46
- 230000009471 action Effects 0.000 claims description 39
- 238000012545 processing Methods 0.000 claims description 21
- 230000003542 behavioural effect Effects 0.000 claims description 16
- 230000007177 brain activity Effects 0.000 claims description 14
- 206010048909 Boredom Diseases 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000008685 targeting Effects 0.000 claims description 10
- 238000007637 random forest analysis Methods 0.000 claims description 7
- 230000003595 spectral effect Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 4
- 230000006397 emotional response Effects 0.000 claims description 4
- 238000007670 refining Methods 0.000 claims description 4
- 230000006403 short-term memory Effects 0.000 claims description 2
- 238000012217 deletion Methods 0.000 claims 2
- 230000037430 deletion Effects 0.000 claims 2
- 230000007787 long-term memory Effects 0.000 claims 1
- 230000008451 emotion Effects 0.000 abstract description 18
- 230000033001 locomotion Effects 0.000 abstract description 15
- 230000036541 health Effects 0.000 abstract description 5
- 230000000007 visual effect Effects 0.000 abstract description 3
- 230000006399 behavior Effects 0.000 description 28
- 238000004458 analytical method Methods 0.000 description 25
- 238000004422 calculation algorithm Methods 0.000 description 21
- 238000011161 development Methods 0.000 description 12
- 230000002996 emotional effect Effects 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 11
- 241000282412 Homo Species 0.000 description 10
- 230000007613 environmental effect Effects 0.000 description 10
- 230000037007 arousal Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 208000019901 Anxiety disease Diseases 0.000 description 6
- 230000036506 anxiety Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 239000000758 substrate Substances 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 238000012384 transportation and delivery Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 238000012360 testing method Methods 0.000 description 5
- 241001342895 Chorus Species 0.000 description 4
- 230000002776 aggregation Effects 0.000 description 4
- 238000004220 aggregation Methods 0.000 description 4
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000003278 mimic effect Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000007477 logistic regression Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000004630 mental health Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- SHXWCVYOXRDMCX-UHFFFAOYSA-N 3,4-methylenedioxymethamphetamine Chemical compound CNC(C)CC1=CC=C2OCOC2=C1 SHXWCVYOXRDMCX-UHFFFAOYSA-N 0.000 description 2
- 238000004497 NIR spectroscopy Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000006998 cognitive state Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000002068 genetic effect Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000010223 real-time analysis Methods 0.000 description 2
- 230000010076 replication Effects 0.000 description 2
- 238000011524 similarity measure Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 238000003325 tomography Methods 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 206010010904 Convulsion Diseases 0.000 description 1
- 206010012289 Dementia Diseases 0.000 description 1
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 1
- 208000019695 Migraine disease Diseases 0.000 description 1
- 208000008589 Obesity Diseases 0.000 description 1
- 208000006011 Stroke Diseases 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000036626 alertness Effects 0.000 description 1
- 201000008090 alexithymia Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 238000013398 bayesian method Methods 0.000 description 1
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical compound O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000035606 childbirth Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 238000005100 correlation spectroscopy Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000011981 development test Methods 0.000 description 1
- 230000037213 diet Effects 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 230000035622 drinking Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000004064 dysfunction Effects 0.000 description 1
- 230000002526 effect on cardiovascular system Effects 0.000 description 1
- 239000003792 electrolyte Substances 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 238000009396 hybridization Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000011551 log transformation method Methods 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000002582 magnetoencephalography Methods 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 206010027599 migraine Diseases 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000926 neurological effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 235000020824 obesity Nutrition 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000001936 parietal effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000013186 photoplethysmography Methods 0.000 description 1
- 230000037081 physical activity Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 230000035790 physiological processes and functions Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 239000002861 polymer material Substances 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001373 regressive effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
- 230000008925 spontaneous activity Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000007474 system interaction Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
- A61B5/6803—Head-worn items, e.g. helmets, masks, headphones or goggles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/25—Bioelectric electrodes therefor
- A61B5/279—Bioelectric electrodes therefor specially adapted for particular uses
- A61B5/291—Bioelectric electrodes therefor specially adapted for particular uses for electroencephalography [EEG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/377—Electroencephalography [EEG] using evoked responses
- A61B5/378—Visual stimuli
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/377—Electroencephalography [EEG] using evoked responses
- A61B5/38—Acoustic or auditory stimuli
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/70—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
- A61B5/0042—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0073—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by tomography, i.e. reconstruction of 3D images from 2D projections
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0075—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Psychiatry (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Psychology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Epidemiology (AREA)
- Social Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Primary Health Care (AREA)
- Robotics (AREA)
- Acoustics & Sound (AREA)
- Physiology (AREA)
- Signal Processing (AREA)
- Dermatology (AREA)
- Neurology (AREA)
Abstract
Description
本出願は、本参照によりその全体が本明細書に各々組み入れられる、2018年10月25日に出願された米国仮特許出願第62/750255号、および2019年7月8日に出願された米国仮特許出願第62/871435号の恩典を主張するものである。
記載されている本発明は、全体として、(例えば、娯楽、トレーニング、健康、セキュリティなどのコンテキストで)より良い、よりパーソナル化されたサービスを提供することを目的として、人間の思考および感情を理解し、それに応じてコンテンツを調節するように構成されているコンピュータ演算を実施する人工脳モデルに関する。記載されている人工脳モデルを実行する共感的コンピューティングシステムは、(例えば、音声コンテンツに関する、ビジュアルコンテンツに関する、他のフォーマットのコンテンツに関する、接続されたホームアプリケーションに関する、AR/VRデバイスアプリケーションに関する、自動車技術アプリケーションに関するものなどの)ユーザの日常生活においてユーザに提供される(例えば、混合メディアフォーマットを含む)デジタルコンテンツ体験の評価に有用である。複数の実施形態において、デジタルコンテンツ体験には、デジタルコンテンツ・ファイルによって提供される、音声聴取体験、映像視聴体験、画像閲覧体験、テキスト読み取り体験、買い物体験、およびビデオゲームプレイ体験、のうちの1つまたは複数を含めることができる。
1. システム環境
図1Aに、1つまたは複数の実施形態による、システム100の人工脳の開発および実装のシステム環境を示す。図1Aに示されているシステム100は、ユーザがデジタルコンテンツとインタラクトする際にユーザ105からの神経信号データセットを生成するセンサのアレイを含む、ブレイン・コンピュータ・インターフェース(BCI)120を含む。BCI 120は、ヘッドマウントディスプレイ(HMD)110に結合されるか、またはそれ以外の方法で協働することができ、HMDを介して、かつ/または別のデバイス(例えば、映像をレンダリングおよび/もしくはユーザに音声信号を出力することができるデバイス)を介して、デジタルコンテンツを提供することができる。システム100はまた、HMD 110および/またはBCI 120と接続するように構成されているハードウェアプラットフォーム130も含み、ハードウェアプラットフォーム130は、BCI 120の出力を受け取って調整するための電子機器サブシステム140、ならびにユーザに提供されるデジタルコンテンツ、環境信号、神経信号、および/または他の生理学的信号の特徴を分類し、後続のアクションを実行するための人工脳モデル出力を開発、訓練、および実装するためのアーキテクチャを含む。
図1Aに示されているように、BCI 120は、使用中にユーザの脳から神経活動を検出するように構成されたセンサセット121を含む。一実施形態では、センサセット121は、電気表面信号(例えば、脳波(EEG)信号、電磁場信号、皮質脳波(ECoG)信号など)を生成するための電極を含み、センサセット121は、電解質処理多孔質材料、高分子材料、布材料、またはユーザの頭部領域との電気的接続を形成できる他の材料のうちの1つまたは複数を含むことができる。別の実施形態では、センサセット121は、以下のうちの1つまたは複数のために動作するセンサを含むことができる:脳磁図(MEG)、陽電子放出断層撮影(PET)、機能的磁気共鳴画像法(fMRI)、(例えば、神経栄養電極やマルチユニットアレイを使用した)単一ニューロン信号感知、およびその他の神経感知モダリティ。さらに別の実施形態では、センサセット121は、以下のうちの1つまたは複数を含む光学式神経感知モダリティのために動作するセンサを含むことができる:拡散光トモグラフィ(DOT)、近赤外分光法(fNIRS)、機能的時間領域近赤外分光法(TD-fNIRS)、拡散相関分光法(DCS)、スペックルコントラスト光トモグラフィ(SCOT)、時間領域干渉近赤外分光法(TD-iNIRS)、ハイパースペクトル画像法、偏光感受型スペックルトモグラフィ(PSST)、スペクトル無相関、およびその他の画像法モダリティ。
図1Aに示されているように、ハードウェアプラットフォーム130は、電子機器サブシステム140と通信するコンピューティングサブシステム150を含み、電子機器サブシステム140は、ネットワーク160上のデータの伝送(以下でより詳細に説明する)、電源管理、データの前処理、および/またはシステム100の構成要素間で伝えられる信号の調整を容易にするための構成要素を含む。さらに、コンピューティングサブシステムは、コンテンツ提供、(例えば、神経信号と関連した、ユーザの環境の要因と関連したなどの)データの取得、ならびに/または(例えば、クラス分類演算の実施と関連した、人工脳モデルの訓練と関連した、人工脳モデルによる入力の処理および出力の生成に関連したなどの)モデルアーキテクチャを用いたデータの処理に関連する異なるモードで動作するためのコンピュータ・プログラム・コードを含む非一時的なコンピュータ可読記憶媒体を含むことができる。
図1Aに示されているように、システム100の構成要素を、ネットワーク160を介して通信するように構成することができ、ネットワーク160は、有線通信システムおよび/または無線通信システムの両方を使用した、ローカル・エリア・ネットワークおよび/または広域ネットワークの任意の組み合わせを含むことができる。一実施形態では、コンピューティングサブシステム150および/またはシステムの他のデバイス(例えば、HMD 110、BCI 120)は、標準的な通信技術および/またはプロトコルを使用する。例えば、ネットワーク160は、イーサネット、IEEE 802.11、WiMAX(worldwide interoperability for microwave access)、3G、4G、5G、符号分割多元接続(CDMA)、GSM(global system for mobile communications)、デジタル加入者線(DSL)などの技術を使用する通信リンクを含む。システム通信に使用されるネットワーキングプロトコルの例には、伝送制御プロトコル/インターネットプロトコル(TCP/IP)、ハイパーテキスト転送プロトコル(HTTP)、WebSocket(WS)、およびファイル転送プロトコル(FTP)が含まれる。いくつかの実施形態では、システム100の構成要素の通信リンクの全部または一部が、セキュア・ソケット・レイヤ(SSL)上のハイパーテキスト転送プロトコル、WebSocketセキュア(WSS)、セキュアファイル転送プログラム(SFTP)または任意の他の適切な1つもしくは複数の技術などの前記プロトコルのセキュアな拡張を使用して暗号化され得る。
システム100のデバイスは、ユーザ状態の局面を検出し、(例えば、ユーザの実世界環境から)コンテキスト情報を検出し、かつ/またはコンピューティングサブシステム150によって生成され、HMD 110および/もしくはその他のデバイスを介して送られた電子コンテンツとのインタラクションの局面を検出するための追加のセンサ構成要素を含むことができる。サブシステムおよび/またはセンサを、提供されたコンテンツとのインタラクション中にユーザによって装着されるHMD 110および/またはBCI 120に結合し、これと一体化し、または他の方法でこれと関連付けることができる。サブシステムおよび/またはセンサを、追加的または代替的に、HMD 110、BCI 120、および/または他のデバイスとは別個のデバイスに結合し、これと一体化し、または他の方法でこれと関連付け、サブシステムおよび/またはセンサが、ユーザと提供されたデジタルコンテンツ体験との間のインタラクション中にコンピューティングサブシステム150と通信することもできる。
図2に、1つまたは複数の実施形態による、人工脳の開発および実装のための方法200を示すフローチャートを示す。図2に示されているように、ハードウェアプラットフォームおよび関連付けられたコンピューティングサブシステムは、ユーザがデジタルコンテンツ体験とインタラクトする際に、ユーザに接続されたBCIから神経信号データセットを受け取る210。次いで、コンピューティングサブシステムは、神経信号データセットおよびデジタルコンテンツ体験の特徴セットを、クラス分類演算セットで処理する220。次いで、コンピューティングサブシステムは、クラス分類演算セットの出力と、デジタルコンテンツ体験に対するユーザの実際の反応を特徴付ける反応データセットとを用いて人工脳モデルを訓練し230、人工脳モデルは、デジタルコンテンツ体験に対する予測されるユーザの反応に関連する出力を返すためのアーキテクチャを含む。次いで、コンピューティングサブシステムは、人工脳モデルを用いて未評価のデジタルコンテンツ体験を処理し次第、当該未評価のデジタルコンテンツ体験に対する予測されるユーザの反応に関連する共感出力および行動出力のセットを返す240。コンピューティングサブシステムは、次いで、共感出力および行動出力のセットに応答してアクションを実行する250。いくつかの実施形態では、システム(例えば、上述したシステムの一実施形態)は、ユーザにデジタルコンテンツ体験を提供すること205およびユーザの集団からの神経信号データを含む集約データセットを用いて人工脳モデルを精緻化すること235、のいずれか1つまたは複数を行うことができ、それによって、人工脳モデルが、評価対象のデジタルコンテンツに関する人口層に関連する解析を出力することが可能になる。
ユーザにデジタルコンテンツ体験を提供する205ことに関して、デジタルコンテンツは、以下を含む1つまたは複数のフォーマットを含むことができる:映像ファイル・フォーマット(例えば、MP4、3GP、OGG、WMV、WEBM、FLV、AVI、QuickTime(商標)、立体映像フォーマットなど)、音声ファイル・フォーマット(例えば、WAV、AIFF、AU、PCM、FLAC、MPEG、WMA、OPUS、MP3など)、画像ファイルフォーマット(例えば、JPEG、TIFF、GIF、EXIF、BMP、PNG、HDR、ベクトルフォーマット、立体映像フォーマットなど)、触覚ファイルフォーマット(例えば、AHAP)、ビデオゲーム・フォーマット(例えば、PCプラットフォーム、ホーム・コンソール・プラットフォーム、ハンドヘルドプラットフォーム、アーケードプラットフォーム、ウェブ・ブラウザ・プラットフォーム、モバイル・デバイス・プラットフォーム、仮想現実プラットフォーム、拡張現実プラットフォーム、ブロックチェーンプラットフォームなどに関する)、および任意の他の適切なフォーマット。
ユーザに接続されたBCIから神経信号データセットを受け取る210ことに関して、BCIは、上述したように、神経信号ストリームを収集し、信号の局面を、コンピューティングサブシステムによって処理するためにハードウェアプラットフォームに送信する。システムの構成要素(例えば、BCI、ハードウェアプラットフォーム、コンピューティングサブシステム)は、よって、ユーザがデジタルコンテンツとインタラクトするか、またはそれ以外にデジタルコンテンツを消費する際に、システムがBCIからの神経信号ストリームを検出することを可能にする検出アーキテクチャを含むことができる。検出アーキテクチャは、異なる脳状態に関連する異なる領域の活動状態を決定するために、ユーザの異なる脳領域に関連する異なる電極チャネルから、(例えば、スペクトル成分に関して、神経振動に関して、誘発電位に関して、イベント関連の電位に関して、活動の異なる周波数帯域に関して、活動の組み合わせに関してなどの)神経活動を決定するための動作モードを有する構造を含む。
図2に示されているように、コンピューティングサブシステムは、神経信号データセットおよびデジタルコンテンツ体験の特徴セットを、クラス分類演算セットで処理する220。複数の実施形態において、クラス分類演算を、外部由来のデータ/特徴(例えば、(1人または複数の)ユーザが体験したコンテンツに由来するデータ/特徴、(1人または複数の)ユーザの(1つまたは複数の)環境からの信号に由来するデータ/特徴など)に適用される第1の演算セットと、内部由来のデータ/特徴(例えば、(1人または複数の)ユーザの(1つまたは複数の)脳に由来する信号、その他のバイオメトリック信号に由来する信号)に適用される第2の演算セットとを用いて構築することができる。
図2に示されているように、コンピューティングサブシステムは、クラス分類演算セットの出力およびデジタルコンテンツ体験に対するユーザの実際の反応を特徴付ける反応データセットで人工脳モデルを訓練し230、先の方法ステップで、かつ/または他の手段を介して取得されたデータは、人工脳モデルを使用して予測される反応の精度を改善するために、訓練用小部分および試験用小部分に分割される。特に、人工脳モデルは、デジタルコンテンツ体験に対する予測されるユーザの反応に関連する出力を返すためのアーキテクチャを含み、上述したように訓練される。
別の変形形態では、脳活動の時空間的特徴で訓練されたカスタム設計のANNを適用する内部クラス分類演算は、代替として、観察ベースの学習状態を捕捉するために運動実行のベイズモデルを適用する外部クラス分類演算、または非脳データをクラスタ化および差別化するための他の統計的手法と組み合わされ得る。
図2に示されているように、ユーザの集団からの神経信号データを含む集約データセットを用いて人工脳モデルを精緻化し235、それによって、人工脳モデルが、評価対象のデジタルコンテンツに関する人口層に関連する解析を出力できるようにするように、システムをさらに構成することができる。
一つの例示的な実施形態において、コンピューティングサブシステムは、BCIユニットによる信号生成と協調して、ユーザが異なるデジタルコンテンツ(例えば、映像コンテンツ、音楽コンテンツなど)の持続時間60秒のセグメントを体験した際のユーザからの神経信号データを処理し、その間にBCIおよびその他のバイオメトリック監視デバイスのいくつかのセンサがそれらの生理学的状態を同時に測定した。この例では、ユーザも、デジタルコンテンツに対する反応に関連する出力で人工脳モデルを訓練するための自己報告データを提供するために主観的質問票に記入した。より詳細には、神経信号およびその他の生理学的信号を有する対のコンテンツの記録された各セグメントに、次いで、主観的質問票によって得られた、1から9の感情価および覚醒度の連続値でラベル付けした。
図2に示されているように、人工脳モデルを十分に訓練して精緻化すれば、コンピューティングサブシステムは、入力(例えば、デジタルコンテンツに関連する入力、他の「要求」)を処理して、未評価のデジタルコンテンツ体験に対する予測されるユーザの反応に関連する共感出力および行動出力のセットを返す240。ターゲットユーザの予測される共感的反応および/または行動反応に関して上述したように出力を返すことができる。図3Bに、図3Aに関して上述したように訓練された人工脳モデルの実装の一実施形態を示す。人工脳モデルが訓練されると、ビデオ、番組、音楽、買い物体験、テキスト、ゲーム、およびその他のコンテンツの特徴に関連する要素を含む入力ベクトルを、人工脳モデルに直接供給することができ、人工脳モデルは次いで、コンテンツの特徴を処理し、1人または複数のユーザ(例えば、ターゲットユーザ)の反応および感情を模倣するクラス分類を出力する。このようにして、共感的コンピューティングシステムを、オンデマンドツールとして使用して、人間ユーザにより良く役立つようコンテンツを調節することができるとともに、開発テストツールとして使用して、コンテンツを評価し、大規模なフォーカスグループおよび様々なグループに対する異なるコンテンツの他のスクリーニングなどを模倣することもできる。図3Cに、図3Aに関して上述したように訓練された人工脳モデルを使用した、コンテンツデータのリアルタイム解析の一実施形態を示す。図3Cによれば、人工脳は、リアルタイムで、コンテンツデータを解析し、内部クラス分類に事前の重みを与えて、コンテキストが解析を通知できるようにするためにも使用され得る。脳状態のクラス分類に対する学習された経験的モデルの寄与により、人工脳モデルの解析能力におけるより高い分解能が得られる。
人工脳モデルの例示的な実装形態において、選択した曲目を人工脳モデルで処理し、曲目の一部が他の現代のリリース曲と比較してよりリラックスをもたらすと予測した。特に、1つの曲を、聴取者に最も多くの幸福をもたらすと予測した(続いて検証した)。その他の出力は以下を含んでいた:試験されたあらゆる年齢層で男性が女性よりも1つの曲を楽しむと予測され、男性はその曲の後半よりもその曲の前半でより幸福を感じると予測された。サーファは、ある曲を、試験された残りの人口層よりも退屈ではないと感じると予測された。ヨガの聴取者は、3曲のうちの2曲に対して相反する感情を抱くと予測された。
図8に関連する出力を生成する際に、コンピューティングサブシステムが、ユーザの脳活動(例えば、脳記録データエポック)に由来する入力神経信号を相互相関解析と共に使用して、ユーザがどんな映像コンテンツを視聴していたかを脳活動データのみから予測した。より詳細には、コンピューティングサブシステムは、(上述したような)データ処理および特徴抽出演算を実施して、ユーザが何を消費していたか(例えば、キスシーン、旅行するカップルのシーン、パラシュート降下シーン、嫌悪の表情を含むシーン、怒りの電話のシーン、暴力シーン、出産シーン、家族のシーンなど)の予測を捕捉する出力に関するクラス分類の精度を改善した。図8は、予測された視聴コンテンツと、ユーザによって視聴されていた実際のコンテンツとの間の高い相関を示すプロットの例を示しており、予測精度は、脳データ・エポック・サイズ、特徴の構成(例えば、神経信号データの)、解析されている成分の数、信号フィルタリング演算、窓サイズ、およびストライドの影響を受けた。この例の変形形態を、神経信号データのみの解析に基づく、消費されている他のタイプのメディアおよび/またはユーザの他の体験(例えば、ユーザが自分の日常生活を行っている際の実生活体験)の予測に適合させることができる。産業規模では実用的ではないより複雑で費用のかかる画像法(例えば、MRI)を別とすれば、そのような出力を通常ほぼリアルタイムで生成することはできない。
図2に示されているように、コンピューティングサブシステムは、人工脳モデルのオプションを処理し、共感出力および行動出力のセットに応答してアクションを実行する250。よって、人工脳モデルの出力を、新しい入力として、現実世界における改善を生み出すための機械および他のシステムに使用することができる。
変形形態においては、戦略的な方法での母集団のサブセットに対する評価されるコンテンツのターゲットを絞ったマーケティングは、あるデジタルコンテンツ(例えば、曲、映画、テレビ番組、ビデオゲーム、本、記事、消耗品、購入品など)に対する特定の人口層からのより肯定的な反応を示す出力に基づいて、その特定の人口層にそのデジタルコンテンツを(例えば、ソーシャルネットワークを介して、ターゲットを絞った広告プラットフォームを介して、大量メール送信を介してなど)自動的に宣伝すること、を含むことができる。よって、この方法は、アクションを実行することを含むことができ、このアクションは、ターゲット設定アクションを含み、ターゲット設定アクションは、未評価のデジタルコンテンツ体験から導出されたデジタルコンテンツを、未評価のデジタルコンテンツに対して肯定的に反応すると予測されるユーザ部分集団に自動的に配布することを含む。変形形態において、ユーザ部分集団は、未評価のデジタルコンテンツに対して肯定的に反応すると予測される、年齢層、性別層、国籍層、および地理的位置層、のうちの少なくとも1つに属する。一例では、特定の年齢層が評価対象コンテンツに肯定的に反応することを示す出力を生成したことに応答して、地理的位置にかかわらず、コンピューティングサブシステムは、評価対象コンテンツを、以前はターゲットとされていなかった地理的位置にわたって対象年齢層に広く配布することができる。別の例では、特定の地理的位置からの人口層がコンテンツに対してあまり肯定的ではない反応をしたことを示す出力を生成したことに応答して、コンピューティングサブシステムは、(例えば、ターゲットを絞った広告を介してなど)そのコンテンツでの特定の地理的位置のターゲット設定を回避する計画を自動的に生成することができる。この例を、楽団のためのツアーの自動計画に適用することができ、これによりその楽団は、あまり受容的ではないエリアで労力を無駄にせず、価値を最大化する。よって、人工脳モデルは、デジタルコンテンツの特徴を効率的かつ迅速に処理し、戦略的なターゲット設定努力を導くようにコンテンツに対する反応を予測することができる。別の例では、コンピューティングサブシステムは、様々な人口層にとってより魅力のあるコンテンツキューを設計するために、人工脳モデルの出力を、加入契約ベースのコンテンツ提供サービス(例えば、視聴、聴取、購読されるべきデジタルコンテンツの提供など)の選択アルゴリズムに適用することができる。別の方法で人工脳出力に基づいてコンテンツの戦略的ターゲット設定を行うために、出力を使用することもできる。
変形形態において、コンピューティングサブシステムは、追加的または代替的に、デジタルコンテンツの調節または生成に関連するアクションを行うために人工脳モデルの出力を適用することもできる。特に、コンピューティングサブシステムは、人工脳モデルの出力に関連する(例えば、否定的な反応に関する、感情曲線の局面に関するなどの)所望のまたは望ましくない応答パターンを適用して、(例えば、デジタルコンテンツの部分の切断に関する、デジタルコンテンツの部分の追加に関する、デジタルコンテンツの再生レートに影響を与えることに関する、デジタルコンテンツの速度に影響を与えることに関する、デジタルコンテンツの部分の強度を調整することに関する、修正ありまたはなしでコンテンツの反復を生成することに関するなどの)コンテンツに対するブール演算を行うことができる。評価されている任意のフォーマット(例えば、映像、音声、ゲーム、テキスト、触覚など)のコンテンツにブール演算を適用することができる。さらに、ブール演算を、自動的に適用することもでき、または代替として、(半自律的方法もしくは手動で)適用すべき別のエンティティもしくはコンピューティングサブシステムのための命令の生成を伴って適用することもできる。
変形形態において、コンピューティングサブシステムは、追加的または代替的に、接続されたデバイスまたは他のプラットフォームの動作を制御することに関連するアクションを行うために人工脳モデルの出力を適用することもできる。例えば、ユーザに接続されたBCIユニットを組み込んだシステムの変形形態は、神経信号を処理し、共感的反応の解析に基づいて、ユーザが行いたいアクションを決定することができる。例えば、ユーザがオンラインショッピングに対して肯定的な反応を有し、あるアイテムを購入したがっていることを示す出力を使用して、買い物体験で捕捉されたそのアイテムを自動的に購入するための命令を生成することができる。変形形態において、アクションは、追加的または代替的に、アイテムのショッピングカートへの追加、アイテムのショッピングカートからの削除、アイテムのウィッシュリストへの追加など、のうちの1つまたは複数を含むこともできる。
記載のシステムおよび方法は、利益および/または技術的改善を提供することができ、そのうちのいくつかを以下に記載する。
さらに、本明細書で言及されている任意のコンピューティングシステムは、単一のプロセッサを含んでいてもよく、またはより高い計算能力を得るための複数プロセッサ設計を用いたアーキテクチャであってもよい。
Claims (20)
- 人工脳の精緻化および実装のための方法であって、
ユーザにデジタルコンテンツ体験を提供する工程;
前記ユーザが前記デジタルコンテンツ体験とインタラクトする際に、前記ユーザに接続されたブレイン・コンピュータ・インターフェースから神経信号データセットを受け取る工程;
前記神経信号データセットおよび前記デジタルコンテンツ体験の特徴セットを、クラス分類演算セットで処理する工程;
前記クラス分類演算セットの出力と、前記デジタルコンテンツ体験に対する前記ユーザの実際の反応を特徴付ける反応データセットとを用いて、人工脳モデルを訓練する工程であって、前記人工脳モデルが、デジタルコンテンツ体験に対する予測されるユーザの反応に関連する出力を返すためのアーキテクチャを含む、工程;
ユーザの集団からの神経信号データを含む集約データセットを用いて、前記人工脳モデルを精緻化する工程;
前記人工脳モデルを用いて未評価のデジタルコンテンツ体験を処理し次第、前記未評価のデジタルコンテンツ体験に対する予測されるユーザの反応に関連する共感出力および行動出力のセットを返す工程;ならびに
前記共感出力および行動出力のセットに応答してアクションを実行する工程
を含む、方法。 - 前記デジタルコンテンツ体験が、デジタルコンテンツ・ファイルによって提供される、音声聴取体験、映像視聴体験、画像閲覧体験、テキスト読み取り体験、買い物体験、およびビデオゲームプレイ体験、のうちの1つまたは複数を含む、請求項1記載の方法。
- 前記クラス分類演算セットが、前記デジタルコンテンツ体験の前記特徴セットと環境由来の信号とを含む外部由来の特徴に適用される第1の演算サブセット、ならびに前記神経信号データセットとバイオメトリック特徴とに適用される第2の演算サブセットを含む、請求項1記載の方法。
- 特徴の神経信号データが、イベント関連の電位、時空間的局面、スペクトルの局面、および特徴行列にわたる距離特徴、のうちの少なくとも1つから導出される、請求項1記載の方法。
- 前記共感出力および行動出力のセットが、前記未評価のデジタルコンテンツ体験のターゲットオーディエンスによって体験される、退屈、喜び、フロー、怒り、ストレス、悲しみ、およびリラックス、のうちの1つまたは複数を特徴付ける共感出力を含む、請求項1記載の方法。
- 前記共感出力および行動出力のセットが、前記未評価のデジタルコンテンツ体験のターゲットオーディエンスによる、ライブラリまたは再生リストの少なくとも1つへのコンテンツの追加、前記ライブラリまたは前記再生リストの少なくとも1つからのコンテンツの削除、コンテンツ再生の停止、および購入アクション、のうちの1つまたは複数を特徴付ける行動出力を含む、請求項1記載の方法。
- 前記ユーザの集団が、年齢層、性別層、国籍層、および地理的位置層、のうちの少なくとも1つを含む層のセットのユーザを含み、前記人工脳モデルが、前記層のセットのうちの選択された層についての前記共感出力および行動出力のセットを返すように構成されている、請求項1記載の方法。
- 前記アクションが、前記未評価のデジタルコンテンツ体験に関連するデジタルコンテンツ・ファイルに適用される生成アクションを含み、前記生成アクションが、前記デジタルコンテンツ・ファイルに適用されるブール演算を含む、請求項1記載の方法。
- 前記アクションがターゲット設定アクションを含み、前記ターゲット設定アクションが、前記未評価のデジタルコンテンツ体験から導出されたデジタルコンテンツを、未評価のデジタルコンテンツに対して肯定的に反応すると予測されるユーザ部分集団に自動的に配布することを含む、請求項1記載の方法。
- 人工脳の実装のための方法であって、
未評価のデジタルコンテンツ体験の特徴セットを受け取る工程;
人工脳モデルを用いて前記特徴セットを処理する工程であって、前記人工脳モデルが、ユーザの集団からの神経信号データに適用されるクラス分類演算セットの出力、デジタルコンテンツ体験の特徴、およびデジタルコンテンツ体験に対するユーザの実際の反応を特徴付ける反応データセットを用いて訓練される、工程;
前記人工脳モデルを用いて前記特徴セットを処理し次第、前記未評価のデジタルコンテンツ体験に対する予測されるユーザの反応に関連する共感出力および行動出力のセットを返す工程;ならびに
前記共感出力および行動出力のセットに応答してアクションを実行する工程
を含む、方法。 - 前記未評価のデジタルコンテンツ体験が、デジタルコンテンツ・ファイルによって提供される、音声聴取体験、映像視聴体験、画像閲覧体験、テキスト読み取り体験、買い物体験、およびビデオゲームプレイ体験、のうちの1つまたは複数を含み、前記特徴セットが、ユーザにおいて感情反応を生み出すように構成されている主題の特徴を含む、請求項10記載の方法。
- 前記人工脳モデルの訓練が、ランダムフォレスト演算、長・短期記憶演算、人工ニューラルネットワーク演算、およびメタヒューリスティック演算、のうちの少なくとも1つを実施することを含む、請求項10記載の方法。
- 前記共感出力および行動出力のセットが、前記未評価のデジタルコンテンツ体験のターゲットオーディエンスによって体験される、退屈、喜び、フロー、怒り、ストレス、悲しみ、およびリラックス、のうちの1つまたは複数を特徴付ける共感出力を含む、請求項10記載の方法。
- 前記共感出力および行動出力のセットが、前記未評価のデジタルコンテンツ体験のターゲットオーディエンスによる、ライブラリまたは再生リストの少なくとも1つへのコンテンツの追加、前記ライブラリまたは前記再生リストの少なくとも1つからのコンテンツの削除、コンテンツ再生の停止、および購入アクション、のうちの1つまたは複数を特徴付ける行動出力を含む、請求項1記載の方法。
- 前記アクションが、前記未評価のデジタルコンテンツ体験に関連するデジタルコンテンツ・ファイルに適用される生成アクションを含み、前記生成アクションが、前記共感出力および行動出力のセットに基づいて、前記デジタルコンテンツの、否定的な反応を生み出すと予測される部分に適用される切り捨てアクションを含む、請求項10記載の方法。
- 前記アクションがターゲット設定アクションを含み、前記ターゲット設定アクションが、前記未評価のデジタルコンテンツ体験から導出されたデジタルコンテンツを、未評価のデジタルコンテンツに対して肯定的に反応すると予測されるユーザ部分集団に自動的に配布することを含み、前記ユーザ部分集団が、前記未評価のデジタルコンテンツに対して肯定的に反応すると予測される、年齢層、性別層、国籍層、および地理的位置層、のうちの少なくとも1つに属する、請求項1記載の方法。
- 人工脳を精緻化するための方法であって、
ユーザにデジタルコンテンツ体験を提供する工程;
前記ユーザが前記デジタルコンテンツ体験とインタラクトする際に、前記ユーザに接続されたブレイン・コンピュータ・インターフェースから神経信号データセットを受け取る工程;
前記神経信号データセットおよび前記デジタルコンテンツ体験の特徴セットを、クラス分類演算セットで処理する工程;
前記クラス分類演算セットの出力と、前記デジタルコンテンツ体験に対する前記ユーザの実際の反応を特徴付ける反応データセットとを用いて、人工脳モデルを訓練する工程であって、前記人工脳モデルが、デジタルコンテンツ体験に対する予測されるユーザの反応に関連する出力を返すためのアーキテクチャを含む、工程;ならびに
ユーザの集団からの神経信号データを含む集約データセットを用いて、前記人工脳モデルを精緻化する工程
を含む、方法。 - 前記神経信号データセットが、前記人工脳モデルの訓練のための時空間的脳活動特徴セットを含み、前記デジタルコンテンツ体験の前記特徴セットが、感情反応を生み出すように構成されている特徴を含む、請求項17記載の方法。
- 共感出力および行動出力のセットが、前記デジタルコンテンツ体験のターゲットオーディエンスによって体験される、退屈、喜び、フロー、怒り、ストレス、悲しみ、およびリラックス、のうちの1つまたは複数を特徴付ける共感出力を含み、前記共感出力が、前記デジタルコンテンツ体験の持続時間にわたるセグメントごとに提供される、請求項17記載の方法。
- 前記ユーザの集団が、年齢層、性別層、国籍層、および地理的位置層、のうちの少なくとも1つを含む層のセットのユーザを含み、前記人工脳モデルが、前記層のセットのうちの選択された層についての共感出力および行動出力のセットを返すように構成されている、請求項17記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862750255P | 2018-10-25 | 2018-10-25 | |
US62/750,255 | 2018-10-25 | ||
US201962871435P | 2019-07-08 | 2019-07-08 | |
US62/871,435 | 2019-07-08 | ||
PCT/US2019/058057 WO2020086959A1 (en) | 2018-10-25 | 2019-10-25 | Empathic computing system and methods for improved human interactions with digital content experiences |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022505836A true JP2022505836A (ja) | 2022-01-14 |
Family
ID=70331677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021522511A Pending JP2022505836A (ja) | 2018-10-25 | 2019-10-25 | デジタルコンテンツ体験との改善されたヒューマンインタラクションのための共感的コンピューティングシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210390366A1 (ja) |
EP (1) | EP3870038A4 (ja) |
JP (1) | JP2022505836A (ja) |
IL (1) | IL282483A (ja) |
WO (1) | WO2020086959A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210224637A1 (en) * | 2020-01-20 | 2021-07-22 | Angel Raphael Rodriguez | Neurometric authentication system |
CN112560830B (zh) * | 2021-02-26 | 2021-05-25 | 中国科学院自动化研究所 | 多模态维度情感识别方法 |
US20220293241A1 (en) * | 2021-03-12 | 2022-09-15 | Facebook Technologies, Llc | Systems and methods for signaling cognitive-state transitions |
US20230326092A1 (en) * | 2022-04-06 | 2023-10-12 | D6 Vr, Llc | Real-time visualization of head mounted display user reactions |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7094965B2 (en) * | 2001-01-17 | 2006-08-22 | Yamaha Corporation | Waveform data analysis method and apparatus suitable for waveform expansion/compression control |
KR20140033312A (ko) * | 2010-10-21 | 2014-03-18 | 홀리브레인 비브이비에이 | 인간 경험과 구매 행동의 신경심리학적 모델링을 위한 방법 및 장치 |
TWI467520B (zh) * | 2010-11-10 | 2015-01-01 | Univ Nat Chiao Tung | 建構個人化神經刺激模型之系統及方法 |
EP2972662A4 (en) * | 2013-03-15 | 2017-03-01 | Intel Corporation | Brain computer interface (bci) system based on gathered temporal and spatial patterns of biophysical signals |
US10321842B2 (en) * | 2014-04-22 | 2019-06-18 | Interaxon Inc. | System and method for associating music with brain-state data |
US10449359B2 (en) * | 2015-01-24 | 2019-10-22 | The Trustees Of The University Of Pennsylvania | Method and apparatus for improving cognitive performance |
EP3481294B1 (en) * | 2016-07-11 | 2021-03-10 | Arctop Ltd | Method and system for providing a brain computer interface |
-
2019
- 2019-10-25 EP EP19875553.0A patent/EP3870038A4/en active Pending
- 2019-10-25 WO PCT/US2019/058057 patent/WO2020086959A1/en unknown
- 2019-10-25 JP JP2021522511A patent/JP2022505836A/ja active Pending
- 2019-10-25 US US17/285,082 patent/US20210390366A1/en active Pending
-
2021
- 2021-04-20 IL IL282483A patent/IL282483A/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2020086959A1 (en) | 2020-04-30 |
US20210390366A1 (en) | 2021-12-16 |
EP3870038A1 (en) | 2021-09-01 |
EP3870038A4 (en) | 2022-11-02 |
WO2020086959A9 (en) | 2020-12-03 |
IL282483A (en) | 2021-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10573313B2 (en) | Audio analysis learning with video data | |
US9582769B2 (en) | Estimating affective response to a token instance utilizing a window from which the token instance was removed | |
US10401860B2 (en) | Image analysis for two-sided data hub | |
US20190102706A1 (en) | Affective response based recommendations | |
US10779761B2 (en) | Sporadic collection of affect data within a vehicle | |
US9183509B2 (en) | Database of affective response and attention levels | |
US20200342979A1 (en) | Distributed analysis for cognitive state metrics | |
US11700420B2 (en) | Media manipulation using cognitive state metric analysis | |
JP2022505836A (ja) | デジタルコンテンツ体験との改善されたヒューマンインタラクションのための共感的コンピューティングシステムおよび方法 | |
US11430561B2 (en) | Remote computing analysis for cognitive state data metrics | |
US20220101146A1 (en) | Neural network training with bias mitigation | |
US20200143286A1 (en) | Affective Response-based User Authentication | |
US20210125065A1 (en) | Deep learning in situ retraining | |
US11657288B2 (en) | Convolutional computing using multilayered analysis engine | |
Verma | Multimodal Affective Computing: Affective Information Representation, Modelling, and Analysis | |
Hamieh | Leveraging Anomaly Detection for Affective Computing Applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221018 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20230724 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230928 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240327 |