JP2009521246A - 精神状態の検出およびそれを用いる対話 - Google Patents

精神状態の検出およびそれを用いる対話 Download PDF

Info

Publication number
JP2009521246A
JP2009521246A JP2008529715A JP2008529715A JP2009521246A JP 2009521246 A JP2009521246 A JP 2009521246A JP 2008529715 A JP2008529715 A JP 2008529715A JP 2008529715 A JP2008529715 A JP 2008529715A JP 2009521246 A JP2009521246 A JP 2009521246A
Authority
JP
Japan
Prior art keywords
mental state
signal
processor
subject
mental
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008529715A
Other languages
English (en)
Inventor
タン シ サイ リー,
ナン ホアイ ドゥ,
ウィリアム エー. キング,
ハイ ハ ファム,
トーレ, マルコ デラ
エミール デリック,
ジョンソン ティエ,
ウィン ホン シュウ,
Original Assignee
エモーティブ システムズ ピーティーワイ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エモーティブ システムズ ピーティーワイ リミテッド filed Critical エモーティブ システムズ ピーティーワイ リミテッド
Publication of JP2009521246A publication Critical patent/JP2009521246A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • A61B5/374Detecting the frequency distribution of signals, e.g. detecting delta, theta, alpha, beta or gamma waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/398Electrooculography [EOG], e.g. detecting nystagmus; Electroretinography [ERG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/726Details of waveform analysis characterised by using transforms using Wavelet transforms

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Psychology (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Social Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Educational Technology (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Epidemiology (AREA)
  • Neurosurgery (AREA)
  • Signal Processing (AREA)
  • Neurology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dermatology (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physiology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)

Abstract

精神状態を検出する方法は、プロセッサ内において、1つ以上の生体信号検出器から被検体の生体信号を受信するステップと、プロセッサ内において、生体信号が被検体における特定の精神状態の存在を表すか否かを判断するステップと、を含む。検出された精神状態を使用する方法は、プロセッサ内において、被検体内に精神状態が存在するか否かを表す信号を受信するステップを含む。精神状態は、感情、好み、または知覚等、非熟慮型の精神状態であってもよい。プロセッサは、これらの方法を実行するように構成されることができ、機械可読媒体にタンジブルに格納されたコンピュータプログラムプロダクトは、これらの方法をプロセッサに実行させるように動作可能な命令を有することができる。

Description

本発明は、概して、非熟慮型の精神状態の検出に関する。
人間と機械との間の対話は、通常、キーボード、ジョイスティック、またはその他の手動で動作可能なデバイス等の扱い難い入力デバイスの使用に限定される。そのようなインタフェースの使用は、予め計画された意識的なコマンドのみを提供するようにユーザの能力を限定する。
身体障害者にそのような予め計画された意識的なコマンドを提供することを支援するために、多数の入力デバイスが開発されてきた。これらの入力デバイスのいくつかは、眼球運動を検出して、または音声起動して、これらのデバイスを動作させるためにユーザに要求される身体運動を最小限に抑える。それにもかかわらず、そのような入力デバイスは、ユーザによって意識して制御および動作されなくてはならない。しかしながら、人間のアクションは、ほとんど人間が気付いていない、または意識して制御していないものによって、すなわち無意識的な心によって駆動される。無意識的に制御された通信は、人間と人間との通信においてのみ存在し、しばしば「直感」と称される。
ユーザの対話能力を改善するために、人間ユーザと、電子娯楽プラットフォームまたはその他の対話型エンティティ等の機械との間の無意識的に制御された通信を容易にする方法を提供することが望ましい。ユーザと、膨大なデータ処理リソースの使用を当該ユーザに要求することなく多数のアプリケーションに適合するよう適応可能な1つ以上の対話型エンティティとの対話の手段を提供することも望ましいであろう。1人以上のユーザと、既知の対話システムにおける1つ以上の不利点を改良または克服する1つ以上の対話型エンティティとの間の対話方法を提供することも望ましいであろう。人間−機械間の対話を簡略化する技術を提供することはさらに望ましいであろう。この技術は、ロバストかつ強力であり、人間−機械間の対話が人間ユーザにとって可能な限り自然であるように、自然で無意識的な人間の対話技術を使用することが望ましいであろう。
1つの態様において、本発明は、精神状態を検出する方法を対象とする。当該発明は、プロセッサ内において、1つ以上の生体信号検出器から被検体の生体信号を受信するステップと、プロセッサ内において、生体信号が被検体における特定の精神状態の存在を表すか否かを判断するステップと、を含む。
本発明の実装は、以下の特徴のうち1つの以上を含み得る。特定の精神状態は、感情、好み、知覚、生理的状態、または健康状態等、非熟慮型の精神状態であってもよい。プロセッサから、特定の精神状態が存在するか否かを表す信号が生成され得る。生体信号は、脳波(EEG)信号を含んでもよい。生体信号を異なる表現に変換することができ、当該異なる表現の1つ以上の特徴を表す値を判断し、当該値を精神状態符号と比較することができる。非熟慮型の精神状態の存在を判断するステップは、実質的に精神状態符号の較正を行うことなく実行され得る。受信するステップおよび判断するステップは、実質的にリアルタイムで発生し得る。
別の態様において、本発明は、検出された精神状態を使用する方法を対象とする。当該方法は、プロセッサ内において、被検体内に精神状態が存在するか否かを表す信号を受信するステップを含む。
本発明の実装は、以下の特徴のうちの1つ以上を含み得る。特定の精神状態は、感情、好み、知覚、生理的状態、または健康状態等、非熟慮型の精神状態であってもよい。信号を格納してもよく、または、その信号に基づいて環境を修正するためにアクションを選択してもよい。標的感情を表すデータを格納し、標的感情に対する被検体の感情反応を変更することが予測される環境変数への変更を、プロセッサによって決定し、環境変数の変更を生じさせてもよい。標的感情が喚起されたか否かは、当該感情が被検体内に存在するか否かを表す信号に基づいて判断され得る。標的感情を喚起する際に環境変数の有効性を表す重み付けを格納し、変更を決定する際に当該重み付けを使用してもよい。当該感情が存在するか否かを表す信号に基づく学習エージェントを用いて、重み付けを更新してもよい。環境変数は、物理的環境または仮想環境において発生し得る。
別の態様において、本発明は、機械可読媒体にタンジブルに格納されたコンピュータプログラムプロダクトであって、上述した方法をプロセッサに実行させるように動作可能な命令を備えるプロダクトを対象とする。別の態様において、本発明は、上述した方法を実行するように構成されたプロセッサを有するシステムを対象とする。
別の態様において、本発明は、精神状態を検出および使用する方法を対象とする。当該方法は、1つ以上の生体信号検出器を用いて被検体の生体信号を検出するステップと、生体信号を第1のプロセッサへ導くステップと、第1のプロセッサ内において、生体信号が被検体における特定の精神状態の存在を表すか否かを判断するステップと、特定の精神状態が存在するか否かを表す信号を第1のプロセッサから生成するステップと、第2のプロセッサにおいて信号を受信するステップと、信号を格納する、または当該信号に基づいて環境を修正するステップと、を含む。
別の態様において、本発明は、1つ以上の生体信号検出器と、当該1つ以上の生体信号検出器から生体信号を受信し、生体信号が被検体における特定の精神状態の存在を示すか否かを判断し、当該特定の信号が存在するか否かを表す信号を生成するように構成された第1のプロセッサと、信号を受信し、当該信号を格納する、または当該信号に基づいて環境を修正するように構成された第2のプロセッサと、を備える装置を対象とする。
別の態様において、本発明は、ユーザと環境との対話方法を対象とする。当該方法は、ユーザからの1つ以上の生体信号を受けて、所定の精神状態の存在を検出および分類するステップと、ユーザの感情反応に影響を及ぼす1つ以上の環境変数を選択するステップと、選択された環境変数を変更するための1つ以上のアクションを実行し、それによってユーザの感情反応を変更するステップとを含む。
添付の図面および以下の説明において、本発明の1つ以上の実施形態に関する詳細を説明する。説明および図面から、ならびに特許請求の範囲から、本発明のその他の特徴、目的、および利点が明らかになるであろう。
種々の図面における類似の参照符号は、類似の要素を示す。
本発明は、概して、ユーザから機械への通信に関する。特に、被検体の精神状態を検出および分類し、この精神状態を表すための信号を生成して機械へ導くことができる。本発明はまた、概して、1人以上のユーザと機械によって制御された対話環境との無意識に制御された通信を使用する、対話方法にも関する。本発明は、電子娯楽プラットフォームまたはユーザがリアルタイムで対話を行うその他のプラットフォームにおける使用に適しており、当該例示的な、しかし限定的でない用途に関連して本発明を説明することは、好都合であろう。
図1に戻ると、被検体の熟慮型または非熟慮型の精神状態を検出および分類し、これらの精神状態を表す信号を生成するためのシステム10が示されている。一般に、非熟慮型の精神状態は、主観的性質の随意活動を欠く精神状態である。これらの非熟慮型の精神状態は、無意識的な心と呼ばれる場合があるが、この文脈において無意識的とは意識して選択されないことを示し、非熟慮型の精神状態は、(必ずというわけではないが)意識的に経験し得るものであることを理解すべきである。対照的に、熟慮型の精神状態は、被検体が、あるタスク、画像、または意図された経験に集中している場合に発生する。
非熟慮型の精神状態には、感情、好み、知覚、生理的状態、および健康状態を含む、システム10によって検出され得るいくつかのカテゴリがある。「感情」は、興奮、喜び、恐怖、悲しみ、倦怠感、およびその他の感情を含む。「好み」は、概して、観察した何らかのものへ向かう、またはそれから離れる傾向(例えば、好き嫌い)として現れる。「知覚」は、喉の渇き、痛み、およびその他の身体感覚を含み、当該感覚を取り除く、または強化するために、対応する衝動を伴ってもよい。「生理的状態」は、心拍数、体温、および発汗等の身体生理機能を実質的に直接制御する脳の状態を指す。「健康状態」は、身体的疾病の原因、症状または副作用であるが、従来は知覚とも生理的状態とも関連付けられていない脳の状態をいう。てんかんの発作は、健康状態の一例である。ある人が緑内障を有する場合に、脳が後頭葉において視覚情報を処理する態様は、健康状態の別の例である。当然ながら、いくつかの非熟慮型の精神状態は、これらのカテゴリのうち1つを超えるものに分類される場合もあり、または、これらのカテゴリのいずれにも合致しない場合もあることを理解すべきである。
システム10は、2つの主要コンポーネント、被検体20によって着用または携行される神経生理学的信号取得デバイス12と、精神状態検出エンジン14とを含む。手短に説明すると、神経生理学的信号取得デバイス12は被検体20からの生体信号を検出し、精神状態検出エンジン14は、これらの生体信号を、被検体における特定の精神状態の存在(および選択的に強度)を表す信号に変換する1つ以上の検出アルゴリズム114を実装する。精神状態検出エンジン14は、検出アルゴリズム114を実行する少なくとも1つのプロセッサを含み、当該プロセッサは、ソフトウェア命令によってプログラムされた汎用デジタルプロセッサ、または、例えばASIC等の特殊プロセッサであってもよい。特にソフトウェア実装の場合、精神状態検出エンジン14は、複数のコンピュータにおいて動作する分散システムであってもよいことを理解すべきである。
動作中、精神状態検出エンジンは、事実上リアルタイムで精神状態を検出することができ、例えば非熟慮型の精神状態について、待ち時間は50ミリ秒未満となることが予測される。これは、例えば、検出された精神状態に基づいて修正されている仮想環境内のアバターにより、遅延にフラストレーションを感じることなく、人対人の対話に十分な速度によって精神状態の検出を可能にし得る。熟慮型の精神状態の検出は、これより若干遅く、例えば数百ミリ秒未満であるが、人間対機械間の対話におけるユーザのフラストレーションを回避するには十分な速さである。
精神状態検出エンジン14は、アプリケーションプログラミングインタフェース(API)等のインタフェースによって、精神状態を表す信号を使用するシステム30に連結される。システム30は、被検体20の精神状態に関するデータを要求するシステム10へのクエリを生成し、当該被検体の精神状態を表す入力信号を受信し、これらの信号を使用することができる、アプリケーションエンジン32を含む。したがって、精神状態検出アルゴリズムの結果は、所定の非熟慮型の精神状態の入力信号代表として、システム30へ導かれる。選択的に、システム30は、被検体がさらされる環境34を制御することができ、被検体の精神状態を表す信号を使用して、環境34を修正するために実行するイベントを決定することができる。例えば、システム30は、標的感情を表すデータを格納することができ、当該標的感情を喚起するように環境34を制御することができる。あるいは、当該システムは、主としてデータ収集用に使用されてよく、被検体の精神状態に関する情報を格納し、ユーザ(被検体ではない場合がある)に対して人間可読形式で表示することができる。システム30は、エンジン32に連結されたローカルデータストア36を含んでもよく、例えばインターネット等のネットワークに連結されてもよい。エンジン32は、少なくとも1つのプロセッサを含んでもよく、当該プロセッサは、ソフトウェア命令によってプログラムされた汎用デジタルプロセッサ、または、例えばASIC等の特殊プロセッサであってもよい。また、システム30は、複数のコンピュータにおいて動作する分散システムであってもよいことを理解すべきである。
神経生理学的信号取得デバイス12は、被検体から種々の生体信号、特に、脳波(EEG)信号、眼電図(EOG)信号、筋電図(EMG)信号等、身体によって作り出された電気信号を検出することができる生体信号検出器を含む。しかしながら、システム10によって計測および使用されるEEG信号は、例えば0.3〜80Hz等、EEGのために習慣的に記録される周波数範囲外の信号を含み得ることに留意すべきである。概して、システム10は、被検体からの電気信号、特にEEG信号のみを使用して、かつ、心拍数モニタ、血圧モニタ等によって得られるような、心拍数、血圧、呼吸または電気皮膚反応等のその他の生理的過程を直接計測することなく、精神状態(熟慮型および非熟慮型の両方)の検出が可能であると考えられる。また、検出および分類され得る精神状態は、例えば覚醒している場合または一種の睡眠状態(レム睡眠またはノンレム睡眠の段階等)にある場合、従来EEG信号を使用して計測される、被検体の脳活動の全体的な相関よりも特異的である。例えば、興奮等の特定の感情、または、オブジェクトをプッシュまたはプルするコマンド等の特定の意図したタスクが検出され得る。
例示的な実施形態において、神経生理学的信号取得デバイスは、被検体20の頭部に取り付けられるヘッドセットを含む。ヘッドセットは、被検体またはユーザからEEG信号を捕捉するための一連の頭皮電極を含む。これらの頭皮電極は、頭皮に直接接触してもよいし、あるいは、頭皮上への直接設置を必要としない非接触型のものであってもよい。高解像度の3D脳スキャンを提供するシステム、例えばMRIまたはCATスキャン等とは異なり、ヘッドセットは概して携帯型かつ非制約型である。
一連の頭皮電極により、頭皮全体において検出される電気的変動は、大部分が頭蓋骨上またはその付近に位置する脳組織の活動に起因するものである。ソースは大脳皮質の電気的活動であり、そのかなりの部分は、頭皮の下にある脳の外面上に並んでいる。頭皮電極は、脳によって自然に作り出された電気信号を拾い、脳の表面全体にわたって電気的刺激を観察することを可能にする。
図2は、ヘッドセットの一部を形成する頭皮電極の位置決めの一例を示す。図2に示す電極設置は、「10−20」システムと称され、電極位置と、その下にある大脳皮質のエリアとの関係に基づくものである。電極設置システム200上の各点は、考えられる頭皮電極の位置を示す。各面には、負荷および数を識別するための文字、または、半球位置を識別するためのその他の文字が示されている。文字F、T、C、P、および0は、前頭骨(Frontal)、側頭部(Temporal)、中頭部(Central)、頭骨頭頂部(Parietal)、および後頭部(Occipital)を表す。偶数は右半球を指し、奇数は左半球を指す。文字Zは、正中線上に設置された電極を指す。正中線は、ナジオンから始まり、頭部の背後にあるイニオンで終わる、矢状面上の頭皮に沿った線である。「10」および「20」は、正中線分割のパーセンテージを指す。正中線は、7つの位置、すなわちナジオン、Fpz、Fz、Cz、Pz、Oz、およびイニオンに分割され、隣接する位置間の角度間隔は、それぞれ正中線長さの10%、20%、20%、20%、20%、および10%である。
この例示的な実施形態において、ヘッドセットは32本の頭皮電極を含むが、その他の実施形態では、異なる数および異なる設置の頭皮電極を含んでもよい。例えば、ヘッドセットは、基準電極と接地電極に加え、16本の電極を含んでもよい。
図1Aに戻ると、精神状態を検出および分類するためのシステムと、精神状態を表す信号を使用するシステムを含む外部デバイス150とを含む、装置100が示されている。装置100は、ヘッドセット102からの信号から、被検体の精神状態を検出および分類するための処理電子機器103とともに、上述したようなヘッドセット102を含む。
ヘッドセット102によって検出された信号のそれぞれは、信号強度を高めるための増幅器とノイズを除去するためのフィルタとを含み得るセンサインタフェース104を介して送り込まれ、続いてアナログ/デジタル変換器106によってデジタル化される。頭皮センサのそれぞれによって捕捉された信号のデジタル化されたサンプルは、後続の処理のため、装置103の動作中にデータバッファ108内へ格納される。装置100は、処理システム109に望ましい機能ステップを実行させるために、デジタルシグナルプロセッサ(DSP)112と、コプロセッサ110と、別名コンピュータプログラムまたはコンピュータ制御論理として知られている、一連の命令を格納するための関連メモリと、を含む処理システム109をさらに含む。コプロセッサ110は、入出力インタフェース116を介して、無線2.4GHzデバイス、WiFiもしくはBluetoothデバイス、または802.1lb/gデバイス等の伝送デバイス118に接続される。伝送デバイス118は、装置100を外部デバイス150に接続する。
とりわけ、メモリは、所定の非熟慮型の精神状態を検出および分類するための、デジタルシグナルプロセッサ112によって実行される少なくとも1つのアルゴリズム114を定義する、一連の命令を含む。一般に、DSP112は、ノイズを除去するためにデジタル信号処理を実行し、当該信号を「展開する」ために被検体の皮質の特定形状から変換し、変換された信号に対して感情検出アルゴリズムを実行する。感情検出アルゴリズムは、分類および較正目的で、特定の被検体に適応するニューラルネットワークとして動作することができる。感情検出アルゴリズムに加え、DSPは、熟慮型の精神状態用、および、まばたき、ウィンク、微笑み等の表情用の検出アルゴリズムも格納することができる。
コプロセッサ110は、デバイス側のアプリケーションプログラミングインタフェース(API)として機能し、その他の機能の中でも、伝送デバイス118を動作させるために無線通信プロトコル等の通信プロトコルスタックを実行する。特に、コプロセッサ110は、被検体における感情等の、特定の非熟慮型の精神状態の存在または強度に関するクエリ等、外部デバイス150から受信したクエリを処理および優先順位付けする。コプロセッサ110は、特定のクエリをDSP112への電子コマンドに変換し、DSP112から受信したデータを外部デバイス150への応答に変換する。
この実施形態において、精神状態検出エンジンはソフトウェア内で実装され、一連の命令は処理システム109のメモリ内に格納される。当該一連の命令は、本願に記載の発明の機能を処理システム109に実行させる。その他の実施形態において、精神状態検出エンジンは、例えば、特定用途向け集積回路(ASIC)等のハードウェアコンポーネントを使用して、またはソフトウェアおよびハードウェア両方の組み合わせを使用して、主にハードウェア内に実装されることができる。
外部デバイス150は、汎用コンピュータまたはゲーム機等のプロセッサを有し、一種の感情等、所定の非熟慮型の精神状態の有無を表す信号を使用する機械である。外部デバイスが汎用コンピュータである場合、当該デバイスは一般に、被検体の精神状態を表す入力信号を受信するために、被検体の精神状態に関するデータを要求する、装置100へのクエリを生成するためのエンジンとして作用する1つ以上のアプリケーション152を実行することになる。アプリケーション152は、例えば実環境または仮想環境等の環境を修正することによって、ユーザの精神状態を表すデータに応答することもできる。したがって、ユーザの精神状態は、ゲームシステムまたはその他のアプリケーション(シミュレータまたはその他の対話環境を含む)用の制御入力として使用され得る。
精神状態を表す信号を受信し、それに応答するシステムは、ソフトウェア内において実装されることができ、一連の命令はデバイス150のメモリ内に格納され得る。その他の実施形態において、精神状態を表す信号を受信しそれに応答するシステムは、例えば、特定用途向け集積回路(ASIC)等のハードウェアコンポーネントを使用して、またはソフトウェアおよびハードウェア両方の組み合わせを使用して、主にハードウェア内に実装されることができる。
装置100のその他の実装が可能である。デジタルシグナルプロセッサの代わりに、FPGA(フィールドプログラマブルゲートアレイ)を使用してもよい。別個のデジタルシグナルプロセッサとコプロセッサではなく、単一のプロセッサによって処理機能を実行することができる。バッファ108は、削除またはマルチプレクサ(MUX)と置換することができ、データは、処理システムのメモリ内に直接格納されることができる。MUXは、必要とされるのが単一のA/D変換器のみとなるよう、A/D変換器段階の前に設置されてもよい。装置100とプラットフォーム120との間の接続は、無線ではなく有線であってもよい。
図1Aでは精神状態検出エンジンを単一のデバイスとして示しているが、その他の実装も可能である。例えば、図1Bに示すように、当該装置は、ヘッドセット、MUX、MUXの前または後ろにA/D変換器106、無線伝送デバイス、電源用の電池、および、電池使用を制御する、MUXまたはA/D変換器から無線チップへデータを送信する等のためのマイクロコントローラを含む、ヘッドセットアセンブリ120を含む。A/D変換器106等は、ヘッドセット102上に物理的に位置付けられてもよい。当該装置は、ヘッドセットアセンブリからデータを受信するための無線受信機と、例えばDSP112およびコプロセッサ110等の処理システムとを含む別個のプロセッサユニット122であってもよい。プロセッサユニット122は、外部デバイス150のUSB入力に接続するケーブル124等の有線または無線接続によって、外部デバイス150に接続され得る。この実装は、ヘッドセットに付着した部分の数およびその結果として生じる重量を削減しながら無線ヘッドセットを提供するために有利となり得る。
別の例として、図1Cに示すように、専用デジタルシグナルプロセッサ112がデバイス170に直接統合される。デバイス170は、アプリケーション114を実行するための汎用デジタルプロセッサ、または被検体の非熟慮型の精神状態に関する情報を使用するアプリケーション固有のプロセッサも含む。この場合、精神状態検出エンジンの機能は、ヘッドセットアセンブリ120と、アプリケーション152を実行するデバイス170との間に散在する。さらに別の例として、図1Dに示すように、専用DSPがなく、代わりに精神状態検出アルゴリズム114が、アプリケーション152を実行するものと同じプロセッサによって、汎用コンピュータ等のデバイス180において実行される。この最後の実施形態は、特に精神状態検出アルゴリズム114およびアプリケーション152の両方をソフトウェアで実装するのに適合し、一連の命令はデバイス180のメモリ内に格納される。
動作中、システム200に従って配置された頭皮電極を含むヘッドセット102は、EEG信号を検出するために、被検体の頭部に設置される。図3は、それらのEEG信号の捕捉中に装置100によって行われる一連のステップおよび処理システム109によって行われる後続のデータ準備作業を示す。
ステップ300において、EEG信号が捕捉され、続いて、アナログ/デジタル変換器106を使用してデジタル化される。データサンプルは、データバッファ108に格納される。ヘッドセット102によって検出されるEEG信号は、多種多様な性質を有し得るが、説明を目的として、典型的な性質は以下の通りであるとする。振幅10〜4000μV、周波数範囲0.16〜256Hz、およびサンプリングレート128〜2048Hz。
ステップ302において、データサンプルは後続の分析のために調節される。データサンプルから排除されることが望ましい、考えられるノイズ源は、信号収集、格納、および取り出しのときに導入された外部干渉を含む。EEG信号では、外部干渉の例として、50/60Hzのパワー線信号と、EEG取得ハードウェア内にあるスイッチング回路に源を発する高周波ノイズとを含む。この調節ステップにおいて行われる典型的な動作は、ハイパスフィルタによるベースラインの除去である。ヘッドセット102から低品質の信号が検出された場合、データサンプルが収集されないことを確実にするために、さらなる確認が実行される。信号品質情報は、訂正措置を取るのを補助するために、ユーザへ送り返される。
続いて、信号干渉を除去するためにアーチファクト除去ステップ304が行われる。この例において、EEG信号は、ユーザの頭皮上にある多数の位置における電位の計測結果から成る。これらの信号は、いくつかの「信号源」sの観察結果xのセットとして表されることができ、ここで、n∈[1:N]、m∈[1:M]、nはチャネルインデックス、Nはチャネルの数、mはソースインデックス、Mはソースの数である。sとxとの間の関係を説明する伝達関数FおよびGのセットが存在する場合、いずれのソースまたはコンポーネントが観察結果xおよびそれらの性質に対して明確な影響を有するかを、あるレベルの信頼度で識別することができる。xの振幅に対して最大の影響を有するコンポーネントを発見するために、独立成分分析(ICA)等の異なる技術が、装置100によって適用される。これらのコンポーネントは、多くの場合、パワー線ノイズ、信号脱落、および筋肉等の干渉、まばたき、ならびに眼球運動アーチファクトに由来するものである。
EEG信号は、ステップ306、308、および310において、ヘッドセット102のユーザにおける精神状態の検出および分類を容易にする、異なる表現に変換される。
ステップ306において、データサンプルは、第1にエポック内で等しい長さの時間セグメントに分割される。図5に示す例示的な実施形態では、エポック内に等しい継続時間の時間セグメントが7本あるが、別の実施形態では、時間セグメントの数および長さは変更され得る。さらに、別の実施形態において、時間セグメントは、等しい継続時間のものでなくてもよく、また、エポック内で重複していてもいなくてもよい。各エポックの長さは、アーチファクト除去または符号更新等の、検出システム内におけるイベントに応じて動的に変動し得る。しかしながら一般に、エポックは、精神状態に変化が発生した場合、当該変化を確実に検出できるような、十分に長いものが選択される。図5は、ヘッドセット102内にある32本の電極から検出されたEEG信号のグラフである。3つのエポック500、502、および504が示されており、それぞれユーザの精神状態における変化の発現の前後に2秒ずつを有している。一般に、イベント前のベースラインは2秒に限定され、一方、イベント後の部分(感情反応を含有するEEG信号)は、検出されている現在の感情に応じて変動する。
処理システム109は、エポック500、502、および504を時間セグメントに分割する。図5に示す例において、エポック500は1秒間のセグメント506〜518に分割され、当該セグメントのそれぞれは0.5秒だけ重複している。4秒間のエポックは、結果として7つのセグメントをもたらす。
続いて、処理システム109は、ステップ308および310において、各EEG信号表現のうちの1つ以上の特徴を表す値がステップ312において計算および照合され得るよう、EEG信号を異なる表現に変換するために作用する。例えば、各時間セグメントおよび各チャネルについて、EEG信号は、時間領域(時間関数としての信号強度)から周波数領域(周波数関数としての信号強度)に変換され得る。例示的な実施形態において、EEG信号は、それぞれ0.16および256Hzの低および高遮断周波数によって、(周波数領域への変換中に)帯域通過する。
別の例として、EEG信号は、1次導関数に近似する微分領域(時間関数としての信号強度における限界的変化)に変換されてもよい。周波数領域を差動領域(周波数関数としての信号強度における限界的変化)に変換してもよいが、これには、異なる時間セグメントからの周波数スペクトルの比較が必要となる場合がある。
ステップ312において、各EEG信号表現のうちの1つ以上の特徴を表す値を計算(または、変換によってスカラ値が生成された場合、前のステップから収集)することができ、被検体の精神状態の多次元的表現を提供するために、種々の値を集合させることができる。EEG信号の変換された表現から計算される値に加えて、いくつかの値が元のEEG信号から計算され得る。
特徴の値の計算例として、周波数領域において、複数の周波数帯域のそれぞれにおける総信号パワーが計算され得る。本願に記載の例示的な実施形態においては、以下の周波数範囲とともに、7つの周波数帯域が使用される。δ(2〜4Hz)、θ(4〜8Hz)、α1(8〜10Hz)、α2(10〜13Hz)、β1(13〜20Hz)、β2(20〜30Hz)、およびγ(30〜45)。これらの周波数帯域のそれぞれにおける信号パワーが計算される。また、チャネルまたは帯域の種々の組み合わせについて、信号パワーを計算することもできる。例えば、すべての周波数帯域にわたる各空間チャネル(各電極)の合計信号パワーを測定することができ、または、すべてのチャネルにわたる所与の周波数帯域の合計信号パワーを測定することもできる。
本発明のその他の実施形態において、周波数帯域の数および範囲のいずれも、とりわけ用いられる特定のアプリケーションまたは検出方法に応じて、例示的な実施形態と異なっていてもよい。また、周波数帯域は重複していてもよい。さらに、実成分、位相、ピーク周波数、または平均周波数等、総信号パワー以外の特徴を、各周波数帯域の周波数領域表現から計算することができる。
この例示的な実施形態において、信号表現は、時間領域、周波数領域、および空間領域内にある。複数の異なる表現をx ijkとして示すことができ、ここで、n、i、j、kはそれぞれ、エポック、チャネル、周波数帯域、およびセグメントインデックスである。これらのパラメータを表す典型的な値は、以下の通りである。
i∈[1:32]32の空間的に区別可能なチャネル(Fp〜CPz参照)
j∈[1:7]7の区別可能な周波数帯域(δ〜γ参照)
ステップ310〜312において行われる動作は、多くの場合、多数の状態変数を作り出す。例えば、7つの周波数帯域を使用して、32のチャネルから成る2つの4秒間エポックの相関値を計算することで、次式のような百万を超える状態変数が求められる。
32×7×7=1190896
種々の異なる変換領域からの広範な特徴とともに、個々のEEG信号および異なるセンサからのEEG信号の組み合わせを使用することができるため、処理システム109によって分析される次元の数は極めて大きい。精神状態を検出および分類する際には、皮質の全体またはかなりの部分およびすべての特徴が考慮されることから、この膨大な数の次元は、処理システム109が広範な精神状態を検出することを可能にする。
ステップ312で処理システム109によって計算されるその他の一般的な特徴は、各チャネルにおける信号パワーと、各チャネル内の各周波数帯域におけるパワーの限界的変化と、異なるチャネル間における相関/コヒーレンスと、各周波数帯域におけるパワーの限界的変化間における相関とを含む。これらの特性間での選定は、区別することが望ましい精神状態の種類次第である。一般に、短期的な感情爆発の場合には限界特性がより重要となり、一方、長期的な精神状態では、その他の特性がより重要である。
EEG信号を異なる表現に変換し、EEG信号表現の種々の特徴を表す値を計測するために、種々の技術を使用することができる。例えば、ステップ308において、処理システム109により、高速フーリエ変換(FFT)およびバンドパスフィルタリング等、従来の周波数分析技術を行うことができ、一方、ステップ310において、信号コヒーレンスおよび相関の計測を行うことができる(後者の場合、コヒーレンスまたは相関値は、ステップ312において照合され、精神状態の多次元的表現の一部となることができる)。異なるチャネル間の相関/コヒーレンスが計算されると仮定すると、これは、例えば空間コヒーレンス/相関領域(電極対の関数としてのコヒーレンス/相関)等の領域とみなされる場合もある。例えば、その他の実施形態では、ステップ310において、ウェーブレット変換、動的システム分析、またはその他の線形もしくは非線形の数学的変換が使用され得る。
FFTは、2Nから2NlogNまでのN個のデータポイントに必要な演算の数を削減する離散フーリエ変換の効率的なアルゴリズムである。時間領域におけるデータチャネルをFFTを通過させると、複素周波数領域における当該データセグメントの記述を生成する。
コヒーレンスは、2つの異なる時系列の間における連関または結合の量の尺度である。したがって、周波数帯域Cにおいて、2つのチャネルaとbとの間でコヒーレンス演算を行うことができ、ここで、周波数fμについてのチャネルaおよびbのフーリエ成分は、xaμおよびxbμである:
したがって、周波数帯域ωにおいて、2つのチャネルaとbとの間でコヒーレンス演算を行うことができ、ここで、周波数fuのチャネルaおよびbのフーリエ成分はxaμおよびxbμである:
Figure 2009521246
相関は、2つの異なる時系列の間における連関または結合の量を評価するためにコヒーレンスの代替となるものである。上記コヒーレンスの部分と同じ仮定に対して、相関rabは、2つのチャネルx(t)とx(t)との間でコヒーレンス演算を行うことができ、以下のように定義される。
Figure 2009521246
ここで、xaiおよびxbiは、共通のバンドパスフィルタリング1010が既に適用されている。
図4は、好ましくはリアルタイムで行われ、続いて処理システム109によって行われる、種々のデータ処理作業を示す。ステップ400において、ユーザの精神状態を分類するために、各信号表現の1つ以上の特徴について計算された値を、処理システム109のメモリ内に格納された1つ以上の精神状態符号と比較する。各精神状態符号は、所定の精神状態の指標となる基準特徴値を定義する。
計算された特徴値のパターンを精神状態符号と一致させるために、処理デバイス109によって多数の技術が使用され得る。信号表現が、格納されている符号に対応する精神状態の指標となるものであるか否かを分類するために、多層パーセプトロンニューラルネットワークを使用することができる。処理システム109は、n個の入力を有する標準的なパーセプトロン、m個の隠れノードの1つ以上の隠れ層、およびl個の出力ノードを有する出力層を使用することができる。出力ノードの数は、処理システムが独立した精神状態をいくつ認識しようと試みているかによって決定される。また、使用されるネットワークの数は、検出されている精神状態の数によって変動し得る。ニューラルネットワークの出力ベクトルは、以下のように表現することができる。
Figure 2009521246
ここで、
Figure 2009521246
はm×(n+1)の重み行列、
Figure 2009521246
はl×(m+1)の重み行列(重み行列における追加列は、バイアス項の追加を可能にする)であり、
Figure 2009521246
は入力ベクトルである。FおよびFは、別の列ベクトルを作り出すために列ベクトルの成分に別々に作用する活性化関数であり、
Figure 2009521246
は出力ベクトルである。活性化関数は、入力によってノードがどのように活性化されるかを判断する。処理システム109は、シグモイド関数を使用する。その他の可能性として、双曲正接関数、さらには1次関数がある。重み行列は、再帰的にまたは一度にすべてのいずれかで決定され得る。
未知のサンプルセットの、既知のものとの類似性を測定するための距離計測は、ニューラルネットワークの代替技術として使用され得る。修正されたマハラノビス距離、標準化されたユークリッド距離、および投影距離等の距離を使用して、計算された特徴値と、種々の精神状態符号によって定義された基準特徴値との間の類似性を測定し、それによって、ユーザの精神状態がそれらの符号のそれぞれをいかによく反映しているかを示すことができる。
精神状態符号および重み付けは、予め定義され得る。例えば、いくつかの精神状態について、(例えば、被験者における精神状態を意図的に喚起し、結果として生じる符号を計測することによって)特定の符号が生み出されると、この符号をメモリにロードして特定のユーザによって較正することなく使用することができるような人間集団全体で、符号は十分に均一である。他方、いくつかの精神状態について、予め定義された符号を使用することができない、または被検体による限定された満足でのみ使用することができるような人間集団全体で、符号は十分に均一ではない。そのような場合、以下で論じるように、装置100により(例えば、ユーザが何らかの結果に対して意図的な努力をすることを要求し、結果として生じる符号を計測することによって)特定のユーザについての符号(および重み付け)が生成され得る。当然ながら、いくつかの精神状態について、被験者から予め決定された符号および/または重み付けの精度は、特定のユーザの較正によって改善され得る。例えば、特定のユーザについて非熟慮型の精神状態の主観的強度を較正するために、当該ユーザは、特定の精神状態を作り出すことが予測される刺激にさらされる場合があり、結果として生じる生体信号は予め定義された符号と比較される。精神状態の強度に関してユーザがクエリを受け、結果として生じるユーザからのフィードバックが重み付けを調整するために適用される場合がある。また、格納された多次元的表現の範囲の統計解析によって、較正が実行される場合がある。熟慮型の精神状態を較正するために、ユーザは、何らかの結果に対して意図的な努力をすることを要求される場合があり、結果として生じる精神状態の多次元的表現は、符号または重み付けを調整するために使用され得る。
装置100は、ユーザの種々の精神状態を表す符号指標を生成および更新するように適応されることもできる。ステップ402において、ステップ300〜310で生成されたEEG信号の、複数の異なる表現のデータサンプルが、好ましくは装置100のすべてのユーザについて、処理システム109によってメモリ内に保存される。このようにして、処理デバイス109に、装置100のユーザ1人以上について精神状態検出の精度を漸次改善させることができる、データサンプルの進化型データベースが作成される。
ステップ404において、異なる精神状態を特徴付ける上で、特徴のそれぞれがいかに重要であるかを判断するために、1つ以上の統計的技術が適用される。異なる座標には、それらがどの程度異なっているかに基づく評価が与えられる。処理システム109によって実装される技術では、脳の領域または異なる精神活動中に活性化するEEG信号からの脳波周波数をハイライトするために仮説検定処理を使用する。単純化したレベルでは、このアプローチは一般に、定義された期間からのデータサンプルのセットを前提として、EEG信号の表現について何らかの平均化された(平均)パワー値が他と異なるか否かを判断することを伴う。そのような「平均差」検定は、すべての信号表現について、処理システム109により実行される。
好ましくは、処理システム109は、活性化における差異を検索するために、一対のスチューデントのT検定と組み合わせて、分散分析(ANOVA)のF比率検定を実装する。T検定は、2つの群に関する一方向ANOVA検定と機能的に同等であるが、分析される平均差の方向(すなわち、精神状態1の平均値が精神状態2の平均値よりも大きいか、その逆であるか)の計測も可能にする。スチューデントのT検定を表す一般的公式は、以下の通りである。
Figure 2009521246
T式の下半分において分母を作っている「n」は、分子内で対照をなしている平均を構成する特定の精神状態について記録された時系列の数(すなわち、更新中に記録された、重複している、または重複していないエポックの数)である。
その結果生じたt値は、一般に分析される何千もの特徴について重要性レベルを判断するための、特徴空間の次元の評価を含む種々の手法において、処理システム109によって使用される。特徴は、線形または非線形スケールで、またはバイナリ方式で、ある重要性のレベルを満たさないこれらの特徴を除去することによって、重み付けされ得る。
符号更新中に何千もの仮説検定から生成されるt値の範囲を使用して、当該更新中に検出された精神状態がどの程度隔てられているかについての全体的な表示をユーザに与えることができる。t値は、2つのアクションについての特定の平均隔たりを表示するものであり、すべての座標にわたるt値の範囲は、座標のすべてが平均していかに隔たっているかに関する距離関数を提供する。
上述した技術は、処理システム109が各個別座標についての分析を同時に実行することから単変量アプローチと称され、それらの個々のt検定またはANOVA検定の結果に基づいて特徴選択決定を行う。ステップ406において、質量単変量アプローチの使用による確率誤差の可能性の増大を調整するための、補正がなされ得る。この目的に適した統計的技術は、次の多重度補正方法:Bonferroni、False Discovery Rate、and Dunn Sidakを含む。
代替的なアプローチは、処理システム109が、座標間のあらゆるポテンシャル共分散を明らかにするであろう質量多変数仮説検定で、すべての座標を同時に分析することである。したがって処理システム109は、判別関数分析および多変量分散分析(MANOVA)等の技術を用いることができ、当該技術は、多変数方式で特徴空間を選択するための手段を提供するだけでなく、リアルタイム環境において未知の信号表現を実際に分類するために、分析中に作成された固有値を使用することも可能にする。
ステップ408において、処理システム109は、特定の精神状態を検出する上で最大の重要性を有する座標が所与の優先順位となるよう座標に重み付けすることによって、入力リアルタイムデータを分類する準備を行う。これは、適応重み付け前処理、ニューラルネットワークトレーニング、または統計的重み付けを適用することによって行われ得る。
処理システム109内のメモリに格納された符号は、ステップ410において更新または較正される。更新プロセスは、進化型データベースに追加されるデータサンプルを採取することを伴う。このデータは、特定の精神状態を検出するように誘発される。例えば、意図的な努力の精神状態を更新するために、ユーザは、当該意図的な努力に集中するように指示され、信号データサンプルはデータベースに追加され、当該検出のための符号を修正するために処理システム109によって使用される。符号が存在する場合、検出は、当該検出を定義する符号を更新するためのフィードバックを提供することができる。例えば、ユーザがオブジェクトを押し退けさせるための符号の改善を希望する場合、既存の検出を使用して、符号が更新された際にフィードバックを提供することができる。そのシナリオにおいて、ユーザには、検出が改善し、更新プロセスに強化を提供していることが分かる。
ステップ412において、教師付き学習アルゴリズムは、ステップ410から更新データを動的に採取し、それを記録されたデータサンプルの進化型データベースと組み合わせて、更新された精神状態を表す符号を改善する。符号は、初めは空であってもよいし、基準または汎用開始符号を形成するために組み合わせられている場合があるその他のユーザからの履歴データを使用して準備されてもよい。
ステップ414において、更新された精神状態を表す符号は、ステップ416における符号フィードバック評価だけでなく精神状態分類(ステップ400)にも利用可能となる。ユーザが所与の精神状態を表す符号を生み出した場合、精神状態検出がいかに進歩しているかを反映したリアルタイムでの評価が利用可能である。したがって、装置100は、符号の進歩を経時的に観察できるようにするためのフィードバックをユーザに提供することができる。上記の考察では、特定の精神状態の有無を判断することに焦点を置いた。しかしながら、当該特定の精神状態の強度を測定することも可能である。強度は、変換された信号のユーザから符号までの「距離」を計測することによって測定され得る。距離が大きくなるほど、強度は低くなる。ユーザが経験した主観的強度までの距離を、強度スケールに較正するために、ユーザは、精神状態の強度に関してクエリを受ける場合がある。結果として生じるユーザからのフィードバックは、重み付けを調整するために適用されて、距離を強度スケールまで較正する。
前述のことから、装置100は有利にも、符号のオンライン作成をほぼリアルタイムで可能にすることが十分理解されるであろう。ユーザの精神状態の検出および符号の作成は数分以内に達成されることができ、続いて、当該精神状態を表すユーザの符号が更新されると、経時的に微調整される。これは、対話型アプリケーションにおいて極めて重要となる場合があり、その場合、経時的な漸進的改善だけでなく、短期的結果も重要である。
前述のことから、装置100は有利にも、予め生成された符号(予め定義されたものか特定のユーザについて作成されたものかにかかわらず)を有する精神状態の検出をリアルタイムで可能にすることも十分に理解されるであろう。したがって、ユーザにおける特定の精神状態の有無、または当該特定の精神状態の強度を検出することは、リアルタイムで達成され得る。
さらに、予め定義する必要がない精神状態について符号を作成することができる。装置100は、予め定義された精神状態および予め定義された刺激によって誘発された精神状態だけでなく、記録された精神状態も分類することができる。
それぞれの、かつすべての人間の脳は、微妙に異なっている。主要な脳回(隆線)および溝(陥凹)等の肉眼で見える構造が一般的であるが、これらの一般化がなされ得るのは最大スケールの形態にある場合においてのみである。皮質の複雑で細かなひだは、指紋のように個別的である。ひだにおけるこの変動は、脳の異なる部分を異なる個人における頭蓋骨に近づけてしまう。
そのため、頭皮上で組み合わせて計測した場合、電気的刺激は個人間で異なる。これは、頭皮上で記録されたEEGが、必然的に人により異なって解釈されることを意味する。歴史的に、EEG計測による制御の手段を個人に提供することを目標とするシステムは、多くの場合において使用されるシステムの、そし常にユーザによる、広範囲のトレーニングを必要としてきた。
本明細書に記載の精神状態検出システムは、多くの空間エリアにわたる膨大な数の特徴の次元、周波数範囲、およびその他の次元を利用することができる。符号を作成および更新する際、システムは、特定の精神状態を区別するための能力によって特徴をランク付けし、それによって、所与の精神状態における脳の活動をよりうまく捕捉することができるそれらの特徴をハイライトする。ユーザによって選択された特徴は、特定の精神状態を区別することが可能な頭皮上で計測された電気信号の性質を反映しており、したがって、ユーザの特定の皮質における信号が、頭皮上でどのように現れているかを反映している。つまり、特定の精神状態を識別するユーザの個々の電気信号は、識別され符合内に格納されている。これにより、EEGの個人差を補償するアルゴリズムを用いて、数分以内でのリアルタイムの精神状態の検出または生成が可能になる。
ここでシステム30に戻ると、図6は、精神状態を表す信号を使用するシステムの実施形態である、プラットフォーム600の概略表現図を示す。プラットフォーム600は、ソフトウェアとして、ハードウェア(例えば、ASIC)として、またはハードウェアとソフトウェアの組み合わせとして実装され得る。プラットフォームは、1人以上の被検体からの、所定の非熟慮型の精神状態、例えば異なる感情反応の入力信号代表を受信するように適応される。図6において、第1のユーザからの感情反応の入力信号代表は入力1〜入力nとして参照され、第1の入力デバイス602において受信され、一方、第2のユーザからの感情反応の対応する入力信号代表は第2の入力デバイス604によって受信され扱われる。入力ハンドラ606は、1人または複数の被検体からの感情反応の複数の入力代表を扱い、ニューラルネットワークまたはその他の学習エージェント608にとっての各入力の取り扱いを容易にする。さらに、プラットフォーム600は、例えばセンサまたはメモリ等のさらなるデバイス610から、一連の環境入力を受信するように適応される。これらの環境入力は、現在の状態の代表、または1人以上の被検体に何らかの手法で影響を与える環境変数の値である。環境変数は、室内の温度または照明条件等の物理的環境、または電子娯楽環境における被検体−アバター間の対話性質等の仮想環境において発生し得る。入力ハンドラ612は、被検体が知覚した環境変数の入力代表を処理し、学習エージェント608による環境入力の取り扱いを容易にするように作用する。
一連の重み付け614は、プラットフォーム600によって維持され、被検体入力ならびに入力ハンドラ606および612によって提供された環境入力の処理の際に、学習エージェント608によって使用される。出力ハンドラ616は、被検体によって知覚され得る選択された環境変数を変更する複数の可能なアクションを行わせるように適応された出力デバイス618に、学習エージェント608によって提供された、1つまたは複数の出力信号を扱う。
図7に示すように、ステップ700において、ヘッドセット102が取り付けられた被検体のうちの1人以上の、所定の非熟慮型の精神状態、例えば感情反応が検出および分類される。検出される感情反応は、喜び、恐怖、悲しみ、またはその他任意の無意識的に選択された感情反応であってもよい。
プラットフォーム600内に維持されている重み付け614は、それぞれ被検体において特定の感情を喚起する上での環境変数の有効性の代表であり、特定の感情に対するユーザの感情反応をもたらすためにはいずれのアクション618を実行すべきか選択するため、また選択されたアクションのそれぞれによって引き起こされる、選択された環境変数における相対的変化を測定するために、学習エージェント608によって使用される。
各被検体は、問題になっている特定の対話環境と対話しているため、重み付けは、アクション618のそれぞれによってもたらされた環境変数における変化に対する各被検体の感情反応性にしたがって、学習エージェント608により更新される。
したがって、ステップ702において、被検体内で標的感情反応を喚起する上で最も有効であると考えられるアクションを実行させるために、対話環境内において変更されることができる環境変数に適用され得る可能なアクション418に、学習エージェント408によって重み付け604が適用される。例えば、特定のアプリケーションは、悲しみの感情反応を除去するという目標を有する場合がある。したがって、特定の被検体について、喜び、平静さ、安らぎ、または類似する肯定的感情の感情反応を喚起する可能性が高い、音楽をかける、被検体がいる室内の照明レベルを上げる等の選択アクションに、重み付けが適用される。
ステップ704において、学習エージェント608および出力ハンドラ616は、選択されたアクション618を実行に移させることにより、被検体によって知覚される環境変数に変化をもたらす。ステップ706において、ユーザの感情反応は、ここでも、各被検体のEEG信号における感情反応の存在、ならびにプラットフォーム600において検出された感情を代表する出力信号602および404の受信を検出および分類することによって監視される。学習エージェント608は、各被検体の感情状態における相対的変化を観察し、ステップ708において、当該被検体の感情反応を最適化する上でのそれらの有効性に応じ、重み付けを更新する。
図6に示す例において、プラットフォーム600は、ローカル対話環境において動作する。図8は、リモート環境およびネットワーク化された環境の両方において動作する代替プラットフォーム800を示す。1人以上の被検体の対応する検出された感情反応および環境変数の状態または値を処理すること、ならびにローカル対話環境において選択された環境変数を変更するためにアクションに重み付けを適用することに加え、学習エージェント608は、被検体のうち1人以上によって知覚される、選択された環境変数を変更するためにアクション806を実行できるようにする目的で、インターネット等のデータネットワーク804を介してリモート出力ハンドラ802と相互接続されている。例えば、ゲーム環境において、アクション618は、ユーザのローカルゲーム機またはパーソナルコンピュータ等のローカル対話環境において行われてよく、一方、アクション806は、リモートゲーム機またはパーソナルコンピュータにおいて行われてよい。ネットワーク化されたゲーム機を伴うシナリオにおいて、第1の被検体はフラストレーションの感情を経験しており、学習エージェント608は、別の被検体が使用しているリモートゲーム機において、ローカル被検体が経験しているフラストレーションのレベルを低減し得る所定のパラメータを変更するために、当該リモートゲーム機においてアクションを行わせることができる。
さらに別の変形を図9に示す。同図に示すプラットフォーム790は、ネットワーク化された環境またはリモート対話環境が学習エージェント608による1つ以上の環境変数の変更に支配されないよう、ネットワーク804と出力ハンドラ802との間に余分の学習エージェントまたはプロセッサ902が設けられていることを除いて、図6のプラットフォーム800と同一であるが、ローカル環境条件および/またはプロセッサ902が相互接続され得るその他1つ以上の対話環境からの矛盾する入力を考慮するために、何らかのローカルインテリジェンスが設けられている。
本発明の実施形態および本明細書に記載した機能動作のすべては、デジタル電子回路において、または本明細書で開示した構成手段およびその構成均等物を含む、コンピュータソフトウェア、ファームウェア、もしくはハードウェアにおいて、またはそれらの組み合わせにおいて、実装され得る。本発明の実施形態は、1つ以上のコンピュータプログラムプロダクト、すなわち、情報担体内においてタンジブルに具現化された1つ以上のコンピュータプログラムとして、例えば、機械可読ストレージデバイスにおいて、または、例えばプログラマブルプロセッサ、コンピュータ、もしくは複数のプロセッサもしくはコンピュータ等のデータ処理装置によって実行するための、もしくはその動作を制御するための、伝播信号において実装され得る。コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとしても知られている)は、コンパイラ型またはインタープリタ型言語を含むあらゆる形のプログラミング言語で書き込まれることができ、スタンドアロンプログラムとして、またはモジュール、コンポーネント、サブルーチン、もしくはコンピュータ環境での使用に適したその他のユニットとしてのものを含むあらゆる形で配備されることができる。コンピュータプログラムは、必ずしもファイルに対応していない。プログラムは、その他のプログラムもしくはデータを保持しているファイルの一部、問題になっているプログラム専用の単一ファイル、または複数の協調ファイル(例えば、1つ以上のモジュール、サブプログラム、またはコードの一部を格納しているファイル)内に格納され得る。コンピュータプログラムは、1つのコンピュータまたは1つのサイトにある複数のコンピュータにおいて実行されるように、または複数のサイトに分配されて通信ネットワークにより相互接続されるように配備されることができる。
本明細書に記載したプロセスおよび論理の流れは、入力データに動作し出力データを生成することによって機能を実行するための1つ以上のコンピュータプログラムを実行する、1つ以上のプログラマブルプロセッサによって実行され得る。当該プロセスおよび論理の流れは、例えばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)等の特殊用途の論理回路によって実行されてもよく、装置はそれらの論理回路として実装されてもよい。
本発明の多数の実施形態について説明した。それでもやはり、本発明の精神と範囲を逸脱することなく、種々の修正形態がなされ得ることが理解されるであろう。
例えば、精神状態検出エンジン114から情報を「プル」するためにインタフェースを介してクエリするという状況で本発明を説明したが、精神状態検出エンジンは、インタフェースを介してシステム30へ情報を「プッシュ」するように構成されてもよい。
別の例として、システム10は、心拍数、血圧、呼吸、および電気抵抗(ガルバニック皮膚反応またはGSR)等、被検体のその他の生理的作用の直接計測ができる追加センサを選択的に含んでもよい。いくつかのそのようなセンサ、ガルバニック皮膚反応を計測するためのセンサをヘッドセット102自体に組み込んでよい。そのような追加センサからのデータを使用して、非熟慮型状態の検出を検証または較正することが可能である。
したがって、その他の実施形態は、特許請求の範囲内である。
図1は、非熟慮型の精神状態、例えば感情等、精神状態を検出および分類するためのシステムであって、検出された精神状態を使用するシステムと、被検体との対話を示す概略図である。 図1Aは、感情等の非熟慮型の精神状態等の精神状態を検出および分類するための装置の概略図である。 図1B〜1Dは、図1Aに示す装置の変形である。 図1B〜1Dは、図1Aに示す装置の変形である。 図1B〜1Dは、図1Aに示す装置の変形である。 図2は、生体信号検出器の位置を、図1に示す装置において使用されるヘッドセットの一部を形成する頭皮電極の形で示す概略図である。 図3および4は、精神状態の検出および分類中に、図1に示す装置によって実行される大まかな機能ステップを示すフローチャートである。 図3および4は、精神状態の検出および分類中に、図1に示す装置によって実行される大まかな機能ステップを示すフローチャートである。 図5は、図1の装置によって処理された生体信号およびそれらの生体信号の変換をグラフ表示したものである。 図6は、環境変数を制御するために検出された感情を使用するための、プラットフォームの概略図である。 図7は、図1に示す装置およびプラットフォームの、使用時におけるハイレベルな機能性を示すフローチャートである。 図8および図9は、図4に示すプラットフォームの2つの変形である。 図8および図9は、図4に示すプラットフォームの2つの変形である。

Claims (27)

  1. 精神状態を検出する方法であって、
    プロセッサ内において、1つ以上の生体信号検出器から被検体の生体信号を受信することと、
    該プロセッサ内において、該生体信号が該被検体における特定の精神状態の存在を表すか否かを判断することと
    を含む、方法。
  2. 前記特定の精神状態は、非熟慮型の精神状態を含む、請求項1に記載の方法。
  3. 前記非熟慮型の精神状態は、感情、好み、知覚、生理的状態、または健康状態である、請求項2に記載の方法。
  4. 前記特定の精神状態が存在するか否かを表す、前記プロセッサからの信号を生成することをさらに含む、請求項1に記載の方法。
  5. 前記生体信号は脳波計(EEG)信号を含む、請求項1に記載の方法。
  6. 判断することは、前記生体信号を異なる表現に変換することを含む、請求項1に記載の方法。
  7. 判断することは、前記異なる表現のうちの1つ以上の特徴に対する値を計算することを含む、請求項6に記載の方法。
  8. 判断することは、前記値を精神状態符号と比較することを含む、請求項7に記載の方法。
  9. 前記特定の精神状態は非熟慮型の精神状態を含み、該非熟慮型の精神状態の存在を判断することは、前記精神状態符号の較正を実質的に行うことなく実行される、請求項8に記載の方法。
  10. 受信することおよび判断することは、実質的にリアルタイムで発生する、請求項1に記載の方法。
  11. 機械可読媒体にタンジブルに格納されたコンピュータプログラムプロダクトであって、請求項1〜10のいずれかに記載の方法をプロセッサに実行させるように動作可能な命令を備える、プロダクト。
  12. 請求項1〜10のいずれかに記載の方法を実行するように構成されたプロセッサを備える、システム。
  13. 検出された精神状態を使用する方法であって、
    プロセッサ内において、被検体内に精神状態が存在するか否かを表す信号を受信することを含む、方法。
  14. 前記特定の精神状態は、非熟慮型の精神状態を含む、請求項13に記載の方法。
  15. 前記非熟慮型の精神状態は、感情、好み、知覚、生理的状態、または健康状態である、請求項14に記載の方法。
  16. 前記信号を格納することをさらに含む、請求項13に記載の方法。
  17. 前記信号に基づいて、環境を修正するためのアクションを選択することをさらに含む、請求項13に記載の方法。
  18. 前記非熟慮型の状態は感情であり、前記方法は、
    標的感情を表すデータを格納することと、
    前記プロセッサを用いて、被検体の感情反応を該標的感情に変更することが予測される環境変数への変更を決定することと、
    該環境変数への該変更を引き起こすことと
    を含む、請求項13に記載の方法。
  19. 前記標的感情が前記被検体内に存在するか否かを表す信号に基づいて、前記感情が喚起されたか否かを判断することをさらに含む、請求項18に記載の方法。
  20. 前記標的感情を喚起する際に、前記環境変数の有効性を表す重み付けを格納することと、前記変更を決定する際に、該重み付けを使用することとをさらに含む、請求項19に記載の方法。
  21. 前記感情が存在するか否かを表す前記信号に基づく学習エージェントを用いて、前記重み付けを更新することをさらに含む、請求項20に記載の方法。
  22. 前記環境変数は、身体環境または仮想環境において発生する、請求項13に記載の方法。
  23. 機械可読媒体にタンジブルに格納されたコンピュータプログラムプロダクトであって、請求項13〜22のいずれかに記載の方法をプロセッサに実行させるように動作可能な命令を備える、プロダクト。
  24. 請求項13〜22のいずれかに記載の方法を実行するように構成されたプロセッサを備える、システム。
  25. 精神状態を検出および使用する方法であって、
    1つ以上の生体信号検出器を用いて被検体の生体信号を検出することと、
    該生体信号を第1のプロセッサへ導くことと、
    該第1のプロセッサ内において、該生体信号が該被検体における特定の精神状態の存在を表すか否かを判断することと、
    該特定の精神状態が存在するか否かを表す信号を該第1のプロセッサから生成することと、
    第2のプロセッサにおいて該信号を受信することと、
    該信号を格納するか、または該信号に基づいて環境を修正することと
    を含む、方法。
  26. 1つ以上の生体信号検出器と、
    該1つ以上の生体信号検出器から生体信号を受信し、該生体信号が被検体における特定の精神状態の存在を示すか否かを判断し、該特定の精神状態が存在するか否かを表す信号を生成するように構成された第1のプロセッサと、
    該信号を受信し、該信号を格納するか、または該信号に基づいて環境を修正するように構成された第2のプロセッサと
    を備える、装置。
  27. ユーザと環境との対話の方法であって、
    該ユーザからの1つ以上の生体信号に応答して、所定の精神状態の存在を検出および分類することと、
    該ユーザの感情反応に影響を及ぼす1つ以上の環境変数を選択することと、
    該選択された環境変数を変更するための1つ以上のアクションを実行し、それによってユーザの該感情反応を変更することと
    を含む、方法。
JP2008529715A 2005-09-12 2006-09-12 精神状態の検出およびそれを用いる対話 Withdrawn JP2009521246A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US71665705P 2005-09-12 2005-09-12
PCT/IB2006/004165 WO2007096706A2 (en) 2005-09-12 2006-09-12 System and method for interaction with a subject based on detection of mental states

Publications (1)

Publication Number Publication Date
JP2009521246A true JP2009521246A (ja) 2009-06-04

Family

ID=38437734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008529715A Withdrawn JP2009521246A (ja) 2005-09-12 2006-09-12 精神状態の検出およびそれを用いる対話

Country Status (7)

Country Link
US (1) US20070173733A1 (ja)
EP (1) EP1924940A2 (ja)
JP (1) JP2009521246A (ja)
KR (1) KR20080074099A (ja)
CN (1) CN101331490A (ja)
TW (1) TW200727867A (ja)
WO (1) WO2007096706A2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011143059A (ja) * 2010-01-14 2011-07-28 Univ Of Tsukuba 顔面動作推定装置及び顔面動作推定方法
JP2012075708A (ja) * 2010-10-01 2012-04-19 Sharp Corp ストレス状態推定装置、ストレス状態推定方法、プログラム、および記録媒体
JP2014533589A (ja) * 2011-11-25 2014-12-15 パーシスト ディベロップメント コーポレーション Eegデータ並びにユーザインタフェースを表示するための方法及びシステム
KR20150076167A (ko) * 2012-09-28 2015-07-06 더 리젠츠 오브 더 유니버시티 오브 캘리포니아 감각 및 인지 프로파일링을 위한 시스템 및 방법
KR20150082322A (ko) * 2012-11-10 2015-07-15 더 리젠츠 오브 더 유니버시티 오브 캘리포니아 신경병리 평가를 위한 시스템 및 방법
JP2015520627A (ja) * 2012-05-03 2015-07-23 ユニベルシテ ピエール エ マリーキュリー(パリ シズエム) 患者の脳の電気活動を解析してこの患者の生理状態を特徴付ける方法および当該方法を適用した監視装置
WO2017175447A1 (ja) * 2016-04-05 2017-10-12 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10182736B2 (en) 2012-10-12 2019-01-22 The Regents Of The University Of California Configuration and spatial placement of frontal electrode sensors to detect physiological signals
WO2019202971A1 (ja) * 2018-04-17 2019-10-24 ソニー株式会社 生体情報評価装置および生体情報評価方法
KR102043376B1 (ko) * 2018-08-16 2019-11-11 한국과학기술연구원 심층 신경망 알고리즘을 이용하는 실시간 스트레스 분석 방법
JP2021510094A (ja) * 2017-12-22 2021-04-15 バイオセレニティBioserenity 脳活動の指標を計算するためのシステム及び方法

Families Citing this family (174)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080177197A1 (en) * 2007-01-22 2008-07-24 Lee Koohyoung Method and apparatus for quantitatively evaluating mental states based on brain wave signal processing system
US8301218B2 (en) * 2004-01-08 2012-10-30 Neurosky, Inc. Contoured electrode
US8170637B2 (en) * 2008-05-06 2012-05-01 Neurosky, Inc. Dry electrode device and method of assembly
KR20050072965A (ko) * 2004-01-08 2005-07-13 림스테크널러지주식회사 생체신호 검출용 건식 능동 센서모듈
US20060257834A1 (en) * 2005-05-10 2006-11-16 Lee Linda M Quantitative EEG as an identifier of learning modality
WO2006122398A1 (en) * 2005-05-16 2006-11-23 Cerebral Diagnostics Canada Incorporated Near-real time three-dimensional localization, display , recording , and analysis of electrical activity in the cerebral cortex
EP1921986A4 (en) 2005-09-02 2011-11-30 Emsense Corp DEVICE AND METHOD FOR MEASURING ELECTRICAL ACTIVITY IN TISSUE
US9215996B2 (en) * 2007-03-02 2015-12-22 The Nielsen Company (Us), Llc Apparatus and method for objectively determining human response to media
US8230457B2 (en) 2007-03-07 2012-07-24 The Nielsen Company (Us), Llc. Method and system for using coherence of biological responses as a measure of performance of a media
US20090070798A1 (en) * 2007-03-02 2009-03-12 Lee Hans C System and Method for Detecting Viewer Attention to Media Delivery Devices
US20090253996A1 (en) * 2007-03-02 2009-10-08 Lee Michael J Integrated Sensor Headset
US20080218472A1 (en) * 2007-03-05 2008-09-11 Emotiv Systems Pty., Ltd. Interface to convert mental states and facial expressions to application input
US8473044B2 (en) * 2007-03-07 2013-06-25 The Nielsen Company (Us), Llc Method and system for measuring and ranking a positive or negative response to audiovisual or interactive media, products or activities using physiological signals
US20080221969A1 (en) * 2007-03-07 2008-09-11 Emsense Corporation Method And System For Measuring And Ranking A "Thought" Response To Audiovisual Or Interactive Media, Products Or Activities Using Physiological Signals
US8782681B2 (en) * 2007-03-08 2014-07-15 The Nielsen Company (Us), Llc Method and system for rating media and events in media based on physiological data
US8764652B2 (en) * 2007-03-08 2014-07-01 The Nielson Company (US), LLC. Method and system for measuring and ranking an “engagement” response to audiovisual or interactive media, products, or activities using physiological signals
TWI324918B (en) * 2007-04-04 2010-05-21 Ind Tech Res Inst Monitoring apparatus, system and method
JP5071850B2 (ja) * 2007-09-03 2012-11-14 国立大学法人長岡技術科学大学 認知状態判定装置
US8376952B2 (en) * 2007-09-07 2013-02-19 The Nielsen Company (Us), Llc. Method and apparatus for sensing blood oxygen
US8327395B2 (en) 2007-10-02 2012-12-04 The Nielsen Company (Us), Llc System providing actionable insights based on physiological responses from viewers of media
WO2009059246A1 (en) 2007-10-31 2009-05-07 Emsense Corporation Systems and methods providing en mass collection and centralized processing of physiological responses from viewers
WO2009073634A1 (en) * 2007-11-30 2009-06-11 Emsense Corporation Correlating media instance information with physiological responses from participating subjects
US8347326B2 (en) 2007-12-18 2013-01-01 The Nielsen Company (US) Identifying key media events and modeling causal relationships between key events and reported feelings
JP5386511B2 (ja) * 2008-02-13 2014-01-15 ニューロスカイ インコーポレイテッド 生体信号センサを備えたオーディオヘッドセット
US8326408B2 (en) * 2008-06-18 2012-12-04 Green George H Method and apparatus of neurological feedback systems to control physical objects for therapeutic and other reasons
US20100010317A1 (en) * 2008-07-09 2010-01-14 De Lemos Jakob Self-contained data collection system for emotional response testing
US20100010370A1 (en) 2008-07-09 2010-01-14 De Lemos Jakob System and method for calibrating and normalizing eye data in emotional testing
US20100016753A1 (en) * 2008-07-18 2010-01-21 Firlik Katrina S Systems and Methods for Portable Neurofeedback
JP5283065B2 (ja) * 2008-08-26 2013-09-04 学校法人慶應義塾 運動関連電位信号検出システム
MX345890B (es) 2008-10-01 2017-02-22 Hua Sherwin Sistema y metodo para estabilizacion de tornillo pedicular guiado por alambre de vertebras de la columna.
US20100090835A1 (en) * 2008-10-15 2010-04-15 Charles Liu System and method for taking responsive action to human biosignals
WO2010100567A2 (en) 2009-03-06 2010-09-10 Imotions- Emotion Technology A/S System and method for determining emotional response to olfactory stimuli
US8155736B2 (en) * 2009-03-16 2012-04-10 Neurosky, Inc. EEG control of devices using sensory evoked potentials
US8391966B2 (en) * 2009-03-16 2013-03-05 Neurosky, Inc. Sensory-evoked potential (SEP) classification/detection in the time domain
JP2012520739A (ja) * 2009-03-16 2012-09-10 クリティカル・パフュージョン・インコーポレイテッド 人間の胃のインピーダンススペクトルの特性パラメータ評価のためのシステム及び方法
US20120016208A1 (en) * 2009-04-02 2012-01-19 Koninklijke Philips Electronics N.V. Method and system for selecting items using physiological parameters
KR101032913B1 (ko) * 2009-04-13 2011-05-06 경북대학교 산학협력단 뇌파 분석 시스템 및 그 방법
DE102009024866A1 (de) * 2009-06-09 2010-12-16 Abb Research Ltd. Verfahren und Einrichtung zur Überwachung der Hirnaktivität eines Menschen
EP2515750A4 (en) 2009-12-21 2013-07-10 Sherwin Hua INSERTING MEDICAL DEVICES THROUGH NON-ORTHOGONAL AND ORTHOGONAL TRAJECTORIES IN SKULLS AND METHOD OF USE THEREOF
US11292477B2 (en) 2010-06-07 2022-04-05 Affectiva, Inc. Vehicle manipulation using cognitive state engineering
US11887352B2 (en) 2010-06-07 2024-01-30 Affectiva, Inc. Live streaming analytics within a shared digital environment
US11232290B2 (en) 2010-06-07 2022-01-25 Affectiva, Inc. Image analysis using sub-sectional component evaluation to augment classifier usage
US10897650B2 (en) 2010-06-07 2021-01-19 Affectiva, Inc. Vehicle content recommendation using cognitive states
US10517521B2 (en) 2010-06-07 2019-12-31 Affectiva, Inc. Mental state mood analysis using heart rate collection based on video imagery
US10627817B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Vehicle manipulation using occupant image analysis
US11056225B2 (en) 2010-06-07 2021-07-06 Affectiva, Inc. Analytics for livestreaming based on image analysis within a shared digital environment
US11823055B2 (en) 2019-03-31 2023-11-21 Affectiva, Inc. Vehicular in-cabin sensing using machine learning
US10796176B2 (en) 2010-06-07 2020-10-06 Affectiva, Inc. Personal emotional profile generation for vehicle manipulation
US10779761B2 (en) 2010-06-07 2020-09-22 Affectiva, Inc. Sporadic collection of affect data within a vehicle
US10799168B2 (en) 2010-06-07 2020-10-13 Affectiva, Inc. Individual data sharing across a social network
US11393133B2 (en) 2010-06-07 2022-07-19 Affectiva, Inc. Emoji manipulation using machine learning
US10474875B2 (en) 2010-06-07 2019-11-12 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation
US10911829B2 (en) 2010-06-07 2021-02-02 Affectiva, Inc. Vehicle video recommendation via affect
US10628741B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Multimodal machine learning for emotion metrics
US11700420B2 (en) 2010-06-07 2023-07-11 Affectiva, Inc. Media manipulation using cognitive state metric analysis
US11465640B2 (en) 2010-06-07 2022-10-11 Affectiva, Inc. Directed control transfer for autonomous vehicles
US11410438B2 (en) 2010-06-07 2022-08-09 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation in vehicles
US20140357976A1 (en) * 2010-06-07 2014-12-04 Affectiva, Inc. Mental state analysis using an application programming interface
US10843078B2 (en) 2010-06-07 2020-11-24 Affectiva, Inc. Affect usage within a gaming context
US10204625B2 (en) 2010-06-07 2019-02-12 Affectiva, Inc. Audio analysis learning using video data
US10628985B2 (en) 2017-12-01 2020-04-21 Affectiva, Inc. Avatar image animation using translation vectors
US10922567B2 (en) 2010-06-07 2021-02-16 Affectiva, Inc. Cognitive state based vehicle manipulation using near-infrared image processing
US11657288B2 (en) 2010-06-07 2023-05-23 Affectiva, Inc. Convolutional computing using multilayered analysis engine
US11017250B2 (en) 2010-06-07 2021-05-25 Affectiva, Inc. Vehicle manipulation using convolutional image processing
US20150206000A1 (en) * 2010-06-07 2015-07-23 Affectiva, Inc. Background analysis of mental state expressions
US10869626B2 (en) 2010-06-07 2020-12-22 Affectiva, Inc. Image analysis for emotional metric evaluation
US11511757B2 (en) 2010-06-07 2022-11-29 Affectiva, Inc. Vehicle manipulation with crowdsourcing
US11484685B2 (en) 2010-06-07 2022-11-01 Affectiva, Inc. Robotic control using profiles
US12076149B2 (en) 2010-06-07 2024-09-03 Affectiva, Inc. Vehicle manipulation with convolutional image processing
US11430561B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Remote computing analysis for cognitive state data metrics
US11430260B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Electronic display viewing verification
US10614289B2 (en) 2010-06-07 2020-04-07 Affectiva, Inc. Facial tracking with classifiers
US11935281B2 (en) 2010-06-07 2024-03-19 Affectiva, Inc. Vehicular in-cabin facial tracking using machine learning
US11151610B2 (en) 2010-06-07 2021-10-19 Affectiva, Inc. Autonomous vehicle control using heart rate collection based on video imagery
US10482333B1 (en) * 2017-01-04 2019-11-19 Affectiva, Inc. Mental state analysis using blink rate within vehicles
US11318949B2 (en) * 2010-06-07 2022-05-03 Affectiva, Inc. In-vehicle drowsiness analysis using blink rate
US11704574B2 (en) 2010-06-07 2023-07-18 Affectiva, Inc. Multimodal machine learning for vehicle manipulation
US11067405B2 (en) 2010-06-07 2021-07-20 Affectiva, Inc. Cognitive state vehicle navigation based on image processing
US10592757B2 (en) 2010-06-07 2020-03-17 Affectiva, Inc. Vehicular cognitive data collection using multiple devices
US11587357B2 (en) 2010-06-07 2023-02-21 Affectiva, Inc. Vehicular cognitive data collection with multiple devices
US11073899B2 (en) 2010-06-07 2021-07-27 Affectiva, Inc. Multidevice multimodal emotion services monitoring
US20200226012A1 (en) * 2010-06-07 2020-07-16 Affectiva, Inc. File system manipulation using machine learning
US10398366B2 (en) 2010-07-01 2019-09-03 Nokia Technologies Oy Responding to changes in emotional condition of a user
US8487760B2 (en) * 2010-07-09 2013-07-16 Nokia Corporation Providing a user alert
US8922376B2 (en) 2010-07-09 2014-12-30 Nokia Corporation Controlling a user alert
US11471091B2 (en) * 2010-07-29 2022-10-18 Kulangara Sivadas Mind strength trainer
US20120070047A1 (en) * 2010-09-20 2012-03-22 Johnson Alfred J Apparatus, method and computer readable storage medium employing a spectrally colored, highly enhanced imaging technique for assisting in the early detection of cancerous tissues and the like
US9013264B2 (en) 2011-03-12 2015-04-21 Perceptive Devices, Llc Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
US20130035579A1 (en) 2011-08-02 2013-02-07 Tan Le Methods for modeling neurological development and diagnosing a neurological impairment of a patient
EP2782498B1 (en) * 2011-11-25 2022-03-16 Persyst Development Corporation Method and system for displaying eeg data and user interface
US9355366B1 (en) * 2011-12-19 2016-05-31 Hello-Hello, Inc. Automated systems for improving communication at the human-machine interface
EP2811907A4 (en) * 2012-02-09 2015-07-08 Anthrotronix Inc PERFORMANCE ASSESSMENT INSTRUMENT
US9451303B2 (en) 2012-02-27 2016-09-20 The Nielsen Company (Us), Llc Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing
US9292858B2 (en) 2012-02-27 2016-03-22 The Nielsen Company (Us), Llc Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
JP6146760B2 (ja) * 2012-02-28 2017-06-14 国立研究開発法人産業技術総合研究所 序列化装置、序列化方法及びプログラム
US9763592B2 (en) * 2012-05-25 2017-09-19 Emotiv, Inc. System and method for instructing a behavior change in a user
US10130277B2 (en) 2014-01-28 2018-11-20 Medibotics Llc Willpower glasses (TM)—a wearable food consumption monitor
US9814426B2 (en) 2012-06-14 2017-11-14 Medibotics Llc Mobile wearable electromagnetic brain activity monitor
CN102715911B (zh) * 2012-06-15 2014-05-28 天津大学 基于脑电特征的情绪状态识别方法
EP2698685A3 (en) * 2012-08-16 2015-03-25 Samsung Electronics Co., Ltd Using physical sensory input to determine human response to multimedia content displayed on a mobile device
US8989835B2 (en) 2012-08-17 2015-03-24 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
EP3441896B1 (en) 2012-09-14 2021-04-21 InteraXon Inc. Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data
US10606353B2 (en) 2012-09-14 2020-03-31 Interaxon Inc. Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data
US9015087B2 (en) * 2012-10-09 2015-04-21 At&T Intellectual Property I, L.P. Methods, systems, and products for interfacing with neurological and biological networks
WO2014065781A1 (en) * 2012-10-23 2014-05-01 Empire Technology Development, Llc Filtering user actions based on user's mood
WO2014102722A1 (en) * 2012-12-26 2014-07-03 Sia Technology Ltd. Device, system, and method of controlling electronic devices via thought
CN103040446A (zh) * 2012-12-31 2013-04-17 北京师范大学 基于光学脑成像的神经反馈训练系统和神经反馈训练方法
US9320450B2 (en) 2013-03-14 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
EP3027110A4 (en) 2013-07-30 2017-06-28 Emotiv Lifesciences, Inc. Wearable system for detecting and measuring biosignals
IN2014MU00113A (ja) 2014-01-13 2015-08-28 R Satani Abhijeet
US9622702B2 (en) 2014-04-03 2017-04-18 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
EP3144875A4 (en) * 2014-05-13 2017-03-29 Cellrebirth Ltd. Emotion and mood data input, display, and analysis device
JP6530967B2 (ja) 2014-05-30 2019-06-12 笛飛兒顧問有限公司 専門家情報を活用した補助分析システム及びその方法
US9778736B2 (en) * 2014-09-22 2017-10-03 Rovi Guides, Inc. Methods and systems for calibrating user devices
CN104305964B (zh) * 2014-11-11 2016-05-04 东南大学 头戴式疲劳检测装置及方法
CN104490407A (zh) * 2014-12-08 2015-04-08 清华大学 一种可穿戴式心理压力评测装置及方法
TWI650105B (zh) * 2015-01-26 2019-02-11 神仙科學股份有限公司 穿戴式生理檢測裝置
US10108264B2 (en) 2015-03-02 2018-10-23 Emotiv, Inc. System and method for embedded cognitive state metric system
US9936250B2 (en) 2015-05-19 2018-04-03 The Nielsen Company (Us), Llc Methods and apparatus to adjust content presented to an individual
JP6655242B2 (ja) * 2015-08-28 2020-02-26 国立大学法人大阪大学 楽曲聴取経験有無推定方法、楽曲聴取経験有無推定装置、及び楽曲聴取経験有無推定プログラム
ITUB20153636A1 (it) * 2015-09-15 2017-03-15 Brainsigns S R L Metodo per stimare uno stato mentale, in particolare un carico di lavoro, e relativo apparato
TWI571240B (zh) * 2015-09-16 2017-02-21 國立交通大學 抑制腦波雜訊之裝置及其方法
US10204384B2 (en) 2015-12-21 2019-02-12 Mcafee, Llc Data loss prevention of social media content
US10163314B2 (en) * 2016-07-06 2018-12-25 At&T Intellectual Property I, L.P. Programmable devices to generate alerts based upon detection of physical objects
US10067565B2 (en) 2016-09-29 2018-09-04 Intel Corporation Methods and apparatus for identifying potentially seizure-inducing virtual reality content
US20180125405A1 (en) * 2016-11-08 2018-05-10 International Business Machines Corporation Mental state estimation using feature of eye movement
US10660517B2 (en) 2016-11-08 2020-05-26 International Business Machines Corporation Age estimation using feature of eye movement
US20180125406A1 (en) * 2016-11-08 2018-05-10 International Business Machines Corporation Mental state estimation using relationship of pupil dynamics between eyes
CN106510736B (zh) * 2016-12-06 2019-06-28 山东瀚岳智能科技股份有限公司 基于多维心理状态指标的心理状态判定方法与系统
RU2695888C2 (ru) * 2017-03-24 2019-07-29 Общество С Ограниченной Ответственностью "Многопрофильное Предприятие "Элсис" Способ оценки психофизиологического состояния человека
CN107411737A (zh) * 2017-04-18 2017-12-01 天津大学 一种基于静息脑电相似性的情绪跨时间识别方法
TWI646438B (zh) * 2017-04-25 2019-01-01 元智大學 情緒偵測系統及方法
US10922566B2 (en) 2017-05-09 2021-02-16 Affectiva, Inc. Cognitive state evaluation for vehicle navigation
CN111629653B (zh) 2017-08-23 2024-06-21 神经股份有限公司 具有高速眼睛跟踪特征的大脑-计算机接口
US11723579B2 (en) 2017-09-19 2023-08-15 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement
KR102003607B1 (ko) * 2017-11-02 2019-07-24 이화여자대학교 산학협력단 외상 사건에 의한 행동 문제 예측 방법 및 행동 문제 예측 장치
WO2019094953A1 (en) 2017-11-13 2019-05-16 Neurable Inc. Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions
IL274608B2 (en) * 2017-11-21 2024-10-01 Arctop Ltd Delivery of interactive electronic content in coordination with rapid decoding of brain activity
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
CN107773254A (zh) * 2017-12-05 2018-03-09 苏州创捷传媒展览股份有限公司 一种测试用户体验的方法及装置
CN108294739B (zh) * 2017-12-27 2021-02-09 苏州创捷传媒展览股份有限公司 一种测试用户体验的方法及其装置
CN109993180A (zh) * 2017-12-29 2019-07-09 新华网股份有限公司 人体生物电数据处理方法和装置、存储介质和处理器
US11478603B2 (en) 2017-12-31 2022-10-25 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to enhance emotional response
CN111712192B (zh) 2018-01-18 2024-07-02 神经股份有限公司 具有对于高速、准确和直观的用户交互的适配的大脑-计算机接口
US11457855B2 (en) * 2018-03-12 2022-10-04 Persyst Development Corporation Method and system for utilizing empirical null hypothesis for a biological time series
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
US11452839B2 (en) 2018-09-14 2022-09-27 Neuroenhancement Lab, LLC System and method of improving sleep
US10664050B2 (en) 2018-09-21 2020-05-26 Neurable Inc. Human-computer interface using high-speed and accurate tracking of user interactions
CN109199412B (zh) * 2018-09-28 2021-11-09 南京工程学院 基于眼动数据分析的异常情绪识别方法
JP6709966B1 (ja) * 2019-03-29 2020-06-17 パナソニックIpマネジメント株式会社 心理状態推定システム、心理状態推定方法、プログラム、推定モデルの生成方法
US11887383B2 (en) 2019-03-31 2024-01-30 Affectiva, Inc. Vehicle interior object management
AU2020252190A1 (en) * 2019-04-04 2021-11-18 Hi Llc Modulation of mental state of a user using a non-invasive brain interface system and method
CN110025323B (zh) * 2019-04-19 2021-07-27 西安科技大学 一种婴幼儿情绪识别方法
US11160580B2 (en) 2019-04-24 2021-11-02 Spine23 Inc. Systems and methods for pedicle screw stabilization of spinal vertebrae
CN114401670A (zh) * 2019-04-26 2022-04-26 Hi有限责任公司 基于产品诱发的大脑状态测量的产品配方评估的无创系统和方法
US11550392B2 (en) * 2019-05-20 2023-01-10 Hewlett-Packard Development Company, L.P. Signal combination of physiological sensor signals
US11559742B2 (en) * 2019-05-23 2023-01-24 Nintendo Co., Ltd. Computer-readable non-transitory storage medium having game program stored therein, game system, game apparatus control method, and game apparatus
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
US11553871B2 (en) 2019-06-04 2023-01-17 Lab NINE, Inc. System and apparatus for non-invasive measurement of transcranial electrical signals, and method of calibrating and/or using same for various applications
US12045694B2 (en) * 2019-06-21 2024-07-23 International Business Machines Corporation Building a model based on responses from sensors
CN112674768A (zh) * 2019-10-18 2021-04-20 中国人民解放军战略支援部队航天工程大学 一种基于智能汗带的情绪分析系统
US20210338140A1 (en) * 2019-11-12 2021-11-04 San Diego State University (SDSU) Foundation, dba San Diego State University Research Foundation Devices and methods for reducing anxiety and treating anxiety disorders
US11769056B2 (en) 2019-12-30 2023-09-26 Affectiva, Inc. Synthetic data for neural network training using vectors
JP7431068B2 (ja) * 2020-03-13 2024-02-14 トヨタ自動車株式会社 貢献度算出装置
TWI782282B (zh) * 2020-06-08 2022-11-01 宏智生醫科技股份有限公司 腦波監測系統及腦波監測方法
US20220036554A1 (en) * 2020-08-03 2022-02-03 Healthcare Integrated Technologies Inc. System and method for supporting the emotional and physical health of a user
US20220101997A1 (en) * 2020-09-30 2022-03-31 X Development Llc Processing time-domain and frequency-domain representations of eeg data
KR102334595B1 (ko) * 2020-12-21 2021-12-02 건국대학교 산학협력단 감정 인식 방법 및 장치
KR102510023B1 (ko) * 2021-01-21 2023-03-15 (주)알에프캠프 사용자의 행동 데이터 또는 입력 데이터를 이용하여 사용자의 심리 상태를 판별하는 방법 및 컴퓨터 프로그램
JP2024518177A (ja) 2021-05-12 2024-04-25 スピン23 インコーポレイテッド 脊椎椎骨の椎弓根ねじ安定化のためのシステム及び方法
US11977358B2 (en) * 2021-08-17 2024-05-07 Robin H. Stewart Systems and methods for dynamic biometric control of IoT devices
CN115500829A (zh) * 2022-11-24 2022-12-23 广东美赛尔细胞生物科技有限公司 一种应用于神经内科的抑郁症检测分析系统
CN117224080B (zh) * 2023-09-04 2024-06-21 深圳市维康致远科技有限公司 大数据的人体数据监测方法装置
CN118396127B (zh) * 2024-06-28 2024-09-13 深圳品阔信息技术有限公司 基于人工智能的会话生成方法、装置、设备及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5740812A (en) * 1996-01-25 1998-04-21 Mindwaves, Ltd. Apparatus for and method of providing brainwave biofeedback
US6292688B1 (en) * 1996-02-28 2001-09-18 Advanced Neurotechnologies, Inc. Method and apparatus for analyzing neurological response to emotion-inducing stimuli
US6609017B1 (en) * 1998-08-07 2003-08-19 California Institute Of Technology Processed neural signals and methods for generating and using them
US6422999B1 (en) * 1999-05-13 2002-07-23 Daniel A. Hill Method of measuring consumer reaction
US6604050B2 (en) * 2000-06-16 2003-08-05 Bayer Corporation System, method and biosensor apparatus for data communications with a personal data assistant
PL369935A1 (en) * 2001-06-07 2005-05-02 Lawrence Farwell Method and apparatus for brain fingerprinting, measurement, assessment and analysis of brain function
US20030032890A1 (en) * 2001-07-12 2003-02-13 Hazlett Richard L. Continuous emotional response analysis with facial EMG
US7546158B2 (en) * 2003-06-05 2009-06-09 The Regents Of The University Of California Communication methods based on brain computer interfaces
US7120486B2 (en) * 2003-12-12 2006-10-10 Washington University Brain computer interface

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011143059A (ja) * 2010-01-14 2011-07-28 Univ Of Tsukuba 顔面動作推定装置及び顔面動作推定方法
JP2012075708A (ja) * 2010-10-01 2012-04-19 Sharp Corp ストレス状態推定装置、ストレス状態推定方法、プログラム、および記録媒体
JP2014533589A (ja) * 2011-11-25 2014-12-15 パーシスト ディベロップメント コーポレーション Eegデータ並びにユーザインタフェースを表示するための方法及びシステム
JP2017080483A (ja) * 2011-11-25 2017-05-18 パーシスト ディベロップメント コーポレーション Eegデータ並びにユーザインタフェースを表示するための方法及びシステム
JP2015520627A (ja) * 2012-05-03 2015-07-23 ユニベルシテ ピエール エ マリーキュリー(パリ シズエム) 患者の脳の電気活動を解析してこの患者の生理状態を特徴付ける方法および当該方法を適用した監視装置
US9886493B2 (en) 2012-09-28 2018-02-06 The Regents Of The University Of California Systems and methods for sensory and cognitive profiling
KR102282961B1 (ko) * 2012-09-28 2021-07-29 더 리젠츠 오브 더 유니버시티 오브 캘리포니아 감각 및 인지 프로파일링을 위한 시스템 및 방법
US10891313B2 (en) 2012-09-28 2021-01-12 The Regents Of The University Of California Systems and methods for sensory and cognitive profiling
JP2015533559A (ja) * 2012-09-28 2015-11-26 ザ レジェンツ オブ ザ ユニヴァーシティー オブ カリフォルニア 知覚および認知プロファイリングのためのシステムおよび方法
KR20150076167A (ko) * 2012-09-28 2015-07-06 더 리젠츠 오브 더 유니버시티 오브 캘리포니아 감각 및 인지 프로파일링을 위한 시스템 및 방법
US10182736B2 (en) 2012-10-12 2019-01-22 The Regents Of The University Of California Configuration and spatial placement of frontal electrode sensors to detect physiological signals
US10258291B2 (en) 2012-11-10 2019-04-16 The Regents Of The University Of California Systems and methods for evaluation of neuropathologies
KR20150082322A (ko) * 2012-11-10 2015-07-15 더 리젠츠 오브 더 유니버시티 오브 캘리포니아 신경병리 평가를 위한 시스템 및 방법
KR102273684B1 (ko) * 2012-11-10 2021-07-07 더 리젠츠 오브 더 유니버시티 오브 캘리포니아 신경병리 평가를 위한 시스템 및 방법
JP2016501056A (ja) * 2012-11-10 2016-01-18 ザ レジェンツ オブ ザ ユニヴァーシティー オブ カリフォルニア 神経病理の評価のためのシステムおよび方法
WO2017175447A1 (ja) * 2016-04-05 2017-10-12 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2021510094A (ja) * 2017-12-22 2021-04-15 バイオセレニティBioserenity 脳活動の指標を計算するためのシステム及び方法
WO2019202971A1 (ja) * 2018-04-17 2019-10-24 ソニー株式会社 生体情報評価装置および生体情報評価方法
KR102043376B1 (ko) * 2018-08-16 2019-11-11 한국과학기술연구원 심층 신경망 알고리즘을 이용하는 실시간 스트레스 분석 방법
US11317840B2 (en) 2018-08-16 2022-05-03 Korea Institute Of Science And Technology Method for real time analyzing stress using deep neural network algorithm

Also Published As

Publication number Publication date
US20070173733A1 (en) 2007-07-26
WO2007096706A3 (en) 2008-03-20
CN101331490A (zh) 2008-12-24
KR20080074099A (ko) 2008-08-12
TW200727867A (en) 2007-08-01
WO2007096706A2 (en) 2007-08-30
EP1924940A2 (en) 2008-05-28

Similar Documents

Publication Publication Date Title
JP2009521246A (ja) 精神状態の検出およびそれを用いる対話
Bulagang et al. A review of recent approaches for emotion classification using electrocardiography and electrodermography signals
US20070066914A1 (en) Method and System for Detecting and Classifying Mental States
CN111629653B (zh) 具有高速眼睛跟踪特征的大脑-计算机接口
US11627903B2 (en) Method for diagnosing cognitive disorder, and computer program
US5447166A (en) Neurocognitive adaptive computer interface method and system based on on-line measurement of the user's mental effort
Sharma et al. Objective measures, sensors and computational techniques for stress recognition and classification: A survey
Hsu et al. EEG-based motor imagery analysis using weighted wavelet transform features
Sabeti et al. Entropy and complexity measures for EEG signal classification of schizophrenic and control participants
US7403815B2 (en) Brain state recognition system
US8532756B2 (en) Method for analyzing function of the brain and other complex systems
US20020077534A1 (en) Method and system for initiating activity based on sensed electrophysiological data
Cosoli et al. Measurement of multimodal physiological signals for stimulation detection by wearable devices
KR20170087855A (ko) 적어도 부분적으로 펄스 파형에 기반하는 자동화 진단
JP2006525829A (ja) インテリジェント欺瞞検証システム
JP2009542351A (ja) 時間的尺度を使用した脳パターンの解析
WO2008055078A2 (en) Identification of emotional states using physiological responses
Chiang Ecg-based mental stress assessment using fuzzy computing and associative petri net
Bagh et al. Hilbert transform-based event-related patterns for motor imagery brain computer interface
US20190357792A1 (en) Sensibility evaluation apparatus, sensibility evaluation method and method for configuring multi-axis sensibility model
Varone et al. Finger pinching and imagination classification: A fusion of CNN architectures for IoMT-enabled BCI applications
Ahamad System architecture for brain-computer interface based on machine learning and internet of things
Vargic et al. Human computer interaction using BCI based on sensorimotor rhythm
Cerutti In the spotlight: Biomedical signal processing—A well established discipline or a paradigm to promising integrated visions?
KR100327117B1 (ko) 뇌파를 이용한 긍정/부정 의사 분별 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090911

A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20110126

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110201