JP2022502231A - ディープニューラルネットワークに基づく精神行動属性の認識のための電子装置 - Google Patents

ディープニューラルネットワークに基づく精神行動属性の認識のための電子装置 Download PDF

Info

Publication number
JP2022502231A
JP2022502231A JP2021543595A JP2021543595A JP2022502231A JP 2022502231 A JP2022502231 A JP 2022502231A JP 2021543595 A JP2021543595 A JP 2021543595A JP 2021543595 A JP2021543595 A JP 2021543595A JP 2022502231 A JP2022502231 A JP 2022502231A
Authority
JP
Japan
Prior art keywords
subject
electronic device
trained
psychobehavioral
attributes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021543595A
Other languages
English (en)
Inventor
ミン−チャン リュー
アーマッド コダヤリ−ロスタマバード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2022502231A publication Critical patent/JP2022502231A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Data Mining & Analysis (AREA)
  • Psychiatry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computing Systems (AREA)
  • Physiology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Fuzzy Systems (AREA)
  • Signal Processing (AREA)
  • Educational Technology (AREA)

Abstract

ディープニューラルネットワーク(DNN)に基づく精神行動的属性、情動属性、感情属性、精神状態属性、精神衛生属性又は気分に基づく属性の認識を取り扱う電子装置が、被験者に関連するEEG信号セット及び生体信号セットを記憶する。電子装置は、異なる訓練被験者に関連するEEG信号訓練セット及び生体信号訓練セットに基づいて複数の第1の認識モデルを訓練する。電子装置は、複数の第1の認識モデルの出力層からの特徴ベクトルに基づいて第2の認識モデルを訓練する。電子装置は、EEG信号及び生体信号セットに訓練された複数の第1の認識モデルを適用することによって複数の依存性又は関係性データを推定する。電子装置は、複数の信号及びその関係性データに訓練された第2の認識モデルを適用することによって被験者の精神行動属性を識別する。【選択図】 なし

Description

〔関連出願との相互参照/引用による組み入れ〕
なし。
本開示の様々な実施形態は、人間の脳の神経生理学的活動に対するディープラーニング技術に関する。具体的には、本開示の様々な実施形態は、ディープニューラルネットワーク(DNN)に基づく精神行動属性、情動属性又は精神状態属性(mental behavioral, affect or mental state attributes)の認識のための電子装置に関する。
近年の生体信号処理分野の進歩は、ユーザが体験する異なる精神状態、健康状態及び感情を、例えば脳波(EEG)信号を通じた脳波などの異なる生体信号の信号分析に基づいて検出し、さらに識別するための様々な方法及び技術を発展させた。異なる精神状態の例としては、ストレス状態、リラックス状態及び幸福状態などを挙げることができる。従来の解決法では、従来の装置を、生体信号から学習を行う教師あり機械学習プラットフォームの実装に基づいて異なる精神状態、健康状態及び感情を検出して識別するように構成することができる。このような実装では、機械学習モデルを訓練し、個々のユーザの性別又は利き手を原因とし得る脳機能の側性化によって引き起こされる識別の偏りを避けるために、従来の装置が手作りの特徴(hand crafted features)の入力を必要とし得る。また、このようなモデルは、限られた入力セットから単純な特徴を識別することができ、このため異なる脳領域における異なる機能間の複雑な特徴、関係性又は依存性を識別するのにさらに不向きなものとなっている。
当業者には、説明したシステムと、本出願の残り部分において図面を参照しながら示す本開示のいくつかの態様とを比較することにより、従来の慣習的な手法のさらなる限界及び不利点が明らかになるであろう。
少なくとも1つの図に関連して説明し、特許請求の範囲にさらに完全に示すような、ディープニューラルネットワーク(DNN)に基づく精神行動属性の認識のための電子装置について説明する。
全体を通じて同じ要素を同じ参照符号によって示す添付図面を参照しながら本開示の以下の詳細な説明を検討することにより、本開示のこれらの及びその他の特徴及び利点を理解することができる。
本開示の実施形態による、ディープニューラルネットワーク(DNN)に基づく被験者の精神行動属性の認識を支援する例示的な環境を示すブロック図である。 本開示の実施形態による、DNNに基づく被験者の精神行動属性の認識のための例示的な電子装置を示すブロック図である。 本開示の実施形態による、DNNに基づく被験者の精神行動属性の認識のための図2の電子装置を実装する第1の例示的なシナリオを示す図である。 本開示の実施形態による、DNNに基づく被験者の精神行動属性の認識のための図2の電子装置を実装する第2の例示的なシナリオを示す図である。 本開示の実施形態による、DNNに基づく被験者の精神行動属性の認識のための例示的な方法を示すフローチャートを示す図である。 本開示の実施形態による、DNNに基づく被験者の精神行動属性の認識のための例示的な方法を示すフローチャートを示す図である。
本開示の様々な実施形態は、ディープニューラルネットワーク(DNN)に基づく精神行動属性又は精神状態属性の認識を取り扱う方法及び電子装置において見出すことができる。本開示は、異なるタイプの生体信号(例えば、脳波(EEG)信号、光電式指尖容積脈波(PPG)信号)、ウェアラブル、及び/又は神経生理学的センサからの感情、情動、精神状態又は精神衛生の認識及び追跡に基づいて被験者の異なる精神行動属性を識別するためのロバストな解決法を提供する。電子装置は、異なる訓練被験者からの生体信号の異なる単純な及び複雑な特徴に基づいて訓練を行うマルチレベルDNNモデルを利用する。マルチレベルDNNモデルの訓練は、訓練されたマルチレベル認識モデルの出力が被験者の感情状態、性別、及び左利き又は右利きの側性化の影響などの異なる要因に対して不変であり得ることを確実にすることができる。このマルチレベルDNNモデルを利用して、被験者の異なる精神行動属性を示すことができる異なる脳領域と他の身体部分との間の単純な及び複雑な関係性、依存性又は機能的結合性を識別することができる。各関連するセンサ群からの信号を第1の認識モデルが最初に処理した後に、低水準認識モデルからの結果を最適に組み合わせてセンサと脳領域との間の関係性及び依存性を利用することができる。識別及び領域情報を抽出し、様々な脳及び身体領域からのデータを組み合わせて利用する全ての認識モデルは、以前に収集されたデータから構築され学習される。
ある実施形態によれば、開示する方法及び電子装置は、肯定的感情価対否定的感情価(positive versus negative valence)、肯定的感情対否定的感情、高集中又は熱中状態対中立的又は否定的状態、或いは高覚醒状態対リラックス状態を体験することなどの感情及び情動状態(emotions and affective states)を処理する際に、側方及び半球脳機能に基づいて精神衛生、健康度、精神状態、感情、気分又は情動状態を効果的かつ正確に認識する。開示する電子装置は、各脳半球又は領域と特定の種類の精神又は感情状態又は状況との相対的に高い関連性を採用する。従って、左利き、右利き、女性及び男性の被験者の脳機能の相違と情動処理の側性化とを効果的かつ自動的に利用することにより、精神状態又は情動処理の多様性の取り扱いが大幅に改善されるとともに認識精度が高くなる。さらに、開示する電子装置は、一定期間にわたって診断、予後及び予測が変化した時に診断、予後及び予測レポートを生成する精神行動属性モニタ、精神健康度又は情動知性プロセッサとして機能する。また、開示する電子装置は、情動状態の変化を追跡して、例えば健康(wellbeing)、生産性を改善し、集中力又は熱中力を高め、覚醒を高め、肯定的感情又は感情価又は情動を高めてより良好な精神衛生及び健康度、改善された生活の質、生産性又は改善された能力を達成する活動又は実践の推奨などの様々な形態のフィードバック及びアドバイスを提供する。
図1は、本開示の実施形態による、マルチレベルディープニューラルネットワーク(DNN)に基づく被験者の精神行動属性の認識を支援する例示的な環境を示すブロック図である。図1には、電子装置102と、通信ネットワーク104と、データサーバ106とを含むネットワーク環境100を示す。電子装置102は、複数の異なるタイプのセンサ110及び複数の脳波(EEG)電極108に通信可能に接続することができる。
電子装置102は、異なる時点における被験者114(すなわち、電子装置102のユーザ)の異なる精神行動属性(例えば、情動状態、感情状態、気分、精神状態、心理状況など)を識別するように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。電子装置102は、2つの異なる段階、すなわち訓練段階及び展開段階で動作するように構成することができる。訓練段階では、電子装置102を、訓練被験者群112からのEEG信号及び生体信号などの異なるタイプの信号に基づいて(DNNに基づく)マルチレベル認識モデル116を生成し、構築し、訓練するように構成することができる。展開段階では、電子装置102が、訓練されたマルチレベル認識モデル116を利用して、被験者114に特有の、例えば精神衛生状態、現在の精神状態、現在の感情状態及び現在の情動状態などの異なるタイプの情報又は精神属性を生成することができる。電子装置102の実装例としては、以下に限定するわけではないが、感情認識及び感情反応型娯楽システム、ゲーム用ヘッドセット、(スマートウォッチ、スマートバンド、スマートネックレス、スマートイヤホン、スマート衣類又はヘッドホンなどの)双方向ウェアラブル、ゲーム機、非ウェアラブル装置、仮想/拡張/複合現実(VR/AR/MR)装置、メインフレームコンピュータ、ハンドヘルド装置、セルラー/携帯電話機、スマートテレビ、及び様々な形態の精神的、心理的及び身体的健康、健康度、並びにフィットネス測定及びモニタリング装置を挙げることができる。
通信ネットワーク104は、電子装置102がサーバ106と通信できるようにする媒体を含むことができる。通信ネットワーク104の例としては、以下に限定するわけではないが、インターネット、クラウドネットワーク、ロングタームエボリューション(LTE)ネットワーク、無線ローカルエリアネットワーク(WLAN)、ローカルエリアネットワーク(LAN)、電話回線(POTS)、及び/又はメトロポリタンエリアネットワーク(MAN)を挙げることができる。ネットワーク環境100内の様々な装置は、様々な有線及び無線通信プロトコルに従って通信ネットワーク104に接続するように構成することができる。このような有線及び無線通信プロトコルの例としては、以下に限定するわけではないが、伝送制御プロトコル及びインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、IEEE802.11、ライトフィデリティ(Li−Fi)、802.16、IEEE802.11s、IEEE802.11g、マルチホップ通信プロトコル、無線アクセスポイント(AP)プロトコル、装置間通信プロトコル、セルラー通信プロトコル又はBluetooth(BT)通信プロトコル、或いはこれらの組み合わせを挙げることができる。
サーバ106は、電子装置102の一部又は全部の機能を取り扱うことができる中央コンピューティングサーバとして動作するように構成できる好適な回路、インターフェイス及び/又はコードを含むことができる。例えば、サーバ106は、マルチレベル認識モデル116を構築し、訓練し、利用して、被験者114などの異なる被験者の精神行動属性に関連する異なるタイプの情報を出力するように構成することができる。このような例では、サーバ106を、異なる訓練被験者からのEEG信号及び生体信号に基づいてこのようなタイプの情報を出力するように構成することができる。サーバ106は、通信ネットワーク104を介して電子装置102と通信するように構成することができる。サーバ106の例としては、以下に限定するわけではないが、アプリケーションサーバ、クラウドサーバ、ウェブサーバ、データベースサーバ、ファイルサーバ、ゲームサーバ、メインフレームサーバ、又はこれらの組み合わせを挙げることができる。
複数のEEG電極108は、訓練被験者群112及び(ビュー114Aに示すような)被験者114の脳の大脳皮質を取り囲む前頭部、顔面又は頭皮の異なる領域の周囲に配置できる特殊な非侵襲的又は侵襲的電極とすることができる。複数のEEG電極108は、訓練被験者群112及び被験者114からのEEG信号セットの受信機及びキャリアとして機能することができる。複数のEEG電極108の例としては、以下に限定するわけではないが、EEG電極キャップ、EEG電極バンド、再利用可能なディスクベース電極、粘着ゲル電極、及び皮下針ベース電極を挙げることができる。1つの例では、複数のEEG電極108を、仮想現実(VR)ヘッドセット又はメガネ、拡張現実(AR)ヘッドセット又はメガネ、複合現実ヘッドセット又はメガネ、ゲーム用ヘッドセット、ゲーム用メガネ、或いは精神的又は感情的相互作用ヘッドセット又はキャップ(mentally or emotionally interactive headset or cap)の内部に実装することができる。
複数の異なるタイプのセンサ110は、被験者114及び訓練被験者群112から異なるタイプの生体信号セットを取り込むように構成できる好適な回路、インターフェイス及び/又はコードを含むことができる。異なるタイプの生体信号セットの例としては、以下に限定するわけではないが、ECG又はEKG信号、汗分析信号、電気皮膚反応(GSR)信号、呼吸信号(respiration or breathing signal)、光電式指尖容積脈波(PPG)信号、筋音図(MMG)信号、近赤外分光信号、及び脳磁気図(MEG)信号を挙げることができる。複数の異なるタイプのセンサ110は、神経生理学的センサの組、バイオセンサの組、又はウェアラブルセンサの組を含むことができる。複数の異なるタイプのセンサ110の例としては、以下に限定するわけではないが、電気化学バイオセンサ、電流測定バイオセンサ、血糖バイオセンサ、電位差測定バイオセンサ、圧電バイオセンサ、汗分析バイオセンサ、及び温度測定バイオセンサを挙げることができる。複数の異なるタイプのセンサ110の実装例としては、以下に限定するわけではないが、スマートウォッチ、スマートバンド、ECGセンサ、磁気共鳴断層撮影(MRI)スキャナ、PPGセンサ、微小電気機械システム(MEMS)センサ、及び陽電子放出断層撮影(PET)スキャナを挙げることができる。
電子装置102は、動作時に、少なくとも訓練段階及び展開段階を含むことができる1又は2以上の動作段階で動作するように構成することができる。訓練段階は、電子装置102の要件又は好適な使用法に基づいてオンライン訓練段階又はオフライン訓練段階とすることができる。オンライン段階では、電子装置102を、(DNNに基づく)マルチレベル認識モデル116を訓練データの利用可能性に基づいて1ステップずつ訓練するように構成することができる。訓練データは、訓練被験者群112からのEEG信号訓練セット及び異なるタイプの生体信号訓練セットを含むことができる。このような場合、訓練データは、マルチレベル認識モデル116の異なる学習パラメータ(例えば、重みパラメータ)が依然として訓練データに適合している間にサーバ106からマルチレベル認識モデル116に継続的に供給することができる。同様に、オフライン段階では、電子装置102を、マルチレベル認識モデル116を訓練データバッチで同時に訓練するように構成することができる。訓練データバッチに基づいて学習パラメータを調整した後には、電子装置102を、訓練されたマルチレベル認識モデル116を発展段階で利用して被験者114の異なる結果をもたらすように構成することができる。
訓練段階では、電子装置102を、訓練被験者群112の各訓練被験者に関連するEEG信号セット及び生体信号セットを記憶するように構成することができる。ある実施形態によれば、EEG信号セット及び異なるタイプの生体信号セットを含むことができる訓練データは、異なる時点にアップデートとしてサーバ106から取り出すことができる。別の実施形態によれば、電子装置102に組み込まれたマルチレベル認識モデル116を訓練するために、電子装置102を、訓練被験者群112からEEG信号セット及び異なるタイプの生体信号セットをリアルタイムで取り込むように構成することができる。いくつかの実施形態では、EEG信号セット及び異なるタイプの生体信号セットがアナログ信号として取り込まれ、サンプリングされ(例えば、200Hzで20秒間サンプリングされた信号フレーム)、デジタル化されて電子装置102に記憶される。EEG信号セットは、訓練被験者群112の各訓練被験者の脳の大脳皮質の左側部分からの第1のEEG信号セットと、右側部分からの第2のEEG信号セットとを含むことができる。第1のEEG信号セット及び第2のEEG信号セットは、訓練被験者群112の各訓練被験者の頭皮又は前頭部に配置された複数のEEG電極108を通じて取り込むことができる。
異なるタイプの生体信号セットは、訓練被験者群112の各被験者に関連する複数の異なるタイプのセンサ110によって取り込むことができる。異なるタイプの生体信号セットの例としては、以下に限定するわけではないが、心電図信号、汗分析信号、筋電図信号、電気皮膚反応信号、及び脳磁気図記録信号を挙げることができる。複数の異なるタイプのセンサ110は、複数の訓練被験者の各々の異なる身体部分の(手首、指、大腿部、臀部、頸部、顔面又は頭部などの)左側又は右側に配置することができる。訓練被験者群112から特定の時間間隔で取り込まれた異なるタイプの生体信号セットは、訓練被験者群112の各々の精神状態、生理学的状態又は神経生理学的状態を示すことができる。
1つの例では、感情状態、情動状態、左利き又は右利きに関連する訓練データを取り込むために、電子装置102を、複数のEEG電極108のうちの第1のEEG電極セット110Aを使用して第1のEEG信号セットを取り込むように構成することができる。第1のEEG信号セットは、訓練被験者群112の各訓練被験者の前頭前皮質の左側部分から取り込まれた左前頭前皮質EEG信号を含むことができる。第1のEEG信号セットは、訓練被験者群112の各訓練被験者の前頭皮質の左側部分から取り込まれた左前頭皮質EEG信号をさらに含むことができる。別の例では、電子装置102を、複数のEEG電極108のうちの第2のEEG電極セット110Bを使用して第2のEEG信号セットを取り込むように構成することができる。第2のEEG信号セットは、訓練被験者群112の各訓練被験者の前頭前皮質の右側部分から取り込まれた右前頭前皮質EEG信号を含むことができる。第2のEEG信号セットは、訓練被験者群112の各訓練被験者の前頭皮質の右側部分から取り込まれた右前頭皮質EEG信号をさらに含むことができる。第1のEEG信号セット及び第2のEEG信号セットは、訓練被験者群112から第1のEEG信号セット及び第2のEEG信号セットを取り込むことができる特定の時間間隔における複数の訓練被験者の各々の脳機能を示すことができる。
電子装置102は、訓練被験者群112に関連するEEG信号訓練セット及び異なるタイプの生体信号訓練セットに基づいて複数の第1の認識モデル118を訓練するようにさらに構成することができる。複数の第1の認識モデル118は、並列アーキテクチャで配置された第1の複数のディープニューラルネットワーク(DNN)に対応することができる。並列アーキテクチャでは、電子装置102が並列処理スキームに従って全てのDNNを訓練することができ、単一のDNNが、EEG信号訓練セット及び異なるタイプの生体信号訓練セットから1又は2以上の信号を入力として受け取ることができる。複数の第1の認識モデル118の各々は、第1の複数のDNNのうちの同じ又は異なるDNNに基づいて、教師あり学習モデル、教師なし学習モデル又は強化学習モデルのうちの1つの一部として実装することができる。第1の複数のDNNは、被験者114の異なる精神行動属性の認識のための(例えば、特徴マップ及び/又は特徴ベクトルにおける)異なる特徴を抽出する、マルチレベルDNNの1又は2以上の認識層に対応することができる。第1の複数のDNNの例としては、以下に限定するわけではないが、回帰型ニューラルネットワーク(RNN)、畳み込みニューラルネットワーク(CNN)、長短期記憶(LSTM)ベースのRNN、ゲート付き回帰型ユニット(gated recurrent unit:GRU)ベースのRNN、全結合ニューラルネットワーク、Connectionist Temporal Classification (CTC)ベースのRNN、ディープベイジアン(deep Bayesian)ニューラルネットワーク、敵対的生成ネットワーク(Generative Adversarial Network:GAN)、又はこれらのネットワークの組み合わせを挙げることができる。
ある実施形態によれば、複数の第1の認識モデル118の各認識モデルは、EEG信号訓練セット及び異なるタイプの生体信号訓練セットからの特定のタイプの信号に基づいて個別に訓練することができる。ある実施形態によれば、複数の第1の認識モデル118の各々は、訓練被験者群112の各々の脳の異なる半球内の異なる脳機能に基づいて個別に訓練することができる。換言すれば、複数の第1の認識モデル118の各々は、訓練被験者群112の各被験者の側方又は半球の脳機能に基づいて個別に訓練することができる。
第1のEEG信号セットは、複数の訓練被験者112の各々の脳の(左半球などの)第1の領域又は第1の半球における異なる活性脳機能を示すことができる。第2のEEG信号セットは、訓練被験者群112の各々の脳の(右半球などの)第2の領域又は第2の半球における異なる脳機能を示すことができる。電子装置102は、複数の第1の認識モデル118の出力層から出力された特徴ベクトルに基づいて第2の認識モデル120を訓練するようにさらに構成することができる。第2の認識モデル120は、第2の複数のDNNに対応することができる。第2の複数のDNNは、第1の複数のDNNから抽出された特徴に基づいて被験者114の異なる精神行動属性を認識する、マルチレベルDNNの1又は2以上の認識層に対応することができる。第2の複数のDNNの例としては、以下に限定するわけではないが、RNN、CNN、LSTMベースのRNN、CTCベースのRNN、及びGANを挙げることができる。
ある実施形態によれば、電子装置102は、複数の第1の認識モデル及び第2の認識モデル120に関連する複数の重みパラメータを調整するように構成することができる。複数の重みパラメータは、複数の重みパラメータに最適化スキームを反復適用することによって調整することができる。複数の重みパラメータの調整は、複数の第1の認識モデル118及び第2の認識モデル120の訓練に対応することができる。最適化スキームの例としては、以下に限定するわけではないが、勾配降下法、確率的勾配降下法(SGD)、ミニバッチ勾配降下法、Adagrad、Adadelta、及び適応モーメント推定法(ADAM)を挙げることができる。
複数の第1の認識モデル118及び第2の認識モデル120の訓練は、訓練されたマルチレベル認識モデル116が異なる脳機能からの異なる精神行動属性を検出するできるほど十分にロバストであることを確実にするように適合させることができる。EEG信号セット及び異なるタイプの生体信号セットの信号パターン(又はフィンガープリント)は、脳機能を暗黙的に示すことができる。具体的には、マルチレベル認識モデル116を訓練すると、訓練されたマルチレベル認識モデル116の出力が被験者114の情動状態、性別、及び左利き又は右利きの側性化の影響などの異なる要因に対して不変であり得ることを確実にすることができる。
展開段階では、電子装置102を、電子装置102の1人のユーザ(又はユーザグループの一部)とすることができる被験者114に関連付けることができる。例えば、展開段階では、電子装置102を、被験者114がVRゲームをプレイしている間に装着できるVR対応ゲーム機のVRハンドセット(又はVRハンドセットの一部)とすることができる。このような場合、電子装置102は、異なる生体信号の記録及び利用を行ってゲームプレイ中の異なる時点における感情状態などの異なる結果を生成することができるVRヘッドセット内のEEGキャップ/ヘッドバンドを含む。
電子装置102は、被験者114に関連するEEG信号セット及び異なるタイプの生体信号セットに訓練された複数の第1の認識モデル118を適用することによって複数の関係性又は依存性データを推定するように構成することができる。複数の関係性データは、被験者114の(ビュー114Aに示すような)異なる脳又は身体領域間の機能的結合性又は依存性を示すことができる。一例として、関係性データは、被験者114の左手がゲームプレイに没頭している時に、感情又は情動処理に関与する脳の左前頭葉内の領域が右前頭葉内の領域との機能的結合性を有し得ることを示すことができる。複数の関係性データは、上位のディープニューラルネットワークが特定の時間間隔で精神行動属性を検出又は推定するのに適することができる、異なる脳領域及びその他の身体部分からの粒状属性(granular attributes)を示すことができる。別の例として、複数の関係性又は依存性データは、第2のEEG信号セット又は第1の入力生体信号セットのうちの1つの変化に対して第1のEEG信号セットのうちの1つが変化できる割合を示すことができる。
ある実施形態によれば、マルチレベル認識モデル116のオフライン訓練を行う代わりに、電子装置102を、電子装置102のユーザ(例えば、新規被験者、新規ユーザ、又は被験者114)が使用する予め訓練されたマルチレベル認識モデル116を記憶するように構成することができる。このような例では、予め訓練されたモデルを、ユーザ(又は被験者114)の新たな(又は認識されていない)精神行動属性を認識するように異なる時点でさらにアップデートすることができる。電子装置102は、EEG信号訓練セット及び異なるタイプの生体信号訓練セットに基づいて予め訓練された複数の第1の認識モデル118に、被験者114に関連するEEG信号セット及び異なるタイプの生体信号セットを入力するように構成することができる。その後、電子装置102は、ユーザ(すなわち、新規ユーザ又は被験者114)に関連するEEG信号セット及び異なるタイプの生体信号セットに複数の第1の認識モデル118を適用することによって、被験者114の異なる脳領域間の機能的結合性又は依存性を示すことができる複数の関係性データを推定するように構成することができる。
電子装置102は、推定された複数の関係性データに訓練された第2の認識モデル120を適用することによって、精神行動属性セットから被験者114の精神行動属性を識別するようにさらに構成することができる。精神行動属性の識別は、複数の第1の認識モデル118及び第2の認識モデル120内のDNNの各層において定期的に調整される重みパラメータに基づく自動特徴抽出及び選択に基づいて教師なしとすることができる。精神行動属性セットとしては、以下に限定するわけではないが、情動状態セット、感情状態セット、精神衛生状態セット、精神状態セット、及び気分に基づく属性セットを挙げることができる。いくつかの実施形態では、訓練された第2の認識モデル120の出力層が、精神行動属性セットのうちの最大尤度を有する精神行動属性を識別する分類器としてさらに機能することができる。この分類器は、ランダムフォレストベースの分類器、サポートベクトルマシン(SVM)ベースの分類器、ロジスティック回帰ベースの分類器、線形回帰ベースの分類器、ソフトマックス分類器、ベイズ推定ネットワーク分類器、及びディープニューラルネットワーク分類器などのうちの1つとすることができる。
一例として、精神行動属性は、電子装置102に関連する被験者114(又はユーザ)の情動状態、経験又は表現/非表現感情、精神衛生状態の識別子、又は一般的健康度を示すことができる。精神行動属性は、被験者114の肯定的感情価対否定的感情価、肯定的感情対否定的感情、及び高覚醒状態対リラックス状態を区別することができる。
ある実施形態によれば、電子装置102は、例えばVRヘッドセット上でのゲームプレイに関連する期間などの一定期間にわたる被験者114の異なる精神行動属性の変化を追跡するように構成することができる。その後、電子装置102は、追跡された異なる精神行動属性の変化に基づいて、被験者114の診断レポート、予後レポート及び予測レポートを生成するように構成することができる。このようなレポートの生成は、マルチレベル認識モデル116と共に組み込まれるフィードバックスキームの一部とすることができる。診断レポート、予後レポート及び予測レポートの生成は、被験者114に関連する1又は2以上のユーザパラメータにさらに基づくことができる。電子装置102は、被験者114に関連する複数のユーザパラメータを記憶するように構成することができる。複数のユーザパラメータは、被験者114の年齢、性別、利き手、知能指数(IQ)及び性的指向を含むことができる。
診断レポートは、一定期間にわたって識別された異なる精神行動属性に関連する情報を含むことができる。予後レポートは、被験者114の精神衛生に対するこのような属性の影響を一定程度抑える可能のある推奨の情報を含むことができる。予測レポートは、被験者114の精神衛生、健康度又は一般的健康に対する考えられる影響を軽減するために被験者114が行うことができる1又は2以上の行動指針に関連する情報を含むことができる。例えば、予測レポートは、被験者114の精神衛生、健康度、能力及び生活の質を改善するために推奨される方法に関連する情報を含むことができる。
本明細書では、いくつかの例示的なシナリオについて説明する。ある例示的なシナリオでは、被験者114がVRゲーム機などのゲーム機でビデオゲームのプレイに熱中しているものとすることができる。VRゲーム機(すなわち、電子装置102)は、識別された被験者114の精神状態に基づいてビデオゲームの難易度を設定するように構成することができる。例えば、識別された精神状態がリラックスした精神状態である場合には、VRゲーム機を、ビデオゲームの難易度を高めるように構成することができる。識別された精神状態がストレスの掛かった精神状態である場合には、VRゲーム機を、ビデオゲームの難易度を下げるように構成することができる。
別の例示的なシナリオでは、被験者114が日常の投薬の一部として抗うつ剤又は鎮痛剤を摂取したものとすることができる。電子装置102(例えば、ヘッドバンド及びスマートウォッチ)は、識別された精神状態に基づいて投薬の効能値を測定するように構成することができる。例えば、識別された被験者114の精神状態が沈んだ精神状態又は痛みを伴う精神状態である場合には、電子装置102を、摂取した抗うつ剤又は鎮痛剤が被験者114にとって効果のないものとして識別するように構成することができる。そうでない場合には、電子装置102を、摂取した抗うつ剤又は鎮痛剤が被験者114にとって有効であると識別するように構成することができる。
さらに別のシナリオでは、被験者114が車を運転しているものとすることができる。このようなシナリオでは、電子装置102を、被験者114の精神状態を識別して被験者114に警告を与えるかどうかを判定するように構成することができる。識別された被験者114の最初の精神状態が眠くなった又は意識がぼやけた精神状態である場合には、電子装置102を、被験者114に警告を発するように構成することができる。
図2は、本開示の実施形態による、DNNに基づく被験者の精神行動属性の認識のための例示的な電子装置を示すブロック図である。図2の説明は、図1の要素に関連して行う。図2を参照すると、電子装置102は、プロセッサ204と、認識モデル生成器206と、情動状態検出器208とを含むことができるニューラル回路202を含むことができる。図示してはいないが、いくつかの実施形態では、ニューラル回路202が、人工知能(AI)アクセラレータチップと共に実装できるDNN固有の異なる回路を含むことができる。AIアクセラレータチップは、マルチレベル認識モデル116の損失関数(すなわち、誤差関数)の学習率又は最適化率を加速させるように構成することができる。電子装置102は、メモリ210と、ネットワークインターフェイス212と、入力/出力部(I/O装置)214とをさらに含むことができる。
プロセッサ204は、メモリ210に記憶された命令セットを実行するように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。プロセッサ204は、複数のEEG電極108及び複数の異なるタイプのセンサ110を使用して、ニューラル回路によって取り込まれたEEG信号セット及び異なるタイプの生体信号セットを処理するように構成することができる。プロセッサ204は、第1のEEG信号セットと、第2のEEG信号セットと、異なるタイプの生体信号セットとの間の複数の関係性データを推定するように構成することができる。プロセッサ204の例としては、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピューティング(CISC)プロセッサ、及び/又はその他のハードウェアプロセッサを挙げることができる。
認識モデル生成器206は、EEG信号セット及び異なるタイプの生体信号セットに基づいて複数の第1の認識モデル118を生成して訓練するように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。認識モデル生成器206の実装例は、x86ベースのプロセッサ、GPU、RISCプロセッサ、ASICプロセッサ、CISCプロセッサ、マイクロコントローラ、CPU、及び/又はその他の制御回路とすることができる。
情動状態検出器208は、複数の第1の認識モデル118から抽出された異なる特徴ベクトルに第2の認識モデル120を適用することによって被験者114の異なる精神行動属性を識別するように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。情動状態検出器208の実装例は、x86ベースのプロセッサ、GPU、RISCプロセッサ、ASICプロセッサ、CISCプロセッサ、マイクロコントローラ、CPU、及び/又はその他の制御回路とすることができる。
メモリ210は、プロセッサ204、認識モデル生成器206及び情動状態検出器208などのニューラル回路202が実行できる命令セットを記憶するように構成できる好適なロジック、回路及び/又はインターフェイスを含むことができる。メモリ210は、被験者114に関連するマルチレベル認識モデル116、EEG信号セット、異なるタイプの生体信号セット及び複数のユーザパラメータに関連する命令セット又はプログラムコードを記憶するように構成することができる。いくつかの実施形態では、メモリ210が、訓練被験者群112のための同様のデータを記憶することもできる。メモリ210の実装例としては、以下に限定するわけではないが、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、ハードディスクドライブ(HDD)、及び/又はセキュアデジタル(SD)カードを挙げることができる。
ネットワークインターフェイス212は、通信ネットワーク104を介した電子装置102とサーバ106との間の通信を可能にするように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。ネットワークインターフェイス212は、通信ネットワーク104との有線又は無線通信をサポートする既知の技術を実装することができる。ネットワークインターフェイス212は、以下に限定するわけではないが、アンテナ、周波数変調(FM)トランシーバ、無線周波数(RF)トランシーバ、1又は2以上の増幅器、チューナ、1又は2以上の発振器、デジタルシグナルプロセッサ、コーダ−デコーダ(CODEC)チップセット、加入者識別モジュール(SIM)カード、及び/又はローカルバッファを含むことができる。
ネットワークインターフェイス212は、インターネット、イントラネット、及び/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)及び/又はメトロポリタンエリアネットワーク(MAN)などの無線ネットワークなどのネットワークと無線通信を介して通信することができる。無線通信は、ロングタームエボリューション(LTE)、グローバルシステムフォーモバイルコミュニケーション(GSM)、拡張データGSM環境(EDGE)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth、ワイヤレスフィディリティー(Wi−Fi)(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、及び/又はIEEE 802.11n)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、電子メール用プロトコル、インスタントメッセージング及び/又はショートメッセージサービス(SMS)などの複数の通信規格、プロトコル及び技術のうちのいずれかを使用することができる。
I/O装置214は、ユーザから複数の入力を受け取るように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。I/O装置214は、電子装置102及びサーバ106と通信するように構成できる様々な入力及び出力装置を含むことができる。入力装置のとして例は、以下に限定するわけではないが、タッチ画面、キーボード、マウス、ジョイスティック、マイク、ジェスチャコントローラ、及び/又はイメージセンサを挙げることができる。出力装置の例としては、以下に限定するわけではないが、ディスプレイ画面(液晶ディスプレイ(LCD)又は発光ダイオード(LED)ディスプレイ)及び/又はスピーカを挙げることができる。電子装置102の動作の詳細については、例えば図3及び図4においてさらに詳細に説明する。
図3に、本開示の実施形態による、DNNに基づく被験者114の精神行動属性の認識のための図2の電子装置を実装する第1の例示的なシナリオを示す。図3の説明は、図1及び図2の要素に関連して行う。図3には、電子装置102を実装する第1の例示的なシナリオ300を示す。
第1の例示的なシナリオ300には、メモリ210に記憶されたマルチレベル認識モデル302を示す。マルチレベル認識モデル302は、EEG信号訓練セット及び異なるタイプの生体信号訓練セットに基づいて訓練することができる。EEG信号訓練セットは、訓練被験者群112のうちの異なる訓練被験者の異なる脳領域から取得することができる。いくつかの実施形態では、個々の訓練セットの代わりに、ニューラル回路202を、異なる脳領域及びその他の身体部分からの特定のタイプの信号(例えば、EEG、PPG、その他)のための訓練セットの異なるミニバッチをそれぞれ作成するように構成することができる。同様に、訓練被験者群112に関連する異なるタイプの生体信号セットは、複数の異なるタイプのセンサ110によって取り込むことができる。複数の異なるタイプのセンサ110は、訓練被験者群112の各被験者の異なる身体部分に配置することができる。複数の異なるタイプのセンサ110の例としては、以下に限定するわけではないが、神経生理学的センサの組、バイオセンサの組及びウェアラブルセンサの組を挙げることができる。
マルチレベル認識モデル302は、複数の第1の認識モデル304と、被験者114の異なる精神行動属性の認識の最終段階として機能する第2の認識モデル306とを含むことができる。複数の第1の認識モデル304は、EEG信号セット及び異なるタイプの生体信号セットを訓練及びテストデータとして受け取るように並列に配置された第1のDNNセットとして実装することができる。複数の第1の認識モデル304は、第1のDNN304A、第2のDNN304B、第3のDNN304C及び第4のDNN304Dを含むことができる。第1のDNN304A、第2のDNN304B、第3のDNN304C及び第4のDNN304Dは、マルチレベル認識モデル302の初期入力レベルに対応することができる。ある実施形態によれば、第1のDNN304Aは、第1のEEG電極セット308Aを介して脳の左前頭皮質領域から受け取られたEEG信号に基づいて訓練することができる。第2のDNN304Bは、第1のEEG電極セット308Aを介して脳の左前頭前皮質領域から受け取られたEEG信号に基づいて訓練することができる。第3のDNN304Cは、第2のEEG電極セット308Bを介して脳の右前頭皮質領域から受け取られたEEG信号に基づいて訓練することができる。第4のDNN304Dは、第2のEEG電極セット308Bを介して脳の右前頭前皮質領域から受け取られたEEG信号に基づいて訓練することができる。ある実施形態によれば、第1のDNN304A、第2のDNN304B、第3のDNN304C及び第4のDNN304Dは、EEG信号セット及び異なるタイプの生体信号セットの組み合わせに基づいて訓練することができる。図示してはいないが、第1のDNN304A、第2のDNN304B、第3のDNN304C及び第4のDNN304Dは、少なくともEEG信号、1つのタイプの生体信号又はこれらの組み合わせを入力として受け取る2又は3以上の入力部を有することができる。
第1のDNN304A、第2のDNN304B、第3のDNN304C及び第4のDNN304Dの各々は、EEG信号訓練セット及び異なるタイプの生体信号訓練セットからの特定のタイプの信号を使用して個別に訓練することができる。例えば、第1のDNN304A及び第2のDNN304Bは、例えば左前頭前皮質などの脳の左半球に発生する機能的活動に基づいて訓練することができる。同様に、第3のDNN304C及び第4のDNN304Dは、例えば右前頭皮質などの脳の右半球に基づいて訓練することができる。左前頭前皮質及び左前頭皮質からのEEG信号は、訓練被験者群112の各被験者及び被験者114の左半球の脳機能に関連することができる。右前頭前皮質からのEEG信号及び右前頭皮質信号は、訓練被験者群112の各被験者及び被験者114の右半球の脳機能に関連することができる。
ニューラル回路202は、被験者114の複数の精神行動属性の認識のために第2の認識モデル306を訓練するように構成することができる。ニューラル回路202は、複数の第1の認識モデルの出力層から出力された特徴ベクトルに基づいて第2の認識モデル306を訓練するように構成することができる。特徴ベクトルは、訓練被験者群112の各訓練被験者の異なる脳領域間の複数の関係性又は依存性データの推定値を表すことができる。いくつかの実施形態では、第2の認識モデル306を、複数のユーザパラメータ、及び/又は訓練された複数の第1の認識モデルの出力特徴ベクトルの組み合わせに基づいてさらに訓練することができる。
いくつかのシナリオでは、精神行動属性セットが、第1の精神行動属性セット及び第2の精神行動属性セットを含むことができる。1つの例では、第1の精神行動属性セットを肯定的精神行動属性とすることができ、第2の精神状態を否定的精神行動属性とすることができる。肯定的精神行動属性は、肯定的感情状態(例えば、肯定的心情、愛情)、肯定的情動状態、肯定的感情価、上機嫌、又は被験者114の精神衛生状態を改善する又はその改善を示す要因に対応することができる。例えば、肯定的精神行動属性は、以下に限定するわけではないが、幸福状態、興奮状態、満足状態、高揚状態、覚醒状態及びリラックス状態などの感情状態、感情の強さ、並びに楽しい行動、楽しい顔の表情、心拍パターン又は機能的脳活動に基づく情動状態を含むことができる。同様に、否定的精神行動属性は、否定的感情状態(例えば、否定的心情)、否定的情動状態、否定的感情価、不機嫌、又は被験者114の精神衛生状態を低下させる又はその低下を示す要因に対応することができる。例えば、肯定的精神行動属性は、以下に限定するわけではないが、悲しい状態、緊張状態、ストレス状態、動揺状態、意気消沈状態及び退屈状態などの感情状態、感情の強さ、並びに不愉快な行動、不愉快な顔の表情、心拍パターン又は機能的脳活動に基づく情動状態を含むことができる。
ニューラル回路202は、第1の精神行動属性セットの各々と第1の精神行動属性セットとの間の相互結合性パラメータ及び依存性パラメータを計算するように構成することができる。第2の認識モデル306は、精神行動属性セットのうちの第1の精神行動属性セットと精神行動属性セットのうちの第2の精神行動属性セットとの間の相互結合性パラメータ及び依存性パラメータに基づいてさらに訓練することができる。相互結合性パラメータは、脳が2又は3以上の精神行動属性について機能した状態を保っている間の被験者114の異なる脳領域間の機能的結合性を示すことができる。例えば、EEG信号の一部は、被験者114の悲しい感情状態とゲーム機に置かれた左手の動きとの間の相互結合性を示すことができる。このような相互結合性は、左前頭葉前部内の悲しい感情状態のための活動を右前頭葉内の左手の動きのための特定の領域に対応付けることができる相互結合性パラメータによって表すことができる。同様に、依存性パラメータは、一定期間にわたって測定される複数の精神行動属性のタイムラインにおいて1つの精神行動属性が別の精神行動属性にどのように影響するかを示すことができる。例えば、依存性パラメータは、被験者114がゲームプレイに熱中していた特定の期間に体験した異なる感情間の一連の関係性を示すことができる。
ニューラル回路202は、第2の認識モデル306(すなわち、複数の第1の認識モデル304の各々よりも上位の認識モデル)を、複数の第1の認識モデル304からの(単複の)出力特徴ベクトルを最適に組み合わせるように訓練することができる。ニューラル回路202は、訓練された第2の認識モデル306を利用して被験者114の異なる精神行動属性間の相互結合性及び依存性に関連する情報を抽出するように構成することができる。
第2の認識モデル306は、第5のDNN306A、第6のDNN306B及び第7のDNN306Cを含むことができる。第5のDNN306A、第6のDNN306B及び第7のDNN306Cは、マルチレベル認識モデル302の1又は2以上の上位層に対応することができる。ニューラル回路202は、第1のDNN304Aの第1の出力及び第2のDNN304Bの第2の出力に基づいて第5のDNN306Aを訓練するように構成することができる。第5のDNN306Aは、第1の出力及び第2の出力を最適に組み合わせるように訓練することができる。ニューラル回路202は、第3のDNN304Cの第3の出力及び第4のDNN304Dの第4の出力に基づいて第6のDNN306Bを訓練するようにさらに構成することができる。ニューラル回路202は、第5のDNN306Aの第5の出力及び第6のDNN306Bの第6の出力に基づいて第7のDNN306Cを訓練するようにさらに構成することができる。第7のDNN306Cは、第5の出力及び第6の出力を最適に組み合わせるように訓練することができる。第2の認識モデル306の出力層は、精神行動属性セットのうちの最大尤度を有する精神行動属性を識別する分類器として機能することができる。この分類器は、ランダムフォレストベースの分類器、サポートベクトルマシン(SVM)ベースの分類器、ロジスティック回帰ベースの分類器、線形回帰ベースの分類器、ソフトマックス分類器、ベイズ推定ネットワーク分類器、ディープニューラルネットワーク分類器のうちの1つとすることができる。
ニューラル回路202は、ランダムに選択された訓練、検証及びテストデータサブセットを使用することによって、或いはEEG信号訓練セット及び生体信号訓練セットの1又は2以上のレベルのk−分割交差検証(k−fold cross−validation)を適用することによって、訓練された複数の第1の認識モデル304及び訓練された第2の認識モデル306を評価して最適化するようにさらに構成することができる。k−分割交差検証におけるkは、訓練された複数の第1の認識モデル304及び訓練された第2の認識モデル306の交差検証に必要な分割数を表す。
展開段階では、ニューラル回路202を、訓練された複数の第1の認識モデル304に基づいて複数の関係性データを推定するように構成することができる。関係性データは、被験者114の異なる脳領域間の機能的結合性又は依存性を示すことができる。複数の依存性又は関係性データは、被験者114に関連するEEG信号セット及び異なるタイプの生体信号セットに訓練された複数の第1の認識モデル304を適用した後に生成できる出力特徴ベクトルによって示すことができる。EEG信号セット又は異なるタイプの生体信号セットからの異なるEEG信号又は生体信号の相互結合性又は依存性は、被験者114の脳が認知的又は神経生理学的活動を体験している間の脳の異なる機能的領域の依存性を示すことができる。例えば、脳の左半球の活動によって示される悲しい感情状態は、肉体的苦痛を処理する脳領域への依存性をさらに示すことができる。従って、肉体的苦痛及び悲しい感情状態は、複数の第1の認識モデル304からの出力特徴としての依存性を有することができる。複数の依存性又は関係性データは、各ユーザの複数のユーザパラメータの各々とそれぞれのユーザの脳の各半球の脳機能との関連性を示すこともできる。
ある実施形態によれば、ニューラル回路202は、推定された複数の依存性又は関係性データに訓練された第2の認識モデルを適用することによって、精神行動属性セットから被験者114の精神行動属性を識別するようにさらに構成することができる。精神行動属性セットは、情動状態セット、感情状態セット、精神衛生状態セット、精神状態セット、及び気分に基づく属性セットを含むことができる。いくつかの実施形態では、第2の認識モデル306の中間層又は出力層の分析に基づいて被験者114の現在の精神行動属性を識別することができる。
被験者114の複数の精神行動属性は、推定された複数の依存性又は関係性データにさらに基づいて一定期間にわたって識別することができる。換言すれば、それぞれの被験者114の精神行動属性と脳の各半球の対応する脳機能との関連性に基づいて複数の精神行動属性を識別することができる。ある実施形態によれば、ニューラル回路202は、訓練された複数の第1の認識モデル304の出力特徴ベクトルと、訓練された第2の認識モデル306の出力特徴ベクトルとを受け取るようにさらに構成することができる。この受け取られた訓練された複数の第1の認識モデル及び訓練された第2の認識モデルの出力特徴ベクトルに基づいて、被験者114の精神行動属性を識別することができる。
ニューラル回路202は、被験者114の複数の精神行動属性を、被験者114に関連するEEG信号セット及び異なるタイプの生体信号セットの複数の信号サンプルに一定期間にわたって対応付けるようにさらに構成することができる。複数の精神行動属性の例としては、以下に限定するわけではないが、幸福状態、悲しい状態、用心深い状態、苦痛状態、ストレス状態、及びリラックス状態を挙げることができる。ニューラル回路202は、複数の青写真データ点(blueprint data points)を生成するようにさらに構成することができる。複数の青写真データ点は、被験者114の複数の精神行動属性の各々と、EEG信号セット及び異なるタイプの生体信号セットの複数の信号サンプルとの間の対応を示すことができる。生成された複数の青写真データ点の各々は、精神行動属性セットのうちの異なる精神行動属性に対応することができる。
ニューラル回路202は、複数の青写真データ点の各々と複数の青写真データ点の他の青写真データ点とを比較するようにさらに構成することができる。被験者114の精神行動属性は、この比較にさらに基づいて識別することができる。被験者114の特定の精神状態の青写真データ点は、特定の精神行動属性に対応し得る(EEG信号セット及び/又は異なるタイプの生体信号セット内の)1又は2以上の信号パターンに関連する情報を含むことができる。ニューラル回路202は、特定のユーザから取り込まれた複数の入力信号の1又は2以上の信号パターンを識別した場合、特定の被験者114が特定の精神行動属性を示すことを予測することができる。
図4に、本開示の実施形態による、DNNに基づく被験者の精神行動属性の認識のための図2の電子装置を実装する第2の例示的なシナリオを示す。図4の説明は、図1、図2及び図3の要素に関連して行う。ニューラル回路202は、複数の訓練被験者の各訓練被験者からEEG信号訓練セット及び異なるタイプの生体信号訓練セットを受け取るように構成することができる。EEG信号訓練セットは、訓練被験者群からの各被験者の脳の大脳皮質の左側部分からの第1のEEG信号訓練セットと、右側部分からの第2のEEG信号訓練セットとを含むことができる。
402において、図1及び図3で説明したように、第1のEEG信号訓練セット、第2のEEG信号訓練セット及び異なるタイプの生体信号セットに基づいて複数の第1の認識モデル304を訓練することができる。認識モデル生成器206は、第1のEEG信号セット、第2のEEG信号セット及び異なるタイプの生体信号セットに基づいて複数の第1の認識モデル304を訓練するように構成することができる。図1及び図3で説明したように、ニューラル回路202は、第1のEEG信号セットと、第2のEEG信号セットと、異なるタイプの生体信号セットとの間の複数の関係性データを推定するように構成することができる。図1及び図3で説明したように、ニューラル回路202は、被験者の複数の精神行動属性の認識のために第2の認識モデル306を訓練するように構成することができる。
404において、第1の時間間隔内に、EEG電極セット408を介して第1のユーザ406からEEG信号セットを取り込むことができる。(複数の異なるタイプのセンサ110のうちの少なくとも1つに対応する)第1のウェアラブルセンサ410は、第1のユーザ406から少なくとも1つのタイプの生体信号を取り込むように構成することができる。情動状態検出器208は、EEG信号セット及び生体信号タイプにマルチレベル認識モデル302を適用することに基づいて第1のユーザ406の第1の精神行動属性を識別又は推定するように構成することができる。いくつかのシナリオでは、第1のユーザ406が、(仮想現実(VR)ヘッドセット412などの)ディスプレイ装置上でメディアコンテンツを見ているものとすることができる。このようなシナリオでは、ニューラル回路202を、第1のユーザ406の識別された第1の精神行動属性に基づいてメディアコンテンツの表示を修正するように構成することができる。
例えば、VRヘッドマウント装置(HMD)上で特定のVRゲームをプレイしている最中のゲームプレーヤ(すなわち、第1のユーザ406)からEEG信号セットを取り込むことができる。HMD装置は、特定のゲームプレイ時間(例えば、30分)にわたってゲームプレーヤの左及び右前頭葉からのEEG信号セットを記録できるEEGキャップを含むことができる。HMD装置は、ゲームプレイ中に、予め訓練されたマルチレベルDNNモデルをHMD装置のメモリにロードすることができる。予め訓練されるモデルは、ゲームプレーヤが興奮、スリル、痛み、悲しみ及び幸福な感情状態などの異なる精神行動属性を体験している間の異なる脳領域間の異なる特徴、関係性及び依存性を識別するように訓練することができる。また、予め訓練されるモデルは、(異なる脳領域によって示される)いくつかの特徴又は関係性が、ゲームプレーヤの精神衛生状態に影響する可能性がある問題(例えば、意気消沈又は強烈な怒り)を引き起こす恐れがあるかどうかを識別するように訓練することもできる。従って、HMD装置は、潜在的健康状態についてゲームプレーヤに警告する機能、又は潜在的健康状態を治療するための医療従事者及び/又は治療薬又は治療計画を推奨する機能を有することができる。
図5A及び図5Bに、本開示の実施形態による、DNNに基づく被験者114の精神行動属性の認識のための例示的な方法を示すフローチャートを集合的に示す。図5A及び図5Bにはフローチャート500を示す。フローチャート500の説明は、図1、図2、図3及び図4の要素に関連して行う。方法は、502から開始して504に進む。
504において、訓練被験者群112の各訓練被験者の頭皮上に配置された複数のEEG電極108を通じてEEG信号訓練セットを取り込むことができる。ニューラル回路202は、訓練被験者群112の各訓練被験者の頭皮上に配置された複数のEEG電極108を通じてEEG信号訓練セットを取り込むように構成することができる。
506において、訓練被験者群112の各訓練被験者に関連する異なるタイプの生体信号訓練セットを取り込むことができる。複数の異なるタイプのセンサ110は、訓練被験者群112の各訓練被験者に関連する異なるタイプの生体信号訓練セットを取り込むように構成することができる。
508において、訓練被験者群112に関連するEEG信号訓練セット及び異なるタイプの生体信号訓練セットに基づいて、第1の複数のDNNに対応する複数の第1の認識モデル118を訓練することができる。ニューラル回路202は、訓練被験者群112に関連するEEG信号訓練セット及び異なるタイプの生体信号訓練セットに基づいて第1の複数のDNNに対応する複数の第1の認識モデル118を訓練するように構成することができる。
510において、複数の第1の認識モデル118の出力層から出力された特徴ベクトルに基づいて第2の複数のDNNに対応する第2の認識モデル120を訓練することができる。ニューラル回路202は、複数の第1の認識モデル118の出力層から出力された特徴ベクトルに基づいて第2の複数のDNNに対応する第2の認識モデル120を訓練するように構成することができる。
512において、複数の第1の認識モデル118及び第2の認識モデル120に関連する複数の重みパラメータに最適化スキームを反復適用することによって複数の重みパラメータを調整することができる。ニューラル回路202は、複数の第1の認識モデル118及び第2の認識モデル120に関連する複数の重みパラメータに最適化スキームを反復適用することによって複数の重みパラメータを調整するように構成することができる。
514において、ランダムに選択された訓練、検証及びテストデータサブセットを使用することによって、或いはEEG信号訓練セット及び/又は異なるタイプの生体信号訓練セットの1又は2以上のレベルのk−分割交差検証を適用することによって、訓練された複数の第1の認識モデル118及び訓練された第2の認識モデル120を評価して最適化することができる。ニューラル回路202は、EEG信号訓練セット及び生体信号訓練セットのk−分割交差検証を適用することによって、訓練された複数の第1の認識モデル118及び訓練された第2の認識モデル120を評価するようにさらに構成することができる。
516において、被験者114の頭皮上に配置された複数のEEG電極108を通じてEEG信号セットを取り込むことができる。ニューラル回路202は、被験者114の頭皮上に配置された複数のEEG電極108を通じてEEG信号セットを取り込むように構成することができる。
518において、被験者114に関連する異なるタイプの生体信号セットを取り込むことができる。複数の異なるタイプのセンサ110は、被験者114に関連する異なるタイプの生体信号訓練セットを取り込むように構成することができる。
520において、被験者114に関連するEEG信号セット及び異なるタイプの生体信号セットに訓練された複数の第1の認識モデル118を適用することによって、被験者114の異なる脳領域間の機能的結合性又は依存性を示すことができる複数の関係性データを推定することができる。ニューラル回路202は、被験者114に関連するEEG信号セット及び異なるタイプの生体信号セットに訓練された複数の第1の認識モデル118を適用することによって、被験者114の異なる脳領域間の機能的結合性又は依存性を示すことができる複数の関係性データを推定するように構成することができる。
522において、推定された複数の関係性データに訓練された第2の認識モデル120を適用することによって、精神行動属性セットから被験者114の精神行動属性を識別することができる。精神属性の識別は、被験者114のEEG信号及び生体信号の特定の部分について、識別された精神属性の存在可能性が精神行動属性セット内の残りの全ての属性から最大であることを示すことができる。ニューラル回路202は、推定された複数の関係性データに訓練された第2の認識モデル120を適用することによって、精神行動属性セットから被験者114の精神行動属性を識別するように構成することができる。
524において、被験者114の複数の精神行動属性を被験者114に関連するEEG信号セット及び異なるタイプの生体信号セットの複数の信号サンプルに一定期間にわたって対応付けることができる。ニューラル回路202は、被験者114の複数の精神行動属性を被験者114に関連するEEG信号セット及び異なるタイプの生体信号セットの複数の信号サンプルに一定期間にわたって対応付けるように構成することができる。
526において、被験者114の複数の精神行動属性の各々と、EEG信号セット及び異なるタイプの生体信号セットの複数の信号サンプルとの間の対応を示すことができる複数の青写真データを生成することができる。ニューラル回路202は、被験者114の複数の精神行動属性の各々と、EEG信号セット及び異なるタイプの生体信号セットの複数の信号サンプルとの間の対応を示すことができる複数の青写真データを生成するように構成することができる。
528において、被験者114の異なる精神行動属性の変化を一定期間にわたって追跡することができる。ニューラル回路202は、被験者114の異なる精神行動属性の変化を一定期間にわたって追跡するように構成することができる。
530において、追跡された変化に基づいて、被験者114の少なくとも診断レポート、予後レポート及び予測レポートを生成することができる。ニューラル回路202は、追跡された変化に基づいて、被験者114の少なくとも診断レポート、予後レポート及び予測レポートを生成するように構成することができる。制御は終了に進む。
本開示の様々な実施形態は、ディープニューラルネットワーク(DNN)に基づく精神行動属性の認識を取り扱う方法及び電子装置(例えば、電子装置102)において見出すことができる。電子装置は、メモリ(例えば、メモリ210)及びニューラル回路(例えば、ニューラル回路202)を含むことができる。メモリは、被験者に関連する脳波(EEG)信号セット、異なるタイプの生体信号セット、及び複数のユーザパラメータを記憶するように構成することができる。ニューラル回路は、訓練被験者群に関連するEEG信号訓練セット及び異なるタイプの生体信号訓練セットに基づいて複数の第1の認識モデルを訓練するように構成することができる。複数の第1の認識モデルは、第1の複数のDNNに対応する。ニューラル回路は、複数の第1の認識モデルの出力層からの特徴ベクトルに基づいて、第2の複数のディープニューラルネットワークDNNに対応する第2の認識モデルを訓練するようにさらに構成することができる。その後、ニューラル回路202は、被験者に関連するEEG信号セット及び異なるタイプの生体信号セットに訓練された複数の第1の認識モデルを適用することによって、複数の関係性データを推定するように構成することができる。複数の関係性データは、被験者の異なる脳領域間の機能的結合性又は依存性を示すことができる。ニューラル回路202は、推定された複数の関係性データに訓練された第2の認識モデルを適用することによって精神行動属性セットから被験者の精神行動属性を識別するようにさらに構成することができる。ある実施形態によれば、精神行動属性の識別は、EEG信号セット及び異なるタイプの生体信号セットに対する被験者の情動状態、性別、及び左利き又は右利きの側性化の影響に対して不変である。
ある実施形態によれば、EEG信号セットは、被験者の脳の大脳皮質の左側部分からの第1のEEG信号セットと、右側部分からの第2のEEG信号セットとを含むことができる。ニューラル回路は、被験者の頭皮上に配置された複数のEEG電極を通じて、被験者の脳の大脳皮質の左側部分からの第1のEEG信号セットと、右側部分からの第2のEEG信号セットとを取り込むように構成することができる。ニューラル回路は、複数の異なるタイプのセンサを通じて被験者に関連する異なるタイプの生体信号セットを取り込むようにさらに構成することができる。複数の異なるタイプのセンサは、被験者の異なる身体部分に配置することができる。複数の異なるタイプのセンサは、以下に限定するわけではないが、神経生理学的センサの組、バイオセンサの組、及びウェアラブルセンサの組を含むことができる。
ある実施形態によれば、EEG信号訓練セットは、訓練被験者群からの各被験者の脳の大脳皮質の左側部分からの第1のEEG信号訓練セットと、右側部分からの第2のEEG信号訓練セットとを含むことができる。ニューラル回路は、複数の第1の認識モデル及び第2の認識モデルに関連する複数の重みパラメータに最適化スキームを反復適用することによって複数の重みパラメータを調整するようにさらに構成することができる。複数の重みパラメータの調整は、複数の第1の認識モデル及び第2の認識モデルの訓練に対応することができる。ある実施形態によれば、EEG信号訓練セット及び異なるタイプの生体信号訓練セットからの特定のタイプの信号に基づいて、複数の第1の認識モデルの各認識モデルを個別に訓練することができる。ニューラル回路は、訓練された複数の第1の認識モデルの出力特徴ベクトルと、訓練された第2の認識モデルの出力特徴ベクトルとを受け取るように構成することができる。訓練された複数の第1の認識モデル及び訓練された第2の認識モデルの受け取られた出力特徴ベクトルに基づいて、被験者の精神行動属性を識別することができる。
ある実施形態によれば、精神行動属性セットのうちの第1の精神行動属性セットと精神行動属性セットのうちの第2の精神行動属性セットとの間の相互結合性パラメータ及び依存性パラメータにさらに基づいて第2の認識モデルを訓練することができる。精神行動属性セットは、以下に限定するわけではないが、情動状態セット、感情状態セット、精神衛生状態セット、精神状態セット、及び気分に基づく属性セットを含むことができる。
ある実施形態によれば、ニューラル回路は、被験者に関連するEEG信号セット及び異なるタイプの生体信号セットの複数の信号サンプルに被験者の複数の精神行動属性を一定期間にわたって対応付けるようにさらに構成することができる。ニューラル回路は、被験者の複数の精神行動属性の各々とEEG信号セット及び異なるタイプの生体信号セットの複数の信号サンプルとの間の対応を示すことができる複数の青写真データ点を生成するようにさらに構成することができる。生成された複数の青写真データ点の各々は、精神行動属性セットの異なる精神行動属性に対応することができる。ニューラル回路は、複数の青写真データ点の各々を複数の青写真データ点の他の青写真データ点と比較するようにさらに構成することができる。被験者の精神行動属性は、この比較にさらに基づいて識別することができる。
ある実施形態によれば、第2の認識モデルの出力層は、精神行動属性セットのうちの最大尤度を有する精神行動属性を識別する分類器として機能することができる。この分類器は、ランダムフォレストベースの分類器、サポートベクトルマシン(SVM)ベースの分類器、ロジスティック回帰ベースの分類器、線形回帰ベースの分類器、ソフトマックス分類器、ベイズ推定ネットワーク分類器、及びディープニューラルネットワーク分類器のうちの1つとすることができる。
ある実施形態によれば、ニューラル回路は、訓練された複数の認識モデル及び訓練された第2のモデルを評価して最適化するようにさらに構成することができる。訓練された複数の認識モデル及び訓練された第2のモデルは、EEG信号訓練セット及び異なるタイプの生体信号訓練セットのk−分割交差検証を適用することによって評価することができる。
ある実施形態によれば、ニューラル回路は、被験者の異なる精神行動属性の変化を一定期間にわたって追跡するようにさらに構成することができる。その後、ニューラル回路は、追跡された変化に基づいて被験者の少なくとも診断レポート、予後レポート及び予測レポートを生成するように構成することができる。
本開示の様々な実施形態は、ディープニューラルネットワーク(DNN)に基づく精神行動属性の認識を取り扱う方法及び電子装置(例えば、電子装置102)において見出すことができる。電子装置は、メモリ(例えば、メモリ210)及びニューラル回路(例えば、ニューラル回路202)を含むことができる。メモリは、被験者に関連する脳波(EEG)信号セット、異なるタイプの生体信号セット、及び複数のユーザパラメータを記憶するように構成することができる。ニューラル回路は、EEG信号訓練セット及び異なるタイプの生体信号訓練セットに基づいて予め訓練された複数の第1の認識モデルに、被験者に関連するEEG信号セット及び異なるタイプの生体信号セットを入力するように構成することができる。ニューラル回路202は、被験者に関連するEEG信号セット及び異なるタイプの生体信号セットに訓練された複数の第1の認識モデルを適用することによって複数の関係性データを推定するように構成することができる。複数の関係性データは、被験者の異なる脳領域間の機能的結合性又は依存性を示すことができる。ニューラル回路202は、推定された複数の関係性データに訓練された第2の認識モデルを適用することによって精神行動属性セットから被験者の精神行動属性を識別するようにさらに構成することができる。ある実施形態によれば、精神行動属性の識別は、EEG信号セット及び異なるタイプの生体信号セットに対する被験者の情動状態、性別、及び左利き又は右利きの側性化の影響に対して不変である。
本開示の様々な実施形態は、電子装置102などの機械及び/又はコンピュータが実行できる機械コード及び/又は命令セットを記憶した非一時的コンピュータ可読媒体及び/又は記憶媒体、及び/又は非一時的機械可読媒体及び/又は記憶媒体を提供することができる。電子装置内の命令セットは、被験者に関連する脳波(EEG)信号セット、異なるタイプの生体信号セット及び複数のユーザパラメータの記憶を含む動作を機械及び/又はコンピュータに実行させることができる。訓練被験者群に関連するEEG信号訓練セット及び異なるタイプの生体信号訓練セットに基づいて、複数の第1の認識モデルを訓練することができる。複数の第1の認識モデルは、第1の複数のDNNに対応することができる。複数の第1の認識モデルの出力層からの特徴ベクトルに基づいて、第2の複数のディープニューラルネットワークDNNに対応する第2の認識モデルを訓練することができる。その後、被験者に関連するEEG信号セット及び異なるタイプの生体信号セットに訓練された複数の第1の認識モデルを適用することによって複数の関係性データを推定することができる。複数の関係性データは、被験者の異なる脳領域間の機能的結合性又は依存性を示すことができる。推定された複数の関係性データに訓練された第2の認識モデルを適用することによって、精神行動属性セットから被験者の精神行動属性を識別することができる。ある実施形態によれば、精神行動属性の識別は、EEG信号セット及び生体信号セットへの被験者の感情状態、性別、及び左利き又は右利きの側性化の影響に対して不変である。
本開示は、ハードウェアで実現することも、又はハードウェアとソフトウェアとの組み合わせで実現することもできる。本開示は、少なくとも1つのコンピュータシステム内で集中方式で実現することも、又は異なる要素を複数の相互接続されたコンピュータシステムにわたって分散できる分散方式で実現することもできる。本明細書で説明した方法を実行するように適合されたコンピュータシステム又はその他の装置が適することができる。ハードウェアとソフトウェアとの組み合わせは、ロードされて実行された時に本明細書で説明した方法を実行するようにコンピュータシステムを制御することができるコンピュータプログラムを含む汎用コンピュータシステムとすることができる。本開示は、他の機能も実行する集積回路の一部を含むハードウェアで実現することができる。
本開示は、本明細書で説明した方法の実装を可能にする全ての特徴を含み、コンピュータシステムにロードされた時にこれらの方法を実行できるコンピュータプログラム製品に組み込むこともできる。いくつかの実施形態を参照しながら本開示を説明したが、当業者であれば、本開示の範囲から逸脱することなく様々な変更を行うことができ、同等物を代用することもできると理解するであろう。また、本開示の範囲から逸脱することなく、特定の状況又は内容を本開示の教示に適合させるように多くの修正を行うこともできる。従って、本開示は、開示した特定の実施形態に限定されるものではなく、添付の特許請求の範囲内に収まる全ての実施形態を含むように意図される。

Claims (21)

  1. 電子装置であって、
    被験者に関連する脳波(EEG)信号セット、異なるタイプの生体信号セット、及び複数のユーザパラメータを記憶するように構成されたメモリと、
    少なくとも1つのプロセッサと、
    を備え、前記少なくとも1つのプロセッサは、
    訓練被験者群に関連するEEG信号訓練セット及び異なるタイプの生体信号訓練セットに基づいて、第1の複数のディープニューラルネットワーク(DNN)に対応する複数の第1の認識モデルを訓練し、
    前記複数の第1の認識モデルの出力層からの特徴ベクトルに基づいて、第2の複数のディープニューラルネットワーク(DNN)に対応する第2の認識モデルを訓練し、
    前記被験者に関連する前記EEG信号セット及び前記生体信号セットに前記訓練された複数の第1の認識モデルを適用することによって、前記被験者の異なる脳及び身体領域間の機能的結合性又は依存性を示す複数の関係性データを推定し、
    前記推定された複数の測定信号及びその関係性データに前記訓練された第2の認識モデルを適用することによって、精神行動属性セットから前記被験者の精神行動属性を識別する、
    ように構成される、
    ことを特徴とする電子装置。
  2. 前記EEG信号セットは、前記被験者の前記脳の大脳皮質の左側部分からの第1のEEG信号セットと、右側部分からの第2のEEG信号セットとを含む、
    請求項1に記載の電子装置。
  3. 前記少なくとも1つのプロセッサは、前記被験者の頭皮上に配置された複数のEEG電極を通じて、前記脳の前記大脳皮質の前記左側部分からの前記第1のEEG信号セットと、前記右側部分からの前記第2のEEG信号セットとを取り込むようにさらに構成される、
    請求項2に記載の電子装置。
  4. 前記少なくとも1つのプロセッサは、複数の異なるタイプのセンサを通じて前記被験者に関連する前記異なるタイプの生体信号セットを取り込むようにさらに構成される、
    請求項1に記載の電子装置。
  5. 前記複数の異なるタイプのセンサは、前記被験者の異なる身体部分に配置される、
    請求項4に記載の電子装置。
  6. 前記複数の異なるタイプのセンサは、神経生理学的センサの組、バイオセンサの組及びウェアラブルセンサの組を含む、
    請求項5に記載の電子装置。
  7. 前記EEG信号訓練セットは、前記訓練被験者群からの各被験者の前記脳の大脳皮質の左側部分からの第1のEEG信号訓練セットと、右側部分からの第2のEEG信号訓練セットとを含む、
    請求項1に記載の電子装置。
  8. 前記少なくとも1つのプロセッサは、前記複数の第1の認識モデル及び前記第2の認識モデルに関連する複数の重みパラメータに最適化スキームを反復適用することによって前記複数の重みパラメータを調整するようにさらに構成され、前記複数の重みパラメータの前記調整は、前記複数の第1の認識モデル及び前記第2の認識モデルの訓練に対応する、
    請求項1に記載の電子装置。
  9. 前記複数の第1の認識モデルの各認識モデルは、前記EEG信号訓練セット及び前記生体信号訓練セットからの特定のタイプの信号に基づいて個別に訓練される、
    請求項1に記載の電子装置。
  10. 前記少なくとも1つのプロセッサは、前記訓練された複数の第1の認識モデルの前記出力特徴ベクトルと、前記訓練された第2の認識モデルの出力特徴ベクトルとを受け取るようにさらに構成され、前記被験者の前記精神行動属性は、前記訓練された複数の第1の認識モデル及び前記訓練された第2の認識モデルの前記受け取られた出力特徴ベクトルに基づいて識別される、
    請求項1に記載の電子装置。
  11. 前記第2の認識モデルは、前記精神行動属性セットのうちの第1の精神行動属性セットと前記精神行動属性セットのうちの第2の精神行動属性セットとの間の相互結合性パラメータ及び依存性パラメータに基づいてさらに訓練される、
    請求項1に記載の電子装置。
  12. 前記精神行動属性セットは、情動状態セット、感情状態セット、精神衛生状態セット、精神状態又は状況セット、心理学的状態又は状況セット、及び気分に基づく属性セットを含む、
    請求項1に記載の電子装置。
  13. 前記精神行動属性の前記識別は、前記EEG信号セット及び前記生体信号セットに対する前記被験者の感情状態、性別、及び左利き又は右利きの側性化の影響に対して不変である、
    請求項1に記載の電子装置。
  14. 前記少なくとも1つのプロセッサは、前記被験者に関連する前記EEG信号セット及び前記異なるタイプの生体信号セットの複数の信号サンプルに前記被験者の複数の精神行動属性を一定期間にわたって対応付けるようにさらに構成される、
    請求項1に記載の電子装置。
  15. 前記少なくとも1つのプロセッサは、前記被験者の前記複数の精神行動属性の各々と、前記EEG信号セット及び前記生体信号セットの前記複数の信号サンプルとの間の対応を示す複数の青写真データ点を生成するようにさらに構成される、
    請求項14に記載の電子装置。
  16. 前記生成された複数の青写真データ点の各々は、前記精神行動属性セットの異なる精神行動属性に対応し、前記プロセッサは、前記複数の青写真データ点の各々を前記複数の青写真データ点の他の青写真データ点と比較するようにさらに構成され、前記被験者の前記精神行動属性は、前記比較に基づいてさらに識別される、
    請求項15に記載の電子装置。
  17. 前記第2の認識モデルの出力層は、前記精神行動属性セットのうちの最大尤度を有する前記精神行動属性を識別する分類器として機能し、前記分類器は、ランダムフォレストベースの分類器、サポートベクトルマシン(SVM)ベースの分類器、ロジスティック回帰ベースの分類器、線形回帰ベースの分類器、ソフトマックス分類器、ベイズ推定ネットワーク分類器、ディープニューラルネットワーク分類器のうちの1つである、
    請求項1に記載の電子装置。
  18. 前記少なくとも1つのプロセッサは、ランダムに選択された訓練、検証及びテストデータサブセットを使用することによって、又は前記EEG信号訓練セット及び前記生体信号訓練セットに1又は2以上のレベルのk−分割交差検証を適用することによって、前記訓練された複数の認識モデル及び前記訓練された第2のモデルを評価して最適化するようにさらに構成される、
    請求項1に記載の電子装置。
  19. 前記少なくとも1つのプロセッサは、
    前記被験者の異なる精神行動属性の変化を一定期間にわたって追跡し、
    前記追跡された変化に基づいて、前記被験者の少なくとも診断レポート、予後レポート及び予測レポートを生成する、
    ように構成される、請求項1に記載の電子装置。
  20. 電子装置であって、
    被験者に関連する脳波(EEG)信号セット、生体信号セット、及び複数のユーザパラメータを記憶するように構成されたメモリと、
    少なくとも1つのプロセッサと、
    を備え、前記少なくとも1つのプロセッサは、
    EEG信号訓練セット及び異なるタイプの生体信号訓練セットに基づいて予め訓練された複数の第1の認識モデルに前記被験者に関連する前記EEG信号セット及び前記生体信号セットを入力し、
    前記被験者に関連する前記EEG信号セット及び前記生体信号セットに前記複数の第1の認識モデルを適用することによって、前記被験者の異なる脳及び身体領域間の機能的結合性又は依存性を示す複数の関係性データを推定し、
    前記推定された複数の入力信号及びその関係性データに第2の認識モデルを適用することによって、精神行動属性セットから前記被験者の精神行動属性を識別する、
    ように構成される、
    ことを特徴とする電子装置。
  21. メモリ及び少なくとも1つのプロセッサを備えた電子装置において、
    前記メモリが、被験者に関連する脳波(EEG)信号セット、生体信号セット及び複数のユーザパラメータを記憶するステップと、
    前記少なくとも1つのプロセッサが、訓練被験者群に関連するEEG信号訓練セット及び生体信号訓練セットに基づいて、第1の複数のディープニューラルネットワーク(DNN)に対応する複数の第1の認識モデルを訓練するステップと、
    前記少なくとも1つのプロセッサが、前記複数の第1の認識モデルの出力層からの特徴ベクトルに基づいて、第2の複数のディープニューラルネットワーク(DNN)に対応する第2の認識モデルを訓練するステップと、
    前記少なくとも1つのプロセッサが、前記被験者に関連する前記EEG信号セット及び前記生体信号セットに前記訓練された複数の第1の認識モデルを適用することによって、前記被験者の異なる脳及び身体領域間の機能的結合性又は依存性を示す複数の関係性データを推定するステップと、
    前記少なくとも1つのプロセッサが、前記推定された複数の信号及びその関係性データに前記訓練された第2の認識モデルを適用することによって、精神行動属性セットから前記被験者の精神行動属性を識別するステップと、
    を含むことを特徴とする方法。
JP2021543595A 2018-10-09 2019-08-26 ディープニューラルネットワークに基づく精神行動属性の認識のための電子装置 Pending JP2022502231A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/155,180 US11141088B2 (en) 2018-10-09 2018-10-09 Electronic device for recognition of mental behavioral attributes based on deep neural networks
US16/155,180 2018-10-09
PCT/IB2019/057167 WO2020074972A1 (en) 2018-10-09 2019-08-26 Electronic device for recognition of mental behavioral attributes based on deep neural networks

Publications (1)

Publication Number Publication Date
JP2022502231A true JP2022502231A (ja) 2022-01-11

Family

ID=68290273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021543595A Pending JP2022502231A (ja) 2018-10-09 2019-08-26 ディープニューラルネットワークに基づく精神行動属性の認識のための電子装置

Country Status (6)

Country Link
US (1) US11141088B2 (ja)
EP (1) EP3844779A1 (ja)
JP (1) JP2022502231A (ja)
KR (1) KR20210045467A (ja)
CN (1) CN112955973B (ja)
WO (1) WO2020074972A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022542730A (ja) * 2019-02-25 2022-10-07 コーニンクレッカ フィリップス エヌ ヴェ 被検体の相対的認知能力の決定
US11513596B2 (en) * 2019-04-16 2022-11-29 SiliconIntervention Inc. EEG with artificial intelligence as control device
CN111543988B (zh) * 2020-05-25 2021-06-08 五邑大学 一种自适应认知活动识别方法、装置及存储介质
US20220015657A1 (en) * 2020-07-20 2022-01-20 X Development Llc Processing eeg data with twin neural networks
CN111950455B (zh) * 2020-08-12 2022-03-22 重庆邮电大学 一种基于lffcnn-gru算法模型的运动想象脑电信号特征识别方法
CN112274162B (zh) * 2020-09-18 2022-05-17 杭州电子科技大学 基于生成对抗域自适应的跨被试eeg疲劳状态分类方法
US20240006052A1 (en) * 2020-09-25 2024-01-04 Cornell University System implementing generative adversarial network adapted to prediction in behavioral and/or physiological contexts
CN112183623A (zh) * 2020-09-28 2021-01-05 湘潭大学 基于风电运维人员紧张程度的运维操作方法
US11399074B2 (en) * 2020-12-16 2022-07-26 Facebook Technologies, Llc Devices, systems, and methods for modifying features of applications based on predicted intentions of users
CN113197585B (zh) * 2021-04-01 2022-02-18 燕山大学 一种神经肌肉信息交互模型构建及参数辨识优化方法
CN113069117A (zh) * 2021-04-02 2021-07-06 中山大学 一种基于时间卷积神经网络的脑电情绪识别方法及系统
CN113112017B (zh) * 2021-04-16 2022-09-27 唐山市工人医院 基于神经流形的脑电分级与预后fpga解码系统
US11179089B1 (en) * 2021-05-19 2021-11-23 King Abdulaziz University Real-time intelligent mental stress assessment system and method using LSTM for wearable devices
CN113705621B (zh) * 2021-08-05 2023-12-08 沃民高新科技(北京)股份有限公司 一种基于人心识别模型的无接触图像评测方法
CN113729709B (zh) * 2021-09-23 2023-08-11 中科效隆(深圳)科技有限公司 神经反馈设备、神经反馈方法及计算机可读存储介质
US11311220B1 (en) * 2021-10-11 2022-04-26 King Abdulaziz University Deep learning model-based identification of stress resilience using electroencephalograph (EEG)
CN113974657B (zh) * 2021-12-27 2022-09-27 深圳市心流科技有限公司 基于脑电信号的训练方法、装置、设备及存储介质
US11559232B1 (en) * 2022-02-27 2023-01-24 King Abdulaziz University GRU based real-time mental stress assessment
WO2023240056A1 (en) * 2022-06-06 2023-12-14 Georgia State University Research Foundation, Inc. System and method for mental diagnosis using eeg
WO2024073137A1 (en) * 2022-09-30 2024-04-04 Joshua R&D Technologies, LLC Driver/operator fatigue detection system
CN116701917B (zh) * 2023-07-28 2023-10-20 电子科技大学 一种基于生理信号的开放集情感识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100217145A1 (en) * 2006-06-09 2010-08-26 Bracco Spa Method of processing multichannel and multivariate signals and method of classifying sources of multichannel and multivariate signals operating according to such processing method
WO2018141061A1 (en) * 2017-02-01 2018-08-09 Cerebian Inc. System and method for measuring perceptual experiences

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2205654A1 (en) * 1994-11-21 1996-05-30 Neurotrain, L.C. Evaluating an individual with electroencephalographic disentrainment feedback
KR100291596B1 (ko) 1998-11-12 2001-06-01 정선종 좌/우뇌 활동의 비대칭성을 이용한 감성적 긍정/부정 상태 판별방법
US20130178731A1 (en) * 2010-08-13 2013-07-11 Children's Medical Center Corporation Methods and apparatus for risk assessment of developmental disorders during early cognitive development
US20130116520A1 (en) * 2011-09-01 2013-05-09 Masoud Roham Single and multi node, semi-disposable wearable medical electronic patches for bio-signal monitoring and robust feature extraction
CN102715902A (zh) 2012-06-15 2012-10-10 天津大学 特殊人群的情绪监护方法
KR20180058870A (ko) 2013-03-06 2018-06-04 아담 제이 사이먼 뇌 건강의 다중 모드 생리학적 평가를 위한 폼 팩터
US10321842B2 (en) * 2014-04-22 2019-06-18 Interaxon Inc. System and method for associating music with brain-state data
CN104161512B (zh) * 2014-08-27 2016-08-31 北京智谷技术服务有限公司 左右脑识别方法和设备
WO2017048730A1 (en) 2015-09-14 2017-03-23 Cogito Corporation Systems and methods for identifying human emotions and/or mental health states based on analyses of audio inputs and/or behavioral data collected from computing devices
US9824287B2 (en) * 2015-09-29 2017-11-21 Huami Inc. Method, apparatus and system for biometric identification
WO2017143179A1 (en) * 2016-02-18 2017-08-24 Curaegis Technologies, Inc. Alertness prediction system and method
US11354565B2 (en) * 2017-03-15 2022-06-07 Salesforce.Com, Inc. Probability-based guider
US11699069B2 (en) * 2017-07-13 2023-07-11 Helix, Inc. Predictive assignments that relate to genetic information and leverage machine learning models
CA3078404A1 (en) * 2017-10-06 2019-04-11 Holland Bloorview Kids Rehabilitation Hospital Brain-computer interface platform and process for classification of covert speech
US10952680B2 (en) * 2017-12-27 2021-03-23 X Development Llc Electroencephalogram bioamplifier
US11623102B2 (en) * 2018-07-31 2023-04-11 Medtronic, Inc. Wearable defibrillation apparatus configured to apply a machine learning algorithm

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100217145A1 (en) * 2006-06-09 2010-08-26 Bracco Spa Method of processing multichannel and multivariate signals and method of classifying sources of multichannel and multivariate signals operating according to such processing method
WO2018141061A1 (en) * 2017-02-01 2018-08-09 Cerebian Inc. System and method for measuring perceptual experiences

Also Published As

Publication number Publication date
WO2020074972A1 (en) 2020-04-16
EP3844779A1 (en) 2021-07-07
CN112955973B (zh) 2024-03-22
US20200107766A1 (en) 2020-04-09
KR20210045467A (ko) 2021-04-26
US11141088B2 (en) 2021-10-12
CN112955973A (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
US11141088B2 (en) Electronic device for recognition of mental behavioral attributes based on deep neural networks
Dzedzickis et al. Human emotion recognition: Review of sensors and methods
Biswas et al. CorNET: Deep learning framework for PPG-based heart rate estimation and biometric identification in ambulant environment
US11696714B2 (en) System and method for brain modelling
Awais et al. LSTM-based emotion detection using physiological signals: IoT framework for healthcare and distance learning in COVID-19
US10291977B2 (en) Method and system for collecting and processing bioelectrical and audio signals
Girardi et al. Emotion detection using noninvasive low cost sensors
Saganowski et al. Emotion recognition using wearables: A systematic literature review-work-in-progress
Schmidt et al. Wearable affect and stress recognition: A review
US9532748B2 (en) Methods and devices for brain activity monitoring supporting mental state development and training
CN101198277B (zh) 用于生理学和心理生理学监控的系统
Stangl et al. Mobile cognition: imaging the human brain in the ‘real world’
Yannakakis et al. Psychophysiology in games
US20150230756A1 (en) Determining physiological characteristics from sensor signals including motion artifacts
US20210118323A1 (en) Method and apparatus for interactive monitoring of emotion during teletherapy
Ismail et al. A comparison of emotion recognition system using electrocardiogram (ECG) and photoplethysmogram (PPG)
Kim et al. Recent Developments and Future Directions of Wearable Skin Biosignal Sensors
Bekele et al. Psychophysiological feedback for adaptive human–robot interaction (HRI)
Xu et al. Artificial intelligence/machine learning solutions for mobile and wearable devices
Shatilov et al. Emerging natural user interfaces in mobile computing: A bottoms-up survey
Qiu et al. Artificial intelligence in remote photoplethysmography: Remote heart rate estimation from video images
Tiwari Physiological features for mental state monitoring in real life conditions
Hinkle Determination of emotional state through physiological measurement
Schmidt Wearable-based affect recognition
Momynaliev et al. Portable health monitoring devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220719

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221214

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221214

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221221

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221227

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230210

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230215