JP2018094030A - Pain determination device and medicine effect determination device - Google Patents

Pain determination device and medicine effect determination device Download PDF

Info

Publication number
JP2018094030A
JP2018094030A JP2016240738A JP2016240738A JP2018094030A JP 2018094030 A JP2018094030 A JP 2018094030A JP 2016240738 A JP2016240738 A JP 2016240738A JP 2016240738 A JP2016240738 A JP 2016240738A JP 2018094030 A JP2018094030 A JP 2018094030A
Authority
JP
Japan
Prior art keywords
determination
component
information
unit
pain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016240738A
Other languages
Japanese (ja)
Other versions
JP6886139B2 (en
Inventor
潤一郎 新井
Junichiro Arai
潤一郎 新井
聡 松原
Satoshi Matsubara
聡 松原
喬弘 平山
Takahiro Hirayama
喬弘 平山
英希 橋詰
Hideki Hashizume
英希 橋詰
後藤 尚志
Hisashi Goto
尚志 後藤
泰則 小谷
Yasunori Kotani
泰則 小谷
淑美 大上
Shigemi Ogami
淑美 大上
太郎 戸松
Taro Tomatsu
太郎 戸松
英治 清水
Eiji Shimizu
英治 清水
山崎 章
Akira Yamazaki
章 山崎
昌広 小谷
Masahiro Kotani
昌広 小谷
耕介 山口
Kosuke Yamaguchi
耕介 山口
正 井岸
Tadashi Igan
正 井岸
賢 植木
Masaru Ueki
賢 植木
紳哉 増田
Shinya Masuda
紳哉 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daikin Industries Ltd
Tottori University NUC
Tokyo Institute of Technology NUC
Original Assignee
Daikin Industries Ltd
Tottori University NUC
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daikin Industries Ltd, Tottori University NUC, Tokyo Institute of Technology NUC filed Critical Daikin Industries Ltd
Priority to JP2016240738A priority Critical patent/JP6886139B2/en
Publication of JP2018094030A publication Critical patent/JP2018094030A/en
Application granted granted Critical
Publication of JP6886139B2 publication Critical patent/JP6886139B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a pain determination device determining a pain state in a subject and a medicine effect determination device determining an effect of a medicine to a pain or the like.SOLUTION: A pain determination device 1000 includes a brain function activation information provision unit 1041, a face change information acquisition unit 1042, a face change information decomposition unit 1043, a determination component extraction unit 1044, and a pain determination unit 1045. The face change information acquisition unit 1042 acquires "face change information" representing time series change of face data of a subject 300 to whom brain activation information is provided. The face change information decomposition unit 1043 decomposes the face change information by singular value decomposition or the like into a plurality of components 1, 2, 3, ... The determination component extraction unit 1044 extracts a component associated with the brain function activation information as a "determination component" from the plurality of components 1, 2, 3, ... The pain determination unit 1045 determines a pain state of the subject 300 based on an extraction result by the determination component extraction unit.SELECTED DRAWING: Figure 23

Description

本発明は、疼痛判定装置及び薬剤効果判定装置に関する。   The present invention relates to a pain determination device and a drug effect determination device.

近年、特許文献1(特開2013−176406号公報)に開示されているような脳波計測法(EEG)、磁気共鳴画像法(fMRI: functional Magnetic Resonance Imaging)、及び近赤外線分光法(NIRS)によって検出されたデータを利用して、人間の脳活動を推定することが試みられている。また、推定された脳活動から、人間の体調及び精神状態の判定等の応用が検討されている。   In recent years, by electroencephalography (EEG), magnetic resonance imaging (fMRI), and near infrared spectroscopy (NIRS) as disclosed in Patent Document 1 (Japanese Patent Laid-Open No. 2013-176406). Attempts have been made to estimate human brain activity using the detected data. Also, applications such as determination of human physical condition and mental state from the estimated brain activity are being studied.

しかしながら、脳波計測法及び近赤外線分光法では、対象者が電極を装着しなければならない等の前処理が必要である。また、磁気共鳴画像法では、所定のMRI室で計測する必要がある。要するに、これらの方法では、準備段階での作業が繁雑であったり、計測時の条件が制限されたりするという問題がある。また、これらの方法は、いずれも多大なコストを要するものである。結果として、これらの方法では、対象者の体調及び精神状態の判定等を行なうのが困難なことがある。   However, in the electroencephalogram measurement method and near-infrared spectroscopy, a pretreatment such as the subject having to wear an electrode is necessary. Moreover, in magnetic resonance imaging, it is necessary to measure in a predetermined MRI room. In short, with these methods, there is a problem that work at the preparation stage is complicated, and conditions at the time of measurement are limited. In addition, all of these methods are very expensive. As a result, with these methods, it may be difficult to determine the physical condition and mental state of the subject.

本発明の課題は、対象者の精神又は身体の生理状態を容易に判定し得るための装置及び方法を提供することにある。特に、本発明は、対象者における疼痛状態を判定する疼痛判定装置及び疼痛等に対する薬剤の効果を判定する薬剤効果判定装置を提供することを目的とする。   An object of the present invention is to provide an apparatus and a method for easily determining a mental state or a physiological state of a subject. In particular, an object of the present invention is to provide a pain determination device that determines a pain state in a subject and a drug effect determination device that determines the effect of a drug on pain and the like.

本発明の第1観点に係る疼痛判定装置は、脳機能賦活情報提供部と、顔面変化情報取得部と、顔面変化情報分解部と、判定用成分抽出部と、疼痛判定部と、を備える。脳機能賦活情報提供部は、人間の脳機能を賦活する脳機能賦活情報を対象者に提供する。顔面変化情報取得部は、対象者の顔面データの時系列変化を示す顔面変化情報を取得する。顔面変化情報分解部は、顔面変化情報を、特異値分解、主成分分析或いは独立成分分析により複数の成分に分解する。判定用成分抽出部は、複数の成分から、脳機能賦活情報と関連する成分を判定用成分として抽出する。疼痛判定部は、判定用成分抽出部による抽出結果に基づいて、対象者における疼痛の有無を判定する。   The pain determination apparatus according to the first aspect of the present invention includes a brain function activation information providing unit, a face change information acquiring unit, a face change information decomposing unit, a determination component extracting unit, and a pain determining unit. The brain function activation information providing unit provides the target person with brain function activation information for activating human brain functions. The face change information acquisition unit acquires face change information indicating a time-series change in the face data of the subject. The face change information decomposing unit decomposes the face change information into a plurality of components by singular value decomposition, principal component analysis, or independent component analysis. The determination component extraction unit extracts a component related to the brain function activation information from the plurality of components as a determination component. The pain determination unit determines the presence or absence of pain in the subject based on the extraction result by the determination component extraction unit.

第1観点に係る疼痛判定装置では、顔面変化情報を、特異値分解・主成分分析・独立成分分析することで得られた複数の成分から判定用成分を抽出するので、装着前に前処理の必要な電極等を使用しなくても、対象者の脳活動の有無を容易に推定できる。これにより、対象者の脳機能に対応する判定用成分に基づいて、対象者における疼痛状態を容易に判定できる。   In the pain determination apparatus according to the first aspect, the determination component is extracted from a plurality of components obtained by performing singular value decomposition, principal component analysis, and independent component analysis on the facial change information. The presence or absence of the subject's brain activity can be easily estimated without using necessary electrodes or the like. Thereby, the pain state in the subject can be easily determined based on the determination component corresponding to the brain function of the subject.

本発明の第2観点に係る疼痛判定装置は、第1観点の疼痛判定装置において、判定用成分抽出部が、脳機能賦活情報に対応する判定用波形と、複数の成分との相関値に基づいて、判定用成分を抽出する。このような構成により、対象者の脳機能に対応する判定用成分を特定することができる。   The pain determination apparatus according to a second aspect of the present invention is the pain determination apparatus according to the first aspect, wherein the determination component extraction unit is based on a correlation waveform between a determination waveform corresponding to brain function activation information and a plurality of components. Thus, the determination component is extracted. With such a configuration, the determination component corresponding to the brain function of the subject can be specified.

本発明の第3観点に係る疼痛判定装置は、第1観点又は第2観点の疼痛判定装置において、脳機能賦活情報提供部が、脳機能賦活情報として、聴覚を刺激する聴覚刺激情報または視覚を刺激する視覚刺激情報を対象者に提供する。聴覚刺激情報または視覚刺激情報を用いることで、疼痛がある状態では相関を有さず、疼痛がない状態では相関を有する構成を実現できる。これにより、脳機能賦活情報による脳機能の賦活が疼痛により阻害されている(マスクされている)か否かで疼痛状態を判定できる。そして、このような構成では、任意のタイミングで聴覚刺激情報または視覚刺激情報を提供するだけで疼痛判定ができるので、簡易な構成で疼痛状態を判定できる。   The pain determination apparatus according to the third aspect of the present invention is the pain determination apparatus according to the first aspect or the second aspect, wherein the brain function activation information providing unit outputs auditory stimulation information or vision for stimulating hearing as brain function activation information. Provide stimulating visual stimulus information to the subject. By using the auditory stimulus information or the visual stimulus information, it is possible to realize a configuration in which there is no correlation when there is pain and there is a correlation when there is no pain. Thereby, the pain state can be determined based on whether or not the activation of the brain function based on the brain function activation information is inhibited (masked) by the pain. And in such a structure, since pain determination can be performed only by providing auditory stimulus information or visual stimulus information at an arbitrary timing, the pain state can be determined with a simple structure.

本発明の第4観点に係る疼痛判定装置は、第1観点から第3観点の疼痛判定装置において、疼痛判定部が、判定用成分の変化量に応じて疼痛状態を判定する。これにより、予め取得された基準からの変化量に応じて、疼痛状態レベルを容易に判定できる。   In the pain determination device according to the fourth aspect of the present invention, in the pain determination device according to the first to third aspects, the pain determination unit determines a pain state according to the amount of change in the determination component. Thereby, according to the variation | change_quantity from the reference | standard acquired previously, a pain state level can be determined easily.

本発明に係る第5観点に係る疼痛判定装置は、第1観点から第4観点の疼痛判定装置において、判定情報記憶部をさらに備える。判定情報記憶部は、脳機能賦活情報に対して算出される判定用成分の相関値の、脳機能賦活情報に対して算出された基準判定用成分の基準相関値からの所定範囲の変化量を、疼痛状態レベルに関連付けて判定情報として記憶する。また、疼痛判定部が、脳機能賦活情報に対する判定用成分の相関値を算出し、算出した相関値及び判定情報に基づいて、対象者の疼痛状態レベルを判定する。このような構成により、予め取得された基準判定用成分を利用して、疼痛状態レベルを容易に判定できる。   The pain determination device according to the fifth aspect of the present invention is the pain determination device according to the first to fourth aspects, further comprising a determination information storage unit. The determination information storage unit calculates the amount of change in a predetermined range of the correlation value of the determination component calculated for the brain function activation information from the reference correlation value of the reference determination component calculated for the brain function activation information. The determination information is stored in association with the pain state level. The pain determination unit calculates a correlation value of the determination component with respect to the brain function activation information, and determines the pain state level of the subject based on the calculated correlation value and determination information. With such a configuration, it is possible to easily determine the pain state level using a reference determination component acquired in advance.

本発明に係る第6観点に係る疼痛判定装置は、第1観点から第5観点の疼痛判定装置において、疼痛判定部が、脳機能賦活情報に対する判定用成分の相関値を算出し、算出した相関値及び判定情報に基づいて、対象者の疼痛状態レベルを判定する。ここでは、ネットワーク上の判定情報提供装置が、脳機能賦活情報に対して算出される判定用成分の相関値の、脳機能賦活情報に対して算出された基準判定用成分の基準相関値からの所定範囲の変化量を、疼痛状態レベルに関連付けて判定情報として記憶する判定情報記憶部を備える。このような構成により、ネットワーク上の判定情報提供装置を利用して、対象者の疼痛状態レベルを判定できる。   The pain determination device according to the sixth aspect of the present invention is the pain determination device according to the first to fifth aspects, wherein the pain determination unit calculates a correlation value of the determination component with respect to the brain function activation information, and calculates the correlation The pain state level of the subject is determined based on the value and the determination information. Here, the determination information providing device on the network calculates the correlation value of the determination component calculated for the brain function activation information from the reference correlation value of the reference determination component calculated for the brain function activation information. A determination information storage unit that stores the amount of change in the predetermined range as determination information in association with the pain state level. With such a configuration, it is possible to determine the pain state level of the subject using the determination information providing apparatus on the network.

本発明に係る第7観点に係る疼痛判定装置は、第1観点から第6観点の疼痛判定装置において、脳機能賦活情報提供部及び顔面変化情報取得部が、ヘルメット型の装置に組み込まれるものである。このような構成により、信頼性の高い顔面変化情報を取得でき、信頼性の高い疼痛判定を容易に実現できる。   The pain determination device according to the seventh aspect of the present invention is the pain determination device according to the first to sixth aspects, wherein the brain function activation information providing unit and the face change information acquiring unit are incorporated in a helmet-type device. is there. With such a configuration, highly reliable face change information can be acquired, and highly reliable pain determination can be easily realized.

本発明の第8観点に係る薬剤効果判定装置は、顔面変化情報取得部と、顔面変化情報分解部と、判定用成分抽出部と、薬剤効果判定部と、を備える。顔面変化情報取得部は、薬剤が投与された対象者の顔面データの時系列変化を示す顔面変化情報を取得する。顔面変化情報分解部は、顔面変化情報を、特異値分解、主成分分析或いは独立成分分析により複数の成分に分解する。判定用成分抽出部は、複数の成分から、薬剤が投与されたことに関連する成分を判定用成分として抽出する。薬剤効果判定部は、判定用成分抽出部による抽出結果に基づいて、薬剤の効果を判定する。   A drug effect determination device according to an eighth aspect of the present invention includes a face change information acquisition unit, a face change information decomposition unit, a determination component extraction unit, and a drug effect determination unit. The face change information acquisition unit acquires face change information indicating a time-series change of the face data of the subject to whom the medicine is administered. The face change information decomposing unit decomposes the face change information into a plurality of components by singular value decomposition, principal component analysis, or independent component analysis. The determination component extraction unit extracts, as a determination component, a component related to the administration of the drug from a plurality of components. The drug effect determination unit determines the effect of the drug based on the extraction result by the determination component extraction unit.

第8観点に係る薬剤効果判定装置では、顔面変化情報を、特異値分解・主成分分析・独立成分分析することで得られた複数の成分から判定用成分を抽出するので、装着前に前処理の必要な電極等を使用しなくても、対象者の脳活動の有無を容易に推定できる。これにより、薬剤が投与された対象者の脳機能に対応する判定用成分に基づいて、対象者における薬剤の効果を容易に判定できる。   In the drug effect determination apparatus according to the eighth aspect, the determination component is extracted from a plurality of components obtained by performing singular value decomposition, principal component analysis, and independent component analysis on the face change information, so that pre-processing before wearing Therefore, the presence or absence of the brain activity of the subject can be easily estimated without using the necessary electrodes. Thereby, based on the determination component corresponding to the brain function of the subject to whom the drug is administered, the effect of the drug on the subject can be easily determined.

本発明の第9観点に係る薬剤効果判定装置は、第8観点の薬剤効果判定装置において、判定用成分抽出部が、薬剤が投与されたことに対応する判定用波形と複数の成分との相関値に基づいて判定用成分を抽出する。このような構成により、対象者の脳機能に対応する判定用成分を特定することができる。   The drug effect determination device according to a ninth aspect of the present invention is the drug effect determination device according to the eighth aspect, wherein the determination component extraction unit correlates a determination waveform corresponding to the administration of the drug and a plurality of components. A determination component is extracted based on the value. With such a configuration, the determination component corresponding to the brain function of the subject can be specified.

本発明の第10観点に係る薬剤効果判定装置は、第8観点又は第9観点の薬剤効果判定装置において、薬剤効果判定部が、判定用成分の時系列変化に応じて薬剤の効果を判定する。これにより、予め取得された基準からの変化量に応じて、薬剤効果レベルを容易に判定できる。   The drug effect determination device according to a tenth aspect of the present invention is the drug effect determination device according to the eighth aspect or the ninth aspect, wherein the drug effect determination unit determines the effect of the drug according to the time-series change of the determination component. . Accordingly, the drug effect level can be easily determined according to the amount of change from the reference acquired in advance.

本発明に係る第11観点に係る薬剤効果判定装置は、第8観点から第10観点の薬剤効果判定装置において、判定情報記憶部をさらに備える。判定情報記憶部は、薬剤が投与されてから所定時間経過後の、薬剤が投与されたことに対して算出される判定用成分の相関値の、基準値に対する変化量を、薬剤効果レベルに関連付けて判定情報として記憶する。また、薬剤効果判定部が、薬剤が投与されたことに対する判定用成分の相関値を算出し、算出した相関値及び判定情報に基づいて、対象者に対する薬剤効果レベルを判定する。このような構成により、予め取得された基準値を利用して、薬剤効果レベルを容易に判定できる。   The drug effect determination device according to the eleventh aspect of the present invention is the drug effect determination device according to the eighth to tenth aspects, further comprising a determination information storage unit. The determination information storage unit associates the change amount of the correlation value of the determination component calculated for the administration of the drug after the predetermined time has elapsed with respect to the reference value after the drug has been administered, with the drug effect level. And stored as determination information. In addition, the drug effect determination unit calculates a correlation value of the determination component with respect to the administration of the drug, and determines a drug effect level for the subject based on the calculated correlation value and determination information. With such a configuration, the drug effect level can be easily determined using a reference value acquired in advance.

本発明に係る第12観点に係る薬剤効果判定装置は、第11観点の薬剤効果判定装置において、薬剤効果レベルに応じて、対象者に投与する薬剤の投与量を算出する投与量算出部をさらに備える。このような構成により、対象者に対して適切な薬剤の投与が可能となる。   The drug effect determination device according to a twelfth aspect of the present invention is the drug effect determination device according to the eleventh aspect, further comprising a dose calculation unit that calculates the dose of the drug to be administered to the subject according to the drug effect level. Prepare. With such a configuration, an appropriate drug can be administered to the subject.

本発明に係る第13観点に係る薬剤効果判定装置は、第8観点から第12観点の薬剤効果判定装置において、薬剤効果判定部が、薬剤が投与されたことに対する判定用成分の相関値を算出し、算出した相関値及び判定情報に基づいて、対象者に対する薬剤効果レベルを判定する。ここでは、ネットワーク上の判定情報提供装置が、薬剤が投与されてから所定時間経過後の、薬剤が投与されたことに対して算出される判定用成分の相関値の、基準値からの変化量を、薬剤効果レベルに関連付けて判定情報として記憶する判定情報記憶部を備える。このような構成により、ネットワーク上の判定情報提供装置を利用して、対象者の薬剤効果レベルを判定できる。   The drug effect determination device according to the thirteenth aspect of the present invention is the drug effect determination device according to the eighth to twelfth aspects, wherein the drug effect determination unit calculates a correlation value of the determination component with respect to the administration of the drug. Then, based on the calculated correlation value and determination information, the drug effect level for the subject is determined. Here, the amount of change from the reference value of the correlation value of the determination component calculated for the administration of the drug after a predetermined time has elapsed since the determination information providing apparatus on the network has been administered. Is stored as determination information in association with the drug effect level. With such a configuration, the drug effect level of the subject can be determined using the determination information providing apparatus on the network.

本発明に係る第14観点に係る薬剤効果判定装置は、第13観点の薬剤効果判定装置において、薬剤効果判定部が、判定情報に基づいて、薬剤効果レベル及び薬剤の投与量を判定する。ただし、判定情報提供装置が、判定情報として、薬剤効果レベルに関連付けて、薬剤の投与量をさらに記憶している。このような構成により、対象者に対して適切な薬剤の投与が可能となる。また、薬剤効果判定装置の構成を簡易化することができる。   In the drug effect determination device according to the fourteenth aspect of the present invention, in the drug effect determination device according to the thirteenth aspect, the drug effect determination unit determines the drug effect level and the dose of the drug based on the determination information. However, the determination information providing apparatus further stores the dose of the drug in association with the drug effect level as the determination information. With such a configuration, an appropriate drug can be administered to the subject. In addition, the configuration of the drug effect determination device can be simplified.

第1観点に係る疼痛判定装置では、対象者の脳機能に対応する判定用成分に基づいて、対象者における疼痛状態を容易に判定できる。   In the pain determination apparatus according to the first aspect, the pain state in the subject can be easily determined based on the determination component corresponding to the brain function of the subject.

第2観点に係る疼痛判定装置では、対象者の脳機能に対応する判定用成分を特定することができる。   In the pain determination apparatus according to the second aspect, a determination component corresponding to the brain function of the subject can be specified.

第3観点に係る疼痛判定装置では、簡易な構成で疼痛状態を判定できる。   In the pain determination apparatus according to the third aspect, the pain state can be determined with a simple configuration.

第4観点に係る疼痛判定装置では、疼痛状態レベルを容易に判定できる。   In the pain determination device according to the fourth aspect, the pain state level can be easily determined.

第5観点に係る疼痛判定装置では、疼痛状態レベルを容易に判定できる。   In the pain determination device according to the fifth aspect, the pain state level can be easily determined.

第6観点に係る疼痛判定装置では、ネットワーク上の判定情報提供装置を利用して、対象者の疼痛状態レベルを判定できる。   In the pain determination device according to the sixth aspect, the pain state level of the subject can be determined using the determination information providing device on the network.

第7観点に係る疼痛判定装置では、信頼性の高い疼痛判定を容易に実現できる。   The pain determination device according to the seventh aspect can easily realize highly reliable pain determination.

第8観点に係る薬剤効果判定装置では、薬剤が投与された対象者の脳機能に対応する判定用成分に基づいて、対象者における薬剤の効果を容易に判定できる。   In the drug effect determination device according to the eighth aspect, the effect of the drug on the subject can be easily determined based on the determination component corresponding to the brain function of the subject to whom the drug is administered.

第9観点に係る薬剤効果判定装置では、対象者の脳機能に対応する判定用成分を特定することができる。   In the drug effect determination device according to the ninth aspect, the determination component corresponding to the brain function of the subject can be specified.

第10観点に係る薬剤効果判定装置では、薬剤効果レベルを容易に判定できる。   In the drug effect determination device according to the tenth aspect, the drug effect level can be easily determined.

第11観点に係る薬剤効果判定装置では、薬剤効果レベルを容易に判定できる。   In the drug effect determination device according to the eleventh aspect, the drug effect level can be easily determined.

第12観点に係る薬剤効果判定装置では、対象者に対して適切な薬剤の投与が可能となる。   In the drug effect determination device according to the twelfth aspect, an appropriate drug can be administered to the subject.

第13観点に係る薬剤効果判定装置では、ネットワーク上の判定情報提供装置を利用して、対象者の薬剤効果レベルを判定できる。   In the drug effect determination device according to the thirteenth aspect, the drug effect level of the target person can be determined using the determination information providing device on the network.

第14観点に係る薬剤効果判定装置では、対象者に対して適切な薬剤の投与が可能となる。   In the drug effect determination device according to the fourteenth aspect, an appropriate drug can be administered to the subject.

撮影画像データ及びこれを解析した結果の一例を示す図。The figure which shows an example of picked-up image data and the result of having analyzed this. 顔面皮膚温度データを解析した結果の一部を示す図。The figure which shows a part of result of having analyzed facial skin temperature data. 顔面皮膚温度データを解析した結果の一部を示す図。The figure which shows a part of result of having analyzed facial skin temperature data. 成分2の成分波形の振幅と、測定された脳波のうちのβ波の振幅とを示す図。The figure which shows the amplitude of the component waveform of the component 2, and the amplitude of (beta) wave among the measured brain waves. 成分3の成分波形の振幅と、測定された脳波のうちのβ波の振幅とを示す図。The figure which shows the amplitude of the component waveform of the component 3, and the amplitude of (beta) wave among the measured brain waves. 対照実験で得られた顔面皮膚温度データを解析した結果の一部を示す図。The figure which shows a part of result of having analyzed the facial skin temperature data obtained by the control experiment. 顔面の撮影画像データに基づく成分波形と、測定された脳波のうちのβ波の振幅とを示す図。The figure which shows the component waveform based on the picked-up image data of a face, and the amplitude of (beta) wave among the measured brain waves. 顔面皮膚温度データに基づく成分波形と、測定された脳波のうちのβ波の振幅とを示す図。The figure which shows the component waveform based on facial skin temperature data, and the amplitude of (beta) wave among the measured brain waves. 顔面の撮影画像データに基づく成分波形と、測定された脳波のうちのβ波の振幅とを示す図。The figure which shows the component waveform based on the picked-up image data of a face, and the amplitude of (beta) wave among the measured brain waves. 顔面皮膚温度データに基づく成分波形と、測定された脳波のうちのβ波の振幅とを示す図。The figure which shows the component waveform based on facial skin temperature data, and the amplitude of (beta) wave among the measured brain waves. 顔面の撮影画像データに基づく成分波形と、測定された脳波のうちのβ波の振幅とを示す図。The figure which shows the component waveform based on the picked-up image data of a face, and the amplitude of (beta) wave among the measured brain waves. 顔面皮膚温度データに基づく成分波形と、測定された脳波のうちのβ波の振幅とを示す図。The figure which shows the component waveform based on facial skin temperature data, and the amplitude of (beta) wave among the measured brain waves. 顔面の撮影画像データに基づく成分波形と、測定された脳波のうちのβ波の振幅とを示す図。The figure which shows the component waveform based on the picked-up image data of a face, and the amplitude of (beta) wave among the measured brain waves. 顔面皮膚温度データに基づく成分波形と、測定された脳波のうちのβ波の振幅とを示す図。The figure which shows the component waveform based on facial skin temperature data, and the amplitude of (beta) wave among the measured brain waves. 顔面の撮影画像データに基づく成分波形と、測定された脳波のうちのβ波の振幅とを示す図。The figure which shows the component waveform based on the picked-up image data of a face, and the amplitude of (beta) wave among the measured brain waves. 顔面皮膚温度データに基づく成分波形と、測定された脳波のうちのβ波の振幅とを示す図。The figure which shows the component waveform based on facial skin temperature data, and the amplitude of (beta) wave among the measured brain waves. 顔面の撮影画像データに基づく成分波形と、測定された脳波のうちのβ波の振幅とを示す図。The figure which shows the component waveform based on the picked-up image data of a face, and the amplitude of (beta) wave among the measured brain waves. 顔面皮膚温度データに基づく成分波形と、測定された脳波のうちのβ波の振幅とを示す図。The figure which shows the component waveform based on facial skin temperature data, and the amplitude of (beta) wave among the measured brain waves. 本発明の一実施形態に係る脳活動可視化装置の概略図。1 is a schematic diagram of a brain activity visualization apparatus according to an embodiment of the present invention. 脳活動可視化装置において脳機能を反映した皮膚温度の変化を示す成分を同定する際の処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of a process at the time of identifying the component which shows the change of the skin temperature which reflected the brain function in the brain activity visualization apparatus. 本発明の一実施形態に係る脳活動可視化装置の概略図。1 is a schematic diagram of a brain activity visualization apparatus according to an embodiment of the present invention. 脳活動可視化装置において脳機能を反映した顔面のRGB変化を示す成分を同定する際の処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of a process at the time of identifying the component which shows the RGB change of the face reflecting a brain function in a brain activity visualization apparatus. 本発明の一実施形態に係る疼痛判定装置の構成を示す模式図。The schematic diagram which shows the structure of the pain determination apparatus which concerns on one Embodiment of this invention. 疼痛判定装置の判定情報データベースの構成を示す模式図。The schematic diagram which shows the structure of the determination information database of a pain determination apparatus. レッドスポット・ダイナミック・レスポンス・ファンクションの波形の一例を示す模式図。The schematic diagram which shows an example of the waveform of a red spot dynamic response function. 疼痛判定装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a pain determination apparatus. 疼痛判定装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a pain determination apparatus. 疼痛判定装置の変形例の構成を示す模式図。The schematic diagram which shows the structure of the modification of a pain determination apparatus. 本発明の一実施形態に係る薬剤効果判定装置の構成を示す模式図。The schematic diagram which shows the structure of the chemical | medical agent effect determination apparatus which concerns on one Embodiment of this invention. 薬剤効果判定装置の判定情報データベースの構成を示す模式図。The schematic diagram which shows the structure of the determination information database of a chemical | medical agent effect determination apparatus. 薬剤効果判定装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a chemical | medical agent effect determination apparatus. 薬剤効果判定装置の判定情報データベースの構成を示す模式図。The schematic diagram which shows the structure of the determination information database of a chemical | medical agent effect determination apparatus. 薬剤効果判定の検証結果を示す図。The figure which shows the verification result of a medicine effect determination. 薬剤効果判定の検証結果を示す図。The figure which shows the verification result of a medicine effect determination.

本発明の実施形態を説明する前に、まず、本発明者らが本発明を為すにあたって重要な基礎となった、本発明者らによる知見について説明する。   Before describing the embodiments of the present invention, first, the knowledge obtained by the present inventors, which is an important basis for the inventors of the present invention, will be described.

(1)本発明者らによる知見の要点
人間の脳活動には、人間の知的活動(認知活動等)及び情動活動(快/不快等の活動)が反映されていることが知られている。そして、従来より、人間の脳活動を推定する試みがされているが、この場合、脳波計測法、磁気共鳴画像法及び近赤外線分光法のいずれかの方法によって検出されたデータが利用されることが多い。
(1) Key points of knowledge by the present inventors It is known that human brain activities reflect human intellectual activities (cognitive activities, etc.) and emotional activities (activity such as pleasure / discomfort). . Conventionally, attempts have been made to estimate human brain activity. In this case, data detected by any one of the electroencephalography, magnetic resonance imaging, and near-infrared spectroscopy is used. There are many.

ここで、検出方法として、例えば、脳波計測法が採用される場合には、被験者に対して脳波電極を装着する必要がある。そして、脳波電極を装着する際には皮膚と電極との間の抵抗を小さくする必要があるため、皮膚を研磨する処理を行ったり電極にペーストを塗布したりする等の作業が必要になる。また、磁気共鳴画像法が採用される場合には、MRI室以外での測定が不可能であるとともに、測定室内に金属を持ち込むことができない等の測定条件に制約がある。さらに、近赤外線分光法が採用される場合には、被験者に対してプローブを装着する必要があるが、プローブを長時間装着することで被験者が痛みを感じたり、被験者の髪とプローブとの接触具合によっては正確に検出できなかったりすることがある。このように、人間の脳活動を測定するために従来の検出方法が採用される場合、脳波電極やプローブ等を装着する際の前処理が必要であったり、測定条件が限定されたりする等、被験者に与える負担が大きくなる。   Here, for example, when an electroencephalogram measurement method is employed as the detection method, it is necessary to attach an electroencephalogram electrode to the subject. And when attaching an electroencephalogram electrode, since it is necessary to make resistance between skin and an electrode small, the process of grind | polishing the skin or apply | coating a paste to an electrode is needed. In addition, when magnetic resonance imaging is adopted, there are restrictions on measurement conditions such as that measurement outside the MRI room is impossible and metal cannot be brought into the measurement room. Furthermore, when near-infrared spectroscopy is used, it is necessary to wear a probe on the subject. However, if the probe is worn for a long time, the subject feels pain or the subject's hair contacts the probe. Depending on the condition, it may not be detected accurately. In this way, when a conventional detection method is adopted to measure human brain activity, pre-processing when wearing an electroencephalogram electrode or a probe is necessary, measurement conditions are limited, etc. The burden on the subject increases.

したがって、被験者の負担を軽減し、かつ簡便に人間の脳活動を推定できる手段の開発が求められている。   Therefore, there is a need for development of means that can reduce the burden on the subject and can easily estimate human brain activity.

そして、本発明者らは、人間の顔面の皮膚温度又は顔面の皮膚温度に比例すると考えられている顔面の血行状態に基づき人間の脳活動を推定することができるのではないか、と考えた。人間の顔面の皮膚温度であればサーモグラフィ等の測定装置を用いることで取得することができ、顔面の血行状態すなわち顔面の血行量であれば撮影装置を利用して得られる顔面の撮影画像のRGBデータから推定することができる。このように、顔面の皮膚温度や顔面の撮影画像であれば、脳波電極やプローブ等の装着前に処理が必要なセンサを装着することなく取得することができる。   And the present inventors thought that human brain activity could be estimated based on the blood circulation state of the face that is considered to be proportional to the skin temperature of the human face or the skin temperature of the face. . If it is the skin temperature of the human face, it can be obtained by using a measuring device such as a thermography, and if the blood circulation state of the face, that is, the blood circulation amount of the face, RGB of the captured image of the face obtained using the imaging device It can be estimated from the data. As described above, a facial skin temperature or a photographed image of a face can be acquired without wearing a sensor that requires processing before wearing an electroencephalogram electrode or a probe.

一方で、人間の顔面の皮膚温度は、外気温度及び/又は自律神経の活動等の様々な要因の影響を受けて変化することが知られている。このため、顔面の皮膚温度に基づいて又は顔面の皮膚温度に比例すると考えられる顔面の血行量に基づいて脳活動を推定しようとすると、取得したデータが脳活動のみを反映しているかどうかを判断することは、非常に困難であると考えられる。   On the other hand, it is known that the skin temperature of a human face changes under the influence of various factors such as the outside air temperature and / or autonomic nerve activity. Therefore, when trying to estimate brain activity based on facial skin temperature or based on facial blood flow, which is considered to be proportional to facial skin temperature, it is determined whether the acquired data reflects only brain activity. It seems to be very difficult to do.

本発明者らは、鋭意検討した結果、顔面の皮膚温度を検出し、検出した温度データ及び検出部位の位置データ(座標データ)を含む時系列の顔面皮膚温度データを、或いは、時系列の顔面の撮影画像データから得られるRGBデータに基づき算出された時系列の顔面の血行量データを、特異値分解法、主成分分析法若しくは独立成分分析法を用いて複数の成分に分解し、分解した複数の成分について解析を行うことで、脳活動を反映した顔面の皮膚温度の変化或いは顔面の血行量の変化を示す成分を同定することができることを見いだした。そして、本発明者らは、対象者の脳活動を推定し、これを解析することで、推定した脳活動に基づき対象者の生理状態を可視化することのできる本発明に到達した。   As a result of intensive studies, the present inventors have detected the skin temperature of the face, time-series facial skin temperature data including detected temperature data and position data (coordinate data) of the detected part, or time-series face Time-series facial blood flow data calculated based on RGB data obtained from the captured image data was decomposed into multiple components using the singular value decomposition method, principal component analysis method, or independent component analysis method, and decomposed. By analyzing a plurality of components, it was found that components showing changes in facial skin temperature or facial blood flow reflecting brain activity can be identified. The inventors of the present invention have arrived at the present invention that can visualize the subject's physiological state based on the estimated brain activity by estimating and analyzing the subject's brain activity.

(2)顔面の各種データの取得方法、及び取得した各種データの解析方法
(2−1)顔面皮膚温度データの取得方法、及び顔面皮膚温度データの解析方法
次に、本発明者らが上記の知見を得るに際して用いた顔面皮膚温度データの取得方法、及び顔面皮膚温度データの解析方法について説明する。
(2) Method for acquiring various facial data, and method for analyzing various acquired data (2-1) Method for acquiring facial skin temperature data, and method for analyzing facial skin temperature data Next, the inventors described above A method of acquiring facial skin temperature data and a method of analyzing facial skin temperature data used for obtaining knowledge will be described.

この試験では、6名の被験者から顔面皮膚温度データを取得した。具体的には、室温25℃を維持した人工気象室内に設置した椅子に被験者を座らせて、赤外線サーモグラフィ装置を用いて、被験者の顔面全体から顔面皮膚温度データを取得した。赤外線サーモグラフィ装置は、対象物から出ている赤外線放射エネルギーを赤外線カメラで検出し、検出した赤外線放射エネルギーを対象物表面の温度(ここでは、摂氏での温度)に変換して、その温度分布を顔面皮膚温度データ(例えば、温度分布を表した画像データ)として表示、蓄積することが可能な装置である。なお、この試験では、赤外線サーモグラフィ装置として、NEC Avio 赤外線テクノロジー株式会社製のR300を使用した。また、赤外線カメラは、被験者の正面であって、被験者から1.5m離れた地点に設置した。そして、顔面皮膚温度データは、30分間取得した。   In this test, facial skin temperature data was obtained from six subjects. Specifically, the subject was seated on a chair installed in an artificial weather room maintained at a room temperature of 25 ° C., and facial skin temperature data was obtained from the entire face of the subject using an infrared thermography device. The infrared thermography device detects the infrared radiation energy emitted from the object with an infrared camera, converts the detected infrared radiation energy into the temperature of the object surface (in this case, the temperature in degrees Celsius), and converts the temperature distribution. It is a device that can display and accumulate as facial skin temperature data (for example, image data representing a temperature distribution). In this test, NEC Avio Infrared Technology Co., Ltd. R300 was used as an infrared thermography apparatus. The infrared camera was installed in front of the subject at a point 1.5 m away from the subject. The facial skin temperature data was acquired for 30 minutes.

また、この試験では、顔面皮膚温度データを取得している間に、被験者に対して脳機能賦活課題を与えた。これにより、脳の非賦活時の顔面皮膚温度データ、及び脳の賦活時の顔面皮膚温度データを取得した。脳機能賦活課題としては、被験者が表示装置等に表示された映像に基づいて、計算、又は、数値、形状及び色の認知、或いは、記号、文字ないし言語の記憶などの心理的作業が挙げられる。この試験では、脳機能賦活課題として「かけ算の暗算」を採用し、被験者に、表示装置に筆算形式で表示される数字を計算させ、その回答をキーボードに入力させる作業を課した。なお、この試験では、顔面皮膚温度データの取得開始から5分経過後から10分間継続して、被験者に対して脳機能賦活課題を与えた。   In this test, a brain function activation task was given to the subject while acquiring facial skin temperature data. As a result, facial skin temperature data when the brain was not activated and facial skin temperature data when the brain was activated were acquired. Examples of the brain function activation task include calculation or recognition of numerical values, shapes and colors, or psychological work such as memory of symbols, characters or languages based on the image displayed on the display device or the like by the subject. . In this test, “Mental calculation of multiplication” was adopted as a brain function activation task, and subjects were asked to calculate numbers displayed in a writing format on the display device and to input the answers to the keyboard. In this test, a brain function activation task was given to the subject continuously for 10 minutes after the start of acquisition of facial skin temperature data for 5 minutes.

顔面皮膚温度データの解析としては、取得した顔面皮膚温度データを対象として、MATLAB(登録商標)のSVD(Singular Value Decomposition)を分析ツールとして用いて特異値分解を行った。特異値分解では、時系列で取得した全ての顔面皮膚温度データ(30分間のデータ)を対象とし、要因を30秒毎の時間データ(30分間で60 time point)とし、測度をその期間(30秒間)における顔面皮膚温度データ(240×320 pixels)とした。そして、特異値分解により、顔面皮膚温度データXを、複数の成分に分解し、それぞれの成分の時間分布Vと、空間分布Uと、各成分の大きさを示す特異値Sとを算出した。なお、これらの関係は、以下の式で表される。また、V’は、Vの行と列とを入れ替えた行列である。   For analysis of facial skin temperature data, singular value decomposition was performed on the acquired facial skin temperature data using SVLAB (Singular Value Decomposition) of MATLAB (registered trademark) as an analysis tool. In singular value decomposition, all facial skin temperature data (data for 30 minutes) acquired in time series are targeted, the factor is time data every 30 seconds (60 time points in 30 minutes), and the measure is the period (30 Second) facial skin temperature data (240 × 320 pixels). Then, the facial skin temperature data X was decomposed into a plurality of components by singular value decomposition, and a temporal distribution V of each component, a spatial distribution U, and a singular value S indicating the size of each component were calculated. These relationships are expressed by the following equations. V ′ is a matrix in which the rows and columns of V are exchanged.

そして、特異値分解によって求められた各成分の時間分布V及び空間分布Uをグラフにプロットし、各成分の成分波形図と温度分布図とを作成した。   And the time distribution V and the spatial distribution U of each component calculated | required by the singular value decomposition were plotted on the graph, and the component waveform diagram and temperature distribution diagram of each component were created.

さらに、作成した各成分の成分波形図及び温度分布図について、脳活動を反映した皮膚温度の変化を示す成分を同定するための解析を行った。   Furthermore, the analysis for identifying the component which shows the change of the skin temperature reflecting brain activity was performed about the created component waveform diagram and temperature distribution diagram of each component.

各成分の成分波形図については、その成分波形の振幅と、脳の非賦活時及び脳の賦活時との相関関係の有無について解析した。具体的には、各成分の成分波形図に示された振幅と、脳の非賦活期間/脳の賦活期間との間に相関関係があるか否かを評価した。この試験では、顔面皮膚温度データを取得している期間のうち、被験者に対して脳機能賦活課題が与えられていない期間であるデータ取得開始時点から5分が経過した時点までの5分間の期間、及びデータ取得開始時から15分が経過した時点からデータ取得終了時点までの15分間の期間を脳の非賦活時とし、被験者に対して脳機能賦活課題が与えられている期間であるデータ取得開始時から5分が経過した時点から10分が経過した時点までの10分間の期間を脳の賦活時とした。そして、各成分の成分波形図に示された振幅と、脳の非賦活時及び脳の賦活時との相関関係の有無について評価した。なお、相関関係の有無については、統計的相関分析を行い、有意水準(α)が0.05以下の場合に相関があると判断した。   About the component waveform figure of each component, it analyzed about the presence or absence of the correlation of the amplitude of the component waveform, and the time of brain non-activation and the time of brain activation. Specifically, it was evaluated whether there was a correlation between the amplitude shown in the component waveform diagram of each component and the brain non-activation period / brain activation period. In this test, among the period of acquiring facial skin temperature data, a period of 5 minutes from the start of data acquisition, which is a period during which no brain function activation task is given to the subject, Data acquisition is a period in which a brain function activation task is given to a subject, with a period of 15 minutes from the time when 15 minutes have elapsed from the start of data acquisition to the end of data acquisition being the non-activation time of the brain The period of 10 minutes from the time when 5 minutes passed from the start to the time when 10 minutes passed was defined as the time of brain activation. Then, the presence or absence of a correlation between the amplitude shown in the component waveform diagram of each component and the time of brain non-activation and the time of brain activation was evaluated. In addition, about the presence or absence of correlation, statistical correlation analysis was conducted and it was judged that there was a correlation when a significance level ((alpha)) is 0.05 or less.

各成分の温度分布図については、顔面の所定部位における温度変化の有無について解析した。ここで、脳には、選択的脳冷却機構(Selective Brain Cooling System)という体温とは独立して脳を冷却する仕組みがある。選択的脳冷却機構としては、脳活動によって生じた熱を前額部及び副鼻腔周辺(眉間及び鼻部周辺を含む)を用いて排熱していることが知られている。そこで、この試験では、各成分の温度分布図において、副鼻腔周辺及び前額部における温度変化があるか否かを評価した。なお、温度分布図における副鼻腔周辺及び前額部の温度変化の有無については、目視(visual inspection)による温度変化の有無、もしくは副鼻腔周辺及び前額部の温度が測定データ全体の平均温度から1標準偏差(SD)以上異なるか否かを温度変化の有無の基準とした。   Regarding the temperature distribution chart of each component, the presence or absence of temperature change at a predetermined part of the face was analyzed. Here, the brain has a mechanism called a selective brain cooling system that cools the brain independently of the body temperature. As a selective brain cooling mechanism, it is known that the heat generated by the brain activity is exhausted using the forehead and the sinuses (including the eyebrows and the nose). Therefore, in this test, it was evaluated whether or not there was a temperature change around the sinuses and the forehead in the temperature distribution chart of each component. In addition, regarding the presence or absence of temperature changes around the sinuses and the forehead in the temperature distribution chart, the presence or absence of temperature changes by visual inspection, or the temperature around the sinuses and the forehead is determined from the average temperature of the entire measurement data. Whether there was a difference of 1 standard deviation (SD) or more was used as a reference for the presence or absence of temperature change.

なお、空間分布U、特異値S及び時間分布Vの値の関係で、顔面皮膚温度データXの極性(プラスマイナス)が決定するため、各成分の成分波形図及び温度分布図において極性が反転して現れることがある。このため、成分波形図及び温度分布図の評価に関して、極性については評価対象としないこととした。   Since the polarity (plus or minus) of the facial skin temperature data X is determined by the relationship between the spatial distribution U, the singular value S, and the time distribution V, the polarity is inverted in the component waveform diagram and temperature distribution diagram of each component. May appear. For this reason, regarding the evaluation of the component waveform diagram and the temperature distribution diagram, the polarity is not considered as an evaluation target.

ここで、この赤外線サーモグラフィ装置では、上述しているように、対象物から検出された赤外線放射エネルギーを温度に変換して、その温度分布を顔面皮膚温度データとしている。ところで、人間を対象として赤外線サーモグラフィ装置を用いて顔面の皮膚温度を取得する場合、顔面の動き及び/又は自律神経の活動等の様々な脳活動とは関連しない温度変化(いわゆるノイズ)についても顔面皮膚温度データとして取得してしまう(図1(a)参照)。そこで、このような脳活動とは関連しない温度変化を検出するために、30秒毎の顔面皮膚温度データに含まれる温度データの全平均値を「0」とした相対的な顔面皮膚温度データを作成し、作成した顔面皮膚温度データについても、MATLAB(登録商標)のSVDを分析ツールとして用いて特異値分解を行い、特異値Sに応じた各成分の成分波形図と温度分布図とを作成し、脳活動を反映した皮膚温度の変化を示す成分を同定するための解析を行った。   Here, in this infrared thermography apparatus, as described above, infrared radiation energy detected from an object is converted into temperature, and the temperature distribution is used as facial skin temperature data. By the way, when the skin temperature of the face is acquired by using an infrared thermography apparatus for human subjects, temperature changes (so-called noise) that are not related to various brain activities such as facial movement and / or autonomic nerve activity are also faced. It is acquired as skin temperature data (see FIG. 1A). Therefore, in order to detect such a temperature change not related to the brain activity, relative facial skin temperature data in which the total average value of the temperature data included in the facial skin temperature data every 30 seconds is “0” is calculated. The facial skin temperature data created is also subjected to singular value decomposition using the MATLAB® SVD as an analysis tool, and a component waveform diagram and temperature distribution diagram of each component according to the singular value S are created. Then, an analysis was performed to identify a component showing a change in skin temperature reflecting brain activity.

なお、以下より、説明の便宜上、赤外線サーモグラフィ装置で取得した顔面皮膚温度データを「温度換算データに応じた顔面皮膚温度データ」といい、所定時間毎(この試験では30秒毎)の温度換算データに応じた顔面皮膚温度データに含まれる温度データの全平均値を「0」とした相対的な顔面皮膚温度データを「相対温度換算データに応じた顔面皮膚温度データ」という。   In the following, for convenience of explanation, the facial skin temperature data acquired by the infrared thermography device is referred to as “facial skin temperature data according to the temperature converted data”, and the temperature converted data every predetermined time (in this test every 30 seconds). The relative facial skin temperature data in which the total average value of the temperature data included in the facial skin temperature data corresponding to “0” is “0” is referred to as “facial skin temperature data according to relative temperature conversion data”.

また、6名の被験者のうちの1名に対しては、赤外線サーモグラフィ装置による顔面皮膚温度の検出の他に、被験者の頭皮上に電極を接続して脳波を測定し、覚醒時や意識が緊張した時に現れる波形として知られているβ波(14〜30Hzの周波数の脳波)の振幅と、成分波形図の振幅との間の相関関係についても評価した。なお、脳波測定では、国際式10−20法に基づき、6つの部位(F3、F4,C3、C4、Cz、Pz)に電極を配置した。   For one of the six subjects, in addition to detecting the facial skin temperature using an infrared thermography device, electrodes were connected to the subject's scalp to measure brain waves, and during wakefulness and consciousness became tense. The correlation between the amplitude of the β wave (the brain wave having a frequency of 14 to 30 Hz), which is known as the waveform appearing at the time, and the amplitude of the component waveform diagram was also evaluated. In the electroencephalogram measurement, electrodes were arranged at six parts (F3, F4, C3, C4, Cz, Pz) based on the international method 10-20.

ところで、被験者に脳機能賦活課題が与えられている間、被験者の頭が上下に動くことが考えられる。そうすると、赤外線カメラに対する被験者の顔面の位置が変化することになる。この顔面の位置の変化が皮膚温度の変化に影響しているか否かを検証するために、被験者1名に対して対照試験を行った。顔面皮膚温度データを取得する際の被験者の動きの影響を検証するための対照試験では、上記試験と同様に赤外線サーモグラフィ装置を用いて被験者の顔面皮膚温度データを取得するが、脳機能賦活課題が与えられていない間(すなわち、脳の非賦活時)についてもランダムなタイミングでキーボードを押す作業を被験者に課した。この対照実験によって得られた温度換算データに応じた顔面皮膚温度データ及び相対温度換算データに応じた顔面皮膚温度データについても、MATLAB(登録商標)のSVDを分析ツールとして用いて特異値分解を行い、特異値Sに応じた各成分の成分波形図と温度分布図とを作成し、脳活動を反映した皮膚温度の変化を示す成分を同定するための解析を行った。   By the way, it is conceivable that the subject's head moves up and down while the subject is given a brain function activation task. Then, the position of the subject's face with respect to the infrared camera changes. In order to verify whether or not the change in the position of the face affects the change in the skin temperature, a control test was performed on one subject. In the control test to verify the influence of the subject's movement when acquiring the facial skin temperature data, the facial skin temperature data of the subject is acquired using the infrared thermography device as in the above test, but the brain function activation task is The subject was forced to press the keyboard at random times even when it was not given (ie, when the brain was not activated). The facial skin temperature data according to the temperature conversion data obtained by the control experiment and the facial skin temperature data according to the relative temperature conversion data are also subjected to singular value decomposition using the MATLAB® SVD as an analysis tool. Then, a component waveform diagram and a temperature distribution diagram of each component according to the singular value S were created, and an analysis for identifying a component showing a change in skin temperature reflecting brain activity was performed.

(2−2)顔面撮影画像データの取得方法、及び顔面撮影画像データの解析方法
図1(a)は、撮影装置にて撮影した被験者の顔面の副鼻腔周辺の撮影画像データの一例を示す図である。図1(b)は、血行量分布図(画像マップ)の一例を示す図である。
(2-2) Method for Acquiring Face Shooting Image Data and Method for Analyzing Face Shooting Image Data FIG. 1A is a diagram showing an example of shooting image data around the paranasal sinuses of a subject's face taken by a photographing device. It is. FIG. 1B is a diagram illustrating an example of a blood flow distribution map (image map).

次に、本発明者らが上記の知見を得るに際して用いた顔面撮影画像データの取得方法、及び顔面撮影画像データの解析方法について説明する。   Next, a method for acquiring face-captured image data and a method for analyzing face-captured image data used by the inventors to obtain the above knowledge will be described.

この試験では、6名の被験者から顔面の撮影画像データを取得した。具体的には、室温25℃を維持した人工気象室内に設置した椅子に被験者を座らせて、時系列で画像を取得可能な撮影装置を用いて、被験者の顔面全体の副鼻腔周辺の撮影画像データを時系列で取得した。   In this test, face image data was obtained from six subjects. Specifically, a photographed image around the sinus of the entire face of the subject using a photographing device that allows the subject to sit in a chair installed in an artificial weather room maintained at room temperature of 25 ° C. and acquire images in time series Data was acquired in time series.

また、上述した選択的脳冷却機構に基づくと、脳活動に伴う顔面皮膚温度に比例すると考えられる顔面の血行量の変化は、前額部及び/又は副鼻腔周辺に出現すると考えられる。このことから、本発明者らは、少なくとも前額部及び/又は副鼻腔周辺の顔面の血行量の変化を捉えることができれば、精度良く脳活動を推定することができる、と考えた。そして、この試験では、被験者の顔面の副鼻腔周辺の撮影画像データを時系列で取得した。   Further, based on the selective brain cooling mechanism described above, a change in facial blood flow that is considered to be proportional to the facial skin temperature accompanying brain activity is considered to appear around the forehead and / or the sinuses. From this, the present inventors considered that brain activity can be estimated with high accuracy if at least changes in blood flow in the face around the forehead and / or sinuses can be captured. In this test, captured image data around the paranasal sinuses of the subject's face was acquired in time series.

また、この試験では、撮影装置として、Apple社製のiPad Air(登録商標)の備える液晶画面側の撮影装置を使用し、時系列の撮影画像データとしてカラーの動画データを取得した。また、撮影装置を、被験者の正面側であって、被験者から1.0m離れた地点に設置した。そして、撮影装置によって、30フレーム/秒の撮影周期で時間軸に沿って30分間の撮影画像データを連続撮影することで、顔面の動画データを得た。   In this test, a photographing device on the liquid crystal screen side of the iPad Air (registered trademark) manufactured by Apple Inc. was used as a photographing device, and color moving image data was acquired as time-series photographed image data. In addition, the photographing apparatus was installed on the front side of the subject and at a point 1.0 m away from the subject. Then, the moving image data of the face was obtained by continuously capturing the captured image data for 30 minutes along the time axis at a capturing period of 30 frames / second by the capturing device.

さらに、この試験では、顔面の動画データを取得している間に、被験者に対して脳機能賦活課題を与えた。これにより、脳の非賦活時の顔面の動画データ、及び脳の賦活時の顔面の動画データを取得した。この試験では、上記試験と同様に、脳機能賦活課題として「かけ算の暗算」を採用し、被験者に、表示装置に筆算形式で表示される数字を計算させ、その回答をキーボードに入力させる作業を課した。なお、この試験では、顔面の動画データの取得開始から5分経過後から10分間継続して、被験者に対して脳機能賦活課題を与えた。   Furthermore, in this test, a brain function activation task was given to the subject while acquiring facial moving image data. Thereby, the moving image data of the face when the brain was not activated and the moving image data of the face when the brain was activated were acquired. In this test, as in the case of the above test, the task of activating the brain function is `` multiplying mental arithmetic '', allowing the subject to calculate the numbers displayed in the writing format on the display device, and inputting the answers to the keyboard Imposed. In this test, a brain function activation task was given to the subject continuously for 10 minutes after 5 minutes from the start of facial moving image data acquisition.

顔面の動画データの解析としては、撮影した顔面の動画データより得られたRGBデータに基づき血行量データを算出し、算出した時系列の血行量データを対象として、MATLAB(登録商標)のSVDを分析ツールとして用いて特異値分解を行った。ここでは、CIE−L***表色系に従って、画像のRGBデータより演算される肌の赤みやヘモグロビン量と相関のある紅斑指数「a*」を求め、これを血行量データとした。また、特異値分解では、時系列で取得した全ての動画データ(30分間のデータ)から得られたRGBデータに基づく血行量データ(ここでは、紅斑指数)を対象とし、要因を30秒毎の時間データ(30分間で60 time point)とし、測度をその期間(30秒毎)におけるRGBデータから演算した紅斑指数(30秒毎に1秒間のフレームデータを取り出し、該フレームデータから得られるRGB値の平均値から演算した紅斑指数;240×320 pixels)とした。そして、特異値分解により、顔面の動画データより得られたRGBデータに基づく時系列の血行量データを、複数の成分に分解し、それぞれの成分の時間分布Vと、空間分布Uと、各成分の大きさを示す特異値Sとを算出した。なお、これらの関係は、上記式(数1)と同様の式で表される。 For analysis of facial moving image data, blood flow data is calculated based on RGB data obtained from the captured moving image data of the face, and MATLAB (registered trademark) SVD is used for the calculated time-series blood flow data. Singular value decomposition was performed as an analytical tool. Here, according to the CIE-L * a * b * color system, an erythema index “a * ” correlated with the redness and hemoglobin amount calculated from the RGB data of the image is obtained, and this is used as blood flow data. . In the singular value decomposition, blood flow volume data (here, erythema index) based on RGB data obtained from all moving image data (30-minute data) acquired in time series is targeted, and the factor is set every 30 seconds. Erythema index calculated from time data (60 time points in 30 minutes) and RGB data in that period (every 30 seconds) (taken out frame data for 1 second every 30 seconds, and RGB values obtained from the frame data) Erythema index calculated from the average value of 240 × 320 pixels). Then, by singular value decomposition, time-series blood flow data based on RGB data obtained from facial moving image data is decomposed into a plurality of components, and each component's time distribution V, spatial distribution U, and each component And a singular value S indicating the magnitude of. In addition, these relationships are represented by the same formula as the above formula (Formula 1).

そして、特異値分解によって求められた各成分の時間分布V及び空間分布Uをグラフにプロットし、各成分の成分波形図と血行量分布図とを作成した。   Then, the time distribution V and the spatial distribution U of each component obtained by singular value decomposition were plotted on a graph, and a component waveform diagram and a blood flow distribution diagram of each component were created.

さらに、作成した各成分の成分波形図及び血行量分布図について、脳活動を反映した顔面の血行量の変化すなわち顔面のRGB変化を示す成分を同定するための解析を行った。   Further, analysis was performed on the component waveform diagram and the blood flow distribution diagram of each component that was created to identify a component indicating a change in facial blood flow that reflects brain activity, that is, a component that indicates a change in facial RGB.

各成分の成分波形図については、その成分波形の振幅と、脳の非賦活時及び脳の賦活時との相関関係の有無について解析した。具体的には、各成分の成分波形図に示された振幅と、脳の非賦活期間/脳の賦活期間との間に相関関係があるか否かを評価した。この試験では、顔面の撮影画像データを取得している期間のうち、被験者に対して脳機能賦活課題が与えられていない期間であるデータ取得開始時点から5分が経過した時点までの5分間の期間、及びデータ取得開始時から15分が経過した時点からデータ取得終了時点までの15分間の期間を脳の非賦活時とし、被験者に対して脳機能賦活課題が与えられている期間であるデータ取得開始時から5分が経過した時点から10分が経過した時点までの10分間の期間を脳の賦活時とした。そして、各成分の成分波形図に示された振幅と、脳の非賦活時及び脳の賦活時との相関関係の有無について評価した。なお、相関関係の有無については、統計的相関分析を行い、有意水準(α)が0.01以下の場合に相関があると判断した。   About the component waveform figure of each component, it analyzed about the presence or absence of the correlation of the amplitude of the component waveform, and the time of brain non-activation and the time of brain activation. Specifically, it was evaluated whether there was a correlation between the amplitude shown in the component waveform diagram of each component and the brain non-activation period / brain activation period. In this test, during the period when the captured image data of the face is acquired, the subject is not given a brain function activation task, and the 5-minute period from the start of data acquisition to the time when 5 minutes have elapsed. Data that is a period in which a brain function activation task is given to a subject, with a period of 15 minutes from the start of data acquisition and the period of 15 minutes from the start of data acquisition to the end of data acquisition being the non-activated state of the brain A period of 10 minutes from the time when 5 minutes passed from the start of acquisition to the time when 10 minutes passed was defined as the time of brain activation. Then, the presence or absence of a correlation between the amplitude shown in the component waveform diagram of each component and the time of brain non-activation and the time of brain activation was evaluated. In addition, regarding the presence or absence of the correlation, statistical correlation analysis was performed, and it was determined that there was a correlation when the significance level (α) was 0.01 or less.

各成分の血行量分布図については、顔面の所定部位における血行量変化の有無について解析した。血行量分布図は、ピクセル毎に算出された空間分布Uを各ピクセルの位置に並べることで作成される。このように作成された各成分の血行量分布図において、副鼻腔周辺及び前額部における血行量の変化があるか否かを評価した。なお、血行量分布図における副鼻腔周辺及び前額部の血行量変化の有無については、目視(visual inspection)による血行量変化の有無、もしくは図1(b)に示す副鼻腔周辺及び前額部の血行量の値が「0.000」でないことを血行量変化の有無の基準とした。   Regarding the blood flow distribution chart of each component, the presence or absence of a change in blood flow at a predetermined part of the face was analyzed. The blood circulation distribution map is created by arranging the spatial distribution U calculated for each pixel at the position of each pixel. In the blood flow distribution chart of each component thus created, it was evaluated whether there was a change in blood flow around the sinuses and in the forehead. In addition, regarding the presence or absence of changes in blood flow around the sinuses and the forehead in the blood flow distribution diagram, the presence or absence of changes in blood flow by visual inspection, or around the sinuses and the forehead shown in FIG. The reference value for the presence or absence of a change in blood flow was that the value of the blood flow was not “0.000”.

なお、空間分布U、特異値S及び時間分布Vの値の関係で、血行量データXの極性(プラスマイナス)が決定するため、各成分の成分波形図及び血行量分布図において極性が反転して現れることがある。このため、成分波形図及び血行量分布図の評価に関して、極性については評価対象としないこととした。   Note that the polarity (plus or minus) of the blood flow data X is determined by the relationship between the spatial distribution U, the singular value S, and the time distribution V. Therefore, the polarity is reversed in the component waveform diagram and the blood flow distribution diagram of each component. May appear. For this reason, regarding the evaluation of the component waveform diagram and the blood flow distribution diagram, the polarity is not considered as an evaluation target.

さらに、顔面の皮膚温度と顔面の血行量との相関関係を検証するために、6名の被験者から顔面の撮影画像データを時系列で取得している間、赤外線サーモグラフィ装置により顔面皮膚温度データも時系列で取得し、取得した顔面皮膚温度データについてもMATLAB(登録商標)のSVDを分析ツールとして用いて特異値分解を行い、特異値Sに応じた各成分の成分波形図を作成し、その成分波形の振幅と、脳の非賦活時及び脳の賦活時との相関関係の有無について解析した。なお、この試験では、赤外線サーモグラフィ装置として、上記試験と同様の装置を用いた。また、赤外線カメラは、被験者の正面であって、被験者から1.5m離れた地点に設置した。   Furthermore, in order to verify the correlation between facial skin temperature and facial blood flow, facial skin temperature data was also obtained by infrared thermography equipment while acquiring facial image data in time series from six subjects. Time-series acquisition, and the acquired facial skin temperature data is also subjected to singular value decomposition using the MATLAB (registered trademark) SVD as an analysis tool, and a component waveform diagram of each component according to the singular value S is created. The presence or absence of a correlation between the amplitude of the component waveform and the brain non-activation and brain activation was analyzed. In this test, an apparatus similar to the above test was used as the infrared thermography apparatus. The infrared camera was installed in front of the subject at a point 1.5 m away from the subject.

ところで、撮影装置を用いて顔面の撮影画像データを取得する場合、撮影中に太陽の光等が顔に当たることで光が顔で反射し、この反射光が撮影装置のレンズに入り込んでしまうことがある。そうすると、撮影された顔面の撮影画像データにはこの反射光が記録されてしまうことになる。ここで、撮影画像データから得られるRGBデータにおいて、顔面の血行量に基づく明度の変化は反射光に基づく明度の変化よりも小さいため、反射光の記録された撮影画像データから得られるRGBデータに基づいて算出された血行量が解析されると、脳活動とは関連しない顔面のRGB変化(いわゆるノイズ)が混入してしまう可能性があると考えられた。そこで、このような脳活動とは関連しない顔面のRGB変化の混入を防ぐために、30秒毎のRGBデータの全平均値を「0」とした相対的なRGBデータから相対的な血行量データを作成し、作成した血行量データについても、MATLAB(登録商標)のSVDを分析ツールとして用いて特異値分解を行い、特異値Sに応じた各成分の成分波形図と血行量分布図とを作成し、脳活動を反映した顔面のRGB変化を示す成分を同定するための解析を行った。   By the way, when acquiring captured image data of a face using a photographing device, light may be reflected by the face when the sunlight hits the face during photographing, and this reflected light may enter the lens of the photographing device. is there. Then, the reflected light is recorded in the photographed image data of the photographed face. Here, in the RGB data obtained from the photographed image data, the change in brightness based on the blood flow amount on the face is smaller than the change in brightness based on the reflected light. Therefore, the RGB data obtained from the photographed image data in which the reflected light is recorded. When the blood flow volume calculated based on the analysis was analyzed, it was considered that there was a possibility that a face RGB change (so-called noise) that is not related to the brain activity might be mixed. Therefore, in order to prevent the mixing of RGB changes in the face that are not related to such brain activity, relative blood flow data is obtained from the relative RGB data with the total average value of RGB data every 30 seconds being “0”. The created blood flow data is also subjected to singular value decomposition using the MATLAB (registered trademark) SVD as an analysis tool, and a component waveform diagram and blood flow distribution diagram of each component according to the singular value S are created. Then, an analysis was performed to identify the component showing the RGB change of the face reflecting the brain activity.

なお、以下より、説明の便宜上、所定時間毎(この試験では30秒毎)のRGBデータの全平均値を「0」とした相対的なRGBデータに基づく相対的な血行量データを「相対換算血行量データ」といい、相対的なRGBデータに換算する前のRGBデータに基づく血行量データを単に「血行量データ」という。   In the following, for convenience of explanation, relative blood flow data based on relative RGB data with a total average value of RGB data every predetermined time (every 30 seconds in this test) being “0” is referred to as “relative conversion. The blood flow data is referred to as “blood flow data”, and the blood flow data based on the RGB data before conversion into relative RGB data is simply referred to as “blood flow data”.

また、6名の被験者に対して撮影装置によって顔面の時系列の撮影画像データを取得している間、各被験者の頭皮上に電極を接続して脳波を測定し、覚醒時等の脳細胞が活動している時に現れる波形として知られているβ波(13〜30Hzの周波数の脳波)の振幅と、成分波形図の振幅との間の相関関係についても評価した。なお、脳波測定では、国際式10−20法に基づき、頭皮上19の部位(Fp1、Fp2、F3、F4、C3、C4、P3、P4、O1、O2、F7、F8、T3、T4、T5、T6、Fz、Cz及びPz)に電極を配置した。   In addition, while acquiring time-series captured image data of the face with the imaging device for 6 subjects, electrodes are connected to the scalp of each subject to measure brain waves, and brain cells at the time of waking etc. The correlation between the amplitude of the β wave (the brain wave having a frequency of 13 to 30 Hz), which is known as a waveform appearing when active, and the amplitude of the component waveform diagram were also evaluated. In the electroencephalogram measurement, the region of the scalp 19 (Fp1, Fp2, F3, F4, C3, C4, P3, P4, O1, O2, F7, F8, T3, T4, T5, based on the international method 10-20) , T6, Fz, Cz and Pz).

さらに、被験者に脳機能賦活課題が与えられている間、被験者の頭が上下に動くことが考えられる。そうすると、撮影装置に対する被験者の顔面の位置が変化することになる。この顔面の位置の変化が顔面のRGB変化に影響しているか否かを検証するために、被験者1名に対して対照試験を行った。対照試験では、上記試験と同様に撮影装置を用いて被験者の顔面の時系列の撮影画像データを取得するが、脳機能賦活課題が与えられていない間(すなわち、脳の非賦活時)についてもランダムなタイミングでキーボードを押す作業を被験者に対して課した。この対照実験によって撮影された顔面の時系列の撮影画像データから得られたRGBデータに基づく時系列の血行量データについても、MATLAB(登録商標)のSVDを分析ツールとして用いて特異値分解を行い、特異値Sに応じた各成分の成分波形図を作成し、その成分波形の振幅と、脳の非賦活時及び脳の賦活時との相関関係の有無について解析した。また、各成分波形の振幅と、実際の顔面の動きとの相関関係の有無について解析した。実際の顔面の動きは、撮影画像データから顔の同一箇所の2次元座標を取得し、対照実験開始時の撮影画像データを基準として撮影時における30秒毎の顔面の移動距離を算出することで評価した。さらに、各成分波形の振幅と、撮影中のキーボードの入力数との相関関係の有無についても解析した。撮影中のキーボードの入力数は、時系列の撮影画像データにおける30秒毎の単純移動平均を算出することで評価した。   Furthermore, it is conceivable that the subject's head moves up and down while the subject is given a brain function activation task. Then, the position of the subject's face with respect to the imaging device changes. In order to verify whether or not the change in the position of the face affects the RGB change in the face, a control test was performed on one subject. In the control test, time-series captured image data of the subject's face is acquired using the imaging device in the same manner as in the above test, but also during the time when the brain function activation task is not given (that is, when the brain is not activated) The subject was forced to press the keyboard at random timing. For chronological blood flow data based on RGB data obtained from time-series photographed image data of the face photographed in this control experiment, singular value decomposition was performed using the SVLAB of MATLAB (registered trademark) as an analysis tool. Then, a component waveform diagram of each component corresponding to the singular value S was created, and the presence or absence of a correlation between the amplitude of the component waveform and the brain non-activation and brain activation was analyzed. In addition, the presence or absence of a correlation between the amplitude of each component waveform and the actual facial movement was analyzed. The actual facial movement is obtained by obtaining the two-dimensional coordinates of the same part of the face from the photographed image data and calculating the movement distance of the face every 30 seconds during photographing with reference to the photographed image data at the start of the control experiment. evaluated. Furthermore, the presence / absence of a correlation between the amplitude of each component waveform and the number of keyboard inputs during shooting was also analyzed. The number of keyboard inputs during shooting was evaluated by calculating a simple moving average every 30 seconds in time-series shot image data.

(3)解析結果
(3−1)顔面皮膚温度データの解析結果
図2は、温度換算データに応じた顔面皮膚温度データを解析した結果の一部を示す図である。図2(a)は、被験者1の成分2の成分波形図を示している。図2(b)は、被験者1の成分2の温度分布図を示している。図3(a)は、被験者1の成分3の成分波形図を示している。図3(b)は、被験者1の成分3の温度分布図を示している。図4及び図5は、成分波形の振幅と、脳波との関係を示す図である。図4は、被験者1の成分2の成分波形の振幅と、測定された脳波のうちのβ波の振幅とを示す図である。図5は、被験者1の成分3の成分波形の振幅と、測定された脳波のうちのβ波の振幅とを示す図である。図6は、対照実験で得られた顔面皮膚温度データを解析した結果の一部を示す図である。図6(a)は、成分3の成分波形図を示している。図6(b)は、成分3の温度分布図を示している。
(3) Analysis Result (3-1) Analysis Result of Facial Skin Temperature Data FIG. 2 is a diagram showing a part of the result of analyzing facial skin temperature data according to the temperature conversion data. FIG. 2A shows a component waveform diagram of the component 2 of the subject 1. FIG. 2B shows a temperature distribution diagram of the component 2 of the subject 1. FIG. 3A shows a component waveform diagram of the component 3 of the subject 1. FIG. 3B shows a temperature distribution diagram of the component 3 of the subject 1. 4 and 5 are diagrams showing the relationship between the amplitude of the component waveform and the electroencephalogram. FIG. 4 is a diagram illustrating the amplitude of the component waveform of the component 2 of the subject 1 and the amplitude of the β wave among the measured brain waves. FIG. 5 is a diagram illustrating the amplitude of the component waveform of the component 3 of the subject 1 and the amplitude of the β wave among the measured brain waves. FIG. 6 is a diagram showing a part of the result of analyzing the facial skin temperature data obtained in the control experiment. FIG. 6A shows a component waveform diagram of component 3. FIG. FIG. 6B shows a temperature distribution diagram of the component 3.

表1は、各被験者に対する顔面皮膚温度データの解析結果を示したものである。   Table 1 shows the analysis results of facial skin temperature data for each subject.

上記の顔面皮膚温度データの解析によって得られた結果から、時系列の顔面皮膚温度データを特異値分解により分解して得られた複数の成分のうち、成分2及び/又は成分3と、人間の脳活動との間に有意な相関があることが確認された。   Of the plurality of components obtained by decomposing time-series facial skin temperature data by singular value decomposition from the results obtained by the above analysis of facial skin temperature data, component 2 and / or component 3 and human It was confirmed that there was a significant correlation with brain activity.

また、図4及び図5に示すように、脳波解析の結果から、成分2及び成分3の各成分波形の振幅と、脳波のβ波の振幅との間に有意な相関が確認された。   Also, as shown in FIGS. 4 and 5, a significant correlation was confirmed between the amplitude of each component waveform of component 2 and component 3 and the amplitude of the β wave of the electroencephalogram from the results of the electroencephalogram analysis.

さらに、対照実験では、顔面皮膚温度データを取得している間に被験者に動きがある状態であっても、成分3と人間の脳活動との間に有意な相関があった(図6参照)。このことから、複数の成分のうち、成分3については、顔面皮膚温度データを取得する際の被験者の動きが影響していないことが認められた。   Furthermore, in the control experiment, there was a significant correlation between component 3 and human brain activity even when the subject was in motion while acquiring facial skin temperature data (see FIG. 6). . From this, it was recognized that among the plurality of components, the movement of the subject at the time of acquiring facial skin temperature data was not affected for component 3.

これらの結果から、本発明者らは、以下の知見を得た。   From these results, the present inventors obtained the following knowledge.

被験者から取得した時系列の顔面皮膚温度データを特異値分解により複数の成分に分解し、分解した各成分について解析した結果、複数の成分のうちの成分3が脳活動に関連する成分であると認められた。すなわち、時系列の顔面皮膚温度データを特異値分解により複数の成分に分解し、分解した複数の成分から脳の賦活/非賦活と相関のある成分を抽出し、抽出した成分について選択的脳冷却機構を利用した解析を行うことで、複数の成分から脳活動を反映した皮膚温度の変化を示す成分を同定することができることが判明した。このことから、本発明者らは、人間の顔面の皮膚温度に基づいて、脳活動を推定することができる、という知見を得た。   The time-series facial skin temperature data obtained from the test subject is decomposed into a plurality of components by singular value decomposition, and as a result of analyzing each decomposed component, component 3 of the plurality of components is a component related to brain activity. Admitted. In other words, time-series facial skin temperature data is decomposed into multiple components by singular value decomposition, components that correlate with brain activation / deactivation are extracted from the decomposed multiple components, and selective brain cooling is performed on the extracted components By analyzing using the mechanism, it was found that a component showing a change in skin temperature reflecting brain activity can be identified from a plurality of components. From this, the present inventors have obtained the knowledge that brain activity can be estimated based on the skin temperature of the human face.

(3−2)顔面の撮影画像データの解析結果
図7〜図18は、顔面の撮影画像データ(血行量データ)又は顔面皮膚温度データに基づく成分波形図と、測定された脳波のうちのβ波の波形図を比較解析した結果の一部を示す図である。図7は、被験者1の撮影画像データに基づく成分2の成分波形の振幅と、測定された被験者1の脳波のうちのβ波の振幅とを示す図である。図8は、被験者1の顔面皮膚温度データに基づく成分2の成分波形の振幅と、測定された被験者1の脳波のうちのβ波の振幅とを示す図である。図9は、被験者2の撮影画像データに基づく成分2の成分波形の振幅と、測定された被験者2の脳波のうちのβ波の振幅とを示す図である。図10は、被験者2の顔面皮膚温度データに基づく成分2の成分波形の振幅と、測定された被験者2の脳波のうちのβ波の振幅とを示す図である。図11は、被験者3の撮影画像データに基づく成分4の成分波形の振幅と、測定された被験者3の脳波のうちのβ波の振幅とを示す図である。図12は、被験者3の顔面皮膚温度データに基づく成分3の成分波形の振幅と、測定された被験者3の脳波のうちのβ波の振幅とを示す図である。図13は、被験者4の撮影画像データに基づく成分3の成分波形の振幅と、測定された被験者4の脳波のうちのβ波の振幅とを示す図である。図14は、被験者4の顔面皮膚温度データに基づく成分2の成分波形の振幅と、測定された被験者4の脳波のうちのβ波の振幅とを示す図である。図15は、被験者5の撮影画像データに基づく成分2の成分波形の振幅と、測定された被験者5の脳波のうちのβ波の振幅とを示す図である。図16は、被験者5の顔面皮膚温度データに基づく成分2の成分波形の振幅と、測定された被験者5の脳波のうちのβ波の振幅とを示す図である。図17は、被験者6の撮影画像データに基づく成分4の成分波形の振幅と、測定された被験者6の脳波のうちのβ波の振幅とを示す図である。図18は、被験者6の顔面皮膚温度データに基づく成分3の成分波形の振幅と、測定された被験者6の脳波のうちのβ波の振幅とを示す図である。
(3-2) Analysis Results of Photographed Image Data of Face FIGS. 7 to 18 are diagrams of component waveforms based on photographed image data (blood flow data) or facial skin temperature data of the face, and β of the measured electroencephalogram. It is a figure which shows a part of result of having compared and analyzed the waveform figure of the wave. FIG. 7 is a diagram illustrating the amplitude of the component 2 component waveform based on the captured image data of the subject 1 and the measured β wave amplitude of the brain wave of the subject 1. FIG. 8 is a diagram showing the amplitude of the component 2 component waveform based on the facial skin temperature data of the subject 1 and the measured β wave amplitude of the brain wave of the subject 1. FIG. 9 is a diagram showing the amplitude of the component 2 component waveform based on the captured image data of the subject 2 and the measured amplitude of the β wave in the brain wave of the subject 2. FIG. 10 is a diagram illustrating the amplitude of the component 2 component waveform based on the facial skin temperature data of the subject 2 and the measured β wave amplitude of the brain wave of the subject 2. FIG. 11 is a diagram illustrating the amplitude of the component waveform of component 4 based on the captured image data of the subject 3 and the amplitude of the β wave among the measured brain waves of the subject 3. FIG. 12 is a diagram illustrating the amplitude of the component 3 component waveform based on the facial skin temperature data of the subject 3 and the measured β wave amplitude of the brain wave of the subject 3. FIG. 13 is a diagram illustrating the amplitude of the component 3 component waveform based on the captured image data of the subject 4 and the measured β-wave amplitude of the brain wave of the subject 4. FIG. 14 is a diagram showing the amplitude of the component 2 component waveform based on the facial skin temperature data of the subject 4 and the measured β wave amplitude of the brain wave of the subject 4. FIG. 15 is a diagram illustrating the amplitude of the component 2 component waveform based on the captured image data of the subject 5 and the measured β wave amplitude of the brain wave of the subject 5. FIG. 16 is a diagram showing the amplitude of the component 2 component waveform based on the facial skin temperature data of the subject 5 and the measured β wave amplitude of the brain wave of the subject 5. FIG. 17 is a diagram illustrating the amplitude of the component waveform of component 4 based on the captured image data of the subject 6 and the amplitude of the β wave among the measured brain waves of the subject 6. FIG. 18 is a diagram illustrating the amplitude of the component 3 component waveform based on the facial skin temperature data of the subject 6 and the measured β wave amplitude of the brain wave of the subject 6.

図7〜図18に示すように、各成分波形と脳波解析との結果から、顔面の皮膚温度と顔面の血行量とが相関関係にあることが確認された。なお、顔面の皮膚温度データ及び顔面の血行量データのいずれのデータに基づく解析においても、各成分波形の振幅と、頭頂部又は後頭部に装着した電極が測定した脳波のβ波の振幅との間に有意な相関が確認された。   As shown in FIG. 7 to FIG. 18, it was confirmed from the results of the component waveforms and the electroencephalogram analysis that the facial skin temperature and the facial blood flow volume are in a correlation. In the analysis based on any of the skin temperature data of the face and the blood flow data of the face, the amplitude of each component waveform and the amplitude of the β wave of the electroencephalogram measured by the electrode mounted on the top or back of the head A significant correlation was confirmed.

以下に示す表2は、各被験者に対する顔面の撮影画像データの解析結果を示したものである。   Table 2 shown below shows the analysis results of the captured image data of the face for each subject.

表2に示すように、上記の顔面の撮影画像データの解析によって得られた結果から、顔面の撮影画像データに基づく時系列の血行量データを特異値分解により分解して得られた複数の成分のうち、成分1,2,3,4,5と人間の脳活動との間に有意な相関があることが確認された。なお、ここでは、血行量データに基づく相関において有意な相関が見られかつ相対換算血行量データに基づく相関において有意な相関が見られた成分だけでなく、血行量データに基づく相関においては有意な相関が見られなかったが相対換算血行量データに基づく相関において有意な相関が見られた成分も、人間の脳活動と有意な相関があると認めるようにした。   As shown in Table 2, a plurality of components obtained by decomposing time-series blood flow data based on the photographed image data of the face by singular value decomposition based on the results obtained by analyzing the photographed image data of the face. Of these, it was confirmed that there was a significant correlation between components 1, 2, 3, 4, 5 and human brain activity. In addition, here, not only the component in which the correlation based on the blood flow data is significant and the correlation based on the relative blood flow data is significant, but also the correlation based on the blood flow data is significant. Components that were not correlated but showed significant correlation in the correlation based on relative blood flow data were also recognized as having significant correlation with human brain activity.

また、以下に示す表3は、対照実験の結果を示したものである。   Table 3 shown below shows the results of the control experiment.

表3に示すように、対照実験では、顔面の撮影画像データを取得している間に被験者に動きがある場合、その成分波形の振幅と脳の非賦活時及び脳の賦活時との間に有意な相関のあった成分のうちの成分2については、移動距離及びキーボード入力数それぞれとの間に有意な相関が認められなかった。このことから、顔面の撮影画像データから取得したRGBデータに基づく血行量データを特異値分解することで得られる複数の成分において、脳活動との間に有意な相関がある成分については、顔面の時系列の撮影画像データを取得する際の被験者の動きによる影響を受けたとしても、その影響は脳の脳活動による影響(脳の賦活や非賦活による影響)よりも遙かに小さいことが確認された。   As shown in Table 3, in the control experiment, when the subject moves while acquiring the captured image data of the face, between the amplitude of the component waveform and the brain non-activation time and brain activation time. Of the components having a significant correlation, the component 2 was not significantly correlated with the moving distance and the number of keyboard inputs. From this, among components obtained by singular value decomposition of blood flow data based on RGB data acquired from captured image data of a face, components having a significant correlation with brain activity are Even if it is affected by the movement of the subject when acquiring time-series captured image data, it is confirmed that the effect is much smaller than the effect of brain activity (effect of brain activation or non-activation). It was done.

これらの結果から、本発明者らは、以下の知見を得た。   From these results, the present inventors obtained the following knowledge.

被験者から取得した時系列の顔面の撮影画像データに基づく顔面のRGBデータから得られる血行量データを特異値分解により複数の成分に分解し、分解した各成分について解析した結果、複数の成分のうちの成分1,2,3,4,5が脳活動に関連する成分であると認められた。すなわち、時系列の顔面の撮影画像データに基づく顔面のRGBデータから得られる血行量データを特異値分解により複数の成分に分解し、分解した複数の成分から脳の賦活/非賦活と相関のある成分を抽出し、抽出した成分について解析することで、複数の成分から脳活動を反映した顔面のRGB変化を示す成分を同定することができることが判明した。このことから、本発明者らは、人間の顔面の時系列の撮影画像データに基づいて、脳活動を推定することができる、という知見を得た。   Blood flow volume data obtained from facial RGB data based on time-series facial captured image data obtained from the subject was decomposed into a plurality of components by singular value decomposition, and each decomposed component was analyzed. Components 1, 2, 3, 4 and 5 were found to be components related to brain activity. That is, blood flow data obtained from facial RGB data based on time-series facial image data is decomposed into a plurality of components by singular value decomposition, and there is a correlation between activation / inactivation of the brain from the decomposed components. It was found that by extracting the components and analyzing the extracted components, it is possible to identify a component showing the RGB change of the face reflecting brain activity from a plurality of components. From this, the present inventors have found that brain activity can be estimated based on time-series captured image data of the human face.

(4)脳活動可視化装置
次に、上記に説明した知見に基づいて、本発明者らが完成するに至った本発明の一実施形態に係る脳活動可視化装置10,110について説明する。なお、本発明に係る脳活動可視化装置は、以下の実施形態に限定されるものではなく、要旨を逸脱しない範囲で適宜変更可能である。
(4) Brain Activity Visualization Device Next, brain activity visualization devices 10 and 110 according to an embodiment of the present invention that have been completed by the present inventors based on the knowledge described above will be described. In addition, the brain activity visualization apparatus according to the present invention is not limited to the following embodiments, and can be appropriately changed without departing from the gist.

本発明の一実施形態に係る脳活動可視化装置10,110は、顔面皮膚温度データに基づき脳活動を推定する脳活動推定手段30、及び/又は顔面の撮影画像データに基づき脳活動を推定する脳活動推定手段130を備えている。以下では、本発明の一実施形態に係る脳活動可視化装置10,110を説明する前に、各脳活動推定手段30,130について説明する。   The brain activity visualization devices 10 and 110 according to an embodiment of the present invention include a brain activity estimation unit 30 that estimates brain activity based on facial skin temperature data, and / or a brain that estimates brain activity based on face image data. The activity estimation means 130 is provided. Below, before demonstrating the brain activity visualization apparatuses 10 and 110 which concern on one Embodiment of this invention, each brain activity estimation means 30 and 130 are demonstrated.

(4−1)顔面皮膚温度データに基づき脳活動を推定する脳活動推定手段30
図19は、本発明の一実施形態に係る脳活動可視化装置10の概略図である。図20は、脳活動可視化装置10において脳機能を反映した皮膚温度の変化を示す成分を同定する際の処理の流れを示すフローチャートである。
(4-1) Brain activity estimating means 30 for estimating brain activity based on facial skin temperature data
FIG. 19 is a schematic diagram of the brain activity visualization apparatus 10 according to an embodiment of the present invention. FIG. 20 is a flowchart showing the flow of processing when the brain activity visualization apparatus 10 identifies a component indicating a change in skin temperature reflecting the brain function.

脳活動可視化装置10の備える脳活動推定手段30は、個人(被験者)の顔面の皮膚温度から、個人の脳活動を推定する。脳活動可視化装置10は、図19に示すように、顔面皮膚温度取得手段20と、脳活動推定手段30と、状態可視化手段200と、を備える。   The brain activity estimating means 30 provided in the brain activity visualization device 10 estimates the brain activity of the individual from the skin temperature of the face of the individual (subject). As shown in FIG. 19, the brain activity visualization device 10 includes a facial skin temperature acquisition unit 20, a brain activity estimation unit 30, and a state visualization unit 200.

顔面皮膚温度取得手段20は、個人の顔面の少なくとも一部の皮膚温度を検出し、検出した温度データ及びその検出部位の位置データを含む顔面皮膚温度データを時系列で取得する(ステップS1)。なお、ここでは、顔面皮膚温度取得手段20は、赤外線サーモグラフィ装置であり、図19に示すように、赤外線カメラ21と、処理部22と、を有する。赤外線カメラ21は、個人の顔面から出ている赤外線放射エネルギーを検出するためのものである。そして、ここでは、赤外線カメラ21は、個人の顔面全体から赤外線放射エネルギーを検出しているものとする。処理部22は、赤外線カメラ21によって検出した赤外線放射エネルギーを温度に変換して温度データとし、赤外線放射エネルギーの検出された部位を位置データ(座標データ)とした顔面全体における顔面皮膚温度の温度分布図を作成し、作成した温度分布図を温度換算データに応じた顔面皮膚温度データとして処理する。温度換算データに応じた顔面皮膚温度データは、処理部22の有する記憶部(図示せず)に蓄積される。   The facial skin temperature acquisition means 20 detects the skin temperature of at least a part of the individual's face, and acquires facial skin temperature data including the detected temperature data and the position data of the detected part in time series (step S1). Here, the facial skin temperature acquisition means 20 is an infrared thermography apparatus, and includes an infrared camera 21 and a processing unit 22 as shown in FIG. The infrared camera 21 is for detecting infrared radiant energy emitted from an individual's face. Here, it is assumed that the infrared camera 21 detects infrared radiation energy from the entire face of the individual. The processing unit 22 converts the infrared radiant energy detected by the infrared camera 21 into temperature to obtain temperature data, and the temperature distribution of the facial skin temperature over the entire face using the position where the infrared radiant energy is detected as position data (coordinate data). A diagram is created, and the created temperature distribution diagram is processed as facial skin temperature data corresponding to the temperature conversion data. The facial skin temperature data corresponding to the temperature conversion data is accumulated in a storage unit (not shown) included in the processing unit 22.

ここでは、処理部22において、顔面全体における顔面皮膚温度の温度分布図が作成されているが、これに限定されず、少なくとも副鼻腔周辺及び/又は前額部を含む顔面皮膚温度の温度分布図が作成され、これが温度換算データに応じた顔面皮膚温度データとされてもよい。   Here, the temperature distribution chart of the facial skin temperature in the entire face is created in the processing unit 22, but the present invention is not limited to this, and the temperature distribution chart of the facial skin temperature including at least the periphery of the sinuses and / or the forehead portion. May be created, and this may be the facial skin temperature data corresponding to the temperature conversion data.

また、ここでは、顔面皮膚温度取得手段20により温度換算データに応じた顔面皮膚温度データが取得されている間に、個人に対して脳機能賦活課題が一定期間与えられる。すなわち、顔面皮膚温度取得手段20により取得される温度換算データに応じた顔面皮膚温度データには、個人に対して脳機能賦活課題が与えられている期間のデータが含まれていることになる。なお、個人に対して与えられる脳機能賦活課題としては、脳が賦活状態になると推定されるものであれば特に限定されるものではなく、例えば、脳活動可視化装置10の利用目的に応じてその内容が適宜決定されるよう構成されていてもよい。   Also, here, while the facial skin temperature data corresponding to the temperature conversion data is acquired by the facial skin temperature acquisition means 20, a brain function activation task is given to the individual for a certain period. That is, the facial skin temperature data corresponding to the temperature conversion data acquired by the facial skin temperature acquisition means 20 includes data for a period during which a brain function activation task is given to an individual. The brain function activation task given to an individual is not particularly limited as long as it is estimated that the brain is activated, for example, depending on the purpose of use of the brain activity visualization device 10 You may be comprised so that the content may be determined suitably.

脳活動推定手段30は、顔面皮膚温度取得手段20により取得された温度換算データに応じた顔面皮膚温度データに基づき、人間の脳活動を推定する。具体的には、脳活動推定手段30は、図19に示すように、換算部31と、解析部32と、推定部33と、を有する。   The brain activity estimation unit 30 estimates human brain activity based on the facial skin temperature data corresponding to the temperature conversion data acquired by the facial skin temperature acquisition unit 20. Specifically, as shown in FIG. 19, the brain activity estimation means 30 includes a conversion unit 31, an analysis unit 32, and an estimation unit 33.

換算部31は、温度換算データに応じた顔面皮膚温度データに含まれる温度データを相対的な温度データに換算し、換算した相対的な温度データに基づく顔面皮膚温度データすなわち相対温度換算データに応じた顔面皮膚温度データを作成する(ステップS2)。具体的には、換算部31は、所定時間毎(例えば、30秒)の温度換算データに応じた顔面皮膚温度データに含まれる温度データの平均値を基準値として、該温度データを相対的な温度データに換算する。そして、換算部31は、換算した相対的な温度データ及び位置データを利用して、相対温度換算データに応じた顔面皮膚温度データを作成する。   The conversion unit 31 converts the temperature data included in the facial skin temperature data corresponding to the temperature conversion data into relative temperature data, and responds to the facial skin temperature data based on the converted relative temperature data, that is, relative temperature conversion data. Facial skin temperature data is created (step S2). Specifically, the conversion unit 31 uses the average value of the temperature data included in the facial skin temperature data corresponding to the temperature conversion data every predetermined time (for example, 30 seconds) as a reference value, and converts the temperature data into a relative value. Convert to temperature data. And the conversion part 31 produces the face skin temperature data according to relative temperature conversion data using the converted relative temperature data and position data.

解析部32は、時系列の温度換算データに応じた顔面皮膚温度データ及び相対温度換算データに応じた顔面皮膚温度データのそれぞれを、特異値分解、主成分分析或いは独立成分分析により複数の成分に分解する(ステップS3)。ここでは、解析部32は、取得した温度換算データに応じた顔面皮膚温度データ及び換算した相対温度換算データに応じた顔面皮膚温度データのそれぞれを対象として、MATLAB(登録商標)のSVDを分析ツールとして用いて、特異値分解を行う。特異値分解は、時系列で取得した温度換算データに応じた顔面皮膚温度データ及び相対温度換算データに応じた顔面皮膚温度データについて、要因を所定期間(例えば、30秒)毎の時間データとし、測度をその期間における温度換算データに応じた顔面皮膚温度データ及び相対温度換算データに応じた顔面皮膚温度データとして行われる。そして、特異値分解により、温度換算データに応じた顔面皮膚温度データ及び相対温度換算データに応じた顔面皮膚温度データのそれぞれを複数の成分に分解し、時間分布と、空間分布と、各成分の大きさを示す特異値とを算出する。   The analysis unit 32 converts the facial skin temperature data according to the time-series temperature conversion data and the facial skin temperature data according to the relative temperature conversion data into a plurality of components by singular value decomposition, principal component analysis, or independent component analysis. Decompose (step S3). Here, the analysis unit 32 analyzes the SVLAB of MATLAB (registered trademark) for each of the facial skin temperature data according to the acquired temperature conversion data and the facial skin temperature data according to the converted relative temperature conversion data. To perform singular value decomposition. The singular value decomposition is performed with the factor of time data for a predetermined period (for example, 30 seconds) for the facial skin temperature data according to the temperature conversion data acquired in time series and the facial skin temperature data according to the relative temperature conversion data, The measure is performed as facial skin temperature data corresponding to the temperature conversion data in that period and facial skin temperature data corresponding to the relative temperature conversion data. Then, by singular value decomposition, each of the facial skin temperature data according to the temperature conversion data and the facial skin temperature data according to the relative temperature conversion data is decomposed into a plurality of components, and the time distribution, spatial distribution, and A singular value indicating the magnitude is calculated.

また、解析部32は、特異値分解によって分解した複数の成分から脳活動を反映した皮膚温度の変化を示す成分を同定するために、各成分が第1条件及び第2条件を満たすか否かを判定する(ステップS4a、ステップS4b、ステップS5a、及びステップS5b)。なお、ここでは、解析部32において、まず、温度換算データに応じた顔面皮膚温度データに基づく各成分について第1条件が満たされているか否かが判定され(ステップS4a)、ステップS4aにおいて第1条件が満たされていると判定された温度換算データに応じた顔面皮膚温度データに基づく成分について第2条件が満たされているか否かが判定される(ステップS4b)。そして、相対温度換算データに応じた顔面皮膚温度データに基づく各成分のうちステップS4a及びステップS4bにおいて第1条件及び第2条件を満たすと判定された成分と一致する成分についてのみ第1条件が満たされているか否かが判定され(ステップS5a)、その後、ステップS5aにおいて第1条件が満たされていると判定された相対温度換算データに応じた顔面皮膚温度データに基づく成分について第2条件が満たされているか否かが判定される(ステップS5b)。しかしながら、解析部32における該判定の順序はこれに限定されるものではなく、例えば、温度換算データに応じた顔面皮膚温度データに基づく各成分と、相対温度換算データに応じた顔面皮膚温度データに基づく各成分とが、第1条件及び第2条件を満たすか否かがそれぞれ判定され、判定結果の一致する成分が最終的に抽出されてもよい。   In addition, the analysis unit 32 determines whether or not each component satisfies the first condition and the second condition in order to identify a component indicating a change in skin temperature reflecting brain activity from a plurality of components decomposed by singular value decomposition. (Step S4a, Step S4b, Step S5a, and Step S5b). Here, the analysis unit 32 first determines whether or not the first condition is satisfied for each component based on the facial skin temperature data corresponding to the temperature conversion data (step S4a), and the first in step S4a. It is determined whether or not the second condition is satisfied for the component based on the facial skin temperature data corresponding to the temperature conversion data determined to satisfy the condition (step S4b). Of the components based on the facial skin temperature data corresponding to the relative temperature conversion data, the first condition is satisfied only for components that match the components determined to satisfy the first condition and the second condition in step S4a and step S4b. (Step S5a), and then the second condition is satisfied for the component based on the facial skin temperature data corresponding to the relative temperature conversion data determined to satisfy the first condition in Step S5a. It is determined whether or not it has been performed (step S5b). However, the order of the determination in the analysis unit 32 is not limited to this. For example, each component based on the facial skin temperature data corresponding to the temperature conversion data and the facial skin temperature data corresponding to the relative temperature conversion data are used. It may be determined whether or not each component based on the first condition and the second condition is satisfied, and a component having a matching determination result may be finally extracted.

第1条件とは、特異値分解によって分解した成分の成分波形の振幅が、脳の非賦活時及び脳の賦活時の変化と相関関係にある、という条件である。解析部32は、複数の成分のうち、第1条件を満たす成分を、判定用成分として抽出する。なお、ここでは、温度換算データに応じた顔面皮膚温度データを取得している間に、個人に対して脳機能賦活課題が与えられている期間が一定期間ある。解析部32は、個人に対して脳機能賦活課題が与えられていない期間を脳の非賦活時とし、個人に対して脳機能賦活課題が与えられている期間を脳の賦活時として、脳機能賦活課題が与えられている期間及び与えられていない期間と、各成分の成分波形とを比較解析する。解析部32は、成分波形データに基づく比較解析結果を利用して、各成分の成分波形と脳の非賦活時及び脳の賦活時とが相関関係にあるか否かを評価し、複数の成分のうち相関関係にあると評価した成分を、第1条件を満たす判定用成分として抽出する。一方、解析部32は、複数の成分のうち相関関係にないと評価した成分を、第1条件を満たさず人間の脳活動を反映した温度変化を示す成分ではないと判定する(ステップS6)。   The first condition is a condition that the amplitude of the component waveform of the component decomposed by the singular value decomposition is correlated with a change at the time of non-activation of the brain and activation of the brain. The analysis unit 32 extracts a component that satisfies the first condition from the plurality of components as a determination component. Here, there is a certain period during which the brain function activation task is given to an individual while acquiring facial skin temperature data corresponding to the temperature conversion data. The analysis unit 32 uses the period when the brain function activation task is not given to the individual as the non-activation time of the brain, and sets the period when the brain function activation task is given to the individual as the brain activation time. The period in which the activation task is given and the period in which it is not given and the component waveform of each component are compared and analyzed. The analysis unit 32 uses the comparison analysis result based on the component waveform data to evaluate whether the component waveform of each component and the brain non-activation time and the brain activation time are correlated, and a plurality of components Among these, the component evaluated as having a correlation is extracted as a determination component that satisfies the first condition. On the other hand, the analysis unit 32 determines that a component evaluated as having no correlation among the plurality of components is not a component that does not satisfy the first condition and shows a temperature change reflecting human brain activity (step S6).

ここでは、温度換算データに応じた顔面皮膚温度データの取得時に個人に対して脳機能賦活課題が一定期間与えられており、これに基づき解析部32は判定用成分を抽出しているが、第1条件の内容、すなわち解析部32における判定用成分の抽出手段はこれに限定されない。例えば、予め実験等がされていることで複数の成分のうち脳の非賦活時及び脳の賦活時と相関関係にある成分波形を示す成分が特定されている場合には、解析部32は、複数の成分から特定されている該成分を判定用成分として抽出する。また、本脳活動可視化装置において眼球運動又はまたたき等の脳の賦活/非賦活に関連することが知られている人間の動作が検出される場合には、解析部32が、この検出結果と各成分の成分波形とを比較解析及び評価することで、複数の成分から判定用成分を抽出してもよい。なお、解析部32による第1条件を満たすか否かの判定の基準は、脳活動可視化装置10の利用目的等に応じて、シミュレーションや実験、机上計算等によって適宜決定される。   Here, a brain function activation task is given to an individual for a certain period when acquiring facial skin temperature data corresponding to temperature conversion data, and based on this, the analysis unit 32 extracts a determination component. The contents of one condition, that is, the determination component extraction means in the analysis unit 32 is not limited to this. For example, when a component showing a component waveform correlated with the non-activation time and the activation time of the brain among a plurality of components by performing an experiment or the like in advance, the analysis unit 32 The component specified from the plurality of components is extracted as a determination component. Further, in the case where the human activity known to be related to activation / deactivation of the brain such as eye movement or tapping is detected in the present brain activity visualization device, the analysis unit 32 analyzes the detection result and each A determination component may be extracted from a plurality of components by comparative analysis and evaluation of the component waveform of the component. Note that the criterion for determining whether or not the first condition is satisfied by the analysis unit 32 is appropriately determined by simulation, experiment, desktop calculation, or the like according to the purpose of use of the brain activity visualization device 10 or the like.

第2条件は、抽出した判定用成分において、人間の顔面の所定部位における温度変化がある、という条件である。解析部32は、判定用成分のうち、第2条件を満たす成分を、人間の脳活動に関連している可能性の高い成分と判定し、候補成分として抽出する。すなわち、解析部32は、人間の顔面の所定部位における温度変化の有無に基づき、判定用成分が人間の脳活動に関連しているか否かを判定する。具体的には、解析部32は、抽出した判定用成分の温度分布データに基づき、副鼻腔周辺及び/又は前額部において温度変化が生じているか否かを判定し、温度変化が生じている場合には該判定用成分が第2条件を満たす人間の脳活動に関連する可能性の高い成分であると判定し、候補成分として抽出する。一方で、解析部32は、副鼻腔周辺及び/又は前額部において温度変化が生じていない場合には、該判定用成分は第2条件を満たさず脳活動を反映した皮膚温度の変化を示す成分ではない、と判定する(ステップS6)。なお、解析部32による第2条件を満たすか否かの判定の基準は、脳活動可視化装置10の利用目的等に応じて、シミュレーションや実験、机上計算等によって適宜決定される。   The second condition is a condition that there is a temperature change in a predetermined part of the human face in the extracted determination component. The analysis unit 32 determines a component that satisfies the second condition among the determination components as a component that is highly likely to be related to human brain activity, and extracts it as a candidate component. That is, the analysis unit 32 determines whether or not the determination component is related to human brain activity based on the presence or absence of a temperature change at a predetermined part of the human face. Specifically, the analysis unit 32 determines whether a temperature change has occurred around the sinuses and / or the forehead based on the extracted temperature distribution data of the determination component, and the temperature change has occurred. In this case, it is determined that the determination component is a component that is highly likely to be related to human brain activity that satisfies the second condition, and is extracted as a candidate component. On the other hand, when no temperature change occurs around the sinuses and / or the forehead part, the analysis unit 32 does not satisfy the second condition and shows a change in skin temperature reflecting brain activity. It is determined that it is not a component (step S6). Note that the criterion for determining whether or not the second condition is satisfied by the analysis unit 32 is appropriately determined by simulation, experiment, desktop calculation, or the like according to the purpose of use of the brain activity visualization device 10 or the like.

そして、解析部32は、ステップS5bにおいて第2条件を満たすと判定した成分を、脳活動を反映した皮膚温度の変化を示す成分として同定する(ステップS7)。すなわち、ステップS7において脳活動を反映した皮膚温度の変化を示す成分として同定される成分は、温度換算データに応じた顔面皮膚温度データを特異値分解により分解し解析することで抽出された候補成分と、相対温度換算データに応じた顔面皮膚温度データを特異値分解により分解し解析することで抽出された候補成分と、の間で一致している成分ということになる。なお、両解析で一致していない候補成分については、ステップS6において脳活動を反映した皮膚温度の変化を示す成分ではない、と判定されている。   And the analysis part 32 identifies the component determined to satisfy | fill 2nd conditions in step S5b as a component which shows the change of the skin temperature reflecting brain activity (step S7). That is, the component identified as the component indicating the change in skin temperature reflecting the brain activity in step S7 is the candidate component extracted by decomposing and analyzing the facial skin temperature data corresponding to the temperature conversion data by singular value decomposition And the candidate skin component extracted by analyzing the facial skin temperature data corresponding to the relative temperature conversion data by decomposing and analyzing by singular value decomposition. Note that candidate components that do not match in both analyzes are determined not to be components indicating changes in skin temperature reflecting brain activity in step S6.

推定部33は、解析部32において人間の脳活動を反映した皮膚温度の変化を示す成分として同定された成分に基づいて、人間の脳活動を推定する。具体的には、推定部33は、解析部32において同定された成分の成分波形データに基づいて、顔面皮膚温度データの取得時における脳活動量を推定する。   The estimation unit 33 estimates the human brain activity based on the component identified by the analysis unit 32 as the component indicating the change in skin temperature reflecting the human brain activity. Specifically, the estimation unit 33 estimates the amount of brain activity when acquiring facial skin temperature data based on the component waveform data of the component identified by the analysis unit 32.

(4−1−1)変形例1A
上記脳活動推定手段30は換算部31を有しており、換算部31によって相対温度換算データに応じた顔面皮膚温度データが作成されている。そして、解析部32が、顔面皮膚温度取得手段20により取得された温度換算データに応じた顔面皮膚温度データだけでなく、相対的な温度データに換算された温度データに基づく相対温度データに応じた顔面皮膚温度データについても、特異値分解により複数の成分に分解し、各成分についての解析を行っている。
(4-1-1) Modification 1A
The brain activity estimating means 30 has a conversion unit 31, and facial skin temperature data corresponding to the relative temperature conversion data is created by the conversion unit 31. And the analysis part 32 respond | corresponded not only the face skin temperature data according to the temperature conversion data acquired by the face skin temperature acquisition means 20, but the relative temperature data based on the temperature data converted into relative temperature data. The facial skin temperature data is also decomposed into a plurality of components by singular value decomposition, and each component is analyzed.

これに代えて、脳活動推定手段30が換算部31を有していなくてもよい。この場合、相対温度換算データに応じた顔面皮膚温度データを作成したり、相対温度換算データに応じた顔面皮膚温度データに基づくデータの解析を行ったりする処理を省くことができる。   Instead of this, the brain activity estimating means 30 may not have the conversion unit 31. In this case, it is possible to omit processing for creating facial skin temperature data corresponding to the relative temperature conversion data or analyzing data based on the facial skin temperature data corresponding to the relative temperature conversion data.

ただし、人間の脳活動に関連する成分を精度よく同定するためには、上記実施形態のように脳活動推定手段30が換算部31を有しており、解析部32によって、顔面皮膚温度取得手段20により取得された温度換算データに応じた顔面皮膚温度データだけでなく、相対的な温度データに換算された温度データに基づく相対温度データに応じた顔面皮膚温度データについても、特異値分解により複数の成分に分解され、各成分についての解析が行われるほうが望ましい。   However, in order to accurately identify a component related to human brain activity, the brain activity estimation means 30 has a conversion unit 31 as in the above embodiment, and the analysis unit 32 performs facial skin temperature acquisition means. A plurality of facial skin temperature data corresponding to the relative temperature data based on the temperature data converted to the relative temperature data as well as the facial skin temperature data corresponding to the temperature converted data acquired by 20 are obtained by singular value decomposition. It is desirable that each component is analyzed after being decomposed into these components.

(4−1−2)変形例1B
また、上記顔面皮膚温度取得手段20は、対象物と非接触の状態で温度データを取得することができる赤外線サーモグラフィ装置である。
(4-1-2) Modification 1B
The facial skin temperature acquisition means 20 is an infrared thermography device that can acquire temperature data in a non-contact state with an object.

しかしながら、個人の顔面の少なくとも一部の皮膚温度を検出し、検出した温度データ及びその検出部位の位置データを含む顔面皮膚温度データを時系列で取得することができれば、顔面皮膚温度取得手段は赤外線サーモグラフィ装置に限定されない。   However, if the skin temperature of at least a part of an individual's face is detected and the facial skin temperature data including the detected temperature data and the position data of the detected part can be acquired in time series, the facial skin temperature acquisition means is infrared. It is not limited to a thermography device.

例えば、顔面皮膚温度取得手段が温度センサを含む装置であってもよい。具体的には、個人の顔面の所定部位に温度センサを装着し、温度センサによって検出される温度データと、温度センサを装着した部位の位置データとに基づいて、時系列の顔面皮膚温度データが取得されてもよい。このように、温度センサにより対象となる個人に接触した状態で顔面皮膚温度データが取得される場合であっても、温度センサは脳波電極等のように装着前の処理が必要ではないため、脳波計測法、磁気共鳴画像法、及び近赤外線分光法等の従来の検出方法と比較して、簡便にデータを取得することができる。これにより、簡便に人間の脳活動を推定することができる。   For example, the facial skin temperature acquisition means may be a device including a temperature sensor. Specifically, a temperature sensor is attached to a predetermined part of an individual's face, and time-series facial skin temperature data is based on temperature data detected by the temperature sensor and position data of the part where the temperature sensor is attached. May be acquired. As described above, even when facial skin temperature data is acquired in a state in which the temperature sensor is in contact with the target individual, the temperature sensor does not require pre-wearing processing like an electroencephalogram electrode. Compared with conventional detection methods such as measurement, magnetic resonance imaging, and near infrared spectroscopy, data can be easily acquired. Thereby, human brain activity can be estimated simply.

(4−2)顔面の撮影画像データに基づき脳活動を推定する脳活動推定手段130
図21は、本発明の実施形態に係る脳活動可視化装置110の概略図である。図22は、脳活動可視化装置110において脳機能を反映した顔面のRGB変化を示す成分を同定する際の処理の流れの一例を示すフローチャートである。
(4-2) Brain activity estimating means 130 for estimating brain activity based on face image data.
FIG. 21 is a schematic diagram of the brain activity visualization apparatus 110 according to the embodiment of the present invention. FIG. 22 is a flowchart illustrating an example of a processing flow when the component indicating the RGB change of the face reflecting the brain function is identified in the brain activity visualization apparatus 110.

脳活動可視化装置110の備える脳活動推定手段130は、個人(被験者)の顔面の撮影画像データから、個人の脳活動を推定するための装置である。脳活動可視化装置110は、図21に示すように、画像データ取得手段120と、脳活動推定手段130と、状態可視化手段200と、を備える。   The brain activity estimating means 130 included in the brain activity visualization device 110 is a device for estimating the brain activity of the individual from the captured image data of the face of the individual (subject). As shown in FIG. 21, the brain activity visualization apparatus 110 includes image data acquisition means 120, brain activity estimation means 130, and state visualization means 200.

画像データ取得手段120は、個人の顔面の少なくとも一部の撮影画像データを時系列で取得する(ステップS101)。なお、画像データ取得手段120は、少なくとも撮影装置を有するものであれば特に限定されるものではなく、例えば、スマートフォンやタブレット(例えば、iPad:登録商標)等の撮影装置内蔵型ポータブル端末等が挙げられる。ここでは、画像データ取得手段120は、図21に示すように、撮影装置としてのカメラ121と、記憶部122とを有する。カメラ121は、個人の顔面の撮影画像データを時系列で取得するためのものである。ここでは、カメラ121は、個人の顔面全体の動画を撮影し、撮影した動画データを取得する。記憶部122は、撮影装置により撮影された時系列の撮影画像データを蓄積する。ここでは、記憶部122は、カメラ121によって取得された動画データを蓄積する。   The image data acquisition unit 120 acquires captured image data of at least a part of an individual's face in time series (step S101). The image data acquisition means 120 is not particularly limited as long as it has at least a photographing device, and examples thereof include a portable terminal with a photographing device such as a smartphone or a tablet (for example, iPad: registered trademark). It is done. Here, the image data acquisition unit 120 includes a camera 121 as a photographing apparatus and a storage unit 122, as shown in FIG. The camera 121 is for acquiring captured image data of an individual's face in time series. Here, the camera 121 captures a moving image of the entire face of the individual and acquires the captured moving image data. The storage unit 122 accumulates time-series photographed image data photographed by the photographing apparatus. Here, the storage unit 122 accumulates moving image data acquired by the camera 121.

なお、ここでは、カメラ121によって顔面全体の動画が撮影されているが、これに限定されず、顔面の少なくとも前額部及び/又は副鼻腔周辺の画像を含む動画が撮影されていればよい。   Here, the moving image of the entire face is captured by the camera 121, but the present invention is not limited to this, and it is only necessary to capture a moving image including an image of at least the forehead portion and / or the sinuses around the face.

また、ここでは、画像データ取得手段120により顔面の時系列の撮影画像データが取得されている間に、個人に対して脳機能賦活課題が一定期間与えられる。すなわち、画像データ取得手段120により取得される撮影画像データには、個人に対して脳機能賦活課題が与えられている期間のデータが含まれていることになる。なお、個人に対して与えられる脳機能賦活課題としては、脳が賦活状態になると推定されるものであれば特に限定されるものではなく、例えば、脳活動可視化装置110の利用目的に応じてその内容が適宜決定されるよう構成されていてもよい。   Also, here, while the time-series captured image data of the face is acquired by the image data acquisition means 120, a brain function activation task is given to the individual for a certain period. That is, the captured image data acquired by the image data acquisition unit 120 includes data for a period in which a brain function activation task is given to an individual. The brain function activation task given to an individual is not particularly limited as long as it is estimated that the brain is activated, for example, depending on the purpose of use of the brain activity visualization device 110 You may be comprised so that the content may be determined suitably.

脳活動推定手段130は、画像データ取得手段120により取得された顔面の時系列の撮影画像データに基づき、人間の脳活動を推定する。具体的には、脳活動推定手段130は、図21に示すように、RGB処理部131と、換算部132と、血行量算出部133と、解析部134と、推定部135と、を有する。なお、図21では、脳活動推定手段130が、RGB処理部131、換算部132、血行量算出部133、解析部134及び推定部135を有する1つの装置として存在している態様が示されているが、本発明はこれに限定されるものではなく、RGB処理部131、換算部132、血行量算出部133、解析部134及び推定部135の一部或いはそれぞれが独立した装置として存在していてもよい。また、ここでは、画像データ取得手段120、RGB処理部131、換算部132、及び血行量算出部133により顔面血行量取得手段が構成されている。   The brain activity estimation unit 130 estimates human brain activity based on time-series captured image data of the face acquired by the image data acquisition unit 120. Specifically, as shown in FIG. 21, the brain activity estimation unit 130 includes an RGB processing unit 131, a conversion unit 132, a blood flow rate calculation unit 133, an analysis unit 134, and an estimation unit 135. FIG. 21 shows an aspect in which the brain activity estimation means 130 exists as one device having the RGB processing unit 131, the conversion unit 132, the blood flow calculation unit 133, the analysis unit 134, and the estimation unit 135. However, the present invention is not limited to this, and part or each of the RGB processing unit 131, the conversion unit 132, the blood flow volume calculation unit 133, the analysis unit 134, and the estimation unit 135 exists as an independent device. May be. In addition, here, the facial blood flow volume acquisition unit is configured by the image data acquisition unit 120, the RGB processing unit 131, the conversion unit 132, and the blood flow volume calculation unit 133.

RGB処理部131は、画像データ取得手段120により取得された撮影画像データに対して、R成分、G成分及びB成分の3つの色成分に分解するRGB処理を行う(ステップS102)。ここで、顔面全体の撮影画像データに対してRGB処理を行ってもよいが、ここでは、演算処理量及びノイズを減らすために、撮影画像データから前額部及び/又は副鼻腔周辺のデータを抽出し、抽出したデータについてのみRGB処理を行うものとする。   The RGB processing unit 131 performs RGB processing that decomposes the captured image data acquired by the image data acquisition unit 120 into three color components, an R component, a G component, and a B component (step S102). Here, the RGB processing may be performed on the captured image data of the entire face, but here, in order to reduce the calculation processing amount and noise, the data on the forehead part and / or the sinuses around the captured image data is reduced. It is assumed that RGB processing is performed only on the extracted data.

換算部132は、RGB処理により得られた撮影画像データのRGBデータを相対的なRGBデータに換算する(ステップS103)。具体的には、換算部132は、取得された所定時間毎(例えば、30秒)の撮影画像データから得られるRGBデータの平均値を基準値として、該RGBデータを相対的なRGBデータに換算する。   The conversion unit 132 converts the RGB data of the captured image data obtained by the RGB processing into relative RGB data (step S103). Specifically, the conversion unit 132 converts the RGB data into relative RGB data using the average value of the RGB data obtained from the acquired captured image data every predetermined time (for example, 30 seconds) as a reference value. To do.

血行量算出部133は、RGB処理により得られた撮影画像データのRGBデータに基づき、顔面の時系列の血行量データを算出する(ステップS104)。   The blood flow volume calculation unit 133 calculates time-series blood flow volume data of the face based on the RGB data of the captured image data obtained by the RGB processing (step S104).

解析部134は、時系列の相対換算血行量データを、特異値分解、主成分分析或いは独立成分分析により複数の成分に分解する(ステップS105)。ここでは、解析部134は、相対換算血行量データに対して、MATLAB(登録商標)のSVDを分析ツールとして用いて、特異値分解を行う。具体的には、特異値分解は、時系列の相対換算血行量データを対象として、要因を所定期間(例えば、30秒)毎の時間データとし、測度をその期間毎における相対的なRGBデータから演算したピクセル毎の相対換算血行量データとして行われる。そして、特異値分解により、時系列の相対換算血行量データを複数の成分に分解し、時間分布と、空間分布と、各成分の大きさを示す特異値とを算出する。   The analysis unit 134 decomposes the time-series relative converted blood flow data into a plurality of components by singular value decomposition, principal component analysis, or independent component analysis (step S105). Here, the analysis unit 134 performs singular value decomposition on the relative converted blood flow data using the SVLAB of MATLAB (registered trademark) as an analysis tool. Specifically, the singular value decomposition is performed on time-series relative converted blood flow data, with the factor being time data for each predetermined period (for example, 30 seconds), and the measure is calculated from relative RGB data for each period. This is performed as the calculated relative blood flow volume data for each pixel. Then, by singular value decomposition, the time-series relative converted blood flow data is decomposed into a plurality of components, and a time distribution, a spatial distribution, and a singular value indicating the size of each component are calculated.

また、解析部134は、特異値分解によって分解した複数の成分から脳活動を反映した顔面のRGB変化を示す成分を同定するために、各成分が所定条件を満たすか否かを判定する(ステップS106)。ここで、所定条件としては、例えば、特異値分解によって分解した成分の成分波形の振幅が、脳の非賦活時及び脳の賦活時の変化と相関関係にあるという条件(以下、第1条件という)や、特異値分解によって分解した成分において人間の顔面の所定部位に血行量変化があるという条件(以下、第2条件という)等が含まれる。解析部134において判定される所定条件としては、1又は複数の条件が設定されていればよく、ここでは、所定条件として第1条件が設定されているものとする。   Further, the analysis unit 134 determines whether or not each component satisfies a predetermined condition in order to identify a component indicating the RGB change of the face reflecting the brain activity from the plurality of components decomposed by the singular value decomposition (step) S106). Here, as the predetermined condition, for example, the condition that the amplitude of the component waveform of the component decomposed by the singular value decomposition is correlated with the change at the time of non-activation of the brain and the activation of the brain (hereinafter referred to as the first condition). ), A condition that there is a change in blood flow in a predetermined part of the human face in a component decomposed by singular value decomposition (hereinafter referred to as a second condition), and the like. As the predetermined condition determined by the analysis unit 134, one or a plurality of conditions may be set. Here, it is assumed that the first condition is set as the predetermined condition.

そして、解析部134は、複数の成分のうち所定条件を満たす成分を、判定用成分として抽出する。さらに、解析部134は、抽出した判定用成分のうち所定条件に含まれる全ての条件を満たす成分を、脳活動を反映した顔面のRGB変化を示す成分として同定する(ステップS107)。一方、解析部134は、複数の成分のうち所定条件に含まれる少なくとも1つの条件を満たさないと判定した成分を、脳活動を反映した顔面のRGB変化を示す成分ではないと判定する(ステップS108)。   And the analysis part 134 extracts the component which satisfy | fills predetermined conditions among several components as a component for determination. Further, the analysis unit 134 identifies a component satisfying all the conditions included in the predetermined condition among the extracted determination components as a component indicating the RGB change of the face reflecting the brain activity (step S107). On the other hand, the analysis unit 134 determines that the component determined not to satisfy at least one condition included in the predetermined condition among the plurality of components is not a component indicating the RGB change of the face reflecting the brain activity (step S108). ).

ここでは、上述のように所定条件として1つの条件(第1条件)のみが設定されており、顔面の時系列の撮影画像データを取得している間に、個人に対して脳機能賦活課題が与えられている期間が一定期間ある。このため、解析部134は、個人に対して脳機能賦活課題が与えられていない期間を脳の非賦活時とし、個人に対して脳機能賦活課題が与えられている期間を脳の賦活時として、脳機能賦活課題が与えられている期間及び与えられていない期間と、各成分の成分波形とを比較解析する。そして、解析部134は、成分波形データに基づく比較解析結果を利用して、各成分の成分波形と脳の非賦活時及び脳の賦活時とが相関関係にあるか否かを評価し、複数の成分のうち相関関係にあると評価した成分を、所定条件を満たす判定用成分として抽出すると共に、脳活動を反映した顔面のRGB変化を示す成分として同定する。一方、解析部134は、複数の成分のうち相関関係にないと評価した成分を、所定条件を満たさず人間の脳活動を反映した顔面のRGB変化を示す成分ではないと判定する。   Here, only one condition (first condition) is set as the predetermined condition as described above, and the brain function activation task is given to the individual while acquiring time-series captured image data of the face. There is a given period of time. For this reason, the analysis unit 134 sets the period when the brain function activation task is not given to the individual as the non-activation time of the brain, and sets the period when the brain function activation task is given to the individual as the brain activation time The period in which the brain function activation task is given and the period in which the brain function activation task is not given, and the component waveform of each component are compared and analyzed. And the analysis part 134 evaluates whether the component waveform of each component and the time of non-activation of a brain and the time of activation of a brain have a correlation using the comparative analysis result based on component waveform data, Among these components, a component evaluated as having a correlation is extracted as a determination component that satisfies a predetermined condition, and is identified as a component indicating a change in RGB of the face reflecting brain activity. On the other hand, the analysis unit 134 determines that a component evaluated as having no correlation among the plurality of components is not a component that does not satisfy the predetermined condition and indicates a change in RGB of the face that reflects human brain activity.

ここでは、顔面の時系列の撮影画像データが取得される際に個人に対して脳機能賦活課題が一定期間与えられており、これに基づき解析部134が判定用成分を抽出しているが、第1条件の内容、すなわち解析部134における判定用成分の抽出手段はこれに限定されない。例えば、予め実験等がされていることで複数の成分のうち脳の非賦活時及び脳の賦活時と相関関係にある成分波形を示す成分が特定されている場合には、解析部134は、複数の成分から特定されている該成分を判定用成分として抽出する。また、脳活動可視化装置110において眼球運動又はまたたき等の脳の賦活/非賦活に関連することが知られている人間の動作についても検出される場合には、解析部134が、この検出結果と各成分の成分波形とを比較解析及び評価することで、複数の成分から判定用成分を抽出してもよい。なお、解析部134による第1条件を満たすか否かの判定の基準は、脳活動可視化装置110の利用目的等に応じて、シミュレーションや実験、机上計算等によって適宜決定される。   Here, a brain function activation task is given to an individual for a certain period when time-series captured image data of the face is acquired, and the analysis unit 134 extracts a determination component based on this, The content of the first condition, that is, the determination component extraction means in the analysis unit 134 is not limited to this. For example, when a component indicating a component waveform that is correlated with the non-activation time and the activation time of the brain among a plurality of components is identified by performing an experiment or the like in advance, the analysis unit 134 The component specified from the plurality of components is extracted as a determination component. In addition, when the human activity known to be related to activation / deactivation of the brain, such as eye movement or tapping, is also detected in the brain activity visualization device 110, the analysis unit 134 A determination component may be extracted from a plurality of components by comparative analysis and evaluation of the component waveform of each component. Note that the criterion for determining whether or not the first condition is satisfied by the analysis unit 134 is appropriately determined by simulation, experiment, desktop calculation, or the like according to the purpose of use of the brain activity visualization device 110 or the like.

また、所定条件として第2条件が設定されている場合には、解析部134は、人間の顔面の所定部位における顔面の血行量変化の有無に基づき、判定用成分を抽出する。具体的には、解析部134は、特異値分解によって分解された複数の成分に応じた血行量分布図に基づき、副鼻腔周辺及び/又は前額部において血行量の変化が生じているか否かを判定し、血行量の変化が生じている場合には該成分が第2条件を満たしていると判定する。一方で、副鼻腔周辺及び/又は前額部において血行量の変化が生じていない場合には、解析部134は、該成分が第2条件を満たしていないと判定する。なお、解析部134による第2条件を満たすか否かの判定の基準は、脳活動可視化装置110の利用目的等に応じて、シミュレーションや実験、机上計算等によって適宜決定されるものとする。   When the second condition is set as the predetermined condition, the analysis unit 134 extracts a determination component based on whether or not there is a change in the blood flow rate of the face at a predetermined part of the human face. Specifically, the analysis unit 134 determines whether or not there is a change in blood flow around the sinuses and / or the forehead based on the blood flow distribution map corresponding to a plurality of components decomposed by the singular value decomposition. If a change in blood flow occurs, it is determined that the component satisfies the second condition. On the other hand, when there is no change in the blood flow volume around the sinuses and / or the forehead, the analysis unit 134 determines that the component does not satisfy the second condition. Note that the criterion for determining whether or not the second condition is satisfied by the analysis unit 134 is appropriately determined by simulation, experiment, desktop calculation, or the like according to the purpose of use of the brain activity visualization device 110 or the like.

さらに、血行量算出部133によって相対的なRGBデータに換算される前のRGBデータに基づく時系列の血行量データが算出される場合には、解析部134によって、該血行量データを特異値分解等することで得られた複数の成分についても、上記第1条件及び/又は第2条件が満たされるか否かが判定され、判定用成分が抽出されてもよい。   Further, when time-series blood flow data based on RGB data before being converted into relative RGB data is calculated by the blood flow calculation unit 133, the blood flow data is subjected to singular value decomposition by the analysis unit 134. With respect to a plurality of components obtained by performing the same, it may be determined whether or not the first condition and / or the second condition is satisfied, and a determination component may be extracted.

推定部135は、解析部134において人間の脳活動を反映した顔面のRGB変化を示す成分として同定された成分に基づいて、人間の脳活動を推定する。具体的には、推定部135は、解析部134において同定された成分の成分波形データに基づいて、顔面の撮影画像データの取得時における脳活動量を推定する。   The estimation unit 135 estimates the human brain activity based on the component identified by the analysis unit 134 as the component indicating the RGB change of the face reflecting the human brain activity. Specifically, the estimation unit 135 estimates the amount of brain activity when acquiring facial image data based on the component waveform data of the component identified by the analysis unit 134.

(4−2−1)変形例2A
上述したように、カメラ121としては、例えば、スマートフォンやタブレット(例えば、iPad:登録商標)等の撮影装置内蔵型ポータブル端末等を利用することができる。すなわち、上述の撮影画像データは、可視光領域の画像を撮像するものを採用することができる。
(4-2-1) Modification 2A
As described above, as the camera 121, for example, a portable terminal with a built-in photographing apparatus such as a smartphone or a tablet (for example, iPad: registered trademark) can be used. That is, as the above-described captured image data, data that captures an image in the visible light region can be employed.

また、上記血行量算出部133において、RGBデータに含まれる各画素のうちの主にR成分を用いて顔面の血行量データが算出されてもよい。また、RGBデータに基づき血行量データを算出できるのであれば、血行量データは必ずしも紅斑指数に限定されるものではない。   Further, the blood flow amount calculation unit 133 may calculate the blood flow amount data of the face mainly using the R component of each pixel included in the RGB data. In addition, blood flow volume data is not necessarily limited to the erythema index as long as blood flow volume data can be calculated based on RGB data.

(4−2−2)変形例2B
上記血行量算出部133は、換算部132によって換算された相対的なRGBデータに基づき相対換算血行量データを算出するが、これに代えて或いはこれに加えて、相対的なRGBデータに換算される前のRGBデータに基づき血行量データが算出されてもよい。ここで、相対的なRGBデータに換算される前のRGBデータに基づき算出された血行量データには、脳活動と相関する成分が出やすい(検定力が高い)ため、例えば、相対的なRGBデータに換算される前のRGBデータに基づき算出された血行量データを、相対的なRGBデータに基づき算出された相対換算血行量データよりも先行して解析してもよい。また、例えば、まず、血行量データを解析して有意な相関のある成分を抽出し、相対換算血行量データに関しては、前記抽出した成分に対応する成分のみを解析することで、演算処理量を減らすことができる。
(4-2-2) Modification 2B
The blood flow volume calculation unit 133 calculates relative converted blood flow volume data based on the relative RGB data converted by the conversion unit 132, but instead of or in addition to this, the blood flow volume calculation unit 133 converts the blood flow volume data into relative RGB data. The blood flow volume data may be calculated based on the RGB data before the check. Here, since the blood flow volume data calculated based on the RGB data before being converted into the relative RGB data easily includes a component correlated with the brain activity (the test power is high), for example, the relative RGB data Blood flow volume data calculated based on RGB data before conversion into data may be analyzed prior to relative converted blood flow volume data calculated based on relative RGB data. In addition, for example, first, the blood flow data is analyzed to extract a component having a significant correlation, and the relative conversion blood flow data is calculated by analyzing only the component corresponding to the extracted component. Can be reduced.

(4−2−3)変形例2C
上記カメラ121は可視光領域の通常のカメラを前提としていたが、赤外線カメラを用いることもできる。この場合、赤外光を照射し、その反射波を赤外線カメラで撮像する。これにより、対象者の顔面変化等の撮影画像データを得ることができる。本発明者らにより、赤外線の反射により得られた撮影画像データから算出された血行量データと、可視光領域で撮影されたRGBデータに含まれる各画素のうちの主にR成分を用いて算出された血行量データとには相関があることが確認された。したがって、このような赤外線の反射から得られた撮影画像データを用いても、人間の脳活動を推定することができる。
(4-2-3) Modification 2C
The camera 121 is assumed to be a normal camera in the visible light region, but an infrared camera can also be used. In this case, infrared light is irradiated and the reflected wave is imaged with an infrared camera. Thereby, it is possible to obtain photographed image data such as a face change of the subject. Calculated by the present inventors mainly using the R component of the blood flow volume data calculated from the captured image data obtained by infrared reflection and each pixel included in the RGB data captured in the visible light region. It was confirmed that there was a correlation with the measured blood flow data. Therefore, human brain activity can be estimated even using such captured image data obtained from infrared reflection.

(4−2−4)変形例2D
なお、上記説明においては、脳活動可視化装置110が、画像データ取得手段120と、脳活動推定手段130とを備える形態としていたが、本実施形態に係る脳活動可視化装置は、このような形態に限定されるものではない。すなわち、本実施形態に係る脳活動可視化装置は、血行量算出部133、解析部134及び推定部135を含むものであれば、その他の構成については任意の形態を採り得るものである。具体的には、本実施形態に係る脳活動可視化装置は、当該装置自体が画像データを撮影する形態だけではなく、外部の装置から撮影画像データを受け取り、それを解析する形態を含むものである。
(4-2-4) Modification 2D
In the above description, the brain activity visualization device 110 is configured to include the image data acquisition unit 120 and the brain activity estimation unit 130. However, the brain activity visualization device according to the present embodiment has such a configuration. It is not limited. That is, the brain activity visualization apparatus according to the present embodiment can take any form for other configurations as long as it includes the blood flow volume calculation unit 133, the analysis unit 134, and the estimation unit 135. Specifically, the brain activity visualization device according to the present embodiment includes not only a mode in which the device itself captures image data, but also a mode in which captured image data is received from an external device and analyzed.

(4−3)状態可視化手段200
状態可視化手段200は、脳活動推定手段30及び/又は脳活動推定手段130により推定された対象者の脳活動に基づき、対象者の生理状態を表示することにより可視化する。例えば、状態可視化手段200が、対象者の脳活動量の変化を解析することで、対象者の生理状態を解析する解析部201を有していてもよい。具体的には、解析部201が、対象者に対して与えられた刺激(視覚刺激、聴覚刺激、触覚刺激、臭覚刺激或いは味覚刺激等)に対する脳活動量の変化を解析することで、対象者の生理状態を判定する。なお、生理状態の種類やレベルについては、脳活動量の上昇度合い及び/又は持続時間に基づき、脳活動可視化装置10,110の用途に応じて適宜設置可能になっていてもよい。そして、解析部201により解析された対象者の生理状態を状態可視化手段200の表示部202から管理者へと出力されることで、管理者は対象者の生理状態を知ることができる。表示部202としては、画像やメッセージを表示する表示デバイス等、解析した対象者の生理状態に関する情報を管理者に対して可視化できるものであればどのようなものであっても採用することができる。
(4-3) State visualization means 200
The state visualizing means 200 is visualized by displaying the physiological state of the subject based on the brain activity of the subject estimated by the brain activity estimating means 30 and / or the brain activity estimating means 130. For example, the state visualization unit 200 may include an analysis unit 201 that analyzes the physiological state of the subject by analyzing changes in the amount of brain activity of the subject. Specifically, the analysis unit 201 analyzes the change in the amount of brain activity with respect to the stimulus (visual stimulus, auditory stimulus, tactile stimulus, olfactory stimulus, taste stimulus, etc.) given to the subject, so that the subject Physiological state is determined. In addition, about the kind and level of a physiological state, based on the raise degree and / or duration of brain activity amount, according to the use of the brain activity visualization apparatuses 10 and 110, you may be able to install suitably. Then, the physiological state of the subject analyzed by the analysis unit 201 is output from the display unit 202 of the state visualization means 200 to the administrator, so that the administrator can know the physiological state of the subject. As the display unit 202, any display device that displays an image or a message can be adopted as long as it can visualize information on the analyzed physiological state of the subject person to the administrator. .

また、解析部32,134において脳活動を反映する成分が同定された後に、さらに顔面皮膚温度取得手段20及び/又は画像データ取得手段120により時系列の各種データが取得される場合には、脳活動可視化装置10,110において、さらに取得された各種データが特異値分解により複数の成分に分解され、同定された成分のみが解析されることで、対象者の生理状態をリアルタイムで知ることができる。   In addition, when various components of time series are acquired by the facial skin temperature acquisition unit 20 and / or the image data acquisition unit 120 after the components reflecting the brain activity are identified in the analysis units 32 and 134, In the activity visualization apparatuses 10 and 110, the acquired various data are further decomposed into a plurality of components by singular value decomposition, and only the identified components are analyzed, so that the physiological state of the subject can be known in real time. .

さらに、被験者の顔面の皮膚温度や撮影した画像から被験者の心拍情報や生体情報等を取得する技術が従来よりあるが、顔面皮膚温度取得手段20及び/又は画像データ取得手段120から得られた各種データが特異値分解等されることで得られる成分に対して従来の技術を採用することで、心拍情報や生体情報を精度良く取得することができる。したがって、特異値分解した複数の成分を解析して心拍情報や生体情報を取得する機能を、解析部32及び/又は解析部134に持たせ、取得した心拍情報や生体情報に基づき交換神経/副交感神経の働きを推定する機能を上記実施形態の推定部33,135に持たせてもよい。   Furthermore, there is a conventional technique for acquiring the subject's facial skin temperature or captured image from heartbeat information, biological information, or the like. However, various techniques obtained from the facial skin temperature acquisition means 20 and / or the image data acquisition means 120 are available. By adopting a conventional technique for a component obtained by performing singular value decomposition or the like on the data, heart rate information and biological information can be obtained with high accuracy. Therefore, the analysis unit 32 and / or the analysis unit 134 have a function of analyzing a plurality of components subjected to singular value decomposition to acquire heart rate information and biological information, and based on the acquired heart rate information and biological information, the exchange nerve / parasympathy You may give the estimation part 33,135 of the said embodiment the function which estimates the function of a nerve.

(5)特徴
(5−1)
本実施形態では、顔面皮膚温度取得手段20及び/又は画像データ取得手段120によって取得された時系列の顔面皮膚温度データ及び/又は顔面血行量データに基づき人間の脳活動が推定される。このため、脳波電極等の装着前に処理が必要なセンサを装着しなくても、人間の脳活動を推定することができる。したがって、簡便に人間の脳活動を推定し、推定した脳活動に基づき対象者の生理状態を可視化することができている。
(5) Features (5-1)
In the present embodiment, human brain activity is estimated based on time-series facial skin temperature data and / or facial blood flow data acquired by the facial skin temperature acquisition means 20 and / or the image data acquisition means 120. For this reason, human brain activity can be estimated without mounting a sensor that requires processing before mounting an electroencephalogram electrode or the like. Therefore, it is possible to easily estimate human brain activity and visualize the physiological state of the subject based on the estimated brain activity.

(5−2)
ここで、時系列の顔面の皮膚温度データ及び/又は画像データが取得される際に、人間に対して実際に脳機能賦活課題が与えられたり与えられなかったりすることにより、人間の脳が賦活化したり賦活化しなかったりする状況が作られている場合、各成分の成分波形と脳の賦活時及び非賦活時との間に相関関係のある成分は、脳活動を反映した皮膚温度及び/又は血行量の変化を示す成分である可能性が高い成分であるといえる。
(5-2)
Here, when time-series facial skin temperature data and / or image data is acquired, a human brain function is activated by whether or not a human brain function activation task is actually given. If the situation is activated or not activated, the component having a correlation between the component waveform of each component and the activation and non-activation of the brain is the skin temperature reflecting the brain activity and / or It can be said that it is a component with high possibility of being a component which shows the change of blood flow volume.

本実施形態では、顔面皮膚温度取得手段20及び/又は画像データ取得手段120により時系列の顔面の皮膚温度データ及び/又は画像データが取得されている間に、個人に対して脳機能賦活課題が一定期間与えられている。すなわち、本実施形態では、個人に対して実際に脳機能賦活課題を与えたり与えなかったりすることにより、人間の脳が賦活化したり賦活化しなかったりする状況が作られている。そして、このように取得された時系列の各種データが特異値分解により複数の成分に分解され、各成分についてその成分波形と脳の賦活時及び非賦活時との相関関係が評価され、相関関係にある成分が判定用成分として複数の成分から抽出される。このため、例えば、予め実験等により特定された所定の成分が抽出用成分として複数の成分から抽出される場合と比較して、人間の脳活動と関連性の低い成分が抽出用成分として複数の成分から抽出されるおそれを低減することができている。   In this embodiment, while the facial skin temperature acquisition means 20 and / or the image data acquisition means 120 are acquiring time-series facial skin temperature data and / or image data, the brain function activation task is performed on the individual. Given for a certain period. That is, in this embodiment, a situation is created in which the human brain is activated or not activated by actually giving or not giving a brain function activation task to an individual. The time series data acquired in this way is decomposed into a plurality of components by singular value decomposition, and the correlation between the component waveform and activation and non-activation of the brain is evaluated for each component. Are extracted from a plurality of components as determination components. For this reason, for example, compared with a case where a predetermined component specified in advance by experiments or the like is extracted from a plurality of components as an extraction component, a plurality of components that are less relevant to human brain activity are extracted as a plurality of extraction components. The possibility of being extracted from the components can be reduced.

(5−3)
ここで、脳には、選択的脳冷却機構という体温とは独立して脳を冷却する仕組みがある。選択的脳冷却機構としては、脳活動によって生じた熱を前額部及び副鼻腔周辺を用いて排熱していることが知られている。そうすると、脳活動に伴う顔面皮膚温度や顔面皮膚温度に相関する顔面の血行量の変化は、前額部及び/又は副鼻腔周辺に出現することになる。
(5-3)
Here, the brain has a mechanism that cools the brain independently of the body temperature, which is a selective brain cooling mechanism. As a selective brain cooling mechanism, it is known that heat generated by brain activity is exhausted using the forehead portion and the periphery of the sinuses. If it does so, the change of the blood flow volume of the face correlating with the facial skin temperature and facial skin temperature accompanying brain activity will appear in a forehead part and / or a sinus periphery.

本実施形態では、前額部及び/又は副鼻腔周辺の各種データが解析されて、判定用成分が抽出されている。このため、人間の脳活動に関連する成分を精度よく抽出することができている。   In the present embodiment, various data around the forehead and / or the sinuses are analyzed, and the determination component is extracted. For this reason, it is possible to accurately extract components related to human brain activity.

(6)脳活動可視化装置の用途例
次に、本発明に係る脳活動可視化装置の用途例について説明する。
(6) Application example of brain activity visualization apparatus Next, an application example of the brain activity visualization apparatus according to the present invention will be described.

(6−1)患者に対して用いる場合
上記実施形態又は上記変形例の脳活動可視化装置10,110を、例えば病院を訪れた患者に対して用いる場合の一例を説明する。例えば、うつ状態を客観的に定量するために脳活動可視化装置10,110を用いる場合には、患者に対して繰り上がり又は繰り下がりのある暗算等の脳機能賦活課題を与え、脳活動賦活課題が与えられる前後の脳活動量の変化が解析され可視化されることで、患者の精神状態を判定することができる。具体的には、脳機能賦活課題が与えられる間の脳活動量が上昇しない場合には、患者が無気力状態であると判定することができ、脳機能賦活課題が与えられている間に脳活動量が上昇しても、その脳活動量の上昇時間が短い場合には、患者の気力が低下している状態であると判定することができる。そして、このような解析を1日の間に複数回行い、平均的に脳活動量の低下が認められる場合には、管理者は、患者がうつ状態であると判断することができる。
(6-1) When used for a patient An example of using the brain activity visualization devices 10 and 110 of the above-described embodiment or the modified example for a patient who has visited a hospital will be described. For example, in the case where the brain activity visualization devices 10 and 110 are used to objectively quantify the depression state, a brain function activation task such as mental arithmetic with carry-up or carry-down is given to the patient, and the brain activity activation task is given. By analyzing and visualizing changes in the amount of brain activity before and after being given, the patient's mental state can be determined. Specifically, if the amount of brain activity does not increase while the brain function activation task is given, it can be determined that the patient is in a state of lethargy, and the brain activity while the brain function activation task is given Even if the amount rises, if the rise time of the amount of brain activity is short, it can be determined that the patient's energy is reduced. Then, such an analysis is performed a plurality of times during one day, and when the decrease in the brain activity amount is recognized on average, the administrator can determine that the patient is in a depressed state.

また、脳活動可視化装置10,110を、救急患者の意識の有無や患者が覚醒したかどうかを判定するために用いる場合には、患者の皮膚をさすったり患者に声掛けしたりする等の刺激を患者に対して与え、この刺激が与えられる前後の脳活動量の変化が解析され可視化されることで、患者の意識の有無や覚醒したかどうかを判定することができる。例えば、麻酔が導入されている患者に対して皮膚への刺激や声掛け等を行っている間に脳活動量が上昇した場合には、患者が覚醒したと判定することができる。したがって、仮に患者が言葉を発することのできない状態にあったとしても、管理者は患者の意識の有無や患者が覚醒したかどうかを知ることができる。また、患者に与える刺激の強度を変化させ、このときの脳の賦活の有無を解析することで、覚醒の度合い(レベル)を判定することもできる。強度の低い刺激としては、例えば、手を握る又は手を動かす等の刺激を挙げることができ、強度の高い刺激としては、例えば、手に氷を当てる等の身体に対して温度変化を与える刺激や身体に対して痛みを与える刺激等が挙げられる。   In addition, when the brain activity visualization devices 10 and 110 are used to determine whether or not an emergency patient is conscious or whether or not the patient has awakened, stimulation such as touching the patient's skin or calling the patient. And the change in the amount of brain activity before and after the stimulus is applied is analyzed and visualized, so that it is possible to determine whether the patient is conscious or awake. For example, it can be determined that the patient has awakened when the amount of brain activity increases while stimulating the skin or speaking to the patient into which anesthesia has been introduced. Therefore, even if the patient is in a state where he / she cannot speak, the manager can know whether or not the patient is conscious and whether or not the patient has awakened. Also, the degree of arousal can be determined by changing the intensity of the stimulus applied to the patient and analyzing the presence or absence of brain activation at this time. Examples of the low-intensity stimulus include stimuli such as holding a hand or moving the hand. Examples of the high-intensity stimulus include stimuli that change the temperature of the body, such as applying ice to the hand. And stimuli that give pain to the body.

脳活動可視化装置10,110を、リハビリ等の治療の効果を判定するために用いる場合には、患者に対して繰り上がり又は繰り下がりのある暗算等の脳機能賦活課題を与え、この時の脳活動量の変化が解析され可視化されることで、患者に対するリハビリ等の治療の効果を判定することができる。例えば、リハビリや脳トレーニング、或いは運動療法を行う前後で同じ強度を有する脳機能賦活課題が患者に対して与えられ、この時の脳活動量の変化が解析されることで、管理者は、脳活動量の上昇度合いや上昇持続時間からリハビリ等の治療の効果を判定することができる。また、例えば、患者に対して脳機能賦活課題が与えられた時の脳活動量が上昇していない場合には脳血管の虚血状態であると判断することができ、脳活動量の上昇継続時間が短い場合には脳血管血流量が低下している状態であると判断することができる。したがって、脳活動可視化装置10,110を、高気圧酸素治療装置における監視装置として用いることもできる。   When the brain activity visualization devices 10 and 110 are used to determine the effect of treatment such as rehabilitation, a brain function activation task such as mental arithmetic with carry-up or carry-down is given to the patient, and the brain at this time By analyzing and visualizing changes in the amount of activity, the effect of treatment such as rehabilitation on the patient can be determined. For example, a brain function activation task having the same intensity before and after performing rehabilitation, brain training, or exercise therapy is given to a patient, and the change in the amount of brain activity at this time is analyzed. The effect of treatment such as rehabilitation can be determined from the degree of increase in activity amount and duration of increase. In addition, for example, when the brain activity when the brain function activation task is given to the patient is not increased, it can be determined that the ischemic state of the cerebral blood vessel, and the brain activity continues to increase. If the time is short, it can be determined that the cerebral blood flow is in a reduced state. Therefore, the brain activity visualization devices 10 and 110 can also be used as a monitoring device in a hyperbaric oxygen therapy device.

さらに、脳活動可視化装置10,110を、患者の疼痛を定量化するために用いる場合には、患者が疼痛を感じている時(患者からの申告時)の脳活動量の変化(特に、脳活動量の上昇度合いと、その持続時間)とから疼痛強度が定量化されてもよい。この解析結果が可視化されることで、管理者は患者の痛みの度合いを知ることができる。   Further, when the brain activity visualization devices 10 and 110 are used for quantifying patient pain, changes in the amount of brain activity when the patient feels pain (when reporting from the patient) (in particular, the brain The intensity of pain may be quantified from the degree of increase in activity and the duration thereof. By visualizing the analysis result, the administrator can know the degree of pain of the patient.

(6−2)衝撃波等を受ける特殊環境下にある人に対して用いる場合
上記実施形態又は上記変形例の脳活動可視化装置10,110を、例えば消防隊員等の爆発衝撃波を受ける特殊環境下にある人に対して用いる場合の一例を説明する。脳活動可視化装置10,110を、衝撃波等を浴びたことによる生体防護判定(例えば、衝撃波により受けた生体ダメージの状態の判定)に用いる場合には、対象者に対して脳機能賦活課題を与え、この時の脳活動量の変化が解析され可視化されることで、管理者は対象者の脳血管の血流状態を推測することができる。例えば、対象者に対して脳機能賦活課題が与えられた時の脳活動量が上昇していない場合には脳血管の虚血状態であると判断することができ、脳活動量の上昇継続時間が短い場合には脳血管血流量が低下している状態であると判断することができる。
(6-2) When used for a person in a special environment that receives a shock wave or the like The brain activity visualization devices 10 and 110 according to the above-described embodiment or the modification are placed in a special environment that receives an explosion shock wave such as a fire brigade. An example in the case of using with respect to a certain person is demonstrated. When the brain activity visualization devices 10 and 110 are used for biological protection determination (for example, determination of the state of biological damage received by a shock wave) due to exposure to a shock wave or the like, a brain function activation task is given to the subject. By analyzing and visualizing the change in the amount of brain activity at this time, the administrator can estimate the blood flow state of the subject's cerebral blood vessels. For example, if the brain activity when the brain function activation task is given to the subject has not increased, it can be determined that the ischemic state of the cerebral blood vessel, and the duration of increase in brain activity Is short, it can be determined that the cerebral blood flow is in a reduced state.

(6−3)快適性の判断に用いる場合
上記実施形態又は上記変形例の脳活動可視化装置10,110を、対象者の快適性の判断に用いる場合の一例を説明する。例えば、住まいの快適性の判断に脳活動可視化装置10,110を用いる場合には、所定の居住空間にいる対象者が不快と感じている時(対象者からの申告時)の脳活動量の変化(脳活動量の上昇度合いとその継続時間)とから不快度が定量化される。このような解析を1日の間に複数回行い、この解析結果が可視化されることで、管理者は、平均的に脳活動量が昂進しているか否かを評価することにより、対象者の快適度、すなわち、快不快の感情を判断することができる。
(6-3) When used for determination of comfort An example of the case where the brain activity visualization devices 10 and 110 according to the embodiment or the modified example are used for determination of comfort of a subject will be described. For example, when the brain activity visualization devices 10 and 110 are used to judge the comfort of a house, the amount of brain activity when the subject in the predetermined living space feels uncomfortable (when reporting from the subject). The degree of discomfort is quantified from the change (the degree of increase in brain activity and its duration). By performing such an analysis multiple times during the day and visualizing the results of the analysis, the administrator evaluates whether or not the brain activity is on average, It is possible to determine the comfort level, that is, the feeling of pleasant or unpleasant feeling.

(6−4)集中度合いの判定に用いる場合
上記実施形態又は上記変形例の脳活動可視化装置10,110を、学習時や手術時の集中度合いの判定に用いる場合の一例を説明する。例えば、学校、学習塾、会社、eラーニング或いは病院等における学習者の学習内容への集中度を定量化するために脳活動可視化装置10,110を用いる場合には、学習者が学習(課題)に取り組んでいる前後の一定期間(例えば、学習時限)における脳活動量の変化(この期間における上昇度合い)を解析することで、取り組んでいる学習内容に対する学習者の集中度を定量化することができる。これにより、管理者は、可視化される解析結果に基づき、学習内容に対する学習者の集中度を評価することができる。
(6-4) When used for determination of concentration degree An example of the case where the brain activity visualization devices 10 and 110 according to the embodiment or the modification are used for determination of the concentration level during learning or surgery will be described. For example, in the case where the brain activity visualization devices 10 and 110 are used to quantify the degree of concentration of a learner in a school, a cram school, a company, e-learning, or a hospital, the learner learns (problems). By analyzing changes in the amount of brain activity during a certain period of time before and after working on (for example, the learning period) (the degree of increase during this period), it is possible to quantify the degree of concentration of the learner with respect to the learning content being worked on it can. Thereby, the administrator can evaluate the concentration degree of the learner with respect to the learning content based on the analysis result visualized.

(7)疼痛判定装置
本発明に係る脳活動可視化装置を応用した、疼痛判定装置について説明する。
(7) Pain determination device A pain determination device to which the brain activity visualization device according to the present invention is applied will be described.

(7−1)疼痛判定装置の構成
図23は本実施形態に係る疼痛判定装置の一例を示す模式図である。なお、以下の説明では、癌などによる疼痛の判定を行なうものを例に挙げて説明する。
(7-1) Configuration of Pain Determination Device FIG. 23 is a schematic diagram illustrating an example of a pain determination device according to the present embodiment. In the following description, an example of determining pain due to cancer or the like will be described.

疼痛判定装置1000は、入力部1010、撮像部1015、出力部1020、記憶部1030、及び処理部1040を備える。   The pain determination apparatus 1000 includes an input unit 1010, an imaging unit 1015, an output unit 1020, a storage unit 1030, and a processing unit 1040.

入力部1010は、疼痛判定装置1000に各種情報を入力するものである。例えば入力部1010は、キーボード、マウス、及び/又はタッチスクリーン等により構成される。この入力部1010を介して、疼痛判定装置1000に各種命令が入力され、処理部1040において命令に応じた処理が実行される。   The input unit 1010 inputs various information to the pain determination apparatus 1000. For example, the input unit 1010 includes a keyboard, a mouse, and / or a touch screen. Various commands are input to the pain determination apparatus 1000 via the input unit 1010, and processing according to the commands is executed in the processing unit 1040.

撮像部1015は、対象者300の顔面を含む「顔面画像」を撮像するものである。例えば撮像部1015は、RGB画像を取得するCCD及びCMOS等の固体撮像素子や、サーモグラムを取得する赤外線カメラ等により構成される。赤外線カメラ等は通常の室温条件で、29.0℃から37.0℃を高感度で検出できるものが望ましい。また、撮像部1015は、所定の間隔で継続的な撮像が可能である。顔面画像を撮像する場合には正面から一定照明の条件で行なうのが望ましい。姿勢変動により正面画像が得られない場合には、摂動空間法を用い、姿勢変動画像については顔の3次元形状を推定し、正面像にレンダリングすることにより顔面画像を得る。照明変動画像については、拡散反射モデルをベースに構築した顔の照明基底モデルを用いて、一定照明の条件下での顔面画像を得る。そして、撮像部1015により、継続的に撮像された顔面画像が処理部1040に送出される。   The imaging unit 1015 captures a “face image” including the face of the subject 300. For example, the imaging unit 1015 includes a solid-state imaging device such as a CCD and a CMOS that acquires RGB images, an infrared camera that acquires a thermogram, and the like. It is desirable that the infrared camera or the like can detect 29.0 ° C. to 37.0 ° C. with high sensitivity under normal room temperature conditions. In addition, the imaging unit 1015 can perform continuous imaging at a predetermined interval. When capturing a facial image, it is desirable to perform the illumination under constant lighting conditions from the front. When the front image cannot be obtained due to the posture variation, the perturbation space method is used, and the three-dimensional shape of the face is estimated for the posture variation image, and the face image is obtained by rendering the front image. As for the illumination variation image, a facial image under a constant illumination condition is obtained by using a facial illumination base model constructed based on the diffuse reflection model. Then, the facial image continuously captured by the imaging unit 1015 is sent to the processing unit 1040.

出力部1020は、疼痛判定装置1000から各種情報を出力するものである。例えば出力部1020は、ディスプレイ及びスピーカー等により構成される。ここでは、出力部1020を介して、後述する脳機能賦活情報が対象者300に提供される。また、脳機能賦活情報として聴覚刺激情報が用いられる場合、出力部1020としてヘッドホン1020aを用いることも可能である。   The output unit 1020 outputs various information from the pain determination apparatus 1000. For example, the output unit 1020 includes a display, a speaker, and the like. Here, the brain function activation information described later is provided to the target person 300 via the output unit 1020. In addition, when auditory stimulus information is used as brain function activation information, the headphone 1020a can be used as the output unit 1020.

記憶部1030は、疼痛判定装置1000に入力される情報、及び、疼痛判定装置1000で計算される情報等を記憶するものである。例えば記憶部1030は、メモリ及びハードディスク装置等により構成される。また記憶部1030は、後述する処理部1040の各機能を実現するためのプログラムを記憶する。ここでは、記憶部1030は、脳機能賦活情報データベース1031及び判定情報データベース1032を有する。   The storage unit 1030 stores information input to the pain determination apparatus 1000, information calculated by the pain determination apparatus 1000, and the like. For example, the storage unit 1030 includes a memory and a hard disk device. The storage unit 1030 stores a program for realizing each function of the processing unit 1040 described later. Here, the storage unit 1030 includes a brain function activation information database 1031 and a determination information database 1032.

脳機能賦活情報データベース1031は、人間の脳機能を賦活する脳機能賦活情報を記憶するものである。ここでは、「脳機能賦活情報」として、聴覚を刺激する聴覚刺激情報が挙げられる。「聴覚刺激情報」としては、例えば、文章、音楽、又はその他の音を対象者300に認知等させる音響情報が該当する。また、脳機能賦活情報はこれに限らず、対象者の脳機能を賦活する任意の情報を用いることができる。例えば、他の脳機能賦活情報としては、画像、又は、動画、及び模式図の認知等を対象者に対して行なわせる映像を含む「視覚刺激情報」、或いは、記号、文字ないし言語の記憶などの心理的作業を対象者に行なわせる任意の刺激情報等が挙げられる。   The brain function activation information database 1031 stores brain function activation information that activates human brain functions. Here, the “brain function activation information” includes auditory stimulation information that stimulates hearing. The “auditory stimulus information” corresponds to, for example, acoustic information that causes the subject 300 to recognize text, music, or other sounds. The brain function activation information is not limited to this, and any information that activates the brain function of the subject can be used. For example, as other brain function activation information, “visual stimulus information” including images that allow the subject to recognize images, moving images, and schematic diagrams, or memory of symbols, characters, or languages, etc. Arbitrary stimulus information or the like that causes the subject to perform the psychological work.

判定情報データベース1032は、図24に示すように、脳機能賦活情報の提供に応じて抽出される判定用成分の相関値r2の、対象者300が通常状態のときに抽出された基準判定用成分の「基準相関値」r1からの所定範囲の変化量Δr(=r2−r1)を、「疼痛状態レベル」と関連付けて予め「判定情報」として記憶するものである。なお変化量Δrは絶対値で表される。ここで、対象者300における「通常状態」というのは、対象者300に疼痛が生じていない状態であり、対象者300の感情が安定しているとみなされる状態である。また、「基準判定用成分」は、対象者300が通常状態のときに抽出した判定用成分のデータ以外に、前回抽出した判定用成分のデータ、又は外部から提供される判定用成分のデータ等により設定することも可能である。また、基準判定用成分のデータは判定情報データベース1032に格納されている。   As shown in FIG. 24, the determination information database 1032 is a reference determination component extracted when the target person 300 is in a normal state of the correlation value r2 of the determination component extracted in response to provision of brain function activation information. The change amount Δr (= r2−r1) in a predetermined range from the “reference correlation value” r1 is stored in advance as “determination information” in association with the “pain state level”. The change amount Δr is expressed as an absolute value. Here, the “normal state” in the subject 300 is a state in which the subject 300 has no pain, and is a state in which the emotion of the subject 300 is considered stable. In addition, the “reference determination component” includes, in addition to the determination component data extracted when the target person 300 is in a normal state, the previously extracted determination component data, the determination component data provided from the outside, or the like It is also possible to set by. The reference determination component data is stored in the determination information database 1032.

図24に示す例では、判定情報データベース1032は、疼痛状態レベルとして変化量Δrの値の範囲に応じて、Δr=Δra未満を「激しい疼痛」、Δra〜Δrbまでを「軽い疼痛」、Δrb以上を「正常(疼痛を感じていない)」として記憶する。ここでは、Δra、Δrbの順に値が大きいものとなっている。なお、対象者300が激しい疼痛を感じているときには、聴覚刺激情報等を提供しても、対象者300は当該聴覚刺激情報等に反応することができない。したがって、この場合は変化量Δrの値が小さいものとなる。一方、対象者300が疼痛を感じていないときには、対象者300は当該聴覚刺激情報等に反応するので、変化量Δrの値は大きくなる。   In the example illustrated in FIG. 24, the determination information database 1032 indicates that “severe pain” is less than Δr = Δra, “mild pain” is less than Δra to Δrb, and is Δrb or more, depending on the range of the amount of change Δr as the pain state level. Is stored as “normal (no pain)”. Here, the values increase in the order of Δra and Δrb. Note that when the subject 300 feels severe pain, the subject 300 cannot respond to the auditory stimulus information or the like even if the auditory stimulus information or the like is provided. Therefore, in this case, the amount of change Δr is small. On the other hand, when the subject 300 does not feel pain, the subject 300 responds to the auditory stimulus information and the like, and therefore the value of the change amount Δr becomes large.

処理部1040は、疼痛判定装置1000における情報処理を実行するものである。具体的には、処理部1040は、CPU及びキャッシュメモリ等により構成される。処理部1040は、記憶部1030に組み込まれたプログラムが実行されることで、脳機能賦活情報提供部1041、顔面変化情報取得部1042、顔面変化情報分解部1043、判定用成分抽出部1044、及び、疼痛判定部1045として機能する。   The processing unit 1040 executes information processing in the pain determination apparatus 1000. Specifically, the processing unit 1040 includes a CPU and a cache memory. The processing unit 1040 executes a program incorporated in the storage unit 1030, whereby a brain function activation information providing unit 1041, a face change information acquisition unit 1042, a face change information decomposition unit 1043, a determination component extraction unit 1044, and Functions as the pain determination unit 1045.

脳機能賦活情報提供部1041は、脳機能賦活情報を提供するものである。例えば脳機能賦活情報提供部1041は、入力部1010の操作に応じて、脳機能賦活情報データベース1031から聴覚刺激情報(脳機能賦活情報)を読み出し、出力部1020に出力する。   The brain function activation information providing unit 1041 provides brain function activation information. For example, the brain function activation information providing unit 1041 reads out auditory stimulation information (brain function activation information) from the brain function activation information database 1031 according to an operation of the input unit 1010 and outputs the information to the output unit 1020.

顔面変化情報取得部1042は、撮像部1015で撮像された顔面画像から「顔面データ」及び顔面データの時系列変化を示す「顔面変化情報」を取得するものである。具体的には、顔面変化情報取得部1042は、脳機能賦活情報提供部1041が脳機能賦活情報を提供しているタイミングに同期して、撮像部1015を介して顔面データを取得する。そして、顔面変化情報取得部1042は、継続的に取得した顔面データから、対象者300の顔面データの時系列変化を示す顔面変化情報を取得する。例えば、顔面変化情報は、240×320ピクセルの顔面データを所定間隔で60点取得した場合には、4,608,000のデータの集合となる。取得した顔面変化情報は、顔面変化情報分解部1043に送出される。なお、撮像部1015が赤外線カメラの場合、顔面変化情報取得部1042は、顔面データとして、対象者300の顔面の皮膚温度を示す顔面皮膚温度データを取得する。また、撮像部1015がCCD及びCMOS等の固体撮像素子の場合、顔面変化情報取得部1042は、顔面データとして、対象者300の顔面のRGBデータに基づく顔面血行量データを取得する。なお、顔面変化情報取得部1042は、顔面データとして、対象者300の、副鼻腔周辺及び/又は前額部のデータだけを取得するものでもよい。   The face change information acquisition unit 1042 acquires “face data” and “face change information” indicating a time-series change of face data from the face image captured by the image capturing unit 1015. Specifically, the face change information acquisition unit 1042 acquires face data via the imaging unit 1015 in synchronization with the timing when the brain function activation information providing unit 1041 provides the brain function activation information. Then, the face change information acquisition unit 1042 acquires face change information indicating a time-series change of the face data of the target person 300 from the continuously acquired face data. For example, the face change information is a set of 4,608,000 data when 60 points of 240 × 320 pixel face data are acquired at predetermined intervals. The acquired face change information is sent to the face change information decomposing unit 1043. When the imaging unit 1015 is an infrared camera, the face change information acquisition unit 1042 acquires facial skin temperature data indicating the skin temperature of the face of the subject 300 as the facial data. When the imaging unit 1015 is a solid-state imaging device such as a CCD or CMOS, the facial change information acquisition unit 1042 acquires facial blood flow data based on RGB data of the face of the subject 300 as facial data. Note that the face change information acquisition unit 1042 may acquire only data on the periphery of the sinus and / or the forehead part of the subject 300 as the face data.

顔面変化情報分解部1043は、多数のデータの集合である顔面変化情報を、特異値分解、主成分分析或いは独立成分分析により複数の成分1,2,3,・・・に分解する。分解した各成分の情報は、判定用成分抽出部1044に送出される。ここで、顔面変化情報を特異値分解等した場合、特異値の高いものから成分1,2,3,・・・と設定される。また特異値の高い成分ほど、変動の大きいものの影響が反映されやすい。そのため、成分1には、脳機能賦活情報が提供されることの影響より、外部環境のノイズ等の影響が反映されることが少なくない。   The face change information decomposition unit 1043 decomposes face change information, which is a collection of a large number of data, into a plurality of components 1, 2, 3,... By singular value decomposition, principal component analysis, or independent component analysis. Information of each decomposed component is sent to the determination component extraction unit 1044. Here, when face change information is subjected to singular value decomposition, components 1, 2, 3,... Are set in descending order of singular values. In addition, the higher the singular value, the more easily the influence of the fluctuation is reflected. For this reason, the effect of noise or the like of the external environment is often reflected in the component 1 rather than the effect of providing brain function activation information.

判定用成分抽出部1044は、複数の成分1,2,3・・・から、脳機能賦活情報と関連する成分を「判定用成分」として抽出するものである。また、判定用成分抽出部1044は、抽出した判定用成分の脳機能賦活情報に対する相関値rを算出する。具体的には、判定用成分抽出部1044は、顔面変化情報分解部1043により求められた複数の成分1,2,3,・・・と脳機能賦活情報に対応する「判定用波形」との相関値rを算出する。次に、判定用成分抽出部1044は、算出した相関値rが所定値以上である場合、その相関値rに対応する成分を脳機能賦活情報に関連するものとして設定する。そして、判定用成分抽出部1044は、危険率の値に基づいて、判定用成分を抽出する。すなわち、判定用成分抽出部1044は、危険率が低い成分を判定用成分として抽出する。抽出された判定用成分及び算出された相関値rは記憶部1030又は疼痛判定部1045に送出される。なお、上述の「判定用波形」として、人間の生理的反応を考慮した変形波が用いられる。また、判定用波形は、脳機能賦活情報を提供してから所定時間経過後に変位するものである。具体的には、判定用波形として矩形波を採用することができる。また、判定用波形として、矩形波とレッドスポット・ダイナミック・レスポンス・ファンクション(Redspot-dynamic response function)とをコンボリューションした波形を採用することもできる。レッドスポット・ダイナミック・レスポンス・ファンクションは、脳機能賦活情報を一瞬与えたときにの顔面変化情報分解部1043により分解された複数の成分1,2,3・・・のうち相関の認められた成分を複数回算出し、算出した複数の成分の平均値等から生成される。この際、振幅(高さ方向)については任意単位であり絶対値を規定できないので、対象者300が通常状態のときのシグナルをベースライン値とし、その値を基準として波形の高さが決定される。そして、複数の被験者から得られたデータの重ね合わせの平均値が計算されてレッドスポット・ダイナミック・レスポンス・ファンクションが生成される。なお、レッドスポット・ダイナミック・レスポンス・ファンクションの初期値は、脳機能賦活情報が一瞬与えられたときは図25に示すような波形となる。そして、脳機能賦活情報が一定時間与えられたときは、矩形波とコンボリューションすることにより作成される。レッドスポット・ダイナミック・レスポンス・ファンクションでは、変位が増加するに従い、ピーク時点からピーク値が横軸方向に延長される波形となる。また、レッドスポット・ダイナミック・レスポンス・ファンクションでは、脳機能賦活情報の提供(刺激)が終了した時点から位相が遅れて変位が低下する波形となる。このようなレッドスポット・ダイナミック・レスポンス・ファンクションは、顔面変化情報から得られた成分と有意な相関が認められる場合には、その相関波形に形状が近いため、矩形波等よりも高い相関値を示す。そのため、判定用成分の抽出精度を高めることができる。   The determination component extraction unit 1044 extracts a component related to brain function activation information as a “determination component” from a plurality of components 1, 2, 3,. Further, the determination component extraction unit 1044 calculates a correlation value r for the brain function activation information of the extracted determination component. Specifically, the determination component extraction unit 1044 includes a plurality of components 1, 2, 3,... Obtained by the face change information decomposition unit 1043 and a “determination waveform” corresponding to the brain function activation information. A correlation value r is calculated. Next, when the calculated correlation value r is greater than or equal to a predetermined value, the determination component extraction unit 1044 sets the component corresponding to the correlation value r as related to the brain function activation information. Then, the determination component extraction unit 1044 extracts a determination component based on the risk factor value. That is, the determination component extraction unit 1044 extracts a component with a low risk factor as a determination component. The extracted determination component and the calculated correlation value r are sent to the storage unit 1030 or the pain determination unit 1045. As the above-described “determination waveform”, a deformed wave considering a human physiological reaction is used. Further, the determination waveform is displaced after a predetermined time has elapsed since the brain function activation information is provided. Specifically, a rectangular wave can be adopted as the determination waveform. In addition, a waveform obtained by convolving a rectangular wave and a red spot dynamic response function may be employed as the determination waveform. The red spot dynamic response function is a component in which a correlation is recognized among a plurality of components 1, 2, 3,... Decomposed by the face change information decomposition unit 1043 when the brain function activation information is given for a moment. Is calculated a plurality of times, and is generated from the average value of the calculated plurality of components. At this time, since the amplitude (height direction) is an arbitrary unit and an absolute value cannot be defined, a signal when the subject 300 is in a normal state is used as a baseline value, and the waveform height is determined based on that value. The Then, the average value of the superposition of data obtained from a plurality of subjects is calculated to generate a red spot dynamic response function. The initial value of the red spot dynamic response function has a waveform as shown in FIG. 25 when the brain function activation information is given for a moment. When brain function activation information is given for a certain period of time, it is created by convolution with a rectangular wave. The red spot dynamic response function has a waveform in which the peak value is extended in the horizontal axis direction from the peak point as the displacement increases. The red spot dynamic response function has a waveform in which the displacement decreases with the phase being delayed from the time when provision (stimulation) of brain function activation information is completed. When such a red spot dynamic response function has a significant correlation with the component obtained from facial change information, the correlation waveform is close in shape, so a higher correlation value than a rectangular wave or the like is obtained. Show. Therefore, the extraction accuracy of the determination component can be increased.

疼痛判定部1045は、対象者300が通常状態のときに脳機能賦活情報を提供して抽出された基準判定用成分に対する基準相関値r1と、疼痛判定をするときに脳機能賦活情報を提供して抽出された判定用成分に対する相関値r2との差Δrを算出する。そして、疼痛判定部1050は、判定情報データベース1032に記憶された判定情報に基づいて、基準相関値r1及び相関値r2の差Δrに対応する、疼痛状態レベルを決定する。決定された疼痛状態レベルは、出力部1020を介して表示装置等に出力される。   The pain determination unit 1045 provides brain function activation information when performing pain determination and the reference correlation value r1 for the reference determination component extracted by providing brain function activation information when the subject 300 is in a normal state. A difference Δr with respect to the correlation value r2 for the determination component extracted in this way is calculated. Then, the pain determination unit 1050 determines a pain state level corresponding to the difference Δr between the reference correlation value r1 and the correlation value r2 based on the determination information stored in the determination information database 1032. The determined pain state level is output to a display device or the like via the output unit 1020.

(7−2)疼痛判定装置の動作
図26は、疼痛判定装置1000の動作を示すフローチャートである。なお、以下の説明においては、癌などによる疼痛の判定を行なうものを例に挙げて説明する。
(7-2) Operation of Pain Determination Device FIG. 26 is a flowchart showing the operation of the pain determination device 1000. In the following description, an example of determining pain due to cancer or the like will be described.

まず、対象者300が通常状態のときに、「基準設定モード」が選択され、基準判定用成分の抽出が行なわれる(U1)。具体的には、入力部1010を介して脳機能賦活情報の出力指示が疼痛判定装置1000に入力される。続いて、脳機能賦活情報データベース1031から脳機能賦活情報が読み出され、出力部1020に出力される(U2)。例えば、脳機能賦活情報として「聴覚刺激情報」がヘッドホン1020aを介して出力される。なお前提として、対象者300には、ヘッドホン1020a等から流れる聴覚刺激情報(音声)を注意深く聞く作業が課されている。   First, when the target person 300 is in the normal state, the “reference setting mode” is selected, and the reference determination component is extracted (U1). Specifically, an instruction to output brain function activation information is input to the pain determination apparatus 1000 via the input unit 1010. Subsequently, brain function activation information is read from the brain function activation information database 1031 and output to the output unit 1020 (U2). For example, “auditory stimulus information” is output as the brain function activation information through the headphones 1020a. As a premise, the subject 300 is required to carefully listen to auditory stimulus information (sound) flowing from the headphones 1020a and the like.

次に、脳機能賦活情報の出力と同時又は所定のタイミングで、撮像部1015により対象者300の顔面を含む顔面画像が所定間隔毎に撮像される。撮像された顔面画像は顔面変化情報取得部1042に送出される。   Next, at the same time as the output of the brain function activation information or at a predetermined timing, a face image including the face of the subject 300 is captured at predetermined intervals by the imaging unit 1015. The captured face image is sent to the face change information acquisition unit 1042.

続いて、顔面変化情報取得部1042により、撮像された顔面画像から、対象者300の顔面データの時系列変化を示す顔面変化情報が取得される(U3)。そして、顔面変化情報分解部1043により、顔面変化情報が、特異値分解、主成分分析或いは独立成分分析により複数の成分1,2,3,・・・に分解される(U4)。   Subsequently, the face change information acquisition unit 1042 acquires face change information indicating a time-series change of the face data of the target person 300 from the captured face image (U3). Then, the face change information decomposition unit 1043 decomposes the face change information into a plurality of components 1, 2, 3,... By singular value decomposition, principal component analysis, or independent component analysis (U4).

次に、判定用成分抽出部1044により、顔面変化情報分解部1043により分解された複数の成分1,2,3・・・と、脳機能賦活情報に対応する判定用波形との相関値が算出される。そして、判定用成分抽出部1044により、相関値が所定値以上であるか否かが判定される(U5)。所定値以上であると判定された場合、脳機能賦活情報と当該成分とには相関があると判定される(U5−Yes)。そして、判定用成分抽出部1044により、相関がある成分のうち、危険率の低い成分が「基準判定用成分」として抽出される(U6)。また、判定用成分抽出部1044により、基準判定用成分と脳機能賦活情報との相関値が基準相関値r1として設定される。これらの基準判定用成分の情報は記憶部1030に格納される(U7)。一方、脳機能賦活情報と、各成分1,2,3・・・との相関値が所定値未満である場合は、両者には相関がないと判断され、その情報が記憶部1030に格納される(U5−No,U7)。   Next, the determination component extraction unit 1044 calculates a correlation value between the plurality of components 1, 2, 3,... Decomposed by the face change information decomposition unit 1043 and the determination waveform corresponding to the brain function activation information. Is done. Then, the determination component extraction unit 1044 determines whether or not the correlation value is greater than or equal to a predetermined value (U5). When it is determined that the value is equal to or greater than the predetermined value, it is determined that there is a correlation between the brain function activation information and the component (U5-Yes). Then, the determination component extraction unit 1044 extracts a component having a low risk ratio as a “reference determination component” among the correlated components (U6). Further, the determination component extraction unit 1044 sets a correlation value between the reference determination component and the brain function activation information as the reference correlation value r1. Information on these reference determination components is stored in the storage unit 1030 (U7). On the other hand, if the correlation value between the brain function activation information and each component 1, 2, 3,... Is less than a predetermined value, it is determined that there is no correlation between the two, and the information is stored in the storage unit 1030. (U5-No, U7).

この後、所定のタイミングで「判定モード」が選択され、対象者の疼痛判定が実行される(U8)。   Thereafter, the “determination mode” is selected at a predetermined timing, and the subject's pain determination is executed (U8).

まず、上記ステップU2〜U5と同様の処理が実行され、顔面変化情報から抽出された判定用成分と、脳機能賦活情報との相関値r2が算出される(U9〜U12)。ここで、ステップU12において、判定用成分と脳機能賦活情報との相関が検出されない場合がある(U12−No)。この場合は、脳機能賦活情報による脳機能の賦活が疼痛により阻害されている(マスクされている)とみなされ、対象者300が「疼痛(激しい疼痛)」を感じている状態であると判定される(U12−No,U16)。   First, the same processing as the above steps U2 to U5 is executed, and the correlation value r2 between the determination component extracted from the face change information and the brain function activation information is calculated (U9 to U12). Here, in step U12, the correlation between the determination component and the brain function activation information may not be detected (U12-No). In this case, it is considered that the activation of the brain function based on the brain function activation information is inhibited (masked) by pain, and the subject 300 is in a state of feeling “pain (severe pain)”. (U12-No, U16).

一方、ステップS12で相関値r2が算出された場合は、疼痛判定部1045により、基準設定モードで抽出された基準判定用成分に対する脳機能賦活情報の基準相関値r1と、判定モードで抽出された判定用成分に対する脳機能賦活情報の相関値r2との差である変化量Δrが算出される(U12−Yes,U13)。続いて、疼痛判定部1045により、基準相関値r1に対する相関値r2の変化量Δrが所定範囲を超えているか否かが判定される(U14)。所定範囲を超えているか否かは、判定情報データベース1032に記憶された判定情報に基づいて判断される。基準相関値r1に対する相関値r2の変化量Δrが所定範囲を超えている場合(ΔrがΔrb以上の場合)、疼痛判定部1045により、対象者300は「正常(疼痛を感じていない状態)」であると判定される(U14−Yes,U15)。一方、基準相関値r1に対する相関値r2の変化量Δrが所定範囲を超えていない場合(ΔrがΔrb未満の場合)、疼痛判定部1045により、対象者300は「疼痛(軽い疼痛又は激しい疼痛)」を感じている状態であると判定される(U14−No,U16)。そして、これらの判定結果が、出力部1020を介して表示装置等に出力される(U17)。   On the other hand, when the correlation value r2 is calculated in step S12, the pain determination unit 1045 extracts the reference correlation value r1 of the brain function activation information for the reference determination component extracted in the reference setting mode and the determination mode. A change amount Δr that is a difference from the correlation value r2 of the brain function activation information with respect to the determination component is calculated (U12−Yes, U13). Subsequently, the pain determination unit 1045 determines whether or not the change amount Δr of the correlation value r2 with respect to the reference correlation value r1 exceeds a predetermined range (U14). Whether or not the predetermined range is exceeded is determined based on the determination information stored in the determination information database 1032. When the change amount Δr of the correlation value r2 with respect to the reference correlation value r1 exceeds a predetermined range (when Δr is equal to or greater than Δrb), the pain determination unit 1045 causes the subject 300 to be “normal (a state in which no pain is felt)”. (U14-Yes, U15). On the other hand, when the change amount Δr of the correlation value r2 with respect to the reference correlation value r1 does not exceed the predetermined range (when Δr is less than Δrb), the pain determination unit 1045 determines that the subject 300 is “pain (light pain or severe pain). "Is felt (U14-No, U16). And these determination results are output to a display apparatus etc. via the output part 1020 (U17).

(7−3)疼痛判定装置の特徴
(7−3−1)
以上説明したように、本実施形態に係る疼痛判定装置1000は、脳機能賦活情報提供部1041と、顔面変化情報取得部1042と、顔面変化情報分解部1043と、判定用成分抽出部1044と、疼痛判定部1045と、を備える。脳機能賦活情報提供部1041は、人間の脳機能を賦活する「脳機能賦活情報」を対象者300に提供する。顔面変化情報取得部1042は、対象者300の顔面データの時系列変化を示す「顔面変化情報」を取得する。顔面変化情報分解部1043は、顔面変化情報を、特異値分解、主成分分析或いは独立成分分析により複数の成分1,2,3,・・・に分解する。判定用成分抽出部1044は、複数の成分1,2,3,・・・から、脳機能賦活情報と関連する成分を「判定用成分」として抽出する。疼痛判定部1045は、判定用成分抽出部による抽出結果に基づいて、対象者300の疼痛状態を判定する。
(7-3) Features of pain determination device (7-3-1)
As described above, the pain determination apparatus 1000 according to the present embodiment includes the brain function activation information providing unit 1041, the face change information acquisition unit 1042, the face change information decomposition unit 1043, the determination component extraction unit 1044, A pain determination unit 1045. The brain function activation information providing unit 1041 provides the target person 300 with “brain function activation information” that activates the human brain function. The face change information acquisition unit 1042 acquires “face change information” indicating a time-series change of the face data of the subject 300. The face change information decomposition unit 1043 decomposes the face change information into a plurality of components 1, 2, 3,... By singular value decomposition, principal component analysis, or independent component analysis. The determination component extraction unit 1044 extracts a component related to the brain function activation information from the plurality of components 1, 2, 3,. The pain determination unit 1045 determines the pain state of the subject 300 based on the extraction result by the determination component extraction unit.

したがって、本実施形態に係る疼痛判定装置1000では、顔面変化情報を、特異値分解・主成分分析・独立成分分析することで得られた複数の成分1,2,3,・・・から、脳機能賦活情報と関連する判定用成分を抽出するので、装着前に前処理の必要な電極等を使用しなくても、対象者300の脳活動の有無を容易に推定できる。これにより、対象者300の脳機能に対応する判定用成分に基づいて、対象者300における疼痛状態を容易に判定できる。   Therefore, in the pain determination apparatus 1000 according to the present embodiment, the face change information is obtained from a plurality of components 1, 2, 3,... Obtained by performing singular value decomposition, principal component analysis, and independent component analysis. Since the determination component related to the function activation information is extracted, it is possible to easily estimate the presence or absence of the brain activity of the subject 300 without using an electrode or the like that requires pretreatment before wearing. Thereby, based on the component for determination corresponding to the brain function of the subject person 300, the pain state in the subject person 300 can be easily judged.

(7−3−2)
また、本実施形態に係る疼痛判定装置1000は、顔面変化情報取得部1042が、顔面データとして、対象者300の、副鼻腔周辺及び/又は前額部のデータを取得するので、脳活動と関連する判定用成分を高精度に抽出できる。ここで、脳には、選択的脳冷却機構(Selective Brain Cooling System)という体温とは独立して脳を冷却する仕組みがある。選択的脳冷却機構は、脳活動によって生じた熱を、副鼻腔及び前額部周辺を用いて排熱する。よって、これらの部位のデータを解析することで脳活動と関連する成分を高精度に抽出できる。結果として、本実施形態に係る疼痛判定装置1000は、疼痛状態の判定を高精度に実行できる。
(7-3-2)
Further, in the pain determination apparatus 1000 according to the present embodiment, the facial change information acquisition unit 1042 acquires data on the periphery of the sinuses and / or the forehead part of the subject 300 as facial data, and thus is related to brain activity. The determination component to be extracted can be extracted with high accuracy. Here, the brain has a mechanism called a selective brain cooling system that cools the brain independently of the body temperature. The selective brain cooling mechanism exhausts heat generated by brain activity using the sinuses and the forehead area. Therefore, by analyzing the data of these parts, components related to brain activity can be extracted with high accuracy. As a result, the pain determination apparatus 1000 according to the present embodiment can execute the determination of the pain state with high accuracy.

(7−3−3)
また、本実施形態に係る疼痛判定装置1000は、顔面変化情報取得部1042が、顔面データとして、対象者300の顔面の皮膚温度を示す顔面皮膚温度データを取得する。換言すると、疼痛判定装置1000は、赤外線カメラ等を利用して、疼痛状態を判定できる。
(7-3-3)
In the pain determination apparatus 1000 according to the present embodiment, the facial change information acquisition unit 1042 acquires facial skin temperature data indicating the skin temperature of the face of the subject 300 as facial data. In other words, the pain determination apparatus 1000 can determine the pain state using an infrared camera or the like.

(7−3−4)
また、本実施形態に係る疼痛判定装置1000は、顔面変化情報取得部1042が、顔面データとして、対象者300の顔面のRGBデータに基づく顔面血行量データを取得する。すなわち、疼痛判定装置1000は、固体撮像素子(CCD,CMOS)を利用して疼痛状態を判定できる。これにより、疼痛状態の判定を簡易な構成で実行できる。
(7-3-4)
In the pain determination apparatus 1000 according to the present embodiment, the facial change information acquisition unit 1042 acquires facial blood flow data based on RGB data of the face of the subject 300 as facial data. That is, the pain determination apparatus 1000 can determine a pain state using a solid-state imaging device (CCD, CMOS). Thereby, determination of a pain state can be performed with a simple structure.

(7−3−5)
また、本実施形態に係る疼痛判定装置1000は、判定用成分抽出部1044が、危険率の値に基づいて、判定用成分を抽出する。疼痛判定装置1000では、危険率の値に基づいて、脳機能賦活情報と関連する判定用成分を抽出するので、疼痛状態の判定の信頼性を高めることができる。
(7-3-5)
Further, in the pain determination apparatus 1000 according to the present embodiment, the determination component extraction unit 1044 extracts a determination component based on the risk factor value. In the pain determination apparatus 1000, since the determination component related to the brain function activation information is extracted based on the value of the risk rate, the reliability of the determination of the pain state can be improved.

(7−3−6)
また、本実施形態に係る疼痛判定装置1000は、脳機能賦活情報提供部1041が、脳機能賦活情報として、聴覚を刺激する聴覚刺激情報を対象者300に提供する。聴覚刺激情報を用いることで、疼痛がある状態では聴覚刺激情報と脳機能の賦活状態を示す成分とが相関を有さず、疼痛がない状態では聴覚刺激情報と脳機能の賦活状態を示す成分とが相関を有する構成を実現できる。これにより、脳機能賦活情報による脳機能の賦活が疼痛により阻害されている(マスクされている)か否かで疼痛状態を判定できる。そして、このような構成では、任意のタイミングで聴覚刺激情報を提供するだけで疼痛判定ができるので、簡易な構成で疼痛状態を判定できる。
(7-3-6)
In the pain determination apparatus 1000 according to the present embodiment, the brain function activation information providing unit 1041 provides the target person 300 with auditory stimulation information that stimulates hearing as brain function activation information. By using auditory stimulus information, there is no correlation between the auditory stimulus information and the component indicating the activation state of the brain function when there is pain, and the component indicating the activation state of the auditory stimulus information and the brain function when there is no pain Can be realized. Thereby, the pain state can be determined based on whether or not the activation of the brain function based on the brain function activation information is inhibited (masked) by the pain. And in such a structure, since pain determination can be performed only by providing auditory stimulus information at arbitrary timing, a pain state can be determined with a simple structure.

(7−3−7)
また、本実施形態に係る疼痛判定装置1000は、疼痛判定部1045が、判定用成分の変化量に応じて疼痛状態を判定する。これにより、予め取得された基準からの変化量に応じて、疼痛状態レベルを容易に判定できる。
(7-3-7)
In the pain determination apparatus 1000 according to the present embodiment, the pain determination unit 1045 determines a pain state according to the amount of change in the determination component. Thereby, according to the variation | change_quantity from the reference | standard acquired previously, a pain state level can be determined easily.

詳しくは、疼痛判定装置1000は、判定情報データベース(判定情報記憶部)1032をさらに備える。判定情報データベース1032は、脳機能賦活情報に対して算出される判定用成分の相関値r2の、脳機能賦活情報に対して算出された基準判定用成分の基準相関値r1からの所定範囲の変化量Δrを、疼痛状態レベルに関連付けて「判定情報」として記憶する。また、疼痛判定部1045が、脳機能賦活情報に対する判定用成分の相関値r2を算出し、算出した相関値r2及び判定情報に基づいて、対象者300の疼痛状態レベルを判定する。   Specifically, the pain determination apparatus 1000 further includes a determination information database (determination information storage unit) 1032. The determination information database 1032 is a change in a predetermined range of the correlation value r2 of the determination component calculated for the brain function activation information from the reference correlation value r1 of the reference determination component calculated for the brain function activation information. The amount Δr is stored as “determination information” in association with the pain state level. In addition, the pain determination unit 1045 calculates the correlation value r2 of the determination component for the brain function activation information, and determines the pain state level of the target person 300 based on the calculated correlation value r2 and the determination information.

このような構成により、疼痛判定装置1000は、予め取得された基準判定用成分を利用して、疼痛状態レベルを容易に判定できる。要するに、疼痛判定装置1000は、疼痛の有無を判定するだけでなく、疼痛状態レベルを判定して出力できる。   With such a configuration, the pain determination apparatus 1000 can easily determine the pain state level using a reference determination component acquired in advance. In short, the pain determination apparatus 1000 can determine and output the pain state level as well as the presence or absence of pain.

(7−3−8)
本実施形態に係る疼痛状態の判定方法は、必ずしも疼痛判定装置1000を必要とするものではない。すなわち、本実施形態に係る疼痛状態の判定方法は、疼痛判定装置1000の有無に関わらず、人間の脳機能を賦活する脳機能賦活情報を対象者300に提供する脳機能賦活情報提供ステップと、脳機能賦活情報を提供した後、対象者300の顔面データの時系列変化を示す「顔面変化情報」を取得する顔面変化情報取得ステップと、顔面変化情報を、特異値分解、主成分分析或いは独立成分分析することにより複数の成分に分解する顔面変化情報分解ステップと、複数の成分から、脳機能賦活情報と関連する成分を判定用成分として抽出する判定用成分抽出ステップと、判定用成分に基づいて、対象者300の疼痛状態を判定する、疼痛状態判定ステップと、を備えるものであればよい。
(7-3-8)
The pain state determination method according to the present embodiment does not necessarily require the pain determination apparatus 1000. That is, the pain state determination method according to the present embodiment provides a brain function activation information providing step for providing brain function activation information for activating a human brain function to the target person 300 regardless of the presence or absence of the pain determination apparatus 1000; After providing the brain function activation information, a face change information acquisition step for acquiring “face change information” indicating a time-series change of the face data of the target person 300, and the face change information, singular value decomposition, principal component analysis or independent Based on a facial change information decomposition step that decomposes into a plurality of components by component analysis, a determination component extraction step that extracts a component related to brain function activation information from a plurality of components as a determination component, and a determination component The pain state determination step for determining the pain state of the subject person 300 may be used.

このような疼痛状態の判定方法によれば、脳機能賦活情報の提供後に、顔面変化情報を、特異値分解、主成分分析或いは独立成分分析することで得られた複数の成分から、脳機能賦活情報と関連する判定用成分を抽出して疼痛状態を判定するので、対象者300の疼痛状態を容易に判定できる。   According to such a pain state determination method, after providing brain function activation information, brain function activation is performed from a plurality of components obtained by performing singular value decomposition, principal component analysis, or independent component analysis on facial change information. Since the determination component related to information is extracted to determine the pain state, the pain state of the subject 300 can be easily determined.

(7−3−9)
また、本実施形態に係る疼痛判定装置1000は、脳機能賦活情報提供部1041及び顔面変化情報取得部1042が、ヘルメット型の装置に組み込まれるものでもよい。このような構成であれば、顔の動きの少ない顔面画像を取得できるので、信頼性の高い顔面変化情報を取得できる。また、ヘルメット型にすることで利便性を向上できる。結果として、信頼性の高い疼痛判定を容易に実現できる。
(7-3-9)
Moreover, the pain determination apparatus 1000 according to the present embodiment may be one in which the brain function activation information providing unit 1041 and the face change information acquiring unit 1042 are incorporated in a helmet-type device. With such a configuration, it is possible to acquire a face image with little movement of the face, and thus it is possible to acquire highly reliable face change information. Moreover, convenience can be improved by using a helmet type. As a result, highly reliable pain determination can be easily realized.

(7−3−10)
また、疼痛判定装置1000は、上述したように判定用成分に対する相関値の、基準値からの所定範囲の変化量を用いて疼痛状態を判定するもののみならず、判定用成分に対して重回帰分析により得られる値、判定用波形が生成する面積、判定用波形の平均値、判定用波形の重心値のいずれか一つ又は任意の組み合わせに基づいて、疼痛状態を判定するものでもよい。補足すると、「重回帰分析」を用いると、複数刺激による反応の相関値を容易に数量化できる。「相関値」用いると、単一刺激による反応の相関値を容易に数量化できる。「面積」を用いると、反応の絶対値を容易に数量化できる。「平均値」を用いると、反応の絶対値を容易に数量化できる。また、面積と比較して、ノイズを低減できる。「重心値」を用いると、反応の絶対値を容易に数量化できる。また、面積と比較して、どのタイミングで反応が生じたかを容易に判定できる。
(7-3-10)
In addition, the pain determination apparatus 1000 not only determines the pain state using the amount of change in a predetermined range from the reference value of the correlation value for the determination component as described above, but also performs multiple regression on the determination component. The pain state may be determined based on any one or any combination of a value obtained by analysis, an area generated by the determination waveform, an average value of the determination waveform, and a centroid value of the determination waveform. Supplementally, when “multiple regression analysis” is used, the correlation values of the responses of multiple stimuli can be easily quantified. When “correlation value” is used, the correlation value of the response by a single stimulus can be easily quantified. By using “area”, the absolute value of the reaction can be easily quantified. Using the “average value”, the absolute value of the reaction can be easily quantified. Further, noise can be reduced compared to the area. Using the “centroid value” makes it possible to easily quantify the absolute value of the reaction. In addition, it is possible to easily determine at which timing the reaction has occurred compared to the area.

(7−3−11)
また、本実施形態に係る疼痛判定装置1000は、判定用成分抽出部1044が、脳機能賦活情報に対応する判定用波形と複数の成分との相関値に基づいて、判定用成分を抽出する。このような構成により、対象者300の脳機能の賦活状態に対応する判定用成分を特定することができる。
(7-3-11)
In the pain determination apparatus 1000 according to the present embodiment, the determination component extraction unit 1044 extracts a determination component based on correlation values between a determination waveform corresponding to brain function activation information and a plurality of components. With such a configuration, the determination component corresponding to the activation state of the brain function of the subject 300 can be specified.

また、ここでは、判定用波形として、人間の生理的反応を考慮した変形波を採用することができる。また、判定用波形は、脳機能賦活情報を提供してから所定時間経過後に変位するものである。このような判定用波形は、顔面変化情報から得られた成分と有意な相関が認められる場合には高い相関値を示すので、判定用成分の抽出精度を高めることができる。また、脳の反応に対して少し位相を遅らせることで精度の高い相関を得ることができる。具体的に、判定用波形として、レッドスポット・ダイナミック・レスポンス・ファンクションを採用することができる。レッドスポット・ダイナミック・レスポンス・ファンクションは、脳機能賦活情報を一瞬与えたときの、顔面変化情報分解部1043により分解された複数の成分1,2,3・・・のうち相関の認められた成分を複数回算出し、算出した複数の成分の平均値等から生成されるものである。レッドスポット・ダイナミック・レスポンス・ファンクションは、過去の履歴に基づいて最適化されているので、顔面変化情報から得られた成分と有意な相関が認められる場合には高い相関値を示す。これにより、判定用成分の抽出精度を高めることができる。   In addition, here, a deformed wave taking into account a human physiological reaction can be employed as the determination waveform. Further, the determination waveform is displaced after a predetermined time has elapsed since the brain function activation information is provided. Such a determination waveform exhibits a high correlation value when a significant correlation is recognized with the component obtained from the face change information, so that the determination component extraction accuracy can be increased. In addition, a highly accurate correlation can be obtained by slightly delaying the phase with respect to the reaction of the brain. Specifically, a red spot dynamic response function can be employed as the determination waveform. The red spot dynamic response function is a component in which a correlation is recognized among a plurality of components 1, 2, 3,... Decomposed by the face change information decomposition unit 1043 when the brain function activation information is given for a moment. Is calculated a plurality of times, and is generated from the average value of the calculated plurality of components. Since the red spot dynamic response function is optimized based on the past history, it shows a high correlation value when a significant correlation is recognized with the component obtained from the face change information. Thereby, the extraction accuracy of the determination component can be increased.

また、判定用波形として、矩形波を採用することもできる。矩形波は脳機能賦活情報の提供のタイミングに容易に対応させることができるので、判定用成分を容易に抽出できる。   A rectangular wave can also be adopted as the determination waveform. Since the rectangular wave can easily correspond to the provision timing of brain function activation information, the determination component can be easily extracted.

(7−4)疼痛判定装置の変形例
本実施形態に係る疼痛判定装置1000は、図27に示すように、ネットワーク上に設けられた判定情報提供装置1100等を利用するものでもよい。
(7-4) Modified Example of Pain Determination Device As shown in FIG. 27, the pain determination device 1000 according to the present embodiment may use a determination information providing device 1100 provided on a network.

ここで、判定情報提供装置1100は、記憶部1130と処理部1140とを備える。   Here, the determination information providing apparatus 1100 includes a storage unit 1130 and a processing unit 1140.

記憶部1130は、判定情報データベース1132を有する。この判定情報データベース1132は、上述した判定情報データベース1032と同様の構成である。すなわち、判定情報データベース1132は、脳機能賦活情報の提供に応じて算出される判定用成分の相関値r2の、対象者300が通常状態のときに抽出された基準判定用成分の基準相関値r1からの所定範囲の変化量Δrを、疼痛状態レベルに関連付けて判定情報として記憶する。   The storage unit 1130 includes a determination information database 1132. The determination information database 1132 has the same configuration as the determination information database 1032 described above. That is, the determination information database 1132 includes the reference correlation value r1 of the reference determination component extracted when the target person 300 is in the normal state of the correlation value r2 of the determination component calculated in response to the provision of the brain function activation information. Is stored as determination information in association with the pain state level.

処理部1140は、疼痛判定装置1000からの要求に応じて、判定情報データベース1132に格納された判定情報を送信する。なお、処理部1140は、疼痛判定装置1000で抽出された判定用成分とは独立して、所定の情報に基づいて判定情報をビッグデータとして生成する機能を有するものでもよい。また、処理部1140は、疼痛判定装置1000で基準相関値r1が算出された場合、判定情報データベース1032に記憶されている基準相関値r1を更新する処理を随時実行する。   The processing unit 1140 transmits the determination information stored in the determination information database 1132 in response to a request from the pain determination apparatus 1000. Note that the processing unit 1140 may have a function of generating determination information as big data based on predetermined information independently of the determination component extracted by the pain determination apparatus 1000. Further, when the reference correlation value r1 is calculated by the pain determination apparatus 1000, the processing unit 1140 executes a process of updating the reference correlation value r1 stored in the determination information database 1032 as needed.

本変形例では、上述した判定情報提供装置1100に、疼痛判定部1045が判定情報の提供を要求する。詳しくは、本変形例に係る疼痛判定装置1000では、判定情報データベース1132が、ネットワーク上の判定情報提供装置1100に格納されており、疼痛判定部1045が、疼痛状態レベルを判定する際に、判定情報提供装置1100にアクセスする。そして、疼痛判定部1045が、算出した相関値r2及び判定情報に基づいて、対象者300の疼痛状態レベルを判定する。   In this modification, the pain determination unit 1045 requests the determination information providing apparatus 1100 described above to provide determination information. Specifically, in the pain determination apparatus 1000 according to this modification, the determination information database 1132 is stored in the determination information providing apparatus 1100 on the network, and the determination is performed when the pain determination unit 1045 determines the pain state level. The information providing apparatus 1100 is accessed. And the pain determination part 1045 determines the pain state level of the subject 300 based on the calculated correlation value r2 and determination information.

したがって、本変形例の疼痛判定装置1000であれば、疼痛判定部1045が、ネットワーク上の判定情報提供装置1100を利用して、対象者300の疼痛状態レベルを判定できる。   Therefore, if it is the pain determination apparatus 1000 of this modification, the pain determination part 1045 can determine the pain state level of the subject person 300 using the determination information provision apparatus 1100 on a network.

さらに、本変形例の疼痛状態の判定方法によれば、ビッグデータを用いた、疼痛状態の判定が実現できる。すなわち、基準相関値r1及び所定の変化量Δrをビッグデータから求めることができる。これにより、判定情報を随時最適化することができる。   Furthermore, according to the pain state determination method of the present modification, it is possible to determine the pain state using big data. That is, the reference correlation value r1 and the predetermined change amount Δr can be obtained from the big data. Thereby, determination information can be optimized at any time.

(8)薬剤効果判定装置
本発明に係る脳活動可視化装置を応用した、薬剤効果判定装置について説明する。
(8) Drug Effect Determination Device A drug effect determination device to which the brain activity visualization device according to the present invention is applied will be described.

(8−1)薬剤効果判定装置の構成
図28は本実施形態に係る薬剤効果判定装置の一例を示す模式図である。
(8-1) Configuration of Drug Effect Determination Device FIG. 28 is a schematic diagram illustrating an example of a drug effect determination device according to this embodiment.

薬剤効果判定装置1200は、入力部1210、撮像部1215、取得部1216、出力部1220、記憶部1230、及び処理部1240を備える。なお、薬剤効果判定装置1200が判定する「薬剤305」としては、モルヒネを含むオピノイド系鎮痛薬やNSAIDs等の鎮痛剤が挙げられる。   The drug effect determination apparatus 1200 includes an input unit 1210, an imaging unit 1215, an acquisition unit 1216, an output unit 1220, a storage unit 1230, and a processing unit 1240. Examples of the “drug 305” determined by the drug effect determination apparatus 1200 include opinoid-based analgesics including morphine and analgesics such as NSAIDs.

入力部1210は、薬剤効果判定装置1200に各種情報を入力するものである。例えば入力部1210は、キーボード、マウス、及び/又はタッチスクリーン等により構成される。この入力部1210を介して、薬剤効果判定装置1200に各種命令が入力され、処理部1240において命令に応じた処理が実行される。   The input unit 1210 is used to input various types of information to the drug effect determination device 1200. For example, the input unit 1210 includes a keyboard, a mouse, and / or a touch screen. Various commands are input to the drug effect determination apparatus 1200 via the input unit 1210, and processing according to the commands is executed in the processing unit 1240.

撮像部1215は、対象者300の顔面を含む「顔面画像」を撮像するものである。例えば撮像部1215は、RGB画像を取得するCCD及びCMOS等の固体撮像素子や、サーモグラムを取得する赤外線カメラ等により構成される。赤外線カメラ等は通常の室温条件で、29.0℃から37.0℃を高感度で検出できるものが望ましい。また、撮像部1215は、所定の間隔で継続的な撮像が可能である。顔面画像を撮像する場合には正面から一定照明の条件で行なうのが望ましい。姿勢変動により正面画像が得られない場合には、摂動空間法を用い、姿勢変動画像については顔の3次元形状を推定し、正面像にレンダリングすることにより顔面画像を得る。照明変動画像については、拡散反射モデルをベースに構築した顔の照明基底モデルを用いて、一定照明の条件下での顔面画像を得る。そして、撮像部1215により、継続的に撮像された顔面画像は処理部1240に送出される。   The imaging unit 1215 captures a “face image” including the face of the subject 300. For example, the imaging unit 1215 includes a solid-state imaging device such as a CCD and a CMOS that acquires RGB images, an infrared camera that acquires a thermogram, and the like. It is desirable that the infrared camera or the like can detect 29.0 ° C. to 37.0 ° C. with high sensitivity under normal room temperature conditions. Further, the imaging unit 1215 can perform continuous imaging at a predetermined interval. When capturing a facial image, it is desirable to perform the illumination under constant lighting conditions from the front. When the front image cannot be obtained due to the posture variation, the perturbation space method is used, and the three-dimensional shape of the face is estimated for the posture variation image, and the face image is obtained by rendering the front image. As for the illumination variation image, a facial image under a constant illumination condition is obtained by using a facial illumination base model constructed based on the diffuse reflection model. Then, the face image continuously captured by the imaging unit 1215 is sent to the processing unit 1240.

取得部1216は、薬剤305が対象者300に投与されたことを示す投与情報を取得するものである。具体的に、「投与情報」は、対象者300等により発せられる音声、対象者300等によるキー入力、対象者300等により押下されるボタンを介したスイッチ入力等のいずれか一つ又は任意の組み合わせから生成される。なお、対象者300等とは、対象者300のみならず、対象者300の周囲に存する任意の者を含む意味で用いられ、たとえば医師、看護師、または介助者を含む意味で用いられる。取得部1216で取得された投与情報は、後述する投与情報検知部1241に送出される。   The acquisition unit 1216 acquires administration information indicating that the medicine 305 has been administered to the subject 300. Specifically, the “administration information” may be any one of voices generated by the subject 300 or the like, key input by the subject 300 or the like, switch input via a button pressed by the subject 300 or the like, or any arbitrary Generated from the combination. Note that the target person 300 or the like is used to include not only the target person 300 but also an arbitrary person existing around the target person 300, for example, a meaning including a doctor, a nurse, or an assistant. The administration information acquired by the acquisition unit 1216 is sent to the administration information detection unit 1241 described later.

出力部1220は、薬剤効果判定装置1200から各種情報を出力するものである。例えば出力部1220は、ディスプレイ及びスピーカー等により構成される。ここでは、出力部1220を介して、後述する脳機能賦活情報が対象者300に提供される。   The output unit 1220 outputs various types of information from the drug effect determination apparatus 1200. For example, the output unit 1220 includes a display and a speaker. Here, brain function activation information, which will be described later, is provided to the target person 300 via the output unit 1220.

記憶部1230は、薬剤効果判定装置1200に入力される情報、及び、薬剤効果判定装置1200で計算される情報等を記憶するものである。例えば記憶部1230は、メモリ及びハードディスク装置等により構成される。また記憶部1230は、後述する処理部1240の各機能を実現するためのプログラムを記憶する。ここでは、記憶部1230は、脳機能賦活情報データベース1231及び判定情報データベース1232を有する。   The storage unit 1230 stores information input to the drug effect determination apparatus 1200, information calculated by the drug effect determination apparatus 1200, and the like. For example, the storage unit 1230 includes a memory and a hard disk device. The storage unit 1230 stores a program for realizing each function of the processing unit 1240 described later. Here, the storage unit 1230 includes a brain function activation information database 1231 and a determination information database 1232.

脳機能賦活情報データベース1231は、人間の脳機能を賦活する「脳機能賦活情報」を記憶するものである。ここでは、脳機能賦活情報として、薬剤305が投与されたことを示す「投与情報」が挙げられる。なお、脳機能賦活情報データベース1231は、薬剤305の種類に関連付けて投与情報を記憶する。   The brain function activation information database 1231 stores “brain function activation information” for activating human brain functions. Here, as the brain function activation information, “administration information” indicating that the medicine 305 has been administered can be mentioned. The brain function activation information database 1231 stores administration information in association with the type of the medicine 305.

判定情報データベース1232は、図29に示すように、薬剤305が投与されてから所定時間経過後の、薬剤305の投与情報が検知されたときに抽出される判定用成分の相関値q2の、予め記憶される「基準値」q1からの所定範囲の変化量Δq(=q2−q1)を、「薬剤効果レベル」と関連付けて予め「判定情報」として記憶するものである。なお変化量Δqは絶対値で表される。ここでの「所定時間」とは、薬剤305の効果が生じると想定される時間を意味する。また、「基準値」は、例えば、薬剤305が鎮痛剤である場合は、疼痛の主観的評価である数値的評価スケール(Numerical Rating Scale:NRS)などに基づいて設定される。具体的に、判定情報データベース1232は、変化量Δqの値の範囲に応じて、Δq=Δqa未満を「効果大」、Δqa〜Δqbまでを「効果小」、Δqb以上を「効果なし」として記憶する。ここでは、Δqa、Δqbの順に値が大きいものとなっている。   As shown in FIG. 29, the determination information database 1232 stores in advance the correlation value q2 of the determination component extracted when the administration information of the drug 305 is detected after a predetermined time has elapsed since the drug 305 was administered. The change amount Δq (= q2−q1) within a predetermined range from the stored “reference value” q1 is stored in advance as “determination information” in association with the “drug effect level”. The change amount Δq is expressed as an absolute value. Here, the “predetermined time” means a time when the effect of the medicine 305 is assumed to occur. The “reference value” is set based on, for example, a numerical rating scale (NRS) that is a subjective evaluation of pain when the drug 305 is an analgesic. Specifically, the determination information database 1232 stores “less effective” for less than Δq = Δqa, “small effect” for Δqa to Δqb, and “no effect” for Δqb or more, depending on the range of the amount of change Δq. To do. Here, the values increase in the order of Δqa and Δqb.

また、判定情報データベース1232は、薬剤効果レベルに関連付けて、追加で投与する必要のある薬剤の投与量の情報を記憶する。例えば、判定情報データベース1232は、薬剤効果レベルが「効果大」「効果小」「効果なし」である場合、追加で投与する必要のある薬剤の投与量をそれぞれ「追加で投与する必要はない(投与不要)」「前回の半分の量(投与小)」「前回と同じ量(投与大)」等と記憶する。   Further, the determination information database 1232 stores information on the dosage of a drug that needs to be additionally administered in association with the drug effect level. For example, in the determination information database 1232, when the drug effect level is “high effect”, “small effect”, and “no effect”, the dose of the drug that needs to be additionally administered does not need to be additionally administered ( “Dosing not required)”, “half the previous amount (small dose)”, “same amount as previous (large dose)”, etc.

補足すると、対象者300が激しい疼痛を感じたときに、薬剤305として鎮痛剤が投与され、当該鎮痛剤の効果が有効に生じた場合は、所定時間経過後に、鎮痛剤が投与されたことに対して相関を有する成分の相関値qが減少することになる。これは上記Δqの値が小さくなることを意味する。この場合、鎮痛剤の効果が有効に生じたので、鎮痛剤を追加で投与する必要はない。一方、当該鎮痛剤の効果が有効に生じなかった場合は、所定時間経過後でも、鎮痛剤が投与されたことに対して相関を有する成分の相関値qが減少しない。これは上記Δqの値が大きいままであることを意味する。この場合、鎮痛剤の効果が有効に生じていなかったので、改めて鎮痛剤を投与する必要が生じる。要するに、薬剤効果レベルと、追加で投与する薬剤の投与量とには一定の関係があり、このような関係を示す情報が判定情報データベース1232に記憶される。   Supplementally, when the subject 300 feels severe pain, an analgesic is administered as the drug 305, and when the effect of the analgesic is effectively produced, the analgesic is administered after a predetermined time has elapsed. On the other hand, the correlation value q of the component having a correlation decreases. This means that the value of Δq becomes smaller. In this case, since the effect of the analgesic has occurred effectively, it is not necessary to administer an additional analgesic. On the other hand, if the effect of the analgesic is not effectively produced, the correlation value q of the component having a correlation with the administration of the analgesic does not decrease even after a predetermined time has elapsed. This means that the value of Δq remains large. In this case, since the effect of the analgesic has not been effectively produced, it becomes necessary to administer the analgesic again. In short, there is a certain relationship between the drug effect level and the dose of the drug to be administered additionally, and information indicating such a relationship is stored in the determination information database 1232.

処理部1240は、薬剤効果判定装置1200における情報処理を実行するものである。具体的には、処理部1240は、CPU及びキャッシュメモリ等により構成される。処理部1240は、記憶部1230に組み込まれたプログラムが実行されることで、投与情報検知部1241、顔面変化情報取得部1242、顔面変化情報分解部1243、判定用成分抽出部1244、及び、薬剤効果判定部1245として機能する。   The processing unit 1240 executes information processing in the drug effect determination apparatus 1200. Specifically, the processing unit 1240 includes a CPU and a cache memory. The processing unit 1240 executes a program incorporated in the storage unit 1230, whereby a dosing information detection unit 1241, a face change information acquisition unit 1242, a face change information decomposition unit 1243, a determination component extraction unit 1244, and a medicine It functions as the effect determination unit 1245.

投与情報検知部1241は、取得部1216から送出される投与情報を脳機能賦活情報として検知するものである。投与情報が検知されたときは、対象者300の脳が賦活状態にあるとみなされる。なお、投与情報検知部1241は、投与情報を検知する際に、脳機能賦活情報データベース1231に記憶された情報と照合する。   The administration information detection unit 1241 detects administration information sent from the acquisition unit 1216 as brain function activation information. When administration information is detected, it is considered that the brain of the subject 300 is in an activated state. Note that the administration information detection unit 1241 collates with information stored in the brain function activation information database 1231 when detecting administration information.

顔面変化情報取得部1242は、撮像部1215で撮像された顔面画像から「顔面データ」及び顔面データの時系列変化を示す「顔面変化情報」を取得するものである。具体的には、顔面変化情報取得部1242は、投与情報検知部1241が投与情報(脳機能賦活情報)を検知するタイミングに同期して、撮像部1215を介して顔面データを取得する。そして、顔面変化情報取得部1242は、継続的に取得した顔面データから、対象者300の顔面データの時系列変化を示す顔面変化情報を取得する。例えば、顔面変化情報は、240×320ピクセルの顔面データを所定間隔で60点取得した場合には、4,608,000のデータの集合となる。取得した顔面変化情報は、顔面変化情報分解部1243に送出される。なお、撮像部1215が赤外線カメラの場合、顔面変化情報取得部1242は、顔面データとして、対象者300の顔面の皮膚温度を示す顔面皮膚温度データを取得する。また、撮像部1215がCCD及びCMOS等の固体撮像素子の場合、顔面変化情報取得部1242は、顔面データとして、対象者300の顔面のRGBデータに基づく顔面血行量データを取得する。なお、顔面変化情報取得部1242は、顔面データとして、対象者300の、副鼻腔周辺及び/又は前額部のデータだけを取得するものでもよい。   The face change information acquisition unit 1242 acquires “face data” and “face change information” indicating time-series changes of face data from the face image captured by the image capturing unit 1215. Specifically, the facial change information acquisition unit 1242 acquires facial data via the imaging unit 1215 in synchronization with the timing at which the administration information detection unit 1241 detects administration information (brain function activation information). Then, the face change information acquisition unit 1242 acquires face change information indicating time-series changes in the face data of the target person 300 from the continuously acquired face data. For example, the face change information is a set of 4,608,000 data when 60 points of 240 × 320 pixel face data are acquired at predetermined intervals. The acquired face change information is sent to the face change information decomposing unit 1243. When the imaging unit 1215 is an infrared camera, the face change information acquisition unit 1242 acquires face skin temperature data indicating the skin temperature of the face of the subject 300 as the face data. When the imaging unit 1215 is a solid-state imaging device such as a CCD or CMOS, the face change information acquisition unit 1242 acquires facial blood flow data based on RGB data of the face of the subject 300 as facial data. Note that the face change information acquisition unit 1242 may acquire only data on the periphery of the sinus and / or the forehead part of the subject 300 as the face data.

顔面変化情報分解部1243は、多数のデータの集合である顔面変化情報を、特異値分解、主成分分析或いは独立成分分析により複数の成分1,2,3,・・・に分解する。分解した各成分の情報は、判定用成分抽出部1244に送出される。ここで、顔面変化情報を特異値分解等した場合、特異値の高いものから成分1,2,3,・・・と設定される。また特異値の高い成分ほど、変動の大きいものの影響が反映されやすい。そのため、成分1には、脳機能賦活情報が提供されることの影響より、外部環境のノイズ等の影響が反映されることが少なくない。   The face change information decomposition unit 1243 decomposes face change information, which is a collection of a large number of data, into a plurality of components 1, 2, 3,... By singular value decomposition, principal component analysis, or independent component analysis. The information of each decomposed component is sent to the determination component extraction unit 1244. Here, when face change information is subjected to singular value decomposition, components 1, 2, 3,... Are set in descending order of singular values. In addition, the higher the singular value, the more easily the influence of the fluctuation is reflected. For this reason, the effect of noise or the like of the external environment is often reflected in the component 1 rather than the effect of providing brain function activation information.

判定用成分抽出部1244は、複数の成分1,2,3・・・から、投与情報(脳機能賦活情報)と関連する成分を「判定用成分」として抽出するものである。また、判定用成分抽出部1244は、抽出した判定用成分の脳機能賦活情報に対する相関値qを算出する。具体的には、判定用成分抽出部1244は、顔面変化情報分解部1243により求められた複数の成分1,2,3,・・・と投与情報に対応する「判定用波形」との相関値qを算出する。次に、判定用成分抽出部1244は、算出した相関値qが所定値以上である場合、その相関値qに対応する成分を投与情報に関連するものとして設定する。そして、判定用成分抽出部1244は、危険率の値に基づいて、判定用成分を抽出する。すなわち、判定用成分抽出部1244は、危険率が低い成分を判定用成分として抽出する。抽出された判定用成分及び算出した相関値qは記憶部1230又は薬剤効果判定部1245に送出される。なお、上述の「判定用波形」として、人間の生理的反応を考慮した変形波が用いられる。また、判定用波形は、投与情報を検知してから所定時間経過後に変位するものである。具体的には、判定用波形として矩形波を採用することができる。また、判定用波形として、レッドスポット・ダイナミック・レスポンス・ファンクション(Redspot-dynamic response function)を採用することもできる。   The determination component extraction unit 1244 extracts a component related to administration information (brain function activation information) as a “determination component” from the plurality of components 1, 2, 3. Further, the determination component extraction unit 1244 calculates a correlation value q with respect to the brain function activation information of the extracted determination component. Specifically, the determination component extraction unit 1244 correlates a plurality of components 1, 2, 3,... Obtained by the face change information decomposition unit 1243 and the “determination waveform” corresponding to the administration information. q is calculated. Next, when the calculated correlation value q is greater than or equal to a predetermined value, the determination component extraction unit 1244 sets the component corresponding to the correlation value q as related to the administration information. Then, the determination component extraction unit 1244 extracts the determination component based on the risk factor value. That is, the determination component extraction unit 1244 extracts a component having a low risk rate as a determination component. The extracted determination component and the calculated correlation value q are sent to the storage unit 1230 or the drug effect determination unit 1245. As the above-described “determination waveform”, a deformed wave considering a human physiological reaction is used. The determination waveform is displaced after a predetermined time has elapsed since the administration information was detected. Specifically, a rectangular wave can be adopted as the determination waveform. Also, a redspot-dynamic response function can be adopted as the determination waveform.

薬剤効果判定部1245は、判定用成分の時系列変化に応じて薬剤305の効果を判定するものである。具体的に、薬剤効果判定部1245は、薬剤305が投与されてから所定時間経過後の、投与情報が検知されたときに抽出された判定用成分に対する相関値q2と、予め設定された基準値q1との差Δqを算出する。そして、薬剤効果判定部1250は、判定情報データベース1232に記憶された判定情報に基づいて、基準値q1及び相関値q2の差Δqに対応する、薬剤効果レベルを決定する。決定された薬剤効果レベルは、出力部1220を介して表示装置等に出力される。   The drug effect determination unit 1245 determines the effect of the drug 305 according to the time-series change of the determination component. Specifically, the drug effect determination unit 1245 includes a correlation value q2 for the determination component extracted when administration information is detected after a predetermined time has elapsed since the drug 305 was administered, and a preset reference value A difference Δq from q1 is calculated. Then, the drug effect determination unit 1250 determines the drug effect level corresponding to the difference Δq between the reference value q1 and the correlation value q2 based on the determination information stored in the determination information database 1232. The determined drug effect level is output to a display device or the like via the output unit 1220.

投与量算出部1246は、薬剤効果レベルに応じて、対象者300に投与する薬剤305の投与量を算出する。具体的には、投与量算出部1246は、判定情報データベース1232に記憶された情報に基づいて、追加で投与する必要のある薬剤305の投与量を算出する。   The dose calculation unit 1246 calculates the dose of the drug 305 to be administered to the subject 300 according to the drug effect level. Specifically, the dose calculation unit 1246 calculates the dose of the medicine 305 that needs to be additionally administered based on the information stored in the determination information database 1232.

(8−2)薬剤効果判定装置の動作
図30は、薬剤効果判定装置1200の動作を示すフローチャートである。
(8-2) Operation of Drug Effect Determination Device FIG. 30 is a flowchart showing the operation of the drug effect determination device 1200.

まず、入力部1210等を介して検査開始の指示が薬剤効果判定装置1200に入力される。続いて、出力部1220に誘導画面が表示され、対象者300の顔面が誘導画面の中央に位置するように誘導される。そして、撮像部1215により対象者300の顔面画像の撮像が開始される(V1)。撮像された顔面画像は顔面変化情報取得部1242に送出される。   First, a test start instruction is input to the drug effect determination apparatus 1200 via the input unit 1210 or the like. Subsequently, a guidance screen is displayed on the output unit 1220 and guidance is performed so that the face of the target person 300 is located at the center of the guidance screen. Then, the imaging unit 1215 starts capturing the facial image of the target person 300 (V1). The captured face image is sent to the face change information acquisition unit 1242.

顔面画像の撮像開始後に、操作者301に薬剤305が投与される。この際、対象者300等によるボタン押下等の動作が行なわれる。これに応じて、薬剤効果判定装置1200が、薬剤305が投与されたことを示す投与情報を検知する(V2)。   The medicine 305 is administered to the operator 301 after the start of facial image capturing. At this time, an operation such as button pressing by the target person 300 or the like is performed. In response to this, the drug effect determination apparatus 1200 detects administration information indicating that the drug 305 has been administered (V2).

また、薬剤効果判定装置1200において、撮像された顔面画像の解析が実行される。具体的には、顔面変化情報取得部1242により、撮像された顔面画像から、対象者300の顔面データの時系列変化を示す顔面変化情報が取得される。そして、顔面変化情報分解部1243により、顔面変化情報が、特異値分解、主成分分析或いは独立成分分析されて、複数の成分1,2,3,・・・に分解される。また、判定用成分抽出部1244により、顔面変化情報分解部1243により分解された複数の成分1,2,3・・・と、投与情報に対応する判定用波形との相関値が算出される。そして、判定用成分抽出部1244により、相関値が所定値以上であるか否かが判定される(V4)。所定値以上であると判定された場合、投与情報と当該成分とに「相関がある」と判定される(V4−Yes)。そして、判定用成分抽出部1244により、相関がある成分のうち、危険率の低い成分が「判定用成分」として抽出される(V5)。これらの抽出された判定用成分の情報は、記憶部1230に格納される(V6)。一方、投与情報に対応する判定用波形と、各成分1,2,3・・・との相関値が所定値未満である場合は、両者には「相関がない」と判断され、その情報が記憶部1230に格納される(V4−No,V6)。なお、過去の計測値などから投与情報に「相関のある成分」を事前に特定しておくことで、上記ステップV4〜V6の動作を省略することが可能である。   Further, in the drug effect determination apparatus 1200, an analysis of the captured facial image is executed. Specifically, the face change information acquisition unit 1242 acquires face change information indicating a time-series change in the face data of the target person 300 from the captured face image. Then, the face change information decomposition unit 1243 decomposes the face change information into a plurality of components 1, 2, 3,... By performing singular value decomposition, principal component analysis, or independent component analysis. Further, the determination component extraction unit 1244 calculates a correlation value between the plurality of components 1, 2, 3,... Decomposed by the face change information decomposition unit 1243 and the determination waveform corresponding to the administration information. Then, the determination component extraction unit 1244 determines whether or not the correlation value is greater than or equal to a predetermined value (V4). When it is determined that the value is equal to or greater than the predetermined value, it is determined that there is a “correlation” between the administration information and the component (V4-Yes). Then, the determination component extraction unit 1244 extracts a component having a low risk ratio from the correlated components as a “determination component” (V5). Information on these extracted determination components is stored in the storage unit 1230 (V6). On the other hand, if the correlation value between the determination waveform corresponding to the administration information and each component 1, 2, 3,... Is less than a predetermined value, it is determined that there is no correlation between the two and the information is It is stored in the storage unit 1230 (V4-No, V6). In addition, the operation | movement of the said step V4-V6 can be abbreviate | omitted by specifying in advance the "correlated component" in the administration information from the past measurement values.

次に、薬剤効果判定部1245により、薬剤305が投与されてから所定時間経過後の、投与情報が検知されたときに抽出された判定用成分に対する相関値q2と、予め設定された基準値q1との差である変化量Δqが算出される(V7)。   Next, a correlation value q2 for the determination component extracted when administration information is detected after a predetermined time has elapsed since the drug 305 was administered by the drug effect determination unit 1245, and a preset reference value q1 A change amount Δq, which is a difference from the above, is calculated (V7).

続いて、薬剤効果判定部1245により、基準値q1に対する相関値q2の変化量Δqが所定範囲内であるか否かが判定される(V8)。所定範囲であるか否かは、判定情報データベース1232に記憶された判定情報と照合されて判定される。基準値q1に対する相関値q2の変化量Δqが所定範囲内である場合(ΔqがΔqaより小さい)、薬剤効果判定部1245により、薬剤は「効果大」であると判定される(V8−Yes,V9)。そして、この場合は、対象者300に対して薬剤305の追加投与が不要であると判定される。一方、基準値q1に対する相関値q2の変化量Δqが所定範囲でない場合(ΔqがΔqa以上の場合)、薬剤効果判定部1245により、「効果なし」等と判定される(V8−No,V10)。この場合は、対象者300に対して薬剤305の追加投与が必要であると判定される。そして、投与量算出部1246により、判定情報データベース1232に記憶された情報に基づいて、追加で投与する必要のある薬剤305の投与量が算出される(V11)。   Subsequently, the drug effect determination unit 1245 determines whether or not the change amount Δq of the correlation value q2 with respect to the reference value q1 is within a predetermined range (V8). Whether or not it is within the predetermined range is determined by collating with the determination information stored in the determination information database 1232. When the change amount Δq of the correlation value q2 with respect to the reference value q1 is within a predetermined range (Δq is smaller than Δqa), the drug effect determination unit 1245 determines that the drug is “high effect” (V8-Yes, V9). In this case, it is determined that the additional administration of the medicine 305 is unnecessary for the subject 300. On the other hand, when the change amount Δq of the correlation value q2 with respect to the reference value q1 is not within the predetermined range (when Δq is equal to or greater than Δqa), the drug effect determination unit 1245 determines “no effect” or the like (V8-No, V10). . In this case, it is determined that additional administration of the medicine 305 is necessary for the subject 300. Then, based on the information stored in the determination information database 1232, the dose calculation unit 1246 calculates the dose of the medicine 305 that needs to be additionally administered (V11).

この後、薬剤効果判定装置1200は、装置利用者の入力指示に応じてデータを保存する。具体的には、薬剤効果判定装置1200は、被験者毎に、判定結果のデータ、解析波形、測定結果、画像表示条件等を関連付けて記憶部1230に記憶する。   Thereafter, the drug effect determination apparatus 1200 stores data in accordance with an input instruction from the apparatus user. Specifically, the drug effect determination device 1200 stores determination result data, analysis waveforms, measurement results, image display conditions, and the like in the storage unit 1230 for each subject.

(8−3)薬剤効果判定装置の特徴
(8−3−1)
以上説明したように、本実施形態に係る薬剤効果判定装置1200は、顔面変化情報取得部1242と、顔面変化情報分解部1243と、判定用成分抽出部1244と、薬剤効果判定部1245と、を備える。顔面変化情報取得部1242は、薬剤305が投与された対象者300の顔面データの時系列変化を示す「顔面変化情報」を取得する。顔面変化情報分解部1243は、顔面変化情報を、特異値分解、主成分分析或いは独立成分分析により複数の成分1,2,3,・・・に分解する。判定用成分抽出部1244は、複数の成分1,2,3,・・・から、薬剤305が投与されたことに関連する成分を「判定用成分」として抽出する。薬剤効果判定部1245は、判定用成分に基づいて、対象者300に対する薬剤305の効果を判定する。
(8-3) Features of the drug effect determination device (8-3-1)
As described above, the drug effect determination apparatus 1200 according to the present embodiment includes the face change information acquisition unit 1242, the face change information decomposition unit 1243, the determination component extraction unit 1244, and the drug effect determination unit 1245. Prepare. The face change information acquisition unit 1242 acquires “face change information” indicating a time-series change of face data of the subject 300 to which the medicine 305 has been administered. The face change information decomposition unit 1243 decomposes the face change information into a plurality of components 1, 2, 3,... By singular value decomposition, principal component analysis, or independent component analysis. The determination component extraction unit 1244 extracts a component related to the administration of the medicine 305 as a “determination component” from the plurality of components 1, 2, 3,. The drug effect determination unit 1245 determines the effect of the drug 305 on the target person 300 based on the determination component.

したがって、本実施形態に係る薬剤効果判定装置1200では、顔面変化情報を、特異値分解・主成分分析・独立成分分析することで得られた複数の成分1,2,3,・・・から判定用成分を抽出するので、装着前に前処理の必要な電極等を使用しなくても、対象者300の脳活動の有無を容易に推定できる。これにより、対象者300の脳機能に対応する判定用成分に基づいて、対象者300に対する薬剤305の効果を容易に判定できる。   Therefore, in the drug effect determination apparatus 1200 according to the present embodiment, the face change information is determined from a plurality of components 1, 2, 3,... Obtained by performing singular value decomposition, principal component analysis, and independent component analysis. Since the components for use are extracted, the presence or absence of the brain activity of the subject 300 can be easily estimated without using electrodes or the like that require pretreatment before wearing. Thereby, based on the component for determination corresponding to the brain function of the subject person 300, the effect of the medicine 305 on the subject person 300 can be easily judged.

(8−3−2)
また、本実施形態に係る薬剤効果判定装置1200は、顔面変化情報取得部1242が、顔面データとして、対象者300の、副鼻腔周辺及び/又は前額部のデータを取得するので、脳活動と関連する判定用成分を高精度に抽出できる。ここで、脳には、選択的脳冷却機構(Selective Brain Cooling System)という体温とは独立して脳を冷却する仕組みがある。選択的脳冷却機構は、脳活動によって生じた熱を、副鼻腔及び前額部周辺を用いて排熱する。よって、これらの部位のデータを解析することで脳活動と関連する成分を高精度に抽出できる。結果として、本実施形態に係る薬剤効果判定装置1200は、薬剤効果の判定を高精度に実行できる。
(8-3-2)
Further, in the drug effect determination apparatus 1200 according to the present embodiment, the facial change information acquisition unit 1242 acquires data on the periphery of the sinuses and / or the forehead part of the subject 300 as the facial data. Related determination components can be extracted with high accuracy. Here, the brain has a mechanism called a selective brain cooling system that cools the brain independently of the body temperature. The selective brain cooling mechanism exhausts heat generated by brain activity using the sinuses and the forehead area. Therefore, by analyzing the data of these parts, components related to brain activity can be extracted with high accuracy. As a result, the drug effect determination apparatus 1200 according to the present embodiment can execute a drug effect determination with high accuracy.

(8−3−3)
また、本実施形態に係る薬剤効果判定装置1200は、顔面変化情報取得部1242が、顔面データとして、対象者300の顔面の皮膚温度を示す顔面皮膚温度データを取得する。換言すると、薬剤効果判定装置1200は、赤外線カメラ等を利用して、薬剤効果を判定できる。
(8-3-3)
Further, in the drug effect determination apparatus 1200 according to the present embodiment, the face change information acquisition unit 1242 acquires face skin temperature data indicating the skin temperature of the face of the subject 300 as the face data. In other words, the drug effect determination apparatus 1200 can determine the drug effect using an infrared camera or the like.

(8−3−4)
また、本実施形態に係る薬剤効果判定装置1200は、顔面変化情報取得部1242が、顔面データとして、対象者300の顔面のRGBデータに基づく顔面血行量データを取得する。すなわち、薬剤効果判定装置1200は、固体撮像素子(CCD,CMOS)を利用して薬剤効果を判定できる。これにより、薬剤効果の判定を簡易な構成で実行できる。
(8-3-4)
In the drug effect determination apparatus 1200 according to the present embodiment, the facial change information acquisition unit 1242 acquires facial blood flow data based on RGB data of the face of the subject 300 as facial data. That is, the drug effect determination apparatus 1200 can determine the drug effect using a solid-state imaging device (CCD, CMOS). Thereby, the determination of a medicine effect can be performed with a simple configuration.

(8−3−5)
また、本実施形態に係る薬剤効果判定装置1200は、判定用成分抽出部1244が、危険率の値に基づいて、判定用成分を抽出する。薬剤効果判定装置1200では、危険率の値に基づいて、投与情報と関連する判定用成分を抽出するので、薬剤効果の判定の信頼性を高めることができる。
(8-3-5)
Further, in the drug effect determination apparatus 1200 according to the present embodiment, the determination component extraction unit 1244 extracts a determination component based on the risk factor value. Since the drug effect determination apparatus 1200 extracts the determination component related to the administration information based on the risk factor value, the reliability of the drug effect determination can be improved.

(8−3−6)
また、本実施形態に係る薬剤効果判定装置1200は、薬剤効果判定部1245が、判定用成分の時系列変化に応じて薬剤305の効果を判定する。これにより、予め取得された基準値からの変化量に応じて、薬剤効果レベルを容易に判定できる。
(8-3-6)
In the drug effect determination apparatus 1200 according to the present embodiment, the drug effect determination unit 1245 determines the effect of the drug 305 according to the time-series change of the determination component. Thereby, the drug effect level can be easily determined according to the amount of change from the reference value acquired in advance.

(8−3−7)
また、本実施形態に係る薬剤効果判定装置1200は、判定情報データベース(判定情報記憶部)1032をさらに備える。判定情報データベース1032は、薬剤305が投与されてから所定時間経過後の、薬剤305が投与されたことに対して算出される判定用成分の相関値q2の、基準値q1に対する変化量Δqを、薬剤効果レベルに関連付けて「判定情報」として記憶する。また、薬剤効果判定部1245が、薬剤305が投与されたことに対する判定用成分の相関値q2を算出し、算出した相関値及び判定情報に基づいて、対象者300に対する薬剤効果レベルを判定する。このような構成により、予め取得された基準値q1を利用して、薬剤効果レベルを容易に判定できる。要するに、薬剤効果判定装置1200は、薬剤効果の有無を判定するだけでなく、薬剤効果レベルを判定して出力できる。
(8-3-7)
The drug effect determination apparatus 1200 according to the present embodiment further includes a determination information database (determination information storage unit) 1032. The determination information database 1032 shows the amount of change Δq with respect to the reference value q1 of the correlation value q2 of the determination component calculated for the administration of the drug 305 after a predetermined time has elapsed since the drug 305 was administered. It is stored as “determination information” in association with the drug effect level. In addition, the drug effect determination unit 1245 calculates the correlation value q2 of the determination component for the administration of the drug 305, and determines the drug effect level for the target person 300 based on the calculated correlation value and determination information. With such a configuration, the drug effect level can be easily determined using the reference value q1 acquired in advance. In short, the drug effect determination apparatus 1200 can determine and output the drug effect level as well as the presence or absence of the drug effect.

(8−3−8)
本実施形態に係る薬剤効果の判定方法は、必ずしも薬剤効果判定装置1200を必要とするものではない。すなわち、本実施形態に係る薬剤効果の判定方法は、薬剤効果判定装置1200の有無に関わらず、人間の脳機能を賦活する脳機能賦活情報として、薬剤305が対象者300に投与されたことを示す投与情報を検知する脳機能賦活情報検知ステップと、投与情報を検知した後、対象者の顔面データの時系列変化を示す「顔面変化情報」を取得する顔面変化情報取得ステップと、顔面変化情報を、特異値分解、主成分分析或いは独立成分分析することにより複数の成分に分解する顔面変化情報分解ステップと、複数の成分から、投与情報(脳機能賦活情報)と関連する成分を判定用成分として抽出する判定用成分抽出ステップと、判定用成分に基づいて、対象者に対する薬剤効果を判定する、薬剤効果判定ステップと、を備えるものであればよい。
(8-3-8)
The drug effect determination method according to the present embodiment does not necessarily require the drug effect determination device 1200. That is, the determination method of the drug effect according to the present embodiment is that the drug 305 is administered to the subject 300 as brain function activation information that activates the human brain function regardless of the presence or absence of the drug effect determination device 1200. A brain function activation information detection step for detecting the administration information to be shown; a face change information acquisition step for acquiring “face change information” indicating a time-series change in the face data of the subject after detecting the administration information; and a face change information. Is a facial change information decomposition step that decomposes into multiple components by performing singular value decomposition, principal component analysis, or independent component analysis, and components for determining administration information (brain function activation information) from multiple components A determination component extraction step that is extracted as follows, and a drug effect determination step that determines a drug effect on the subject based on the determination component. There.

このような薬剤効果の判定方法によれば、投与情報の検知後に、顔面変化情報を、特異値分解、主成分分析或いは独立成分分析することで得られた複数の成分から、投与情報(脳機能賦活情報)と関連する判定用成分を抽出して薬剤効果を判定するので、対象者300の薬剤効果を容易に判定できる。   According to such a method for determining a drug effect, after detection of administration information, administration information (brain function) is obtained from a plurality of components obtained by performing singular value decomposition, principal component analysis, or independent component analysis on facial change information. Since the determination component related to the activation information) is extracted and the drug effect is determined, the drug effect of the subject 300 can be easily determined.

(8−3−9)
また、本実施形態に係る薬剤効果判定装置1200は、薬剤効果レベルに応じて、対象者300に投与する薬剤305の投与量を算出する投与量算出部1246をさらに備える。このような構成により、対象者300に対して適切な薬剤305の投与が可能となる。
(8-3-9)
The drug effect determination apparatus 1200 according to the present embodiment further includes a dose calculation unit 1246 that calculates the dose of the drug 305 to be administered to the subject 300 according to the drug effect level. With such a configuration, an appropriate drug 305 can be administered to the subject 300.

(8−3−10)
また、薬剤効果判定装置1200は、上述したように判定用成分に対する相関値の、基準値からの所定範囲の変化量を用いて薬剤効果を判定するもののみならず、判定用成分に対して重回帰分析により得られる値、判定用波形が生成する面積、判定用波形の平均値、判定用波形の重心値のいずれか一つ又は任意の組み合わせに基づいて、薬剤効果を判定するものでもよい。
(8-3-10)
Further, as described above, the drug effect determination apparatus 1200 not only determines the drug effect using the amount of change in a predetermined range from the reference value of the correlation value with respect to the determination component, but also overlaps with the determination component. The drug effect may be determined based on any one or any combination of a value obtained by regression analysis, an area generated by the determination waveform, an average value of the determination waveform, and a centroid value of the determination waveform.

(8−3−11)
なお、本実施形態に係る薬剤効果判定装置1200は、判定用成分抽出部1244が、投与情報に対応する判定用波形と複数の成分との相関値に基づいて、判定用成分を抽出する。このような構成により、対象者300の脳機能の賦活状態に対応する判定用成分を特定することができる。
(8-3-11)
Note that in the drug effect determination apparatus 1200 according to the present embodiment, the determination component extraction unit 1244 extracts a determination component based on the correlation value between the determination waveform corresponding to the administration information and a plurality of components. With such a configuration, the determination component corresponding to the activation state of the brain function of the subject 300 can be specified.

また、ここでは、判定用波形として、人間の生理的反応を考慮した変形波を採用することができる。また、判定用波形は、投与情報を検知してから所定時間経過後に変位するものである。このような判定用波形は、顔面変化情報から得られた成分と有意な相関が認められる場合には高い相関値を示すので、判定用成分の抽出精度を高めることができる。また、脳の反応に対して少し位相を遅らせることで精度の高い相関を得ることができる。具体的に、判定用波形として、レッドスポット・ダイナミック・レスポンス・ファンクションを採用することができる。レッドスポット・ダイナミック・レスポンス・ファンクションは、投与情報(脳機能賦活情報)に対応して顔面変化情報分解部1243により分解された複数の成分1,2,3・・・のうち相関の認められた成分を複数回算出し、算出した複数の成分に基づいて生成されるものである。レッドスポット・ダイナミック・レスポンス・ファンクションは、過去の履歴に基づいて最適化されているので、顔面変化情報から得られた成分と有意な相関が認められる場合には高い相関値を示す。これにより、判定用成分の抽出精度を高めることができる。   In addition, here, a deformed wave taking into account a human physiological reaction can be employed as the determination waveform. The determination waveform is displaced after a predetermined time has elapsed since the administration information was detected. Such a determination waveform exhibits a high correlation value when a significant correlation is recognized with the component obtained from the face change information, so that the determination component extraction accuracy can be increased. In addition, a highly accurate correlation can be obtained by slightly delaying the phase with respect to the reaction of the brain. Specifically, a red spot dynamic response function can be employed as the determination waveform. The red spot dynamic response function has a correlation among a plurality of components 1, 2, 3,... Decomposed by the face change information decomposition unit 1243 corresponding to the administration information (brain function activation information). The component is calculated a plurality of times and is generated based on the calculated plurality of components. Since the red spot dynamic response function is optimized based on the past history, it shows a high correlation value when a significant correlation is recognized with the component obtained from the face change information. Thereby, the extraction accuracy of the determination component can be increased.

また、判定用波形として、矩形波を採用することもできる。矩形波は投与情報の検知のタイミングに容易に対応させることができるので、判定用成分を容易に抽出できる。   A rectangular wave can also be adopted as the determination waveform. Since the rectangular wave can easily correspond to the timing of detecting the administration information, the determination component can be easily extracted.

(8−4)薬剤効果判定装置の変形例
(8−4−1)
本実施形態に係る薬剤効果判定装置1200は、図31に示すように、ネットワーク上に設けられた判定情報提供装置1300等を利用するものでもよい。
(8-4) Modification Example of Drug Effect Determination Device (8-4-1)
As shown in FIG. 31, the drug effect determination apparatus 1200 according to the present embodiment may use a determination information providing apparatus 1300 provided on a network.

ここで、判定情報提供装置1300は、記憶部1330と処理部1340とを備える。   Here, the determination information providing apparatus 1300 includes a storage unit 1330 and a processing unit 1340.

記憶部1330は、判定情報データベース1332を有する。この判定情報データベース1332は、上述した判定情報データベース1232と同様の構成である。すなわち、判定情報データベース1332は、薬剤305が投与されてから所定時間経過後の、薬剤305が投与されたことに対して算出される判定用成分の相関値q2の、基準値q1からの変化量Δqを、薬剤効果レベルに関連付けて判定情報として記憶する。   The storage unit 1330 includes a determination information database 1332. The determination information database 1332 has the same configuration as the determination information database 1232 described above. That is, the determination information database 1332 indicates the amount of change from the reference value q1 of the correlation value q2 of the determination component calculated for the administration of the drug 305 after a predetermined time has elapsed since the drug 305 was administered. Δq is stored as determination information in association with the drug effect level.

処理部1340は、薬剤効果判定装置1200からの要求に応じて、判定情報データベース1332に格納された判定情報を送信する。なお、処理部1340は、薬剤効果判定装置1200で抽出された判定用成分とは独立して、所定の情報に基づいて判定情報をビッグデータとして生成する機能を有するものでもよい。また、処理部1340は、薬剤効果判定装置1200で基準値q1が算出された場合、判定情報データベース1232に記憶されている基準値q1を更新する処理を随時実行する。   The processing unit 1340 transmits the determination information stored in the determination information database 1332 in response to a request from the drug effect determination apparatus 1200. Note that the processing unit 1340 may have a function of generating determination information as big data based on predetermined information independently of the determination component extracted by the drug effect determination apparatus 1200. In addition, when the reference value q1 is calculated by the drug effect determination device 1200, the processing unit 1340 executes a process for updating the reference value q1 stored in the determination information database 1232 as needed.

本変形例では、上述した判定情報提供装置1300に、薬剤効果判定部1245が判定情報の提供を要求する。詳しくは、本変形例に係る薬剤効果判定装置1200では、判定情報データベース1332が、ネットワーク上の判定情報提供装置1300に格納されており、薬剤効果判定部1245が、薬剤効果レベルを判定する際に、判定情報提供装置1300にアクセスする。そして、薬剤効果判定部1345が、算出した相関値q2及び判定情報に基づいて、対象者300の薬剤効果レベルを判定する。   In this modification, the drug effect determination unit 1245 requests the determination information providing apparatus 1300 described above to provide determination information. Specifically, in the drug effect determination device 1200 according to this modification, the determination information database 1332 is stored in the determination information providing device 1300 on the network, and the drug effect determination unit 1245 determines when the drug effect level is determined. The determination information providing apparatus 1300 is accessed. Then, the drug effect determination unit 1345 determines the drug effect level of the target person 300 based on the calculated correlation value q2 and the determination information.

したがって、本変形例の薬剤効果判定装置1200であれば、薬剤効果判定部1245が、ネットワーク上の判定情報提供装置1300を利用して、対象者300の薬剤効果レベルを判定できる。   Therefore, in the case of the drug effect determination apparatus 1200 according to the present modification, the drug effect determination unit 1245 can determine the drug effect level of the target person 300 using the determination information providing apparatus 1300 on the network.

さらに、本変形例の薬剤効果の判定方法によれば、ビッグデータを用いた、薬剤効果の判定が実現できる。すなわち、基準値q1及び所定の変化量Δqをビッグデータから求めることができる。これにより、判定情報を随時最適化することができる。   Furthermore, according to the drug effect determination method of the present modification, determination of drug effect using big data can be realized. That is, the reference value q1 and the predetermined change amount Δq can be obtained from big data. Thereby, determination information can be optimized at any time.

また、本変形例に係る判定情報提供装置1300は、判定情報として、薬剤効果レベルに関連付けて、薬剤305の投与量をさらに記憶している。また、薬剤効果判定装置1200が、判定情報提供装置1300にアクセスしてこれらの判定情報を取得する。そして、薬剤効果判定装置1200の薬剤効果判定部1245が、判定情報に基づいて、薬剤効果レベル及び薬剤の投与量を判定する。このような構成を具備しているので、本変形例に係る薬剤効果判定装置1200は、対象者300に対して適切な薬剤305の投与が可能となる。また、外部の装置を用いることで、薬剤効果判定装置1200の構成を簡易化することができる。   Further, the determination information providing apparatus 1300 according to the present modification further stores the dose of the drug 305 as determination information in association with the drug effect level. Further, the drug effect determination device 1200 accesses the determination information providing device 1300 and acquires the determination information. Then, the drug effect determination unit 1245 of the drug effect determination apparatus 1200 determines the drug effect level and the dose of the drug based on the determination information. Since such a configuration is provided, the drug effect determination apparatus 1200 according to the present modification can administer an appropriate drug 305 to the subject 300. In addition, by using an external device, the configuration of the drug effect determination device 1200 can be simplified.

(8−4−2)
なお、薬剤効果判定装置1200の効果を確認するために、上述した疼痛判定装置1000を組み合わせてもよい。例えば、疼痛を感じている対象者300に薬剤305を投与し、疼痛判定装置1000を用いて対象者300の疼痛状態を判定することで、薬剤効果の有無を確認してもよい。
(8-4-2)
In addition, in order to confirm the effect of the drug effect determination apparatus 1200, the pain determination apparatus 1000 described above may be combined. For example, the presence or absence of the drug effect may be confirmed by administering the drug 305 to the subject 300 feeling pain and determining the pain state of the subject 300 using the pain determination apparatus 1000.

(8−5)薬剤効果判定装置の検証試験
本実施形態に係る薬剤効果判定装置の検証試験を次のようにして行なった。一般的に、癌性疼痛に対する有効な治療としてオピオイド系鎮痛薬を経口投与することがある。そこで、本試験では、既にオピオイド系鎮痛薬治療が行なわれている被験者(対象者300)に対し、疼痛増強時にオピオイド系鎮痛薬を追加投与した場合に意識清明で痛みが軽減されるか否かを検証した。また、比較のために、疼痛の主観的評価である数値的評価スケール(Numerical Rating Scale:NRS)からオピオイド系鎮痛薬の疼痛緩和効果を求めた。
(8-5) Verification Test of Drug Effect Determination Device A verification test of the drug effect determination device according to the present embodiment was performed as follows. In general, an opioid analgesic is sometimes administered orally as an effective treatment for cancer pain. Therefore, in this study, whether or not pain is alleviated with clear consciousness when an opioid analgesic is additionally administered to a subject (subject 300) who has already been treated with opioid analgesic during pain augmentation. Verified. For comparison, the pain relieving effect of opioid analgesics was determined from a numerical rating scale (NRS), which is a subjective evaluation of pain.

まず、本試験では、被験者から顔面画像を取得した。具体的には、実験室に設置した椅子に被験者を座らせて、被験者にヘッドホンを装着させた。そして、このヘッドホンのアームにLogicool社製のHDウェブカムc270を固定し、この撮影装置を被験者の正面側で0.2m離れた地点に設置した。そして、この撮影装置を用いて被験者の顔面全体の鼻部周辺の撮影画像データを時系列で取得した。具体的には、撮影装置によって、30フレーム/秒の撮影周期で時間軸に沿って1260秒間の撮影画像データを連続撮影して、顔面の動画データを得た。画像データはApple Inc.製のMacBook Air(登録商標)にカラーの動画データとして格納した。   First, in this test, facial images were obtained from subjects. Specifically, the subject was seated on a chair installed in the laboratory, and the subject was put on headphones. Then, an HD webcam c270 made by Logitech was fixed to the arm of this headphone, and this photographing apparatus was installed at a point 0.2 m away on the front side of the subject. And using this imaging device, photographic image data around the nose of the entire face of the subject was acquired in time series. Specifically, the moving image data of the face was obtained by continuously shooting the shooting image data of 1260 seconds along the time axis with a shooting period of 30 frames / second by the shooting device. Image data was stored as color moving image data in MacBook Air (registered trademark) manufactured by Apple Inc.

そして、本試験では、顔面画像を取得している間に、被験者に薬剤であるオピオイド系鎮痛薬を投与した。オピオイド系鎮痛薬を投与したことは、被験者の周囲に存する介助者がボタンを押下すること等により検知した。   And in this test, the opioid analgesic which is a chemical | medical agent was administered to the test subject, while acquiring the face image. The administration of an opioid analgesic was detected by pressing a button by an assistant present around the subject.

顔面画像の解析としては、撮影した顔面の動画データより得られたRGBデータに基づき血行量データを算出し、MATLAB(登録商標)のSVD(Singular Value Decomposition)を分析ツールとして用いて特異値分解を行った。ここでは、CIE−L*a*b*表色系に従って、画像のRGBデータより演算される肌の赤みやヘモグロビン量と相関のある紅斑指数「a*」を求め、これを血行量データとした。また、特異値分解では、時系列で取得した全ての動画データ(1260秒間のデータ)から得られたRGBデータに基づく血行量データ(ここでは、紅斑指数)を対象とし、要因を1秒毎の時間データ(1260秒間で1260time point)とし、測度をその期間(1秒毎)におけるRGBデータから演算した紅斑指数(1秒間のフレームデータを取り出し、該フレームデータから得られるRGB値の平均値から演算した紅斑指数であり、動画データに合わせて調整したもの)とした。そして、特異値分解により、顔面の動画データより得られたRGBデータに基づく時系列の血行量データを、複数の成分に分解し、それぞれの成分の時間分布Vと、空間分布Uと、各成分の大きさを示す特異値Sとを算出した。なお、これらの関係は、以下の式で表される。また、V'は、Vの行と列とを入れ替えた行列である。   For analysis of facial images, blood flow volume data is calculated based on RGB data obtained from the captured facial moving image data, and singular value decomposition is performed using MATLAB® SVD (Singular Value Decomposition) as an analysis tool. went. Here, according to the CIE-L * a * b * color system, an erythema index “a *” correlated with the redness and hemoglobin amount calculated from the RGB data of the image is obtained, and this is used as blood flow data. . In the singular value decomposition, blood flow volume data (here, erythema index) based on RGB data obtained from all moving image data (data for 1260 seconds) acquired in time series is targeted, and the factor is determined every second. Erythema index calculated from RGB data in the period (every 1 second) with time data (1260 time points in 1260 seconds), calculated from the average value of RGB values obtained from the frame data Erythema index, adjusted according to the video data). Then, by singular value decomposition, time-series blood flow data based on RGB data obtained from facial moving image data is decomposed into a plurality of components, and each component's time distribution V, spatial distribution U, and each component And a singular value S indicating the magnitude of. These relationships are expressed by the following equations. V ′ is a matrix in which the rows and columns of V are exchanged.

そして、特異値分解によって求められた各成分の時間分布V及び空間分布Uをグラフにプロットし、各成分の成分波形図と血行量分布図とを作成した。   Then, the time distribution V and the spatial distribution U of each component obtained by singular value decomposition were plotted on a graph, and a component waveform diagram and a blood flow distribution diagram of each component were created.

さらに、作成した各成分の成分波形図及び血行量分布図について、脳機能賦活活動を反映した顔面の血行量の変化、すなわち顔面のRGB変化を示す成分を同定するための解析を行った。各成分の成分波形図については、その成分波形の振幅と、オピオイド系鎮痛薬を投与したこととの相関関係の有無について解析した。上記条件のもと、図32に示すような結果が得られた。   Further, analysis was performed on the component waveform diagram and blood flow distribution diagram of each component created to identify a change in facial blood flow that reflects brain function activation activity, that is, a component indicating a change in facial RGB. About the component waveform figure of each component, it analyzed about the presence or absence of the correlation with the amplitude of the component waveform, and administration of an opioid type analgesic. Under the above conditions, a result as shown in FIG. 32 was obtained.

図32では、横軸が経過時間を示し、縦軸が顔面画像情報から得られた判定用成分の時系列変化を示している。この判定用成分は、オピオイド系鎮痛薬を投与したことと相関のある成分である。図32のグラフからは、時間の経過とともに、判定用成分の反応が減少することを示す結果が得られた。   In FIG. 32, the horizontal axis indicates the elapsed time, and the vertical axis indicates the time-series change of the determination component obtained from the facial image information. This determination component is a component that correlates with the administration of an opioid analgesic. From the graph of FIG. 32, a result indicating that the reaction of the determination component decreases with time.

図33は疼痛の主観的評価である数値的評価スケールから求めた推定痛み変化を示す図である。図33では、横軸が経過時間を示し、縦軸が疼痛の数値的評価スケール示している。図33のグラフからは、図32と同様の波形を示す結果が得られた。   FIG. 33 is a diagram showing an estimated pain change obtained from a numerical evaluation scale which is a subjective evaluation of pain. In FIG. 33, the horizontal axis represents elapsed time, and the vertical axis represents a numerical evaluation scale of pain. From the graph of FIG. 33, the result which shows the waveform similar to FIG. 32 was obtained.

このような結果から、オピオイド系鎮痛薬を投与したこと応じた判定用成分を抽出できることが認識できた。また、オピオイド系鎮痛薬の疼痛緩和効果を客観的に評価判定できることが認識できた。   From such a result, it has been recognized that the determination component corresponding to the administration of the opioid analgesic can be extracted. It was also recognized that the pain relieving effect of opioid analgesics can be objectively evaluated and determined.

<付記>
なお、本発明は、上記実施形態そのままに限定されるものではない。本発明は、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、本発明は、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の発明を形成できるものである。例えば、実施形態に示される全構成要素から幾つかの構成要素は削除してもよいものである。さらに、異なる実施形態に構成要素を適宜組み合わせてもよいものである。
<Appendix>
In addition, this invention is not limited to the said embodiment as it is. The present invention can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. In addition, the present invention can form various inventions by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements may be appropriately combined in different embodiments.

本発明によれば、簡便に脳活動を推定することができるため、脳活動に基づき対象者の生理状態を可視化する脳活動可視化装置への適用が有効である。   According to the present invention, since brain activity can be easily estimated, application to a brain activity visualization device that visualizes the physiological state of a subject based on brain activity is effective.

10 脳活動可視化装置
20 顔面皮膚温度取得手段
30 脳活動推定手段
110 脳活動可視化装置
120 画像データ取得手段
130 脳活動推定手段
200 状態可視化手段
201 解析部
300 対象者
305 薬剤
1000 疼痛判定装置
1010 入力部
1015 撮像部
1020 出力部
1030 記憶部
1031 脳機能賦活情報データベース
1032 判定情報データベース(判定情報記憶部)
1040 処理部
1041 脳機能賦活情報提供部
1042 顔面変化情報取得部
1043 顔面変化情報分解部
1044 判定用成分抽出部
1045 疼痛判定部
1100 判定情報提供装置
1130 記憶部
1132 判定情報データベース(判定情報記憶部)
1140 処理部
1200 薬剤効果判定装置
1210 入力部
1215 撮像部
1216 取得部
1220 出力部
1230 記憶部
1231 脳機能賦活情報データベース
1232 判定情報データベース(判定情報記憶部)
1240 処理部
1241 投与情報検知部
1242 顔面変化情報取得部
1243 顔面変化情報分解部
1244 判定用成分抽出部
1245 薬剤効果判定部
1246 投与量判定部
1300 判定情報提供装置
1330 記憶部
1332 判定情報データベース(判定情報記憶部)
1340 処理部
DESCRIPTION OF SYMBOLS 10 Brain activity visualization apparatus 20 Facial skin temperature acquisition means 30 Brain activity estimation means 110 Brain activity visualization apparatus 120 Image data acquisition means 130 Brain activity estimation means 200 State visualization means 201 Analysis part 300 Target person 305 Drug 1000 Pain determination apparatus 1010 Input part 1015 Imaging unit 1020 Output unit 1030 Storage unit 1031 Brain function activation information database 1032 Determination information database (determination information storage unit)
1040 Processing unit 1041 Brain function activation information providing unit 1042 Face change information acquiring unit 1043 Face change information decomposing unit 1044 Determination component extracting unit 1045 Pain determination unit 1100 Determination information providing device 1130 Storage unit 1132 Determination information database (determination information storage unit)
1140 processing unit 1200 drug effect determination device 1210 input unit 1215 imaging unit 1216 acquisition unit 1220 output unit 1230 storage unit 1231 brain function activation information database 1232 determination information database (determination information storage unit)
1240 Processing Unit 1241 Administration Information Detection Unit 1242 Face Change Information Acquisition Unit 1243 Face Change Information Decomposition Unit 1244 Determination Component Extraction Unit 1245 Drug Effect Determination Unit 1246 Dose Determination Unit 1300 Determination Information Providing Device 1330 Storage Unit 1332 Determination Information Database (determination Information storage unit)
1340 processing unit

特開2013−176406号公報JP 2013-176406 A

Claims (14)

人間の脳機能を賦活する脳機能賦活情報を対象者に提供する脳機能賦活情報提供部(1041)と、
前記対象者の顔面データの時系列変化を示す顔面変化情報を取得する顔面変化情報取得部(1042)と、
前記顔面変化情報を、特異値分解、主成分分析或いは独立成分分析により複数の成分に分解する顔面変化情報分解部(1043)と、
前記複数の成分から、前記脳機能賦活情報と関連する成分を判定用成分として抽出する判定用成分抽出部(1044)と、
前記判定用成分抽出部による抽出結果に基づいて、前記対象者における疼痛の有無を判定する、疼痛判定部(1045)と、
を備える、疼痛判定装置(1000)。
A brain function activation information providing unit (1041) for providing brain function activation information for activating human brain function to the target person;
A face change information acquisition unit (1042) for acquiring face change information indicating a time-series change in the face data of the subject;
A face change information decomposition unit (1043) that decomposes the face change information into a plurality of components by singular value decomposition, principal component analysis, or independent component analysis;
A determination component extraction unit (1044) that extracts a component related to the brain function activation information from the plurality of components as a determination component;
A pain determination unit (1045) for determining the presence or absence of pain in the subject based on the extraction result by the determination component extraction unit;
A pain determination apparatus (1000) comprising:
前記判定用成分抽出部は、前記脳機能賦活情報に対応する判定用波形と前記複数の成分との相関値に基づいて、前記判定用成分を抽出する、
請求項1に記載の疼痛判定装置。
The determination component extraction unit extracts the determination component based on a correlation value between the determination waveform corresponding to the brain function activation information and the plurality of components.
The pain determination apparatus according to claim 1.
前記脳機能賦活情報提供部は、前記脳機能賦活情報として、聴覚を刺激する聴覚刺激情報または視覚を刺激する視覚刺激情報を前記対象者に提供する、
請求項1又は2に記載の疼痛判定装置。
The brain function activation information providing unit provides the target person with auditory stimulation information for stimulating hearing or visual stimulation information for stimulating vision as the brain function activation information.
The pain determination apparatus according to claim 1 or 2.
前記疼痛判定部は、前記判定用成分の変化量に応じて前記疼痛状態を判定する、
請求項1から3のいずれか1項に記載の疼痛判定装置。
The pain determination unit determines the pain state according to a change amount of the determination component;
The pain determination apparatus according to any one of claims 1 to 3.
脳機能賦活情報に対して算出される判定用成分の相関値の、前記脳機能賦活情報に対して算出された基準判定用成分の基準相関値からの所定範囲の変化量を、疼痛状態レベルに関連付けて判定情報として記憶する判定情報記憶部(1032)をさらに備え、
前記疼痛判定部が、前記脳機能賦活情報に対する前記判定用成分の相関値を算出し、算出した相関値及び前記判定情報に基づいて、前記対象者の疼痛状態レベルを判定する、
請求項1から4のいずれか1項に記載の疼痛判定装置。
The amount of change in a predetermined range of the correlation value of the determination component calculated for the brain function activation information from the reference correlation value of the reference determination component calculated for the brain function activation information is set to the pain state level. A determination information storage unit (1032) that stores the determination information in association with each other;
The pain determination unit calculates a correlation value of the determination component with respect to the brain function activation information, and determines the pain state level of the subject based on the calculated correlation value and the determination information;
The pain determination apparatus according to any one of claims 1 to 4.
ネットワーク上の判定情報提供装置(1100)が、脳機能賦活情報に対して算出される判定用成分の相関値の、前記脳機能賦活情報に対して算出された基準判定用成分の基準相関値からの所定範囲の変化量を、疼痛状態レベルに関連付けて判定情報として記憶する判定情報記憶部(1132)を備え、
前記疼痛判定部が、前記脳機能賦活情報に対する前記判定用成分の相関値を算出し、算出した相関値及び前記判定情報に基づいて、前記対象者の疼痛状態レベルを判定する、
請求項1から5のいずれ1項に記載の疼痛判定装置。
From the reference correlation value of the reference determination component calculated for the brain function activation information, the determination value providing apparatus (1100) on the network calculates the correlation value of the determination component calculated for the brain function activation information. A determination information storage unit (1132) that stores the amount of change in the predetermined range as determination information in association with the pain state level;
The pain determination unit calculates a correlation value of the determination component with respect to the brain function activation information, and determines the pain state level of the subject based on the calculated correlation value and the determination information;
The pain determination apparatus according to any one of claims 1 to 5.
前記機能賦活情報提供部及び顔面変化情報取得部は、ヘルメット型の装置に組み込まれるものである、
請求項1から6のいずれか1項に記載の疼痛判定装置。
The function activation information providing unit and the face change information acquiring unit are incorporated in a helmet-type device.
The pain determination apparatus according to any one of claims 1 to 6.
薬剤(305)が投与された対象者の顔面データの時系列変化を示す顔面変化情報を取得する顔面変化情報取得部(1242)と、
前記顔面変化情報を、特異値分解、主成分分析或いは独立成分分析により複数の成分に分解する顔面変化情報分解部(1243)と、
前記複数の成分から、前記薬剤が投与されたことに関連する成分を判定用成分として抽出する判定用成分抽出部(1244)と、
前記判定用成分抽出部による抽出結果に基づいて、前記薬剤の効果を判定する薬剤効果判定部(1245)と、
を備える、薬剤効果判定装置(1200)。
A face change information acquisition unit (1242) that acquires face change information indicating a time-series change in face data of the subject to whom the medicine (305) has been administered;
A face change information decomposition unit (1243) that decomposes the face change information into a plurality of components by singular value decomposition, principal component analysis, or independent component analysis;
A determination component extraction unit (1244) that extracts, as a determination component, a component related to the administration of the medicine from the plurality of components;
A drug effect determination unit (1245) for determining the effect of the drug based on the extraction result by the determination component extraction unit;
A drug effect determination device (1200).
前記判定用成分抽出部は、前記薬剤が投与されたことに対応する判定用波形と前記複数の成分との相関値に基づいて、前記判定用成分を抽出する、
請求項8に記載の薬剤効果判定装置。
The determination component extraction unit extracts the determination component based on a correlation value between the determination waveform corresponding to the administration of the medicine and the plurality of components.
The drug effect determination device according to claim 8.
前記薬剤効果判定部は、前記判定用成分の時系列変化に応じて前記薬剤の効果を判定する、
請求項8又は9に記載の薬剤効果判定装置。
The drug effect determination unit determines the effect of the drug according to a time-series change of the determination component,
The drug effect determination device according to claim 8 or 9.
薬剤が投与されてから所定時間経過後の、薬剤が投与されたことに対して算出される判定用成分の相関値の、基準値に対する変化量を、薬剤効果レベルに関連付けて判定情報として記憶する判定情報記憶部(1232)をさらに備え、
前記薬剤効果判定部が、前記薬剤が投与されたことに対する前記判定用成分の相関値を算出し、算出した相関値及び前記判定情報に基づいて、前記対象者に対する薬剤効果レベルを判定する、
請求項8から10のいずれか1項に記載の鎮痛剤効果判定装置。
The change amount of the correlation value of the determination component calculated with respect to the administration of the drug after a predetermined time has elapsed from the administration of the drug with respect to the reference value is stored as determination information in association with the drug effect level. A judgment information storage unit (1232);
The drug effect determination unit calculates a correlation value of the determination component with respect to the administration of the drug, and determines a drug effect level for the subject based on the calculated correlation value and the determination information.
The analgesic effect determination device according to any one of claims 8 to 10.
前記薬剤効果レベルに応じて、前記対象者に投与する薬剤の投与量を算出する投与量算出部(1246)、をさらに備える、
請求項11に記載の薬剤効果判定装置。
A dose calculation unit (1246) for calculating a dose of a drug to be administered to the subject according to the drug effect level;
The drug effect determination device according to claim 11.
ネットワーク上の判定情報提供装置(1300)が、薬剤が投与されてから所定時間経過後の、薬剤が投与されたことに対して算出される判定用成分の相関値の、基準値からの変化量を、薬剤効果レベルに関連付けて判定情報として記憶する判定情報記憶部(1332)を備え、
前記薬剤効果判定部が、前記薬剤が投与されたことに対する前記判定用成分の相関値を算出し、算出した相関値及び前記判定情報に基づいて、前記対象者に対する薬剤効果レベルを判定する、
請求項8から12のいずれ1項に記載の薬剤効果判定装置。
The amount of change from the reference value of the correlation value of the determination component calculated for the administration of the drug after a predetermined time has elapsed since the determination information providing apparatus (1300) on the network has administered the drug And a determination information storage unit (1332) that stores the determination information in association with the drug effect level,
The drug effect determination unit calculates a correlation value of the determination component with respect to the administration of the drug, and determines a drug effect level for the subject based on the calculated correlation value and the determination information.
The drug effect determination device according to any one of claims 8 to 12.
前記判定情報提供装置は、前記判定情報として、前記薬剤効果レベルに関連付けて、前記薬剤の投与量をさらに記憶しており、
前記薬剤効果判定部が、前記判定情報に基づいて、前記薬剤効果レベル及び前記薬剤の投与量を判定する、
請求項13項に記載の薬剤効果判定装置。
The determination information providing device further stores a dose of the drug in association with the drug effect level as the determination information,
The drug effect determination unit determines the drug effect level and the dose of the drug based on the determination information.
The drug effect determination device according to claim 13.
JP2016240738A 2016-12-12 2016-12-12 Pain judgment device and drug effect judgment device Active JP6886139B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016240738A JP6886139B2 (en) 2016-12-12 2016-12-12 Pain judgment device and drug effect judgment device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016240738A JP6886139B2 (en) 2016-12-12 2016-12-12 Pain judgment device and drug effect judgment device

Publications (2)

Publication Number Publication Date
JP2018094030A true JP2018094030A (en) 2018-06-21
JP6886139B2 JP6886139B2 (en) 2021-06-16

Family

ID=62634018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016240738A Active JP6886139B2 (en) 2016-12-12 2016-12-12 Pain judgment device and drug effect judgment device

Country Status (1)

Country Link
JP (1) JP6886139B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001093746A2 (en) * 2000-06-08 2001-12-13 Honeywell International Inc. Detection system and method using thermal image analysis
WO2014177577A1 (en) * 2013-04-29 2014-11-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Non-invasive method for prediction of opioid-analgesia and opioid-blood-concentrations
JP2016049343A (en) * 2014-09-01 2016-04-11 ダイキン工業株式会社 Brain activity estimation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001093746A2 (en) * 2000-06-08 2001-12-13 Honeywell International Inc. Detection system and method using thermal image analysis
JP2003534864A (en) * 2000-06-08 2003-11-25 ハネウェル・インターナショナル・インコーポレーテッド Detection system and method using thermal image analysis
WO2014177577A1 (en) * 2013-04-29 2014-11-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Non-invasive method for prediction of opioid-analgesia and opioid-blood-concentrations
JP2016520821A (en) * 2013-04-29 2016-07-14 フラウンホファー‐ゲゼルシャフト・ツア・フェルデルング・デア・アンゲヴァンテン・フォルシュング・エー・ファウ Noninvasive methods to predict opioid analgesia and opioid blood levels
JP2016049343A (en) * 2014-09-01 2016-04-11 ダイキン工業株式会社 Brain activity estimation device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
濱口眞輔: "サーモグラフィ計測器", 医療機器学, vol. 80, no. 3, JPN6020039713, 30 June 2010 (2010-06-30), JP, pages 226 - 233, ISSN: 0004369714 *

Also Published As

Publication number Publication date
JP6886139B2 (en) 2021-06-16

Similar Documents

Publication Publication Date Title
JP6371366B2 (en) Mental illness determination device
JP6503327B2 (en) Physiological condition determination apparatus and physiological condition determination method
WO2019140155A1 (en) Systems, devices, and methods for tracking and/or analyzing subject images and/or videos
CA2906652A1 (en) System and signatures for the multi-modal physiological stimulation and assessment of brain health
WO2018190403A1 (en) Physiological state assessment apparatus
WO2017065313A1 (en) Useful information presentation device
JP6463392B2 (en) Fatigue state determination device and fatigue state determination method
JP7111450B2 (en) Brain activity estimation device
CN105188537A (en) Objective non-invasive method for quantifying degree of itch using psychophysiological measures
JP6886140B2 (en) Discomfort judgment device
JP6842657B2 (en) Psychogenic disease determination device
JP6829363B2 (en) Evaluation device, market research device, and learning evaluation device
JP6158887B2 (en) Useful information presentation device
JP6093422B1 (en) Brain age presentation device
JP6886139B2 (en) Pain judgment device and drug effect judgment device
Merla Revealing psychophysiology and emotions through thermal infrared imaging
JP6096857B1 (en) Emotion judgment device
Cipresso et al. Contactless bio-behavioral technologies for virtual reality
Hee et al. Valid parameters extracted from frequency changes of head movement on stress state using vibraimage technology
JP2017086992A (en) Feeling determination device
PARK et al. Valid Parameters Extracted from Frequency Changes of Head Movement on Stress State using Vibraimage Technology
Mancini et al. Changes in heart rate and skin conductance provoked by emotional arousal during initial and secondary exposure to stimuli

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210430

R150 Certificate of patent or registration of utility model

Ref document number: 6886139

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250