JP2006130121A - 生体情報に基づく感情認識方法 - Google Patents

生体情報に基づく感情認識方法 Download PDF

Info

Publication number
JP2006130121A
JP2006130121A JP2004323397A JP2004323397A JP2006130121A JP 2006130121 A JP2006130121 A JP 2006130121A JP 2004323397 A JP2004323397 A JP 2004323397A JP 2004323397 A JP2004323397 A JP 2004323397A JP 2006130121 A JP2006130121 A JP 2006130121A
Authority
JP
Japan
Prior art keywords
biological information
emotion recognition
data
patient
biological
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004323397A
Other languages
English (en)
Inventor
Naoyuki Aikawa
直幸 相川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon University
Original Assignee
Nihon University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon University filed Critical Nihon University
Priority to JP2004323397A priority Critical patent/JP2006130121A/ja
Publication of JP2006130121A publication Critical patent/JP2006130121A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

【課題】 適正でかつ使用されている時間が長くなればなるほど正しい判断ができ、かつ、患者の状態に応じた正確な感情判断を可能にした生体情報に基づく感情認識システムを提供すること。
【解決手段】 生体情報に基づく感情認識システム1は、患者の身体に着脱が可能なセンサー31を用いて、当該患者の身体から発せられる生体信号を取込む生体情報収集装置3と、前記生体情報収集装置3からの生体信号を取込み、ファジー関数処理を行うことによって当該生体の現在の感情を認識させてその認識結果を出力できる感情認識装置5とを備えたものである。
【選択図】 図1

Description

本発明は、心電図等の生体情報を基に当該生体情報を発する人とのコミュニケーションを認識する方法に関するものである。
一般に、会話、表情等から意思伝達が困難な人(以下、「患者者」という)とのコミュニケーションは、医療、教育等の現場では大変重要なことである。現状は、このような患者とのコミュニケーションは、これらの患者を介護する人の経験を基に判断しているのが一般的である。したがって、だれでも簡単に患者がどう感じているのか(快、不快)がわかれば、介護する人も、医療や教育の現場でも、とても有意義なこといえる。
このような背景から、患者の身体に着脱が可能なセンサーを用いて、当該患者の身体から発せられる生体信号を取込み、当該生体信号をデジタルデータ化し、当該デジタルデータに対して所定のデジタル処理をして、その患者の身体および感情を認識する装置および方法が提案されている(特許文献1参照)。
このような身体および感情を認識する装置および方法によれば、患者の急激に変わる感情状態あるいは変わった後に長く残留する感情状態をリアルタイムに認識できる利点がある。
特開2002−112969号公報
しかしながら、上述した従来の身体および感情を認識する装置および方法によれば、検出されたデータを基準値と比較し、あるいは、基準値との偏差が所定の値かによって感情等がどうなっているか判断しているのみであるため、次のような欠点があった。
(1)患者の生体状態の変化があっても、同一基準値で判断しているため、誤った判断がなされる恐れがある。
(2)長時間使用していても、検出されたデータがもつ情報を生かすことができない。
(3)患者によって、異なる生体情報が発せられているのに、画一的な判断をしているので、正確な判断がされているとは言い難い。
そこで、本発明は上述した欠点を解消し、適正でかつ使用されている時間が長くなればなるほど正しい判断ができ、かつ、患者の状態に応じた正確な感情判断を可能にした生体情報に基づく感情認識方法を提供することにある。
上記目的を達成するために、請求項1記載の発明に係る生体情報に基づく感情認識システムは、患者の身体に着脱が可能なセンサーを用いて、当該患者の身体から発せられる生体信号を取込む生体情報収集装置と、前記生体情報収集装置からの生体信号を取込み、当該生体信号にファジー関数処理を施して当該生体の現在の感情を認識させた結果を出力できる感情認識装置とを備えたことを特徴とするものである。
請求項2記載の発明では、本願請求項1に記載の生体情報に基づく感情認識システムにおいて、前記感情認識装置は、生体デジタルデータから所定の参照ベクトルを抽出し、当該参照ベクトルを更新することにより学習を行うファジー関数処理を施し、快、不快の判定を行うことを特徴とするものである。
上記目的を達成するために、請求項3記載の発明に係る生体情報に基づく感情認識方法は、患者の身体に着脱が可能なセンサーからの生体信号を取り込むステップと、前記生体信号を生体デジタルデータに変換するステップと、前記生体デジタルデータから所望の参照ベクトルを抽出するステップと、所望の参照ベクトルにファジー関数処理を施すステップとからなることを特徴とするものである。
本発明に係る生体情報に基づく感情認識方法によれば、
〜したので、次のような効果がある。
(1)患者の生体状態の変化があっても、患者からの検出信号を基にファジー理論により判定しているので、患者の生体状態の変化に応じた正しい判断ができる。
(2)長時間使用すればするほど、患者から検出されたデータがもつ情報を当該認識方法に取り込むことができるので、患者の状態に基づく正しい認識が可能になる。
(3)患者による異なる生体情報が発せられても、それに応じた適正な判断ができるので、患者の感情を正確に判断をすることができる。
以下、本発明を実施するための最良の形態について図面を参照して説明する。
図1は、本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法を実現させる生体情報に基づく感情認識システムの一構成例を説明するための概略ブロック図である。
この図1において、本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法を実現させる生体情報に基づく感情認識システム1は、患者の身体に着脱が可能なセンサー31を用いて、当該患者の身体から発せられる生体信号を取込む生体情報収集装置3と、前記生体情報収集装置3からの生体信号を取込み、ファジー関数処理を行うことによって当該生体の現在の感情を認識させてその認識結果を出力できる感情認識装置5とを備えたものである。
前記生体情報収集装置3は、例えば、患者の身体の所定の各部位に装着するためのセンサー31,…と,これらセンサー31,…で検出した生体信号を各センサー31,…毎にアナログ処理を行う心電計本体30とから構成されたものである。ここに、前記心電計本体30は、患者の身体の所定の各部位に装着したセンサー31,…からの検出された生体信号をアナログ処理して所定のレベルに増幅した後、それら信号を各チャンネル(各センサー31,…)毎に、印刷装置(例えばペンレコーダ)に出力したり、データレコーダ(例えばハードディスク装置等の記憶装置)に記憶させたり、あるいは、外部に出力できるようになっている。本発明の実施の形態では、この心電計本体30は、前記複数のアナログ処理した生体信号を各チャンネル毎にAD(アナログ−デジタル)変換して生体デジタルデータとして出力できるようになっているものとして説明する。
前記感情認識装置5は例えばパーソナルコンピュータ等のコンピュータシステムで構成したものであって、このコンピュータシステムは、コンピュータ装置本体51と、入力装置であるキーボード52及びマウス53と、出力装置であるディスプレイ54及びプリンタ55とから構成されているものとする。また、図1に示すように、前記コンピュータ装置本体51の例えばUSBポートには、キーボード52とマウス53とが、表示用出力ポートにはディスプレイ54が、印字用出力ポートにはプリンタ11が、それぞれ接続されている。
図2は、本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法を実現させる生体情報に基づく感情認識システムで用いるコンピュータ装置本体を説明するためのブロック図である。
前記コンピュータ装置本体51は、生体情報に基づく感情認識方法を実現するファジー関数処理を行うアルゴリズムやその他の処理や制御を実行する中央演算処理装置(CPU)51aと、オペレーティングシステムや本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法を実現するファジー関数処理を行うアルゴリズムやその他必要なデータを記憶できる主メモリ51bと、オペレーティングシステムや本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法を実現するファジー関数処理を行うことができるアルゴリズムなどのアプリケーションプログラムや計算結果データベースやその他必要な定数データやその他のデータベースを格納しておくハードディスク装置(HDD)51cと、入力装置との接続に使用される入力用インターフェース(I/F)51dと、ディスプレイなどの表示装置の接続に使用される表示用I/F51eと、プリンタなどのハードコピー装置の接続に使用される印字出力用I/F51fと、本発明に係る心電計本体30との接続に使用されるデジルタ入力用I/F51gと、これらを接続するバスライン51hとから構成されている。
また、前記CPU51aは、各種演算処理を実行する演算処理部と、イニシャル時に所定の処理を前記演算処理部に実行させるプログラムが記憶されたROMと、前記演算処理部が演算処理を実行する際に、必要なデータを一時格納するRAMとから構成されており、これらはバスライン51hに接続されている。
また、入力用I/F51dにはUSBポートを介してキーボード5及びマウス7が接続されており、これにより、当該コンピュータ装置本体5のCPU51に各種データや指令を与えられるようになっている。前記表示用I/F51eには表示用出力ポートを介してディスプレイ54が接続されており、これにより、当該コンピュータ装置本体51におけるCPU51で処理した結果をディスプレイ54に表示させることができるようになっている。印字出力用I/F51fには印字用出力ポートを介してプリンタ55が接続されており、これにより、当該コンピュータ装置本体51のCPU51で処理した結果のうち、印刷するデータをプリンタ55に与えて印刷できるようになっている。さらに、前記デジルタ入力用I/F51gには、接続ポート・ケーブルを介して生体情報収集装置3の心電計本体30のデジタル出力端子に接続されており、心電計本体30からのデジタルデータが感情認識装置5のコンピュータ装置本体51に与えられるようになっている。
なお、本発明を実施するための最良の形態で使用されるコンピュータ装置本体51のハードディスク装置51cには、オペレーティングシステムのOS格納領域と、生体情報に基づく感情認識方法を実現するファジー関数処理を行うアルゴリズムなどのアプリケーションプログラムが格納されているアプリケーションプログラム格納領域と、データベース領域などが設けられている。
なお、当該コンピュータ装置本体51の電源が投入されて動作を開始すると、CPU51aがその内部のROMのイニシャルプログラムにより動作し、ハードディスク装置51cのOS格納領域に格納されているオペレーティングシステムを主メモリ51bの所定の記憶領域に記憶させ、ついで、この主メモリ51bの所定の記憶領域上のオペレーティングシステムをCPU51aが処理することにより、当該生体情報に基づく感情認識方法を実現するファジー関数処理を行うアルゴリズムなどのプログラムやその他の処理を可能にする。
また、上述した当該生体情報に基づく感情認識方法を実現するファジー関数処理を行うアルゴリズムなどのアプリケーションプログラムに対してマウス7などで起動をかけことにより、あるいは、自動起動により、コンピュータ装置本体51におけるCPU51aがハードディスク装置51cのアプリケーションプログラム格納領域に格納されている生体情報に基づく感情認識方法を実現するファジー関数処理を行うアルゴリズムなどのアプリケーションプログラムを主メモリ51bの所定の記憶領域に記憶させて、次に、この主メモリ51bの所定の記憶領域に記憶されている生体情報に基づく感情認識方法を実現するファジー関数処理を行うアルゴリズムなどのアプリケーションプログラムをCPU51aが処理することにより、生体情報に基づく感情認識方法が実現される。
次に、上述したコンピュータシステム上で実行される生体情報に基づく感情認識方法を実現するファジー関数処理を行うアルゴリズムについて説明する。
まず、この生体情報に基づく感情認識方法を実現するファジー関数処理を行うアルゴリズムが次のようにして得られたことを説明する。
ここでは、まず生体情報に基づく感情認識方法に適用されるファジー関数について説明し、さらにその適用方法について図3〜図5を参照して説明する。
ここに、図3は本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法に適用されるファジー関数における正規三角ファジー数を説明するための図であって、横軸にUjを、縦軸に数値0〜1までのgradeを、それぞれとったものである。図4は本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法に適用されるファジー関数におけるファジー数間の類似度を説明するための図であって、横軸にUjを、縦軸に数値0〜1までのgradeを、それぞれとったものである。図5は本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法に適用されるファジー関数におけるPEモデルを説明するための図である。
まず、FLVQについて説明する。FLVQにおいて、n次元の入力ファジーベクトルxを、
Figure 2006130121
と表す。ここで、xのj軸方向成分xjは、図3に示すような正規三角ファジー数であり、p,qはあいまいさを意味する。また、そのメンバーシップ関数をhxj(Uj )とする。さらに、i番目の参照ベクトルmiを、
Figure 2006130121
とする。ただし、i=1,2,…,kと表し、そのメンバーシップ関数をhmij(uj)とする。このとき、xとmiとのj軸方向の類似度μijは、図4に示すように、
Figure 2006130121
で定義する。
さらに、Cxをxのカテゴリーとし、Ccを最大類似度参照ベクトルと参照ベクトルmcの属するカテゴリーとする。そして、入力ファジーベクトルxと、参照ベクトルmiの類似度μiは、その差を強調するために、次の数式4で表される、それぞれの方向での類似度の最小値から求め、カテゴリーCcを決定する。
Figure 2006130121
このときのPEモデルは、図6に示すようになる。また、数式4より、類似度μiはj軸方向の類似度μijの最小値をとることになるため、j軸方向の類似度μijが一つでも0になれば、類似度μi=0となり、PEiは発火しないことに注意をする。
次に、学習アルゴリズムについて図6〜図8を参照して説明する。ここに、図6は本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法に適用されるファジー関数における正答の場合の参照ベクトルの更新を説明するための図であって、横軸にUuを、縦軸に数値0〜1までのgradeを、それぞれとったものである。図7は本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法に適用されるファジー関数における誤答の場合の参照ベクトルの更新を説明するための図であって、横軸にuを、縦軸に数値0〜1までのgradeを、それぞれとったものである。図8は本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法に適用されるファジー関数における、すべてのPEが発火しないときの参照ベクトルの更新を説明するための図である。
FLVQでの学習は参照ベクトルmの更新という形で行われ、2つの側面がある。その一つは参照ベクトルmの移動である。他の一つは形状(あいまいさ)の決定である。また、学習には、(i)正答学習と、(ii)誤答学習と、(iii)すべてのPEが発火しない(類似度0)との3種類があり、LVQと同様に教師付き学習である。それぞれの学習の仕方を以下に表す。
いま、k個のPEを持つFLVQネットワークを考え、i番目のPEi(i=1,2,…,k)のn次元の参照ベクトルをmi、割り当てられたカテゴリーをCiとする。学習回数tに おいてn次元教師ベクトルをx、そのカテゴリーをCxとしたときに、参照ベクトルを次のように更新する。
[正答の場合の学習(Cx=Cc)]
Figure 2006130121
この数式5は、最大類似度参照ベクトルmcを入力ファジーベクトルxに近づくように移動させ、最大類似度参照ベクトルmcと、入力ファジーベクトルxとの類似度を大きくする。
[誤答の場合の学習(Cx≠Cc )]
Figure 2006130121
この数式6も最大類似度参照ベクトルmcのみ更新する。数式6は、図7に示すように、最大類似度参照ベクトルmcを入力ファジーベクトルxから離れるように移動させ、最大類似度参照ベクトルmcのあいまい量を減少させ類似度を小さくする。
[すべてのPEが発火しない場合]
Figure 2006130121
図8に示すように、入力ファジーベクトルx対していずれかのPEが発火するように、すべてのPEのあいまいさを増加させる。
なお、上記数式5〜数式7において、α(t)は時間単調減少関数、β(t)とγ(t)は拡張原理に基づく演算によるあいまいさの増加を防ぐ減少項、δ(t)はあいまいさの増加項である。また、F=(f,p,q)を中心とした左右の幅がp,qである三角形のファジー数としたとき、*印は次の数式8のような演算を表す(図3参照)。
Figure 2006130121
この数式8において、aはクリスプ値である。
上述したようなファジー関数からなるアルゴリズムを、前記感情認識装置5のコンピュータ装置本体51のCPU51aで次のように実行することにより、生体情報に基づく感情認識方法を実現している。
図9は本発明を実施するための最良の形態に係る生体情報に基づく感情認識システムにおいて、心電計本体から感情認識装置に取り込んだ心電図であって、横軸に時間を、縦軸に生体信号のレベルを、それぞれ示したものである。この図9において、(1)は1頂点と次の第1頂点との距離、(2)は1頂点と第2頂点との距離、(3)は第2頂点と第3頂点との距離、(4)は第3頂点と第1頂点との距離、(5)は区間内での第1頂点の高さの最大と最小、(6)は第3頂点の高さである。
図10は本発明を実施するための最良の形態に係る生体情報に基づく感情認識システムにおいて、心電計本体から感情認識装置に取り込んだデータの内、ウエーブレット変換をかけた状態の図であって、横軸に時間を、縦軸に生体信号のレベルを、それぞれ示したものである。この図10において、(7)はピーク間の変動の大きさを表している。
本発明を実施するための最良の形態に係る生体情報に基づく感情認識システム1では、患者(被験者)に装着したセンサー31からの生体信号を生体情報収集装置3に刻一刻と取り込み、この刻一刻と取り込まれる生体信号を当該生体情報収集装置3で生体デジダルデータに刻一刻とデジタル変換した後、これら生体デジダルデータを感情認識装置5に取り込み、前記感情認識装置5において、生体デジタルデータを処理し、必要の都度データ処理した処理データにウエーブレット変換をし、かつ、刻一刻と取り込まれる生体デジタルデータから各判定用データ((1)〜(7))を抽出し、これら抽出した各判定用データ((1)〜(7))に対してファジー関数からなるアルゴリズムを適用し、患者(被験者)の快、不快を判定するようにしている。
図11は本発明を実施するための最良の形態に係る生体情報に基づく感情認識システムにおける感情認識装置において学習動作を説明するためのフローチャートである。
まず、生体情報収集装置3では、複数のセンサー31を患者(被験者)の身体の所定の部位に装着し、各センサー31で検出した生体信号を心電計本体30に入力する。この心電計本体30では、各センサー31でそれぞれ検出した生体信号をアナログ処理して増幅し、それら増幅されたアナログの生体信号を複数のAD変換器でそれぞれ生体デジタルデータにアナログ・デジタル変換し、それらデジタル化した生体デジタルデータを刻一刻と感情認識装置5のコンピュータ装置本体51のデジタル入力端子からコンピュータ装置本体51に与える。
コンピュータ装置本体51のCPU51aは、当該生体情報に基づく感情認識プログラムを動作させると、図11のフローチャートを実行することになる。まず、コンピュータ装置本体51のCPU51aは、デジタル入力端子からデジルタ入力用I/F51gを介して入力されてくる各生体デジタルデータを取り込み、例えばHDD51cの所定のエリアに時系列に格納してゆく(ステップ(S)10)。この場合、CPU51aは、複数のセンサー31の数だけ、並列に格納してゆくが、以後は、説明を簡単にするため、1チャンネル(一つのセンサー31のみからの検出信号)に着目して説明するものとする。
次に、コンピュータ装置本体51のCPU51aは、次の処理のために上記したように取り込んだ生体デジタルデータを前処理を実行してHDD51cの所定の格納エリアに格納する(S11)。ついで、前記コンピュータ装置本体51のCPU51aは、前処理して前記HDD51cに格納した処理データが所定量蓄積されたか判断する(S12)。ここで、前記コンピュータ装置本体51のCPU51aは、前処理されてHDD51cに格納された処理データが所定量蓄積されていないときには(S12;NO)、再び、データ取り込み・格納処理(S10)に戻る。一方、前記コンピュータ装置本体51のCPU51aは、前処理されHDD51cに格納された処理データが所定量蓄積されたときには(S12;YES)、前記蓄積された処理データに対してファジー関数処理のうち学習処理を実行する(S13)。前記CPU51aは、学習処理が所定の値に達したときに処理を終了する。
図12は本発明を実施するための最良の形態に係る生体情報に基づく感情認識システムにおける感情認識装置において前記学習結果を基に快・不快の判定動作を説明するためのフローチャートである。
前記CPU51aは、図11のフローチャートによって得ている学習結果を基に、図12に示すフローチャートにより未知のデータを判定する動作をする。すなわち、コンピュータ装置本体51は、生体情報収集装置3の心電計本体30から与えられる生体デジルタデータの未知のデータを取り込み(S14)、前記図11のフローチャートによって得ている学習結果を基にファジー関数処理を実行する(S15)。このファジー関数処理を実行することにより、前記CPU51aは、患者(被験者)の快・不快を正確に判断することができる。
図13は本発明を実施するための最良の形態に係る生体情報に基づく感情認識システムにおいて、感情認識装置でファジー関数処理の学習動作を説明するためのフローチャートであって、図11のステップ13の詳細フローチャートである。
前記ステップ11において前処理が終了しており、かつ、前記ステップ12で所定量の前処理データが蓄積されていると、前記コンピュータ装置本体51のCPU51aは、ステップ13のファジー関数処理の学習処理に移行する。
すなわち、前記コンピュータ装置本体51は、ステップ13に移行できた時点で、前記コンピュータ装置本体51(の例えばHDD51cの所定のエリア)には上述した(1)から(7)までの値が取得できていることになる。そこで、前記コンピュータ装置本体51のCPU51aは、前記コンピュータ装置本体51(の例えばHDD51cの所定のエリア)にある(1)から(7)の値( 快・不快の心電データ(各データの構成要素は7つ))を取り込む(S131)。
ついで、前記コンピュータ装置本体51のCPU51aは、学習回数がtより小さいか否かを判断する(S132)。前記CPU51aは、学習回数がtより小さい場合(S132;YES)、学習処理を終了とする。
一方、前記CPU51aは、学習回数がtより小さくない場合(S132;NO)、キーボード52などから一つ目の教師データ(快)を入力してやる(S133)。そして、前記コンピュータ装置本体51のCPU51aは、参照データ(快)と教師データ(快)の各構成要素の交点の最小値を求める処理を実行し、かつ、参照データ(不快)と教師データ(快)の各構成要素の交点の最小値を求める処理を実行する(S134)。
さらに、前記コンピュータ装置本体51のCPU51aは、前記処理(S134)において交点があるか否かの判断をする(S135)。ここで、前記CPU51aは、交点があると判断すると(S135;YES)、この学習が正しいか否かの判断に入る(S136)。
前記CPU51aは、この学習が正しいと判断したときには(S136;YES)、正答学習を行い(S137)、次のS140に移行する。すなわち、前記CPU51aは、ステップ137における快の参照データを上記数式5により更新する処理を実行する(図6参照)。
ただし、この数式5において、α(t)=0.999*α(t−1)、α(0)=0.1、β(t)=0.99とする。
一方、前記CPU51aは、この学習が正しくないと判断したときには(S136;NO)、誤答学習を行い(図12(1)のS138)、S140に移行する。すなわち、前記CPU51aは、ステップ138における不快の参照データを上記数式6により更新する処理を実行する(図7参照)。
ただし、この数式6において、α(t)=0.999*α(t−1)、α(0)=0.1、γ(t)=1−α(t)とする。
ステップ135に戻り、前記CPU51aは、当該ステップにおいて交点がないと判断したときには(S135;NO)、すべてのPEが発火しないときの処理を行い(S139)、S140に移行する。すなわち、前記CPU51aは、ステップ139におけるすべての参照データを上記数式7で更新する処理を実行する(図8参照)。
ただし、この数式8において、δ(t)=1.1とする。
なお、上記ステップ137,138,139において、「1の最小値>2の最小値」として扱う。
そして、前記CPU51aは、ステップ137、ステップ138、または、ステップ139の処理が終了すると、不快の教師データについても上記ステップ135〜ステップ139のごとく処理を実行する(S140)。このステップ140では、「1の最小値<2の最小値」として扱う。
前記CPU51aは、前記ステップ140の処理が終了すると、再びステップ132に戻ることになる。
図14は本発明を実施するための最良の形態に係る生体情報に基づく感情認識システムにおいて、感情認識装置でファジー関数処理の実際の快・不快の判定動作を説明するためのフローチャートであって、図12のステップ15の詳細フローチャートである。
前記CPU51aは、図13の学習処理が終了すると、学習済みの快の参照データと、学習済みの不快の参照データが得られているので、まず、ステップ14で前記生体情報収集装置3から生体デジルタデータの未知データを取り込む。ついで、前記CPU51aは、学習済みの快の参照データと前記生体デジルタデータの未知データとの交点の最小値を求め、かつ、学習済みの不快の参照データと前記生体デジタルデータの未知データとの交点の最小値を求める処理を実行する(S151)。
ついで、前記CPU51aは、前記ステップ151で求めた最小値を比較し、最小値の大きいほうを認識結果として表示データとし、これをディスプレイ54に出力する処理を実行する(S152)。なお、CPU51aは、交点がなかったときには、どちらにも属さないとするカテゴリーに分類し、その判定結果を表示データとする。
なお、この図14のフローチャートの処理を所定時間毎に繰り返すことにより、患者(被験者)の快・不快をリアルタイムで判断することができる。
以上説明したように本発明を実施するための最良の形態に係る生体情報に基づく感情認識システム1は、上述したように動作するので、次のような利点がある。
(1)患者の生体状態の変化があっても、患者からの検出信号を基にファジー理論により判定しているので、患者の生体状態の変化に応じた正しい判断ができる。
(2)長時間使用すればするほど、患者から検出されたデータがもつ情報を当該認識方法に取り込むことができるので、患者の状態に基づく正しい認識が可能になる。
(3)患者による異なる生体情報が発せられても、それに応じた適正な判断ができるので、患者の感情を正確に判断をすることができる。
上述した本発明を実施するための最良の形態に係る生体情報に基づく感情認識システム1では、生体信号として心電による信号を使用したが、これに限定されることなく、例えば脳波などでもよい。
また、上述した本発明を実施するための最良の形態に係る生体情報に基づく感情認識システム1では、1チャンネルで説明したが、多チャンネルを同時処理することもできることはいうまでもない。
上述した本発明を実施するための最良の形態に係る生体情報に基づく感情認識システム1が上述したような作用効果を奏することを、具体的な実験で検証したので、以下、実施例として説明する。なお、この実施例では、図9および図10、図15ないし図18を参照して説明する。
ここで、図15は、本発明の実施例で使用したフェイススケールを示す図である。この図15に示すフェイススケールおいて、「0」は「痛みがない」ということを顔の表情で表し、「1」は「ほんの少し痛い」ということを顔の表情で表し、「2」は「少し痛い」ということを顔の表情で表し、「3」は「かなり痛い」ということを顔の表情で表し、「4」は「ひどく痛い」ということを顔の表情で表し、「5」は「これ以上の痛みがないほど痛い」ということを顔の表情で表している図である。このようなフェイススケールを使って以下の実験を行った。
まず始めに、測定条件について説明する。本実験では、健常成人9名(成人男性4名、女性5名、平均年齢36±3歳)に対して実験を行った。全体で6分間、心電データを測定し、まず始めの3分間は安静時での心電データを測定した。そして、残りの3分間は、肩甲骨下部に不快刺激として、一辺2センチメートルの木製の立方体を挿入して測定した。被験者には、1分おきに、今の状態がどのような感じかをフェイススケールを用いてアンケートを行った。この実験において心電波形はサンプリング周波数1[kHz]、12[ビット]で、パソコンに取り込んだ。
なお、上記実験データの内の一つのサンプル(評価日時:2003年11月26日18時50分;サンプルB)・1セット分を表1に示した。
Figure 2006130121
また、このパソコンに取り込んだ心電波形の一部を、図16および図17に示した。
ここに、図16は本発明の実施例において異物挿入前の心電波形の詳細を示す波形図であって、横軸には時間(秒)を、縦軸には振幅を、それぞれとったものである。図17は本発明の実施例において異物挿入後の心電波形の詳細を示す波形図であって、横軸には時間(秒)を、縦軸には振幅を、それぞれとったものである。
この二つの図からわかるように時間波形では、快・不快を判断することは困難である。そこで、図9および図10に示すような参照ベクトルを考える。そのデータを以下に示す。
図16で得た快の場合のデータは表2のようになる。
Figure 2006130121
また、図17で得た不快の場合のデータは表3のようになる。
Figure 2006130121
表2のデータおよび表3のデータに対して各列の最大値で正規化を行うと表4、表5のようになる。
Figure 2006130121
Figure 2006130121
表4、表5から図3の正規化三角ファジーの参照ベクトルを作成する。
例えばデータ1において、γの値が、0.998、0.999、0.824、0.989、0.944となる7つの正規化三角ファジー数を作る。このときに、あいまい度p,qの値は0.02とした。データ2以下も同様にする。
本実験において、快感、不快感を判定するため、図9および図10に示すような7次元の参照ベクトルを構成した。この参照ベクトルについて、再度説明する。
図9において、
(1)は「1頂点と次の第1頂点との距離」であり、
(2)は「1頂点と第2頂点との距離」であり、
(3)は第2頂点と第3頂点との距離であり、
(4)は第3頂点と第1頂点との距離であり、
(5)は区間内での第1頂点の高さの最大と最小であり、
(6)は第3頂点の高さである。
また、図10において、
(7)はピーク間の変動の大きさである。
一般に、不快刺激が加わった場合、正常時(刺激が加わる前)に比べ、心拍数が大きくなったり、強さが変化したりすると考えられている。そこで、この実験では、R,P,T波の感覚を条件としている(図3〜図6参照)。また、強さの変化を知るために、PR波の高さを条件とした。さらに、心電の強さの変動状態を見るために心電波形をマザーウェーブレットにトペシイ(N=2)を用い、レベル4分解までウエーブレット変換をする。ここでは、そのときに得られた心電波形レベルを図10に示す。
まず始めに、認識条件を説明する。測定した心電データを15000点(15[秒])を1間隔とし、刺激なしの3分から8箇所、刺激ありの3分間から8箇所で8組のデータを作成した。学習回数は1000回行った。そのときのFLVQK 初期値は以下の数式9に示すとおりである。
Figure 2006130121
また、あいまいさの条件は、p=q=0.04〜0.06を使用した。
まず、同一人物で不快が判断できるかどうか確認するために、認識したい人物だけのデータを用いて学習をし、その後、認識したい人物の未知データの認識実験を行う。実験結果を表1,表2に示す。
Figure 2006130121
Figure 2006130121
ただし、表1、表2では、人物は異なる。結果をみて分かるように、80%以上の認識率でほぼ不快の判断ができることがわかる。特に表1では、認識率がほぼ100%になった。これにより、人物を特定し学習すれば、かなりの高い確率で快、不快の判断が心電データから認識可能だということがわかる。
次に、個人性が強いかどうかを調べるために、表1、表2を用いた学習データを使用し、表1の学習データには表2の人物未知データ、表2の学習データには表1の人物未知データを用いて実験を行う。
実験結果を表3、表4に示す。
Figure 2006130121
Figure 2006130121
学習した人物と未知データの人物が異なるため、表1,2に比べて認識率が落ちるものの、ほぼ70%以上に認識率が得られる。ただし、表1、表3の結果からわかるように、表1の刺激なしの結果が、個人の特徴が強く出すぎてしまい、同じ人物のデータしか認識できないことがわかった。
最後に、学習データにすべての人のデータを使用して認識実験を行うと、表5に示すような結果が得られた。
Figure 2006130121
この表10の結果をみてわかるように、ほぼ快、不快が認識可能なシステムを構築できることが実証されたので、本発明を実施するに最良の形態のような生体情報に基づく感情認識システム1を構築できことが実証できた。
この実験では、心電の変化という比較的計測しやすいバイタルサインからFLVQA 用いて被験者がどう思っているかを判別できる手法を提案した。実験結果をみてわかるように、人物を特定すれば80%以上の認識結果が得られることがわかった。また、学習にいろいろな人物のデータを用いることにより、人物に関係なく認識率が80%近くになり、ほぼ不快、快の識別ができる。この結果から、重度心身障害者の理学療法を行う際に、コミュニケーション(意思疎通)に適用可能であることがわかった。
図1は、本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法を実現させる生体情報に基づく感情認識システムの一構成例を説明するための概略ブロック図である。 図2は、本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法を実現させる生体情報に基づく感情認識システムで用いるコンピュータ装置本体を説明するためのブロック図である。 図3は本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法に適用されるファジー関数における正規三角ファジー数を説明するための図である。 図4は本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法に適用されるファジー関数におけるファジー数間の類似度を説明するための図である。 図5は本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法に適用されるファジー関数におけるPEモデルを説明するための図である。 図6は本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法に適用されるファジー関数における正答の場合の参照ベクトルの更新を説明するための図である。 図7は本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法に適用されるファジー関数における誤答の場合の参照ベクトルの更新を説明するための図である。 図8は本発明を実施するための最良の形態に係る生体情報に基づく感情認識方法に適用されるファジー関数における、すべてのPEが発火しないときの参照ベクトルの更新を説明するための図である。 図9は本発明を実施するための最良の形態に係る生体情報に基づく感情認識システムにおいて、心電計本体から感情認識装置に取り込んだ心電図である。 図10は本発明を実施するための最良の形態に係る生体情報に基づく感情認識システムにおいて、心電計本体から感情認識装置に取り込んだデータの内、ウエーブレット変換をかけた状態の図である。 図11は本発明を実施するための最良の形態に係る生体情報に基づく感情認識システムにおける感情認識装置において学習動作を説明するためのフローチャートである。 図12は本発明を実施するための最良の形態に係る生体情報に基づく感情認識システムにおける感情認識装置において前記学習結果を基に快・不快の判定動作を説明するためのフローチャートである。 図13は本発明を実施するための最良の形態に係る生体情報に基づく感情認識システムにおいて、感情認識装置でファジー関数処理の学習動作を説明するためのフローチャートであって、図11のステップ13の詳細フローチャートである。 図14は本発明を実施するための最良の形態に係る生体情報に基づく感情認識システムにおいて、感情認識装置でファジー関数処理の実際の快・不快の判定動作を説明するためのフローチャートであって、図12のステップ15の詳細フローチャートである。 図15は、本発明の実施例で使用したフェイススケールを示す図である。 図16は本発明の実施例において異物挿入前の心電波形の詳細を示す波形図である。 図17は本発明の実施例において異物挿入後の心電波形の詳細を示す波形図である。
符号の説明
1・・生体情報に基づく感情認識システム
3・・生体情報収集装置
5・・感情認識装置
30・・心電計本体
31・・センサー
51・・コンピュータ装置本体
51a・・CPU
51b・・主メモリ
51c・・HDD
51d・・入力用I/F
51e・・表示用I/F
51f・・印字出力用I/F
51g・・デジルタ入力用I/F
52・・キーボード
53・・マウス
54・・ディスプレイ
55・・プリンタ

Claims (3)

  1. 患者の身体に着脱が可能なセンサーを用いて、当該患者の身体から発せられる生体信号を取込む生体情報収集装置と、
    前記生体情報収集装置からの生体信号を取込み、当該生体信号にファジー関数処理を施して当該生体の現在の感情を認識させた結果を出力できる感情認識装置とを備えたことを特徴とする生体情報に基づく感情認識システム。
  2. 前記感情認識装置は、生体デジタルデータから所定の参照ベクトルを抽出し、当該参照ベクトルを更新することにより学習を行うファジー関数処理を施し、快、不快の判定を行うことを特徴とする請求項1記載の生体情報に基づく感情認識システム。
  3. 患者の身体に着脱が可能なセンサーからの生体信号を取り込むステップと、
    前記生体信号を生体デジタルデータに変換するステップと、
    前記生体デジタルデータから所望の参照ベクトルを抽出するステップと、
    所望の参照ベクトルにファジー関数処理を施すステップとからなることを特徴とする生体情報に基づく感情認識方法。
JP2004323397A 2004-11-08 2004-11-08 生体情報に基づく感情認識方法 Pending JP2006130121A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004323397A JP2006130121A (ja) 2004-11-08 2004-11-08 生体情報に基づく感情認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004323397A JP2006130121A (ja) 2004-11-08 2004-11-08 生体情報に基づく感情認識方法

Publications (1)

Publication Number Publication Date
JP2006130121A true JP2006130121A (ja) 2006-05-25

Family

ID=36724156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004323397A Pending JP2006130121A (ja) 2004-11-08 2004-11-08 生体情報に基づく感情認識方法

Country Status (1)

Country Link
JP (1) JP2006130121A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009157185A1 (ja) * 2008-06-24 2009-12-30 大日本住友製薬株式会社 痛み判定装置
JP2011022869A (ja) * 2009-06-17 2011-02-03 Iwao Kobayashi 重症心身障害者のためのコミュニケーション支援装置
US9002704B2 (en) 2011-03-31 2015-04-07 Fujitsu Limited Speaker state detecting apparatus and speaker state detecting method
JP2015080269A (ja) * 2015-01-07 2015-04-23 株式会社ニコン 表示装置
JP2016106689A (ja) * 2014-12-03 2016-06-20 日本電信電話株式会社 感情情報推定装置、感情情報推定方法及び感情情報推定プログラム
JP2018187441A (ja) * 2012-11-09 2018-11-29 三星電子株式会社Samsung Electronics Co.,Ltd. ユーザの心理状態判断装置及び方法
JP2020096679A (ja) * 2018-12-17 2020-06-25 株式会社日立ソリューションズ東日本 不快感情推定装置および不快感情推定方法
JPWO2021014738A1 (ja) * 2019-07-19 2021-01-28

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009157185A1 (ja) * 2008-06-24 2009-12-30 大日本住友製薬株式会社 痛み判定装置
US9042972B2 (en) 2008-06-24 2015-05-26 Nihon Kohden Corporation Pain judging device to judge pain based on a frequency component of a peak-relevant value
JP2011022869A (ja) * 2009-06-17 2011-02-03 Iwao Kobayashi 重症心身障害者のためのコミュニケーション支援装置
US9002704B2 (en) 2011-03-31 2015-04-07 Fujitsu Limited Speaker state detecting apparatus and speaker state detecting method
US10803389B2 (en) 2012-11-09 2020-10-13 Samsung Electronics Co., Ltd. Apparatus and method for determining user's mental state
JP2018187441A (ja) * 2012-11-09 2018-11-29 三星電子株式会社Samsung Electronics Co.,Ltd. ユーザの心理状態判断装置及び方法
JP2016106689A (ja) * 2014-12-03 2016-06-20 日本電信電話株式会社 感情情報推定装置、感情情報推定方法及び感情情報推定プログラム
JP2015080269A (ja) * 2015-01-07 2015-04-23 株式会社ニコン 表示装置
JP2020096679A (ja) * 2018-12-17 2020-06-25 株式会社日立ソリューションズ東日本 不快感情推定装置および不快感情推定方法
JP7249572B2 (ja) 2018-12-17 2023-03-31 株式会社日立ソリューションズ東日本 不快感情推定装置
JPWO2021014738A1 (ja) * 2019-07-19 2021-01-28
WO2021014738A1 (ja) * 2019-07-19 2021-01-28 日本電気株式会社 快適性運転データ収集システム、運転制御装置、方法、および、プログラム
JP7238994B2 (ja) 2019-07-19 2023-03-14 日本電気株式会社 快適性運転データ収集システム、運転制御装置、方法、および、プログラム

Similar Documents

Publication Publication Date Title
Khezri et al. Reliable emotion recognition system based on dynamic adaptive fusion of forehead biopotentials and physiological signals
US8280503B2 (en) EMG measured during controlled hand movement for biometric analysis, medical diagnosis and related analysis
CN108888271B (zh) 一种生理参数测量系统及配备该测量系统的智能座椅
US11510594B2 (en) Posture determination apparatus
Nath et al. Machine learning based stress monitoring in older adults using wearable sensors and cortisol as stress biomarker
JP2004000138A (ja) 生体信号の獲得及び解析を利用した動物の状態把握方法及び装置
JP2009525070A (ja) 生理学的指紋を決定する生理学的生体認証を用いる身元確認システム、及び、身元確認方法
WO2009128000A1 (en) Method and system for sleep/wake condition estimation
DE112018003005T5 (de) Ermüdungserholungsunterstützungsvorrichtung
CN113647939B (zh) 一种针对脊柱退行性疾病的人工智能康复评估与训练系统
KR101397287B1 (ko) 감정이 강도별 단계로 정형화된 감정유발시스템 및 이를 이용한 감정유발방법
Pham et al. Negative emotion management using a smart shirt and a robot assistant
Cimr et al. Automatic detection of breathing disorder from ballistocardiography signals
Khosrowabadi et al. Affective computation on EEG correlates of emotion from musical and vocal stimuli
JP2006130121A (ja) 生体情報に基づく感情認識方法
Ahamad System architecture for brain-computer interface based on machine learning and internet of things
Senyurek et al. A comparison of SVM and CNN-LSTM based approach for detecting smoke inhalations from respiratory signal
WO2021054186A1 (ja) 行動タスク評価システムおよび行動タスク評価方法
KR102539796B1 (ko) 수면다원검사 및 인공지능을 이용한 수면 분석 시스템 및 방법
JP7321599B2 (ja) プログラム、情報処理方法及び情報処理装置
US20240032859A1 (en) Sleep state prediction system
Banerjee et al. Voluntary eye movement controlled electrooculogram based multitasking graphical user interface
JP2003325467A (ja) 意思伝達支援装置、及び意思伝達支援ソフトウエア
KR100516151B1 (ko) 안면근 신호를 이용한 방향 제어장치 및 그 방법
JP4371699B2 (ja) バイタルサイン計測システム、バイタルサイン計測方法、バイタルサイン計測プログラム、及び記録媒体