JP2010279737A - トレーニング支援装置、トレーニング支援方法、およびトレーニング支援プログラム - Google Patents

トレーニング支援装置、トレーニング支援方法、およびトレーニング支援プログラム Download PDF

Info

Publication number
JP2010279737A
JP2010279737A JP2010186655A JP2010186655A JP2010279737A JP 2010279737 A JP2010279737 A JP 2010279737A JP 2010186655 A JP2010186655 A JP 2010186655A JP 2010186655 A JP2010186655 A JP 2010186655A JP 2010279737 A JP2010279737 A JP 2010279737A
Authority
JP
Japan
Prior art keywords
unit
display
training image
subject
change amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010186655A
Other languages
English (en)
Other versions
JP5227377B2 (ja
Inventor
Sukekazu Kameyama
祐和 亀山
Shuji Ono
修司 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010186655A priority Critical patent/JP5227377B2/ja
Publication of JP2010279737A publication Critical patent/JP2010279737A/ja
Application granted granted Critical
Publication of JP5227377B2 publication Critical patent/JP5227377B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】被験者の身体状況の変化に応じて、被験者を、苦手克服に適した画像および音に曝露する。
【解決手段】本発明に係るトレーニング支援装置は、トレーニング画像を表示して被験者の苦手克服を支援するトレーニング支援装置であって、トレーニング画像を表示する表示部と、被験者の身体状況に対応づけて、表示部が表示するトレーニング画像の表示割合の変化量を格納する表示割合格納部と、表示部が表示しているトレーニング画像を見ている被験者の身体状況を取得する身体状況取得部と、身体状況取得部が取得した被験者の身体状況に対応づけて表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出する表示割合抽出部と、表示割合抽出部が抽出したトレーニング画像の表示割合に応じて、表示部が表示しているトレーニング画像の表示割合を変化させる表示制御部とを備える。
【選択図】図6

Description

本発明は、トレーニング支援装置、トレーニング支援方法、およびトレーニング支援プログラムに関する。特に、本発明は、トレーニング画像を表示して被験者の苦手克服を支援するトレーニング支援装置、トレーニング支援方法、およびトレーニング支援プログラムに関する。
苦手克服の一例として、精神疾患の患者を治療する場合が挙げられる。このような精神疾患を治療する従来技術が提案されている。具体的には、患者をリラックス状態にするアルファ波の発生を促すリラクセーション装置と、恐怖対象の画像および音響を患者に提示するバーチャルリアリティ装置とを備える、恐怖症治療装置について提案されている(例えば、特許文献1参照。)。特許文献1に記載の恐怖症治療装置は、リラクセーション装置とバーチャルリアリティ装置とを交互に作動させることにより、患者の恐怖症の治療をする。
特許文献1 特開平11−155955号公報
しかしながら、特許文献1に記載の恐怖症治療装置においては、患者に提示される画像および音響は予め定められた画像および音響であるので、患者の生体情報の変化に応じて当該画像および音響を、患者の恐怖症治療に適した画像および音響に自動的に変化させることはできない。また、特許文献1に記載の恐怖症治療装置では、恐怖感が患者にとって耐え難いほど大きくなった場合には、操作員がバーチャルリアリティ装置による患者への恐怖対象の画像および音響の提示を停止させる。続いて、操作員が、患者の脳波に含まれるアルファ波の発生を誘導すべくリラクセーション装置を作動させる。したがって、患者の心理状態および恐怖感に対応して、患者の恐怖症治療に適切な画像および音響の提示を自動的にできない場合がある。
そこで本発明は、上記課題を解決することができるトレーニング支援装置、トレーニング支援方法、およびトレーニング支援プログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。
上記課題を解決すべく、本発明の第1の形態においては、トレーニング画像を表示して被験者の苦手克服を支援するトレーニング支援装置であって、トレーニング画像を表示する表示部と、被験者の身体状況に対応づけて、表示部が表示するトレーニング画像の表示割合の変化量を格納する表示割合格納部と、表示部が表示しているトレーニング画像を見ている被験者の身体状況を取得する身体状況取得部と、身体状況取得部が取得した被験者の身体状況に対応づけて表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出する表示割合抽出部と、表示割合抽出部が抽出したトレーニング画像の表示割合に応じて、表示部が表示しているトレーニング画像の表示割合を変化させる表示制御部とを備える。
また、表示部は、トレーニング画像でない動画にトレーニング画像を挿入して表示し、表示割合格納部は、被験者の身体状況に対応づけて、表示部が表示するトレーニング画像の表示時間の変化量を格納しており、表示割合抽出部は、身体状況取得部が取得した被験者の身体状況に対応づけて表示割合格納部が格納しているトレーニング画像の表示時間の変化量を抽出し、表示制御部は、表示割合抽出部が抽出したトレーニング画像の表示時間の変化量に応じて、表示部が表示しているトレーニング画像の表示時間を変化させてもよい。更に、表示部は、トレーニング画像でない画像とトレーニング画像とを合成して表示し、表示割合格納部は、被験者の身体状況に対応づけて、表示部が表示するトレーニング画像の合成割合の変化量を格納しており、表示割合抽出部は、身体状況取得部が取得した被験者の身体状況に対応づけて表示割合格納部が格納しているトレーニング画像の合成割合の変化量を抽出し、表示制御部は、表示割合抽出部が抽出したトレーニング画像の合成割合の変化量に応じて、表示部が表示しているトレーニング画像の合成割合を変化させてもよい。
また、表示部は、トレーニング画像でない画像にトレーニング画像を重ね合わせて表示し、表示割合格納部は、被験者の身体状況に対応づけて、表示部が表示するトレーニング画像の重ね合わせ度合の変化量を格納しており、表示割合抽出部は、身体状況取得部が取得した被験者の身体状況に対応づけて表示割合格納部が格納しているトレーニング画像の重ね合わせ度合の変化量を抽出し、表示制御部は、表示割合抽出部が抽出したトレーニング画像の重ね合わせ度合の変化量に応じて、表示部が表示しているトレーニング画像の重ね合わせ度合を変化させてもよい。そして、表示部が表示しているトレーニング画像を見ている被験者を撮像する撮像部を更に備え、表示割合格納部は、被験者の身体状況である被験者の動作に対応づけて、表示部が表示するトレーニング画像の表示割合の変化量を格納しており、身体状況取得部は、撮像部が撮像した被験者の撮像画像を解析することにより、被験者の動作を取得し、表示割合抽出部は、身体状況取得部が取得した被験者の動作に対応づけて表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出してもよい。
更に、表示割合格納部は、被験者の動作の単位時間当たりの変化量に対応づけて、表示部が表示するトレーニング画像の表示割合の変化量を格納しており、身体状況取得部は、撮像部が撮像した被験者の撮像画像を解析することにより、被験者の動作の単位時間当たりの変化量を取得し、表示割合抽出部は、身体状況取得部が取得した被験者の動作の単位時間当たりの変化量に対応づけて表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出してもよい。そして、表示部が表示しているトレーニング画像を見ている被験者の生体情報を測定する生体情報測定部を更に備え、表示割合格納部は、被験者の身体状況である被験者の生体情報に対応づけて、表示部が表示するトレーニング画像の表示割合の変化量を格納しており、身体状況取得部は、生体情報測定部が測定した被験者の生体情報を取得し、表示割合抽出部は、身体状況取得部が取得した被験者の生体情報に対応づけて表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出してもよい。
そして、表示割合格納部は、被験者の生体情報の単位時間当たりの変化量に対応づけて、表示部が表示するトレーニング画像の表示割合の変化量を格納しており、身体状況取得部は、生体情報測定部が測定した被験者の生体情報の単位時間当たりの変化量を取得し、表示割合抽出部は、身体状況取得部が取得した被験者の生体情報の単位時間当たりの変化量に対応づけて表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出してもよい。更に、表示部が表示しているトレーニング画像に対応した音を再生する音再生部と、被験者の身体状況に対応づけて、音再生部が再生する音の情報量の変化量を格納する音変化量格納部と、身体状況取得部が取得した被験者の身体状況に対応づけて音変化量格納部が格納している音の情報量の変化量を抽出する音変化量抽出部と、音変化量抽出部が抽出した音の情報量の変化量に応じて、音再生部が再生している音の情報量を変化させる音変化制御部とを備えてもよい。
また、本発明の第2の形態においては、トレーニング画像を表示して被験者の苦手克服を支援するトレーニング支援方法であって、トレーニング画像を表示部に表示する表示段階と、表示部に表示されたトレーニング画像を見ている被験者の身体状況を取得する身体状況取得段階と、身体状況取得段階において取得された被験者の身体状況に対応づけて表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出する表示割合抽出段階と、表示割合抽出段階において抽出されたトレーニング画像の表示割合に応じて、表示部に表示されているトレーニング画像の表示割合を変化させる表示制御段階とを備える。
また、本発明の第3の形態においては、トレーニング画像を表示して被験者の苦手克服を支援するトレーニング支援装置用のトレーニング支援プログラムであって、トレーニング支援装置を、トレーニング画像を表示する表示部、被験者の身体状況に対応づけて、表示部が表示するトレーニング画像の表示割合の変化量を格納する表示割合格納部、表示部が表示しているトレーニング画像を見ている被験者の身体状況を取得する身体状況取得部、身体状況取得部が取得した被験者の身体状況に対応づけて表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出する表示割合抽出部、表示割合抽出部が抽出したトレーニング画像の表示割合に応じて、表示部が表示しているトレーニング画像の表示割合を変化させる表示制御部として機能させる。
また、本発明の第4の形態においては、トレーニング画像を表示して被験者の苦手克服を支援するトレーニング支援装置であって、トレーニング画像を表示する表示部と、表示部に表示されたトレーニング画像を見ている被験者を撮像する撮像部と、撮像部が撮像した被験者の画像に基づき被験者の視線の方向を検出する被験者視線測定部と、被験者の視線の方向に追従させてトレーニング画像を表示部に表示させる表示制御部とを備える。
また、トレーニング支援装置は、表示部が表示しているトレーニング画像を見ている被験者の身体状況を取得する身体状況取得部と、身体状況取得部が取得した被験者の身体状況に対応づけて、トレーニング画像を被験者の視線の方向に追従させる速度の変化量を格納する追従速度変化量格納部と、身体状況取得部が取得した被験者の身体状況に対応づけて追従速度変化量格納部が格納している、トレーニング画像を被験者の視線の方向に追従させる速度の変化量を抽出する追従速度抽出部と、を更に備えてもよい。そして、表示制御部は、追従速度抽出部が抽出したトレーニング画像を追従させる速度の変化量に応じて、被験者の視線の方向に追従させてトレーニング画像を表示部に表示させてもよい。
また、追従速度変化量格納部は、被験者が著しい恐怖を被験者が感じていることを示す所定の身体状況に対応づけて、トレーニング画像を動かさずに表示させる旨の情報を格納し、追従速度変化量抽出部は、身体状況取得部が取得した被験者の身体状況が、所定の条件を満足する場合に、追従速度変化量格納部に格納されたトレーニング画像を動かさずに表示させる旨の情報を抽出し、表示制御部は、追従速度変化量抽出部が抽出したトレーニング画像を動かさずに表示させる旨の情報に基づき、トレーニング画像を表示部に表示させてもよい。
また、本発明の第5の形態においては、トレーニング画像を表示して被験者の苦手克服を支援するトレーニング支援方法であって、トレーニング画像を表示部に表示する表示段階と、表示部に表示されたトレーニング画像を見ている被験者を撮像する撮像段階と、記撮像段階において撮像された被験者の画像に基づき被験者の視線の方向を検出する被験者視線測定段階と、被験者視線測定段階において測定された被験者の視線の方向に追従させてトレーニング画像を表示部に表示させる表示制御段階とを備える。
また、本発明の第6の形態においては、トレーニング画像を表示して被験者の苦手克服を支援するトレーニング支援装置用のトレーニング支援プログラムであって、トレーニング支援装置を、トレーニング画像を表示する表示部と、表示部に表示されたトレーニング画像を見ている被験者を撮像する撮像部と、撮像部が撮像した被験者の画像に基づき被験者の視線の方向を検出する被験者視線測定部と、被験者の視線の方向に追従させてトレーニング画像を表示部に表示させる表示制御部として機能させる。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本発明によれば、被験者の身体状況の変化に応じて、被験者を、苦手克服に適した画像および音等の刺激に曝露することができる。
精神疾患治療支援装置10の概要図である。 精神疾患治療支援装置10の機能構成を示すブロック図である。 画像変化量格納部130のデータ構造を示す図である。 画像変化量格納部130のデータ構造を示す図である。 画像変化量格納部130のデータ構造を示す図である。 精神疾患治療支援装置10の機能構成を示すブロック図である。 表示割合格納部132のデータ構造を示す図である。 表示割合格納部132のデータ構造を示す図である。 表示割合格納部132のデータ構造を示す図である。 追従速度変化量格納部138のデータ構造を示す図である。 精神疾患治療支援装置10のハードウェア構成を示すブロック図である。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。また、以下では本発明のトレーニング支援装置を精神疾患治療支援装置に適用した場合の実施形態を例に本発明を説明しているが、本発明のトレーニング支援装置の用途は精神疾患の治療に限定されるものではない。
図1は、本発明の一実施形態に係る精神疾患治療支援装置10の概要を示す。精神疾患治療支援装置10は、患者200を撮像する撮像部100、患者200の生体情報を測定する生体情報測定部105、およびトレーニング画像を表示する表示部160を備える。精神疾患治療支援装置10は、表示部160に患者200にとって望ましくない恐怖反応を引き起こすトレーニング画像を表示する。そして、精神疾患治療支援装置10は、患者200の身体状況に応じてトレーニング画像の情報量を変化させて、情報量を変化させたトレーニング画像を表示部160に表示する。情報量は、例えば、トレーニング画像の解像度、および階調等であってよい。本実施形態に係る精神疾患治療支援装置10は、患者200の身体状況に応じてトレーニング画像の情報量を自動的に変化させて、情報量を変化させたトレーニング画像に患者200を曝露することにより、パニック症、高所恐怖症、広場恐怖症、雷恐怖症、飛行機恐怖症、および社会恐怖等の恐怖症の治療を支援することを目的とする。
例えば、精神疾患治療支援装置10は、蜘蛛恐怖の患者200に蜘蛛の種類、数、および大きさ等が異なるトレーニング画像を、患者200の身体状況に応じて表示部160に表示する。精神疾患治療支援装置10は、アニメの蜘蛛のトレーニング画像、または、実写の蜘蛛のトレーニング画像を患者200の身体状況に応じて表示部160に表示してよい。例えば、精神疾患治療支援装置10が生体情報測定部105の測定結果から患者200がパニック発作等を起こす可能性が有ると判断した場合には、精神疾患治療支援装置10は、アニメの蜘蛛のトレーニング画像を表示部160に表示する。一方、患者200がパニック発作等を起こす可能性がないと判断した場合には、精神疾患治療支援装置10は、実写の蜘蛛のトレーニング画像を表示部160に表示する。
また、精神疾患治療支援装置10は、広場恐怖が原因で電車に乗ることのできない患者200に、電車の込み具合および停車駅等が異なるトレーニング画像を表示部160に表示して患者200に見せてもよい。精神疾患治療支援装置10は、乗客がほとんど乗っていない、空いている電車の画像、または、満員電車の画像を患者200の身体状況に応じて表示部160に表示してよい。また、精神疾患治療支援装置10は、患者200を撮像した画像から患者200の画像を抽出して、トレーニング画像に患者200の画像を合成してもよい。そして、精神疾患治療支援装置10は、患者200の画像を合成したトレーニング画像を患者200に見せてもよい。なお、患者200の身体状況は、撮像部100が撮像した患者200の画像、および生体情報測定部105が測定した患者200の身体状況から特定する。そして、患者200の身体状況は、例えば、患者200の瞬きの有無、瞬きの単位時間当たりの回数、顔のうつむき加減、瞳孔の大きさの変化、発汗の有無、および血圧の変化等を示す情報であってよい。
更に、精神疾患治療支援装置10は、患者200の身体状況に応じて、トレーニング画像の情報量、および強度を段階的に変化させて、情報量および強度を変化させたトレーニング画像を表示部160に表示する。例えば、精神疾患治療支援装置10は、表示部160を見ている患者200の身体状況の変化をリアルタイムで検知する。そして、精神疾患治療支援装置10は、トレーニング画像の強度を段階的に変化させて表示部160に表示する。これにより、精神疾患治療支援装置10は、患者200がパニック発作等を起こすことを防止しつつ、患者200を恐怖症治療用のトレーニング画像に曝露できる。なお、トレーニング画像の強度は、トレーニング画像の解像度、または諧調が高いほど、より強度が強いとしてよい。また、トレーニング画像の強度は、所定の画像がアニメから実写に段階的に変化するにつれて、強くなると定義してもよい。
例えば、精神疾患治療支援装置10は、広場恐怖を伴うパニック障害の患者200に対して、段階的に所定のトレーニング画像を表示部160に表示する。具体的には、精神疾患治療支援装置10は、第1の段階として、空いている電車のトレーニング画像を表示部160に表示して患者200に見せる。そして、精神疾患治療支援装置10は、患者200の身体状況を生体情報測定部105においてリアルタイムで測定する。続いて、精神疾患治療支援装置10は、第2の段階として、生体情報測定部105がリアルタイムで測定した患者200の生体情報の測定結果に応じて、強度を段階的に強くしたトレーニング画像を表示する。例えば、精神疾患治療支援装置10は、電車に乗っている人を段階的に増やしたトレーニング画像を表示部160に表示して、患者200に見せる。このように、精神疾患治療支援装置10は、患者200の身体状況に応じて、段階的にトレーニング画像の強度を変化させ、強度を変化させたトレーニング画像を表示部160に表示して患者200を当該トレーニング画像に曝露することにより、患者200の恐怖症の克服を支援できる。
図2は、本実施形態に係る精神疾患治療支援装置10の機能構成の一例を示す。精神疾患治療支援装置10は、撮像部100、生体情報測定部105、身体状況取得部110、変化量抽出ユニット12、変化量格納ユニット13、刺激制御ユニット15、刺激提示ユニット16、トレーニング画像格納部140、電子カルテ格納部170、提示刺激決定部180、および症例データベース190を備える。また、身体状況取得部110は、身体状況解析部112および生体情報解析部114を有する。また、変化量抽出ユニット12は、画像変化量抽出部120、音変化量抽出部125、振動変化量抽出部126、及び圧力変化量抽出部123を有する。また、変化量格納ユニット13は、画像変化量格納部130、音変化量格納部135、振動変化量格納部136、圧力変化量格納部133を有する。また、刺激制御ユニット15は、音変化制御部150、画像変化制御部155、振動制御部156、および圧力制御部153を有する。また、刺激提示ユニット16は、振動再生部166、圧力再生部163、表示部160、および音再生部165を有する。
トレーニング画像格納部140は、疾患に対応づけてトレーニング画像を格納する。ここで、トレーニング画像とは、パニック症等の恐怖症の患者200が、恐怖および不安を感じる状況を示す画像であってよい。トレーニング画像は静止画または動画のいずれであってもよい。更に、トレーニング画像は、実写、またはアニメであってもよい。そして、トレーニング画像格納部140は、同一場面の解像度の異なる、複数のトレーニング画像を格納していてもよい。具体的には、トレーニング画像格納部140は、患者200が恐怖および不安を明確に感じる程度と考えられる高解像度のトレーニング画像、および患者200が恐怖および不安を高解像度のトレーニング画像を見たときよりも感じない程度と考えられる低解像度のトレーニング画像等の、解像度が異なる複数のトレーニング画像を格納してよい。例えば、トレーニング画像格納部140は、蜘蛛恐怖症に対応づけて、実写の蜘蛛のトレーニング画像、予め定められたぼかし量だけぼかした蜘蛛のトレーニング画像、模式的な蜘蛛のトレーニング画像、およびアニメの蜘蛛のトレーニング画像等を格納してよい。
また、トレーニング画像格納部140は、患者200がより強い恐怖を感じると考えられる3次元のトレーニング画像、および、患者200が感じる恐怖が3次元のトレーニング画像を見たときよりも低いと考えられる2次元のトレーニング画像を格納してよい。
また、トレーニング画像格納部140は、3次元のトレーニング画像を格納する場合において、飛び出し具合の異なる複数のトレーニング画像を格納してもよい。
また、トレーニング画像格納部140は、所定の恐怖症用のトレーニング画像に対応づけて、当該トレーニング画像が示す状況の音を格納する。具体的には、トレーニング画像格納部140は、所定の恐怖症用のトレーニング画像が示す状況に患者200がおかれた場合に、患者200が感じる音を格納する。例えば、トレーニング画像格納部140は、広場恐怖症に対応づけて、満員電車のトレーニング画像を格納する場合には、満員電車内における音、すなわち、電車が走行音、乗客の話し声、および車掌のアナウンス等を格納する。そして、トレーニング画像格納部140は、乗車率が低い場合の電車内における音も格納する。トレーニング画像格納部140は、画像変化制御部155の制御に基づいてトレーニング画像を画像変化制御部155に供給する。また、トレーニング画像格納部140は、音変化制御部150の制御に基づいて、トレーニング画像に対応づけられた音を音変化制御部150に供給する。
また、トレーニング画像格納部140は、ドップラー効果、サラウンド効果、音量の変化等を利用して音源が移動しているように感じる音を格納してよい。これにより、患者が苦手な状況をより高い臨場感で再現することができる。例えば、蜂恐怖のトレーニングの場合には、強度の高いトレーニング画像を格納する場合には蜂が患者200に接近してくると感じる音を格納してよい。更に、トレーニング画像格納部140は、強度の低いトレーニング画像を格納する場合には、蜂が停止していると感じる音を格納してよい。
また、トレーニング画像格納部140は、所定の恐怖症用のトレーニング画像に対応づけて、当該トレーニング画像が示す状況の振動を格納する。具体的には、トレーニング画像格納部140は、所定の恐怖症用のトレーニング画像が示す状況に患者200がおかれた場合に、患者200が感じる振動を格納する。例えば、トレーニング画像格納部140は、広場恐怖症に対応づけて、満員電車のトレーニング画像を格納する場合には、電車の振動を格納する。トレーニング画像格納部140は、振動制御部156の制御に基づいて、トレーニング画像に対応づけられた振動を振動制御部156に供給する。
また、トレーニング画像格納部140は、所定の恐怖症用のトレーニング画像に対応づけて、当該トレーニング画像が示す状況の振動を格納する。具体的には、トレーニング画像格納部140は、所定の恐怖症用のトレーニング画像が示す状況に患者200がおかれた場合に、患者200が感じる圧力を格納する。例えば、トレーニング画像格納部140は、広場恐怖症に対応づけて、満員電車のトレーニング画像を格納する場合には、満員電車に乗車している差異に周囲の乗客に押されたときの圧力を格納する。トレーニング画像格納部140は、圧力制御部153の制御に基づいて、トレーニング画像に対応づけられた圧力を圧力制御部153に供給する。
表示部160は、画像変化制御部155の制御に基づいて、トレーニング画像を表示する。なお、モニタ、および立体テレビ等の表示装置は表示部160の一例である。音再生部165は、表示部160が表示しているトレーニング画像に対応する音を、音変化制御部150の制御に基づいて再生する。精神疾患治療支援装置10は、複数の音再生部165を有していてもよい。精神疾患治療支援装置10が複数の音再生部165を有している場合には、表示部160がトレーニング画像を表示した場合における臨場感を、音再生部165が一つだけのときよりも高めることができる。これにより、例えば、広場恐怖症用のトレーニング画像に対応する音を音再生部165が再生した場合には、患者200は実際に電車に乗車している感覚を持つことができる。また、表示部160は、複数のトレーニング画像を同時に表示してもよい。
振動再生部166は、表示部160が表示しているトレーニング画像に対応する振動を、振動制御部156の制御に基づいて再生し、患者に与える。例えば、振動再生部166は、患者200を支持する支持部材1660を振動させることによって、患者200に振動を与えてよい。より具体的には、患者200が座る椅子を支持部材1660として、椅子を振動させてもよい。また、患者200を診察する際に用いる部屋の床を支持部材1660として、部屋自体を振動させてもよい。例えば、広場恐怖症に対応づけた満員電車のトレーニング画像を表示部160に表示する場合には、振動再生部166は、トレーニング画像に対応する電車の振動を患者に与える。これにより、実際に電車に乗車している感覚を患者200に持たせることができる。
また、圧力再生部163は、表示部160が表示しているトレーニング画像に対応する圧力を、圧力制御部153の制御に基づいて再生し、患者に与える。圧力再生部163は、患者200が着用する、風船が内蔵された衣服であってもよい。また、圧力再生部163は、患者200を診察する際に用いる部屋に配置された風船であってもよい。いずれの場合も風船を膨らませることにより、患者200を圧迫して患者が苦手とする状況をより高い臨場感で再現することができる。例えば、広場恐怖症に対応づけた満員電車のトレーニング画像を表示部160に表示する場合には、圧力再生部163は、トレーニング画像に対応する満員電車での圧力を患者に与える。これにより、実際に電車に乗車している感覚を患者200に持たせることができる。
撮像部100は、表示部160が表示しているトレーニング画像を見ている患者200を撮像する。撮像部100は、患者200の表情を識別できる解像度、患者200の瞳孔の大きさの変化を識別できる解像度、および患者200の動作を撮像できる解像度で患者200を撮像する。また、精神疾患治療支援装置10は、複数の撮像部100を備えていてもよい。更に、撮像部100は、3次元カメラ、および全方位カメラであってもよい。撮像部100は、撮像した患者200の画像を身体状況取得部110が有する身体状況解析部112に供給する。生体情報測定部105は、患者200の生体情報を測定する。患者200の生体情報は、患者200の心拍数、血圧、呼吸量、体温、及びこれらの変化量、発汗の有無、および発汗の変化等を示す情報であってよい。生体情報測定部105は、測定した生体情報を身体状況取得部110が有する生体情報解析部114に供給する。
身体状況取得部110は、表示部160が表示しているトレーニング画像を見ている患者200の身体状況を取得する。具体的には、身体状況取得部110が有する身体状況解析部112が、撮像部100から受け取った患者200の撮像画像を解析することにより患者200の動作を取得する。例えば、身体状況解析部112は、予め定められた時間間隔で撮像部100が撮像した複数の撮像画像から患者200の動作を検出する。続いて、身体状況解析部112は、検出した患者200の動作が予め定められた動作のいずれに該当するか否かを判断する。予め定められた動作は、患者200の表情の変化(笑顔から無表情への変化等)、瞬きの有無、瞬きの回数、瞳孔の大きさ、目をそらす動作、目をつぶる動作、体をのけぞる動作、顔を背ける動作、およびうつむく動作、震え等であってよい。例えば、患者200の顔領域を肌色抽出で抽出して、抽出した顔領域の面積の変化に基づいて、顔を背ける動作を患者200がしているか否かを判断してよい。
具体的には、精神疾患治療支援装置10は、患者200にトレーニング画像ではない、患者200が恐怖および不安を感じない画像を表示部160に表示する。例えば、蜘蛛恐怖症の患者200に対して、蜘蛛が含まれない画像を表示する。この場合において、撮像部100は、恐怖および不安を感じていない状態の患者200の画像を撮像する。続いて、身体状況解析部112は、撮像部100が撮像した患者200の画像を解析して、患者200が恐怖および不安を感じていない状態の動作を検出する。そして、身体状況解析部112は、表示部160がトレーニング画像を表示したときの患者200の動作が撮像された撮像画像を撮像部100から受け取って、患者200が恐怖および不安を感じていない状態の動作と比較する。身体状況解析部112は、比較した結果から、患者200の動作のうち、トレーニング画像を患者200が見ることによって患者200が示した動作を取得する。
更に、身体状況解析部112は、撮像部100から受け取った患者200の撮像画像を解析することにより、患者200の動作の単位時間当たりの変化量を取得してもよい。患者200の動作の単位時間当たりの変化量は、例えば、患者200の瞬きの回数の単位時間当たりの変化量、瞳孔の大きさの単位時間当たりの変化量、および視線の位置の単位時間あたりの変化量等であってよい。具体的には、身体状況解析部112は、撮像部100から予め定められた時刻ごとに患者200の撮像画像を受け取る。そして、身体状況解析部112は、受け取った複数の撮像画像をそれぞれ解析して、患者200の動作の単位時間当たりの変化量を算出する。
例えば、精神疾患治療支援装置10は、まず患者200にトレーニング画像ではない、患者200に恐怖および不安を感じさせない画像を表示部160に表示する。この場合において、身体状況解析部112は、撮像部100から受け取った撮像画像を解析して、単位時間当たりの患者200の瞬きの回数を算出する。次に、精神疾患治療支援装置10は、患者200にトレーニング画像を見せる。この場合において、身体状況解析部112は、予め定められた時刻ごとに撮像部100から受け取った撮像画像を解析して、患者200が恐怖および不安を感じているときの患者200の単位時間当たりの瞬きの回数を算出する。そして、身体状況解析部112は、患者200が恐怖および不安を感じていない状態での単位時間当たりの瞬きの回数と、患者200が恐怖および不安を感じている状態での単位時間当たりの瞬きの回数とを比較して、単位時間当たりの患者200の瞬きの回数の変化量を算出する。身体状況解析部112は、取得した患者200の動作、および単位時間当たりの患者200の動作の変化量を画像変化量抽出部120および音変化量抽出部125に供給する。
また、身体状況取得部110が有する生体情報解析部114は、生体情報測定部105から受け取った患者200の生体情報を取得する。例えば、精神疾患治療支援装置10は、まず患者200にトレーニング画像ではない、患者200に恐怖および不安を感じさせない画像を表示部160に表示する。この場合において、生体情報解析部114は、生体情報測定部105から受け取った患者200の生体情報を、患者200が恐怖および不安を感じていない状態における患者200の生体情報として取得する。次に、精神疾患治療支援装置10は、トレーニング画像を表示部160に表示する。生体情報解析部114は、この場合における患者200の生体情報を、患者200が恐怖および不安を感じていない状態における生体情報と比較して、変化があった生体情報を取得する。
また、生体情報解析部114は、生体情報測定部105が測定した患者200の生体情報の単位時間当たりの変化量を取得する。例えば、精神疾患治療支援装置10は、まず患者200にトレーニング画像ではない、患者200に恐怖および不安を感じさせない画像を表示部160に表示する。この場合において、生体情報解析部114は、生体情報測定部105から受け取った患者200の生体情報を解析して、単位時間当たりの患者200の生体情報、例えば心拍数を算出する。次に、精神疾患治療支援装置10は、患者200にトレーニング画像を見せる。この場合において、生体情報解析部114は、予め定められた時刻ごとに生体情報測定部105から受け取った患者200の生体情報を解析して、患者200が恐怖および不安を感じているときの患者200の単位時間当たりの生体情報を算出する。そして、生体情報解析部114は、患者200が恐怖および不安を感じていない状態での単位時間当たりの生体情報と、患者200が恐怖および不安を感じている状態での単位時間当たりの生体情報とを比較して、単位時間当たりの患者200の生体情報の変化量を算出する。生体情報解析部114は、取得した患者200の生体情報、および単位時間当たりの患者200の生体情報の変化量を画像変化量抽出部120および音変化量抽出部125に供給する。
更に、身体状況取得部110は、身体状況解析部112が取得した患者200の動作、および単位時間当たりの患者200の動作の変化量を電子カルテ格納部170に供給する。また、身体状況取得部110は、生体情報解析部114が取得した患者200の生体情報、および単位時間当たりの患者200の生体情報の変化量を電子カルテ格納部170に供給する。電子カルテ格納部170は、時刻に対応づけて、患者200の動作、および生体情報等を格納する。電子カルテ格納部170は、身体状況取得部110の制御に基づいて、過去の患者200の動作、および生体情報等を身体状況解析部112および生体情報解析部114に供給してもよい。例えば、身体状況解析部112は、電子カルテ格納部170から受け取った過去の患者200の動作と撮像部100から受け取った撮像画像を解析して取得した患者200の動作とを比較して、患者200の動作の変化を検出してもよい。また、生体情報解析部114は、電子カルテ格納部170から受け取った患者200の過去の生体情報と、生体情報測定部105から受け取った患者200の生体情報とを比較して、生体情報の変化量を検出してもよい。
画像変化量格納部130は、患者200の身体状況に対応づけて、表示部160が表示するトレーニング画像の情報量の変化量を格納する。具体的には、画像変化量格納部130は、患者200の身体状況である患者200の動作、または、患者200の動作の単位時間当たりの変化量に対応づけて、表示部160が表示するトレーニング画像の情報量の変化量を格納している。また、画像変化量格納部130は、患者200の身体状況である患者200の生体情報、または、患者200の生体情報の単位時間当たりの変化量に対応づけて、表示部160が表示するトレーニング画像の情報量の変化量を格納してもよい。画像変化量格納部130が格納するトレーニング画像の情報量の変化量は、具体的には、トレーニング画像の階調、解像度、コントラスト、次元、3次元画像の飛び出し具合、または画角の変化量等であってよい。更に、画像変化量格納部130は、患者200の身体状況に対応づけて、表示部160が同時に表示するトレーニング画像の数の変化量を格納してもよい。
また、画像変化量格納部130が格納するトレーニング画像の情報量の変化は、画像内容の変化量であってもよい。例えば、画像内容の変化量は、患者200が恐怖および不安を感じない画像(例えば、アニメおよび模式的な図)から、恐怖および不安を感じるトレーニング画像(例えば、実写)にモーフィングさせる場合の変化量であってよい。画像変化量格納部130は、画像変化量抽出部120の制御に基づいて、トレーニング画像の情報量の変化量を画像変化量抽出部120に供給する。音変化量格納部135は、患者200の身体状況に対応づけて、音再生部165が再生する音の情報量の変化量を格納する。音の情報量の変化量は、例えば、音量の変化量、および音質の変化量等であってよい。音変化量格納部135は、音の情報量の変化量を、音変化量抽出部125に供給する。振動変化量格納部136は、患者200の身体状況に対応づけて、振動再生部166が患者に与える振動の変化量を格納する。振動の変化量とは、例えば、振動の振幅、位相、周期、パターン等の変化量であってよい。振動の振動変化量格納部136は、振動の変化量を、振動変化量抽出部126に供給する。圧力変化量格納部133は、患者200の身体状況に対応づけて、圧力再生部163が患者に与える圧力の変化量を格納する。圧力の変化量とは、圧力の強さ、方向等であってよい。圧力変化量格納部133は、圧力の変化量を、圧力変化量抽出部123に供給する。
画像変化量抽出部120は、身体状況取得部110が取得した患者200の身体状況に対応づけて画像変化量格納部130が格納しているトレーニング画像の情報量の変化量を抽出する。具体的には、画像変化量抽出部120は、身体状況解析部112が取得した患者200の動作、または、単位時間当たりの患者200の動作の変化量に対応づけて、画像変化量格納部130が格納しているトレーニング画像の情報量の変化量を抽出する。また、画像変化量抽出部120は、生体情報解析部114が取得した患者200の生体情報、または、単位時間当たりの患者200の生体情報の変化量に対応づけて、画像変化量格納部130が格納しているトレーニング画像の情報量の変化量を抽出する。画像変化量抽出部120は、抽出したトレーニング画像の情報量の変化量を、画像変化制御部155に供給する。音変化量抽出部125は、身体状況取得部110が取得した患者200の身体状況に対応づけて音変化量格納部135が格納している音の情報量の変化量を抽出する。音変化量抽出部125は、抽出した音の情報の変化量を、音変化制御部150に供給する。振動変化量抽出部126は、身体状況取得部110が取得した患者200の身体状況に対応づけて振動変化量格納部136が格納している振動の変化量を抽出する。振動変化量抽出部126は、抽出した振動の変化量を、振動制御部156に供給する。また、圧力変化量抽出部123は、身体状況取得部110が取得した患者200の身体状況に対応づけて圧力変化量格納部133が格納している圧力の変化量を抽出する。圧力変化量抽出部123は、抽出した圧力の変化量を、圧力制御部153に供給する。
画像変化制御部155は、画像変化量抽出部120から受け取ったトレーニング画像の情報量の変化量に応じて、表示部160が表示しているトレーニング画像の情報量を変化させる。具体的には、画像変化制御部155は、表示部160が表示しているトレーニング画像の階調、解像度、次元、3次元画像の飛び出し具合、同時に表示するトレーニング画像の数、またはコントラスト等を変化させる。また、画像変化制御部155は、表示部160が表示しているトレーニング画像の内容を変化させてもよい。例えば、画像変化制御部155は、画像変化量抽出部120からトレーニング画像の情報量の変化量を受け取っていない場合には、表示部160にトレーニング画像ではない画像を表示させる。そして、予め定められた時間が経過した後に、画像変化制御部155はトレーニング画像格納部140が患者200の疾患に対応づけて格納しているトレーニング画像を抽出して表示部160に表示させる。係る場合において、画像変化制御部155は、患者200が恐怖および不安を感じるトレーニング画像のうち、最も恐怖および不安を感じにくいトレーニング画像を表示部160に表示させてよい。最も恐怖および不安を感じにくいトレーニング画像とは、例えば、広場恐怖症用のトレーニング画像では、乗客が全くいない電車内の画像であって、電車の走行音、および車内アナウンスがない状況を示す画像であってよい。
そして、画像変化制御部155は、画像変化量抽出部120からトレーニング画像の情報量の変化量を受け取った場合には、受け取った情報量の変化量に応じてトレーニング画像を変化させる。例えば、患者200の身体状況として、単位時間当たりの心拍数の変化量を生体情報測定部105が測定している場合を考える。係る場合において、まず、表示部160にトレーニング画像でない画像を表示しているときの患者200の単位時間当たりの心拍数を、生体情報測定部105は測定する。続いて、予め定められた時間経過後に、画像変化制御部155は最も恐怖および不安を感じにくいトレーニング画像を表示部160に表示させる。そして、この場合における患者200の単位時間当たりの心拍数を、生体情報測定部105は測定する。生体情報解析部114は、トレーニング画像でない画像を見ているときの患者200の単位時間当たりの心拍数と、トレーニング画像を見ているときの患者200の単位時間当たりの心拍数とを比較して、単位時間当たりの心拍数の変化量を算出する。
そして、画像変化量抽出部120は、生体情報解析部114が算出した単位時間当たりの心拍数の変化量に対応づけて画像変化量格納部130が格納しているトレーニング画像の情報量の変化量を抽出して、画像変化制御部155に供給する。例えば、画像変化量格納部130は、単位時間当たりの心拍数のプラス方向への変化量がより大きい場合に対応づけて、トレーニング画像の情報量のマイナス方向への変化量としてより大きい変化量を格納していてよい。また、画像変化量格納部130は、単位時間当たりの心拍数のマイナス方向への変化量がより大きい場合に対応づけて、トレーニング画像の情報量のプラス方向への変化量としてより大きい変化量を格納していてよい。画像変化制御部155は、画像変化量抽出部120から受け取ったトレーニング画像の情報量の変化量に応じて、トレーニング画像格納部140が格納しているトレーニング画像を変化させる。そして、画像変化制御部155は、情報量を変化させたトレーニング画像を表示部160に表示させる。音変化制御部150は、音変化量抽出部125から受け取った音情報の変化量に応じて、音再生部165が再生している音の情報量を変化させる。音変化制御部150は、情報量を変化させた音を音再生部165に再生させる。
続いて、画像変化制御部155は、情報量を段階的に変化させたトレーニング画像を表示部160に表示させる。具体的には、身体状況解析部112および生体情報解析部114がリアルタイムに患者200の身体状況を測定した結果に応じて画像変化量抽出部120が抽出した変化量に基づいて、画像変化制御部155は、強度を変化させたトレーニング画像を表示部160に表示する。同様に、音変化制御部150は、音変化量抽出部125が抽出した変化量に基づいて、情報量を変化させた音を音再生部165に再生させる。また、振動制御部156は、振動変化量抽出部126が抽出した変化量に基づいて変化させた振動を振動再生部166に再生させる。また、圧力制御部153は、圧力変化量抽出部123が抽出した変化量に基づいて変化させた圧力を圧力再生部163に再生させる。
ここで、予め定められた時間内における、患者200の単位時間当たりの身体状況の変化量が予め定められた範囲内である場合には、画像変化制御部155は、強度を段階的に大きくしたトレーニング画像を順次、表示部160に表示してもよい。そして、予め定められた時間内において、患者200の単位時間当たりの身体状況の変化量が予め定められた範囲を超えた場合には、画像変化制御部155は、強度を小さくしたトレーニング画像を表示部160に表示する。同様にして、音変化制御部150は、患者200の単位時間当たりの身体状況の変化量に応じて、情報量を変化させた音を音再生部165に再生させる。また、振動制御部156は、患者200の単位時間当たりの身体状況の変化量に応じて変化させた振動を振動再生部166に再生させる。また、圧力制御部153は、患者200の単位時間当たりの身体状況の変化量に応じて変化させた圧力を圧力再生部163に再生させる。
本実施形態に係る精神疾患治療支援装置10によれば、患者200の身体状況をリアルタイムに検知して患者200の身体状況、および身体状況の変化に応じてトレーニング画像の情報量、強度、および内容を変化させて表示できるので、患者200がパニック症等の発作を起こすことを抑制しつつ、患者200の恐怖症の治療に適切なトレーニング画像を自動的に表示できる。
図3は、本実施形態に係る画像変化量格納部130のデータ構造の一例を示す。画像変化量格納部130は、患者200の身体状況に対応づけてトレーニング画像の情報量の変化量を格納している。具体的には、患者200の表情の変化および患者200の動きに対応づけてトレーニング画像の情報量の変化量を格納している。例えば、患者200の動作として、目をつぶる動作、目をそらす動作、および笑顔等の表情、並びに患者200がのけぞる動作、患者200がうつむく動作、および患者200が首を振る動作等のそれぞれに対応づけて、画像変化量格納部130は、トレーニング画像の情報量の変化量を格納している。例えば、画像変化量格納部130は、患者200が恐怖および不安を感じていると判断される動作に対応づけて、トレーニング画像の階調、または解像度、若しくはコントラストを低下させる変化量を格納してよい。
画像変化制御部155は、例えば、患者200が目をつぶる動作をした場合には、画像変化量抽出部120が画像変化量格納部130から抽出した、患者200が目をつぶる動作に対応づけてられているトレーニング画像の情報量の変化量を受け取る。そして、画像変化制御部155は、受け取った変化量に応じてトレーニング画像を変化させる。例えば、患者200が目をつぶる動作をした場合には、トレーニング画像の階調を4ビット減少させる旨を示す変化量を画像変化制御部155は受け取る。そして、画像変化制御部155は受け取った変化量に基づいて、トレーニング画像の階調を4ビット分減少させて表示部160に表示させる。これにより、患者200が恐怖を感じている場合に、トレーニング画像の階調を下げたトレーニング画像に変化させることができるので、患者200の恐怖を自動的に和らげるトレーニング画像を表示することができる。同様にして、画像変化制御部155は、患者200が笑顔の場合にはトレーニング画像の階調を6ビット増加させる、または、患者200がうつむいた場合にはトレーニング画像の階調を2ビット減少させること等により、トレーニング画像の情報量を変化させることができる。
図4は、本実施形態に係る画像変化量格納部130のデータ構造の一例を示す。画像変化量格納部130は、身体状況として、患者200の生体情報に対応づけてトレーニング画像の情報量の変化量を格納する。例えば、画像変化量格納部130は、患者200の生体情報として発汗がある旨を示す情報、発汗がない旨を示す情報、および患者200の血圧が予め定められた値を超えた旨を示す情報等のそれぞれに対応づけて、階調、解像度、およびコントラスト等のそれぞれの変化量を格納してよい。具体的には、画像変化量格納部130は、患者200が恐怖および不安を感じている場合に示す生体情報に対応づけて、トレーニング画像の階調、または解像度、若しくはコントラストを低下させる変化量を格納してよい。例えば、画像変化量格納部130は、患者200が発汗した場合に対応づけて、トレーニング画像の階調を4ビット分減少させる旨を示す変化量を格納していてよい。一方、患者200に発汗がない場合に対応づけて、画像変化量格納部130は、トレーニング画像の階調を6ビット分増加させる旨を示す変化量を格納していてよい。
図5は、本実施形態に係る画像変化量格納部130のデータ構造の一例を示す。画像変化量格納部130は、身体状況として、患者200の生体情報の単位時間当たりの変化量に対応づけて、トレーニング画像の情報量の変化量を格納している。例えば、患者200がトレーニング画像を見ていない場合における単位時間当たりの瞬き回数と、患者200がトレーニング画像を見ている場合における単位時間当たりの瞬き回数とを比較して、身体状況解析部112が算出した単位時間当たりの瞬き回数の変化量に対応づけて、単位時間当たりの瞬き回数の変化量がより多いほど、階調、または、解像度、若しくはコントラスト等をより下げる変化量を格納していてよい。一方、画像変化量格納部130は、単位時間当たりの瞬き回数の変化量がより少ない、または、より減った場合に対応づけて、階調、または、解像度、若しくはコントラスト等をより上げる変化量を格納していてよい。例えば、画像変化量格納部130は、患者200の単位時間当たりの瞬き回数の変化量が50回増えた場合に対応づけて、トレーニング画像の階調を4ビット分減少させる旨を示す変化量を格納してよい。一方、画像変化量格納部130は、患者200の単位時間当たりの瞬き回数が30回減少した場合に対応づけて、トレーニング画像の階調を6ビット分増加させる旨を示す変化量を格納していてよい。
提示刺激決定部180は、患者200に対し、画像、音、振動、圧力等の複数種類の刺激を提示する方法を決定する。例えば、提示刺激決定部180は、トレーニング画像の強度を変化させた場合に身体状況取得部が検知した患者200の身体状況と、音による刺激の強度を変化させた場合に身体状況取得部が検知した患者200の身体状況とに基づいて、複数種類の刺激を提示させる方法を決定してよい。例えば、提示刺激決定部180は、トレーニング画像の強度を変化させた場合に身体状況取得部が検知した患者200の身体状況の変化量と、音による刺激の強度を変化させた場合に身体状況取得部が検知した患者200の身体状況の変化量とを比較して、身体状況の変化量が大きい方の刺激を患者200に提示するよう、画像変化制御部155および音変化制御部150を制御してもよい。
また、提示刺激決定部180は、トレーニング画像の強度を変化させた場合に身体状況取得部が検知した患者200の身体状況の変化量と、音による刺激の強度を変化させた場合に身体状況取得部が検知した患者200の身体状況の変化量とに基づき、トレーニング画像の強度と音による刺激の強度の割合を調節してもよい。
症例データベース190は、精神疾患の症例に対応付けての複数種類の刺激を提示する方法を格納する。そして、提示刺激決定部180は、症例データベース190から抽出した刺激を提示する方法に基づいて、複数種類の刺激を患者200に提示させてもよい。例えば、症例データベース190は、広場恐怖に対応付けて、表示部160が表示する満員電車のトレーニング画像による視覚刺激、音再生部165が再生する電車の音による聴覚刺激、振動再生部166が患者200に与える電車の振動による刺激、及び圧力再生部163が患者200に与える満員電車の圧力による刺激の組合せを格納してもよい。また、症例データベース190はこれらの刺激を提示する際の強度を各刺激に対応付けて格納してよい。この場合、提示刺激決定部180は、患者200の精神疾患の症状適した刺激を提示する方法を、症例データベース190から抽出してもよい。
図6は、本発明の他の実施形態に係る精神疾患治療支援装置10の機能構成の一例を示す。精神疾患治療支援装置10は、撮像部100、生体情報測定部105、身体状況取得部110、変化量抽出ユニット12、変化量格納ユニット13、刺激制御ユニット15、刺激提示ユニット16、トレーニング画像格納部140、電子カルテ格納部170、提示刺激決定部180、症例データベース190、および被診断者視線測定部195を備える。また、身体状況取得部110は、身体状況解析部112および生体情報解析部114を有する。また、変化量抽出ユニット12は、表示割合抽出部122、音変化量抽出部125、振動変化量抽出部126、圧力変化量抽出部123、および追従速度変化量抽出部128を有する。また、変化量格納ユニット13は、表示割合格納部132、音変化量格納部135、振動変化量格納部136、圧力変化量格納部133、および追従速度変化量格納部138を有する。また、刺激制御ユニット15は、音変化制御部150、表示制御部157、振動制御部156、および圧力制御部153を有する。また、刺激提示ユニット16は、振動再生部166、圧力再生部163、表示部160、および音再生部165を有する。なお、本実施形態に係る精神疾患治療支援装置10は、図1から図5において説明した精神疾患治療支援装置10の構成および機能の一部、または全部を更に備えてもよい。また、図1から図5の上記説明において説明した部材名と同一の部材については、略同一の機能を有するので、詳細な説明は省略する。まず、トレーニング画像格納部140は、疾患に対応づけてトレーニング画像を格納する。また、トレーニング画像格納部140は、所定の恐怖症用のトレーニング画像に対応づけて、当該トレーニング画像が示す状況の音も格納する。トレーニング画像格納部140は、表示制御部157の制御に基づいてトレーニング画像を表示制御部157に供給する。また、トレーニング画像格納部140は、音変化制御部150の制御に基づいて、トレーニング画像に対応づけられた音を音変化制御部150に供給する。なお、トレーニング画像ではない画像は、例えば、テレビ番組の画像、および映画等であってよい。
表示部160は、表示制御部157の制御に基づいて、トレーニング画像を表示する。表示部160は、表示制御部157の制御に基づいて、トレーニング画像でない動画にトレーニング画像を挿入して表示してもよい。例えば、表示部160は、表示制御部157の制御に基づいて、動画を構成する複数の動画構成画像の間にトレーニング画像を挿入して表示する。ここで、動画構成画像とは、フレーム画像、フィールド画像、及びその他の動画を構成する様々な形式の画像のいずれを含んでもよい。また、表示部160は、トレーニング画像でない画像とトレーニング画像とを合成して表示してもよく、トレーニング画像でない画像とトレーニング画像とを重ね合わせて表示してもよい。ここで、トレーニング画像でない画像とトレーニング画像とを合成するとは、トレーニング画像でない画像とトレーニング画像とを表示部160の同一の表示領域内において、予め定められた領域にそれぞれ配置して一枚の画像とすることであってよい。また、トレーニング画像でない画像とトレーニング画像とを重ね合わせるとは、トレーニング画像でない画像とトレーニング画像とを表示部160の同一の表示領域内において重畳して表示することであってよい。また、表示部160は、トレーニング画像でない画像とトレーニング画像とを重ね合わせて表示する場合には、トレーニング画像を半透明にして重ね合わせてもよい。
また、表示部160は、トレーニング画像とトレーニング画像でない画像とを所定の数量比で表示してもよい。また、表示部160は、トレーニング画像とトレーニング画像でない画像とを、それぞれ異なる次元で表示してもよい。
音再生部165は、表示部160が表示しているトレーニング画像に対応する音を、音変化制御部150の制御に基づいて再生する。撮像部100は、表示部160が表示しているトレーニング画像を見ている患者200を撮像する。撮像部100は、撮像した患者200の画像を身体状況取得部110が有する身体状況解析部112に供給する。生体情報測定部105は、表示部160が表示しているトレーニング画像を見ている患者200の生体情報を測定する。生体情報測定部105は、測定した生体情報を身体状況取得部110が有する生体情報解析部114に供給する。身体状況取得部110は、表示部160が表示しているトレーニング画像を見ている患者200の身体状況を取得する。具体的には、身体状況取得部110が有する身体状況解析部112が、撮像部100から受け取った患者200の撮像画像を解析することにより患者200の動作を取得する。更に、身体状況解析部112は、撮像部100から受け取った患者200の撮像画像を解析することにより、患者200の動作の単位時間当たりの変化量を取得してもよい。身体状況解析部112は、取得した患者200の動作、および単位時間当たりの患者200の動作の変化量を表示割合抽出部122および音変化量抽出部125に供給する。
また、身体状況取得部110が有する生体情報解析部114は、生体情報測定部105から受け取った患者200の生体情報を取得する。また、生体情報解析部114は、生体情報測定部105が測定した患者200の生体情報の単位時間当たりの変化量を取得する。生体情報解析部114は、取得した患者200の生体情報、および単位時間当たりの患者200の生体情報の変化量を表示割合抽出部122および音変化量抽出部125に供給する。更に、身体状況取得部110は、身体状況解析部112が取得した患者200の動作、および単位時間当たりの患者200の動作の変化量を電子カルテ格納部170に供給する。また、身体状況取得部110は、生体情報解析部114が取得した患者200の生体情報、および単位時間当たりの患者200の生体情報の変化量を電子カルテ格納部170に供給する。電子カルテ格納部170は、時刻に対応づけて、患者200の動作、および生体情報等を格納する。電子カルテ格納部170は、身体状況取得部110の制御に基づいて、過去の患者200の動作、および生体情報等を身体状況解析部112および生体情報解析部114に供給してもよい。
表示割合格納部132は、患者200の身体状況に対応づけて、表示部160が表示するトレーニング画像の表示割合の変化量を格納する。具体的には、表示割合格納部132は、患者200の身体状況に対応づけて、表示部160が表示するトレーニング画像の表示時間の変化量を格納している。ここで、表示時間の変化量の単位は、分、秒、およびマイクロ秒であってよい。また、表示割合格納部132は、患者200の身体状況に対応づけて、表示部160が表示するトレーニング画像の合成割合の変化量、または重ね合わせ度合いの変化量を格納してもよい。更に、表示割合格納部132は、患者200の身体状況である患者200の動作、または患者200の動作の単位時間当たりの変化量に対応づけて、表示部160が表示するトレーニング画像の表示割合の変化量を格納してもよい。
また、表示割合格納部132は、表示部160にトレーニング画像とトレーニング画像でない画像とを所定の数量比で表示させる場合、数量比の変化量を格納してもよい。また、表示割合格納部132は、表示部160にトレーニング画像とトレーニング画像でない画像とをそれぞれ異なる次元で表示させる場合、トレーニング画像の次元とトレーニング画像でない画像の次元を格納してもよい。
そして、表示割合格納部132は、患者200の身体状況である患者200の生体情報、または患者200の生体情報の単位時間当たりの変化量に対応づけて、表示部160が表示するトレーニング画像の変化量を格納してもよい。表示割合格納部132は、予め定められた時間内における患者200の身体状況の変化量が予め定められた範囲内に含まれる場合には、段階的に表示割合を増加させる、または減少させる変化量を格納していてもよい。更に、表示割合格納部132は、患者200の身体状況に対応づけて、トレーニング画像の半透明度合いの変化量を格納してもよい。表示割合格納部132は、表示割合抽出部122の制御に基づいて、トレーニング画像の表示割合の変化量を表示割合抽出部122に供給する。音変化量格納部135は、患者200の身体状況に対応づけて、音再生部165が再生する音の情報量の変化量を格納する。音変化量格納部135は、音の情報量の変化量を、音変化量抽出部125に供給する。振動変化量格納部136は、患者200の身体状況に対応づけて、振動再生部166が患者に与える振動の変化量を格納する。振動変化量格納部136は、振動の変化量を、振動変化量抽出部126に供給する。圧力変化量格納部133は、患者200の身体状況に対応づけて、圧力再生部163が患者に与える圧力の変化量を格納する。圧力変化量格納部133は、圧力の変化量を、圧力変化量抽出部123に供給する。
表示割合抽出部122は、身体状況取得部110が取得した患者200の身体状況に対応づけて表示割合格納部132が格納しているトレーニング画像の表示割合の変化量を抽出する。具体的には、表示割合抽出部122は、身体状況取得部110が有する身体状況解析部112が取得した患者200の身体状況に対応づけて表示割合格納部132が格納しているトレーニング画像の表示時間の変化量を抽出する。また、表示割合抽出部122は、身体状況解析部112が取得した患者200の身体状況に対応づけて表示割合格納部132が格納しているトレーニング画像の合成割合の変化量、または重ね合わせ度合いの変化量を抽出する。
更に、表示割合抽出部122は、身体状況解析部112が取得した患者200の動作、または患者200の動作の単位時間当たりの変化量に対応づけて表示割合格納部132が格納しているトレーニング画像の表示割合の変化量を抽出する。そして、表示割合抽出部122は、身体状況解析部112が取得した患者200の生体情報、または患者200の生体情報の単位時間当たりの変化量に対応づけて表示割合格納部132が格納しているトレーニング画像の表示時間の変化量を抽出してもよい。音変化量抽出部125は、身体状況取得部110が取得した患者200の身体状況に対応づけて音変化量格納部135が格納している音の情報量の変化量を抽出する。音変化量抽出部125は、抽出した音の情報の変化量を、音変化制御部150に供給する。
また、表示割合抽出部122は、身体状況解析部112が取得した患者200の身体状況に対応づけて表示割合格納部132が格納している表示部160にトレーニング画像とトレーニング画像でない画像とを所定の数量比で表示させる場合の数量比の変化量を抽出してもよい。また、表示割合抽出部122は、身体状況解析部112が取得した患者200の身体状況に対応づけて表示割合格納部132が格納している表示部160にトレーニング画像とトレーニング画像でない画像とをそれぞれ異なる次元で表示させる場合のトレーニング画像の次元とトレーニング画像でない画像の次元を抽出してもよい。
表示制御部157は、表示割合抽出部122が抽出したトレーニング画像の表示割合に応じて、表示部160が表示しているトレーニング画像の表示割合を変化させる。具体的には、表示制御部157は、表示割合抽出部122が抽出したトレーニング画像の表示時間の変化量に応じて、表示部160が表示しているトレーニング画像の表示時間を変化させる。例えば、表示割合格納部132は、患者200が恐怖または不安を感じていないと判断される身体状況、一例として、患者200が笑顔である場合には、笑顔に対応づけて、患者200が恐怖または不安を感じていると判断される身体状況における場合よりも、トレーニング画像が長い時間表示される表示時間の変化量を格納する。そして、表示割合抽出部122は、患者200が笑顔である場合には、笑顔に対応づけて表示割合格納部132が格納している表示時間の変化量を抽出して、表示制御部157に供給する。表示制御部157は、表示割合抽出部122から受け取った表示時間の変化量に応じて、トレーニング画像の表示時間を長くして表示部160に表示する。
例えば、表示制御部157は、表示割合抽出部122からトレーニング画像の表示割合を受け取っていない場合には、表示部160にトレーニング画像ではない画像を表示させる。そして、予め定められた時間が経過した後に、表示制御部157はトレーニング画像格納部140が患者200の疾患に対応づけて格納しているトレーニング画像を抽出して表示部160に表示させる。係る場合において、表示制御部157は、患者200が恐怖および不安を感じるトレーニング画像のうち、最も恐怖および不安を感じにくいトレーニング画像を表示部160に表示させてよい。最も恐怖および不安を感じにくいトレーニング画像とは、例えば、蜘蛛恐怖症用のトレーニング画像では、表示部160の表示領域に対して予め定められた大きさ以下のアニメの蜘蛛の画像であってよい。
そして、表示制御部157は、表示割合抽出部122からトレーニング画像の表示割合の変化量を受け取った場合には、受け取った表示割合の変化量に応じてトレーニング画像の表示割合を変化させる。例えば、患者200の身体状況として、単位時間当たりの心拍数の変化量を生体情報測定部105が測定している場合を考える。係る場合において、まず、表示部160にトレーニング画像でない画像を表示しているときの患者200の単位時間当たりの心拍数を、生体情報測定部105は測定する。続いて、予め定められた時間経過後に、表示制御部157は最も恐怖および不安を感じにくいトレーニング画像を表示部160に表示させる。そして、この場合における患者200の単位時間当たりの心拍数を、生体情報測定部105は測定する。生体情報解析部114は、トレーニング画像でない画像を見ているときの患者200の単位時間当たりの心拍数と、トレーニング画像を見ているときの患者200の単位時間当たりの心拍数とを比較して、単位時間当たりの心拍数の変化量を算出する。
そして、表示割合抽出部122は、生体情報解析部114が算出した単位時間当たりの心拍数の変化量に対応づけて表示割合格納部132が格納しているトレーニング画像の表示割合の変化量を抽出して、表示制御部157に供給する。例えば、表示割合格納部132は、単位時間当たりの心拍数のプラス方向への変化量がより大きい場合に対応づけて、トレーニング画像の表示割合のマイナス方向への変化量としてより大きい変化量を格納していてよい。また、表示割合格納部132は、単位時間当たりの心拍数のマイナス方向への変化量がより大きい場合に対応づけて、トレーニング画像の表示割合のプラス方向への変化量としてより大きい変化量を格納していてよい。表示制御部157は、表示割合抽出部122から受け取ったトレーニング画像の表示割合の変化量に応じて、トレーニング画像格納部140が格納しているトレーニング画像の表示割合を変化させる。そして、表示制御部157は、表示割合を変化させたトレーニング画像を表示部160に表示させる。
また、表示制御部157は、表示割合抽出部122が抽出したトレーニング画像の合成割合の変化量、または重ね合わせ度合いの変化量に応じて、表示部160が表示しているトレーニング画像の合成割合、または重ね合わせ度合いを変化させる。例えば、表示割合格納部132は、単位時間当たりの心拍数のプラス方向への変化量がより大きい場合に対応づけて、トレーニング画像の合成割合、または重ね合わせ度合いのマイナス方向への変化量としてより大きい変化量を格納していてよい。また、表示割合格納部132は、単位時間当たりの心拍数のマイナス方向への変化量がより大きい場合に対応づけて、トレーニング画像の合成割合、または重ね合わせ度合いのプラス方向への変化量としてより大きい変化量を格納していてよい。音変化制御部150は、音変化量抽出部125から受け取った音情報の変化量に応じて、音再生部165が再生している音の情報量を変化させる。音変化制御部150は、情報量を変化させた音を音再生部165に再生させる。
また、表示制御部157は、表示割合抽出部122が抽出した、同時に表示するトレーニング画像の数の変化量に応じて、表示部160が同時に表示するトレーニング画像の数を変化させる。例えば、表示割合格納部132は、単位時間当たりの心拍数のプラス方向への変化量がより大きい場合に対応づけて、同時に表示するトレーニング画像の数のマイナス方向への変化量としてより大きい変化量を格納していてよい。また、表示割合格納部132は、単位時間当たりの心拍数のマイナス方向への変化量がより大きい場合に対応づけて、同時に表示するトレーニング画像の数のプラス方向への変化量としてより大きい変化量を格納していてよい。
また、表示制御部157は、表示割合抽出部122が抽出したトレーニング画像の次元の変化量に応じて、表示部160が表示しているトレーニング画像の次元を変化させる。例えば、表示割合格納部132は、単位時間当たりの心拍数のプラス方向への変化量がより大きい場合に対応づけて、トレーニング画像の次元のマイナス方向への変化量としてより大きい変化量を格納していてよい。また、表示割合格納部132は、単位時間当たりの心拍数のマイナス方向への変化量がより大きい場合に対応づけて、トレーニング画像の次元のプラス方向への変化量としてより大きい変化量を格納していてよい。
また、表示制御部157は、表示割合抽出部122が抽出した、3次元のトレーニング画像を表示する場合におけるトレーニング画像の飛び出し具合の変化量に応じて、表示部160が表示しているトレーニング画像の飛び出し具合を変化させる。例えば、表示割合格納部132は、単位時間当たりの心拍数のプラス方向への変化量がより大きい場合に対応づけて、トレーニング画像の飛び出し具合のマイナス方向への変化量としてより大きい変化量を格納していてよい。また、表示割合格納部132は、単位時間当たりの心拍数のマイナス方向への変化量がより大きい場合に対応づけて、トレーニング画像の飛び出し具合のプラス方向への変化量としてより大きい変化量を格納していてよい。
被診断者視線測定部195は、撮像部100が撮像した患者の画像から患者の視線方向を検出する。表示制御部157は、表示部160における被診断者視線測定部195が検出した視線方向の位置に、トレーニング画像を表示してもよい。また、表示制御部157は、トレーニング画像の表示位置を患者の視線方向に追従させてもよい。
追従速度変化量格納部138は、患者200の身体状況に対応づけて、表示部160が表示するトレーニング画像を患者200の視線方向に追従させる速度の変化量を格納する。また、追従速度変化量格納部138は、患者200の身体状況である患者200の動作、または患者200の動作の単位時間当たりの変化量に対応づけて、表示部160が表示するトレーニング画像を患者200の視線方向に追従させる速度を格納してもよい。また、追従速度変化量格納部138は、患者200が過度のストレスを感じていることを示す身体状況に対応付けて、表示追従速度を強制的に0(ゼロ、追従しないで停止する)に設定する旨の情報を格納してもよい。患者200が過度のストレスを感じていることを示す身体状況とは、例えば、所定の時間以上継続して目をつぶっていること、心拍数の変化量が所定の値を超えていること等である。患者200が過度のストレスを感じていることを示す身体状況とは、例えば、所定の時間以上継続して目をつぶっていること、心拍数の変化量が所定の値を超えていること等である。
そして、追従速度変化量格納部138は、患者200の身体状況である患者200の生体情報、または患者200の生体情報の単位時間当たりの変化量に対応づけて、表示部160が表示するトレーニング画像を患者200の視線方向に追従させる速度の変化量を格納してもよい。追従速度変化量格納部138は、予め定められた時間内における患者200の身体状況の変化量が予め定められた範囲内に含まれる場合には、追従させる速度を増加させる、または減少させる変化量を格納していてもよい。追従速度変化量格納部138は、追従速度変化量抽出部128の制御に基づいて、トレーニング画像を患者200の視線に追従させる速度の変化量を追従速度変化量抽出部128に供給する。
追従速度変化量抽出部128は、身体状況取得部110が取得した患者200の身体状況に対応づけて追従速度変化量格納部138が格納している、トレーニング画像を患者200の視線方向に追従させる速度の変化量を抽出する。具体的には、追従速度変化量抽出部128は、身体状況取得部110が有する身体状況解析部112が取得した患者200の身体状況に対応づけて追従速度変化量格納部138が格納しているトレーニング画像を患者200の視線方向に追従させる速度の変化量を抽出する。
更に、追従速度変化量抽出部128は、身体状況解析部112が取得した患者200の動作、または患者200の動作の単位時間当たりの変化量に対応づけて追従速度変化量格納部138が格納しているトレーニング画像を患者200の視線方向に追従させる速度の変化量を抽出する。そして、追従速度変化量抽出部128は、身体状況解析部112が取得した患者200の生体情報、または患者200の生体情報の単位時間当たりの変化量に対応づけて追従速度変化量格納部138が格納しているトレーニング画像を患者200の視線方向に追従させる速度の変化量を抽出してもよい。
表示制御部157は、追従速度変化量抽出部128が抽出したトレーニング画像を患者200の視線方向に追従させる速度に応じて、表示部160が表示しているトレーニング画像を患者200の視線方向に追従させる速度を変化させる。例えば、追従速度変化量格納部138は、患者200が恐怖または不安を感じていないと判断される身体状況、一例として、患者200が笑顔である場合には、笑顔に対応づけて、患者200が恐怖または不安を感じていると判断される身体状況における場合よりも速くトレーニング画像が患者200の視線の方向に追従するように、速度の変化量を格納する。そして、追従速度変化量抽出部128は、患者200が笑顔である場合には、笑顔に対応づけて追従速度変化量格納部138が格納しているトレーニング画像を患者200の視線の方向に追従させる速度の変化量を抽出して、表示制御部157に供給する。表示制御部157は、追従速度変化量抽出部128から受け取った速度の変化量に応じて、トレーニング画像を患者200の視線の方向に追従させる速度を早くして表示部160に表示する。
例えば、表示制御部157は、追従速度変化量抽出部128からトレーニング画像を患者200の視線方向に追従させる速度を受け取っていない場合には、表示部160にトレーニング画像を移動させずに表示させる。この場合、表示制御部157はトレーニング画像を表示部160における予め定められた位置に表示させてもよいし、最初にトレーニング画像を表示させる時点で患者200の視線の方向に対応する位置に表示してもよい。そして、予め定められた時間が経過した後に、表示制御部157はトレーニング画像を所定の速度で患者の視線の方向に追従させつつ表示部160に表示させる。
そして、表示制御部157は、追従速度変化量抽出部128からトレーニング画像を患者200の視線方向に追従させる速度の変化量を受け取った場合には、受け取った速度の変化量に応じてトレーニング画像を患者200の視線方向に追従させる速度を変化させる。例えば、患者200の身体状況として、単位時間当たりの心拍数の変化量を生体情報測定部105が測定している場合を考える。係る場合において、まず、表示部160にトレーニング画像を移動させずに表示しているときの患者200の単位時間当たりの心拍数を、生体情報測定部105は測定する。続いて、予め定められた時間経過後に、表示制御部157は患者200の視線の方向に所定の速度で追従させてトレーニング画像を表示部160に表示させる。そして、この場合における患者200の単位時間当たりの心拍数を、生体情報測定部105は測定する。生体情報解析部114は、移動しないトレーニング画像を見ているときの患者200の単位時間当たりの心拍数と、視線の方向に追従するトレーニング画像を見ているときの患者200の単位時間当たりの心拍数とを比較して、単位時間当たりの心拍数の変化量を算出する。
そして、追従速度変化量抽出部128は、生体情報解析部114が算出した単位時間当たりの心拍数の変化量に対応づけて追従速度変化量格納部138が格納しているトレーニング画像を患者200の視線方向に追従させる速度の変化量を抽出して、表示制御部157に供給する。例えば、追従速度変化量格納部138は、単位時間当たりの心拍数のプラス方向への変化量がより大きい場合に対応づけて、トレーニング画像を視線の方向に追従させる速度のマイナス方向への変化量としてより大きい変化量を格納していてよい。また、追従速度変化量格納部138は、単位時間当たりの心拍数のマイナス方向への変化量がより大きい場合に対応づけて、トレーニング画像を視線の方向に追従させる速度のプラス方向への変化量としてより大きい変化量を格納していてよい。表示制御部157は、追従速度変化量抽出部128から受け取ったトレーニング画像を視線の方向に追従させる速度の変化量に応じて、トレーニング画像格納部140が格納しているトレーニング画像を視線の方向に追従させる速度を変化させる。そして、表示制御部157は、変化させられた追従させる速度でトレーニング画像を患者200の視線の方向に追従させつつ表示部160に表示させる。
本実施形態に係る精神疾患治療支援装置10によれば、患者200が恐怖および不安を強く感じている場合には、トレーニング画像の表示時間を短くする、または、トレーニング画像の合成割合を小さくしてトレーニング画像の表示領域における占有面積を小さくする、若しくは、トレーニング画像のトレーニング画像ではない画像への重ね合わせ度合いを小さくすることができるので、患者200がトレーニング画像を見ているときにパニック症等の発作を起こすことを抑制しつつ、患者200を自動的に適切なトレーニング画像に曝露できる。
図7は、本実施形態に係る表示割合格納部132のデータ構造の一例を示す。表示割合格納部132は、患者200の身体状況に対応づけて、表示部160が表示するトレーニング画像の表示割合の変化量を格納する。表示割合の変化量は、トレーニング画像の表示時間、合成割合、および重ね合わせ度合い等の変化量であってよい。例えば、表示割合格納部132は、患者200の身体状況として、患者200の表情の変化、および患者200の動きに対応づけて、トレーニング画像の表示割合の変化量を格納する。具体的には、表示割合格納部132は、患者200の表情の変化、すなわち、目をつぶる動作、目をそらす動作、および笑顔等に対応づけて、表示割合の変化量を格納する。同様にして、表示割合格納部132は、患者200の動き、例えば、患者200がのけぞる動作、うつむく動作、震える動作、つばを飲み込む動作、および首を振る動作等のそれぞれに対応づけて、表示割合の変化量を格納する。
例えば、患者200が目をつぶる動作をするということは、患者200が感じている恐怖および不安が大きいので、表示割合格納部132は、目をつぶる動作に対応づけて表示時間を10秒減少させる旨を示す変化量を格納してよい。表示制御部157は、表示割合抽出部122から目をつぶる動作に対応づけて表示割合格納部132が格納している表示時間の変化量を受け取った場合には、トレーニング画像の表示時間を10秒間減少させて表示部160に表示する。一方、表示割合格納部132は、患者200が笑顔の場合に対応づけて、トレーニング画像の表示時間を10秒増加させる旨を示す変化量を格納していてよい。また、表示割合格納部132は、目をつぶる動作に対応づけて、予め定められた合成割合の変化量を対応づけてよい。表示制御部157は、表示割合抽出部122から目をつぶる動作に対応づけて表示割合格納部132が格納している合成割合の変化量を受け取った場合には、受け取った合成割合の変化量に基づいて、トレーニング画像ではない画像とトレーニング画像との合成割合を変化させて表示部160に表示する。
図8は、本実施形態に係る表示割合格納部132のデータ構造の一例を示す。表示割合格納部132は、身体状況として、患者200の生体情報に対応づけてトレーニング画像の表示割合の変化量を格納する。例えば、表示割合格納部132は、患者200の生体情報として発汗がある旨を示す情報、発汗がない旨を示す情報、および患者200の血圧が予め定められた値を超えた旨を示す情報等のそれぞれに対応づけて、表示時間、合成割合、および重ね合わせ度合い等の表示割合の変化量を格納してよい。具体的には、表示割合格納部132は、患者200が恐怖および不安を感じている場合に示す生体情報に対応づけて、患者200が恐怖および不安を感じていない場合に示す生体情報よりもより表示割合が小さくなる変化量を格納してよい。例えば、表示割合格納部132は、患者200の血圧が予め定められた値を超えた場合に対応づけて、トレーニング画像の表示時間を10秒減少させる旨を示す変化量を格納していてよい。
図9は、本実施形態に係る表示割合格納部132のデータ構造の一例を示す。表示割合格納部132は、身体状況として、患者200の生体情報の単位時間当たりの変化量に対応づけて、トレーニング画像の表示割合の変化量を格納している。例えば、患者200がトレーニング画像を見ていない場合における単位時間当たりの瞬き回数と、患者200がトレーニング画像を見ている場合における単位時間当たりの瞬き回数とを比較して、身体状況解析部112が算出した単位時間当たりの瞬き回数の変化量に対応づけて、単位時間当たりの瞬き回数のプラス方向の変化量がより多いほど、よりトレーニング画像の表示割合が小さくなる変化量を格納してよい。例えば、表示割合格納部132は、患者200の単位時間当たりの瞬き回数の変化量が、50回増加していた場合に対応づけて、トレーニング画像の表示時間を10秒減少させる旨を示す変化量を格納していてよい。これは、一般的に、人間の1分当たりの瞬きの回数は15から20回であるところ、単位時間当たりの瞬き回数が50回増加している場合には、患者200は、トレーニング画像でない画像を見ている場合に比べて、トレーニング画像を見ている場合の方がより恐怖および不安を感じていると判断されるからである。
図10は、本実施形態に係る追従速度変化量格納部138のデータ構造の一例を示す。追従速度変化量格納部138は、身体状況として、患者200の生体情報の単位時間当たりの変化量に対応づけて、トレーニング画像の表示割合の変化量を格納している。例えば、患者200がトレーニング画像を見ていない場合における単位時間当たりの瞬き回数と、患者200がトレーニング画像を見ている場合における単位時間当たりの瞬き回数とを比較して、身体状況解析部112が算出した単位時間当たりの瞬き回数の変化量に対応づけて、単位時間当たりの瞬き回数のプラス方向の変化量がより多いほど、よりトレーニング画像の追従させる速度が遅くなる変化量を格納してよい。例えば、表示割合格納部132は、患者200の単位時間当たりの瞬き回数の変化量が、30回増加していた場合に対応づけて、トレーニング画像を患者200の視線に追従させる速度を10cm/秒減少させる旨を示す変化量を格納していてよい。これは、一般的に、人間の1分当たりの瞬きの回数は15から20回であるところ、単位時間当たりの瞬き回数が30回増加している場合には、患者200は、トレーニング画像でない画像を見ている場合に比べて、トレーニング画像を見ている場合の方がより恐怖および不安を感じていると判断されるからである。また、単位時間当たりの瞬き回数の変化量が、50回増加していた場合に対応付けて、トレーニング画像を患者200の視線に追従させることを強制的に停止する旨の情報を格納してよい。これは、患者200が極度の恐怖および不安を感じていると判断されるからである。
図11は、本実施形態に係る精神疾患治療支援装置10のハードウェア構成の一例を示す。本実施形態に係る精神疾患治療支援装置10は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、および表示装置1580を有するCPU周辺部と、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、およびCD−ROMドライブ1560を有する入出力部と、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、および入出力チップ1570を有するレガシー入出力部とを備える。
ホスト・コントローラ1582は、RAM1520と、高い転送レートでRAM1520をアクセスするCPU1505およびグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510およびRAM1520に格納されたプログラムに基づいて動作して、各部を制御する。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示装置1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置である通信インターフェイス1530、ハードディスクドライブ1540、CD−ROMドライブ1560を接続する。通信インターフェイス1530は、ネットワークを介して他の装置と通信する。ハードディスクドライブ1540は、精神疾患治療支援装置10内のCPU1505が使用するプログラムおよびデータを格納する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。
また、入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、および入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、精神疾患治療支援装置10が起動時に実行するブート・プログラム、精神疾患治療支援装置10のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
RAM1520を介してハードディスクドライブ1540に提供される精神疾患治療支援プログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。精神疾患治療支援プログラムは、記録媒体から読み出され、RAM1520を介して精神疾患治療支援装置10内のハードディスクドライブ1540にインストールされ、CPU1505において実行される。精神疾患治療支援装置10にインストールされて実行される精神疾患治療支援プログラムは、CPU1505等に働きかけて、精神疾患治療支援装置10を、図1から図10にかけて説明した、撮像部100、生体情報測定部105、身体状況取得部110、身体状況解析部112、生体情報解析部114、変化量抽出ユニット12、画像変化量抽出部120、表示割合抽出部122、圧力変化量抽出部123、音変化量抽出部125、振動変化量抽出部126、追従速度変化量抽出部128、変化量格納ユニット13、画像変化量格納部130、表示割合格納部132、圧力変化量格納部133、音変化量格納部135、振動変化量格納部136、追従速度変化量格納部138、トレーニング画像格納部140、刺激制御ユニット15、音変化制御部150、圧力制御部153、画像変化制御部155、振動制御部156、表示制御部157、刺激提示ユニット、表示部160、圧力再生部163、音再生部165、振動再生部166、電子カルテ格納部170、提示刺激決定部180、症例データベース190、および視線測定部195として機能させる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。特に、上記実施の形態では、精神疾患の患者を治療する精神疾患治療支援装置を例に本発明を説明したが、本発明にかかるトレーニング支援装置、トレーニング支援方法、およびトレーニング支援プログラムの用途は精神疾患の治療に限定されるものではない。また、上記実施の形態に、多様な変更または改良を加え得ることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
10 精神疾患治療支援装置
12 変化量抽出ユニット
13 変化量格納ユニット
15 刺激制御ユニット
16 刺激提示ユニット
100 撮像部
105 生体情報測定部
110 身体状況取得部
112 身体状況解析部
114 生体情報解析部
120 画像変化量抽出部
122 表示割合抽出部
123 圧力変化量抽出部
125 音変化量抽出部
126 振動変化量抽出部
128 追従速度変化量抽出部
130 画像変化量格納部
132 表示割合格納部
133 圧力変化量格納部
135 音変化量格納部
136 振動変化量格納部
138 追従速度変化量格納部
140 トレーニング画像格納部
150 音変化制御部
153 圧力制御部
155 画像変化制御部
156 振動制御部
157 表示制御部
160 表示部
163 圧力再生部
165 音再生部
166 振動再生部
170 電子カルテ格納部
180 提示刺激決定部
190 症例データベース
195 視線測定部
200 患者
1505 CPU
1510 ROM
1520 RAM
1530 通信インターフェイス
1540 ハードディスクドライブ
1550 フレキシブルディスク・ドライブ
1560 CD−ROMドライブ
1570 入出力チップ
1575 グラフィック・コントローラ
1580 表示装置
1582 ホスト・コントローラ
1584 入出力コントローラ
1590 フレキシブルディスク
1595 CD−ROM

Claims (16)

  1. トレーニング画像を表示して被験者の苦手克服を支援するトレーニング支援装置であって、
    トレーニング画像を表示する表示部と、
    被験者の身体状況に対応づけて、前記表示部が表示するトレーニング画像の表示割合の変化量を格納する表示割合格納部と、
    前記表示部が表示しているトレーニング画像を見ている被験者の身体状況を取得する身体状況取得部と、
    前記身体状況取得部が取得した被験者の身体状況に対応づけて前記表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出する表示割合抽出部と、
    前記表示割合抽出部が抽出したトレーニング画像の表示割合に応じて、前記表示部が表示しているトレーニング画像の表示割合を変化させる表示制御部と
    を備えるトレーニング支援装置。
  2. 前記表示部は、トレーニング画像でない動画にトレーニング画像を挿入して表示し、
    前記表示割合格納部は、被験者の身体状況に対応づけて、前記表示部が表示するトレーニング画像の表示時間の変化量を格納しており、
    前記表示割合抽出部は、前記身体状況取得部が取得した被験者の身体状況に対応づけて前記表示割合格納部が格納しているトレーニング画像の表示時間の変化量を抽出し、
    前記表示制御部は、前記表示割合抽出部が抽出したトレーニング画像の表示時間の変化量に応じて、前記表示部が表示しているトレーニング画像の表示時間を変化させる
    請求項1に記載のトレーニング支援装置。
  3. 前記表示部は、トレーニング画像でない画像とトレーニング画像とを合成して表示し、
    前記表示割合格納部は、被験者の身体状況に対応づけて、前記表示部が表示するトレーニング画像の合成割合の変化量を格納しており、
    前記表示割合抽出部は、前記身体状況取得部が取得した被験者の身体状況に対応づけて前記表示割合格納部が格納しているトレーニング画像の合成割合の変化量を抽出し、
    前記表示制御部は、前記表示割合抽出部が抽出したトレーニング画像の合成割合の変化量に応じて、前記表示部が表示しているトレーニング画像の合成割合を変化させる
    請求項1に記載のトレーニング支援装置。
  4. 前記表示部は、トレーニング画像でない画像にトレーニング画像を重ね合わせて表示し、
    前記表示割合格納部は、被験者の身体状況に対応づけて、前記表示部が表示するトレーニング画像の重ね合わせ度合の変化量を格納しており、
    前記表示割合抽出部は、前記身体状況取得部が取得した被験者の身体状況に対応づけて前記表示割合格納部が格納しているトレーニング画像の重ね合わせ度合の変化量を抽出し、
    前記表示制御部は、前記表示割合抽出部が抽出したトレーニング画像の重ね合わせ度合の変化量に応じて、前記表示部が表示しているトレーニング画像の重ね合わせ度合を変化させる
    請求項1に記載のトレーニング支援装置。
  5. 前記表示部が表示しているトレーニング画像を見ている被験者を撮像する撮像部
    をさらに備え、
    前記表示割合格納部は、被験者の身体状況である被験者の動作に対応づけて、前記表示部が表示するトレーニング画像の表示割合の変化量を格納しており、
    前記身体状況取得部は、前記撮像部が撮像した被験者の撮像画像を解析することにより、被験者の動作を取得し、
    前記表示割合抽出部は、前記身体状況取得部が取得した被験者の動作に対応づけて前記表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出する
    請求項1に記載のトレーニング支援装置。
  6. 前記表示割合格納部は、被験者の動作の単位時間当たりの変化量に対応づけて、前記表示部が表示するトレーニング画像の表示割合の変化量を格納しており、
    前記身体状況取得部は、前記撮像部が撮像した被験者の撮像画像を解析することにより、被験者の動作の単位時間当たりの変化量を取得し、
    前記表示割合抽出部は、前記身体状況取得部が取得した被験者の動作の単位時間当たりの変化量に対応づけて前記表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出する
    請求項5に記載のトレーニング支援装置。
  7. 前記表示部が表示しているトレーニング画像を見ている被験者の生体情報を測定する生体情報測定部
    をさらに備え、
    前記表示割合格納部は、被験者の身体状況である被験者の生体情報に対応づけて、前記表示部が表示するトレーニング画像の表示割合の変化量を格納しており、
    前記身体状況取得部は、前記生体情報測定部が測定した被験者の生体情報を取得し、
    前記表示割合抽出部は、前記身体状況取得部が取得した被験者の生体情報に対応づけて前記表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出する
    請求項1に記載のトレーニング支援装置。
  8. 前記表示割合格納部は、被験者の生体情報の単位時間当たりの変化量に対応づけて、前記表示部が表示するトレーニング画像の表示割合の変化量を格納しており、
    前記身体状況取得部は、前記生体情報測定部が測定した被験者の生体情報の単位時間当たりの変化量を取得し、
    前記表示割合抽出部は、前記身体状況取得部が取得した被験者の生体情報の単位時間当たりの変化量に対応づけて前記表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出する
    請求項7に記載のトレーニング支援装置。
  9. 前記表示部が表示しているトレーニング画像に対応した音を再生する音再生部と、
    被験者の身体状況に対応づけて、前記音再生部が再生する音の情報量の変化量を格納する音変化量格納部と、
    前記身体状況取得部が取得した被験者の身体状況に対応づけて前記音変化量格納部が格納している音の情報量の変化量を抽出する音変化量抽出部と、
    前記音変化量抽出部が抽出した音の情報量の変化量に応じて、前記音再生部が再生している音の情報量を変化させる音変化制御部と
    をさらに備える請求項1に記載のトレーニング支援装置。
  10. トレーニング画像を表示して被験者の苦手克服を支援するトレーニング支援方法であって、
    トレーニング画像を表示部に表示する表示段階と、
    前記表示部に表示されたトレーニング画像を見ている被験者の身体状況を取得する身体状況取得段階と、
    前記身体状況取得段階において取得された被験者の身体状況に対応づけて表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出する表示割合抽出段階と、
    前記表示割合抽出段階において抽出されたトレーニング画像の表示割合に応じて、前記表示部に表示されているトレーニング画像の表示割合を変化させる表示制御段階と
    を備えるトレーニング支援方法。
  11. トレーニング画像を表示して被験者の苦手克服を支援するトレーニング支援装置用のトレーニング支援プログラムであって、前記トレーニング支援装置を、
    トレーニング画像を表示する表示部、
    被験者の身体状況に対応づけて、前記表示部が表示するトレーニング画像の表示割合の変化量を格納する表示割合格納部、
    前記表示部が表示しているトレーニング画像を見ている被験者の身体状況を取得する身体状況取得部、
    前記身体状況取得部が取得した被験者の身体状況に対応づけて前記表示割合格納部が格納しているトレーニング画像の表示割合の変化量を抽出する表示割合抽出部、
    前記表示割合抽出部が抽出したトレーニング画像の表示割合に応じて、前記表示部が表示しているトレーニング画像の表示割合を変化させる表示制御部
    として機能させるトレーニング支援プログラム。
  12. トレーニング画像を表示して被験者の苦手克服を支援するトレーニング支援装置であって、
    トレーニング画像を表示する表示部と、
    前記表示部に表示されたトレーニング画像を見ている被験者を撮像する撮像部と、
    前記撮像部が撮像した被験者の画像に基づき被験者の視線の方向を検出する被験者視線測定部と、
    被験者の視線の方向に追従させてトレーニング画像を前記表示部に表示させる表示制御部と
    を備えるトレーニング支援装置。
  13. 前記表示部が表示しているトレーニング画像を見ている被験者の身体状況を取得する身体状況取得部と、
    前記身体状況取得部が取得した被験者の身体状況に対応づけて、トレーニング画像を被験者の視線の方向に追従させる速度の変化量を格納する追従速度変化量格納部と、
    前記身体状況取得部が取得した被験者の身体状況に対応づけて前記追従速度変化量格納部が格納している、トレーニング画像を被験者の視線の方向に追従させる速度の変化量を抽出する追従速度変化量抽出部と、
    を更に備え、
    前記表示制御部は、前記追従速度変化量抽出部が抽出したトレーニング画像を追従させる速度の変化量に応じて、被験者の視線の方向に追従させてトレーニング画像を前記表示部に表示させる
    請求項12に記載のトレーニング支援装置。
  14. 前記追従速度変化量格納部は、被験者が著しい恐怖を被験者が感じていることを示す所定の身体状況に対応づけて、トレーニング画像を動かさずに表示させる旨の情報を格納し、
    前記追従速度変化量抽出部は、前記身体状況取得部が取得した被験者の身体状況が、前記所定の条件を満足する場合に、前記追従速度変化量格納部に格納されたトレーニング画像を動かさずに表示させる旨の情報を抽出し、
    前記表示制御部は、前記追従速度変化量抽出部が抽出したトレーニング画像を動かさずに表示させる旨の情報に基づき、トレーニング画像を前記表示部に表示させる
    請求項13に記載のトレーニング支援装置。
  15. トレーニング画像を表示して被験者の苦手克服を支援するトレーニング支援方法であって、
    トレーニング画像を表示部に表示する表示段階と、
    前記表示部に表示されたトレーニング画像を見ている被験者を撮像する撮像段階と、
    前記撮像段階において撮像された被験者の画像に基づき被験者の視線の方向を検出する被験者視線測定段階と、
    前記被験者視線測定段階において測定された被験者の視線の方向に追従させてトレーニング画像を前記表示部に表示させる表示制御段階と
    を備えるトレーニング支援方法。
  16. トレーニング画像を表示して被験者の苦手克服を支援するトレーニング支援装置用のトレーニング支援プログラムであって、前記トレーニング支援装置を、
    トレーニング画像を表示する表示部と、
    前記表示部に表示されたトレーニング画像を見ている被験者を撮像する撮像部と、
    前記撮像部が撮像した被験者の画像に基づき被験者の視線の方向を検出する被験者視線測定部と、
    被験者の視線の方向に追従させてトレーニング画像を前記表示部に表示させる表示制御部
    として機能させるトレーニング支援プログラム。
JP2010186655A 2006-03-28 2010-08-23 トレーニング支援装置、トレーニング支援方法、およびトレーニング支援プログラム Active JP5227377B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010186655A JP5227377B2 (ja) 2006-03-28 2010-08-23 トレーニング支援装置、トレーニング支援方法、およびトレーニング支援プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006088618 2006-03-28
JP2006088618 2006-03-28
JP2010186655A JP5227377B2 (ja) 2006-03-28 2010-08-23 トレーニング支援装置、トレーニング支援方法、およびトレーニング支援プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007029093A Division JP4607132B2 (ja) 2006-03-28 2007-02-08 トレーニング支援装置、トレーニング支援方法、およびトレーニング支援プログラム

Publications (2)

Publication Number Publication Date
JP2010279737A true JP2010279737A (ja) 2010-12-16
JP5227377B2 JP5227377B2 (ja) 2013-07-03

Family

ID=40735934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010186655A Active JP5227377B2 (ja) 2006-03-28 2010-08-23 トレーニング支援装置、トレーニング支援方法、およびトレーニング支援プログラム

Country Status (2)

Country Link
JP (1) JP5227377B2 (ja)
CN (1) CN101454805A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015045810A (ja) * 2013-08-29 2015-03-12 株式会社アニモ 音声処理プログラム及び携帯装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012140538A1 (en) * 2011-04-14 2012-10-18 Koninklijke Philips Electronics N.V. System and method to trigger breathing response for the reduction of associated anxiety
CN106345035A (zh) * 2016-09-08 2017-01-25 丘靖 一种基于虚拟现实的睡眠系统
CN111243709B (zh) * 2020-02-28 2023-06-02 郑州大学 基于可视化引导的饮食操作系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10153946A (ja) * 1996-11-25 1998-06-09 Mitsubishi Electric Corp 感覚情報提示装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10153946A (ja) * 1996-11-25 1998-06-09 Mitsubishi Electric Corp 感覚情報提示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015045810A (ja) * 2013-08-29 2015-03-12 株式会社アニモ 音声処理プログラム及び携帯装置

Also Published As

Publication number Publication date
CN101454805A (zh) 2009-06-10
JP5227377B2 (ja) 2013-07-03

Similar Documents

Publication Publication Date Title
JP4607132B2 (ja) トレーニング支援装置、トレーニング支援方法、およびトレーニング支援プログラム
Velana et al. The senseemotion database: A multimodal database for the development and systematic validation of an automatic pain-and emotion-recognition system
Gervais et al. Tobe: Tangible out-of-body experience
Aigrain et al. Person-specific behavioural features for automatic stress detection
Bekele et al. Design of a virtual reality system for affect analysis in facial expressions (VR-SAAFE); application to schizophrenia
AU2017300636A1 (en) Technique for controlling virtual image generation system using emotional states of user
JP2006293979A (ja) コンテンツ提供システム
JP2005237561A (ja) 情報処理装置及び方法
Kaufmann et al. Distortions in the brain? ERP effects of caricaturing familiar and unfamiliar faces
US20120194648A1 (en) Video/ audio controller
JP6396351B2 (ja) 心身状態推定装置、心身状態推定方法、およびアイウエア
JP5227377B2 (ja) トレーニング支援装置、トレーニング支援方法、およびトレーニング支援プログラム
JP4909156B2 (ja) 画像提示装置、画像提示方法、およびプログラム
JP2007289661A (ja) トレーニング支援装置、トレーニング支援方法、およびトレーニング支援プログラム
CN115101191A (zh) 一种帕金森疾病诊断系统
US20210125702A1 (en) Stress management in clinical settings
JP2006217935A (ja) 恐怖症治療装置
Huang et al. Fast emotion detection from EEG using asymmetric spatial filtering
Soussignan Regulatory function of facial actions in emotion processes
Warp et al. Validating the effects of immersion and spatial audio using novel continuous biometric sensor measures for Virtual Reality
US20200327822A1 (en) Non-verbal communication
WO2023189313A1 (ja) プログラム、情報処理装置、および情報処理方法
KR102240870B1 (ko) 신경계 동기화를 이용한 사회 지능 평가 방법 및 장치
Chen et al. The first step toward reconstructing visual perception and cognition in autism
Szajerman et al. Joint analysis of simultaneous EEG and eye tracking data for video picture

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130315

R150 Certificate of patent or registration of utility model

Ref document number: 5227377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250