JP2024046867A - 情報処理装置および恐怖症改善支援方法 - Google Patents

情報処理装置および恐怖症改善支援方法 Download PDF

Info

Publication number
JP2024046867A
JP2024046867A JP2022152201A JP2022152201A JP2024046867A JP 2024046867 A JP2024046867 A JP 2024046867A JP 2022152201 A JP2022152201 A JP 2022152201A JP 2022152201 A JP2022152201 A JP 2022152201A JP 2024046867 A JP2024046867 A JP 2024046867A
Authority
JP
Japan
Prior art keywords
subject
image
unit
display
glasses
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022152201A
Other languages
English (en)
Inventor
晶子 坂口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2022152201A priority Critical patent/JP2024046867A/ja
Publication of JP2024046867A publication Critical patent/JP2024046867A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】恐怖症の効果的な改善を支援する技術を提供する。【解決手段】ARグラス12は、被験者が恐れを抱く対象の候補としての複数の物体のAR画像を表示部に表示させる。ARグラス12は、複数の物体それぞれのAR画像を見た被験者の状態を検出する。ARグラス12は、検出された被験者の状態に基づいて、複数の物体の中から被験者が恐れを抱く対象を検出する。ARグラス12は、上記対象の画像を表示させ、上記対象の画像が表示された際に被験者が発した音声を検出する。ARグラス12は、上記対象の画像が表示された際に被験者が発した音声に基づいて、上記対象の画像の表示態様を変更する。【選択図】図1

Description

本発明は、情報処理装置および恐怖症改善支援方法に関する。
パニック症等の恐怖症を持つ患者の身体状況に応じてトレーニング画像の情報量を自動的に変化させ、情報量を変化させたトレーニング画像に患者を曝露することにより恐怖症の治療を支援する精神疾患治療支援装置が提案されている(例えば、特許文献1参照)。
特開2010-279737号公報
被験者の恐怖症を効果的に改善するためには、被験者が恐れを抱く対象を正しく把握する必要があるが、被験者が恐れを抱く対象を正しく把握することを支援する技術はこれまで十分に提案されていなかった。
本発明はこうした課題に鑑みてなされたものであり、その目的は、恐怖症の効果的な改善を支援する技術を提供することである。
上記課題を解決するために、本発明のある態様の情報処理装置は、被験者が恐れを抱く対象の候補としての複数の物体の画像を表示部に表示させる表示制御部と、複数の物体それぞれの画像を見た被験者の状態を検出する状態検出部と、状態検出部により検出された被験者の状態に基づいて、複数の物体の中から被験者が恐れを抱く対象を検出する対象検出部とを備える。表示制御部は、対象検出部により検出された対象の画像を表示部に表示させ、状態検出部は、対象の画像が表示された際に被験者が発した音声を検出し、表示制御部は、対象の画像が表示された際に被験者が発した音声に基づいて、対象の画像の表示態様を変更する。
本発明の別の態様は、恐怖症改善支援方法である。この方法は、被験者が恐れを抱く対象の候補としての複数の物体の画像を表示部に表示させるステップと、複数の物体それぞれの画像を見た被験者の状態を検出するステップと、検出された被験者の状態に基づいて、複数の物体の中から被験者が恐れを抱く対象を検出するステップと、検出された対象の画像を表示部に表示させるステップと、対象の画像が表示された際に被験者が発した音声を検出するステップと、対象の画像が表示された際に被験者が発した音声に基づいて、対象の画像の表示態様を変更するステップとをコンピュータが実行する。
なお、以上の構成要素の任意の組合せ、本発明の表現をシステム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、恐怖症の効果的な改善を支援できる。
第1実施形態の恐怖症改善システムの構成を示す図である。 第1実施形態のARグラスの機能ブロックを示すブロック図である。 第1実施形態のARグラスの動作を示すフローチャートである。 第1実施形態のARグラスの動作を示すフローチャートである。 第2実施形態のARグラスの動作を示すフローチャートである。 第3実施形態の恐怖症改善システムの構成を示す図である。 第3実施形態のARグラスの機能ブロックを示すブロック図である。 第3実施形態のARグラスの動作を示すフローチャートである。
本発明に係る実施形態の概要を説明する。実施形態では、拡張現実(AR:Augmented Reality)技術を用いて、被験者の恐怖症の改善を支援する恐怖症改善システムを提案する。実施形態の恐怖症改善システムは、被験者の周囲のランダムな場所かつランダムな時間に、被験者が恐れを抱く対象を、ARグラスを用いて仮想的に表示する恐怖症改善訓練を提供する。恐怖症改善訓練は、被験者が持つ恐怖症の改善を支援する訓練である。また、被験者が恐れを抱く対象には、生物を含む様々な物体が含まれうる。恐怖症改善訓練では、被験者が恐れを抱く対象として、特定の乗り物(例えば航空機の機体、電車や自動車の車両)自体の映像が表示されてもよく、また、座席から見た車両の空間を示す映像が表示されてもよい。実施形態の恐怖症改善システムは、PTSD(Post Traumatic Stress Disorder:心的外傷後ストレス障害)の治療に有用である。
<第1実施形態>
図1は、第1実施形態の恐怖症改善システム10の構成を示す。恐怖症改善システム10は、ARグラス12とカメラ14が通信網16を介して接続される情報処理システムである。通信網16は、LAN、WAN、インターネット等、公知の通信手段を含む。ARグラス12とカメラ14は、無線通信または有線通信にて通信網16と接続される。
ARグラス12は、被験者の頭部に装着される眼鏡型のウェアラブルデバイスである。ARグラス12は、光学透過型のヘッドマウントディスプレイとも言え、被験者から見える現実の物体の上に重ねて仮想的なAR画像を表示する。ARグラス12は、コンピュータを含み、言い換えれば、情報処理装置を含む。
カメラ14は、被験者が存在する部屋の中を撮影する撮影装置である。被験者が存在する部屋は、恐怖症改善訓練が行われる部屋であり、典型的には被験者宅内の部屋である。カメラ14は、画角内の空間が映る撮影画像を、通信網16を介してARグラス12へ送信する。撮影画像は、動画像(映像)であってもよく、静止画像であってもよい。
図2は、第1実施形態のARグラス12の機能ブロックを示すブロック図である。本明細書のブロック図で示す各ブロックは、ハードウェア的には、コンピュータのプロセッサ、CPU、メモリをはじめとする素子や電子回路、機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
ARグラス12は、センサ部20、表示部22、通信部24、データ処理部26および記憶部28を備える。
センサ部20は、ARグラス12を装着したユーザの状態をセンシングする。センサ部20は、被験者の生体情報に関する所定の物理量を検知し、検知した物理量を示す信号をデータ処理部26に入力する。例えば、センサ部20は、被験者の心拍数を検知するセンサを含んでもよい。また、センサ部20は、光を用いて被験者の血流を検知する血流センサを含んでもよい。また、センサ部20は、ARグラス12とは別個の装置であってもよい。例えば、センサ部20は、被験者の手首に装着されるリストバンド型の装置であってもよい。
また、センサ部20は、カメラ(以下「内蔵カメラ」と呼ぶ。)を含む。内蔵カメラは、被験者の視線方向の空間を撮影し、被験者の視線方向の空間が映る撮影画像(映像等)をデータ処理部26へ出力する。また、センサ部20は、マイクを含む。マイクは、被験者が発した音声を検出し、その音声のデータをデータ処理部26へ出力する。
表示部22は、眼鏡のレンズにあたる部分を構成し、被験者の視線方向から入る光を透過する。表示部22は、被験者が見る現実空間の上にAR画像を重ねて表示する。通信部24は、所定の通信プロトコルにしたがって外部装置と通信する。データ処理部26は、恐怖症改善訓練に関する各種データ処理を実行する。データ処理部26は、通信部24を介してカメラ14とデータを送受信する。
記憶部28は、データ処理部26により参照または更新されるデータを記憶する。記憶部28は、マーカー記憶部30、物体画像記憶部32および条件記憶部34を備える。
マーカー記憶部30は、被験者が恐れを抱く対象の物体(以下「恐怖対象物体」とも呼ぶ。)または、その候補としての物体(以下「候補物体」とも呼ぶ。)を登場させる部屋の箇所をマーカーとして設定し、複数のマーカーに関する情報を記憶する。マーカーは、例えば天井、壁、棚の上など、部屋における特定の位置に設定される。マーカーに関する情報は、マーカーが設定された部屋の箇所の外観の情報や、マーカーが設定された部屋の位置を示す情報(AR空間における座標値等)を含んでもよい。
物体画像記憶部32は、複数の候補物体(被験者の恐怖対象物体を含む)の外観を示す画像を記憶する。条件記憶部34は、恐怖症改善支援の処理における各種条件を記憶する。条件記憶部34に記憶される条件は、恐怖対象物体を検出するための条件(以下「恐怖対象検出条件」とも呼ぶ。)と、恐怖対象物体に対する恐怖が克服されたことを判定する条件(以下「恐怖克服条件」とも呼ぶ。)を含む。条件は、複数の判定項目に関して予め定められた閾値を含んでもよい。
恐怖対象検出条件は、(1)被験者の身体動作とその変化の条件、(2)被験者の生体情報とその変化の条件、(3)被験者が発した音声とその変化の条件のうち少なくとも1つを含んでもよい。被験者の身体動作は、恐怖対象物体への反応行動とも言え、例えば、目の瞬き、視線変化、首の動きのうち少なくとも1つを含んでもよい。被験者の生体情報は、被験者の心拍数、血圧、血流量、発汗量のうち少なくとも1つを含んでもよい。
恐怖克服条件も、恐怖対象検出条件と同様に、(1)被験者の身体動作とその変化の条件、(2)被験者の生体情報とその変化の条件、(3)被験者が発した音声とその変化の条件のうち少なくとも1つを含んでもよい。また、実施形態の恐怖症改善訓練には複数段階の強度が設けられ、恐怖克服条件は強度ごとの条件が定められる。
データ処理部26は、マーカー登録部40、表示制御部42、状態検出部44、対象検出部46、判定部48を含む。これら複数の機能ブロックの機能は、コンピュータプログラムに実装されてもよい。このコンピュータプログラムは、記録媒体またはネットワークを介して、ARグラス12のストレージにインストールされてもよい。ARグラス12のプロセッサ(CPU等)は、このコンピュータプログラムをメインメモリに読み出して実行することにより、上記複数の機能ブロックの機能を発揮してもよい。
マーカー登録部40は、センサ部20の内蔵カメラから出力された、被験者が存在する部屋が映る撮影画像と、予め定められたマーカー設定規則に基づいて、部屋における複数のマーカーを特定する。マーカー登録部40は、特定した複数のマーカーに関する情報をマーカー記憶部30に格納する。変形例として、マーカー登録部40は、部屋に設置されたカメラ14から出力された撮影画像に基づいてマーカーを特定してもよい。
表示制御部42は、複数の候補物体のAR画像を表示部22に表示させる。また、表示制御部42は、対象検出部46により検出された恐怖対象物体のAR画像を表示部22に表示させる。候補物体のAR画像および恐怖対象物体のAR画像は、CG(Computer Graphics)映像であってもよい。
状態検出部44は、複数の候補物体それぞれのAR画像を見た被験者の状態を検出する。また、状態検出部44は、恐怖対象物体のAR画像を見た被験者の状態を検出する。AR画像を見た被験者は、表示部22を介して、AR画像が提示された被験者とも言える。
対象検出部46は、状態検出部44により検出された被験者の状態に基づいて、複数の候補物体の中から被験者にとっての恐怖対象物体を検出する。判定部48は、恐怖症改善支援における各種判定処理を実行する。
以上の構成による恐怖症改善システム10の動作を説明する。
図3は、第1実施形態のARグラス12の動作を示すフローチャートである。図3のフローチャートは、恐怖対象物体の登録に関する動作を示している。
ARグラス12を装着した被験者は、ARグラス12を設定モードに設定し、恐怖症改善訓練を行う部屋を見まわす。ARグラス12のセンサ部20に含まれる内蔵カメラは、恐怖症改善訓練を行う部屋を撮影し、部屋に置かれた家具等が映る撮影画像を出力する。ARグラス12のマーカー登録部40は、内蔵カメラによる撮影画像に基づいて、恐怖症改善訓練を行う部屋における複数のマーカー(言い換えればAR物体の出現ポイント)を特定し、各マーカーの情報をマーカー記憶部30に格納する(ステップS10)。
ARグラス12の表示制御部42は、表示部22の表示内容を制御して、マーカー記憶部30に記憶されたマーカー情報が定める位置に、物体画像記憶部32に記憶された複数の候補物体のAR画像を順次切り替えて表示させる(ステップS11)。
ARグラス12の状態検出部44は、複数の候補物体それぞれの表示時、各候補物体を見る被験者の状態を検出する(ステップS12)。具体的には、状態検出部44は、カメラ14から入力された撮影画像に基づいて、被験者の身体動作とその変化を検出する。また、状態検出部44は、センサ部20(例えば生体情報センサ)から入力された信号に基づいて、被験者の生体情報とその変化を検出する。状態検出部44は、センサ部20(例えばマイク)から入力された信号に基づいて、被験者が発した音声とその変化を検出する。以下、被験者の身体動作とその変化、被験者の生体情報とその変化、被験者が発した音声とその変化を総称して、単に「被験者の状態」とも呼ぶ。
ARグラス12の対象検出部46は、各候補物体を見た際の被験者の状態と、条件記憶部34に記憶された恐怖対象検出条件とを比較する。対象検出部46は、或る候補物体を見た際の被験者の状態が恐怖対象検出条件を満たす場合、当該候補物体を被験者にとっての恐怖対象物体として検出する(ステップS13)。
例えば、対象検出部46は、或る候補物体を見た際の被験者の心拍数が、恐怖対象検出条件が定める心拍数閾値以上である場合、当該候補物体を被験者にとっての恐怖対象物体として検出してもよい。対象検出部46は、検出した恐怖対象物体を示す情報を記憶部28(例えば物体画像記憶部32)に格納してもよい。また、対象検出部46は、複数の恐怖対象物体を検出してもよい。なお、恐怖対象検出条件は、心拍数に代えて叫び声の大きさの条件を規定してもよく、心拍数および叫び声に関する条件を規定してもよい。
図4も、第1実施形態のARグラス12の動作を示すフローチャートである。図4のフローチャートは、恐怖症改善訓練に関する動作を示している。被験者が恐怖症改善訓練の開始指示をARグラス12に入力すると(ステップS20のYes)、ステップS21に進む。被験者が恐怖症改善訓練の開始指示を未入力であれば(ステップS20のNo)、ステップS21以降の処理をスキップし、図4の処理を終了する。
ステップS21において、ARグラス12の表示制御部42は、マーカー記憶部30に記憶されたマーカー情報が定める位置に、物体画像記憶部32に記憶された恐怖対象物体のAR画像を表示させる。訓練開始時の訓練強度は所定の強度から開始するようにして、後述するステップS21~S25のフローで強度を変更する。表示制御部42は、センサ部20(内蔵カメラ)による撮影画像に映る複数のマーカー位置を検出し、検出した複数のマーカー位置の中から特定のマーカー位置をランダムに選択し、ランダムな時間に恐怖対象物体を表示させてもよい。表示制御部42は、恐怖対象物体が当該物体にふさわしい態様で動作するよう恐怖対象物体のAR画像の表示を制御してもよい。例えば、恐怖対象物体が飛行可能な生物である場合、表示制御部42は、恐怖対象物体が被験者に向かって飛行するように、恐怖対象物体のAR画像の表示を制御してもよい。また、恐怖対象物体が自動車等の生物ではない場合は、部屋の家具等がない壁に優先的にAR画像の表示を制御してもよい。
ARグラス12の状態検出部44は、カメラ14から入力された撮影画像と、センサ部20から入力された信号に基づいて、恐怖対象物体を見た際の被験者の状態を検出する(ステップS22)。具体的には、ステップS22では、ステップS12と同様に、状態検出部44は、被験者の身体動作とその変化、被験者の生体情報とその変化、被験者が発した音声とその変化を検出する。
ARグラス12の判定部48は、恐怖対象物体を見た際の被験者の状態が、恐怖克服条件を満たすか否かを判定する。例えば、判定部48は、恐怖対象物体を見た際の被験者の心拍数が恐怖克服条件が定める心拍数閾値未満である場合、恐怖克服条件を満たすと判定してもよい。恐怖克服条件を満たす場合(ステップS23のYes)、ステップS24に進む。恐怖克服条件を満たさない場合(ステップS23のNo)、ステップS21に戻り、表示制御部42は、現在の訓練強度での恐怖対象物体の表示を継続する。なお、恐怖克服条件は、心拍数に代えて叫び声の大きさの条件を規定してもよく、心拍数および叫び声に関する条件を規定してもよい。
ステップS24において、表示制御部42は、訓練強度を上げ、また、被験者を応援する内容(例えば応援動画や応援メッセージ)を表示部22に表示させる。判定部48は、訓練強度が上限に達したか否かを判定し、また、訓練強度が予め定められた目標に到達したか否かを判定する。訓練強度が上限に達した、または、訓練強度が目標に到達した場合(ステップS25のYes)、表示制御部42は、恐怖症改善訓練を終了する(ステップS26)。なお、被験者の意志により恐怖症改善訓練を途中で終了できるように表示部22に訓練終了の操作を受け付ける操作釦等を設ける構成してもよい。
訓練強度が上限に未達であり、かつ、訓練強度が目標に未達である場合(ステップS25のNo)、ステップS21に戻り、表示制御部42は、現在の訓練強度での恐怖対象物体の表示を継続する。訓練強度を上げた場合、表示制御部42は、恐怖感を一層煽る態様で恐怖対象物体を表示させてもよい。例えば、表示制御部42は、表示させる恐怖対象物体の個数を増加させてもよく、恐怖対象物体の出現頻度や表示コントラスト、輝度を高めてもよい。
第1実施形態の恐怖症改善システム10(ARグラス12)によると、被験者が恐れを抱く対象を正しく把握することを支援でき、効果的な恐怖症改善訓練ができるよう支援できる。また、第1実施形態の恐怖症改善システム10によると、被験者が恐れを抱く対象に関する効果的な恐怖症改善訓練を被験者に提供できる。また、第1実施形態の恐怖症改善システム10は、被験者の自宅環境に容易に構築できる。
第1実施形態のARグラス12は、被験者の恐怖対象物体を検出し、恐怖対象物体を用いた恐怖症改善訓練を実施した。変形例として、ARグラス12は、恐怖対象情報出力部(不図示)を備えてもよい。恐怖対象情報出力部は、対象検出部46により被験者の恐怖対象物体が検出されると、恐怖対象物体に関する情報や、恐怖対象物体を見た被験者の行動、生体情報、発生音声等を外部装置へ送信してもよい。この外部装置は、心理カウンセラー等、専門家の装置であってもよい。また、恐怖対象情報出力部は、上記の恐怖対象物体に関する情報や被験者の状態を外部の記憶装置に記憶させてもよく、外部の表示装置に表示させてもよい。
<第2実施形態>
第2実施形態では、第1実施形態と相違する点を中心に説明し、共通する点の説明を省略する。第2実施形態の特徴は、第1実施形態の特徴および変形例の特徴と任意の組合せが可能であることはもちろんである。
第2実施形態の恐怖症改善システム10の構成は、図1に示した第1実施形態の恐怖症改善システム10の構成と同じである。また、第2実施形態のARグラス12は、図2に示した第1実施形態のARグラス12と同じ機能ブロックを備える。
ARグラス12の状態検出部44は、恐怖対象物体に対する被験者の行動を検出する。恐怖対象物体に対する被験者の行動は、具体的には、被験者の身体の動きまたは被験者の手足の動きである。表示制御部42は、状態検出部44により検出された被験者の行動に基づいて、恐怖対象物体の画像の表示態様を変更する。
例えば、被験者の行動は、恐怖対象物体を撃退しようとする行動である。恐怖対象物体を撃退しようとする被験者の行動が検出された場合、表示制御部42は、恐怖対象物体を移動させるよう恐怖対象物体のAR画像を制御し、または、恐怖対象物体のAR画像を消去し、言い換えれば非表示とする。
図5は、第2実施形態のARグラス12の動作を示すフローチャートである。図5は、図4に対応するフローチャートであり、恐怖症改善訓練に関する動作を示している。図5のステップS30~ステップS32の処理は、図4のステップS20~ステップS22の処理と同じである。ステップS32では、ステップS22と同様に、ARグラス12の状態検出部44は、被験者の身体動作とその変化、被験者の生体情報とその変化、被験者が発した音声とその変化を検出する。
条件記憶部34には、恐怖対象物体の画像の表示態様を変更する条件(以下「表示変更条件」とも呼ぶ。)として予め定められた被験者の行動に関するデータを記憶する。例えば、条件記憶部34は、条件を満たす被験者の行動の特徴(映像上の特徴)を示すデータを記憶する。第2実施形態では、恐怖対象物体の画像の表示態様を変更する被験者の行動は、恐怖対象物体を撃退しようとする行動(撃退行動とも呼ぶ。)である。撃退行動は、例えば、恐怖対象物体に対して殺虫剤をかける行動でもよく、恐怖対象物体を箒で追い払う行動でもよい。なお、恐怖対象物体の表示変更条件としての被験者の行動は、撃退行動に限られず、恐怖対象物体への適切な対処と想定される様々な行動であってもよい。
ARグラス12の判定部48は、ステップS32において検出された被験者の身体動作が、物体画像記憶部32に記憶された恐怖対象物体の表示変更条件を満たすか否かを判定する。第2実施形態では、判定部48は、被験者の身体動作が撃退行動に該当するか否かを判定し、該当する場合、被験者の身体動作が恐怖対象物体の表示変更条件を満たすと判定する。
ステップS32において検出された被検出者の身体動作が表示変更条件を満たすと判定された場合であり、第2実施形態では、ステップS22において撃退行動に該当する被験者の身体動作が検出された場合(ステップS33のYes)、ステップS34に進む。ステップS34において、ARグラス12の表示制御部42は、恐怖対象物体をそれまでとは異なる位置に移動させるよう恐怖対象物体のAR画像の表示を制御し、または、表示中の恐怖対象物体のAR画像を非表示に切り替える。
ステップS32において検出された被検出者の身体動作が表示変更条件を満たすと判定されなかった場合であり、第2実施形態では、ステップS22において撃退行動に該当する被験者の身体動作が検出されなければ(ステップS33のNo)、ステップS34の処理をスキップする。図5のステップS35~ステップS38の処理は、図4のステップS23~ステップS26の処理と同じであるため説明を省略する。
第2実施形態の恐怖症改善システム10(ARグラス12)は、第1実施形態の恐怖症改善システム10(ARグラス12)が奏する効果に加えて、以下の効果を奏する、すなわち、第2実施形態の恐怖症改善システム10は、恐怖症改善訓練の中で被験者の行動に応じて恐怖対象物体の表示態様を変更することにより、現実性の高い訓練を実現でき、また、恐怖対象物体に対して被験者が正しく対処できるよう支援する対処行動訓練を実現できる。
第2実施形態の第1変形例を説明する。第2実施形態の恐怖症改善システム10は、恐怖対象物体を見た被験者の行動(例えば身体または手足の動き)に基づいて恐怖対象物体の表示対象を変更したが、本変形例では、恐怖症改善システム10は、恐怖対象物体を見た被験者の視線に基づいて恐怖対象物体の表示対象を変更する。
具体的には、ARグラス12の状態検出部44は、表示制御部42により恐怖対象物体のAR画像が表示された際の被験者の視線(視線方向とも言える)を検出する。センサ部20は、被験者の瞳を撮影するアイカメラを備えてもよい。状態検出部44は、公知のアイトラッキング技術等を用いて、カメラ14による撮影画像またはアイカメラによる撮影画像に基づいて、被験者の視線を検出してもよい。
表示制御部42は、恐怖対象物体のAR画像が表示された際の被験者の視線に基づいて、恐怖対象物体のAR画像の表示態様を変更する。例えば、表示制御部42は、被験者の視線が恐怖対象物体のAR画像にとどまる場合であり、すなわち、被験者が恐怖対象物体を見つめ続ける場合に、恐怖対象物体のAR画像の表示態様を変更する。被験者の視線が恐怖対象物体のAR画像にとどまることは、被験者の視線方向が恐怖対象物体のAR画像を向いた状態が所定時間以上(例えば5秒以上)維持されることであってもよい。
また、恐怖対象物体のAR画像の表示態様を変更することは、恐怖対象物体のAR画像を動かすことでもよく、消去することでもよい。また、恐怖対象物体のAR画像の表示態様を変更することは、表示させる恐怖対象物体の個数を増加させ、または、恐怖対象物体の出現頻度や表示コントラスト、輝度を高めることにより、訓練強度を高めることでもよい。
第1変形例の恐怖症改善システム10(ARグラス12)は、第2実施形態の恐怖症改善システム10(ARグラス12)と同様の効果を奏する。例えば、第1変形例の恐怖症改善システム10は、恐怖症改善訓練の中で被験者の視線に応じて恐怖対象物体の表示態様を変更することにより、現実性の高い訓練を実現でき、また、恐怖症の克服を効果的に支援できる。
第2実施形態の第2変形例を説明する。第2実施形態の恐怖症改善システム10は、恐怖対象物体を見た被験者の行動(例えば身体または手足の動き)に基づいて恐怖対象物体の表示対象を変更したが、本変形例では、恐怖症改善システム10は、恐怖対象物体を見た被験者の表情に基づいて恐怖対象物体の表示対象を変更する。
具体的には、ARグラス12の状態検出部44は、表示制御部42により恐怖対象物体のAR画像が表示された際の被験者の表情(表情の種類とも言える)を検出する。被験者の表情は、例えば、睨みつける表情、穏やかな表情、怯えた表情(言い換えれば恐怖の表情)等、複数種類の表情を含む。状態検出部44は、予め定められた複数種類の表情のテンプレート画像を記憶してもよい。状態検出部44は、カメラ14による撮影画像に映る被験者の顔と、複数種類の表情のテンプレート画像とを比較することにより、被験者の顔の表情を検出してもよい。または、状態検出部44は、公知の表情認識技術を用いて、被験者の顔の表情を検出してもよい。
表示制御部42は、恐怖対象物体のAR画像が表示された際の被験者の表情(表情の種類とも言える)に基づいて、恐怖対象物体のAR画像の表示態様を変更する。例えば、表示制御部42は、被験者の表情が怯えた表情に該当しない場合であり、言い換えれば、被験者の表情が怯えた表情以外の表情であると検出された場合に、恐怖対象物体のAR画像の表示態様を変更する。または、表示制御部42は、被験者の表情が睨みつける表情または穏やかな表情であると検出された場合に、恐怖対象物体のAR画像の表示態様を変更してもよい。
また、恐怖対象物体のAR画像の表示態様を変更することは、恐怖対象物体のAR画像を動かすことでもよく、消去することでもよい。また、恐怖対象物体のAR画像の表示態様を変更することは、表示させる恐怖対象物体の個数を増加させ、または、恐怖対象物体の出現頻度や表示コントラスト、輝度を高めることにより、訓練強度を高めることでもよい。
第2変形例の恐怖症改善システム10(ARグラス12)は、第2実施形態の恐怖症改善システム10(ARグラス12)と同様の効果を奏する。例えば、第2変形例の恐怖症改善システム10は、恐怖症改善訓練の中で被験者の表情に応じて恐怖対象物体の表示態様を変更することにより、現実性の高い訓練を実現でき、また、恐怖症の克服を効果的に支援できる。
第2実施形態の第3変形例を説明する。第2実施形態の恐怖症改善システム10は、恐怖対象物体を見た被験者の行動(例えば身体または手足の動き)に基づいて恐怖対象物体の表示対象を変更したが、本変形例では、恐怖症改善システム10は、恐怖対象物体を見た被験者が発した音声(言い換えれば発声)に基づいて恐怖対象物体の表示対象を変更する。
具体的には、ARグラス12の状態検出部44は、表示制御部42により恐怖対象物体のAR画像が表示された際に被験者が発した音声(具体的には音声の内容の種類)を検出する。被験者が発する音声は、攻撃的音声、驚きを示す音声、怯えを示す音声等、複数種類の音声を含む。攻撃的音声は、威嚇する内容を含む音声であってもよく、罵声を含む音声であってもよい。状態検出部44は、予め定められた複数種類の音声のテンプレートデータを記憶してもよい。状態検出部44は、センサ部20のマイクにより取得された、被験者が発した音声と、複数種類の音声のテンプレートデータとを比較することにより、被験者が発した音声の種類を検出してもよい。または、状態検出部44は、公知の音声認識技術を用いて、被験者が発した音声の種類を検出してもよい。
表示制御部42は、恐怖対象物体のAR画像が表示された際に被験者が発した音声(音声の種類とも言える)に基づいて、恐怖対象物体のAR画像の表示態様を変更する。例えば、表示制御部42は、被験者が発した音声が攻撃的音声に該当する場合に、恐怖対象物体のAR画像の表示態様を変更する。
また、恐怖対象物体のAR画像の表示態様を変更することは、恐怖対象物体のAR画像を動かすことでもよく、消去することでもよい。また、恐怖対象物体のAR画像の表示態様を変更することは、表示させる恐怖対象物体の個数を増加させ、または、恐怖対象物体の出現頻度や表示コントラスト、輝度を高めることにより、訓練強度を高めることでもよい。
第3変形例の恐怖症改善システム10(ARグラス12)は、第2実施形態の恐怖症改善システム10(ARグラス12)と同様の効果を奏する。例えば、第3変形例の恐怖症改善システム10は、恐怖症改善訓練の中で被験者が発した音声に応じて恐怖対象物体の表示態様を変更することにより、現実性の高い訓練を実現でき、また、恐怖症の克服を効果的に支援できる。
第4変形例として、条件記憶部34に記憶される恐怖対象物体の表示変更条件は、被験者の行動に加えて、被験者の生体情報の変化を含んでもよい。例えば、判定部48は、被験者の身体動作が撃退行動に該当し、かつ、被験者の生体情報の変化が条件を満たす場合(例えば被験者の心拍数が条件が定める閾値未満の場合)、恐怖対象物体の表示変更条件を満たすと判定してもよい。なお、第1変形例とも組み合わせ可能である。条件記憶部34に記憶される恐怖対象物体の表示変更条件は、被験者の視線に加えて、被験者の生体情報の変化を含んでもよい。例えば、判定部48は、被験者の視線が恐怖対象物体にとどまり、かつ、被験者の生体情報の変化が条件を満たす場合、恐怖対象物体の表示変更条件を満たすと判定してもよい。
また、第2変形例とも組み合わせ可能である。条件記憶部34に記憶される恐怖対象物体の表示変更条件は、被験者の表情に加えて、被験者の生体情報の変化を含んでもよい。例えば、判定部48は、被験者の表情が怯えが表情に該当せず、かつ、被験者の生体情報の変化が条件を満たす場合、恐怖対象物体の表示変更条件を満たすと判定してもよい。また、第3変形例とも組み合わせ可能である。条件記憶部34に記憶される恐怖対象物体の表示変更条件は、被験者が発した音声に加えて、被験者の生体情報の変化を含んでもよい。例えば、判定部48は、被験者が発した音声が攻撃的音声に該当し、かつ、被験者の生体情報の変化が条件を満たす場合、恐怖対象物体の表示変更条件を満たすと判定してもよい。
第5変形例として、ARグラス12の表示制御部42は、恐怖対象物体のAR画像をARグラス12に表示させることに代えて、火のAR画像をARグラス12に表示させてもよい。ARグラス12の判定部48は、ステップS22において検出された被験者の身体行動が消火行動に該当するか否かを判定してもよい。表示制御部42は、被験者の身体行動が消火行動に該当する場合、火のAR画像を消去してもよい。この変形例によると、ARグラス12を消火訓練に活用できる。
<第3実施形態>
第3実施形態では、第1実施形態と相違する点を中心に説明し、共通する点の説明を省略する。第3実施形態の特徴は、第1実施形態の特徴、第2実施形態の特徴、および変形例の特徴と任意の組合せが可能であることはもちろんである。
図6は、第3実施形態の恐怖症改善システム10の構成を示す。第3実施形態の恐怖症改善システム10は、ARグラス12とカメラ14に加えて、専門家装置18をさらに備える。ARグラス12は、通信網16を介して専門家装置18と通信する。
専門家装置18は、恐怖症改善訓練の専門家や、恐怖症改善訓練の結果を診断する専門家により操作される情報処理装置である。専門家は、例えば、心理カウンセラーや臨床心理士であってもよい。専門家装置18は、コンピュータ、タブレット端末またはスマートフォンであってもよい。
図7は、第3実施形態のARグラス12の機能ブロックを示すブロック図である。第3実施形態のARグラス12は、第1実施形態のARグラス12と同様の機能ブロックを備え、さらに、訓練結果記憶部36、訓練結果送信部50、診断結果受付部52、匿名化部54を備える。
訓練結果記憶部36は、恐怖症改善訓練の結果に関するデータである訓練結果データを記憶する。訓練結果データは、恐怖対象物体の情報(画像等)を含む。また、訓練結果データは、恐怖症改善訓練の中で検出された被験者の状態に関する情報(身体行動や生体情報等)を含む。恐怖症改善訓練において検出された被験者の状態は、状態検出部44により検出された、恐怖対象物体を見た被験者の状態とも言える。さらにまた、訓練結果データは、カメラ14により撮影された撮影画像であり、被験者が映る撮影画像を含む。
訓練結果送信部50は、状態検出部44により検出された、恐怖対象物体のAR画像を見た被験者の状態に関するデータを含む訓練結果データを専門家装置18へ送信する。被験者の状態に関するデータは、例えば、第2実施形態に記載した被験者の身体や手足の動き、第2実施形態の第1変形例に記載した被験者の視線(視線方向)、第2実施形態の第2変形例に記載した被験者の表情、第2実施形態の第3変形例に記載した被験者が発した音声のうち少なくとも1つを含んでもよい。診断結果受付部52は、恐怖対象物体のAR画像を見た被験者の状態に関する診断の結果を示す診断結果データを受け付ける。診断の結果は、例えば、恐怖症克服のためのアドバイスや治療方法の紹介等を含む。
匿名化部54は、訓練結果データに対して匿名化処理を施すことにより、被験者個人を特定できないように訓練結果データを変換する。例えば、匿名化部54は、公知の手法を用いて、訓練結果データに含まれる撮影画像から被験者の顔を自動認識し、被験者の顔にぼかしやモザイクをかけてもよい。第3実施形態では、訓練結果送信部50は、匿名化部54により匿名化された訓練結果データを専門家装置18へ送信する。
図8は、第3実施形態のARグラス12の動作を示すフローチャートである。図8は、恐怖症改善訓練の結果の分析を支援する動作を示している。なお、第3実施形態のARグラス12が実行する恐怖症改善訓練の処理は、図4に示した第1実施形態のARグラス12の処理と同様であってもよく、図5に示した第2実施形態のARグラス12の処理と同様であってもよい。
ARグラス12の訓練結果記憶部36は、状態検出部44により検出された、恐怖対象物体のAR画像を見た被験者の状態に関するデータを含む訓練結果データを逐次記憶する(ステップS40)。匿名化部54は、訓練結果記憶部36に記憶された訓練結果データを匿名化する(ステップS41)。訓練結果送信部50は、匿名化された訓練結果データを専門家装置18へ送信する(ステップS42)。
心理カウンセラー等の専門家は、ARグラス12から送信された匿名化された訓練結果データをもとに被験者の恐怖症を診断する。専門家装置18は、専門家の操作に応じて、診断結果データをARグラス12へ送信する。ARグラス12の診断結果受付部52は、専門家装置18から送信された診断結果データを受け付ける(ステップS43)。表示制御部42は、診断結果データが示す専門家による診断結果を表示部22に表示させる(ステップS44)。
変形例として、専門家装置18は、被験者により予め登録された、ARグラス12とは異なる被験者の情報端末(例えばスマートフォン等)に診断結果データを送信してもよい。情報端末は、被験者の操作に応じて、診断結果を画面に表示させてもよい。
第3実施形態の恐怖症改善システム10(ARグラス12)は、第1実施形態の恐怖症改善システム10(ARグラス12)が奏する効果に加えて、以下の効果を奏する、すなわち、第3実施形態の恐怖症改善システム10によると、被験者による恐怖症改善訓練の結果に対する専門家による診断結果を被験者に提供でき、被験者の恐怖症の改善を一層効果的に支援できる。
以上、本発明を第1実施形態~第3実施形態をもとに説明した。各実施形態に記載の内容は例示であり、各実施形態の構成要素や処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
各実施形態に適用可能な変形例を説明する。各実施形態の恐怖症改善システム10では、恐怖対象物体を被験者に提示する手段としてARグラス12を用いたが、ARグラス12に代えて他の装置を用いてもよい。例えば、恐怖症改善システム10は、ARグラス12に代えて、ヘッドマウントディスプレイ、コンピュータと表示装置、タブレット端末またはスマートフォンを備えてもよい。ヘッドマウントディスプレイは、完全没入型であってもよく、ビデオシースルー型であってもよい。
各実施形態に適用可能な別の変形例を説明する。各実施形態でARグラス12が備えた複数の機能ブロックは、ARグラス12、および、ARグラス12とは異なる情報処理装置に分散して実装されてもよい。この場合、ARグラス12と情報処理装置とが通信し、システムとして連携することにより、各実施形態のARグラス12と同様の処理が実行されてもよい。
例えば、恐怖症改善システム10は、ARグラス12と、ARグラス12とは異なる情報処理装置を備えてもよい。情報処理装置の表示制御部は、被験者が恐れを抱く対象の候補としての複数の物体の画像をARグラス12の表示部に表示させてもよい。情報処理装置の状態検出部44は、複数の物体それぞれの画像を見た被験者の状態を検出してもよい。情報処理装置の対象検出部は、検出された被験者の状態に基づいて、複数の物体の中から被験者が恐れを抱く対象を検出してもよい。
上述した実施形態および変形例の任意の組み合わせもまた本発明の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる実施形態および変形例それぞれの効果をあわせもつ。また、請求項に記載の各構成要件が果たすべき機能は、実施形態および変形例において示された各構成要素の単体もしくはそれらの連携によって実現されることも当業者には理解されるところである。
本開示は、SDGs(Sustainable Development Goals:持続可能な開発目標)の「すべての人に健康と福祉を」の実現に貢献し、ヘルスケア製品・サービスによる価値創出に寄与する事項を含む。
10 恐怖症改善システム、 12 ARグラス、 14 カメラ、 18 専門家装置、 22 表示部、 42 表示制御部、 44 状態検出部、 46 対象検出部、 50 訓練結果送信部、 52 診断結果受付部。

Claims (4)

  1. 被験者が恐れを抱く対象の候補としての複数の物体の画像を表示部に表示させる表示制御部と、
    前記複数の物体それぞれの画像を見た前記被験者の状態を検出する状態検出部と、
    前記状態検出部により検出された前記被験者の状態に基づいて、前記複数の物体の中から前記被験者が恐れを抱く対象を検出する対象検出部と、
    を備え、
    前記表示制御部は、前記対象検出部により検出された前記対象の画像を前記表示部に表示させ、
    前記状態検出部は、前記対象の画像が表示された際に前記被験者が発した音声を検出し、
    前記表示制御部は、前記対象の画像が表示された際に前記被験者が発した音声に基づいて、前記対象の画像の表示態様を変更する、
    情報処理装置。
  2. 前記表示制御部は、前記被験者が発した音声が攻撃的音声に該当する場合に、前記対象の画像の表示態様を変更する、
    請求項1に記載の情報処理装置。
  3. 前記状態検出部により検出された、前記対象の画像を見た前記被験者の状態に関するデータを外部装置へ送信する訓練結果送信部と、
    外部装置から送信された、前記対象の画像を見た前記被験者の状態に関する診断の結果を受け付ける診断結果受付部と、をさらに備える、
    請求項1または2に記載の情報処理装置。
  4. 被験者が恐れを抱く対象の候補としての複数の物体の画像を表示部に表示させるステップと、
    前記複数の物体それぞれの画像を見た前記被験者の状態を検出するステップと、
    検出された前記被験者の状態に基づいて、前記複数の物体の中から前記被験者が恐れを抱く対象を検出するステップと、
    検出された前記対象の画像を前記表示部に表示させるステップと、
    前記対象の画像が表示された際に前記被験者が発した音声を検出するステップと、
    前記対象の画像が表示された際に前記被験者が発した音声に基づいて、前記対象の画像の表示態様を変更するステップと、
    をコンピュータが実行する恐怖症改善支援方法。
JP2022152201A 2022-09-26 2022-09-26 情報処理装置および恐怖症改善支援方法 Pending JP2024046867A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022152201A JP2024046867A (ja) 2022-09-26 2022-09-26 情報処理装置および恐怖症改善支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022152201A JP2024046867A (ja) 2022-09-26 2022-09-26 情報処理装置および恐怖症改善支援方法

Publications (1)

Publication Number Publication Date
JP2024046867A true JP2024046867A (ja) 2024-04-05

Family

ID=90527476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022152201A Pending JP2024046867A (ja) 2022-09-26 2022-09-26 情報処理装置および恐怖症改善支援方法

Country Status (1)

Country Link
JP (1) JP2024046867A (ja)

Similar Documents

Publication Publication Date Title
US20180189568A1 (en) Automatic control of wearable display device based on external conditions
KR20190095671A (ko) 사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 및 이를 이용한 사용자 상태 표시 방법 및 콘텐츠 관리 방법
JP2005237561A (ja) 情報処理装置及び方法
US11782508B2 (en) Creation of optimal working, learning, and resting environments on electronic devices
JP7107302B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US11417045B2 (en) Dialog-based testing using avatar virtual assistant
EP4161387B1 (en) Sound-based attentive state assessment
JP2024046867A (ja) 情報処理装置および恐怖症改善支援方法
JP2024046865A (ja) 情報処理装置および恐怖症改善支援方法
JP2024046866A (ja) 情報処理装置および恐怖症改善支援方法
JP2024046864A (ja) 情報処理装置および恐怖症改善支援方法
CN108563322B (zh) Vr/ar设备的控制方法和装置
US20240115831A1 (en) Enhanced meditation experience based on bio-feedback
US20240164672A1 (en) Stress detection
KR102564202B1 (ko) 사용자의 스트레스 완화를 위해 상호작용하는 가상동물을 제공하는 전자장치 및 이의 제어방법
US20230259203A1 (en) Eye-gaze based biofeedback
US20240164677A1 (en) Attention detection
JP2018163617A (ja) 情報処理装置を用いた仮想現実システムにおける視線認識を用いたコンテンツ管理方法およびプログラムと仮想現実システム装置
CN117120958A (zh) 压力检测
Qian1Ε et al. An eye tracking based virtual reality system for use inside magnetic resonance imaging systems
WO2023114079A1 (en) User interactions and eye tracking with text embedded elements
CN117677345A (zh) 基于生物反馈的增强型冥想体验
WO2023049089A1 (en) Interaction events based on physiological response to illumination
CN117677338A (zh) 用于表征视觉能力的虚拟现实技术
KR20190101336A (ko) 사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 시스템