JP2024046864A - Information processing device and phobia improvement support method - Google Patents

Information processing device and phobia improvement support method Download PDF

Info

Publication number
JP2024046864A
JP2024046864A JP2022152198A JP2022152198A JP2024046864A JP 2024046864 A JP2024046864 A JP 2024046864A JP 2022152198 A JP2022152198 A JP 2022152198A JP 2022152198 A JP2022152198 A JP 2022152198A JP 2024046864 A JP2024046864 A JP 2024046864A
Authority
JP
Japan
Prior art keywords
subject
unit
phobia
glasses
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022152198A
Other languages
Japanese (ja)
Inventor
晶子 坂口
Shoko Sakaguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2022152198A priority Critical patent/JP2024046864A/en
Publication of JP2024046864A publication Critical patent/JP2024046864A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

To provide a technique that supports effective improvement of a phobia.SOLUTION: A subject wears AR (Augmented Reality) glasses 12. The AR glasses 12 cause a display unit to display AR images of a plurality of objects that are candidates for a target that the subject is afraid of. The AR glasses 12 detect the state of the subject who views the AR images of the plurality of objects. The AR glasses 12 detect the target that the subject is afraid of from among the plurality of objects, on the basis of the detected state of the subject.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置および恐怖症改善支援方法に関する。 The present invention relates to an information processing device and a method for supporting improvement of phobias.

パニック症等の恐怖症を持つ患者の身体状況に応じてトレーニング画像の情報量を自動的に変化させ、情報量を変化させたトレーニング画像に患者を曝露することにより恐怖症の治療を支援する精神疾患治療支援装置が提案されている(例えば、特許文献1参照)。 A mental illness treatment support device has been proposed that automatically changes the amount of information in training images according to the physical condition of a patient with a phobia such as panic disorder, and supports the treatment of the phobia by exposing the patient to training images with a changed amount of information (see, for example, Patent Document 1).

特開2010-279737号公報JP 2010-279737 A

被験者の恐怖症を効果的に改善するためには、被験者が恐れを抱く対象を正しく把握する必要があるが、被験者が恐れを抱く対象を正しく把握することを支援する技術はこれまで十分に提案されていなかった。 To effectively alleviate a subject's phobia, it is necessary to correctly identify the object that the subject is afraid of, but until now, no technology has been proposed to help subjects correctly identify the object that they are afraid of.

本発明はこうした課題に鑑みてなされたものであり、その目的は、恐怖症の効果的な改善を支援する技術を提供することである。 The present invention was made in consideration of these problems, and its purpose is to provide technology that helps effectively improve phobias.

上記課題を解決するために、本発明のある態様の情報処理装置は、被験者が恐れを抱く対象の候補としての複数の物体の画像を表示部に表示させる表示制御部と、複数の物体それぞれの画像を見た被験者の状態を検出する状態検出部と、状態検出部により検出された被験者の状態に基づいて、複数の物体の中から被験者が恐れを抱く対象を検出する対象検出部とを備える。 In order to solve the above problem, an information processing device according to one aspect of the present invention includes a display control unit that causes a display unit to display images of a plurality of objects as candidates for objects that the subject may fear, a state detection unit that detects the state of the subject when viewing the images of each of the plurality of objects, and an object detection unit that detects the object that the subject may fear from among the plurality of objects based on the state of the subject detected by the state detection unit.

本発明の別の態様は、恐怖症改善支援方法である。この方法は、被験者が恐れを抱く対象の候補としての複数の物体の画像を表示部に表示させるステップと、複数の物体それぞれの画像を見た被験者の状態を検出するステップと、検出された被験者の状態に基づいて、複数の物体の中から被験者が恐れを抱く対象を検出するステップとをコンピュータが実行する。 Another aspect of the present invention is a method for supporting improvement of phobias. In this method, a computer executes the steps of displaying images of a plurality of objects as candidates for objects that the subject is afraid of on a display unit, detecting the state of the subject who has viewed the images of each of the plurality of objects, and detecting the object that the subject is afraid of from among the plurality of objects based on the detected state of the subject.

なお、以上の構成要素の任意の組合せ、本発明の表現をシステム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で変換したものもまた、本発明の態様として有効である。 In addition, any combination of the above components, and conversions of the present invention between a system, a computer program, a recording medium storing a computer program, etc. are also valid aspects of the present invention.

本発明によれば、恐怖症の効果的な改善を支援できる。 The present invention can help effectively improve phobias.

第1実施形態の恐怖症改善システムの構成を示す図である。1 is a diagram showing a configuration of a phobia alleviation system according to a first embodiment; 第1実施形態のARグラスの機能ブロックを示すブロック図である。FIG. 2 is a block diagram showing functional blocks of the AR glasses according to the first embodiment. 第1実施形態のARグラスの動作を示すフローチャートである。4 is a flowchart showing the operation of the AR glasses of the first embodiment. 第1実施形態のARグラスの動作を示すフローチャートである。4 is a flowchart showing the operation of the AR glasses of the first embodiment. 第2実施形態のARグラスの動作を示すフローチャートである。10 is a flowchart showing the operation of the AR glasses of the second embodiment. 第3実施形態の恐怖症改善システムの構成を示す図である。FIG. 13 is a diagram showing the configuration of a phobia alleviation system according to a third embodiment. 第3実施形態のARグラスの機能ブロックを示すブロック図である。FIG. 11 is a block diagram showing functional blocks of AR glasses according to a third embodiment. 第3実施形態のARグラスの動作を示すフローチャートである。13 is a flowchart showing the operation of the AR glasses of the third embodiment.

本発明に係る実施形態の概要を説明する。実施形態では、拡張現実(AR:Augmented Reality)技術を用いて、被験者の恐怖症の改善を支援する恐怖症改善システムを提案する。実施形態の恐怖症改善システムは、被験者の周囲のランダムな場所かつランダムな時間に、被験者が恐れを抱く対象を、ARグラスを用いて仮想的に表示する恐怖症改善訓練を提供する。恐怖症改善訓練は、被験者が持つ恐怖症の改善を支援する訓練である。また、被験者が恐れを抱く対象には、生物を含む様々な物体が含まれうる。恐怖症改善訓練では、被験者が恐れを抱く対象として、特定の乗り物(例えば航空機の機体、電車や自動車の車両)自体の映像が表示されてもよく、また、座席から見た車両の空間を示す映像が表示されてもよい。実施形態の恐怖症改善システムは、PTSD(Post Traumatic Stress Disorder:心的外傷後ストレス障害)の治療に有用である。 An overview of an embodiment of the present invention will be described. In the embodiment, a phobia improvement system that uses augmented reality (AR) technology to support the improvement of a subject's phobia is proposed. The phobia improvement system of the embodiment provides phobia improvement training in which an object that the subject is afraid of is virtually displayed using AR glasses at a random place and at a random time around the subject. The phobia improvement training is training that supports the improvement of a phobia held by the subject. The object that the subject is afraid of may include various objects including living things. In the phobia improvement training, an image of a specific vehicle (e.g., an aircraft body, a train, or an automobile) itself may be displayed as the object that the subject is afraid of, or an image showing the space of the vehicle as seen from the seat may be displayed. The phobia improvement system of the embodiment is useful for treating PTSD (Post Traumatic Stress Disorder).

<第1実施形態>
図1は、第1実施形態の恐怖症改善システム10の構成を示す。恐怖症改善システム10は、ARグラス12とカメラ14が通信網16を介して接続される情報処理システムである。通信網16は、LAN、WAN、インターネット等、公知の通信手段を含む。ARグラス12とカメラ14は、無線通信または有線通信にて通信網16と接続される。
First Embodiment
1 shows the configuration of a phobia amelioration system 10 according to a first embodiment. The phobia amelioration system 10 is an information processing system in which AR glasses 12 and a camera 14 are connected via a communication network 16. The communication network 16 includes known communication means such as a LAN, a WAN, and the Internet. The AR glasses 12 and the camera 14 are connected to the communication network 16 by wireless communication or wired communication.

ARグラス12は、被験者の頭部に装着される眼鏡型のウェアラブルデバイスである。ARグラス12は、光学透過型のヘッドマウントディスプレイとも言え、被験者から見える現実の物体の上に重ねて仮想的なAR画像を表示する。ARグラス12は、コンピュータを含み、言い換えれば、情報処理装置を含む。 The AR glasses 12 are glasses-type wearable devices that are worn on the subject's head. The AR glasses 12 can also be considered an optically transmissive head-mounted display, and display a virtual AR image superimposed on a real object visible to the subject. The AR glasses 12 include a computer, in other words, an information processing device.

カメラ14は、被験者が存在する部屋の中を撮影する撮影装置である。被験者が存在する部屋は、恐怖症改善訓練が行われる部屋であり、典型的には被験者宅内の部屋である。カメラ14は、画角内の空間が映る撮影画像を、通信網16を介してARグラス12へ送信する。撮影画像は、動画像(映像)であってもよく、静止画像であってもよい。 The camera 14 is a photographing device that photographs the inside of the room in which the subject is present. The room in which the subject is present is the room in which phobia improvement training is conducted, and is typically a room in the subject's home. The camera 14 transmits the photographed image showing the space within the field of view to the AR glasses 12 via the communication network 16. The photographed image may be a moving image (video) or a still image.

図2は、第1実施形態のARグラス12の機能ブロックを示すブロック図である。本明細書のブロック図で示す各ブロックは、ハードウェア的には、コンピュータのプロセッサ、CPU、メモリをはじめとする素子や電子回路、機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。 Figure 2 is a block diagram showing the functional blocks of the AR glasses 12 of the first embodiment. Each block shown in the block diagram in this specification can be realized in hardware terms by elements such as a computer processor, CPU, and memory, electronic circuits, and mechanical devices, and in software terms by computer programs, etc., but here we depict functional blocks realized by the cooperation of these. Therefore, it will be understood by those skilled in the art that these functional blocks can be realized in various ways by combining hardware and software.

ARグラス12は、センサ部20、表示部22、通信部24、データ処理部26および記憶部28を備える。 The AR glasses 12 include a sensor unit 20, a display unit 22, a communication unit 24, a data processing unit 26, and a memory unit 28.

センサ部20は、ARグラス12を装着したユーザの状態をセンシングする。センサ部20は、被験者の生体情報に関する所定の物理量を検知し、検知した物理量を示す信号をデータ処理部26に入力する。例えば、センサ部20は、被験者の心拍数を検知するセンサを含んでもよい。また、センサ部20は、光を用いて被験者の血流を検知する血流センサを含んでもよい。また、センサ部20は、ARグラス12とは別個の装置であってもよい。例えば、センサ部20は、被験者の手首に装着されるリストバンド型の装置であってもよい。 The sensor unit 20 senses the state of the user wearing the AR glasses 12. The sensor unit 20 detects a predetermined physical quantity related to the subject's biometric information, and inputs a signal indicating the detected physical quantity to the data processing unit 26. For example, the sensor unit 20 may include a sensor that detects the subject's heart rate. The sensor unit 20 may also include a blood flow sensor that uses light to detect the subject's blood flow. The sensor unit 20 may also be a device separate from the AR glasses 12. For example, the sensor unit 20 may be a wristband-type device that is worn on the subject's wrist.

また、センサ部20は、カメラ(以下「内蔵カメラ」と呼ぶ。)を含む。内蔵カメラは、被験者の視線方向の空間を撮影し、被験者の視線方向の空間が映る撮影画像(映像等)をデータ処理部26へ出力する。また、センサ部20は、マイクを含む。マイクは、被験者が発した音声を検出し、その音声のデータをデータ処理部26へ出力する。 The sensor unit 20 also includes a camera (hereinafter referred to as the "built-in camera"). The built-in camera captures an image of the space in the subject's line of sight, and outputs the captured image (video, etc.) showing the space in the subject's line of sight to the data processing unit 26. The sensor unit 20 also includes a microphone. The microphone detects the sound made by the subject, and outputs data of the sound to the data processing unit 26.

表示部22は、眼鏡のレンズにあたる部分を構成し、被験者の視線方向から入る光を透過する。表示部22は、被験者が見る現実空間の上にAR画像を重ねて表示する。通信部24は、所定の通信プロトコルにしたがって外部装置と通信する。データ処理部26は、恐怖症改善訓練に関する各種データ処理を実行する。データ処理部26は、通信部24を介してカメラ14とデータを送受信する。 The display unit 22 constitutes the portion equivalent to the lens of glasses, and transmits light entering from the direction of the subject's line of sight. The display unit 22 displays an AR image superimposed on the real space seen by the subject. The communication unit 24 communicates with an external device according to a predetermined communication protocol. The data processing unit 26 executes various data processing related to phobia improvement training. The data processing unit 26 transmits and receives data to and from the camera 14 via the communication unit 24.

記憶部28は、データ処理部26により参照または更新されるデータを記憶する。記憶部28は、マーカー記憶部30、物体画像記憶部32および条件記憶部34を備える。 The memory unit 28 stores data that is referenced or updated by the data processing unit 26. The memory unit 28 includes a marker memory unit 30, an object image memory unit 32, and a condition memory unit 34.

マーカー記憶部30は、被験者が恐れを抱く対象の物体(以下「恐怖対象物体」とも呼ぶ。)または、その候補としての物体(以下「候補物体」とも呼ぶ。)を登場させる部屋の箇所をマーカーとして設定し、複数のマーカーに関する情報を記憶する。マーカーは、例えば天井、壁、棚の上など、部屋における特定の位置に設定される。マーカーに関する情報は、マーカーが設定された部屋の箇所の外観の情報や、マーカーが設定された部屋の位置を示す情報(AR空間における座標値等)を含んでもよい。 The marker memory unit 30 sets as markers locations in a room where an object that the subject is afraid of (hereinafter also referred to as a "fear object") or a candidate object for such an object (hereinafter also referred to as a "candidate object") appears, and stores information about a plurality of markers. The markers are set at specific locations in the room, such as on the ceiling, wall, or shelf. The information about the marker may include information about the appearance of the location in the room where the marker is set, and information indicating the location of the room where the marker is set (such as coordinate values in the AR space).

物体画像記憶部32は、複数の候補物体(被験者の恐怖対象物体を含む)の外観を示す画像を記憶する。条件記憶部34は、恐怖症改善支援の処理における各種条件を記憶する。条件記憶部34に記憶される条件は、恐怖対象物体を検出するための条件(以下「恐怖対象検出条件」とも呼ぶ。)と、恐怖対象物体に対する恐怖が克服されたことを判定する条件(以下「恐怖克服条件」とも呼ぶ。)を含む。条件は、複数の判定項目に関して予め定められた閾値を含んでもよい。 The object image memory unit 32 stores images showing the appearance of multiple candidate objects (including the subject's feared object). The condition memory unit 34 stores various conditions for the phobia improvement support process. The conditions stored in the condition memory unit 34 include conditions for detecting a feared object (hereinafter also referred to as "feared object detection conditions") and conditions for determining whether the fear of the feared object has been overcome (hereinafter also referred to as "fear overcoming conditions"). The conditions may include predetermined thresholds for multiple judgment items.

恐怖対象検出条件は、(1)被験者の身体動作とその変化の条件、(2)被験者の生体情報とその変化の条件、(3)被験者が発した音声とその変化の条件のうち少なくとも1つを含んでもよい。被験者の身体動作は、恐怖対象物体への反応行動とも言え、例えば、目の瞬き、視線変化、首の動きのうち少なくとも1つを含んでもよい。被験者の生体情報は、被験者の心拍数、血圧、血流量、発汗量のうち少なくとも1つを含んでもよい。 The feared object detection conditions may include at least one of the following: (1) the subject's physical movements and changes therein; (2) the subject's biometric information and changes therein; and (3) the subject's voice and changes therein. The subject's physical movements can be considered as reactive behavior to the feared object, and may include, for example, at least one of eye blinking, a change in line of sight, and neck movement. The subject's biometric information may include at least one of the subject's heart rate, blood pressure, blood flow, and sweat rate.

恐怖克服条件も、恐怖対象検出条件と同様に、(1)被験者の身体動作とその変化の条件、(2)被験者の生体情報とその変化の条件、(3)被験者が発した音声とその変化の条件のうち少なくとも1つを含んでもよい。また、実施形態の恐怖症改善訓練には複数段階の強度が設けられ、恐怖克服条件は強度ごとの条件が定められる。 The fear overcoming conditions, like the fear object detection conditions, may include at least one of the following: (1) conditions for the subject's body movements and changes therein, (2) conditions for the subject's biometric information and changes therein, and (3) conditions for the subject's voice and changes therein. In addition, the phobia improvement training of the embodiment has multiple levels of intensity, and the fear overcoming conditions are set for each level of intensity.

データ処理部26は、マーカー登録部40、表示制御部42、状態検出部44、対象検出部46、判定部48を含む。これら複数の機能ブロックの機能は、コンピュータプログラムに実装されてもよい。このコンピュータプログラムは、記録媒体またはネットワークを介して、ARグラス12のストレージにインストールされてもよい。ARグラス12のプロセッサ(CPU等)は、このコンピュータプログラムをメインメモリに読み出して実行することにより、上記複数の機能ブロックの機能を発揮してもよい。 The data processing unit 26 includes a marker registration unit 40, a display control unit 42, a state detection unit 44, a target detection unit 46, and a judgment unit 48. The functions of these multiple functional blocks may be implemented in a computer program. This computer program may be installed in the storage of the AR glasses 12 via a recording medium or a network. The processor (CPU, etc.) of the AR glasses 12 may perform the functions of the above multiple functional blocks by reading this computer program into main memory and executing it.

マーカー登録部40は、センサ部20の内蔵カメラから出力された、被験者が存在する部屋が映る撮影画像と、予め定められたマーカー設定規則に基づいて、部屋における複数のマーカーを特定する。マーカー登録部40は、特定した複数のマーカーに関する情報をマーカー記憶部30に格納する。変形例として、マーカー登録部40は、部屋に設置されたカメラ14から出力された撮影画像に基づいてマーカーを特定してもよい。 The marker registration unit 40 identifies multiple markers in the room based on a captured image of the room in which the subject is present, output from the built-in camera of the sensor unit 20, and on predetermined marker setting rules. The marker registration unit 40 stores information about the identified multiple markers in the marker storage unit 30. As a variant, the marker registration unit 40 may identify markers based on a captured image output from a camera 14 installed in the room.

表示制御部42は、複数の候補物体のAR画像を表示部22に表示させる。また、表示制御部42は、対象検出部46により検出された恐怖対象物体のAR画像を表示部22に表示させる。候補物体のAR画像および恐怖対象物体のAR画像は、CG(Computer Graphics)映像であってもよい。 The display control unit 42 causes the display unit 22 to display AR images of multiple candidate objects. The display control unit 42 also causes the display unit 22 to display AR images of the fear object detected by the target detection unit 46. The AR images of the candidate objects and the AR images of the fear object may be CG (Computer Graphics) images.

状態検出部44は、複数の候補物体それぞれのAR画像を見た被験者の状態を検出する。また、状態検出部44は、恐怖対象物体のAR画像を見た被験者の状態を検出する。AR画像を見た被験者は、表示部22を介して、AR画像が提示された被験者とも言える。 The state detection unit 44 detects the state of the subject who has viewed the AR image of each of the multiple candidate objects. The state detection unit 44 also detects the state of the subject who has viewed the AR image of the fear object. The subject who has viewed the AR image can also be said to be a subject to whom the AR image has been presented via the display unit 22.

対象検出部46は、状態検出部44により検出された被験者の状態に基づいて、複数の候補物体の中から被験者にとっての恐怖対象物体を検出する。判定部48は、恐怖症改善支援における各種判定処理を実行する。 The target detection unit 46 detects an object that is a fear target for the subject from among multiple candidate objects based on the state of the subject detected by the state detection unit 44. The judgment unit 48 executes various judgment processes in phobia improvement support.

以上の構成による恐怖症改善システム10の動作を説明する。
図3は、第1実施形態のARグラス12の動作を示すフローチャートである。図3のフローチャートは、恐怖対象物体の登録に関する動作を示している。
The operation of the phobia alleviation system 10 having the above configuration will now be described.
Fig. 3 is a flowchart showing the operation of the AR glasses 12 according to the first embodiment. The flowchart in Fig. 3 shows the operation related to the registration of a fear object.

ARグラス12を装着した被験者は、ARグラス12を設定モードに設定し、恐怖症改善訓練を行う部屋を見まわす。ARグラス12のセンサ部20に含まれる内蔵カメラは、恐怖症改善訓練を行う部屋を撮影し、部屋に置かれた家具等が映る撮影画像を出力する。ARグラス12のマーカー登録部40は、内蔵カメラによる撮影画像に基づいて、恐怖症改善訓練を行う部屋における複数のマーカー(言い換えればAR物体の出現ポイント)を特定し、各マーカーの情報をマーカー記憶部30に格納する(ステップS10)。 The subject wearing the AR glasses 12 sets the AR glasses 12 to a setting mode and looks around the room where the phobia improvement training will be conducted. The built-in camera included in the sensor unit 20 of the AR glasses 12 photographs the room where the phobia improvement training will be conducted and outputs the captured image showing furniture and other items placed in the room. The marker registration unit 40 of the AR glasses 12 identifies multiple markers (in other words, appearance points of AR objects) in the room where the phobia improvement training will be conducted based on the image captured by the built-in camera, and stores information about each marker in the marker memory unit 30 (step S10).

ARグラス12の表示制御部42は、表示部22の表示内容を制御して、マーカー記憶部30に記憶されたマーカー情報が定める位置に、物体画像記憶部32に記憶された複数の候補物体のAR画像を順次切り替えて表示させる(ステップS11)。 The display control unit 42 of the AR glasses 12 controls the display content of the display unit 22 to sequentially switch and display AR images of multiple candidate objects stored in the object image storage unit 32 at the positions determined by the marker information stored in the marker storage unit 30 (step S11).

ARグラス12の状態検出部44は、複数の候補物体それぞれの表示時、各候補物体を見る被験者の状態を検出する(ステップS12)。具体的には、状態検出部44は、カメラ14から入力された撮影画像に基づいて、被験者の身体動作とその変化を検出する。また、状態検出部44は、センサ部20(例えば生体情報センサ)から入力された信号に基づいて、被験者の生体情報とその変化を検出する。状態検出部44は、センサ部20(例えばマイク)から入力された信号に基づいて、被験者が発した音声とその変化を検出する。以下、被験者の身体動作とその変化、被験者の生体情報とその変化、被験者が発した音声とその変化を総称して、単に「被験者の状態」とも呼ぶ。 The state detection unit 44 of the AR glasses 12 detects the state of the subject looking at each of the multiple candidate objects when they are displayed (step S12). Specifically, the state detection unit 44 detects the subject's body movements and changes therein based on the captured image input from the camera 14. The state detection unit 44 also detects the subject's biometric information and changes therein based on a signal input from the sensor unit 20 (e.g., a biometric information sensor). The state detection unit 44 detects the sound produced by the subject and changes therein based on a signal input from the sensor unit 20 (e.g., a microphone). Hereinafter, the subject's body movements and changes therein, the subject's biometric information and changes therein, and the subject's sound and changes therein are collectively referred to simply as the "state of the subject."

ARグラス12の対象検出部46は、各候補物体を見た際の被験者の状態と、条件記憶部34に記憶された恐怖対象検出条件とを比較する。対象検出部46は、或る候補物体を見た際の被験者の状態が恐怖対象検出条件を満たす場合、当該候補物体を被験者にとっての恐怖対象物体として検出する(ステップS13)。 The object detection unit 46 of the AR glasses 12 compares the state of the subject when viewing each candidate object with the fear object detection conditions stored in the condition storage unit 34. If the state of the subject when viewing a certain candidate object satisfies the fear object detection conditions, the object detection unit 46 detects the candidate object as a fear object for the subject (step S13).

例えば、対象検出部46は、或る候補物体を見た際の被験者の心拍数が、恐怖対象検出条件が定める心拍数閾値以上である場合、当該候補物体を被験者にとっての恐怖対象物体として検出してもよい。対象検出部46は、検出した恐怖対象物体を示す情報を記憶部28(例えば物体画像記憶部32)に格納してもよい。また、対象検出部46は、複数の恐怖対象物体を検出してもよい。なお、恐怖対象検出条件は、心拍数に代えて叫び声の大きさの条件を規定してもよく、心拍数および叫び声に関する条件を規定してもよい。 For example, if the subject's heart rate when viewing a candidate object is equal to or higher than a heart rate threshold defined by the fear object detection condition, the target detection unit 46 may detect the candidate object as a fear object for the subject. The target detection unit 46 may store information indicating the detected fear object in the memory unit 28 (e.g., the object image memory unit 32). The target detection unit 46 may also detect multiple fear objects. Note that the fear object detection condition may specify a condition on the volume of a scream instead of the heart rate, or may specify conditions related to the heart rate and the scream.

図4も、第1実施形態のARグラス12の動作を示すフローチャートである。図4のフローチャートは、恐怖症改善訓練に関する動作を示している。被験者が恐怖症改善訓練の開始指示をARグラス12に入力すると(ステップS20のYes)、ステップS21に進む。被験者が恐怖症改善訓練の開始指示を未入力であれば(ステップS20のNo)、ステップS21以降の処理をスキップし、図4の処理を終了する。 Figure 4 is also a flowchart showing the operation of the AR glasses 12 of the first embodiment. The flowchart in Figure 4 shows the operation related to phobia improvement training. When the subject inputs an instruction to start phobia improvement training into the AR glasses 12 (Yes in step S20), the process proceeds to step S21. If the subject has not input an instruction to start phobia improvement training (No in step S20), the process from step S21 onwards is skipped and the process in Figure 4 ends.

ステップS21において、ARグラス12の表示制御部42は、マーカー記憶部30に記憶されたマーカー情報が定める位置に、物体画像記憶部32に記憶された恐怖対象物体のAR画像を表示させる。訓練開始時の訓練強度は所定の強度から開始するようにして、後述するステップS21~S25のフローで強度を変更する。表示制御部42は、センサ部20(内蔵カメラ)による撮影画像に映る複数のマーカー位置を検出し、検出した複数のマーカー位置の中から特定のマーカー位置をランダムに選択し、ランダムな時間に恐怖対象物体を表示させてもよい。表示制御部42は、恐怖対象物体が当該物体にふさわしい態様で動作するよう恐怖対象物体のAR画像の表示を制御してもよい。例えば、恐怖対象物体が飛行可能な生物である場合、表示制御部42は、恐怖対象物体が被験者に向かって飛行するように、恐怖対象物体のAR画像の表示を制御してもよい。また、恐怖対象物体が自動車等の生物ではない場合は、部屋の家具等がない壁に優先的にAR画像の表示を制御してもよい。 In step S21, the display control unit 42 of the AR glasses 12 displays the AR image of the fear object stored in the object image storage unit 32 at a position determined by the marker information stored in the marker storage unit 30. The training intensity at the start of training is set to a predetermined intensity, and the intensity is changed in the flow of steps S21 to S25 described later. The display control unit 42 may detect multiple marker positions shown in the image captured by the sensor unit 20 (built-in camera), randomly select a specific marker position from the multiple detected marker positions, and display the fear object at a random time. The display control unit 42 may control the display of the AR image of the fear object so that the fear object behaves in a manner appropriate for the object. For example, if the fear object is a flying creature, the display control unit 42 may control the display of the AR image of the fear object so that the fear object flies toward the subject. In addition, if the fear object is not a living thing such as a car, the display of the AR image may be controlled preferentially on a wall in a room that does not have furniture.

ARグラス12の状態検出部44は、カメラ14から入力された撮影画像と、センサ部20から入力された信号に基づいて、恐怖対象物体を見た際の被験者の状態を検出する(ステップS22)。具体的には、ステップS22では、ステップS12と同様に、状態検出部44は、被験者の身体動作とその変化、被験者の生体情報とその変化、被験者が発した音声とその変化を検出する。 The state detection unit 44 of the AR glasses 12 detects the state of the subject when viewing the fearful object based on the captured image input from the camera 14 and the signal input from the sensor unit 20 (step S22). Specifically, in step S22, similar to step S12, the state detection unit 44 detects the subject's body movements and changes therein, the subject's biometric information and changes therein, and the sound made by the subject and changes therein.

ARグラス12の判定部48は、恐怖対象物体を見た際の被験者の状態が、恐怖克服条件を満たすか否かを判定する。例えば、判定部48は、恐怖対象物体を見た際の被験者の心拍数が恐怖克服条件が定める心拍数閾値未満である場合、恐怖克服条件を満たすと判定してもよい。恐怖克服条件を満たす場合(ステップS23のYes)、ステップS24に進む。恐怖克服条件を満たさない場合(ステップS23のNo)、ステップS21に戻り、表示制御部42は、現在の訓練強度での恐怖対象物体の表示を継続する。なお、恐怖克服条件は、心拍数に代えて叫び声の大きさの条件を規定してもよく、心拍数および叫び声に関する条件を規定してもよい。 The judgment unit 48 of the AR glasses 12 judges whether the state of the subject when viewing the fear object satisfies the fear overcoming condition. For example, the judgment unit 48 may judge that the fear overcoming condition is satisfied if the subject's heart rate when viewing the fear object is less than the heart rate threshold value set by the fear overcoming condition. If the fear overcoming condition is satisfied (Yes in step S23), the process proceeds to step S24. If the fear overcoming condition is not satisfied (No in step S23), the process returns to step S21, and the display control unit 42 continues to display the fear object at the current training intensity. Note that the fear overcoming condition may specify a condition on the volume of the scream instead of the heart rate, or may specify conditions related to the heart rate and the scream.

ステップS24において、表示制御部42は、訓練強度を上げ、また、被験者を応援する内容(例えば応援動画や応援メッセージ)を表示部22に表示させる。判定部48は、訓練強度が上限に達したか否かを判定し、また、訓練強度が予め定められた目標に到達したか否かを判定する。訓練強度が上限に達した、または、訓練強度が目標に到達した場合(ステップS25のYes)、表示制御部42は、恐怖症改善訓練を終了する(ステップS26)。なお、被験者の意志により恐怖症改善訓練を途中で終了できるように表示部22に訓練終了の操作を受け付ける操作釦等を設ける構成してもよい。 In step S24, the display control unit 42 increases the training intensity and causes the display unit 22 to display content cheering on the subject (e.g., a cheering video or a cheering message). The judgment unit 48 judges whether the training intensity has reached an upper limit, and whether the training intensity has reached a predetermined target. If the training intensity has reached the upper limit or the target (Yes in step S25), the display control unit 42 ends the phobia improvement training (step S26). Note that the display unit 22 may be configured to have an operation button or the like that accepts an operation to end the training so that the phobia improvement training can be ended midway at the subject's will.

訓練強度が上限に未達であり、かつ、訓練強度が目標に未達である場合(ステップS25のNo)、ステップS21に戻り、表示制御部42は、現在の訓練強度での恐怖対象物体の表示を継続する。訓練強度を上げた場合、表示制御部42は、恐怖感を一層煽る態様で恐怖対象物体を表示させてもよい。例えば、表示制御部42は、表示させる恐怖対象物体の個数を増加させてもよく、恐怖対象物体の出現頻度や表示コントラスト、輝度を高めてもよい。 If the training intensity has not reached the upper limit and has not reached the target (No in step S25), the process returns to step S21, and the display control unit 42 continues to display the fear object at the current training intensity. If the training intensity is increased, the display control unit 42 may display the fear object in a manner that further incites the sense of fear. For example, the display control unit 42 may increase the number of fear objects to be displayed, or may increase the frequency of appearance, display contrast, or brightness of the fear object.

第1実施形態の恐怖症改善システム10(ARグラス12)によると、被験者が恐れを抱く対象を正しく把握することを支援でき、効果的な恐怖症改善訓練ができるよう支援できる。また、第1実施形態の恐怖症改善システム10によると、被験者が恐れを抱く対象に関する効果的な恐怖症改善訓練を被験者に提供できる。また、第1実施形態の恐怖症改善システム10は、被験者の自宅環境に容易に構築できる。 The phobia improvement system 10 (AR glasses 12) of the first embodiment can assist the subject in correctly understanding the object of his or her fear, and can assist the subject in carrying out effective phobia improvement training. Furthermore, the phobia improvement system 10 of the first embodiment can provide the subject with effective phobia improvement training relating to the object of his or her fear. Furthermore, the phobia improvement system 10 of the first embodiment can be easily constructed in the subject's home environment.

第1実施形態のARグラス12は、被験者の恐怖対象物体を検出し、恐怖対象物体を用いた恐怖症改善訓練を実施した。変形例として、ARグラス12は、恐怖対象情報出力部(不図示)を備えてもよい。恐怖対象情報出力部は、対象検出部46により被験者の恐怖対象物体が検出されると、恐怖対象物体に関する情報や、恐怖対象物体を見た被験者の行動、生体情報、発生音声等を外部装置へ送信してもよい。この外部装置は、心理カウンセラー等、専門家の装置であってもよい。また、恐怖対象情報出力部は、上記の恐怖対象物体に関する情報や被験者の状態を外部の記憶装置に記憶させてもよく、外部の表示装置に表示させてもよい。 The AR glasses 12 of the first embodiment detect the subject's fear object and conduct phobia improvement training using the fear object. As a modified example, the AR glasses 12 may be equipped with a fear object information output unit (not shown). When the subject's fear object is detected by the object detection unit 46, the fear object information output unit may transmit information about the fear object, the subject's behavior upon viewing the fear object, biometric information, generated voice, etc. to an external device. This external device may be a device of an expert such as a psychological counselor. In addition, the fear object information output unit may store the information about the fear object and the subject's condition in an external storage device, or may display it on an external display device.

<第2実施形態>
第2実施形態では、第1実施形態と相違する点を中心に説明し、共通する点の説明を省略する。第2実施形態の特徴は、第1実施形態の特徴および変形例の特徴と任意の組合せが可能であることはもちろんである。
Second Embodiment
In the second embodiment, the differences from the first embodiment will be mainly described, and the description of the common points will be omitted. It goes without saying that the features of the second embodiment can be arbitrarily combined with the features of the first embodiment and the features of the modification.

第2実施形態の恐怖症改善システム10の構成は、図1に示した第1実施形態の恐怖症改善システム10の構成と同じである。また、第2実施形態のARグラス12は、図2に示した第1実施形態のARグラス12と同じ機能ブロックを備える。 The configuration of the phobia improvement system 10 of the second embodiment is the same as the configuration of the phobia improvement system 10 of the first embodiment shown in FIG. 1. In addition, the AR glasses 12 of the second embodiment have the same functional blocks as the AR glasses 12 of the first embodiment shown in FIG. 2.

ARグラス12の状態検出部44は、恐怖対象物体に対する被験者の行動を検出する。恐怖対象物体に対する被験者の行動は、具体的には、被験者の身体の動きまたは被験者の手足の動きである。表示制御部42は、状態検出部44により検出された被験者の行動に基づいて、恐怖対象物体の画像の表示態様を変更する。 The state detection unit 44 of the AR glasses 12 detects the subject's behavior with respect to the feared object. The subject's behavior with respect to the feared object is specifically the subject's body movement or the subject's limb movement. The display control unit 42 changes the display mode of the image of the feared object based on the subject's behavior detected by the state detection unit 44.

例えば、被験者の行動は、恐怖対象物体を撃退しようとする行動である。恐怖対象物体を撃退しようとする被験者の行動が検出された場合、表示制御部42は、恐怖対象物体を移動させるよう恐怖対象物体のAR画像を制御し、または、恐怖対象物体のAR画像を消去し、言い換えれば非表示とする。 For example, the subject's behavior is an attempt to repel a feared object. When the subject's behavior of attempting to repel a feared object is detected, the display control unit 42 controls the AR image of the feared object to move the feared object, or erases the AR image of the feared object, in other words, makes it invisible.

図5は、第2実施形態のARグラス12の動作を示すフローチャートである。図5は、図4に対応するフローチャートであり、恐怖症改善訓練に関する動作を示している。図5のステップS30~ステップS32の処理は、図4のステップS20~ステップS22の処理と同じである。ステップS32では、ステップS22と同様に、ARグラス12の状態検出部44は、被験者の身体動作とその変化、被験者の生体情報とその変化、被験者が発した音声とその変化を検出する。 Figure 5 is a flowchart showing the operation of the AR glasses 12 of the second embodiment. Figure 5 is a flowchart corresponding to Figure 4, and shows the operation related to phobia improvement training. The processing of steps S30 to S32 in Figure 5 is the same as the processing of steps S20 to S22 in Figure 4. In step S32, similar to step S22, the state detection unit 44 of the AR glasses 12 detects the subject's physical movements and changes therein, the subject's biometric information and changes therein, and the voice uttered by the subject and changes therein.

条件記憶部34には、恐怖対象物体の画像の表示態様を変更する条件(以下「表示変更条件」とも呼ぶ。)として予め定められた被験者の行動に関するデータを記憶する。例えば、条件記憶部34は、条件を満たす被験者の行動の特徴(映像上の特徴)を示すデータを記憶する。第2実施形態では、恐怖対象物体の画像の表示態様を変更する被験者の行動は、恐怖対象物体を撃退しようとする行動(撃退行動とも呼ぶ。)である。撃退行動は、例えば、恐怖対象物体に対して殺虫剤をかける行動でもよく、恐怖対象物体を箒で追い払う行動でもよい。なお、恐怖対象物体の表示変更条件としての被験者の行動は、撃退行動に限られず、恐怖対象物体への適切な対処と想定される様々な行動であってもよい。 The condition storage unit 34 stores data on the subject's behavior that is predetermined as a condition for changing the display mode of the image of the feared object (hereinafter also referred to as "display change condition"). For example, the condition storage unit 34 stores data indicating the characteristics (image characteristics) of the subject's behavior that satisfies the condition. In the second embodiment, the subject's behavior that changes the display mode of the image of the feared object is an action to repel the feared object (also referred to as a repelling action). The repelling action may be, for example, an action of spraying insecticide on the feared object, or an action of chasing the feared object with a broom. Note that the subject's behavior as a condition for changing the display of the feared object is not limited to a repelling action, and may be various actions that are assumed to be appropriate responses to the feared object.

ARグラス12の判定部48は、ステップS32において検出された被験者の身体動作が、物体画像記憶部32に記憶された恐怖対象物体の表示変更条件を満たすか否かを判定する。第2実施形態では、判定部48は、被験者の身体動作が撃退行動に該当するか否かを判定し、該当する場合、被験者の身体動作が恐怖対象物体の表示変更条件を満たすと判定する。 The determination unit 48 of the AR glasses 12 determines whether or not the subject's body movement detected in step S32 satisfies the display change conditions of the feared object stored in the object image storage unit 32. In the second embodiment, the determination unit 48 determines whether or not the subject's body movement corresponds to a repelling behavior, and if so, determines that the subject's body movement satisfies the display change conditions of the feared object.

ステップS32において検出された被検出者の身体動作が表示変更条件を満たすと判定された場合であり、第2実施形態では、ステップS22において撃退行動に該当する被験者の身体動作が検出された場合(ステップS33のYes)、ステップS34に進む。ステップS34において、ARグラス12の表示制御部42は、恐怖対象物体をそれまでとは異なる位置に移動させるよう恐怖対象物体のAR画像の表示を制御し、または、表示中の恐怖対象物体のAR画像を非表示に切り替える。 When it is determined in step S32 that the body movement of the subject detected satisfies the display change condition, and in the second embodiment, when a body movement of the subject corresponding to a repelling behavior is detected in step S22 (Yes in step S33), the process proceeds to step S34. In step S34, the display control unit 42 of the AR glasses 12 controls the display of the AR image of the fear object so as to move the fear object to a position different from before, or switches the displayed AR image of the fear object to hidden.

ステップS32において検出された被検出者の身体動作が表示変更条件を満たすと判定されなかった場合であり、第2実施形態では、ステップS22において撃退行動に該当する被験者の身体動作が検出されなければ(ステップS33のNo)、ステップS34の処理をスキップする。図5のステップS35~ステップS38の処理は、図4のステップS23~ステップS26の処理と同じであるため説明を省略する。 When the body movement of the subject detected in step S32 is not determined to satisfy the display change condition, in the second embodiment, if the body movement of the subject corresponding to a repelling behavior is not detected in step S22 (No in step S33), the process of step S34 is skipped. The processes of steps S35 to S38 in FIG. 5 are the same as the processes of steps S23 to S26 in FIG. 4, and therefore will not be described.

第2実施形態の恐怖症改善システム10(ARグラス12)は、第1実施形態の恐怖症改善システム10(ARグラス12)が奏する効果に加えて、以下の効果を奏する、すなわち、第2実施形態の恐怖症改善システム10は、恐怖症改善訓練の中で被験者の行動に応じて恐怖対象物体の表示態様を変更することにより、現実性の高い訓練を実現でき、また、恐怖対象物体に対して被験者が正しく対処できるよう支援する対処行動訓練を実現できる。 The phobia improvement system 10 (AR glasses 12) of the second embodiment has the following effects in addition to the effects of the phobia improvement system 10 (AR glasses 12) of the first embodiment, that is, the phobia improvement system 10 of the second embodiment can realize highly realistic training by changing the display mode of the feared object according to the subject's behavior during phobia improvement training, and can also realize coping behavior training that supports the subject to properly deal with the feared object.

第2実施形態の第1変形例を説明する。第2実施形態の恐怖症改善システム10は、恐怖対象物体を見た被験者の行動(例えば身体または手足の動き)に基づいて恐怖対象物体の表示対象を変更したが、本変形例では、恐怖症改善システム10は、恐怖対象物体を見た被験者の視線に基づいて恐怖対象物体の表示対象を変更する。 A first modified example of the second embodiment will be described. The phobia improvement system 10 of the second embodiment changes the display target of the feared object based on the behavior (e.g., movement of the body or limbs) of the subject who views the feared object, but in this modified example, the phobia improvement system 10 changes the display target of the feared object based on the line of sight of the subject who views the feared object.

具体的には、ARグラス12の状態検出部44は、表示制御部42により恐怖対象物体のAR画像が表示された際の被験者の視線(視線方向とも言える)を検出する。センサ部20は、被験者の瞳を撮影するアイカメラを備えてもよい。状態検出部44は、公知のアイトラッキング技術等を用いて、カメラ14による撮影画像またはアイカメラによる撮影画像に基づいて、被験者の視線を検出してもよい。 Specifically, the state detection unit 44 of the AR glasses 12 detects the subject's line of sight (or gaze direction) when the AR image of the fearful object is displayed by the display control unit 42. The sensor unit 20 may be equipped with an eye camera that captures the subject's pupils. The state detection unit 44 may detect the subject's line of sight based on the image captured by the camera 14 or the image captured by the eye camera using known eye tracking technology, etc.

表示制御部42は、恐怖対象物体のAR画像が表示された際の被験者の視線に基づいて、恐怖対象物体のAR画像の表示態様を変更する。例えば、表示制御部42は、被験者の視線が恐怖対象物体のAR画像にとどまる場合であり、すなわち、被験者が恐怖対象物体を見つめ続ける場合に、恐怖対象物体のAR画像の表示態様を変更する。被験者の視線が恐怖対象物体のAR画像にとどまることは、被験者の視線方向が恐怖対象物体のAR画像を向いた状態が所定時間以上(例えば5秒以上)維持されることであってもよい。 The display control unit 42 changes the display mode of the AR image of the feared object based on the subject's line of sight when the AR image of the feared object is displayed. For example, the display control unit 42 changes the display mode of the AR image of the feared object when the subject's line of sight remains on the AR image of the feared object, that is, when the subject continues to stare at the feared object. The subject's line of sight remaining on the AR image of the feared object may be when the subject's line of sight is maintained directed toward the AR image of the feared object for a predetermined period of time or more (e.g., 5 seconds or more).

また、恐怖対象物体のAR画像の表示態様を変更することは、恐怖対象物体のAR画像を動かすことでもよく、消去することでもよい。また、恐怖対象物体のAR画像の表示態様を変更することは、表示させる恐怖対象物体の個数を増加させ、または、恐怖対象物体の出現頻度や表示コントラスト、輝度を高めることにより、訓練強度を高めることでもよい。 Changing the display mode of the AR image of the fear object may involve moving or erasing the AR image of the fear object. Changing the display mode of the AR image of the fear object may involve increasing the number of fear objects displayed, or increasing the frequency of appearance, display contrast, or brightness of the fear object, thereby increasing the training intensity.

第1変形例の恐怖症改善システム10(ARグラス12)は、第2実施形態の恐怖症改善システム10(ARグラス12)と同様の効果を奏する。例えば、第1変形例の恐怖症改善システム10は、恐怖症改善訓練の中で被験者の視線に応じて恐怖対象物体の表示態様を変更することにより、現実性の高い訓練を実現でき、また、恐怖症の克服を効果的に支援できる。 The phobia improvement system 10 (AR glasses 12) of the first modified example has the same effect as the phobia improvement system 10 (AR glasses 12) of the second embodiment. For example, the phobia improvement system 10 of the first modified example can realize highly realistic training and effectively support overcoming a phobia by changing the display mode of a feared object according to the subject's line of sight during phobia improvement training.

第2実施形態の第2変形例を説明する。第2実施形態の恐怖症改善システム10は、恐怖対象物体を見た被験者の行動(例えば身体または手足の動き)に基づいて恐怖対象物体の表示対象を変更したが、本変形例では、恐怖症改善システム10は、恐怖対象物体を見た被験者の表情に基づいて恐怖対象物体の表示対象を変更する。 A second variant of the second embodiment will be described. The phobia improvement system 10 of the second embodiment changes the display of the feared object based on the behavior (e.g., movement of the body or limbs) of the subject who views the feared object, but in this variant, the phobia improvement system 10 changes the display of the feared object based on the facial expression of the subject who views the feared object.

具体的には、ARグラス12の状態検出部44は、表示制御部42により恐怖対象物体のAR画像が表示された際の被験者の表情(表情の種類とも言える)を検出する。被験者の表情は、例えば、睨みつける表情、穏やかな表情、怯えた表情(言い換えれば恐怖の表情)等、複数種類の表情を含む。状態検出部44は、予め定められた複数種類の表情のテンプレート画像を記憶してもよい。状態検出部44は、カメラ14による撮影画像に映る被験者の顔と、複数種類の表情のテンプレート画像とを比較することにより、被験者の顔の表情を検出してもよい。または、状態検出部44は、公知の表情認識技術を用いて、被験者の顔の表情を検出してもよい。 Specifically, the state detection unit 44 of the AR glasses 12 detects the facial expression (or type of facial expression) of the subject when the AR image of the fear object is displayed by the display control unit 42. The subject's facial expressions include multiple types of expressions, such as a glaring expression, a calm expression, and a frightened expression (in other words, a terrified expression). The state detection unit 44 may store template images of multiple types of expressions that are determined in advance. The state detection unit 44 may detect the facial expression of the subject by comparing the subject's face shown in the image captured by the camera 14 with the template images of multiple types of expressions. Alternatively, the state detection unit 44 may detect the facial expression of the subject using a known facial expression recognition technology.

表示制御部42は、恐怖対象物体のAR画像が表示された際の被験者の表情(表情の種類とも言える)に基づいて、恐怖対象物体のAR画像の表示態様を変更する。例えば、表示制御部42は、被験者の表情が怯えた表情に該当しない場合であり、言い換えれば、被験者の表情が怯えた表情以外の表情であると検出された場合に、恐怖対象物体のAR画像の表示態様を変更する。または、表示制御部42は、被験者の表情が睨みつける表情または穏やかな表情であると検出された場合に、恐怖対象物体のAR画像の表示態様を変更してもよい。 The display control unit 42 changes the display mode of the AR image of the fear object based on the facial expression (which can also be considered the type of facial expression) of the subject when the AR image of the fear object is displayed. For example, the display control unit 42 changes the display mode of the AR image of the fear object when the subject's facial expression does not correspond to a frightened expression, in other words, when the subject's facial expression is detected to be an expression other than a frightened expression. Alternatively, the display control unit 42 may change the display mode of the AR image of the fear object when the subject's facial expression is detected to be a glaring expression or a calm expression.

また、恐怖対象物体のAR画像の表示態様を変更することは、恐怖対象物体のAR画像を動かすことでもよく、消去することでもよい。また、恐怖対象物体のAR画像の表示態様を変更することは、表示させる恐怖対象物体の個数を増加させ、または、恐怖対象物体の出現頻度や表示コントラスト、輝度を高めることにより、訓練強度を高めることでもよい。 Changing the display mode of the AR image of the fear object may involve moving or erasing the AR image of the fear object. Changing the display mode of the AR image of the fear object may involve increasing the number of fear objects displayed, or increasing the frequency of appearance, display contrast, or brightness of the fear object, thereby increasing the training intensity.

第2変形例の恐怖症改善システム10(ARグラス12)は、第2実施形態の恐怖症改善システム10(ARグラス12)と同様の効果を奏する。例えば、第2変形例の恐怖症改善システム10は、恐怖症改善訓練の中で被験者の表情に応じて恐怖対象物体の表示態様を変更することにより、現実性の高い訓練を実現でき、また、恐怖症の克服を効果的に支援できる。 The phobia improvement system 10 (AR glasses 12) of the second modified example has the same effect as the phobia improvement system 10 (AR glasses 12) of the second embodiment. For example, the phobia improvement system 10 of the second modified example can realize highly realistic training by changing the display mode of the feared object according to the facial expression of the subject during phobia improvement training, and can also effectively support overcoming the phobia.

第2実施形態の第3変形例を説明する。第2実施形態の恐怖症改善システム10は、恐怖対象物体を見た被験者の行動(例えば身体または手足の動き)に基づいて恐怖対象物体の表示対象を変更したが、本変形例では、恐怖症改善システム10は、恐怖対象物体を見た被験者が発した音声(言い換えれば発声)に基づいて恐怖対象物体の表示対象を変更する。 A third variant of the second embodiment will be described. The phobia improvement system 10 of the second embodiment changes the display target of the feared object based on the behavior (e.g., body or limb movement) of the subject who sees the feared object, but in this variant, the phobia improvement system 10 changes the display target of the feared object based on the sound (in other words, vocalization) made by the subject who sees the feared object.

具体的には、ARグラス12の状態検出部44は、表示制御部42により恐怖対象物体のAR画像が表示された際に被験者が発した音声(具体的には音声の内容の種類)を検出する。被験者が発する音声は、攻撃的音声、驚きを示す音声、怯えを示す音声等、複数種類の音声を含む。攻撃的音声は、威嚇する内容を含む音声であってもよく、罵声を含む音声であってもよい。状態検出部44は、予め定められた複数種類の音声のテンプレートデータを記憶してもよい。状態検出部44は、センサ部20のマイクにより取得された、被験者が発した音声と、複数種類の音声のテンプレートデータとを比較することにより、被験者が発した音声の種類を検出してもよい。または、状態検出部44は、公知の音声認識技術を用いて、被験者が発した音声の種類を検出してもよい。 Specifically, the state detection unit 44 of the AR glasses 12 detects the voice (specifically, the type of voice content) made by the subject when the AR image of the fear object is displayed by the display control unit 42. The voice made by the subject includes multiple types of voices, such as aggressive voices, voices indicating surprise, and voices indicating fear. The aggressive voice may be a voice containing threatening content, or may be a voice containing abusive language. The state detection unit 44 may store template data of multiple types of voices that are determined in advance. The state detection unit 44 may detect the type of voice made by the subject by comparing the voice made by the subject, acquired by the microphone of the sensor unit 20, with the template data of multiple types of voices. Alternatively, the state detection unit 44 may detect the type of voice made by the subject using a known voice recognition technology.

表示制御部42は、恐怖対象物体のAR画像が表示された際に被験者が発した音声(音声の種類とも言える)に基づいて、恐怖対象物体のAR画像の表示態様を変更する。例えば、表示制御部42は、被験者が発した音声が攻撃的音声に該当する場合に、恐怖対象物体のAR画像の表示態様を変更する。 The display control unit 42 changes the display mode of the AR image of the fear object based on the sound (which can also be considered the type of sound) made by the subject when the AR image of the fear object is displayed. For example, the display control unit 42 changes the display mode of the AR image of the fear object when the sound made by the subject corresponds to an aggressive sound.

また、恐怖対象物体のAR画像の表示態様を変更することは、恐怖対象物体のAR画像を動かすことでもよく、消去することでもよい。また、恐怖対象物体のAR画像の表示態様を変更することは、表示させる恐怖対象物体の個数を増加させ、または、恐怖対象物体の出現頻度や表示コントラスト、輝度を高めることにより、訓練強度を高めることでもよい。 Changing the display mode of the AR image of the fear object may involve moving or erasing the AR image of the fear object. Changing the display mode of the AR image of the fear object may involve increasing the number of fear objects displayed, or increasing the frequency of appearance, display contrast, or brightness of the fear object, thereby increasing the training intensity.

第3変形例の恐怖症改善システム10(ARグラス12)は、第2実施形態の恐怖症改善システム10(ARグラス12)と同様の効果を奏する。例えば、第3変形例の恐怖症改善システム10は、恐怖症改善訓練の中で被験者が発した音声に応じて恐怖対象物体の表示態様を変更することにより、現実性の高い訓練を実現でき、また、恐怖症の克服を効果的に支援できる。 The phobia improvement system 10 (AR glasses 12) of the third modified example has the same effect as the phobia improvement system 10 (AR glasses 12) of the second embodiment. For example, the phobia improvement system 10 of the third modified example can realize highly realistic training and effectively support overcoming a phobia by changing the display mode of a feared object in response to a voice uttered by a subject during phobia improvement training.

第4変形例として、条件記憶部34に記憶される恐怖対象物体の表示変更条件は、被験者の行動に加えて、被験者の生体情報の変化を含んでもよい。例えば、判定部48は、被験者の身体動作が撃退行動に該当し、かつ、被験者の生体情報の変化が条件を満たす場合(例えば被験者の心拍数が条件が定める閾値未満の場合)、恐怖対象物体の表示変更条件を満たすと判定してもよい。なお、第1変形例とも組み合わせ可能である。条件記憶部34に記憶される恐怖対象物体の表示変更条件は、被験者の視線に加えて、被験者の生体情報の変化を含んでもよい。例えば、判定部48は、被験者の視線が恐怖対象物体にとどまり、かつ、被験者の生体情報の変化が条件を満たす場合、恐怖対象物体の表示変更条件を満たすと判定してもよい。 As a fourth modified example, the display change condition of the feared object stored in the condition storage unit 34 may include a change in the subject's biometric information in addition to the subject's behavior. For example, the determination unit 48 may determine that the display change condition of the feared object is met when the subject's body movement corresponds to a repelling behavior and the change in the subject's biometric information satisfies the condition (for example, when the subject's heart rate is below a threshold value set by the condition). This can also be combined with the first modified example. The display change condition of the feared object stored in the condition storage unit 34 may include a change in the subject's biometric information in addition to the subject's line of sight. For example, the determination unit 48 may determine that the display change condition of the feared object is met when the subject's line of sight remains on the feared object and the change in the subject's biometric information satisfies the condition.

また、第2変形例とも組み合わせ可能である。条件記憶部34に記憶される恐怖対象物体の表示変更条件は、被験者の表情に加えて、被験者の生体情報の変化を含んでもよい。例えば、判定部48は、被験者の表情が怯えが表情に該当せず、かつ、被験者の生体情報の変化が条件を満たす場合、恐怖対象物体の表示変更条件を満たすと判定してもよい。また、第3変形例とも組み合わせ可能である。条件記憶部34に記憶される恐怖対象物体の表示変更条件は、被験者が発した音声に加えて、被験者の生体情報の変化を含んでもよい。例えば、判定部48は、被験者が発した音声が攻撃的音声に該当し、かつ、被験者の生体情報の変化が条件を満たす場合、恐怖対象物体の表示変更条件を満たすと判定してもよい。 It can also be combined with the second modified example. The display change condition of the fear object stored in the condition storage unit 34 may include a change in the subject's biometric information in addition to the subject's facial expression. For example, the determination unit 48 may determine that the display change condition of the fear object is met when the subject's facial expression does not correspond to a frightened expression and the change in the subject's biometric information satisfies the condition. It can also be combined with the third modified example. The display change condition of the fear object stored in the condition storage unit 34 may include a change in the subject's biometric information in addition to the voice uttered by the subject. For example, the determination unit 48 may determine that the display change condition of the fear object is met when the voice uttered by the subject corresponds to an aggressive voice and the change in the subject's biometric information satisfies the condition.

第5変形例として、ARグラス12の表示制御部42は、恐怖対象物体のAR画像をARグラス12に表示させることに代えて、火のAR画像をARグラス12に表示させてもよい。ARグラス12の判定部48は、ステップS22において検出された被験者の身体行動が消火行動に該当するか否かを判定してもよい。表示制御部42は、被験者の身体行動が消火行動に該当する場合、火のAR画像を消去してもよい。この変形例によると、ARグラス12を消火訓練に活用できる。 As a fifth modified example, the display control unit 42 of the AR glasses 12 may display an AR image of a fire on the AR glasses 12 instead of displaying an AR image of a fearful object on the AR glasses 12. The determination unit 48 of the AR glasses 12 may determine whether the subject's physical behavior detected in step S22 corresponds to a fire-extinguishing behavior. The display control unit 42 may erase the AR image of the fire if the subject's physical behavior corresponds to a fire-extinguishing behavior. According to this modified example, the AR glasses 12 can be used for fire-extinguishing training.

<第3実施形態>
第3実施形態では、第1実施形態と相違する点を中心に説明し、共通する点の説明を省略する。第3実施形態の特徴は、第1実施形態の特徴、第2実施形態の特徴、および変形例の特徴と任意の組合せが可能であることはもちろんである。
Third Embodiment
In the third embodiment, the differences from the first embodiment will be mainly described, and the description of the common points will be omitted. It goes without saying that the features of the third embodiment can be arbitrarily combined with the features of the first embodiment, the features of the second embodiment, and the features of the modified example.

図6は、第3実施形態の恐怖症改善システム10の構成を示す。第3実施形態の恐怖症改善システム10は、ARグラス12とカメラ14に加えて、専門家装置18をさらに備える。ARグラス12は、通信網16を介して専門家装置18と通信する。 Figure 6 shows the configuration of a phobia improvement system 10 according to a third embodiment. In addition to the AR glasses 12 and the camera 14, the phobia improvement system 10 according to the third embodiment further includes an expert device 18. The AR glasses 12 communicate with the expert device 18 via a communication network 16.

専門家装置18は、恐怖症改善訓練の専門家や、恐怖症改善訓練の結果を診断する専門家により操作される情報処理装置である。専門家は、例えば、心理カウンセラーや臨床心理士であってもよい。専門家装置18は、コンピュータ、タブレット端末またはスマートフォンであってもよい。 The expert device 18 is an information processing device operated by an expert in phobia improvement training or an expert who diagnoses the results of the phobia improvement training. The expert may be, for example, a psychological counselor or a clinical psychologist. The expert device 18 may be a computer, a tablet terminal, or a smartphone.

図7は、第3実施形態のARグラス12の機能ブロックを示すブロック図である。第3実施形態のARグラス12は、第1実施形態のARグラス12と同様の機能ブロックを備え、さらに、訓練結果記憶部36、訓練結果送信部50、診断結果受付部52、匿名化部54を備える。 Figure 7 is a block diagram showing the functional blocks of the AR glasses 12 of the third embodiment. The AR glasses 12 of the third embodiment have the same functional blocks as the AR glasses 12 of the first embodiment, and further have a training result storage unit 36, a training result transmission unit 50, a diagnosis result reception unit 52, and an anonymization unit 54.

訓練結果記憶部36は、恐怖症改善訓練の結果に関するデータである訓練結果データを記憶する。訓練結果データは、恐怖対象物体の情報(画像等)を含む。また、訓練結果データは、恐怖症改善訓練の中で検出された被験者の状態に関する情報(身体行動や生体情報等)を含む。恐怖症改善訓練において検出された被験者の状態は、状態検出部44により検出された、恐怖対象物体を見た被験者の状態とも言える。さらにまた、訓練結果データは、カメラ14により撮影された撮影画像であり、被験者が映る撮影画像を含む。 The training result memory unit 36 stores training result data, which is data related to the results of phobia improvement training. The training result data includes information (images, etc.) about the feared object. The training result data also includes information about the subject's state detected during the phobia improvement training (physical behavior, biometric information, etc.). The state of the subject detected during the phobia improvement training can also be said to be the state of the subject who saw the feared object, as detected by the state detection unit 44. Furthermore, the training result data is an image captured by the camera 14, and includes an image in which the subject appears.

訓練結果送信部50は、状態検出部44により検出された、恐怖対象物体のAR画像を見た被験者の状態に関するデータを含む訓練結果データを専門家装置18へ送信する。被験者の状態に関するデータは、例えば、第2実施形態に記載した被験者の身体や手足の動き、第2実施形態の第1変形例に記載した被験者の視線(視線方向)、第2実施形態の第2変形例に記載した被験者の表情、第2実施形態の第3変形例に記載した被験者が発した音声のうち少なくとも1つを含んでもよい。診断結果受付部52は、恐怖対象物体のAR画像を見た被験者の状態に関する診断の結果を示す診断結果データを受け付ける。診断の結果は、例えば、恐怖症克服のためのアドバイスや治療方法の紹介等を含む。 The training result transmission unit 50 transmits training result data including data on the state of the subject who viewed the AR image of the feared object detected by the state detection unit 44 to the expert device 18. The data on the state of the subject may include, for example, at least one of the following: the movement of the subject's body and limbs described in the second embodiment, the subject's line of sight (line of sight direction) described in the first modified example of the second embodiment, the subject's facial expression described in the second modified example of the second embodiment, and the voice uttered by the subject described in the third modified example of the second embodiment. The diagnosis result reception unit 52 receives diagnosis result data indicating the result of the diagnosis on the state of the subject who viewed the AR image of the feared object. The diagnosis result includes, for example, advice for overcoming a phobia and introduction of a treatment method.

匿名化部54は、訓練結果データに対して匿名化処理を施すことにより、被験者個人を特定できないように訓練結果データを変換する。例えば、匿名化部54は、公知の手法を用いて、訓練結果データに含まれる撮影画像から被験者の顔を自動認識し、被験者の顔にぼかしやモザイクをかけてもよい。第3実施形態では、訓練結果送信部50は、匿名化部54により匿名化された訓練結果データを専門家装置18へ送信する。 The anonymization unit 54 performs an anonymization process on the training result data to convert the training result data so that the individual subject cannot be identified. For example, the anonymization unit 54 may use a known method to automatically recognize the subject's face from a captured image included in the training result data and blur or pixelate the subject's face. In the third embodiment, the training result transmission unit 50 transmits the training result data anonymized by the anonymization unit 54 to the expert device 18.

図8は、第3実施形態のARグラス12の動作を示すフローチャートである。図8は、恐怖症改善訓練の結果の分析を支援する動作を示している。なお、第3実施形態のARグラス12が実行する恐怖症改善訓練の処理は、図4に示した第1実施形態のARグラス12の処理と同様であってもよく、図5に示した第2実施形態のARグラス12の処理と同様であってもよい。 Figure 8 is a flowchart showing the operation of the AR glasses 12 of the third embodiment. Figure 8 shows the operation of supporting the analysis of the results of phobia improvement training. Note that the processing of the phobia improvement training performed by the AR glasses 12 of the third embodiment may be similar to the processing of the AR glasses 12 of the first embodiment shown in Figure 4, or may be similar to the processing of the AR glasses 12 of the second embodiment shown in Figure 5.

ARグラス12の訓練結果記憶部36は、状態検出部44により検出された、恐怖対象物体のAR画像を見た被験者の状態に関するデータを含む訓練結果データを逐次記憶する(ステップS40)。匿名化部54は、訓練結果記憶部36に記憶された訓練結果データを匿名化する(ステップS41)。訓練結果送信部50は、匿名化された訓練結果データを専門家装置18へ送信する(ステップS42)。 The training result storage unit 36 of the AR glasses 12 sequentially stores training result data including data regarding the state of the subject who viewed the AR image of the feared object detected by the state detection unit 44 (step S40). The anonymization unit 54 anonymizes the training result data stored in the training result storage unit 36 (step S41). The training result transmission unit 50 transmits the anonymized training result data to the expert device 18 (step S42).

心理カウンセラー等の専門家は、ARグラス12から送信された匿名化された訓練結果データをもとに被験者の恐怖症を診断する。専門家装置18は、専門家の操作に応じて、診断結果データをARグラス12へ送信する。ARグラス12の診断結果受付部52は、専門家装置18から送信された診断結果データを受け付ける(ステップS43)。表示制御部42は、診断結果データが示す専門家による診断結果を表示部22に表示させる(ステップS44)。 An expert such as a psychological counselor diagnoses the subject's phobia based on the anonymized training result data transmitted from the AR glasses 12. The expert device 18 transmits diagnosis result data to the AR glasses 12 in response to the operation of the expert. The diagnosis result receiving unit 52 of the AR glasses 12 receives the diagnosis result data transmitted from the expert device 18 (step S43). The display control unit 42 causes the display unit 22 to display the diagnosis result by the expert indicated by the diagnosis result data (step S44).

変形例として、専門家装置18は、被験者により予め登録された、ARグラス12とは異なる被験者の情報端末(例えばスマートフォン等)に診断結果データを送信してもよい。情報端末は、被験者の操作に応じて、診断結果を画面に表示させてもよい。 As a variant, the expert device 18 may transmit the diagnosis result data to an information terminal (e.g., a smartphone) of the subject that is different from the AR glasses 12 and that has been registered in advance by the subject. The information terminal may display the diagnosis result on a screen in response to an operation by the subject.

第3実施形態の恐怖症改善システム10(ARグラス12)は、第1実施形態の恐怖症改善システム10(ARグラス12)が奏する効果に加えて、以下の効果を奏する、すなわち、第3実施形態の恐怖症改善システム10によると、被験者による恐怖症改善訓練の結果に対する専門家による診断結果を被験者に提供でき、被験者の恐怖症の改善を一層効果的に支援できる。 The phobia improvement system 10 (AR glasses 12) of the third embodiment has the following effect in addition to the effect of the phobia improvement system 10 (AR glasses 12) of the first embodiment, that is, the phobia improvement system 10 of the third embodiment can provide the subject with the diagnosis results by an expert on the results of the phobia improvement training by the subject, and can more effectively support the improvement of the subject's phobia.

以上、本発明を第1実施形態~第3実施形態をもとに説明した。各実施形態に記載の内容は例示であり、各実施形態の構成要素や処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the first to third embodiments. The contents described in each embodiment are merely examples, and it will be understood by those skilled in the art that various modifications are possible in the combination of components and processing steps of each embodiment, and that such modifications are also within the scope of the present invention.

各実施形態に適用可能な変形例を説明する。各実施形態の恐怖症改善システム10では、恐怖対象物体を被験者に提示する手段としてARグラス12を用いたが、ARグラス12に代えて他の装置を用いてもよい。例えば、恐怖症改善システム10は、ARグラス12に代えて、ヘッドマウントディスプレイ、コンピュータと表示装置、タブレット端末またはスマートフォンを備えてもよい。ヘッドマウントディスプレイは、完全没入型であってもよく、ビデオシースルー型であってもよい。 Modifications applicable to each embodiment will be described. In each embodiment of the phobia improvement system 10, AR glasses 12 are used as a means for presenting the feared object to the subject, but other devices may be used instead of the AR glasses 12. For example, instead of the AR glasses 12, the phobia improvement system 10 may include a head-mounted display, a computer and display device, a tablet terminal, or a smartphone. The head-mounted display may be a fully immersive type or a video see-through type.

各実施形態に適用可能な別の変形例を説明する。各実施形態でARグラス12が備えた複数の機能ブロックは、ARグラス12、および、ARグラス12とは異なる情報処理装置に分散して実装されてもよい。この場合、ARグラス12と情報処理装置とが通信し、システムとして連携することにより、各実施形態のARグラス12と同様の処理が実行されてもよい。 Another modified example that can be applied to each embodiment will be described. In each embodiment, multiple functional blocks provided in the AR glasses 12 may be distributed and implemented in the AR glasses 12 and an information processing device different from the AR glasses 12. In this case, the AR glasses 12 and the information processing device may communicate with each other and work together as a system to execute processing similar to that of the AR glasses 12 in each embodiment.

例えば、恐怖症改善システム10は、ARグラス12と、ARグラス12とは異なる情報処理装置を備えてもよい。情報処理装置の表示制御部は、被験者が恐れを抱く対象の候補としての複数の物体の画像をARグラス12の表示部に表示させてもよい。情報処理装置の状態検出部44は、複数の物体それぞれの画像を見た被験者の状態を検出してもよい。情報処理装置の対象検出部は、検出された被験者の状態に基づいて、複数の物体の中から被験者が恐れを抱く対象を検出してもよい。 For example, the phobia improvement system 10 may include AR glasses 12 and an information processing device different from the AR glasses 12. The display control unit of the information processing device may cause the display unit of the AR glasses 12 to display images of multiple objects as candidates for objects that the subject is afraid of. The state detection unit 44 of the information processing device may detect the state of the subject who has viewed the images of each of the multiple objects. The object detection unit of the information processing device may detect the object that the subject is afraid of from among the multiple objects based on the detected state of the subject.

上述した実施形態および変形例の任意の組み合わせもまた本発明の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる実施形態および変形例それぞれの効果をあわせもつ。また、請求項に記載の各構成要件が果たすべき機能は、実施形態および変形例において示された各構成要素の単体もしくはそれらの連携によって実現されることも当業者には理解されるところである。 Any combination of the above-described embodiments and modifications is also useful as an embodiment of the present invention. A new embodiment resulting from the combination will have the combined effects of each of the combined embodiments and modifications. It will also be understood by those skilled in the art that the functions to be performed by each of the constituent elements recited in the claims can be realized by each of the constituent elements shown in the embodiments and modifications alone or in combination with each other.

本開示は、SDGs(Sustainable Development Goals:持続可能な開発目標)の「すべての人に健康と福祉を」の実現に貢献し、ヘルスケア製品・サービスによる価値創出に寄与する事項を含む。 This disclosure includes matters that contribute to the realization of the Sustainable Development Goals (SDGs) of "Good health and well-being for all," and contribute to value creation through healthcare products and services.

10 恐怖症改善システム、 12 ARグラス、 14 カメラ、 18 専門家装置、 22 表示部、 42 表示制御部、 44 状態検出部、 46 対象検出部、 50 訓練結果送信部、 52 診断結果受付部。 10 Phobia improvement system, 12 AR glasses, 14 Camera, 18 Expert device, 22 Display unit, 42 Display control unit, 44 Status detection unit, 46 Object detection unit, 50 Training result transmission unit, 52 Diagnosis result reception unit.

Claims (5)

被験者が恐れを抱く対象の候補としての複数の物体の画像を表示部に表示させる表示制御部と、
前記複数の物体それぞれの画像を見た前記被験者の状態を検出する状態検出部と、
前記状態検出部により検出された前記被験者の状態に基づいて、前記複数の物体の中から前記被験者が恐れを抱く対象を検出する対象検出部と、
を備えることを特徴とする情報処理装置。
a display control unit that causes a display unit to display images of a plurality of objects as candidates for objects that the subject is afraid of;
a state detection unit that detects a state of the subject when viewing the images of the plurality of objects;
an object detection unit that detects an object that the subject is afraid of from among the plurality of objects based on the state of the subject detected by the state detection unit;
An information processing device comprising:
前記表示制御部は、前記対象検出部により検出された前記対象の画像を前記表示部に表示させ、
前記状態検出部は、前記対象に対する前記被験者の行動を検出し、
前記表示制御部は、前記被験者の行動に基づいて、前記対象の画像の表示態様を変更する、
請求項1に記載の情報処理装置。
the display control unit causes an image of the object detected by the object detection unit to be displayed on the display unit;
The state detection unit detects a behavior of the subject with respect to the object,
The display control unit changes a display mode of the image of the target based on the behavior of the subject.
The information processing device according to claim 1 .
前記被験者の行動は、前記対象を撃退しようとする行動であり、
前記表示制御部は、前記対象を撃退しようとする前記被験者の行動が検出された場合、前記対象を移動させ、または消去する、
請求項2に記載の情報処理装置。
The subject's behavior is an attempt to repel the target,
The display control unit moves or erases the target when a behavior of the subject attempting to repel the target is detected.
The information processing device according to claim 2 .
前記状態検出部により検出された、前記対象の画像を見た前記被験者の状態に関するデータを外部装置へ送信する訓練結果送信部と、
外部装置から送信された、前記対象の画像を見た前記被験者の状態に関する診断の結果を受け付ける診断結果受付部と、をさらに備える、
請求項1から3のいずれかに記載の情報処理装置。
a training result transmission unit that transmits data regarding the state of the test subject who viewed the image of the target, detected by the state detection unit, to an external device;
and a diagnosis result receiving unit that receives a diagnosis result regarding a state of the subject who viewed the image of the object, the diagnosis result being transmitted from an external device.
4. The information processing device according to claim 1.
被験者が恐れを抱く対象の候補としての複数の物体の画像を表示部に表示させるステップと、
前記複数の物体それぞれの画像を見た前記被験者の状態を検出するステップと、
検出された前記被験者の状態に基づいて、前記複数の物体の中から前記被験者が恐れを抱く対象を検出するステップと、
をコンピュータが実行する恐怖症改善支援方法。
A step of displaying images of a plurality of objects as candidates for objects that the subject is afraid of on a display unit;
detecting a state of the subject when viewing an image of each of the plurality of objects;
detecting an object that the subject is afraid of from among the plurality of objects based on the detected state of the subject;
A phobia improvement support method implemented by a computer.
JP2022152198A 2022-09-26 2022-09-26 Information processing device and phobia improvement support method Pending JP2024046864A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022152198A JP2024046864A (en) 2022-09-26 2022-09-26 Information processing device and phobia improvement support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022152198A JP2024046864A (en) 2022-09-26 2022-09-26 Information processing device and phobia improvement support method

Publications (1)

Publication Number Publication Date
JP2024046864A true JP2024046864A (en) 2024-04-05

Family

ID=90527473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022152198A Pending JP2024046864A (en) 2022-09-26 2022-09-26 Information processing device and phobia improvement support method

Country Status (1)

Country Link
JP (1) JP2024046864A (en)

Similar Documents

Publication Publication Date Title
US11568643B2 (en) Automatic control of wearable display device based on external conditions
CN112181152A (en) Advertisement push management method, equipment and application based on MR glasses
Qian et al. An eye tracking based virtual reality system for use inside magnetic resonance imaging systems
US11782508B2 (en) Creation of optimal working, learning, and resting environments on electronic devices
JP2005237561A (en) Information processing device and method
JP7107302B2 (en) Information processing device, information processing method, and program
US20240164672A1 (en) Stress detection
EP4161387B1 (en) Sound-based attentive state assessment
US20240164677A1 (en) Attention detection
US20240115831A1 (en) Enhanced meditation experience based on bio-feedback
CN116507992A (en) Detecting unexpected user interface behavior using physiological data
US20230259203A1 (en) Eye-gaze based biofeedback
JP2024046864A (en) Information processing device and phobia improvement support method
JP2024046867A (en) Information processing device and phobia improvement support method
JP2024046866A (en) Information processing device and phobia improvement support method
JP2024046865A (en) Information processing device and phobia improvement support method
JP2018163617A (en) Method for managing content using vision recognition in virtual reality system using information processor, program, and virtual reality system device
US20240319789A1 (en) User interactions and eye tracking with text embedded elements
KR102564202B1 (en) Electronic device providing interaction with virtual animals for user's stress relief and control method thereof
US20240221301A1 (en) Extended reality assistance based on user understanding
CN117120958A (en) Pressure detection
CN117677345A (en) Enhanced meditation experience based on biofeedback
CN117980867A (en) Interactive event based on physiological response to illumination
CN117677338A (en) Virtual reality techniques for characterizing visual capabilities
KR20190101336A (en) Virtual reality head mounted display system for showing user's status