JP7066115B2 - Public speaking support device and program - Google Patents

Public speaking support device and program Download PDF

Info

Publication number
JP7066115B2
JP7066115B2 JP2017185257A JP2017185257A JP7066115B2 JP 7066115 B2 JP7066115 B2 JP 7066115B2 JP 2017185257 A JP2017185257 A JP 2017185257A JP 2017185257 A JP2017185257 A JP 2017185257A JP 7066115 B2 JP7066115 B2 JP 7066115B2
Authority
JP
Japan
Prior art keywords
information
image
head
trainee
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017185257A
Other languages
Japanese (ja)
Other versions
JP2018180503A (en
Inventor
美晴 冬野
友子 山下
祥好 中島
剛史 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
Kyushu University NUC
Original Assignee
Kyushu Institute of Technology NUC
Kyushu University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC, Kyushu University NUC filed Critical Kyushu Institute of Technology NUC
Publication of JP2018180503A publication Critical patent/JP2018180503A/en
Application granted granted Critical
Publication of JP7066115B2 publication Critical patent/JP7066115B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

本発明は、パブリックスピーキング支援装置、及びプログラムに関する。 The present invention relates to a public speaking support device and a program.

パブリックスピーキングの技術の学習においては、実践さながらの状況において体感しながら練習することの重要性が指摘されている。そのため、講義・演習等でパブリックスピーキングの技術を指導したとしても、自己練習による学習は難しいとされている。一方、実践さながらの状況においてパブリックスピーキングの練習をすることは、オーディエンス人員の確保や場所の確保、自己評価の難しさ等の要因のため、困難であった。 In learning public speaking techniques, it has been pointed out that it is important to practice while experiencing the situation as if it were a practice. Therefore, even if the public speaking technique is taught in lectures and exercises, it is difficult to learn by self-practice. On the other hand, practicing public speaking in a situation that is just like practice was difficult due to factors such as securing audience personnel, securing a place, and difficulty in self-evaluation.

カメラで撮影された画像から顔の向きに関する顔情報を算出し、算出した顔情報に基づいて、アイコンタクトの度合いを示す指標を算出して表示する技術が知られている(例えば、特許文献1を参照)。
また、視線方向検知装置により検知された視線の評価に基づき、常にパーソナルコンピュータの画面を見ているようであれば評価値を下げ、聴講者の方を見ているようであれば評価値を上げる技術が知られている(例えば、特許文献2を参照)。
また、プレゼンターがオーディエンスの方を一定期間以上向いていないことを検知すると、好ましくない挙動であると判断し、好ましくない挙動を行なっていることがプレゼンターに通知される技術が知られている(例えば、特許文献3を参照)。
A technique is known in which face information regarding the orientation of a face is calculated from an image taken by a camera, and an index indicating the degree of eye contact is calculated and displayed based on the calculated face information (for example, Patent Document 1). See).
In addition, based on the evaluation of the line of sight detected by the line-of-sight direction detection device, the evaluation value is lowered if the user is always looking at the screen of the personal computer, and the evaluation value is raised if the viewer is looking at the audience. The technique is known (see, for example, Patent Document 2).
Further, there is known a technique in which when it is detected that the presenter is not facing the audience for a certain period of time or more, the behavior is judged to be unfavorable and the presenter is notified that the behavior is unfavorable (for example). , Patent Document 3).

特開2008-139762号公報Japanese Unexamined Patent Publication No. 2008-139762 特開2007-219161号公報Japanese Unexamined Patent Publication No. 2007-219161 特開2012-255866号公報Japanese Unexamined Patent Publication No. 2012-255866

しかしながら、上記のような従来技術においては、パブリックスピーキングの練習において、被訓練者が、次にどの方向を向けばよいかを学習できないという問題があった。 However, in the above-mentioned conventional technique, there is a problem that the trainee cannot learn which direction to turn next in the practice of public speaking.

また、パブリックスピーキングの練習において、例えば、バーチャルリアリティ(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)の技術を用いる機器を利用して実践さながらの状況を再現する場合、これらの機器や設備には、VRの映像の処理負荷に耐え得るだけの性能が要求されコストが高くなってしまう。 In addition, in the practice of public speaking, for example, when reproducing the situation as it is practiced by using a device using virtual reality (VR: Virtual Reality) or augmented reality (AR: Augmented Reality) technology, these devices and equipment Is required to have sufficient performance to withstand the processing load of VR video, and the cost is high.

本発明は上記の点に鑑みてなされたものであり、パブリックスピーキングの練習において、被訓練者が、次にどの方向を向けばよいかを学習できるパブリックスピーキング支援装置、及びプログラムを提供する。 The present invention has been made in view of the above points, and provides a public speaking support device and a program capable of learning which direction the trainee should turn next in the practice of public speaking.

また、パブリックスピーキングの練習において、実践さながらの状況を再現する場合に機器にかかる負担を軽減することができるパブリックスピーキング支援装置を提供する。ここで、実践さながらの状況とは、被訓練者が聴衆の視線を感じて緊張感を覚える状況である。 Further, in the practice of public speaking, a public speaking support device capable of reducing the burden on the device when reproducing the situation as if it were practiced will be provided. Here, the situation just like practice is a situation in which the trainee feels the gaze of the audience and feels a sense of tension.

(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、被訓練者の頭部の向きを検出する検出部と、前記検出部により検出された頭部の向きに対応した方向の仮想現実としての画像である視野画像、または、当該方向の拡張現実として前記被訓練者の視野または前記視野の画像に重ねて表示される画像である拡張現実画像を、当該頭部の向きに相対する向きにして表示する表示部と、前記表示部が前記視野画像を表示する場合には前記検出部により検出された頭部の向きを示す前記視野画像上の位置とは異なる前記視野画像上の位置を示す情報を前記表示部に表示させることにより、または、前記表示部が前記拡張現実画像を表示する場合には前記検出部により検出された頭部の向きを示す前記視野または前記視野の画像上の位置とは異なる前記視野または前記視野の画像上の位置を示す情報を前記拡張現実画像として前記表示部に表示させることにより、前記検出部により検出された頭部の向きとは異なる頭部の向きを提示する動作指標提示部と、を備えるパブリックスピーキング支援装置である。 (1) The present invention has been made to solve the above-mentioned problems, and one aspect of the present invention is a detection unit that detects the orientation of the head of the trainee and a head detected by the detection unit. A field image that is an image as a virtual reality in a direction corresponding to the orientation of the part , or an augmented reality image that is an image that is displayed superimposed on the field of view of the trainee or an image of the field of view as augmented reality in the direction. A display unit that displays the image in a direction opposite to the direction of the head, and a position on the field image that indicates the direction of the head detected by the detection unit when the display unit displays the field image. By displaying information indicating a position on the field image different from the above on the display unit, or when the display unit displays the augmented reality image, the orientation of the head detected by the detection unit is determined. The head detected by the detection unit by displaying information indicating the position on the image of the field of view or the field of view different from the position on the image of the field of view or the field of view as the augmented reality image on the display unit. It is a public speaking support device including a motion index presentation unit that presents a head orientation different from the orientation of the unit.

(2)また、本発明の一態様は、上記のパブリックスピーキング支援装置において、前記検出部の検出した頭部の向きを解析し、解析した結果から当該頭部の向きを示す前記視野画像、前記視野または前記視野の画像上の位置を示す情報である頭部動作情報を生成する頭部動作解析部と、頭部の動きと、頭部の動きの評価とが対応づけられた情報であるパブリックスピーキング評価情報が記憶される記憶部と、前記頭部動作解析部が生成した頭部動作情報と、前記記憶部に記憶されるパブリックスピーキング評価情報とに基づき、前記頭部の動きを評価し、評価した結果から、前記頭部動作情報の示す位置とは異なる前記視野画像、前記視野または前記視野の画像上の位置を示す情報である頭部動作指示情報を生成するパフォーマンス評価部と、をさらに備え、前記動作指標提示部は、前記頭部動作指示情報の示す前記視野画像、前記視野または前記視野の画像上の位置を示す情報を前記表示部に表示させることにより、前記検出部により検出された頭部の向きとは異なる頭部の向きを提示する。 (2) Further, in one aspect of the present invention, in the above public speaking support device, the orientation of the head detected by the detection unit is analyzed, and the field image showing the orientation of the head from the analysis result , the said. The public, which is information in which the head movement analysis unit that generates head movement information, which is information indicating the position of the visual field or the position on the image of the visual field, and the movement of the head and the evaluation of the movement of the head are associated with each other. The movement of the head is evaluated based on the storage unit in which the speaking evaluation information is stored, the head movement information generated by the head motion analysis unit, and the public speaking evaluation information stored in the storage unit. From the evaluation result, the field image different from the position indicated by the head motion information, the performance evaluation unit that generates the head motion instruction information which is the information indicating the position on the visual field or the image of the visual field, and the performance evaluation unit are further provided. The motion index presenting unit is detected by the detection unit by displaying on the display unit the field image indicated by the head motion instruction information and information indicating the field or the position of the field on the image. Presents a head orientation that is different from the head orientation.

(3)また、本発明の一態様は、上記のパブリックスピーキング支援装置において、前記動作指標提示部は、前記頭部動作情報の示す位置と、前記頭部動作指示情報の示す位置とを、互いに区別可能な態様で前記表示部に表示させる。 (3) Further, in one aspect of the present invention, in the public speaking support device, the motion index presenting unit positions the position indicated by the head motion information and the position indicated by the head motion instruction information with each other. It is displayed on the display unit in a distinguishable manner.

(4)また、本発明の一態様は、上記のパブリックスピーキング支援装置において、パフォーマンス評価提示部をさらに備え前記パフォーマンス評価提示部は、前記頭部動作情報と、前記パブリックスピーキング評価情報とに基づき、前記被訓練者のパブリックスピーキングのパフォーマンスの評価を示す情報であるパフォーマンス評価情報を生成し、生成したパフォーマンス評価情報を前記表示部に表示させることにより、前記パフォーマンスの評価を提示する。 (4) Further, one aspect of the present invention further includes a performance evaluation presentation unit in the public speaking support device, and the performance evaluation presentation unit is based on the head motion information and the public speaking evaluation information. The performance evaluation information, which is information indicating the evaluation of the public speaking performance of the trainee, is generated, and the generated performance evaluation information is displayed on the display unit to present the performance evaluation.

(5)また、本発明の一態様は、上記のパブリックスピーキング支援装置において、前記被訓練者の音声を記録する音声記録部と、前記音声記録部が記録した音声を解析し、解析した結果から前記被訓練者の話す速度を示す情報である話速情報を生成する音声解析部と、をさらに備え、前記記憶部に記憶されるパブリックスピーキング評価情報は、前記話速情報と、パブリックスピーキングの評価とが対応づけられた情報をさらに含み、前記パフォーマンス評価提示部は、前記話速情報と、前記パブリックスピーキング評価情報とに基づきパフォーマンス評価情報を生成し、生成したパフォーマンス評価情報を前記表示部に表示させることにより、前記パフォーマンスの評価を提示する。 (5) Further, one aspect of the present invention is based on the results of analyzing the voice recording unit that records the voice of the trainee and the voice recorded by the voice recording unit in the public speaking support device. A voice analysis unit that generates speech speed information, which is information indicating the speaking speed of the trainee, is further provided, and the public speaking evaluation information stored in the storage unit includes the speaking speed information and evaluation of public speaking. The performance evaluation presentation unit further includes the information associated with the above, generates performance evaluation information based on the speech speed information and the public speaking evaluation information, and displays the generated performance evaluation information on the display unit. By letting it present, the evaluation of the performance is presented.

(6)また、本発明の一態様は、上記のパブリックスピーキング支援装置において、前記音声解析部は、音節を単位にして前記話速情報を生成する。 (6) Further, in one aspect of the present invention, in the public speaking support device, the voice analysis unit generates the speech speed information in units of syllables.

(7)また、本発明の一態様は、上記のパブリックスピーキング支援装置において、前記音声解析部は、前記音声記録部が記録した音声を解析し、解析した結果から前記被訓練者の声量を示す情報である声量情報を生成し、前記記憶部に記憶されるパブリックスピーキング評価情報は、前記声量情報と、パブリックスピーキングの評価とが対応づけられた情報をさらに含み、前記パフォーマンス評価提示部は、前記声量情報と、前記パブリックスピーキング評価情報とに基づきパフォーマンス評価情報を生成し、生成したパフォーマンス評価情報を前記表示部に表示させることにより、前記パフォーマンスの評価を提示する。 (7) Further, in one aspect of the present invention, in the public speaking support device, the voice analysis unit analyzes the voice recorded by the voice recording unit, and the voice volume of the trainee is shown from the analysis result. The public speaking evaluation information that generates voice volume information, which is information, and is stored in the storage unit further includes information in which the voice volume information is associated with the public speaking evaluation, and the performance evaluation presentation unit is described. Performance evaluation information is generated based on the voice volume information and the public speaking evaluation information, and the generated performance evaluation information is displayed on the display unit to present the performance evaluation.

(8)また、本発明の一態様は、上記のパブリックスピーキング支援装置において、前記被訓練者の心拍の値を示す心拍情報を生成する心拍情報生成部と、前記心拍情報生成部の生成した心拍情報を解析し、解析した結果から前記被訓練者の心拍の変動を示す情報である心拍変動情報を生成する心拍変動解析部と、をさらに備え、前記記憶部に記憶されるパブリックスピーキング評価情報は、前記心拍変動情報と、パブリックスピーキングの評価とが対応づけられた情報をさらに含み、前記パフォーマンス評価提示部は、前記心拍変動情報と、前記パブリックスピーキング評価情報とに基づきパフォーマンス評価情報を生成し、生成したパフォーマンス評価情報を前記表示部に表示させることにより、前記パフォーマンスの評価を提示する。
(9)また、本発明の一態様は、上記のパブリックスピーキング支援装置において、前記表示部に表示された前記視野画像または前記拡張現実画像が提示された前記被訓練者の緊張度を解析する状態解析部をさらに備え、前記記憶部に記憶されるパブリックスピーキング評価情報は、前記被訓練者の緊張度と、前記被訓練者の緊張度の評価とが対応づけられた情報をさらに含み、前記パフォーマンス評価提示部は、前記状態解析部が解析した前記被訓練者の緊張度と、前記記憶部に記憶される前記パブリックスピーキング評価情報とに基づき前記被訓練者の緊張度の評価を示す緊張度評価情報を生成し、生成した緊張度評価情報を前記表示部に表示させることにより、前記パフォーマンスの評価を提示する。
(8) Further, in one aspect of the present invention, in the above public speaking support device, a heartbeat information generation unit that generates heartbeat information indicating the heartbeat value of the trainee and a heartbeat generated by the heartbeat information generation unit. The public speaking evaluation information stored in the storage unit is further provided with a heart rate variability analysis unit that analyzes the information and generates heart rate variability information that is information indicating the heart rate variability of the trainee from the analysis result. Further, the performance evaluation presenting unit generates performance evaluation information based on the heart rate variability information and the public speaking evaluation information. The performance evaluation is presented by displaying the generated performance evaluation information on the display unit.
(9) Further, one aspect of the present invention is a state in which the degree of tension of the trainee to which the field image displayed on the display unit or the augmented reality image is presented is analyzed in the public speaking support device. The public speaking evaluation information further provided with an analysis unit and stored in the storage unit further includes information in which the tension level of the trainee is associated with the evaluation of the tension level of the trainee, and the performance. The evaluation presentation unit evaluates the tension level of the trainee based on the tension level of the trainee analyzed by the state analysis unit and the public speaking evaluation information stored in the storage unit. The performance evaluation is presented by generating information and displaying the generated tension evaluation information on the display unit.

10)また、本発明の一態様は、上記のパブリックスピーキング支援装置において、前記表示部とは、透過型の表示部である。 ( 10 ) Further, in one aspect of the present invention, in the public speaking support device, the display unit is a transmissive display unit.

11)また、本発明の一態様は、前記視野画像または前記拡張現実画像には、聴衆の目の画像が含まれる。 ( 11 ) Further, in one aspect of the present invention, the field image or the augmented reality image includes an image of the eyes of an audience.

12)また、本発明の一態様は、コンピュータに、被訓練者の頭部の向きを検出する検出ステップと、前記検出ステップにより検出された頭部の向きに対応した方向の仮想現実としての画像である視野画像、または、当該方向の拡張現実として前記被訓練者の視野または前記視野の画像に重ねて表示される画像である拡張現実画像を、当該頭部の向きに相対する向きにして表示部に表示する表示ステップと、前記表示部が前記視野画像を表示する場合には前記検出ステップにより検出された頭部の向きを示す前記視野画像上の位置とは異なる向きを示す前記視野画像上の位置を示す情報を前記表示部に表示させることにより、または、前記表示部が前記拡張現実画像を表示する場合には前記検出ステップにより検出された頭部の向きを示す前記視野または前記視野の画像上の位置とは異なる前記視野または前記視野の画像上の位置を示す情報を前記拡張現実画像として前記表示部に表示させることにより、前記検出ステップにより検出された頭部の向きとは異なる頭部の向きを提示する動作指標提示ステップと、を実行させるためのプログラムである。 ( 12 ) Further, one aspect of the present invention is a detection step for detecting the orientation of the head of the trainee and a virtual reality of the direction corresponding to the orientation of the head detected by the detection step on the computer. The field image, which is an image , or the augmented reality image, which is an image superimposed on the image of the trainee's field of view or the field of view as augmented reality in the direction, is oriented so as to face the direction of the head. The display step to be displayed on the display unit, and when the display unit displays the field image, the field image showing a direction different from the position on the field image indicating the direction of the head detected by the detection step. The field of view or the field of view indicating the orientation of the head detected by the detection step by displaying information indicating the upper position on the display unit, or when the display unit displays the augmented reality image. By displaying information indicating the field of view or the position of the field of view on the image as the augmented reality image on the display unit, the orientation of the head is different from the direction of the head detected by the detection step. It is a program for executing the motion index presentation step for presenting the direction of the head.

本発明によれば、パブリックスピーキングの練習において、被訓練者が、次にどの方向を向けばよいかを学習できる。 According to the present invention, in the practice of public speaking, the trainee can learn which direction to turn next.

本発明の第1の実施形態のパブリックスピーキング支援装置の概観の一例を示す図である。It is a figure which shows an example of the overview of the public speaking support apparatus of 1st Embodiment of this invention. 本実施形態のパブリックスピーキング支援装置を装着した被訓練者の頭部の概観の一例を示す側面図である。It is a side view which shows an example of the overview of the head of the trainee wearing the public speaking support device of this embodiment. 本実施形態のパブリックスピーキング支援装置の視野画像の一例を示す図である。It is a figure which shows an example of the field of view image of the public speaking support apparatus of this embodiment. 本実施形態のパブリックスピーキング支援装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the public speaking support apparatus of this embodiment. 本実施形態の頭部動作モデルの一例を示す図である。It is a figure which shows an example of the head motion model of this embodiment. 本実施形態のパブリックスピーキング支援装置の処理の一例を示す図である。It is a figure which shows an example of the processing of the public speaking support apparatus of this embodiment. 本実施形態のパブリックスピーキング支援装置の設定画面の一例を示す図である。It is a figure which shows an example of the setting screen of the public speaking support device of this embodiment. 本実施形態のパブリックスピーキング支援装置の心拍数測定画面の一例を示す図である。It is a figure which shows an example of the heart rate measurement screen of the public speaking support device of this embodiment. 本実施形態のパブリックスピーキング支援装置の評価提示画面の一例を示す図である。It is a figure which shows an example of the evaluation presentation screen of the public speaking support apparatus of this embodiment. 本実施形態のパブリックスピーキング支援装置の形態の一例を示す図である。It is a figure which shows an example of the form of the public speaking support device of this embodiment. 本実施形態のパブリックスピーキング支援装置の形態の一例を示す図である。It is a figure which shows an example of the form of the public speaking support device of this embodiment. 本発明の第2の実施形態のパブリックスピーキング支援装置の概観の一例を示す図である。It is a figure which shows an example of the overview of the public speaking support apparatus of the 2nd Embodiment of this invention. 本実施形態のパブリックスピーキング支援装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the public speaking support apparatus of this embodiment. 本発明の第3の実施形態のパブリックスピーキング支援装置の概観の一例を示す図である。It is a figure which shows an example of the overview of the public speaking support apparatus of 3rd Embodiment of this invention. 本実施形態のパブリックスピーキング支援装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the public speaking support apparatus of this embodiment. 本実施形態のパブリックスピーキング支援装置の視野画像の一例を示す図である。It is a figure which shows an example of the field of view image of the public speaking support apparatus of this embodiment. 本実施形態のパブリックスピーキング支援装置の視野画像の一例を示す図である。It is a figure which shows an example of the field of view image of the public speaking support apparatus of this embodiment. 本実施形態のパブリックスピーキング支援装置の概観の一例を示す図である。It is a figure which shows an example of the overview of the public speaking support apparatus of this embodiment.

(第1の実施形態)
以下、図面を参照しながら本発明の実施形態について詳しく説明する。本実施形態では、パブリックスピーキングの一例として、英語でのスピーチの場合を説明する。
図1は本実施形態のパブリックスピーキング支援装置D1の概観の一例を示す図である。
パブリックスピーキング支援装置D1(以下、支援装置D1と称する)は、ヘッドマウントディスプレイ(HMD:Head Mounted Display)の形態を取り、スピーチの被訓練者T1(以下、被訓練者T1)の頭部に装着され使用される。
支援装置D1は、被訓練者T1の頭部の向きを検出するセンサ(不図示)を備える。支援装置D1は、センサにより検出された、被訓練者T1の頭部の向きに対応した方向の視野画像を、当該頭部の向きに相対する向きにして、表示部(不図示)に表示する。
(First Embodiment)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In this embodiment, the case of speech in English will be described as an example of public speaking.
FIG. 1 is a diagram showing an example of an overview of the public speaking support device D1 of the present embodiment.
The public speaking support device D1 (hereinafter referred to as the support device D1) takes the form of a head-mounted display (HMD: Head Mounted Display) and is attached to the head of the trainee T1 (hereinafter referred to as the trainee T1) for speech. And used.
The support device D1 includes a sensor (not shown) that detects the orientation of the head of the trainee T1. The support device D1 displays the visual field image in the direction corresponding to the direction of the head of the trainee T1 detected by the sensor on the display unit (not shown) with the direction facing the direction of the head. ..

図2は、本実施形態の支援装置D1を装着した被訓練者T1の頭部の概観の一例を示す側面図である。
被訓練者T1の位置する場所に固定された座標系を、3次元直交座標系X、Y、Zとする。被訓練者T1の頭部に固定された座標系を、3次元直交座標系x、y、zとする。ここで、3次元直交座標系x、y、zのx軸とは、被訓練者T1の頭部の正面の向きであり、z軸とは、鉛直方向上向きである。
被訓練者T1の頭部の向きHD1とは、3次元直交座標系x、y、zのx軸の正の向きである。頭部の向きHD1に相対する向きDD1は、3次元直交座標系x、y、zのx軸の負の向きである。
FIG. 2 is a side view showing an example of an overview of the head of the trainee T1 wearing the support device D1 of the present embodiment.
The coordinate system fixed at the position where the trainee T1 is located is a three-dimensional Cartesian coordinate system X, Y, Z. The coordinate system fixed to the head of the trainee T1 is defined as a three-dimensional Cartesian coordinate system x, y, z. Here, the x-axis of the three-dimensional Cartesian coordinate system x, y, z is the direction of the front surface of the head of the trainee T1, and the z-axis is the vertical upward direction.
The orientation of the head of the trainee T1 HD1 is the positive orientation of the x-axis of the three-dimensional Cartesian coordinate system x, y, z. Head orientation The orientation DD1 relative to HD1 is the negative orientation of the x-axis of the three-dimensional Cartesian coordinate system x, y, z.

図3は、本実施形態の支援装置D1の視野画像I1の一例を示す図である。
支援装置D1は、視野画像I1上に、仮想的な発表会場の風景の画像と、仮想的な聴衆の動画(バーチャルオーディエンスと称する)とを表示する。支援装置D1は、頭部の向きHD1に応じて発表会場の風景の画像を3次元直交座標系X、Y、ZにおけるZ軸のまわりの角度にして360度表示する。
FIG. 3 is a diagram showing an example of the field image I1 of the support device D1 of the present embodiment.
The support device D1 displays an image of the scenery of the virtual presentation venue and a moving image of a virtual audience (referred to as a virtual audience) on the visual field image I1. The support device D1 displays an image of the landscape of the presentation venue 360 degrees at an angle around the Z axis in the three-dimensional Cartesian coordinate systems X, Y, and Z according to the orientation HD1 of the head.

支援装置D1は、自装置の評価する被訓練者T1のスピーチの評価に応じて、バーチャルオーディエンスを動かす。支援装置D1は、被訓練者T1のスピーチの評価が低い場合、ネガティブな反応をするバーチャルオーディエンスを表示する。一方、被訓練者T1のスピーチの評価が高い場合、支援装置D1は、ポジティブな反応をするバーチャルオーディエンスを表示する。
なお、支援装置D1は、スピーチの前半においてネガティブな反応をするバーチャルオーディエンスを表示するとともに、スピーチの後半においてポジティブな反応をするバーチャルオーディエンスを表示してもよい。あるいは、支援装置D1は、スピーチの最中において、ポジティブおよびネガティブのうちいずれか一方の反応を常にするバーチャルオーディエンスを表示してもよい。
ここで、ネガティブな反応とは、例えば、頬杖、居眠り、あくび、しかめ顔、うつむき等であり、ポジティブな反応とは、例えば、うなずき、笑顔等である。被訓練者T1は、バーチャルオーディエンスの反応から心理的フィードバックを感じることができる。
The support device D1 moves the virtual audience according to the evaluation of the speech of the trainee T1 evaluated by the own device. The support device D1 displays a virtual audience that reacts negatively when the trainee T1 has a low speech rating. On the other hand, if the trainee T1's speech is highly evaluated, the support device D1 displays a virtual audience that responds positively.
The support device D1 may display a virtual audience that reacts negatively in the first half of the speech, and may display a virtual audience that reacts positively in the latter half of the speech. Alternatively, the assistive device D1 may display a virtual audience that always responds to either positive or negative during the speech.
Here, the negative reaction is, for example, a cheek stick, a doze, a yawn, a frowning face, a face down, etc., and the positive reaction is, for example, a nod, a smile, etc. The trainee T1 can feel psychological feedback from the reaction of the virtual audience.

支援装置D1は、バーチャルオーディエンスを、設定に応じて、コンピュータグラフィックス(CG:Computer Graphics)、または実写動画を用いて表示する。表示F3には、バーチャルオーディエンスについての上記の設定、及びスピーチの時間が表示されている。 The support device D1 displays the virtual audience by using computer graphics (CG: Computer Graphics) or a live-action moving image, depending on the setting. The display F3 displays the above settings for the virtual audience and the time of the speech.

支援装置D1は、被訓練者T1のアイコンタクトの動作(顔や首の動き)を、頭部の向きHD1として検出する。支援装置D1は、検出した頭部の向きHD1を解析し、被訓練者T1が次に見るべき、視野画像I1上の位置を示す情報である頭部動作指示情報を生成する。
パブリックスピーキングについての基礎研究により、一定時間(5秒程度)毎に、向く場所(アイコンタクトを取る聴衆)を変え、聴衆全体をまんべんなく見ることが、優れたパブリックスピーキングであるという結果が得られている。頭部動作指示情報は、この研究結果に基づき生成される。
The support device D1 detects the eye contact movement (movement of the face and neck) of the trainee T1 as the head orientation HD1. The support device D1 analyzes the detected head orientation HD1 and generates head movement instruction information which is information indicating the position on the visual field image I1 that the trainee T1 should see next.
Basic research on public speaking has shown that it is excellent public speaking to change the place to face (the audience who makes eye contact) at regular intervals (about 5 seconds) and see the entire audience evenly. There is. Head movement instruction information is generated based on the results of this study.

支援装置D1は、生成した頭部動作指示情報の示す位置を、視野画像I1上に表示する。ここで、支援装置D1は、被訓練者T1が次に見るべき位置を、2行5列のマス目状に並べて表示された、半透明のパネルPN1、PN2、PN3、PN4、PN5、PN6、PN7、PN8、PN9、PN10の中から選択する。以下では、パネルPN1、PN2、PN3、PN4、PN5、PN6、PN7、PN8、PN9、PN10をまとめてパネルPNと称することがある。支援装置D1は、パネルPNの中から選択された特定のパネル(図3、及び以下の説明では、一例として、パネルPN3)の枠の輝度を上げるなどして特定のパネルをその他のパネルと識別可能にする。これにより、支援装置D1は、被訓練者T1に次に見るべき位置を知らせる。
したがって、支援装置D1を利用することにより、パブリックスピーキングの練習において、被訓練者は、次にどの方向を向けばよいか学習できる。
The support device D1 displays the position indicated by the generated head movement instruction information on the visual field image I1. Here, the support device D1 is a translucent panel PN1, PN2, PN3, PN4, PN5, PN6, in which the positions to be seen next by the trainee T1 are displayed side by side in a grid pattern of 2 rows and 5 columns. Select from PN7, PN8, PN9, and PN10. Hereinafter, the panels PN1, PN2, PN3, PN4, PN5, PN6, PN7, PN8, PN9, and PN10 may be collectively referred to as a panel PN. The support device D1 identifies the specific panel from other panels by increasing the brightness of the frame of the specific panel (panel PN3 as an example in FIG. 3 and the following description) selected from the panel PN. to enable. As a result, the support device D1 informs the trainee T1 of the position to be seen next.
Therefore, by using the support device D1, the trainee can learn which direction to turn next in the practice of public speaking.

支援装置D1は、音声記録装置(不図示)を備え、被訓練者T1の音声を取得する。支援装置D1は、取得した音声を解析し、被訓練者T1が話す速度についての評価を示す情報である話速評価情報を、表示F2として表示する。
支援装置D1は、生体センサ(不図示)を備え、被訓練者T1の心拍の値を示す情報を取得する。支援装置D1は、取得した被訓練者T1の心拍の値を示す情報を解析し、被訓練者T1の緊張度についての評価を示す情報である緊張度評価情報を、表示F1として表示する。
The support device D1 includes a voice recording device (not shown) and acquires the voice of the trainee T1. The support device D1 analyzes the acquired voice and displays the speaking speed evaluation information, which is information indicating the evaluation of the speaking speed of the trainee T1, as the display F2.
The support device D1 includes a biosensor (not shown) and acquires information indicating the heart rate value of the trainee T1. The support device D1 analyzes the acquired information indicating the heart rate value of the trainee T1, and displays the tension evaluation information, which is the information indicating the evaluation of the tension of the trainee T1, as the display F1.

支援装置D1は、スピーチが終了すると、被訓練者T1のアイコンタクトの動作、話す速度、及び心拍に基づき、被訓練者T1のスピーチの評価得点を提示する。 When the speech is completed, the support device D1 presents the evaluation score of the speech of the trainee T1 based on the movement of the trainee T1's eye contact, the speaking speed, and the heartbeat.

支援装置D1は、視野画像I1上における演台に、スピーチの資料の画像S1を表示する。ここで、スピーチの資料の画像S1とは、被訓練者T1により予め選択設定された、スクリプトの画像や、発表の資料の画像である。被訓練者T1は、視野画像I1において、スピーチの資料の画像S1を見ながら、訓練することができる。視野画像I1上に表示される画像S1は、被訓練者T1等により適宜選択設定されたものであってもよい。
支援装置D1は、被訓練者T1による操作等に基づき、視野画像I1上への画像S1の表示をオフにすることができる。表示がオフにされる場合、支援装置D1は、視野画像I1上において、画像S1に代えて演台の画像を表示してもよい。被訓練者T1は、視野画像I1上のスクリプト等の画像を見ることなく、予め記憶したスピーチや即興で練習することができる。
以下、スピーチの練習において、被訓練者が、次にどの方向を向けばよいか学習できることを実現する、支援装置D1の機能構成について図4を参照して説明する。
The support device D1 displays the image S1 of the speech material on the podium on the visual field image I1. Here, the image S1 of the speech material is an image of the script or an image of the material of the presentation, which is selected and set in advance by the trainee T1. The trainee T1 can be trained while looking at the image S1 of the speech material in the visual field image I1. The image S1 displayed on the visual field image I1 may be appropriately selected and set by the trainee T1 or the like.
The support device D1 can turn off the display of the image S1 on the visual field image I1 based on the operation by the trainee T1 or the like. When the display is turned off, the support device D1 may display an image of the podium instead of the image S1 on the field image I1. The trainee T1 can practice with a speech or improvisation stored in advance without looking at an image such as a script on the visual field image I1.
Hereinafter, the functional configuration of the support device D1 that realizes that the trainee can learn which direction to turn next in the speech practice will be described with reference to FIG.

[支援装置D1の機能構成]
支援装置D1は、ヘッドマウントディスプレイ1、携帯端末2、生体センサ3を含んで構成される。ヘッドマウントディスプレイ1及び携帯端末2は、一体となって構成されてもよく、また一体となって構成されなくてもよい。
ヘッドマウントディスプレイ1は、音声記録装置10、動きセンサ11、画像生成装置12、表示装置13、音声出力装置14を含んで構成される。
[Functional configuration of support device D1]
The support device D1 includes a head-mounted display 1, a mobile terminal 2, and a biosensor 3. The head-mounted display 1 and the mobile terminal 2 may or may not be integrally configured.
The head-mounted display 1 includes a voice recording device 10, a motion sensor 11, an image generation device 12, a display device 13, and a voice output device 14.

音声記録装置10は、被訓練者T1の音声を取得し、取得した音声を、音声情報として記録する。音声記録装置10は、記録した音声情報を、携帯端末2に供給する。
動きセンサ11は、被訓練者T1の頭部の向きHD1を検出する。動きセンサ11は、検出した頭部の向きHD1を、携帯端末2、及び画像生成装置12に供給する。
The voice recording device 10 acquires the voice of the trainee T1 and records the acquired voice as voice information. The voice recording device 10 supplies the recorded voice information to the mobile terminal 2.
The motion sensor 11 detects the orientation HD1 of the head of the trainee T1. The motion sensor 11 supplies the detected head orientation HD1 to the mobile terminal 2 and the image generation device 12.

画像生成装置12は、動きセンサ11により検出された頭部の向きHD1に対応した方向の視野画像I1を生成し、表示装置13に供給する。
画像生成装置12は、動作指標提示部26からの出力に応じて、パネルPNの中の特定のパネル(パネルPN3)の枠の輝度を上げる。
画像生成装置12は、パフォーマンス評価提示部25から、後述するパブリックスピーキングの評価情報を取得し、話速評価情報と、緊張度評価情報とに各々対応する表示F2と、表示F3とを生成する。画像生成装置12は、取得した評価情報に応じて、ポジティブな反応をする、またはネガティブな反応をするバーチャルオーディエンスを生成する。
The image generation device 12 generates a visual field image I1 in a direction corresponding to the direction HD1 of the head detected by the motion sensor 11 and supplies the visual field image I1 to the display device 13.
The image generation device 12 increases the brightness of the frame of a specific panel (panel PN3) in the panel PN according to the output from the operation index presenting unit 26.
The image generation device 12 acquires the evaluation information of public speaking described later from the performance evaluation presentation unit 25, and generates the display F2 and the display F3 corresponding to the speech speed evaluation information and the tension evaluation information, respectively. The image generation device 12 generates a virtual audience that reacts positively or negatively according to the acquired evaluation information.

表示装置13は、画像生成装置12から取得した視野画像I1を、頭部の向きHD1に相対する向きにして表示する。
表示装置13は、携帯端末2が生成した被訓練者T1が次に見るべき位置を、視野画像I1上に表示する。
表示装置13は、携帯端末2から取得した話速評価情報を、表示F2として視野画像I1上に表示する。表示装置13は、携帯端末2が生成した緊張度評価情報が入力されると、当該情報を、表示F1として視野画像I1上に表示する。
表示装置13は、スピーチの終了時に、携帯端末2が算出した被訓練者T1のスピーチの評価得点を提示する。
表示装置13は、例えば、液晶ディスプレイ、または有機エレクトロルミネッセンス(EL;Electroluminescence)ディスプレイである。
The display device 13 displays the visual field image I1 acquired from the image generation device 12 in a direction opposite to the direction HD1 of the head.
The display device 13 displays the position to be seen next by the trainee T1 generated by the mobile terminal 2 on the visual field image I1.
The display device 13 displays the speech speed evaluation information acquired from the mobile terminal 2 on the visual field image I1 as the display F2. When the tension evaluation information generated by the mobile terminal 2 is input, the display device 13 displays the information as the display F1 on the visual field image I1.
At the end of the speech, the display device 13 presents the evaluation score of the speech of the trainee T1 calculated by the mobile terminal 2.
The display device 13 is, for example, a liquid crystal display or an organic electroluminescence (EL) display.

音声出力装置14は、携帯端末2から入力される音声メッセージに基づき、音声を出力する。音声出力装置14とは、例えば、スピーカーである。 The voice output device 14 outputs voice based on the voice message input from the mobile terminal 2. The audio output device 14 is, for example, a speaker.

携帯端末2は、音声解析部20、頭部動作解析部21、心拍変動解析部22、パフォーマンス評価部23、スピーチパフォーマンス指標データベース24、パフォーマンス評価提示部25、動作指標提示部26、音声メッセージ生成部27を含んで構成される。 The mobile terminal 2 includes a voice analysis unit 20, a head motion analysis unit 21, a heart rate variability analysis unit 22, a performance evaluation unit 23, a speech performance index database 24, a performance evaluation presentation unit 25, an operation index presentation unit 26, and a voice message generation unit. 27 is included.

音声解析部20は、音声記録装置10が記録した音声を取得する。音声解析部20は、取得した音声を解析し、解析した結果から被訓練者T1が話す速度を示す情報である話速情報を生成する。音声解析部20は、生成した話速情報を、パフォーマンス評価部23に供給する。 The voice analysis unit 20 acquires the voice recorded by the voice recording device 10. The voice analysis unit 20 analyzes the acquired voice and generates speech speed information which is information indicating the speed at which the trainee T1 speaks from the analysis result. The voice analysis unit 20 supplies the generated speech speed information to the performance evaluation unit 23.

音声解析部20は、話速情報の生成の際、被訓練者T1が話す速度を、所定の時間毎に算出する。ここで、所定の時間間隔とは、例えば、5秒間である。音声解析部20は、被訓練者T1が話す速度を、所定の時間に被訓練者T1が話した単語数を音節数に換算し、単位時間当たりの音節数として算出する。つまり、音声解析部20は、音節を単位にして話速情報を生成する。
音声解析部20は、音節を単位にして被訓練者T1が話す速度を算出するため、言語の違いにより単語の長さが異なる場合であっても、音節数という共通の基準で被訓練者T1が話す速度を算出できる。このため、音声解析部20は、多言語に対応が可能である。
The voice analysis unit 20 calculates the speed at which the trainee T1 speaks at predetermined time intervals when the speech speed information is generated. Here, the predetermined time interval is, for example, 5 seconds. The voice analysis unit 20 calculates the speed at which the trainee T1 speaks as the number of syllables per unit time by converting the number of words spoken by the trainee T1 at a predetermined time into the number of syllables. That is, the voice analysis unit 20 generates speech speed information in units of syllables.
Since the voice analysis unit 20 calculates the speed at which the trainee T1 speaks in units of syllables, the trainee T1 is based on the common standard of the number of syllables even if the word length differs due to the difference in language. Can calculate the speaking speed. Therefore, the voice analysis unit 20 can support multiple languages.

頭部動作解析部21は、動きセンサ11の検出した頭部の向きHD1を取得する。頭部動作解析部21は、取得した頭部の向きHD1を解析し、解析した結果に基づき頭部動作情報を生成する。ここで、頭部動作情報とは、頭部の向きHD1を示す視野画像I1の位置を示す情報である。頭部動作情報には、動きセンサ11が、頭部の向きHD1を検出した時刻が含まれる。頭部動作解析部21は、生成した頭部動作情報を、パフォーマンス評価部23に供給する。 The head motion analysis unit 21 acquires the head orientation HD1 detected by the motion sensor 11. The head motion analysis unit 21 analyzes the acquired head orientation HD1 and generates head motion information based on the analysis result. Here, the head motion information is information indicating the position of the visual field image I1 indicating the orientation HD1 of the head. The head motion information includes the time when the motion sensor 11 detects the head orientation HD1. The head motion analysis unit 21 supplies the generated head motion information to the performance evaluation unit 23.

心拍変動解析部22は、生体センサ3の生成した被訓練者T1の心拍情報を取得する。心拍変動解析部22は、取得した心拍情報を解析し、解析した結果に基づき、被訓練者T1の心拍の変動を示す情報である心拍変動情報を生成する。心拍変動解析部22は、生成した心拍変動情報を、パフォーマンス評価部23に供給する。 The heart rate variability analysis unit 22 acquires the heart rate information of the trainee T1 generated by the biological sensor 3. The heart rate variability analysis unit 22 analyzes the acquired heart rate information, and based on the analysis result, generates heart rate variability information which is information indicating the heart rate variability of the trainee T1. The heart rate variability analysis unit 22 supplies the generated heart rate variability information to the performance evaluation unit 23.

心拍変動情報は、予め測定した被訓練者T1の平常時の心拍数よりも、所定の回数以上の心拍上昇がみられたか否かを示す。所定の回数とは、例えば、5回である。心拍変動解析部22は、被訓練者T1の平常時の心拍の値を、後述する心拍数測定画面I3が表示装置13に表示される間に、測定する。 The heart rate variability information indicates whether or not the heart rate has increased more than a predetermined number of times with respect to the normal heart rate of the trainee T1 measured in advance. The predetermined number of times is, for example, five times. The heart rate variability analysis unit 22 measures the normal heart rate value of the trainee T1 while the heart rate measurement screen I3, which will be described later, is displayed on the display device 13.

パフォーマンス評価部23は、頭部動作解析部21から頭部動作情報を取得する。パフォーマンス評価部23は、スピーチパフォーマンス指標データベース24からパブリックスピーキング評価情報を読み込む。
ここで、パブリックスピーキング評価情報の一例には、被訓練者T1の頭部の動きと、当該頭部の動きの評価とが対応づけられた情報、話速情報と、パブリックスピーキングの評価とが対応づけられた情報、心拍変動情報と、パブリックスピーキングの評価とが対応づけられた情報がある。
The performance evaluation unit 23 acquires head movement information from the head movement analysis unit 21. The performance evaluation unit 23 reads the public speaking evaluation information from the speech performance index database 24.
Here, as an example of the public speaking evaluation information, the information in which the movement of the head of the trainee T1 is associated with the evaluation of the movement of the head, the speech speed information, and the evaluation of the public speaking correspond. There is information associated with the attached information, heart rate variability information, and public speaking evaluation.

パブリックスピーキング評価情報は、上述のパブリックスピーキングに関する基礎研究の蓄積を基に算出された指標である。パブリックスピーキング評価情報は、頭部動作情報の示す視野画像I1の位置が、頭部動作モデルの示す視野画像I1の位置と一致していた時間が長いほど、当該頭部動作情報に対して、高い評価を割り当てる。
ここで、頭部動作モデルとは、上述のパブリックスピーキングに関する基礎研究結果に基づく、優れたスピーチのための理想的な頭部の動きを、各時間における視野画像I1の位置として表した情報である。
The public speaking evaluation information is an index calculated based on the accumulation of basic research on public speaking described above. The public speaking evaluation information is higher with respect to the head motion information as the time in which the position of the visual field image I1 indicated by the head motion information coincides with the position of the visual field image I1 indicated by the head motion model is longer. Assign a rating.
Here, the head movement model is information representing the ideal head movement for excellent speech based on the above-mentioned basic research results on public speaking as the position of the visual field image I1 at each time. ..

パフォーマンス評価部23は、取得した頭部動作情報と、読み込んだパブリックスピーキング評価情報とに基づき、被訓練者T1の頭部の動きを評価する。パフォーマンス評価部23は、評価した結果から、頭部の動きの評価が高くなる頭部の動きを判定する。パフォーマンス評価部23は、判定した結果から、頭部動作指示情報を生成する。パフォーマンス評価部23は、生成した頭部動作指示情報を、動作指標提示部26に供給する。頭部動作指示情報は、頭部動作情報の示す位置とは異なる視野画像I1上の位置を示す。
なお、パフォーマンス評価部23は、頭部の動きの評価が高くなる頭部の動きが複数ある場合、複数の頭部の動きの評価が高くなる頭部の動きの中からランダムに1つを選択してよい。
The performance evaluation unit 23 evaluates the movement of the head of the trainee T1 based on the acquired head movement information and the read public speaking evaluation information. From the evaluation result, the performance evaluation unit 23 determines the movement of the head, which is highly evaluated for the movement of the head. The performance evaluation unit 23 generates head movement instruction information from the determination result. The performance evaluation unit 23 supplies the generated head motion instruction information to the motion index presentation unit 26. The head motion instruction information indicates a position on the visual field image I1 that is different from the position indicated by the head motion information.
In addition, when there are a plurality of head movements in which the evaluation of the head movement is high, the performance evaluation unit 23 randomly selects one from the head movements in which the evaluation of the plurality of head movements is high. You can do it.

パフォーマンス評価部23は、スピーチ終了時に、評価した結果から、アイコンタクト評価情報を生成する。ここで、アイコンタクト評価情報とは、被訓練者T1のアイコンタクトの動作の評価を示す情報である。パフォーマンス評価部23は、生成したアイコンタクト評価情報を、パフォーマンス評価提示部25に供給する。 At the end of the speech, the performance evaluation unit 23 generates eye contact evaluation information from the evaluation results. Here, the eye contact evaluation information is information indicating the evaluation of the eye contact operation of the trainee T1. The performance evaluation unit 23 supplies the generated eye contact evaluation information to the performance evaluation presentation unit 25.

パフォーマンス評価部23は、音声解析部20から話速情報を取得する。パフォーマンス評価部23は、取得した話速情報と、スピーチパフォーマンス指標データベース24から取得したパブリックスピーキング評価情報とに基づき、被訓練者T1の話す速度を評価する。パフォーマンス評価部23は、評価した結果から、話速評価情報を生成する。パフォーマンス評価部23は、生成した話速評価情報を、パフォーマンス評価提示部25に供給する。 The performance evaluation unit 23 acquires speech speed information from the voice analysis unit 20. The performance evaluation unit 23 evaluates the speaking speed of the trainee T1 based on the acquired speaking speed information and the public speaking evaluation information acquired from the speech performance index database 24. The performance evaluation unit 23 generates speech speed evaluation information from the evaluation results. The performance evaluation unit 23 supplies the generated speech speed evaluation information to the performance evaluation presentation unit 25.

上述のパブリックスピーキングに関する基礎研究の結果から、非英語母語話者が、非英語母語話者を含む聴衆に対して英語でスピーチを行う場合、理想的な話す速度の一例は、140から150単語毎秒(wpm)前後とされている。パブリックスピーキング評価情報は、理想的な話す速度が音節毎秒(sps)を単位に換算された値に基づいている。パブリックスピーキング評価情報では、例えば、話す速度と評価とは、0spsから0.7spsが「遅い」、2.71spsから5.99spsが「ちょうどいい」、6sps以上が「速い」と、各々対応づけられている。 From the results of the basic research on public speaking mentioned above, when a non-native English speaker speaks in English to an audience including non-native English speakers, an example of an ideal speaking speed is 140 to 150 words per second. It is said to be around (wpm). The public speaking rating information is based on the ideal speaking speed converted to syllables per second (sps). In the public speaking evaluation information, for example, speaking speed and evaluation are associated with "slow" from 0 sps to 0.7 sps, "just right" from 2.71 sps to 5.99 sps, and "fast" from 6 sps or more. ing.

パフォーマンス評価部23は、心拍変動解析部22から心拍変動情報を取得する。パフォーマンス評価部23は、取得した心拍変動情報と、スピーチパフォーマンス指標データベース24から取得したパブリックスピーキング評価情報とに基づき、被訓練者T1の緊張度を評価する。パフォーマンス評価部23は、評価した結果から、緊張度評価情報を生成する。パフォーマンス評価部23は、生成した緊張度評価情報を、パフォーマンス評価提示部25に供給する。 The performance evaluation unit 23 acquires heart rate variability information from the heart rate variability analysis unit 22. The performance evaluation unit 23 evaluates the degree of tension of the trainee T1 based on the acquired heart rate variability information and the public speaking evaluation information acquired from the speech performance index database 24. The performance evaluation unit 23 generates tension evaluation information from the evaluation results. The performance evaluation unit 23 supplies the generated tension evaluation information to the performance evaluation presentation unit 25.

パブリックスピーキング評価情報では、被訓練者T1の心拍が測定された回数のうち、予め測定した被訓練者T1の平常時の心拍数よりも、所定の回数以上の心拍上昇がみられた回数と、緊張度の評価とが対応づけられている。 According to the public speaking evaluation information, among the number of times the heart rate of the trainee T1 was measured, the number of times the heart rate increased more than a predetermined number of times than the normal heart rate of the trainee T1 measured in advance, and the number of times. It is associated with the evaluation of the degree of tension.

スピーチパフォーマンス指標データベース24は、パブリックスピーキング評価情報が記憶される。スピーチパフォーマンス指標データベース24は、例えば、フラッシュメモリやハードディスクなどのストレージでもよいし、ROM(Read Only Memory)でもよい。スピーチパフォーマンス指標データベース24は、外部サーバ装置などの他の装置から例えば有線又は無線のネットワークを介して入力された、パブリックスピーキング評価情報を記憶してもよい。 The speech performance index database 24 stores public speaking evaluation information. The speech performance index database 24 may be, for example, a storage such as a flash memory or a hard disk, or may be a ROM (Read Only Memory). The speech performance index database 24 may store public speaking evaluation information input from other devices such as an external server device via, for example, a wired or wireless network.

パフォーマンス評価提示部25は、パフォーマンス評価部23から、アイコンタクト評価情報と、話速評価情報と、緊張度評価情報とを取得する。
パフォーマンス評価提示部25は、スピーチの間、取得した話速評価情報と、取得した心拍変動情報とを、画像生成装置12を介して、表示装置13に表示させることにより提示する。
パフォーマンス評価提示部25は、スピーチの終了時に、被訓練者T1のスピーチの評価得点を算出する。パフォーマンス評価提示部25は、算出した評価得点を、表示装置13に表示させることにより提示する。
The performance evaluation presentation unit 25 acquires eye contact evaluation information, speech speed evaluation information, and tension evaluation information from the performance evaluation unit 23.
During the speech, the performance evaluation presentation unit 25 presents the acquired speech speed evaluation information and the acquired heart rate variability information by displaying them on the display device 13 via the image generation device 12.
At the end of the speech, the performance evaluation presentation unit 25 calculates the evaluation score of the speech of the trainee T1. The performance evaluation presentation unit 25 presents the calculated evaluation score by displaying it on the display device 13.

なお、本実施形態では、パフォーマンス評価部23が、アイコンタクト評価情報と、話速評価情報と、緊張度評価情報とを生成する場合を扱うが、パフォーマンス評価提示部25が、アイコンタクト評価情報と、話速評価情報と、緊張度評価情報とを生成してもよい。
その場合、パフォーマンス評価提示部25は、頭部動作情報と、パブリックスピーキング評価情報とに基づき、被訓練者T1のパブリックスピーキングの評価を示す情報であるアイコンタクト評価情報を生成し、生成したアイコンタクト評価情報を表示装置13に表示させることにより提示する。
パフォーマンス評価提示部25は、話速情報と、パブリックスピーキング評価情報とに基づき話速評価情報を生成し、生成した話速評価情報を表示装置13に表示させることにより提示する。
In the present embodiment, the performance evaluation unit 23 handles the case where the eye contact evaluation information, the speech speed evaluation information, and the tension degree evaluation information are generated, and the performance evaluation presentation unit 25 uses the eye contact evaluation information. , Speaking speed evaluation information and tension evaluation information may be generated.
In that case, the performance evaluation presentation unit 25 generates eye contact evaluation information, which is information indicating the public speaking evaluation of the trainee T1, based on the head movement information and the public speaking evaluation information, and the generated eye contact. The evaluation information is presented by displaying it on the display device 13.
The performance evaluation presentation unit 25 generates speech speed evaluation information based on the speech speed information and the public speaking evaluation information, and presents the generated speech speed evaluation information by displaying it on the display device 13.

動作指標提示部26は、パフォーマンス評価部23から頭部動作指示情報を取得する。動作指標提示部26は、画像生成装置12を介して、取得した頭部動作指示情報の示す向きを示す、視野画像I1上の位置に対応するパネルPN3の枠の輝度を上げて、表示装置13に表示させる。つまり、動作指標提示部26は、取得した頭部動作指示情報の示す向きに対応する視野画像I1上の位置を表示装置13に表示させることにより、取得した頭部動作指示情報の示す向きを提示する。
動作指標提示部26は、視野画像I1上の位置に対応するパネルPN3の枠の輝度を上げることにより、頭部動作情報の示す位置と、頭部動作指示情報の示す位置とを、互いに区別可能な態様で表示装置13に表示させる。
The motion index presentation unit 26 acquires head motion instruction information from the performance evaluation unit 23. The motion index presentation unit 26 increases the brightness of the frame of the panel PN3 corresponding to the position on the field image I1 indicating the direction indicated by the acquired head motion instruction information via the image generation device 12, and the display device 13 To display. That is, the motion index presenting unit 26 presents the direction indicated by the acquired head motion instruction information by displaying the position on the visual field image I1 corresponding to the direction indicated by the acquired head motion instruction information on the display device 13. do.
The motion index presenting unit 26 can distinguish between the position indicated by the head motion information and the position indicated by the head motion instruction information by increasing the brightness of the frame of the panel PN3 corresponding to the position on the visual field image I1. It is displayed on the display device 13 in various manners.

なお、動作指標提示部26は、頭部動作解析部21から頭部動作情報を取得してもよい。動作指標提示部26は、取得した頭部動作情報が、頭部の向きHD1が所定の時間変わらない場合、取得した頭部動作情報の示す視野画像I1上の位置とは異なる位置に対応するパネルを、パネルPNの中からランダムに選択してもよい。その場合、動作指標提示部26は、選択したパネルの枠の輝度を上げて、表示装置13に表示させる。
つまり、動作指標提示部26は、動きセンサ11により検出された頭部の向きHD1を示す視野画像I1上の位置とは異なる視野画像I1上の位置を表示装置13に表示させることにより、動きセンサ11により検出された頭部の向きHD1とは異なる頭部の向きHD1を提示する。
これにより、被訓練者T1は、パブリックスピーキングの練習において、同じ場所を向き続けることを防ぐことができる。
The motion index presentation unit 26 may acquire head motion information from the head motion analysis unit 21. The motion index presentation unit 26 is a panel corresponding to a position where the acquired head motion information is different from the position on the visual field image I1 indicated by the acquired head motion information when the head orientation HD1 does not change for a predetermined time. May be randomly selected from the panel PN. In that case, the operation index presenting unit 26 increases the brightness of the frame of the selected panel and causes the display device 13 to display it.
That is, the motion index presenting unit 26 causes the display device 13 to display a position on the field image I1 that is different from the position on the field image I1 indicating the orientation HD1 of the head detected by the motion sensor 11. A head orientation HD1 different from the head orientation HD1 detected by 11 is presented.
This prevents the trainee T1 from continuing to face the same location in public speaking practice.

また、動作指標提示部26は、取得した頭部動作情報が、頭部の向きHD1が所定の時間、所定の回数以上変化する場合、取得した頭部動作情報の示す視野画像I1上の複数の位置とは異なる位置に対応するパネルを、パネルPNの中からランダムに選択してもよい。これにより、被訓練者T1は、パブリックスピーキングの練習において、向く場所を必要以上に頻繁に変えることを防ぐことができる。 Further, the motion index presentation unit 26 has a plurality of acquired head motion information on the visual field image I1 indicated by the acquired head motion information when the head orientation HD1 changes for a predetermined time and a predetermined number of times or more. A panel corresponding to a position different from the position may be randomly selected from the panel PN. As a result, the trainee T1 can prevent the trainee T1 from changing his / her facing place more frequently than necessary in the practice of public speaking.

音声メッセージ生成部27は、パフォーマンス評価部23から評価得点を取得する。音声メッセージ生成部27は、取得した評価得点に応じて、音声メッセージを生成する。音声メッセージ生成部27は、生成した音声メッセージを、スピーチ終了時に、音声出力装置14に出力させる。 The voice message generation unit 27 acquires an evaluation score from the performance evaluation unit 23. The voice message generation unit 27 generates a voice message according to the acquired evaluation score. The voice message generation unit 27 causes the voice output device 14 to output the generated voice message at the end of the speech.

生体センサ3は、所定の時間の毎に、被訓練者T1の心拍を計測し、心拍の値を示す心拍情報を生成し、携帯端末2に供給する。ここで、所定の時間とは、例えば、10秒である。生体センサ3は、例えば、脈拍センサを備えたウェアラブル端末である。 The biological sensor 3 measures the heartbeat of the trainee T1 at predetermined time intervals, generates heartbeat information indicating the heartbeat value, and supplies the heartbeat information to the mobile terminal 2. Here, the predetermined time is, for example, 10 seconds. The biosensor 3 is, for example, a wearable terminal provided with a pulse sensor.

ここで、図5を用いて頭部動作モデルの一例について説明する。
図5は、本実施形態の頭部動作モデルの一例を示す図である。
2行5列のマス目は、視野画像I1における半透明のパネルPNに対応する。一例として、スピーチ開始時の頭部の向きHD1を示す視野画像I1の位置が、パネルPN1であるとする。
被訓練者T1が次に見るべきパネルPNは、5秒程度の間隔で変化する。パネルPN3は、スピーチ開始時からの経過時間が5秒から10秒の間に、被訓練者T1が見るべきパネルである。この間、動作指標提示部26は、パネルPN3の枠の輝度を上げる。以下、被訓練者T1が見るべきパネルは、パネルPN10、パネルPN8、パネルPN6、パネルPN3、パネルPN5の順に変化する。
Here, an example of a head motion model will be described with reference to FIG.
FIG. 5 is a diagram showing an example of a head movement model of the present embodiment.
The squares of 2 rows and 5 columns correspond to the translucent panel PN in the field image I1. As an example, it is assumed that the position of the visual field image I1 showing the orientation HD1 of the head at the start of the speech is the panel PN1.
The panel PN that the trainee T1 should see next changes at intervals of about 5 seconds. Panel PN3 is a panel that the trainee T1 should see while the elapsed time from the start of the speech is 5 to 10 seconds. During this time, the operation index presentation unit 26 raises the brightness of the frame of the panel PN3. Hereinafter, the panel to be viewed by the trainee T1 changes in the order of panel PN10, panel PN8, panel PN6, panel PN3, and panel PN5.

被訓練者T1が見るべきパネルの枠の輝度の変化の仕方について説明する。スピーチ開始時に、被訓練者T1は、パネルPN1を見ている。所定の時間(例えば、1秒から2秒程度)が経過すると、動作指標提示部26は、次に見るべきパネルPN3の枠の輝度を上げ始める。ただし、動作指標提示部26は、次に見るべきパネルPN3の枠の輝度を連続的に上げる。これは、頭部動作モデルでは、頭部の向きHD1は、現在見ているパネルPN1から、次に見るべきパネルPN3へと、急に変わるのではなく、左端のパネルPN1から、パネルPN2を経て、正面のパネルPN3の位置へと徐々に変わってゆくことに対応する。 The method of changing the brightness of the panel frame that the trainee T1 should see will be described. At the beginning of the speech, the trainee T1 is looking at the panel PN1. After a predetermined time (for example, about 1 to 2 seconds) has elapsed, the operation index presenting unit 26 starts to increase the brightness of the frame of the panel PN3 to be viewed next. However, the operation index presentation unit 26 continuously increases the brightness of the frame of the panel PN3 to be viewed next. This is because in the head motion model, the head orientation HD1 does not suddenly change from the panel PN1 currently being viewed to the panel PN3 to be viewed next, but from the leftmost panel PN1 through the panel PN2. Corresponds to the gradual change to the position of the front panel PN3.

動作指標提示部26は、パネルPN3の枠の輝度を上げ始めてから、所定の時間(例えば、5秒程度)が経過すると、パネルPN3の枠の輝度を下げ始める。ただし、動作指標提示部26は、パネルPN3の枠の輝度を上げ始めてから、所定の時間(例えば、10秒程度)が経過する時点において、パネルPN3の枠の輝度が元の輝度に戻るように、パネルPN3の枠の輝度を連続的に下げる。動作指標提示部26は、動作指標提示部26は、パネルPN3の枠の輝度を下げ始めてから、所定の時間(例えば、1秒から2秒程度)が経過すると、次に見るべきパネルとしてパネルPN10の枠の輝度を上げ始める。 The operation index presenting unit 26 starts to reduce the brightness of the frame of the panel PN3 when a predetermined time (for example, about 5 seconds) has elapsed after starting to increase the brightness of the frame of the panel PN3. However, the operation index presenting unit 26 so that the brightness of the frame of the panel PN3 returns to the original brightness when a predetermined time (for example, about 10 seconds) elapses after starting to increase the brightness of the frame of the panel PN3. , The brightness of the frame of the panel PN3 is continuously lowered. In the operation index presentation unit 26, when a predetermined time (for example, about 1 to 2 seconds) has elapsed since the operation index presentation unit 26 started to reduce the brightness of the frame of the panel PN3, the panel PN10 is the next panel to be viewed. Start increasing the brightness of the frame.

上記のパネルPN3の枠の輝度の変化を、輝度の時間変化を表すグラフを用いて説明する。このグラフは、時間を表す横軸、輝度を表す縦軸からなる座標平面上において、輝度を時間についての連続な関数Kとして表したものである。スピーチ開始時に対応する時間を、0秒とする。
時間0秒から時間t1(例えば、1秒から2秒程度)の区間では、関数Kは、パネルPN3の元の輝度の値を取る定数関数である。時間t1から時間t2(例えば、3秒程度)の区間では、関数Kは、下に凸な単調増加関数である。時間t2から時間t3(例えば、5秒程度)の区間では、関数Kは、上に凸な単調増加関数である。時間t3から時間t4(例えば、6秒から7秒程度)の区間では、関数Kは、上に凸な単調減少関数である。時間t4から時間t5(例えば、10秒程度)の区間では、関数Kは、上に凸な単調減少関数である。時間t5から次に輝度が変化するまでの時間の区間では、関数Kは、パネルPN3の元の輝度の値を取る定数関数である。
ここで、時間t4において、パネルPN3の次にみるべきパネルPN10の枠の輝度が変化し始める。パネルPN10の枠の輝度の変化の仕方は、パネルPN3の枠の輝度の変化の仕方と同様に、上記の関数Kを横軸の正の方向に時間t4だけ平行移動した関数で表される。
The change in the luminance of the frame of the panel PN3 will be described with reference to the graph showing the time variation of the luminance. This graph represents luminance as a continuous function K with respect to time on a coordinate plane consisting of a horizontal axis representing time and a vertical axis representing luminance. The corresponding time at the start of the speech is 0 seconds.
In the interval from time 0 seconds to time t1 (for example, about 1 second to 2 seconds), the function K is a constant function that takes the original brightness value of the panel PN3. In the interval from time t1 to time t2 (for example, about 3 seconds), the function K is a downwardly convex monotonic increase function. In the interval from time t2 to time t3 (for example, about 5 seconds), the function K is a monotonically increasing function that is convex upward. In the interval from time t3 to time t4 (for example, about 6 seconds to 7 seconds), the function K is a monotonically decreasing function that is convex upward. In the interval from time t4 to time t5 (for example, about 10 seconds), the function K is an upwardly convex monotonic decrease function. In the time interval from the time t5 to the next change in luminance, the function K is a constant function that takes the original luminance value of the panel PN3.
Here, at time t4, the brightness of the frame of the panel PN10 to be seen next to the panel PN3 begins to change. The method of changing the brightness of the frame of the panel PN10 is represented by a function in which the above function K is translocated in the positive direction of the horizontal axis for time t4 in the same manner as the method of changing the brightness of the frame of the panel PN3.

なお、本実施形態では、一例として、次に見るべきパネルの枠の輝度を上げる場合を説明したが、支援装置D1が頭部動作指示情報の示す向きを示す方法はこれに限らない。支援装置D1は、例えば、次に見るべきパネル全体の輝度を上げてもよい。また、支援装置D1は、パネルを、2行5列のマス目以外の配列を用いて表示してもよいし、用いる配列に応じてパネルの面積を変化させてもよい。例えば、支援装置D1は、パネルPNの4分の1の面積のパネルを、4行10列のマス目状に表示し、次に見るべき向きに対応する領域をより高い精度で提示してもよい。
支援装置D1は、例えば、パネルを表示させずに、次に見るべき向きに対応する領域(例えば、四角形の領域、円形の領域、あるいはバーチャルオーディエンスの一部分を示す領域)の輪郭、あるいは当該領域の全体の輝度を上げてもよい。支援装置D1は、例えば、次に見るべき向きに対応する領域の色(色相、明度、彩度)を変化させてもよい。支援装置D1は、例えば、パネルを表示させずに、次に見るべき向きを、矢印等の画像を用いて示してもよい。
支援装置D1が頭部動作指示情報の示す向きを示す方法はこれらに限らない。支援装置D1は、例えば、視野画像I1において印となる画像を表示するとともに、動作指標に基づいて決定された速度とタイミングで断続的に印となる画像を移動させることによって、次に見るべき向きを示してもよい。ここで、印となる画像は、例えば、視野画像I1において容易に視認可能な色(例えば赤色)と、所定の形状(例えば丸い形状)を有する画像である。支援装置D1は、印となる画像を点滅させてもよいし、印となる画像の色を所定の周期で変化させてもよい。被訓練者T1は、頭部を動作させることによって移動して表示される印の画像を追いながら、次に見るべき向きを向くことができる。
In the present embodiment, as an example, the case where the brightness of the frame of the panel to be seen next is increased has been described, but the method in which the support device D1 indicates the direction indicated by the head movement instruction information is not limited to this. The support device D1 may increase the brightness of the entire panel to be viewed next, for example. Further, the support device D1 may display the panel using an arrangement other than the squares of 2 rows and 5 columns, or may change the area of the panel according to the arrangement used. For example, the support device D1 may display a panel having a quarter area of the panel PN in a grid pattern of 4 rows and 10 columns, and present a region corresponding to the next direction to be viewed with higher accuracy. good.
The support device D1 is, for example, the outline of a region corresponding to the next direction to be viewed (for example, a rectangular region, a circular region, or a region showing a part of a virtual audience) without displaying the panel, or a region of the region. You may increase the overall brightness. The support device D1 may change, for example, the color (hue, lightness, saturation) of the region corresponding to the direction to be viewed next. For example, the support device D1 may indicate the direction to be viewed next by using an image such as an arrow without displaying the panel.
The method in which the support device D1 indicates the direction indicated by the head movement instruction information is not limited to these. The support device D1 displays, for example, the image to be marked in the visual field image I1 and intermittently moves the image to be marked at a speed and timing determined based on the motion index, so that the direction to be viewed next is to be seen. May be shown. Here, the mark image is, for example, an image having a color (for example, red) that can be easily visually recognized in the visual field image I1 and a predetermined shape (for example, a round shape). The support device D1 may blink the image to be a mark, or may change the color of the image to be a mark at a predetermined cycle. The trainee T1 can turn to the next direction to be seen while following the image of the mark that is moved and displayed by moving the head.

[支援装置D1を用いたスピーチの練習の流れ]
次に、図6を参照して支援装置D1を用いたスピーチの練習の流れについて説明する。
図6は、本実施形態の支援装置D1の処理の一例を示す図である。
[Flow of speech practice using support device D1]
Next, the flow of speech practice using the support device D1 will be described with reference to FIG.
FIG. 6 is a diagram showing an example of processing of the support device D1 of the present embodiment.

(ステップS100)支援装置D1は、電源が入れられると、表示装置13に、スピーチの練習についての設定を行うための設定画面I2を表示させる。被訓練者T1は、設定画面I2を見ながら、スピーチの練習についての各種の設定を行う。
ここで、図7を用いて設定画面I2の説明を行う。
(Step S100) When the power is turned on, the support device D1 causes the display device 13 to display the setting screen I2 for setting the speech practice. The trainee T1 makes various settings for speech practice while looking at the setting screen I2.
Here, the setting screen I2 will be described with reference to FIG. 7.

図7は、本実施形態の支援装置D1の設定画面I2の一例を示す図である。
被訓練者T1は、表示P1、表示P2、表示P3の各領域を選択することで、スピーチの練習についての各種の設定を行う。表示P1は、練習モードか、本番モードかを選択するための表示である。練習モードでは、図3の視野画像I1で説明したように、スピーチの間、バーチャルオーディエンスと動作指標を示すパネルと話速度等の評価情報、練習モードなどの情報が表示される。
FIG. 7 is a diagram showing an example of the setting screen I2 of the support device D1 of the present embodiment.
The trainee T1 makes various settings for speech practice by selecting each area of display P1, display P2, and display P3. The display P1 is a display for selecting a practice mode or a production mode. In the practice mode, as described in the visual field image I1 of FIG. 3, during the speech, the panel showing the virtual audience and the motion index, the evaluation information such as the speaking speed, and the information such as the practice mode are displayed.

本番モードでは、支援装置D1は、スピーチの間、バーチャルオーディエンス、及び仮想的な発表会場を含む視野画像I1を表示するが、図3に示すような評価情報(表示F1)、話速評価情報(表示F2)、パネルPNを表示しない。本番モードにおいて、被訓練者T1は、練習モードに比較して、より実践の状況に近い視野画像I1を見ながら練習を行うことができる。 In the production mode, the support device D1 displays the visual field image I1 including the virtual audience and the virtual presentation venue during the speech, but the evaluation information (display F1) and the speech speed evaluation information (display F1) as shown in FIG. Display F2), panel PN is not displayed. In the production mode, the trainee T1 can practice while looking at the visual field image I1 that is closer to the actual situation than in the practice mode.

表示P2は、バーチャルオーディエンスを、CGにより表示するか、実写動画により表示するかを選択するための表示である。表示P3は、スピーチの時間を選択するための表示である。本実施例では、一例として、スピーチの時間を、2分間と、5分間とから選択する場合を示している。
支援装置D1は、開始ボタンP4が選択されると、設定画面I2の表示を終了する。
図6に戻り、スピーチの練習の流れについて説明を続ける。ただし、以下では、練習モードが選択された場合について説明を行う。
The display P2 is a display for selecting whether to display the virtual audience by CG or by a live-action moving image. The display P3 is a display for selecting a speech time. In this embodiment, as an example, a case where the speech time is selected from 2 minutes and 5 minutes is shown.
When the start button P4 is selected, the support device D1 ends the display of the setting screen I2.
Returning to FIG. 6, the flow of speech practice will be continued. However, the case where the practice mode is selected will be described below.

(ステップS101)支援装置D1は、心拍数測定画面I3を表示する。
ここで、図8を用いて心拍数測定画面I3の説明を行う。
図8は、本実施形態の支援装置D1の心拍数測定画面I3の一例を示す図である。
被訓練者T1は、心拍数測定画面I3に表示されるテキストを、30秒間声に出して読む。生体センサ3は、被訓練者T1の心拍を測定する。生体センサ3は、測定した心拍の値を示す情報を、被訓練者T1の平常時の心拍の値を示す情報として、携帯端末2に供給する。
図6に戻り、スピーチの練習の流れについて説明を続ける。
(Step S101) The support device D1 displays the heart rate measurement screen I3.
Here, the heart rate measurement screen I3 will be described with reference to FIG.
FIG. 8 is a diagram showing an example of the heart rate measurement screen I3 of the support device D1 of the present embodiment.
The trainee T1 reads the text displayed on the heart rate measurement screen I3 aloud for 30 seconds. The biological sensor 3 measures the heart rate of the trainee T1. The biological sensor 3 supplies the information indicating the measured heartbeat value to the mobile terminal 2 as the information indicating the normal heartbeat value of the trainee T1.
Returning to FIG. 6, the flow of speech practice will be continued.

(ステップS102)被訓練者T1は、スピーチを開始する。
(ステップS103)動きセンサ11は、被訓練者T1の頭部の向きHD1を検出し、検出した頭部の向きHD1を、携帯端末2に供給する。
(ステップS104)表示装置13は、画像生成装置12から入力される視野画像I1を、頭部の向きHD1に相対する向きにして表示する。
(Step S102) The trainee T1 starts a speech.
(Step S103) The motion sensor 11 detects the head orientation HD1 of the trainee T1 and supplies the detected head orientation HD1 to the mobile terminal 2.
(Step S104) The display device 13 displays the field image I1 input from the image generation device 12 in a direction facing the head direction HD1.

(ステップS105)パフォーマンス評価部23は、頭部動作指示情報と、話速評価情報と、緊張度評価情報とを生成する。
(ステップS106)動作指標提示部26は、パフォーマンス評価部23から頭部動作指示情報を取得する。動作指標提示部26は、取得した頭部動作指示情報の示す向きを示す、視野画像I1上の位置であるパネルを、表示装置13に表示させることにより提示する。
パフォーマンス評価提示部25は、パフォーマンス評価部23から、話速評価情報と、緊張度評価情報とを取得する。パフォーマンス評価提示部25は、スピーチの間、取得した話速評価情報と、取得した心拍変動情報とを、表示装置13に表示させることにより提示する。
(Step S105) The performance evaluation unit 23 generates head movement instruction information, speech speed evaluation information, and tension evaluation information.
(Step S106) The motion index presentation unit 26 acquires head motion instruction information from the performance evaluation unit 23. The motion index presenting unit 26 presents the panel, which is a position on the visual field image I1 indicating the direction indicated by the acquired head motion instruction information, by displaying the panel on the display device 13.
The performance evaluation presentation unit 25 acquires the speech speed evaluation information and the tension evaluation information from the performance evaluation unit 23. During the speech, the performance evaluation presentation unit 25 presents the acquired speech speed evaluation information and the acquired heart rate variability information by displaying them on the display device 13.

(ステップS107)携帯端末2は、スピーチが終了したか否かを判定する。携帯端末2は、ステップS100において設定されたスピーチの時間が経過した場合、スピーチが終了したと判定する。携帯端末2は、ステップS100において設定されたスピーチの時間が経過していない場合、スピーチが終了していないと判定する。
携帯端末2は、スピーチが終了したと判定する場合(ステップS107;YES)、ステップS108の処理を実行する。一方、スピーチが終了していないと判定する場合(ステップS107;NO)、携帯端末2は、ステップS103の処理を繰り返す。
(Step S107) The mobile terminal 2 determines whether or not the speech has ended. When the speech time set in step S100 has elapsed, the mobile terminal 2 determines that the speech has ended. If the speech time set in step S100 has not elapsed, the mobile terminal 2 determines that the speech has not ended.
When it is determined that the speech is completed (step S107; YES), the mobile terminal 2 executes the process of step S108. On the other hand, when it is determined that the speech is not completed (step S107; NO), the mobile terminal 2 repeats the process of step S103.

(ステップS108)パフォーマンス評価提示部25は、被訓練者T1のスピーチの評価得点を算出する。
例えば、パフォーマンス評価提示部25は、話速についての評価得点の算出には、スピーチの冒頭の所定の時間(例えば30秒間、1分間、3分間等)に対応する話速評価情報のみを用いてもよい。これは、被訓練者T1は、スピーチの間、視野画像I1において表示される表示F2を確認することで、話速を調整することが可能であり、スピーチの間全てに渡っての話速評価情報を用いて評価得点の算出した場合、被訓練者T1の現状の話速について正しい評価ができない可能性があるためである。
パフォーマンス評価提示部25は、算出した評価得点を、表示装置13に表示させることにより提示する。パフォーマンス評価提示部25は、評価得点の項目毎に、評価得点に応じて、コメントを提示する。
音声メッセージ生成部27は、評価得点に応じて生成した音声メッセージを、音声出力装置14に出力させ、一連の処理を終了する。
なお、支援装置D1は、スピーチ開始(S102)からスピーチ終了(S107;YES)までの間、つまりパブリックスピーキングの訓練中において、発表会場の環境音を模した音声を所定の音量で音声出力装置14に出力させてもよい。ここで、環境音を模した音声とは、発表会場内のノイズ、聴衆の反応音(拍手、声)等である。被訓練者T1は、環境音を模した音声を聞きながら、環境音を模した音声が出力されない無音状態に比較して、体感上、より自然な状態で練習を行うことができる。
ここで、図9を用いて評価提示画面I4の説明を行う。
(Step S108) The performance evaluation presentation unit 25 calculates the evaluation score of the speech of the trainee T1.
For example, the performance evaluation presentation unit 25 uses only the speech speed evaluation information corresponding to a predetermined time (for example, 30 seconds, 1 minute, 3 minutes, etc.) at the beginning of the speech to calculate the evaluation score for the speech speed. May be good. This is because the trainee T1 can adjust the speaking speed by checking the display F2 displayed in the visual field image I1 during the speech, and the speaking speed is evaluated over the entire speech. This is because when the evaluation score is calculated using the information, it may not be possible to correctly evaluate the current speech speed of the trainee T1.
The performance evaluation presentation unit 25 presents the calculated evaluation score by displaying it on the display device 13. The performance evaluation presentation unit 25 presents comments for each evaluation score item according to the evaluation score.
The voice message generation unit 27 causes the voice output device 14 to output the voice message generated according to the evaluation score, and ends a series of processing.
The support device D1 is a voice output device 14 that imitates the environmental sound of the presentation venue from the start of the speech (S102) to the end of the speech (S107; YES), that is, during the public speaking training. May be output to. Here, the voice imitating the environmental sound is noise in the presentation hall, reaction sound (applause, voice) of the audience, and the like. The trainee T1 can practice in a more natural state in terms of experience, while listening to the sound imitating the environmental sound, as compared with the silent state in which the sound imitating the environmental sound is not output.
Here, the evaluation presentation screen I4 will be described with reference to FIG.

図9は、本実施形態の支援装置D1の評価提示画面I4の一例を示す図である。
評価提示画面I4においては、緊張度、話速、アイコンタクトの項目毎に、コメントが表示される。各コメントは、音声メッセージとして出力される。表示P5は、項目毎の評価得点を示すグラフである。
FIG. 9 is a diagram showing an example of the evaluation presentation screen I4 of the support device D1 of the present embodiment.
On the evaluation presentation screen I4, comments are displayed for each item of tension, speaking speed, and eye contact. Each comment is output as a voice message. The display P5 is a graph showing the evaluation score for each item.

[まとめ]
上述した実施形態に係る支援装置D1によれば、被訓練者T1が次に見るべき位置として被訓練者T1が見ている位置とは異なる位置を表示できる。したがって、支援装置D1によれば、パブリックスピーキングの練習において、被訓練者が、次にどの方向を向けばよいか学習できる。
[summary]
According to the support device D1 according to the above-described embodiment, the position different from the position seen by the trainee T1 can be displayed as the position to be seen next by the trainee T1. Therefore, according to the support device D1, the trainee can learn which direction to turn next in the practice of public speaking.

上述した実施形態に係る支援装置D1によれば、被訓練者T1が次に見るべき位置として、訓練者T1が見ている位置とは異なる位置の中からパブリックスピーキングの評価が高くなる位置を表示できる。したがって、支援装置D1によれば、パブリックスピーキングの練習において、被訓練者が、次にどの方向を向けばパブリックスピーキングの評価が高くなるか学習できる。 According to the support device D1 according to the above-described embodiment, the position where the trainee T1 should see next is a position different from the position where the trainee T1 is looking, and the position where the evaluation of public speaking is high is displayed. can. Therefore, according to the support device D1, in the practice of public speaking, the trainee can learn in which direction the public speaking is highly evaluated.

また、上述した実施形態に係る支援装置D1によれば、被訓練者T1が、次に見るべき位置を、次に見るべきでない位置と区別できる。このため、支援装置D1によれば、スピーチの練習において、被訓練者が、次にどの方向を向けばよいか視覚的に把握できる。 Further, according to the support device D1 according to the above-described embodiment, the trainee T1 can distinguish the position to be seen next from the position not to be seen next. Therefore, according to the support device D1, the trainee can visually grasp which direction to turn next in the speech practice.

また、上述した実施形態に係る支援装置D1によれば、被訓練者T1のパブリックスピーキングに基づき、被訓練者T1は、自身のパブリックスピーキングの評価を知ることができる。このため、支援装置D1によれば、被訓練者T1は、自身のパブリックスピーキングの評価を、確認しながら学習できる。 Further, according to the support device D1 according to the above-described embodiment, the trainee T1 can know the evaluation of his / her own public speaking based on the public speaking of the trainee T1. Therefore, according to the support device D1, the trainee T1 can learn while confirming the evaluation of his / her public speaking.

また、上述した実施形態に係る支援装置D1によれば、被訓練者T1は、自身のパブリックスピーキングにおける話す速度についての評価を知ることができる。このため、支援装置D1によれば、パブリックスピーキングの練習において、被訓練者T1は、適切な話す速度を学習することができる。 Further, according to the support device D1 according to the above-described embodiment, the trainee T1 can know the evaluation of the speaking speed in his / her public speaking. Therefore, according to the support device D1, the trainee T1 can learn an appropriate speaking speed in the practice of public speaking.

また、上述した実施形態に係る支援装置D1によれば、被訓練者T1の話す速度を、音節を単位にして評価することができる。このため、支援装置D1によれば、パブリックスピーキングの練習において、被訓練者T1は、様々な言語で、適切な話す速度を学習することができる。 Further, according to the support device D1 according to the above-described embodiment, the speaking speed of the trainee T1 can be evaluated in units of syllables. Therefore, according to the support device D1, in the practice of public speaking, the trainee T1 can learn an appropriate speaking speed in various languages.

また、上述した実施形態に係る支援装置D1によれば、被訓練者T1は、自身のパブリックスピーキングにおける声量についての評価を知ることができる。このため、支援装置D1によれば、パブリックスピーキングの練習において、被訓練者T1は、適切な声量を学習することができる。 Further, according to the support device D1 according to the above-described embodiment, the trainee T1 can know the evaluation of the voice volume in his / her public speaking. Therefore, according to the support device D1, the trainee T1 can learn an appropriate voice volume in the practice of public speaking.

また、上述した実施形態に係る支援装置D1によれば、被訓練者T1は、自身のパブリックスピーキングにおける緊張度についての評価を知ることができる。このため、支援装置D1によれば、パブリックスピーキングの練習において、被訓練者T1は、適切な緊張度を学習することができる。 Further, according to the support device D1 according to the above-described embodiment, the trainee T1 can know the evaluation of the degree of tension in his / her public speaking. Therefore, according to the support device D1, the trainee T1 can learn an appropriate degree of tension in the practice of public speaking.

なお、本実施形態の支援装置D1のHMDは、バーチャルリアリティ(VR:Virtual Reality)の動画の表示に特化したHMDでもよいし、例えば、スマートフォンを、専用のゴーグルと組み合わせて構成してもよい。
なお、本実施形態においては、一例として、支援装置D1がHMDの形態を取る場合を説明したが、支援装置D1は、例えば、講演会場に設置されたディスプレイの形態を取ってもよい。また、支援装置D1は、例えば、タブレット端末など、表示装置を備えた端末を、被訓練者T1が手に持って使用する形態を取ってもよい。
The HMD of the support device D1 of the present embodiment may be an HMD specialized for displaying a moving image of virtual reality (VR), or may be configured by combining a smartphone with dedicated goggles, for example. ..
In the present embodiment, as an example, the case where the support device D1 takes the form of an HMD has been described, but the support device D1 may take the form of a display installed in a lecture hall, for example. Further, the support device D1 may take a form in which the trainee T1 holds and uses a terminal provided with a display device, such as a tablet terminal.

また、本発明の一実施形態において、支援装置D1は、被訓練者T1の声量を評価してもよく、この場合、支援装置D1は、被訓練者T1の声量についての評価を示す情報である声量評価情報を、視野画像I1において例えばボリュームレベルを示す画像(図示せず)として表示する。具体的には、音声解析部20は、取得した音声を解析し、解析した結果から被訓練者T1の声量を示す情報である声量情報を生成する。音声解析部20は、生成した声量情報を、パフォーマンス評価部23に供給する。パフォーマンス評価部23は、音声解析部20から声量情報を取得する。パフォーマンス評価部23は、取得した声量情報に基づき、被訓練者T1の声量を評価し、評価した結果から、声量評価情報を生成する。パフォーマンス評価部23は、生成された声量評価情報を、パフォーマンス評価提示部25に供給する。パフォーマンス評価提示部25は、声量評価情報を表示装置13に表示させることにより提示する。 Further, in one embodiment of the present invention, the support device D1 may evaluate the voice volume of the trainee T1, and in this case, the support device D1 is information indicating the evaluation of the voice volume of the trainee T1. The voice volume evaluation information is displayed in the field image I1 as, for example, an image (not shown) showing the volume level. Specifically, the voice analysis unit 20 analyzes the acquired voice and generates voice volume information which is information indicating the voice volume of the trainee T1 from the analysis result. The voice analysis unit 20 supplies the generated voice volume information to the performance evaluation unit 23. The performance evaluation unit 23 acquires voice volume information from the voice analysis unit 20. The performance evaluation unit 23 evaluates the voice volume of the trainee T1 based on the acquired voice volume information, and generates voice volume evaluation information from the evaluation result. The performance evaluation unit 23 supplies the generated voice volume evaluation information to the performance evaluation presentation unit 25. The performance evaluation presentation unit 25 presents the voice volume evaluation information by displaying it on the display device 13.

図10は、本実施形態のパブリックスピーキング支援装置の形態の一例を示す図である。
支援装置D2は、講演会場の天井に吊るされたディスプレイである。被訓練者T2の頭部の向きHD2は、3次元直交座標系x、y、zのx軸の正の向きである。頭部の向きHD2に相対する向きDD2は、3次元直交座標系x、y、zのx軸の負の向きである。支援装置D2は、3次元直交座標系X、Y、ZのX軸と直交する方向に、X軸の負の向きに設置されている。
FIG. 10 is a diagram showing an example of the form of the public speaking support device of the present embodiment.
The support device D2 is a display hung on the ceiling of the lecture hall. The orientation of the head of the trainee T2 HD2 is the positive orientation of the x-axis of the three-dimensional Cartesian coordinate system x, y, z. Head orientation The orientation DD2 relative to HD2 is the negative orientation of the x-axis of the three-dimensional Cartesian coordinate system x, y, z. The support device D2 is installed in a direction orthogonal to the X-axis of the three-dimensional Cartesian coordinate system X, Y, Z in a negative direction of the X-axis.

図11は、本実施形態のパブリックスピーキング支援装置の形態の一例を示す図である。
支援装置D3は、タブレット端末であり、被訓練者T3が手に持って使用する。被訓練者T3の頭部の向きHD3は、3次元直交座標系x、y、zのx軸の正の向きである。頭部の向きHD3に相対する向きDD3は、3次元直交座標系x、y、zのx軸の負の向きである。
FIG. 11 is a diagram showing an example of the form of the public speaking support device of the present embodiment.
The support device D3 is a tablet terminal, which is held and used by the trainee T3. The orientation of the head of the trainee T3 HD3 is the positive orientation of the x-axis of the three-dimensional Cartesian coordinate system x, y, z. Head orientation The orientation DD3 relative to HD3 is the negative orientation of the x-axis of the three-dimensional Cartesian coordinate system x, y, z.

なお、支援装置D1は、画像S1を、例えば、視野画像I1上においてx軸と垂直に表示してもよい。その場合、支援装置D1は、画像S1を、例えば、視野画像I1上の会場の後方に表示する。
なお、本実施形態では、被訓練者T1の心拍を測定する場合について説明したが、心拍の代わりに、例えば、被訓練者T1の脈拍を測定してもよい。
The support device D1 may display the image S1 perpendicularly to the x-axis on, for example, the field image I1. In that case, the support device D1 displays the image S1, for example, behind the venue on the field image I1.
In the present embodiment, the case of measuring the heart rate of the trainee T1 has been described, but instead of the heart rate, for example, the pulse of the trainee T1 may be measured.

(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について詳しく説明する。
第1の実施形態では、被訓練者T1が、支援装置D1を装着してパブリックスピーキングの練習を行う一例について説明した。第2の実施形態では、講演者が、支援装置を装着してパブリックスピーキングを実践し、支援装置が、パブリックスピーキングの最中に向く場所(アイコンタクトを取る聴衆)を、講演者に提示する一例について説明する。
(Second embodiment)
Hereinafter, the second embodiment of the present invention will be described in detail with reference to the drawings.
In the first embodiment, an example in which the trainee T1 wears the support device D1 and practices public speaking has been described. In the second embodiment, an example is in which the speaker wears a support device to practice public speaking, and the support device presents to the speaker the place (audience to make eye contact) to which the support device faces during public speaking. Will be explained.

図12は、本実施形態の支援装置D1aの概観の一例を示す図である。
支援装置D1aは、眼鏡型の表示装置であり、講演者T1aが装着して使用する。表示装置13aは、透過型モニターである。支援装置D1aは、パブリックスピーキングの最中に講演者T1aが向くべき視野画像上の位置を、視野画像に重ねて表示装置13aに表示させる。
FIG. 12 is a diagram showing an example of an overview of the support device D1a of the present embodiment.
The support device D1a is a spectacle-type display device, and is worn and used by the speaker T1a. The display device 13a is a transmissive monitor. The support device D1a causes the display device 13a to superimpose the position on the visual field image that the speaker T1a should face during public speaking on the visual field image.

図13は、本実施形態の支援装置D1aの機能構成の一例を示す図である。
本実施形態の支援装置D1aの構成(図13)と、第1の実施形態に係る支援装置D1の構成(図4)とでは、ヘッドマウントディスプレイ1と、眼鏡1aとが異なる。ヘッドマウントディスプレイ1と、眼鏡1aとでは、画像生成装置12の有無と、表示装置13aとが異なる。それ以外の構成は、第1の実施形態に係る支援装置D1と同様であるため説明を省略し、第2の実施形態では、第1の実施形態と異なる部分を中心に説明する。
FIG. 13 is a diagram showing an example of the functional configuration of the support device D1a of the present embodiment.
The head-mounted display 1 and the glasses 1a are different between the configuration of the support device D1a of the present embodiment (FIG. 13) and the configuration of the support device D1 according to the first embodiment (FIG. 4). The presence / absence of the image generation device 12 and the display device 13a are different between the head-mounted display 1 and the glasses 1a. Since the other configurations are the same as those of the support device D1 according to the first embodiment, the description thereof will be omitted, and in the second embodiment, the parts different from the first embodiment will be mainly described.

支援装置D1aは、眼鏡1a、携帯端末2、生体センサ3を含んで構成される。眼鏡1a及び携帯端末2は、一体となって構成されてもよく、また一体となって構成されなくてもよい。
眼鏡1aは、音声記録装置10、動きセンサ11、表示装置13a、音声出力装置14を含んで構成される。
The support device D1a includes glasses 1a, a mobile terminal 2, and a biosensor 3. The glasses 1a and the mobile terminal 2 may or may not be integrally configured.
The spectacles 1a includes a voice recording device 10, a motion sensor 11, a display device 13a, and a voice output device 14.

表示装置13aは、透過型モニターである。講演者T1aは、支援装置D1aを装着した状態において、自身の頭部の向きHD1aに対応した方向の風景を視認可能である。
支援装置D1aは、動作指標提示部26の提示するパネルPNと、パフォーマンス評価提示部25の提示する話速評価情報、及び心拍変動情報とを、講演者T1aの頭部の向きHD1aに対応した方向の風景に重ねて表示する。
The display device 13a is a transmissive monitor. The speaker T1a can visually recognize the scenery in the direction corresponding to the direction HD1a of his / her head in the state where the support device D1a is attached.
The support device D1a uses the panel PN presented by the motion index presentation unit 26, the speech speed evaluation information presented by the performance evaluation presentation unit 25, and the heart rate variability information in a direction corresponding to the head orientation HD1a of the speaker T1a. It is displayed overlaid on the landscape of.

なお、支援装置D1aは、ARの技術を用いて、講演者T1aの頭部の向きHD1aに対応した方向の風景にバーチャルオーディエンスを重ねて表示してもよい。 The support device D1a may display the virtual audience by superimposing the virtual audience on the landscape in the direction corresponding to the orientation HD1a of the head of the speaker T1a by using the AR technique.

上述した実施形態に係る支援装置D1aによれば、パブリックスピーキングの実践中に、講演者T1aが次に見るべき位置を提示できる。したがって、支援装置D1によれば、パブリックスピーキングの実践中に、被訓練者が、次にどの方向を向けばよいか知ることができる。 According to the support device D1a according to the above-described embodiment, the speaker T1a can present the position to be seen next during the practice of public speaking. Therefore, according to the support device D1, the trainee can know which direction to turn next during the practice of public speaking.

以上の実施形態では、緊張度の評価が、被訓練者T1の心拍を測定して行われる場合について説明したが、緊張度の評価の方法はこれに限らない。緊張度の評価は、例えば、被訓練者T1のまばたきの回数、手汗の量、血圧、皮膚電気活動、唾液の量、及び顔色の変化などを測定して行われてもよい。これらの場合、生体センサは、例えば、各種のセンサを備えたウェアラブル端末である。 In the above embodiment, the case where the evaluation of the degree of tension is performed by measuring the heart rate of the trainee T1 has been described, but the method of evaluating the degree of tension is not limited to this. The evaluation of the degree of tension may be performed by measuring, for example, the number of blinks of the trainee T1, the amount of hand sweat, the blood pressure, the electrical activity of the skin, the amount of saliva, the change in complexion, and the like. In these cases, the biosensor is, for example, a wearable terminal equipped with various sensors.

また、以上の本実施形態では、話速をパブリックスピーキングの評価に用いているが、話速は緊張度の評価にも用いてよい。話速が速いほど、緊張度は高いと評価される。話速は、例えば、スマートフォンを用いて測定されてよい。話速がスマートフォンを用いて測定される場合、カメラが不要であるという利点がある。
パブリックスピーキングの評価には、話速だけでなく発音の評価を含めてもよい。ここで発音の評価とは、例えば、英語などの外国語の発音の評価である。パブリックスピーキングの評価に発音の評価を含める場合、音声解析部20は、被訓練者T1の発音と理想的な発音とを比較した結果を示す発音情報を生成する。パフォーマンス評価部23は、音声解析部20が生成した発音情報に基づいて、被訓練者T1の発音の評価を行う。
Further, in the above embodiment, the speaking speed is used for the evaluation of public speaking, but the speaking speed may also be used for the evaluation of the degree of tension. The faster the speaking speed, the higher the tension is evaluated. The speaking speed may be measured using, for example, a smartphone. When the speaking speed is measured using a smartphone, there is an advantage that a camera is not required.
The evaluation of public speaking may include not only the evaluation of speech speed but also the evaluation of pronunciation. Here, the pronunciation evaluation is an evaluation of the pronunciation of a foreign language such as English. When the evaluation of pronunciation is included in the evaluation of public speaking, the voice analysis unit 20 generates pronunciation information showing the result of comparing the pronunciation of the trainee T1 with the ideal pronunciation. The performance evaluation unit 23 evaluates the pronunciation of the trainee T1 based on the pronunciation information generated by the voice analysis unit 20.

また、以上の実施形態では、評価提示画面I4に被訓練者T1のスピーチの評価得点が提示される場合について説明したが、この評価得点は練習記録データとして保存されてよい。また、練習記録データには、音声記録装置10が記録したパブリックスピーキングの訓練中の被訓練者T1の音声を、音声データとして含めてよい。
練習記録データは、例えば、被訓練者T1が学生や受講者である場合、被訓練者T1の教員やトレーナーが参照し、被訓練者T1を指導する際に利用できる。練習記録データは、被訓練者T1の教員やトレーナーだけが参照できるようにされてよい。例えば、練習記録データは被訓練者T1の教員やトレーナーだけがアクセスすることのできるデータベースなどに転送されてよい。または、練習記録データは、被訓練者T1の教員やトレーナーだけが参照できるように暗号化されてもよい。
Further, in the above embodiment, the case where the evaluation score of the speech of the trainee T1 is presented on the evaluation presentation screen I4 has been described, but this evaluation score may be stored as practice record data. Further, the practice record data may include the voice of the trainee T1 during the public speaking training recorded by the voice recording device 10 as voice data.
For example, when the trainee T1 is a student or a student, the practice record data can be referred to by the teacher or trainer of the trainee T1 and used when instructing the trainee T1. The practice record data may be made available only to the teacher or trainer of the trainee T1. For example, the practice record data may be transferred to a database or the like that can be accessed only by the teacher or trainer of the trainee T1. Alternatively, the practice record data may be encrypted so that only the teacher or trainer of the trainee T1 can refer to it.

また、パブリックスピーキングの訓練中に被訓練者T1がつかえた箇所が、即時に通知されてよい。パブリックスピーキングの訓練中に被訓練者T1がつかえた箇所とは、例えば、スピーチのスクリプトと、被訓練者T1が発する言葉とが、タイミングまたは音声内容について、不一致となった箇所である。例えば、音声解析部20は、視野画像I1上における演台に表示されているスピーチの資料の画像S1内のスピーチのスクリプトと、被訓練者T1が発する言葉とが同期しているか否かを判定する。スピーチのスクリプトと、被訓練者T1が発する言葉とが同期しているか否かの判定基準は、時間のずれや音声のずれに基づいて設定されてよい。
音声解析部20が、画像S1内のスピーチのスクリプトと、被訓練者T1が発する言葉とが同期していないと判定した場合、音声解析部20は、判定結果を画像生成装置12に出力する。画像生成装置12は、音声解析部20が出力した判定結果に基づいて、被訓練者T1がつかえたことを示す画像やメッセージを含む視野画像I1を生成する。被訓練者T1は、スピーチの訓練中に、被訓練者T1がつかえたことを示す画像やメッセージを見ることにより、被訓練者T1がつかえた箇所を認識することができる。
In addition, the portion used by the trainee T1 during the public speaking training may be immediately notified. The part used by the trainee T1 during the public speaking training is, for example, the part where the speech script and the words spoken by the trainee T1 do not match in terms of timing or audio content. For example, the voice analysis unit 20 determines whether or not the speech script in the image S1 of the speech material displayed on the podium on the visual field image I1 and the words uttered by the trainee T1 are synchronized. .. The criterion for determining whether or not the speech script and the words uttered by the trainee T1 are synchronized may be set based on the time lag and the voice lag.
When the voice analysis unit 20 determines that the speech script in the image S1 and the words uttered by the trainee T1 are not synchronized, the voice analysis unit 20 outputs the determination result to the image generation device 12. The image generation device 12 generates a visual field image I1 including an image and a message indicating that the trainee T1 has been used, based on the determination result output by the voice analysis unit 20. The trainee T1 can recognize the part used by the trainee T1 by seeing an image or a message indicating that the trainee T1 has been used during the speech training.

また、予め設定されたスピーチのスクリプトに応じて、このスピーチのスクリプトの内容を話すのに理想的なスピーチの時間が算出されてもよい。理想的なスピーチの時間は、スピーチのスクリプトのページ毎や文毎に算出されてもよい。スピーチのスクリプトのページ毎や文毎に算出された理想的なスピーチの時間は、被訓練者T1がつかえた箇所の判定に用いられてもよい。算出された理想的なスピーチの時間は、視野画像I1上に表示されてよい。 Also, depending on the preset speech script, the ideal speech time for speaking the content of this speech script may be calculated. The ideal speech time may be calculated page by page or sentence by sentence in the speech script. The ideal speech time calculated for each page or sentence of the speech script may be used to determine the location used by the trainee T1. The calculated ideal speech time may be displayed on the field image I1.

また、以上の実施形態では、視野画像I1上に表示される仮想的な発表会場の風景の画像は、講義室の風景の画像となっている。仮想的な発表会場の風景の画像は、複数の種類の中から選択されてもよい。複数の種類の仮想的な発表会場の風景の画像とは、例えば、学会の風景の画像、結婚式会場の風景の画像などである。 Further, in the above embodiment, the image of the landscape of the virtual presentation venue displayed on the visual field image I1 is an image of the landscape of the lecture room. The image of the landscape of the virtual presentation venue may be selected from a plurality of types. The image of the landscape of the virtual presentation venue of a plurality of types is, for example, an image of the landscape of the academic society, an image of the landscape of the wedding venue, and the like.

また、以上の実施形態では、視野画像I1上に表示されるバーチャルオーディエンスのデザインは聴衆のデザインであるが、バーチャルオーディエンスのデザインは変更できるようにしてもよい。視野画像I1上に表示されるバーチャルオーディエンスのデザインは、例えば、外国人の聴衆や、年齢層が高い聴衆や、動物や、キャラクターなどのデザインに変更できるようにしてもよい。パブリックスピーキングの練習は繰り返し行うことが望ましいが、繰り返し行ううちに飽きてしまうことが多い。視野画像I1上に表示されるバーチャルオーディエンスのデザインを変更できるようにすることにより、被訓練者T1がパブリックスピーキングの練習に飽きにくくすることができる。 Further, in the above embodiment, the design of the virtual audience displayed on the visual field image I1 is the design of the audience, but the design of the virtual audience may be changed. The design of the virtual audience displayed on the field image I1 may be changed to, for example, a design of a foreign audience, an older audience, an animal, a character, or the like. It is desirable to practice public speaking repeatedly, but it is often boring after repeated practice. By making it possible to change the design of the virtual audience displayed on the field image I1, the trainee T1 can be less likely to get tired of practicing public speaking.

以上の実施形態では、視野画像I1上に、バーチャルオーディエンスが表示される場合について説明したが、バーチャルオーディエンスの代わりに、聴衆の身体の一部、例えば聴衆の目の画像が表示されてもよい。ここで、聴衆の目の画像とは、例えば、イラストの目の画像や、実写に近いCGの目の画像や、変形(デフォルメ)された目の画像が表示されてもよい。視野画像I1上に、聴衆の目の画像を表示する場合、聴衆の目の画像が、仮想的な発表会場の風景の画像に埋もれて認識しにくくならないように、聴衆の目の画像の周囲は、例えば半透明の肌色を用いて塗られてよい。 In the above embodiment, the case where the virtual audience is displayed on the visual field image I1 has been described, but instead of the virtual audience, a part of the body of the audience, for example, an image of the eyes of the audience may be displayed. Here, the image of the eyes of the audience may be, for example, an image of the eyes of an illustration, an image of a CG eye close to a live-action image, or an image of a deformed (deformed) eye. When displaying the image of the eyes of the audience on the field image I1, the surroundings of the image of the eyes of the audience should be so that the image of the eyes of the audience is not buried in the image of the landscape of the virtual presentation venue and difficult to recognize. , For example, may be applied using a translucent skin color.

パブリックスピーキングの練習を実践さながらの状況において行いたい場合に、視野画像I1上にバーチャルオーディエンスの代わりに聴衆の目の画像を用いることは有効である。ここで、実践さながらの状況とは、被訓練者が聴衆の視線を感じて緊張感を覚える状況である。
視野画像I1上に仮想的な発表会場の風景の画像のみが表示される場合に比べ、視野画像I1上にバーチャルオーディエンスの代わりに聴衆の目の画像を用いる場合の方が、被訓練者がより緊張感を覚えることを示す実験結果が得られている。この実験では、問診によって得られる被訓練者の主観的な緊張度を、5段階尺度法により評価している。視野画像I1上に仮想的な発表会場の風景の画像のみが表示される場合の被訓練者の主観的な緊張度に対して、視野画像I1上にバーチャルオーディエンスの代わりに聴衆の目の画像を用いる場合の被訓練者の主観的な緊張度は、有意に大きくなることがFriedman検定により検証されている。
It is useful to use an image of the eyes of the audience instead of the virtual audience on the visual field image I1 when one wants to practice public speaking in a situation that is just like practicing. Here, the situation just like practice is a situation in which the trainee feels the gaze of the audience and feels a sense of tension.
Compared to the case where only the image of the landscape of the virtual presentation venue is displayed on the field image I1, the trainee is more likely to use the image of the eyes of the audience instead of the virtual audience on the field image I1. Experimental results have been obtained showing that the person feels nervous. In this experiment, the subjective tension of the trainee obtained by the interview is evaluated by a five-step scale method. For the subjective tension of the trainee when only the image of the scenery of the virtual presentation venue is displayed on the visual field image I1, the image of the eyes of the audience is displayed on the visual field image I1 instead of the virtual audience. It has been verified by the Friedman test that the subjective tension of the trainee when used is significantly increased.

聴衆の目の画像の位置は、仮想的な発表会場の風景の画像の中の机やイスの位置や発表会場の形状に基づいて決められてよい。聴衆の目の画像の位置は、仮想的な発表会場の風景の画像の中の机やイスの位置や発表会場の形状とは関係なくランダムに配置してよい。 The position of the image of the eyes of the audience may be determined based on the position of the desk or chair in the image of the landscape of the virtual presentation venue and the shape of the presentation venue. The position of the image of the eyes of the audience may be randomly arranged regardless of the position of the desk or chair in the image of the landscape of the virtual presentation venue and the shape of the presentation venue.

聴衆の目の画像は、動画像として、まばたきをする動きをしてもよい。聴衆の目の画像は、点滅してもよい。聴衆の目の画像のまばたきをする動きや点滅の回数は、設定により変更できるようにしてよい。また聴衆の目の画像のまばたきをする動きや点滅の回数は聴衆の関心度により設定を変更できるようにしてよい。この設定は、聴衆の目の画像のまばたきをする動きや点滅の、時間あたりの回数についての設定であってもよいし、1回のパブリックスピーキングの練習における回数についての設定であってもよい。この設定は、複数の聴衆の目の画像ごとに行われてよい。 The image of the eyes of the audience may be a blinking motion as a moving image. The image of the eyes of the audience may blink. The number of blinking movements and blinks of the audience's eye image may be variable by setting. Further, the number of blinking movements and blinking of the image of the eyes of the audience may be changed according to the degree of interest of the audience. This setting may be a setting for the number of blinking movements or blinks of the image of the eyes of the audience per hour, or may be a setting for the number of times in one public speaking practice. This setting may be made for each image of the eyes of multiple audiences.

聴衆の目の画像は、動画像として、目の輪郭内の黒目の位置を、被訓練者T1のスピーチの評価に応じて変化させてもよい。目の輪郭内の黒目の位置は、例えば、被訓練者T1のスピーチの評価が低い場合には聴衆の関心度が低いとして、被訓練者T1の方を見ていないようにしてよい。目の輪郭内の黒目の位置を被訓練者T1の方を見ていないようにするとは、例えば、目の輪郭内において黒目の位置を、目の輪郭内の中央以外に移動させることである。 The image of the eyes of the audience may, as a moving image, change the position of the black eyes within the contour of the eyes according to the evaluation of the speech of the trainee T1. The position of the black eye in the contour of the eye may be such that the trainee T1 is not looking at the position of the black eye, for example, if the speech evaluation of the trainee T1 is low, the audience is less interested. To prevent the position of the black eye in the contour of the eye from looking toward the trainee T1, for example, to move the position of the black eye in the contour of the eye to a position other than the center in the contour of the eye.

また、聴衆の目の画像として、3つの点が逆三角形の頂点に配置された図形が表示されてもよい。3つの点が逆三角形の頂点に配置された図形は、3つの点が三角形の頂点に配置された図形に比べて、被訓練者T1はより緊張感をもってパブリックスピーキングの練習を行うことができる。3つの点が逆三角形の頂点に配置された図形は、逆三角形の上の2つの頂点に配置された点は黒色を用いて表示し、逆三角形の下の1つの頂点に配置された点は赤色を用いて表示されることができる。逆三角形の上の2つの頂点に配置された点は、被訓練者T1に目と認識され、逆三角形の下の1つの頂点に配置された点は、被訓練者T1に口と認識される。 Further, as an image of the eyes of the audience, a figure in which three points are arranged at the vertices of an inverted triangle may be displayed. A figure in which three points are arranged at the vertices of an inverted triangle allows the trainee T1 to practice public speaking with a greater sense of tension than a figure in which three points are arranged at the vertices of a triangle. For figures in which three points are placed at the vertices of an inverted triangle, the points placed at the two vertices above the inverted triangle are displayed using black, and the points placed at one vertex below the inverted triangle are displayed. It can be displayed using red. The points placed at the two vertices above the inverted triangle are recognized by the trainee T1 as eyes, and the points placed at the one vertex below the inverted triangle are recognized as the mouth by the trainee T1. ..

視野画像I1上に、バーチャルオーディエンスの代わりに聴衆の目の画像を用いる場合、バーチャルオーディエンスを用いる場合に比べ、視野画像I1のデータ量を減らすことができる。また、視野画像I1上に、バーチャルオーディエンスの代わりに聴衆の目の画像を用いる場合、バーチャルオーディエンスを用いる場合に比べ、ヘッドマウントディスプレイ1の処理負荷を軽減することができる。また、バーチャルオーディエンスのバリエーションを増やす場合に比べ、データ量を急激に増加させることなく、聴衆の目の種類やまばたき回数、点滅回数などのバリエーションを増やすことができる。したがって、非訓練者T1に対して容易に聴衆の様々な反応を表示することができる。 When the image of the eyes of the audience is used instead of the virtual audience on the field image I1, the amount of data of the field image I1 can be reduced as compared with the case where the virtual audience is used. Further, when the image of the eyes of the audience is used instead of the virtual audience on the visual field image I1, the processing load of the head-mounted display 1 can be reduced as compared with the case where the virtual audience is used. In addition, compared to the case of increasing the variation of the virtual audience, it is possible to increase the variation such as the type of eyes of the audience, the number of blinks, and the number of blinks without rapidly increasing the amount of data. Therefore, various reactions of the audience can be easily displayed to the non-trainer T1.

第2の実施形態では、支援装置D1aは、ARの技術を用いて、講演者T1aの頭部の向きHD1aに対応した方向の風景にバーチャルオーディエンスを重ねて表示することができる。第2の実施形態では、支援装置D1aにおいて、実践さながらの状況を実現するためにバーチャルオーディエンスを実写映像にする場合、バーチャルオーディエンスの動画には、豊富な動きのパターンが要求される。そのため、バーチャルオーディエンスの代わりに聴衆の目の画像を用いる場合、視野画像I1のデータ量を減らすことができる。また、バーチャルオーディエンスの代わりに聴衆の目の画像を用いる場合、支援装置D1aの処理負荷を軽減することができる。
第2の実施形態の支援装置D1aでは、パブリックスピーキングの練習に際し聴衆が足りない場合に、足りない聴衆を聴衆の目の画像により補ってよい。第2の実施形態の支援装置D1aでは、パブリックスピーキングの練習に際し聴衆が足りない場合であっても、パブリックスピーキングの練習を実践さながらの状況において行うことができる。
In the second embodiment, the support device D1a can superimpose the virtual audience on the landscape in the direction corresponding to the orientation HD1a of the head of the speaker T1a by using the technique of AR. In the second embodiment, in the support device D1a, when the virtual audience is made into a live-action video in order to realize a situation just like a practice, the moving image of the virtual audience is required to have abundant movement patterns. Therefore, when the image of the eyes of the audience is used instead of the virtual audience, the amount of data of the visual field image I1 can be reduced. Further, when the image of the eyes of the audience is used instead of the virtual audience, the processing load of the support device D1a can be reduced.
In the support device D1a of the second embodiment, when the audience is insufficient in the practice of public speaking, the insufficient audience may be supplemented by the image of the eyes of the audience. In the support device D1a of the second embodiment, even when the audience is insufficient in the practice of public speaking, the practice of public speaking can be performed in a situation as if it were practiced.

(第3の実施形態)
以下、図面を参照しながら本発明の第3の実施形態について詳しく説明する。
第1の実施形態や第2の実施形態では、被訓練者や講演者が支援装置を装着して使用する場合について説明をしたが、第3の実施形態では、支援装置が端末装置として用いられる一例について説明する。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described in detail with reference to the drawings.
In the first embodiment and the second embodiment, the case where the trainee or the lecturer wears and uses the support device has been described, but in the third embodiment, the support device is used as the terminal device. An example will be described.

図14は、本実施形態の支援装置D1bの概観の一例を示す図である。訓練装置D1bとは、被訓練者が視野画像を見ながらパブリックスピーキングの訓練をするためのパブリックスピーキング支援装置である。支援装置D1bは端末装置2bとして用いられる。端末装置2bにはカメラ11bが備えられている。端末装置2bは、例えば、テレビ会議におけるプレゼンテーションの練習のための支援装置である。
端末装置2bの表示装置13bには、仮想的な発表会場の風景の画像とともに聴衆の目の画像が含まれる視野画像I5が表示される。ここで表示装置13bとは、ディスプレイである。端末装置2bを用いて、被訓練者は、聴衆の視線を感じて緊張感を覚えながらプレゼンテーションの練習をすることができる。
訓練者に装着された生体センサ3は、被訓練者の心拍を測定する。生体センサ3は、測定した心拍の値を示す情報を端末装置2bに供給する。生体センサ3は、例えば、近距離無線通信を用いて心拍の値を示す情報を端末装置2bに供給する。端末装置2bは、生体センサ3が供給する心拍の値を示す情報に基づいて、被訓練者の緊張度を評価する。表示装置13bは、端末装置2bが評価した緊張度を視野画像I5上に表示する。
FIG. 14 is a diagram showing an example of an overview of the support device D1b of the present embodiment. The training device D1b is a public speaking support device for the trainee to train public speaking while looking at a visual field image. The support device D1b is used as a terminal device 2b. The terminal device 2b is provided with a camera 11b. The terminal device 2b is, for example, a support device for practicing a presentation in a video conference.
On the display device 13b of the terminal device 2b, a field image I5 including an image of the eyes of the audience is displayed together with an image of the scenery of the virtual presentation venue. Here, the display device 13b is a display. Using the terminal device 2b, the trainee can practice the presentation while feeling the line of sight of the audience and feeling the tension.
The biosensor 3 attached to the trainee measures the heartbeat of the trainee. The biological sensor 3 supplies information indicating the measured heart rate value to the terminal device 2b. The biosensor 3 supplies information indicating a heart rate value to the terminal device 2b using, for example, short-range wireless communication. The terminal device 2b evaluates the degree of tension of the trainee based on the information indicating the heart rate value supplied by the biological sensor 3. The display device 13b displays the degree of tension evaluated by the terminal device 2b on the visual field image I5.

図15は、本実施形態の支援装置D1bの機能構成の一例を示す図である。
本実施形態の支援装置D1bの構成(図15)と、第1の実施形態に係る訓練装置D1の構成(図4)とでは、ヘッドマウントディスプレイ1の有無が異なる。音声記録装置10bと、カメラ11bと、表示装置13bと、音声出力装置14bとは、ヘッドマウントディスプレイ1に備えられていない。また、携帯端末2(図4)と、端末装置2b(図15)とを比較すると、状態解析部22bと、パフォーマンス評価部23bと、スピーチパフォーマンス指標データベース24bと、パフォーマンス評価提示部25bと、画像生成部28bとが異なる。それ以外の構成は、第1の実施形態に係る支援装置D1と同様であるため説明を省略し、第3の実施形態では、第1の実施形態と異なる部分を中心に説明する。
端末装置2bは、音声解析部20と、状態解析部22bと、パフォーマンス評価部23bと、スピーチパフォーマンス指標データベース24bと、パフォーマンス評価提示部25bと、音声メッセージ生成部27と、画像生成部28bとを備える。
FIG. 15 is a diagram showing an example of the functional configuration of the support device D1b of the present embodiment.
The presence or absence of the head-mounted display 1 differs between the configuration of the support device D1b of the present embodiment (FIG. 15) and the configuration of the training device D1 according to the first embodiment (FIG. 4). The voice recording device 10b, the camera 11b, the display device 13b, and the voice output device 14b are not provided in the head-mounted display 1. Further, when the mobile terminal 2 (FIG. 4) and the terminal device 2b (FIG. 15) are compared, the state analysis unit 22b, the performance evaluation unit 23b, the speech performance index database 24b, the performance evaluation presentation unit 25b, and the image It is different from the generation unit 28b. Since the other configurations are the same as those of the support device D1 according to the first embodiment, the description thereof will be omitted, and in the third embodiment, the parts different from the first embodiment will be mainly described.
The terminal device 2b includes a voice analysis unit 20, a state analysis unit 22b, a performance evaluation unit 23b, a speech performance index database 24b, a performance evaluation presentation unit 25b, a voice message generation unit 27, and an image generation unit 28b. Be prepared.

状態解析部22bは、表示装置13bに表示された視野画像I5が提示された被訓練者の状態を解析する。被訓練者の状態とは、例えば、聴衆の目の画像が含まれる視野画像I5が提示された被訓練者の緊張度である。
状態解析部22bは、生体センサ3が生成した被訓練者の心拍情報を取得する。状態解析部22bは、被訓練者の緊張度として、取得した心拍情報を解析する。また、状態解析部22bは、カメラ11bにより撮影された被訓練者の撮影画像を取得する。状態解析部22bは、被訓練者の緊張度として、取得した撮影画像から被訓練者のまばたきの回数を解析する。
状態解析部22bは、解析した被訓練者の状態から、被訓練者の状態を示す状態情報を生成する。状態解析部22bは、状態情報として、心拍変動情報、及びまばたき回数情報を生成する。状態解析部22bは、生成した状態情報をパフォーマンス評価部23bに供給する。
The state analysis unit 22b analyzes the state of the trainee presented with the visual field image I5 displayed on the display device 13b. The trainee's condition is, for example, the degree of tension of the trainee presented with the visual field image I5 including the image of the eyes of the audience.
The state analysis unit 22b acquires the heartbeat information of the trainee generated by the biological sensor 3. The state analysis unit 22b analyzes the acquired heartbeat information as the degree of tension of the trainee. Further, the state analysis unit 22b acquires a photographed image of the trainee photographed by the camera 11b. The state analysis unit 22b analyzes the number of blinks of the trainee from the acquired captured image as the degree of tension of the trainee.
The state analysis unit 22b generates state information indicating the state of the trainee from the analyzed state of the trainee. The state analysis unit 22b generates heart rate variability information and blink frequency information as state information. The state analysis unit 22b supplies the generated state information to the performance evaluation unit 23b.

パフォーマンス評価部23bは、状態解析部22bが解析した被訓練者の状態と、スピーチパフォーマンス指標データベース24bに記憶されるパブリックスピーキング評価情報とに基づき、被訓練者によるパブリックスピーキングのパフォーマンスを評価する。ここで、本実施形態においてパブリックスピーキング評価情報とは、被訓練者の状態と、被訓練者の状態の評価とが対応づけられた情報である。被訓練者によるパブリックスピーキングのパフォーマンスとは、例えば、被訓練者の緊張度である。パフォーマンス評価部23bは、被訓練者の緊張度を示す緊張度評価情報を生成する。また、パフォーマンス評価部23bは、話速評価情報を生成する。 The performance evaluation unit 23b evaluates the performance of public speaking by the trainee based on the state of the trainee analyzed by the state analysis unit 22b and the public speaking evaluation information stored in the speech performance index database 24b. Here, in the present embodiment, the public speaking evaluation information is information in which the state of the trainee and the evaluation of the state of the trainee are associated with each other. The performance of public speaking by the trainee is, for example, the degree of tension of the trainee. The performance evaluation unit 23b generates tension evaluation information indicating the tension of the trainee. In addition, the performance evaluation unit 23b generates speech speed evaluation information.

スピーチパフォーマンス指標データベース24bには、パブリックスピーキング評価情報が記憶される。
パフォーマンス評価提示部25bは、パフォーマンス評価部23bから緊張度評価情報と、話速評価情報とを取得する。パフォーマンス評価提示部25bは、取得した緊張度評価情報と、取得した話速評価情報を、画像生成部28bを通じて、表示装置13bに表示させることにより提示する。
Public speaking evaluation information is stored in the speech performance index database 24b.
The performance evaluation presentation unit 25b acquires tension evaluation information and speech speed evaluation information from the performance evaluation unit 23b. The performance evaluation presentation unit 25b presents the acquired tension evaluation information and the acquired speech speed evaluation information by displaying them on the display device 13b through the image generation unit 28b.

画像生成部28bは、聴衆の目の画像が含まれる視野画像I5を生成する。画像生成部28bは、生成した視野画像I5を表示装置13bに供給する。
表示装置13bは、画像生成部28bから取得した視野画像I5を表示する。つまり、表示装置13bは、聴衆の目の画像が含まれる視野画像I5を表示する。
音声記録装置10bとは、例えば、端末装置2bに設けられるマイクである。音声出力装置14bとは、例えば、スピーカーである。
The image generation unit 28b generates a field image I5 including an image of the eyes of the audience. The image generation unit 28b supplies the generated visual field image I5 to the display device 13b.
The display device 13b displays the field image I5 acquired from the image generation unit 28b. That is, the display device 13b displays the visual field image I5 including the image of the eyes of the audience.
The voice recording device 10b is, for example, a microphone provided in the terminal device 2b. The audio output device 14b is, for example, a speaker.

図16は、本実施形態の支援装置D1bの視野画像I5の一例を示す図である。視野画像I5には、仮想的な発表会場の風景の画像に重ねて、聴衆の目の画像である目画像E1~目画像E8と、緊張度評価情報を示す画像F1bと、話速評価情報を示す画像F2bとが表示されている。目画像E1~目画像E8は、実写に近いCGの目の画像である。目画像E1~目画像E8において、目の画像の周囲は、半透明の肌色を用いて塗られている。目画像E1~目画像E8のうち目画像E5以外は、目が開かれた状態の画像である。目画像E1~目画像E8のうち目画像E5は、目が閉じられた状態の画像である。 FIG. 16 is a diagram showing an example of the field image I5 of the support device D1b of the present embodiment. In the field image I5, an eye image E1 to an eye image E8, which are images of the eyes of the audience, an image F1b showing tension evaluation information, and a speech speed evaluation information are superimposed on the image of the landscape of the virtual presentation venue. The image F2b shown is displayed. The eye image E1 to the eye image E8 are CG eye images close to a live-action image. In the eye image E1 to the eye image E8, the periphery of the eye image is painted using a translucent skin color. Of the eye images E1 to E8, the images other than the eye image E5 are images in a state where the eyes are open. Of the eye images E1 to the eye images E8, the eye image E5 is an image in which the eyes are closed.

被訓練者は、目画像E1~目画像E8が表示されているだけで、聴衆の視線を感じて緊張感を覚えながらプレゼンテーションの練習をすることができる。バーチャルオーディエンスを表示する場合に比べて、目画像E1~目画像E8を表示した場合の方が、支援装置D1bの負荷は軽減される。支援装置D1bによれば、パブリックスピーキングの練習において、実践さながらの状況を再現する場合に機器にかかる負担を軽減することができる。 The trainee can practice the presentation while feeling the eyes of the audience and feeling the tension only by displaying the eye images E1 to the eye images E8. The load on the support device D1b is reduced when the eye images E1 to E8 are displayed as compared with the case where the virtual audience is displayed. According to the support device D1b, in the practice of public speaking, it is possible to reduce the burden on the device when reproducing the situation as it is practiced.

図17は、本実施形態の支援装置D1bの視野画像I6の一例を示す図である。視野画像I6は、視野画像I5における実写に近いCGの目の画像である目画像E1~目画像E8の代わりに、イラストの目の画像である目画像A1~目画像A8が表示されている。
被訓練者は、イラストの目の画像である目画像A1~目画像A8が表示されているだけで、聴衆の視線を感じて緊張感を覚えながらプレゼンテーションの練習をすることができる。
FIG. 17 is a diagram showing an example of the field image I6 of the support device D1b of the present embodiment. In the field image I6, instead of the eye images E1 to E8, which are CG eye images close to the actual image in the field image I5, the eye images A1 to A8, which are the images of the eyes in the illustration, are displayed.
The trainee can practice the presentation while feeling the eyes of the audience and feeling the tension only by displaying the eye images A1 to A8, which are the images of the eyes in the illustration.

[まとめ]
上述した実施形態に係る支援装置D1bによれば、パブリックスピーキングの練習において、実践さながらの状況を再現する場合に機器にかかる負担を軽減することができる。
なお、支援装置D1bは、テレビ会議におけるプレゼンテーションの実践において用いられてもよい。支援装置D1bがテレビ会議におけるプレゼンテーションの実践において用いられる場合、視野画像において聴衆の目の画像は表示されず、緊張度評価情報を示す画像と、話速評価情報を示す画像と被訓練者T1cが次に見るべき位置とが表示される。
[summary]
According to the support device D1b according to the above-described embodiment, it is possible to reduce the burden on the device when reproducing the situation as if it were practiced in the practice of public speaking.
The support device D1b may be used in the practice of presentation in a video conference. When the support device D1b is used in the practice of presentation in a video conference, the image of the eyes of the audience is not displayed in the field image, and the image showing the tension evaluation information, the image showing the speech speed evaluation information, and the trainee T1c The next position to look at is displayed.

図18は、本実施形態の訓練装置D1cの概観の形態の一例を示す図である。訓練装置D1cは、一例としてHMDである。被訓練者T1cは、聴衆の視線を感じて緊張感を覚えながらプレゼンテーションの練習をすることができる。 FIG. 18 is a diagram showing an example of an overview of the training device D1c of the present embodiment. The training device D1c is an HMD as an example. The trainee T1c can practice the presentation while feeling the line of sight of the audience and feeling nervous.

以上、本発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。上述した各実施形態に記載の構成を組み合わせてもよい。 Although the embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment and may be appropriately modified without departing from the spirit of the present invention. can. The configurations described in each of the above-described embodiments may be combined.

なお、上記の実施形態における各装置が備える各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。 It should be noted that each part included in each device in the above embodiment may be realized by dedicated hardware, or may be realized by a memory and a microprocessor.

なお、各装置が備える各部は、メモリおよびCPU(中央演算装置)により構成され、各装置が備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。 Each part of each device is composed of a memory and a CPU (Central Processing Unit), and the function is realized by loading and executing a program for realizing the function of each part of each device in the memory. May be.

また、各装置が備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御部が備える各部による処理を行ってもよい。
なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
Further, the control unit can record a program for realizing the function of each part of each device on a computer-readable recording medium, read the program recorded on the recording medium into the computer system, and execute the program. Processing by each provided part may be performed.
The term "computer system" as used herein includes hardware such as an OS and peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Further, the "computer system" includes the homepage providing environment (or display environment) if the WWW system is used.
Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, and a storage device such as a hard disk built in a computer system. Further, a "computer-readable recording medium" is a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line, and dynamically holds the program for a short period of time. In that case, it also includes those that hold the program for a certain period of time, such as the volatile memory inside the computer system that is the server or client. Further, the above-mentioned program may be for realizing a part of the above-mentioned functions, and may be further realized for realizing the above-mentioned functions in combination with a program already recorded in the computer system.

1…ヘッドマウントディスプレイ、2…携帯端末、3…生体センサ、10、10b…音声記録装置、11…動きセンサ、11b…カメラ、12…画像生成装置、13、13b…表示装置、14、14b…音声出力装置、20…音声解析部、21…頭部動作解析部、22…心拍変動解析部、22b…状態解析部、23、23b…パフォーマンス評価部、24、24b…スピーチパフォーマンス指標データベース、25、25b…パフォーマンス評価提示部、26…動作指標提示部、27…音声メッセージ生成部、28b…画像生成部、D1、D2、D3、D1a、D1b…支援装置、T1、T2、T3、T1c…被訓練者、T1a…講演者、HD1、HD2、HD3、HD1a…頭部の向き、DD1、DD2、DD3、DD1a…頭部の向きに相対する向き、E1、E2、E3、E4、E5、E6、E7、E8、A1、A2、A3、A4、A5、A6、A7、A8…目画像 1 ... head mount display, 2 ... mobile terminal, 3 ... biosensor, 10, 10b ... voice recording device, 11 ... motion sensor, 11b ... camera, 12 ... image generator, 13, 13b ... display device, 14, 14b ... Voice output device, 20 ... Voice analysis unit, 21 ... Head motion analysis unit, 22 ... Heart rate variability analysis unit, 22b ... State analysis unit, 23, 23b ... Performance evaluation unit, 24, 24b ... Speech performance index database, 25, 25b ... Performance evaluation presentation unit, 26 ... Motion index presentation unit, 27 ... Voice message generation unit, 28b ... Image generation unit, D1, D2, D3, D1a, D1b ... Support device, T1, T2, T3, T1c ... Trained Person, T1a ... Speaker, HD1, HD2, HD3, HD1a ... Head orientation, DD1, DD2, DD3, DD1a ... Direction facing the head orientation, E1, E2, E3, E4, E5, E6, E7 , E8, A1, A2, A3, A4, A5, A6, A7, A8 ... Eye image

Claims (12)

被訓練者の頭部の向きを検出する検出部と、
前記検出部により検出された頭部の向きに対応した方向の仮想現実としての画像である視野画像、または、当該方向の拡張現実として前記被訓練者の視野または前記視野の画像に重ねて表示される画像である拡張現実画像を、当該頭部の向きに相対する向きにして表示する表示部と、
前記表示部が前記視野画像を表示する場合には前記検出部により検出された頭部の向きを示す前記視野画像上の位置とは異なる前記視野画像上の位置を示す情報を前記表示部に表示させることにより、または、前記表示部が前記拡張現実画像を表示する場合には前記検出部により検出された頭部の向きを示す前記視野または前記視野の画像上の位置とは異なる前記視野または前記視野の画像上の位置を示す情報を前記拡張現実画像として前記表示部に表示させることにより、前記検出部により検出された頭部の向きとは異なる頭部の向きを提示する動作指標提示部と、
を備えるパブリックスピーキング支援装置。
A detector that detects the orientation of the trainee's head,
It is displayed superimposed on the field image which is an image as a virtual reality in the direction corresponding to the direction of the head detected by the detection unit, or the field of view of the trainee or the image of the field of view as augmented reality in the direction. A display unit that displays an augmented reality image that is an image that faces the direction of the head.
When the display unit displays the field of view image, the display unit displays information indicating a position on the field of view image different from the position on the field of view image indicating the direction of the head detected by the detection unit. Or, when the display unit displays the augmented reality image, the field of view or the field of view different from the position on the image of the field of view indicating the direction of the head detected by the detection unit or the said. An motion index presenting unit that presents a head orientation different from the head orientation detected by the detection unit by displaying information indicating the position of the visual field on the image on the display unit as the augmented reality image . ,
A public speaking support device equipped with.
前記検出部の検出した頭部の向きを解析し、解析した結果から当該頭部の向きを示す前記視野画像、前記視野または前記視野の画像上の位置を示す情報である頭部動作情報を生成する頭部動作解析部と、
頭部の動きと、頭部の動きの評価とが対応づけられた情報であるパブリックスピーキング評価情報が記憶される記憶部と、
前記頭部動作解析部が生成した頭部動作情報と、前記記憶部に記憶されるパブリックスピーキング評価情報とに基づき、前記頭部の動きを評価し、評価した結果から、前記頭部動作情報の示す位置とは異なる前記視野画像、前記視野または前記視野の画像上の位置を示す情報である頭部動作指示情報を生成するパフォーマンス評価部と、
をさらに備え、
前記動作指標提示部は、前記頭部動作指示情報の示す前記視野画像、前記視野または前記視野の画像上の位置を示す情報を前記表示部に表示させることにより、前記検出部により検出された頭部の向きとは異なる頭部の向きを提示する
請求項1に記載のパブリックスピーキング支援装置。
The orientation of the head detected by the detection unit is analyzed, and the head motion information, which is information indicating the visual field image showing the orientation of the head, the visual field, or the position on the image of the visual field, is generated from the analysis result. Head motion analysis unit and
A storage unit that stores public speaking evaluation information, which is information in which the movement of the head and the evaluation of the movement of the head are associated with each other.
The head movement is evaluated based on the head movement information generated by the head movement analysis unit and the public speaking evaluation information stored in the storage unit, and the head movement information is obtained from the evaluation result. A performance evaluation unit that generates head movement instruction information that is information indicating the field image , the field, or a position on the image of the field that is different from the indicated position.
Further prepare
The motion index presenting unit displays the head field image indicated by the head motion instruction information, information indicating the visual field or the position of the visual field on the image on the display unit, and the head detected by the detection unit. The public speaking support device according to claim 1, which presents the orientation of the head different from the orientation of the part.
前記動作指標提示部は、前記頭部動作情報の示す位置と、前記頭部動作指示情報の示す位置とを、互いに区別可能な態様で前記表示部に表示させる
請求項2に記載のパブリックスピーキング支援装置。
The public speaking support according to claim 2, wherein the motion index presenting unit displays the position indicated by the head motion information and the position indicated by the head motion instruction information on the display unit in a manner distinguishable from each other. Device.
パフォーマンス評価提示部をさらに備え
前記パフォーマンス評価提示部は、前記頭部動作情報と、前記パブリックスピーキング評価情報とに基づき、前記被訓練者のパブリックスピーキングのパフォーマンスの評価を示す情報であるパフォーマンス評価情報を生成し、生成したパフォーマンス評価情報を前記表示部に表示させることにより、前記パフォーマンスの評価を提示する
請求項2または請求項3に記載のパブリックスピーキング支援装置。
Further equipped with a performance evaluation presentation section ,
The performance evaluation presentation unit generates performance evaluation information, which is information indicating the evaluation of the public speaking performance of the trainee, based on the head movement information and the public speaking evaluation information, and generates the performance evaluation. The public speaking support device according to claim 2 or 3, wherein the information is displayed on the display unit to present the evaluation of the performance .
前記被訓練者の音声を記録する音声記録部と、
前記音声記録部が記録した音声を解析し、解析した結果から前記被訓練者の話す速度を示す情報である話速情報を生成する音声解析部と、
をさらに備え、
前記記憶部に記憶されるパブリックスピーキング評価情報は、前記話速情報と、パブリックスピーキングの評価とが対応づけられた情報をさらに含み、
前記パフォーマンス評価提示部は、前記話速情報と、前記パブリックスピーキング評価情報とに基づきパフォーマンス評価情報を生成し、生成したパフォーマンス評価情報を前記表示部に表示させることにより、前記パフォーマンスの評価を提示する
請求項4に記載のパブリックスピーキング支援装置。
A voice recording unit that records the voice of the trainee, and
A voice analysis unit that analyzes the voice recorded by the voice recording unit and generates speech speed information that is information indicating the speaking speed of the trainee from the analysis result.
Further prepare
The public speaking evaluation information stored in the storage unit further includes information in which the speech speed information and the public speaking evaluation are associated with each other.
The performance evaluation presentation unit generates performance evaluation information based on the speech speed information and the public speaking evaluation information, and presents the performance evaluation by displaying the generated performance evaluation information on the display unit. The public speaking support device according to claim 4.
前記音声解析部は、音節を単位にして前記話速情報を生成する請求項5に記載のパブリックスピーキング支援装置。 The public speaking support device according to claim 5, wherein the voice analysis unit generates the speech speed information in units of syllables. 前記音声解析部は、前記音声記録部が記録した音声を解析し、解析した結果から前記被訓練者の声量を示す情報である声量情報を生成し、
前記記憶部に記憶されるパブリックスピーキング評価情報は、前記声量情報と、パブリックスピーキングの評価とが対応づけられた情報をさらに含み、
前記パフォーマンス評価提示部は、前記声量情報と、前記パブリックスピーキング評価情報とに基づきパフォーマンス評価情報を生成し、生成したパフォーマンス評価情報を前記表示部に表示させることにより、前記パフォーマンスの評価を提示する
請求項5または請求項6に記載のパブリックスピーキング支援装置。
The voice analysis unit analyzes the voice recorded by the voice recording unit, and generates voice volume information which is information indicating the voice volume of the trainee from the analysis result.
The public speaking evaluation information stored in the storage unit further includes information in which the voice volume information and the public speaking evaluation are associated with each other.
The performance evaluation presentation unit generates performance evaluation information based on the voice volume information and the public speaking evaluation information, and displays the generated performance evaluation information on the display unit to present the performance evaluation. Item 5 or the public speaking support device according to claim 6.
前記被訓練者の心拍の値を示す心拍情報を生成する心拍情報生成部と、
前記心拍情報生成部の生成した心拍情報を解析し、解析した結果から前記被訓練者の心拍の変動を示す情報である心拍変動情報を生成する心拍変動解析部と、
をさらに備え、
前記記憶部に記憶されるパブリックスピーキング評価情報は、前記心拍変動情報と、パブリックスピーキングの評価とが対応づけられた情報をさらに含み、
前記パフォーマンス評価提示部は、前記心拍変動情報と、前記パブリックスピーキング評価情報とに基づきパフォーマンス評価情報を生成し、生成したパフォーマンス評価情報を前記表示部に表示させることにより、前記パフォーマンスの評価を提示する
請求項4から請求項7のいずれか一項に記載のパブリックスピーキング支援装置。
A heartbeat information generation unit that generates heartbeat information indicating the heartbeat value of the trainee, and
A heart rate variability analysis unit that analyzes the heart rate information generated by the heart rate information generation unit and generates heart rate variability information that is information indicating the heart rate variability of the trainee from the analysis results.
Further prepare
The public speaking evaluation information stored in the storage unit further includes information in which the heart rate variability information is associated with the public speaking evaluation.
The performance evaluation presentation unit generates performance evaluation information based on the heart rate variability information and the public speaking evaluation information, and presents the performance evaluation by displaying the generated performance evaluation information on the display unit. The public speaking support device according to any one of claims 4 to 7.
前記表示部に表示された前記視野画像または前記拡張現実画像が提示された前記被訓練者の緊張度を解析する状態解析部をさらに備え、 Further, a state analysis unit for analyzing the tension of the trainee to which the visual field image or the augmented reality image displayed on the display unit is presented is provided.
前記記憶部に記憶されるパブリックスピーキング評価情報は、前記被訓練者の緊張度と、前記被訓練者の緊張度の評価とが対応づけられた情報をさらに含み、 The public speaking evaluation information stored in the storage unit further includes information in which the tension level of the trainee is associated with the evaluation of the tension level of the trainee.
前記パフォーマンス評価提示部は、前記状態解析部が解析した前記被訓練者の緊張度と、前記記憶部に記憶される前記パブリックスピーキング評価情報とに基づき前記被訓練者の緊張度の評価を示す緊張度評価情報を生成し、生成した緊張度評価情報を前記表示部に表示させることにより、前記パフォーマンスの評価を提示する The performance evaluation presentation unit indicates the tension level of the trainee based on the tension level of the trainee analyzed by the state analysis unit and the public speaking evaluation information stored in the storage unit. The performance evaluation is presented by generating the degree evaluation information and displaying the generated tension evaluation information on the display unit.
請求項4から請求項8のいずれか一項に記載のパブリックスピーキング支援装置。 The public speaking support device according to any one of claims 4 to 8.
前記表示部とは、透過型の表示部である
請求項1から請求項のいずれか一項に記載のパブリックスピーキング支援装置。
The public speaking support device according to any one of claims 1 to 9 , wherein the display unit is a transparent display unit.
前記視野画像または前記拡張現実画像には、聴衆の目の画像が含まれる
請求項1から請求項10のいずれか一項に記載のパブリックスピーキング支援装置。
The public speaking support device according to any one of claims 1 to 10 , wherein the field image or the augmented reality image includes an image of the eyes of an audience.
コンピュータに、
被訓練者の頭部の向きを検出する検出ステップと、
前記検出ステップにより検出された頭部の向きに対応した方向の仮想現実としての画像である視野画像、または、当該方向の拡張現実として前記被訓練者の視野または前記視野の画像に重ねて表示される画像である拡張現実画像を、当該頭部の向きに相対する向きにして表示部に表示する表示ステップと、
前記表示部が前記視野画像を表示する場合には前記検出ステップにより検出された頭部の向きを示す前記視野画像上の位置とは異なる向きを示す前記視野画像上の位置を示す情報を前記表示部に表示させることにより、または、前記表示部が前記拡張現実画像を表示する場合には前記検出ステップにより検出された頭部の向きを示す前記視野または前記視野の画像上の位置とは異なる前記視野または前記視野の画像上の位置を示す情報を前記拡張現実画像として前記表示部に表示させることにより、前記検出ステップにより検出された頭部の向きとは異なる頭部の向きを提示する動作指標提示ステップと、
を実行させるためのプログラム。
On the computer
A detection step that detects the orientation of the trainee's head,
It is displayed superimposed on the field image which is an image as a virtual reality in the direction corresponding to the direction of the head detected by the detection step, or the field of view of the trainee or the image of the field of view as augmented reality in the direction. A display step of displaying an augmented reality image, which is an image, on the display unit in a direction opposite to the direction of the head.
When the display unit displays the field image, the display indicates information indicating a position on the field image indicating a direction different from the position on the field image indicating the direction of the head detected by the detection step. The above, which is different from the field of view indicating the orientation of the head detected by the detection step or the position on the image of the field of view when the display unit displays the augmented reality image. By displaying information indicating the field of view or the position of the field of view on the image on the display unit as the augmented reality image, an operation index that presents the direction of the head different from the direction of the head detected by the detection step. Presentation steps and
A program to execute.
JP2017185257A 2017-04-10 2017-09-26 Public speaking support device and program Active JP7066115B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017077706 2017-04-10
JP2017077706 2017-04-10

Publications (2)

Publication Number Publication Date
JP2018180503A JP2018180503A (en) 2018-11-15
JP7066115B2 true JP7066115B2 (en) 2022-05-13

Family

ID=64276506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017185257A Active JP7066115B2 (en) 2017-04-10 2017-09-26 Public speaking support device and program

Country Status (1)

Country Link
JP (1) JP7066115B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6531338B1 (en) * 2019-01-07 2019-06-19 株式会社mediVR Rehabilitation support device, rehabilitation support system, rehabilitation support method and rehabilitation support program
JP7385238B2 (en) * 2019-01-07 2023-11-22 株式会社mediVR Rehabilitation support device, rehabilitation support method, and rehabilitation support program
WO2020148919A1 (en) * 2019-01-17 2020-07-23 オムロン株式会社 Information processing device, presentation system, and information processing program
WO2024079605A1 (en) 2022-10-10 2024-04-18 Talk Sàrl Assisting a speaker during training or actual performance of a speech

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008139762A (en) 2006-12-05 2008-06-19 Univ Of Tokyo Presentation support device, method, and program
WO2015114824A1 (en) 2014-02-03 2015-08-06 株式会社日立製作所 Speech training system and speech training method
US20160049094A1 (en) 2014-08-13 2016-02-18 Pitchvantage Llc Public Speaking Trainer With 3-D Simulation and Real-Time Feedback
JP2017068689A (en) 2015-09-30 2017-04-06 富士通株式会社 Visual field guide method, visual field guide program and visual field guide device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008139762A (en) 2006-12-05 2008-06-19 Univ Of Tokyo Presentation support device, method, and program
WO2015114824A1 (en) 2014-02-03 2015-08-06 株式会社日立製作所 Speech training system and speech training method
US20160049094A1 (en) 2014-08-13 2016-02-18 Pitchvantage Llc Public Speaking Trainer With 3-D Simulation and Real-Time Feedback
JP2017068689A (en) 2015-09-30 2017-04-06 富士通株式会社 Visual field guide method, visual field guide program and visual field guide device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
田中一也,全観客キャラクタが講演者発話にうなずく没入型講演体験システムの開発,第79回(平成29年)全国大会講演論文集(4),一般社団法人情報処理学会,2017年03月16日,第4-187~4-188頁

Also Published As

Publication number Publication date
JP2018180503A (en) 2018-11-15

Similar Documents

Publication Publication Date Title
US11798431B2 (en) Public speaking trainer with 3-D simulation and real-time feedback
US10120413B2 (en) System and method for enhanced training using a virtual reality environment and bio-signal data
JP7066115B2 (en) Public speaking support device and program
CN111936036A (en) Guiding live entertainment using biometric sensor data to detect neurological state
US10705706B2 (en) Methods and apparatus for multimedia presentation
US20090319459A1 (en) Physically-animated Visual Display
CN112352390A (en) Content generation and control using sensor data for detecting neurological state
US20220028296A1 (en) Information processing apparatus, information processing method, and computer program
US20190130788A1 (en) Virtual Reality Microsimulation Platform
KR20130098770A (en) Expanded 3d space based virtual sports simulation system
US11397467B1 (en) Tactile simulation of initial contact with virtual objects
JP6396351B2 (en) Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear
JP5761730B2 (en) Physical skill acquisition support device
CN112506336A (en) Head mounted display with haptic output
KR20190048144A (en) Augmented reality system for presentation and interview training
KR102122021B1 (en) Apparatus and method for enhancement of cognition using Virtual Reality
D. Gomez et al. See ColOr: an extended sensory substitution device for the visually impaired
US10983591B1 (en) Eye rank
US20230282080A1 (en) Sound-based attentive state assessment
WO2018168247A1 (en) Information processing device, information processing method, and program
Zhu et al. An investigation into the effectiveness of using acoustic touch to assist people who are blind
US20240104870A1 (en) AR Interactions and Experiences
Filipovic et al. Augmented Reality Balance Physiotherapy in HOLOBALANCE Project
Buimer Human-Centered Design of Vibrotactile Wearables for Persons with a Visual Impairment
WO2022221186A1 (en) Virtual presentation rehearsal

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220413

R150 Certificate of patent or registration of utility model

Ref document number: 7066115

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150