JP2022123355A - image display system - Google Patents

image display system Download PDF

Info

Publication number
JP2022123355A
JP2022123355A JP2021020616A JP2021020616A JP2022123355A JP 2022123355 A JP2022123355 A JP 2022123355A JP 2021020616 A JP2021020616 A JP 2021020616A JP 2021020616 A JP2021020616 A JP 2021020616A JP 2022123355 A JP2022123355 A JP 2022123355A
Authority
JP
Japan
Prior art keywords
emotion
data
unit
user
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021020616A
Other languages
Japanese (ja)
Inventor
麗子 下澤
Reiko Shimozawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2021020616A priority Critical patent/JP2022123355A/en
Publication of JP2022123355A publication Critical patent/JP2022123355A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image display system which can easily grasp a feeling of a user wearing a mask.SOLUTION: A feeling unit 20 acquires at least one feeling data for specifying a feeling K of a user U1 in a wearing state in which the user U1 wears a mask M1. A mask unit M10 transmits the at least one feeling data to an image display device 100. A feeling specification unit 103 specifies the feeling of the user U1 in the wearing state on the basis of the at least one feeling data received by the image display device 100. A display unit 107 displays a feeling image G1 corresponding to the specific feeling being the feeling K of the user U1 in the wearing state specified by the feeling specification unit 103.SELECTED DRAWING: Figure 1

Description

本開示は、マスクを使用した構成を有する画像表示システムに関する。 The present disclosure relates to an image display system having a configuration using a mask.

近年、人がマスクを着用する機会が増えている。以下においては、マスクを着用した人またはユーザーを、「マスク着用者」ともいう。マスク着用者の顔の状態を識別することは困難である。そこで、マスク着用者の顔を疑似的に表現することができるマスクが提案されている。 In recent years, more and more people are wearing masks. Hereinafter, a person or user who wears a mask is also referred to as a "mask wearer". It is difficult to identify the facial condition of the mask wearer. Therefore, a mask has been proposed that can simulate the face of the mask wearer.

例えば、特許文献1では、マスク着用者の顔を疑似的に表現するための構成(以下、「関連構成A」ともいう)が開示されている。関連構成Aでは、マスク本体部を覆うフレキシブルディスプレイと、マスク着用者の口部の動きを検知するためのセンサーとが使用される。関連構成Aでは、センサーが検知した、マスク着用者の口部の動きに同期した画像をフレキシブルディスプレイが表示する。 For example, Patent Literature 1 discloses a configuration (hereinafter also referred to as “related configuration A”) for simulating the face of a mask wearer. Related configuration A uses a flexible display covering the mask body and a sensor for detecting movement of the mask wearer's mouth. In related configuration A, the flexible display displays an image synchronized with the movement of the mask wearer's mouth detected by the sensor.

特許第6693626号公報Japanese Patent No. 6693626

人と会話を行う状況において当該会話を盛り上げるためには、当該人の感情を把握することは重要である。 In order to liven up the conversation in a situation of having a conversation with a person, it is important to grasp the person's emotions.

関連構成Aでは、マスク本体部を覆うフレキシブルディスプレイが、センサーが検知した、マスク着用者の口部の動きに同期した画像を表示する。関連構成Aのような、マスク着用者の口部の動きに同期した画像を表示する構成では、マスクを着用したユーザーであるマスク着用者の感情を把握することは容易ではないという問題点がある。 In related configuration A, a flexible display that covers the mask body displays images synchronized with the movement of the mask wearer's mouth detected by the sensor. A configuration that displays an image synchronized with the movement of the mask wearer's mouth, such as related configuration A, has the problem that it is not easy to grasp the emotions of the mask wearer, who is the user of the mask. .

本開示は、上記の問題点を解決するためになされたものであり、マスクを着用したユーザーの感情を容易に把握することが可能な画像表示システムを提供することを目的とする。 The present disclosure has been made to solve the above problems, and an object thereof is to provide an image display system capable of easily grasping the emotions of a user wearing a mask.

上記目的を達成するために、本開示の一態様に係る画像表示システムは、画像表示装置と、当該画像表示装置と通信を行う機能を有し、ユーザーが着用可能なマスクユニットとを含む。前記マスクユニットの状態には、前記ユーザーが当該マスクユニットを着用した状態である着用状態が存在し、前記マスクユニットは、前記着用状態において、前記ユーザーの顔の下部を覆うシート状のマスクと、前記着用状態における前記ユーザーの感情を特定するための、少なくとも1つの感情データを取得する感情ユニットとを備え、前記着用状態は、前記ユーザーが前記マスクを着用した状態であり、前記感情ユニットは、前記マスクに設けられており、前記マスクユニットは、前記少なくとも1つの感情データを、前記画像表示装置へ送信し、前記画像表示装置は、前記画像表示装置が受信した前記少なくとも1つの感情データに基づいて、前記着用状態における前記ユーザーの感情を特定する感情特定部と、前記感情特定部により特定された、前記着用状態における前記ユーザーの感情である特定感情に対応する画像を表示する表示部とを備える。 To achieve the above object, an image display system according to one aspect of the present disclosure includes an image display device and a mask unit that has a function of communicating with the image display device and that can be worn by a user. The state of the mask unit includes a wearing state in which the user wears the mask unit. In the wearing state, the mask unit includes a sheet-like mask that covers the lower part of the face of the user; an emotion unit that obtains at least one emotion data for identifying an emotion of the user in the wearing state, the wearing state being a state in which the user is wearing the mask, the emotion unit comprising: provided on the mask, wherein the mask unit transmits the at least one emotion data to the image display device, and the image display device receives the at least one emotion data based on the at least one emotion data received by the image display device and an emotion identification unit that identifies the emotion of the user in the wearing state, and a display unit that displays an image corresponding to the specific emotion, which is the emotion of the user in the wearing state, identified by the emotion identification unit. Prepare.

本開示によれば、マスクユニットの状態には、ユーザーが当該マスクユニットを着用した状態である着用状態が存在する。前記マスクユニットは、前記着用状態において、前記ユーザーの顔の下部を覆うマスクを備える。前記着用状態は、前記ユーザーが前記マスクを着用した状態である。感情ユニットは、前記着用状態における前記ユーザーの感情を特定するための、少なくとも1つの感情データを取得する。前記マスクユニットは、前記少なくとも1つの感情データを、画像表示装置へ送信する。感情特定部は、前記画像表示装置が受信した前記少なくとも1つの感情データに基づいて、前記着用状態における前記ユーザーの感情を特定する。表示部は、前記感情特定部により特定された、前記着用状態における前記ユーザーの感情である特定感情に対応する画像を表示する。 According to the present disclosure, the state of the mask unit includes a wearing state in which the user wears the mask unit. The mask unit includes a mask that covers the lower portion of the user's face in the wearing state. The wearing state is a state in which the user wears the mask. An emotion unit obtains at least one emotion data for identifying the user's emotion in the wearing state. The mask unit transmits the at least one emotion data to an image display device. The emotion identification unit identifies the user's emotion in the wearing state based on the at least one emotion data received by the image display device. The display unit displays an image corresponding to the specific emotion, which is the emotion of the user in the wearing state, specified by the emotion specifying unit.

これにより、マスクを着用したユーザーの感情を容易に把握することができる。 This makes it possible to easily grasp the emotions of the user wearing the mask.

実施の形態1に係る画像表示システムの構成を示す図である。1 is a diagram showing the configuration of an image display system according to Embodiment 1; FIG. 実施の形態1に係るマスクの構成を示す平面図である。2 is a plan view showing the configuration of a mask according to Embodiment 1; FIG. 実施の形態1に係るマスクユニットの主要な構成を示すブロック図である。2 is a block diagram showing the main configuration of a mask unit according to Embodiment 1; FIG. 実施の形態1に係る画像表示装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an image display device according to Embodiment 1; FIG. 感情画像の一例を示す図である。It is a figure which shows an example of an emotional image. 実施の形態1に係る感情提示制御処理のフローチャートである。4 is a flowchart of emotion presentation control processing according to Embodiment 1; 画像表示装置のハードウエア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of an image display apparatus. 画像表示装置のハードウエア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of an image display apparatus.

以下、図面を参照しつつ、実施の形態について説明する。以下の図面では、同一の構成要素には同一の符号を付してある。同一の符号が付されている構成要素の名称および機能は同じである。したがって、同一の符号が付されている構成要素の一部についての詳細な説明を省略する場合がある。 Hereinafter, embodiments will be described with reference to the drawings. In the following drawings, the same components are given the same reference numerals. Components with the same reference numerals have the same names and functions. Therefore, detailed descriptions of some of the components denoted by the same reference numerals may be omitted.

なお、実施の形態において例示される構成要素の寸法、材質、形状、当該構成要素の相対配置などは、装置の構成、各種条件等により適宜変更されてもよい。また、図における構成要素の寸法は、実際の寸法と異なる場合がある。 Note that the dimensions, materials, shapes, and relative arrangement of the components illustrated in the embodiments may be appropriately changed according to the configuration of the apparatus, various conditions, and the like. Also, the dimensions of components in the drawings may differ from the actual dimensions.

<実施の形態1>
(構成)
実施の形態1に係る画像表示システム500について説明する。図1は、実施の形態1に係る画像表示システム500の構成を示す図である。図1には、説明のために、画像表示システム500に含まれないユーザーU1の顔F1が示されている。
<Embodiment 1>
(Constitution)
An image display system 500 according to Embodiment 1 will be described. FIG. 1 is a diagram showing the configuration of an image display system 500 according to Embodiment 1. As shown in FIG. FIG. 1 shows a face F1 of user U1 that is not included in image display system 500 for the sake of explanation.

図1に示されるように、画像表示システム500は、画像表示装置100と、マスクユニットM10とを含む。画像表示装置100は、画像を表示する機能を有する。画像表示装置100は、例えば、ディスプレイである。 As shown in FIG. 1, the image display system 500 includes an image display device 100 and a mask unit M10. The image display device 100 has a function of displaying images. The image display device 100 is, for example, a display.

マスクユニットM10は、画像表示装置100と通信を行う機能を有する。マスクユニットM10が、画像表示装置100に対し行う通信は、無線通信である。すなわち、マスクユニットM10は、画像表示装置100と無線通信を行う機能を有する。当該無線通信は、例えば、Wi-FiまたはBluetoothに従った通信である。「Bluetooth」は、登録商標である。 The mask unit M10 has a function of communicating with the image display device 100 . Communication performed by the mask unit M10 with the image display device 100 is wireless communication. That is, the mask unit M10 has a function of wirelessly communicating with the image display device 100. FIG. The wireless communication is, for example, communication according to Wi-Fi or Bluetooth. "Bluetooth" is a registered trademark.

また、ユーザーU1がマスクユニットM10を着用可能なように、当該マスクユニットM10は構成されている。以下においては、ユーザーU1が当該マスクユニットM10を着用した状態を、「着用状態」ともいう。また、以下においては、ユーザーU1が当該マスクユニットM10を着用していない状態を、「非着用状態」ともいう。 Further, the mask unit M10 is configured so that the user U1 can wear the mask unit M10. Hereinafter, the state in which the user U1 wears the mask unit M10 is also referred to as "wearing state". Further, hereinafter, the state in which the user U1 does not wear the mask unit M10 is also referred to as "non-wearing state".

マスクユニットM10の状態には、着用状態と、非着用状態とが存在する。図1には、着用状態のマスクユニットM10が示されている。 The state of the mask unit M10 includes a wearing state and a non-wearing state. FIG. 1 shows the mask unit M10 in a worn state.

マスクユニットM10は、マスクM1と、感情ユニット20と、通信部6とを備える。図2は、実施の形態1に係るマスクM1の構成を示す平面図である。また、図2には、後述の振動センサー2が示されている。 The mask unit M10 includes a mask M1, an emotion unit 20, and a communication section 6. FIG. 2 is a plan view showing the configuration of the mask M1 according to Embodiment 1. FIG. FIG. 2 also shows a vibration sensor 2, which will be described later.

以下においては、水平方向を、「水平方向Dr1」または「方向Dr1」ともいう。また、以下においては、鉛直方向を、「鉛直方向Dr2」または「方向Dr2」ともいう。図2には、水平方向Dr1および鉛直方向Dr2が示されている。水平方向Dr1および鉛直方向Dr2は、互いに直交する。 Hereinafter, the horizontal direction is also referred to as “horizontal direction Dr1” or “direction Dr1”. In addition, the vertical direction is hereinafter also referred to as “vertical direction Dr2” or “direction Dr2”. Horizontal direction Dr1 and vertical direction Dr2 are shown in FIG. The horizontal direction Dr1 and the vertical direction Dr2 are orthogonal to each other.

図3は、実施の形態1に係るマスクユニットM10の主要な構成を示すブロック図である。図3には、マスクユニットM10の主要な構成を分かりやすくするために、マスクM1は示されていない。 FIG. 3 is a block diagram showing the main configuration of the mask unit M10 according to Embodiment 1. As shown in FIG. The mask M1 is not shown in FIG. 3 for the sake of clarity of the main configuration of the mask unit M10.

まず、図1および図2を参照して、ユーザーU1がマスクM1を着用可能なように、当該マスクM1は構成されている。また、着用状態において、マスクM1がユーザーU1の顔F1の下部を覆うように、当該マスクM1は構成されている。ユーザーU1の顔F1の下部には、口および鼻が設けられている。着用状態は、ユーザーU1がマスクM1を着用した状態でもある。 First, referring to FIGS. 1 and 2, the mask M1 is configured so that the user U1 can wear the mask M1. Moreover, the mask M1 is configured so that the mask M1 covers the lower portion of the face F1 of the user U1 when worn. A mouth and a nose are provided in the lower part of the face F1 of the user U1. The wearing state is also a state in which the user U1 wears the mask M1.

マスクM1の形状は、シート状である。また、平面視におけるマスクM1の形状は、矩形である。マスクM1は、表面M1aと、内面M1bとを有する。内面M1bは、着用状態において、ユーザーU1の顔F1と対向する面である。また、内面M1bは、着用状態において、ユーザーU1の顔F1の頬に接触する。 The shape of the mask M1 is sheet-like. Moreover, the shape of the mask M1 in plan view is a rectangle. The mask M1 has a surface M1a and an inner surface M1b. The inner surface M1b faces the face F1 of the user U1 when worn. In addition, the inner surface M1b contacts the cheeks of the face F1 of the user U1 when worn.

マスクM1のサイズは、ユーザーU1の顔F1の下部を覆うためのサイズである。なお、マスクM1のサイズは、当該マスクM1が、顔F1の下部を含む、当該顔F1のほぼ全体を覆うためのサイズであってもよい。 The size of the mask M1 is a size for covering the lower portion of the face F1 of the user U1. The size of the mask M1 may be such that the mask M1 covers substantially the entire face F1 including the lower part of the face F1.

着用状態におけるマスクM1には、ユーザーU1の顔F1の動きにより、振動が発生する。 The mask M1 in the wearing state vibrates due to the movement of the face F1 of the user U1.

マスクM1は、柔軟性および通気性を有する材料から構成される。マスクM1を構成する材料は、一般的な医療用マスクと同様、例えば、布、ガーゼ、不繊布などである。 The mask M1 is made of a flexible and breathable material. The material constituting the mask M1 is, for example, cloth, gauze, non-woven cloth, etc., like common medical masks.

次に、図1および図3を参照して、通信部6は、画像表示装置100と通信を行う機能を有する。通信部6が、画像表示装置100に対し行う通信は、無線通信である。すなわち、通信部6は、画像表示装置100と無線通信を行う機能を有する。当該無線通信は、例えば、Wi-FiまたはBluetoothに従った通信である。通信部6は、例えば、マスクM1の表面M1aに設けられている。 Next, referring to FIGS. 1 and 3, communication unit 6 has a function of communicating with image display device 100 . Communication performed by the communication unit 6 with the image display device 100 is wireless communication. That is, the communication unit 6 has a function of wirelessly communicating with the image display device 100 . The wireless communication is, for example, communication according to Wi-Fi or Bluetooth. The communication unit 6 is provided, for example, on the surface M1a of the mask M1.

感情ユニット20は、マスクM1に設けられている。以下においては、着用状態におけるユーザーU1の感情を特定するためのデータを、「感情データ」ともいう。 The emotion unit 20 is provided on the mask M1. In the following, the data for specifying the emotion of the user U1 in the wearing state is also referred to as "emotion data".

感情ユニット20は、少なくとも1つの感情データを取得する機能を有する。マスクユニットM10の感情ユニット20は、感情データを、画像表示装置100へ送信する。 The emotion unit 20 has a function of acquiring at least one emotion data. The emotion unit 20 of the mask unit M10 transmits emotion data to the image display device 100. FIG.

感情ユニット20は、検出部である振動センサー2、音声検出部3、圧電素子4および温度検出部5を有する。すなわち、感情ユニット20は、複数の検出部を有する。 The emotion unit 20 has a vibration sensor 2, an audio detection section 3, a piezoelectric element 4, and a temperature detection section 5, which are detection sections. That is, the emotion unit 20 has a plurality of detectors.

なお、感情ユニット20が、1つの検出部を有する構成としてもよい。当該構成では、当該1つの検出部は、振動センサー2、音声検出部3、圧電素子4および温度検出部5のいずれかである。すなわち、感情ユニット20は、検出部である振動センサー2、音声検出部3、圧電素子4および温度検出部5のいずれか1つの検出部を有してもよい。 Note that the emotion unit 20 may be configured to have one detection unit. In this configuration, the single detection unit is any one of the vibration sensor 2 , the sound detection unit 3 , the piezoelectric element 4 and the temperature detection unit 5 . That is, the emotion unit 20 may have any one of the vibration sensor 2, the sound detection unit 3, the piezoelectric element 4, and the temperature detection unit 5, which are detection units.

また、感情ユニット20は、構成要素としての振動センサー2、音声検出部3、圧電素子4および温度検出部5の一部を有する構成としてもよい。当該構成では、感情ユニット20が有する複数の検出部は、構成要素としての振動センサー2、構成要素としての音声検出部3、構成要素としての圧電素子4、および、構成要素としての温度検出部5のうち、2つ以上の構成要素から構成される。 Moreover, the emotion unit 20 may be configured to have a part of the vibration sensor 2, the voice detection section 3, the piezoelectric element 4, and the temperature detection section 5 as constituent elements. In this configuration, the plurality of detection units included in the emotion unit 20 include the vibration sensor 2 as a component, the sound detection unit 3 as a component, the piezoelectric element 4 as a component, and the temperature detection unit 5 as a component. consists of two or more components.

例えば、感情ユニット20が有する複数の検出部は、振動センサー2および音声検出部3であってもよい。また、例えば、感情ユニット20が有する複数の検出部は、音声検出部3および温度検出部5であってもよい。また、例えば、感情ユニット20が有する複数の検出部は、振動センサー2、音声検出部3および温度検出部5であってもよい。 For example, the multiple detectors included in the emotion unit 20 may be the vibration sensor 2 and the voice detector 3 . Further, for example, the multiple detection units included in the emotion unit 20 may be the voice detection unit 3 and the temperature detection unit 5 . Further, for example, the plurality of detection units included in the emotion unit 20 may be the vibration sensor 2 , the voice detection unit 3 and the temperature detection unit 5 .

通信部6は、検出部である振動センサー2、音声検出部3、圧電素子4および温度検出部5と接続されている。通信部6は、検出部である振動センサー2、音声検出部3、圧電素子4および温度検出部5から送信されるデータを、画像表示装置100へ送信する。 The communication unit 6 is connected to the vibration sensor 2, the sound detection unit 3, the piezoelectric element 4, and the temperature detection unit 5, which are detection units. The communication unit 6 transmits data transmitted from the vibration sensor 2 , the sound detection unit 3 , the piezoelectric element 4 and the temperature detection unit 5 as detection units to the image display device 100 .

振動センサー2、音声検出部3、圧電素子4および温度検出部5の各々は、マスクM1の内面M1bに設けられている。 Each of the vibration sensor 2, the sound detection section 3, the piezoelectric element 4, and the temperature detection section 5 is provided on the inner surface M1b of the mask M1.

振動センサー2は、マスクM1の振動を検出する機能を有する。以下においては、マスクM1の振動を、「マスク振動」ともいう。また、以下においては、マスクM1において発生する、水平方向Dr1に沿ったマスク振動を、「水平振動」ともいう。また、以下においては、マスクM1において発生する、鉛直方向Dr2に沿ったマスク振動を、「鉛直振動」ともいう。 The vibration sensor 2 has a function of detecting vibration of the mask M1. Hereinafter, the vibration of the mask M1 is also referred to as "mask vibration". Further, hereinafter, the mask vibration along the horizontal direction Dr1 that occurs in the mask M1 is also referred to as "horizontal vibration". Further, hereinafter, the mask vibration along the vertical direction Dr2 that occurs in the mask M1 is also referred to as "vertical vibration".

振動センサー2が水平振動および鉛直振動を検出可能なように、当該振動センサー2は、マスクM1の内面M1bに設けられている。図2は、マスクM1の内面M1bに、振動センサー2が設けられている状態を示す。振動センサー2は、4つの振動センサーから構成される。 The vibration sensor 2 is provided on the inner surface M1b of the mask M1 so that the vibration sensor 2 can detect horizontal vibration and vertical vibration. FIG. 2 shows a state in which the vibration sensor 2 is provided on the inner surface M1b of the mask M1. The vibration sensor 2 is composed of four vibration sensors.

以下においては、振動センサー2を構成する4つの振動センサーを、振動センサー2a,2b,2c,2dともいう。すなわち、振動センサー2は、振動センサー2a,2b,2c,2dから構成される。振動センサー2a,2b,2c,2dの各々は、マスク振動を検出する機能を有する。振動センサー2a,2b,2c,2dは、マスクM1の内面M1bに設けられている。 In the following, the four vibration sensors forming the vibration sensor 2 are also referred to as vibration sensors 2a, 2b, 2c, and 2d. That is, the vibration sensor 2 is composed of vibration sensors 2a, 2b, 2c, and 2d. Each of the vibration sensors 2a, 2b, 2c and 2d has a function of detecting mask vibration. The vibration sensors 2a, 2b, 2c and 2d are provided on the inner surface M1b of the mask M1.

振動センサー2b,2cが水平方向Dr1に沿って並ぶように、当該振動センサー2b,2cはマスクMの内面M1bに設けられる。振動センサー2a,2dが鉛直方向Dr2に沿って並ぶように、当該振動センサー2a,2dはマスクM1の内面M1bに設けられる。 The vibration sensors 2b and 2c are provided on the inner surface M1b of the mask M so that the vibration sensors 2b and 2c are arranged along the horizontal direction Dr1. The vibration sensors 2a and 2d are provided on the inner surface M1b of the mask M1 so that the vibration sensors 2a and 2d are arranged along the vertical direction Dr2.

振動センサー2b,2cの各々がマスク振動を検出した場合、振動センサー2は、マスク振動としての水平振動を検出する。振動センサー2a,2dの各々がマスク振動を検出した場合、振動センサー2は、マスク振動としての鉛直振動を検出する。 When each of the vibration sensors 2b and 2c detects mask vibration, the vibration sensor 2 detects horizontal vibration as the mask vibration. When each of the vibration sensors 2a and 2d detects mask vibration, the vibration sensor 2 detects vertical vibration as the mask vibration.

振動センサー2は、例えば、検出した水平振動の大きさにより、例えば、水平方向Dr1における、ユーザーU1の口が開いた量を検出することができる。また、振動センサー2は、例えば、検出した鉛直振動の大きさにより、例えば、鉛直方向Dr2における、ユーザーU1の口が開いた量を検出することができる。 The vibration sensor 2 can detect, for example, the amount of opening of the mouth of the user U1 in the horizontal direction Dr1, for example, from the magnitude of the detected horizontal vibration. Further, the vibration sensor 2 can detect the amount of mouth opening of the user U1 in the vertical direction Dr2, for example, based on the magnitude of the detected vertical vibration.

以下においては、振動センサー2が検出したマスク振動のデータを、「振動データ」ともいう。振動データは、例えば、マスク振動が発生した旨、マスク振動の継続時間、マスク振動の強さ等を示すデータである。当該マスク振動は、水平振動および鉛直振動の両方または一方である。 In the following, the mask vibration data detected by the vibration sensor 2 is also referred to as "vibration data". The vibration data is, for example, data indicating that mask vibration has occurred, duration of mask vibration, strength of mask vibration, and the like. The mask vibration is horizontal vibration and/or vertical vibration.

振動センサー2は、マスク振動を検出した場合、検出した当該マスク振動の振動データを生成し、当該振動データを、感情データとして取得する。振動センサー2は、振動データとしての感情データを、通信部6を介して、画像表示装置100へ送信する。 When detecting mask vibration, the vibration sensor 2 generates vibration data of the detected mask vibration, and acquires the vibration data as emotion data. Vibration sensor 2 transmits emotion data as vibration data to image display device 100 via communication unit 6 .

以下においては、ユーザーU1が発する音声を、「ユーザー音声」ともいう。ユーザー音声は、例えば、着用状態におけるユーザーU1が発する音声である。 In the following, the voice uttered by user U1 is also referred to as "user voice". The user's voice is, for example, voice uttered by the user U1 in the wearing state.

音声検出部3は、ユーザーU1が発する音声であるユーザー音声を検出する機能を有する。ユーザー音声は、例えば、笑い声、ため息等である。音声検出部3は、例えば、マイクと、当該マイクが感知したユーザー音声を認識する機能を有する認識ユニットとにより構成される。また、音声検出部3は、笑い声を検出する機能を有する。笑い声は、認識ユニットにより認識される。認識ユニットにより笑い声が認識されることにより、音声検出部3は、笑い声を検出する。また、音声検出部3は、検出した声のトーンを認識する機能を有する。そのため、音声検出部3は、例えば、高音を検出する機能を有する。 The voice detection unit 3 has a function of detecting user voice, which is the voice uttered by the user U1. User voices are, for example, laughter, sighs, and the like. The voice detection unit 3 is composed of, for example, a microphone and a recognition unit having a function of recognizing the user's voice detected by the microphone. The voice detection unit 3 also has a function of detecting laughter. Laughter is recognized by the recognition unit. The voice detector 3 detects laughter by recognizing the laughter by the recognition unit. The voice detection unit 3 also has a function of recognizing the detected tone of voice. Therefore, the voice detection unit 3 has a function of detecting high-pitched sounds, for example.

なお、音声検出部3は、マイクで構成されてもよい。 Note that the voice detection unit 3 may be configured by a microphone.

音声検出部3がユーザー音声を感知できるように、当該音声検出部3は、マスクM1の内面M1bに設けられている。 The voice detector 3 is provided on the inner surface M1b of the mask M1 so that the voice detector 3 can sense the user's voice.

以下においては、音声検出部3が検出したユーザー音声のデータを、「音声データ」ともいう。音声データは、ユーザー音声、ユーザー音声の大きさ、ユーザー音声の長さ、ユーザー音声の種類等を示す。ユーザー音声の大きさの単位は、デシベルである。 The data of the user's voice detected by the voice detection unit 3 is hereinafter also referred to as "voice data". The audio data indicates the user's voice, the volume of the user's voice, the length of the user's voice, the type of the user's voice, and the like. The unit of user voice loudness is decibels.

音声検出部3は、ユーザー音声を検出した場合、検出した当該ユーザー音声の音声データを生成し、当該音声データを、感情データとして取得する。音声検出部3は、音声データとしての感情データを、通信部6を介して、画像表示装置100へ送信する。 When the user's voice is detected, the voice detection unit 3 generates voice data of the detected user's voice, and acquires the voice data as emotion data. Voice detection unit 3 transmits emotion data as voice data to image display device 100 via communication unit 6 .

以下においては、着用状態において、ユーザーU1の顔F1の動きにより圧電素子4に加わる圧力を、「口部圧力」ともいう。口部圧力は、ユーザーU1の顔F1の口部の動きにより圧電素子4に加わる圧力である。 In the following, the pressure applied to the piezoelectric element 4 due to the movement of the face F1 of the user U1 in the wearing state is also referred to as "mouth pressure". The mouth pressure is pressure applied to the piezoelectric element 4 by movement of the mouth of the face F1 of the user U1.

圧電素子4は、口部圧力を検出する機能を有する。圧電素子4が口部圧力を検出することが可能なように、当該圧電素子4は、マスクM1の内面M1bに設けられている。 The piezoelectric element 4 has a function of detecting mouth pressure. The piezoelectric element 4 is provided on the inner surface M1b of the mask M1 so that the piezoelectric element 4 can detect the mouth pressure.

口部圧力は、例えば、ユーザーU1がはく息により圧電素子4に加わる圧力(以下、「息圧力」ともいう)である。また、口部圧力は、例えば、顔F1の頬が、圧電素子4に加える圧力(以下、「頬圧力」ともいう)である。頬圧力は、例えば、ユーザーU1の顔F1が笑顔になって、頬が動くことにより発生する。 The mouth pressure is, for example, the pressure applied to the piezoelectric element 4 by the user U1 exhaling (hereinafter also referred to as "breath pressure"). The mouth pressure is, for example, the pressure applied to the piezoelectric element 4 by the cheeks of the face F1 (hereinafter also referred to as "cheek pressure"). The cheek pressure is generated, for example, by the face F1 of the user U1 smiling and the cheeks moving.

また、圧電素子4は、単位時間における、口部圧力の発生回数(以下、「圧力発生回数」ともいう)を検出する機能を有する。単位時間は、例えば、10秒である。 In addition, the piezoelectric element 4 has a function of detecting the number of times the mouth pressure is generated (hereinafter also referred to as "the number of pressure generation times") per unit time. A unit time is, for example, 10 seconds.

また、圧電素子4は、口部圧力としての、継続的な息圧力を検出する機能を有する。継続的な息圧力は、例えば、2秒以上継続する息圧力である。 In addition, the piezoelectric element 4 has a function of detecting continuous breath pressure as mouth pressure. Continuous breath pressure is, for example, breath pressure that continues for two seconds or longer.

以下においては、圧電素子4が検出した口部圧力のデータを、「圧力データ」ともいう。圧力データは、口部圧力の強さ、口部圧力の継続時間、圧力発生回数等を示すデータである。 In the following, the mouth pressure data detected by the piezoelectric element 4 is also referred to as "pressure data". The pressure data is data indicating the strength of the mouth pressure, the duration of the mouth pressure, the number of times the pressure is generated, and the like.

圧電素子4は、口部圧力を検出した場合、検出した当該口部圧力の圧力データを生成し、当該圧力データを感情データとして取得する。圧電素子4は、圧力データとしての感情データを、通信部6を介して、画像表示装置100へ送信する。 When detecting the mouth pressure, the piezoelectric element 4 generates pressure data of the detected mouth pressure, and acquires the pressure data as emotion data. Piezoelectric element 4 transmits emotion data as pressure data to image display device 100 via communication unit 6 .

以下においては、ユーザーU1の顔F1の温度を、「顔温度」ともいう。 Hereinafter, the temperature of the face F1 of the user U1 is also referred to as "face temperature".

温度検出部5は、顔温度を検出する機能を有する。温度検出部5が顔温度を検出可能なように、当該温度検出部5は、マスクM1の内面M1bに設けられている。 The temperature detection unit 5 has a function of detecting face temperature. The temperature detection unit 5 is provided on the inner surface M1b of the mask M1 so that the temperature detection unit 5 can detect the face temperature.

ユーザーU1の感情により、顔温度が上昇する場合がある。以下においては、所定時間にわたって顔温度が所定温度だけ上昇する現象を、「温度上昇」ともいう。当該所定時間は、例えば、10秒から120秒までの範囲に含まれる時間である。当該所定温度は、例えば、0.1度から3度までの範囲に含まれる温度である。温度上昇は、例えば、30秒にわたって、顔温度が、1度だけ上昇する現象である。 User U1's emotion may cause the face temperature to rise. Hereinafter, a phenomenon in which the face temperature rises by a predetermined temperature over a predetermined period of time is also referred to as "temperature rise". The predetermined time is, for example, a time within a range from 10 seconds to 120 seconds. The predetermined temperature is, for example, a temperature within a range from 0.1 degrees to 3 degrees. A temperature rise is, for example, a phenomenon in which the face temperature rises by 1 degree over a period of 30 seconds.

また、温度検出部5は、温度上昇を、顔温度として検出する機能を有する。以下においては、温度検出部5が検出した顔温度のデータを、「温度データ」ともいう。温度データは、例えば、顔温度、顔温度の維持時間、温度上昇が発生した旨等を示すデータである。顔温度の維持時間は、顔温度が所定温度以上である状況が維持される時間である。当該所定温度は、例えば、37度である。 Moreover, the temperature detection unit 5 has a function of detecting a temperature rise as a face temperature. In the following, the face temperature data detected by the temperature detection unit 5 is also referred to as "temperature data". The temperature data is, for example, data indicating the face temperature, the face temperature maintenance time, the fact that the temperature has risen, and the like. The face temperature maintenance time is the time during which the face temperature is maintained at or above a predetermined temperature. The predetermined temperature is, for example, 37 degrees.

温度検出部5は、顔温度を検出した場合、検出した当該顔温度の温度データを生成し、当該温度データを、感情データとして取得する。温度検出部5は、温度データとしての感情データを、通信部6を介して、画像表示装置100へ送信する。 When detecting the face temperature, the temperature detection unit 5 generates temperature data of the detected face temperature, and acquires the temperature data as emotion data. Temperature detection unit 5 transmits emotion data as temperature data to image display device 100 via communication unit 6 .

次に、画像表示装置100の構成について説明する。図4は、実施の形態1に係る画像表示装置100の構成を示すブロック図である。図1および図4を参照して、画像表示装置100は、通信部102、感情特定部103、画像生成部104、画像処理部106および表示部107を備える。 Next, the configuration of the image display device 100 will be described. FIG. 4 is a block diagram showing the configuration of the image display device 100 according to Embodiment 1. As shown in FIG. 1 and 4, image display device 100 includes communication unit 102, emotion identification unit 103, image generation unit 104, image processing unit 106, and display unit 107. FIG.

通信部102は、マスクユニットM10と無線通信を行う機能を有する。当該無線通信は、例えば、Wi-FiまたはBluetoothに従った通信である。通信部102は、画像表示装置100に設けられている。通信部102は、マスクユニットM10の通信部6から送信されたデータを受信する。通信部102は、受信したデータを、感情特定部103へ送信する。 The communication section 102 has a function of wirelessly communicating with the mask unit M10. The wireless communication is, for example, communication according to Wi-Fi or Bluetooth. A communication unit 102 is provided in the image display device 100 . The communication section 102 receives data transmitted from the communication section 6 of the mask unit M10. Communication unit 102 transmits the received data to emotion identification unit 103 .

以下においては、マスクユニットM10を着用したユーザーU1の感情を、「感情K」ともいう。感情Kは、着用状態におけるユーザーU1の感情である。また、以下においては、ユーザーU1の感情Kを特定するための規則を、「感情特定規則」ともいう。 Hereinafter, the emotion of the user U1 wearing the mask unit M10 is also referred to as "emotion K". Emotion K is the emotion of user U1 in the wearing state. Also, hereinafter, the rule for identifying the emotion K of the user U1 is also referred to as the "emotion identification rule".

感情特定部103は、マスクユニットM10から送信される感情データを受信する。感情特定部103は、感情データと異なるデータを受信する場合もある。この場合、感情特定部103は、受信した当該データは感情データでないと判定し、次の感情データの受信を待つ。 Emotion identification section 103 receives emotion data transmitted from mask unit M10. The emotion identification unit 103 may receive data different from emotion data. In this case, the emotion identification unit 103 determines that the received data is not emotion data, and waits for reception of the next emotion data.

また、感情特定部103は、感情特定規則を保持している。感情特定部103は、詳細は後述するが、感情データに基づいて、着用状態におけるユーザーU1の感情Kを特定する。以下においては、感情Kを特定するための処理を、「感情特定処理」ともいう。感情特定部103は、感情特定処理を行う。 The emotion specifying unit 103 also holds emotion specifying rules. Although the details will be described later, the emotion identification unit 103 identifies the emotion K of the user U1 in the wearing state based on the emotion data. In the following, the processing for specifying emotion K is also referred to as "emotion specifying processing". The emotion identification unit 103 performs emotion identification processing.

感情特定処理における、感情Kの特定は、感情特定規則に基づいて行われる。感情特定処理では、一例として、喜怒哀楽の感情が特定される。すなわち、感情特定処理では、一例として、「喜び」、「怒り」、「悲しみ」および「楽しみ」といった4種類の感情が特定される。 Identification of the emotion K in the emotion identification process is performed based on the emotion identification rule. In the emotion identification process, emotions such as emotions are identified as an example. That is, in the emotion identification process, as an example, four types of emotions such as "joy", "anger", "sadness" and "fun" are identified.

以下においては、感情Kが「喜び」であることを特定するための要素を、「喜び要素」ともいう。また、以下においては、感情Kが「怒り」であることを特定するための要素を、「怒り要素」ともいう。また、以下においては、感情Kが「悲しみ」であることを特定するための要素を、「悲しみ要素」ともいう。また、以下においては、感情Kが「楽しみ」であることを特定するための要素を、「楽しみ要素」ともいう。 Hereinafter, the element for specifying that the emotion K is "joy" is also referred to as "joy element". Also, hereinafter, the element for specifying that the emotion K is "anger" is also referred to as "anger element". Also, hereinafter, the element for specifying that the emotion K is "sadness" is also referred to as the "sadness element". Also, hereinafter, the element for specifying that the emotion K is "fun" will also be referred to as the "fun factor".

感情特定規則は、喜び規則、怒り規則、悲しみ規則および楽しみ規則を含む。喜び規則は、感情Kが「喜び」であることを特定するための規則である。怒り規則は、感情Kが「怒り」であることを特定するための規則である。悲しみ規則は、感情Kが「悲しみ」であることを特定するための規則である。楽しみ規則は、感情Kが「楽しみ」であることを特定するための規則である。 Emotion specific rules include joy rules, anger rules, sadness rules and fun rules. The joy rule is a rule for specifying that the feeling K is "joy". The anger rule is a rule for specifying that the emotion K is "anger". The sadness rule is a rule for specifying that the emotion K is "sadness". The enjoyment rule is a rule for specifying that the emotion K is "enjoyment".

以下においては、感情特定部103により特定された、着用状態におけるユーザーU1の感情Kを、「特定感情」ともいう。感情特定部103は、特定感情を画像生成部104に通知する。 Hereinafter, the emotion K of the user U1 in the worn state, which is specified by the emotion specifying unit 103, is also referred to as "specific emotion". Emotion identification unit 103 notifies image generation unit 104 of the specific emotion.

また、以下においては、特定感情に対応する画像を、「感情画像G1」または「感情画像」ともいう。すなわち、感情画像G1は、特定感情を表現する画像である。感情画像G1は、例えば、喜怒哀楽に基づいた画像である。すなわち、感情画像G1は、例えば、「喜び」、「怒り」、「悲しみ」、「楽しみ」等に対応する画像である。図5は、感情画像の一例を示す図である。 Also, hereinafter, the image corresponding to the specific emotion is also referred to as "emotion image G1" or "emotion image". That is, the emotion image G1 is an image expressing a specific emotion. The emotional image G1 is, for example, an image based on emotions. That is, the emotional image G1 is an image corresponding to, for example, "joy", "anger", "sadness", "fun", and the like. FIG. 5 is a diagram showing an example of an emotion image.

なお、感情特定部103は、感情データに基づいて、ユーザーU1の感情の強さを判定する構成としてもよい。当該構成では、感情特定部103は、特定感情と、感情の強さとを、画像生成部104に通知する。 Note that the emotion identification unit 103 may be configured to determine the strength of the emotion of the user U1 based on the emotion data. In this configuration, the emotion specifying unit 103 notifies the image generating unit 104 of the specific emotion and the intensity of the emotion.

画像生成部104は、特定感情に対応する感情画像G1を生成する。画像生成部104は、生成した感情画像G1を、画像処理部106へ送信する。感情画像G1は、例えば、顔の画像、色で表現される画像、マーク等である。 The image generator 104 generates an emotion image G1 corresponding to the specific emotion. Image generation unit 104 transmits generated emotion image G1 to image processing unit 106 . The emotional image G1 is, for example, an image of a face, an image expressed in color, a mark, or the like.

以下においては、特定感情である「喜び」に対応する感情画像G1を、「喜び画像」ともいう。喜び画像は、例えば、図5(a)に示される、笑顔を示す感情画像G1である。 Hereinafter, the emotion image G1 corresponding to the specific emotion "joy" is also referred to as a "joy image". The joy image is, for example, an emotion image G1 showing a smile, as shown in FIG. 5(a).

また、喜び画像は、例えば、ピンクで表現される画像である。また、喜び画像は、例えば、マークとしての2重丸で表現される画像である。 A joy image is, for example, an image expressed in pink. A joy image is, for example, an image represented by a double circle as a mark.

また、以下においては、特定感情である「怒り」に対応する感情画像G1を、「怒り画像」ともいう。怒り画像は、例えば、図5(b)に示される、顔の口の形状がへの字状である当該顔を示す感情画像G1である。 Also, hereinafter, the emotion image G1 corresponding to the specific emotion "anger" is also referred to as an "anger image". An angry image is, for example, an emotional image G1 showing a face with a mouth shaped like a letter "C" as shown in FIG. 5(b).

また、怒り画像は、例えば、吊り上がった目および眉を示す顔の画像である。また、怒り画像は、例えば、黒で表現される画像である。 Also, an angry image is, for example, an image of a face showing raised eyes and eyebrows. An angry image is, for example, an image expressed in black.

また、以下においては、特定感情である「悲しみ」に対応する感情画像G1を、「悲しみ画像」ともいう。悲しみ画像は、例えば、図5(c)に示される、涙を流す顔を表現した感情画像G1である。また、悲しみ画像は、例えば、たれ目を示す顔の画像である。また、悲しみ画像は、例えば、灰色で表現される画像である。 Also, hereinafter, the emotion image G1 corresponding to the specific emotion "sorrow" is also referred to as "sorrow image". The sorrow image is, for example, an emotion image G1 expressing a tearful face shown in FIG. 5(c). A sadness image is, for example, an image of a face showing drooping eyes. A sadness image is, for example, an image expressed in gray.

また、以下においては、特定感情である「楽しみ」に対応する感情画像G1を、「楽しみ画像」ともいう。楽しみ画像は、例えば、図5(d)に示される、口を大きくあけて、笑っている表情を表現した顔を示す感情画像G1である。また、楽しみ画像は、例えば、顔の目の形状が半円である当該顔の像である。また、楽しみ画像は、例えば、ピンク、黄色などにより表現される画像である。 Also, hereinafter, the emotion image G1 corresponding to the specific emotion "fun" is also referred to as a "fun image". The amusement image is, for example, an emotion image G1 showing a face with a wide open mouth and a smiling expression, as shown in FIG. 5(d). Also, the pleasure image is, for example, an image of a face whose eyes are semicircular in shape. A fun image is, for example, an image expressed in pink, yellow, or the like.

画像処理部106は、感情画像G1を示す映像の映像信号を生成し、当該映像信号号を表示部107へ送信する。 Image processing unit 106 generates a video signal of a video showing emotion image G<b>1 and transmits the video signal signal to display unit 107 .

表示部107は、画像および映像を表示する機能を有する。表示部107は、ディスプレイである。表示部107は、映像信号に基づいて、感情画像G1を表示する。 The display unit 107 has a function of displaying images and videos. The display unit 107 is a display. Display unit 107 displays emotion image G1 based on the video signal.

(動作)
次に、画像表示システム500が行う処理(以下、「感情提示制御処理」ともいう)について説明する。図6は、実施の形態1に係る感情提示制御処理のフローチャートである。感情提示制御処理は、感情データ取得対応処理と、感情特定対応処理とを含む。
(motion)
Next, processing performed by the image display system 500 (hereinafter also referred to as “emotion presentation control processing”) will be described. FIG. 6 is a flowchart of emotion presentation control processing according to the first embodiment. Emotion presentation control processing includes emotion data acquisition handling processing and emotion identification handling processing.

感情データ取得対応処理は、マスクユニットM10が行う処理である。感情特定対応処理は、画像表示装置100が行う処理である。ここでは、感情提示制御処理における処理の流れを簡略的に説明し、感情提示制御処理の具体的な例は、後述する。 The emotion data acquisition support process is a process performed by the mask unit M10. The emotion identification handling process is a process performed by the image display device 100 . Here, the flow of the emotion presentation control process will be briefly described, and a specific example of the emotion presentation control process will be described later.

感情提示制御処理の感情データ取得対応処理では、まず、ステップS11が行われる。ステップS11では、感情データ取得処理が行われる。感情データ取得処理では、マスクユニットM10の感情ユニット20が、1以上の感情データを取得する。具体的には、感情ユニット20に含まれる1以上の検出部が1以上の感情データを取得する。当該1以上の検出部は、振動センサー2、音声検出部3、圧電素子4および温度検出部5の全てまたは一部である。 In the emotion data acquisition handling process of the emotion presentation control process, step S11 is first performed. In step S11, emotion data acquisition processing is performed. In the emotion data acquisition process, the emotion unit 20 of the mask unit M10 acquires one or more emotion data. Specifically, one or more detection units included in the emotion unit 20 acquire one or more emotion data. The one or more detection units are all or part of the vibration sensor 2 , the sound detection unit 3 , the piezoelectric element 4 and the temperature detection unit 5 .

次に、ステップS12において、感情データ送信処理が行われる。感情データ送信処理では、マスクユニットM10の感情ユニット20が、当該1以上の検出部が取得した1以上の感情データを、通信部6を介して、画像表示装置100へ送信する。すなわち、マスクユニットM10は、当該1以上の検出部が取得した1以上の感情データを、画像表示装置100へ送信する。 Next, in step S12, emotion data transmission processing is performed. In the emotion data transmission process, the emotion unit 20 of the mask unit M10 transmits one or more emotion data acquired by the one or more detection units to the image display device 100 via the communication unit 6 . That is, the mask unit M10 transmits to the image display device 100 the one or more emotion data acquired by the one or more detection units.

ここで、感情データ取得処理において複数の検出部が、それぞれ、複数の感情データを取得したと仮定する。当該複数の検出部は、振動センサー2、音声検出部3、圧電素子4および温度検出部5の全てまたは一部である。この場合、感情データ送信処理では、マスクユニットM10は、複数の検出部が、それぞれ取得した複数の感情データを、画像表示装置100へ送信する。 Here, it is assumed that a plurality of detection units each acquire a plurality of emotion data in the emotion data acquisition process. The plurality of detection units are all or part of the vibration sensor 2 , the sound detection unit 3 , the piezoelectric element 4 and the temperature detection unit 5 . In this case, in the emotion data transmission process, the mask unit M10 transmits to the image display device 100 the plurality of emotion data respectively acquired by the plurality of detection units.

感情提示制御処理の感情特定対応処理では、まず、ステップS101が行われる。ステップS101では、感情特定部103が、画像表示装置100が感情データを受信したか否かを判定する。 In the emotion identification handling process of the emotion presentation control process, step S101 is first performed. In step S101, the emotion identification unit 103 determines whether or not the image display device 100 has received emotion data.

画像表示装置100が感情データを受信した場合(ステップS101:Yes)、処理はステップS102へ移行する。一方、画像表示装置100が感情データを受信していない場合(ステップS101:No)、再度、ステップS101が行われる。 When the image display device 100 receives emotion data (step S101: Yes), the process proceeds to step S102. On the other hand, if the image display device 100 has not received emotion data (step S101: No), step S101 is performed again.

ステップS102では、感情特定処理が行われる。感情特定処理では、感情特定部103が、画像表示装置100が受信した1以上の感情データに基づいて、着用状態におけるユーザーU1の感情Kを特定する。具体的には、感情特定部103が、1以上の感情データおよび感情特定規則に基づいて、着用状態におけるユーザーU1の感情Kを特定する。 In step S102, emotion identification processing is performed. In the emotion identification process, the emotion identification unit 103 identifies the emotion K of the user U1 in the wearing state based on one or more emotion data received by the image display device 100 . Specifically, the emotion identification unit 103 identifies the emotion K of the user U1 in the wearing state based on one or more emotion data and an emotion identification rule.

感情特定部103は、着用状態におけるユーザーU1の感情Kを特定した後、特定感情としての、ユーザーU1の感情Kを、画像生成部104に通知する。 After identifying the emotion K of the user U1 in the wearing state, the emotion identification unit 103 notifies the image generation unit 104 of the emotion K of the user U1 as the specific emotion.

次に、ステップS103において、感情画像生成処理が行われる。感情画像生成処理では、画像生成部104が、特定感情としての、ユーザーU1の感情Kに対応する感情画像G1を生成する。画像生成部104は、生成した感情画像G1を、画像処理部106へ送信する。 Next, in step S103, emotion image generation processing is performed. In the emotion image generation process, the image generation unit 104 generates an emotion image G1 corresponding to the emotion K of the user U1 as the specific emotion. Image generation unit 104 transmits generated emotion image G1 to image processing unit 106 .

次に、ステップS104において、感情画像表示処理が行われる。感情画像表示処理では、表示部107が感情画像G1を表示する。具体的には、画像処理部106が、感情画像G1を示す映像の映像信号を作成し、当該映像信号号を表示部107へ送信する。表示部107は、映像信号に基づいて、感情画像G1を表示する。以上により、感情提示制御処理が終了する。 Next, in step S104, emotional image display processing is performed. In the emotion image display process, the display unit 107 displays the emotion image G1. Specifically, image processing unit 106 creates a video signal of a video showing emotion image G<b>1 and transmits the video signal to display unit 107 . Display unit 107 displays emotion image G1 based on the video signal. Thus, the emotion presentation control process ends.

(感情提示制御処理の例)
次に、図6の感情提示制御処理の具体的な例について説明する。まず、感情特定規則の喜び規則に基づいて、ユーザーU1の感情Kが「喜び」であることを特定する感情提示制御処理の具体的な例について説明する。ユーザーU1の感情Kが「喜び」である場合、当該ユーザーU1は、例えば、口を水平方向に伸ばして笑顔を作り、笑い声を発すると仮定する。
(Example of emotion presentation control processing)
Next, a specific example of the emotion presentation control process of FIG. 6 will be described. First, a specific example of emotion presentation control processing for specifying that user U1's emotion K is "joy" based on the joy rule of the emotion specifying rule will be described. If the emotion K of the user U1 is "joy", it is assumed that the user U1 stretches his mouth horizontally to make a smile and laugh.

喜び規則では、喜び要素が発生した場合に、感情Kが「喜び」であることを特定することが規定される。喜び要素は、例えば、前述の「水平振動」、および、「笑い声」である。 The joy rule specifies that the emotion K is "joy" if the joy element occurs. Joy elements are, for example, the aforementioned "horizontal vibration" and "laughter".

「水平振動」は、例えば、ユーザーU1の顔F1の口が水平方向に伸びて、当該顔F1が笑顔になる場合に発生する。感情提示制御処理では、着用状態において、顔F1の口が水平方向に伸びた場合、感情ユニット20の振動センサー2は、水平振動を検出し、当該水平振動の振動データを生成する。これにより、振動センサー2は、当該振動データを、感情データとして取得する(ステップS11)。振動センサー2は、当該振動データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。 A “horizontal vibration” occurs, for example, when the mouth of the face F1 of the user U1 extends horizontally and the face F1 smiles. In the emotion presentation control process, when the mouth of the face F1 extends horizontally in the wearing state, the vibration sensor 2 of the emotion unit 20 detects horizontal vibration and generates vibration data of the horizontal vibration. Thereby, the vibration sensor 2 acquires the vibration data as emotion data (step S11). The vibration sensor 2 transmits the emotion data as the vibration data to the image display device 100 via the communication section 6 (step S12).

また、感情提示制御処理では、着用状態においてユーザーU1が笑い声を発した場合、感情ユニット20の音声検出部3は、ユーザー音声としての笑い声を検出する。音声検出部3は、ユーザー音声としての、検出した当該笑い声の音声データを生成し、当該音声データを、感情データとして取得する(ステップS11)。音声検出部3は、音声データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。 Also, in the emotion presentation control process, when the user U1 laughs in the worn state, the voice detection section 3 of the emotion unit 20 detects the laughter as the user's voice. The voice detection unit 3 generates voice data of the detected laughter as user voice, and acquires the voice data as emotion data (step S11). The voice detection unit 3 transmits the emotion data as voice data to the image display device 100 via the communication unit 6 (step S12).

上記のステップS12により、マスクユニットM10の感情ユニット20は、複数の検出部としての振動センサー2および音声検出部3が、それぞれ取得した複数の感情データを、画像表示装置100へ送信する。 Through step S<b>12 described above, the emotion unit 20 of the mask unit M<b>10 transmits to the image display device 100 a plurality of emotion data respectively acquired by the vibration sensor 2 and the voice detection section 3 as a plurality of detection sections.

次に、画像表示装置100の感情特定部103は、感情特定規則に含まれる喜び規則と、受信した複数の感情データとしての、水平振動の振動データおよび笑い声の音声データとに基づいて、感情Kが「喜び」であることを特定する(ステップS102)。 Next, the emotion specifying unit 103 of the image display device 100 determines the emotion K based on the joy rule included in the emotion specifying rule and the vibration data of horizontal vibration and the voice data of laughter as a plurality of received emotion data. is "joy" (step S102).

この例では、感情特定部103は、複数の感情データとしての、水平振動の振動データおよび笑い声の音声データにより、「水平振動」および「笑い声」が発生したと認識し、上記の喜び規則に基づいて、感情Kが「喜び」であることを特定する。すなわち、感情特定部103は、画像表示装置100が受信した複数の感情データに基づいて、着用状態におけるユーザーU1の感情Kを特定する。 In this example, the emotion identifying unit 103 recognizes that "horizontal vibration" and "laughter" have occurred from vibration data of horizontal vibration and audio data of laughter as a plurality of emotion data, and based on the above joy rule, to specify that the emotion K is "joy". That is, the emotion identification unit 103 identifies the emotion K of the user U1 in the wearing state based on the plurality of emotion data received by the image display device 100 .

感情特定部103は、特定感情としての感情Kを画像生成部104に通知する。 The emotion specifying unit 103 notifies the image generating unit 104 of the emotion K as the specific emotion.

次に、画像生成部104が、特定感情としての感情K「喜び」に対応する感情画像G1を生成する(ステップS103)。当該感情画像G1は、例えば、図5(a)の感情画像G1である。 Next, the image generator 104 generates an emotion image G1 corresponding to the emotion K "joy" as the specific emotion (step S103). The emotion image G1 is, for example, the emotion image G1 in FIG. 5(a).

次に、表示部107が感情画像G1を表示する(ステップS104)。以上の処理により、ユーザーU1の感情Kに対応する感情画像G1が表示される。 Next, display unit 107 displays emotion image G1 (step S104). Through the above processing, the emotion image G1 corresponding to the emotion K of the user U1 is displayed.

なお、上記のように、感情特定部103が複数の感情データを受信する場合、当該複数の感情データに基づいて、ユーザーU1の喜びの大きさを判定するようにしてもよい。 It should be noted that when the emotion identification unit 103 receives a plurality of emotion data as described above, the degree of joy of the user U1 may be determined based on the plurality of emotion data.

次に、怒り規則に基づいて、ユーザーU1の感情Kが「怒り」であることを特定する感情提示制御処理の具体的な例について説明する。ユーザーU1の感情Kが「怒り」である場合、例えば、ユーザーU1の息が荒くなり、顔F1の口の形状がヘの字状になり、顔温度が上昇する温度上昇が発生すると仮定する。 Next, a specific example of emotion presentation control processing for specifying that user U1's emotion K is "anger" based on the anger rule will be described. When the emotion K of the user U1 is "anger", for example, it is assumed that the user U1's breath becomes rough, the shape of the mouth of the face F1 becomes an inverted V shape, and the face temperature rises.

怒り規則では、怒り要素が発生した場合に、感情Kが「怒り」であることを特定することが規定される。怒り要素は、例えば、「連続して発生する複数の息圧力」、前述の「鉛直振動」、および、前述の「温度上昇」である。 The anger rule specifies that the emotion K is specified as 'anger' if an anger element occurs. Anger elements are, for example, "a plurality of continuously occurring breath pressures", the above-mentioned "vertical vibration", and the above-mentioned "temperature rise".

「連続して発生する複数の息圧力」は、例えば、ユーザーU1が複数回の強い息を連続的にはいた場合(すなわち、ユーザーU1の息が荒い場合)に発生する。感情提示制御処理では、ユーザーU1が複数回の強い息を連続的に吐いた場合、感情ユニット20の圧電素子4は、当該複数回の強い息に対応する複数の息圧力を、口部圧力として検出する。 The “several breath pressures occurring in succession” occurs, for example, when the user U1 takes multiple strong breaths in succession (that is, when the user U1 breathes heavily). In the emotion presentation control process, when the user U1 continuously exhales a plurality of strong breaths, the piezoelectric element 4 of the emotion unit 20 outputs a plurality of breath pressures corresponding to the plurality of strong breaths as the mouth pressure. To detect.

圧電素子4は、単位時間における口部圧力としての息圧力の発生回数、口部圧力の強さ等を示す、口部圧力の圧力データを生成する。圧電素子4は、生成した口部圧力の圧力データを、感情データとして取得する(ステップS11)。圧電素子4は、当該口部圧力の圧力データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。 The piezoelectric element 4 generates pressure data of the mouth pressure, which indicates the number of occurrences of breath pressure as the mouth pressure per unit time, the intensity of the mouth pressure, and the like. The piezoelectric element 4 acquires the generated pressure data of the mouth pressure as emotion data (step S11). The piezoelectric element 4 transmits the emotion data as pressure data of the mouth pressure to the image display device 100 via the communication section 6 (step S12).

「鉛直振動」は、例えば、顔F1の口の形状がヘの字状になる場合に発生する。感情提示制御処理では、着用状態においてユーザーU1の顔F1の口の形状がヘの字状になる場合、感情ユニット20の振動センサー2は、鉛直振動を検出し、当該振動センサー2は、検出した鉛直振動の振動データを生成する。これにより、振動センサー2は、鉛直振動の振動データを感情データとして取得する(ステップS11)。振動センサー2は、振動データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。 A “vertical vibration” occurs, for example, when the shape of the mouth of the face F1 becomes an inverted V-shape. In the emotion presentation control process, when the shape of the mouth of the face F1 of the user U1 is in the wearing state, the vibration sensor 2 of the emotion unit 20 detects vertical vibration, and the vibration sensor 2 detects the vertical vibration. Generate vibration data for vertical vibration. Thereby, the vibration sensor 2 acquires the vibration data of the vertical vibration as emotion data (step S11). Vibration sensor 2 transmits emotion data as vibration data to image display device 100 via communication unit 6 (step S12).

「温度上昇」は、例えば、ユーザーU1が、感情として、強い怒りを長時間にわたって有している場合に、発生する。感情提示制御処理では、ユーザーU1が、感情として、強い怒りを長時間にわたって有している場合、感情ユニット20の温度検出部5は、温度上昇を、顔温度として検出する。温度検出部5は、顔温度、温度上昇が発生した旨等を示す温度データを生成する。そして、温度検出部5は、温度データを、感情データとして取得する(ステップS11)。温度検出部5は、温度データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。 "Temperature rise" occurs, for example, when user U1 has strong anger as an emotion for a long period of time. In the emotion presentation control process, when the user U1 has strong anger as an emotion for a long time, the temperature detection section 5 of the emotion unit 20 detects the temperature rise as the face temperature. The temperature detection unit 5 generates temperature data indicating the face temperature, temperature rise, and the like. Then, the temperature detection unit 5 acquires the temperature data as emotion data (step S11). Temperature detection unit 5 transmits emotion data as temperature data to image display device 100 via communication unit 6 (step S12).

次に、画像表示装置100の感情特定部103は、感情特定規則に含まれる怒り規則と、受信した複数の感情データとしての、口部圧力の圧力データ、鉛直振動の振動データおよび、温度上昇を示す温度データとに基づいて、感情Kが「怒り」であることを特定する(ステップS102)。 Next, the emotion identification unit 103 of the image display device 100 identifies the anger rule included in the emotion identification rule, the pressure data of the mouth pressure, the vibration data of the vertical vibration, and the temperature rise as a plurality of received emotion data. Based on the indicated temperature data, it is specified that the emotion K is "anger" (step S102).

この例では、感情特定部103は、口部圧力の圧力データ、鉛直振動の振動データおよび、温度上昇を示す温度データにより、「連続して発生する複数の息圧力」、「鉛直振動」および「温度上昇」が発生したと認識し、上記の怒り規則に基づいて、感情Kが「怒り」であることを特定する。 In this example, the emotion identifying unit 103 uses the pressure data of the mouth pressure, the vibration data of the vertical vibration, and the temperature data indicating the temperature rise to determine "a plurality of continuously occurring breath pressures," "vertical vibration," and " It recognizes that "temperature rise" has occurred, and specifies that the emotion K is "anger" based on the above-mentioned anger rule.

その後、ステップS103,S104により、表示部107は、例えば、ユーザーU1の感情K「怒り」に対応する、図5(b)の感情画像G1を表示する。 Thereafter, in steps S103 and S104, the display unit 107 displays, for example, the emotion image G1 of FIG. 5(b) corresponding to the emotion K "anger" of the user U1.

なお、上記のように、感情特定部103が複数の感情データを受信する場合、当該複数の感情データに基づいて、ユーザーU1の怒りの大きさを判定するようにしてもよい。 As described above, when the emotion identification unit 103 receives a plurality of emotion data, the degree of anger of the user U1 may be determined based on the plurality of emotion data.

次に、悲しみ規則に基づいて、ユーザーU1の感情Kが「悲しみ」であることを特定する感情提示制御処理の具体的な例について説明する。ユーザーU1の感情Kが「悲しみ」である場合、例えば、ユーザーU1はため息をつき、ユーザーU1の呼吸回数が減少し、ユーザーU1が口を尖らすと仮定する。 Next, a specific example of emotion presentation control processing for specifying that user U1's emotion K is "sadness" based on the sadness rule will be described. If user U1's emotion K is "sadness," for example, assume that user U1 sighs, user U1's breathing rate decreases, and user U1 pouts.

悲しみ規則では、悲しみ要素が発生した場合に、感情Kが「悲しみ」であることを特定することが規定される。悲しみ要素は、例えば、「継続的な息圧力」、「単位時間あたりに発生する息圧力の減少」、および、「水平振動および鉛直振動」である。 The sadness rule specifies that emotion K is identified as "sadness" if a sadness element occurs. Sadness factors are, for example, "continuous breath pressure", "decrease in breath pressure occurring per unit time", and "horizontal and vertical vibration".

「継続的な息圧力」は、例えば、ユーザーU1がため息をついた場合に発生する。感情提示制御処理では、ユーザーU1がため息をついた場合、圧電素子4は、ため息に対応する継続的な息圧力を検出する。継続的な息圧力は、例えば、所定時間以上継続する息圧力である。当該所定時間は、例えば、2秒である。 "Continuous breath pressure" occurs, for example, when user U1 sighs. In the emotion presentation control process, when the user U1 sighs, the piezoelectric element 4 detects continuous breath pressure corresponding to the sigh. Continuous breath pressure is, for example, breath pressure that continues for a predetermined time or longer. The predetermined time is, for example, 2 seconds.

圧電素子4は、継続的な息圧力を示す、口部圧力の圧力データを生成する。圧電素子4は、生成した口部圧力の圧力データを、感情データとして取得する(ステップS11)。圧電素子4は、当該口部圧力の圧力データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。 The piezoelectric element 4 produces mouth pressure pressure data indicative of continuous breath pressure. The piezoelectric element 4 acquires the generated pressure data of the mouth pressure as emotion data (step S11). The piezoelectric element 4 transmits the emotion data as pressure data of the mouth pressure to the image display device 100 via the communication section 6 (step S12).

「単位時間あたりに発生する息圧力の減少」は、例えば、ユーザーU1の、単位時間あたりにおける呼吸回数が減少した場合に発生する。感情提示制御処理では、単位時間あたりにおける呼吸回数が減少した場合、圧電素子4は、単位時間あたりに発生する息圧力の減少を、口部圧力として検出する。当該検出に応じて、圧電素子4は、息圧力の減少を示す、口部圧力の圧力データを生成し、当該口部圧力の圧力データを、感情データとして取得する(ステップS11)。圧電素子4は、当該口部圧力の圧力データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。 “Decrease in breath pressure occurring per unit time” occurs, for example, when user U1's number of breaths per unit time decreases. In the emotion presentation control process, when the number of breaths per unit time decreases, the piezoelectric element 4 detects the decrease in breath pressure occurring per unit time as the mouth pressure. In response to this detection, the piezoelectric element 4 generates mouth pressure data indicating a decrease in breath pressure, and acquires the mouth pressure data as emotion data (step S11). The piezoelectric element 4 transmits the emotion data as pressure data of the mouth pressure to the image display device 100 via the communication section 6 (step S12).

「水平振動および鉛直振動」は、ユーザーU1の口が、水平方向Dr1および鉛直方向Dr2において、縮んだ場合に発生する。感情提示制御処理では、ユーザーU1の口が、水平方向Dr1および鉛直方向Dr2において、縮んだ場合、振動センサー2は、水平振動および鉛直振動の両方を検出する。当該検出に応じて、振動センサー2は、水平振動および鉛直振動の振動データを生成する。これにより、振動センサー2は、当該振動データを、感情データとして取得する(ステップS11)。振動センサー2は、当該振動データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。 "Horizontal and vertical vibration" occurs when user U1's mouth contracts in horizontal direction Dr1 and vertical direction Dr2. In the emotion presentation control process, when the mouth of user U1 shrinks in horizontal direction Dr1 and vertical direction Dr2, vibration sensor 2 detects both horizontal vibration and vertical vibration. In response to the detection, the vibration sensor 2 generates vibration data of horizontal vibration and vertical vibration. Thereby, the vibration sensor 2 acquires the vibration data as emotion data (step S11). The vibration sensor 2 transmits the emotion data as the vibration data to the image display device 100 via the communication section 6 (step S12).

次に、画像表示装置100の感情特定部103は、感情特定規則に含まれる悲しみ規則と、感情データとしての2種類の口部圧力の圧力データ、および、感情データとしての水平振動および鉛直振動の振動データとに基づいて、感情Kが「悲しみ」であることを特定する。その後、ステップS103,S104により、表示部107は、例えば、ユーザーU1の感情K「悲しみ」に対応する、図5(c)の感情画像G1を表示する。 Next, the emotion specifying unit 103 of the image display device 100 extracts the sadness rule included in the emotion specifying rule, pressure data of two types of mouth pressure as emotion data, and horizontal vibration and vertical vibration as emotion data. Based on the vibration data, the emotion K is identified as "sadness". After that, in steps S103 and S104, the display unit 107 displays, for example, the emotion image G1 of FIG. 5(c) corresponding to the emotion K "sadness" of the user U1.

なお、上記のように、感情特定部103が複数の感情データを受信する場合、当該複数の感情データに基づいて、ユーザーU1の悲しみの大きさを判定するようにしてもよい。 It should be noted that when the emotion identification unit 103 receives a plurality of emotion data as described above, the degree of sadness of the user U1 may be determined based on the plurality of emotion data.

次に、楽しみ規則に基づいて、ユーザーU1の感情Kが「楽しみ」であることを特定する感情提示制御処理の具体的な例について説明する。ユーザーU1の感情Kが「楽しみ」である場合、例えば、ユーザーU1が発する声のトーンが高くなり、ユーザーU1の会話量が増え、ユーザーU1が頻繁に笑うと仮定する。 Next, a specific example of emotion presentation control processing for specifying that user U1's emotion K is "enjoyment" based on the enjoyment rule will be described. If user U1's emotion K is "fun", for example, it is assumed that user U1 speaks with a higher tone, that user U1 speaks more, and that user U1 laughs frequently.

楽しみ規則では、楽しみ要素が発生した場合に、感情Kが「楽しみ」であることを特定することが規定される。楽しみ要素は、例えば、「高音」、「連続的な複数の声」、「連続して発生する複数の息圧力」、および、「連続して発生する水平振動および鉛直振動」である。 The enjoyment rule specifies that the emotion K is "enjoyment" if the enjoyment element occurs. Fun elements are, for example, "high pitched sounds", "continuous multiple voices", "continuous multiple breath pressures", and "continuous horizontal and vertical vibrations".

「高音」は、例えば、ユーザーU1が発する声のトーンが高くなった場合に発生する。感情提示制御処理では、ユーザーU1が発する声のトーンが高くなった場合、音声検出部3は、ユーザー音声としての高音を検出する。当該検出に応じて、音声検出部3は、ユーザー音声としての高音の音声データを生成し、当該音声データを、感情データとして取得する(ステップS11)。音声検出部3は、音声データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。 A “high tone” occurs, for example, when the tone of voice uttered by the user U1 becomes high. In the emotion presentation control process, when the tone of the voice uttered by the user U1 becomes high, the voice detection unit 3 detects a high-pitched voice as the user's voice. In response to the detection, the voice detection unit 3 generates high-pitched voice data as user voice, and acquires the voice data as emotion data (step S11). The voice detection unit 3 transmits the emotion data as voice data to the image display device 100 via the communication unit 6 (step S12).

「連続的な複数の声」は、例えば、ユーザーU1の会話量が増えた場合に発生する。感情提示制御処理では、ユーザーU1の会話量が増えた場合、音声検出部3は、ユーザー音声としての連続的な複数の声を検出する。当該検出に応じて、音声検出部3は、ユーザー音声としての連続的な複数の声の音声データを生成し、当該音声データを、感情データとして取得する(ステップS11)。音声検出部3は、音声データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。 “Continuous plural voices” occurs, for example, when the amount of conversation of user U1 increases. In the emotion presentation control process, when the amount of conversation of the user U1 increases, the voice detection unit 3 detects a plurality of continuous voices as user voices. In response to the detection, the voice detection unit 3 generates voice data of a plurality of continuous voices as user voices, and acquires the voice data as emotion data (step S11). The voice detection unit 3 transmits the emotion data as voice data to the image display device 100 via the communication unit 6 (step S12).

「連続して発生する複数の息圧力」は、例えば、ユーザーU1が頻繁に笑う場合に発生する。感情提示制御処理では、ユーザーU1が頻繁に笑う場合、圧電素子4は、連続して発生する複数の息圧力を検出する。当該検出に応じて、圧電素子4は、連続して発生する複数の息圧力の圧力データを生成し、当該圧力データを、感情データとして取得する(ステップS11)。圧電素子4は、圧力データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。 “Several breath pressures occurring in succession” occurs, for example, when user U1 laughs frequently. In the emotion presentation control process, when the user U1 laughs frequently, the piezoelectric element 4 detects a plurality of continuously occurring breath pressures. In response to the detection, the piezoelectric element 4 generates pressure data of a plurality of continuously occurring breath pressures, and acquires the pressure data as emotion data (step S11). The piezoelectric element 4 transmits emotion data as pressure data to the image display device 100 via the communication section 6 (step S12).

「連続して発生する水平振動および鉛直振動」は、ユーザーU1の会話量が増えて、ユーザーU1の口が、水平方向Dr1および鉛直方向Dr2において、頻繁に動く場合に発生する。感情提示制御処理では、ユーザーU1の口が、水平方向Dr1および鉛直方向Dr2において、頻繁に動く場合、振動センサー2は、連続して発生する水平振動および鉛直振動を検出する。当該検出に応じて、振動センサー2は、連続して発生する水平振動および鉛直振動の振動データを生成し、当該振動データを、感情データとして取得する(ステップS11)。振動センサー2は、振動データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。 “Continuously occurring horizontal and vertical vibrations” occur when the amount of conversation of user U1 increases and user U1's mouth moves frequently in horizontal direction Dr1 and vertical direction Dr2. In the emotion presentation control process, when the mouth of user U1 frequently moves in horizontal direction Dr1 and vertical direction Dr2, vibration sensor 2 detects horizontal and vertical vibrations that occur continuously. In response to the detection, the vibration sensor 2 generates vibration data of horizontal vibration and vertical vibration that occur continuously, and acquires the vibration data as emotion data (step S11). Vibration sensor 2 transmits emotion data as vibration data to image display device 100 via communication unit 6 (step S12).

次に、画像表示装置100の感情特定部103は、感情特定規則に含まれる楽しみ規則と、感情データとしての2種類の音声データと、感情データとしての複数の息圧力の圧力データと、水平振動および鉛直振動の振動データとに基づいて、感情Kが「楽しみ」であることを特定する。 Next, the emotion specifying unit 103 of the image display device 100 extracts the enjoyment rule included in the emotion specifying rule, two types of voice data as emotion data, pressure data of a plurality of breath pressures as emotion data, and horizontal vibration. and the vibration data of the vertical vibration, it is specified that the emotion K is "enjoyment".

その後、ステップS103,S104により、表示部107は、例えば、ユーザーU1の感情K「楽しみ」に対応する、図5(d)の感情画像G1を表示する。 Thereafter, in steps S103 and S104, the display unit 107 displays, for example, the emotion image G1 of FIG. 5(d) corresponding to the user U1's emotion K "enjoyment".

なお、上記のように、感情特定部103が複数の感情データを受信する場合、当該複数の感情データに基づいて、ユーザーU1の楽しみの大きさを判定するようにしてもよい。 It should be noted that when the emotion identification unit 103 receives a plurality of emotion data as described above, the degree of enjoyment of the user U1 may be determined based on the plurality of emotion data.

(感情提示制御処理の別の例)
次に、感情提示制御処理の別の例について説明する。ここで、感情特定規則に含まれる楽しみ規則の楽しみ要素は、例えば、「所定時間以上継続するマスク振動」および「大きなユーザー音声」であるとする。当該所定時間は、例えば、3秒である。「所定時間以上継続するマスク振動」は、例えば、ユーザーU1が笑い声を発した場合に発生する。
(Another example of emotion presentation control processing)
Next, another example of emotion presentation control processing will be described. Here, it is assumed that the enjoyment elements of the enjoyment rule included in the emotion specifying rule are, for example, "mask vibration that continues for a predetermined time or longer" and "loud user voice". The predetermined time is, for example, 3 seconds. “Mask vibration that continues for a predetermined time or longer” occurs, for example, when user U1 laughs.

大きなユーザー音声は、例えば、60デシベル以上の音声である。「大きなユーザー音声」は、例えば、ユーザーU1が笑い声を発した場合に発生する。 A loud user voice is, for example, a voice above 60 decibels. A “loud user voice” occurs, for example, when user U1 laughs.

ユーザーU1が笑い声を発した場合、感情提示制御処理では、感情ユニット20の振動センサー2が、「所定時間以上継続するマスク振動」を検出し、当該マスク振動の振動データを生成する。当該振動データは、マスク振動が発生した旨と、マスク振動が継続した時間としての所定時間以上の継続時間とを示す。 When the user U1 laughs, in the emotion presentation control process, the vibration sensor 2 of the emotion unit 20 detects "mask vibration that continues for a predetermined time or longer" and generates vibration data of the mask vibration. The vibration data indicates that the mask vibration has occurred, and the duration of the mask vibration that is longer than or equal to a predetermined time.

これにより、振動センサー2は、当該振動データを、感情データとして取得する(ステップS11)。振動センサー2は、当該振動データとしての感情データを、画像表示装置100へ送信する(ステップS12)。 Thereby, the vibration sensor 2 acquires the vibration data as emotion data (step S11). The vibration sensor 2 transmits the emotion data as the vibration data to the image display device 100 (step S12).

また、ユーザーU1が笑い声を発した場合、感情提示制御処理では、感情ユニット20の音声検出部3が、「大きなユーザー音声」を検出し、当該大きなユーザー音声の音声データを生成する。当該音声データは、大きなユーザー音声が発生した旨と、ユーザー音声の大きさとしての60デシベル以上の値とを示す。 Also, when the user U1 laughs, in the emotion presentation control process, the voice detection unit 3 of the emotion unit 20 detects "loud user voice" and generates voice data of the loud user voice. The voice data indicates that a loud user voice has been generated and a value of 60 decibels or more as the loudness of the user voice.

これにより、音声検出部3は、当該音声データを、感情データとして取得する(ステップS11)。音声検出部3は、当該音声データとしての感情データを、画像表示装置100へ送信する(ステップS12)。 Thereby, the voice detection unit 3 acquires the voice data as emotion data (step S11). The voice detection unit 3 transmits the emotion data as the voice data to the image display device 100 (step S12).

上記のステップS12により、マスクユニットM10の感情ユニット20は、複数の検出部としての振動センサー2および音声検出部3が、それぞれ取得した複数の感情データを、画像表示装置100へ送信する。当該複数の感情データは、振動データおよび音声データである。 Through step S<b>12 described above, the emotion unit 20 of the mask unit M<b>10 transmits to the image display device 100 a plurality of emotion data respectively acquired by the vibration sensor 2 and the voice detection section 3 as a plurality of detection sections. The plurality of emotion data are vibration data and voice data.

感情特定部103は、感情特定規則に含まれる楽しみ規則と、画像表示装置100が受信した複数の感情データとしての振動データおよび音声データとに基づいて、感情Kが「楽しみ」であることを特定する(ステップS102)。 The emotion specifying unit 103 specifies that the emotion K is "enjoyment" based on the enjoyment rule included in the emotion specifying rule and the vibration data and the voice data as the plurality of emotion data received by the image display device 100. (step S102).

具体的には、ステップS102において、感情特定部103は、受信した感情データとしての振動データにより、「所定時間以上継続するマスク振動」が発生したと認識する。また、ステップS102において、感情特定部103は、受信した感情データとしての音声データにより、「大きなユーザー音声」が発生したと認識する。すなわち、感情特定部103は、「所定時間以上継続するマスク振動」および「大きなユーザー音声」が発生したと認識する。 Specifically, in step S102, the emotion identifying unit 103 recognizes that "a mask vibration that continues for a predetermined time or longer" has occurred based on the received vibration data as emotion data. Also, in step S102, the emotion identification unit 103 recognizes that a "loud user voice" has been generated based on the received voice data as emotion data. That is, the emotion identifying unit 103 recognizes that "mask vibration that continues for a predetermined time or longer" and "loud user voice" have occurred.

感情特定部103は、当該認識と、上記の楽しみ要素の発生により感情Kを特定することを規定した楽しみ規則とに基づいて、感情Kが「楽しみ」であることを特定する。前述したように、当該楽しみ規則では、楽しみ要素が発生した場合に、感情Kが「楽しみ」であることを特定することが規定される。 The emotion specifying unit 103 specifies that the emotion K is "enjoyment" based on the recognition and the enjoyment rule specifying that the emotion K is specified by the occurrence of the pleasure element. As described above, the enjoyment rule specifies that the emotion K is "enjoyment" when an enjoyment element occurs.

すなわち、感情特定部103は、画像表示装置100が受信した複数の感情データに基づいて、着用状態におけるユーザーU1の感情Kを特定する。ステップS102より後の処理は、前述した処理と同様である。 That is, the emotion identification unit 103 identifies the emotion K of the user U1 in the wearing state based on the plurality of emotion data received by the image display device 100 . The processing after step S102 is the same as the processing described above.

次に、感情提示制御処理のさらに別の例について説明する。ここで、感情特定規則に含まれる楽しみ規則の楽しみ要素は、例えば、「所定時間以上継続するマスク振動」および、「所定時間以上維持される高い顔温度」であるとする。当該所定時間は、例えば、10秒である。当該高い顔温度は、例えば、37度以上の温度である。「所定時間以上継続するマスク振動」は、例えば、ユーザーU1が継続的に会話を行う場合に発生する。 Next, still another example of emotion presentation control processing will be described. Here, it is assumed that the pleasure elements of the pleasure rule included in the emotion specifying rule are, for example, "mask vibration that continues for a predetermined time or longer" and "high face temperature that is maintained for a predetermined time or longer". The predetermined time is, for example, 10 seconds. The high face temperature is, for example, 37 degrees or higher. “Mask vibration that continues for a predetermined time or longer” occurs, for example, when user U1 continues to have a conversation.

「所定時間以上維持される高い顔温度」は、顔温度が高い状況が、所定時間以上維持されるということである。「所定時間以上維持される高い顔温度」は、例えば、ユーザーU1が継続的に会話を行う場合に発生する。これは、ユーザーU1がマスクM1を着用した着用状態において、ユーザーU1が継続的に会話を行うと、マスクM1の内面M1b側の温度が上昇するためである。 “High face temperature maintained for a predetermined time or longer” means that a high face temperature is maintained for a predetermined time or longer. “High face temperature maintained for a predetermined time or more” occurs, for example, when user U1 continues to have a conversation. This is because the temperature on the inner surface M1b side of the mask M1 rises when the user U1 continues to talk while the user U1 is wearing the mask M1.

ユーザーU1が継続的に会話を行う場合、感情提示制御処理では、感情ユニット20の振動センサー2が、「所定時間以上継続するマスク振動」を検出し、当該マスク振動の振動データを生成する。当該振動データは、マスク振動が発生した旨と、マスク振動が継続した時間としての所定時間以上の継続時間とを示す。当該所定時間は、例えば、10秒である。 When the user U1 continuously converses, in the emotion presentation control process, the vibration sensor 2 of the emotion unit 20 detects "mask vibration that continues for a predetermined time or longer" and generates vibration data of the mask vibration. The vibration data indicates that the mask vibration has occurred, and the duration of the mask vibration that is longer than or equal to a predetermined time. The predetermined time is, for example, 10 seconds.

これにより、振動センサー2は、当該振動データを、感情データとして取得する(ステップS11)。振動センサー2は、当該振動データとしての感情データを、画像表示装置100へ送信する(ステップS12)。 Thereby, the vibration sensor 2 acquires the vibration data as emotion data (step S11). The vibration sensor 2 transmits the emotion data as the vibration data to the image display device 100 (step S12).

また、ユーザーU1が継続的に会話を行う場合、感情提示制御処理では、感情ユニット20の温度検出部5が、「所定時間以上維持される高い顔温度」を検出し、当該高い顔温度の温度データを生成する。当該温度データは、高い顔温度と、高い顔温度が維持された時間である、所定時間以上の維持時間とを示す。当該所定時間は、例えば、10秒である。 Further, when the user U1 continues to have a conversation, in the emotion presentation control process, the temperature detection unit 5 of the emotion unit 20 detects "a high face temperature that is maintained for a predetermined period of time or longer" and detects the high face temperature. Generate data. The temperature data indicates a high face temperature and a maintenance time longer than or equal to a predetermined time, which is the time during which the high face temperature is maintained. The predetermined time is, for example, 10 seconds.

これにより、温度検出部5は、当該温度データを、感情データとして取得する(ステップS11)。温度検出部5は、当該温度データとしての感情データを、画像表示装置100へ送信する(ステップS12)。 Thereby, the temperature detection unit 5 acquires the temperature data as emotion data (step S11). The temperature detection unit 5 transmits the emotion data as the temperature data to the image display device 100 (step S12).

上記のステップS12により、マスクユニットM10の感情ユニット20は、複数の検出部としての振動センサー2および温度検出部5が、それぞれ取得した複数の感情データを、画像表示装置100へ送信する。当該複数の感情データは、振動データおよび温度データである。 Through step S<b>12 described above, the emotion unit 20 of the mask unit M<b>10 transmits to the image display device 100 a plurality of emotion data respectively acquired by the vibration sensor 2 and the temperature detection section 5 as a plurality of detection sections. The plurality of emotion data are vibration data and temperature data.

感情特定部103は、感情特定規則に含まれる楽しみ規則と、画像表示装置100が受信した複数の感情データとしての振動データおよび温度データとに基づいて、感情Kが「楽しみ」であることを特定する(ステップS102)。 The emotion specifying unit 103 specifies that the emotion K is "enjoyment" based on the enjoyment rule included in the emotion specifying rule and the vibration data and the temperature data as the plurality of emotion data received by the image display device 100. (step S102).

具体的には、ステップS102において、感情特定部103は、受信した感情データとしての振動データにより、「所定時間以上継続するマスク振動」が発生したと認識する。また、ステップS102において、感情特定部103は、受信した感情データとしての温度データにより、「所定時間以上維持される高い顔温度」が発生したと認識する。すなわち、感情特定部103は、「所定時間以上継続するマスク振動」および「所定時間以上維持される高い顔温度」が発生したと認識する。 Specifically, in step S102, the emotion identifying unit 103 recognizes that "a mask vibration that continues for a predetermined time or longer" has occurred based on the received vibration data as emotion data. Also, in step S102, the emotion identification unit 103 recognizes that "a high face temperature that is maintained for a predetermined time or longer" has occurred based on the received temperature data as emotion data. That is, the emotion identifying unit 103 recognizes that "mask vibration that continues for a predetermined time or longer" and "high face temperature that is maintained for a predetermined time or longer" have occurred.

感情特定部103は、当該認識と、上記の楽しみ要素の発生により感情Kを特定することを規定した楽しみ規則とに基づいて、感情Kが「楽しみ」であることを特定する。すなわち、感情特定部103は、画像表示装置100が受信した複数の感情データに基づいて、着用状態におけるユーザーU1の感情Kを特定する。ステップS102より後の処理は、前述した処理と同様である。 The emotion specifying unit 103 specifies that the emotion K is "enjoyment" based on the recognition and the enjoyment rule specifying that the emotion K is specified by the occurrence of the pleasure element. That is, the emotion identification unit 103 identifies the emotion K of the user U1 in the wearing state based on the plurality of emotion data received by the image display device 100 . The processing after step S102 is the same as the processing described above.

(1つの検出部を使用した感情提示制御処理の例)
上記の感情提示制御処理では、感情ユニット20が、複数の検出部を有する状況における処理の具体的な例を説明した。ここで、感情ユニット20が、1つの検出部を有する構成(以下、「構成C1」)ともいう)における感情提示制御処理の具体的な例について説明する。
(Example of emotion presentation control processing using one detection unit)
In the emotion presentation control process described above, a specific example of the process in which the emotion unit 20 has a plurality of detection units has been described. Here, a specific example of emotion presentation control processing in a configuration in which the emotion unit 20 has one detection unit (hereinafter also referred to as “configuration C1”) will be described.

以下においては、構成C1における1つの検出部が振動センサー2である構成を、「構成C1a」ともいう。また、以下においては、構成C1における1つの検出部が音声検出部3である構成を、「構成C1b」ともいう。また、以下においては、構成C1における1つの検出部が圧電素子4である構成を、「構成C1c」ともいう。また、以下においては、構成C1における1つの検出部が温度検出部5である構成を、「構成C1d」ともいう。 Hereinafter, the configuration in which one detection unit in the configuration C1 is the vibration sensor 2 is also referred to as "configuration C1a." Further, hereinafter, the configuration in which one detection unit in the configuration C1 is the voice detection unit 3 is also referred to as “configuration C1b”. Further, hereinafter, the configuration in which one detection unit in the configuration C1 is the piezoelectric element 4 is also referred to as "configuration C1c". Further, hereinafter, the configuration in which one detection unit in the configuration C1 is the temperature detection unit 5 is also referred to as "configuration C1d".

まず、1つの検出部が振動センサー2である構成C1aにおける感情提示制御処理の具体的な例について説明する。ここで、構成C1aにおいて、感情特定規則に含まれる楽しみ規則の楽しみ要素は、例えば、「所定時間以上継続するマスク振動」であるとする。当該所定時間は、例えば、3秒である。「所定時間以上継続するマスク振動」は、例えば、ユーザーU1が笑い声を発した場合に発生する。 First, a specific example of the emotion presentation control process in the configuration C1a in which one detection unit is the vibration sensor 2 will be described. Here, in configuration C1a, it is assumed that the enjoyment element of the enjoyment rule included in the emotion specifying rule is, for example, "mask vibration that continues for a predetermined time or longer". The predetermined time is, for example, 3 seconds. “Mask vibration that continues for a predetermined time or longer” occurs, for example, when user U1 laughs.

ユーザーU1が笑い声を発した場合、感情提示制御処理では、感情ユニット20の振動センサー2が、「所定時間以上継続するマスク振動」を検出し、当該マスク振動の振動データを生成する。当該振動データは、マスク振動が発生した旨と、マスク振動が継続した時間としての所定時間以上の継続時間とを示す。 When the user U1 laughs, in the emotion presentation control process, the vibration sensor 2 of the emotion unit 20 detects "mask vibration that continues for a predetermined time or longer" and generates vibration data of the mask vibration. The vibration data indicates that the mask vibration has occurred, and the duration of the mask vibration that is longer than or equal to a predetermined time.

これにより、振動センサー2は、当該振動データを、感情データとして取得する(ステップS11)。振動センサー2は、当該振動データとしての感情データを、画像表示装置100へ送信する(ステップS12)。 Thereby, the vibration sensor 2 acquires the vibration data as emotion data (step S11). The vibration sensor 2 transmits the emotion data as the vibration data to the image display device 100 (step S12).

感情特定部103は、感情特定規則に含まれる楽しみ規則と、画像表示装置100が受信した感情データとしての振動データとに基づいて、感情Kが「楽しみ」であることを特定する(ステップS102)。具体的には、ステップS102において、感情特定部103は、受信した感情データとしての振動データにより、「所定時間以上継続するマスク振動」が発生したと認識する。感情特定部103は、当該認識と、上記の楽しみ要素の発生により感情Kを特定することを規定した楽しみ規則とに基づいて、感情Kが「楽しみ」であることを特定する。ステップS102より後の処理は、前述した処理と同様である。 The emotion specifying unit 103 specifies that the emotion K is "enjoyment" based on the pleasure rule included in the emotion specifying rule and the vibration data as the emotion data received by the image display device 100 (step S102). . Specifically, in step S102, the emotion identifying unit 103 recognizes that "a mask vibration that continues for a predetermined time or longer" has occurred based on the received vibration data as emotion data. The emotion specifying unit 103 specifies that the emotion K is "enjoyment" based on the recognition and the enjoyment rule specifying that the emotion K is specified by the occurrence of the pleasure element. The processing after step S102 is the same as the processing described above.

次に、1つの検出部が音声検出部3である構成C1bにおける感情提示制御処理の具体的な例について説明する。ここで、構成C1bにおいて、感情特定規則に含まれる楽しみ規則の楽しみ要素は、例えば、前述の「大きなユーザー音声」であるとする。大きなユーザー音声は、例えば、60デシベル以上の音声である。「大きなユーザー音声」は、例えば、ユーザーU1が笑い声を発した場合に発生する。 Next, a specific example of the emotion presentation control process in the configuration C1b in which one detector is the voice detector 3 will be described. Here, in configuration C1b, it is assumed that the enjoyment element of the enjoyment rule included in the emotion specifying rule is, for example, the aforementioned "loud user voice". A loud user voice is, for example, a voice above 60 decibels. A “loud user voice” occurs, for example, when user U1 laughs.

ユーザーU1が笑い声を発した場合、感情提示制御処理では、感情ユニット20の音声検出部3が、「大きなユーザー音声」を検出し、当該大きなユーザー音声の音声データを生成する。当該音声データは、大きなユーザー音声が発生した旨と、ユーザー音声の大きさとしての60デシベル以上の値とを示す。 When the user U1 laughs, in the emotion presentation control process, the voice detection unit 3 of the emotion unit 20 detects "loud user voice" and generates voice data of the loud user voice. The voice data indicates that a loud user voice has been generated and a value of 60 decibels or more as the loudness of the user voice.

これにより、音声検出部3は、当該音声データを、感情データとして取得する(ステップS11)。音声検出部3は、当該音声データとしての感情データを、画像表示装置100へ送信する(ステップS12)。 Thereby, the voice detection unit 3 acquires the voice data as emotion data (step S11). The voice detection unit 3 transmits the emotion data as the voice data to the image display device 100 (step S12).

感情特定部103は、感情特定規則に含まれる楽しみ規則と、画像表示装置100が受信した感情データとしての音声データとに基づいて、感情Kが「楽しみ」であることを特定する(ステップS102)。具体的には、ステップS102において、感情特定部103は、受信した感情データとしての音声データにより、「大きなユーザー音声」が発生したと認識する。感情特定部103は、当該認識と、上記の楽しみ要素の発生により感情Kを特定することを規定した楽しみ規則とに基づいて、感情Kが「楽しみ」であることを特定する。ステップS102より後の処理は、前述した処理と同様である。 The emotion specifying unit 103 specifies that the emotion K is "enjoyment" based on the pleasure rule included in the emotion specifying rule and the voice data as the emotion data received by the image display device 100 (step S102). . Specifically, in step S102, the emotion identification unit 103 recognizes that a "loud user voice" has been generated based on the received voice data as emotion data. The emotion specifying unit 103 specifies that the emotion K is "enjoyment" based on the recognition and the enjoyment rule specifying that the emotion K is specified by the occurrence of the pleasure element. The processing after step S102 is the same as the processing described above.

次に、1つの検出部が圧電素子4である構成C1cにおける感情提示制御処理の具体的な例について説明する。ここで、構成C1cにおいて、感情特定規則に含まれる悲しみ規則の悲しみ要素は、例えば、「所定時間以上継続する口部圧力」であるとする。当該所定時間は、例えば、2秒である。所定時間以上継続する口部圧力は、継続的な息圧力である。「所定時間以上継続する口部圧力」は、例えば、ユーザーU1がため息をついた場合に発生する。 Next, a specific example of the emotion presentation control process in the configuration C1c in which one detection unit is the piezoelectric element 4 will be described. Here, in configuration C1c, it is assumed that the sadness element of the sadness rule included in the emotion specifying rule is, for example, "mouth pressure that continues for a predetermined time or longer". The predetermined time is, for example, 2 seconds. A mouth pressure that lasts longer than a predetermined time is a continuous breath pressure. “Mouth pressure that continues for a predetermined time or longer” occurs, for example, when user U1 sighs.

ユーザーU1がため息をついた場合、感情提示制御処理では、感情ユニット20の圧電素子4が、「所定時間以上継続する口部圧力」を検出し、当該口部圧力の圧力データを生成する。当該圧力データは、息圧力としての口部圧力が発生した旨と、口部圧力が継続した時間としての所定時間以上の継続時間とを示す。当該継続時間は、例えば、2秒である。 When the user U1 sighs, in the emotion presentation control process, the piezoelectric element 4 of the emotion unit 20 detects "mouth pressure that continues for a predetermined time or longer" and generates pressure data of the mouth pressure. The pressure data indicates that the mouth pressure is generated as breath pressure, and the duration of the mouth pressure that is longer than or equal to a predetermined time. The duration is, for example, 2 seconds.

これにより、圧電素子4は、当該圧力データを、感情データとして取得する(ステップS11)。圧電素子4は、当該圧力データとしての感情データを、画像表示装置100へ送信する(ステップS12)。 As a result, the piezoelectric element 4 acquires the pressure data as emotion data (step S11). The piezoelectric element 4 transmits the emotion data as the pressure data to the image display device 100 (step S12).

感情特定部103は、感情特定規則に含まれる悲しみ規則と、画像表示装置100が受信した感情データとしての圧力データとに基づいて、感情Kが「悲しみ」であることを特定する(ステップS102)。具体的には、ステップS102において、感情特定部103は、受信した感情データとしての圧力データにより、「所定時間以上継続する口部圧力」が発生したと認識する。感情特定部103は、当該認識と、上記の悲しみ要素の発生により感情Kを特定することを規定した悲しみ規則とに基づいて、感情Kが「悲しみ」であることを特定する。前述したように、当該悲しみ規則では、悲しみ要素が発生した場合に、感情Kが「悲しみ」であることを特定することが規定される。ステップS102より後の処理は、前述した処理と同様である。 The emotion specifying unit 103 specifies that the emotion K is "sadness" based on the sadness rule included in the emotion specifying rule and the pressure data as the emotion data received by the image display device 100 (step S102). . Specifically, in step S102, the emotion identification unit 103 recognizes that "mouth pressure that continues for a predetermined time or more" has occurred based on the received pressure data as emotion data. The emotion specifying unit 103 specifies that the emotion K is "sadness" based on the recognition and the sadness rule that specifies that the emotion K is specified by the occurrence of the sadness element. As described above, the sadness rule specifies that the emotion K is "sadness" when a sadness element occurs. The processing after step S102 is the same as the processing described above.

次に、1つの検出部が温度検出部5である構成C1dにおける感情提示制御処理の具体的な例について説明する。ここで、構成C1dにおいて、感情特定規則に含まれる楽しみ規則の楽しみ要素は、例えば、「所定時間以上維持される高い顔温度」であるとする。当該所定時間は、例えば、10秒である。当該高い顔温度は、例えば、37度以上の温度である。「所定時間以上維持される高い顔温度」は、顔温度が高い状況が、所定時間以上維持されるということである。「所定時間以上維持される高い顔温度」は、例えば、ユーザーU1が継続的に会話を行う場合に発生する。これは、ユーザーU1がマスクM1を着用した着用状態において、ユーザーU1が継続的に会話を行うと、マスクM1の内面M1b側の温度が上昇するためである。 Next, a specific example of the emotion presentation control process in the configuration C1d in which one detector is the temperature detector 5 will be described. Here, in the configuration C1d, it is assumed that the enjoyment element of the enjoyment rule included in the emotion specifying rule is, for example, "a high face temperature that is maintained for a predetermined time or longer". The predetermined time is, for example, 10 seconds. The high face temperature is, for example, 37 degrees or higher. “High face temperature maintained for a predetermined time or longer” means that a high face temperature is maintained for a predetermined time or longer. “High face temperature maintained for a predetermined time or more” occurs, for example, when user U1 continues to have a conversation. This is because the temperature on the inner surface M1b side of the mask M1 rises when the user U1 continues to talk while the user U1 is wearing the mask M1.

ユーザーU1が継続的に会話を行う場合、感情提示制御処理では、感情ユニット20の温度検出部5が、「所定時間以上維持される高い顔温度」を検出し、当該高い顔温度の温度データを生成する。当該温度データは、高い顔温度と、高い顔温度が維持された時間である、所定時間以上の維持時間とを示す。当該所定時間は、例えば、10秒である。 When the user U1 continues to have a conversation, in the emotion presentation control process, the temperature detection unit 5 of the emotion unit 20 detects "a high face temperature that is maintained for a predetermined time or longer", and outputs the temperature data of the high face temperature. Generate. The temperature data indicates a high face temperature and a maintenance time longer than or equal to a predetermined time, which is the time during which the high face temperature is maintained. The predetermined time is, for example, 10 seconds.

これにより、温度検出部5は、当該温度データを、感情データとして取得する(ステップS11)。温度検出部5は、当該温度データとしての感情データを、画像表示装置100へ送信する(ステップS12)。 Thereby, the temperature detection unit 5 acquires the temperature data as emotion data (step S11). The temperature detection unit 5 transmits the emotion data as the temperature data to the image display device 100 (step S12).

感情特定部103は、感情特定規則に含まれる楽しみ規則と、画像表示装置100が受信した感情データとしての温度データとに基づいて、感情Kが「楽しみ」であることを特定する(ステップS102)。具体的には、ステップS102において、感情特定部103は、受信した感情データとしての温度データにより、「所定時間以上維持される高い顔温度」が発生したと認識する。感情特定部103は、当該認識と、上記の楽しみ要素の発生により感情Kを特定することを規定した楽しみ規則とに基づいて、感情Kが「楽しみ」であることを特定する。ステップS102より後の処理は、前述した処理と同様である。 Emotion identification unit 103 identifies that emotion K is “enjoyment” based on the enjoyment rule included in the emotion identification rule and the temperature data as the emotion data received by image display device 100 (step S102). . Specifically, in step S102, the emotion identification unit 103 recognizes that "a high face temperature that is maintained for a predetermined time or longer" has occurred based on the received temperature data as emotion data. The emotion specifying unit 103 specifies that the emotion K is "enjoyment" based on the recognition and the enjoyment rule specifying that the emotion K is specified by the occurrence of the pleasure element. The processing after step S102 is the same as the processing described above.

(効果)
以上説明したように、本実施の形態によれば、マスクユニットM10の状態には、ユーザーU1が当該マスクユニットM10を着用した状態である着用状態が存在する。マスクユニットM10は、着用状態において、ユーザーU1の顔F1の下部を覆うマスクM1を備える。着用状態は、ユーザーU1がマスクM1を着用した状態である。感情ユニット20は、着用状態におけるユーザーU1の感情Kを特定するための、少なくとも1つの感情データを取得する。マスクユニットM10は、少なくとも1つの感情データを、画像表示装置100へ送信する。感情特定部103は、画像表示装置100が受信した少なくとも1つの感情データに基づいて、着用状態におけるユーザーU1の感情を特定する。表示部107は、感情特定部103により特定された、着用状態におけるユーザーU1の感情Kである特定感情に対応する感情画像G1を表示する。
(effect)
As described above, according to the present embodiment, the state of the mask unit M10 includes a wearing state in which the user U1 wears the mask unit M10. The mask unit M10 includes a mask M1 that covers the lower portion of the face F1 of the user U1 when worn. The wearing state is a state in which the user U1 wears the mask M1. The emotion unit 20 acquires at least one emotion data for specifying the emotion K of the user U1 in the wearing state. Mask unit M10 transmits at least one piece of emotion data to image display device 100 . Emotion identification unit 103 identifies the emotion of user U1 in the wearing state based on at least one piece of emotion data received by image display device 100 . The display unit 107 displays an emotion image G1 corresponding to the specific emotion identified by the emotion identification unit 103, which is the emotion K of the user U1 in the wearing state.

これにより、マスクを着用したユーザーの感情を容易に把握することができる。 This makes it possible to easily grasp the emotions of the user wearing the mask.

また、本実施の形態によれば、マスクを着用したユーザーU1の感情を特定し、当該感情に対応する画像を表示することができる。 Further, according to the present embodiment, it is possible to identify the emotion of user U1 wearing a mask and display an image corresponding to the emotion.

また、本実施の形態によれば、感情特定部103は、複数の感情データに基づいて、ユーザーU1の感情Kを特定する。そのため、ユーザーU1の感情Kを正確に特定することができる。 Further, according to the present embodiment, emotion identifying section 103 identifies emotion K of user U1 based on a plurality of emotion data. Therefore, it is possible to accurately identify the emotion K of the user U1.

また、本実施の形態によれば、1つの検出部でも、ユーザーU1の感情Kを特定することができる。 Further, according to the present embodiment, it is possible to specify the emotion K of user U1 even with a single detection unit.

(画像表示装置のハードウエア構成例)
図7および図8の各々は、画像表示装置100のハードウエア構成の例を示す図である。図4に示した画像表示装置100に含まれる、本技術に関わる主要な複数の構成要素の機能は、例えば、図7に示す、処理回路70およびディスプレイ81により実現される。すなわち、画像表示装置100は、本技術に関わる主要な構成要素として、処理回路70およびディスプレイ81を備える。
(Hardware configuration example of image display device)
7 and 8 are diagrams showing examples of the hardware configuration of the image display device 100. FIG. Functions of a plurality of main components related to the present technology included in the image display device 100 shown in FIG. 4 are realized by, for example, the processing circuit 70 and the display 81 shown in FIG. That is, the image display device 100 includes a processing circuit 70 and a display 81 as main components related to the present technology.

前述したように、マスクユニットM10の感情ユニット20は、ユーザーがマスクを着用した着用状態における当該ユーザーの感情を特定するための、少なくとも1つの感情データを取得する。 As described above, the emotion unit 20 of the mask unit M10 acquires at least one emotion data for identifying the user's emotion when the user wears the mask.

処理回路70は、前記少なくとも1つの感情データに基づいて、前記着用状態におけるユーザーの感情を特定する。処理回路70は、感情特定部103に相当する。 Processing circuitry 70 identifies the user's emotion in the wearing state based on the at least one emotion data. The processing circuit 70 corresponds to the emotion identification section 103 .

ディスプレイ81は、処理回路70により特定された、前記着用状態における前記ユーザーの感情である特定感情に対応する画像を表示する。ディスプレイ81は、表示部107に相当する。 The display 81 displays an image corresponding to the specific emotion identified by the processing circuit 70, which is the user's emotion in the wearing state. The display 81 corresponds to the display section 107 .

処理回路70は、専用のハードウエアであってよい。また、処理回路70は、メモリに格納されるプログラムを実行するプロセッサを用いて構成されていてもよい。当該プロセッサは、例えば、CPU(Central Processing Unit)、中央処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等である。 Processing circuitry 70 may be dedicated hardware. Moreover, the processing circuit 70 may be configured using a processor that executes a program stored in a memory. The processor is, for example, a CPU (Central Processing Unit), a central processing unit, an arithmetic unit, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), or the like.

以下においては、処理回路70が専用のハードウエアである状況を、「状況St1」ともいう。また、以下においては、処理回路70が、プロセッサを用いて構成される状況を、「状況St2」ともいう。 Hereinafter, the situation in which the processing circuit 70 is dedicated hardware is also referred to as "situation St1". Further, hereinafter, a situation in which the processing circuit 70 is configured using a processor is also referred to as "situation St2".

状況St1では、処理回路70は、例えば、単一回路、複合回路、プログラム化されたプロセッサ、並列プログラム化されたプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。画像表示装置100に含まれる感情特定部103の機能は、処理回路70で実現される。 In situation St1, the processing circuit 70 is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or any of these. A combination is applicable. The function of the emotion identification unit 103 included in the image display device 100 is implemented by the processing circuit 70 .

図8は、処理回路70が、プロセッサを用いて構成される状況St2における、画像表示装置100のハードウエア構成の例を示す図である。図8の構成は、図7の処理回路70を、プロセッサ71およびメモリ72で実現した構成である。 FIG. 8 is a diagram showing an example of the hardware configuration of image display device 100 in situation St2 in which processing circuit 70 is configured using a processor. The configuration of FIG. 8 is a configuration in which the processing circuit 70 of FIG. 7 is realized by a processor 71 and a memory 72.

状況St2では、感情特定部103の機能は、ソフトウエアAにより実現される。ソフトウエアAは、ソフトウエアまたはファームウエアである。また、ソフトウエアAは、ソフトウエアとファームウエアとの組み合わせで構成されてもよい。ソフトウエアAはプログラムとして記述され、メモリ72に格納される。 In situation St2, software A implements the function of emotion identification unit 103 . Software A is software or firmware. Also, the software A may be composed of a combination of software and firmware. Software A is written as a program and stored in memory 72 .

また、状況St2では、プロセッサ71が、メモリ72に記憶されたプログラムを読み出して、当該プログラムを実行することにより、感情特定部103の機能は実現される。すなわち、メモリ72は、以下のプログラムを格納する。 In situation St2, processor 71 reads out the program stored in memory 72 and executes the program, thereby realizing the function of emotion identification unit 103 . That is, the memory 72 stores the following programs.

当該プログラムは、ユーザーがマスクを着用した着用状態における当該ユーザーの感情を特定するための、少なくとも1つの感情データに基づいて、前記着用状態におけるユーザーの感情を特定する処理を、プロセッサ71に実行させるためのプログラムである。 The program causes the processor 71 to perform a process of identifying the user's emotion in the wearing state of the mask based on at least one emotion data for identifying the user's emotion in the wearing state of the mask. It is a program for

また、当該プログラムは、感情特定部103が行う処理の手順、当該処理を実行する方法等をコンピュータに実行させるものでもある。 The program also causes a computer to execute the procedure of processing performed by the emotion identifying unit 103, the method of executing the processing, and the like.

ここで、メモリ72は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM、EEPROM等の、不揮発性または揮発性の半導体メモリである。また、メモリ72は、例えば、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等である。また、メモリ72は、今後使用されるあらゆる記憶媒体であってもよい。 Here, the memory 72 is a nonvolatile or volatile semiconductor memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM, EEPROM, or the like. Also, the memory 72 is, for example, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD, or the like. Also, the memory 72 may be any storage medium that will be used in the future.

以上のように、画像表示装置100は、ハードウエア、ソフトウエアA、またはこれらの組み合わせによって、上述の各機能を実現することができる。 As described above, the image display device 100 can implement the functions described above by hardware, software A, or a combination thereof.

また、本技術は、画像表示装置100が備える特徴的な構成部の動作をステップとする感情特定対応方法として実現してもよい。また、本技術は、そのような感情特定対応方法に含まれる各ステップをコンピュータに実行させるプログラムとして実現してもよい。 In addition, the present technology may be implemented as an emotion identification handling method in which operations of characteristic components included in the image display device 100 are performed as steps. Also, the present technology may be implemented as a program that causes a computer to execute each step included in such an emotion-specific handling method.

また、本技術は、そのようなプログラムを格納するコンピュータ読み取り可能な記録媒体として実現されてもよい。また、当該プログラムは、インターネット等の伝送媒体を介して配信されてもよい。本技術に係る感情特定対応方法は、例えば、図6の右側のフローチャートに相当する。 Also, the present technology may be implemented as a computer-readable recording medium that stores such a program. Also, the program may be distributed via a transmission medium such as the Internet. The emotion identification handling method according to the present technology corresponds to, for example, the flowchart on the right side of FIG.

上記実施の形態で用いた全ての数値は、本技術を具体的に説明するための一例の数値である。すなわち、本技術は、上記実施の形態で用いた各数値に制限されない。 All the numerical values used in the above embodiment are numerical values of an example for specifically describing the present technology. That is, the present technology is not limited to each numerical value used in the above embodiments.

(その他の変形例)
なお、実施の形態を適宜、変形、省略することが可能である。
(Other modifications)
In addition, it is possible to modify or omit the embodiments as appropriate.

例えば、画像表示装置100は、図で示される全ての構成要素を含まなくてもよい。すなわち、画像表示装置100は、本技術の効果を実現できる最小限の構成要素のみを含めばよい。例えば、画像表示装置100が、感情画像G1を生成する画像生成部104を含まない構成としてもよい。当該構成では、例えば、画像処理部106が、予め用意された異なる複数の感情画像から、感情特定部103により特定された、ユーザーの感情である特定感情に対応する画像に対応する感情画像を選択する。表示部107は、選択された感情画像を表示する。 For example, image display device 100 may not include all the components shown in the drawing. That is, the image display device 100 only needs to include minimum components that can achieve the effects of the present technology. For example, the image display device 100 may be configured without the image generator 104 that generates the emotion image G1. In this configuration, for example, the image processing unit 106 selects, from a plurality of different emotion images prepared in advance, an emotion image corresponding to the image corresponding to the specific emotion, which is the user's emotion, identified by the emotion identification unit 103. do. Display unit 107 displays the selected emotion image.

また、例えば、マスクユニットM10が、画像表示装置100に対し行う通信は、有線通信であってもよい。 Further, for example, the communication performed by the mask unit M10 with the image display device 100 may be wired communication.

2,2a,2b,2c,2d 振動センサー、3 音声検出部、4 圧電素子、5 温度検出部、6,102 通信部、20 感情ユニット、100 画像表示装置、103 感情特定部、104 画像生成部、107 表示部、500 画像表示システム、M1 マスク、M10 マスクユニット。 2, 2a, 2b, 2c, 2d vibration sensor, 3 sound detection unit, 4 piezoelectric element, 5 temperature detection unit, 6, 102 communication unit, 20 emotion unit, 100 image display device, 103 emotion identification unit, 104 image generation unit , 107 display unit, 500 image display system, M1 mask, M10 mask unit.

Claims (8)

画像表示装置と、当該画像表示装置と通信を行う機能を有し、ユーザーが着用可能なマスクユニットとを含む画像表示システムであって、
前記マスクユニットの状態には、前記ユーザーが当該マスクユニットを着用した状態である着用状態が存在し、
前記マスクユニットは、
前記着用状態において、前記ユーザーの顔の下部を覆うシート状のマスクと、
前記着用状態における前記ユーザーの感情を特定するための、少なくとも1つの感情データを取得する感情ユニットとを備え、
前記着用状態は、前記ユーザーが前記マスクを着用した状態であり、
前記感情ユニットは、前記マスクに設けられており、
前記マスクユニットは、前記少なくとも1つの感情データを、前記画像表示装置へ送信し、
前記画像表示装置は、
前記画像表示装置が受信した前記少なくとも1つの感情データに基づいて、前記着用状態における前記ユーザーの感情を特定する感情特定部と、
前記感情特定部により特定された、前記着用状態における前記ユーザーの感情である特定感情に対応する画像を表示する表示部とを備える、
画像表示システム。
An image display system including an image display device and a mask unit capable of communicating with the image display device and capable of being worn by a user,
The state of the mask unit includes a wearing state in which the user wears the mask unit,
The mask unit is
a sheet-shaped mask that covers the lower part of the user's face in the wearing state;
an emotion unit for obtaining at least one emotion data for identifying the user's emotion in the wearing state;
The wearing state is a state in which the user wears the mask,
The emotion unit is provided on the mask,
the mask unit transmitting the at least one emotion data to the image display device;
The image display device is
an emotion identification unit that identifies the emotion of the user in the wearing state based on the at least one emotion data received by the image display device;
a display unit that displays an image corresponding to the specific emotion, which is the emotion of the user in the wearing state, specified by the emotion specifying unit;
Image display system.
前記マスクユニットは、前記画像表示装置と無線通信を行う機能を有する、
請求項1に記載の画像表示システム。
The mask unit has a function of wirelessly communicating with the image display device,
The image display system according to claim 1.
前記画像表示装置は、さらに、
前記特定感情に対応する画像を生成する画像生成部を備える、
請求項1または2に記載の画像表示システム。
The image display device further comprises
An image generation unit that generates an image corresponding to the specific emotion,
3. The image display system according to claim 1 or 2.
前記感情ユニットは、1つの検出部を有し、
前記1つの検出部は、前記マスクの振動を検出し、検出した当該振動のデータである振動データを、前記感情データとして取得する振動センサーである、
請求項1から3のいずれか1項に記載の画像表示システム。
The emotion unit has one detection unit,
The one detection unit is a vibration sensor that detects vibration of the mask and acquires vibration data, which is data of the detected vibration, as the emotion data.
The image display system according to any one of claims 1 to 3.
前記感情ユニットは、1つの検出部を有し、
前記1つの検出部は、前記ユーザーが発する音声を検出し、検出した当該音声のデータである音声データを、前記感情データとして取得する音声検出部である、
請求項1から3のいずれか1項に記載の画像表示システム。
The emotion unit has one detection unit,
The one detection unit is a voice detection unit that detects a voice uttered by the user and acquires voice data, which is data of the detected voice, as the emotion data.
The image display system according to any one of claims 1 to 3.
前記感情ユニットは、1つの検出部を有し、
前記1つの検出部は、圧電素子であり、
前記圧電素子は、前記ユーザーの顔の動きにより当該圧電素子に加わる圧力を検出し、検出した当該圧力のデータである圧力データを、前記感情データとして取得する、
請求項1から3のいずれか1項に記載の画像表示システム。
The emotion unit has one detection unit,
The one detection unit is a piezoelectric element,
The piezoelectric element detects pressure applied to the piezoelectric element by movement of the user's face, and acquires pressure data, which is data of the detected pressure, as the emotion data.
The image display system according to any one of claims 1 to 3.
前記感情ユニットは、1つの検出部を有し、
前記1つの検出部は、前記ユーザーの顔の温度を検出し、検出した当該温度のデータである温度データを、前記感情データとして取得する温度検出部である、
請求項1から3のいずれか1項に記載の画像表示システム。
The emotion unit has one detection unit,
The one detection unit is a temperature detection unit that detects the temperature of the user's face and acquires temperature data, which is data of the detected temperature, as the emotion data.
The image display system according to any one of claims 1 to 3.
前記感情ユニットは、複数の検出部を有し、
前記複数の検出部は、構成要素としての振動センサー、構成要素としての音声検出部、構成要素としての圧電素子、および、構成要素としての温度検出部のうち、2つ以上の構成要素から構成され、
前記振動センサーは、前記マスクの振動を検出し、検出した当該振動のデータである振動データを、前記感情データとして取得し、
前記音声検出部は、前記ユーザーが発する音声を検出し、検出した当該音声のデータである音声データを、前記感情データとして取得し、
前記圧電素子は、前記ユーザーの顔の動きにより当該圧電素子に加わる圧力を検出し、検出した当該圧力のデータである圧力データを、前記感情データとして取得し、
前記温度検出部は、前記ユーザーの顔の温度を検出し、検出した当該温度のデータである温度データを、前記感情データとして取得し、
前記マスクユニットは、前記複数の検出部が、それぞれ取得した複数の前記感情データを、前記画像表示装置へ送信し、
前記感情特定部は、前記画像表示装置が受信した前記複数の感情データに基づいて、前記着用状態における前記ユーザーの感情を特定する、
請求項1から3のいずれか1項に記載の画像表示システム。
The emotion unit has a plurality of detection units,
The plurality of detection units are composed of two or more components selected from a vibration sensor as a component, an audio detection unit as a component, a piezoelectric element as a component, and a temperature detection unit as a component. ,
The vibration sensor detects vibration of the mask, acquires vibration data, which is data of the detected vibration, as the emotion data,
The voice detection unit detects a voice uttered by the user, acquires voice data, which is data of the detected voice, as the emotion data,
the piezoelectric element detects pressure applied to the piezoelectric element due to movement of the user's face, and acquires pressure data, which is data of the detected pressure, as the emotion data;
The temperature detection unit detects the temperature of the user's face, acquires temperature data, which is data of the detected temperature, as the emotion data,
wherein the mask unit transmits the plurality of emotion data respectively acquired by the plurality of detection units to the image display device;
The emotion identification unit identifies the user's emotion in the wearing state based on the plurality of emotion data received by the image display device.
The image display system according to any one of claims 1 to 3.
JP2021020616A 2021-02-12 2021-02-12 image display system Pending JP2022123355A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021020616A JP2022123355A (en) 2021-02-12 2021-02-12 image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021020616A JP2022123355A (en) 2021-02-12 2021-02-12 image display system

Publications (1)

Publication Number Publication Date
JP2022123355A true JP2022123355A (en) 2022-08-24

Family

ID=82940148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021020616A Pending JP2022123355A (en) 2021-02-12 2021-02-12 image display system

Country Status (1)

Country Link
JP (1) JP2022123355A (en)

Similar Documents

Publication Publication Date Title
JP6391465B2 (en) Wearable terminal device and program
JP6751536B2 (en) Equipment, robots, methods, and programs
KR102658445B1 (en) Voice affect modification
Ando et al. Canalsense: Face-related movement recognition system based on sensing air pressure in ear canals
JP4481682B2 (en) Information processing apparatus and control method thereof
KR20240011874A (en) Directing live entertainment using biometric sensor data for detection of neurological state
JP6580497B2 (en) Apparatus, device, program and method for identifying facial expression with high accuracy using myoelectric signal
US11974619B2 (en) Smart article visual communication based on facial movement
JP6969554B2 (en) Information processing systems, recording media, information processing methods, and programs
JP5574407B2 (en) Facial motion estimation apparatus and facial motion estimation method
JP7066115B2 (en) Public speaking support device and program
US11782676B2 (en) Multi-modal input capture and output presentation system for enhancing communications using face coverings
KR20140032651A (en) Method for emotion feedback service and smart device using the same
JP2022123355A (en) image display system
US20230095350A1 (en) Focus group apparatus and system
WO2022065446A1 (en) Feeling determination device, feeling determination method, and feeling determination program
JP2018098761A (en) Signal processing device
US11543884B2 (en) Headset signals to determine emotional states
KR20230064011A (en) Analysis system of circumstantial judgement based on voice with image pattern and operating method thereof
JP7405357B2 (en) Elderly person monitoring system
WO2023037749A1 (en) Evaluation method, evaluation system, and program
KR102361994B1 (en) Battle game system
US20210186339A1 (en) Monitoring system for monitoring a patient and method for operating the monitoring system
JP7399740B2 (en) Communication robot, control program and control method
JP2019107067A (en) Biological signal processing device for determining biological signal generation using representative of acceleration component, program and method