JP2022123355A - image display system - Google Patents
image display system Download PDFInfo
- Publication number
- JP2022123355A JP2022123355A JP2021020616A JP2021020616A JP2022123355A JP 2022123355 A JP2022123355 A JP 2022123355A JP 2021020616 A JP2021020616 A JP 2021020616A JP 2021020616 A JP2021020616 A JP 2021020616A JP 2022123355 A JP2022123355 A JP 2022123355A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- data
- unit
- user
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本開示は、マスクを使用した構成を有する画像表示システムに関する。 The present disclosure relates to an image display system having a configuration using a mask.
近年、人がマスクを着用する機会が増えている。以下においては、マスクを着用した人またはユーザーを、「マスク着用者」ともいう。マスク着用者の顔の状態を識別することは困難である。そこで、マスク着用者の顔を疑似的に表現することができるマスクが提案されている。 In recent years, more and more people are wearing masks. Hereinafter, a person or user who wears a mask is also referred to as a "mask wearer". It is difficult to identify the facial condition of the mask wearer. Therefore, a mask has been proposed that can simulate the face of the mask wearer.
例えば、特許文献1では、マスク着用者の顔を疑似的に表現するための構成(以下、「関連構成A」ともいう)が開示されている。関連構成Aでは、マスク本体部を覆うフレキシブルディスプレイと、マスク着用者の口部の動きを検知するためのセンサーとが使用される。関連構成Aでは、センサーが検知した、マスク着用者の口部の動きに同期した画像をフレキシブルディスプレイが表示する。
For example,
人と会話を行う状況において当該会話を盛り上げるためには、当該人の感情を把握することは重要である。 In order to liven up the conversation in a situation of having a conversation with a person, it is important to grasp the person's emotions.
関連構成Aでは、マスク本体部を覆うフレキシブルディスプレイが、センサーが検知した、マスク着用者の口部の動きに同期した画像を表示する。関連構成Aのような、マスク着用者の口部の動きに同期した画像を表示する構成では、マスクを着用したユーザーであるマスク着用者の感情を把握することは容易ではないという問題点がある。 In related configuration A, a flexible display that covers the mask body displays images synchronized with the movement of the mask wearer's mouth detected by the sensor. A configuration that displays an image synchronized with the movement of the mask wearer's mouth, such as related configuration A, has the problem that it is not easy to grasp the emotions of the mask wearer, who is the user of the mask. .
本開示は、上記の問題点を解決するためになされたものであり、マスクを着用したユーザーの感情を容易に把握することが可能な画像表示システムを提供することを目的とする。 The present disclosure has been made to solve the above problems, and an object thereof is to provide an image display system capable of easily grasping the emotions of a user wearing a mask.
上記目的を達成するために、本開示の一態様に係る画像表示システムは、画像表示装置と、当該画像表示装置と通信を行う機能を有し、ユーザーが着用可能なマスクユニットとを含む。前記マスクユニットの状態には、前記ユーザーが当該マスクユニットを着用した状態である着用状態が存在し、前記マスクユニットは、前記着用状態において、前記ユーザーの顔の下部を覆うシート状のマスクと、前記着用状態における前記ユーザーの感情を特定するための、少なくとも1つの感情データを取得する感情ユニットとを備え、前記着用状態は、前記ユーザーが前記マスクを着用した状態であり、前記感情ユニットは、前記マスクに設けられており、前記マスクユニットは、前記少なくとも1つの感情データを、前記画像表示装置へ送信し、前記画像表示装置は、前記画像表示装置が受信した前記少なくとも1つの感情データに基づいて、前記着用状態における前記ユーザーの感情を特定する感情特定部と、前記感情特定部により特定された、前記着用状態における前記ユーザーの感情である特定感情に対応する画像を表示する表示部とを備える。 To achieve the above object, an image display system according to one aspect of the present disclosure includes an image display device and a mask unit that has a function of communicating with the image display device and that can be worn by a user. The state of the mask unit includes a wearing state in which the user wears the mask unit. In the wearing state, the mask unit includes a sheet-like mask that covers the lower part of the face of the user; an emotion unit that obtains at least one emotion data for identifying an emotion of the user in the wearing state, the wearing state being a state in which the user is wearing the mask, the emotion unit comprising: provided on the mask, wherein the mask unit transmits the at least one emotion data to the image display device, and the image display device receives the at least one emotion data based on the at least one emotion data received by the image display device and an emotion identification unit that identifies the emotion of the user in the wearing state, and a display unit that displays an image corresponding to the specific emotion, which is the emotion of the user in the wearing state, identified by the emotion identification unit. Prepare.
本開示によれば、マスクユニットの状態には、ユーザーが当該マスクユニットを着用した状態である着用状態が存在する。前記マスクユニットは、前記着用状態において、前記ユーザーの顔の下部を覆うマスクを備える。前記着用状態は、前記ユーザーが前記マスクを着用した状態である。感情ユニットは、前記着用状態における前記ユーザーの感情を特定するための、少なくとも1つの感情データを取得する。前記マスクユニットは、前記少なくとも1つの感情データを、画像表示装置へ送信する。感情特定部は、前記画像表示装置が受信した前記少なくとも1つの感情データに基づいて、前記着用状態における前記ユーザーの感情を特定する。表示部は、前記感情特定部により特定された、前記着用状態における前記ユーザーの感情である特定感情に対応する画像を表示する。 According to the present disclosure, the state of the mask unit includes a wearing state in which the user wears the mask unit. The mask unit includes a mask that covers the lower portion of the user's face in the wearing state. The wearing state is a state in which the user wears the mask. An emotion unit obtains at least one emotion data for identifying the user's emotion in the wearing state. The mask unit transmits the at least one emotion data to an image display device. The emotion identification unit identifies the user's emotion in the wearing state based on the at least one emotion data received by the image display device. The display unit displays an image corresponding to the specific emotion, which is the emotion of the user in the wearing state, specified by the emotion specifying unit.
これにより、マスクを着用したユーザーの感情を容易に把握することができる。 This makes it possible to easily grasp the emotions of the user wearing the mask.
以下、図面を参照しつつ、実施の形態について説明する。以下の図面では、同一の構成要素には同一の符号を付してある。同一の符号が付されている構成要素の名称および機能は同じである。したがって、同一の符号が付されている構成要素の一部についての詳細な説明を省略する場合がある。 Hereinafter, embodiments will be described with reference to the drawings. In the following drawings, the same components are given the same reference numerals. Components with the same reference numerals have the same names and functions. Therefore, detailed descriptions of some of the components denoted by the same reference numerals may be omitted.
なお、実施の形態において例示される構成要素の寸法、材質、形状、当該構成要素の相対配置などは、装置の構成、各種条件等により適宜変更されてもよい。また、図における構成要素の寸法は、実際の寸法と異なる場合がある。 Note that the dimensions, materials, shapes, and relative arrangement of the components illustrated in the embodiments may be appropriately changed according to the configuration of the apparatus, various conditions, and the like. Also, the dimensions of components in the drawings may differ from the actual dimensions.
<実施の形態1>
(構成)
実施の形態1に係る画像表示システム500について説明する。図1は、実施の形態1に係る画像表示システム500の構成を示す図である。図1には、説明のために、画像表示システム500に含まれないユーザーU1の顔F1が示されている。
<
(Constitution)
An
図1に示されるように、画像表示システム500は、画像表示装置100と、マスクユニットM10とを含む。画像表示装置100は、画像を表示する機能を有する。画像表示装置100は、例えば、ディスプレイである。
As shown in FIG. 1, the
マスクユニットM10は、画像表示装置100と通信を行う機能を有する。マスクユニットM10が、画像表示装置100に対し行う通信は、無線通信である。すなわち、マスクユニットM10は、画像表示装置100と無線通信を行う機能を有する。当該無線通信は、例えば、Wi-FiまたはBluetoothに従った通信である。「Bluetooth」は、登録商標である。
The mask unit M10 has a function of communicating with the
また、ユーザーU1がマスクユニットM10を着用可能なように、当該マスクユニットM10は構成されている。以下においては、ユーザーU1が当該マスクユニットM10を着用した状態を、「着用状態」ともいう。また、以下においては、ユーザーU1が当該マスクユニットM10を着用していない状態を、「非着用状態」ともいう。 Further, the mask unit M10 is configured so that the user U1 can wear the mask unit M10. Hereinafter, the state in which the user U1 wears the mask unit M10 is also referred to as "wearing state". Further, hereinafter, the state in which the user U1 does not wear the mask unit M10 is also referred to as "non-wearing state".
マスクユニットM10の状態には、着用状態と、非着用状態とが存在する。図1には、着用状態のマスクユニットM10が示されている。 The state of the mask unit M10 includes a wearing state and a non-wearing state. FIG. 1 shows the mask unit M10 in a worn state.
マスクユニットM10は、マスクM1と、感情ユニット20と、通信部6とを備える。図2は、実施の形態1に係るマスクM1の構成を示す平面図である。また、図2には、後述の振動センサー2が示されている。
The mask unit M10 includes a mask M1, an
以下においては、水平方向を、「水平方向Dr1」または「方向Dr1」ともいう。また、以下においては、鉛直方向を、「鉛直方向Dr2」または「方向Dr2」ともいう。図2には、水平方向Dr1および鉛直方向Dr2が示されている。水平方向Dr1および鉛直方向Dr2は、互いに直交する。 Hereinafter, the horizontal direction is also referred to as “horizontal direction Dr1” or “direction Dr1”. In addition, the vertical direction is hereinafter also referred to as “vertical direction Dr2” or “direction Dr2”. Horizontal direction Dr1 and vertical direction Dr2 are shown in FIG. The horizontal direction Dr1 and the vertical direction Dr2 are orthogonal to each other.
図3は、実施の形態1に係るマスクユニットM10の主要な構成を示すブロック図である。図3には、マスクユニットM10の主要な構成を分かりやすくするために、マスクM1は示されていない。
FIG. 3 is a block diagram showing the main configuration of the mask unit M10 according to
まず、図1および図2を参照して、ユーザーU1がマスクM1を着用可能なように、当該マスクM1は構成されている。また、着用状態において、マスクM1がユーザーU1の顔F1の下部を覆うように、当該マスクM1は構成されている。ユーザーU1の顔F1の下部には、口および鼻が設けられている。着用状態は、ユーザーU1がマスクM1を着用した状態でもある。 First, referring to FIGS. 1 and 2, the mask M1 is configured so that the user U1 can wear the mask M1. Moreover, the mask M1 is configured so that the mask M1 covers the lower portion of the face F1 of the user U1 when worn. A mouth and a nose are provided in the lower part of the face F1 of the user U1. The wearing state is also a state in which the user U1 wears the mask M1.
マスクM1の形状は、シート状である。また、平面視におけるマスクM1の形状は、矩形である。マスクM1は、表面M1aと、内面M1bとを有する。内面M1bは、着用状態において、ユーザーU1の顔F1と対向する面である。また、内面M1bは、着用状態において、ユーザーU1の顔F1の頬に接触する。 The shape of the mask M1 is sheet-like. Moreover, the shape of the mask M1 in plan view is a rectangle. The mask M1 has a surface M1a and an inner surface M1b. The inner surface M1b faces the face F1 of the user U1 when worn. In addition, the inner surface M1b contacts the cheeks of the face F1 of the user U1 when worn.
マスクM1のサイズは、ユーザーU1の顔F1の下部を覆うためのサイズである。なお、マスクM1のサイズは、当該マスクM1が、顔F1の下部を含む、当該顔F1のほぼ全体を覆うためのサイズであってもよい。 The size of the mask M1 is a size for covering the lower portion of the face F1 of the user U1. The size of the mask M1 may be such that the mask M1 covers substantially the entire face F1 including the lower part of the face F1.
着用状態におけるマスクM1には、ユーザーU1の顔F1の動きにより、振動が発生する。 The mask M1 in the wearing state vibrates due to the movement of the face F1 of the user U1.
マスクM1は、柔軟性および通気性を有する材料から構成される。マスクM1を構成する材料は、一般的な医療用マスクと同様、例えば、布、ガーゼ、不繊布などである。 The mask M1 is made of a flexible and breathable material. The material constituting the mask M1 is, for example, cloth, gauze, non-woven cloth, etc., like common medical masks.
次に、図1および図3を参照して、通信部6は、画像表示装置100と通信を行う機能を有する。通信部6が、画像表示装置100に対し行う通信は、無線通信である。すなわち、通信部6は、画像表示装置100と無線通信を行う機能を有する。当該無線通信は、例えば、Wi-FiまたはBluetoothに従った通信である。通信部6は、例えば、マスクM1の表面M1aに設けられている。
Next, referring to FIGS. 1 and 3,
感情ユニット20は、マスクM1に設けられている。以下においては、着用状態におけるユーザーU1の感情を特定するためのデータを、「感情データ」ともいう。
The
感情ユニット20は、少なくとも1つの感情データを取得する機能を有する。マスクユニットM10の感情ユニット20は、感情データを、画像表示装置100へ送信する。
The
感情ユニット20は、検出部である振動センサー2、音声検出部3、圧電素子4および温度検出部5を有する。すなわち、感情ユニット20は、複数の検出部を有する。
The
なお、感情ユニット20が、1つの検出部を有する構成としてもよい。当該構成では、当該1つの検出部は、振動センサー2、音声検出部3、圧電素子4および温度検出部5のいずれかである。すなわち、感情ユニット20は、検出部である振動センサー2、音声検出部3、圧電素子4および温度検出部5のいずれか1つの検出部を有してもよい。
Note that the
また、感情ユニット20は、構成要素としての振動センサー2、音声検出部3、圧電素子4および温度検出部5の一部を有する構成としてもよい。当該構成では、感情ユニット20が有する複数の検出部は、構成要素としての振動センサー2、構成要素としての音声検出部3、構成要素としての圧電素子4、および、構成要素としての温度検出部5のうち、2つ以上の構成要素から構成される。
Moreover, the
例えば、感情ユニット20が有する複数の検出部は、振動センサー2および音声検出部3であってもよい。また、例えば、感情ユニット20が有する複数の検出部は、音声検出部3および温度検出部5であってもよい。また、例えば、感情ユニット20が有する複数の検出部は、振動センサー2、音声検出部3および温度検出部5であってもよい。
For example, the multiple detectors included in the
通信部6は、検出部である振動センサー2、音声検出部3、圧電素子4および温度検出部5と接続されている。通信部6は、検出部である振動センサー2、音声検出部3、圧電素子4および温度検出部5から送信されるデータを、画像表示装置100へ送信する。
The
振動センサー2、音声検出部3、圧電素子4および温度検出部5の各々は、マスクM1の内面M1bに設けられている。
Each of the
振動センサー2は、マスクM1の振動を検出する機能を有する。以下においては、マスクM1の振動を、「マスク振動」ともいう。また、以下においては、マスクM1において発生する、水平方向Dr1に沿ったマスク振動を、「水平振動」ともいう。また、以下においては、マスクM1において発生する、鉛直方向Dr2に沿ったマスク振動を、「鉛直振動」ともいう。
The
振動センサー2が水平振動および鉛直振動を検出可能なように、当該振動センサー2は、マスクM1の内面M1bに設けられている。図2は、マスクM1の内面M1bに、振動センサー2が設けられている状態を示す。振動センサー2は、4つの振動センサーから構成される。
The
以下においては、振動センサー2を構成する4つの振動センサーを、振動センサー2a,2b,2c,2dともいう。すなわち、振動センサー2は、振動センサー2a,2b,2c,2dから構成される。振動センサー2a,2b,2c,2dの各々は、マスク振動を検出する機能を有する。振動センサー2a,2b,2c,2dは、マスクM1の内面M1bに設けられている。
In the following, the four vibration sensors forming the
振動センサー2b,2cが水平方向Dr1に沿って並ぶように、当該振動センサー2b,2cはマスクMの内面M1bに設けられる。振動センサー2a,2dが鉛直方向Dr2に沿って並ぶように、当該振動センサー2a,2dはマスクM1の内面M1bに設けられる。
The
振動センサー2b,2cの各々がマスク振動を検出した場合、振動センサー2は、マスク振動としての水平振動を検出する。振動センサー2a,2dの各々がマスク振動を検出した場合、振動センサー2は、マスク振動としての鉛直振動を検出する。
When each of the
振動センサー2は、例えば、検出した水平振動の大きさにより、例えば、水平方向Dr1における、ユーザーU1の口が開いた量を検出することができる。また、振動センサー2は、例えば、検出した鉛直振動の大きさにより、例えば、鉛直方向Dr2における、ユーザーU1の口が開いた量を検出することができる。
The
以下においては、振動センサー2が検出したマスク振動のデータを、「振動データ」ともいう。振動データは、例えば、マスク振動が発生した旨、マスク振動の継続時間、マスク振動の強さ等を示すデータである。当該マスク振動は、水平振動および鉛直振動の両方または一方である。
In the following, the mask vibration data detected by the
振動センサー2は、マスク振動を検出した場合、検出した当該マスク振動の振動データを生成し、当該振動データを、感情データとして取得する。振動センサー2は、振動データとしての感情データを、通信部6を介して、画像表示装置100へ送信する。
When detecting mask vibration, the
以下においては、ユーザーU1が発する音声を、「ユーザー音声」ともいう。ユーザー音声は、例えば、着用状態におけるユーザーU1が発する音声である。 In the following, the voice uttered by user U1 is also referred to as "user voice". The user's voice is, for example, voice uttered by the user U1 in the wearing state.
音声検出部3は、ユーザーU1が発する音声であるユーザー音声を検出する機能を有する。ユーザー音声は、例えば、笑い声、ため息等である。音声検出部3は、例えば、マイクと、当該マイクが感知したユーザー音声を認識する機能を有する認識ユニットとにより構成される。また、音声検出部3は、笑い声を検出する機能を有する。笑い声は、認識ユニットにより認識される。認識ユニットにより笑い声が認識されることにより、音声検出部3は、笑い声を検出する。また、音声検出部3は、検出した声のトーンを認識する機能を有する。そのため、音声検出部3は、例えば、高音を検出する機能を有する。 The voice detection unit 3 has a function of detecting user voice, which is the voice uttered by the user U1. User voices are, for example, laughter, sighs, and the like. The voice detection unit 3 is composed of, for example, a microphone and a recognition unit having a function of recognizing the user's voice detected by the microphone. The voice detection unit 3 also has a function of detecting laughter. Laughter is recognized by the recognition unit. The voice detector 3 detects laughter by recognizing the laughter by the recognition unit. The voice detection unit 3 also has a function of recognizing the detected tone of voice. Therefore, the voice detection unit 3 has a function of detecting high-pitched sounds, for example.
なお、音声検出部3は、マイクで構成されてもよい。 Note that the voice detection unit 3 may be configured by a microphone.
音声検出部3がユーザー音声を感知できるように、当該音声検出部3は、マスクM1の内面M1bに設けられている。 The voice detector 3 is provided on the inner surface M1b of the mask M1 so that the voice detector 3 can sense the user's voice.
以下においては、音声検出部3が検出したユーザー音声のデータを、「音声データ」ともいう。音声データは、ユーザー音声、ユーザー音声の大きさ、ユーザー音声の長さ、ユーザー音声の種類等を示す。ユーザー音声の大きさの単位は、デシベルである。 The data of the user's voice detected by the voice detection unit 3 is hereinafter also referred to as "voice data". The audio data indicates the user's voice, the volume of the user's voice, the length of the user's voice, the type of the user's voice, and the like. The unit of user voice loudness is decibels.
音声検出部3は、ユーザー音声を検出した場合、検出した当該ユーザー音声の音声データを生成し、当該音声データを、感情データとして取得する。音声検出部3は、音声データとしての感情データを、通信部6を介して、画像表示装置100へ送信する。
When the user's voice is detected, the voice detection unit 3 generates voice data of the detected user's voice, and acquires the voice data as emotion data. Voice detection unit 3 transmits emotion data as voice data to image
以下においては、着用状態において、ユーザーU1の顔F1の動きにより圧電素子4に加わる圧力を、「口部圧力」ともいう。口部圧力は、ユーザーU1の顔F1の口部の動きにより圧電素子4に加わる圧力である。 In the following, the pressure applied to the piezoelectric element 4 due to the movement of the face F1 of the user U1 in the wearing state is also referred to as "mouth pressure". The mouth pressure is pressure applied to the piezoelectric element 4 by movement of the mouth of the face F1 of the user U1.
圧電素子4は、口部圧力を検出する機能を有する。圧電素子4が口部圧力を検出することが可能なように、当該圧電素子4は、マスクM1の内面M1bに設けられている。 The piezoelectric element 4 has a function of detecting mouth pressure. The piezoelectric element 4 is provided on the inner surface M1b of the mask M1 so that the piezoelectric element 4 can detect the mouth pressure.
口部圧力は、例えば、ユーザーU1がはく息により圧電素子4に加わる圧力(以下、「息圧力」ともいう)である。また、口部圧力は、例えば、顔F1の頬が、圧電素子4に加える圧力(以下、「頬圧力」ともいう)である。頬圧力は、例えば、ユーザーU1の顔F1が笑顔になって、頬が動くことにより発生する。 The mouth pressure is, for example, the pressure applied to the piezoelectric element 4 by the user U1 exhaling (hereinafter also referred to as "breath pressure"). The mouth pressure is, for example, the pressure applied to the piezoelectric element 4 by the cheeks of the face F1 (hereinafter also referred to as "cheek pressure"). The cheek pressure is generated, for example, by the face F1 of the user U1 smiling and the cheeks moving.
また、圧電素子4は、単位時間における、口部圧力の発生回数(以下、「圧力発生回数」ともいう)を検出する機能を有する。単位時間は、例えば、10秒である。 In addition, the piezoelectric element 4 has a function of detecting the number of times the mouth pressure is generated (hereinafter also referred to as "the number of pressure generation times") per unit time. A unit time is, for example, 10 seconds.
また、圧電素子4は、口部圧力としての、継続的な息圧力を検出する機能を有する。継続的な息圧力は、例えば、2秒以上継続する息圧力である。 In addition, the piezoelectric element 4 has a function of detecting continuous breath pressure as mouth pressure. Continuous breath pressure is, for example, breath pressure that continues for two seconds or longer.
以下においては、圧電素子4が検出した口部圧力のデータを、「圧力データ」ともいう。圧力データは、口部圧力の強さ、口部圧力の継続時間、圧力発生回数等を示すデータである。 In the following, the mouth pressure data detected by the piezoelectric element 4 is also referred to as "pressure data". The pressure data is data indicating the strength of the mouth pressure, the duration of the mouth pressure, the number of times the pressure is generated, and the like.
圧電素子4は、口部圧力を検出した場合、検出した当該口部圧力の圧力データを生成し、当該圧力データを感情データとして取得する。圧電素子4は、圧力データとしての感情データを、通信部6を介して、画像表示装置100へ送信する。
When detecting the mouth pressure, the piezoelectric element 4 generates pressure data of the detected mouth pressure, and acquires the pressure data as emotion data. Piezoelectric element 4 transmits emotion data as pressure data to image
以下においては、ユーザーU1の顔F1の温度を、「顔温度」ともいう。 Hereinafter, the temperature of the face F1 of the user U1 is also referred to as "face temperature".
温度検出部5は、顔温度を検出する機能を有する。温度検出部5が顔温度を検出可能なように、当該温度検出部5は、マスクM1の内面M1bに設けられている。
The
ユーザーU1の感情により、顔温度が上昇する場合がある。以下においては、所定時間にわたって顔温度が所定温度だけ上昇する現象を、「温度上昇」ともいう。当該所定時間は、例えば、10秒から120秒までの範囲に含まれる時間である。当該所定温度は、例えば、0.1度から3度までの範囲に含まれる温度である。温度上昇は、例えば、30秒にわたって、顔温度が、1度だけ上昇する現象である。 User U1's emotion may cause the face temperature to rise. Hereinafter, a phenomenon in which the face temperature rises by a predetermined temperature over a predetermined period of time is also referred to as "temperature rise". The predetermined time is, for example, a time within a range from 10 seconds to 120 seconds. The predetermined temperature is, for example, a temperature within a range from 0.1 degrees to 3 degrees. A temperature rise is, for example, a phenomenon in which the face temperature rises by 1 degree over a period of 30 seconds.
また、温度検出部5は、温度上昇を、顔温度として検出する機能を有する。以下においては、温度検出部5が検出した顔温度のデータを、「温度データ」ともいう。温度データは、例えば、顔温度、顔温度の維持時間、温度上昇が発生した旨等を示すデータである。顔温度の維持時間は、顔温度が所定温度以上である状況が維持される時間である。当該所定温度は、例えば、37度である。
Moreover, the
温度検出部5は、顔温度を検出した場合、検出した当該顔温度の温度データを生成し、当該温度データを、感情データとして取得する。温度検出部5は、温度データとしての感情データを、通信部6を介して、画像表示装置100へ送信する。
When detecting the face temperature, the
次に、画像表示装置100の構成について説明する。図4は、実施の形態1に係る画像表示装置100の構成を示すブロック図である。図1および図4を参照して、画像表示装置100は、通信部102、感情特定部103、画像生成部104、画像処理部106および表示部107を備える。
Next, the configuration of the
通信部102は、マスクユニットM10と無線通信を行う機能を有する。当該無線通信は、例えば、Wi-FiまたはBluetoothに従った通信である。通信部102は、画像表示装置100に設けられている。通信部102は、マスクユニットM10の通信部6から送信されたデータを受信する。通信部102は、受信したデータを、感情特定部103へ送信する。
The
以下においては、マスクユニットM10を着用したユーザーU1の感情を、「感情K」ともいう。感情Kは、着用状態におけるユーザーU1の感情である。また、以下においては、ユーザーU1の感情Kを特定するための規則を、「感情特定規則」ともいう。 Hereinafter, the emotion of the user U1 wearing the mask unit M10 is also referred to as "emotion K". Emotion K is the emotion of user U1 in the wearing state. Also, hereinafter, the rule for identifying the emotion K of the user U1 is also referred to as the "emotion identification rule".
感情特定部103は、マスクユニットM10から送信される感情データを受信する。感情特定部103は、感情データと異なるデータを受信する場合もある。この場合、感情特定部103は、受信した当該データは感情データでないと判定し、次の感情データの受信を待つ。
また、感情特定部103は、感情特定規則を保持している。感情特定部103は、詳細は後述するが、感情データに基づいて、着用状態におけるユーザーU1の感情Kを特定する。以下においては、感情Kを特定するための処理を、「感情特定処理」ともいう。感情特定部103は、感情特定処理を行う。
The
感情特定処理における、感情Kの特定は、感情特定規則に基づいて行われる。感情特定処理では、一例として、喜怒哀楽の感情が特定される。すなわち、感情特定処理では、一例として、「喜び」、「怒り」、「悲しみ」および「楽しみ」といった4種類の感情が特定される。 Identification of the emotion K in the emotion identification process is performed based on the emotion identification rule. In the emotion identification process, emotions such as emotions are identified as an example. That is, in the emotion identification process, as an example, four types of emotions such as "joy", "anger", "sadness" and "fun" are identified.
以下においては、感情Kが「喜び」であることを特定するための要素を、「喜び要素」ともいう。また、以下においては、感情Kが「怒り」であることを特定するための要素を、「怒り要素」ともいう。また、以下においては、感情Kが「悲しみ」であることを特定するための要素を、「悲しみ要素」ともいう。また、以下においては、感情Kが「楽しみ」であることを特定するための要素を、「楽しみ要素」ともいう。 Hereinafter, the element for specifying that the emotion K is "joy" is also referred to as "joy element". Also, hereinafter, the element for specifying that the emotion K is "anger" is also referred to as "anger element". Also, hereinafter, the element for specifying that the emotion K is "sadness" is also referred to as the "sadness element". Also, hereinafter, the element for specifying that the emotion K is "fun" will also be referred to as the "fun factor".
感情特定規則は、喜び規則、怒り規則、悲しみ規則および楽しみ規則を含む。喜び規則は、感情Kが「喜び」であることを特定するための規則である。怒り規則は、感情Kが「怒り」であることを特定するための規則である。悲しみ規則は、感情Kが「悲しみ」であることを特定するための規則である。楽しみ規則は、感情Kが「楽しみ」であることを特定するための規則である。 Emotion specific rules include joy rules, anger rules, sadness rules and fun rules. The joy rule is a rule for specifying that the feeling K is "joy". The anger rule is a rule for specifying that the emotion K is "anger". The sadness rule is a rule for specifying that the emotion K is "sadness". The enjoyment rule is a rule for specifying that the emotion K is "enjoyment".
以下においては、感情特定部103により特定された、着用状態におけるユーザーU1の感情Kを、「特定感情」ともいう。感情特定部103は、特定感情を画像生成部104に通知する。
Hereinafter, the emotion K of the user U1 in the worn state, which is specified by the
また、以下においては、特定感情に対応する画像を、「感情画像G1」または「感情画像」ともいう。すなわち、感情画像G1は、特定感情を表現する画像である。感情画像G1は、例えば、喜怒哀楽に基づいた画像である。すなわち、感情画像G1は、例えば、「喜び」、「怒り」、「悲しみ」、「楽しみ」等に対応する画像である。図5は、感情画像の一例を示す図である。 Also, hereinafter, the image corresponding to the specific emotion is also referred to as "emotion image G1" or "emotion image". That is, the emotion image G1 is an image expressing a specific emotion. The emotional image G1 is, for example, an image based on emotions. That is, the emotional image G1 is an image corresponding to, for example, "joy", "anger", "sadness", "fun", and the like. FIG. 5 is a diagram showing an example of an emotion image.
なお、感情特定部103は、感情データに基づいて、ユーザーU1の感情の強さを判定する構成としてもよい。当該構成では、感情特定部103は、特定感情と、感情の強さとを、画像生成部104に通知する。
Note that the
画像生成部104は、特定感情に対応する感情画像G1を生成する。画像生成部104は、生成した感情画像G1を、画像処理部106へ送信する。感情画像G1は、例えば、顔の画像、色で表現される画像、マーク等である。
The
以下においては、特定感情である「喜び」に対応する感情画像G1を、「喜び画像」ともいう。喜び画像は、例えば、図5(a)に示される、笑顔を示す感情画像G1である。 Hereinafter, the emotion image G1 corresponding to the specific emotion "joy" is also referred to as a "joy image". The joy image is, for example, an emotion image G1 showing a smile, as shown in FIG. 5(a).
また、喜び画像は、例えば、ピンクで表現される画像である。また、喜び画像は、例えば、マークとしての2重丸で表現される画像である。 A joy image is, for example, an image expressed in pink. A joy image is, for example, an image represented by a double circle as a mark.
また、以下においては、特定感情である「怒り」に対応する感情画像G1を、「怒り画像」ともいう。怒り画像は、例えば、図5(b)に示される、顔の口の形状がへの字状である当該顔を示す感情画像G1である。 Also, hereinafter, the emotion image G1 corresponding to the specific emotion "anger" is also referred to as an "anger image". An angry image is, for example, an emotional image G1 showing a face with a mouth shaped like a letter "C" as shown in FIG. 5(b).
また、怒り画像は、例えば、吊り上がった目および眉を示す顔の画像である。また、怒り画像は、例えば、黒で表現される画像である。 Also, an angry image is, for example, an image of a face showing raised eyes and eyebrows. An angry image is, for example, an image expressed in black.
また、以下においては、特定感情である「悲しみ」に対応する感情画像G1を、「悲しみ画像」ともいう。悲しみ画像は、例えば、図5(c)に示される、涙を流す顔を表現した感情画像G1である。また、悲しみ画像は、例えば、たれ目を示す顔の画像である。また、悲しみ画像は、例えば、灰色で表現される画像である。 Also, hereinafter, the emotion image G1 corresponding to the specific emotion "sorrow" is also referred to as "sorrow image". The sorrow image is, for example, an emotion image G1 expressing a tearful face shown in FIG. 5(c). A sadness image is, for example, an image of a face showing drooping eyes. A sadness image is, for example, an image expressed in gray.
また、以下においては、特定感情である「楽しみ」に対応する感情画像G1を、「楽しみ画像」ともいう。楽しみ画像は、例えば、図5(d)に示される、口を大きくあけて、笑っている表情を表現した顔を示す感情画像G1である。また、楽しみ画像は、例えば、顔の目の形状が半円である当該顔の像である。また、楽しみ画像は、例えば、ピンク、黄色などにより表現される画像である。 Also, hereinafter, the emotion image G1 corresponding to the specific emotion "fun" is also referred to as a "fun image". The amusement image is, for example, an emotion image G1 showing a face with a wide open mouth and a smiling expression, as shown in FIG. 5(d). Also, the pleasure image is, for example, an image of a face whose eyes are semicircular in shape. A fun image is, for example, an image expressed in pink, yellow, or the like.
画像処理部106は、感情画像G1を示す映像の映像信号を生成し、当該映像信号号を表示部107へ送信する。
表示部107は、画像および映像を表示する機能を有する。表示部107は、ディスプレイである。表示部107は、映像信号に基づいて、感情画像G1を表示する。
The
(動作)
次に、画像表示システム500が行う処理(以下、「感情提示制御処理」ともいう)について説明する。図6は、実施の形態1に係る感情提示制御処理のフローチャートである。感情提示制御処理は、感情データ取得対応処理と、感情特定対応処理とを含む。
(motion)
Next, processing performed by the image display system 500 (hereinafter also referred to as “emotion presentation control processing”) will be described. FIG. 6 is a flowchart of emotion presentation control processing according to the first embodiment. Emotion presentation control processing includes emotion data acquisition handling processing and emotion identification handling processing.
感情データ取得対応処理は、マスクユニットM10が行う処理である。感情特定対応処理は、画像表示装置100が行う処理である。ここでは、感情提示制御処理における処理の流れを簡略的に説明し、感情提示制御処理の具体的な例は、後述する。
The emotion data acquisition support process is a process performed by the mask unit M10. The emotion identification handling process is a process performed by the
感情提示制御処理の感情データ取得対応処理では、まず、ステップS11が行われる。ステップS11では、感情データ取得処理が行われる。感情データ取得処理では、マスクユニットM10の感情ユニット20が、1以上の感情データを取得する。具体的には、感情ユニット20に含まれる1以上の検出部が1以上の感情データを取得する。当該1以上の検出部は、振動センサー2、音声検出部3、圧電素子4および温度検出部5の全てまたは一部である。
In the emotion data acquisition handling process of the emotion presentation control process, step S11 is first performed. In step S11, emotion data acquisition processing is performed. In the emotion data acquisition process, the
次に、ステップS12において、感情データ送信処理が行われる。感情データ送信処理では、マスクユニットM10の感情ユニット20が、当該1以上の検出部が取得した1以上の感情データを、通信部6を介して、画像表示装置100へ送信する。すなわち、マスクユニットM10は、当該1以上の検出部が取得した1以上の感情データを、画像表示装置100へ送信する。
Next, in step S12, emotion data transmission processing is performed. In the emotion data transmission process, the
ここで、感情データ取得処理において複数の検出部が、それぞれ、複数の感情データを取得したと仮定する。当該複数の検出部は、振動センサー2、音声検出部3、圧電素子4および温度検出部5の全てまたは一部である。この場合、感情データ送信処理では、マスクユニットM10は、複数の検出部が、それぞれ取得した複数の感情データを、画像表示装置100へ送信する。
Here, it is assumed that a plurality of detection units each acquire a plurality of emotion data in the emotion data acquisition process. The plurality of detection units are all or part of the
感情提示制御処理の感情特定対応処理では、まず、ステップS101が行われる。ステップS101では、感情特定部103が、画像表示装置100が感情データを受信したか否かを判定する。
In the emotion identification handling process of the emotion presentation control process, step S101 is first performed. In step S101, the
画像表示装置100が感情データを受信した場合(ステップS101:Yes)、処理はステップS102へ移行する。一方、画像表示装置100が感情データを受信していない場合(ステップS101:No)、再度、ステップS101が行われる。
When the
ステップS102では、感情特定処理が行われる。感情特定処理では、感情特定部103が、画像表示装置100が受信した1以上の感情データに基づいて、着用状態におけるユーザーU1の感情Kを特定する。具体的には、感情特定部103が、1以上の感情データおよび感情特定規則に基づいて、着用状態におけるユーザーU1の感情Kを特定する。
In step S102, emotion identification processing is performed. In the emotion identification process, the
感情特定部103は、着用状態におけるユーザーU1の感情Kを特定した後、特定感情としての、ユーザーU1の感情Kを、画像生成部104に通知する。
After identifying the emotion K of the user U1 in the wearing state, the
次に、ステップS103において、感情画像生成処理が行われる。感情画像生成処理では、画像生成部104が、特定感情としての、ユーザーU1の感情Kに対応する感情画像G1を生成する。画像生成部104は、生成した感情画像G1を、画像処理部106へ送信する。
Next, in step S103, emotion image generation processing is performed. In the emotion image generation process, the
次に、ステップS104において、感情画像表示処理が行われる。感情画像表示処理では、表示部107が感情画像G1を表示する。具体的には、画像処理部106が、感情画像G1を示す映像の映像信号を作成し、当該映像信号号を表示部107へ送信する。表示部107は、映像信号に基づいて、感情画像G1を表示する。以上により、感情提示制御処理が終了する。
Next, in step S104, emotional image display processing is performed. In the emotion image display process, the
(感情提示制御処理の例)
次に、図6の感情提示制御処理の具体的な例について説明する。まず、感情特定規則の喜び規則に基づいて、ユーザーU1の感情Kが「喜び」であることを特定する感情提示制御処理の具体的な例について説明する。ユーザーU1の感情Kが「喜び」である場合、当該ユーザーU1は、例えば、口を水平方向に伸ばして笑顔を作り、笑い声を発すると仮定する。
(Example of emotion presentation control processing)
Next, a specific example of the emotion presentation control process of FIG. 6 will be described. First, a specific example of emotion presentation control processing for specifying that user U1's emotion K is "joy" based on the joy rule of the emotion specifying rule will be described. If the emotion K of the user U1 is "joy", it is assumed that the user U1 stretches his mouth horizontally to make a smile and laugh.
喜び規則では、喜び要素が発生した場合に、感情Kが「喜び」であることを特定することが規定される。喜び要素は、例えば、前述の「水平振動」、および、「笑い声」である。 The joy rule specifies that the emotion K is "joy" if the joy element occurs. Joy elements are, for example, the aforementioned "horizontal vibration" and "laughter".
「水平振動」は、例えば、ユーザーU1の顔F1の口が水平方向に伸びて、当該顔F1が笑顔になる場合に発生する。感情提示制御処理では、着用状態において、顔F1の口が水平方向に伸びた場合、感情ユニット20の振動センサー2は、水平振動を検出し、当該水平振動の振動データを生成する。これにより、振動センサー2は、当該振動データを、感情データとして取得する(ステップS11)。振動センサー2は、当該振動データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。
A “horizontal vibration” occurs, for example, when the mouth of the face F1 of the user U1 extends horizontally and the face F1 smiles. In the emotion presentation control process, when the mouth of the face F1 extends horizontally in the wearing state, the
また、感情提示制御処理では、着用状態においてユーザーU1が笑い声を発した場合、感情ユニット20の音声検出部3は、ユーザー音声としての笑い声を検出する。音声検出部3は、ユーザー音声としての、検出した当該笑い声の音声データを生成し、当該音声データを、感情データとして取得する(ステップS11)。音声検出部3は、音声データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。
Also, in the emotion presentation control process, when the user U1 laughs in the worn state, the voice detection section 3 of the
上記のステップS12により、マスクユニットM10の感情ユニット20は、複数の検出部としての振動センサー2および音声検出部3が、それぞれ取得した複数の感情データを、画像表示装置100へ送信する。
Through step S<b>12 described above, the
次に、画像表示装置100の感情特定部103は、感情特定規則に含まれる喜び規則と、受信した複数の感情データとしての、水平振動の振動データおよび笑い声の音声データとに基づいて、感情Kが「喜び」であることを特定する(ステップS102)。
Next, the
この例では、感情特定部103は、複数の感情データとしての、水平振動の振動データおよび笑い声の音声データにより、「水平振動」および「笑い声」が発生したと認識し、上記の喜び規則に基づいて、感情Kが「喜び」であることを特定する。すなわち、感情特定部103は、画像表示装置100が受信した複数の感情データに基づいて、着用状態におけるユーザーU1の感情Kを特定する。
In this example, the
感情特定部103は、特定感情としての感情Kを画像生成部104に通知する。
The
次に、画像生成部104が、特定感情としての感情K「喜び」に対応する感情画像G1を生成する(ステップS103)。当該感情画像G1は、例えば、図5(a)の感情画像G1である。
Next, the
次に、表示部107が感情画像G1を表示する(ステップS104)。以上の処理により、ユーザーU1の感情Kに対応する感情画像G1が表示される。
Next,
なお、上記のように、感情特定部103が複数の感情データを受信する場合、当該複数の感情データに基づいて、ユーザーU1の喜びの大きさを判定するようにしてもよい。
It should be noted that when the
次に、怒り規則に基づいて、ユーザーU1の感情Kが「怒り」であることを特定する感情提示制御処理の具体的な例について説明する。ユーザーU1の感情Kが「怒り」である場合、例えば、ユーザーU1の息が荒くなり、顔F1の口の形状がヘの字状になり、顔温度が上昇する温度上昇が発生すると仮定する。 Next, a specific example of emotion presentation control processing for specifying that user U1's emotion K is "anger" based on the anger rule will be described. When the emotion K of the user U1 is "anger", for example, it is assumed that the user U1's breath becomes rough, the shape of the mouth of the face F1 becomes an inverted V shape, and the face temperature rises.
怒り規則では、怒り要素が発生した場合に、感情Kが「怒り」であることを特定することが規定される。怒り要素は、例えば、「連続して発生する複数の息圧力」、前述の「鉛直振動」、および、前述の「温度上昇」である。 The anger rule specifies that the emotion K is specified as 'anger' if an anger element occurs. Anger elements are, for example, "a plurality of continuously occurring breath pressures", the above-mentioned "vertical vibration", and the above-mentioned "temperature rise".
「連続して発生する複数の息圧力」は、例えば、ユーザーU1が複数回の強い息を連続的にはいた場合(すなわち、ユーザーU1の息が荒い場合)に発生する。感情提示制御処理では、ユーザーU1が複数回の強い息を連続的に吐いた場合、感情ユニット20の圧電素子4は、当該複数回の強い息に対応する複数の息圧力を、口部圧力として検出する。
The “several breath pressures occurring in succession” occurs, for example, when the user U1 takes multiple strong breaths in succession (that is, when the user U1 breathes heavily). In the emotion presentation control process, when the user U1 continuously exhales a plurality of strong breaths, the piezoelectric element 4 of the
圧電素子4は、単位時間における口部圧力としての息圧力の発生回数、口部圧力の強さ等を示す、口部圧力の圧力データを生成する。圧電素子4は、生成した口部圧力の圧力データを、感情データとして取得する(ステップS11)。圧電素子4は、当該口部圧力の圧力データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。
The piezoelectric element 4 generates pressure data of the mouth pressure, which indicates the number of occurrences of breath pressure as the mouth pressure per unit time, the intensity of the mouth pressure, and the like. The piezoelectric element 4 acquires the generated pressure data of the mouth pressure as emotion data (step S11). The piezoelectric element 4 transmits the emotion data as pressure data of the mouth pressure to the
「鉛直振動」は、例えば、顔F1の口の形状がヘの字状になる場合に発生する。感情提示制御処理では、着用状態においてユーザーU1の顔F1の口の形状がヘの字状になる場合、感情ユニット20の振動センサー2は、鉛直振動を検出し、当該振動センサー2は、検出した鉛直振動の振動データを生成する。これにより、振動センサー2は、鉛直振動の振動データを感情データとして取得する(ステップS11)。振動センサー2は、振動データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。
A “vertical vibration” occurs, for example, when the shape of the mouth of the face F1 becomes an inverted V-shape. In the emotion presentation control process, when the shape of the mouth of the face F1 of the user U1 is in the wearing state, the
「温度上昇」は、例えば、ユーザーU1が、感情として、強い怒りを長時間にわたって有している場合に、発生する。感情提示制御処理では、ユーザーU1が、感情として、強い怒りを長時間にわたって有している場合、感情ユニット20の温度検出部5は、温度上昇を、顔温度として検出する。温度検出部5は、顔温度、温度上昇が発生した旨等を示す温度データを生成する。そして、温度検出部5は、温度データを、感情データとして取得する(ステップS11)。温度検出部5は、温度データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。
"Temperature rise" occurs, for example, when user U1 has strong anger as an emotion for a long period of time. In the emotion presentation control process, when the user U1 has strong anger as an emotion for a long time, the
次に、画像表示装置100の感情特定部103は、感情特定規則に含まれる怒り規則と、受信した複数の感情データとしての、口部圧力の圧力データ、鉛直振動の振動データおよび、温度上昇を示す温度データとに基づいて、感情Kが「怒り」であることを特定する(ステップS102)。
Next, the
この例では、感情特定部103は、口部圧力の圧力データ、鉛直振動の振動データおよび、温度上昇を示す温度データにより、「連続して発生する複数の息圧力」、「鉛直振動」および「温度上昇」が発生したと認識し、上記の怒り規則に基づいて、感情Kが「怒り」であることを特定する。
In this example, the
その後、ステップS103,S104により、表示部107は、例えば、ユーザーU1の感情K「怒り」に対応する、図5(b)の感情画像G1を表示する。
Thereafter, in steps S103 and S104, the
なお、上記のように、感情特定部103が複数の感情データを受信する場合、当該複数の感情データに基づいて、ユーザーU1の怒りの大きさを判定するようにしてもよい。
As described above, when the
次に、悲しみ規則に基づいて、ユーザーU1の感情Kが「悲しみ」であることを特定する感情提示制御処理の具体的な例について説明する。ユーザーU1の感情Kが「悲しみ」である場合、例えば、ユーザーU1はため息をつき、ユーザーU1の呼吸回数が減少し、ユーザーU1が口を尖らすと仮定する。 Next, a specific example of emotion presentation control processing for specifying that user U1's emotion K is "sadness" based on the sadness rule will be described. If user U1's emotion K is "sadness," for example, assume that user U1 sighs, user U1's breathing rate decreases, and user U1 pouts.
悲しみ規則では、悲しみ要素が発生した場合に、感情Kが「悲しみ」であることを特定することが規定される。悲しみ要素は、例えば、「継続的な息圧力」、「単位時間あたりに発生する息圧力の減少」、および、「水平振動および鉛直振動」である。 The sadness rule specifies that emotion K is identified as "sadness" if a sadness element occurs. Sadness factors are, for example, "continuous breath pressure", "decrease in breath pressure occurring per unit time", and "horizontal and vertical vibration".
「継続的な息圧力」は、例えば、ユーザーU1がため息をついた場合に発生する。感情提示制御処理では、ユーザーU1がため息をついた場合、圧電素子4は、ため息に対応する継続的な息圧力を検出する。継続的な息圧力は、例えば、所定時間以上継続する息圧力である。当該所定時間は、例えば、2秒である。 "Continuous breath pressure" occurs, for example, when user U1 sighs. In the emotion presentation control process, when the user U1 sighs, the piezoelectric element 4 detects continuous breath pressure corresponding to the sigh. Continuous breath pressure is, for example, breath pressure that continues for a predetermined time or longer. The predetermined time is, for example, 2 seconds.
圧電素子4は、継続的な息圧力を示す、口部圧力の圧力データを生成する。圧電素子4は、生成した口部圧力の圧力データを、感情データとして取得する(ステップS11)。圧電素子4は、当該口部圧力の圧力データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。
The piezoelectric element 4 produces mouth pressure pressure data indicative of continuous breath pressure. The piezoelectric element 4 acquires the generated pressure data of the mouth pressure as emotion data (step S11). The piezoelectric element 4 transmits the emotion data as pressure data of the mouth pressure to the
「単位時間あたりに発生する息圧力の減少」は、例えば、ユーザーU1の、単位時間あたりにおける呼吸回数が減少した場合に発生する。感情提示制御処理では、単位時間あたりにおける呼吸回数が減少した場合、圧電素子4は、単位時間あたりに発生する息圧力の減少を、口部圧力として検出する。当該検出に応じて、圧電素子4は、息圧力の減少を示す、口部圧力の圧力データを生成し、当該口部圧力の圧力データを、感情データとして取得する(ステップS11)。圧電素子4は、当該口部圧力の圧力データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。
“Decrease in breath pressure occurring per unit time” occurs, for example, when user U1's number of breaths per unit time decreases. In the emotion presentation control process, when the number of breaths per unit time decreases, the piezoelectric element 4 detects the decrease in breath pressure occurring per unit time as the mouth pressure. In response to this detection, the piezoelectric element 4 generates mouth pressure data indicating a decrease in breath pressure, and acquires the mouth pressure data as emotion data (step S11). The piezoelectric element 4 transmits the emotion data as pressure data of the mouth pressure to the
「水平振動および鉛直振動」は、ユーザーU1の口が、水平方向Dr1および鉛直方向Dr2において、縮んだ場合に発生する。感情提示制御処理では、ユーザーU1の口が、水平方向Dr1および鉛直方向Dr2において、縮んだ場合、振動センサー2は、水平振動および鉛直振動の両方を検出する。当該検出に応じて、振動センサー2は、水平振動および鉛直振動の振動データを生成する。これにより、振動センサー2は、当該振動データを、感情データとして取得する(ステップS11)。振動センサー2は、当該振動データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。
"Horizontal and vertical vibration" occurs when user U1's mouth contracts in horizontal direction Dr1 and vertical direction Dr2. In the emotion presentation control process, when the mouth of user U1 shrinks in horizontal direction Dr1 and vertical direction Dr2,
次に、画像表示装置100の感情特定部103は、感情特定規則に含まれる悲しみ規則と、感情データとしての2種類の口部圧力の圧力データ、および、感情データとしての水平振動および鉛直振動の振動データとに基づいて、感情Kが「悲しみ」であることを特定する。その後、ステップS103,S104により、表示部107は、例えば、ユーザーU1の感情K「悲しみ」に対応する、図5(c)の感情画像G1を表示する。
Next, the
なお、上記のように、感情特定部103が複数の感情データを受信する場合、当該複数の感情データに基づいて、ユーザーU1の悲しみの大きさを判定するようにしてもよい。
It should be noted that when the
次に、楽しみ規則に基づいて、ユーザーU1の感情Kが「楽しみ」であることを特定する感情提示制御処理の具体的な例について説明する。ユーザーU1の感情Kが「楽しみ」である場合、例えば、ユーザーU1が発する声のトーンが高くなり、ユーザーU1の会話量が増え、ユーザーU1が頻繁に笑うと仮定する。 Next, a specific example of emotion presentation control processing for specifying that user U1's emotion K is "enjoyment" based on the enjoyment rule will be described. If user U1's emotion K is "fun", for example, it is assumed that user U1 speaks with a higher tone, that user U1 speaks more, and that user U1 laughs frequently.
楽しみ規則では、楽しみ要素が発生した場合に、感情Kが「楽しみ」であることを特定することが規定される。楽しみ要素は、例えば、「高音」、「連続的な複数の声」、「連続して発生する複数の息圧力」、および、「連続して発生する水平振動および鉛直振動」である。 The enjoyment rule specifies that the emotion K is "enjoyment" if the enjoyment element occurs. Fun elements are, for example, "high pitched sounds", "continuous multiple voices", "continuous multiple breath pressures", and "continuous horizontal and vertical vibrations".
「高音」は、例えば、ユーザーU1が発する声のトーンが高くなった場合に発生する。感情提示制御処理では、ユーザーU1が発する声のトーンが高くなった場合、音声検出部3は、ユーザー音声としての高音を検出する。当該検出に応じて、音声検出部3は、ユーザー音声としての高音の音声データを生成し、当該音声データを、感情データとして取得する(ステップS11)。音声検出部3は、音声データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。
A “high tone” occurs, for example, when the tone of voice uttered by the user U1 becomes high. In the emotion presentation control process, when the tone of the voice uttered by the user U1 becomes high, the voice detection unit 3 detects a high-pitched voice as the user's voice. In response to the detection, the voice detection unit 3 generates high-pitched voice data as user voice, and acquires the voice data as emotion data (step S11). The voice detection unit 3 transmits the emotion data as voice data to the
「連続的な複数の声」は、例えば、ユーザーU1の会話量が増えた場合に発生する。感情提示制御処理では、ユーザーU1の会話量が増えた場合、音声検出部3は、ユーザー音声としての連続的な複数の声を検出する。当該検出に応じて、音声検出部3は、ユーザー音声としての連続的な複数の声の音声データを生成し、当該音声データを、感情データとして取得する(ステップS11)。音声検出部3は、音声データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。
“Continuous plural voices” occurs, for example, when the amount of conversation of user U1 increases. In the emotion presentation control process, when the amount of conversation of the user U1 increases, the voice detection unit 3 detects a plurality of continuous voices as user voices. In response to the detection, the voice detection unit 3 generates voice data of a plurality of continuous voices as user voices, and acquires the voice data as emotion data (step S11). The voice detection unit 3 transmits the emotion data as voice data to the
「連続して発生する複数の息圧力」は、例えば、ユーザーU1が頻繁に笑う場合に発生する。感情提示制御処理では、ユーザーU1が頻繁に笑う場合、圧電素子4は、連続して発生する複数の息圧力を検出する。当該検出に応じて、圧電素子4は、連続して発生する複数の息圧力の圧力データを生成し、当該圧力データを、感情データとして取得する(ステップS11)。圧電素子4は、圧力データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。
“Several breath pressures occurring in succession” occurs, for example, when user U1 laughs frequently. In the emotion presentation control process, when the user U1 laughs frequently, the piezoelectric element 4 detects a plurality of continuously occurring breath pressures. In response to the detection, the piezoelectric element 4 generates pressure data of a plurality of continuously occurring breath pressures, and acquires the pressure data as emotion data (step S11). The piezoelectric element 4 transmits emotion data as pressure data to the
「連続して発生する水平振動および鉛直振動」は、ユーザーU1の会話量が増えて、ユーザーU1の口が、水平方向Dr1および鉛直方向Dr2において、頻繁に動く場合に発生する。感情提示制御処理では、ユーザーU1の口が、水平方向Dr1および鉛直方向Dr2において、頻繁に動く場合、振動センサー2は、連続して発生する水平振動および鉛直振動を検出する。当該検出に応じて、振動センサー2は、連続して発生する水平振動および鉛直振動の振動データを生成し、当該振動データを、感情データとして取得する(ステップS11)。振動センサー2は、振動データとしての感情データを、通信部6を介して、画像表示装置100へ送信する(ステップS12)。
“Continuously occurring horizontal and vertical vibrations” occur when the amount of conversation of user U1 increases and user U1's mouth moves frequently in horizontal direction Dr1 and vertical direction Dr2. In the emotion presentation control process, when the mouth of user U1 frequently moves in horizontal direction Dr1 and vertical direction Dr2,
次に、画像表示装置100の感情特定部103は、感情特定規則に含まれる楽しみ規則と、感情データとしての2種類の音声データと、感情データとしての複数の息圧力の圧力データと、水平振動および鉛直振動の振動データとに基づいて、感情Kが「楽しみ」であることを特定する。
Next, the
その後、ステップS103,S104により、表示部107は、例えば、ユーザーU1の感情K「楽しみ」に対応する、図5(d)の感情画像G1を表示する。
Thereafter, in steps S103 and S104, the
なお、上記のように、感情特定部103が複数の感情データを受信する場合、当該複数の感情データに基づいて、ユーザーU1の楽しみの大きさを判定するようにしてもよい。
It should be noted that when the
(感情提示制御処理の別の例)
次に、感情提示制御処理の別の例について説明する。ここで、感情特定規則に含まれる楽しみ規則の楽しみ要素は、例えば、「所定時間以上継続するマスク振動」および「大きなユーザー音声」であるとする。当該所定時間は、例えば、3秒である。「所定時間以上継続するマスク振動」は、例えば、ユーザーU1が笑い声を発した場合に発生する。
(Another example of emotion presentation control processing)
Next, another example of emotion presentation control processing will be described. Here, it is assumed that the enjoyment elements of the enjoyment rule included in the emotion specifying rule are, for example, "mask vibration that continues for a predetermined time or longer" and "loud user voice". The predetermined time is, for example, 3 seconds. “Mask vibration that continues for a predetermined time or longer” occurs, for example, when user U1 laughs.
大きなユーザー音声は、例えば、60デシベル以上の音声である。「大きなユーザー音声」は、例えば、ユーザーU1が笑い声を発した場合に発生する。 A loud user voice is, for example, a voice above 60 decibels. A “loud user voice” occurs, for example, when user U1 laughs.
ユーザーU1が笑い声を発した場合、感情提示制御処理では、感情ユニット20の振動センサー2が、「所定時間以上継続するマスク振動」を検出し、当該マスク振動の振動データを生成する。当該振動データは、マスク振動が発生した旨と、マスク振動が継続した時間としての所定時間以上の継続時間とを示す。
When the user U1 laughs, in the emotion presentation control process, the
これにより、振動センサー2は、当該振動データを、感情データとして取得する(ステップS11)。振動センサー2は、当該振動データとしての感情データを、画像表示装置100へ送信する(ステップS12)。
Thereby, the
また、ユーザーU1が笑い声を発した場合、感情提示制御処理では、感情ユニット20の音声検出部3が、「大きなユーザー音声」を検出し、当該大きなユーザー音声の音声データを生成する。当該音声データは、大きなユーザー音声が発生した旨と、ユーザー音声の大きさとしての60デシベル以上の値とを示す。
Also, when the user U1 laughs, in the emotion presentation control process, the voice detection unit 3 of the
これにより、音声検出部3は、当該音声データを、感情データとして取得する(ステップS11)。音声検出部3は、当該音声データとしての感情データを、画像表示装置100へ送信する(ステップS12)。 Thereby, the voice detection unit 3 acquires the voice data as emotion data (step S11). The voice detection unit 3 transmits the emotion data as the voice data to the image display device 100 (step S12).
上記のステップS12により、マスクユニットM10の感情ユニット20は、複数の検出部としての振動センサー2および音声検出部3が、それぞれ取得した複数の感情データを、画像表示装置100へ送信する。当該複数の感情データは、振動データおよび音声データである。
Through step S<b>12 described above, the
感情特定部103は、感情特定規則に含まれる楽しみ規則と、画像表示装置100が受信した複数の感情データとしての振動データおよび音声データとに基づいて、感情Kが「楽しみ」であることを特定する(ステップS102)。
The
具体的には、ステップS102において、感情特定部103は、受信した感情データとしての振動データにより、「所定時間以上継続するマスク振動」が発生したと認識する。また、ステップS102において、感情特定部103は、受信した感情データとしての音声データにより、「大きなユーザー音声」が発生したと認識する。すなわち、感情特定部103は、「所定時間以上継続するマスク振動」および「大きなユーザー音声」が発生したと認識する。
Specifically, in step S102, the
感情特定部103は、当該認識と、上記の楽しみ要素の発生により感情Kを特定することを規定した楽しみ規則とに基づいて、感情Kが「楽しみ」であることを特定する。前述したように、当該楽しみ規則では、楽しみ要素が発生した場合に、感情Kが「楽しみ」であることを特定することが規定される。
The
すなわち、感情特定部103は、画像表示装置100が受信した複数の感情データに基づいて、着用状態におけるユーザーU1の感情Kを特定する。ステップS102より後の処理は、前述した処理と同様である。
That is, the
次に、感情提示制御処理のさらに別の例について説明する。ここで、感情特定規則に含まれる楽しみ規則の楽しみ要素は、例えば、「所定時間以上継続するマスク振動」および、「所定時間以上維持される高い顔温度」であるとする。当該所定時間は、例えば、10秒である。当該高い顔温度は、例えば、37度以上の温度である。「所定時間以上継続するマスク振動」は、例えば、ユーザーU1が継続的に会話を行う場合に発生する。 Next, still another example of emotion presentation control processing will be described. Here, it is assumed that the pleasure elements of the pleasure rule included in the emotion specifying rule are, for example, "mask vibration that continues for a predetermined time or longer" and "high face temperature that is maintained for a predetermined time or longer". The predetermined time is, for example, 10 seconds. The high face temperature is, for example, 37 degrees or higher. “Mask vibration that continues for a predetermined time or longer” occurs, for example, when user U1 continues to have a conversation.
「所定時間以上維持される高い顔温度」は、顔温度が高い状況が、所定時間以上維持されるということである。「所定時間以上維持される高い顔温度」は、例えば、ユーザーU1が継続的に会話を行う場合に発生する。これは、ユーザーU1がマスクM1を着用した着用状態において、ユーザーU1が継続的に会話を行うと、マスクM1の内面M1b側の温度が上昇するためである。 “High face temperature maintained for a predetermined time or longer” means that a high face temperature is maintained for a predetermined time or longer. “High face temperature maintained for a predetermined time or more” occurs, for example, when user U1 continues to have a conversation. This is because the temperature on the inner surface M1b side of the mask M1 rises when the user U1 continues to talk while the user U1 is wearing the mask M1.
ユーザーU1が継続的に会話を行う場合、感情提示制御処理では、感情ユニット20の振動センサー2が、「所定時間以上継続するマスク振動」を検出し、当該マスク振動の振動データを生成する。当該振動データは、マスク振動が発生した旨と、マスク振動が継続した時間としての所定時間以上の継続時間とを示す。当該所定時間は、例えば、10秒である。
When the user U1 continuously converses, in the emotion presentation control process, the
これにより、振動センサー2は、当該振動データを、感情データとして取得する(ステップS11)。振動センサー2は、当該振動データとしての感情データを、画像表示装置100へ送信する(ステップS12)。
Thereby, the
また、ユーザーU1が継続的に会話を行う場合、感情提示制御処理では、感情ユニット20の温度検出部5が、「所定時間以上維持される高い顔温度」を検出し、当該高い顔温度の温度データを生成する。当該温度データは、高い顔温度と、高い顔温度が維持された時間である、所定時間以上の維持時間とを示す。当該所定時間は、例えば、10秒である。
Further, when the user U1 continues to have a conversation, in the emotion presentation control process, the
これにより、温度検出部5は、当該温度データを、感情データとして取得する(ステップS11)。温度検出部5は、当該温度データとしての感情データを、画像表示装置100へ送信する(ステップS12)。
Thereby, the
上記のステップS12により、マスクユニットM10の感情ユニット20は、複数の検出部としての振動センサー2および温度検出部5が、それぞれ取得した複数の感情データを、画像表示装置100へ送信する。当該複数の感情データは、振動データおよび温度データである。
Through step S<b>12 described above, the
感情特定部103は、感情特定規則に含まれる楽しみ規則と、画像表示装置100が受信した複数の感情データとしての振動データおよび温度データとに基づいて、感情Kが「楽しみ」であることを特定する(ステップS102)。
The
具体的には、ステップS102において、感情特定部103は、受信した感情データとしての振動データにより、「所定時間以上継続するマスク振動」が発生したと認識する。また、ステップS102において、感情特定部103は、受信した感情データとしての温度データにより、「所定時間以上維持される高い顔温度」が発生したと認識する。すなわち、感情特定部103は、「所定時間以上継続するマスク振動」および「所定時間以上維持される高い顔温度」が発生したと認識する。
Specifically, in step S102, the
感情特定部103は、当該認識と、上記の楽しみ要素の発生により感情Kを特定することを規定した楽しみ規則とに基づいて、感情Kが「楽しみ」であることを特定する。すなわち、感情特定部103は、画像表示装置100が受信した複数の感情データに基づいて、着用状態におけるユーザーU1の感情Kを特定する。ステップS102より後の処理は、前述した処理と同様である。
The
(1つの検出部を使用した感情提示制御処理の例)
上記の感情提示制御処理では、感情ユニット20が、複数の検出部を有する状況における処理の具体的な例を説明した。ここで、感情ユニット20が、1つの検出部を有する構成(以下、「構成C1」)ともいう)における感情提示制御処理の具体的な例について説明する。
(Example of emotion presentation control processing using one detection unit)
In the emotion presentation control process described above, a specific example of the process in which the
以下においては、構成C1における1つの検出部が振動センサー2である構成を、「構成C1a」ともいう。また、以下においては、構成C1における1つの検出部が音声検出部3である構成を、「構成C1b」ともいう。また、以下においては、構成C1における1つの検出部が圧電素子4である構成を、「構成C1c」ともいう。また、以下においては、構成C1における1つの検出部が温度検出部5である構成を、「構成C1d」ともいう。
Hereinafter, the configuration in which one detection unit in the configuration C1 is the
まず、1つの検出部が振動センサー2である構成C1aにおける感情提示制御処理の具体的な例について説明する。ここで、構成C1aにおいて、感情特定規則に含まれる楽しみ規則の楽しみ要素は、例えば、「所定時間以上継続するマスク振動」であるとする。当該所定時間は、例えば、3秒である。「所定時間以上継続するマスク振動」は、例えば、ユーザーU1が笑い声を発した場合に発生する。
First, a specific example of the emotion presentation control process in the configuration C1a in which one detection unit is the
ユーザーU1が笑い声を発した場合、感情提示制御処理では、感情ユニット20の振動センサー2が、「所定時間以上継続するマスク振動」を検出し、当該マスク振動の振動データを生成する。当該振動データは、マスク振動が発生した旨と、マスク振動が継続した時間としての所定時間以上の継続時間とを示す。
When the user U1 laughs, in the emotion presentation control process, the
これにより、振動センサー2は、当該振動データを、感情データとして取得する(ステップS11)。振動センサー2は、当該振動データとしての感情データを、画像表示装置100へ送信する(ステップS12)。
Thereby, the
感情特定部103は、感情特定規則に含まれる楽しみ規則と、画像表示装置100が受信した感情データとしての振動データとに基づいて、感情Kが「楽しみ」であることを特定する(ステップS102)。具体的には、ステップS102において、感情特定部103は、受信した感情データとしての振動データにより、「所定時間以上継続するマスク振動」が発生したと認識する。感情特定部103は、当該認識と、上記の楽しみ要素の発生により感情Kを特定することを規定した楽しみ規則とに基づいて、感情Kが「楽しみ」であることを特定する。ステップS102より後の処理は、前述した処理と同様である。
The
次に、1つの検出部が音声検出部3である構成C1bにおける感情提示制御処理の具体的な例について説明する。ここで、構成C1bにおいて、感情特定規則に含まれる楽しみ規則の楽しみ要素は、例えば、前述の「大きなユーザー音声」であるとする。大きなユーザー音声は、例えば、60デシベル以上の音声である。「大きなユーザー音声」は、例えば、ユーザーU1が笑い声を発した場合に発生する。 Next, a specific example of the emotion presentation control process in the configuration C1b in which one detector is the voice detector 3 will be described. Here, in configuration C1b, it is assumed that the enjoyment element of the enjoyment rule included in the emotion specifying rule is, for example, the aforementioned "loud user voice". A loud user voice is, for example, a voice above 60 decibels. A “loud user voice” occurs, for example, when user U1 laughs.
ユーザーU1が笑い声を発した場合、感情提示制御処理では、感情ユニット20の音声検出部3が、「大きなユーザー音声」を検出し、当該大きなユーザー音声の音声データを生成する。当該音声データは、大きなユーザー音声が発生した旨と、ユーザー音声の大きさとしての60デシベル以上の値とを示す。
When the user U1 laughs, in the emotion presentation control process, the voice detection unit 3 of the
これにより、音声検出部3は、当該音声データを、感情データとして取得する(ステップS11)。音声検出部3は、当該音声データとしての感情データを、画像表示装置100へ送信する(ステップS12)。 Thereby, the voice detection unit 3 acquires the voice data as emotion data (step S11). The voice detection unit 3 transmits the emotion data as the voice data to the image display device 100 (step S12).
感情特定部103は、感情特定規則に含まれる楽しみ規則と、画像表示装置100が受信した感情データとしての音声データとに基づいて、感情Kが「楽しみ」であることを特定する(ステップS102)。具体的には、ステップS102において、感情特定部103は、受信した感情データとしての音声データにより、「大きなユーザー音声」が発生したと認識する。感情特定部103は、当該認識と、上記の楽しみ要素の発生により感情Kを特定することを規定した楽しみ規則とに基づいて、感情Kが「楽しみ」であることを特定する。ステップS102より後の処理は、前述した処理と同様である。
The
次に、1つの検出部が圧電素子4である構成C1cにおける感情提示制御処理の具体的な例について説明する。ここで、構成C1cにおいて、感情特定規則に含まれる悲しみ規則の悲しみ要素は、例えば、「所定時間以上継続する口部圧力」であるとする。当該所定時間は、例えば、2秒である。所定時間以上継続する口部圧力は、継続的な息圧力である。「所定時間以上継続する口部圧力」は、例えば、ユーザーU1がため息をついた場合に発生する。 Next, a specific example of the emotion presentation control process in the configuration C1c in which one detection unit is the piezoelectric element 4 will be described. Here, in configuration C1c, it is assumed that the sadness element of the sadness rule included in the emotion specifying rule is, for example, "mouth pressure that continues for a predetermined time or longer". The predetermined time is, for example, 2 seconds. A mouth pressure that lasts longer than a predetermined time is a continuous breath pressure. “Mouth pressure that continues for a predetermined time or longer” occurs, for example, when user U1 sighs.
ユーザーU1がため息をついた場合、感情提示制御処理では、感情ユニット20の圧電素子4が、「所定時間以上継続する口部圧力」を検出し、当該口部圧力の圧力データを生成する。当該圧力データは、息圧力としての口部圧力が発生した旨と、口部圧力が継続した時間としての所定時間以上の継続時間とを示す。当該継続時間は、例えば、2秒である。
When the user U1 sighs, in the emotion presentation control process, the piezoelectric element 4 of the
これにより、圧電素子4は、当該圧力データを、感情データとして取得する(ステップS11)。圧電素子4は、当該圧力データとしての感情データを、画像表示装置100へ送信する(ステップS12)。 As a result, the piezoelectric element 4 acquires the pressure data as emotion data (step S11). The piezoelectric element 4 transmits the emotion data as the pressure data to the image display device 100 (step S12).
感情特定部103は、感情特定規則に含まれる悲しみ規則と、画像表示装置100が受信した感情データとしての圧力データとに基づいて、感情Kが「悲しみ」であることを特定する(ステップS102)。具体的には、ステップS102において、感情特定部103は、受信した感情データとしての圧力データにより、「所定時間以上継続する口部圧力」が発生したと認識する。感情特定部103は、当該認識と、上記の悲しみ要素の発生により感情Kを特定することを規定した悲しみ規則とに基づいて、感情Kが「悲しみ」であることを特定する。前述したように、当該悲しみ規則では、悲しみ要素が発生した場合に、感情Kが「悲しみ」であることを特定することが規定される。ステップS102より後の処理は、前述した処理と同様である。
The
次に、1つの検出部が温度検出部5である構成C1dにおける感情提示制御処理の具体的な例について説明する。ここで、構成C1dにおいて、感情特定規則に含まれる楽しみ規則の楽しみ要素は、例えば、「所定時間以上維持される高い顔温度」であるとする。当該所定時間は、例えば、10秒である。当該高い顔温度は、例えば、37度以上の温度である。「所定時間以上維持される高い顔温度」は、顔温度が高い状況が、所定時間以上維持されるということである。「所定時間以上維持される高い顔温度」は、例えば、ユーザーU1が継続的に会話を行う場合に発生する。これは、ユーザーU1がマスクM1を着用した着用状態において、ユーザーU1が継続的に会話を行うと、マスクM1の内面M1b側の温度が上昇するためである。
Next, a specific example of the emotion presentation control process in the configuration C1d in which one detector is the
ユーザーU1が継続的に会話を行う場合、感情提示制御処理では、感情ユニット20の温度検出部5が、「所定時間以上維持される高い顔温度」を検出し、当該高い顔温度の温度データを生成する。当該温度データは、高い顔温度と、高い顔温度が維持された時間である、所定時間以上の維持時間とを示す。当該所定時間は、例えば、10秒である。
When the user U1 continues to have a conversation, in the emotion presentation control process, the
これにより、温度検出部5は、当該温度データを、感情データとして取得する(ステップS11)。温度検出部5は、当該温度データとしての感情データを、画像表示装置100へ送信する(ステップS12)。
Thereby, the
感情特定部103は、感情特定規則に含まれる楽しみ規則と、画像表示装置100が受信した感情データとしての温度データとに基づいて、感情Kが「楽しみ」であることを特定する(ステップS102)。具体的には、ステップS102において、感情特定部103は、受信した感情データとしての温度データにより、「所定時間以上維持される高い顔温度」が発生したと認識する。感情特定部103は、当該認識と、上記の楽しみ要素の発生により感情Kを特定することを規定した楽しみ規則とに基づいて、感情Kが「楽しみ」であることを特定する。ステップS102より後の処理は、前述した処理と同様である。
(効果)
以上説明したように、本実施の形態によれば、マスクユニットM10の状態には、ユーザーU1が当該マスクユニットM10を着用した状態である着用状態が存在する。マスクユニットM10は、着用状態において、ユーザーU1の顔F1の下部を覆うマスクM1を備える。着用状態は、ユーザーU1がマスクM1を着用した状態である。感情ユニット20は、着用状態におけるユーザーU1の感情Kを特定するための、少なくとも1つの感情データを取得する。マスクユニットM10は、少なくとも1つの感情データを、画像表示装置100へ送信する。感情特定部103は、画像表示装置100が受信した少なくとも1つの感情データに基づいて、着用状態におけるユーザーU1の感情を特定する。表示部107は、感情特定部103により特定された、着用状態におけるユーザーU1の感情Kである特定感情に対応する感情画像G1を表示する。
(effect)
As described above, according to the present embodiment, the state of the mask unit M10 includes a wearing state in which the user U1 wears the mask unit M10. The mask unit M10 includes a mask M1 that covers the lower portion of the face F1 of the user U1 when worn. The wearing state is a state in which the user U1 wears the mask M1. The
これにより、マスクを着用したユーザーの感情を容易に把握することができる。 This makes it possible to easily grasp the emotions of the user wearing the mask.
また、本実施の形態によれば、マスクを着用したユーザーU1の感情を特定し、当該感情に対応する画像を表示することができる。 Further, according to the present embodiment, it is possible to identify the emotion of user U1 wearing a mask and display an image corresponding to the emotion.
また、本実施の形態によれば、感情特定部103は、複数の感情データに基づいて、ユーザーU1の感情Kを特定する。そのため、ユーザーU1の感情Kを正確に特定することができる。
Further, according to the present embodiment,
また、本実施の形態によれば、1つの検出部でも、ユーザーU1の感情Kを特定することができる。 Further, according to the present embodiment, it is possible to specify the emotion K of user U1 even with a single detection unit.
(画像表示装置のハードウエア構成例)
図7および図8の各々は、画像表示装置100のハードウエア構成の例を示す図である。図4に示した画像表示装置100に含まれる、本技術に関わる主要な複数の構成要素の機能は、例えば、図7に示す、処理回路70およびディスプレイ81により実現される。すなわち、画像表示装置100は、本技術に関わる主要な構成要素として、処理回路70およびディスプレイ81を備える。
(Hardware configuration example of image display device)
7 and 8 are diagrams showing examples of the hardware configuration of the
前述したように、マスクユニットM10の感情ユニット20は、ユーザーがマスクを着用した着用状態における当該ユーザーの感情を特定するための、少なくとも1つの感情データを取得する。
As described above, the
処理回路70は、前記少なくとも1つの感情データに基づいて、前記着用状態におけるユーザーの感情を特定する。処理回路70は、感情特定部103に相当する。
ディスプレイ81は、処理回路70により特定された、前記着用状態における前記ユーザーの感情である特定感情に対応する画像を表示する。ディスプレイ81は、表示部107に相当する。
The
処理回路70は、専用のハードウエアであってよい。また、処理回路70は、メモリに格納されるプログラムを実行するプロセッサを用いて構成されていてもよい。当該プロセッサは、例えば、CPU(Central Processing Unit)、中央処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等である。
以下においては、処理回路70が専用のハードウエアである状況を、「状況St1」ともいう。また、以下においては、処理回路70が、プロセッサを用いて構成される状況を、「状況St2」ともいう。
Hereinafter, the situation in which the
状況St1では、処理回路70は、例えば、単一回路、複合回路、プログラム化されたプロセッサ、並列プログラム化されたプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。画像表示装置100に含まれる感情特定部103の機能は、処理回路70で実現される。
In situation St1, the
図8は、処理回路70が、プロセッサを用いて構成される状況St2における、画像表示装置100のハードウエア構成の例を示す図である。図8の構成は、図7の処理回路70を、プロセッサ71およびメモリ72で実現した構成である。
FIG. 8 is a diagram showing an example of the hardware configuration of
状況St2では、感情特定部103の機能は、ソフトウエアAにより実現される。ソフトウエアAは、ソフトウエアまたはファームウエアである。また、ソフトウエアAは、ソフトウエアとファームウエアとの組み合わせで構成されてもよい。ソフトウエアAはプログラムとして記述され、メモリ72に格納される。
In situation St2, software A implements the function of
また、状況St2では、プロセッサ71が、メモリ72に記憶されたプログラムを読み出して、当該プログラムを実行することにより、感情特定部103の機能は実現される。すなわち、メモリ72は、以下のプログラムを格納する。
In situation St2,
当該プログラムは、ユーザーがマスクを着用した着用状態における当該ユーザーの感情を特定するための、少なくとも1つの感情データに基づいて、前記着用状態におけるユーザーの感情を特定する処理を、プロセッサ71に実行させるためのプログラムである。
The program causes the
また、当該プログラムは、感情特定部103が行う処理の手順、当該処理を実行する方法等をコンピュータに実行させるものでもある。
The program also causes a computer to execute the procedure of processing performed by the
ここで、メモリ72は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM、EEPROM等の、不揮発性または揮発性の半導体メモリである。また、メモリ72は、例えば、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等である。また、メモリ72は、今後使用されるあらゆる記憶媒体であってもよい。
Here, the
以上のように、画像表示装置100は、ハードウエア、ソフトウエアA、またはこれらの組み合わせによって、上述の各機能を実現することができる。
As described above, the
また、本技術は、画像表示装置100が備える特徴的な構成部の動作をステップとする感情特定対応方法として実現してもよい。また、本技術は、そのような感情特定対応方法に含まれる各ステップをコンピュータに実行させるプログラムとして実現してもよい。
In addition, the present technology may be implemented as an emotion identification handling method in which operations of characteristic components included in the
また、本技術は、そのようなプログラムを格納するコンピュータ読み取り可能な記録媒体として実現されてもよい。また、当該プログラムは、インターネット等の伝送媒体を介して配信されてもよい。本技術に係る感情特定対応方法は、例えば、図6の右側のフローチャートに相当する。 Also, the present technology may be implemented as a computer-readable recording medium that stores such a program. Also, the program may be distributed via a transmission medium such as the Internet. The emotion identification handling method according to the present technology corresponds to, for example, the flowchart on the right side of FIG.
上記実施の形態で用いた全ての数値は、本技術を具体的に説明するための一例の数値である。すなわち、本技術は、上記実施の形態で用いた各数値に制限されない。 All the numerical values used in the above embodiment are numerical values of an example for specifically describing the present technology. That is, the present technology is not limited to each numerical value used in the above embodiments.
(その他の変形例)
なお、実施の形態を適宜、変形、省略することが可能である。
(Other modifications)
In addition, it is possible to modify or omit the embodiments as appropriate.
例えば、画像表示装置100は、図で示される全ての構成要素を含まなくてもよい。すなわち、画像表示装置100は、本技術の効果を実現できる最小限の構成要素のみを含めばよい。例えば、画像表示装置100が、感情画像G1を生成する画像生成部104を含まない構成としてもよい。当該構成では、例えば、画像処理部106が、予め用意された異なる複数の感情画像から、感情特定部103により特定された、ユーザーの感情である特定感情に対応する画像に対応する感情画像を選択する。表示部107は、選択された感情画像を表示する。
For example,
また、例えば、マスクユニットM10が、画像表示装置100に対し行う通信は、有線通信であってもよい。
Further, for example, the communication performed by the mask unit M10 with the
2,2a,2b,2c,2d 振動センサー、3 音声検出部、4 圧電素子、5 温度検出部、6,102 通信部、20 感情ユニット、100 画像表示装置、103 感情特定部、104 画像生成部、107 表示部、500 画像表示システム、M1 マスク、M10 マスクユニット。 2, 2a, 2b, 2c, 2d vibration sensor, 3 sound detection unit, 4 piezoelectric element, 5 temperature detection unit, 6, 102 communication unit, 20 emotion unit, 100 image display device, 103 emotion identification unit, 104 image generation unit , 107 display unit, 500 image display system, M1 mask, M10 mask unit.
Claims (8)
前記マスクユニットの状態には、前記ユーザーが当該マスクユニットを着用した状態である着用状態が存在し、
前記マスクユニットは、
前記着用状態において、前記ユーザーの顔の下部を覆うシート状のマスクと、
前記着用状態における前記ユーザーの感情を特定するための、少なくとも1つの感情データを取得する感情ユニットとを備え、
前記着用状態は、前記ユーザーが前記マスクを着用した状態であり、
前記感情ユニットは、前記マスクに設けられており、
前記マスクユニットは、前記少なくとも1つの感情データを、前記画像表示装置へ送信し、
前記画像表示装置は、
前記画像表示装置が受信した前記少なくとも1つの感情データに基づいて、前記着用状態における前記ユーザーの感情を特定する感情特定部と、
前記感情特定部により特定された、前記着用状態における前記ユーザーの感情である特定感情に対応する画像を表示する表示部とを備える、
画像表示システム。 An image display system including an image display device and a mask unit capable of communicating with the image display device and capable of being worn by a user,
The state of the mask unit includes a wearing state in which the user wears the mask unit,
The mask unit is
a sheet-shaped mask that covers the lower part of the user's face in the wearing state;
an emotion unit for obtaining at least one emotion data for identifying the user's emotion in the wearing state;
The wearing state is a state in which the user wears the mask,
The emotion unit is provided on the mask,
the mask unit transmitting the at least one emotion data to the image display device;
The image display device is
an emotion identification unit that identifies the emotion of the user in the wearing state based on the at least one emotion data received by the image display device;
a display unit that displays an image corresponding to the specific emotion, which is the emotion of the user in the wearing state, specified by the emotion specifying unit;
Image display system.
請求項1に記載の画像表示システム。 The mask unit has a function of wirelessly communicating with the image display device,
The image display system according to claim 1.
前記特定感情に対応する画像を生成する画像生成部を備える、
請求項1または2に記載の画像表示システム。 The image display device further comprises
An image generation unit that generates an image corresponding to the specific emotion,
3. The image display system according to claim 1 or 2.
前記1つの検出部は、前記マスクの振動を検出し、検出した当該振動のデータである振動データを、前記感情データとして取得する振動センサーである、
請求項1から3のいずれか1項に記載の画像表示システム。 The emotion unit has one detection unit,
The one detection unit is a vibration sensor that detects vibration of the mask and acquires vibration data, which is data of the detected vibration, as the emotion data.
The image display system according to any one of claims 1 to 3.
前記1つの検出部は、前記ユーザーが発する音声を検出し、検出した当該音声のデータである音声データを、前記感情データとして取得する音声検出部である、
請求項1から3のいずれか1項に記載の画像表示システム。 The emotion unit has one detection unit,
The one detection unit is a voice detection unit that detects a voice uttered by the user and acquires voice data, which is data of the detected voice, as the emotion data.
The image display system according to any one of claims 1 to 3.
前記1つの検出部は、圧電素子であり、
前記圧電素子は、前記ユーザーの顔の動きにより当該圧電素子に加わる圧力を検出し、検出した当該圧力のデータである圧力データを、前記感情データとして取得する、
請求項1から3のいずれか1項に記載の画像表示システム。 The emotion unit has one detection unit,
The one detection unit is a piezoelectric element,
The piezoelectric element detects pressure applied to the piezoelectric element by movement of the user's face, and acquires pressure data, which is data of the detected pressure, as the emotion data.
The image display system according to any one of claims 1 to 3.
前記1つの検出部は、前記ユーザーの顔の温度を検出し、検出した当該温度のデータである温度データを、前記感情データとして取得する温度検出部である、
請求項1から3のいずれか1項に記載の画像表示システム。 The emotion unit has one detection unit,
The one detection unit is a temperature detection unit that detects the temperature of the user's face and acquires temperature data, which is data of the detected temperature, as the emotion data.
The image display system according to any one of claims 1 to 3.
前記複数の検出部は、構成要素としての振動センサー、構成要素としての音声検出部、構成要素としての圧電素子、および、構成要素としての温度検出部のうち、2つ以上の構成要素から構成され、
前記振動センサーは、前記マスクの振動を検出し、検出した当該振動のデータである振動データを、前記感情データとして取得し、
前記音声検出部は、前記ユーザーが発する音声を検出し、検出した当該音声のデータである音声データを、前記感情データとして取得し、
前記圧電素子は、前記ユーザーの顔の動きにより当該圧電素子に加わる圧力を検出し、検出した当該圧力のデータである圧力データを、前記感情データとして取得し、
前記温度検出部は、前記ユーザーの顔の温度を検出し、検出した当該温度のデータである温度データを、前記感情データとして取得し、
前記マスクユニットは、前記複数の検出部が、それぞれ取得した複数の前記感情データを、前記画像表示装置へ送信し、
前記感情特定部は、前記画像表示装置が受信した前記複数の感情データに基づいて、前記着用状態における前記ユーザーの感情を特定する、
請求項1から3のいずれか1項に記載の画像表示システム。 The emotion unit has a plurality of detection units,
The plurality of detection units are composed of two or more components selected from a vibration sensor as a component, an audio detection unit as a component, a piezoelectric element as a component, and a temperature detection unit as a component. ,
The vibration sensor detects vibration of the mask, acquires vibration data, which is data of the detected vibration, as the emotion data,
The voice detection unit detects a voice uttered by the user, acquires voice data, which is data of the detected voice, as the emotion data,
the piezoelectric element detects pressure applied to the piezoelectric element due to movement of the user's face, and acquires pressure data, which is data of the detected pressure, as the emotion data;
The temperature detection unit detects the temperature of the user's face, acquires temperature data, which is data of the detected temperature, as the emotion data,
wherein the mask unit transmits the plurality of emotion data respectively acquired by the plurality of detection units to the image display device;
The emotion identification unit identifies the user's emotion in the wearing state based on the plurality of emotion data received by the image display device.
The image display system according to any one of claims 1 to 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021020616A JP2022123355A (en) | 2021-02-12 | 2021-02-12 | image display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021020616A JP2022123355A (en) | 2021-02-12 | 2021-02-12 | image display system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022123355A true JP2022123355A (en) | 2022-08-24 |
Family
ID=82940148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021020616A Pending JP2022123355A (en) | 2021-02-12 | 2021-02-12 | image display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022123355A (en) |
-
2021
- 2021-02-12 JP JP2021020616A patent/JP2022123355A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6391465B2 (en) | Wearable terminal device and program | |
JP6751536B2 (en) | Equipment, robots, methods, and programs | |
KR102658445B1 (en) | Voice affect modification | |
Ando et al. | Canalsense: Face-related movement recognition system based on sensing air pressure in ear canals | |
JP4481682B2 (en) | Information processing apparatus and control method thereof | |
KR20240011874A (en) | Directing live entertainment using biometric sensor data for detection of neurological state | |
JP6580497B2 (en) | Apparatus, device, program and method for identifying facial expression with high accuracy using myoelectric signal | |
US11974619B2 (en) | Smart article visual communication based on facial movement | |
JP6969554B2 (en) | Information processing systems, recording media, information processing methods, and programs | |
JP5574407B2 (en) | Facial motion estimation apparatus and facial motion estimation method | |
JP7066115B2 (en) | Public speaking support device and program | |
US11782676B2 (en) | Multi-modal input capture and output presentation system for enhancing communications using face coverings | |
KR20140032651A (en) | Method for emotion feedback service and smart device using the same | |
JP2022123355A (en) | image display system | |
US20230095350A1 (en) | Focus group apparatus and system | |
WO2022065446A1 (en) | Feeling determination device, feeling determination method, and feeling determination program | |
JP2018098761A (en) | Signal processing device | |
US11543884B2 (en) | Headset signals to determine emotional states | |
KR20230064011A (en) | Analysis system of circumstantial judgement based on voice with image pattern and operating method thereof | |
JP7405357B2 (en) | Elderly person monitoring system | |
WO2023037749A1 (en) | Evaluation method, evaluation system, and program | |
KR102361994B1 (en) | Battle game system | |
US20210186339A1 (en) | Monitoring system for monitoring a patient and method for operating the monitoring system | |
JP7399740B2 (en) | Communication robot, control program and control method | |
JP2019107067A (en) | Biological signal processing device for determining biological signal generation using representative of acceleration component, program and method |