JP2021173868A - Voice output system, environment control system and voice output method - Google Patents
Voice output system, environment control system and voice output method Download PDFInfo
- Publication number
- JP2021173868A JP2021173868A JP2020077642A JP2020077642A JP2021173868A JP 2021173868 A JP2021173868 A JP 2021173868A JP 2020077642 A JP2020077642 A JP 2020077642A JP 2020077642 A JP2020077642 A JP 2020077642A JP 2021173868 A JP2021173868 A JP 2021173868A
- Authority
- JP
- Japan
- Prior art keywords
- laughter
- user
- laughing
- speaker
- voice output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 26
- 230000029058 respiratory gaseous exchange Effects 0.000 claims abstract description 20
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 claims description 64
- 229910052760 oxygen Inorganic materials 0.000 claims description 64
- 239000001301 oxygen Substances 0.000 claims description 64
- 230000007613 environmental effect Effects 0.000 claims description 49
- 238000001514 detection method Methods 0.000 claims description 12
- 206010021079 Hypopnoea Diseases 0.000 claims description 3
- 208000037656 Respiratory Sounds Diseases 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 description 16
- 230000001939 inductive effect Effects 0.000 description 12
- 230000002708 enhancing effect Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000010352 nasal breathing Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000010191 image analysis Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 230000001020 rhythmical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003187 abdominal effect Effects 0.000 description 1
- 239000004566 building material Substances 0.000 description 1
- 230000001055 chewing effect Effects 0.000 description 1
- 239000004035 construction material Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
Images
Abstract
Description
本発明は、音声出力システム、環境制御システム、及び、音声出力方法に関する。 The present invention relates to an audio output system, an environmental control system, and an audio output method.
近年、ストレスによる体調不調者が増加傾向にある。また、笑うことがストレスの緩和に効果があることが報告されている。そこで、特許文献1には、ユーザにとって好ましい情動を誘発させるために、聴覚刺激として笑い声を用いる刺激誘発装置が開示されている。
In recent years, the number of people who are in poor physical condition due to stress has been increasing. It has also been reported that laughing is effective in relieving stress. Therefore,
しかしながら、特許文献1に記載の技術では、ユーザに笑いを効果的に誘発することができない。
However, the technique described in
そこで、本発明は、ユーザに笑いを効果的に誘発することができる音声出力システム、環境制御システム、及び、音声出力方法を提供する。 Therefore, the present invention provides a voice output system, an environmental control system, and a voice output method that can effectively induce laughter to the user.
本発明の一態様に係る音声出力システムは、スピーカを備え、前記スピーカから人の笑い声を出力する音声出力システムであって、前記スピーカは、前記人の笑い声として、(I)声を出さない息使いの笑いを含む呼吸音と、(II)漏れ出た笑い声と、(III)前記(II)及び前記(II)につられて笑う笑い声とをこの順に出力する。 The voice output system according to one aspect of the present invention is a voice output system including a speaker and outputting a person's laughter from the speaker, and the speaker is (I) a breath that does not make a voice as the person's laughter. The breathing sound including the laughter of the messenger, (II) the leaked laughter, and (III) the laughter laughed by the above (II) and (II) are output in this order.
本発明の一態様に係る環境制御システムは、対象空間に前記人の笑い声を出力する請求項1〜7のいずれか1項に記載の音声出力システムと、前記対象空間に存在するユーザを検知する検知部とを備え、前記音声出力システムは、前記検知部が前記対象空間に存在する前記ユーザを検知すると、前記人の笑い声を出力する。
The environmental control system according to one aspect of the present invention detects the voice output system according to any one of
本発明の一態様に係る音声出力方法は、スピーカから人の笑い声を出力する音声出力方法であって、(I)声を出さない笑いであって息使いの笑いである呼吸音と、(II)漏れ出た笑い声と、(III)前記(II)及び前記(II)につられて笑う笑い声とをこの順に出力する。 The voice output method according to one aspect of the present invention is a voice output method for outputting a person's laughter from a speaker, and (I) a breathing sound which is a silent laughter and a breathing laughter, and (II). ) The leaked laughter and (III) the laughter laughed by the above (II) and (II) are output in this order.
本発明の一態様によれば、ユーザに笑いを効果的に誘発することができる音声出力システム、環境制御システム、及び、音声出力方法を実現することができる。 According to one aspect of the present invention, it is possible to realize a voice output system, an environmental control system, and a voice output method that can effectively induce laughter to the user.
(本発明に至った経緯)
特許文献1に記載の刺激誘発装置には、ユーザにとって好ましい情動(例えば、楽しい)を誘発するために、笑い声を出力することが開示されているが、どのような笑い声が出力されるかは開示されていない。ストレスを緩和するにはユーザを笑わすことが効果的であるが、出力される笑い声によっては、ユーザを笑わすことができないことがある。例えば、笑い声としてユーザにいきなり爆笑する音声が出力された場合、ユーザはその笑い声が他人事のように聞こえてしまい、その笑い声に対して共感することができないことが多い。
(Background to the present invention)
The stimulus inducing device described in
よって、ユーザにいきなり爆笑する音声が出力された場合、ユーザを効果的に笑わすことが難しい。なお、共感するとは、スピーカからの笑い声に示される楽しい気持ちを共有することであり、例えば、当該笑い声を聞いたユーザも楽しい気持ちになることである。 Therefore, when a voice that suddenly bursts into laughter is output to the user, it is difficult to effectively laugh at the user. It should be noted that empathy means sharing the pleasant feelings shown by the laughter from the speaker, and for example, the user who hears the laughter also feels happy.
そこで本願発明者らは、ユーザを効果的に笑わすことができる音声(笑い声)について鋭意検討を行い、以下に説明する音声出力システム、音声出力方法、及び、環境制御システムを創案した。 Therefore, the inventors of the present application have diligently studied a voice (laughter) that can effectively make the user laugh, and devised a voice output system, a voice output method, and an environmental control system described below.
以下、実施の形態について、図面を参照しながら説明する。なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 Hereinafter, embodiments will be described with reference to the drawings. It should be noted that all of the embodiments described below show comprehensive or specific examples. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present disclosure. Further, among the components in the following embodiments, the components not described in the independent claims will be described as arbitrary components.
なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略又は簡略化される場合がある。 It should be noted that each figure is a schematic view and is not necessarily exactly shown. Further, in each figure, substantially the same configuration may be designated by the same reference numerals, and duplicate description may be omitted or simplified.
また、本明細書において、大きいなどの要素間の関係性を示す用語、並びに、数値、および、数値範囲は、厳格な意味のみを表す表現ではなく、実質的に同等な範囲、例えば数%程度の差異をも含むことを意味する表現である。 Further, in the present specification, terms indicating relationships between elements such as large, numerical values, and numerical range are not expressions expressing only strict meanings, but substantially equivalent ranges, for example, about several percent. It is an expression that means that the difference of is also included.
(実施の形態1)
[1−1.環境制御システムの構成]
図1は、本実施の形態に係る環境制御システム1の概要構成を示す図である。図2は、本実施の形態に係る環境制御システム1の機能構成を示すブロック図である。
(Embodiment 1)
[1-1. Configuration of environmental control system]
FIG. 1 is a diagram showing an outline configuration of an
図1に示すように、環境制御システム1は、例えば、建物内にありコミュニケーションなどを行うためのオープンスペースS(コミュニケーションスペース)に設けられ、オープンスペースSに存在するユーザUの笑いを誘発するシステムである。具体的には、環境制御システム1は、聴覚刺激として笑い声を出力することで、オープンスペースSにいるユーザUのつられ笑いを誘発するシステムである。オープンスペースSは、ユーザUが存在する対象空間の一例である。
As shown in FIG. 1, the
なお、対象空間は、オープンスペースSに限定されず、例えば、屋内の空間であればよい。対象空間は、パーソナルブース、仮眠ブース、オフィスのデスク周辺、病院等の待合室などの空間であってもよい。対象空間は、例えば、個室などの狭い空間であってもよい。また、対象空間に存在するユーザUの人数は、特に限定されず、1人であってもよいし、2人以上であってもよい。また、対象空間に存在するユーザは、立っていてもよいし、座っていてもよい。例えば、対象空間が個室などの狭い空間である場合、ユーザは当該空間に1人で座っていてもよい。図1では、ユーザUが2人、着座している場合を図示している。 The target space is not limited to the open space S, and may be, for example, an indoor space. The target space may be a space such as a personal booth, a nap booth, an office desk area, or a waiting room in a hospital or the like. The target space may be a narrow space such as a private room. The number of users U existing in the target space is not particularly limited, and may be one or two or more. Further, the user existing in the target space may be standing or sitting. For example, when the target space is a narrow space such as a private room, the user may sit alone in the space. FIG. 1 illustrates a case where two users U are seated.
また、環境制御システム1は、例えば、建物内にある館内放送により笑い声を出力するシステムであってもよい。この場合、建物内の各フロアが対象空間であり、建物内にいるユーザU全員に対して一斉に笑い声が出力されてもよい。
Further, the
図1及び2に示すように、環境制御システム1は、カメラ10と、音声出力システム20とを備える。音声出力システム20は、制御装置30と、スピーカ40とを備える。なお、環境制御システム1が備えるカメラ10及びスピーカ40の数は特に限定されず、2以上であってもよい。
As shown in FIGS. 1 and 2, the
カメラ10は、オープンスペースSを撮像することで、当該オープンスペースSに存在するユーザUを検知する。カメラ10は、例えば、撮像した画像の画像解析により、当該オープンスペースSに存在するユーザUを検知する。このように、カメラ10は、人感センサとして機能する。また、カメラ10は、音声出力システム20が笑い声を出力しているときに、オープンスペースSに存在するユーザUを撮像することで、当該ユーザUが笑っているか否かを検知する。カメラ10は、例えば、撮像した画像の画像解析により、ユーザUが笑っているか否かを検知する。このように、カメラ10は、ユーザUの笑いに対する状態を検知する状態センサとして機能する。ユーザUの笑いに対する状態は、例えば、ユーザUが笑っているか否かを含み、さらにどの程度笑っているかを含んでいてもよい。カメラ10は、検知部の一例である。
The
カメラ10が設けられる位置は、人感センサ及び状態センサとして機能することができれば特に限定されず、例えば、ユーザUが音声出力システム20からの笑い声を聞く位置周辺に設けられる。図1の例では、カメラ10は、オープンスペースSを構成する壁、天井などの造営材に取り付けられる。カメラ10は、オープンスペースS内のユーザUを検知可能な態様で造営材に取り付けられる。また、カメラ10は、例えば、パーソナルコンピュータ、スマートフォンなどが備えるカメラであってもよい。カメラ10は、固定されていてもよいし、携帯可能であってもよい。
The position where the
なお、人感センサは、カメラ10である例を説明したが、オープンスペースSに存在するユーザUを検知可能であれば、カメラ10に限定されない。人感センサは、例えば、赤外線センサなどであってもよい。また、人感センサは、椅子に設けられた感圧センサであってもよい。また、人感センサは、それらのセンサの組み合わせであってもよい。
Although the motion sensor has been described as an example of the
なお、状態センサは、カメラ10である例を説明したが、ユーザUの笑いに対する状態を検知可能であれば、カメラ10に限定されない。状態センサは、例えば、笑い声を取得するマイクロフォンなどであってもよい。また、状態センサは、それらのセンサの組み合わせであってもよい。
Although the example in which the state sensor is the
音声出力システム20は、ユーザUに笑い声を出力するための情報処理システムである。音声出力システム20は、ユーザUが存在するオープンスペースSに笑い声を出力するための情報処理システムであるとも言える。本実施の形態では、音声出力システム20が出力する笑い声に特徴を有する。音声出力システムは、例えば、カメラ10がオープンスペースSに存在するユーザUを検知すると、当該笑い声を出力する。音声出力システム20は、制御装置30とスピーカ40とを備える。
The
制御装置30は、スピーカ40に出力させる笑い声に関する制御を行う。制御装置30は、例えば、オープンスペースSに存在するユーザUの属性情報に基づいて、当該ユーザUに応じた笑い声をスピーカ40から出力させる。制御装置30は、例えば、サーバ装置により実現され、カメラ10及びスピーカ40と無線通信を行うが、これに限定されない。制御装置30は、取得部31と、選択部32と、制御部33と、記憶部34とを有する。
The
取得部31は、笑い声を聞くユーザU(図1の場合は、オープンスペースSに存在するユーザU)の属性情報を取得する。属性情報は、例えば、ユーザUの性別、年齢、心理状態などの少なくとも1つを含む。心理状態は、例えば、リラックス状態、ストレス状態などである。心理状態は、オープンスペースSにいる時点における心理状態である。また、属性情報は、ユーザUの家族構成、職場環境などに関する情報を含んでいてもよい。
The
取得部31は、例えば、カメラ10から取得した画像の画像解析により、オープンスペースSに存在するユーザUの属性情報を取得してもよい。取得部31は、例えば、ユーザUの表情から心理状態を推定してもよい。また、取得部31は、ユーザUから属性情報に関する入力を受け付ける受付部(図示しない)を介して、ユーザUの属性情報を取得してもよい。取得部31は、例えば、通信インターフェースを含んで構成される。
The
選択部32は、取得部31が取得したユーザUの属性情報に応じて、記憶部34に記憶された複数パターンの笑い声の中から、ユーザUの属性情報に応じた1つの笑い声を選択する。選択部32は、例えば、属性情報と当該属性情報に応じた笑い声とが対応付けられたテーブルを用いて、ユーザUの属性情報に応じた1つの笑い声を選択する。
The
選択部32は、ユーザUの家族構成に関する情報が属性情報に含まれる場合、ユーザUの家族構成に含まれる人に近い人の笑い声を含む笑い声を選択してもよい。選択部32は、例えば、ユーザUに子供がいる場合、子供の笑い声を少なくとも一部に含む笑い声を選択してもよい。これにより、ユーザUは、環境制御システム1から出力される笑い声をより身近に感じることができるので、当該笑い声により共感することが期待できる。例えば、環境制御システム1からの笑い声により、子供と過ごした時間(週末の時間など)を思い出すことで、ユーザUは当該笑い声をより共感することができる。
When the attribute information includes information about the family structure of the user U, the
なお、ユーザUの属性情報は、ユーザUの使用履歴に関する情報を含んでいてもよい。使用履歴に関する情報は、例えば、当該ユーザUが過去に環境制御システム1を利用したときに出力した笑い声と、そのときの当該ユーザUの笑いに対する状態とが対応付けられた情報であってもよい。また、使用履歴に関する情報は、当該笑い声と、当該笑い声に対するユーザUの入力(ストレスが緩和されたことを実感したか否かを示す入力など)とが対応付けられた情報であってもよい。選択部32は、ユーザUに過去に出力した笑い声と当該ユーザUの笑いに対する状態とが対応付けられた情報に基づいて、複数パターンの笑い声の中からユーザUの好みの笑い声を1つ選択してもよい。ユーザUの好みの笑い声とは、ユーザUが共感しやすい笑い声、つまりユーザUが身近に感じることができる親和性の高い笑い声なである。ユーザUの好みの笑い声は、例えば、子供の笑い声、老人の笑い声、男性の笑い声、女性の笑い声、共感しやすい声の大きさ又はリズムの笑い声などである。
The attribute information of the user U may include information regarding the usage history of the user U. The information regarding the usage history may be, for example, information in which the laughter output when the user U has used the
また、選択部32は、ユーザUの性別、年齢、心理状態などの少なくとも1つ、及び、ユーザUの使用履歴の両方に応じて、複数パターンの笑い声の中から1つの笑い声を選択してもよい。
Further, the
制御部33は、音声出力システム20の各構成部を制御する。制御部33は、選択部32が選択した笑い声をスピーカ40に出力させる制御を行う。具体的には、制御部33は、選択部32が選択した笑い声を示す出力することを示す制御情報をスピーカ40に出力する。
The
制御部33は、スピーカ40が複数ある場合、選択的にスピーカ40から笑い声を出力させてもよい。制御部33は、例えば、ユーザUに最も近い位置に配置されたスピーカ40から笑い声を出力させてもよい。制御部33は、図1の場合、2つのスピーカ40のうち、ユーザUが座っているテーブルに配置されたスピーカ40のみから笑い声を出力させてもよい。
When there are a plurality of
記憶部34は、制御装置30の各構成部が実行する制御プログラム、及び、複数パターンの笑い声の音源(例えば、図3A〜図3Cを参照)を記憶する記憶装置である。記憶部34は、ユーザUの属性情報と、当該属性情報に対応する笑い声とを対応付けて記憶する。また、記憶部34は、ユーザUにおける環境制御システム1の使用履歴に関する情報を記憶してもよい。また、記憶部34は、ユーザUを特定するための情報を記憶していてもよい。例えば、記憶部34は、ユーザUの顔の画像、又は、ユーザUの顔の特徴量を記憶していてもよい。記憶部34は、半導体メモリなどによって実現される。
The
なお、笑いの音源は制御装置30の記憶部34に記憶されていることに限定されず、スピーカ40の記憶部(図示しない)に記憶されていてもよい。
The sound source of laughter is not limited to being stored in the
ここで、記憶部34に記憶されている複数パターンの笑い声の音源について、図3A〜図3Cを参照しながら説明する。図3Aは、本実施の形態に係るユーザUの性別と音源とが対応付けられた第1のテーブルの一例を示す図である。図3Bは、本実施の形態に係るユーザUの年齢と音源とが対応付けられた第2のテーブルの一例を示す図である。図3Cは、本実施の形態に係るユーザUの心理状態と音源とが対応付けられた第3のテーブルの一例を示す図である。なお、図3A〜図3Cに示す音源は、笑い声の音源(笑い声のデータ)を意味する。また、図3A〜図3Cに示す音源は、予め録音され、記憶部34に記憶されている。
Here, the sound sources of the plurality of patterns of laughter stored in the
図3Aに示すように、ユーザUの属性情報が性別を含む場合、例えば、男性、女性のそれぞれに互いに異なる音源が設定される。選択部32は、オープンスペースSに存在するユーザUが男性である場合、音源Aを選択し、女性である場合、音源Bを選択する。
As shown in FIG. 3A, when the attribute information of the user U includes gender, for example, different sound sources are set for each of male and female. The
図3Bに示すように、ユーザUの属性情報が年齢を含む場合、例えば、年代のそれぞれに互いに異なる音源が設定される。選択部32は、オープンスペースSに存在するユーザUが10代である場合、音源Cを選択し、20代である場合、音源Dを選択し、30代である場合、音源Eを選択する。
As shown in FIG. 3B, when the attribute information of the user U includes an age, for example, different sound sources are set for each of the ages. The
図3Cに示すように、ユーザUの属性情報が心理状態を含む場合、例えば、心理状態のそれぞれに互いに異なる音源が設定される。選択部32は、オープンスペースSに存在するユーザUがリラックス状態である場合、音源Fを選択し、ストレス状態である場合、音源Gを選択する。
As shown in FIG. 3C, when the attribute information of the user U includes a psychological state, for example, different sound sources are set for each of the psychological states. The
図3A〜図3Cに示す属性情報と音源との関係は、予め実験等により取得される。 The relationship between the attribute information shown in FIGS. 3A to 3C and the sound source is acquired in advance by an experiment or the like.
なお、図3A〜図3Cには、属性情報に対して1つの音源が設定されている例について説明したが、これに限定されない。1つの属性情報に対して、複数の音源が設定されていてもよい。選択部32は、例えば、オープンスペースSに存在するユーザUが男性である場合、音源Aを含む2以上の音源を選択し、さらに2以上の音源の中から、ユーザUの使用履歴に関する情報に基づいて、よりユーザUが好む笑い声の音源を1つ選択してもよい。
Although FIGS. 3A to 3C have described an example in which one sound source is set for the attribute information, the present invention is not limited to this. A plurality of sound sources may be set for one attribute information. For example, when the user U existing in the open space S is a male, the
ここで、笑い声の音源の構成について、図4を参照しながら説明する。図4は、本実施の形態に係る環境制御システム1が出力する笑い声の構成を模式的に示す図である。図3A〜図3Cに示す笑い声の音源A〜Gのそれぞれは、図4に示す笑い声の構成を有する。言い換えると、音源A〜Gのそれぞれは、単調な笑い声ではなく、異なる種類(段階)の笑い声を複数含んで構成される。
Here, the configuration of the laughter sound source will be described with reference to FIG. FIG. 4 is a diagram schematically showing a configuration of laughter output by the
図4に示すように、笑い声の音源は、笑いを誘発する期間と、笑いを増幅する期間と、没入感を高める期間とを有する。3つの期間のそれぞれで、互いに異なる笑い声が出力される。また、音源は、笑いを誘発する期間と、笑いを増幅する期間と、没入感を高める期間とをこの順に、切れ間なく構成される。なお、音源は、少なくとも笑いを誘発する期間の笑い声を含んでいればよい。 As shown in FIG. 4, the laughter sound source has a period of inducing laughter, a period of amplifying laughter, and a period of enhancing immersiveness. Different laughter is output in each of the three periods. In addition, the sound source is seamlessly composed of a period for inducing laughter, a period for amplifying laughter, and a period for enhancing immersiveness in this order. The sound source may include at least a laughter during a period of inducing laughter.
笑いを誘発する期間は、笑っていないユーザUを笑う状態とさせるための期間である。つまり、笑いを誘発する期間は、ユーザUに笑いを起こさせるための期間である。笑いを誘発する期間では、ユーザUが思わず笑ってしまうような笑い声が出力される。 The period for inducing laughter is a period for making the non-laughing user U laugh. That is, the period for inducing laughter is a period for causing the user U to laugh. During the period that induces laughter, a laughter that makes the user U laugh unintentionally is output.
笑いを誘発する期間に出力される音声(笑い声)は、(Ia)鼻呼吸で笑う音声と、(Ib)肩で笑う音声と、(II)声を出して笑う音声と、(III)つられて笑う人の音声とをこの順に出力する期間である。(Ia)〜(II)は、1人の人の笑い声であり、かつ、同一人物の笑い声である。なお、(III)つられて笑う音声は、例えば、(II)声を出して笑う音声の後に続く、当該(II)の笑い声を出している人とは異なる人の笑い声である。つまり、(III)は、(II)の後に起こる、他人の笑い声である。(III)の笑い(2人目以降の笑い)は、(II)の笑い(1人目の笑い)によってつられて生じる笑いであるとも言える。 The voices (laughter) output during the period that induces laughter are (Ia) laughing with nasal breathing, (Ib) laughing with shoulders, (II) laughing out loud, and (III) hung. This is the period during which the voice of the laughing person is output in this order. (Ia) to (II) are the laughter of one person and the laughter of the same person. The voice of (III) laughing is, for example, the laughing voice of a person different from the person making the laughing voice of (II), which follows the voice of (II) laughing aloud. That is, (III) is the laughter of others that occurs after (II). It can be said that the laughter of (III) (laughter of the second and subsequent people) is the laughter caused by the laughter of (II) (laughter of the first person).
(Ia)鼻呼吸で笑う音声は、「むふふ」と息がこもるような、息づかいの笑いを含む呼吸音である。鼻呼吸で笑う音声は、弱いリズムの呼吸音である。鼻呼吸で笑う音声は、例えば、横隔膜の振動がリズムとして伝わるような呼吸音である。鼻呼吸で笑う音声は、笑いをこらえている、声を出さずに笑いをかみころしているときの息づかいであってもよい。(Ia)鼻呼吸で笑う音声は、笑い声を含まない。 (Ia) The voice of laughing with nasal breathing is a breathing sound including breathing laughter, which is like "mufufu". The voice of laughing with nasal breathing is a weak rhythmic breathing sound. The voice of laughing with nasal breathing is, for example, a breathing sound in which the vibration of the diaphragm is transmitted as a rhythm. The voice of laughing with nasal breathing may be the breathing of holding back laughter or chewing laughter silently. (Ia) The voice of laughing with nasal breathing does not include laughter.
(Ib)肩で笑う音声は、(Ia)に比べて息づかいが深くなり、かつ、笑い声に低周波成分をより多く含む呼吸音である。(Ib)は、経時的に笑いが増幅されるので、息づかいが徐々に深くなり、かつ、笑い声に含まれる低周波成分が徐々に増える笑い声である。(Ib)は、例えば、浅い呼吸から深い呼吸に経時的に変化し、かつ、低周波成分が経時的に増幅する笑い声(呼吸音)である。(Ib)は、例えば、(Ia)より呼吸が深くなり、かつ、重低音が加わってくるような呼吸音である。なお、低周波成分とは、呼吸音に含まれる低周波の成分を意味し、例えば、100hz以下の成分であるが、これに限定されない。(Ib)肩で笑う音声は、笑い声を含まない。 (Ib) The voice of laughing on the shoulder is a breath sound that breathes deeper than that of (Ia) and contains more low-frequency components in the laughing voice. (Ib) is a laughter in which the laughter is amplified over time, so that the breathing gradually deepens and the low frequency component contained in the laughter gradually increases. (Ib) is, for example, a laughing voice (breathing sound) that changes with time from shallow breathing to deep breathing and the low frequency component is amplified with time. (Ib) is, for example, a breathing sound in which the breathing is deeper than that of (Ia) and a deep bass is added. The low-frequency component means a low-frequency component contained in the breath sound, and is, for example, a component of 100 hz or less, but is not limited to this. (Ib) The voice laughing on the shoulder does not include the laughing voice.
これにより、肩が揺れるほどこもって笑っている体のリズムを、呼吸音でユーザUに伝えることができる。なお、(Ib)肩で笑う音声は、必須ではない。 As a result, the rhythm of the body laughing with a swaying shoulder can be transmitted to the user U by breath sounds. Note that (Ib) the voice of laughing on the shoulder is not essential.
(Ia)及び(Ib)は、(I)声(笑い声)を出さない笑いであって息使いの笑いを含む呼吸音の一例である。(Ia)及び(Ib)は、声を出さずに笑っているときの呼吸音であるとも言える。なお、(Ia)及び(Ib)は、呼吸音であるが、本明細書では、笑い声とも記載する。 (Ia) and (Ib) are examples of breath sounds including (I) non-voiced laughter and breathing laughter. It can be said that (Ia) and (Ib) are breath sounds when laughing silently. Although (Ia) and (Ib) are breath sounds, they are also described as laughing sounds in the present specification.
(II)声を出して笑う音声は、「フハハハ」というような笑いを我慢してきたが思わず笑い声が漏れ出たときの笑い声である。(II)は、漏れ出た笑い声又は吹き出してしまったときの笑い声であるとも言える。つまり、(II)声を出して笑う音声は、笑い声を含む。 (II) The voice of laughing aloud is the voice of laughter when the laughter leaks out in spite of having endured laughter such as "huhahaha". It can be said that (II) is a leaked laughter or a laughter when it blows out. That is, (II) the voice of laughing aloud includes a laughing voice.
(III)つられて笑う人の音声は、(II)声を出して笑う音声に加えて、さらに他の人の笑い声を含む。例えば、(III)は、(II)声を出して笑う音声及び当該(II)声を出して笑う音声につられて笑う笑い声を含む。他の人の笑い声は、例えば、(II)の笑い声を出した人の笑い声につられて笑う人の笑い声である。つまり、(III)つられて笑う人の音声は、複数人の笑い声が含まれる。自分だけでなく、自分の周囲に存在する人も楽しくなっているような様子を連想させる笑い声であるとも言える。 The voice of a person who is laughed at (III) includes the voice of another person in addition to the voice of (II) laughing aloud. For example, (III) includes (II) a voice that laughs aloud and (II) a voice that laughs with a voice that laughs aloud. The laughter of another person is, for example, the laughter of a person who laughs at the laughter of the person who made the laughter of (II). That is, (III) the voice of a person who is laughed at by being hung up includes the laughter of a plurality of people. It can be said that it is a laughter that reminds us that not only ourselves but also the people around us are having fun.
笑いを誘発する期間では、上記の(Ia)、(Ib)、(II)及び(III)の笑い声がこの順に連続して出力される。また、(Ia)、(Ib)、(II)及び(III)のそれぞれの間は、切れ間なく音声が出力される。 During the period for inducing laughter, the above-mentioned laughters (Ia), (Ib), (II) and (III) are continuously output in this order. Further, the sound is output without interruption between each of (Ia), (Ib), (II) and (III).
笑いを誘発する期間の長さは、特に限定されないが、例えば、1分程度である。 The length of the period for inducing laughter is not particularly limited, but is, for example, about 1 minute.
これにより、少なくとも3つ期間(3つのステップ)により、ユーザUにつられ笑いを誘発することができるので、単調な笑い声が出力される場合に比べて、効果的につられ笑いを誘発することができる。 As a result, it is possible to induce laughter by the user U for at least three periods (three steps), so that it is possible to induce laughter more effectively than when a monotonous laughter is output. ..
笑いを増幅する期間は、笑いを誘発する期間で起きたユーザUの笑いを増幅する期間である。笑いを増幅する期間は、(IV)爆笑の音声を出力する期間を含む。 The period for amplifying laughter is the period for amplifying the laughter of the user U that occurs during the period for inducing laughter. The period for amplifying laughter includes (IV) the period for outputting the voice of laughter.
(IV)爆笑の音声は、(III)の後に出力され、(III)で笑っていた複数人の人の笑いがさらに大きくなった爆笑する笑い声である。(IV)爆笑の音声は、例えば、(III)の笑いが大きく(例えば、笑いの音量が大きく)なった笑い声である。(IV)爆笑の音声は、お腹を抱えて笑うような複数人の笑い声を含む。(IV)爆笑の音声は、複数人でしっかり笑う笑い声であるとも言える。 (IV) The laughter voice is output after (III), and is a laughter laughter in which the laughter of multiple people laughing in (III) is further increased. (IV) The voice of laughter is, for example, the laughter of (III) in which the laughter is loud (for example, the volume of laughter is loud). (IV) The voice of laughter includes the laughter of multiple people who are laughing while holding their stomachs. (IV) It can be said that the voice of laughter is a laughter that is laughed firmly by multiple people.
これにより、笑いを増幅する期間で起きたユーザUの笑い(例えば、くすっ、ニヤリといった笑い)を増幅させることができる。 As a result, the laughter of the user U (for example, laughter such as smoldering or grinning) that occurs during the period of amplifying the laughter can be amplified.
没入感を高める期間は、出力される笑い声が現実の笑い声であるとユーザUに感じさせ、笑いへの没入感を高める期間である。没入感を高める期間は、(V)繰り返し笑う音声を出力する期間を含む。 The period for enhancing the immersive feeling is a period for making the user U feel that the output laughter is a real laughter and enhancing the immersive feeling for the laughter. The period for enhancing the immersive feeling includes (V) a period for outputting the voice of repeatedly laughing.
(V)繰り返し笑う音声は、(IV)の後に出力され、(IV)で複数人が爆笑している笑い声が息も絶え絶えする爆笑となる音声である。(V)繰り返し笑う音声は、笑い過ぎて息が続かないことを連想させる笑い声であり、例えば、息を吸う音声又は呼吸が苦しくなる音声を含む爆笑である。単調な爆笑が続くとその爆笑に共感することができなくなるので、ユーザUの笑いを継続させることが難しい。一方、息も絶え絶えする笑いを出力することでより現実に近い笑いを実現することができるので、ユーザUを笑いに没入させることができる。 (V) The repeatedly laughing voice is output after (IV), and the laughing voice of a plurality of people laughing at (IV) becomes a breathless laughter. (V) The voice of repeatedly laughing is a voice reminiscent of laughing too much and not breathing, and is, for example, a burst of laughter including a voice of inhaling or a voice of difficulty in breathing. If the monotonous laughter continues, it becomes impossible to sympathize with the laughter, so it is difficult for the user U to continue laughing. On the other hand, it is possible to realize a laughter that is closer to reality by outputting a laughter that keeps breathing, so that the user U can be immersed in the laughter.
笑いを増幅する期間及び没入感を高める期間の長さは、特に限定されないが、例えば、合計で2分以上であるとよい。つまり、スピーカ40は、(IV)及び(V)を合計して2分以上出力するとよい。これにより、例えば、笑いを誘発する期間においてユーザUにつられ笑いを誘発することができなくても、笑いを増幅する期間及び没入感を高める期間でユーザUを笑わすことができる。これは、2分以上の間、爆笑音を聞くことで、ユーザUは自分が笑うことへの抵抗をあきらめてしまう傾向があるためである。なお、笑いを増幅する期間及び没入感を高める期間の長さは、2分より短くてもよい。また、笑いを増幅する期間及び没入感を高める期間の長さは、笑いを誘発する期間より長くてもよい。
The length of the period for amplifying laughter and the period for enhancing immersive feeling is not particularly limited, but for example, it is preferable that the total period is 2 minutes or more. That is, the
なお、音源は、(Ia)、(Ib)、(II)、(III)、(IV)及び(V)の一連の笑い声が予め録音された音声データである。そのため、(Ia)、(Ib)、(II)、(III)、(IV)及び(V)のそれぞれの音声が出力される期間は、予め設定されている。例えば(Ia)の音声が予め設定された期間出力されると、切れ間なく(Ib)の音声が出力される。言い換えると、(Ia)、(Ib)、(II)、(III)、(IV)及び(V)の一連の笑い声は、例えば、ユーザUからの入力を取得することなく、自動で順次切り替わる。 The sound source is voice data in which a series of laughter voices (Ia), (Ib), (II), (III), (IV) and (V) are recorded in advance. Therefore, the period during which the respective sounds of (Ia), (Ib), (II), (III), (IV) and (V) are output is set in advance. For example, when the sound of (Ia) is output for a preset period, the sound of (Ib) is output without interruption. In other words, the series of laughter of (Ia), (Ib), (II), (III), (IV) and (V) is automatically switched sequentially without acquiring the input from the user U, for example.
なお、(Ia)、(Ib)、(II)、(III)、(IV)及び(V)は、この順に笑いが大きくなる音声であるとも言える。 It can be said that (Ia), (Ib), (II), (III), (IV) and (V) are voices in which laughter increases in this order.
図1及び図2を再び参照して、スピーカ40は、制御部33の制御により、笑い声を出力する出音装置である。スピーカ40は、例えば、オープンスペースSに配置されていてもよいし、ユーザUが所有するパーソナルコンピュータ、スマートフォンなどが備えるスピーカにより実現されてもよい。
With reference to FIGS. 1 and 2 again, the
[1−2.環境制御システムの動作]
続いて、上記の環境制御システム1の動作について、図5を参照しながら説明する。図5は、本実施の形態に係る環境制御システム1の動作を示すフローチャートである。なお、図5に示すステップS102〜S104及びS106は、音声出力システム20が行う動作である。
[1-2. Operation of environmental control system]
Subsequently, the operation of the above-mentioned
図5に示すように、カメラ10(人感センサ)は、ユーザUを検知すると(S101でYes)、ユーザUを検知したことを示す検知結果を制御装置30に出力する。カメラ10は、検知結果とともに、ユーザUを検知したときの画像を制御装置30に出力してもよい。また、カメラ10は、ユーザUを検知しないと(S101でNo)、ステップS101に戻りユーザUを検知するまで待機する。
As shown in FIG. 5, when the camera 10 (presence sensor) detects the user U (Yes in S101), the
なお、ユーザUを検知したか否かの判定は、制御装置30により行われてもよい。この場合、カメラ10は、撮像した画像を制御装置30に出力する。そして、制御装置30は、取得した画像に基づいて、ユーザUがオープンスペースSに存在する否かを判定してもよい。
The
次に、取得部31は、検知結果を取得すると、検知されたユーザUの属性情報を取得する(S102)。取得部31は、ユーザUからの入力により属性情報を取得してもよいし、カメラ10から取得した画像の画像解析に基づいて属性情報を取得してもよい。また、取得部31は、ユーザUを特定するための情報が記憶部34に記憶されている場合、カメラ10から取得した画像の画像解析に基づいてユーザUを特定し、特定したユーザUの属性情報を記憶部34から取得してもよい。取得部31は、取得したユーザUの属性情報を選択部32に出力する。
Next, when the
次に、選択部32は、ユーザUの属性情報に基づいて、複数パターンの笑い声(複数の笑い声の音源)から1つを選択する(S103)。選択部32は、例えば、ユーザUの属性情報と、属性情報及び音源が対応付けられたテーブル(例えば、図3A〜図3Cを参照)とに基づいて、1つの音源を選択する。選択部32は、選択した音源を示す情報を制御部33に出力する。
Next, the
なお、選択部32は、ユーザUが環境制御システム1を利用したことがある場合、ユーザUの属性情報として、ユーザUの使用履歴に関する情報を用いて笑い声を選択し、当該ユーザUが初めて環境制御システム1を利用する場合、ユーザUの属性情報として、ユーザUの入力又は画像に基づいて取得される性別、年齢、心理状態の少なくとも1つを用いて笑い声を選択してもよい。
When the user U has used the
次に、制御部33は、選択部32が選択した笑い声をスピーカ40に出力させる(S104)。制御部33は、例えば、記憶部34から選択部32が選択した笑い声の音源を読み出し、読み出した音源を出力させるための制御情報を生成し、スピーカ40に出力する。制御部33は、予め録音されている笑い声の音源を、スピーカ40を介して再生するとも言える。これにより、スピーカ40から、少なくとも(Ia)、(II)及び(III)の音声を含む笑い声が出力される。
Next, the
なお、ステップS104において、笑い声の出力は、ヘッドフォンなどを介して行われてもよい。これにより、ユーザUは、周囲を気にすることなく、笑い声を聞いて、ストレス発散することができる。 In step S104, the laughter may be output via headphones or the like. As a result, the user U can hear the laughter and release the stress without worrying about the surroundings.
カメラ10は、例えば、スピーカ40が笑い声を出力している期間も、撮像を継続している。
The
次に、カメラ10は、スピーカ40が笑い声を出力している期間のユーザUの状態(ユーザUの笑いに対する状態)を判定する(S105)。カメラ10は、例えば、撮像した画像に基づいて、ユーザUが笑っているか否かを判定する。カメラ10は、ユーザUが笑っているか否かの判定結果を制御装置30に出力する。なお、ステップS105の判定処理は、制御装置30により行われてもよい。
Next, the
制御部33は、カメラ10から取得したユーザUの状態を記憶部34に記憶する(S106)。具体的には、制御部33は、カメラ10から取得した判定結果を、現在出力している音源と対応付けて、当該ユーザUの履歴情報として記憶部34に記憶する。
The
なお、ステップS105及びS106の動作が行われることは、必須ではない。 It is not essential that the operations of steps S105 and S106 are performed.
なお、上記では、ステップS102以降の処理が行われるトリガは、ユーザUを検知したか否かである例について説明したが、これに限定されない。例えば、ユーザUから笑い声の出力を開始することを示す入力を受け付けると、ステップS102以降の処理が行われてもよいし、所定のタイミング(例えば、所定の時刻)になると、ステップS102以降の処理が行われてもよい。 In the above description, an example in which the trigger for which the processing after step S102 is performed is whether or not the user U is detected has been described, but the present invention is not limited to this. For example, when an input indicating that the output of laughter is started is received from the user U, the processing after step S102 may be performed, and at a predetermined timing (for example, a predetermined time), the processing after step S102 is performed. May be done.
[1−3.効果など]
以上のように、本実施の形態に係る音声出力システム20は、スピーカ40を備え、スピーカ40から人の笑い声を出力する音声出力システムである。スピーカ40は、記人の笑い声として、(I)声を出さない息使いの笑いを含む呼吸音と、(II)漏れ出た笑い声と、(III)漏れ出た笑い声及び当該漏れ出た笑い声につられて笑う笑い声とをこの順に出力する。
[1-3. Effects, etc.]
As described above, the
これにより、音声出力システム20は、少なくとも3つの互いに異なる笑い声を出力するので、単調な笑い声が出力される場合に比べて、出力している笑い声に共感させることができる。よって、ユーザUに笑いを効果的に誘発することができる。
As a result, the
図6は、本実施の形態に係る環境制御システム1の効果を説明するための図である。図6に示す縦軸は、こころの活力(ポジティブ)を示しており、縦軸が高いほどストレスが低いことを意味する。また、横軸は、時間を示しており、「入室」はユーザUがオープンスペースSに入室した時点を示し、「退室」はユーザUが当該オープンスペースSを退室した時点を示している。
FIG. 6 is a diagram for explaining the effect of the
図6に示すように、音声出力システム20は、スピーカ40から出力される笑い声を聞かせてユーザUにつられ笑いを起こさせることで、ユーザUをリフレッシュさせて活力をチャージさせる。よって、音声出力システム20は、ユーザUのストレスを効果的に緩和させることができる。
As shown in FIG. 6, the
また、(I)は、浅い呼吸から深い呼吸に経時的に変化し、かつ、低周波成分が経時的に増幅する呼吸音である。 Further, (I) is a respiratory sound that changes with time from shallow breathing to deep breathing and the low frequency component is amplified with time.
これにより、笑いが増幅するように呼吸音が経時的に変化するので、ユーザUはより笑い声に共感しやすくなる。よって、ユーザUに笑いをより効果的に誘発することができる。 As a result, the breath sounds change with time so that the laughter is amplified, so that the user U can more easily sympathize with the laughter. Therefore, it is possible to induce laughter in the user U more effectively.
また、スピーカ40は、(III)の後に、さらに、(IV)当該(III)より大きな笑いで複数人が爆笑する笑い声を出力する。
Further, after (III), the
これにより、(I)〜(III)で生じたユーザUの笑いを効果的に増幅させることができる。 Thereby, the laughter of the user U generated in (I) to (III) can be effectively amplified.
また、スピーカ40は、(IV)の後に、さらに、(V)息も絶え絶え笑う笑い声を出力する。
Further, after (IV), the
これにより、スピーカ40から出力される笑い声を本当の笑い声であるとユーザUに感じさせることができるので、笑うことの没入感を高めることができる。よって、ユーザUに笑いをさらに効果的に誘発することができる。なお、本当の笑い声とは、作り笑いではなく、自然な笑いを意味する。また、単調な爆笑が続くと、ユーザUは作り笑いと感じてしまい、冷めてしまうので、笑いを誘発することができない。
As a result, the user U can feel that the laughter output from the
また、スピーカ40は、(IV)及び(V)を合計して2分以上出力する。
Further, the
これにより、ユーザUが笑うことを我慢していた場合であっても(笑うことに抵抗していた場合であっても)、ユーザUが我慢することを諦めさせて笑わすことができる。よって、出力される笑い声によりユーザUが笑う確実性が増す。 As a result, even if the user U has put up with laughing (even if he has resisted laughing), the user U can give up and laugh. Therefore, the output laughter increases the certainty that the user U laughs.
また、人の笑い声を聞くユーザUの属性情報を取得する取得部31と、取得部31が取得したユーザUの属性情報に応じて、複数パターンの人の笑い声の中から1つの人の笑い声を選択する選択部32と、選択部32が選択した人の笑い声をスピーカ40に出力させる制御部33とを備える。
In addition, the
これにより、ユーザUの属性情報に応じた笑い声が出力されるので、ユーザUに笑いをより一層効果的に誘発することができる。 As a result, a laughter voice corresponding to the attribute information of the user U is output, so that the user U can be induced to laugh more effectively.
また、以上のように、本実施の形態に係る環境制御システム1は、オープンスペースS(対象空間の一例)に人の笑い声を出力する音声出力システム20と、オープンスペースSに存在するユーザUを検知するカメラ10(検知部の一例)とを備える。そして、音声出力システム20は、カメラ10がオープンスペースSに存在するユーザUを検知すると、人の笑い声を出力する。
Further, as described above, the
これにより、環境制御システム1は、対象空間に存在するユーザUが笑いやすい環境を形成することができる。よって、対象空間にいるユーザUに笑いを効果的に誘発することができる。
As a result, the
また、以上のように、本実施の形態に係る音声出力方法は、スピーカ40から人の笑い声を出力する音声出力方法であって、(I)声を出さない笑いであって息使いの笑いを含む呼吸音と、(II)漏れ出た笑い声と、(III)漏れ出た笑い声及び当該漏れ出た笑い声につられて笑う笑い声とをこの順に出力する。また、音声出力方法は、スピーカ40は、(III)の後に、さらに、(IV)当該(III)より大きな笑いで複数人が爆笑する笑い声を出力してもよい。
Further, as described above, the voice output method according to the present embodiment is a voice output method for outputting a person's laughter from the
これにより、上記音声出力システムと同様の効果を奏する。 As a result, the same effect as that of the above-mentioned audio output system is obtained.
(実施の形態2)
[2−1.環境制御システムの構成]
図7は、本実施の形態に係る環境制御システム1aの機能構成を示すブロック図である。本実施の形態に係る環境制御システム1aは、主に酸素供給装置50を備える点、及び、制御装置30が当該酸素供給装置50を制御する点において、実施の形態1に係る環境制御システム1と相違する。以降において、本実施の形態に係る環境制御システム1aについて、実施の形態1に係る環境制御システム1との相違点を中心に説明する。また、実施の形態1に係る環境制御システム1と同一又は類似の構成については、実施の形態1に係る環境制御システム1と同一の符号を付し、説明を省略又は簡略化する。
(Embodiment 2)
[2-1. Configuration of environmental control system]
FIG. 7 is a block diagram showing a functional configuration of the environmental control system 1a according to the present embodiment. The environmental control system 1a according to the present embodiment is different from the
図7に示すように、本実施の形態に係る環境制御システム1aは、実施の形態1に係る環境制御システム1に加えて、酸素供給装置50を備える。
As shown in FIG. 7, the environmental control system 1a according to the present embodiment includes an
酸素供給装置50は、制御部33の制御に基づいて、ユーザUが存在するオープンスペースS(対象空間の一例)に酸素を供給する。酸素供給装置50は、例えば、制御部33の制御に基づいて、スピーカ40から出力される人の笑い声によりユーザUが笑っている期間、ユーザUが笑う前より酸素濃度が高い空気を供給する。酸素供給装置50は、ユーザUが笑っている期間のみ動作するように制御されてもよい。
The
酸素供給装置50は特に限定されることはなく、酸素を供給することができれば公知のいかなる装置が用いられてもよい。酸素供給装置50は、例えば、通過する空気に酸素を供給する装置であってもよい。また、酸素供給装置50は、単独の装置であってもよいし、空気調和機などに備えられていてもよい。酸素供給装置50は、酸素供給部の一例である。
The
酸素供給装置50は、例えば、オープンスペースS内に配置される。つまり、酸素供給装置50は、ユーザUが存在する場所周辺に配置される。
The
制御部33は、実施の形態1の動作に加えて、酸素供給装置50の動作を制御する。以下では、制御部33は、酸素供給装置50の動作の開始及び停止を制御する例について説明するが、これに限定されず、酸素供給量などを制御してもよい。
The
ユーザUは、笑うと腹式呼吸になり、通常の呼吸より多くの酸素を消費する。つまり、ユーザUは、笑うことにより呼吸が深くなり、酸素を取り込む量が増える。そのため、制御部33は、例えば、ユーザUが笑っているときに、効率よく酸素を体内に取り込むことができるように、酸素供給装置50を制御する。具体的には、制御部33は、例えば、ユーザUが笑っているときに、ユーザUの周囲の酸素濃度が笑う前より高くなるように酸素供給装置50を制御する。
When the user U laughs, he / she becomes abdominal breathing and consumes more oxygen than normal breathing. That is, the user U deepens his breathing by laughing and increases the amount of oxygen taken in. Therefore, the
制御部33は、状態センサ(図7の例では、カメラ10)の検知結果に基づいて、酸素供給装置50を制御する。具体的には、制御部33は、検知結果が笑っていることを示す場合、酸素供給装置50を動作させ、検知結果が笑っていないことを示す場合、酸素供給装置50の動作を停止させる。制御部33は、スピーカ40が笑い声を出力しており、かつ、ユーザUが笑っている期間、酸素供給装置50を動作させる。
The
[2−2.環境制御システムの動作]
続いて、上記の環境制御システム1aの動作について、図8を参照しながら説明する。図8は、本実施の形態に係る環境制御システム1aの動作を示すフローチャートである。なお、図8に示すステップS102〜S104、S202、S204及びS205は、音声出力システム20が行う動作である。
[2-2. Operation of environmental control system]
Subsequently, the operation of the above-mentioned environmental control system 1a will be described with reference to FIG. FIG. 8 is a flowchart showing the operation of the environmental control system 1a according to the present embodiment. In addition, steps S102 to S104, S202, S204 and S205 shown in FIG. 8 are operations performed by the
図8に示すように、制御部33が笑い声をスピーカ40に出力させる(S104)と、カメラ10は、スピーカ40が笑い声を出力している期間、ユーザUが笑ったか否かを判定する(S201)。カメラ10は、例えば、撮像した画像に基づいて、ユーザUが笑っているか否かを判定する。カメラ10は、ユーザUが笑っているか否かの判定結果を制御装置30に出力する。
As shown in FIG. 8, when the
次に、制御部33は、カメラ10から取得した判定結果に基づいて、酸素供給装置50の動作を制御する。制御部33は、カメラ10からユーザUが笑っていることを示す判定結果を取得すると(S201でYes)、酸素供給装置50に酸素濃度の高い空気を供給させる(S202)。つまり、制御部33は、酸素供給装置50の動作を開始させる又は酸素供給装置50の動作を継続させる。
Next, the
制御部33は、酸素供給装置50の動作を開始させることで、ユーザUが笑う前よりユーザU周辺の空気の酸素濃度を高くする。なお、酸素供給装置50の動作を開始することは、ユーザUが笑う前より酸素濃度が高い空気を供給することの一例である。また、制御部33は、ステップS201でYesの場合、酸素供給装置50が供給する空気の酸素濃度をより高くするように酸素供給装置50を制御してもよい。
By starting the operation of the
また、制御部33は、カメラ10からユーザUが笑っていないことを示す判定結果を取得すると(S201でNo)、ステップS204に進む。
Further, when the
次に、カメラ10は、スピーカ40が笑い声を出力しており、かつ、酸素供給装置50から酸素濃度の高い空気がオープンスペースSに供給されている期間に、ユーザUの笑いが止まったか否かを判定する(S203)。カメラ10は、例えば、撮像した画像に基づいて、ユーザUの笑いが止まったか否かを判定する。カメラ10は、ユーザUの笑いが止まったか否かの判定結果を制御装置30に出力する。
Next, in the
次に、制御部33は、カメラ10から取得した判定結果に基づいて、酸素供給装置50の動作を制御する。制御部33は、カメラ10からユーザUが笑っていないことを示す判定結果を取得する(S201でNo)、又は、カメラ10からユーザUの笑いが止まったことを示す判定結果を取得すると(S203でYes)、酸素供給装置50に酸素濃度の高い空気の供給を停止させる(S204)。つまり、制御部33は、酸素供給装置50の動作を停止状態に切り替える、又は、酸素供給装置50の動作を停止状態に維持させる。また、制御部33は、カメラ10からユーザUの笑いが止まっていないことを示す判定結果を取得すると(S203でNo)、酸素供給装置50の動作を継続させ、ステップS205に進む。
Next, the
次に、制御部33は、スピーカ40による笑い声の出力が終了したか否かを判定する(S205)。制御部33は、選択部32が選択した音源に基づく笑い声の出力が終了したか否かを判定する。制御部33は、録音された笑い声の出力が終了すると、音源に基づく笑い声の出力が終了したと判定する。
Next, the
次に、制御部33は、笑い声の出力が終了すると(S205でYes)、ステップS106に進み、笑い声の出力が終了していないと(S205でNo)、ステップS201に戻り、ステップS201以降の処理を笑い声の出力が終了するまで継続する。
Next, when the output of the laughter is completed (Yes in S205), the
このように、制御部33は、スピーカ40から出力される人の笑い声によりユーザUが笑っている期間、ユーザUが笑う前より酸素濃度が高い空気を供給するように酸素供給装置50を制御する。
In this way, the
なお、ステップS201及びS203の判定処理は、制御装置30により行われてもよい。
The determination process of steps S201 and S203 may be performed by the
[2−3.効果など]
以上のように、本実施の形態に係る音声出力システム20は、人の笑い声によりユーザUが笑っている期間、ユーザUが笑う前より酸素濃度が高い空気を供給する酸素供給装置50を備える。
[2-3. Effects, etc.]
As described above, the
これにより、ユーザUが笑うことで酸素を多く必要としているときに、例えば、空気中の酸素濃度を高めることができる。つまり、ユーザUは、効率よく酸素を体内に取り組むことができる。よって、ユーザUが笑っている状況を維持しやすくなる。例えば、ユーザUのストレスを効果的に発散させることができる。 As a result, when the user U laughs and needs a large amount of oxygen, for example, the oxygen concentration in the air can be increased. That is, the user U can efficiently work on oxygen in the body. Therefore, it becomes easy to maintain the situation where the user U is laughing. For example, the stress of the user U can be effectively released.
(他の実施の形態)
以上、本発明の1つ又は複数の態様に係る音声出力システム、音声出力方法、及び、環境制御システムについて、各実施の形態(以降において、実施の形態等とも記載する)に基づいて説明したが、本発明は、上記実施の形態等に限定されるものではない。
(Other embodiments)
The audio output system, audio output method, and environmental control system according to one or more aspects of the present invention have been described above based on the respective embodiments (hereinafter, also referred to as embodiments). , The present invention is not limited to the above-described embodiment and the like.
例えば、上記実施の形態等では、(Ia)鼻呼吸で笑う音声、(Ib)肩で笑う音声、(II)声を出して笑う音声、(III)つられて笑う人の音声、(IV)爆笑の音声及び(V)繰り返し笑う音声の6つの音声を出力する例について説明したが、これに限定されない。(Ia)〜(V)までがこの順に含まれていれば、他の笑い声が含まれていてもよい。 For example, in the above-described embodiment, (Ia) nasal breathing voice, (Ib) shoulder laughing voice, (II) aloud laughing voice, (III) laughing person's voice, (IV) laughter An example of outputting six voices of (V) and (V) repeatedly laughing voice has been described, but the present invention is not limited to this. If (Ia) to (V) are included in this order, other laughter may be included.
また、上記実施の形態等では、音源は、(Ia)、(Ib)、(II)、(III)、(IV)及び(V)のそれぞれの期間が予め設定されている例について説明したが、これに限定されない。例えば、ユーザにより(Ia)、(Ib)、(II)、(III)、(IV)及び(V)の少なくとも1つの音声を出力する期間が設定されてもよい。当該設定は、例えば、ユーザから予め取得されてもよい。 Further, in the above-described embodiment and the like, the example in which the respective periods of (Ia), (Ib), (II), (III), (IV) and (V) of the sound source are preset has been described. , Not limited to this. For example, the user may set a period for outputting at least one of (Ia), (Ib), (II), (III), (IV) and (V). The setting may be acquired in advance from the user, for example.
また、上記実施の形態等では、音源は笑い声だけを含む例について説明したが、少なくとも一部に面白いことを連想させる言葉が含まれていてもよい。 Further, in the above-described embodiment and the like, an example in which the sound source includes only laughter has been described, but at least a part of the sound source may include words reminiscent of interesting things.
また、上記実施の形態等では、環境制御システムは、状態センサを備える例について説明したが、これに限定されない。環境制御システムは、例えば、状態センサの代わりに、ユーザから笑っていることを示す操作を受け付ける受付部(図示しない)を備えていてもよい。受付部は、例えば、押しボタン又はタッチパネルなどにより実現される。 Further, in the above-described embodiment and the like, an example in which the environmental control system includes a state sensor has been described, but the present invention is not limited to this. The environmental control system may include, for example, a reception unit (not shown) that accepts an operation indicating that the user is laughing instead of the status sensor. The reception unit is realized by, for example, a push button or a touch panel.
また、上記実施の形態2では、制御部は、ユーザが笑ってから酸素供給装置の動作を開始させる例について説明したが、これに限定されない。制御部は、笑い声の出力と同期して酸素供給装置の動作を制御してもよい。例えば、制御部は、スピーカから笑い声が出力されている期間、酸素供給装置を動作させてもよい。 Further, in the second embodiment, the control unit has described an example in which the operation of the oxygen supply device is started after the user laughs, but the present invention is not limited to this. The control unit may control the operation of the oxygen supply device in synchronization with the output of the laughter. For example, the control unit may operate the oxygen supply device during the period during which the laughter is output from the speaker.
また、上記実施の形態等のフローチャートで説明された処理の順序は、一例である。複数の処理の順序は変更されてもよいし、複数の処理は並行して実行されてもよい。 Further, the order of processing described in the flowchart of the above-described embodiment is an example. The order of the plurality of processes may be changed, and the plurality of processes may be executed in parallel.
また、上記実施の形態等における装置間の通信方法については特に限定されるものではない。装置間では、無線通信が行われてもよいし、有線通信が行われてもよい。また、装置間では、無線通信及び有線通信が組み合わされてもよい。また、上記実施の形態において2つの装置が通信を行う場合、2つの装置間には図示されない中継装置が介在してもよい。 Further, the communication method between the devices in the above-described embodiment and the like is not particularly limited. Wireless communication may be performed or wired communication may be performed between the devices. Further, wireless communication and wired communication may be combined between the devices. Further, when two devices communicate with each other in the above embodiment, a relay device (not shown) may be interposed between the two devices.
また、上記実施の形態等において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 Further, in the above-described embodiment and the like, each component may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
また、各構成要素は、ハードウェアによって実現されてもよい。例えば、各構成要素は、回路(または集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。 In addition, each component may be realized by hardware. For example, each component may be a circuit (or integrated circuit). These circuits may form one circuit as a whole, or may be separate circuits from each other. Further, each of these circuits may be a general-purpose circuit or a dedicated circuit.
また、制御装置は、単一の装置として実現される例について説明したが、複数の装置によって実現されてもよい。制御装置が複数の装置によって実現される場合、制御装置が備える構成要素は、複数の装置にどのように振り分けられてもよい。また、制御装置が備える機能部の少なくとも1つは、カメラ又はスピーカに備えられていてもよい。 Further, although the example in which the control device is realized as a single device has been described, the control device may be realized by a plurality of devices. When the control device is realized by a plurality of devices, the components included in the control device may be distributed to the plurality of devices in any way. Further, at least one of the functional units included in the control device may be provided in the camera or the speaker.
また、本発明の全般的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 In addition, general or specific aspects of the present invention may be realized in a recording medium such as a system, an apparatus, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM. Further, it may be realized by any combination of a system, an apparatus, a method, an integrated circuit, a computer program and a recording medium.
例えば、本発明は、制御装置などのコンピュータによって実行される音声出力方法及び環境制御方法をコンピュータに実行させるためのプログラムとして実現されてもよい。また、音声出力システム又は環境制御システムが汎用の携帯端末として実現される場合、本発明は、汎用の携帯端末を音声出力システム又は環境制御システムとして動作させるために当該携帯端末にインストールされるアプリケーションプログラムとして実現されてもよい。また、本発明は、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。 For example, the present invention may be realized as a program for causing a computer to execute an audio output method and an environment control method executed by a computer such as a control device. Further, when the voice output system or the environmental control system is realized as a general-purpose mobile terminal, the present invention provides an application program installed on the mobile terminal in order to operate the general-purpose mobile terminal as a voice output system or an environmental control system. It may be realized as. Further, the present invention may be realized as a computer-readable non-temporary recording medium in which such a program is recorded.
その他、実施の形態等に対して当業者が思いつく各種変形を施して得られる形態、または、本発明の趣旨を逸脱しない範囲で実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。 In addition, it is realized by subjecting various modifications to the embodiments and the like that can be conceived by those skilled in the art, or by arbitrarily combining the components and functions of the embodiments without departing from the spirit of the present invention. Forms are also included in the present invention.
1、1a 環境制御システム
10 カメラ(検知部)
20 音声出力システム
31 取得部
32 選択部
33 制御部
40 スピーカ
50 酸素供給装置(酸素供給部)
S オープンスペース(対象空間)
U ユーザ
1, 1a
20
S open space (target space)
U user
Claims (10)
前記スピーカは、前記人の笑い声として、
(I)声を出さない息使いの笑いを含む呼吸音と、
(II)漏れ出た笑い声と、
(III)前記(II)及び前記(II)につられて笑う笑い声とをこの順に出力する
音声出力システム。 A voice output system equipped with a speaker and outputting a person's laughter from the speaker.
The speaker is used as the laughter of the person.
(I) Breath sounds, including the laughter of a silent breather,
(II) The leaked laughter and
(III) An audio output system that outputs the laughter laughing according to the (II) and the (II) in this order.
請求項1に記載の音声出力システム。 The voice output system according to claim 1, wherein the (I) is a breath sound that changes with time from shallow breathing to deep breathing and the low frequency component is amplified with time.
(IV)前記(III)より大きな笑いで複数人が爆笑する笑い声を出力する
請求項1又は2に記載の音声出力システム。 The speaker is further described after (III).
(IV) The voice output system according to claim 1 or 2, which outputs a laughter in which a plurality of people burst into laughter with a laughter larger than that in (III).
(V)息も絶え絶え笑う笑い声を出力する
請求項3に記載の音声出力システム。 After the (IV), the speaker further
(V) The voice output system according to claim 3, which outputs a laughing voice that keeps breathing and laughing.
請求項4に記載の音声出力システム。 The audio output system according to claim 4, wherein the speaker outputs (IV) and (V) in total for 2 minutes or more.
前記取得部が取得した前記ユーザの前記属性情報に応じて、複数パターンの前記人の笑い声の中から1つの人の笑い声を選択する選択部と、
前記選択部が選択した前記人の笑い声を前記スピーカに出力させる制御部とを備える
請求項5に記載の音声出力システム。 The acquisition unit that acquires the attribute information of the user who listens to the laughter of the person,
A selection unit that selects one person's laughter from a plurality of patterns of the person's laughter according to the attribute information of the user acquired by the acquisition unit.
The voice output system according to claim 5, further comprising a control unit that outputs the laughter of the person selected by the selection unit to the speaker.
請求項6に記載の音声出力システム。 The voice output system according to claim 6, further comprising an oxygen supply unit that supplies air having a higher oxygen concentration than before the user laughs while the user is laughing due to the laughter of the person.
前記対象空間に存在するユーザを検知する検知部とを備え、
前記音声出力システムは、前記検知部が前記対象空間に存在する前記ユーザを検知すると、前記人の笑い声を出力する
環境制御システム。 The voice output system according to any one of claims 1 to 7, which outputs the laughter of the person to the target space.
It is provided with a detection unit that detects a user existing in the target space.
The voice output system is an environmental control system that outputs the laughter of the person when the detection unit detects the user existing in the target space.
(I)声を出さない笑いであって息使いの笑いである呼吸音と、
(II)漏れ出た笑い声と、
(III)前記(II)及び前記(II)につられて笑う笑い声とをこの順に出力する
音声出力方法。 It is a voice output method that outputs the laughter of people from the speaker.
(I) Breath sounds, which are silent laughter and breathing laughter,
(II) The leaked laughter and
(III) A voice output method for outputting the (II) and the laughter laughing according to the (II) in this order.
(IV)前記(III)より大きな笑いで複数人が爆笑する笑い声を出力する
請求項9に記載の音声出力方法。 After (III) above,
(IV) The voice output method according to claim 9, wherein a laughter in which a plurality of people burst into laughter with a louder laughter than in (III) above is output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020077642A JP7403074B2 (en) | 2020-04-24 | 2020-04-24 | Audio output system, environmental control system, and audio output method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020077642A JP7403074B2 (en) | 2020-04-24 | 2020-04-24 | Audio output system, environmental control system, and audio output method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021173868A true JP2021173868A (en) | 2021-11-01 |
JP7403074B2 JP7403074B2 (en) | 2023-12-22 |
Family
ID=78281698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020077642A Active JP7403074B2 (en) | 2020-04-24 | 2020-04-24 | Audio output system, environmental control system, and audio output method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7403074B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04122279A (en) * | 1990-09-13 | 1992-04-22 | Ooike:Kk | Weeping doll |
JP2008147823A (en) * | 2006-12-07 | 2008-06-26 | Yamaha Corp | Voice conference device, voice conference system, and sound radiation/pickup unit |
JP2014146857A (en) * | 2013-01-25 | 2014-08-14 | I-O Data Device Inc | Content output device, content output method, and program |
KR20150115717A (en) * | 2015-09-30 | 2015-10-14 | 김신우 | Method for output of dog laughter, and recording medium storing program for executing the same |
JP2017212008A (en) * | 2017-08-11 | 2017-11-30 | 国立大学法人 千葉大学 | Laughing promotion program and laughing promotion device |
-
2020
- 2020-04-24 JP JP2020077642A patent/JP7403074B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04122279A (en) * | 1990-09-13 | 1992-04-22 | Ooike:Kk | Weeping doll |
JP2008147823A (en) * | 2006-12-07 | 2008-06-26 | Yamaha Corp | Voice conference device, voice conference system, and sound radiation/pickup unit |
JP2014146857A (en) * | 2013-01-25 | 2014-08-14 | I-O Data Device Inc | Content output device, content output method, and program |
KR20150115717A (en) * | 2015-09-30 | 2015-10-14 | 김신우 | Method for output of dog laughter, and recording medium storing program for executing the same |
JP2017212008A (en) * | 2017-08-11 | 2017-11-30 | 国立大学法人 千葉大学 | Laughing promotion program and laughing promotion device |
Also Published As
Publication number | Publication date |
---|---|
JP7403074B2 (en) | 2023-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6595918B2 (en) | Display system and display device | |
US9779751B2 (en) | Respiratory biofeedback devices, systems, and methods | |
US8979731B2 (en) | Calming device | |
JP2005056205A (en) | Content reproducing device and method | |
JP2019111181A (en) | Game program and game device | |
JP2021128350A (en) | Information processing system, information processing method, and recording medium | |
JP6864831B2 (en) | Robot devices and programs | |
JP2021173868A (en) | Voice output system, environment control system and voice output method | |
JP2005040440A (en) | Sound reproducing device and control method | |
Klich | Of Unsound Mind and Body | |
WO2022244298A1 (en) | Information processing device, information processing method, and program | |
JP6963669B1 (en) | Solution providing system and mobile terminal | |
EP4328928A1 (en) | Method and device for controlling improved cognitive function training app | |
US20230256192A1 (en) | Systems and methods for inducing sleep of a subject | |
JP7329743B2 (en) | Environmental control system | |
May et al. | Designing Access in Sound Art Exhibitions: Centering Deaf Experiences in Musical Thinking | |
JP2021151557A (en) | Game program and game device | |
JP2021171320A (en) | Body condition reproduction method and body condition reproduction system | |
JP2008252356A (en) | Information editing apparatus | |
CN108762710A (en) | Audio system for sauna house | |
JP2019207286A (en) | Behavior inducement support system and program | |
JP2017070342A (en) | Content reproducing device and program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231128 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7403074 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |