JP2021173868A - Voice output system, environment control system and voice output method - Google Patents

Voice output system, environment control system and voice output method Download PDF

Info

Publication number
JP2021173868A
JP2021173868A JP2020077642A JP2020077642A JP2021173868A JP 2021173868 A JP2021173868 A JP 2021173868A JP 2020077642 A JP2020077642 A JP 2020077642A JP 2020077642 A JP2020077642 A JP 2020077642A JP 2021173868 A JP2021173868 A JP 2021173868A
Authority
JP
Japan
Prior art keywords
laughter
user
laughing
speaker
voice output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020077642A
Other languages
Japanese (ja)
Other versions
JP7403074B2 (en
Inventor
香織 安食
Kaori Ajiki
亮 河村
Akira Kawamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020077642A priority Critical patent/JP7403074B2/en
Publication of JP2021173868A publication Critical patent/JP2021173868A/en
Application granted granted Critical
Publication of JP7403074B2 publication Critical patent/JP7403074B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a voice output system capable of effectively letting a user smile.SOLUTION: A voice output system 20 comprises a speaker 40 and outputs person's laughing voice from the speaker 40, which outputs, as person's laughs, (I) breathing sound including a laugh with voiceless breathing, (II) an unforced laugh, and (III) the (II) and a laugh following the (II).SELECTED DRAWING: Figure 2

Description

本発明は、音声出力システム、環境制御システム、及び、音声出力方法に関する。 The present invention relates to an audio output system, an environmental control system, and an audio output method.

近年、ストレスによる体調不調者が増加傾向にある。また、笑うことがストレスの緩和に効果があることが報告されている。そこで、特許文献1には、ユーザにとって好ましい情動を誘発させるために、聴覚刺激として笑い声を用いる刺激誘発装置が開示されている。 In recent years, the number of people who are in poor physical condition due to stress has been increasing. It has also been reported that laughing is effective in relieving stress. Therefore, Patent Document 1 discloses a stimulus inducing device that uses laughter as an auditory stimulus in order to induce an emotion that is favorable to the user.

特開2014−30657号公報Japanese Unexamined Patent Publication No. 2014-30657

しかしながら、特許文献1に記載の技術では、ユーザに笑いを効果的に誘発することができない。 However, the technique described in Patent Document 1 cannot effectively induce laughter in the user.

そこで、本発明は、ユーザに笑いを効果的に誘発することができる音声出力システム、環境制御システム、及び、音声出力方法を提供する。 Therefore, the present invention provides a voice output system, an environmental control system, and a voice output method that can effectively induce laughter to the user.

本発明の一態様に係る音声出力システムは、スピーカを備え、前記スピーカから人の笑い声を出力する音声出力システムであって、前記スピーカは、前記人の笑い声として、(I)声を出さない息使いの笑いを含む呼吸音と、(II)漏れ出た笑い声と、(III)前記(II)及び前記(II)につられて笑う笑い声とをこの順に出力する。 The voice output system according to one aspect of the present invention is a voice output system including a speaker and outputting a person's laughter from the speaker, and the speaker is (I) a breath that does not make a voice as the person's laughter. The breathing sound including the laughter of the messenger, (II) the leaked laughter, and (III) the laughter laughed by the above (II) and (II) are output in this order.

本発明の一態様に係る環境制御システムは、対象空間に前記人の笑い声を出力する請求項1〜7のいずれか1項に記載の音声出力システムと、前記対象空間に存在するユーザを検知する検知部とを備え、前記音声出力システムは、前記検知部が前記対象空間に存在する前記ユーザを検知すると、前記人の笑い声を出力する。 The environmental control system according to one aspect of the present invention detects the voice output system according to any one of claims 1 to 7, which outputs the laughter of the person in the target space, and the user existing in the target space. The voice output system includes a detection unit, and when the detection unit detects the user existing in the target space, the voice output system outputs the laughter of the person.

本発明の一態様に係る音声出力方法は、スピーカから人の笑い声を出力する音声出力方法であって、(I)声を出さない笑いであって息使いの笑いである呼吸音と、(II)漏れ出た笑い声と、(III)前記(II)及び前記(II)につられて笑う笑い声とをこの順に出力する。 The voice output method according to one aspect of the present invention is a voice output method for outputting a person's laughter from a speaker, and (I) a breathing sound which is a silent laughter and a breathing laughter, and (II). ) The leaked laughter and (III) the laughter laughed by the above (II) and (II) are output in this order.

本発明の一態様によれば、ユーザに笑いを効果的に誘発することができる音声出力システム、環境制御システム、及び、音声出力方法を実現することができる。 According to one aspect of the present invention, it is possible to realize a voice output system, an environmental control system, and a voice output method that can effectively induce laughter to the user.

図1は、実施の形態1に係る環境制御システムの概要構成を示す図である。FIG. 1 is a diagram showing an outline configuration of an environmental control system according to the first embodiment. 図2は、実施の形態1に係る環境制御システムの機能構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration of the environmental control system according to the first embodiment. 図3Aは、実施の形態1に係るユーザの性別と音源とが対応付けられた第1のテーブルの一例を示す図である。FIG. 3A is a diagram showing an example of a first table in which the gender of the user and the sound source according to the first embodiment are associated with each other. 図3Bは、実施の形態1に係るユーザの年齢と音源とが対応付けられた第2のテーブルの一例を示す図である。FIG. 3B is a diagram showing an example of a second table in which the age of the user and the sound source according to the first embodiment are associated with each other. 図3Cは、実施の形態1に係るユーザの心理状態と音源とが対応付けられた第3のテーブルの一例を示す図である。FIG. 3C is a diagram showing an example of a third table in which the psychological state of the user and the sound source according to the first embodiment are associated with each other. 図4は、実施の形態1に係る環境制御システムが出力する笑い声の時系列変化を模式的に示す図である。FIG. 4 is a diagram schematically showing a time-series change of the laughter output by the environmental control system according to the first embodiment. 図5は、実施の形態1に係る環境制御システムの動作を示すフローチャートである。FIG. 5 is a flowchart showing the operation of the environmental control system according to the first embodiment. 図6は、実施の形態1に係る環境制御システムの効果を説明するための図である。FIG. 6 is a diagram for explaining the effect of the environmental control system according to the first embodiment. 図7は、実施の形態2に係る環境制御システムの機能構成を示すブロック図である。FIG. 7 is a block diagram showing a functional configuration of the environmental control system according to the second embodiment. 図8は、実施の形態2に係る環境制御システムの動作を示すフローチャートである。FIG. 8 is a flowchart showing the operation of the environmental control system according to the second embodiment.

(本発明に至った経緯)
特許文献1に記載の刺激誘発装置には、ユーザにとって好ましい情動(例えば、楽しい)を誘発するために、笑い声を出力することが開示されているが、どのような笑い声が出力されるかは開示されていない。ストレスを緩和するにはユーザを笑わすことが効果的であるが、出力される笑い声によっては、ユーザを笑わすことができないことがある。例えば、笑い声としてユーザにいきなり爆笑する音声が出力された場合、ユーザはその笑い声が他人事のように聞こえてしまい、その笑い声に対して共感することができないことが多い。
(Background to the present invention)
The stimulus inducing device described in Patent Document 1 discloses that a laughter is output in order to induce an emotion (for example, fun) that is favorable to the user, but what kind of laughter is output is disclosed. It has not been. It is effective to make the user laugh to relieve stress, but it may not be possible to make the user laugh depending on the output laughter. For example, when a voice that suddenly bursts into laughter is output to the user as a laughter, the user often hears the laughter as if it were someone else's affairs and cannot sympathize with the laughter.

よって、ユーザにいきなり爆笑する音声が出力された場合、ユーザを効果的に笑わすことが難しい。なお、共感するとは、スピーカからの笑い声に示される楽しい気持ちを共有することであり、例えば、当該笑い声を聞いたユーザも楽しい気持ちになることである。 Therefore, when a voice that suddenly bursts into laughter is output to the user, it is difficult to effectively laugh at the user. It should be noted that empathy means sharing the pleasant feelings shown by the laughter from the speaker, and for example, the user who hears the laughter also feels happy.

そこで本願発明者らは、ユーザを効果的に笑わすことができる音声(笑い声)について鋭意検討を行い、以下に説明する音声出力システム、音声出力方法、及び、環境制御システムを創案した。 Therefore, the inventors of the present application have diligently studied a voice (laughter) that can effectively make the user laugh, and devised a voice output system, a voice output method, and an environmental control system described below.

以下、実施の形態について、図面を参照しながら説明する。なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 Hereinafter, embodiments will be described with reference to the drawings. It should be noted that all of the embodiments described below show comprehensive or specific examples. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present disclosure. Further, among the components in the following embodiments, the components not described in the independent claims will be described as arbitrary components.

なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略又は簡略化される場合がある。 It should be noted that each figure is a schematic view and is not necessarily exactly shown. Further, in each figure, substantially the same configuration may be designated by the same reference numerals, and duplicate description may be omitted or simplified.

また、本明細書において、大きいなどの要素間の関係性を示す用語、並びに、数値、および、数値範囲は、厳格な意味のみを表す表現ではなく、実質的に同等な範囲、例えば数%程度の差異をも含むことを意味する表現である。 Further, in the present specification, terms indicating relationships between elements such as large, numerical values, and numerical range are not expressions expressing only strict meanings, but substantially equivalent ranges, for example, about several percent. It is an expression that means that the difference of is also included.

(実施の形態1)
[1−1.環境制御システムの構成]
図1は、本実施の形態に係る環境制御システム1の概要構成を示す図である。図2は、本実施の形態に係る環境制御システム1の機能構成を示すブロック図である。
(Embodiment 1)
[1-1. Configuration of environmental control system]
FIG. 1 is a diagram showing an outline configuration of an environmental control system 1 according to the present embodiment. FIG. 2 is a block diagram showing a functional configuration of the environmental control system 1 according to the present embodiment.

図1に示すように、環境制御システム1は、例えば、建物内にありコミュニケーションなどを行うためのオープンスペースS(コミュニケーションスペース)に設けられ、オープンスペースSに存在するユーザUの笑いを誘発するシステムである。具体的には、環境制御システム1は、聴覚刺激として笑い声を出力することで、オープンスペースSにいるユーザUのつられ笑いを誘発するシステムである。オープンスペースSは、ユーザUが存在する対象空間の一例である。 As shown in FIG. 1, the environmental control system 1 is provided in, for example, an open space S (communication space) in a building for communication and the like, and is a system that induces the laughter of a user U existing in the open space S. Is. Specifically, the environmental control system 1 is a system that induces the laughter of the user U in the open space S by outputting a laughter as an auditory stimulus. The open space S is an example of a target space in which the user U exists.

なお、対象空間は、オープンスペースSに限定されず、例えば、屋内の空間であればよい。対象空間は、パーソナルブース、仮眠ブース、オフィスのデスク周辺、病院等の待合室などの空間であってもよい。対象空間は、例えば、個室などの狭い空間であってもよい。また、対象空間に存在するユーザUの人数は、特に限定されず、1人であってもよいし、2人以上であってもよい。また、対象空間に存在するユーザは、立っていてもよいし、座っていてもよい。例えば、対象空間が個室などの狭い空間である場合、ユーザは当該空間に1人で座っていてもよい。図1では、ユーザUが2人、着座している場合を図示している。 The target space is not limited to the open space S, and may be, for example, an indoor space. The target space may be a space such as a personal booth, a nap booth, an office desk area, or a waiting room in a hospital or the like. The target space may be a narrow space such as a private room. The number of users U existing in the target space is not particularly limited, and may be one or two or more. Further, the user existing in the target space may be standing or sitting. For example, when the target space is a narrow space such as a private room, the user may sit alone in the space. FIG. 1 illustrates a case where two users U are seated.

また、環境制御システム1は、例えば、建物内にある館内放送により笑い声を出力するシステムであってもよい。この場合、建物内の各フロアが対象空間であり、建物内にいるユーザU全員に対して一斉に笑い声が出力されてもよい。 Further, the environmental control system 1 may be, for example, a system that outputs laughter by broadcasting in the hall in the building. In this case, each floor in the building is the target space, and laughter may be output to all the users U in the building all at once.

図1及び2に示すように、環境制御システム1は、カメラ10と、音声出力システム20とを備える。音声出力システム20は、制御装置30と、スピーカ40とを備える。なお、環境制御システム1が備えるカメラ10及びスピーカ40の数は特に限定されず、2以上であってもよい。 As shown in FIGS. 1 and 2, the environmental control system 1 includes a camera 10 and an audio output system 20. The audio output system 20 includes a control device 30 and a speaker 40. The number of cameras 10 and speakers 40 included in the environmental control system 1 is not particularly limited, and may be two or more.

カメラ10は、オープンスペースSを撮像することで、当該オープンスペースSに存在するユーザUを検知する。カメラ10は、例えば、撮像した画像の画像解析により、当該オープンスペースSに存在するユーザUを検知する。このように、カメラ10は、人感センサとして機能する。また、カメラ10は、音声出力システム20が笑い声を出力しているときに、オープンスペースSに存在するユーザUを撮像することで、当該ユーザUが笑っているか否かを検知する。カメラ10は、例えば、撮像した画像の画像解析により、ユーザUが笑っているか否かを検知する。このように、カメラ10は、ユーザUの笑いに対する状態を検知する状態センサとして機能する。ユーザUの笑いに対する状態は、例えば、ユーザUが笑っているか否かを含み、さらにどの程度笑っているかを含んでいてもよい。カメラ10は、検知部の一例である。 The camera 10 detects the user U existing in the open space S by photographing the open space S. The camera 10 detects the user U existing in the open space S, for example, by image analysis of the captured image. In this way, the camera 10 functions as a motion sensor. Further, the camera 10 detects whether or not the user U is laughing by taking an image of the user U existing in the open space S when the voice output system 20 is outputting a laughing voice. The camera 10 detects whether or not the user U is laughing, for example, by image analysis of the captured image. In this way, the camera 10 functions as a state sensor that detects the state of the user U with respect to laughter. The state of the user U with respect to laughter may include, for example, whether or not the user U is laughing, and further includes how much the user U is laughing. The camera 10 is an example of a detection unit.

カメラ10が設けられる位置は、人感センサ及び状態センサとして機能することができれば特に限定されず、例えば、ユーザUが音声出力システム20からの笑い声を聞く位置周辺に設けられる。図1の例では、カメラ10は、オープンスペースSを構成する壁、天井などの造営材に取り付けられる。カメラ10は、オープンスペースS内のユーザUを検知可能な態様で造営材に取り付けられる。また、カメラ10は、例えば、パーソナルコンピュータ、スマートフォンなどが備えるカメラであってもよい。カメラ10は、固定されていてもよいし、携帯可能であってもよい。 The position where the camera 10 is provided is not particularly limited as long as it can function as a motion sensor and a state sensor. For example, the camera 10 is provided around a position where the user U hears a laughter from the voice output system 20. In the example of FIG. 1, the camera 10 is attached to a building material such as a wall or a ceiling constituting the open space S. The camera 10 is attached to the construction material in a manner capable of detecting the user U in the open space S. Further, the camera 10 may be, for example, a camera provided in a personal computer, a smartphone, or the like. The camera 10 may be fixed or portable.

なお、人感センサは、カメラ10である例を説明したが、オープンスペースSに存在するユーザUを検知可能であれば、カメラ10に限定されない。人感センサは、例えば、赤外線センサなどであってもよい。また、人感センサは、椅子に設けられた感圧センサであってもよい。また、人感センサは、それらのセンサの組み合わせであってもよい。 Although the motion sensor has been described as an example of the camera 10, the motion sensor is not limited to the camera 10 as long as it can detect the user U existing in the open space S. The motion sensor may be, for example, an infrared sensor or the like. Further, the motion sensor may be a pressure sensor provided on the chair. Further, the motion sensor may be a combination of these sensors.

なお、状態センサは、カメラ10である例を説明したが、ユーザUの笑いに対する状態を検知可能であれば、カメラ10に限定されない。状態センサは、例えば、笑い声を取得するマイクロフォンなどであってもよい。また、状態センサは、それらのセンサの組み合わせであってもよい。 Although the example in which the state sensor is the camera 10 has been described, the state sensor is not limited to the camera 10 as long as it can detect the state of the user U with respect to laughter. The state sensor may be, for example, a microphone that acquires laughter. Moreover, the state sensor may be a combination of those sensors.

音声出力システム20は、ユーザUに笑い声を出力するための情報処理システムである。音声出力システム20は、ユーザUが存在するオープンスペースSに笑い声を出力するための情報処理システムであるとも言える。本実施の形態では、音声出力システム20が出力する笑い声に特徴を有する。音声出力システムは、例えば、カメラ10がオープンスペースSに存在するユーザUを検知すると、当該笑い声を出力する。音声出力システム20は、制御装置30とスピーカ40とを備える。 The voice output system 20 is an information processing system for outputting a laughter to the user U. It can be said that the voice output system 20 is an information processing system for outputting laughter to the open space S in which the user U exists. The present embodiment is characterized by the laughter output by the voice output system 20. When the camera 10 detects the user U existing in the open space S, for example, the voice output system outputs the laughter. The audio output system 20 includes a control device 30 and a speaker 40.

制御装置30は、スピーカ40に出力させる笑い声に関する制御を行う。制御装置30は、例えば、オープンスペースSに存在するユーザUの属性情報に基づいて、当該ユーザUに応じた笑い声をスピーカ40から出力させる。制御装置30は、例えば、サーバ装置により実現され、カメラ10及びスピーカ40と無線通信を行うが、これに限定されない。制御装置30は、取得部31と、選択部32と、制御部33と、記憶部34とを有する。 The control device 30 controls the laughter output to the speaker 40. For example, the control device 30 causes the speaker 40 to output a laughter according to the user U based on the attribute information of the user U existing in the open space S. The control device 30 is realized by, for example, a server device, and wirelessly communicates with the camera 10 and the speaker 40, but is not limited thereto. The control device 30 includes an acquisition unit 31, a selection unit 32, a control unit 33, and a storage unit 34.

取得部31は、笑い声を聞くユーザU(図1の場合は、オープンスペースSに存在するユーザU)の属性情報を取得する。属性情報は、例えば、ユーザUの性別、年齢、心理状態などの少なくとも1つを含む。心理状態は、例えば、リラックス状態、ストレス状態などである。心理状態は、オープンスペースSにいる時点における心理状態である。また、属性情報は、ユーザUの家族構成、職場環境などに関する情報を含んでいてもよい。 The acquisition unit 31 acquires the attribute information of the user U who hears the laughter (in the case of FIG. 1, the user U existing in the open space S). The attribute information includes at least one such as the gender, age, and psychological state of the user U, for example. The psychological state is, for example, a relaxed state, a stressed state, and the like. The psychological state is the psychological state at the time of being in the open space S. Further, the attribute information may include information on the family structure of the user U, the work environment, and the like.

取得部31は、例えば、カメラ10から取得した画像の画像解析により、オープンスペースSに存在するユーザUの属性情報を取得してもよい。取得部31は、例えば、ユーザUの表情から心理状態を推定してもよい。また、取得部31は、ユーザUから属性情報に関する入力を受け付ける受付部(図示しない)を介して、ユーザUの属性情報を取得してもよい。取得部31は、例えば、通信インターフェースを含んで構成される。 The acquisition unit 31 may acquire the attribute information of the user U existing in the open space S, for example, by image analysis of the image acquired from the camera 10. The acquisition unit 31 may estimate the psychological state from the facial expression of the user U, for example. Further, the acquisition unit 31 may acquire the attribute information of the user U via a reception unit (not shown) that receives an input related to the attribute information from the user U. The acquisition unit 31 includes, for example, a communication interface.

選択部32は、取得部31が取得したユーザUの属性情報に応じて、記憶部34に記憶された複数パターンの笑い声の中から、ユーザUの属性情報に応じた1つの笑い声を選択する。選択部32は、例えば、属性情報と当該属性情報に応じた笑い声とが対応付けられたテーブルを用いて、ユーザUの属性情報に応じた1つの笑い声を選択する。 The selection unit 32 selects one laughter according to the attribute information of the user U from the plurality of patterns of laughter stored in the storage unit 34 according to the attribute information of the user U acquired by the acquisition unit 31. The selection unit 32 selects one laughter according to the attribute information of the user U by using, for example, a table in which the attribute information and the laughter corresponding to the attribute information are associated with each other.

選択部32は、ユーザUの家族構成に関する情報が属性情報に含まれる場合、ユーザUの家族構成に含まれる人に近い人の笑い声を含む笑い声を選択してもよい。選択部32は、例えば、ユーザUに子供がいる場合、子供の笑い声を少なくとも一部に含む笑い声を選択してもよい。これにより、ユーザUは、環境制御システム1から出力される笑い声をより身近に感じることができるので、当該笑い声により共感することが期待できる。例えば、環境制御システム1からの笑い声により、子供と過ごした時間(週末の時間など)を思い出すことで、ユーザUは当該笑い声をより共感することができる。 When the attribute information includes information about the family structure of the user U, the selection unit 32 may select a laughter including the laughter of a person close to the person included in the family structure of the user U. For example, when the user U has a child, the selection unit 32 may select a laughter that includes at least a part of the laughter of the child. As a result, the user U can feel the laughter output from the environmental control system 1 more closely, and can be expected to sympathize with the laughter. For example, the laughter from the environmental control system 1 allows the user U to more sympathize with the laughter by remembering the time spent with the child (weekend time, etc.).

なお、ユーザUの属性情報は、ユーザUの使用履歴に関する情報を含んでいてもよい。使用履歴に関する情報は、例えば、当該ユーザUが過去に環境制御システム1を利用したときに出力した笑い声と、そのときの当該ユーザUの笑いに対する状態とが対応付けられた情報であってもよい。また、使用履歴に関する情報は、当該笑い声と、当該笑い声に対するユーザUの入力(ストレスが緩和されたことを実感したか否かを示す入力など)とが対応付けられた情報であってもよい。選択部32は、ユーザUに過去に出力した笑い声と当該ユーザUの笑いに対する状態とが対応付けられた情報に基づいて、複数パターンの笑い声の中からユーザUの好みの笑い声を1つ選択してもよい。ユーザUの好みの笑い声とは、ユーザUが共感しやすい笑い声、つまりユーザUが身近に感じることができる親和性の高い笑い声なである。ユーザUの好みの笑い声は、例えば、子供の笑い声、老人の笑い声、男性の笑い声、女性の笑い声、共感しやすい声の大きさ又はリズムの笑い声などである。 The attribute information of the user U may include information regarding the usage history of the user U. The information regarding the usage history may be, for example, information in which the laughter output when the user U has used the environmental control system 1 in the past and the state for the laughter of the user U at that time are associated with each other. .. Further, the information regarding the usage history may be information in which the laughter is associated with the input of the user U for the laughter (such as an input indicating whether or not the stress has been alleviated). The selection unit 32 selects one of the user U's favorite laughter from a plurality of patterns of laughter based on the information in which the laughter output to the user U in the past and the state of the user U with respect to the laughter are associated with each other. You may. The user U's favorite laughter is a laughter that the user U can easily sympathize with, that is, a laughter that the user U can feel close to. User U's favorite laughter is, for example, a child's laughter, an old man's laughter, a male laughter, a female laughter, a loudness or rhythmic laughter that is easy to sympathize with.

また、選択部32は、ユーザUの性別、年齢、心理状態などの少なくとも1つ、及び、ユーザUの使用履歴の両方に応じて、複数パターンの笑い声の中から1つの笑い声を選択してもよい。 Further, the selection unit 32 may select one laughter from a plurality of patterns of laughter according to at least one such as the gender, age, and psychological state of the user U, and the usage history of the user U. good.

制御部33は、音声出力システム20の各構成部を制御する。制御部33は、選択部32が選択した笑い声をスピーカ40に出力させる制御を行う。具体的には、制御部33は、選択部32が選択した笑い声を示す出力することを示す制御情報をスピーカ40に出力する。 The control unit 33 controls each component of the audio output system 20. The control unit 33 controls the speaker 40 to output the laughter selected by the selection unit 32. Specifically, the control unit 33 outputs control information indicating that the selection unit 32 outputs the selected laughter to the speaker 40.

制御部33は、スピーカ40が複数ある場合、選択的にスピーカ40から笑い声を出力させてもよい。制御部33は、例えば、ユーザUに最も近い位置に配置されたスピーカ40から笑い声を出力させてもよい。制御部33は、図1の場合、2つのスピーカ40のうち、ユーザUが座っているテーブルに配置されたスピーカ40のみから笑い声を出力させてもよい。 When there are a plurality of speakers 40, the control unit 33 may selectively output laughter from the speakers 40. For example, the control unit 33 may output a laughter from the speaker 40 arranged at the position closest to the user U. In the case of FIG. 1, the control unit 33 may output laughter from only the speaker 40 arranged on the table on which the user U sits, out of the two speakers 40.

記憶部34は、制御装置30の各構成部が実行する制御プログラム、及び、複数パターンの笑い声の音源(例えば、図3A〜図3Cを参照)を記憶する記憶装置である。記憶部34は、ユーザUの属性情報と、当該属性情報に対応する笑い声とを対応付けて記憶する。また、記憶部34は、ユーザUにおける環境制御システム1の使用履歴に関する情報を記憶してもよい。また、記憶部34は、ユーザUを特定するための情報を記憶していてもよい。例えば、記憶部34は、ユーザUの顔の画像、又は、ユーザUの顔の特徴量を記憶していてもよい。記憶部34は、半導体メモリなどによって実現される。 The storage unit 34 is a storage device that stores a control program executed by each component of the control device 30 and sound sources of a plurality of patterns of laughter (see, for example, FIGS. 3A to 3C). The storage unit 34 stores the attribute information of the user U and the laughter corresponding to the attribute information in association with each other. Further, the storage unit 34 may store information regarding the usage history of the environment control system 1 in the user U. Further, the storage unit 34 may store information for identifying the user U. For example, the storage unit 34 may store the image of the face of the user U or the feature amount of the face of the user U. The storage unit 34 is realized by a semiconductor memory or the like.

なお、笑いの音源は制御装置30の記憶部34に記憶されていることに限定されず、スピーカ40の記憶部(図示しない)に記憶されていてもよい。 The sound source of laughter is not limited to being stored in the storage unit 34 of the control device 30, and may be stored in the storage unit (not shown) of the speaker 40.

ここで、記憶部34に記憶されている複数パターンの笑い声の音源について、図3A〜図3Cを参照しながら説明する。図3Aは、本実施の形態に係るユーザUの性別と音源とが対応付けられた第1のテーブルの一例を示す図である。図3Bは、本実施の形態に係るユーザUの年齢と音源とが対応付けられた第2のテーブルの一例を示す図である。図3Cは、本実施の形態に係るユーザUの心理状態と音源とが対応付けられた第3のテーブルの一例を示す図である。なお、図3A〜図3Cに示す音源は、笑い声の音源(笑い声のデータ)を意味する。また、図3A〜図3Cに示す音源は、予め録音され、記憶部34に記憶されている。 Here, the sound sources of the plurality of patterns of laughter stored in the storage unit 34 will be described with reference to FIGS. 3A to 3C. FIG. 3A is a diagram showing an example of a first table in which the gender of the user U and the sound source according to the present embodiment are associated with each other. FIG. 3B is a diagram showing an example of a second table in which the age of the user U and the sound source according to the present embodiment are associated with each other. FIG. 3C is a diagram showing an example of a third table in which the psychological state of the user U and the sound source according to the present embodiment are associated with each other. The sound source shown in FIGS. 3A to 3C means a sound source of laughter (data of laughter). Further, the sound sources shown in FIGS. 3A to 3C are pre-recorded and stored in the storage unit 34.

図3Aに示すように、ユーザUの属性情報が性別を含む場合、例えば、男性、女性のそれぞれに互いに異なる音源が設定される。選択部32は、オープンスペースSに存在するユーザUが男性である場合、音源Aを選択し、女性である場合、音源Bを選択する。 As shown in FIG. 3A, when the attribute information of the user U includes gender, for example, different sound sources are set for each of male and female. The selection unit 32 selects the sound source A when the user U existing in the open space S is a male, and selects the sound source B when the user U exists in the open space S.

図3Bに示すように、ユーザUの属性情報が年齢を含む場合、例えば、年代のそれぞれに互いに異なる音源が設定される。選択部32は、オープンスペースSに存在するユーザUが10代である場合、音源Cを選択し、20代である場合、音源Dを選択し、30代である場合、音源Eを選択する。 As shown in FIG. 3B, when the attribute information of the user U includes an age, for example, different sound sources are set for each of the ages. The selection unit 32 selects the sound source C when the user U existing in the open space S is in his teens, selects the sound source D when he is in his twenties, and selects the sound source E when he is in his thirties.

図3Cに示すように、ユーザUの属性情報が心理状態を含む場合、例えば、心理状態のそれぞれに互いに異なる音源が設定される。選択部32は、オープンスペースSに存在するユーザUがリラックス状態である場合、音源Fを選択し、ストレス状態である場合、音源Gを選択する。 As shown in FIG. 3C, when the attribute information of the user U includes a psychological state, for example, different sound sources are set for each of the psychological states. The selection unit 32 selects the sound source F when the user U existing in the open space S is in the relaxed state, and selects the sound source G when the user U is in the stressed state.

図3A〜図3Cに示す属性情報と音源との関係は、予め実験等により取得される。 The relationship between the attribute information shown in FIGS. 3A to 3C and the sound source is acquired in advance by an experiment or the like.

なお、図3A〜図3Cには、属性情報に対して1つの音源が設定されている例について説明したが、これに限定されない。1つの属性情報に対して、複数の音源が設定されていてもよい。選択部32は、例えば、オープンスペースSに存在するユーザUが男性である場合、音源Aを含む2以上の音源を選択し、さらに2以上の音源の中から、ユーザUの使用履歴に関する情報に基づいて、よりユーザUが好む笑い声の音源を1つ選択してもよい。 Although FIGS. 3A to 3C have described an example in which one sound source is set for the attribute information, the present invention is not limited to this. A plurality of sound sources may be set for one attribute information. For example, when the user U existing in the open space S is a male, the selection unit 32 selects two or more sound sources including the sound source A, and further obtains information on the usage history of the user U from the two or more sound sources. Based on this, one sound source of laughter that the user U prefers may be selected.

ここで、笑い声の音源の構成について、図4を参照しながら説明する。図4は、本実施の形態に係る環境制御システム1が出力する笑い声の構成を模式的に示す図である。図3A〜図3Cに示す笑い声の音源A〜Gのそれぞれは、図4に示す笑い声の構成を有する。言い換えると、音源A〜Gのそれぞれは、単調な笑い声ではなく、異なる種類(段階)の笑い声を複数含んで構成される。 Here, the configuration of the laughter sound source will be described with reference to FIG. FIG. 4 is a diagram schematically showing a configuration of laughter output by the environmental control system 1 according to the present embodiment. Each of the laughter sound sources A to G shown in FIGS. 3A to 3C has the laughter configuration shown in FIG. In other words, each of the sound sources A to G is composed of a plurality of different types (stages) of laughter rather than monotonous laughter.

図4に示すように、笑い声の音源は、笑いを誘発する期間と、笑いを増幅する期間と、没入感を高める期間とを有する。3つの期間のそれぞれで、互いに異なる笑い声が出力される。また、音源は、笑いを誘発する期間と、笑いを増幅する期間と、没入感を高める期間とをこの順に、切れ間なく構成される。なお、音源は、少なくとも笑いを誘発する期間の笑い声を含んでいればよい。 As shown in FIG. 4, the laughter sound source has a period of inducing laughter, a period of amplifying laughter, and a period of enhancing immersiveness. Different laughter is output in each of the three periods. In addition, the sound source is seamlessly composed of a period for inducing laughter, a period for amplifying laughter, and a period for enhancing immersiveness in this order. The sound source may include at least a laughter during a period of inducing laughter.

笑いを誘発する期間は、笑っていないユーザUを笑う状態とさせるための期間である。つまり、笑いを誘発する期間は、ユーザUに笑いを起こさせるための期間である。笑いを誘発する期間では、ユーザUが思わず笑ってしまうような笑い声が出力される。 The period for inducing laughter is a period for making the non-laughing user U laugh. That is, the period for inducing laughter is a period for causing the user U to laugh. During the period that induces laughter, a laughter that makes the user U laugh unintentionally is output.

笑いを誘発する期間に出力される音声(笑い声)は、(Ia)鼻呼吸で笑う音声と、(Ib)肩で笑う音声と、(II)声を出して笑う音声と、(III)つられて笑う人の音声とをこの順に出力する期間である。(Ia)〜(II)は、1人の人の笑い声であり、かつ、同一人物の笑い声である。なお、(III)つられて笑う音声は、例えば、(II)声を出して笑う音声の後に続く、当該(II)の笑い声を出している人とは異なる人の笑い声である。つまり、(III)は、(II)の後に起こる、他人の笑い声である。(III)の笑い(2人目以降の笑い)は、(II)の笑い(1人目の笑い)によってつられて生じる笑いであるとも言える。 The voices (laughter) output during the period that induces laughter are (Ia) laughing with nasal breathing, (Ib) laughing with shoulders, (II) laughing out loud, and (III) hung. This is the period during which the voice of the laughing person is output in this order. (Ia) to (II) are the laughter of one person and the laughter of the same person. The voice of (III) laughing is, for example, the laughing voice of a person different from the person making the laughing voice of (II), which follows the voice of (II) laughing aloud. That is, (III) is the laughter of others that occurs after (II). It can be said that the laughter of (III) (laughter of the second and subsequent people) is the laughter caused by the laughter of (II) (laughter of the first person).

(Ia)鼻呼吸で笑う音声は、「むふふ」と息がこもるような、息づかいの笑いを含む呼吸音である。鼻呼吸で笑う音声は、弱いリズムの呼吸音である。鼻呼吸で笑う音声は、例えば、横隔膜の振動がリズムとして伝わるような呼吸音である。鼻呼吸で笑う音声は、笑いをこらえている、声を出さずに笑いをかみころしているときの息づかいであってもよい。(Ia)鼻呼吸で笑う音声は、笑い声を含まない。 (Ia) The voice of laughing with nasal breathing is a breathing sound including breathing laughter, which is like "mufufu". The voice of laughing with nasal breathing is a weak rhythmic breathing sound. The voice of laughing with nasal breathing is, for example, a breathing sound in which the vibration of the diaphragm is transmitted as a rhythm. The voice of laughing with nasal breathing may be the breathing of holding back laughter or chewing laughter silently. (Ia) The voice of laughing with nasal breathing does not include laughter.

(Ib)肩で笑う音声は、(Ia)に比べて息づかいが深くなり、かつ、笑い声に低周波成分をより多く含む呼吸音である。(Ib)は、経時的に笑いが増幅されるので、息づかいが徐々に深くなり、かつ、笑い声に含まれる低周波成分が徐々に増える笑い声である。(Ib)は、例えば、浅い呼吸から深い呼吸に経時的に変化し、かつ、低周波成分が経時的に増幅する笑い声(呼吸音)である。(Ib)は、例えば、(Ia)より呼吸が深くなり、かつ、重低音が加わってくるような呼吸音である。なお、低周波成分とは、呼吸音に含まれる低周波の成分を意味し、例えば、100hz以下の成分であるが、これに限定されない。(Ib)肩で笑う音声は、笑い声を含まない。 (Ib) The voice of laughing on the shoulder is a breath sound that breathes deeper than that of (Ia) and contains more low-frequency components in the laughing voice. (Ib) is a laughter in which the laughter is amplified over time, so that the breathing gradually deepens and the low frequency component contained in the laughter gradually increases. (Ib) is, for example, a laughing voice (breathing sound) that changes with time from shallow breathing to deep breathing and the low frequency component is amplified with time. (Ib) is, for example, a breathing sound in which the breathing is deeper than that of (Ia) and a deep bass is added. The low-frequency component means a low-frequency component contained in the breath sound, and is, for example, a component of 100 hz or less, but is not limited to this. (Ib) The voice laughing on the shoulder does not include the laughing voice.

これにより、肩が揺れるほどこもって笑っている体のリズムを、呼吸音でユーザUに伝えることができる。なお、(Ib)肩で笑う音声は、必須ではない。 As a result, the rhythm of the body laughing with a swaying shoulder can be transmitted to the user U by breath sounds. Note that (Ib) the voice of laughing on the shoulder is not essential.

(Ia)及び(Ib)は、(I)声(笑い声)を出さない笑いであって息使いの笑いを含む呼吸音の一例である。(Ia)及び(Ib)は、声を出さずに笑っているときの呼吸音であるとも言える。なお、(Ia)及び(Ib)は、呼吸音であるが、本明細書では、笑い声とも記載する。 (Ia) and (Ib) are examples of breath sounds including (I) non-voiced laughter and breathing laughter. It can be said that (Ia) and (Ib) are breath sounds when laughing silently. Although (Ia) and (Ib) are breath sounds, they are also described as laughing sounds in the present specification.

(II)声を出して笑う音声は、「フハハハ」というような笑いを我慢してきたが思わず笑い声が漏れ出たときの笑い声である。(II)は、漏れ出た笑い声又は吹き出してしまったときの笑い声であるとも言える。つまり、(II)声を出して笑う音声は、笑い声を含む。 (II) The voice of laughing aloud is the voice of laughter when the laughter leaks out in spite of having endured laughter such as "huhahaha". It can be said that (II) is a leaked laughter or a laughter when it blows out. That is, (II) the voice of laughing aloud includes a laughing voice.

(III)つられて笑う人の音声は、(II)声を出して笑う音声に加えて、さらに他の人の笑い声を含む。例えば、(III)は、(II)声を出して笑う音声及び当該(II)声を出して笑う音声につられて笑う笑い声を含む。他の人の笑い声は、例えば、(II)の笑い声を出した人の笑い声につられて笑う人の笑い声である。つまり、(III)つられて笑う人の音声は、複数人の笑い声が含まれる。自分だけでなく、自分の周囲に存在する人も楽しくなっているような様子を連想させる笑い声であるとも言える。 The voice of a person who is laughed at (III) includes the voice of another person in addition to the voice of (II) laughing aloud. For example, (III) includes (II) a voice that laughs aloud and (II) a voice that laughs with a voice that laughs aloud. The laughter of another person is, for example, the laughter of a person who laughs at the laughter of the person who made the laughter of (II). That is, (III) the voice of a person who is laughed at by being hung up includes the laughter of a plurality of people. It can be said that it is a laughter that reminds us that not only ourselves but also the people around us are having fun.

笑いを誘発する期間では、上記の(Ia)、(Ib)、(II)及び(III)の笑い声がこの順に連続して出力される。また、(Ia)、(Ib)、(II)及び(III)のそれぞれの間は、切れ間なく音声が出力される。 During the period for inducing laughter, the above-mentioned laughters (Ia), (Ib), (II) and (III) are continuously output in this order. Further, the sound is output without interruption between each of (Ia), (Ib), (II) and (III).

笑いを誘発する期間の長さは、特に限定されないが、例えば、1分程度である。 The length of the period for inducing laughter is not particularly limited, but is, for example, about 1 minute.

これにより、少なくとも3つ期間(3つのステップ)により、ユーザUにつられ笑いを誘発することができるので、単調な笑い声が出力される場合に比べて、効果的につられ笑いを誘発することができる。 As a result, it is possible to induce laughter by the user U for at least three periods (three steps), so that it is possible to induce laughter more effectively than when a monotonous laughter is output. ..

笑いを増幅する期間は、笑いを誘発する期間で起きたユーザUの笑いを増幅する期間である。笑いを増幅する期間は、(IV)爆笑の音声を出力する期間を含む。 The period for amplifying laughter is the period for amplifying the laughter of the user U that occurs during the period for inducing laughter. The period for amplifying laughter includes (IV) the period for outputting the voice of laughter.

(IV)爆笑の音声は、(III)の後に出力され、(III)で笑っていた複数人の人の笑いがさらに大きくなった爆笑する笑い声である。(IV)爆笑の音声は、例えば、(III)の笑いが大きく(例えば、笑いの音量が大きく)なった笑い声である。(IV)爆笑の音声は、お腹を抱えて笑うような複数人の笑い声を含む。(IV)爆笑の音声は、複数人でしっかり笑う笑い声であるとも言える。 (IV) The laughter voice is output after (III), and is a laughter laughter in which the laughter of multiple people laughing in (III) is further increased. (IV) The voice of laughter is, for example, the laughter of (III) in which the laughter is loud (for example, the volume of laughter is loud). (IV) The voice of laughter includes the laughter of multiple people who are laughing while holding their stomachs. (IV) It can be said that the voice of laughter is a laughter that is laughed firmly by multiple people.

これにより、笑いを増幅する期間で起きたユーザUの笑い(例えば、くすっ、ニヤリといった笑い)を増幅させることができる。 As a result, the laughter of the user U (for example, laughter such as smoldering or grinning) that occurs during the period of amplifying the laughter can be amplified.

没入感を高める期間は、出力される笑い声が現実の笑い声であるとユーザUに感じさせ、笑いへの没入感を高める期間である。没入感を高める期間は、(V)繰り返し笑う音声を出力する期間を含む。 The period for enhancing the immersive feeling is a period for making the user U feel that the output laughter is a real laughter and enhancing the immersive feeling for the laughter. The period for enhancing the immersive feeling includes (V) a period for outputting the voice of repeatedly laughing.

(V)繰り返し笑う音声は、(IV)の後に出力され、(IV)で複数人が爆笑している笑い声が息も絶え絶えする爆笑となる音声である。(V)繰り返し笑う音声は、笑い過ぎて息が続かないことを連想させる笑い声であり、例えば、息を吸う音声又は呼吸が苦しくなる音声を含む爆笑である。単調な爆笑が続くとその爆笑に共感することができなくなるので、ユーザUの笑いを継続させることが難しい。一方、息も絶え絶えする笑いを出力することでより現実に近い笑いを実現することができるので、ユーザUを笑いに没入させることができる。 (V) The repeatedly laughing voice is output after (IV), and the laughing voice of a plurality of people laughing at (IV) becomes a breathless laughter. (V) The voice of repeatedly laughing is a voice reminiscent of laughing too much and not breathing, and is, for example, a burst of laughter including a voice of inhaling or a voice of difficulty in breathing. If the monotonous laughter continues, it becomes impossible to sympathize with the laughter, so it is difficult for the user U to continue laughing. On the other hand, it is possible to realize a laughter that is closer to reality by outputting a laughter that keeps breathing, so that the user U can be immersed in the laughter.

笑いを増幅する期間及び没入感を高める期間の長さは、特に限定されないが、例えば、合計で2分以上であるとよい。つまり、スピーカ40は、(IV)及び(V)を合計して2分以上出力するとよい。これにより、例えば、笑いを誘発する期間においてユーザUにつられ笑いを誘発することができなくても、笑いを増幅する期間及び没入感を高める期間でユーザUを笑わすことができる。これは、2分以上の間、爆笑音を聞くことで、ユーザUは自分が笑うことへの抵抗をあきらめてしまう傾向があるためである。なお、笑いを増幅する期間及び没入感を高める期間の長さは、2分より短くてもよい。また、笑いを増幅する期間及び没入感を高める期間の長さは、笑いを誘発する期間より長くてもよい。 The length of the period for amplifying laughter and the period for enhancing immersive feeling is not particularly limited, but for example, it is preferable that the total period is 2 minutes or more. That is, the speaker 40 may output (IV) and (V) for 2 minutes or more in total. Thereby, for example, even if the user U cannot induce laughter during the period of inducing laughter, the user U can be laughed at the period of amplifying the laughter and the period of enhancing the immersive feeling. This is because the user U tends to give up resistance to laughing by listening to the laughing sound for two minutes or more. The length of the period for amplifying laughter and the period for enhancing immersive feeling may be shorter than 2 minutes. Also, the length of the period for amplifying laughter and the period for enhancing immersiveness may be longer than the period for inducing laughter.

なお、音源は、(Ia)、(Ib)、(II)、(III)、(IV)及び(V)の一連の笑い声が予め録音された音声データである。そのため、(Ia)、(Ib)、(II)、(III)、(IV)及び(V)のそれぞれの音声が出力される期間は、予め設定されている。例えば(Ia)の音声が予め設定された期間出力されると、切れ間なく(Ib)の音声が出力される。言い換えると、(Ia)、(Ib)、(II)、(III)、(IV)及び(V)の一連の笑い声は、例えば、ユーザUからの入力を取得することなく、自動で順次切り替わる。 The sound source is voice data in which a series of laughter voices (Ia), (Ib), (II), (III), (IV) and (V) are recorded in advance. Therefore, the period during which the respective sounds of (Ia), (Ib), (II), (III), (IV) and (V) are output is set in advance. For example, when the sound of (Ia) is output for a preset period, the sound of (Ib) is output without interruption. In other words, the series of laughter of (Ia), (Ib), (II), (III), (IV) and (V) is automatically switched sequentially without acquiring the input from the user U, for example.

なお、(Ia)、(Ib)、(II)、(III)、(IV)及び(V)は、この順に笑いが大きくなる音声であるとも言える。 It can be said that (Ia), (Ib), (II), (III), (IV) and (V) are voices in which laughter increases in this order.

図1及び図2を再び参照して、スピーカ40は、制御部33の制御により、笑い声を出力する出音装置である。スピーカ40は、例えば、オープンスペースSに配置されていてもよいし、ユーザUが所有するパーソナルコンピュータ、スマートフォンなどが備えるスピーカにより実現されてもよい。 With reference to FIGS. 1 and 2 again, the speaker 40 is a sound output device that outputs laughter under the control of the control unit 33. The speaker 40 may be arranged in the open space S, for example, or may be realized by a speaker included in a personal computer, a smartphone, or the like owned by the user U.

[1−2.環境制御システムの動作]
続いて、上記の環境制御システム1の動作について、図5を参照しながら説明する。図5は、本実施の形態に係る環境制御システム1の動作を示すフローチャートである。なお、図5に示すステップS102〜S104及びS106は、音声出力システム20が行う動作である。
[1-2. Operation of environmental control system]
Subsequently, the operation of the above-mentioned environmental control system 1 will be described with reference to FIG. FIG. 5 is a flowchart showing the operation of the environmental control system 1 according to the present embodiment. In addition, steps S102 to S104 and S106 shown in FIG. 5 are operations performed by the voice output system 20.

図5に示すように、カメラ10(人感センサ)は、ユーザUを検知すると(S101でYes)、ユーザUを検知したことを示す検知結果を制御装置30に出力する。カメラ10は、検知結果とともに、ユーザUを検知したときの画像を制御装置30に出力してもよい。また、カメラ10は、ユーザUを検知しないと(S101でNo)、ステップS101に戻りユーザUを検知するまで待機する。 As shown in FIG. 5, when the camera 10 (presence sensor) detects the user U (Yes in S101), the camera 10 outputs a detection result indicating that the user U has been detected to the control device 30. The camera 10 may output an image when the user U is detected to the control device 30 together with the detection result. If the camera 10 does not detect the user U (No in S101), the camera 10 returns to step S101 and waits until the user U is detected.

なお、ユーザUを検知したか否かの判定は、制御装置30により行われてもよい。この場合、カメラ10は、撮像した画像を制御装置30に出力する。そして、制御装置30は、取得した画像に基づいて、ユーザUがオープンスペースSに存在する否かを判定してもよい。 The control device 30 may determine whether or not the user U has been detected. In this case, the camera 10 outputs the captured image to the control device 30. Then, the control device 30 may determine whether or not the user U exists in the open space S based on the acquired image.

次に、取得部31は、検知結果を取得すると、検知されたユーザUの属性情報を取得する(S102)。取得部31は、ユーザUからの入力により属性情報を取得してもよいし、カメラ10から取得した画像の画像解析に基づいて属性情報を取得してもよい。また、取得部31は、ユーザUを特定するための情報が記憶部34に記憶されている場合、カメラ10から取得した画像の画像解析に基づいてユーザUを特定し、特定したユーザUの属性情報を記憶部34から取得してもよい。取得部31は、取得したユーザUの属性情報を選択部32に出力する。 Next, when the acquisition unit 31 acquires the detection result, it acquires the attribute information of the detected user U (S102). The acquisition unit 31 may acquire the attribute information by input from the user U, or may acquire the attribute information based on the image analysis of the image acquired from the camera 10. Further, when the information for identifying the user U is stored in the storage unit 34, the acquisition unit 31 identifies the user U based on the image analysis of the image acquired from the camera 10, and the attribute of the identified user U. Information may be acquired from the storage unit 34. The acquisition unit 31 outputs the acquired attribute information of the user U to the selection unit 32.

次に、選択部32は、ユーザUの属性情報に基づいて、複数パターンの笑い声(複数の笑い声の音源)から1つを選択する(S103)。選択部32は、例えば、ユーザUの属性情報と、属性情報及び音源が対応付けられたテーブル(例えば、図3A〜図3Cを参照)とに基づいて、1つの音源を選択する。選択部32は、選択した音源を示す情報を制御部33に出力する。 Next, the selection unit 32 selects one from a plurality of patterns of laughter (sound sources of the plurality of laughter) based on the attribute information of the user U (S103). The selection unit 32 selects one sound source based on, for example, the attribute information of the user U and a table (for example, see FIGS. 3A to 3C) to which the attribute information and the sound source are associated. The selection unit 32 outputs information indicating the selected sound source to the control unit 33.

なお、選択部32は、ユーザUが環境制御システム1を利用したことがある場合、ユーザUの属性情報として、ユーザUの使用履歴に関する情報を用いて笑い声を選択し、当該ユーザUが初めて環境制御システム1を利用する場合、ユーザUの属性情報として、ユーザUの入力又は画像に基づいて取得される性別、年齢、心理状態の少なくとも1つを用いて笑い声を選択してもよい。 When the user U has used the environment control system 1, the selection unit 32 selects a laughter using the information related to the usage history of the user U as the attribute information of the user U, and the user U is the first environment. When the control system 1 is used, the laughter may be selected using at least one of the gender, age, and psychological state acquired based on the user U's input or image as the attribute information of the user U.

次に、制御部33は、選択部32が選択した笑い声をスピーカ40に出力させる(S104)。制御部33は、例えば、記憶部34から選択部32が選択した笑い声の音源を読み出し、読み出した音源を出力させるための制御情報を生成し、スピーカ40に出力する。制御部33は、予め録音されている笑い声の音源を、スピーカ40を介して再生するとも言える。これにより、スピーカ40から、少なくとも(Ia)、(II)及び(III)の音声を含む笑い声が出力される。 Next, the control unit 33 causes the speaker 40 to output the laughter selected by the selection unit 32 (S104). The control unit 33 reads, for example, the sound source of the laughter selected by the selection unit 32 from the storage unit 34, generates control information for outputting the read sound source, and outputs the control information to the speaker 40. It can be said that the control unit 33 reproduces the pre-recorded laughter sound source via the speaker 40. As a result, the speaker 40 outputs a laughing voice including at least the voices (Ia), (II) and (III).

なお、ステップS104において、笑い声の出力は、ヘッドフォンなどを介して行われてもよい。これにより、ユーザUは、周囲を気にすることなく、笑い声を聞いて、ストレス発散することができる。 In step S104, the laughter may be output via headphones or the like. As a result, the user U can hear the laughter and release the stress without worrying about the surroundings.

カメラ10は、例えば、スピーカ40が笑い声を出力している期間も、撮像を継続している。 The camera 10 continues imaging even during the period when the speaker 40 outputs a laughter, for example.

次に、カメラ10は、スピーカ40が笑い声を出力している期間のユーザUの状態(ユーザUの笑いに対する状態)を判定する(S105)。カメラ10は、例えば、撮像した画像に基づいて、ユーザUが笑っているか否かを判定する。カメラ10は、ユーザUが笑っているか否かの判定結果を制御装置30に出力する。なお、ステップS105の判定処理は、制御装置30により行われてもよい。 Next, the camera 10 determines the state of the user U (the state with respect to the laughter of the user U) during the period when the speaker 40 is outputting the laughter (S105). The camera 10 determines whether or not the user U is laughing, for example, based on the captured image. The camera 10 outputs a determination result of whether or not the user U is laughing to the control device 30. The determination process in step S105 may be performed by the control device 30.

制御部33は、カメラ10から取得したユーザUの状態を記憶部34に記憶する(S106)。具体的には、制御部33は、カメラ10から取得した判定結果を、現在出力している音源と対応付けて、当該ユーザUの履歴情報として記憶部34に記憶する。 The control unit 33 stores the state of the user U acquired from the camera 10 in the storage unit 34 (S106). Specifically, the control unit 33 stores the determination result acquired from the camera 10 in the storage unit 34 as the history information of the user U in association with the sound source currently being output.

なお、ステップS105及びS106の動作が行われることは、必須ではない。 It is not essential that the operations of steps S105 and S106 are performed.

なお、上記では、ステップS102以降の処理が行われるトリガは、ユーザUを検知したか否かである例について説明したが、これに限定されない。例えば、ユーザUから笑い声の出力を開始することを示す入力を受け付けると、ステップS102以降の処理が行われてもよいし、所定のタイミング(例えば、所定の時刻)になると、ステップS102以降の処理が行われてもよい。 In the above description, an example in which the trigger for which the processing after step S102 is performed is whether or not the user U is detected has been described, but the present invention is not limited to this. For example, when an input indicating that the output of laughter is started is received from the user U, the processing after step S102 may be performed, and at a predetermined timing (for example, a predetermined time), the processing after step S102 is performed. May be done.

[1−3.効果など]
以上のように、本実施の形態に係る音声出力システム20は、スピーカ40を備え、スピーカ40から人の笑い声を出力する音声出力システムである。スピーカ40は、記人の笑い声として、(I)声を出さない息使いの笑いを含む呼吸音と、(II)漏れ出た笑い声と、(III)漏れ出た笑い声及び当該漏れ出た笑い声につられて笑う笑い声とをこの順に出力する。
[1-3. Effects, etc.]
As described above, the voice output system 20 according to the present embodiment is a voice output system including a speaker 40 and outputting a person's laughter from the speaker 40. The speaker 40 uses the laughter of the reporter as (I) breath sounds including the laughter of a silent breather, (II) leaked laughter, (III) leaked laughter, and the leaked laughter. The laughter that is laughed at is output in this order.

これにより、音声出力システム20は、少なくとも3つの互いに異なる笑い声を出力するので、単調な笑い声が出力される場合に比べて、出力している笑い声に共感させることができる。よって、ユーザUに笑いを効果的に誘発することができる。 As a result, the voice output system 20 outputs at least three different laughter voices, so that the output laughter voice can be sympathized with the output laughter voice as compared with the case where the monotonous laughter voice is output. Therefore, it is possible to effectively induce laughter in the user U.

図6は、本実施の形態に係る環境制御システム1の効果を説明するための図である。図6に示す縦軸は、こころの活力(ポジティブ)を示しており、縦軸が高いほどストレスが低いことを意味する。また、横軸は、時間を示しており、「入室」はユーザUがオープンスペースSに入室した時点を示し、「退室」はユーザUが当該オープンスペースSを退室した時点を示している。 FIG. 6 is a diagram for explaining the effect of the environmental control system 1 according to the present embodiment. The vertical axis shown in FIG. 6 indicates the vitality (positive) of the mind, and the higher the vertical axis, the lower the stress. Further, the horizontal axis indicates the time, "entering the room" indicates the time when the user U enters the open space S, and "exiting" indicates the time when the user U leaves the open space S.

図6に示すように、音声出力システム20は、スピーカ40から出力される笑い声を聞かせてユーザUにつられ笑いを起こさせることで、ユーザUをリフレッシュさせて活力をチャージさせる。よって、音声出力システム20は、ユーザUのストレスを効果的に緩和させることができる。 As shown in FIG. 6, the voice output system 20 refreshes the user U and charges the vitality by listening to the laughter output from the speaker 40 and causing the user U to laugh. Therefore, the voice output system 20 can effectively relieve the stress of the user U.

また、(I)は、浅い呼吸から深い呼吸に経時的に変化し、かつ、低周波成分が経時的に増幅する呼吸音である。 Further, (I) is a respiratory sound that changes with time from shallow breathing to deep breathing and the low frequency component is amplified with time.

これにより、笑いが増幅するように呼吸音が経時的に変化するので、ユーザUはより笑い声に共感しやすくなる。よって、ユーザUに笑いをより効果的に誘発することができる。 As a result, the breath sounds change with time so that the laughter is amplified, so that the user U can more easily sympathize with the laughter. Therefore, it is possible to induce laughter in the user U more effectively.

また、スピーカ40は、(III)の後に、さらに、(IV)当該(III)より大きな笑いで複数人が爆笑する笑い声を出力する。 Further, after (III), the speaker 40 further outputs (IV) a laughter in which a plurality of people burst into laughter with a laughter larger than that of (III).

これにより、(I)〜(III)で生じたユーザUの笑いを効果的に増幅させることができる。 Thereby, the laughter of the user U generated in (I) to (III) can be effectively amplified.

また、スピーカ40は、(IV)の後に、さらに、(V)息も絶え絶え笑う笑い声を出力する。 Further, after (IV), the speaker 40 further outputs (V) a laughing voice that keeps breathing and laughing.

これにより、スピーカ40から出力される笑い声を本当の笑い声であるとユーザUに感じさせることができるので、笑うことの没入感を高めることができる。よって、ユーザUに笑いをさらに効果的に誘発することができる。なお、本当の笑い声とは、作り笑いではなく、自然な笑いを意味する。また、単調な爆笑が続くと、ユーザUは作り笑いと感じてしまい、冷めてしまうので、笑いを誘発することができない。 As a result, the user U can feel that the laughter output from the speaker 40 is a true laughter, so that the immersive feeling of laughing can be enhanced. Therefore, it is possible to induce the user U to laugh more effectively. The true laughter does not mean a smirk, but a natural laugh. In addition, if the monotonous laughter continues, the user U feels that he is laughing and cools down, so that he cannot induce laughter.

また、スピーカ40は、(IV)及び(V)を合計して2分以上出力する。 Further, the speaker 40 outputs (IV) and (V) for 2 minutes or more in total.

これにより、ユーザUが笑うことを我慢していた場合であっても(笑うことに抵抗していた場合であっても)、ユーザUが我慢することを諦めさせて笑わすことができる。よって、出力される笑い声によりユーザUが笑う確実性が増す。 As a result, even if the user U has put up with laughing (even if he has resisted laughing), the user U can give up and laugh. Therefore, the output laughter increases the certainty that the user U laughs.

また、人の笑い声を聞くユーザUの属性情報を取得する取得部31と、取得部31が取得したユーザUの属性情報に応じて、複数パターンの人の笑い声の中から1つの人の笑い声を選択する選択部32と、選択部32が選択した人の笑い声をスピーカ40に出力させる制御部33とを備える。 In addition, the acquisition unit 31 that acquires the attribute information of the user U who listens to the laughter of a person, and the laughter of one person from a plurality of patterns of the laughter of the person according to the attribute information of the user U acquired by the acquisition unit 31. A selection unit 32 for selection and a control unit 33 for outputting the laughter of the person selected by the selection unit 32 to the speaker 40 are provided.

これにより、ユーザUの属性情報に応じた笑い声が出力されるので、ユーザUに笑いをより一層効果的に誘発することができる。 As a result, a laughter voice corresponding to the attribute information of the user U is output, so that the user U can be induced to laugh more effectively.

また、以上のように、本実施の形態に係る環境制御システム1は、オープンスペースS(対象空間の一例)に人の笑い声を出力する音声出力システム20と、オープンスペースSに存在するユーザUを検知するカメラ10(検知部の一例)とを備える。そして、音声出力システム20は、カメラ10がオープンスペースSに存在するユーザUを検知すると、人の笑い声を出力する。 Further, as described above, the environmental control system 1 according to the present embodiment includes a voice output system 20 that outputs a person's laughter in an open space S (an example of a target space) and a user U existing in the open space S. A camera 10 (an example of a detection unit) for detecting is provided. Then, when the camera 10 detects the user U existing in the open space S, the voice output system 20 outputs a human laughter.

これにより、環境制御システム1は、対象空間に存在するユーザUが笑いやすい環境を形成することができる。よって、対象空間にいるユーザUに笑いを効果的に誘発することができる。 As a result, the environment control system 1 can form an environment in which the user U existing in the target space can easily laugh. Therefore, it is possible to effectively induce laughter to the user U in the target space.

また、以上のように、本実施の形態に係る音声出力方法は、スピーカ40から人の笑い声を出力する音声出力方法であって、(I)声を出さない笑いであって息使いの笑いを含む呼吸音と、(II)漏れ出た笑い声と、(III)漏れ出た笑い声及び当該漏れ出た笑い声につられて笑う笑い声とをこの順に出力する。また、音声出力方法は、スピーカ40は、(III)の後に、さらに、(IV)当該(III)より大きな笑いで複数人が爆笑する笑い声を出力してもよい。 Further, as described above, the voice output method according to the present embodiment is a voice output method for outputting a person's laughter from the speaker 40, and (I) laughter without making a voice and breathing laughter. The including breathing sound, (II) leaked laughter, (III) leaked laughter, and laughter laughing at the leaked laughter are output in this order. Further, as a voice output method, the speaker 40 may further output (IV) a laughter in which a plurality of people burst into laughter with a laughter larger than that of (III).

これにより、上記音声出力システムと同様の効果を奏する。 As a result, the same effect as that of the above-mentioned audio output system is obtained.

(実施の形態2)
[2−1.環境制御システムの構成]
図7は、本実施の形態に係る環境制御システム1aの機能構成を示すブロック図である。本実施の形態に係る環境制御システム1aは、主に酸素供給装置50を備える点、及び、制御装置30が当該酸素供給装置50を制御する点において、実施の形態1に係る環境制御システム1と相違する。以降において、本実施の形態に係る環境制御システム1aについて、実施の形態1に係る環境制御システム1との相違点を中心に説明する。また、実施の形態1に係る環境制御システム1と同一又は類似の構成については、実施の形態1に係る環境制御システム1と同一の符号を付し、説明を省略又は簡略化する。
(Embodiment 2)
[2-1. Configuration of environmental control system]
FIG. 7 is a block diagram showing a functional configuration of the environmental control system 1a according to the present embodiment. The environmental control system 1a according to the present embodiment is different from the environmental control system 1 according to the first embodiment in that the oxygen supply device 50 is mainly provided and the control device 30 controls the oxygen supply device 50. It's different. Hereinafter, the environmental control system 1a according to the present embodiment will be described focusing on the differences from the environmental control system 1 according to the first embodiment. Further, the same or similar configuration as the environmental control system 1 according to the first embodiment is designated by the same reference numerals as the environmental control system 1 according to the first embodiment, and the description thereof will be omitted or simplified.

図7に示すように、本実施の形態に係る環境制御システム1aは、実施の形態1に係る環境制御システム1に加えて、酸素供給装置50を備える。 As shown in FIG. 7, the environmental control system 1a according to the present embodiment includes an oxygen supply device 50 in addition to the environmental control system 1 according to the first embodiment.

酸素供給装置50は、制御部33の制御に基づいて、ユーザUが存在するオープンスペースS(対象空間の一例)に酸素を供給する。酸素供給装置50は、例えば、制御部33の制御に基づいて、スピーカ40から出力される人の笑い声によりユーザUが笑っている期間、ユーザUが笑う前より酸素濃度が高い空気を供給する。酸素供給装置50は、ユーザUが笑っている期間のみ動作するように制御されてもよい。 The oxygen supply device 50 supplies oxygen to the open space S (an example of the target space) in which the user U exists, based on the control of the control unit 33. The oxygen supply device 50 supplies air having a higher oxygen concentration than before the user U laughs during the period when the user U is laughing due to the laughter of a person output from the speaker 40, for example, based on the control of the control unit 33. The oxygen supply device 50 may be controlled to operate only during the period when the user U is laughing.

酸素供給装置50は特に限定されることはなく、酸素を供給することができれば公知のいかなる装置が用いられてもよい。酸素供給装置50は、例えば、通過する空気に酸素を供給する装置であってもよい。また、酸素供給装置50は、単独の装置であってもよいし、空気調和機などに備えられていてもよい。酸素供給装置50は、酸素供給部の一例である。 The oxygen supply device 50 is not particularly limited, and any known device may be used as long as oxygen can be supplied. The oxygen supply device 50 may be, for example, a device that supplies oxygen to the passing air. Further, the oxygen supply device 50 may be a single device or may be provided in an air conditioner or the like. The oxygen supply device 50 is an example of an oxygen supply unit.

酸素供給装置50は、例えば、オープンスペースS内に配置される。つまり、酸素供給装置50は、ユーザUが存在する場所周辺に配置される。 The oxygen supply device 50 is arranged in the open space S, for example. That is, the oxygen supply device 50 is arranged around the place where the user U exists.

制御部33は、実施の形態1の動作に加えて、酸素供給装置50の動作を制御する。以下では、制御部33は、酸素供給装置50の動作の開始及び停止を制御する例について説明するが、これに限定されず、酸素供給量などを制御してもよい。 The control unit 33 controls the operation of the oxygen supply device 50 in addition to the operation of the first embodiment. Hereinafter, an example in which the control unit 33 controls the start and stop of the operation of the oxygen supply device 50 will be described, but the present invention is not limited to this, and the oxygen supply amount and the like may be controlled.

ユーザUは、笑うと腹式呼吸になり、通常の呼吸より多くの酸素を消費する。つまり、ユーザUは、笑うことにより呼吸が深くなり、酸素を取り込む量が増える。そのため、制御部33は、例えば、ユーザUが笑っているときに、効率よく酸素を体内に取り込むことができるように、酸素供給装置50を制御する。具体的には、制御部33は、例えば、ユーザUが笑っているときに、ユーザUの周囲の酸素濃度が笑う前より高くなるように酸素供給装置50を制御する。 When the user U laughs, he / she becomes abdominal breathing and consumes more oxygen than normal breathing. That is, the user U deepens his breathing by laughing and increases the amount of oxygen taken in. Therefore, the control unit 33 controls the oxygen supply device 50 so that oxygen can be efficiently taken into the body when the user U is laughing, for example. Specifically, the control unit 33 controls the oxygen supply device 50 so that, for example, when the user U is laughing, the oxygen concentration around the user U is higher than before the laugh.

制御部33は、状態センサ(図7の例では、カメラ10)の検知結果に基づいて、酸素供給装置50を制御する。具体的には、制御部33は、検知結果が笑っていることを示す場合、酸素供給装置50を動作させ、検知結果が笑っていないことを示す場合、酸素供給装置50の動作を停止させる。制御部33は、スピーカ40が笑い声を出力しており、かつ、ユーザUが笑っている期間、酸素供給装置50を動作させる。 The control unit 33 controls the oxygen supply device 50 based on the detection result of the state sensor (camera 10 in the example of FIG. 7). Specifically, the control unit 33 operates the oxygen supply device 50 when the detection result indicates that it is laughing, and stops the operation of the oxygen supply device 50 when it indicates that the detection result is not laughing. The control unit 33 operates the oxygen supply device 50 while the speaker 40 outputs a laughing voice and the user U is laughing.

[2−2.環境制御システムの動作]
続いて、上記の環境制御システム1aの動作について、図8を参照しながら説明する。図8は、本実施の形態に係る環境制御システム1aの動作を示すフローチャートである。なお、図8に示すステップS102〜S104、S202、S204及びS205は、音声出力システム20が行う動作である。
[2-2. Operation of environmental control system]
Subsequently, the operation of the above-mentioned environmental control system 1a will be described with reference to FIG. FIG. 8 is a flowchart showing the operation of the environmental control system 1a according to the present embodiment. In addition, steps S102 to S104, S202, S204 and S205 shown in FIG. 8 are operations performed by the voice output system 20.

図8に示すように、制御部33が笑い声をスピーカ40に出力させる(S104)と、カメラ10は、スピーカ40が笑い声を出力している期間、ユーザUが笑ったか否かを判定する(S201)。カメラ10は、例えば、撮像した画像に基づいて、ユーザUが笑っているか否かを判定する。カメラ10は、ユーザUが笑っているか否かの判定結果を制御装置30に出力する。 As shown in FIG. 8, when the control unit 33 outputs the laughter to the speaker 40 (S104), the camera 10 determines whether or not the user U laughs during the period during which the speaker 40 outputs the laughter (S201). ). The camera 10 determines whether or not the user U is laughing, for example, based on the captured image. The camera 10 outputs a determination result of whether or not the user U is laughing to the control device 30.

次に、制御部33は、カメラ10から取得した判定結果に基づいて、酸素供給装置50の動作を制御する。制御部33は、カメラ10からユーザUが笑っていることを示す判定結果を取得すると(S201でYes)、酸素供給装置50に酸素濃度の高い空気を供給させる(S202)。つまり、制御部33は、酸素供給装置50の動作を開始させる又は酸素供給装置50の動作を継続させる。 Next, the control unit 33 controls the operation of the oxygen supply device 50 based on the determination result acquired from the camera 10. When the control unit 33 acquires a determination result indicating that the user U is laughing from the camera 10 (Yes in S201), the control unit 33 causes the oxygen supply device 50 to supply air having a high oxygen concentration (S202). That is, the control unit 33 starts the operation of the oxygen supply device 50 or continues the operation of the oxygen supply device 50.

制御部33は、酸素供給装置50の動作を開始させることで、ユーザUが笑う前よりユーザU周辺の空気の酸素濃度を高くする。なお、酸素供給装置50の動作を開始することは、ユーザUが笑う前より酸素濃度が高い空気を供給することの一例である。また、制御部33は、ステップS201でYesの場合、酸素供給装置50が供給する空気の酸素濃度をより高くするように酸素供給装置50を制御してもよい。 By starting the operation of the oxygen supply device 50, the control unit 33 raises the oxygen concentration of the air around the user U more than before the user U laughs. Starting the operation of the oxygen supply device 50 is an example of supplying air having a higher oxygen concentration than before the user U laughs. Further, in the case of Yes in step S201, the control unit 33 may control the oxygen supply device 50 so as to increase the oxygen concentration of the air supplied by the oxygen supply device 50.

また、制御部33は、カメラ10からユーザUが笑っていないことを示す判定結果を取得すると(S201でNo)、ステップS204に進む。 Further, when the control unit 33 acquires the determination result indicating that the user U is not laughing from the camera 10 (No in S201), the control unit 33 proceeds to step S204.

次に、カメラ10は、スピーカ40が笑い声を出力しており、かつ、酸素供給装置50から酸素濃度の高い空気がオープンスペースSに供給されている期間に、ユーザUの笑いが止まったか否かを判定する(S203)。カメラ10は、例えば、撮像した画像に基づいて、ユーザUの笑いが止まったか否かを判定する。カメラ10は、ユーザUの笑いが止まったか否かの判定結果を制御装置30に出力する。 Next, in the camera 10, whether or not the laughter of the user U has stopped while the speaker 40 is outputting the laughter and the air having a high oxygen concentration is being supplied to the open space S from the oxygen supply device 50. Is determined (S203). The camera 10 determines, for example, whether or not the laughter of the user U has stopped based on the captured image. The camera 10 outputs a determination result of whether or not the laughter of the user U has stopped to the control device 30.

次に、制御部33は、カメラ10から取得した判定結果に基づいて、酸素供給装置50の動作を制御する。制御部33は、カメラ10からユーザUが笑っていないことを示す判定結果を取得する(S201でNo)、又は、カメラ10からユーザUの笑いが止まったことを示す判定結果を取得すると(S203でYes)、酸素供給装置50に酸素濃度の高い空気の供給を停止させる(S204)。つまり、制御部33は、酸素供給装置50の動作を停止状態に切り替える、又は、酸素供給装置50の動作を停止状態に維持させる。また、制御部33は、カメラ10からユーザUの笑いが止まっていないことを示す判定結果を取得すると(S203でNo)、酸素供給装置50の動作を継続させ、ステップS205に進む。 Next, the control unit 33 controls the operation of the oxygen supply device 50 based on the determination result acquired from the camera 10. When the control unit 33 acquires a determination result indicating that the user U is not laughing from the camera 10 (No in S201), or acquires a determination result indicating that the user U has stopped laughing from the camera 10 (S203). Yes), the oxygen supply device 50 is stopped from supplying air having a high oxygen concentration (S204). That is, the control unit 33 switches the operation of the oxygen supply device 50 to the stopped state, or keeps the operation of the oxygen supply device 50 in the stopped state. Further, when the control unit 33 acquires the determination result indicating that the laughter of the user U has not stopped from the camera 10 (No in S203), the operation of the oxygen supply device 50 is continued, and the process proceeds to step S205.

次に、制御部33は、スピーカ40による笑い声の出力が終了したか否かを判定する(S205)。制御部33は、選択部32が選択した音源に基づく笑い声の出力が終了したか否かを判定する。制御部33は、録音された笑い声の出力が終了すると、音源に基づく笑い声の出力が終了したと判定する。 Next, the control unit 33 determines whether or not the output of the laughter by the speaker 40 is completed (S205). The control unit 33 determines whether or not the output of the laughter based on the sound source selected by the selection unit 32 is completed. When the output of the recorded laughter is finished, the control unit 33 determines that the output of the laughter based on the sound source is finished.

次に、制御部33は、笑い声の出力が終了すると(S205でYes)、ステップS106に進み、笑い声の出力が終了していないと(S205でNo)、ステップS201に戻り、ステップS201以降の処理を笑い声の出力が終了するまで継続する。 Next, when the output of the laughter is completed (Yes in S205), the control unit 33 proceeds to step S106, and if the output of the laughter is not completed (No in S205), the control unit 33 returns to step S201 and processes after step S201. Continue until the output of laughter is finished.

このように、制御部33は、スピーカ40から出力される人の笑い声によりユーザUが笑っている期間、ユーザUが笑う前より酸素濃度が高い空気を供給するように酸素供給装置50を制御する。 In this way, the control unit 33 controls the oxygen supply device 50 so as to supply air having a higher oxygen concentration than before the user U laughs during the period when the user U is laughing due to the laughter of a person output from the speaker 40. ..

なお、ステップS201及びS203の判定処理は、制御装置30により行われてもよい。 The determination process of steps S201 and S203 may be performed by the control device 30.

[2−3.効果など]
以上のように、本実施の形態に係る音声出力システム20は、人の笑い声によりユーザUが笑っている期間、ユーザUが笑う前より酸素濃度が高い空気を供給する酸素供給装置50を備える。
[2-3. Effects, etc.]
As described above, the voice output system 20 according to the present embodiment includes an oxygen supply device 50 that supplies air having a higher oxygen concentration than before the user U laughs during the period when the user U is laughing due to the laughter of a person.

これにより、ユーザUが笑うことで酸素を多く必要としているときに、例えば、空気中の酸素濃度を高めることができる。つまり、ユーザUは、効率よく酸素を体内に取り組むことができる。よって、ユーザUが笑っている状況を維持しやすくなる。例えば、ユーザUのストレスを効果的に発散させることができる。 As a result, when the user U laughs and needs a large amount of oxygen, for example, the oxygen concentration in the air can be increased. That is, the user U can efficiently work on oxygen in the body. Therefore, it becomes easy to maintain the situation where the user U is laughing. For example, the stress of the user U can be effectively released.

(他の実施の形態)
以上、本発明の1つ又は複数の態様に係る音声出力システム、音声出力方法、及び、環境制御システムについて、各実施の形態(以降において、実施の形態等とも記載する)に基づいて説明したが、本発明は、上記実施の形態等に限定されるものではない。
(Other embodiments)
The audio output system, audio output method, and environmental control system according to one or more aspects of the present invention have been described above based on the respective embodiments (hereinafter, also referred to as embodiments). , The present invention is not limited to the above-described embodiment and the like.

例えば、上記実施の形態等では、(Ia)鼻呼吸で笑う音声、(Ib)肩で笑う音声、(II)声を出して笑う音声、(III)つられて笑う人の音声、(IV)爆笑の音声及び(V)繰り返し笑う音声の6つの音声を出力する例について説明したが、これに限定されない。(Ia)〜(V)までがこの順に含まれていれば、他の笑い声が含まれていてもよい。 For example, in the above-described embodiment, (Ia) nasal breathing voice, (Ib) shoulder laughing voice, (II) aloud laughing voice, (III) laughing person's voice, (IV) laughter An example of outputting six voices of (V) and (V) repeatedly laughing voice has been described, but the present invention is not limited to this. If (Ia) to (V) are included in this order, other laughter may be included.

また、上記実施の形態等では、音源は、(Ia)、(Ib)、(II)、(III)、(IV)及び(V)のそれぞれの期間が予め設定されている例について説明したが、これに限定されない。例えば、ユーザにより(Ia)、(Ib)、(II)、(III)、(IV)及び(V)の少なくとも1つの音声を出力する期間が設定されてもよい。当該設定は、例えば、ユーザから予め取得されてもよい。 Further, in the above-described embodiment and the like, the example in which the respective periods of (Ia), (Ib), (II), (III), (IV) and (V) of the sound source are preset has been described. , Not limited to this. For example, the user may set a period for outputting at least one of (Ia), (Ib), (II), (III), (IV) and (V). The setting may be acquired in advance from the user, for example.

また、上記実施の形態等では、音源は笑い声だけを含む例について説明したが、少なくとも一部に面白いことを連想させる言葉が含まれていてもよい。 Further, in the above-described embodiment and the like, an example in which the sound source includes only laughter has been described, but at least a part of the sound source may include words reminiscent of interesting things.

また、上記実施の形態等では、環境制御システムは、状態センサを備える例について説明したが、これに限定されない。環境制御システムは、例えば、状態センサの代わりに、ユーザから笑っていることを示す操作を受け付ける受付部(図示しない)を備えていてもよい。受付部は、例えば、押しボタン又はタッチパネルなどにより実現される。 Further, in the above-described embodiment and the like, an example in which the environmental control system includes a state sensor has been described, but the present invention is not limited to this. The environmental control system may include, for example, a reception unit (not shown) that accepts an operation indicating that the user is laughing instead of the status sensor. The reception unit is realized by, for example, a push button or a touch panel.

また、上記実施の形態2では、制御部は、ユーザが笑ってから酸素供給装置の動作を開始させる例について説明したが、これに限定されない。制御部は、笑い声の出力と同期して酸素供給装置の動作を制御してもよい。例えば、制御部は、スピーカから笑い声が出力されている期間、酸素供給装置を動作させてもよい。 Further, in the second embodiment, the control unit has described an example in which the operation of the oxygen supply device is started after the user laughs, but the present invention is not limited to this. The control unit may control the operation of the oxygen supply device in synchronization with the output of the laughter. For example, the control unit may operate the oxygen supply device during the period during which the laughter is output from the speaker.

また、上記実施の形態等のフローチャートで説明された処理の順序は、一例である。複数の処理の順序は変更されてもよいし、複数の処理は並行して実行されてもよい。 Further, the order of processing described in the flowchart of the above-described embodiment is an example. The order of the plurality of processes may be changed, and the plurality of processes may be executed in parallel.

また、上記実施の形態等における装置間の通信方法については特に限定されるものではない。装置間では、無線通信が行われてもよいし、有線通信が行われてもよい。また、装置間では、無線通信及び有線通信が組み合わされてもよい。また、上記実施の形態において2つの装置が通信を行う場合、2つの装置間には図示されない中継装置が介在してもよい。 Further, the communication method between the devices in the above-described embodiment and the like is not particularly limited. Wireless communication may be performed or wired communication may be performed between the devices. Further, wireless communication and wired communication may be combined between the devices. Further, when two devices communicate with each other in the above embodiment, a relay device (not shown) may be interposed between the two devices.

また、上記実施の形態等において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 Further, in the above-described embodiment and the like, each component may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.

また、各構成要素は、ハードウェアによって実現されてもよい。例えば、各構成要素は、回路(または集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。 In addition, each component may be realized by hardware. For example, each component may be a circuit (or integrated circuit). These circuits may form one circuit as a whole, or may be separate circuits from each other. Further, each of these circuits may be a general-purpose circuit or a dedicated circuit.

また、制御装置は、単一の装置として実現される例について説明したが、複数の装置によって実現されてもよい。制御装置が複数の装置によって実現される場合、制御装置が備える構成要素は、複数の装置にどのように振り分けられてもよい。また、制御装置が備える機能部の少なくとも1つは、カメラ又はスピーカに備えられていてもよい。 Further, although the example in which the control device is realized as a single device has been described, the control device may be realized by a plurality of devices. When the control device is realized by a plurality of devices, the components included in the control device may be distributed to the plurality of devices in any way. Further, at least one of the functional units included in the control device may be provided in the camera or the speaker.

また、本発明の全般的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 In addition, general or specific aspects of the present invention may be realized in a recording medium such as a system, an apparatus, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM. Further, it may be realized by any combination of a system, an apparatus, a method, an integrated circuit, a computer program and a recording medium.

例えば、本発明は、制御装置などのコンピュータによって実行される音声出力方法及び環境制御方法をコンピュータに実行させるためのプログラムとして実現されてもよい。また、音声出力システム又は環境制御システムが汎用の携帯端末として実現される場合、本発明は、汎用の携帯端末を音声出力システム又は環境制御システムとして動作させるために当該携帯端末にインストールされるアプリケーションプログラムとして実現されてもよい。また、本発明は、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。 For example, the present invention may be realized as a program for causing a computer to execute an audio output method and an environment control method executed by a computer such as a control device. Further, when the voice output system or the environmental control system is realized as a general-purpose mobile terminal, the present invention provides an application program installed on the mobile terminal in order to operate the general-purpose mobile terminal as a voice output system or an environmental control system. It may be realized as. Further, the present invention may be realized as a computer-readable non-temporary recording medium in which such a program is recorded.

その他、実施の形態等に対して当業者が思いつく各種変形を施して得られる形態、または、本発明の趣旨を逸脱しない範囲で実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。 In addition, it is realized by subjecting various modifications to the embodiments and the like that can be conceived by those skilled in the art, or by arbitrarily combining the components and functions of the embodiments without departing from the spirit of the present invention. Forms are also included in the present invention.

1、1a 環境制御システム
10 カメラ(検知部)
20 音声出力システム
31 取得部
32 選択部
33 制御部
40 スピーカ
50 酸素供給装置(酸素供給部)
S オープンスペース(対象空間)
U ユーザ
1, 1a Environmental control system 10 Camera (detector)
20 Audio output system 31 Acquisition unit 32 Selection unit 33 Control unit 40 Speaker 50 Oxygen supply device (oxygen supply unit)
S open space (target space)
U user

Claims (10)

スピーカを備え、前記スピーカから人の笑い声を出力する音声出力システムであって、
前記スピーカは、前記人の笑い声として、
(I)声を出さない息使いの笑いを含む呼吸音と、
(II)漏れ出た笑い声と、
(III)前記(II)及び前記(II)につられて笑う笑い声とをこの順に出力する
音声出力システム。
A voice output system equipped with a speaker and outputting a person's laughter from the speaker.
The speaker is used as the laughter of the person.
(I) Breath sounds, including the laughter of a silent breather,
(II) The leaked laughter and
(III) An audio output system that outputs the laughter laughing according to the (II) and the (II) in this order.
前記(I)は、浅い呼吸から深い呼吸に経時的に変化し、かつ、低周波成分が経時的に増幅する呼吸音である
請求項1に記載の音声出力システム。
The voice output system according to claim 1, wherein the (I) is a breath sound that changes with time from shallow breathing to deep breathing and the low frequency component is amplified with time.
前記スピーカは、前記(III)の後に、さらに、
(IV)前記(III)より大きな笑いで複数人が爆笑する笑い声を出力する
請求項1又は2に記載の音声出力システム。
The speaker is further described after (III).
(IV) The voice output system according to claim 1 or 2, which outputs a laughter in which a plurality of people burst into laughter with a laughter larger than that in (III).
前記スピーカは、前記(IV)の後に、さらに、
(V)息も絶え絶え笑う笑い声を出力する
請求項3に記載の音声出力システム。
After the (IV), the speaker further
(V) The voice output system according to claim 3, which outputs a laughing voice that keeps breathing and laughing.
前記スピーカは、前記(IV)及び前記(V)を合計して2分以上出力する
請求項4に記載の音声出力システム。
The audio output system according to claim 4, wherein the speaker outputs (IV) and (V) in total for 2 minutes or more.
前記人の笑い声を聞くユーザの属性情報を取得する取得部と、
前記取得部が取得した前記ユーザの前記属性情報に応じて、複数パターンの前記人の笑い声の中から1つの人の笑い声を選択する選択部と、
前記選択部が選択した前記人の笑い声を前記スピーカに出力させる制御部とを備える
請求項5に記載の音声出力システム。
The acquisition unit that acquires the attribute information of the user who listens to the laughter of the person,
A selection unit that selects one person's laughter from a plurality of patterns of the person's laughter according to the attribute information of the user acquired by the acquisition unit.
The voice output system according to claim 5, further comprising a control unit that outputs the laughter of the person selected by the selection unit to the speaker.
前記人の笑い声により前記ユーザが笑っている期間、前記ユーザが笑う前より酸素濃度が高い空気を供給する酸素供給部を備える
請求項6に記載の音声出力システム。
The voice output system according to claim 6, further comprising an oxygen supply unit that supplies air having a higher oxygen concentration than before the user laughs while the user is laughing due to the laughter of the person.
対象空間に前記人の笑い声を出力する請求項1〜7のいずれか1項に記載の音声出力システムと、
前記対象空間に存在するユーザを検知する検知部とを備え、
前記音声出力システムは、前記検知部が前記対象空間に存在する前記ユーザを検知すると、前記人の笑い声を出力する
環境制御システム。
The voice output system according to any one of claims 1 to 7, which outputs the laughter of the person to the target space.
It is provided with a detection unit that detects a user existing in the target space.
The voice output system is an environmental control system that outputs the laughter of the person when the detection unit detects the user existing in the target space.
スピーカから人の笑い声を出力する音声出力方法であって、
(I)声を出さない笑いであって息使いの笑いである呼吸音と、
(II)漏れ出た笑い声と、
(III)前記(II)及び前記(II)につられて笑う笑い声とをこの順に出力する
音声出力方法。
It is a voice output method that outputs the laughter of people from the speaker.
(I) Breath sounds, which are silent laughter and breathing laughter,
(II) The leaked laughter and
(III) A voice output method for outputting the (II) and the laughter laughing according to the (II) in this order.
前記(III)の後に、さらに、
(IV)前記(III)より大きな笑いで複数人が爆笑する笑い声を出力する
請求項9に記載の音声出力方法。
After (III) above,
(IV) The voice output method according to claim 9, wherein a laughter in which a plurality of people burst into laughter with a louder laughter than in (III) above is output.
JP2020077642A 2020-04-24 2020-04-24 Audio output system, environmental control system, and audio output method Active JP7403074B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020077642A JP7403074B2 (en) 2020-04-24 2020-04-24 Audio output system, environmental control system, and audio output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020077642A JP7403074B2 (en) 2020-04-24 2020-04-24 Audio output system, environmental control system, and audio output method

Publications (2)

Publication Number Publication Date
JP2021173868A true JP2021173868A (en) 2021-11-01
JP7403074B2 JP7403074B2 (en) 2023-12-22

Family

ID=78281698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020077642A Active JP7403074B2 (en) 2020-04-24 2020-04-24 Audio output system, environmental control system, and audio output method

Country Status (1)

Country Link
JP (1) JP7403074B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04122279A (en) * 1990-09-13 1992-04-22 Ooike:Kk Weeping doll
JP2008147823A (en) * 2006-12-07 2008-06-26 Yamaha Corp Voice conference device, voice conference system, and sound radiation/pickup unit
JP2014146857A (en) * 2013-01-25 2014-08-14 I-O Data Device Inc Content output device, content output method, and program
KR20150115717A (en) * 2015-09-30 2015-10-14 김신우 Method for output of dog laughter, and recording medium storing program for executing the same
JP2017212008A (en) * 2017-08-11 2017-11-30 国立大学法人 千葉大学 Laughing promotion program and laughing promotion device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04122279A (en) * 1990-09-13 1992-04-22 Ooike:Kk Weeping doll
JP2008147823A (en) * 2006-12-07 2008-06-26 Yamaha Corp Voice conference device, voice conference system, and sound radiation/pickup unit
JP2014146857A (en) * 2013-01-25 2014-08-14 I-O Data Device Inc Content output device, content output method, and program
KR20150115717A (en) * 2015-09-30 2015-10-14 김신우 Method for output of dog laughter, and recording medium storing program for executing the same
JP2017212008A (en) * 2017-08-11 2017-11-30 国立大学法人 千葉大学 Laughing promotion program and laughing promotion device

Also Published As

Publication number Publication date
JP7403074B2 (en) 2023-12-22

Similar Documents

Publication Publication Date Title
JP6595918B2 (en) Display system and display device
US9779751B2 (en) Respiratory biofeedback devices, systems, and methods
US8979731B2 (en) Calming device
JP2005056205A (en) Content reproducing device and method
JP2019111181A (en) Game program and game device
JP2021128350A (en) Information processing system, information processing method, and recording medium
JP6864831B2 (en) Robot devices and programs
JP2021173868A (en) Voice output system, environment control system and voice output method
JP2005040440A (en) Sound reproducing device and control method
Klich Of Unsound Mind and Body
WO2022244298A1 (en) Information processing device, information processing method, and program
JP6963669B1 (en) Solution providing system and mobile terminal
EP4328928A1 (en) Method and device for controlling improved cognitive function training app
US20230256192A1 (en) Systems and methods for inducing sleep of a subject
JP7329743B2 (en) Environmental control system
May et al. Designing Access in Sound Art Exhibitions: Centering Deaf Experiences in Musical Thinking
JP2021151557A (en) Game program and game device
JP2021171320A (en) Body condition reproduction method and body condition reproduction system
JP2008252356A (en) Information editing apparatus
CN108762710A (en) Audio system for sauna house
JP2019207286A (en) Behavior inducement support system and program
JP2017070342A (en) Content reproducing device and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231128

R151 Written notification of patent or utility model registration

Ref document number: 7403074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151