JP2020113025A - Space control system - Google Patents

Space control system Download PDF

Info

Publication number
JP2020113025A
JP2020113025A JP2019003125A JP2019003125A JP2020113025A JP 2020113025 A JP2020113025 A JP 2020113025A JP 2019003125 A JP2019003125 A JP 2019003125A JP 2019003125 A JP2019003125 A JP 2019003125A JP 2020113025 A JP2020113025 A JP 2020113025A
Authority
JP
Japan
Prior art keywords
agent
user
environment
control system
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019003125A
Other languages
Japanese (ja)
Other versions
JP7189434B2 (en
Inventor
奈帆子 中山
Nahoko Nakayama
奈帆子 中山
早苗 香川
Sanae Kagawa
早苗 香川
数行 佐藤
Kazuyuki Sato
数行 佐藤
隆太 上田
Ryuta Ueda
隆太 上田
高橋 英之
Hideyuki Takahashi
英之 高橋
石黒 浩
Hiroshi Ishiguro
浩 石黒
碧 高間
Midori Takama
碧 高間
雄一郎 吉川
Yuichiro Yoshikawa
雄一郎 吉川
中村 泰
Yasushi Nakamura
泰 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daikin Industries Ltd
Original Assignee
Daikin Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daikin Industries Ltd filed Critical Daikin Industries Ltd
Priority to JP2019003125A priority Critical patent/JP7189434B2/en
Publication of JP2020113025A publication Critical patent/JP2020113025A/en
Application granted granted Critical
Publication of JP7189434B2 publication Critical patent/JP7189434B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)

Abstract

To provide a space control system for creating an environment corresponding to each emotion of a user.SOLUTION: A space control system 1 comprises an environment generation device 10, an agent robot 50, and a control device 20. The environment generation device 10 can generate one or more environments in a subject space S. The agent robot 50 embodies an agent executing operations corresponding to emotion causing to arise in a subject user 5. The control device 20 controls the environment generation device 10 so as to generate a prescribed environment corresponding to the operations of the agent.SELECTED DRAWING: Figure 1

Description

本開示は、空間制御システムに関する。 The present disclosure relates to spatial control systems.

従来、自分の体験した環境を再現する装置が開発されている。例えば、例えば、特許文献1(特開2003−299013号公報)には、体験者が体験した出来事を臨場感をもって再体験することができる体験情報再現装置が開示されている。 Conventionally, a device that reproduces the environment one has experienced has been developed. For example, Patent Document 1 (Japanese Patent Laid-Open No. 2003-299013) discloses an experience information reproduction device that allows a person who experiences the experience to re-experience it with a sense of reality.

しかしながら、環境に対する感じ方は、ユーザーの感情によって大きく異なる。そのため,ユーザー個々の感情に応じた環境を生成する必要がある。 However, how to feel about the environment varies greatly depending on the emotion of the user. Therefore, it is necessary to create an environment according to the emotion of each user.

本開示は、個々の感情に応じた環境の創出に有効な空間制御システムを提供することを目的とする。 The present disclosure aims to provide a spatial control system that is effective in creating an environment according to individual emotions.

第1観点の空調制御システムは、対象空間において一以上の環境が生成可能な環境生成装置と、対象のユーザーに生起させようとする感情に応じた動作を実行するエージェントを実現するアクチュエーターと、エージェントの動作に応じた所定の環境を生成するように環境生成装置を制御する制御装置と、を備える。したがって、ユーザー個々の感情に応じた環境を創出するのに有効である。 An air conditioning control system according to a first aspect is an environment generation device capable of generating one or more environments in a target space, an actuator that realizes an agent that performs an action according to an emotion that a target user tries to cause, and an agent. And a control device for controlling the environment generation device so as to generate a predetermined environment according to the operation of. Therefore, it is effective to create an environment according to the emotion of each user.

第2観点の空調制御システムでは、アクチュエーターは、空気調和装置、ロボット、色彩変化機器、リズム機器、光量変化機器、音声機器、匂い発生機器、プロジェクター、及び表示装置の少なくとも一つである。したがって、アクチュエーターによって実現されるエージェントは、ユーザーの感情に応じて多様な動作を実現できる。 In the air conditioning control system according to the second aspect, the actuator is at least one of an air conditioner, a robot, a color changing device, a rhythm device, a light amount changing device, a voice device, an odor generating device, a projector, and a display device. Therefore, the agent realized by the actuator can realize various actions according to the emotion of the user.

第3観点の空調制御システムでは、エージェントは、生物的要素を有するインターフェースを含む。したがって、エージェントとユーザーとの間の感情的相互作用が促進される。 In the air conditioning control system according to the third aspect, the agent includes an interface having a biological element. Therefore, emotional interaction between the agent and the user is facilitated.

第4観点の空調制御システムでは、アクチュエーターは、複数の動作を実行するエージェントを実現可能であり、環境生成装置は複数の環境を生成可能であり、複数の動作と複数の環境とは対応付けられ、制御装置は、複数の動作と複数の環境との対応付けに基づき所定の環境を生成するように環境生成装置を制御する。したがって、エージェントは、ユーザーの感情に応じて多様な動作が可能であり、さらにそれに応じた多様な環境の生成が可能となる。 In the air conditioning control system according to the fourth aspect, the actuator can realize an agent that executes a plurality of operations, the environment generation device can generate a plurality of environments, and the plurality of operations and the plurality of environments are associated with each other. The control device controls the environment generation device so as to generate a predetermined environment based on the correspondence between the plurality of operations and the plurality of environments. Therefore, the agent can perform various actions according to the emotion of the user, and can generate various environments according to the action.

第5観点の空調制御システムは、複数の環境生成装置を備え、制御装置は、エージェントの動作に応じた所定の環境を生成するように複数の環境生成装置を制御する。したがって、ユーザーの感情に応じて効果的な環境の生成が可能となる。 An air conditioning control system according to a fifth aspect includes a plurality of environment generation devices, and the control device controls the plurality of environment generation devices so as to generate a predetermined environment according to the operation of the agent. Therefore, it is possible to generate an effective environment according to the emotion of the user.

第6観点の空調制御システムでは、制御装置は、エージェントの動作に同期して環境生成装置に所定の環境を生成させた後、環境生成装置による環境の生成を一時的又は間欠的に停止させ、アクチュエーターは、エージェントの動作を一時的又は間欠的に停止させる。したがって、従来の顕在性が高いエージェントを長時間使用した場合の弊害、例えば、ユーザーがその存在に飽きてしまったり、わずらわしさを感じてしまったりするリスクを抑制するため、ユーザーにとって効果的な環境の生成が可能である。 In the air conditioning control system of the sixth aspect, the control device causes the environment generation device to generate a predetermined environment in synchronization with the operation of the agent, and then temporarily or intermittently stops the generation of the environment by the environment generation device, The actuator temporarily or intermittently stops the operation of the agent. Therefore, in order to suppress the harmful effects of using a conventional agent with high tangibility for a long time, for example, the risk that the user gets tired of its existence or feels annoying, an environment that is effective for the user Can be generated.

第7観点の空調制御システムでは、制御装置は、エージェントの動作に同期して環境生成装置に所定の環境を生成させている間、アクチュエーターはエージェントの動作を停止させる。 In the air conditioning control system according to the seventh aspect, the actuator stops the operation of the agent while the control device causes the environment generation device to generate a predetermined environment in synchronization with the operation of the agent.

第8観点の空調制御システムでは、環境生成装置は、対象空間内においてユーザーの感覚を刺激する装置である。 In the air conditioning control system of the eighth aspect, the environment generation device is a device that stimulates the user's sense in the target space.

第9観点の空調制御システムでは、アクチュエーターは、エージェントの動作によりユーザーの五感のうち少なくとも1つの感覚を喚起させる装置である。 In the air conditioning control system according to the ninth aspect, the actuator is a device that evokes at least one of the five senses of the user by the action of the agent.

第10観点の空調制御システムでは、環境生成装置は、空気調和装置、音響装置、照明機器、匂い発生機器、又はプロジェクターである。 In the air conditioning control system of the tenth aspect, the environment generation device is an air conditioner, a sound device, a lighting device, an odor generating device, or a projector.

第11観点の空調制御システムは、入力情報を取得する入力装置を備える。アクチュエーターは、入力情報に基づき、ユーザーに生起させようとする感情に応じた動作を実行するエージェントを実現する。入力情報は、擬態語又は擬音語、或いは擬態語又は擬音語に対応する事象に基づき特定された情報を含む。実際のユーザーの感情に近い情報が得られる可能性が高いため、ユーザーの感情に応じた環境を生成するのに有効である。 An air conditioning control system according to an eleventh aspect includes an input device that acquires input information. The actuator realizes an agent that performs an action according to the emotion that the user wants to cause based on the input information. The input information includes information specified based on an onomatopoeia or an onomatopoeia word, or an event corresponding to the onomatopoeia word or an onomatopoeia word. Since it is highly likely that information close to the actual user's emotions will be obtained, it is effective in creating an environment according to the user's emotions.

空間制御システムの全体構成を説明するための模式図である。It is a schematic diagram for demonstrating the whole structure of a space control system. エージェントの外観図である。It is an external view of an agent. エージェントの機能ブロック図である。It is a functional block diagram of an agent. 制御装置の機能ブロック図である。It is a functional block diagram of a control device. 制御装置の記憶部に記憶される情報を説明するための模式図である。It is a schematic diagram for explaining the information stored in the storage unit of the control device. 空間制御システムの動作を説明するためのフローチャートである。It is a flow chart for explaining operation of a space control system. 空間制御システムの動作の説明図である。It is explanatory drawing of operation|movement of a space control system. 空間制御システムの動作の説明図である。It is explanatory drawing of operation|movement of a space control system. 空間制御システムの動作の説明図である。It is explanatory drawing of operation|movement of a space control system. 空気感エージェントの説明図である。It is explanatory drawing of an air sensation agent. エージェントの上方斜視図である。It is an upper perspective view of an agent. エージェントの下方斜視図である。It is a lower perspective view of an agent. エージェントの正面図である。It is a front view of an agent. エージェントの動作後の正面図である。It is a front view after operation of an agent. エージェントの平面図である。It is a top view of an agent. エージェントの底面図である。It is a bottom view of an agent.

(1)空間制御システム
(1−1)空間制御システムの概要
近年、人との高い親和性を感じさせる擬人的なロボット等のエージェントが開発されている。しかし、人は、かかるエージェントと長時間接していると、エージェントの存在に馴化が生じ飽きてしまうため、その効果を長時間持続させることが難しい。本開示に係る空間制御システムは、対象空間において、ユーザーと環境生成装置とを媒介するエージェントが環境を制御している印象をユーザーに抱かせることで、さりげなく場の雰囲気を和らげるような空間演出を行う。
(1) Space control system (1-1) Outline of space control system In recent years, agents such as anthropomorphic robots have been developed that make people feel a high affinity with humans. However, when a person is in contact with such an agent for a long time, he or she becomes tired of the existence of the agent, and it is difficult to maintain the effect for a long time. A space control system according to the present disclosure is a space production that softens the atmosphere of a place casually by making the user have the impression that an agent mediating the user and the environment generation device controls the environment in the target space. I do.

なお、本開示におけるエージェントとは、アクチュエーターによって明示的に表現されるものである。エージェントは、その形状や動きに擬人的要素を含む生物的要素を有するインターフェースを含む。生物的要素を有するインターフェースは、物理的な形態(人型、動物、植物型、所定のキャラクターを模した形態等)、人間的又は動物的な声や動作を行うもの、これらの電子的に表示される画像、音声等を含み得る。 Note that the agent in the present disclosure is explicitly expressed by an actuator. The agent includes an interface having biological elements that include anthropomorphic elements in its shape and movement. An interface having a biological element is a physical form (humanoid, animal, plant type, a form imitating a predetermined character, etc.), a human or animal voice or action, and an electronic display of these. Images, sounds, etc.

エージェントは、ユーザーと環境生成装置を媒介する人工物である。エージェントは、生物的形状なロボットであっても、自然界に多くみられる1/fゆらぎに基づくリズムで提示される光や風等、ユーザーに何らかの形で生物的存在を感じさせる物理的刺激全般でもよい。エージェントは、形状変化や動き等によって生物に類似した顕在性の高い感情表現、例えば楽しい感情を表現する笑顔等を表出することが可能である。結果として、エージェントを媒介した環境制御に対して、ユーザーの高い受容性と親和性を引き出すことが可能となる。したがって、エージェントを実現することにより、ユーザー個々の感情に応じた環境を創出するのに有効である。 The agent is an artifact that mediates between the user and the environment generation device. Agents are not only biological robots, but also physical stimuli that make users feel biological existence in some form, such as light and wind presented in a rhythm based on 1/f fluctuations often found in nature. Good. The agent can express a highly explicit emotional expression similar to a living thing, such as a smile expressing a pleasant emotion, by a change in shape or movement. As a result, it becomes possible to bring out the high acceptability and affinity of the user for the environmental control mediated by the agent. Therefore, realization of an agent is effective in creating an environment according to the emotion of each user.

アクチュエーターは、例えば、空気調和装置、ロボット、色彩変化機器、リズム機器、光量変化機器、音声機器、匂い発生機器、プロジェクター、及び表示装置等である。アクチュエーターは、推測されたユーザーの感情状態を示す情報を取得する。なお、ユーザーの感情状態の推測は、アクチュエーター自体が推測手段を有していてもよいし、外部装置から感情状態を示す情報を取得してもよい。ユーザーの感情状態は、例えば、エージェントに対するユーザーの働きかけから、推測することも可能である。感情状態の推測手法として、カメラで撮影したユーザーの顔表情からユーザーの感情を推測してもよい。 The actuator is, for example, an air conditioner, a robot, a color changing device, a rhythm device, a light amount changing device, a voice device, an odor generating device, a projector, a display device, or the like. The actuator acquires information indicating the estimated emotional state of the user. In the estimation of the emotional state of the user, the actuator itself may have estimation means, or information indicating the emotional state may be acquired from an external device. The emotional state of the user can be inferred from the user's action on the agent, for example. As a method of estimating the emotional state, the emotion of the user may be estimated from the facial expression of the user captured by the camera.

アクチュエーターがエージェントを実現するとは、アクチュエーターが生物的要素を備えたロボット等の装置自体をエージェントとして動作させること、電子的に表示される画像や音声等によりエージェントを生成し出力すること、温度、湿度、気流等の空調により所定の空気感を形成すること、その他聴覚、嗅覚、視覚、触覚等を刺激する所定の空気感を形成すること(音、匂い、光、触感、風)等を含む。アクチュエーターは、後述する環境生成装置を兼ねていてもよい。 To realize an agent by an actuator means that the actuator operates a device such as a robot equipped with biological elements itself as an agent, generates and outputs the agent by electronically displayed images and sounds, temperature, humidity It also includes forming a predetermined air sensation by air conditioning such as airflow, and forming a predetermined air sensation that stimulates hearing, smell, sight, touch, etc. (sound, smell, light, touch, wind). The actuator may also serve as an environment generation device described later.

本開示に係る空間制御システムは、空間演出のインターフェースとして強い擬人的な印象を感じさせるエージェントを実現するアクチュエーターと、空間の雰囲気を演出する環境生成装置(例えば、プロジェクター)とを備える。アクチュエーターは、ユーザーの感情状態を示す情報を取得する。例えば、ユーザーが不安な感情を抱いていると推測された場合、アクチュエーターは、同推測に基づきユーザーに生起させようとする感情、例えば安心感を与えることを判断し、その判断に応じた動作を実行する。これにより、エージェントとユーザーとの間に親和性を引き出すことができる。その後、エージェントの動作に連動するように、環境生成装置を動作させることにより、ユーザーの感覚が刺激され、ユーザーとエージェントと環境生成装置との間に更に親和性が引き出される。 The space control system according to the present disclosure includes an actuator that realizes an agent that gives a strong anthropomorphic impression as an interface for space production, and an environment generation device (for example, a projector) that produces an atmosphere of space. The actuator acquires information indicating the emotional state of the user. For example, when it is estimated that the user has an uneasy feeling, the actuator determines, based on the guess, that the user wants to cause an emotion, for example, to give a sense of security, and performs an action according to the determination. Execute. As a result, an affinity can be drawn between the agent and the user. Then, by operating the environment generation device so as to be linked to the operation of the agent, the sense of the user is stimulated, and further affinity is drawn between the user, the agent, and the environment generation device.

その後、エージェントは擬人的な印象を感じさせないように形態を変形(例えば、動きを静止)し、環境生成装置のみが同様の動きを続けてもよい。つまり、ユーザーがエージェントの存在を強く認識・記憶した後、エージェント自体の動作を停止させる等の方法で、エージェントが備える生物的特徴を減弱させてもよい。この処理により、エージェントの記憶をユーザーが保持した状態で環境生成装置の動作のみを継続することが可能である。この結果、馴化が進まない雰囲気の程度までエージェントの存在感をつくることが可能となり、顕在性の高いエージェントが常に環境内に存在する煩わしさを低減可能である。 After that, the agent may change the form (for example, the movement is stationary) so as not to give an anthropomorphic impression, and only the environment generation device may continue the same movement. That is, after the user strongly recognizes and remembers the existence of the agent, the biological characteristics of the agent may be attenuated by a method such as stopping the operation of the agent itself. By this processing, it is possible to continue only the operation of the environment generation device while the user holds the memory of the agent. As a result, it becomes possible to create the presence of the agent to the extent that the habituation does not proceed, and it is possible to reduce the annoyance that the highly visible agent always exists in the environment.

以下、空間制御システムの実施の形態による構成及び動作について、説明する。 The configuration and operation of the space control system according to the embodiment will be described below.

(1−2)空間制御システムの構成
本実施の形態に係る空間制御システム1は、図1に示すように、エージェントロボット50、環境生成装置10、及び制御装置20を備える。空間制御システム1は、対象空間Sに配置され、対象であるユーザー5の感情に応じた環境を生成する。
(1-2) Configuration of Space Control System As shown in FIG. 1, the space control system 1 according to the present embodiment includes an agent robot 50, an environment generation device 10, and a control device 20. The space control system 1 is arranged in the target space S and generates an environment according to the emotion of the target user 5.

(1−2−1)エージェントロボット
図2は、エージェントロボット50の外観を示す。同図に示すように、エージェントロボット50は、アクチュエーターの一例であり、丸い壺形状の胴体部501と、胴体部501の中央から突き出た、先の丸い筒状の頭部502とを有する。頭部502の側面には、キャラクターの顔を想起させる目が示される。なお、キャラクターの顔は、内蔵されたプロジェクターで、内部から目を投影して頭部502の側面に映してもよいし、頭部502の側面に直接目を描いても良い。胴体部501の上部には、頭部502を囲むようにベース面503が設けられる。胴体部501には、後述するタッチセンサが配される。エージェントロボット50は、胴体部501にユーザー5が触れることにより、頭部502が胴体部501に引っ込んだり、突き出たりする動作を行う。なお、タッチセンサは頭部502及び/又はベース部503に配されてもよい。また、エージェントロボット50は、動作を行うために、タッチセンサによる操作を介する必要はなく、他のセンサー、カメラ、マイクからの入力に応じて動作を実行してもよい。例えば、エージェントロボット50は、ユーザー5、後述する環境生成装置10により生成される環境、又はその他の装置と同期して動くことができる。
(1-2-1) Agent Robot FIG. 2 shows an external view of the agent robot 50. As shown in the figure, the agent robot 50 is an example of an actuator, and has a round vase-shaped body 501 and a rounded cylindrical head 502 protruding from the center of the body 501. On the side surface of the head 502, eyes that remind the character's face are shown. The face of the character may be projected from the inside by the built-in projector to be reflected on the side surface of the head 502, or the eyes may be directly drawn on the side surface of the head 502. A base surface 503 is provided above the body 501 to surround the head 502. A touch sensor, which will be described later, is arranged on the body 501. When the user 5 touches the body 501, the agent robot 50 causes the head 502 to retract or protrude from the body 501. The touch sensor may be arranged on the head 502 and/or the base 503. In addition, the agent robot 50 does not need to be operated by a touch sensor to perform an operation, and may perform an operation in response to an input from another sensor, a camera, or a microphone. For example, the agent robot 50 can move in synchronization with the user 5, the environment generated by the environment generation device 10 described later, or other devices.

図3を参照して、エージェントロボット50の機能について説明する。エージェントロボット50は、制御部51と、検出部52と、入力部53と、メモリ54と、通信部55と、出力部56と、電源57とを備える。制御部51は、CPUやDSP等のプロセッサである。制御部51は、メモリ54に記憶されているプログラムに従って各機能を実行する。検出部52は、例えば静電容量方式によるタッチセンサであり、ユーザー5よる接触の有無を検知する。タッチセンサは、図2に示すエージェントロボット50の胴体部501に配される。タッチセンサは、頭部502及び/又はベース面503に配されてもよい。なお、タッチセンサの代わりに、押し込みを検知するセンサー(例えば、ポテンションメータや圧力センサボタン)を配してもよい。タッチセンサが接触を検知した場合、制御部51は、例えば、駆動部(図示省略)を制御して図2の頭部502を上下動させ、頭部502を胴体部501内に引っ込んだり突き出たりさせる。タッチセンサは、その他のエージェントロボット50の動作を実行するための操作部を構成してもよい。 The function of the agent robot 50 will be described with reference to FIG. The agent robot 50 includes a control unit 51, a detection unit 52, an input unit 53, a memory 54, a communication unit 55, an output unit 56, and a power supply 57. The control unit 51 is a processor such as a CPU or DSP. The control unit 51 executes each function according to the program stored in the memory 54. The detection unit 52 is, for example, a capacitance type touch sensor, and detects the presence or absence of contact by the user 5. The touch sensor is arranged on the body 501 of the agent robot 50 shown in FIG. Touch sensors may be disposed on head 502 and/or base surface 503. A sensor (for example, a potentiometer or a pressure sensor button) that detects pressing may be provided instead of the touch sensor. When the touch sensor detects a contact, the control unit 51 controls, for example, a drive unit (not shown) to move the head 502 in FIG. 2 up and down to retract or project the head 502 into the body 501. Let The touch sensor may form an operation unit for executing other operations of the agent robot 50.

入力部53は、例えばマイクやカメラである。エージェントロボット50は、ユーザー5の感情を推測し、ユーザー5に生起させようとする感情を判断するため、入力部53を介して入力情報を取得する。エージェントロボット50は、例えば、マイクによりユーザー5の音声を収音し、カメラによりユーザー5の表情や行動を撮像することにより入力情報を取得する。 The input unit 53 is, for example, a microphone or a camera. The agent robot 50 estimates the emotion of the user 5 and determines the emotion to be caused by the user 5, so that the agent robot 50 acquires input information via the input unit 53. The agent robot 50 acquires input information by, for example, collecting the voice of the user 5 with a microphone and capturing the facial expression and behavior of the user 5 with a camera.

通信部55は、後述する制御装置20等の外部の機器との有線又は無線の接続を行う通信インターフェースである。通信部55は、例えば、HDMI(登録商標)端子やUSB端子、Bluetooth(登録商標)、及び/又はWi−Fi等の無線インターフェースである。出力部56は、例えばスピーカーや照明である。スピーカーは、例えば胴体部501の底部504に配され、エージェントロボット50からの音声を出力する。出力部56はまた、プロジェクターを含み、映像を出力するものであってもよい。 The communication unit 55 is a communication interface that makes a wired or wireless connection with an external device such as the control device 20 described later. The communication unit 55 is, for example, a wireless interface such as an HDMI (registered trademark) terminal, a USB terminal, Bluetooth (registered trademark), and/or Wi-Fi. The output unit 56 is, for example, a speaker or lighting. The speaker is arranged on the bottom portion 504 of the body 501, for example, and outputs a voice from the agent robot 50. The output unit 56 may also include a projector and output an image.

エージェントロボット50は、擬態語又は擬音語により入力情報を取得してもよい。例えば、滑らかな感じ(ツルツル)、ざらつく感じ(ザラザラ)、柔らかい感じ(フワフワ)等、触感に関係する擬音語又は擬態語といった必ずしも概念が明確ではない情報が入力されてもよい。この場合、入力手段としては、マイクを介してユーザー5の音声で入力されてもよい。また、エージェントロボット50のタッチセンサにより検知されるユーザー5の指圧等から入力情報を取得してもよい。例えば、強く触る場合はイライラしている、長く触る場合はポジティブな感情である、等の入力情報が取得できる。擬態語又は擬音語は、ユーザー5の感情を推測する入力情報として有効である可能性が高い。よって、擬態語又は擬音語を入力情報として利用することにより、ユーザー5の感情を推測する精度を向上させ、ユーザー5の感情に応じた環境の生成に有効である。 The agent robot 50 may acquire the input information by an onomatopoeia or an onomatopoeia. For example, information such as a smooth feeling (smoothness), a rough feeling (roughness), and a soft feeling (fluffy) such as an onomatopoeia or a mimetic word related to the tactile sensation, which is not necessarily clear in concept, may be input. In this case, as the input means, the voice of the user 5 may be input via the microphone. Further, the input information may be acquired from the finger pressure of the user 5 detected by the touch sensor of the agent robot 50. For example, it is possible to obtain input information such as being frustrated when touching strongly, or having positive emotions when touching for a long time. The onomatopoeia or onomatopoeia is highly likely to be effective as input information for estimating the emotion of the user 5. Therefore, by using an onomatopoeia or an onomatopoeia as input information, it is possible to improve the accuracy of estimating the emotion of the user 5 and effectively generate an environment according to the emotion of the user 5.

入力情報は、擬態語や擬音語を音声やテキストで直接表現したものに限定されず、例えば、擬態語や擬音語に対応する事象に基づき特定された情報であってもよい。例えば、ユーザー5に自身の感情に近い画像や音声を選択させることが考えられる。或いは、入力情報は、複数の異なる触感を与える接触面を有する装置を用いて、いずれの接触面をユーザー5が選択しどのように接触したか等の情報であってもよい。 The input information is not limited to the direct expression of the onomatopoeia or onomatopoeia by voice or text, and may be, for example, the information specified based on the event corresponding to the onomatopoeia or onomatopoeia. For example, it is possible to let the user 5 select an image or sound that is close to his or her emotions. Alternatively, the input information may be information such as which contact surface the user 5 has selected and how the contact has been made by using a device having a plurality of contact surfaces that give different tactile sensations.

エージェントロボット50がユーザー5の感情を推測するための入力情報は、ユーザー5の生体情報(心拍、声、言動、表情認識等)であってもよい。この場合、入力手段としては、生体センサー、カメラ、マイクのいずれか又はこれらの組み合わせ等を用いてもよい。 The input information for the agent robot 50 to estimate the emotion of the user 5 may be biometric information of the user 5 (heartbeat, voice, behavior, facial expression recognition, etc.). In this case, any one of a biometric sensor, a camera, a microphone, or a combination thereof may be used as the input means.

入力情報は、ユーザー5がなりたい感情を直接示す情報であってもよい。 The input information may be information that directly indicates the emotion that the user 5 wants to be.

エージェントロボット50は、上述した入力情報に基づきユーザー5の感情を推測し、ユーザー5に生起させようとする感情を判断し、その判断に応じた動作を実行する。より具体的には、エージェントロボット50は、入力情報から、ユーザー5の感情を推測し、同推測に基づきユーザー5に生起させようとする感情を判断する。例えば、エージェントロボット50は、入力情報から、ユーザー5が不安を感じていると推測する。この場合、エージェントロボット50は、同推測に基づきユーザー5に生起させようとする感情、例えば安心感を与えることを判断し、その判断に応じた動作を実行する。なお、入力情報がユーザー5のなりたい感情を直接示す情報である場合、エージェントロボット50は、その入力情報をユーザー5に生起させようとする感情として判断するようにしてもよい。 The agent robot 50 estimates the emotion of the user 5 based on the above-mentioned input information, determines the emotion that the user 5 intends to cause, and executes the operation according to the determination. More specifically, the agent robot 50 estimates the emotion of the user 5 from the input information and determines the emotion that the user 5 intends to cause based on the estimation. For example, the agent robot 50 estimates that the user 5 feels anxiety from the input information. In this case, the agent robot 50 determines based on the same guess that the user 5 is caused to have an emotion, for example, a sense of security, and performs an action according to the determination. When the input information is information that directly indicates the emotion that the user 5 wants to be, the agent robot 50 may determine that the input information is the emotion that the user 5 wants to cause.

エージェントロボット50は実行する動作は、ユーザー5において生起させようとする感情に応じた動きや、光や音の出力等、ユーザー5の感覚を刺激する動作を含む。このため、エージェントロボット50は、多様な特性を含む感覚刺激生成モデルを保持する。エージェントロボット50は、過去に学習したユーザー5の個人特性に合わせた感覚刺激生成モデルを保持してもよい。この感覚刺激生成モデルは、例えば、ユーザー5に生起させようとする感情に応じた動作(エージェントロボット50の頭部502の動作等)、光や音の出力等の動作パターンを含む。エージェントロボット50は、感覚刺激生成モデルに基づき、上述したように頭部502を上下動させる動作や、スピーカーから音を流したり、照明により光を発したりする動作を実行する。このエージェントロボット50の動作パターンは、対象であるユーザー5に認知されるすべての動作を含む。このように、エージェントロボット50は、ユーザー5に生起させようとする感情と動作パターンとを関連付けた情報に基づいて、動作パターンを選択し、実行する。 The actions executed by the agent robot 50 include actions that stimulate the sensation of the user 5, such as actions in response to the emotions that the user 5 intends to cause and outputs of light and sound. Therefore, the agent robot 50 holds the sensory stimulus generation model including various characteristics. The agent robot 50 may hold a sensory stimulus generation model that matches the individual characteristics of the user 5 who have learned in the past. The sensory stimulus generation model includes, for example, a motion (motion of the head 502 of the agent robot 50, etc.) according to an emotion that the user 5 intends to cause, and a motion pattern such as output of light or sound. Based on the sensory stimulus generation model, the agent robot 50 executes the operation of moving the head 502 up and down, the operation of causing a speaker to emit sound, and the operation of emitting light by illumination, as described above. The motion pattern of the agent robot 50 includes all motions recognized by the target user 5. In this way, the agent robot 50 selects and executes the action pattern based on the information in which the emotion that the user 5 tries to cause and the action pattern are associated with each other.

エージェントロボット50は更に、選択された動作情報或いはユーザー5に生起させようとする感情を特定する情報を制御装置20に通信部55を介して送信する。 The agent robot 50 further transmits the selected motion information or information that specifies the emotion to be caused by the user 5 to the control device 20 via the communication unit 55.

ユーザー5の感情に応じたエージェントロボット50の動作により、ユーザー5とエージェントロボット50との間に親和性を引き出すことが可能になり、ユーザー5は、エージェントロボット50に対して強い擬人的な印象や感情を感じ得る。 By the action of the agent robot 50 according to the emotion of the user 5, it is possible to draw an affinity between the user 5 and the agent robot 50, and the user 5 has a strong anthropomorphic impression of the agent robot 50. You can feel emotions.

なお、エージェントロボット50が用いる感覚刺激生成モデルと動作パターンは、エージェントロボット50が保持せず、PCや携帯端末等他の機器から通信部55を介して取得するようにしてもよい。 The sensory stimulus generation model and operation pattern used by the agent robot 50 may be acquired from another device such as a PC or a mobile terminal via the communication unit 55 without being held by the agent robot 50.

(1−2−2)環境生成装置
環境生成装置10は、制御装置20による制御により、対象空間Sの環境を生成又は変化させて所定の環境を生成することが可能な任意の機器である。環境生成装置10が環境を生成又は変化させる結果として、対象空間S内のユーザー5の感覚に特定の影響が与えられる。具体的には、環境生成装置10の構成機器として、空気調和装置、音響装置、照明装置、プロジェクター、スピーカー、ロボット、匂い発生機器等が挙げられる。例えば、図1では、環境生成装置10としてのプロジェクターが、対象空間Sの壁面に多数の表示物Rを投影する(プロジェクションマッピング)。表示物Rは、後述するように、エージェントロボット50の動作に同期して変化させる。表示物Rは、点の数・動く方向・大きさ・色彩・形状等を変更することにより、多様な動作を表現する。また、その他の環境生成装置10を同時に作動させ、表示物Rに合わせて、光、色、音、匂い、風等を付与又は変化させてもよい。
(1-2-2) Environment Generation Device The environment generation device 10 is an arbitrary device capable of generating or changing the environment of the target space S to generate a predetermined environment under the control of the control device 20. As a result of the environment generation device 10 generating or changing the environment, the sensation of the user 5 in the target space S is specifically influenced. Specifically, examples of constituent devices of the environment generation device 10 include an air conditioner, an acoustic device, a lighting device, a projector, a speaker, a robot, and an odor generating device. For example, in FIG. 1, the projector as the environment generation device 10 projects a large number of display objects R on the wall surface of the target space S (projection mapping). The display object R is changed in synchronization with the operation of the agent robot 50, as described later. The display object R expresses various actions by changing the number of points, the moving direction, the size, the color, the shape, and the like. Further, the other environment generating apparatus 10 may be operated at the same time, and light, color, sound, odor, wind, or the like may be added or changed according to the display object R.

環境生成装置10は、エージェントロボット50とは独立しており、エージェントロボット50は、ユーザー5と環境生成装置10とを媒介するものであり、それ自体には環境を制御する機能を有さない。なお、エージェントロボット50と環境生成装置10とは構成機器の一部、もしくは全部を共有しても良い。エージェントロボット50は、環境生成装置10を介して、推測されたユーザーの感情に合った環境を実現させる。 The environment generation device 10 is independent of the agent robot 50, and the agent robot 50 mediates between the user 5 and the environment generation device 10, and does not have a function of controlling the environment itself. The agent robot 50 and the environment generation device 10 may share some or all of the constituent devices. The agent robot 50 realizes an environment that matches the estimated emotion of the user via the environment generation device 10.

環境生成装置10による環境の生成や変化は、複数のクラスタに分類された環境条件に基づいて行われる。 The environment generation device 10 generates or changes the environment based on the environmental conditions classified into a plurality of clusters.

「環境条件」は、人の身体及び/又は心に特定の影響を与える物理量を特徴付けるパラメータである。例えば、環境条件は、温度、湿度、風、画像、映像、音響、周波数等の物理量で定義されており、これに応じて、環境生成装置10が動作する。そして、環境生成装置10が環境を生成又は変化させることにより、人の感覚に特定の影響が与えられる。 “Environmental conditions” are parameters that characterize physical quantities that have a particular effect on a person's body and/or mind. For example, the environmental condition is defined by physical quantities such as temperature, humidity, wind, image, video, sound, frequency, etc., and the environment generation device 10 operates in accordance with this. Then, the environment generation device 10 generates or changes the environment, so that the human sense is given a specific influence.

「特定の影響」とは、ユーザー5の五感に所定の感覚が喚起される作用のことをいう。例えば、特定の影響としては、萌彩感(日常生活の忘れがちな感覚に対する感受性を高める感覚)、緊張感(何かしているときに誰かが見ていてやる気がでるような感覚)、包容感(心を包んでくれるような暖かく安らぎに満ちた感覚)、開放感(広々とした場所の中で深呼吸をしているような感覚)、船出感(新しい一歩を踏み出す時に寄り添って応援されるような感覚)、旅情感(少しさみしいけどロマンティックな感覚)、等の感覚が喚起される任意の環境変化が挙げられる。また、特定の影響は、任意の言葉で表現することができ、「楽しい環境」「集中できる環境」「開放感のある環境」といった一般的に観念できる用語で表現されるものでもよいし、「毛布に包まれるような空気が流れる環境」「パーティの空気が流れる環境」「虹色の空気が流れる環境」等感覚的な用語で表現されていてもよい。或いは、特定の影響は、滑らかな感じ(ツルツル)、ざらつく感じ(ザラザラ)、柔らかい感じ(フワフワ)等、触感に関係する擬音語又は擬態語といった必ずしも概念が明確ではない用語で表現されるものでもよい。 The “specific influence” refers to an action that evokes a predetermined sensation in the five senses of the user 5. For example, specific influences include feeling of sensation (sensitivity that enhances sensitivity to forgetfulness in daily life), tension (feeling that someone is watching when doing something), and inclusion. Feeling (a warm and peaceful feeling that envelops your heart), open feeling (feeling like taking a deep breath in a spacious place), feeling of leaving the boat (when you take a new step, you will be closely supported) ), travel feelings (a little lonely but romantic feeling), and any other environmental changes that evoke such sensations. In addition, the specific influence can be expressed in any words, and may be expressed in a generally conceivable term such as “a pleasant environment”, “an environment in which one can concentrate”, or “an environment with a sense of openness”. It may be expressed in a sensory term such as "environment in which air wrapped in a blanket flows," "environment in which party air flows," "environment in which rainbow-colored air flows". Alternatively, the specific influence may be expressed by terms whose meaning is not clear, such as smooth feeling (smoothness), rough feeling (roughness), and soft feeling (fluffy), such as onomatopoeia or mimetic words related to touch. ..

特定の影響と環境条件との対応関係は、対象空間S内に存在するユーザー5が抱いた印象等を集計することにより定義できる。 The correspondence between the specific influence and the environmental condition can be defined by aggregating impressions and the like of the user 5 present in the target space S.

(1−2−3)制御装置
制御装置20は、エージェントロボット50の動作情報又はユーザー5に生起させようとする感情を特定する情報に応じて、環境生成装置10を制御する。制御装置20は、任意のコンピュータにより実現する。制御装置20は、図4に示すように、記憶部21、通信部22、処理部23、制御部24、出力部25を備える。ここでは、コンピュータのCPU、GPU等に記憶装置(ROM、RAM等)に記憶されたプログラムが読み込まれることで、上記各機能が実現される。ただし、これに限らず、制御装置20は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等を用いてハードウェアとして実現されるものでもよい。
(1-2-3) Control Device The control device 20 controls the environment generation device 10 according to the operation information of the agent robot 50 or the information that specifies the emotion that the user 5 tries to cause. The control device 20 is realized by an arbitrary computer. As shown in FIG. 4, the control device 20 includes a storage unit 21, a communication unit 22, a processing unit 23, a control unit 24, and an output unit 25. Here, each of the above functions is realized by reading a program stored in a storage device (ROM, RAM, etc.) into the CPU, GPU, etc. of the computer. However, the control device 20 is not limited to this, and may be realized as hardware using an LSI (Large Scale Integration), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or the like.

エージェントロボット50の動作情報は、制御装置20が予めエージェントロボット50の動作パターンと、後述するクラスタの特徴とを対応付けて保持しておき、その動作パターンに対応するクラスタの特徴を選択する。或いは、制御装置20は、エージェントロボット50においてユーザー5に生起させようとする感情を示す情報を直接取得し、同情報に基づいてクラスタの特徴を選択してもよい。選択されたクラスタの特徴に対応する環境条件には、少なくともエージェントロボット50の動作に同期する画像、映像、音響、照明等の設定が含まれる。これらの情報は、テーブル表のように直接的に対応付けされた情報に限定されず、間接的な対応関係に基づいて対応付けられた情報であってもよい。 As the operation information of the agent robot 50, the control device 20 holds the operation pattern of the agent robot 50 in advance in association with the feature of the cluster described later, and selects the feature of the cluster corresponding to the action pattern. Alternatively, the control device 20 may directly acquire the information indicating the emotion that the user 5 wants to cause in the agent robot 50, and select the feature of the cluster based on the information. The environmental conditions corresponding to the characteristics of the selected cluster include at least settings such as an image, video, sound, and lighting that are synchronized with the operation of the agent robot 50. These pieces of information are not limited to the information directly associated with each other like the table, but may be information associated with each other based on an indirect correspondence.

記憶部21は、各種情報を記憶するものであり、メモリ及びハードディスク等の任意の記憶装置により実現される。ここでは、記憶部21は、クラスタの特徴と環境条件とを関連付けて記憶する。詳しくは、クラスタは、n次元(nは環境条件のパラメータの数)の情報で表現される空間における環境条件の集合からなる。或いは、クラスタは、n次元の情報で表現される空間における環境条件を含む領域からなる。そして、各クラスタには固有の特徴が設定されている。例えば、記憶部21には、図5に示すように、n次元の情報として、温度、湿度、風、画像、映像、音響、周波数等の情報が記憶される。これらの値が所定のクラスタリングの手法により、一のクラスタにグループ化され、クラスタの特徴が設定される。また、ここでいう、クラスタの特徴とは、上述した特定の影響に対応するものである。図5に示す例では、クラスタ1の特徴として「楽しい環境」、クラスタ2の特徴として「集中できる環境」、クラスタ3の特徴として「開放感のある環境」等が設定されている。また、各クラスタには、複数の環境条件が属している。図5に示す例では、クラスタ1に環境条件1〜3が属し、クラスタ2に環境条件4〜6が属し、クラスタ3に環境条件7〜9が属している。また、クラスタをさらに細分化や、さらに所定の次元の特徴を加えることにより新たなクラスタを定義することもできる。また、図5に示す例では、新たな環境条件10が追加され、クラスタ3の環境条件7〜9のうち、環境条件7、8と新たに追加された環境条件10とで、新たなクラスタが生成され、例えば「明るい環境」等の新たな特徴のタグが付けられてもよい。 The storage unit 21 stores various kinds of information, and is realized by an arbitrary storage device such as a memory and a hard disk. Here, the storage unit 21 stores the feature of the cluster and the environmental condition in association with each other. Specifically, the cluster is composed of a set of environmental conditions in a space represented by n-dimensional (n is the number of parameters of the environmental conditions) information. Alternatively, the cluster is made up of regions including environmental conditions in a space represented by n-dimensional information. Then, a unique feature is set for each cluster. For example, as shown in FIG. 5, the storage unit 21 stores information such as temperature, humidity, wind, image, video, sound, and frequency as n-dimensional information. These values are grouped into one cluster by a predetermined clustering method, and the characteristics of the cluster are set. Further, the feature of the cluster mentioned here corresponds to the above-mentioned specific influence. In the example shown in FIG. 5, "fun environment" is set as the characteristic of the cluster 1, "concentrated environment" is set as the characteristic of the cluster 2, and "open environment" is set as the characteristic of the cluster 3. In addition, a plurality of environmental conditions belong to each cluster. In the example shown in FIG. 5, the environmental conditions 1 to 3 belong to the cluster 1, the environmental conditions 4 to 6 belong to the cluster 2, and the environmental conditions 7 to 9 belong to the cluster 3. Further, a new cluster can be defined by further subdividing the cluster or adding a feature of a predetermined dimension. Further, in the example shown in FIG. 5, a new environmental condition 10 is added, and among the environmental conditions 7 to 9 of the cluster 3, the environmental conditions 7 and 8 and the newly added environmental condition 10 create a new cluster. It may be created and tagged with new features, such as "bright environment".

通信部22は、エージェントロボット50との有線又は無線の接続を行う通信インターフェースである。通信部22を介して、エージェントロボット50からエージェントロボット50の動作情報等を取得する。 The communication unit 22 is a communication interface that establishes a wired or wireless connection with the agent robot 50. The operation information of the agent robot 50 is acquired from the agent robot 50 via the communication unit 22.

処理部23は、各種情報処理を実行するものであり、CPUやGPU等のプロセッサ及びメモリにより実現される。具体的には、処理部23は、エージェントロボット50の動作情報やユーザー5に生起させようとする感情を特定する情報に基づき、クラスタに属する環境条件のうち、一の環境条件を選択する機能を有する。より詳しくは、処理部23は、所定の条件で、同一クラスタ内に属する他の環境条件を選択する。また、処理部23は、所定の条件を満たすと、現在の環境条件を、同一クラスタ内の他の環境条件に変更するようにしてもよい。所定の条件とは、例えば、所定時間が経過した状態や、対象空間S内のユーザー5から所定の反応が得られなかった状態をいう。 The processing unit 23 executes various types of information processing, and is realized by a processor such as a CPU or GPU and a memory. Specifically, the processing unit 23 has a function of selecting one of the environmental conditions belonging to the cluster based on the operation information of the agent robot 50 and the information specifying the emotion to be caused by the user 5. Have. More specifically, the processing unit 23 selects another environmental condition belonging to the same cluster under a predetermined condition. In addition, the processing unit 23 may change the current environmental condition to another environmental condition in the same cluster when the predetermined condition is satisfied. The predetermined condition means, for example, a state in which a predetermined time has elapsed or a state in which a predetermined reaction is not obtained from the user 5 in the target space S.

制御部24は、環境生成装置10を制御するものである。具体的に、制御部24は、上述したクラスタの特徴に基づいて、環境生成装置10を制御するための環境条件を記憶部21から抽出し、これに基づいて環境生成装置10を制御する。 The control unit 24 controls the environment generation device 10. Specifically, the control unit 24 extracts an environmental condition for controlling the environment generation device 10 from the storage unit 21 based on the characteristics of the cluster described above, and controls the environment generation device 10 based on this.

出力部25は、環境生成装置10を制御するための制御情報を出力先(例えば、入力端末等)に応じて出力する。 The output unit 25 outputs control information for controlling the environment generation device 10 according to an output destination (for example, an input terminal).

(1−3)空間制御システムの動作
図6は、本実施形態に係る空間制御システム1の動作を説明するためのフローチャートである。
(1-3) Operation of Space Control System FIG. 6 is a flowchart for explaining the operation of the space control system 1 according to the present embodiment.

まず、エージェントロボット50がユーザー5に生起させようとする感情を推測する(S101)。エージェントロボット50は、上述した入力手段を通じて取得された入力情報に基づきユーザー5に生起させようとする感情を推測する。 First, the agent robot 50 estimates the emotion that the user 5 wants to cause (S101). The agent robot 50 estimates the emotion that the user 5 intends to cause based on the input information acquired through the above-mentioned input means.

エージェントロボット50は、推測したユーザー5の感情から感覚刺激生成モデルに基づきユーザー5に生起させようとする感情を選択し、同感情に応じた動作を開始する(S102)。例えば、ユーザー5に生起させようとする感情が楽しい感情であるとすると、明るい音楽に合わせて頭部502を上下に動かしたり、明るい色の光を発したり等、する。このような動作が持続することにより、図7Aに示すように、ユーザー5とエージェントロボット50との間の相互作用から、両者間に親和性を引き出すことが期待できる。 The agent robot 50 selects an emotion to be caused by the user 5 from the estimated emotion of the user 5 based on the sensory stimulus generation model, and starts an action according to the emotion (S102). For example, if the emotion that the user 5 wants to cause is a pleasant emotion, he or she moves the head 502 up and down in accordance with bright music, emits light of bright color, and so on. By continuing such an operation, as shown in FIG. 7A, the interaction between the user 5 and the agent robot 50 can be expected to bring out an affinity between them.

エージェントロボット50は、その動作情報又はユーザー5に生起させようとする感情を特定する情報(以下、動作情報等とする)を制御装置20に送信する(S103)。制御装置20は、受信した動作情報等に応じた、クラスタの特徴を選択する(S104)。例えば、受信した動作情報等が、「楽しい環境」に対応するものであるとする。制御装置20は、図5に示す情報から、「楽しい環境」(クラスタ1)を選択する。クラスタ1には「環境条件1」「環境条件2」「環境条件3」が属しており、これらのうちから一の環境条件が処理部23によりランダムに選択される。 The agent robot 50 transmits the motion information or information specifying the emotion that the user 5 intends to cause (hereinafter, motion information or the like) to the control device 20 (S103). The control device 20 selects the characteristics of the cluster according to the received operation information and the like (S104). For example, it is assumed that the received motion information and the like correspond to the “fun environment”. The control device 20 selects the “fun environment” (cluster 1) from the information shown in FIG. The “environmental condition 1”, the “environmental condition 2”, and the “environmental condition 3” belong to the cluster 1, and one of these environmental conditions is randomly selected by the processing unit 23.

制御装置20は、選択された環境条件に応じて環境生成装置10を制御する(S105)。具体的には、エージェントロボット50の動作情報等に応じて選択された「楽しい環境」の環境条件1〜3の「画像1」は、図7Bに示すように、複数の丸で描いた表示物Rが、対象空間Sの壁Wに表示され、各表示物Rが上下に動く。この動作は、エージェントロボット50の動作と同期したような動作である。ユーザー5は、先のエージェントロボット50との相互作用から、表示物Rとエージェントロボット50との親和性を感じることが期待できる。 The control device 20 controls the environment generation device 10 according to the selected environmental condition (S105). Specifically, as shown in FIG. 7B, the “image 1” of the environmental conditions 1 to 3 of the “fun environment” selected according to the operation information of the agent robot 50 is a display object drawn with a plurality of circles. R is displayed on the wall W of the target space S, and each display object R moves up and down. This operation is similar to the operation of the agent robot 50. The user 5 can be expected to feel the affinity between the display object R and the agent robot 50 from the previous interaction with the agent robot 50.

エージェントロボット50は、所定時間動作後、ステップS102で開始した動作を停止する(S106)。なお、動作の停止は、上述した動作を全て停止させてもよいし、頭部502のみを停止させる等、一部の動きを停止する場合も含む。停止は、対象者であるユーザー5に認知されにくくする状態であればよい。これにより、エージェントロボット50により実現されるエージェントの生物的特徴を減弱させることが可能となる。図7Cに示すように、エージェントロボット50が停止していても、ユーザー5とエージェントロボット50との親和性から、ユーザー5にとってエージェントロボット50により実現されるエージェントが環境を制御している印象を抱かせることが期待できる。 After operating for a predetermined time, the agent robot 50 stops the operation started in step S102 (S106). It should be noted that stopping the operation may include stopping all of the above-described operations, or including stopping a part of the movement such as stopping only the head 502. The stop may be a state where it is difficult for the target user 5 to recognize the stop. This makes it possible to reduce the biological characteristics of the agent realized by the agent robot 50. As shown in FIG. 7C, even if the agent robot 50 is stopped, the affinity between the user 5 and the agent robot 50 gives the user 5 an impression that the agent realized by the agent robot 50 controls the environment. You can expect to get it.

このように、ユーザー5がエージェントロボット50により実現されるエージェントの存在を強く認識・記憶した後、エージェントロボット50の動作を停止させる等の方法で、エージェントの生物的特徴を減弱させことができる。この処理により、エージェントの記憶をユーザー5が保持した状態で環境生成装置10の動作のみを継続することが可能である。その結果,例えば,顕在性の高いエージェントが常に環境内に存在する煩わしさを低減することができる。 As described above, after the user 5 strongly recognizes and stores the existence of the agent realized by the agent robot 50, the biological characteristic of the agent can be reduced by a method such as stopping the operation of the agent robot 50. By this processing, only the operation of the environment generation device 10 can be continued while the user 5 holds the memory of the agent. As a result, for example, it is possible to reduce the annoyance that a highly revealing agent always exists in the environment.

エージェントロボット50は、何らかのユーザー5の感情の変化をもたらすような反応、例えば上述したようなエージェントロボット50との接触、ユーザー5からの発話、生体情報等を取得し(S107)、変化があった場合、或いは所定時間経過した場合は、ステップS101に戻り、ユーザー5に生起させようとする感情を再び推測する。 The agent robot 50 obtains a reaction that causes some change in the emotion of the user 5, for example, contact with the agent robot 50 as described above, utterance from the user 5, biometric information, etc. (S107), and there is a change. In the case, or when a predetermined time has elapsed, the process returns to step S101, and the emotion that the user 5 is trying to cause is estimated again.

以上のように、エージェントロボット50とユーザー5とが双方向に作用することで、エージェントロボット50がユーザー5の状態や志向性に合わせて感覚刺激を選択する一方で、ユーザー5も必要とする感覚刺激を選ぶことができる。 As described above, the agent robot 50 and the user 5 act bidirectionally so that the agent robot 50 selects the sensory stimulus according to the state and the orientation of the user 5, while the user 5 also needs the sense. You can choose the stimulus.

なお、エージェントロボット50は、ステップS102の動作中においても、ユーザー5の反応を取得し、ユーザー5の感情に変化がある場合は、動作パターンを変更してもよい。 The agent robot 50 may acquire the reaction of the user 5 even during the operation of step S102 and change the operation pattern when the emotion of the user 5 changes.

また、エージェントロボット50は、ステップS106においては、停止することに限定されず、例えば、ゆっくりとした動作を継続させてもよいし、動作と静止を繰り返すような動作(例えば、緩急動作)、その他一時的又は間欠的な動作の停止を実行してもよい。同様に、ステップS102においても、動作と静止を繰り返すような動作であってもよい。 In addition, the agent robot 50 is not limited to stopping in step S106, and may be, for example, a slow motion that is continued, a motion that repeats motion and stillness (for example, slow motion), and other operations. A temporary or intermittent stop of the operation may be executed. Similarly, also in step S102, the operation may be such that the operation and the stillness are repeated.

エージェントロボット50により実現されるエージェントに対するユーザー5の記憶が薄れた場合は,エージェントロボット50の動作を再開してユーザー5と相互作用を再開することにより、エージェント自体が備える生物的特徴を再び増強させてもよい。ユーザー5がどれだけエージェントの存在を記憶しているかは、行動や生理状態から推定されたユーザーの環境制御に対する受容性や親和性から判断してもよい。 When the memory of the user 5 for the agent realized by the agent robot 50 is weakened, the operation of the agent robot 50 is restarted and the interaction with the user 5 is restarted to reinforce the biological characteristics of the agent itself. May be. How much the user 5 remembers the presence of the agent may be judged from the acceptability and affinity for the user's environmental control estimated from the behavior and the physiological state.

(1−4)特徴
本実施の形態による空間制御システム1は、環境生成装置10と、エージェントロボット50と、制御装置20とを備える。環境生成装置10は、対象空間Sにおいて一以上の環境が生成可能である。エージェントロボット50は、対象のユーザー5に生起させようとする感情に応じた動作を実行するエージェントを実現する。制御装置20は、エージェントロボット50の動作に応じた所定の環境を生成するように環境生成装置10を制御する。
(1-4) Features The spatial control system 1 according to the present embodiment includes the environment generation device 10, the agent robot 50, and the control device 20. The environment generation device 10 can generate one or more environments in the target space S. The agent robot 50 realizes an agent that executes an action according to the emotion that the target user 5 tries to cause. The control device 20 controls the environment generation device 10 so as to generate a predetermined environment according to the operation of the agent robot 50.

ロボット等により実現されるエージェントは、場の雰囲気を和らげる等の能動的な空間づくりを演出することが可能である。しかし、人は、かかるエージェントと長時間接していると、エージェントの存在に馴化が生じる(飽きる)ため、その効果を長時間持続させることが難しい。本開示に係る空間制御システム1は、エージェントロボット50により実現されるエージェントが、環境を制御している印象をユーザー5に抱かせる演出を表現することができる。例えばエージェントロボット50の動作を停止してエージェントの実体を消去する動作も実行することにより、馴化が進まない雰囲気の程度までエージェントの存在感をつくることが可能となる。このような機能により、エージェントがもたらす能動的な効果を長時間持続させることが可能になる。このようなエージェントが生み出す雰囲気は必ずしも明示的に作り出されるのではなく、人の無意識的な部分で持続させることにより、会議や職場環境、ホスピス、レストラン、家庭等、様々な場面における雰囲気づくりに有益となる。 An agent realized by a robot or the like can produce an active space such as softening the atmosphere of a place. However, when a person is in contact with such an agent for a long time, the existence of the agent becomes accustomed (becomes tired), and thus it is difficult to maintain the effect for a long time. The space control system 1 according to the present disclosure can represent an effect in which the agent realized by the agent robot 50 makes the user 5 have the impression of controlling the environment. For example, by stopping the operation of the agent robot 50 and executing the operation of erasing the substance of the agent, it is possible to create the presence of the agent to the extent that the habituation does not proceed. With such a function, the active effect of the agent can be maintained for a long time. The atmosphere created by such agents is not always created explicitly, but it is useful for creating an atmosphere in various situations such as conferences, work environments, hospice, restaurants, homes, etc. by maintaining it in the unconscious part of the person. Becomes

(1−5)変形例
(1−5−1)変形例1
本開示に空間制御システム1は、例えば空調システムに適用可能である。この場合、空気調和装置のインターフェースとして視聴覚を通じてユーザー5に認知されるエージェントを設ける。インターフェースは、ロボットであってもよいし、音声や表示装置に表示されるキャラクターであってもよい。例えば、エージェントが環境を制御している印象をユーザー5に抱かせる演出を行い、その後ユーザー5が空気感をコントロールする。このような形態で空調をコントロールすることで、温度、湿度、気流等を調整する、という空気調和装置の役割に追加して、エージェントが部屋の雰囲気を生成するという感覚をユーザー5に付与することが期待できる。
(1-5) Modified Example (1-5-1) Modified Example 1
The space control system 1 according to the present disclosure is applicable to, for example, an air conditioning system. In this case, an agent which is recognized by the user 5 through audiovisual sense is provided as an interface of the air conditioner. The interface may be a robot or a character displayed on a voice or a display device. For example, the agent gives an impression that the user 5 has an impression of controlling the environment, and then the user 5 controls the feeling of air. In addition to the role of the air conditioner, which controls the temperature, humidity, airflow, etc. by controlling the air conditioning in this manner, the user 5 is given the sensation that the agent creates the atmosphere in the room. Can be expected.

(1−5−2)変形例2
上記説明では、エージェントロボット50がユーザー5の感情を推測するための入力手段として、キーボード、マウス、タッチパネル、触感デバイス等の入力装置を有する任意の端末装置を用いてもよい。この場合、端末装置30は有線又は無線でエージェントロボット50に接続され、通信部55を介してユーザー5の感情を推測するために必要な情報を送信する。また、この場合、ユーザー5がなりたい感情を音声やテキストで積極的に入力するようにしてもよい。或いは、ユーザー5は、なりたい感情を擬態語又は擬音語等で表現したものを音声やテキストで入力してもよい。
(1-5-2) Modification 2
In the above description, an arbitrary terminal device having an input device such as a keyboard, a mouse, a touch panel, or a tactile device may be used as the input unit for the agent robot 50 to infer the emotion of the user 5. In this case, the terminal device 30 is connected to the agent robot 50 by wire or wirelessly, and transmits information necessary for estimating the emotion of the user 5 via the communication unit 55. Further, in this case, the user 5 may actively input the emotion he/she wants to be by voice or text. Alternatively, the user 5 may input, by voice or text, what expresses the emotion he/she wants to be, in an onomatopoeia or an onomatopoeia.

また、ユーザー5の感情を推測する手段は外部に設けられ、エージェントロボット50等のアクチュエーターは、同手段よりユーザー5の感情状態を示す情報を取得してもよい。 Further, the means for estimating the emotion of the user 5 may be provided outside, and the actuator such as the agent robot 50 may acquire the information indicating the emotional state of the user 5 from the same means.

(1−5−3)変形例3
上記説明では、環境生成装置10と制御装置20とは別の装置としていたが、これらは同一の装置に一体として組み込まれるものでもよい。
(1-5-3) Modification 3
In the above description, the environment generation device 10 and the control device 20 are separate devices, but they may be integrated into the same device.

(1−5−4)変形例4
上記説明では、エージェントは擬人的なエージェントロボット50により実現される例に挙げていたが、これに限定されない。エージェントは、空気調和装置、プロジェクター、ロボット、色彩変化機器、リズム機器、光量変化機器、音声機器、匂い発生機器、及び表示装置等のアクチュエーターによって実現され、人が親和性を感じられる生物的要素をもつ存在であればよい。エージェントを構成する要素は、その動作によりユーザー5の視覚、聴覚、触覚、嗅覚、味覚のうち少なくとも1つの感覚を喚起する装置により実現されるものであればよい。
(1-5-4) Modification 4
In the above description, the agent is described as an example realized by the anthropomorphic agent robot 50, but the present invention is not limited to this. The agent is realized by actuators such as an air conditioner, a projector, a robot, a color changing device, a rhythm device, a light intensity changing device, a voice device, an odor generating device, and a display device, and realizes biological elements with which humans feel affinity. It only needs to exist. The element constituting the agent may be realized by a device that evokes at least one of the sense of sight, hearing, touch, smell, and taste of the user 5 by its operation.

上記アクチュエーターは、環境生成装置10と別の装置である必要はなく、環境生成装置10の一部であってもよい。また、アクチュエーターは、制御装置20と別の装置である必要はなく、制御装置20の一部であってもよく、或いは制御装置20を含んでいてもよい。 The actuator does not need to be a device different from the environment generation device 10, and may be a part of the environment generation device 10. Further, the actuator does not have to be a device different from the control device 20, and may be a part of the control device 20 or may include the control device 20.

(2)空間制御システムにおける空気感エージェントの創成
以下、本開示の空間制御システムにおけるエージェントの意義や機能について説明する。
(2) Creation of Air-Sensing Agent in Space Control System Hereinafter, the significance and function of the agent in the space control system of the present disclosure will be described.

(2−1)エージェントのミニマルデザイン
ミニマルデザインとは、ある対象の存在をユーザーの心の中に成り立たせる為に必要な最小の感覚刺激を指す。このような最小限の刺激だけを提示することで、ユーザーが対象について自由に想像可能な余白が生まれる。このようなユーザーの想像力を適切に喚起するミニマルデザインをうまくエージェント設計に取り入れることで、設計者の存在をユーザーに感じさせにくくなり、エージェントの“あざとさ”を大幅に軽減できると期待できる。
(2-1) Minimal design of agent Minimal design refers to the minimum sensory stimulus necessary to establish the existence of an object in the mind of the user. By presenting only such a minimal stimulus, a blank space is created in which the user can freely imagine the target. By properly incorporating the minimal design that appropriately arouse the imagination of the user into the agent design, it becomes difficult for the user to feel the existence of the designer, and it can be expected that the "brilliance" of the agent can be greatly reduced.

一方で、ユーザーがエージェントに対して持続的に高い想像力を働かせ、その存在感を感じ続けることは非常に困難であり、エージェントの最低限の存在感を常にユーザーに感じさせ続けるための演出も同時に必要である。例えば、トップダウンにその存在を示唆するだけで、そこに実際のエージェント由来の感覚入力が存在しなくても、人の脳はそこにエージェントがいるかのような活動を示すことが知られている。またリズムや運動随伴性等感覚非依存の物理特性をうまく利用することで、実体が無いエージェントの存在感を高めることも知られている。これらの演出方法を駆使して、エージェントの存在感を持続的に安定化させる工夫についても考える必要がある。 On the other hand, it is extremely difficult for the user to continuously exert a high imagination on the agent and to continue to feel its presence, and at the same time, the production for keeping the user's minimum presence always felt. is necessary. For example, it is known that the human brain shows activity as if there is an agent there, even if there is no sensory input from the actual agent, just by suggesting its existence in the top-down direction. .. It is also known to enhance the presence of intangible agents by making good use of sensory-independent physical properties such as rhythm and concomitant movement. It is also necessary to consider ways to make the presence of agents stable and stable by making full use of these rendering methods.

(2−2)身体感覚にもとづく心理サポート
ミニマルデザインにもとづくエージェントがユーザーに働きかける方法として、身体感覚を利用することが考えられる。人の認知や感情は、それとは直接的には関係ない感覚刺激の提示によって変容することが知られている。例えば、持っている物の重さで意思決定の質が変化する、周辺視に提示する視覚的フローが我々の行動や感情にも影響を与える、柔らかい触覚を感じさせることで疑心暗鬼が低減する、等の身体感覚と認知や感情の関係に言及した数多くの知見が知られている。身体感覚が人の認知や思考に影響を与えるプロセスは身体性認知と呼ばれる。発明者らは、このような感覚が認知や態度に与える潜在的影響をうまく利用することで、バックグラウンドでの心理サポートをユーザーが取り組んでいる主作業を邪魔しないで提供可能になるのではないかと考えた。具体的にはエージェントが様々な感覚刺激を生成することにより、ユーザーに心理サポート的な働きかけを行うというシステムデザインである。
(2-2) Psychological support based on physical sensation As a method for agents based on minimal design to work on users, it is possible to use physical sensation. It is known that human cognition and emotions are transformed by the presentation of sensory stimuli that are not directly related to it. For example, the quality of decision-making changes depending on the weight of what you have, the visual flow presented to peripheral vision also affects our actions and emotions, and the soft tactile sensation reduces suspicion. Many findings are known that refer to the relationship between physical sensations such as, and cognition and emotions. The process by which physical sensations affect human perception and thinking is called somatic cognition. The inventors do not take advantage of the potential impact of these sensations on cognition and attitudes to provide background psychological support without disturbing the main work users are doing. I thought. Specifically, it is a system design in which agents generate various sensory stimuli to encourage users to perform psychological support.

一方、このような身体性認知に関する心理学的知見の再現性が著しく低いとの報告もある。その理由として、本来的には身体感覚を単一の感覚のみに集約することが非常に難しいのにも関わらず、現状では少数サンプルで行った限定された状況における実験室的知見を“言語的説明”により過剰汎化している報告が多いことが挙げられる。このような過剰汎化を避けるためには、様々な多感覚刺激が我々の認知や感情に与える影響について精査した大量のデータを集め、その中から集団で普遍的に共有されている感覚と認知や感情との間の統計的関係を機械学習する。ことで、認知や感情へ効果的に影響を与える感覚刺激の生成モデルを抽出していく必要がある。 On the other hand, it is also reported that the reproducibility of such psychological knowledge regarding physical recognition is extremely low. The reason for this is that, although it is very difficult to concentrate bodily sensations into only a single sensation by nature, at present, the laboratory findings in a limited situation conducted in a small number of samples are “verbally”. There are many reports of over-generalization due to "explanation". In order to avoid such over-generalization, we gathered a large amount of data that scrutinized the effects of various multisensory stimuli on our cognition and emotions, from which the senses and cognitions commonly shared by the group were collected. Machine learning the statistical relationship between emotions and emotions. Therefore, it is necessary to extract the generation model of the sensory stimulus that effectively affects cognition and emotion.

(2−3)ユーザーとエージェントの相互作用的なループの形成
前述のように言語的説明に依らない生成モデルを用いてユーザーの心理サポートを行う場合、どのようにユーザーの状況に適合した生成モデルを適切に選択するのか、という問題が生じる。その一つの方法として、様々なセンサーでユーザーの行動・生理データを収集し、そこから推定されたユーザーの内部状態に対して適切なサポートを自動的に提供するようなシステムが知られている。しかし、人の心というものは抽象的であり個人差も大きいため、どのようなサポートが必要な状況なのかを客観的に外部から推測することは非常に困難である。またこのような一方向的サポートは、人の心理的リアクタンスを強め、システムに対する反発を生じさせる恐れもある。
(2-3) Formation of interactive loop between user and agent When the psychological support of the user is performed using the generative model that does not depend on the linguistic explanation as described above, how is the generative model adapted to the user's situation? The question arises as to whether or not to select properly. As one of such methods, there is known a system that collects user's behavior/physiological data with various sensors and automatically provides appropriate support for the internal state of the user estimated from the collected data. However, since the human mind is abstract and the individual differences are large, it is extremely difficult to externally guess what kind of support is needed. In addition, such one-way support may increase the psychological reactance of a person and cause a repulsion to the system.

そこでエージェントの中に様々な特性の感覚刺激の生成モデルを用意しておき、過去に学習したユーザーの個人特性から推測される生成モデルの候補をエージェントが刺激提示により推薦する一方で、ユーザーも必要としているパターンをエージェントに働きかけながら自ら選び取る、といったような、ユーザーの自発性を加味した双方向的なループ構造のシステムデザインが必要になる。このようなユーザーとシステムの双方向的関係性は、特にユーザーがシステムを機械ではなくエージェントであると認識することで強まる。従って、システム全体をエージェント化することは、このようなループ構造をスムーズに形成する上でも重要である。さらにこのようなループ構造を形成するためには、ユーザーがタッチ等により直感的にエージェントに働きかけを行うことが可能な触覚的インターフェースの存在も重要である。 Therefore, we prepare generative models of sensory stimuli with various characteristics in the agent, and while the agent recommends generative model candidates inferred from the personal characteristics of the users who have learned in the past by presenting stimuli, the user also needs It is necessary to design a system with a bidirectional loop structure that takes into account the user's spontaneity, such as selecting the pattern that they are trying to do while working on the agent. This interactive relationship between the user and the system is strengthened especially when the user recognizes the system as an agent rather than a machine. Therefore, making the entire system an agent is also important for smoothly forming such a loop structure. Furthermore, in order to form such a loop structure, it is also important to have a tactile interface that allows the user to intuitively work on the agent by touching or the like.

(2−4)集団でエージェントを共有するエコシステムの構築
これまで述べてきたような寄り添いエージェントを設計するためには、エージェントの内部に様々な心理サポートを行うための感覚刺激の生成モデルを保持させておく必要がある。また、このような生成モデルの個数が有限であると、やがてユーザーはエージェントの振る舞いに“あざとさ”を感じてしまったり、飽きてしまったりする恐れがある。従って、エージェントには逐次、新しい生成モデルを獲得させていく必要がある。近年、人工生命等の分野において、新しいパターンを自己組織的にプログラムに生成させる試みがなされている。一方で、このような“機械に任せる”パターン生成の方法のみでは、既存のものと類似したパターンが生まれやすかったり、人の感性と大きく乖離した無意味なパターンが生まれやすくなったり等、意味のある新しい生成モデルを安定的に増やしていくことが難しい。
(2-4) Construction of an ecosystem for sharing agents in a group In order to design a close-in agent as described above, a generation model of sensory stimuli for performing various psychological support is held inside the agent. I need to keep it. In addition, if the number of such generative models is finite, the user may eventually feel "aggression" in the behavior of the agent or become tired of it. Therefore, it is necessary for the agent to successively acquire new generative models. In recent years, attempts have been made to generate new patterns in a program in a self-organizing manner in fields such as artificial life. On the other hand, with such a "machine-dependent" pattern generation method, it is easy to produce patterns similar to existing ones, and it is easy to produce meaningless patterns that are largely different from human sensibilities. It is difficult to stably increase a new generative model.

そこで、“今はこのような感覚刺激を受け取りたい気分である”ということを、ユーザー自身が自ら感覚刺激を創り出すことで表現していくような手段を用意し、ユーザーが作成した感覚刺激を常にネットワークで共有されたデーターベースに貯蓄、新しい生成モデルの獲得に利用していくデザインが必要になる。しかし、専門性の低い一般ユーザーに複雑な感覚刺激を一から作成することを要求するシステムは現実的ではない。そこで全体で共通の感覚刺激のプロトコルを設定した上で、感覚刺激を作成する手段として、非常に緻密に感覚刺激を作成することが可能な本格的なコンピュータ上におけるビルダーアプリケーションから、それを子供や高齢者でも操作可能なタッチパネル上でのGUIに簡略化したもの、さらに直感的に触ることで無意識的に感覚刺激を生成可能な触感インターフェースまで、幅広い種類を用意することで、ユーザーが創造活動に参入する障壁を極限まで下げる。そして多様なユーザーがネットワークを介して寄り添いエージェント(生成モデル群)を共有したエコシステムを構築することで、持続的にエージェントの内部に生成モデルを増やしていくことを試みる。理想的には、ユーザーが自ら創作活動を行っている自覚が無い状態で、実はユーザーにより新しい感覚刺激がエコシステムの中で生み出され、それをデーターベースに機械的に吸い上げ貯蔵されていくような形が望ましい。このようなエージェントを集団で共有するデザインにおいて、見知らぬ他人が作成した新しいタイプの感覚刺激にエージェントを通じて接することで、ユーザーの中に潜在的にある創造性が活性化され、そこにまた新しい創造の種が生まれるというセレンディピティの連鎖が生じていく開放性が高いエコシステムを構築することができれば、エージェントは持続的に新しい生成モデルを獲得し続けることが可能になる。 Therefore, we have prepared a method that allows the user to express the feeling "I want to receive such a sensory stimulus" by creating the sensory stimulus by himself, and always create the sensory stimulus created by the user. It is necessary to save the database shared by the network and design it for use in acquiring a new generative model. However, a system that requires general users with low expertise to create complex sensory stimuli from scratch is not practical. Therefore, after setting a common sensory stimulus protocol as a whole, as a means of creating sensory stimuli, it is possible to create it from a builder application on a full-scale computer that can create sensory stimuli very precisely. A wide variety of types are available, including a simplified GUI on a touch panel that even elderly people can operate, and a tactile interface that can generate sensory stimuli by touching them intuitively. Lower barriers to entry to the limit. By constructing an ecosystem in which various users share agents (generation models) that are close to each other via a network, we try to continuously increase the generation models inside the agents. Ideally, a new sensory stimulus is actually created by the user in the ecosystem without being aware of the user's own creative activity, and it is mechanically absorbed and stored in the database. Shape is desirable. In the design of sharing such agents as a group, by contacting a new type of sensory stimulus created by a stranger through the agent, the creativity that is potentially present in the user is activated, and there is also a seed of new creation. If we can build an ecosystem with a high degree of openness, in which a serendipity chain is created, agents will be able to continuously acquire new generation models.

(2−5)提案する「空気感エージェント」の概要
“会議が難航して空気が澱む”や、逆に“空気が赤ちゃんによって和む”、といったように、しばしば物理的な空気の特性を超えた形でより主観的に空気の特性を感じることがある。また森の中の日だまりの中に何か大きなものに抱擁されるような暖かさを感じたり、夜中の墓地で誰もいない暗闇から視線を感じたりといったように、しばしば空気の中に見えないエージェントの気配を感じることもある。このような空気に感じる我々の主観的印象を“空気感”という言葉で定義し、このような空気感自体を上述した原理に従ってエージェント化することを試みる。
(2-5) Outline of the proposed "air-sensing agent", which often exceeds the physical characteristics of air, such as "meeting becomes difficult and the air becomes stagnant" or "air is softened by the baby". You may feel the characteristics of air more subjectively in form. Agents often invisible in the air, such as feeling the warmth of being embraced by something big in the sun in the forest, or gaze from the darkness of no one in the cemetery at night. You may feel a sign of. We define our subjective impression of the atmosphere by the word "air feeling", and try to make such an air feeling an agent according to the above-mentioned principle.

具体的には、空気調和装置に加えて様々な種類の感覚刺激を部屋全体に提示することで様々な空気感を生成することが可能な部屋とエージェントの存在感を安定化させるための空気感ロボットを用いて空気感エージェントの実装を試みる。 Specifically, in addition to an air conditioner, various kinds of sensory stimuli are presented to the entire room to create various feelings of air. We try to implement an air-sensing agent using a robot.

図8に空気感エージェントの全体像を示す。空気感エージェントが生成する感覚刺激として空気調和装置による物理的な空気の温度、湿度、風向や風量等に加えて、プロジェクターやスピーカー、匂い発生機器によって部屋全体に提示する視覚や聴覚、嗅覚等の多感覚刺激を想定している。人の空気の感じ方やそれに対する代謝活動は、直接的に空気とは関係ない視聴覚刺激によって影響を受けることがこれまでの研究で報告されており、空気調和装置に連動する形で多感覚の刺激提示装置を動かすことにより、従来の空気調和装置では生み出せなかった様々な空気感を生成可能になる。そしてこのような空気感を通じて、部屋の中にいるユーザーに対してバックグラウンドで働きかけ続けることで、様々な種類の心理サポートの提供が実現できると期待している。またユーザーは単に受動的に空気感による心理サポートを享受するだけではなく、様々なレベルで用意された空気感ビルダーによって自ら望む空気感を作成することも可能である。 Fig. 8 shows the overall image of the air sensation agent. In addition to physical air temperature, humidity, wind direction and air volume by the air conditioner as sensory stimuli generated by the air sensation agent, the visual, auditory, and olfactory senses presented to the entire room by the projector, speaker, and odor generating device Multisensory stimulation is assumed. It has been reported in previous studies that human perception of air and its metabolic activity are affected by audiovisual stimuli that are not directly related to air. By moving the stimulus presenting device, it becomes possible to generate various air feelings that cannot be produced by the conventional air conditioner. I hope that through such a feeling of atmosphere, it will be possible to provide various types of psychological support by continuing to work on the users in the room in the background. Further, the user can not only passively enjoy the psychological support by the air feeling, but also can create the air feeling desired by the air feeling builder prepared at various levels.

本システムにおいて、様々な多感覚な感覚情報で構成される空気感は、触覚表現で記述される低次元空間に写像・保持される。触感は他の感覚と比較して、その感じ方に個体間で個人差が少なく、実際には直接触れない空気感を疑似的に触覚にもとづいた尺度により記述することで、複数のユーザーでエージェントが生み出す空気感を共有しやすくする。そしてこの触感的空間の中で、ユーザーによって作成され蓄積された様々な感覚刺激のクラスタリングを行い、それに基づいて空気感を生起する為のミニマルな感覚刺激の生成モデルをエージェントに獲得させていく。 In this system, the air sensation composed of various multi-sensory sensory information is mapped and held in a low-dimensional space described by tactile expression. Compared with other sensations, there are few individual differences in the sense of touch, and by describing a feeling of air that is not actually touched directly on a pseudo-tactile scale, it is possible for multiple users to feel Make it easy to share the feeling of air created by. Then, in this tactile space, various sensory stimuli created and accumulated by the user are clustered, and the agent is made to acquire a minimalistic sensory stimulus generation model for generating an air sensation based on the clustering.

本システムにおいて、空気感エージェントが過去の来歴に応じて統計的に空気感を生み出す生成モデルを選択するだけではなく、様々な触感を伴ったセンサーを複合的に組み合わせて作成した触感インターフェースを“触る”ことでユーザーが望む空気感を自発的に選んでいくという双方向的なループ構造をユーザーと空気感エージェントの間に構築する。このようなループ構造を形成することで、たとえエージェントがユーザーの望む心理サポートを正確に推測できなくても、ユーザーが求める空気感にたどり着きやすくなる。 In this system, the air sensation agent not only selects a generative model that statistically creates an air sensation according to the past history, but also "touches" the tactile sensation interface created by combining multiple sensors with various tactile sensations. By doing so, we will build a bidirectional loop structure between the user and the air feeling agent that will spontaneously select the air feeling desired by the user. By forming such a loop structure, even if the agent cannot accurately infer the psychological support desired by the user, it is easy to reach the air feeling desired by the user.

ユーザーと空気感エージェントの間の双方向的なループ構造を安定的に確立するためには、場に空気感をもたらしている原因がエージェントである、とユーザーが認識をする必要がある。このような認識をトップダウンで強化するために空気感ロボットを用意する。基本的に空気感エージェントは“あざとさ”をユーザーに感じさせないために、バックグラウンドでミニマルな感覚刺激を提示し続けるのみであるが、このようなミニマルな感覚刺激と連動して実体がある空気感ロボットを適宜動作させることで、空気感を生み出しているのはエージェントである、というユーザーの認識を持続させ続ける(例えば、図7B)。ただユーザーと空気感エージェントの間に双方向的なループ構造が十分に確立されている場合は、実体のあるロボットは“あざとさ”を感じさせる要因になるため、活動を静止させる(例えば、図7C)。 In order to stably establish the bidirectional loop structure between the user and the air feeling agent, the user needs to recognize that the agent is the cause of the air feeling in the field. An aerial robot is prepared to enhance such recognition from the top down. Basically, the air-sensing agent only presents minimal sensory stimuli in the background in order to prevent the user from feeling "vibrancy". By appropriately operating the feeling robot, it continues to keep the user's recognition that it is the agent that creates the air feeling (for example, FIG. 7B). However, if a bidirectional loop structure is sufficiently established between the user and the air-sensing agent, the real robot becomes a factor that causes "vibrancy" to be felt, and the activity is stopped (for example, as shown in Fig. 7C).

(3)エージェントロボットのデザイン
図9A〜図9Eは、上述したエージェントロボットのデザインの一例を示す。図9Aは、エージェントロボットの上方斜視図である。図9Bは、エージェントロボットの下方斜視図である。図9Cは、エージェントロボットの正面図である。図9Dは、エージェントロボットの動作後の状態(図2に示す頭部502を引っ込めた状態)を正面から示す図である。図9Eは、エージェントロボットの平面図である。図9Fは、エージェントロボットの底面図である。
(3) Agent Robot Design FIGS. 9A to 9E show an example of the above-described agent robot design. FIG. 9A is a top perspective view of the agent robot. FIG. 9B is a lower perspective view of the agent robot. FIG. 9C is a front view of the agent robot. FIG. 9D is a front view showing a state after the operation of the agent robot (a state in which the head 502 shown in FIG. 2 is retracted). FIG. 9E is a plan view of the agent robot. FIG. 9F is a bottom view of the agent robot.

この機器は、内部にコンピュータ装置が備えられてもよく、ユーザーの入力動作、或いはユーザー動作に基づき得た情報から、空間においてユーザーの感情に沿った環境を生成するための動作や出力を実行する。中央から突き出た頭部をユーザーが触れることにより、頭部が図9Dの位置まで下降したり、再び上昇したりする。頭部は連続して上下動を行う場合もある。 This device may be internally provided with a computer device, and performs an operation or an output for generating an environment in accordance with a user's emotions in space from an input operation of the user or information obtained based on the user operation. .. When the user touches the head protruding from the center, the head moves down to the position shown in FIG. 9D or moves up again. The head may move up and down continuously.

(4)他の実施形態
以上、実施形態を説明したが、特許請求の範囲の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。
(4) Other Embodiments The embodiments have been described above, but it will be understood that various changes in form and details can be made without departing from the spirit and scope of the claims.

すなわち、本開示は、上記各実施形態そのままに限定されるものではない。本開示は、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できるものである。また、本開示は、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の開示を形成できるものである。例えば、実施形態に示される全構成要素から幾つかの構成要素は削除してもよいものである。さらに、異なる実施形態に構成要素を適宜組み合わせてもよいものである。 That is, the present disclosure is not limited to the above embodiments as they are. The present disclosure can be embodied by modifying the constituent elements within the scope not departing from the gist of the present invention at the implementation stage. In addition, the present disclosure can form various disclosures by appropriately combining a plurality of constituent elements disclosed in each of the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment. Further, the constituent elements may be appropriately combined with different embodiments.

1 :空間制御システム
10 :環境生成装置
20 :制御装置
21 :記憶部
22 :通信部
23 :処理部
24 :制御部
25 :出力部
30 :端末装置
50 :エージェントロボット
51 :制御部
52 :検出部
53 :入力部
54 :メモリ
55 :通信部
56 :出力部
57 :電源
501 :胴体部
502 :頭部
503 :ベース面
504 :底部
R :表示物
S :対象空間
W :壁
1: space control system 10: environment generation device 20: control device 21: storage unit 22: communication unit 23: processing unit 24: control unit 25: output unit 30: terminal device 50: agent robot 51: control unit 52: detection unit 53: Input part 54: Memory 55: Communication part 56: Output part 57: Power supply 501: Body part 502: Head part 503: Base surface 504: Bottom part R: Display object S: Target space W: Wall

特開2003−299013号公報JP, 2003-299013, A

Claims (11)

対象空間において一以上の環境が生成可能な環境生成装置と、
対象のユーザーに生起させようとする感情に応じた動作を実行するエージェントを実現するアクチュエーターと、
前記エージェントの動作に応じた所定の環境を生成するように前記環境生成装置を制御する制御装置と、
を備える、空間制御システム。
An environment generation device capable of generating one or more environments in the target space,
An actuator that realizes an agent that performs an action according to the emotion that the target user tries to cause,
A control device for controlling the environment generation device so as to generate a predetermined environment according to the operation of the agent;
And a spatial control system.
前記アクチュエーターは、空気調和装置、ロボット、色彩変化機器、リズム機器、光量変化機器、音声機器、匂い発生機器、プロジェクター、及び表示装置の少なくとも一つである、
請求項1に記載の空間制御システム。
The actuator is at least one of an air conditioner, a robot, a color changing device, a rhythm device, a light intensity changing device, a voice device, an odor generating device, a projector, and a display device.
The space control system according to claim 1.
前記エージェントは、生物的要素を有するインターフェースを含む、
請求項1又は2に記載の空間制御システム。
The agent includes an interface having a biological component,
The space control system according to claim 1.
前記アクチュエーターは、複数の動作を実行する前記エージェントを実現可能であり、
前記環境生成装置は複数の環境を生成可能であり、
前記複数の動作と前記複数の環境とは対応付けられ、
前記制御装置は、前記複数の動作と前記複数の環境との対応付けに基づき前記所定の環境を生成するように前記環境生成装置を制御する、
請求項1から3のいずれかに記載の空間制御システム。
The actuator is capable of implementing the agent to perform multiple actions,
The environment generation device is capable of generating a plurality of environments,
The plurality of operations and the plurality of environments are associated with each other,
The control device controls the environment generation device to generate the predetermined environment based on a correspondence between the plurality of operations and the plurality of environments,
The space control system according to any one of claims 1 to 3.
複数の前記環境生成装置を備え、
前記制御装置は、前記エージェントの動作に応じた所定の環境を生成するように前記複数の環境生成装置を制御する、
請求項1から4のいずれかに記載の空間制御システム。
A plurality of the environment generation devices,
The control device controls the plurality of environment generation devices so as to generate a predetermined environment according to the operation of the agent,
The space control system according to claim 1.
前記制御装置は、前記エージェントの動作に同期して前記環境生成装置に前記所定の環境を生成させた後、前記環境生成装置による前記環境の生成を一時的又は間欠的に停止させ、前記アクチュエーターは、及び前記エージェントの動作を一時的又は間欠的に停止させる、
請求項1から5のいずれかに記載の空間制御システム。
The control device causes the environment generation device to generate the predetermined environment in synchronization with the operation of the agent, and then temporarily or intermittently stops generation of the environment by the environment generation device, and the actuator is , And temporarily or intermittently stop the operation of the agent,
The space control system according to claim 1.
前記制御装置は、前記エージェントの動作に同期して前記環境生成装置に前記所定の環境を生成させている間、前記アクチュエーターは前記エージェントの動作を停止させる、
請求項1から6のいずれかに記載の空間制御システム。
The control device causes the actuator to stop the operation of the agent while causing the environment generation device to generate the predetermined environment in synchronization with the operation of the agent.
The space control system according to claim 1.
前記環境生成装置は、前記対象空間内においてユーザーの感覚を刺激する装置である、
請求項1から7のいずれかに記載の空間制御システム。
The environment generation device is a device for stimulating the sense of the user in the target space,
The space control system according to claim 1.
前記アクチュエーターは、前記エージェントの動作によりユーザーの五感のうち少なくとも1つの感覚を喚起させる装置である、
請求項1から8のいずれかに記載の空間制御システム。
The actuator is a device that evokes at least one of the five senses of the user by the action of the agent.
The space control system according to claim 1.
前記環境生成装置は、空気調和装置、音響装置、照明装置、匂い発生機器、又はプロジェクターである、
請求項1から9のいずれかに記載の空間制御システム。
The environment generation device is an air conditioner, an acoustic device, a lighting device, an odor generating device, or a projector,
The space control system according to any one of claims 1 to 9.
入力情報を取得する入力装置を備え、
前記アクチュエーターは、前記入力情報に基づき、前記ユーザーに生起させようとする感情に応じた動作を実行するエージェントを実現し、
前記入力情報は、擬態語又は擬音語、或いは擬態語又は擬音語に対応する事象に基づき特定された情報を含む、
請求項1から10のいずれかに記載の空間制御システム。
Equipped with an input device that acquires input information,
Based on the input information, the actuator realizes an agent that performs an action according to the emotion that the user is trying to cause,
The input information includes onomatopoeia or onomatopoeia, or information identified based on an event corresponding to the onomatopoeia or onomatopoeia,
The space control system according to claim 1.
JP2019003125A 2019-01-11 2019-01-11 Spatial control system Active JP7189434B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019003125A JP7189434B2 (en) 2019-01-11 2019-01-11 Spatial control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019003125A JP7189434B2 (en) 2019-01-11 2019-01-11 Spatial control system

Publications (2)

Publication Number Publication Date
JP2020113025A true JP2020113025A (en) 2020-07-27
JP7189434B2 JP7189434B2 (en) 2022-12-14

Family

ID=71667065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019003125A Active JP7189434B2 (en) 2019-01-11 2019-01-11 Spatial control system

Country Status (1)

Country Link
JP (1) JP7189434B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7185968B1 (en) 2022-04-28 2022-12-08 AI Infinity 株式会社 Vibration information output system and vibration information output program

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005317A (en) * 1998-06-22 2000-01-11 Seiko Epson Corp State control assistance apparatus for living body and robot controller
JP2002041276A (en) * 2000-07-24 2002-02-08 Sony Corp Interactive operation-supporting system, interactive operation-supporting method and recording medium
JP2005327096A (en) * 2004-05-14 2005-11-24 Nippon Telegr & Teleph Corp <Ntt> Communication support method, communication support device, program for supporting communication, and recording medium stored with the program
JP2006320621A (en) * 2005-05-20 2006-11-30 Sharp Corp Stress care apparatus, and air-conditioner and robot apparatus equipped with stress care apparatus
JP2010022555A (en) * 2008-07-18 2010-02-04 Sharp Corp Stimulus control system using respiratory sensor
JP2011215462A (en) * 2010-04-01 2011-10-27 Keio Gijuku Olfactory information controller, olfactory information control method and scent generation system
JP2014075045A (en) * 2012-10-04 2014-04-24 Sharp Corp Controller, method for controlling controller, device to be controlled, server, control program, and recording medium
WO2014192457A1 (en) * 2013-05-30 2014-12-04 ソニー株式会社 Client device, control method, system and program
JP2016135530A (en) * 2015-01-23 2016-07-28 シャープ株式会社 Robot control device and robot
WO2017051577A1 (en) * 2015-09-25 2017-03-30 ソニー株式会社 Emotional response inducement system and emotional response inducement method
JP2018022331A (en) * 2016-08-03 2018-02-08 国立大学法人電気通信大学 Sound symbolism word and personality information providing device, sound symbolism word and personality information providing method, and sound symbolism word and personality information providing program
WO2018088319A1 (en) * 2016-11-11 2018-05-17 ソニーモバイルコミュニケーションズ株式会社 Reproduction terminal and reproduction method

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005317A (en) * 1998-06-22 2000-01-11 Seiko Epson Corp State control assistance apparatus for living body and robot controller
JP2002041276A (en) * 2000-07-24 2002-02-08 Sony Corp Interactive operation-supporting system, interactive operation-supporting method and recording medium
JP2005327096A (en) * 2004-05-14 2005-11-24 Nippon Telegr & Teleph Corp <Ntt> Communication support method, communication support device, program for supporting communication, and recording medium stored with the program
JP2006320621A (en) * 2005-05-20 2006-11-30 Sharp Corp Stress care apparatus, and air-conditioner and robot apparatus equipped with stress care apparatus
JP2010022555A (en) * 2008-07-18 2010-02-04 Sharp Corp Stimulus control system using respiratory sensor
JP2011215462A (en) * 2010-04-01 2011-10-27 Keio Gijuku Olfactory information controller, olfactory information control method and scent generation system
JP2014075045A (en) * 2012-10-04 2014-04-24 Sharp Corp Controller, method for controlling controller, device to be controlled, server, control program, and recording medium
WO2014192457A1 (en) * 2013-05-30 2014-12-04 ソニー株式会社 Client device, control method, system and program
JP2016135530A (en) * 2015-01-23 2016-07-28 シャープ株式会社 Robot control device and robot
WO2017051577A1 (en) * 2015-09-25 2017-03-30 ソニー株式会社 Emotional response inducement system and emotional response inducement method
JP2018022331A (en) * 2016-08-03 2018-02-08 国立大学法人電気通信大学 Sound symbolism word and personality information providing device, sound symbolism word and personality information providing method, and sound symbolism word and personality information providing program
WO2018088319A1 (en) * 2016-11-11 2018-05-17 ソニーモバイルコミュニケーションズ株式会社 Reproduction terminal and reproduction method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7185968B1 (en) 2022-04-28 2022-12-08 AI Infinity 株式会社 Vibration information output system and vibration information output program
JP2023163745A (en) * 2022-04-28 2023-11-10 AI Infinity 株式会社 Vibration information output system and vibration information output program

Also Published As

Publication number Publication date
JP7189434B2 (en) 2022-12-14

Similar Documents

Publication Publication Date Title
Salichs et al. Mini: a new social robot for the elderly
JP6931794B2 (en) Drowsiness estimation device and awakening guidance device
Parés et al. Promotion of creative activity in children with severe autism through visuals in an interactive multisensory environment
Schnädelbach et al. ExoBuilding: breathing life into architecture
WO2019215983A1 (en) Information processing system, information processing method, and recording medium
JP7189434B2 (en) Spatial control system
WO2020261977A1 (en) Space proposal system and space proposal method
JP6631746B1 (en) Cluster classification device, environment generation device, and environment generation system
Bourahmoune et al. Owro: A Novel Robot For Sitting Posture Training Based On Adaptive Human Robot Interaction
Tajadura-Jiménez Embodied psychoacoustics: Spatial and multisensory determinants of auditory-induced emotion
Turgay et al. The role of the senses in children’s perception of space
Kruijff Unconventional 3D user interfaces for virtual environments
Hanke et al. Embodied ambient intelligent systems
JP7415139B2 (en) Environmental condition storage device, environmental condition storage method, operating device, and environment recognition device
JP7329743B2 (en) Environmental control system
Amores Fernandez Olfactory interfaces: toward implicit human-computer interaction across the consciousness continuum
Chayleva Zenth: An Affective Technology for Stress Relief
US20220066561A1 (en) Environmental condition storage device, environmental condition storage method, operation device, and environment recognition device
SAADATIAN ARTIFICIAL AGENTS MODELING FOR INTIMATE TELEPRESENCE
Aoudni et al. Advancing personalized human-robot interaction in the smart world through emotional AI in entertainment robots
Duvall et al. Automatic environment adjustment for emotional disabilities
Jewitt et al. Digital touch
Kim Expanded skin
Tarçın Turgay et al. The Role of the Senses in Children’s Perception of Space
Duc Model Design for Emotion Expression of Assistance Robots

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221114

R151 Written notification of patent or utility model registration

Ref document number: 7189434

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151